WO2022130720A1 - 区画線認識装置 - Google Patents

区画線認識装置 Download PDF

Info

Publication number
WO2022130720A1
WO2022130720A1 PCT/JP2021/034493 JP2021034493W WO2022130720A1 WO 2022130720 A1 WO2022130720 A1 WO 2022130720A1 JP 2021034493 W JP2021034493 W JP 2021034493W WO 2022130720 A1 WO2022130720 A1 WO 2022130720A1
Authority
WO
WIPO (PCT)
Prior art keywords
division line
vehicle
lane marking
lane
line
Prior art date
Application number
PCT/JP2021/034493
Other languages
English (en)
French (fr)
Inventor
健人 鍵本
仁 早川
俊輔 松尾
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Priority to US18/254,637 priority Critical patent/US20240005673A1/en
Priority to JP2022569716A priority patent/JP7470214B2/ja
Priority to DE112021005227.6T priority patent/DE112021005227T5/de
Publication of WO2022130720A1 publication Critical patent/WO2022130720A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Definitions

  • the present invention relates to a lane marking recognition device.
  • the lane marking sensor mounted on the vehicle detects the lane marking (lane boundary line) and recognizes the road boundary.
  • lane marking lane boundary line
  • the sensor may fail to detect the lane markings and the road boundaries may not be recognized correctly.
  • Patent Document 1 is provided as a technique for dealing with a failure to detect a lane marking.
  • the detection result of the camera mounted on the own vehicle is acquired, and at least one of the shape of the roadside object around the traveling direction and the movement history of another vehicle is used as peripheral information. Recognizes, estimates a reference line consisting of a sequence of points representing the road shape in the direction of travel of the own vehicle, and travels the own vehicle at a position separated by a predetermined distance from the reference line to both sides in the vehicle width direction of the own vehicle.
  • a lane boundary which is the boundary of the lane
  • a reference line estimation method an example is disclosed in which the recognized shape of a roadside object and the movement history of another vehicle are moved to the center in the vehicle width direction of the own vehicle to estimate the coordinate position of the point sequence. ..
  • An object of the present invention has been made in view of the above problems, and it is possible to generate lane marking information including a lane marking of a portion that cannot be detected by the sensor in a form in which reliability is added to each portion of the lane marking.
  • the purpose is to provide a lane marking device.
  • the lane marking recognition device of the present invention that solves the above problems is mounted on the own vehicle and a lane marking information acquisition unit that acquires the lane marking information around the own vehicle detected by the lane marking detection sensor mounted on the own vehicle.
  • a target information acquisition unit that acquires target information around the own vehicle detected by the target detection sensor, another vehicle state estimation unit that estimates the state of another vehicle based on the target information, and the lane marking line.
  • a first division line generation unit that recognizes a division line from the division line information acquired by the information acquisition unit and generates the recognized division line as a first division line, and an extension of the first division line to form a division line.
  • a third division line generation unit that estimates a division line based on the above and generates the estimated division line as a third division line, the first division line, the second division line, and the third division line. It is characterized by comprising an output division line construction unit for constructing an output division line output as a division line using at least one of them.
  • the lane marking recognition device can output lane marking information including the lane marking of the portion that cannot be detected by the sensor in a form in which reliability is added to each portion of the lane marking. Therefore, when the sensor cannot detect the lane marking, the lane boundary can be set in consideration of the reliability, and the warning to the passenger and the vehicle control can be realized. That is, the functional range of driving support or automatic driving can be expanded.
  • the hardware block diagram which shows one Embodiment of the lane marking recognition apparatus which concerns on this invention.
  • the functional block diagram of the lane marking recognition apparatus shown in FIG. Derived pattern of the functional block diagram of the lane marking recognition device shown in FIG.
  • the whole processing flow diagram of the lane marking recognition apparatus shown in FIG. FIG. 3 is a plan view of a vehicle equipped with the device shown in FIG. 1 when traveling in a lane.
  • the figure which shows the example which the vehicle equipped with the apparatus shown in FIG. 1 generates an extension lane marking line.
  • the figure which shows the example which the vehicle equipped with the apparatus shown in FIG. 1 generates a locus division line.
  • the figure which shows the example which the vehicle equipped with the apparatus shown in FIG. 1 sets a lane marking and its reliability.
  • the figure which shows the processing flow of the output division line construction part of the apparatus shown in FIG. The figure which shows the main processing of the output division line construction part of the apparatus shown in FIG.
  • the image diagram of the utilization scene of Embodiment 1. The image diagram of the utilization scene of Embodiment 1.
  • the second embodiment is an image diagram in the case where another vehicle is traveling in the front-rear direction of the own vehicle.
  • An image diagram of the third embodiment when a plurality of other vehicles are traveling.
  • FIG. 1 is a hardware configuration diagram showing an embodiment of a lane marking recognition device according to the present invention.
  • the lane marking information integration device 100 of the present embodiment to which the lane marking recognition device according to the present invention is applied is mounted on the vehicle 10 and includes an Advanced Driver Assistance System (ADAS) and an automated driving system (Automated Driving:). It constitutes a part of AD).
  • ADAS Advanced Driver Assistance System
  • Automated Driving Automated Driving
  • the lane marking information integration device 100 includes, for example, a storage device such as a central processing unit, a memory, and a hard disk, a computer program stored in the storage device, and an input / output device. Specifically, it is a computer system such as firmware or a microcontroller. Further, the lane marking information integration device 100 may be a part of an ADAS or an electronic control unit (ECU) for AD mounted on the vehicle 10.
  • a storage device such as a central processing unit, a memory, and a hard disk
  • a computer program stored in the storage device and an input / output device.
  • an input / output device Specifically, it is a computer system such as firmware or a microcontroller.
  • the lane marking information integration device 100 may be a part of an ADAS or an electronic control unit (ECU) for AD mounted on the vehicle 10.
  • ECU electronice control unit
  • the lane marking information integration device 100 enables information communication with the lane marking detection sensor 200, the target target detection sensor 300, and the positioning sensor 400 mounted on the vehicle 10 via CAN (Controller Area Network), in-vehicle Ethernet, or the like. It is connected.
  • detection results I1, I2, and I3 are input from the lane marking sensor 200, the target detection sensor 300, and the positioning sensor 400, respectively, and the output result R of these sensor information is used as the lane marking information utilization device. Output to 500. Details of the functions included in the lane marking information integration device 100 will be described later.
  • the lane marking information integration device 100 is configured to repeatedly operate at a predetermined cycle.
  • the cycle of operation of the lane marking information integration device 100 is not particularly limited, but may be improved as a short cycle such as a 50 [ms] cycle to improve immediate responsiveness, or may be delayed as a 200 [ms] cycle. It may be set to reduce power consumption by limiting it to alarms that are not related to control.
  • the cycle may be dynamically switched to change the balance between immediate response and power consumption as required by the situation. Further, instead of performing periodic processing, processing may be started based on another trigger such as input from a sensor to suppress unnecessary power consumption.
  • the lane marking sensor 200 is a sensor mounted on the vehicle 10 and detecting the lane marking around the vehicle 10.
  • the lane marking sensor 200 is, for example, a sensor capable of detecting a stereo camera, an all-around bird's-eye view camera system, a LIDAR (Light Detection and Ringing), a monocular camera, and other lane markings.
  • the lane marking is a road marking that divides a lane on a road, and includes a lane boundary line displayed by a solid white or yellow line or a broken line.
  • road marking paints, road studs, poles, stones and the like are generally used.
  • the recognition of the lane marking by the lane marking sensor 200 will be described by taking a stereo camera as an example.
  • the stereo camera which is the lane marking sensor 200, detects the lane marking from the image information. Further, the stereo camera generates a parallax image from the images of the two cameras, and measures the relative position, the relative speed, the line type of the lane marking, and the like with respect to each pixel of the lane marking image. It should be noted that the output does not necessarily include all the information, and here, the information on the relative position from the vehicle 10 to the lane marking is output to the lane marking information integration device 100 as the detection result I1.
  • the target detection sensor 300 is a sensor mounted on the vehicle 10 and detecting a target around the vehicle 10.
  • the target detection sensor 300 is a sensor capable of detecting a target, such as a radar, LIDAR, or sonar sensor.
  • the target indicates another vehicle traveling around the own vehicle, a guardrail attached to the road, a curb, and the like.
  • the target detection sensor 300 outputs the relative position and relative speed of the other vehicle 11 traveling around the own vehicle as the detection result I2 to the lane marking information integration device 100.
  • the lane marking sensor 200 and the target detection sensor 300 may be replaced with only one LIDAR as a sensor capable of detecting both the lane marking and the target, and it is not always necessary to use a plurality of sensors.
  • the positioning sensor 400 includes, for example, a speed sensor, an acceleration sensor, an angular speed sensor, a steering angle sensor, a gyro sensor, and a satellite positioning system such as a GNSS (Global Navigation Satellite System) mounted on the vehicle 10. Further, instead of the target detection sensor 300 mounted on the own vehicle, a vehicle-to-vehicle communication function for transmitting and receiving a position and a speed to and from another vehicle 11 may be installed to widely acquire the surrounding situation.
  • the positioning sensor 400 outputs the detection result (positioning information) I3 including, for example, the speed, acceleration, angular velocity, steering angle, posture in the global coordinate system outside the own vehicle, etc. of the vehicle 10 to the lane marking information integration device 100. ..
  • the detection result I3 output by the positioning sensor 400 does not necessarily include all the above-mentioned information, but includes, for example, at least the speed, acceleration, and angular velocity of the vehicle 10.
  • the vehicle 10 is odometrically used using a speed sensor, an angular velocity sensor, a gyro sensor, or the like.
  • the position and orientation of may be complemented. Further, the position and direction of the vehicle 10 may be accurately obtained in a short cycle, and the difference between the position and the direction between the previous cycle and the current cycle may be calculated.
  • the lane departure information utilization device 500 includes an alarm device 510 or a vehicle control device 520, and the lane departure warning, lane keeping control, lane change, and lane change support are based on the output result R of the lane departure information integration device 100. To carry out.
  • FIG. 2A is a functional block diagram of the lane marking information integration device 100 shown in FIG.
  • the lane marking sensor 200, the target detection sensor 300, and the outputs I1, I2, and I3 of the positioning sensor 400 are combined with the lane marking information acquisition unit 101 and the target information acquisition unit 103 in the lane marking information integration device 100, respectively. And pass it to the positioning information acquisition unit 105.
  • the lane marking information acquisition unit 101 acquires lane marking information around the own vehicle detected by the lane marking sensor 200.
  • the lane marking information acquisition unit 101 converts the time synchronization of the lane marking information detected by the lane marking sensor 200 and the output format into a format that is easy to handle by the lane marking information integration device 100, and outputs the output to the lane marking recognition unit 102 in the subsequent stage. do.
  • the detection result I1 of the lane marking sensor 200 may be a parameter of an approximate curve based on the shape of the lane marking, such as a coefficient of a quadratic curve based on the shape of the lane marking. In this case, the information capacity of the detection result I1 can be reduced as compared with the case where the detection result I1 is a recognition point sequence.
  • the target information acquisition unit 103 acquires the target information around the own vehicle detected by the target detection sensor 300.
  • the target information acquisition unit 103 converts the time synchronization of the target information detected by the target detection sensor 300 and the output format into a format that is easy to handle by the lane marking information integration device 100, and converts the output format into a format that can be easily handled by the lane marking information integration device 100. Output.
  • the positioning information acquisition unit 105 converts the time synchronization of the input information and the format of the information to be handled, and the self-position attitude estimation unit 106 in the subsequent stage and the other vehicle state. Output to the estimation unit 104.
  • the lane marking information for integrating the lane markings will be generated.
  • the first lane marking line is a recognition lane marking line actually recognized by the vehicle 10
  • the second lane marking line is an extension lane marking line extending the recognition lane marking line in front of the vehicle
  • the third lane marking line is the own vehicle. It is a locus lane marking generated from the running locus of surrounding vehicles.
  • the recognition division line, the extension division line, and the locus division line are identification information assigned to a certain division line, and the division line is divided into small sections by the output division line construction unit 111, respectively. Different information shall be assigned to. In particular, for the part where information is duplicated, a highly reliable lane marking is adopted.
  • the division line recognition unit 102 sequentially processes the division line detection results output from the division line information acquisition unit 101, and recognizes the division line.
  • a plurality of lane marking sensors mounted on the vehicle 10 may be mounted, and in that case, a plurality of lane marking detection results may be passed to the lane marking unit 102 for one lane marking.
  • the division line information acquisition unit 101 and the division line recognition unit 102 in the previous stage may be treated as one unit to simplify the functional block.
  • the other vehicle state estimation unit 104 sequentially processes the target detection results around the own vehicle output from the target information acquisition unit 103.
  • a target refers to an object around the vehicle, such as a vehicle such as a car or motorcycle, a pedestrian, a guardrail or a curb that is a roadside object, but here, other vehicles existing around the vehicle are handled. It shall be.
  • the other vehicle state estimation unit 104 estimates at least the position and speed of the other vehicle as the state of the other vehicle, and outputs the position and speed to the subsequent processing unit. Further, when the target detection sensor 300 cannot detect another vehicle, the position and speed information of the other vehicle output by the positioning sensor 400 may be used.
  • the self-position / attitude estimation unit 106 receives the speed, acceleration, and angular velocity of the own vehicle output from the positioning information acquisition unit 105, and uses a Kalman filter or the like to perform postures such as the position and orientation of the own vehicle in the global coordinate system outside the own vehicle. Hereafter, the position and posture) are calculated. Then, it is output to the history storage unit 112 and the locus storage unit 107 in the subsequent stage.
  • the locus accumulating unit 107 receives the relative position of the other vehicle with respect to the own vehicle, which is the output of the other vehicle state estimation unit 104, and the position / attitude of the own vehicle, which is the output of the self-position / posture estimation unit 106, in the global coordinate system outside the own vehicle. Generate the travel trajectory of another vehicle.
  • extension lane marking generation unit 108 (second lane marking generation section), the in-lane position estimation section 109, the locus lane marking generation section (third lane marking generation section) 110, and the output lane marking section, which are the main parts of the present invention, are used.
  • the construction unit 111 will be described with reference to FIGS. 3 to 8B.
  • Fig. 3 shows the overall processing flow.
  • sensor information such as the lane marking sensor 200 and the target detection sensor 300 is acquired, and in the process P2, the sensor information is detected by the sensor information recognition process in the lane marking information acquisition unit 101, the target information acquisition unit 103, and the like.
  • the time synchronization and format conversion of the above are performed, and the information is converted into information that is easy to handle by the lane marking information integration device 100.
  • a fusion process for integrating the same information into one may also be performed.
  • the self-position / posture information (position / posture of the own vehicle) required for accumulating the recognition lane markings of the vehicle 10 and accumulating the traveling locus of the other vehicle 11 is estimated.
  • the self-position / attitude information is estimated based on the sensor information recognized in the process P2.
  • the lane marking is recognized from the information of the lane marking recognized in the process P2, and the recognized lane marking is generated as the recognition lane marking.
  • the recognition lane marking line is generated by converting the lane marking line recognized in the process P2 into a plausible shape by using the least squares method or the like.
  • the process in this process P4 corresponds to the recognition lane marking generation unit (first lane marking generation unit) that generates the recognition lane marking line. Further, in the process P5, the recognition division line recognized in the previous stage is extended and expanded to the non-detection range of the sensor to generate the extension division line. Here, the recognition division line is extended to estimate the division line, and the estimated division line is generated as the extension division line.
  • the extension marking line is formed by stretching the recognition marking line based on the shape of the recognition marking line.
  • the process in this process P5 corresponds to the extension section line generation section (second section line generation section) that generates the extension section line.
  • the process P6 it is confirmed whether or not a vehicle exists in the own lane, the adjacent lane, or the like, and if so, the processes of the processes P7 to P11 are repeated for each vehicle. If it does not exist, the output lane marking line construction process of the process P12 is performed on the recognition lane marking line recognized by the process P4 or the extension lane marking line generated by the process P5, and the process ends.
  • the traveling locus of another vehicle is generated from the position in the global coordinate system outside the own vehicle of the other vehicle acquired in advance.
  • the lane marking line is estimated based on the positional relationship between the travel locus of another vehicle generated in the process P8 and the recognition lane marking line, and the estimated lane marking line is generated as the locus lane marking line.
  • the distance between the travel locus of another vehicle and the recognition lane marking line required by the locus lane marking generation unit 110 is calculated.
  • the distance between the travel locus of another vehicle and the recognition lane marking line is the distance in the road width direction between the travel locus of another vehicle and the recognition lane marking line.
  • a locus section line is generated from the distance information obtained in the process P9.
  • the processing in the processing P9 and the processing P10 comes to the locus division line generation unit (third division line generation unit) that generates the trajectory division line. If the locus lane markings have been generated for all the vehicles around the own vehicle at the time of the process P11, the process proceeds to the final process P12.
  • an output division line output as a division line is constructed by using at least one of the recognition division line, the extension division line, and the locus division line.
  • the recognition division lines, extension division lines, and locus division lines that have been generated so far are combined and evaluated in order of reliability, and one division line is divided into the three types of divisions on the left for each subsection.
  • a line is adopted and used as the output of the lane marking information integration device 100.
  • not only one type of lane marking line such as only the recognition lane marking line or only the locus lane marking line is output, but also a different lane marking line is adopted for each small section even if the reliability is low, and the lane marking information is integrated. Output from the device 100.
  • the purpose of this is to output as much lane marking information as possible for one lane marking that should be recognized, regardless of the reliability, and how to use this information will be described later. This is because it is premised on the idea of leaving it to the control device (passing as much information as possible to the subsequent control device in order to expand the controllability options of the vehicle).
  • the recognition division line, the extension division line, and the locus division line only one type having the highest reliability may be adopted and output as an output division line.
  • FIG. 4 shows a basic image for explaining the present invention.
  • a lane marking 20 is drawn on a road changing from a straight section to a curved section, and a lane marking information integration device 100, a lane marking sensor 200, a target detection sensor 300, a positioning sensor 400, and a lane marking are drawn.
  • another vehicle 11 is traveling in front of the vehicle 10 equipped with the line information utilization device 500.
  • four lane markings 21, 22, 23, and 24 are drawn as lane markings 20, and three lanes 25, 26, and 27 are partitioned.
  • An example is shown in which the vehicle 10 and the other vehicle 11 are traveling in the central lane 26 among the three lanes 25, 26, and 27.
  • the lane marking sensor 200 detects the lane marking, the lane marking information acquisition unit 101 and the lane marking recognition unit 102 recognize the vehicle relative position of the lane marking, and the recognition result is obtained by the extension lane marking generation unit 108.
  • the extension lane marking generation unit 108 has a function of generating an extension lane marking by extending the lane marking line in front of the own vehicle by using the recognition lane marking output by the lane marking recognition unit 102. Specifically, first, the received recognition lane marking is projected from the own vehicle coordinate system to the global coordinate system outside the own vehicle, and then converted into an approximate curve such as a straight line or a circle by using the least squares method or the like. This complements the lane markings in case the lane markings themselves are faint, the lane markings are not detected outside the detection range of the lane marking sensor 200, or the lane markings cannot be detected due to backlight such as sunlight. .. Then, it is output to the output division line construction unit 111 in the subsequent stage.
  • 30A is a detected lane marking line
  • 30B is redrawn as a recognition lane marking line based on the detection result.
  • the extension lane marking 40 shown by a broken line in the figure is a lane marking line just extended to the front of the own vehicle based on the shape of the recognition lane marking 30B.
  • a known method such as geometric calculation is used. Therefore, in a section where the road shape changes from a straight section to a curved section, the lane markings in the vicinity of the vehicle match the actual lane markings on the road, but the lane markings in the distance are included. It is not always possible to express a shape that fits the entire actual road.
  • the target detection sensor 300 and the positioning sensor 400 are used to calculate the relative position of the other vehicle and the position / posture of the own vehicle in the global coordinate system outside the own vehicle, and the traveling of the other vehicle 11 traveling in front of the own vehicle. It is a conceptual diagram which generates the position in the lane of another vehicle 11 and the locus division line 60 by recognizing the locus 50 and passing the recognition result to the locus storage unit 107.
  • the position estimation unit 109 in the lane uses the information of the lane marking recognized by the lane marking unit 102 and the travel locus information of the other vehicle 11 accumulated by the locus accumulating unit 107 to determine the position of the other vehicle 11 in the lane. Perform the estimation process.
  • the locus lane marking unit 110 generates the locus lane marking 60 based on the positional relationship between the traveling locus 50 of the other vehicle 11 and the recognition lane marking 30B of the own vehicle. Specifically, the in-lane position estimation unit 109 obtains the distance between the traveling locus 50 of the other vehicle 11 and the recognition division line 30B of the own vehicle for each fixed section (d1 to dn), takes an average value, and obtains this.
  • the locus lane marking 60 is obtained by using the average value as an offset value from the travel locus 50 and shifting the travel locus.
  • the locus lane marking 60 can be used as a substitute for the recognition lane marking 30B that the own vehicle could not detect.
  • the distance in the position estimation in the lane is not limited to the average, and the distance in the section may be obtained by using learning. Further, for a section in which the lane width is not constant and changes, the offset value may be linearly increased or decreased by observing the change in distance.
  • the section of the locus marking line 60 for example, from the place where the recognition marking line does not exist to the rear end of the other vehicle 11 is considered. In the example shown in FIG. 6, the locus lane marking 60 inside the curve is obtained based on the distance between the recognition lane marking 30B inside the curve and the traveling locus 50 of the other vehicle 11, but the recognition lane marking 30B outside the curve is obtained. It is also possible to obtain a locus lane marking outside the curve based on the distance between (see FIG. 5) and the travel locus 50 of the other vehicle 11.
  • FIG. 7 is a processing conceptual diagram of the output division line construction unit 111.
  • different reliability is set for each small section for one section line.
  • it represents a state in which one lane marking line is composed of a plurality of lane marking information for each section 70A, 70B, 70C, 70D.
  • a method of selecting the division line information to be output from each of a plurality of division line information will be described with reference to the processing flow diagram 8A of the output division line construction unit 111 and the main processing diagram 8B.
  • the lane marking sensor 200 of the vehicle 10 cannot recognize the lane markings 22 and 23 ahead of the recognition lane marking 30B due to, for example, backlight or faintness.
  • the lane marking to which the lane marking information is added is divided into a plurality of sections (P22). Then, the division line information in each section is referred to, and which division line information is to be output is determined by the combination of the recognition division line, the extension division line, and the locus division line, respectively (P23-P25). At this time, as the order of reliability of the lane marking information, it is assumed that the reliability decreases in the order of the recognition lane marking line, the locus lane marking line, and the extension lane marking line.
  • the reliability of each section and the selection target of the adopted division line are determined based on the combination table of FIG. 8B. If the recognition lane markings exist in order of reliability of the lane markings, only the recognition lane markings are adopted and high reliability information is given. When both the extension lane marking line and the locus lane marking line exist and the distance between them is equal to or less than the threshold value, the locus lane marking line is adopted and medium reliability information is given. At this time, if the distance between the two is larger than the threshold value, the other vehicle 11 has traveled along the lane marking due to a lane change or the like, or the shape of the lane marking on the road has suddenly changed.
  • the lines do not match, low reliability information is added to both lane marking information, and then a more reliable lane marking is adopted. Further, when only the locus lane marking exists, the locus lane marking is adopted and low reliability information is given, and when only the extension lane marking is present, the extension lane marking is adopted in the same manner and the low reliability information is given. Is given. Here, three types of reliability information are set, high, medium, and low, but the reliability may be set more strictly to improve the reliability of the entire lane marking, and the reliability is not limited to this.
  • each section line 30B, 40, 60 is divided into small sections 70A to 70D at predetermined intervals.
  • a group is formed between the same division lines for each division line (recognition division line, extension division line, locus division line) at a certain moment.
  • the separation distances in the lane width direction of each lane marking are compared in a round-robin manner, and the lane markings that are closest to each other and whose separation distance is equal to or less than a threshold value (for example, a distance of half the lane width) are grouped together.
  • a threshold value for example, a distance of half the lane width
  • the extended division line is extended from the recognition division line, it can be regarded as the same group.
  • the separation distance may be calculated as the average of the distance errors of the lane markings to be compared obtained in each fixed range.
  • the recognition lane marking 30B on the right side of the own vehicle, the extension lane marking 40 on the right side of the own vehicle, and the locus lane marking 60 are in the same group, and the own vehicle is formed.
  • the lane marking 30B on the left side and the lane marking 40 on the left side of the own vehicle form another same group.
  • the recognition lane markings and the extension lane markings are searched for in a certain range from the start point of the lane markings in the extension direction, and the recognition lane markings and the extension lane markings are perpendicular to the extension direction. It is determined whether or not there is a locus lane marking that fits within the direction (direction of the lane marking width). Then, when the locus lane marking line exists, the separation distance between the recognition lane marking line and the extension lane marking line is calculated, and the section 70B is set for the portion below the threshold value (for example, about twice the lane marking line width). .. Then, the section 70C is set for the portion where the separation distance is larger than the threshold value.
  • the threshold value for example, about twice the lane marking line width
  • the section 70A is set for the portion where only the recognition division line 30B exists, and the section 70D is set for the portion where only the extension division line 40 exists. Since the threshold value used for these section divisions varies depending on the sensor used and the driving lane width, it may be changed according to the sensor characteristics and the actual driving environment.
  • a method of dividing the lane markings into small sections a method of dividing the lane markings from the origin of the own vehicle coordinate system at regular intervals in the direction of travel of the own vehicle may be adopted, or each line may be divided at regular intervals so as to strictly follow the lane markings. Then, the dividing line included in the dividing area may be selected.
  • the lane markings may be divided in a grid pattern based on the origin of the own vehicle coordinate system, and the lane marking information that fits in each cell may be combined. ..
  • the threshold value of the distance is assumed to be based on the lane marking width, and double the lane marking width is set as the threshold value.
  • the recognition section line 30B for high reliability information is set in the section 70A of FIG. 7
  • the locus section line 60 for medium reliability information is set in the section 70B
  • the low reliability information is also set in the section 70C.
  • the locus section line 60 of the above is set
  • the extension section line 40 of the low reliability information is set in the section 70D.
  • the locus lane marking 60 is adopted as the lane marking of the section 70B, but in this section, an integrated lane marking that integrates the lane markings such as taking the average value of the coordinates of the locus lane marking 60 and the extension lane marking 40 is adopted. You may.
  • FIGS. 9A and 9B show examples of scenes in which the effect of the present invention is remarkable.
  • FIG. 9A when the vehicle 10 is traveling in the driving lane 26 toward a certain destination and the lane must be changed to the right lane 27, and the lane marking 22 ahead is due to some factor. , 23 cannot be detected. Then, since the other vehicle 11 is traveling ahead, the locus lane marking 60 can be generated, and together with the extension lane marking 40, the lane marking 23'on the right side of the vehicle 10 can be generated. This makes it possible to change lanes to the right lane 27.
  • the vehicle 10 when the vehicle 10 is traveling in a curved section and the lane must be maintained, the other vehicle 11 travels ahead in a situation where the lane markings 22 and 23 in front cannot be detected. By doing so, the left locus lane marking 60 can be generated. Therefore, the vehicle 10 can sound the lane departure warning to the driver of the vehicle 10 and continue the lane keeping control, and can reduce the risk of the lane departure.
  • FIG. 10 will be described as another utilization scene.
  • FIG. 10 is a scene in which another vehicle 12 is traveling from the front to the rear in the oncoming lane next to the traveling lane in which the vehicle 10 is traveling.
  • three lane markings 121, 122, and 123 are drawn as lane markings 20, and the traveling lane 124 between the lane marking 122, which is the center line, and the lane marking 121 on the left side thereof is driven by the own vehicle.
  • An example is shown in which a certain vehicle 10 travels and another vehicle 12 which is an oncoming vehicle travels on an oncoming lane 125 between the lane marking 122 and the lane marking 123 on the right side thereof.
  • the locus lane marking 60 having medium reliability information is generated for the section where the locus lane marking 60 obtained from the traveling locus 50 of the other vehicle 12 and the extension lane marking 40 obtained from the recognition lane marking line of the vehicle 10 overlap. Therefore, even in a situation where the vehicle 10 cannot detect the front lane markings 121 and 122, it is possible to execute the lane keeping control and prevent the vehicle 10 from jumping out of the traveling lane 124.
  • a history storage unit 112 is newly provided between the division line recognition unit 102 and the extension division line generation unit 108.
  • the history storage unit 112 stores past recognition lane markings detected by the lane marking unit 102 of the vehicle 10 and information on the position and posture of the own vehicle of the self-position / posture estimation unit 106 as a history, and the accumulated information.
  • Is used to generate a fourth division line 41 which is a division line extending the recognition division line 30B to the rear of the own vehicle (hereinafter, the fourth division line generated by extending the recognition division line rearward is referred to as a history division line. Call).
  • the locus lane marking unit 110 uses the recognition lane marking 30B and the traveling locus 50 of the other vehicle 12 to generate a locus lane marking 60 extending toward the rear of the vehicle 10.
  • the output lane marking construction unit 111 uses the history lane marking 41 and the locus lane marking 60 to form a boundary between the own lane in which the own vehicle is traveling behind the vehicle 10 and the adjacent lane adjacent to the own lane. Build an output lane.
  • the traveling lane of another vehicle traveling behind the vehicle 10 is set to the own lane by using the information of the output lane marking behind the own vehicle constructed by the output lane marking construction unit 111. And determine which is the next lane.
  • the overall processing flow is located between the recognition division line generation of the processing P4 and the extension division line generation of P5 in FIG.
  • FIG. 12 As an explanation using FIG. 12, consider a scene in which the vehicle 13A is traveling in front of the vehicle 10 and the vehicle 13B is approaching behind the vehicle 10.
  • three lane markings 131, 132, and 133 are drawn as lane markings 130 for dividing the two lanes, and the vehicle 10 which is the own vehicle is in the lane 134 between the lane markings 131 and the lane markings 132.
  • An example is shown in which the other vehicles 13A and 13B travel in the lane 135 between the lane marking 132 and the lane marking 133.
  • the vehicle 10 detects a part of the front division line and sets it as the recognition division line 30B, but the history storage unit 112 can generate the history division line 41 to the rear of the vehicle 10. .. Then, based on the recognition lane marking 30B and the traveling locus 50 of the other vehicle 13A, the locus lane marking 60 extending toward the rear of the own vehicle can be obtained. Then, when the distance between both the history division line 41 and the locus division line 60 is equal to or less than the threshold value, it is possible to generate an output division line having medium reliability information.
  • the lane marking information utilization device 500 based on the output lane marking having the medium reliability information, it is possible to determine whether the lane in which the other vehicle 13B behind is traveling is the own lane 134 or the adjacent lane 135. become able to. That is, it can be used for determining the danger when the vehicle 10 executes a lane change.
  • the output division line having the medium reliability information the history division line generated from the history of the division line that can be actually detected is more reliable than the trajectory division line, so that the history A lane marking may be adopted, or an integrated lane marking that integrates both lane markings may be adopted.
  • the third embodiment shown in FIG. 13 is the same as the block configuration of the first embodiment, but since a plurality of other vehicles are targeted, in the lane marking information integration device 100, the lane marking selection of the output lane marking construction unit 111 Added processing combination item.
  • FIG. 13 is a scene in which a plurality of other vehicles 14A and 14B are traveling in front of the vehicle 10.
  • the vehicle 10 is equipped with a lane marking sensor 200, a target detection sensor 300, and the like, and can detect surrounding lane markings and targets.
  • the lane marking sensor 200 can detect not only the own lane 25 but also the lane markings 23 and 24 of the adjacent lanes 26 and 27.
  • the locus lane markings 60 and 61 are generated based on the traveling locus 50A and the recognition lane marking 30B of the other vehicle 14A, and the locus lane marking 62 is generated based on the traveling locus 50B and the recognition lane marking 30B of the other vehicle 14B. ..
  • the lane marking information integration device 100 can estimate the lane marking of the section 80 in which the locus lane markings 61 and 62 overlap from the traveling loci 50A and 50B of the other vehicles 14A and 14B.
  • the locus section line generation unit 110 compares a plurality of track section lines with each other and integrates one or a plurality of track section lines of the plurality of track section lines when the adjacent locus sections have a distance equal to or less than the threshold value.
  • the integrated lane marking line is adopted as the locus lane marking line. If the locus lane markings 61 and 62 of the section 80 have a distance equal to or less than the threshold value, since a plurality of lane markings are superimposed in the order of reliability, medium reliability information is given and one locus is given.
  • Adopt a lane marking Alternatively, as in FIG. 7, an integrated lane marking line in which a plurality of lane marking lines are integrated may be adopted. As a result, it is possible to change lanes to the adjacent lane, and by capturing a plurality of lanes around the own vehicle, it is possible to improve the possibility of matching with the lane described on the map.
  • the present invention is not limited to the above-described embodiments, and various designs are designed without departing from the spirit of the present invention described in the claims. You can make changes.
  • the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations.
  • it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment and it is also possible to add the configuration of another embodiment to the configuration of one embodiment.
  • 30B recognition lane marking (first lane marking), 40 extension lane marking (second lane marking), 41 history lane marking (fourth lane marking), 60 locus lane marking (third lane marking), 100 lane marking information integration device (Partition line recognition device), 102 lane marking recognition unit (first lane marking generation unit), 104 other vehicle state estimation unit, 106 self-position posture estimation unit, 108 extension lane marking generation unit (second lane marking generation unit), 110 Trajectory division line generation unit (third division line generation unit), 111 Output division line construction unit, 112 History storage unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

本発明の課題は、センサが検知できなかった部分の区画線を含む区画線情報を、区画線の各部分に信頼度を付加した形で生成可能な区画線認識装置を得ること。本発明の区画線認識装置(100)は、自車周辺の区画線情報を取得する区画線情報取得部(101)と、自車周辺の物標情報を取得する物標情報取得部(103)と、物標情報に基づいて他車両の状態を推定する他車両状態推定部(104)と、区画線情報から第1区画線(30B)を生成する第1区画線生成部(102)と、第1区画線を延伸して第2区画線(40)を生成する第2区画線生成部(108)と、他車両の走行軌跡と第1区画線との位置関係を基に第3区画線(60)を生成する第3区画線生成部(110)と、第1区画線と、第2区画線と、第3区画線の少なくともいずれか一つを用いて区画線として出力される出力区画線を構築する出力区画線構築部(111)とを備える。

Description

区画線認識装置
 本発明は、区画線認識装置に関する。
 一般道や高速道などを走行する車両において、運転支援または自動運転を安全に実現するには、車両に搭載された区画線検知センサで区画線(車線境界線)を検知し、道路境界を認識し、認識結果に基づいて搭乗者への警告や車両制御を実行する必要がある。警報や車両制御の例としては、車線逸脱警報や車線維持制御、自動車線変更、車線変更支援等がある。しかし、道路の区画線のかすれや天候要因などにより、センサによる区画線の検知に失敗し、道路境界を正しく認識できないことがある。区画線の検知失敗時への対応技術として下記特許文献1がある。
 特許文献1に記載の車線境界設定装置では、自車両に搭載されたカメラの検出結果を取得して、進行方向周囲における路側物の形状と、他車両の移動履歴の少なくとも一つを周辺情報として認識し、自車両の進行方向に道路形状を点で表す点列からなる基準線を推定し、基準線から自車両の車幅方向両側へ予め定められた距離離れた位置を、自車両の走行車線の境界である車線境界として設定することで、区画線が認識されない場合であっても、自車両の走行車線の境界である車線境界を設定することができるとしている。そして、基準線の推定方法として、認識された路側物の形状と他車両の移動履歴を、自車両の車幅方向中央に推移させて、点列の座標位置を推定する例が開示されている。
特開2020-87191号公報
 しかしながら、特許文献1に記載の車線境界設定装置では、路側物の並びが車線形状と一致していない場面や前方車両が車線変更をする状況において、実際の車線形状に沿わない車線境界を設定してしまい、車線内走行を維持できずに隣車線へ逸脱するおそれがある。
 本発明の目的は、上記問題を鑑みてなされたものであり、センサが検知できなかった部分の区画線を含む区画線情報を、区画線の各部分に信頼度を付加した形で生成可能な区画線認識装置を提供することにある。
 上記課題を解決する本発明の区画線認識装置は、自車に搭載された区画線検知センサにより検知された自車周辺の区画線情報を取得する区画線情報取得部と、自車に搭載された物標検知センサにより検知された自車周辺の物標情報を取得する物標情報取得部と、該物標情報に基づいて他車両の状態を推定する他車両状態推定部と、前記区画線情報取得部によって取得された区画線情報から区画線を認識し、該認識した区画線を第1区画線として生成する第1区画線生成部と、該第1区画線を延伸して区画線を推定し、該推定した区画線を第2区画線として生成する第2区画線生成部と、前記他車両状態推定部によって推定された前記他車両の走行軌跡と前記第1区画線との位置関係を基に区画線を推定し、該推定した区画線を第3区画線として生成する第3区画線生成部と、前記第1区画線と、前記第2区画線と、前記第3区画線の少なくともいずれか一つを用いて区画線として出力される出力区画線を構築する出力区画線構築部と、を備えることを特徴とする。
 本発明の上記一態様によれば、区画線認識装置はセンサが検知できなかった部分の区画線を含む区画線情報を、区画線の各部分に信頼度を付加した形で出力できる。そのため、センサが区画線を検知できなかった場合に信頼度を考慮した上で車線境界を設定でき、搭乗者への警告や車両制御を実現できるようになる。すなわち、運転支援または自動運転の機能する範囲を拡大できる。
 本発明に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、上記した以外の、課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明に係る区画線認識装置の一実施形態を示すハードウェア構成図。 図1に示す区画線認識装置の機能ブロック図。 図1に示す区画線認識装置の機能ブロック図の派生パターン。 図1に示す区画線認識装置の全体処理フロー図。 図1に示す装置を搭載した車両の車線走行時の平面図。 図1に示す装置を搭載した車両が延伸区画線を生成する例を示す図。 図1に示す装置を搭載した車両が軌跡区画線を生成する例を示す図。 図1に示す装置を搭載した車両が区画線とその信頼度を設定する例を示す図。 図1に示す装置の出力区画線構築部の処理フローを示す図。 図1に示す装置の出力区画線構築部の主要処理を示す図。 実施形態1の活用シーンのイメージ図。 実施形態1の活用シーンのイメージ図。 実施形態1について他車両が対向車線を走行している場合のイメージ図。 実施形態2に係る区画線認識装置の機能ブロック図の派生パターン。 実施形態2について自車前後方向に他車両が走行している場合のイメージ図。 実施形態3について他車両が複数走行している場合のイメージ図。
 以下、図面を参照して本開示に係る区画線認識装置の実施形態を説明する。
[実施形態1]
 図1は、本発明に係る区画線認識装置の一実施形態を示すハードウェア構成図である。本発明に係る区画線認識装置が適用される本実施形態の区画線情報統合装置100は、車両10に搭載され、先進運転支援システム(Advanced Driver Assistance System:ADAS)や自動走行システム(Automated Driving:AD)の一部を構成する。
 区画線情報統合装置100は、たとえば、中央処理装置やメモリ、ハードディスクなどの記憶装置と、その記憶装置に記憶されたコンピュータプログラムと、入出力装置とを備える。具体的には、ファームウェアまたはマイクロコントローラなどのコンピュータシステムである。また、区画線情報統合装置100は、車両10に搭載されたADASまたはAD用の電子制御ユニット(Electronic Control Unit:ECU)の一部であってもよい。
 区画線情報統合装置100は、車両10に搭載された区画線検知センサ200、物標検知センサ300、測位センサ400に対し、CAN(Controller Area Network)や車載用イーサネットなどを介して情報通信可能に接続されている。区画線情報統合装置100は、区画線検知センサ200、物標検知センサ300および測位センサ400からそれぞれ検知結果I1,I2,I3が入力され、これらのセンサ情報の出力結果Rを区画線情報活用装置500へ出力する。
 区画線情報統合装置100が備える機能の詳細は後述する。
 区画線情報統合装置100は、所定の周期で繰り返し動作するように構成されている。区画線情報統合装置100の動作の周期は、特に限定はされないが、50[ms]周期のように短い周期として即時対応性を高めてもよいし、200[ms]周期のように遅めに設定し、制御に関わらない警報のみにとどめて消費電力を削減してもよい。また、周期を動的に切り替えて即時対応性と消費電力のバランスを状況に求められるように変化させてもよい。また、周期処理とはせずに、センサからの入力のような別の契機に基づいて処理を開始して不要な消費電力を抑えてもよい。
 区画線検知センサ200は、車両10に搭載され、車両10の周囲の区画線を検知するセンサである。区画線検知センサ200は、たとえば、ステレオカメラ、全周囲俯瞰カメラシステム、LIDAR(Light Detection and Ranging)、単眼カメラ、およびその他の区画線を検知可能なセンサである。ここで、区画線とは、道路上の車線を区分する道路標示であり、白色または黄色の実線または破線で表示される車線境界線を含む。具体的には、路面標示用塗料、道路鋲、ポール、石などが一般に用いられている。
 区画線検知センサ200による区画線の認識について、ステレオカメラを例として説明する。区画線検知センサ200であるステレオカメラは、画像情報から区画線を検知する。また、ステレオカメラは、二つのカメラの画像から視差画像を生成し、区画線の画像の各画素に対して車両10からの相対位置、相対速度、区画線の線種などを計測する。なお、出力に必ずしもすべての情報を含む必要はなく、ここでは検知結果I1として車両10から区画線までの相対位置の情報を区画線情報統合装置100へ出力する。
 物標検知センサ300は、車両10に搭載され、車両10の周囲の物標を検知するセンサである。物標検知センサ300は、たとえば、レーダー、LIDAR、ソナーセンサなど、物標を検知可能なセンサである。ここで、物標とは、自車周囲を走行する他車両や、道路に併設されるガードレール、縁石などを示す。なお、物標検知センサ300は、自車周囲を走行する他車両11の相対位置、相対速度を検知結果I2として区画線情報統合装置100へ出力する。
 また、区画線検知センサ200と物標検知センサ300に用いるセンサとして、区画線と物標の両方を検知できるセンサとしてLIDAR1台のみに置き換えてもよく、必ずしもセンサを複数台用いる必要はない。
 測位センサ400は、たとえば、車両10に搭載された、速度センサ、加速度センサ、角速度センサ、舵角センサ、ジャイロセンサ、およびGNSS(Global Navigation Satellite System)などの衛星測位システムなどを含む。また、自車に搭載されている物標検知センサ300の代わりに他車両11と位置や速度を送受信する車車間通信機能を搭載することで周囲の状況を広く取得してもよい。測位センサ400は、たとえば、車両10の速度、加速度、角速度、操舵角、自車外のグローバル座標系での姿勢、などを含む検知結果(測位情報)I3を、区画線情報統合装置100へ出力する。なお、測位センサ400が出力する検知結果I3は、必ずしも前述のすべての情報を含む必要はないが、たとえば、少なくとも車両10の速度、加速度および角速度を含む。
 また、GNSSを用いて車両10の位置と方位を求める際に、トンネルや高層ビルの間などで衛星情報を取得できない場合は、速度センサ、角速度センサ、ジャイロセンサ等を用いて、オドメトリにより車両10の位置と方位を補完してもよい。また、車両10の位置と方位を短い周期で正確に求め、前回の周期と今回の周期とにおける位置と方位の差分を算出してもよい。
 区画線情報活用装置500には、警報装置510あるいは車両制御装置520が含まれており、区画線情報統合装置100の出力結果Rによって、車線逸脱警報や車線維持制御、自動車線変更、車線変更支援を実施する。
 以下、図を用いて、本実施形態の区画線情報統合装置100の機能を詳細に説明する。図2Aは、図1に示す区画線情報統合装置100の機能ブロック図である。
 はじめに、区画線検知センサ200、物標検知センサ300ならびに測位センサ400の出力であるI1、I2、I3をそれぞれ区画線情報統合装置100の中の区画線情報取得部101、物標情報取得部103ならびに測位情報取得部105に渡す。
 区画線情報取得部101は、区画線検知センサ200により検知された自車周辺の区画線情報を取得する。区画線情報取得部101は、区画線検知センサ200で検知した区画線情報の時刻同期や、出力形式を区画線情報統合装置100で扱いやすい形式に変換し、後段の区画線認識部102に出力する。なお、区画線検知センサ200の検知結果I1は、たとえば、区画線の形状に基づく二次曲線の係数等、区画線の形状に基づく近似曲線のパラメータであってもよい。この場合、検知結果I1が認識点列である場合と比較して、検知結果I1の情報容量を小さくすることができる。
 物標情報取得部103は、物標検知センサ300により検知された自車周辺の物標情報を取得する。物標情報取得部103は、物標検知センサ300で検知した物標情報の時刻同期や、出力形式を区画線情報統合装置100で扱いやすい形式に変換し、後段の他車両状態推定部104に出力する。
 測位情報取得部105は、区画線情報取得部101と物標情報取得部103と同様に、入力情報の時刻同期や扱う情報の形式を変換し、後段の自己位置姿勢推定部106と他車両状態推定部104に出力する。
 これまで認識した区画線位置、他車両位置、自車位置の情報から、区画線を統合するための区画線情報を生成していく。
 はじめに、ここでは大きく3種類の区画線を生成する。第1区画線は、実際に車両10が認識した区画線である認識区画線、第2区画線は、前記認識区画線を自車前方に延伸した延伸区画線、第3区画線は、自車周囲の車両の走行軌跡から生成した軌跡区画線である。
 これら前記認識区画線、前記延伸区画線、前記軌跡区画線は、ある1本の区画線に割り当てられる識別情報であり、出力区画線構築部111にて区画線を小区間毎に分割し、それぞれに異なる情報が割り当てるものとする。特に、情報が重複する部分に関しては、信頼度の高い区画線を採用する。
 区画線認識部102は、区画線情報取得部101から出力される区画線検知結果を逐次処理し、区画線を認識する。実際に、車両10に搭載される区画線検知センサは複数台搭載してもよく、その場合1本の区画線につき、複数の区画線検知結果が区画線認識部102に渡されることがある。この場合、複数の区画線を区画線認識部102で1本の区画線に統合するものとする。ここで、図2Bのように、前段の区画線情報取得部101と区画線認識部102を合わせて1つの部として扱い、機能ブロックを単純化してもよい。
 他車両状態推定部104は、物標情報取得部103から出力される自車両周囲の物標検知結果を逐次処理する。物標とは、自車周囲の物体を指し、クルマやバイクなどの車両、歩行者、道路の路側物であるガードレールや縁石などが挙げられるが、ここでは自車周囲に存在する他車両を扱うものとする。他車両状態推定部104では、他車両の状態として、少なくとも他車両の位置、速度を推定し、後段の処理部へ出力する。また、物標検知センサ300で他車両を検知できない場合に、測位センサ400の出力する他車両位置、速度情報を用いてもよい。
 自己位置姿勢推定部106は、測位情報取得部105から出力される自車両の速度、加速度、角速度を受け取り、カルマンフィルタなどを用いて自車外のグローバル座標系における自車の位置、方位などの姿勢(以下、位置姿勢)を計算する。そして後段の履歴蓄積部112と軌跡蓄積部107に出力する。
 軌跡蓄積部107では、他車両状態推定部104の出力である他車両の自車に対する相対位置と自己位置姿勢推定部106の出力である自車の位置姿勢を受け取り、自車外のグローバル座標系における他車両の走行軌跡を生成する。
 このあとは、本発明で主要となる延伸区画線生成部108(第2区画線生成部)、車線内位置推定部109、軌跡区画線生成部(第3区画線生成部)110、出力区画線構築部111について図3から図8Bを用いて説明する。
 はじめに、全体の処理フローを図3に示す。処理P1では、区画線検知センサ200や物標検知センサ300などのセンサ情報を取得し、処理P2では、区画線情報取得部101や物標情報取得部103などにおけるセンサ情報認識処理にてセンサ情報の時刻同期やフォーマット変換などを実施し、区画線情報統合装置100にて扱いやすい情報に変換する。このとき、車両10に同一の区画線や物標を検知できるセンサが複数搭載されていた場合、それら同一の情報同士を1つに統合するフュージョン処理も併せて実施してもよい。処理P3では、車両10の認識区画線を蓄積したり、他車両11の走行軌跡を蓄積するために必要な自己位置姿勢情報(自車の位置姿勢)を推定する。処理P3では、処理P2で認識したセンサ情報に基づいて自己位置姿勢情報の推定を行う。処理P4では、処理P2で認識した区画線の情報から区画線を認識し、その認識した区画線を認識区画線として生成する。処理P2で認識した区画線について、最小二乗法などを用いて尤もらしい形状に変換することで、認識区画線を生成する。この処理P4での処理が、認識区画線を生成する認識区画線生成部(第1区画線生成部)に相当する。さらに、処理P5では、前段にて認識した認識区画線を、センサの不検知範囲まで延伸、拡張させることで、延伸区画線を生成する。ここでは、認識区画線を延伸して区画線を推定し、その推定した区画線を延伸区画線として生成する。延伸区画線は、認識区画線の形状に基づいて、認識区画線を延伸させることによって形成される。この処理P5での処理が、延伸区画線を生成する延伸区画線生成部(第2区画線生成部)に相当する。処理P6では、自車線や隣車線などに車両が存在するかを確認し、存在した場合は各車両について処理P7からP11の処理を繰り返す。存在しない場合は、処理P4で認識した認識区画線または処理P5で生成した延伸区画線について、処理P12の出力区画線構築処理を実施し、終了とする。
 また、処理P7以降について説明すると、処理P8では、事前に取得した他車両の自車外のグローバル座標系における位置から、他車両走行軌跡を生成する。処理P9では、処理P8で生成した他車両の走行軌跡と認識区画線との位置関係を基に区画線を推定し、その推定した区画線を軌跡区画線として生成する。処理P9では、軌跡区画線生成部110で必要となる他車両走行軌跡と認識区画線の距離を計算する。他車両走行軌跡と認識区画線の距離は、他車両走行軌跡と認識区画線との間の道路幅方向の距離である。処理P10では、処理P9で求めた距離情報から、軌跡区画線を生成する。この処理P9と処理P10での処理が、軌跡区画線を生成する軌跡区画線生成部(第3区画線生成部)に想到する。処理P11の時点で、自車周囲すべての車両に対して軌跡区画線を生成し終わっていた場合、最後の処理P12に進む。
 処理P12では、認識区画線や延伸区画線、軌跡区画線の少なくともいずれか一つを用いて区画線として出力される出力区画線を構築する。具体的には、これまで生成してきた、認識区画線や延伸区画線、軌跡区画線を組みあわせ、信頼性の高い順に評価し、1本の区画線を小区間毎に左記の3種類の区画線を採用し、区画線情報統合装置100の出力とする。本実施形態では、認識区画線のみや軌跡区画線のみなどの1種類の区画線だけを出力するのではなく、信頼度が低くても小区間ごとに異なる区画線を採用し、区画線情報統合装置100から出力する。これは、認識すべき、ある1本の区画線について、信頼度の高低によらず、できるだけ多くの区画線情報を出力することを目的とし、これらの情報をどのように利用するかは後段の制御装置に委ねる考えを前提とする(車両の制御可能性の選択肢を広げるために、少しでも多くの情報を後段の制御装置に渡す)ためである。ただし、認識区画線や延伸区画線、軌跡区画線のいずれかから、信頼度が最も高いものを1種類だけ採用してこれを出力区画線として出力してもよい。
 ここから、図4から図7のイメージ図を用いて処理の詳細について説明する。
 図4に、本発明を説明するための基本的なイメージを示す。ここでは、一例として、直線区間からカーブ区間へと変化する道路に区画線20が引かれており、区画線情報統合装置100、区画線検知センサ200、物標検知センサ300、測位センサ400、区画線情報活用装置500を搭載した車両10の前方に他車両11が走行しているものとする。図4では、区画線20として4本の区画線21、22、23、24が引かれており、3つの車線25、26、27が区画されている。そして、車両10と他車両11が、3つの車線25、26、27のうち、中央の車線26を走行している例が示されている。
 図5は、区画線検知センサ200が区画線を検知し、区画線情報取得部101および区画線認識部102により区画線の自車相対位置を認識し、その認識結果を延伸区画線生成部108に渡すことで、延伸区画線40を生成する概念図である。
 延伸区画線生成部108は、区画線認識部102の出力する認識区画線を用いて、自車前方に区画線を延伸した延伸区画線を生成する機能を有する。具体的には、はじめに、受け取った認識区画線を自車座標系から自車外のグローバル座標系に投影し、その後最小二乗法などを用いて直線または円などの近似曲線に変換する。これは、区画線自体のかすれや区画線検知センサ200の検知範囲外で不検知となる場合、あるいは太陽光などの逆光により区画線を検知できない場合に備えて、区画線を補完するものである。そして後段の出力区画線構築部111へ出力する。図5にその様子を示す。30Aは検知された区画線であり、この検知結果を基に認識区画線として引き直したものが30Bである。図中に破線で示す延伸区画線40は、認識区画線30Bの形状を基に自車前方に延伸しただけの区画線である。認識区画線30Bの形状を自車前方に延伸する方法については、例えば幾何学計算などの公知の方法が用いられる。したがって、直線区間からカーブ区間のように道路形状が変化するような区間においては、実際の道路の区画線形状に対し、自車近傍の区画線形状は一致するものの、遠方の区画線を含め、実際の道路全体に沿うような形状を表現できるとは限らない。
 図6は、物標検知センサ300と測位センサ400を用いて、他車両の相対位置および自車外のグローバル座標系における自車の位置姿勢を計算し、自車前方を走行する他車両11の走行軌跡50を認識し、その認識結果を軌跡蓄積部107に渡すことで、他車両11の車線内位置および軌跡区画線60を生成する概念図である。
 車線内位置推定部109は、区画線認識部102で認識した区画線の情報と、軌跡蓄積部107で蓄積した他車両11の走行軌跡の情報を用いて、車線内における他車両11の位置を推定する処理を行う。
 軌跡区画線生成部110は、他車両11の走行軌跡50と自車の認識区画線30Bの位置関係を基に軌跡区画線60を生成する。具体的には、車線内位置推定部109にて他車両11の走行軌跡50と自車の認識区画線30Bの間の距離を一定区間毎(d1~dn)に求め、平均値をとり、この平均値を走行軌跡50からのオフセット値とし、走行軌跡をシフトすることで、軌跡区画線60を求める。軌跡区画線60は、自車が検知できなかった認識区画線30Bの代わりとして用いることができる。ただし、車線内位置推定における距離は平均に限らず、学習を用いてその区間の距離を求めてもよい。また、車線幅が一定でなく変化するような区間については、距離の変化をみてオフセット値を線形的に増減させて推定してもよい。軌跡区画線60の区間については、例えば認識区画線が存在しなくなる箇所から他車両11の後端までを考える。図6に示す例では、カーブ内側の認識区画線30Bと他車両11の走行軌跡50との間の距離に基づいてカーブ内側の軌跡区画線60を求めているが、カーブ外側の認識区画線30B(図5を参照)と他車両11の走行軌跡50との間の距離に基づいてカーブ外側の軌跡区画線を求めることもできる。
 図7は、出力区画線構築部111の処理概念図である。本実施形態では、1本の区画線につき、小区間毎にそれぞれ異なる信頼度を設定する。例として、1本の区画線が各区間70A、70B、70C、70D毎に複数の区画線情報で構成されている状態を表す。それぞれ複数の区画線情報から出力すべき区画線情報を選定する方法について、出力区画線構築部111の処理フロー図8Aと、主要処理図8Bを用いて説明する。なお、図7に示す状態は、車両10の区画線検知センサ200では、例えば逆光やかすれによって認識区画線30Bよりも先の区画線22、23を認識できないものとする。
 はじめに、処理対象となる区画線情報が存在するかどうかを確認し(P21)、存在した場合に(YES)、区画線情報が付与された区画線を複数の区間に分割する(P22)。そして、各区間内の区画線情報を参照し、それぞれ認識区画線や延伸区画線、軌跡区画線の組み合わせにより、どの区画線情報を出力するかを決定する(P23-P25)。このとき、区画線情報の信頼性の順序としては、認識区画線、軌跡区画線、延伸区画線の順で信頼性が低くなっていくものとする。これは、信頼性の順序として、認識区画線が存在した場合は、実際に区画線を検知できていることから、他の推定区画線である延伸区画線や軌跡区画線よりも一番信頼性が高いものとした。延伸区画線と軌跡区画線では、実際に他車両11が走行できたという実績のある走行軌跡をベースに生成された軌跡区画線の方が、認識区画線をただ延伸しただけの延伸区画線よりも信頼性が高いものとした。
 次に各区間毎の信頼度と採用区画線の選択対象については、図8Bの組み合わせ表を基に決定する。区画線の信頼度順から認識区画線が存在した場合は、認識区画線のみを採用し、高信頼度情報を付与する。延伸区画線と軌跡区画線が共に存在し、かつ双方の距離が閾値以下のときは、軌跡区画線を採用し、中信頼度情報を付与する。このとき、双方の距離が閾値よりも大きい場合は、他車両11が車線変更などで区画線に沿った走行をした、あるいは道路の区画線形状が突如変化しているなどの理由で双方の区画線が一致していないため、双方の区画線情報に低信頼度情報を付与した上で、より信頼性の高い区画線を採用する。また、軌跡区画線のみが存在した場合は、軌跡区画線を採用し、低信頼度情報を付与し、延伸区画線のみが存在した場合は、同様に延伸区画線を採用し、低信頼度情報を付与する。ここでは、信頼度情報を高・中・低の3種類を設定したが、更に厳密に信頼度を設定し、区画線全体の信頼性向上につなげてもよく、これに限らないものとする。
 次に、区画線を小区間に分割する方法の一例について図7を用いて説明する。
 ここでは、各区画線30B、40、60をそれぞれ小区間70Aから70Dまで所定の間隔に分割する。まず、ある瞬間における各区画線(認識区画線・延伸区画線・軌跡区画線)について同じ区画線同士でグループを作る。例えば、各区画線の車線幅方向の離間距離を総当たりで比較し、最も近く、かつその離間距離が閾値(例えば車線幅の半分の距離)以下となる区画線同士を1つのグループにする。ここで、延伸区画線は、認識区画線から延伸したものなので同一のグループとみなせる。離間距離は、比較対象の区画線の距離誤差を一定範囲毎に求め、その平均として計算してよい。図7に示す例では、車両10を中心から見て、自車右側の認識区画線30Bと、自車右側の延伸区画線40と、軌跡区画線60の3本が同一のグループとなり、自車左側の区画線30Bと、自車左側の区画線40がもう一つの同一グループとなる。
 次に、同一グループの区画線のうち、認識区画線および延伸区画線を区画線の始点から延伸方向に一定範囲毎に探索していき、認識区画線および延伸区画線の延伸方向に対して垂直方向(区画線幅方向)で、かつその範囲内に収まる軌跡区画線が存在するか否かを判断する。そして、軌跡区画線が存在する場合は、認識区画線および延伸区画線との離間距離を計算し、閾値(例えば、区画線幅の2倍程度)以下である部分については、区間70Bを設定する。そして、離間距離が閾値よりも大きい部分については、区間70Cを設定する。そして、認識区画線30Bしか存在しない部分については区間70Aを設定し、延伸区画線40しか存在しない部分については区間70Dを設定する。これら区間分割の際に用いる閾値は、利用するセンサや走行車線幅によって変わってくるので、センサ特性や実走行環境に合わせて変更してもよい。
 区画線を小区間に分割する方法としては、自車座標系原点から自車進行方向に一定間隔に分割する方法をとってもよいし、厳密に区画線に沿うようにそれぞれの線上を一定間隔で分割し、分割エリアに含まれる区画線を選択してもよい。もしくは、計算量・メモリを多く必要としてしまうが、単純な方法として、自車座標系原点を基準に格子状に区画線を分割し、各セルに収まる区画線情報の組み合わせを実施してもよい。ここで、距離の閾値としては、区画線幅をベースに想定しており、区画線幅の倍を閾値として設定する。
 これらの処理を踏まえると、図7の区間70Aでは高信頼度情報の認識区画線30Bを設定し、区間70Bでは中信頼度情報の軌跡区画線60を設定し、同じく区間70Cでは低信頼度情報の軌跡区画線60を設定し、区間70Dでは低信頼度情報の延伸区画線40を設定することとなる。ここで、区間70Bの区画線に軌跡区画線60を採用したが、この区間においては軌跡区画線60と延伸区画線40の座標の平均値をとるなど、区画線を統合した統合区画線を採用してもよい。
 本発明の効果が顕著なシーンについて、図9Aと図9Bに例を示す。たとえば、図9Aにおいて、車両10がある目的地に向かって走行車線26を進行しており、右車線27に車線変更しなければならないシーンである場合、かつ、何かしらの要因により前方の区画線22、23を検知できない状況を想定する。すると、他車両11が前方を走行していることにより、軌跡区画線60を生成でき、延伸区画線40と併せて、車両10の右側の区画線23’を生成することができる。これにより、右車線27への車線変更が可能となる。
 また、図9Bにおいて、車両10がカーブ区間を走行中、車線維持をしなければならないシーンである場合、同様に前方の区画線22、23を検知できない状況において、前方に他車両11が走行していることにより、左の軌跡区画線60を生成することができる。したがって、車両10は、車両10の操縦者に対して車線逸脱警報を鳴らしたり、車線維持制御を継続することができ、車線逸脱の危険性を低減することが可能となる。
 これまで、本発明の基本的な活用シーンとその方法について説明してきたが、その他の活用シーンとして図10について説明する。
 図10は、車両10が走行する走行車線の隣の対向車線を他車両12が前方から後方にかけて走行しているシーンである。図10では、区画線20として3本の区画線121、122、123が引かれており、センターラインである区画線122と、その左側の区画線121との間の走行車線124を自車両である車両10が走行し、区画線122とその右側の区画線123との間の対向車線125を対向車両である他車両12が走行する例が示されている。これまで同様、他車両12の走行軌跡50から求めた軌跡区画線60と車両10の認識区画線から求めた延伸区画線40とが重なる区間に関して、中信頼度情報をもつ軌跡区画線60を生成することができるため、車両10が前方の区画線121、122を検知できない状況においても、車線維持制御を実行し、走行車線124から飛び出してしまうのを防ぐことが可能となる。
[実施形態2]
 図11に示す実施形態2の区画線情報統合装置100では、区画線認識部102と延伸区画線生成部108の間に、新たに履歴蓄積部112が設けられている。履歴蓄積部112は、これまで車両10の区画線認識部102が検知してきた過去の認識区画線と自己位置姿勢推定部106の自車の位置姿勢の情報を履歴として蓄積し、その蓄積した情報を用いて、認識区画線30Bを自車後方まで延伸した区画線である第4区画線41を生成する(以降、認識区画線を後方に延伸して生成した第4区画線を履歴区画線と呼ぶ)。
 軌跡区画線生成部110は、認識区画線30Bと他車両12の走行軌跡50とを用いて、車両10の後方に向かって延伸する軌跡区画線60を生成する。出力区画線構築部111は、履歴区画線41と、軌跡区画線60とを用いて、車両10の後方に自車の走行している自車線と該自車線に隣接する隣車線との境界となる出力区画線を構築する。区画線情報活用装置500では、出力区画線構築部111により構築された自車の後方の出力区画線の情報を用いて、車両10の後方を走行している他車両の走行車線が、自車線と隣車線のいずれであるかを判断する。
 全体処理フローとしては、図3の処理P4の認識区画線生成とP5の延伸区画線生成の間に位置する。
 活用シーンについて図12を用いた説明として、車両10の前方を車両13Aが走行しており、その後方を車両13Bが接近しているシーンを考える。図12では、2車線を区画する区画線130として3本の区画線131、132、133が引かれており、区画線131と区画線132との間の車線134を自車両である車両10が走行し、区画線132と区画線133との間の車線135を他車両13A、13Bが走行する例が示されている。
 実施例1同様に、車両10は前方の区画線の一部を検知して認識区画線30Bとしているが、履歴蓄積部112により、車両10の後方までの履歴区画線41を生成することができる。そして、認識区画線30Bと、他車両13Aの走行軌跡50に基づいて、自車の後方に向かって延伸する軌跡区画線60を求めることができる。そして、履歴区画線41と軌跡区画線60との双方の距離が閾値以下の場合、中信頼度情報をもつ出力区画線を生成することが可能となる。したがって、区画線情報活用装置500では、この中信頼度情報をもつ出力区画線に基づいて、後方の他車両13Bが走行している車線が、自車線134なのか隣車線135なのかの判別ができるようになる。つまり、車両10が車線変更を実行する際の危険性判定に用いることができる。ここで、中信頼度情報をもつ出力区画線としては、実際に検知できた区画線の履歴から生成された履歴区画線の方が、軌跡区画線よりも信頼性が高いものとしているため、履歴区画線を採用してもよいし、双方の区画線を統合した統合区画線を採用してもよい。
[実施形態3]
 図13に示す実施形態3は、実施形態1のブロック構成と同じであるが、複数の他車両を対象としたことから、区画線情報統合装置100では、出力区画線構築部111の区画線選択処理の組み合わせ項目を追加した。
 図13は、車両10の前方を複数の他車両14Aと14Bが走行しているシーンである。車両10には、実施形態1同様、区画線検知センサ200や物標検知センサ300などが搭載されており、周囲の区画線や物標を検知できるものとする。また、区画線検知センサ200は自車線25のみならず、隣車線26、27の区画線23、24まで検知できるものとする。軌跡区画線60、61は、他車両14Aの走行軌跡50Aと認識区画線30Bに基づいて生成され、軌跡区画線62は、他車両14Bの走行軌跡50Bと認識区画線30Bに基づいて生成される。
 区画線情報統合装置100は、他車両14Aと14Bの走行軌跡50A、50Bから軌跡区画線61、62が重なった区間80の区画線を推定することができる。軌跡区画線生成部110は、複数の軌跡区画線を互いに比較して隣接する軌跡区画どうしが閾値以下の距離をもつ場合、複数の軌跡区画線のいずれか一つまたは複数の軌跡区画線を統合した統合区画線を、軌跡区画線として採用する。もし区間80の軌跡区画線61、62同士が閾値以下の距離をもつ場合、信頼性の順序としては、複数の区画線が重畳していることから、中信頼度情報を付与し、片方の軌跡区画線を採用する。もしくは、図7同様に、複数の区画線を統合した統合区画線を採用してもよい。これにより、隣車線まで車線変更が可能となることや、自車周辺の複数の車線を捉えられることにより、地図に記載の車線とのマッチング可能性を向上させることもできるようになる。
 以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
30B 認識区画線(第1区画線)、40 延伸区画線(第2区画線)、41 履歴区画線(第4区画線)、60 軌跡区画線(第3区画線)、100 区画線情報統合装置(区画線認識装置)、102 区画線認識部(第1区画線生成部)、104 他車両状態推定部、106 自己位置姿勢推定部、108 延伸区画線生成部(第2区画線生成部)、110 軌跡区画線生成部(第3区画線生成部)、111 出力区画線構築部、112 履歴蓄積部

Claims (7)

  1.  自車に搭載された区画線検知センサにより検知された自車周辺の区画線情報を取得する区画線情報取得部と、
     自車に搭載された物標検知センサにより検知された自車周辺の物標情報を取得する物標情報取得部と、
     該物標情報に基づいて他車両の状態を推定する他車両状態推定部と、
     前記区画線情報取得部によって取得された区画線情報から区画線を認識し、該認識した区画線を第1区画線として生成する第1区画線生成部と、
     該第1区画線を延伸して区画線を推定し、該推定した区画線を第2区画線として生成する第2区画線生成部と、
     前記他車両状態推定部によって推定された前記他車両の走行軌跡と前記第1区画線との位置関係を基に区画線を推定し、該推定した区画線を第3区画線として生成する第3区画線生成部と、
     前記第1区画線と、前記第2区画線と、前記第3区画線の少なくともいずれか一つを用いて区画線として出力される出力区画線を構築する出力区画線構築部と、
     を備えることを特徴とする区画線認識装置。
  2.  前記出力区画線構築部は、前記第1区画線と、前記第2区画線と、前記第3区画線を、それぞれ複数の区間に分割し、各区間内の区画線として、前記第1区画線と、前記第2区画線と、前記第3区画線のいずれかを信頼度に基づいて選択することを特徴とする請求項1に記載の区画線認識装置。
  3.  前記出力区画線構築部は、前記第1区画線の情報と、前記第2区画線の情報と、前記第3区画線の情報にそれぞれ信頼度の情報を付して、前記第1区画線と、前記第2区画線と、前記第3区画線のいずれかから、信頼度の高い区画線を前記各区間内の区画線として選択することを特徴とする請求項2に記載の区画線認識装置。
  4.  自車に搭載された測位センサにより検知された測位情報を取得する測位情報取得部と、 該測位情報に基づいて自車の位置姿勢を推定する自己位置姿勢推定部と、
     前記自己位置姿勢推定部によって推定された自車の位置姿勢と、前記第1区画線生成部により生成した第1区画線の情報とを履歴として蓄積し、前記第1区画線を前記自車の後方に延伸した第4区画線を生成する履歴蓄積部と、を備え、
     前記出力区画線構築部は、前記第3区画線と前記第4区画線を用いて、自車の後方に自車の走行している自車線と該自車線に隣接する隣車線との境界となる出力区画線を構築することを特徴とする請求項1に記載の区画線認識装置。
  5.  前記他車両状態推定部は、自車周囲の複数の他車両の状態を推定し、
     前記第3区画線生成部は、前記他車両状態推定部によって推定された複数の他車両のそれぞれの走行軌跡と前記第1区画線との位置関係を基に複数の第3区画線を推定し、
     前記出力区画線構築部は、前記第1区画線と、前記第2区画線と、前記複数の第3区画線の少なくともいずれか一つを用いて、区画線として出力される出力区画線を構築することを特徴とする請求項1に記載の区画線認識装置。
  6.  前記第3区画線生成部は、前記複数の第3区画線を互いに比較して隣接する第3区画どうしが閾値以下の距離をもつ場合、前記複数の第3区画線のいずれか一つまたは前記複数の第3区画線を統合した区画線を前記第3区画線として採用することを特徴とする請求項5に記載の区画線認識装置。
  7.  請求項4に記載の区画線認識装置により構築された自車の後方の出力区画線の情報を用いて、前記自車の後方を走行している他車両の走行車線が、前記自車線と前記隣車線のいずれであるかを判断することを特徴とする車両制御装置。
PCT/JP2021/034493 2020-12-16 2021-09-21 区画線認識装置 WO2022130720A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/254,637 US20240005673A1 (en) 2020-12-16 2021-09-21 Dividing line recognition device
JP2022569716A JP7470214B2 (ja) 2020-12-16 2021-09-21 区画線認識装置
DE112021005227.6T DE112021005227T5 (de) 2020-12-16 2021-09-21 Trennlinienerkennungsvorrichtung

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020208174 2020-12-16
JP2020-208174 2020-12-16

Publications (1)

Publication Number Publication Date
WO2022130720A1 true WO2022130720A1 (ja) 2022-06-23

Family

ID=82059695

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/034493 WO2022130720A1 (ja) 2020-12-16 2021-09-21 区画線認識装置

Country Status (4)

Country Link
US (1) US20240005673A1 (ja)
JP (1) JP7470214B2 (ja)
DE (1) DE112021005227T5 (ja)
WO (1) WO2022130720A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010221909A (ja) * 2009-03-24 2010-10-07 Hitachi Automotive Systems Ltd 走行環境認識装置および車両制御装置
JP2015001773A (ja) * 2013-06-13 2015-01-05 ボッシュ株式会社 車線推定装置
JP2019051808A (ja) * 2017-09-14 2019-04-04 トヨタ自動車株式会社 運転支援装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7156924B2 (ja) 2018-11-29 2022-10-19 株式会社Soken 車線境界設定装置、車線境界設定方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010221909A (ja) * 2009-03-24 2010-10-07 Hitachi Automotive Systems Ltd 走行環境認識装置および車両制御装置
JP2015001773A (ja) * 2013-06-13 2015-01-05 ボッシュ株式会社 車線推定装置
JP2019051808A (ja) * 2017-09-14 2019-04-04 トヨタ自動車株式会社 運転支援装置

Also Published As

Publication number Publication date
DE112021005227T5 (de) 2023-08-31
JPWO2022130720A1 (ja) 2022-06-23
JP7470214B2 (ja) 2024-04-17
US20240005673A1 (en) 2024-01-04

Similar Documents

Publication Publication Date Title
CN109484404B (zh) 车辆控制装置、车辆控制方法及存储介质
CN107451521B (zh) 车辆车道图估算
US10074279B1 (en) Inference-aware motion planning
US10730503B2 (en) Drive control system
CN106996793B (zh) 地图更新判定系统
EP3644294B1 (en) Vehicle information storage method, vehicle travel control method, and vehicle information storage device
CN110546696B (zh) 用于自主车辆的用于自动生成和更新数据集的方法
CN101326511B (zh) 用于检测或预测车辆超车的方法
GB2614379A (en) Systems and methods for vehicle navigation
US20150149076A1 (en) Method for Determining a Course of a Traffic Lane for a Vehicle
US20190278285A1 (en) Vehicle control device, vehicle control method, and storage medium
US20210070289A1 (en) Vehicle control device, vehicle control method, and storage medium
JP2019128612A (ja) 車両制御装置、車両制御方法、およびプログラム
JP7005326B2 (ja) 路側物認識装置
US10501077B2 (en) Inter-vehicle distance estimation method and inter-vehicle distance estimation device
WO2022130720A1 (ja) 区画線認識装置
JP2023054084A (ja) 車両用ステレオカメラ装置
Xu et al. Context-aware tracking of moving objects for distance keeping
US20220383646A1 (en) Mobile object control device, mobile object control method, and storage medium
JP4844812B2 (ja) 車両間情報通信システム
US11989950B2 (en) Information processing apparatus, vehicle system, information processing method, and storage medium
JP7216695B2 (ja) 周囲車両監視装置及び周囲車両監視方法
JP2022139009A (ja) 運転支援装置、運転支援方法及びプログラム
JP7291015B2 (ja) 周囲物体認識方法及び周囲物体認識装置
JP2018128906A (ja) 車両制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21906085

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022569716

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18254637

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 21906085

Country of ref document: EP

Kind code of ref document: A1