WO2007138854A1 - 自車位置測定装置 - Google Patents

自車位置測定装置 Download PDF

Info

Publication number
WO2007138854A1
WO2007138854A1 PCT/JP2007/059980 JP2007059980W WO2007138854A1 WO 2007138854 A1 WO2007138854 A1 WO 2007138854A1 JP 2007059980 W JP2007059980 W JP 2007059980W WO 2007138854 A1 WO2007138854 A1 WO 2007138854A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature
vehicle
recognized
features
road
Prior art date
Application number
PCT/JP2007/059980
Other languages
English (en)
French (fr)
Inventor
Motohiro Nakamura
Hidenobu Suzuki
Masaki Nakamura
Original Assignee
Toyota Jidosha Kabushiki Kaisha
Aisin Aw Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Jidosha Kabushiki Kaisha, Aisin Aw Co., Ltd. filed Critical Toyota Jidosha Kabushiki Kaisha
Priority to US12/066,774 priority Critical patent/US20100169013A1/en
Priority to DE112007001076T priority patent/DE112007001076T5/de
Priority to CN2007800010393A priority patent/CN101351685B/zh
Publication of WO2007138854A1 publication Critical patent/WO2007138854A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/50Determining position whereby the position solution is constrained to lie upon a particular curve or surface, e.g. for locomotives on railway tracks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means

Definitions

  • the present invention relates to an own vehicle position measuring device, and more particularly to an own vehicle position measuring device that corrects an own vehicle position detected by a predetermined method based on a recognition result of a feature on a road.
  • the vehicle position is corrected only when a travel locus characteristic of the vehicle is obtained! In other cases (for example, when traveling on a straight road) Since the correction of the vehicle position is not executed, the accuracy of the vehicle position cannot be ensured, and a situation may occur. In this regard, there is a possibility that the vehicle will not be properly controlled to automatically stop at the stop line or crossing.
  • stop lines, pedestrian crossings, arrows, rotation prohibition, rhombus markings with pedestrian crossings, traffic signs such as maximum speed, character strings, deceleration zones, stop prohibition zones can be recognized as features on the road that are necessary to correct the vehicle position, and the vehicle position can be corrected using the recognition result.
  • features on the road often appear continuously, the above In the method of recognizing features that appear in order as shown above, the processing load may increase.
  • the present invention has been made in view of the above points, and the vehicle position measurement is capable of reducing the processing burden of the feature recognition while maintaining the accuracy of the vehicle position to a certain degree of accuracy.
  • the purpose is to provide a device.
  • the above object is achieved by the feature recognition means for recognizing features on the road necessary for correcting the vehicle position, and the feature recognition means for detecting the vehicle position detected by a predetermined method.
  • a position correction means for correcting based on the recognition result, and a feature in a region where the vehicle will travel in the future among features on the road whose information is stored in the database.
  • a recognition feature setting unit that sets a specific feature as the feature to be recognized by the feature recognition unit, and the feature recognition unit includes the feature set by the recognition feature setting unit. This is achieved by the vehicle position measuring device that recognizes the vehicle.
  • the characteristic features in the area where the host vehicle will travel in the future are the features to be recognized that are necessary for correcting the host vehicle position. Is set. Then, the set feature is recognized, and the vehicle position is corrected based on the recognized feature. According to the powerful configuration, among the features on the road, only the characteristic features among all the features in the area where the vehicle will travel in the future are subject to correction of the vehicle position. It is possible to reduce the processing burden of feature recognition while maintaining the accuracy to some extent.
  • the type of road on which the vehicle will run in the future for example, a large-scale intersection with many lanes and complicated road intersections, a normal intersection where two or more lanes of national and prefectural roads intersect, and a small curvature radius
  • Some regularity is observed in the pattern in which the features are arranged depending on the one-lane alternating one-lane curved road, the narrow street and the intersection with the temporary stop line.
  • the features to be recognized are set by referring to the feature arrangement pattern according to the road type, the features to be recognized are limited to a part, and the processing burden of feature recognition is reduced. Can be reduced.
  • the recognized feature setting means includes the own vehicle
  • the feature recognition means recognizes a feature that is estimated to appear in an area where the vehicle will run in the future with reference to a predetermined arrangement pattern of the feature according to the type of road that the vehicle will run in the future. It is good also as setting as the said feature which should be.
  • the recognition feature setting means recognizes a variety of features easily by the feature recognition means in the region where the vehicle will travel in the future. As the feature to be set, too.
  • the recognized feature setting means is configured to recognize the feature of the kind that the road marking is difficult to rub in the area where the own vehicle will run in the future by the feature recognition means. As a thing to set as a thing.
  • the recognized feature setting means sets the feature in the region where the subject vehicle will travel in the future and the distance from the front and rear features is longer than a predetermined value. It may be set as the feature to be recognized by the object recognition means.
  • the feature recognition means recognizes a feature on the road based on an image picked up by an image pickup means for picking up the periphery of the vehicle. That's fine.
  • the predetermined method may be a method of detecting the position of the host vehicle using GPS or using the traveling locus of the host vehicle.
  • FIG. 1 is a configuration diagram of a system mounted on a vehicle according to an embodiment of the present invention.
  • FIG. 2 A diagram schematically showing the markings for each type of feature drawn on the road.
  • FIG. 3 is a flowchart of an example of a main routine executed in the system of the present embodiment.
  • FIG. 4 is a flowchart of an example of a subroutine executed in the system of the present embodiment.
  • FIG. 5 A table showing an example of feature type priorities and setting permission / inhibition when setting features to be recognized necessary for correcting the vehicle position in a specific area. Explanation of symbols
  • FIG. 1 shows a configuration diagram of a system mounted on a vehicle according to an embodiment of the present invention.
  • the system of the present embodiment as shown in FIG. 1 includes a positioning unit 12 for positioning the position of the host vehicle, and a support control unit 14 for controlling the traveling of the host vehicle. This system performs predetermined support control for driving the host vehicle according to the position of the host vehicle measured at 12.
  • the positioning unit 12 receives a GPS signal transmitted from a GPS (Global Positioning System) satellite and detects the latitude and longitude of the position where the host vehicle is present, and uses a turning angle and geomagnetism. Connects the direction sensor 18 that detects the angle (direction) of the host vehicle, the G sensor 20 that detects acceleration / deceleration, the vehicle speed sensor 22 that detects the vehicle speed, and the output of each receiver and sensor 16-22. Speculation mainly composed of microcomputers It has a navigation unit 24. The output signals of the receivers and sensors 16 to 22 are supplied to the dead reckoning navigation unit 24, respectively.
  • GPS Global Positioning System
  • the dead reckoning navigation unit 24 detects the latitude and longitude (initial coordinates) of the position of the host vehicle based on information from the GPS receiver 16, and also determines the traveling direction of the host vehicle based on information from the sensors 18-22. Detects the vehicle speed and acceleration / deceleration driving conditions, and creates a vehicle trajectory (estimated trajectory) from the initial coordinates of the vehicle position.
  • the positioning unit 12 also has a map matching unit 26 mainly composed of a microcomputer connected to the dead reckoning navigation unit 24 and a map database 30 connected to the map matching unit 26. ing.
  • the map database 30 is composed of a hard disk (HDD), DVD, CD, etc. installed in the vehicle or provided in the center. It stores the features that are drawn or installed and the location information of the lane.
  • the map database 30 includes a latitude, longitude, curvature, and gradient representing a road.
  • Lane shape and road type data such as the number of lanes, lane width and corner presence, information on each intersection and node point, information on buildings for map display, etc. are stored and drawn on the road surface.
  • the size of shape data, paint data, position data, and feature quantity for each feature such as crosswalks and temporary stop lines, direction arrows, rhombus markings with “crosswalk”, maximum speed marking, and rotation prohibition markings.
  • Distance data with other features on the front and back data indicating the degree of ease of rubbing, and distance data with the target object in the vehicle traveling direction.
  • the map database 30 can update the stored map data to the latest one by exchanging disks or establishing update conditions.
  • the map matching unit 26 is supplied with information on the initial coordinates of the vehicle position detected and created by the dead reckoning unit 24 and the estimated trajectory of the initial coordinate force.
  • the map matching unit 26 uses the link information of the road itself stored in the map database 30 to indicate the current position of the host vehicle on the road link each time information on the estimated trajectory is supplied from the dead reckoning unit 24. It has a function to perform map matching (first map matching) that corrects the image.
  • the map matching unit 26 moves the vehicle within a predetermined time or a predetermined distance from that position. It has a function to read out feature data on the road surface that is estimated to run from the map database 30. Further, among all the features in the predetermined road range with the detected vehicle position force, some features are set as features to be recognized as will be described in detail later. After the setting, whether or not the force is in a situation where the recognition of the set feature using the back camera image should be requested to the outside recognition unit described later based on the detected position of the own vehicle. When a positive determination is made, the feature recognition using the back camera image is requested to the external recognition unit, and at the same time, the shape data and position data of the feature and the shape data of the running lane Providing feature data such as
  • the positioning unit 12 also includes a back camera 32 disposed in a rear rear bumper or the like, and an external environment recognition unit 34 mainly composed of a microcomputer connected to the knock camera 32.
  • the knock camera 32 has a function of photographing the outside of a predetermined area including the road surface behind the vehicle from the installation position, and supplies the captured image to the outside recognition unit 34.
  • the camera control unit of the external recognition unit 34 performs image processing such as edge extraction on the captured image captured by the knock camera 32. As a result, the above features and travel lanes drawn on the road surface are extracted, and the relative positional relationship between the features and the host vehicle is grasped.
  • the knock camera 32 When extracting these features and lanes, based on the feature data provided by the map matching unit 26, the area where the features are present is identified in advance, and the knock camera 32 The image processing is performed with a focus on the existence area of all the captured images obtained by (1). This is because the captured image power of the knock camera 32 is efficient and effective in extracting features and the like.
  • the result extracted by the external recognition unit 34 (information including the relative relationship with the feature and the traveling lane) is supplied to the map matching unit 26 described above.
  • the map matching unit 26 makes a request for image recognition using the back force memer 32, and then based on the result of extracting the driving lane supplied from the external recognition unit 34! /,
  • the road on which the vehicle actually travels It has a function to calculate the position of its own lane above.
  • the distance from the vehicle to the recognized feature on the back of the road based on the feature extraction result supplied from external recognition unit 34 And measuring the relative position Based on the relative position between the subject vehicle and the recognized feature and the position data of the recognized feature stored in the map database 30, the current position of the subject vehicle is determined relative to the recognized feature. It has a function to perform map matching (second map matching) to correct to the relevant position.
  • the map matching unit 26 on the basis of the road link stored in the map database 30, stores the current position of the vehicle each time information on the estimated trajectory is supplied from the dead reckoning unit 24 as described above. 1st map matching is performed, and when the external recognition unit 34 force receives the recognition feature extraction result as requested, the vehicle position is further moved to the position V, based on the recognized feature. Perform second map matching to correct in the front-rear direction or the left-right direction of the vehicle width.
  • the map matching unit 26 collates the position of the own vehicle measured by map matching with the map data stored in the map database 30, thereby If there are target objects (for example, stop lines, intersections, curve entrances, etc.) that are necessary to execute support control ahead of a predetermined range in the traveling direction of Each time the vehicle's position is updated by providing information on the estimated trajectory from the navigation unit 24, it is stored in the database 30 and the position of the vehicle's position, the position of the vehicle's travel lane, and its target! A function that calculates the distance along the center line of the driving lane (hereinafter referred to as the remaining road distance) to the target object ahead in the direction of travel of the host vehicle based on the position of the object! Have it!
  • the positioning unit 12 also has a current location management unit 36 connected to the map matching unit 26.
  • the current location management unit 36 In the current location management unit 36, the link ID and link coordinate information of the current position of the host vehicle obtained as a result of the map matching calculated by the map matching unit 26, the information of the remaining distance along the road, and the host vehicle are actually running. Information on the position of the driving lane on the road is supplied together with information on the time obtained.
  • the current location management unit 36 Based on the information supplied from the map matching unit 26, the current location management unit 36 detects the current position of the measured vehicle and the remaining distance along the road to the target object. Information on the current position and the remaining road distance detected by the current location management unit 36 is supplied to, for example, a navigation device of the own vehicle and displayed on the display. While being schematically displayed on the drawing, it is supplied to the support control unit 14 described above.
  • the support control unit 14 includes an electronic control unit (ECU) 40 mainly composed of a microcomputer.
  • the ECU 40 controls the driver when the host vehicle travels on the road. Execute. This support control is executed according to the position of the own vehicle, specifically according to the remaining distance along the road from the own vehicle to the target object, for example, when the brake operation by the driver is not particularly performed.
  • the vehicle stops at a stop line or a railroad crossing that is a feature on the road. Do not cross with other vehicles that are predicted! /, Intersection control, which is driving support control, speed control for driving the vehicle at an appropriate speed with respect to a curve (a corner) as a feature, target
  • the ECU 40 includes a brake actuator 42 for generating an appropriate braking force for the host vehicle, a throttle actuator 44 for applying an appropriate driving force to the host vehicle, and an automatic transmission of the host vehicle. Shift actuator 46 for changing the gear position of the vehicle, steer actuator 48 for imparting an appropriate steering angle to the host vehicle, and buzzer sounding, alarm output and speaker output toward the vehicle interior A buzzer alarm 50 is connected.
  • the EC U40 determines the current position of the measured vehicle managed by the current location management unit 36, which will be described in detail later, based on the relative relationship between the vehicle and the target object. Appropriate drive command.
  • Each of the actuators 42 to 50 is driven according to a drive command supplied from the ECU 40.
  • the positioning unit 12 first detects the initial coordinates of the own vehicle based on the output signals of the receivers and the sensors 16 to 22 at a predetermined time in the dead reckoning unit 24, A travel locus from the initial coordinates is created. Then, in the map matching unit 26, the travel locus from the initial coordinates of the vehicle position created by the dead reckoning navigation unit 24 is compared with the road link information stored as map data in the map database 30. Thus, the first map matching is performed to correct the current position of the vehicle on the road link.
  • the map matching unit 26 detects the vehicle position based on the first map matching.
  • the road range from the position of the vehicle to the position where the vehicle has traveled for a predetermined time or distance in the future or to the position of the target object to be controlled by the support control (all lanes if there are multiple lanes)
  • the feature data of is read from the map database 30. It should be noted that reading out the features in the predetermined road range ahead of the traveling direction from the current position is also possible force that the current position of the vehicle detected by the map matching is accurate. Then, among the features in the predetermined road range, some of the features as described later are set as features to be recognized by the back camera 32, and thereafter, the position of the set feature to be recognized is always set. Based on the updated position of the vehicle, it is determined whether or not the vehicle position has reached the vicinity of the position of the feature to be recognized, thereby recognizing the set feature to be recognized. It is determined whether or not the external recognition unit 34 should be requested.
  • the map matching unit 26 does not request recognition of the feature to be recognized as a result of the above determination, the map matching unit 26 does not perform any processing and should request recognition of the feature to be recognized.
  • the outside world recognition unit 34 is requested to recognize the feature to be recognized by capturing the rear image of the vehicle with the knock camera 32, and at the same time, the shape data and position data of the feature, the shape data of the traveling lane, etc. Send the feature data.
  • the outside recognition unit 34 recognized the feature to be recognized that is estimated to exist in the predetermined road range from the own vehicle position. The above recognition request is repeated until the vehicle is notified or until the vehicle exits the predetermined road range.
  • the external recognition unit 34 When receiving a request for image recognition by the back camera 32 from the map matching unit 26, the external recognition unit 34 performs image processing such as edge extraction on the image captured from the knock camera 32, and then performs image processing. And the feature data transmitted from the map matching unit 26 are compared to determine whether the feature to be recognized is recognized by image processing. As a result, when a strong feature is not recognized, information indicating that the feature to be recognized is not recognized is transmitted to the map matching unit 26. On the other hand, when a feature to be recognized is recognized, information indicating that the feature to be recognized is recognized is transmitted to the map matching unit 26, and the vehicle specified by the image processing is transmitted. And the relative position and distance information of the recognized feature.
  • the map matching unit 26 is supplied from the external recognition unit 34 when it receives a notification from the external recognition unit 34 that a feature to be recognized has been recognized in the rear image of the vehicle.
  • the distance and relative position from the own vehicle to the recognized feature located behind the road are measured based on the relative relationship between the own vehicle and the recognized feature, and the measured relative position between the own vehicle and the recognized feature.
  • second map matching for correcting the current position of the host vehicle to a position relative to the position of the recognized feature based on the position data of the recognized feature read from the map database 30. Do.
  • the map database 30 accesses the map database 30, and the distance on the road from the recognized object to the target object that is the target of support control. Based on the position of the host vehicle and the distance from the recognition target object to the target target object by the second map matching, the initial value of the remaining distance on the road from the host vehicle to the target target object is obtained. calculate.
  • the outside world recognition unit 34 when the outside world recognition unit 34 recognizes a feature to be recognized existing in a predetermined road range, the outside world recognition unit 34 performs image processing of a captured image from the knock camera 32, and is specified by the image processing.
  • the information on the traveling lane on the road is acquired and recognized, and information including the relative relationship of the traveling lane to the host vehicle is transmitted to the map matching unit 26.
  • the map matching unit 26 receives the driving lane information from the external recognition unit 34, the map matching unit 26 accesses the map database 30 and acquires the lane width, the number of lanes, the shape, etc. of the driving lane near the vehicle position. To do.
  • the vehicle on the road on which the own vehicle is currently traveling Specify the position of the lane.
  • the target object may be different for each driving lane
  • the target object ahead of the traveling direction on which the own vehicle should pass on the own lane is specifically specified. It will be done.
  • the dead reckoning navigation unit 24 creates an estimated trajectory of the vehicle position using the GPS receiver 16 and the various sensors 18 to 22 at predetermined time intervals, and transmits the trajectory information to the map matching unit 26. .
  • the map matching unit 26 performs the second map matching accompanying the feature recognition as described above, every time it receives the estimated trajectory information from the dead reckoning navigation unit 24, the map matching unit 26 first executes the second map matching. Based on the estimated trajectory from the time of the second map matching and the position of the own lane, the position (particularly the distance in the front-rear direction) of the own vehicle with respect to the recognized feature coordinates on the center line of the own lane is calculated. Then, based on the distance in the front-rear direction and the distance between the recognized feature and the target object on the own lane! /, The path from the current position of the vehicle to the target object Calculate the remaining distance.
  • Information on the position of the vehicle detected by the positioning unit 12 and information on the calculated remaining road distance are supplied to the current location management unit 36 with time information.
  • the current location management unit 36 receives the information on the vehicle position and the road remaining distance from the map matching unit 26
  • the current location management unit 36 detects the vehicle position and the road remaining distance, and the vehicle position is displayed on the road on the display.
  • Information of the current location coordinates is transmitted to the navigation device so that it is superimposed on the map, and information such as the distance to the target object and time is transmitted to the ECU 40 of the support control unit 14.
  • the ECU 40 performs each assistance control based on the current position of the host vehicle supplied from the positioning unit 12 and the distance and time to the target object that is the object of assistance control such as a stop line and an intersection. Then, it is determined whether or not a control start condition defined for the control is satisfied. When the control start condition is satisfied, the support control is started.
  • the distance from the vehicle to be measured to the temporary stop line that is the target object is, for example, 30 meters (the distance may vary depending on the speed of the vehicle).
  • Automatic braking by the brake actuator 42 is started and the vehicle is stopped at the temporary stop line.
  • voice guidance for notifying the driver that the automatic braking brake is performed may be performed.
  • the route guidance control by voice when the distance from the vehicle to be measured to the target object such as an intersection is 100 meters, for example, driving through the speaker output by the buzzer alarm 50 Guidance to inform the person that the target object exists ahead.
  • the features drawn on the road surface are stop lines, pedestrian crossings, arrows, rotation prohibitions, rhombus markings, character strings, deceleration zones, and the like.
  • the accuracy error in positioning the vehicle position is the smallest for each correction (second map matching) that accompanies the feature recognition by processing of the camera image, and during that time, various detection parameter errors accumulate.
  • the method of recognizing all the features that appear in sequence while the vehicle is running as described above increases the processing load. Things can happen.
  • the system of the present embodiment selects a part of the feature on the road, not all of it, recognizes it, and corrects the position of the own vehicle, thereby improving the accuracy of the own vehicle position to a certain degree of accuracy. It is characterized in that it reduces the processing burden for feature recognition based on camera-captured images.
  • the characteristic part of a present Example is demonstrated.
  • roads include, for example, large-scale intersections (hereinafter referred to as Area A) where there are many lanes and roads intersect in an intricate manner, and urban intersections where two or more lanes cross national roads and prefectural roads. (Hereinafter referred to as area B), curved roads with one-lane alternating lanes with a small radius of curvature, curved roads on toll roads, exit ramps on toll roads (hereinafter referred to as area C), etc.
  • area B large-scale intersections
  • area C curved roads with one-lane alternating lanes with a small radius of curvature
  • curved roads on toll roads exit ramps on toll roads
  • area C exit ramps on toll roads
  • the feature has features that are easy to extract from the image captured by the shape force camera, for example, a rhombus marking with a crosswalk (Fig. 2 (A); the feature portion is particularly surrounded by a broken line) And rotation prohibition markings (Fig. 2 (B); the feature part is surrounded by a broken line in particular) is difficult to extract from the image taken by the shape force camera, for example, a pause line (Fig. 2 (C))
  • a rhombus marking with a crosswalk Fig. 2 (A
  • the feature portion is particularly surrounded by a broken line
  • rotation prohibition markings Fig. 2 (B)
  • the feature part is surrounded by a broken line in particular
  • a pause line Fig. 2 (C)
  • FIG. 3 shows a flowchart of an example of a main routine executed by the positioning unit 12 in the system of the present embodiment that realizes the above functions.
  • FIG. 4 shows a flowchart of an example of a subroutine executed by the positioning unit 12 in the system of the present embodiment that should realize the above functions.
  • the routine shown in FIG. 4 is a routine that is started to determine the features to be recognized in order to correct the vehicle position (particularly the position in the front-rear direction).
  • the current position of the host vehicle obtained as a result of map matching is refined. If the vehicle position to be measured has a certain degree of accuracy due to the level indicating the degree being equal to or higher than a predetermined reference value, specifically, based on the measurement result of the vehicle position, Based on the position of the subject vehicle and the road map data stored in the map database 30, it is determined whether or not the subject vehicle has a force within a predetermined area in front of the target object to be controlled by the assist control. (Step 100). This determination is repeated until an affirmative determination is made.
  • the predetermined area is, for example, a predetermined distance before the large intersection in area A, a predetermined distance before the expressway exit in area C, or a predetermined distance before the mountain road corner that is the area. .
  • step 100 If the result of the determination in step 100 is that the host vehicle is present in the predetermined area, it is determined whether or not the position of the travel lane in which the host vehicle actually travels is determined on the road link that currently exists. Is determined (step 102). When the position of the traveling lane of the host vehicle is determined and it is determined that the vehicle is not, the process of step 100 is executed again. On the other hand, when it is determined that the position of the driving lane has been determined, first, the vehicle will travel to the target object that is the nearest control target for assistance control. All the feature candidates on the driving lane are read from the map database 30 and acquired (Step 104), and then the recognition necessary for correcting the vehicle position from all the feature candidates is performed. Processing for determining the feature to be performed is performed (step 106).
  • the map database 30 of the positioning unit 12 has its type (for example, the above described areas A to A) for each road area where the target object that is the control target of the support control exists.
  • Information representing C) and information representing the arrangement pattern of features that are likely to appear for each road type are stored in advance.
  • the map database 30 includes, for each type of feature, information indicating the degree of ease of extracting the shape (for example, the size of the level and its rank), the degree of ease of rubbing the marking, Information indicating (for example, the size of the level and its rank) is stored in advance.
  • the map matching unit 26 detects the road type in the area where the host vehicle is present based on the road type for each road area where the target object exists, which is stored in the map database 30. . Then, the feature arrangement pattern corresponding to the detected road type is read from the map database 30, and all the feature candidates up to the target object obtained as described above are extracted.
  • the force also refers to the arrangement pattern, removes features with low appearance frequency, and extracts objects with high appearance frequency based on the arrangement pattern (step 150).
  • the appearance frequency extracted as described above is high, and the feature has many feature amounts! Rearrange them in order (step 152). Further, based on the degree of ease of rubbing for each feature type stored in the map database 30, the marking is easily rubbed more than a predetermined amount. Extract difficult types of features (step 154).
  • the map matching unit 26 extracts from the all feature candidates on the travel lane of the road on which the vehicle will travel until reaching the target object of support control in the future by the processing of steps 150 to 154. It is determined whether or not the feature to be recognized for correcting the position of the vehicle is sufficiently satisfied by the selected feature. Specifically, based on the relative relationship between the extracted features and the relative relationship between the extracted features and the target object of support control, the feature extracted by the processing of steps 150 to 154 is recognized. If the vehicle position correction is performed, it is determined whether or not the vehicle can reach the target object by executing the support control while maintaining the positioning accuracy required for the support control (step 156). .
  • the extraction range is increased so that the number of extractions in steps 150 to 154 is increased.
  • Is expanded step 158). For example, a feature that is not included in the layout pattern of features that are likely to appear according to the detected road type that is preset in advance, but that may appear next, is extracted. Widen the range of appearance frequency that becomes the reference (for example, reduce the threshold). In addition, the degree of ease of marking rubbing, the threshold, and the value are changed from the initial settings to the easy ones so that the number of features to be recognized for correcting the vehicle position increases.
  • the extracted features specifically, the appearance frequency is relatively high. (Features that have many shape features and are not easily rubbed) must be recognized in order to correct the position of the vehicle from all the candidate features on the road to the target object.
  • FIG. 5 shows how to correct the vehicle position in a specific area (specifically, area A).
  • the table below shows an example of the priority of feature types and the permission to set them when setting the necessary features to be recognized.
  • the ⁇ mark indicates that the setting is permitted as a feature to be recognized, and the ⁇ mark indicates that the setting is conditional (e.g., only when there are not a plurality of consecutively existing objects). What is allowed is indicated, and the X mark indicates that the setting is prohibited.
  • the map matching unit 26 first selects one of the features marked with a circle as shown in Fig. 5 in order of descending priority in the detected road type area.
  • the following A high-priority type feature is set as a feature to be recognized.
  • that type of feature is also set as a setting target. It should be noted that all types of features marked with a circle may be set as features that should be recognized collectively at the time of initial setting.
  • the map matching unit 26 sets and confirms the features to be recognized that are necessary for correcting the position of the host vehicle, the map matching unit 26 subsequently sets the features to be recognized in order of the road. Based on the detected position of the feature to be recognized and the position of the vehicle that is constantly updated, it is determined whether or not the position of the vehicle has reached the vicinity of the position of the feature to be recognized. It is determined whether or not the recognition of the feature to be recognized should be requested to the external recognition unit 34, and the vehicle position is corrected based on the feature recognition based on the camera image. Perform (Step 108).
  • the road type (areas A to C) on which the vehicle will run in the future is detected, and the appearance according to the arrangement pattern of the detected road type is detected.
  • High frequency! ⁇ Types of features can be set as features that need to be recognized for vehicle position correction.
  • the large number of feature values for each type of feature its features are large and the features are easy to appear! It can be set as a feature.
  • the degree of ease of rubbing the road marking for each type of feature the road marking is difficult to rub, and that type of feature is recognized as a feature that should be recognized for correcting the vehicle position. Can be set.
  • the features to be recognized for correcting the vehicle position from the camera-captured image can be limited to a part of all the features. For example, it is limited to the types of features that appear frequently according to the road type, to the types of features that tend to show shape characteristics when processing images captured by the camera, and the types of features that are difficult to scratch It can be limited to. Then, the second map matching for recognizing and correcting the position of the own vehicle when the own vehicle passes through the set feature to be recognized can be executed.
  • the limitation, that is, the correction of the vehicle position is executable support. It is performed within the range (timing) in which the positioning accuracy required for proper control is ensured. Therefore, according to the system of the present embodiment, while maintaining the accuracy of the own vehicle position to a certain degree of accuracy, that is, it is possible to appropriately execute the support control according to the own vehicle position, the burden of the feature recognition processing is reduced. In addition, it is possible to reduce the processing load of the vehicle position correction based on the recognized features.
  • the positioning unit 12 is connected to the "own vehicle position measuring device” described in the claims, and the knock camera 32 is connected to the “imaging means” described in the claims.
  • the positioning of the vehicle position using both the traveling locus of the vehicle and the own vehicle corresponds to the “predetermined method” described in the claims.
  • the outside recognition unit 34 recognizes the features necessary for correcting the vehicle position from the captured image of the back camera 32 in accordance with the request from the map matching unit 26, so that the “feature recognition means” Force Map matching unit 26 performs map matching that corrects the position of the vehicle to a position based on the recognized feature, so that the “position correction means” described in the claims is a map marker.
  • the “recognized feature setting means” described in the claims is realized by the stepping unit 26 executing the processing of step 106 in the routine shown in FIG. 3, that is, the routine shown in FIG.
  • the extraction is performed.
  • features with relatively small features can be set as features that should be recognized for vehicle position correction.
  • the feature quantity may be set to be a feature to be recognized for correcting the position of the vehicle only when the feature amount is more than a predetermined value.
  • the threshold value of the feature amount is reduced from the initial setting so that the number of the features increases. Or as a change to something.
  • features features that are likely to appear, features that are easy to extract with respect to the shape of the image captured by the camera, and features that are difficult to cause marking rubbing are used, but the present invention is not limited to this.
  • a feature on the road that is more than a predetermined distance ahead of a nearby feature in front of and behind the vehicle may be set as a feature to be recognized for vehicle position correction. If the distance between two features is relatively long, it is almost impossible to recognize one feature from a camera image and mistakenly recognize another feature. The situation where the position is erroneously detected hardly occurs. Therefore, also in this modified example, it is possible to obtain the same effect as the above-described embodiment.
  • characteristic features among all the features on the road to the target object that the host vehicle will reach in the future are to be recognized for correcting the vehicle position.
  • the recognition feature setting for correcting the position of the vehicle is independent of the front / rear direction correction along the road lane and the left / right direction correction perpendicular to the road lane. It may be done.
  • the types of features that are effective in correcting the vehicle position in the front-rear direction may differ from the types of features that are effective in correcting the left-right direction. Therefore, the vehicle position is distinguished from the front-rear direction correction and the left-right direction correction in this way. If recognition feature setting for correction is performed, it is possible to reduce the efficiency and processing burden in correcting the vehicle position.
  • the feature is recognized using the back camera 32 disposed at the rear of the vehicle, and the vehicle position is corrected based on the recognized feature!
  • the recognition of the features in performing the second map matching which is the power of executing the second map matching, is sent from the captured image of the camera installed in the front of the vehicle or from external infrastructure You can do it based on the information that comes.
  • the dead reckoning navigation unit 24 uses both the GPS and the traveling locus of the own vehicle to determine the position of the own vehicle. It can also be applied to a system that uses it to determine the position of the vehicle.
  • the map database 30 is provided in a force center that is mounted on the vehicle, and the vehicle accesses the communication each time and reads the data stored in the map database. You may be able to put it out.
  • the suspension control, the intersection control, the speed control, and the guidance control are cited as the assist control, but other controls that are executed in accordance with the position of the host vehicle. It is also possible to apply to a system that performs the above.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

 地図データベースに情報が格納される道路上の地物のうち自車両が今後走行するエリアにおける特徴的な地物、例えば、支援制御の目標対象物に応じた複数の道路種類ごとの出現可能性の高い地物の配置パターンを参照して出現頻度の高い地物を、自車位置補正のために必要な認識すべき地物として設定する。そして、その設定された地物を認識し、その認識結果に基づいて自車位置をGPS及び走行軌跡に基づくものから補正する。

Description

明 細 書
自車位置測定装置
技術分野
[0001] 本発明は、自車位置測定装置に係り、特に、所定の手法により検出された自車位 置を道路上にある地物の認識結果に基づいて補正する自車位置測定装置に関する 背景技術
[0002] 従来、方位センサや走行距離センサからの信号に基づいて算出される車両走行軌 跡と地図データベースに格納される地図データの道路パターンとを比較して相関を 求め、両者が近似する道路に自車位置を補正する装置が知られている(例えば、特 許文献 1参照)。この装置においては、交差点での右左折時やカーブ路走行時など 車両に特徴的な走行軌跡が得られるタイミングで、自車位置の補正が行われる。 特許文献 1:特開平 8— 61968号公報
発明の開示
発明が解決しょうとする課題
[0003] し力しながら、上記従来の装置においては、車両に特徴的な走行軌跡が得られる 場合にのみ自車位置の補正を行! ヽ、その他の場合 (例えば直線道路走行時)には自 車位置の補正を実行しな 、ため、自車位置の精度を確保することができな 、状況が 生じ得る。この点、車両を一時停止線や踏み切りなどで自動的に一時停止させる制 御などが適切に行われないおそれがある。
[0004] 一方、道路上に描かれ或いは設置される、例えば停止線や横断歩道,矢印,回転 禁止,横断歩道ありの菱形標示,最高速度などの交通標示や文字列,減速帯,停車 禁止帯などを、自車位置を補正するうえで必要な道路上の地物として認識して、その 認識結果を利用して自車位置を補正することが考えられる。力かるシステムにお 、て 、車両走行中に順に現れる地物をその都度認識することとすれば、比較的頻繁に自 車位置を補正することが可能となるので、測位される自車位置を常に高精度に維持 することが可能となる。しかし、道路上の地物は連続して現れることが多いため、上記 の如く順に現れる地物をその都度認識する手法では、処理負担が増大するおそれ がある。
[0005] 本発明は、上述の点に鑑みてなされたものであり、自車位置の精度をある程度高精 度に維持しつつ地物認識の処理負担を軽減することが可能な自車位置測定装置を 提供することを目的とする。
課題を解決するための手段
[0006] 上記の目的は、自車位置を補正するうえで必要な道路上の地物を認識する地物認 識手段と、所定の手法により検出された自車位置を前記地物認識手段による認識結 果に基づいて補正する位置補正手段と、を備える自車位置測定装置であって、デー タベースに情報が格納される道路上の地物のうち自車両が今後走行する領域にお ける特徴的な地物を、前記地物認識手段により認識すべき前記地物として設定する 認識地物設定手段を備え、前記地物認識手段は、前記認識地物設定手段により設 定された前記地物を認識する自車位置測定装置により達成される。
[0007] この態様の発明においては、道路上の地物のうち自車両が今後走行する領域にお ける特徴的な地物が、自車位置を補正するうえで必要な認識すべき地物として設定 される。そして、この設定された地物が認識され、その認識された地物に基づいて自 車位置が補正される。力かる構成によれば、道路上の地物のうち自車両が今後走行 する領域における全地物のうち特徴的な地物のみが自車位置補正のための対象と なるので、自車位置の精度をある程度高精度に維持しつつ地物認識の処理負担を 軽減することができる。
[0008] 尚、車両が今後走行する道路の種類 (例えば、車線数が多くかつ道路が複雑に交 差し合う大規模交差点、 2車線以上の国道や県道などが交差する通常交差点、曲率 半径の小さ 、片側 1車線交互通行のカーブ路、細街路であって一時停止線のある交 差点など)に応じて、地物が配置されるパターンにある程度の規則性が認められる。 このため、道路種類に応じた地物の配置パターンを参照して認識すべき地物を設定 すれば、その認識すべき地物が一部に限定されることとなり、地物認識の処理負担を 軽減できる。
[0009] 従って、上記した自車位置測定装置にお!/、て、前記認識地物設定手段は、自車両 が今後走行する道路の種類に基づいて該種類に従った地物の所定配置パターンを 参照して自車両が今後走行する領域において出現すると推定される地物を、前記地 物認識手段により認識すべき前記地物として設定することとしてもよい。
[0010] また、特徴が現れ難い種類の地物 (例えば一時停止線)は、その認識を行ううえで 大きな処理負荷を要する一方、特徴が現れ易い種類の地物 (例えば横断歩道や横 断歩道ありの菱形標示)は、その認識を行ううえであまり大きな処理負荷を必要としな い。従って、上記した自車位置測定装置において、前記認識地物設定手段は、自車 両が今後走行する領域にぉ ヽて特徴が現れ易!ヽ種類の地物を、前記地物認識手段 により認識すべき前記地物として設定することとしてもょ 、。
[0011] また、路面標示が擦れ易い種類の地物 (例えば横断歩道)は、その認識処理を行 つても擦れに起因して認識できな 、ことがある一方、路面標示が擦れ難 、種類の地 物(例えば矢印)は、擦れに起因した認識不能が起こることはほとんどない。従って、 上記した自車位置測定装置において、前記認識地物設定手段は、自車両が今後走 行する領域において路面標示が擦れ難い種類の地物を、前記地物認識手段により 認識すべき前記地物として設定することとしてもょ 、。
[0012] 更に、前後にある他の地物との距離が比較的長い地物は、その認識に際し他の地 物と誤認識されることはほとんどなぐ位置が誤検出される事態はほとんど生じない。 従って、上記した自車位置測定装置において、前記認識地物設定手段は、自車両 が今後走行する領域にぉ 、て前後にある地物との距離が所定以上に長 、地物を、 前記地物認識手段により認識すべき前記地物として設定することとしてもよい。
[0013] 尚、上記した自車位置測定装置にお!/、て、前記地物認識手段は、車両周辺を撮 像する撮像手段により撮像された画像に基づいて道路上の地物を認識することとす ればよい。また、前記所定の手法は、 GPSを用いて又は自車両の走行軌跡を用いて 自車位置を検出する手法であることとすればょ 、。
発明の効果
[0014] 本発明によれば、自車位置の精度をある程度高精度に維持しつつ地物認識の処 理負担を軽減することができる。
図面の簡単な説明 [0015] [図 1]本発明の一実施例である車両に搭載されるシステムの構成図である。
[図 2]道路上に描かれる地物の種類ごとの標示を模式的に表した図である。
[図 3]本実施例のシステムにおいて実行されるメインルーチンの一例のフローチャート である。
[図 4]本実施例のシステムにおいて実行されるサブルーチンの一例のフローチャート である。
[図 5]ある特定のエリアにぉ 、て自車位置を補正するうえで必要な認識すべき地物を 設定する際における地物種類の優先度及びその設定許否の一例を表した表である 符号の説明
[0016] 12 測位部
24 推測航法部
26 マップマッチング部
30 地図データベース
32 ノックカメラ
34 外界認識部
発明を実施するための最良の形態
[0017] 以下、本発明の好適な実施例の説明をする。
[0018] 図 1は、本発明の一実施例である車両に搭載されるシステムの構成図を示す。図 1 に示す如ぐ本実施例のシステムは、自車両の位置を測位するための測位部 12と、 自車両の走行等を制御するための支援制御部 14と、を備えており、測位部 12で測 位される自車両の位置に応じて、自車両を走行させるうえでの所定の支援制御を実 行するシステムである。
[0019] 測位部 12は、 GPS (Global Positioning System)衛星から送信される GPS信号を受 信して自車両の存在する位置の緯度及び経度を検知する GPS受信機 16、旋回角 や地磁気を用いて自車両のョ一角(方位)を検知する方位センサ 18、加減速度を検 知する Gセンサ 20、車速を検知する車速センサ 22、並びに、それら各受信機やセン サ 16〜22の出力が接続されている主にマイクロコンピュータにより構成された推測 航法部 24を有している。各受信機やセンサ 16〜22の出力信号はそれぞれ、推測航 法部 24に供給される。推測航法部 24は、 GPS受信機 16からの情報に基づいて自 車両の位置の緯度及び経度 (初期座標)を検出すると共に、センサ 18〜22からの情 報に基づいて自車両の進行方位、車速、及び加減速度の走行状態を検出して、自 車位置の初期座標からの車両の走行軌跡 (推測軌跡)を作成する。
[0020] 測位部 12は、また、推測航法部 24に接続する主にマイクロコンピュータにより構成 されたマップマッチング部 26を有していると共に、そのマップマッチング部 26に接続 する地図データベース 30を有している。地図データベース 30は、車両に搭載され或 いはセンタに設けられたハードディスク(HDD)や DVD, CDなどにより構成されてお り、経路案内や地図標示に必要な道路自体のリンクデータ等や道路に描かれ或いは 設置される地物や車線レーンの位置情報などを格納している。
[0021] 具体的には、この地図データベース 30には、道路を表す緯度'経度や曲率,勾配
,車線数,車線幅,コーナ有無などのレーン形状や道路種別のデータや、各交差点 やノード点に関する情報、地図表示を行うための建物などに関する情報などが格納 されると共に、道路路面上に描かれる横断歩道や一時停止線,進行方向矢印, 「横 断歩道あり」の菱形標示,最高速度標示,回転禁止標示などの各地物ごとに、形状 データやペイントデータ,位置データ,特徴量の大きさ,前後にある他の地物との距 離データ,擦れ易さの度合いを示すデータ,車両進行方向の目標となる対象物との 距離データなどが格納される。また、この地図データベース 30は、ディスクの交換や 更新条件の成立により格納する地図データを最新のものに更新可能である。
[0022] マップマッチング部 26には、推測航法部 24において検出.作成された自車位置の 初期座標及びその初期座標力 の推測軌跡の情報が供給される。マップマッチング 部 26は、推測航法部 24から推測軌跡の情報が供給されるごとに、自車両の現在位 置を地図データベース 30に格納されている道路自体のリンク情報を利用してその道 路リンク上に補正するマップマッチング (第 1マップマッチング)を行う機能を有して ヽ る。
[0023] マップマッチング部 26は、第 1マップマッチングの結果 (すなわち検出された自車 両の位置)に基づいて、その位置から自車両が今後所定時間内又は所定距離内に 走行すると推測される道路路面上の地物データを地図データベース 30から読み出 す機能を有している。また、その検出自車位置力もの所定道路範囲における全地物 のうち後に詳述する如く一部の地物を認識すべき地物として設定する。そして、その 設定後は、検出される自車両の位置に基づいて、その設定された地物のバックカメラ 画像を用いた認識を後述の外界認識部に対して要求すべき状況にある力否かを判 別して、肯定判別がなされるときは、その外界認識部に対してバックカメラ画像を用い た地物認識を要求すると共に、同時にその地物の形状データや位置データ及び走 行レーンの形状データなどの特徴データを提供する。
[0024] 測位部 12は、また、車両後部パンパなどに配設されたバックカメラ 32、及び、ノック カメラ 32に接続されている主にマイクロコンピュータにより構成された外界認識部 34 を有している。ノ ックカメラ 32は、配設位置から車両後方の道路路面を含む所定領 域の外界を撮影する機能を有し、その撮像画像を外界認識部 34に供給する。外界 認識部 34のカメラ制御部は、マップマッチング部 26からバックカメラ 32を用いた画像 認識の要求を受けた場合、ノ ックカメラ 32の撮像した撮像画像にっ 、てエッジ抽出 などの画像処理を行うことにより、道路路面に描かれる上記の地物や走行レーンなど を抽出すると共に、それら地物等と自車両との相対位置関係を把握する。尚、この地 物や走行レーンの抽出に際しては、マップマッチング部 26から提供される地物等の 特徴データに基づいて、事前にその地物等が存在するエリアを把握して、ノ ックカメ ラ 32による全撮像画像に対してその存在領域を重点的に絞って画像処理を行う。こ れは、ノ ックカメラ 32の撮像画像力も地物等の抽出を行ううえで効率的 ·効果的であ るカゝらである。
[0025] 外界認識部 34により抽出された結果 (地物や走行レーンとの相対関係を含む情報 )は、上記のマップマッチング部 26に供給される。マップマッチング部 26は、バック力 メラ 32を用いた画像認識の要求を行った後、外界認識部 34から供給される走行レー ンの抽出結果に基づ!/、て自車両が現に走行する道路上における自レーンの位置を 算出する機能を有している。また、ノ ックカメラ 32を用いた画像認識の要求を行った 後、外界認識部 34から供給される地物の抽出結果に基づいて、自車両から道路後 方に存在するその認識地物までの距離及び相対位置を測定すると共に、その測定し た自車両と認識地物との相対位置と地図データベース 30に格納されているその認 識地物の位置データとに基づいて、自車両の現在位置を、認識地物に対してその相 対位置関係にある位置へ補正するマップマッチング (第 2マップマッチング)を行う機 能を有している。
[0026] このように、マップマッチング部 26は、上記の如ぐ推測航法部 24から推測軌跡の 情報が供給されるごとに、自車両の現在位置を地図データベース 30に格納されてい る道路リンク上に補正する第 1マップマッチングを行うと共に、要求に従って外界認識 部 34力 認識地物の抽出結果の供給を受けた場合には、更にその認識地物に基づ V、た位置へ自車位置を前後方向又は車幅左右方向にお!、て補正する第 2マップマ ツチングを行う。
[0027] マップマッチング部 26は、また、上記の第 2マップマッチングを行った後、マップマ ツチングにより測位した自車両の位置を地図データベース 30に格納されている地図 データと照合することにより、自車両の進行方向の所定範囲前方に支援制御を実行 するのに必要な制御対象である目標の対象物(例えば、停止線や交差点,カーブ進 入口等)が存在することとなるときは、以後、推測航法部 24から推測軌跡の情報が供 給されて自車位置が測位更新されるごとに、その測位した自車位置と自車両の走行 レーンの位置とデータベース 30に格納されて!、るその目標対象物の位置とに基づ!/ヽ て、自車両力 進行方向前方の目標対象物までの走行レーンの中心線に沿った距 離 (以下、道なり残距離と称す)を算出する機能を有して!/ヽる。
[0028] 測位部 12は、また、マップマッチング部 26に接続する現在地管理部 36を有して ヽ る。現在地管理部 36には、マップマッチング部 26で算出されたマップマッチングの 結果得られた自車両の現在位置のリンク IDやリンク座標の情報、道なり残距離の情 報、及び自車両が現に走行する道路における走行レーンの位置の情報がそれぞれ その得られた時刻の情報と共に供給される。
[0029] 現在地管理部 36は、マップマッチング部 26から供給される情報に基づ 、て、測位 された自車両の現在位置や目標対象物までの道なり残距離を検知する。現在地管 理部 36で検知された自車両の現在位置や道なり残距離の情報は、例えば自車両の 有するナビゲーシヨン装置に供給されて、その表示ディスプレイに表示されて 、る地 図上に模式的に表示されると共に、上記した支援制御部 14に供給される。
[0030] 支援制御部 14は、マイクロコンピュータを主体に構成された電子制御ユニット (EC U) 40を備えており、 ECU40により自車両を道路上で走行させる際の運転者への支 援制御を実行する。この支援制御は、自車両の位置に応じて具体的には上記した自 車両から目標対象物までの道なり残距離に応じて実行される例えば、特に運転者に よるブレーキ操作が行われないときや遅れているときなどに自車両を道路上の地物 である一時停止線や踏み切りなどで停車させるための運転支援制御である一時停止 制御、自車両を道路上の地物である交差点で交差すると予測される他車両と交錯さ せな!/、ための運転支援制御である交差点制御、自車両を地物であるカーブ (コーナ 一)に対して適切な速度で走行させるための速度制御、目標対象物までの相対距離 に対する音声による経路案内を行うための案内制御などである。
[0031] ECU40には、自車両に適当な制動力を発生させるためのブレーキアクチユエータ 42、自車両に適当な駆動力を付与するためのスロットルァクチユエータ 44、自車両 の自動変速機の変速段を切り替えるためのシフトァクチユエータ 46、自車両に適当 な操舵角を付与するためのステアァクチユエータ 48、及び車室内に向けてブザー吹 鳴や警報出力,スピーカ出力を行うためのブザー警報器 50が接続されている。 EC U40は、後に詳述する如ぐ現在地管理部 36で管理されている測位された自車両の 現在位置ゃ自車両と目標対象物との相対関係に基づいて、各ァクチユエータ 42〜5 0に対して適当な駆動指令を行う。各ァクチユエータ 42〜50は、 ECU40から供給さ れる駆動指令に従って駆動される。
[0032] 次に、本実施例のシステムにおける具体的な動作について説明する。本実施例に おいて、測位部 12は、まず、推測航法部 24において、所定時間ごとに、各受信機や センサ 16〜22の出力信号に基づいて、自車両の初期座標を検出すると共に、その 初期座標からの走行軌跡を作成する。そして、マップマッチング部 26において、推測 航法部 24により作成された自車位置の初期座標からの走行軌跡を、地図データべ ース 30に地図データとして格納されている道路のリンク情報と照らし合わせることによ り、自車両の現在位置をその道路リンク上に補正する第 1マップマッチングを行う。
[0033] マップマッチング部 26は、第 1マップマッチングに基づ 、て自車位置を検出した場 合、その自車位置から自車両が今後所定時間若しくは所定距離だけ走行したときの 位置まで又は支援制御の制御対象である目標対象物の位置までの道路範囲 (複数 レーンのときはすべてのレーン)の地物データを地図データベース 30から読み出す 。尚、現在位置から進行方向前方の所定道路範囲における地物を読み出すのは、 マップマッチングによって測位検出された自車両の現在位置が正確でな 、可能性が ある力もである。そして、その所定道路範囲における全地物のうち後述の如き一部の 地物をバックカメラ 32により認識すべき地物として設定し、その後は、その設定された 認識すべき地物の位置と常に更新される自車両の位置とに基づいて、自車位置がそ の認識すべき地物の位置近傍に達した力否かを判別することにより、その設定された 認識すべき地物の認識を外界認識部 34に対して要求すべきカゝ否かを判別する。
[0034] マップマッチング部 26は、上記の判別の結果、認識すべき地物の認識を要求すベ きでないときには、何ら処理を行わない一方、認識すべき地物の認識を要求すべき であるときには、外界認識部 34に対して、ノ ックカメラ 32により車両後方画像を撮像 して認識すべき地物の認識を要求すると共に、同時にその地物の形状データや位置 データ及び走行レーンの形状データなどの特徴データを送信する。そして、外界認 識部 34への認識要求後は、力かる認識要求に応答して外界認識部 34から、自車位 置から所定道路範囲に存在すると推定される認識すべき地物が認識されたことが通 知されるまで或いは自車両が所定道路範囲を出るまで繰り返し上記の認識要求を行
[0035] 外界認識部 34は、マップマッチング部 26からバックカメラ 32による画像認識の要 求を受けた場合、ノ ックカメラ 32からの撮像画像についてエッジ抽出などの画像処 理を行い、そして、画像処理の結果とマップマッチング部 26から送信された地物の特 徴データとを比較して、認識すべき地物が画像処理により認識されるかを判定する。 その結果、力かる地物が認識されないときは、マップマッチング部 26に対して認識す べき地物が認識されない旨を示す情報を送信する。一方、認識すべき地物を認識し たときは、マップマッチング部 26に対して、認識すべき地物が認識された旨を示す情 報を送信すると共に、その画像処理により特定される自車両と認識地物との相対位 置や距離の情報を送信する。 [0036] マップマッチング部 26は、認識要求後、外界認識部 34から車両後方画像にぉ ヽて 認識すべき地物が認識されたことの通知を受けた場合、その外界認識部 34から供給 される自車両と認識地物との相対関係に基づいて、自車両から道路後方に存在する 認識地物までの距離及び相対位置を測定すると共に、その測定した自車両と認識地 物との相対位置と、地図データベース 30から読み出したその認識地物の位置データ とに基づいて、自車両の現在位置を、認識地物の位置に対してその相対位置関係 にある位置へ補正する第 2マップマッチングを行う。
[0037] マップマッチング部 26は、上記の第 2マップマッチングを行うと、地図データベース 30にアクセスしてその認識対象物カゝら支援制御の対象である目標対象物までの道 路走行上の距離を取得し、そして、第 2マップマッチングによる自車両の位置と認識 対象物から目標対象物までの距離とに基づ 、て、自車両から目標対象物までの道な り残距離の初期値を算出する。
[0038] また、外界認識部 34は、所定道路範囲に存在する認識すべき地物を認識したとき は、ノ ックカメラ 32からの撮像画像の画像処理を行うことで、その画像処理により特 定される道路上の走行レーンの情報を取得'認識して、マップマッチング部 26に対し てその走行レーンの自車両に対する相対関係を含む情報を送信する。マップマッチ ング部 26は、外界認識部 34からの走行レーンの情報を受信すると、地図データべ ース 30にアクセスして自車位置近傍での走行レーンのレーン幅やレーン数,形状等 を取得する。そして、外界認識部 34から送信された走行レーンの情報 (特に自車両 との相対関係)や地図データベース 30から取得したレーン数等の情報に基づいて、 自車両が現時点で走行する道路での自レーンの位置を特定する。目標対象物は走 行レーンごとに異なることがある力 上記の如く自レーンの位置が特定されたときは、 自レーン上で自車両が通過すべき進行方向前方の目標対象物が具体的に特定さ れることとなる。
[0039] 推測航法部 24は、所定時間ごとに、 GPS受信機 16並びに各種センサ 18〜22を 用いて自車位置の推測軌跡を作成し、その軌跡情報をマップマッチング部 26に対し て送信する。マップマッチング部 26は、上記の如く地物認識に伴う第 2マップマッチ ングを行うと、以後、推測航法部 24からの推測軌跡情報を受信するごとに、まず、そ の第 2マップマッチング時点からの推測軌跡と自レーンの位置とに基づいて自レーン の中心線上での認識地物座標に対する自車両の位置 (特に前後方向の距離)を算 出する。そして、その前後方向距離、及び、自レーン上での上記した認識地物と目標 対象物との距離に基づ!/、て、自車両の現在位置カゝらその目標対象物までの道なり残 距離を算出する。
[0040] 測位部 12において測位検出された自車位置の情報および算出した道なり残距離 の情報は、時刻の情報を付して現在地管理部 36へ供給出力される。現在地管理部 36は、マップマッチング部 26から自車位置や道なり残距離の情報を受信すると、そ の自車位置や道なり残距離を検知して、その自車位置が表示ディスプレイ上の道路 地図に合わせて重畳表示されるようにその現在地座標の情報をナビゲーシヨン装置 へ送信すると共に、目標対象物までの距離や時間等の情報を支援制御部 14の EC U40へ送信する。
[0041] ECU40は、測位部 12から供給される自車両の現在位置及び一時停止線や交差 点などの支援制御の制御対象である目標対象物までの距離や時間に基づいて、支 援制御ごとに、その制御に定められている制御開始条件が成立するか否かをそれぞ れ判別する。そして、制御開始条件が成立した場合はその支援制御を開始する。
[0042] 例えば一時停止制御にお!ヽては、測位される自車両から目標対象物である一時停 止線までの距離が例えば 30メートル(自車速に応じて変化する距離であってもよ!/、。 )になった時点でブレーキアクチユエータ 42による自動ブレーキを開始して、自車両 をその一時停止線で停車させる。尚、この際、ブレーキアクチユエータ 42による自動 的な制動ブレーキを開始する前に、運転者に対してその自動的な制動ブレーキが行 われることを知らせる音声案内などを行うこととしてもよい。また、音声による経路案内 制御にお 、ては、測位される自車両から交差点などの目標対象物までの距離が例え ば 100メートルになった時点でブザー警報器 50によるスピーカ出力を介して、運転 者に前方に目標対象物が存在することを知らせる案内を行う。
[0043] 従って、力かるシステムによれば、測位部 12で測位される自車両の位置具体的に は目標対象物までの距離に応じて支援制御を実行させることができる。すなわち、測 位によって自車両が目標対象物に対して所定の相対位置関係に達する前は支援制 御を行わな 、が、達した以後は支援制御を実行することができる。
[0044] ところで、道路路面に描かれる地物は、停止線や横断歩道,矢印,回転禁止,菱形 標示,文字列,減速帯などである。ここで、自車位置を測位するうえでの精度誤差は 、カメラ撮像画像の処理による地物認識に伴う補正 (第 2マップマッチング)時ごとに 最も小さくなり、その間においては各種検出パラメータ誤差の累積に起因して補正後 の車両の移動距離が長くなるほど大きくなる。従って、車両が走行する際に道路路面 に順に現れる地物のすべてをその都度カメラ撮像画像力 認識することとすれば、比 較的頻繁に認識地物の認識結果に基づいて自車位置が補正されることとなるので、 測位される自車位置の精度を常に高いものに維持することが可能となり、自車位置の 高精度が要求され支援制御 (例えば一時停止制御など)でも適切に実行させることが 可能となる。
[0045] しかし、道路上の地物は単位距離当たりに多数設けられることがあるため、上記の 如く車両走行中に順に現れる地物のすべてをその都度認識する手法では、処理負 荷が増大する事態が生じ得る。そこで、本実施例のシステムは、道路上の地物のす ベてではなくその一部を選択して認識して自車位置の補正を行うことにより、自車位 置の精度をある程度高精度に維持しつつ、カメラ撮像画像に基づく地物認識の処理 負担を軽減する点に特徴を有している。以下、本実施例の特徴部について説明する
[0046] 一般に、道路には、例えば、車線数が多くかつ道路が複雑に交差し合う大規模交 差点 (以下、エリア Aと称す)、 2車線以上の国道や県道などが交差する市街地交差 点(以下、エリア Bと称す)、曲率半径の小さい片側 1車線交互通行のカーブ路ゃ有 料道路のカーブ路,有料道の出口ランプ (以下、エリア Cと称す)など、支援制御の対 象となり得る目標対象物に応じた複数の種類がある。そして、道路は、それらの種類 ごとに、地物が配置されるパターンにある程度の規則性が認められるものである。例 えば、車両が上記エリア Aに向力う過程では、道なりに、矢印→文字列→停止線→ 横断歩道→交差点の順で地物が出現する傾向が高い。
[0047] 従って、測位部 12の地図データベース 30に、支援制御の対象となり得る道路ごと にその種類 (例えば上記したエリア A〜C)を表す情報およびその道路種類ごとに出 現の可能性の高 、上記の如き地物の配置パターンの情報を予め格納してぉ 、たう えで、自車両が今後走行する道路の種類を検出した後にその地図データベース 30 力 自車両が今後走行する道路の種類に応じた地物の配置パターンを読み出して、 その配置パターンを参照して自車位置補正のために認識すべき地物を設定すること とすれば、自車位置補正のために認識すべき地物が一部に限定されることとなり、地 物認識の処理負担が軽減されることとなる。
[0048] また、地物には、その形状力カメラ撮像画像カゝら抽出し易い特徴を有する例えば横 断歩道ありの菱形標示(図 2 (A);特徴部分は特に破線で囲まれる部分)や回転禁止 標示(図 2 (B);特徴部分は特に破線で囲まれる部分)などから、その形状力カメラ撮 像画像から抽出し難 、特徴を有する例えば一時停止線 (図 2 (C) )などまで、形状〖こ 関し特徴量の異なる複数の種類が存在する。従って、測位部 12の地図データべ一 ス 30に位置情報等が格納される地物の種類ごとにその特徴量を表す情報を予め格 納してお!/、たうえで、形状の特徴量が多く特徴の現れ易!、種類の地物を優先して認 識すべき地物として設定することとすれば、地物認識が比較的容易に行われることと なり、地物認識の処理負担が軽減されることとなる。
[0049] 更に、地物には、その路面標示が擦れ難い特徴を有するもの力 その路面標示が 摩れ易 、特徴を有するものまで様々あり、標示擦れ易さの度合 、の異なる複数の種 類が存在する。従って、測位部 12の地図データベース 30に位置の情報等が格納さ れる地物の種類ごとにその標示擦れ易さの度合いを表す情報を予め格納しておいた うえで、標示が擦れ難い地物を優先して認識すべき地物として設定することとすれば 、認識すべき地物が認識されない事態が生じ難くなり、地物認識の処理負担が軽減 されることとなる。
[0050] 図 3は、上記の機能を実現すベぐ本実施例のシステムにおいて測位部 12が実行 するメインルーチンの一例のフローチャートを示す。また、図 4は、上記の機能を実現 すべぐ本実施例のシステムにおいて測位部 12が実行するサブルーチンの一例の フローチャートを示す。図 4に示すルーチンは、自車位置 (特に前後方向の位置)を 補正するために認識すべき地物を確定すべく起動されるルーチンである。
[0051] 本実施例にお!、て、マップマッチングの結果として得られる自車両の現在位置の精 度を示すレベルが所定の基準値以上であることにより、測位される自車位置がある程 度の正確性を有する場合には、自車位置の測位結果に基づいて、具体的には、測 位される自車位置と地図データベース 30に格納される道路地図データとに基づいて 、支援制御の制御対象である目標対象物の手前の所定エリア内に自車両が存在す る力否かを判別する (ステップ 100)。この判別は、肯定判定がなされるまで繰り返し 実行される。尚、上記の所定エリアとしては、例えば、上記したエリア Aである大規模 交差点の所定距離手前やエリア Cである高速道路出口の所定距離手前,エリアじで ある山道コーナーの所定距離手前などである。
[0052] 上記ステップ 100における判別の結果、自車両が所定エリア内に存在するときは、 次に自車両が現時点で存在する道路リンクにおいて実際に走行する走行レーンの 位置が確定している力否かを判別する(ステップ 102)。そして、自車両の走行レーン の位置が確定して 、な 、と判別されるときは、再び上記ステップ 100の処理を実行さ せる。一方、その走行レーンの位置が確定していると判別されるときは、まず、自車両 が今後最も近くに位置する支援制御の制御対象である目標対象物へ至るまでに走 行する道路の当該走行レーン上のすべての地物候補を地図データベース 30から読 み出して取得する処理を行い (ステップ 104)、次に、その全地物候補のうちから自車 位置を補正するうえで必要な認識すべき地物を確定する処理を行う(ステップ 106)。
[0053] 具体的には、本実施例において、測位部 12の地図データベース 30には、支援制 御の制御対象である目標対象物が存在する道路エリアごとにその種類 (例えば上記 したエリア A〜C)を表す情報、及び、その道路種類ごとに出現する可能性の高い地 物の配置パターンを表す情報が予め格納されている。また、地図データベース 30に は、地物の種類ごとに、形状の抽出し易さの度合いを示す特徴量 (例えばそのレべ ルの大きさやその順位)を表す情報および標示擦れ易さの度合 、 (例えばそのレべ ルの大きさやその順位)を表す情報が予め格納されて 、る。
[0054] マップマッチング部 26は、地図データベース 30に格納されている目標対象物が存 在する道路エリアごとの道路種類に基づ 、て、自車両が存在するエリアでの道路種 類を検出する。そして、地図データベース 30からその検出道路種類に応じた地物の 配置パターンを読み出して、上記の如く取得した目標対象物までの全地物候補の中 力もその配置パターンを参照して出現頻度の低い地物を除き、その配置パターンに 基づ 、て出現頻度の高!、ものを抽出する (ステップ 150)。
[0055] また、地図データベース 30に格納されている地物種類ごとの形状の特徴量に基づ V、て、上記の如く抽出した出現頻度の高!、地物をその特徴量が多!、順に並べ替え る(ステップ 152)。更に、地図データベース 30に格納されている地物種類ごとの標 示擦れ易さの度合いに基づ 、て、その標示が所定以上に擦れ易 、種類の地物を除 き、ある程度その標示が擦れ難い種類の地物を抽出する (ステップ 154)。
[0056] その後、マップマッチング部 26は、自車両が今後支援制御の目標対象物へ至るま でに走行する道路の当該走行レーン上の全地物候補のうちからステップ 150〜 154 の処理により抽出した地物によって、自車位置補正のために認識すべき地物が十分 に満たされるか否かを判別する。具体的には、その抽出される地物間の相対関係及 びその抽出地物と支援制御の目標対象物との相対関係に基づいて、ステップ 150〜 154の処理により抽出した地物を認識して自車位置補正を行えば、その支援制御に 要求される測位精度を維持しつつその支援制御を実行させて自車両を目標対象物 に到達させることができる力否かを判別する (ステップ 156)。
[0057] その結果、自車位置補正のために認識すべき地物が十分に満たされな 、と判別さ れる場合は、次に上記ステップ 150〜154での抽出数が増えるようにその抽出範囲 を拡大する (ステップ 158)。例えば、予め初期設定された検出道路種類に応じて出 現する可能性の高い地物の配置パターンには含まれないが、その次に出現する可 能性のある地物が抽出されるように、基準となる出現頻度の範囲を広くする(例えば、 そのしきい値を少なくする)。また、自車位置補正のために認識すべき地物の数が増 えるように、標示擦れ易さの度合 、のしき 、値を予め初期設定されたものからし易 ヽ ものへ変更する。
[0058] 一方、自車位置補正のために認識すべき地物が十分に満たされると判別される場 合は、その抽出された地物 (具体的には、比較的、出現頻度が高ぐ形状の特徴量 が多ぐかつ標示擦れがし難い地物)を、目標対象物へ至るまでの道路上の全地物 候補のうちから自車位置を補正するうえで必要な認識すべき地物として設定する。
[0059] 図 5は、ある特定のエリア(具体的には、エリア A)において自車位置を補正するうえ で必要な認識すべき地物を設定する際における地物種類の優先度及びその設定許 否の一例を表した表を示す。尚、設定許否欄における〇印は認識すべき地物として 設定が許容されるものを、△印はその設定が条件付き (例えば複数連続して存在せ ずに単独で存在するときのみなど)で許容されるものを、また、 X印はその設定が禁 止されるものを、それぞれ示す。
[0060] すなわち、マップマッチング部 26は、まず、検出した道路種類であるエリアにおい て図 5に示す如き〇印の付された種類の地物をその優先度の高い順に一つずっ自 車位置補正のために必要な認識すべき地物として設定し、その設定後の認識すべき 地物だけでは支援制御を適切に実行するのにその認識すべき地物が不十分である ときは、次に優先度の高い種類の地物をその認識すべき地物として設定する。また、 当該エリアで△印の付された種類の地物について予め定められた条件が成立すると きは、その種類の地物をも設定対象とする。尚、〇印の付された種類の地物はすべ て初回設定時に一括して認識すべき地物として設定することとしてもよい。
[0061] マップマッチング部 26は、自車位置を補正するうえで必要な認識すべき地物を設 定し確定した場合、以後、設定された認識すべき地物について道なり順に、その設 定された認識すべき地物の位置と常に更新される自車両の位置とに基づいて、自車 位置がその認識すべき地物の位置近傍に達したカゝ否かを判別して、その設定された 認識すべき地物の認識を外界認識部 34に対して要求すべきカゝ否かを判別し、そし て、カメラ撮像画像に基づく地物認識に基づ 、た自車位置の補正を実施する (ステツ プ 108)。
[0062] このように、本実施例のシステムにお 、ては、自車両が今後走行する道路種類 (ェ リア A〜C)を検知して、その検知した道路種類の配置パターンに応じた出現頻度の 高!ヽ種類の地物を自車位置補正のために必要な認識すべき地物として設定すること ができる。また、地物種類ごとの形状の特徴量の多さを考慮して、その特徴量が多く その特徴が現れ易!、ほどその種類の地物を自車位置補正のために必要な認識すベ き地物として設定することができる。更に、地物種類ごとの路面標示が擦れ易さの度 合 、を考慮して、路面標示が擦れ難 、ほどその種類の地物を自車位置補正のため に必要な認識すべき地物として設定することができる。 [0063] すなわち、自車両が今後走行する支援制御の目標対象物までの道路の走行レー ン上の全地物のうち特徴的な地物のみを自車位置補正のための対象地物とすること ができ、カメラ撮像画像から自車位置補正のために認識すべき地物をその全地物の うちの一部に限定することができる。例えば、道路種類に応じた出現頻度の多い種類 の地物に限定し、カメラ撮像画像の処理に際し形状の特徴が現れ易い種類の地物 に限定し、また、路面標示が擦れ難い種類の地物に限定することができる。そして、 その設定された認識すべき地物を自車両が通過する際に認識して自車位置を補正 する第 2マップマッチングを実行することができる。
[0064] この点、本実施例のシステムによれば、自車両が今後走行する目標対象物までの 道路上の全地物をその都度バックカメラ 32の撮像画像の処理により認識してその全 地物の認識ごとに自車位置補正を実施するシステムに比べて、その地物認識を行う 回数や自車位置補正を行う回数を削減することができ、地物認識や自車位置補正を 行ううえでの処理負担を軽減することができる。
[0065] 尚、本実施例において、上記の如く自車位置補正のために認識すべき地物がその 一部に限定される状況でも、その限定すなわち自車位置の補正は、実行可能な支援 制御を適切に行ううえで要求される測位精度が確保される範囲(タイミング)で行われ る。従って、本実施例のシステムによれば、自車位置の精度をある程度高精度に維 持しつつすなわち自車位置に応じた支援制御を適切に実行可能としつつ、地物認 識の処理負担を軽減することができ、また、認識地物に基づく自車位置補正の処理 負担を軽減することが可能となって 、る。
[0066] 尚、上記の実施例においては、測位部 12が特許請求の範囲に記載した「自車位 置測定装置」に、ノ ックカメラ 32が特許請求の範囲に記載した「撮像手段」に、 GPS 及び自車両の走行軌跡の双方を用いて自車位置を測位することが特許請求の範囲 に記載した「所定の手法」に、それぞれ相当している。また、外界認識部 34がマップ マッチング部 26からの要求に従ってバックカメラ 32の撮像画像から自車位置補正の ために必要な地物を認識することにより特許請求の範囲に記載した「地物認識手段」 力 マップマッチング部 26が自車位置を認識地物に基づいた位置へ補正するマップ マッチングを行うことにより特許請求の範囲に記載した「位置補正手段」が、マップマ ツチング部 26が上記図 3に示すルーチン中ステップ 106の処理すなわち図 4に示す ルーチンを実行することにより特許請求の範囲に記載した「認識地物設定手段」が、 それぞれ実現されている。
[0067] ところで、上記の実施例にお!、ては、自車両が今後走行する目標対象物までの道 路上の全地物のうちから出現頻度の高い地物を抽出したうえで、その抽出した地物 を形状の特徴量の多 、順に並び替えることとし、特徴量が比較的少な 、種類の地物 でも自車位置補正のために認識すべき地物として設定し得ることとして ヽるが、特徴 量が所定以上に多 、種類の地物のみを自車位置補正のために認識すべき地物とし て設定し得ることとしてもよい。また、この場合には、自車位置補正のために認識すベ き地物が十分に満たされないとき、その地物の数が増えるように、特徴量のしきい値 を予め初期設定されたものから少な 、ものへ変更することとしてもよ 、。
[0068] また、上記の実施例においては、自車両が今後走行する目標対象物までの道路上 の全地物のうち自車位置補正のために認識すべき地物として設定する特徴的な地 物として、出現可能性の高い地物、形状に関しカメラ撮像画像力 抽出し易い特徴を 有する地物、及び標示擦れが生じ難い地物を用いることとしているが、本発明はこれ に限定されるものではなぐ例えば、道路上、自車両の前後にある間近の地物から所 定距離以上前方にある地物を、自車位置補正のために認識すべき地物として設定 することとしてもよい。 2つの地物間の距離が比較的長ければ、カメラ撮像画像から何 れか一の地物を認識するのに、他の地物を誤って認識する事態が生ずることはほと んどなぐその位置が誤検知される事態はほんど生じない。従って、かかる変形例に おいても、上記の実施例と同様の効果を得ることが可能となる。
[0069] また、上記の実施例においては、自車両が今後到達する目標対象物までの道路上 の全地物のうち特徴的な地物を自車位置補正のために認識すべき地物として設定 するが、この自車位置補正のための認識地物設定について、道路走行レーンに沿つ た前後方向の補正と、道路走行レーンに垂直な左右方向の補正とをそれぞれ別個 に分けて独立して行うこととしてもよい。自車位置の前後方向の補正を行ううえで有効 となる地物の種類と左右方向の補正を行ううえで有効となる地物の種類とは、異なる ことがある。従って、このように前後方向補正と左右方向補正とを区別して自車位置 補正のための認識地物設定を行うこととすれば、自車位置補正を行ううえでの効率ィ匕 や処理負担の軽減を図ることが可能となる。
[0070] また、上記の実施例においては、車両の後部に配設されたバックカメラ 32を用いて 地物の認識を行 ヽ、その認識地物に基づ!、て自車位置を補正する第 2マップマッチ ングを実行することとしている力 力かる第 2マップマッチングを行ううえでの地物の認 識を、車両の前部に配設されたカメラの撮像画像や外部インフラから送られてくる情 報に基づ 、て行うこととしてもよ 、。
[0071] また、上記の実施例にお!、ては、推測航法部 24における GPS及び自車両の走行 軌跡の双方を用いて自車位置を測位することとして 、るが、何れか一方のみを用い て自車位置を測位するシステムに適用することも可能である。
[0072] また、上記の実施例においては、地図データベース 30を車両に搭載するものとし た力 センタに設けるものとし、車両がその都度通信アクセスしてその地図データべ ースに格納するデータを読み出せるようにしてもよい。
[0073] 更に、上記の実施例にお!、ては、支援制御として一時停止制御、交差点制御、速 度制御、案内制御を挙げたが、自車両の位置に応じて実行される他の制御を行うシ ステムに適用することも可能である。
[0074] 尚、本国際出願は 2006年 5月 29日〖こ出願した日本国特許出願 2006— 148683 号に基づく優先権を主張するものであり、その日本国特許出願の全内容を本国際特 許出願に参照により援用する。

Claims

請求の範囲
[1] 自車位置を補正するうえで必要な道路上の地物を認識する地物認識手段と、所定 の手法により検出された自車位置を前記地物認識手段による認識結果に基づいて 補正する位置補正手段と、を備える自車位置測定装置であって、
データベースに情報が格納される道路上の地物のうち自車両が今後走行する領域 における特徴的な地物を、前記地物認識手段により認識すべき前記地物として設定 する認識地物設定手段を備え、
前記地物認識手段は、前記認識地物設定手段により設定された前記地物を認識 することを特徴とする自車位置測定装置。
[2] 前記認識地物設定手段は、自車両が今後走行する道路の種類に基づいて該種類 に従った地物の所定配置パターンを参照して自車両が今後走行する領域にぉ 、て 出現すると推定される地物を、前記地物認識手段により認識すべき前記地物として 設定することを特徴とする請求項 1記載の自車位置測定装置。
[3] 前記認識地物設定手段は、自車両が今後走行する領域にお!、て特徴が現れ易!、 種類の地物を、前記地物認識手段により認識すべき前記地物として設定することを 特徴とする請求項 1又は 2記載の自車位置測定装置。
[4] 前記認識地物設定手段は、自車両が今後走行する領域において路面標示が擦れ 難い種類の地物を、前記地物認識手段により認識すべき前記地物として設定するこ とを特徴とする請求項 1乃至 3の何れか一項記載の自車位置測定装置。
[5] 前記認識地物設定手段は、自車両が今後走行する領域において前後にある地物 との距離が所定以上に長い地物を、前記地物認識手段により認識すべき前記地物と して設定することを特徴とする請求項 1乃至 4の何れか一項記載の自車位置測定装 置。
[6] 前記地物認識手段は、車両周辺を撮像する撮像手段により撮像された画像に基づ いて道路上の地物を認識することを特徴とする請求項 1乃至 5の何れか一項記載の 自車位置測定装置。
[7] 前記所定の手法は、 GPSを用いて又は自車両の走行軌跡を用いて自車位置を検 出する手法であることを特徴とする請求項 1乃至 6の何れか一項記載の自車位置測 21
PCT/JP2007/059980 2006-05-29 2007-05-15 自車位置測定装置 WO2007138854A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/066,774 US20100169013A1 (en) 2006-05-29 2007-05-15 Vehicle positioning device
DE112007001076T DE112007001076T5 (de) 2006-05-29 2007-05-15 Fahrzeugpositionsmessvorrichtung
CN2007800010393A CN101351685B (zh) 2006-05-29 2007-05-15 自身车辆位置测定装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006148683A JP4680131B2 (ja) 2006-05-29 2006-05-29 自車位置測定装置
JP2006-148683 2006-05-29

Publications (1)

Publication Number Publication Date
WO2007138854A1 true WO2007138854A1 (ja) 2007-12-06

Family

ID=38778374

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/059980 WO2007138854A1 (ja) 2006-05-29 2007-05-15 自車位置測定装置

Country Status (5)

Country Link
US (1) US20100169013A1 (ja)
JP (1) JP4680131B2 (ja)
CN (1) CN101351685B (ja)
DE (1) DE112007001076T5 (ja)
WO (1) WO2007138854A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017161427A (ja) * 2016-03-11 2017-09-14 株式会社ゼンリン 移動体位置特定システム

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007142326A1 (ja) 2006-06-09 2007-12-13 Aisin Aw Co., Ltd. データ更新システム、端末装置、サーバ装置、及びデータ更新方法
JP4446201B2 (ja) 2007-03-30 2010-04-07 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識方法
US8155826B2 (en) 2007-03-30 2012-04-10 Aisin Aw Co., Ltd. Vehicle behavior learning apparatuses, methods, and programs
KR20150038622A (ko) * 2007-08-29 2015-04-08 콘티넨탈 테베스 아게 운트 코. 오하게 특성 포인트에 의한 차량 위치의 보정
JP4501983B2 (ja) 2007-09-28 2010-07-14 アイシン・エィ・ダブリュ株式会社 駐車支援システム、駐車支援方法、駐車支援プログラム
JP2009180631A (ja) * 2008-01-31 2009-08-13 Denso It Laboratory Inc ナビゲーション装置、ナビゲーション方法およびプログラム
JP2009223817A (ja) * 2008-03-18 2009-10-01 Zenrin Co Ltd 路面標示地図生成方法
JP2009259215A (ja) * 2008-03-18 2009-11-05 Zenrin Co Ltd 路面標示地図生成方法
DE102008042518A1 (de) * 2008-10-01 2010-04-08 Robert Bosch Gmbh Verfahren zur Auswahl von zu ergreifenden Sicherheitsmaßnahmen zur Erhöhung einer Sicherheit von Fahrzeuginsassen
JP5372802B2 (ja) * 2010-02-24 2013-12-18 クラリオン株式会社 トンネル内位置推定機能付きナビゲーション装置
JP5679203B2 (ja) * 2011-08-31 2015-03-04 アイシン・エィ・ダブリュ株式会社 自車位置認識システム、自車位置認識プログラム、及び自車位置認識方法
DE102011112404B4 (de) * 2011-09-03 2014-03-20 Audi Ag Verfahren zum Bestimmen der Position eines Kraftfahrzeugs
KR101919366B1 (ko) * 2011-12-22 2019-02-11 한국전자통신연구원 차량 내부 네트워크 및 영상 센서를 이용한 차량 위치 인식 장치 및 그 방법
KR101209062B1 (ko) * 2012-07-24 2012-12-06 주식회사 피엘케이 테크놀로지 영상인식 정보를 이용한 gps 보정 시스템 및 방법
US9221396B1 (en) 2012-09-27 2015-12-29 Google Inc. Cross-validating sensors of an autonomous vehicle
DE102012224107A1 (de) * 2012-12-20 2014-06-26 Continental Teves Ag & Co. Ohg Verfahren zum Bestimmen einer Referenzposition als Startposition für ein Trägheitsnavigationssystem
US9199576B2 (en) * 2013-08-23 2015-12-01 Ford Global Technologies, Llc Tailgate position detection
DE102013016435B4 (de) * 2013-10-02 2015-12-24 Audi Ag Verfahren zur Korrektur von Positionsdaten und Kraftfahrzeug
JP6280409B2 (ja) * 2014-03-25 2018-02-14 株式会社日立製作所 自車位置修正方法、ランドマークデータ更新方法、車載機、サーバおよび自車位置データ修正システム
JP6193819B2 (ja) * 2014-07-11 2017-09-06 株式会社Soken 走行区画線認識装置
JP6303902B2 (ja) * 2014-08-04 2018-04-04 日産自動車株式会社 位置検出装置及び位置検出方法
EP3211375B1 (en) * 2014-10-22 2022-02-09 Nissan Motor Co., Ltd. Travel route calculation apparatus
MX359042B (es) * 2014-10-22 2018-09-13 Nissan Motor Dispositivo de cálculo de la ruta de desplazamiento.
US10028102B2 (en) * 2014-12-26 2018-07-17 Here Global B.V. Localization of a device using multilateration
US9441977B1 (en) * 2015-04-10 2016-09-13 J. J. Keller & Associates, Inc. Methods and systems for selectively transmitting location data from an on-board recorder to an external device
KR102371587B1 (ko) * 2015-05-22 2022-03-07 현대자동차주식회사 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법
JP6520463B2 (ja) * 2015-06-26 2019-05-29 日産自動車株式会社 車両位置判定装置及び車両位置判定方法
BR112018002037B1 (pt) * 2015-07-31 2022-08-02 Nissan Motor Co., Ltd Método de controle de viagem e aparelho de controle de viagem
DE112015006810T5 (de) * 2015-08-19 2018-05-09 Mitsubishi Electric Corporation Spurerkennungseinrichtung und Spurerkennungsverfahren
JP6216353B2 (ja) * 2015-09-15 2017-10-18 株式会社オプティム 情報特定システム、情報特定方法及び、そのプログラム
CN108140309B (zh) * 2015-11-20 2020-12-08 三菱电机株式会社 驾驶辅助装置、驾驶辅助系统以及驾驶辅助方法
JP6432116B2 (ja) * 2016-05-23 2018-12-05 本田技研工業株式会社 車両位置特定装置、車両制御システム、車両位置特定方法、および車両位置特定プログラム
WO2018009567A1 (en) 2016-07-05 2018-01-11 Nauto Global Limited System and method for automatic driver identification
JP6312754B2 (ja) * 2016-08-04 2018-04-18 三菱電機株式会社 車両走行制御装置および車両走行制御方法
EP3497405B1 (en) 2016-08-09 2022-06-15 Nauto, Inc. System and method for precision localization and mapping
US10733460B2 (en) 2016-09-14 2020-08-04 Nauto, Inc. Systems and methods for safe route determination
JP6972528B2 (ja) * 2016-10-03 2021-11-24 日産自動車株式会社 自己位置推定方法、移動体の走行制御方法、自己位置推定装置、及び移動体の走行制御装置
US10202118B2 (en) * 2016-10-14 2019-02-12 Waymo Llc Planning stopping locations for autonomous vehicles
JP7290567B2 (ja) 2016-11-07 2023-06-13 ナウト,インコーポレイテッド 運転者の注意散漫決定のためのシステム及び方法
JP6616275B2 (ja) * 2016-12-15 2019-12-04 株式会社Soken 運転支援装置
US10929462B2 (en) 2017-02-02 2021-02-23 Futurewei Technologies, Inc. Object recognition in autonomous vehicles
CN108303103B (zh) * 2017-02-07 2020-02-07 腾讯科技(深圳)有限公司 目标车道的确定方法和装置
DE102018108572B4 (de) * 2017-04-12 2023-05-04 Toyota Jidosha Kabushiki Kaisha Spurwechselunterstützungsvorrichtung für ein fahrzeug
US10453150B2 (en) 2017-06-16 2019-10-22 Nauto, Inc. System and method for adverse vehicle event determination
CN107339996A (zh) * 2017-06-30 2017-11-10 百度在线网络技术(北京)有限公司 车辆自定位方法、装置、设备及存储介质
WO2019169031A1 (en) 2018-02-27 2019-09-06 Nauto, Inc. Method for determining driving policy
DE102018208593A1 (de) * 2018-05-30 2019-12-05 Continental Teves Ag & Co. Ohg Verfahren zur Überprüfung, ob ein Wechsel des Fahrmodus sicher erfolgen kann
CN110717350A (zh) * 2018-07-11 2020-01-21 沈阳美行科技有限公司 一种行车轨迹的校正方法及校正装置
US11699207B2 (en) 2018-08-20 2023-07-11 Waymo Llc Camera assessment techniques for autonomous vehicles
US11227409B1 (en) 2018-08-20 2022-01-18 Waymo Llc Camera assessment techniques for autonomous vehicles
JP7136043B2 (ja) * 2018-08-31 2022-09-13 株式会社デンソー 交差点内の走行軌道データ生成装置及び走行軌道データ生成プログラム
JP7136035B2 (ja) * 2018-08-31 2022-09-13 株式会社デンソー 地図生成装置及び地図生成方法
JP7275520B2 (ja) * 2018-10-03 2023-05-18 株式会社アイシン 車両制御装置
CN112068171B (zh) * 2020-09-08 2022-02-01 广州小鹏自动驾驶科技有限公司 一种车辆定位的方法及装置、车辆、存储介质
JP7287373B2 (ja) * 2020-10-06 2023-06-06 トヨタ自動車株式会社 地図生成装置、地図生成方法及び地図生成用コンピュータプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003227725A (ja) * 2002-02-04 2003-08-15 Clarion Co Ltd 車載ナビゲーションシステム及びナビゲーション方法並びにナビゲーション用プログラム
JP2005265494A (ja) * 2004-03-17 2005-09-29 Hitachi Ltd 車両位置推定装置およびこれを用いた運転支援装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL8402497A (nl) * 1984-08-14 1986-03-03 Philips Nv Voertuignavigatiesysteem voorzien van een adaptief traagheidsnavigatiesysteem gebaseerd op meting van de snelheid en de dwarsversnelling van het voertuig en voorzien van een correctie-eenheid voor het corrigeren van de gemeten waarden.
JP3431962B2 (ja) * 1993-09-17 2003-07-28 本田技研工業株式会社 走行区分線認識装置を備えた自動走行車両
JP3206320B2 (ja) 1994-08-24 2001-09-10 株式会社デンソー 車載用ナビゲーション装置
ATE345487T1 (de) * 1999-09-16 2006-12-15 Sirf Tech Inc Navigationssystem und -verfahren zum verfolgen der position eines objektes
JP4080649B2 (ja) * 1999-09-20 2008-04-23 パイオニア株式会社 人ナビゲーションシステム
JP2001264099A (ja) * 2000-03-15 2001-09-26 Honda Motor Co Ltd 車両用ナビゲーション装置
JP3603768B2 (ja) * 2000-09-06 2004-12-22 日産自動車株式会社 車線逸脱判定装置
US6978037B1 (en) * 2000-11-01 2005-12-20 Daimlerchrysler Ag Process for recognition of lane markers using image data
US6581005B2 (en) * 2000-11-30 2003-06-17 Nissan Motor Co., Ltd. Vehicle position calculation apparatus and method
US20020130953A1 (en) * 2001-03-13 2002-09-19 John Riconda Enhanced display of environmental navigation features to vehicle operator
JP2002286456A (ja) * 2001-03-27 2002-10-03 Mitsubishi Electric Corp 車両位置認識装置
KR20020094545A (ko) * 2001-06-12 2002-12-18 현대자동차주식회사 자동차의 차선 이탈 방지시스템 및 그 제어방법
DE60226817D1 (de) * 2001-08-23 2008-07-10 Nissan Motor Fahrassistenzsystem
JP4327389B2 (ja) * 2001-10-17 2009-09-09 株式会社日立製作所 走行レーン認識装置
US6654686B2 (en) * 2002-02-19 2003-11-25 Seiko Epson Corporation No preamble frame sync
JP4297904B2 (ja) * 2003-02-28 2009-07-15 株式会社ナビタイムジャパン 移動経路表示装置及びプログラム
KR100520709B1 (ko) * 2003-10-20 2005-10-17 엘지전자 주식회사 네비게이션 시스템의 이동체의 맵 매칭위치 검출방법
CN100390503C (zh) * 2004-03-26 2008-05-28 清华大学 激光跟踪惯性组合测量系统及其测量方法
JP2006148683A (ja) 2004-11-22 2006-06-08 Canon Inc 画像音声記録再生装置
JP2006208223A (ja) * 2005-01-28 2006-08-10 Aisin Aw Co Ltd 車両位置認識装置及び車両位置認識方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003227725A (ja) * 2002-02-04 2003-08-15 Clarion Co Ltd 車載ナビゲーションシステム及びナビゲーション方法並びにナビゲーション用プログラム
JP2005265494A (ja) * 2004-03-17 2005-09-29 Hitachi Ltd 車両位置推定装置およびこれを用いた運転支援装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017161427A (ja) * 2016-03-11 2017-09-14 株式会社ゼンリン 移動体位置特定システム

Also Published As

Publication number Publication date
CN101351685B (zh) 2013-09-04
CN101351685A (zh) 2009-01-21
US20100169013A1 (en) 2010-07-01
DE112007001076T5 (de) 2009-04-02
JP4680131B2 (ja) 2011-05-11
JP2007316025A (ja) 2007-12-06

Similar Documents

Publication Publication Date Title
JP4680131B2 (ja) 自車位置測定装置
JP4724043B2 (ja) 対象物認識装置
JP4977218B2 (ja) 自車位置測定装置
EP2019382B1 (en) Support control device
JP4899351B2 (ja) 走行状況判定装置及び車載ナビゲーション装置
JP4910510B2 (ja) 制御用情報記憶装置及びプログラム
WO2007132859A1 (ja) 車両用測位情報更新装置
JP4859760B2 (ja) カーナビゲーション装置、道路標識認識方法およびプログラム
JP2011013039A (ja) 車線判定装置及びナビゲーションシステム
WO2020209363A1 (ja) 道路種別判定装置および運転支援装置
JP2008083816A (ja) 自動車の走行制御システム、および、車両制御装置
JP2018021832A (ja) 車両走行制御装置および車両走行制御方法
JP4875509B2 (ja) ナビゲーション装置及びナビゲーション方法
JP4724079B2 (ja) 対象物認識装置
JP2009222392A (ja) 車両用地図表示装置。
JP4924270B2 (ja) 道路情報取得装置、道路情報取得方法および道路情報取得プログラム
JP2020125988A (ja) 進入車線推定システム、進入車線推定方法、及び進入車線推定プログラム
JP6747157B2 (ja) 自己位置推定方法及び自己位置推定装置
JP4924303B2 (ja) 運転支援装置、運転支援方法及びコンピュータプログラム
JP2008129867A (ja) 運転支援装置
JP4789868B2 (ja) 画像認識装置及び画像認識方法、並びにそれを用いた自位置認識装置及びナビゲーション装置
JP2023133773A (ja) 停止線検出装置
JP2024025040A (ja) 自車位置推定装置及び自車位置推定方法
CN117203686A (zh) 用于求出在施工情况的范围中的速度限制的方法和设备

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780001039.3

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 12066774

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07743415

Country of ref document: EP

Kind code of ref document: A1

RET De translation (de og part 6b)

Ref document number: 112007001076

Country of ref document: DE

Date of ref document: 20090402

Kind code of ref document: P

122 Ep: pct application non-entry in european phase

Ref document number: 07743415

Country of ref document: EP

Kind code of ref document: A1