WO2020217953A1 - 車両用装置、車両用プログラムおよび記憶媒体 - Google Patents

車両用装置、車両用プログラムおよび記憶媒体 Download PDF

Info

Publication number
WO2020217953A1
WO2020217953A1 PCT/JP2020/015534 JP2020015534W WO2020217953A1 WO 2020217953 A1 WO2020217953 A1 WO 2020217953A1 JP 2020015534 W JP2020015534 W JP 2020015534W WO 2020217953 A1 WO2020217953 A1 WO 2020217953A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
unit
data
track
server
Prior art date
Application number
PCT/JP2020/015534
Other languages
English (en)
French (fr)
Inventor
健太朗 塩田
直己 二反田
和真 石垣
田口 晋也
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to CN202080030418.0A priority Critical patent/CN113728370B/zh
Priority to DE112020002070.3T priority patent/DE112020002070T5/de
Publication of WO2020217953A1 publication Critical patent/WO2020217953A1/ja
Priority to US17/507,688 priority patent/US20220044031A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/096741Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where the source of the transmitted information selects which information to transmit to each vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/133Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops
    • G08G1/137Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops the indicator being in the form of a map
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Definitions

  • the present disclosure relates to a vehicle device, a vehicle program, and a storage medium that communicate with a server provided outside the vehicle.
  • position information such as landmarks is recorded using an image captured by a camera mounted on the vehicle, and the information is uploaded to a server or the like to generate a sparse map when the vehicle is running.
  • a technology relating to a system for downloading the generated sparse map and locating the own vehicle is disclosed.
  • An object of the present disclosure is to provide a vehicle device, a vehicle program, and a storage medium capable of reducing the amount of communication in communication between a vehicle and a server.
  • the vehicle device communicates with a server provided outside the vehicle, and includes a track recognition unit, a classification unit, an edge point extraction unit, a parameter generation unit, and a transmission unit.
  • a server provided outside the vehicle, and includes a track recognition unit, a classification unit, an edge point extraction unit, a parameter generation unit, and a transmission unit.
  • the track recognition unit recognizes the track on which the vehicle travels based on the image captured by the image pickup device that images the periphery of the vehicle.
  • the classification unit classifies the track recognized by the track recognition unit into at least one of a plurality of predetermined road models.
  • the edge point extraction unit extracts the edge points required to represent the road model classified by the classification unit from the edge points representing the boundaries of the track recognized by the track recognition unit.
  • the parameter generation unit associates the road model information representing the road model classified by the classification unit with the edge points extracted by the edge point extraction unit, and generates a track parameter representing the track recognized by the track recognition unit. Generate.
  • the transmission unit transmits the track parameters generated by the parameter generation unit to the server.
  • the edge points required to represent the road model that is, the minimum edge points required for fitting.
  • the track parameter including is sent to the server. Therefore, according to the above configuration, it is possible to significantly reduce the amount of communication when uploading data from the vehicle to the server, as compared with the case where all the edge points representing the boundaries of the track are transmitted to the server as they are.
  • the track recognized by the track recognition unit is classified into at least one road model, and then narrowed down to only the edge points required to express the road model. Since the data is transmitted to the server, the amount of communication when uploading data from the vehicle to the server can be kept low. Therefore, according to the above configuration, it is possible to obtain an excellent effect that the amount of communication in the communication between the vehicle and the server can be reduced.
  • FIG. 1 is a diagram schematically showing a configuration of a map system according to the first embodiment.
  • FIG. 2 is a diagram schematically showing a specific example of the road model according to the first embodiment.
  • FIG. 3 is a diagram schematically showing a specific example of the fitting according to the first embodiment.
  • FIG. 4 is a diagram schematically showing the contents of the process related to the download of the map information according to the first embodiment.
  • FIG. 5 is a diagram schematically showing the content of the process related to uploading the map information according to the first embodiment.
  • FIG. 6 is a diagram schematically showing the content of processing executed by the map generation unit according to the second embodiment.
  • the map system 1 shown in FIG. 1 is a map system for autonomous navigation.
  • the map system 1 functions additionally in addition to the conventional function of specifying the position of the own vehicle such as GPS, and is effective in specifying the position with higher accuracy.
  • the map system 1 is roughly divided into two functions, map utilization and map update.
  • map information stored in the server 2 is downloaded to the vehicle, and the vehicle uses the downloaded map information and the position of a landmark such as a sign included in an image captured by an image sensor 3 such as a camera.
  • the position of the own vehicle is specified based on.
  • the map information stored in the server 2 may be referred to as an integrated map.
  • the driving support is realized by the vehicle control unit 4 outputting the corresponding command to the actuator for operating the hardware mounted on the vehicle based on the specified current position of the own vehicle.
  • An actuator is a device for controlling a vehicle by hardware, such as a brake, a throttle, a steering wheel, and a lamp.
  • the information obtained by various sensors such as the image sensor 3, the vehicle speed sensor 5, and the millimeter wave sensor (not shown) mounted on the vehicle is uploaded to the server 2 as probe data, and the integrated map in the server 2 is used. Is updated sequentially. As a result, the vehicle is always positioned with high accuracy based on the latest map information, and for example, driving assistance and automatic steering are realized.
  • the human-machine interface 6 is a user interface for notifying the user of various information and for the user to transmit a predetermined operation to the vehicle.
  • the human-machine interface may be abbreviated as HMI.
  • the HMI 6 includes, for example, a display attached to a car navigation device, a display built in an instrument panel, a head-up display projected on a windshield, a microphone, a speaker, and the like.
  • a mobile terminal such as a smartphone that is communicably connected to the vehicle can also be the HMI 6 in the map system 1.
  • the user can visually obtain the information displayed on the HMI6, and can also obtain the information by voice, warning sound, and vibration.
  • the user can request the vehicle to perform a desired operation by touch operation of the display or voice. For example, when a user intends to receive a service of advanced driving support such as automatic steering by utilizing map information, the user activates the function via HMI6. For example, tapping the "Map Link" button shown on the display activates the map utilization function and starts downloading map information.
  • the map utilization function is enabled by giving a voice command.
  • the map information related to the map update may be uploaded at all times while the communication between the vehicle and the server 2 is established, or the map utilization function is effective by tapping the "Map linkage" button. It may be executed while it is being activated, or it may be enabled by another UI that reflects the user's intentions.
  • the map system 1 of the present embodiment includes the server 2 and the vehicle side configurations. Each configuration on the vehicle side includes an image sensor 3, a vehicle control unit 4, a vehicle speed sensor 5, an HMI 6, a GPS receiving unit 7, a control device 8, and the like.
  • the server 2 is provided at a location isolated from the vehicle on which the image sensor 3 and the like are mounted.
  • the server 2 includes a control device 9.
  • the control device 9 is mainly composed of a microcomputer having a CPU, a ROM, a RAM, an I / O, and the like, and includes an integration unit 10 and an update unit 11.
  • Each of these functional blocks is realized by the CPU of the control device 9 executing a process corresponding to the computer program by executing the computer program stored in the non-transitional substantive storage medium, that is, by software. It has been realized.
  • the integration unit 10 and the update unit 11 are for executing various processes related to the map update described above, and the details thereof will be described later.
  • the GPS receiving unit 7 outputs data Da representing GPS information represented by a signal received through a GPS antenna (not shown) to a control device 8 or the like.
  • the vehicle speed sensor 5 detects the vehicle speed, which is the speed of the vehicle, and is configured as a wheel speed sensor that detects the speed of the wheels of the vehicle.
  • the vehicle speed sensor 5 outputs a signal Sa indicating the detection speed, which is the detected value, to the control device 8 or the like.
  • the image sensor 3 is an imaging device mounted on the vehicle and image the environment around the vehicle, specifically, the environment in a predetermined range in front of the vehicle in the traveling direction.
  • the image sensor 3 is not limited to the one that images the front in the traveling direction of the vehicle, and may be, for example, the one that images the rear and the side.
  • Information on the environment around the vehicle captured by the image sensor 3 is stored in a memory (not shown) in the form of a still image or a moving image (hereinafter, these are collectively referred to as an image).
  • the control device 8 is configured to be able to read the data Db stored in the memory, and executes various processes based on the data Db.
  • the control device 8 is mainly composed of a microcomputer having a CPU, ROM, RAM, I / O, and the like.
  • the control device 8 includes a scale factor correction unit 12, an egomotion calculation unit 13, a landmark detection unit 14, a map generation unit 15, a track recognition unit 16, a method selection unit 17, an edge point extraction unit 18, a parameter generation unit 19, and localization.
  • a functional block such as a unit 20 is provided. Each of these functional blocks is realized by the CPU of the control device 8 executing a process corresponding to the computer program by executing the computer program stored in the non-transitional substantive storage medium, that is, by software. It has been realized.
  • the control device 8 constitutes a part of an electronic control device mounted on the vehicle, that is, an in-vehicle device such as an ECU, and serves as a vehicle device that communicates with a server 2 provided outside the vehicle. It is supposed to work. Therefore, the computer program executed by the microcomputer of the control device 8 includes a vehicle program for communicating with the server 2 provided outside the vehicle.
  • the scale factor correction unit 12 learns the scale factor of the vehicle speed sensor 5 based on the signal Sa given from the vehicle speed sensor 5 and the data Db representing the image captured by the image sensor 3.
  • the scale factor correction unit may be abbreviated as the SF correction unit.
  • the scale factor of the vehicle speed sensor 5 is the ratio of the detection value of the vehicle speed sensor 5 to the vehicle speed to be measured by the vehicle speed sensor 5, that is, the ratio of the output change to the input change of the vehicle speed sensor 5, and the detection of the vehicle speed sensor 5. It is a coefficient for obtaining the true value of the vehicle speed from the value.
  • the SF correction unit 12 detects the vehicle speed of the own vehicle based on the signal Sa given from the vehicle speed sensor 5 and the scale factor corrected by learning, and outputs the data Dc representing the detected value to the ego motion calculation unit 13. To do.
  • the landmark detection unit 14 detects the landmark based on the data Db, and outputs the data Dd representing the landmark position information regarding the detected landmark position to the map generation unit 15.
  • the landmarks include, for example, signs, signboards, poles such as utility poles and street lights, white lines, traffic lights and the like.
  • the egomotion calculation unit 13 calculates the egomotion, which is a parameter representing the behavior of the own vehicle, that is, the posture of the vehicle itself, based on the data Db.
  • the method of Structure From Motion is used to calculate the ego motion.
  • Structure From Motion may be abbreviated as SFM.
  • the egomotion calculation unit 13 is configured to be able to perform correction based on data Da representing GPS information, that is, GPS correction, for the calculation of egomotion.
  • the egomotion calculation unit 13 can know the amount of movement of the own vehicle, but there is a problem in the accuracy of the scale. Therefore, the egomotion calculation unit 13 acquires the moving speed of the own vehicle based on the data Dc representing the detected value of the vehicle speed, and improves the accuracy of the scale based on the moving speed. The egomotion calculation unit 13 outputs the data De representing the calculated egomotion to the map generation unit 15.
  • the track recognition unit 16 recognizes the track on which the own vehicle travels and acquires road parameters based on the data Db and Dc. Each process executed by the track recognition unit 16 corresponds to the track recognition procedure.
  • the road parameters include information representing the shape of the lane, such as the lane width, which is the width of the lane, and the lane, that is, the curvature of the road.
  • the road parameters include the offset representing the distance from the center position in the width direction of the lane to the position of the own vehicle, and the shape of the lane such as the yaw angle representing the angle between the tangential direction of the road and the traveling direction of the own vehicle. It also includes information indicating the running state of the own vehicle.
  • the track recognition unit 16 outputs data Df representing road parameters to the vehicle control unit 4. Further, the track recognition unit 16 outputs data Dg representing the recognized track to the method selection unit 17 and the edge point extraction unit 18. Based on the data Dg, the method selection unit 17 determines which of the plurality of predetermined road models the track recognized by the track recognition unit 16 fits, and selects the fitting method.
  • the method selection unit 17 classifies the track recognized by the track recognition unit 16 into at least one of a plurality of predetermined road models, and has a function as a classification unit. Each process executed by the method selection unit 17 corresponds to a classification procedure.
  • the road model include a “straight line” road model, a “curve” road model, a “clothoid” road model, and a “composite” road model, as shown in FIG.
  • the "clothoid” has transition curves before and after the curve.
  • “composite” is a composite of at least two of the above-mentioned road models. For example, as shown in FIG. 2, there are places where the lane width is reduced and the left lane is A road model can be mentioned in which a straight line changes to a clothoid and then changes to a straight line again.
  • the method selection unit 17 calculates a plurality of approximation processes and selects the method having the smallest fitting error among the methods.
  • an example of clothoid approximation is shown by a solid line, and an example of linear approximation is shown by a broken line.
  • the method selection unit 17 outputs the data Dh representing the method selected in this way, that is, the classified road model, to the edge point extraction unit 18 and the parameter generation unit 19.
  • the edge point extraction unit 18 is required to represent a road model classified by the method selection unit 17 among the edge points representing the boundaries of the track recognized by the track recognition unit 16 based on the data Dg and Dh. Extract the edge points that become.
  • the edge point is for representing a boundary such as a white line or a road edge.
  • Each process executed by the edge point extraction unit 18 corresponds to the edge point extraction procedure.
  • the edge point extraction unit 18 is designed to select and extract a plurality of points having the smallest error from the approximate curve as shown in FIG. Considering that the road data is not filtered at the time of synthesis on the server 2 side, that is, at the time of integration, it is possible to synthesize road data for a plurality of times, and in this way, erroneous fitting can be suppressed. ..
  • the edge point extraction unit 18 outputs the data Di representing the extracted edge points to the parameter generation unit 19.
  • the parameter generation unit 19 associates the road model information representing the road model classified by the method selection unit 17 with the edge points extracted by the edge point extraction unit 18 based on the data Dh and Di, and runs the track. A track parameter representing the track recognized by the recognition unit 16 is generated. Each process executed by the parameter generation unit 19 corresponds to the parameter generation procedure.
  • the parameter generation unit 19 outputs the data Dj representing the generated track parameter to the map generation unit 15.
  • the map generation unit 15 generates map information based on the data Dd given by the landmark detection unit 14, the data De given by the egomotion calculation unit 13, and the data Dj given by the parameter generation unit 19.
  • the map information generated by the map generation unit 15 may be referred to as a probe map.
  • the data Dk representing the probe map generated by the map generation unit 15 is uploaded to the server 2 as probe data and output to the localization unit 20. Therefore, in the present embodiment, the map generation unit 15 has a function as a transmission unit that transmits the track parameter to the server 2. Each process executed by the map generation unit 15 with respect to such transmission corresponds to a transmission procedure. It is hard to say that the accuracy of the probe map is sufficiently high because the accuracy of SFM is limited.
  • the integration unit 10 of the server 2 superimposes and integrates a plurality of probe maps based on the data Dj transmitted from the on-board unit of each vehicle to improve the accuracy of the maps.
  • the update unit 11 of the server 2 updates the integration map.
  • the integration unit 10 restores the edge point based on the track parameter, that is, returns the track parameter to the edge point, and executes various processes related to the integration using the edge point.
  • the integration unit 10 may execute various processes related to integration using the track parameter itself.
  • the server 2 distributes the data Dl representing the integrated map to the in-vehicle device of each vehicle.
  • Each process executed by the server 2 regarding such distribution corresponds to a distribution procedure.
  • the server 2 identifies the approximate position of the delivery destination vehicle based on GPS information or the like, and distributes an integrated map in the vicinity of the approximate position, for example, a radius of several km centered on the approximate position. That is, the server 2 generates map information around the vehicle based on the probe map including the track parameters transmitted from the plurality of vehicles and distributes the map information to the vehicle. If a map exists on the vehicle side, that is, on the in-vehicle device side, it is possible to distribute the difference from the map.
  • the localization unit 20 executes localization for estimating the current position of the own vehicle.
  • the localization unit 20 downloads the data Dl representing the integrated map from the server 2, and based on the downloaded data Dl, the data Dk representing the probe map, and the data Db representing the image captured by the image sensor 3, the integrated map Is localized. Note that the localization unit 20 can also perform localization without using the data Dk representing the probe map.
  • the localization unit 20 calculates the road parameters based on the map information when the localization is successful.
  • the localization unit 20 outputs data Dm representing road parameters based on map information to the vehicle control unit 4.
  • the vehicle control unit 4 executes various processes for controlling the running of the own vehicle based on the data Df given by the track recognition unit 16 and the data Dm given by the localization unit 20. That is, the vehicle control unit 4 executes various processes for controlling the traveling of the own vehicle based on the road parameters.
  • the control device 8 includes a non-volatile memory 21, a volatile memory 22, and the like, in addition to the above-mentioned functional blocks.
  • the non-volatile memory 21 is, for example, a flash ROM or the like, and its storage capacity is a relatively small capacity that can store only a part of the data Dl representing the integrated map.
  • the volatile memory 22 is, for example, a RAM or the like, and its storage capacity is a relatively large capacity capable of reliably storing all of the data Dl representing the integrated map.
  • Specific map information which is map information corresponding to a specific location, is stored in advance in the non-volatile memory 21.
  • Specific examples of the above (a) include the surroundings such as home and work.
  • Specific examples of (b) above include, for example, the vicinity of a junction of an expressway, a place having a very large number of lanes, a place having a complicated road shape, and the like.
  • Specific examples of the above (c) include rural areas, buildings, parking lots, and the like.
  • Specific examples of the above (d) include a commuting route and the like.
  • the localization unit 20 downloads the data Dl representing the integrated map from the server 2, but at that time, it receives only the information excluding the specific map information. That is, the localization unit 20 has a function as a receiving unit that receives information other than the specific map information among the map information distributed from the server 2. Each process executed by the localization unit 20 with respect to such reception corresponds to a reception procedure. The localization unit 20 stores the received map information in the volatile memory 22.
  • the localization unit 20 receives the above-mentioned map information every time the ignition switch of the vehicle is turned on, that is, every time the IG-ON is turned on.
  • the flow of downloading such map information is as shown in FIG. That is, in step S110, it is determined whether or not it is IG-ON. When IG-ON is turned on, "YES" is set in step S110, and the process proceeds to step S120.
  • step S120 the map information excluding the specific map information among the map information distributed from the server 2 is downloaded.
  • step S130 the map information downloaded in step S120 is stored in the volatile memory 22.
  • the localization unit 20 executes localization, the localization unit 20 reads out and uses the specific map information stored in the non-volatile memory 21 and the map information stored in the volatile memory 22.
  • the map generation unit 15 uploads the data Dk representing the probe map including the track parameters to the server 2.
  • the map generation unit 15 includes a data storage unit 15a that stores data Dj representing a track parameter. Examples of the data storage unit 15a include a cache memory which is a high-speed small-capacity memory.
  • the map generation unit 15 temporarily stores the received data Dj in the data storage unit 15a, and deletes the saved data Dj when the upload to the server 2 is completed.
  • the timing of uploading the data Dk by the map generation unit 15, that is, the timing of data transmission is the timing at which it is determined that the data Dj representing the track parameter has reached a predetermined amount of data. That is, the map generation unit 15 uploads the data Dk representing the probe map every time the data Dj representing the runway parameter is accumulated to some extent.
  • step S210 it is determined whether or not the number of landmarks passed by the vehicle has reached a predetermined number of determinations since the time of the previous upload. If the number of landmarks has not reached the determination number, the result is "NO" in step S210, and the process proceeds to step S220.
  • step S220 it is determined whether or not the mileage of the vehicle since the time of the previous upload has reached a predetermined determination distance. If the mileage has not reached the determination distance, the result is "NO" in step S220, and the process proceeds to step S230.
  • step S230 it is determined whether or not the traveling time of the vehicle has reached a predetermined determination time since the time of the previous upload. If the traveling time has not reached the determination time, "NO" is set in step S230, and this process ends.
  • step S210, S220 and S230 are "NO"
  • the result is "YES” in step S210, and the process proceeds to step S240. If the mileage has reached the determination distance, the result is "YES" in step S220, and the process proceeds to step S240.
  • step S230 the data Dk representing the probe map is uploaded to the server 2.
  • step S240 the data Dk representing the probe map is uploaded to the server 2.
  • the map generation unit 15 is among the time when the number of landmarks passed by the vehicle reaches the judgment number, the time when the mileage of the vehicle reaches the judgment distance, and the time when the running time of the vehicle reaches the judgment time. At least one time point is set as the transmission timing described above.
  • the number of determinations, the determination distance, and the determination time may be appropriately set according to how much data Dj is accumulated each time the data Dk is uploaded, that is, the amount of data described above.
  • the control device 8 of the present embodiment includes a track recognition unit 16 for recognizing the track on which the vehicle travels, a method selection unit 17, an edge point extraction unit 18, a parameter generation unit 19, and a map generation unit 15. .
  • the track recognition unit 16 recognizes the track of the vehicle based on the image captured by the image sensor 3.
  • the method selection unit 17 functions as a classification unit that classifies the track recognized by the track recognition unit 16 into at least one of a plurality of predetermined road models.
  • the edge point extraction unit 18 extracts the edge points required for expressing the road model classified by the classification unit from the edge points representing the boundaries of the track recognized by the track recognition unit 16.
  • the parameter generation unit 19 represents the track recognized by the track recognition unit 16 by associating the road model information representing the road model classified by the classification unit with the edge points extracted by the edge point extraction unit 18. Generate runway parameters.
  • the map generation unit 15 functions as a transmission unit that transmits the track parameters generated by the parameter generation unit 19 to the server 2.
  • the edge points required to represent the road model that is, the minimum edge points required for fitting.
  • the data Dk including the data Dj representing the runway parameter including the above will be transmitted to the server 2.
  • the data Dk including the data Dj representing the runway parameter in which the edge points unnecessary for expressing the classified road model are omitted is transmitted to the server 2. Therefore, according to the above configuration, the amount of communication when uploading data from the vehicle to the server 2 is significantly larger than that when all the edge points representing the boundaries of the track are transmitted to the server 2 as they are. It can be suppressed.
  • the track recognized by the track recognition unit 16 is classified into at least one road model, and then narrowed down to only the edge points required to express the road model. Since the data is transmitted from the vehicle to the server 2, the amount of communication when uploading data from the vehicle to the server 2 can be suppressed to a low level. Therefore, according to the present embodiment, it is possible to obtain an excellent effect that the amount of communication in the communication between the vehicle and the server 2 can be reduced.
  • the control device 8 having the above configuration is equipped with a large-capacity non-volatile storage device such as an HDD or SDD as a storage device for storing the map information distributed from the server 2. Instead, a volatile memory 22, which is a volatile storage device, is mounted. Therefore, in the above configuration, the localization unit 20 of the control device 8 needs to download the map information from the server 2 every time the ignition switch is turned on.
  • a large-capacity non-volatile storage device such as an HDD or SDD as a storage device for storing the map information distributed from the server 2.
  • a volatile memory 22 which is a volatile storage device
  • the map system 1 may not operate until the download of the map information is completed in the place where the ignition switch of the vehicle is frequently turned on and off. Further, in the above configuration, in places where the amount of map information is large and where the communication environment is not good, it takes a long time to complete the download of the map information, and as a result, the time when the map system 1 cannot operate and There is a risk that the section will increase.
  • a small-capacity non-volatile memory 21 is provided, specific map information which is map information of each of the above-mentioned locations is stored in advance in the non-volatile memory 21, and the localization unit 20 is transmitted from the server 2.
  • map information only the information excluding the specific map information is received. By doing so, it is possible to reduce the time and section during which the map system 1 cannot operate, and it is possible to keep the amount of communication when the vehicle downloads data from the server 2 low.
  • the non-volatile memory 21 also stores in advance specific map information which is map information of a place where the vehicle frequently passes.
  • map information of the places where the vehicle passes frequently is not downloaded every time the ignition switch is turned on, so that the amount of communication when the vehicle downloads the data from the server 2 by that amount. Can be kept low.
  • the map generation unit 15 is configured to transmit the data Dk representing the probe map including the data Dj at the transmission timing when it is determined that the data Dj representing the track parameter has reached a predetermined amount of data. In this way, the frequency of data Dk transmission is suppressed to be lower than in the case where the data Dk is transmitted each time the data Dj representing the runway parameter is generated by the parameter generation unit 19, and as a result, the server from the vehicle. It is possible to keep the communication load low when uploading data to 2.
  • the map generation unit 15 sets the time when the number of landmarks passed by the vehicle reaches a predetermined number of determinations, the time when the traveling distance of the vehicle reaches a predetermined determination distance, and the traveling time of the vehicle at a predetermined determination time. At least one of the reached time points is set as the above-mentioned transmission timing. In this way, the transmission timing, which is the timing for uploading the data Dk, can be set accurately at a desired timing.
  • the function of the map generation unit 15 as a transmission unit is changed with respect to the first embodiment.
  • the map generation unit 15 cannot upload data in a place where the vehicle cannot communicate with the server 2, such as in a tunnel. Therefore, in such a place, the amount of data stored in the data storage unit 15a will continue to increase.
  • the map generation unit 15 If the amount of data Dj received by the map generation unit 15 exceeds the maximum storage capacity of the data storage unit 15a, the data Dj cannot be retained. Therefore, before the amount of data exceeds the maximum storage capacity, it is based on some condition. You need to delete the data. Therefore, in the present embodiment, when the data stored in the data storage unit 15a reaches a predetermined allowable data amount, the map generation unit 15 gives priority to each stored data, and based on the priority. It is designed to perform data selection. In this case, the allowable data amount is set to a predetermined value less than the maximum storage capacity of the data storage unit 15a. The flow of such processing is as shown in FIG. 6, for example.
  • step S310 it is determined whether or not the data Dk can be uploaded.
  • the result is "YES" in step S310, and the process proceeds to step S320.
  • step S320 the upload is executed and the data Dk is transmitted to the server 2.
  • step S330 the data Dj stored in the data storage unit 15a is deleted.
  • step S340 it is determined whether or not the stored data amount, which is the data amount of the data stored in the data storage unit 15a, has reached the allowable data amount.
  • the result is "NO" in step S340, and this process ends.
  • step S340 determines whether the amount of stored data has reached the allowable amount of data. If the amount of stored data has reached the allowable amount of data, the result is "YES" in step S340, and the process proceeds to step S350.
  • step S350 priority is given to each data stored in the data storage unit 15a. After the execution of step S350, the process proceeds to step S360, and each data stored in the data storage unit 15a is selected based on the assigned priority. After the execution of step S360, this process ends.
  • the map generation unit 15 gives priority to each data stored in the data storage unit 15a so that the data having the older last update date has a higher priority.
  • the data with the latest update date is deleted in the order of newest, and the data with the oldest update date has priority. Will be left behind. By doing so, it is possible to appropriately secure the storage capacity of the data storage unit 15a while making it possible to upload the data having the last update date, which is more important, to the server 2.
  • the map generation unit 15 gives priority to each data stored in the data storage unit 15a based on an instruction from the server 2.
  • the following examples can be given as specific contents of the instruction from the server 2. That is, the server 2 leaves data on a part of the tunnel (for example, the part from the entrance to the middle part) to the map generation unit 15 of the predetermined vehicle, and at the same time, the other part of the tunnel (for example, from the middle part to the exit). Instruct the priority of each data to delete the data related to (part).
  • the server 2 instructs the map generation unit 15 of a vehicle other than the predetermined vehicle to delete the data related to a part of the tunnel and leave the data related to the other part of the tunnel.
  • the server 2 can acquire data regarding the entire tunnel, and the map generation unit 15 of each vehicle can appropriately secure the storage capacity of the data storage unit 15a.
  • the server 2 gives the map generation unit 15 of each vehicle the priority of the data regarding the location where the information does not exist in the integrated map generated by the server 2 among the data stored in the data storage unit 15a. Instruct the priority of each data to be higher than the priority of the data related to the place where the information exists. In this way, the server 2 can preferentially acquire the data that does not exist in the integrated map generated at that time, and the map generation unit 15 of each vehicle stores the data storage unit 15a. The capacity can be secured appropriately.
  • the map generation unit 15 gives priority to each data stored in the data storage unit 15a based on its own judgment. For example, the map generation unit 15 sets the priority of the data regarding the location where the information does not exist in the probe map generated by itself among the data stored in the data storage unit 15a, and sets the priority of the data regarding the location where the information exists in the probe map. Instruct the priority of each data to be higher than the priority. In this way, the map generation unit 15 can preferentially leave the data that does not exist in the probe map generated at that time and use it for generating a new probe map, and the storage capacity of the data storage unit 15a. Can be properly secured.
  • the map generation unit 15 gives a priority to each of the stored data and executes data selection based on the priority. It has become. In this way, even when the vehicle cannot communicate with the server 2 for a long period of time, such as when the vehicle passes through a relatively long tunnel of several kilometers, the data is stored in the data storage unit 15a. The amount of data saved will not exceed the maximum storage capacity.
  • the selection of each data stored in the data storage unit 15a is executed so that the data is deleted in order from the one with the lowest priority. ..
  • the map generation in the map system 1 does not depend on the quality of the communication environment between the vehicle and the server 2 while maximizing the storage capacity of the limited data storage unit 15a. And the accuracy of the update can be maintained well.
  • each functional block may be distributed.
  • a part of each functional block included in the control device 8 on the vehicle side, that is, on the vehicle-mounted device side is provided in the control device 9 on the server 2 side, and each control device transmits and receives various data via communication. It may be configured to execute each process described in the above embodiment.
  • the map generation unit 15 may always execute the processes of steps S340, S350, and S360 shown in FIG. That is, not only when the communication environment is bad and data cannot be uploaded, the map generation unit 15 always selects each data so that the amount of stored data stored in the data storage unit 15a does not exceed the allowable amount of data. You may go.
  • the controls and methods thereof described in the present disclosure are realized by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. May be done.
  • the controls and methods thereof described in the present disclosure may be implemented by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits.
  • the control unit and method thereof described in the present disclosure may be a combination of a processor and memory programmed to perform one or more functions and a processor composed of one or more hardware logic circuits. It may be realized by one or more dedicated computers configured.
  • the computer program may be stored in a computer-readable non-transitional tangible recording medium as an instruction executed by the computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Chemical & Material Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Analytical Chemistry (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)

Abstract

走路認識部(16)は、車両の周辺を撮像する撮像装置(3)により撮像された画像に基づいて前記車両の走行する走路を認識する。分類部(17)は、前記走路認識部により認識された走路を予め定められた複数の道路モデルのうち少なくともいずれか1つに分類する。エッジ点抽出部(18)は、前記走路認識部により認識された前記走路の境界を表すエッジ点のうち、前記分類部により分類された前記道路モデルを表現するために必要となるエッジ点を抽出する。パラメータ生成部(19)は、前記分類部により分類された前記道路モデルを表す道路モデル情報と、前記エッジ点抽出部により抽出されたエッジ点と、を対応付けて、前記走路認識部により認識された前記走路を表す走路パラメータを生成する。送信部(15)は、前記パラメータ生成部により生成された前記走路パラメータを車両の外部に設けられたサーバ(2)へ送信する。

Description

車両用装置、車両用プログラムおよび記憶媒体 関連出願の相互参照
 本出願は、2019年4月23日に出願された日本出願番号2019-081934号に基づくもので、ここにその記載内容を援用する。
 本開示は、車両の外部に設けられたサーバとの間で通信を行う車両用装置、車両用プログラムおよび記憶媒体に関する。
 特許文献1には、車両に搭載されたカメラにより撮像された画像を用いてランドマークなどの位置情報を記録し、それら情報をサーバなどにアップロードして疎な地図を生成し、車両の走行時には生成された疎な地図をダウンロードして自車両の位置を決定するシステムに関する技術が開示されている。
特表2018-510373号公報
 上述したようなシステムでは、地図作成が行われる際、車両とサーバとの間で、各種情報をやり取りするための通信が行われる。このような通信に関するコストは、車両のユーザにより負担されることになる。このような事情から、ユーザの利便性を考えた場合、車両とサーバとの間での通信に関して、その通信量、通信負荷などを極力少なくすることが望ましい。
 本開示の目的は、車両とサーバとの間での通信における通信量を低減することができる車両用装置、車両用プログラムおよび記憶媒体を提供することにある。
 本開示の一態様において、車両用装置は、車両の外部に設けられたサーバとの間で通信を行うものであり、走路認識部、分類部、エッジ点抽出部、パラメータ生成部および送信部を備える。走路認識部は、車両の周辺を撮像する撮像装置により撮像された画像に基づいて車両の走行する走路を認識する。分類部は、走路認識部により認識された走路を予め定められた複数の道路モデルのうち少なくともいずれか1つに分類する。
 エッジ点抽出部は、走路認識部により認識された走路の境界を表すエッジ点のうち、分類部により分類された道路モデルを表現するために必要となるエッジ点を抽出する。パラメータ生成部は、分類部により分類された道路モデルを表す道路モデル情報と、エッジ点抽出部により抽出されたエッジ点と、を対応付けて、走路認識部により認識された走路を表す走路パラメータを生成する。送信部は、パラメータ生成部により生成された走路パラメータをサーバへ送信する。
 このような構成によれば、例えば直線、曲線、クロソイドなどの道路モデルに応じて、それら道路モデルを表現するために必要となるエッジ点、つまりフィッティングする際に必要となる最低限のエッジ点だけが含まれる走路パラメータをサーバへ送信することになる。そのため、上記構成によれば、例えば走路の境界を表すエッジ点の全てをそのままサーバへ送信する場合に比べ、車両からサーバに対してデータをアップロードする際における通信量を大幅に抑えることができる。
 なお、想定される複数の道路モデルの全てに対応できるように3次関数などの高次の関数でフィッティングをかけてからサーバへ送信するということも考えられるが、この場合、例えば対象となる走路が直線であった場合などでは無駄が多くなる。これに対し、上記構成によれば、走路認識部により認識された走路を少なくともいずれか1つの道路モデルに分類したうえで、その道路モデルを表現するために必要となるエッジ点だけに絞り込んでからサーバへ送信するため、車両からサーバに対してデータをアップロードする際における通信量を低く抑えることができる。したがって、上記構成によれば、車両とサーバとの間での通信における通信量を低減することができるという優れた効果が得られる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、第1実施形態に係る地図システムの構成を模式的に示す図であり、 図2は、第1実施形態に係る道路モデルの具体例を模式的に示す図であり、 図3は、第1実施形態に係るフィッティングの具体例を模式的に示す図であり、 図4は、第1実施形態に係る地図情報のダウンロードに関する処理の内容を模式的に示す図であり、 図5は、第1実施形態に係る地図情報のアップロードに関する処理の内容を模式的に示す図であり、 図6は、第2実施形態に係る地図生成部により実行される処理の内容を模式的に示す図である。
 以下、複数の実施形態について図面を参照して説明する。なお、各実施形態において実質的に同一の構成には同一の符号を付して説明を省略する。
   (第1実施形態)
 以下、第1実施形態について図1~図5を参照して説明する。
 図1に示す地図システム1は、自律的ナビゲーションのための地図システムである。地図システム1は、GPSなどの自車両の位置を特定する従来の機能に対して、追加的に機能してより高精度に位置の特定をすることに効果を発揮する。地図システム1は、大きく分けて、地図活用および地図更新の2つの機能を備えている。
 地図活用においては、サーバ2に格納された地図情報が車両にダウンロードされ、車両はダウンロードされた地図情報と、例えばカメラなどの画像センサ3により撮像された画像に含まれる標識などのランドマークの位置とに基づいて自車両の位置を特定する。本明細書では、サーバ2に格納された地図情報のことを統合地図と称することがある。この場合、特定した自車両の現在位置に基づいて、車両制御部4が車両に搭載されたハードウェアを動作させるためのアクチュエータに対して対応する命令を出力することで運転支援が実現される。アクチュエータとは、例えばブレーキ、スロットル、ステアリング、ランプなど、車両をハードウェア的に制御するための装置である。
 一方、地図更新においては、車両に搭載された画像センサ3、車速センサ5、図示しないミリ波センサなどの各種センサにより得られた情報がプローブデータとしてサーバ2にアップロードされ、サーバ2内の統合地図が逐次更新される。これにより、車両は、常に最新の地図情報に基づいて高精度に位置特定がされつつ、例えば運転支援や自動ステアリングが実現される。
 地図システム1において、ヒューマンマシンインターフェース6は、各種の情報をユーザに通知したり、ユーザが所定の操作を車両に伝達したりするためのユーザインタフェースである。なお、本明細書では、ヒューマンマシンインターフェースのことをHMIと省略することがある。HMI6には、例えばカーナビゲーション装置に付属するディスプレイ、インストルメントパネルに内蔵されたディスプレイ、ウィンドシールドに投影されるヘッドアップディスプレイ、マイク、スピーカなどが含まれる。さらには、車両と通信可能に接続されたスマートフォンなどのモバイル端末も地図システム1内のHMI6になり得る。
 ユーザはHMI6に表示される情報を視覚的に得るほか、音声や警告音、振動によっても情報を得ることができる。また、ユーザは、ディスプレイのタッチ操作や音声により車両に対して所望の動作を要求することができる。例えば、ユーザが地図情報を活用して自動ステアリングなどの高度運転支援のサービスを受けようとするとき、ユーザはHMI6を介して該機能を有効化する。例えば、ディスプレイ上に示された「地図連携」ボタンをタップすると地図活用の機能が有効化され、地図情報のダウンロードが開始される。
 別の例では、音声にて命令を与えることにより地図活用の機能が有効化される。なお、地図更新に係る地図情報のアップロードについては、車両とサーバ2との通信が確立されている間常時実行されていてもよいし、「地図連携」ボタンをタップして地図活用の機能が有効化されている間に実行されるようにされてもよいし、ユーザの意思を反映する別のUIによって有効化されてもよい。
 本実施形態の地図システム1は、サーバ2および車両側の各構成を備える。車両側の各構成とは、画像センサ3、車両制御部4、車速センサ5、HMI6、GPS受信部7および制御装置8などである。サーバ2は、画像センサ3などが搭載される車両から隔離した箇所に設けられている。サーバ2は、制御装置9を備えている。制御装置9は、CPU、ROM、RAMおよびI/Oなどを有するマイクロコンピュータを主体として構成されており、統合部10および更新部11を備える。
 これら各機能ブロックは、制御装置9のCPUが非遷移的実体的記憶媒体に格納されているコンピュータプログラムを実行することでコンピュータプログラムに対応する処理を実行することにより実現されている、つまりソフトウェアにより実現されている。統合部10および更新部11は、前述した地図更新に関する各種の処理を実行するためのものであり、それらの詳細については後述する。
 GPS受信部7は、図示しないGPSアンテナを介して受信した信号により表されるGPS情報を表すデータDaを制御装置8などへと出力する。車速センサ5は、車両の速度である車速を検出するものであり、車両が有する車輪の速度を検出する車輪速センサとして構成されている。車速センサ5は、その検出値である検出速度を表す信号Saを制御装置8などへと出力する。
 画像センサ3は、車両に搭載され、車両周辺の環境、具体的には車両の進行方向前方における所定範囲の環境を撮像する撮像装置である。なお、画像センサ3は、車両の進行方向前方を撮像するものに限らずともよく、例えば後方、側方を撮像するものでもよい。画像センサ3により撮像された車両周辺の環境の情報は、静止画または動画(以下、これらを総称して画像と称する)の形式で図示しないメモリに格納される。制御装置8は、そのメモリに格納されたデータDbを読み出し可能に構成されており、そのデータDbに基づいて各種処理を実行する。
 制御装置8は、CPU、ROM、RAMおよびI/Oなどを有するマイクロコンピュータを主体として構成されている。制御装置8は、スケールファクタ補正部12、エゴモーション算出部13、ランドマーク検出部14、地図生成部15、走路認識部16、方式選択部17、エッジ点抽出部18、パラメータ生成部19、ローカライズ部20などの機能ブロックを備える。これら各機能ブロックは、制御装置8のCPUが非遷移的実体的記憶媒体に格納されているコンピュータプログラムを実行することでコンピュータプログラムに対応する処理を実行することにより実現されている、つまりソフトウェアにより実現されている。
 制御装置8は、車両に搭載された電子制御装置、つまりECUなどの車載器の一部を構成するものであり、車両の外部に設けられたサーバ2との間で通信を行う車両用装置として機能するようになっている。したがって、制御装置8のマイクロコンピュータが実行するコンピュータプログラムには、車両の外部に設けられたサーバ2との間で通信を行うための車両用プログラムが含まれている。
 スケールファクタ補正部12は、車速センサ5から与えられる信号Saおよび画像センサ3により撮像された画像を表すデータDbに基づいて、車速センサ5のスケールファクタを学習する。なお、本明細書では、スケールファクタ補正部のことをSF補正部と省略することがある。車速センサ5のスケールファクタとは、車速センサ5の測定対象である車速に対する車速センサ5の検出値の比、つまり車速センサ5の入力変化に対する出力変化の比のことであり、車速センサ5の検出値から車速の真値を求めるための係数である。SF補正部12は、車速センサ5から与えられる信号Saと学習により補正されたスケールファクタとに基づいて自車両の車速を検出し、その検出値を表すデータDcをエゴモーション算出部13へと出力する。
 ランドマーク検出部14は、データDbに基づいて、ランドマークを検出し、検出したランドマークの位置に関するランドマーク位置情報を表すデータDdを地図生成部15へと出力する。なお、ランドマークの位置の検出手法としては、様々な手法を採用することができる。上記ランドマークには、例えば標識、看板、電柱や街灯などのポール、白線、信号機などが含まれる。
 エゴモーション算出部13は、データDbに基づいて、自車挙動、つまり車両自身の姿勢を表すパラメータであるエゴモーションを算出する。この場合、エゴモーションの算出には、Structure From Motionの手法が用いられる。なお、本明細書では、Structure From MotionのことをSFMと省略することがある。また、この場合、エゴモーション算出部13は、エゴモーションの算出について、GPS情報を表すデータDaに基づく補正、つまりGPS補正を実施可能に構成されている。
 エゴモーション算出部13は、自車両の移動量を知ることができるが、そのスケールの精度に課題がある。そこで、エゴモーション算出部13は、車速の検出値を表すデータDcに基づいて自車両の移動速度を取得し、その移動速度に基づいて上記スケールの精度を向上させるようになっている。エゴモーション算出部13は、算出したエゴモーションを表すデータDeを地図生成部15へと出力する。
 走路認識部16は、データDbおよびDcに基づいて、自車両の走行する走路を認識して道路パラメータを取得する。なお、走路認識部16により実行される各処理は、走路認識手順に相当する。道路パラメータには、車線の幅であるレーン幅、車線すなわち道路の曲率などの車線の形状を表す情報が含まれる。また、道路パラメータには、車線の幅方向中央位置から自車両の位置までの距離を表すオフセット、車線すなわち道路の接線方向と自車両の進行方向とのなす角度を表すヨー角などの車線の形状に対する自車両の走行状態を表す情報も含まれる。
 走路認識部16は、道路パラメータを表すデータDfを車両制御部4へと出力する。また、走路認識部16は、認識した走路を表すデータDgを方式選択部17およびエッジ点抽出部18へと出力する。方式選択部17は、データDgに基づいて、走路認識部16により認識された走路が、予め定められた複数の道路モデルのいずれに合うのかを判断し、フィッティング方式を選択する。
 すなわち、方式選択部17は、走路認識部16により認識された走路を予め定められた複数の道路モデルのうち少なくともいずれか1つに分類するものであり、分類部としての機能を有する。なお、方式選択部17により実行される各処理は、分類手順に相当する。上記道路モデルとしては、例えば図2に示すように、「直線」の道路モデル、「曲線」の道路モデル、「クロソイド」の道路モデル、「複合」の道路モデルなどを挙げることができる。
 これら道路モデルのうち、「クロソイド」は、カーブの前後で緩和曲線が存在するものである。また、これら道路モデルのうち、「複合」は、上記した各道路モデルの少なくとも2つが複合したものであり、例えば図2に示すように、車線幅が減少する箇所が存在するとともに、左車線が直線からクロソイドへと変化し、その後、再び直線へと変化するような道路モデルを挙げることができる。
 上記したフィッティング方式として、これら道路モデルのそれぞれに対応した方式が存在することになる。方式選択部17は、図3に示すように複数の近似処理を計算し、各方式のうち最もフィッティング誤差が少ない方式を選択するようになっている。なお、図3では、実線によりクロソイド近似の例が示されており、破線により直線近似の例が示されている。方式選択部17は、このようにして選択した方式、つまり分類した道路モデルを表すデータDhをエッジ点抽出部18およびパラメータ生成部19へと出力する。
 エッジ点抽出部18は、データDgおよびDhに基づいて、走路認識部16により認識された走路の境界を表すエッジ点のうち、方式選択部17により分類された道路モデルを表現するために必要となるエッジ点を抽出する。上記エッジ点とは、白線、道路端などの境界を表すためのものである。なお、エッジ点抽出部18により実行される各処理は、エッジ点抽出手順に相当する。
 具体的には、エッジ点抽出部18は、図3に示すような近似曲線からの誤差が最も小さい点を複数選択して抽出するようになっている。なお、サーバ2側での合成時、つまり統合時にフィルタされていない点を考慮すると、複数回分の道路データを合成することも可能であり、このようにすれば、誤フィッティングを抑制することができる。エッジ点抽出部18は、抽出したエッジ点を表すデータDiをパラメータ生成部19へと出力する。
 パラメータ生成部19は、データDhおよびDiに基づいて、方式選択部17により分類された道路モデルを表す道路モデル情報と、エッジ点抽出部18により抽出されたエッジ点と、を対応付けて、走路認識部16により認識された走路を表す走路パラメータを生成する。なお、パラメータ生成部19により実行される各処理は、パラメータ生成手順に相当する。
 パラメータ生成部19は、生成した走路パラメータを表すデータDjを地図生成部15へと出力する。地図生成部15は、ランドマーク検出部14から与えられるデータDd、エゴモーション算出部13から与えられるデータDeおよびパラメータ生成部19から与えられるデータDjに基づいて地図情報を生成する。なお、本明細書では、地図生成部15により生成される地図情報のことをプローブ地図と称することがある。
 地図生成部15により生成されたプローブ地図を表すデータDkは、プローブデータとしてサーバ2にアップロードされるとともに、ローカライズ部20へと出力される。したがって、本実施形態では、地図生成部15は、走路パラメータをサーバ2へ送信する送信部としての機能を有する。なお、このような送信に関して地図生成部15が実行する各処理は、送信手順に相当する。プローブ地図は、SFMの精度に限界があることなどから、その精度は十分に高いとは言い難い。
 そこで、サーバ2の統合部10は、各車両の車載器から送信されるデータDjに基づいて、複数のプローブ地図を重ね合わせて統合し、地図の精度を向上させる。サーバ2の更新部11は、統合部10による統合が成功すると、統合地図を更新する。この場合、統合部10は、上述した統合の際、走路パラメータに基づいてエッジ点を復元する、つまり走路パラメータをエッジ点に戻し、そのエッジ点を用いて統合に関する各種の処理を実行する。なお、統合部10は、走路パラメータそのものを用いて統合に関する各種の処理を実行してもよい。
 サーバ2は、統合地図を表すデータDlを各車両の車載器へと配信する。なお、このような配信に関してサーバ2が実行する各処理は、配信手順に相当する。この場合、サーバ2は、配信先の車両の概略位置をGPS情報などに基づいて特定し、その概略位置の周辺、例えば概略位置を中心とした半径数kmの範囲の統合地図を配信する。つまり、サーバ2は、複数の車両から送信される走路パラメータを含むプローブ地図に基づいて車両の周辺の地図情報を生成して車両に配信するようになっている。なお、車両側、つまり車載器側に地図が存在する場合、その地図との差分配信も可能である。
 ローカライズ部20は、自車両の現在位置を推定するローカライズを実行する。ローカライズ部20は、サーバ2から統合地図を表すデータDlをダウンロードし、そのダウンロードしたデータDlと、プローブ地図を表すデータDkおよび画像センサ3により撮像された画像を表すデータDbに基づいて、統合地図に対してローカライズを行う。なお、ローカライズ部20は、プローブ地図を表すデータDkを用いることなく、ローカライズを実行することもできる。
 ローカライズ部20は、ローカライズが成功した場合、地図情報に基づく道路パラメータを算出する。ローカライズ部20は、地図情報に基づく道路パラメータを表すデータDmを車両制御部4へと出力する。車両制御部4は、走路認識部16から与えられるデータDfとローカライズ部20から与えられるデータDmとに基づいて、自車両の走行を制御するための各種の処理を実行する。すなわち、車両制御部4は、道路パラメータに基づいて自車両の走行を制御するための各種の処理を実行する。
 制御装置8は、上述した各機能ブロックの他に、不揮発性メモリ21、揮発性メモリ22などを備える。不揮発性メモリ21は、例えばフラッシュROMなどであり、その記憶容量は、統合地図を表すデータDlの一部しか記憶することができない、比較的小さい容量となっている。また、揮発性メモリ22は、例えばRAMなどであり、その記憶容量は、統合地図を表すデータDlの全てを確実に記憶することができる、比較的大きい容量となっている。不揮発性メモリ21には、特定の箇所に対応する地図情報である特定地図情報が予め記憶されている。
 上述した特定箇所としては、下記(a)~(d)のような箇所が想定される。
   (a)車両のイグニッションスイッチのオンオフの頻度が高い箇所
   (b)地図情報の情報量が多い箇所
   (c)通信環境が良好ではない箇所
   (d)車両の通過頻度が高い箇所
 上記(a)の具体例としては、例えば、自宅、勤務先などの周辺が挙げられる。上記(b)の具体例としては、例えば、高速道路のジャンクション周辺、車線数が非常に多い箇所、複雑な道路形状の箇所などが挙げられる。上記(c)の具体例としては、例えば、地方、ビル、駐車場などが挙げられる。上記(d)の具体例としては、通勤の経路などが挙げられる。不揮発性メモリ21に記憶された特定地図情報は、更新がある場合には、その差分だけの更新を行うことができる。また、このような特定の箇所、ひいては特定地図情報は、試験走行などにより収集された情報、その時点までに各車両の車載器から収取されたプローブデータなどに基づいて、予め取得しておくことが可能である。
 上述したように、ローカライズ部20は、サーバ2から統合地図を表すデータDlをダウンロードするようになっているが、その際、上記特定地図情報を除く情報だけを受信する。つまり、ローカライズ部20は、サーバ2から配信される地図情報のうち特定地図情報を除く情報を受信する受信部としての機能を有する。なお、このような受信に関してローカライズ部20が実行する各処理は、受信手順に相当する。ローカライズ部20は、受信した地図情報を揮発性メモリ22に記憶する。
 ローカライズ部20は、車両のイグニッションスイッチがオンされる度、つまりIG-ONの度に、上記した地図情報の受信を行う。このような地図情報のダウンロードの流れは、図4に示すようなものとなる。すなわち、ステップS110では、IG-ONであるか否かが判断される。IG-ONになると、ステップS110で「YES」となり、ステップS120に進む。
 ステップS120では、サーバ2から配信される地図情報のうち特定地図情報を除く地図情報がダウンロードされる。ステップS120の実行後はステップS130に進み、ステップS120でダウンロードされた地図情報が、揮発性メモリ22に記憶される。ローカライズ部20は、ローカライズを実行する際、不揮発性メモリ21に記憶された特定地図情報と、揮発性メモリ22に記憶された地図情報とを読み出して利用するようになっている。
 上述したように、地図生成部15は、走路パラメータが含まれたプローブ地図を表すデータDkを、サーバ2にアップロードするようになっている。地図生成部15は、走路パラメータを表すデータDjを保存するデータ保存部15aを備える。データ保存部15aとしては、例えば高速小容量メモリであるキャッシュメモリを挙げることができる。地図生成部15は、受信したデータDjをデータ保存部15aに一時的に保存しておき、サーバ2へのアップロードが完了すると保存したデータDjを削除するようになっている。
 この場合、地図生成部15によるデータDkのアップロードのタイミング、つまりデータの送信タイミングは、走路パラメータを表すデータDjが所定のデータ量に達したと判断されるタイミングとなっている。つまり、地図生成部15は、走路パラメータを表すデータDjがある程度蓄積される度にプローブ地図を表すデータDkのアップロードを実行する。
 このようなアップロードの具体的な流れは、図5に示すようなものとなる。すなわち、図5に示すように、ステップS210では、前回のアップロードを行った時点以降において、車両が通過したランドマークの数が所定の判定数に達したか否かが判断される。ランドマークの数が判定数に達していない場合、ステップS210で「NO」となり、ステップS220に進む。
 ステップS220では、前回のアップロードを行った時点以降における車両の走行距離が所定の判定距離に達したか否かが判断される。走行距離が判定距離に達していない場合、ステップS220で「NO」となり、ステップS230に進む。ステップS230では、前回のアップロードを行った時点以降における車両の走行時間が所定の判定時間に達しているか否かが判断される。走行時間が判定時間に達していない場合、ステップS230で「NO」となり、本処理が終了となる。
 このように、ステップS210、S220およびS230の全てで「NO」となる場合、つまりランドマークの数が判定数に達していない場合、走行距離が判定距離に達していない場合、且つ、走行時間が判定時間に達していない場合には、データDkのアップロードは行われない。一方、ランドマークの数が判定数に達している場合、ステップS210で「YES」となり、ステップS240に進む。また、走行距離が判定距離に達している場合、ステップS220で「YES」となり、ステップS240に進む。
 また、走行時間が判定時間に達している場合、ステップS230で「YES」となり、ステップS240に進む。ステップS240では、プローブ地図を表すデータDkがサーバ2にアップロードされる。このように、ステップS210、S220およびS230のいずれかで「YES」となる場合、つまりランドマークの数が判定数に達している場合、走行距離が判定距離に達している場合、および、走行時間が判定時間に達している場合のいずれかである場合には、データDkのアップロードが行われる。
 言い換えると、地図生成部15は、車両が通過したランドマークの数が判定数に達した時点、車両の走行距離が判定距離に達した時点および車両の走行時間が判定時間に達した時点のうち少なくとも1つの時点を前述した送信タイミングとするようになっている。なお、判定数、判定距離および判定時間は、データDjがどの程度蓄積される度にデータDkのアップロードを行うか、つまり前述したデータ量に応じて、適宜設定すればよい。
 以上説明したように、本実施形態の制御装置8は、車両の走行する走路を認識する走路認識部16、方式選択部17、エッジ点抽出部18、パラメータ生成部19および地図生成部15を備える。走路認識部16は、画像センサ3により撮像された画像に基づいて、車両の走路を認識する。方式選択部17は、走路認識部16により認識された走路を予め定められた複数の道路モデルのうち少なくともいずれか1つに分類する分類部として機能する。
 エッジ点抽出部18は、走路認識部16により認識された走路の境界を表すエッジ点のうち、分類部により分類された道路モデルを表現するために必要となるエッジ点を抽出する。パラメータ生成部19は、分類部により分類された道路モデルを表す道路モデル情報と、エッジ点抽出部18により抽出されたエッジ点と、を対応付けて、走路認識部16により認識された走路を表す走路パラメータを生成する。地図生成部15は、パラメータ生成部19により生成された走路パラメータをサーバ2へ送信する送信部として機能する。
 このような構成によれば、例えば直線、曲線、クロソイドなどの道路モデルに応じて、それら道路モデルを表現するために必要となるエッジ点、つまりフィッティングする際に必要となる最低限のエッジ点だけが含まれる走路パラメータを表すデータDjが含まれるデータDkをサーバ2に送信することになる。言い換えると、この場合、分類された道路モデルを表現するために不要であるエッジ点が省かれた走路パラメータを表すデータDjが含まれるデータDkがサーバ2へと送信されることになる。このようなことから、上記構成によれば、例えば走路の境界を表すエッジ点の全てをそのままサーバ2へ送信する場合に比べ、車両からサーバ2対してデータをアップロードする際における通信量を大幅に抑えることができる。
 なお、想定される複数の道路モデルの全てに対応できるように3次関数などの高次の関数でフィッティングをかけてからサーバへ送信するということも考えられるが、この場合、例えば対象となる走路が直線であった場合などでは無駄が多くなる。これに対し、上記構成によれば、走路認識部16により認識された走路を少なくともいずれか1つの道路モデルに分類したうえで、その道路モデルを表現するために必要となるエッジ点だけに絞り込んでからサーバ2へ送信するため、車両からサーバ2に対してデータをアップロードする際における通信量を低く抑えることができる。したがって、本実施形態によれば、車両とサーバ2との間での通信における通信量を低減することができるという優れた効果が得られる。
 上記構成の制御装置8には、コスト低減の観点から、サーバ2から配信された地図情報を記憶するための記憶装置として、HDD、SDDなどの大容量の不揮発性の記憶装置は搭載されておらず、揮発性の記憶装置である揮発性メモリ22が搭載されている。そのため、上記構成では、制御装置8のローカライズ部20は、イグニッションスイッチがオンされる度に、サーバ2から地図情報をダウンロードする必要がある。
 したがって、上記構成では、車両のイグニッションスイッチのオンオフの頻度が高い箇所では、地図情報のダウンロードが完了するまで地図システム1が動作できなくなるおそれがある。また、上記構成では、地図情報の情報量が多い箇所、通信環境が良好ではない箇所では、地図情報のダウンロードが完了するまでの時間が長くなり、その結果、地図システム1が動作できなくなる時間および区間が増えるおそれがある。
 そこで、本実施形態では、小容量の不揮発性メモリ21を設け、その不揮発性メモリ21に上記した各箇所の地図情報である特定地図情報を予め記憶しておき、ローカライズ部20は、サーバ2から地図情報をダウンロードする際、その特定地図情報を除く情報だけを受信するようになっている。このようにすれば、地図システム1が動作できなくなる時間および区間を減らすことができるうえ、車両がサーバ2からデータをダウンロードする際における通信量を低く抑えることができる。
 また、この場合、不揮発性メモリ21には、車両の通過頻度が高い箇所の地図情報である特定地図情報も予め記憶されている。このようにすれば、車両の通過頻度が高い箇所の地図情報について、イグニッションスイッチがオンされる度にダウンロードされることがなくなるため、その分だけ車両がサーバ2からデータをダウンロードする際における通信量を低く抑えることができる。
 地図生成部15は、走路パラメータを表すデータDjが所定のデータ量に達したと判断される送信タイミングで、そのデータDjを含むプローブ地図を表すデータDkの送信を実行するようになっている。このようにすれば、パラメータ生成部19により走路パラメータを表すデータDjが生成される度にデータDkの送信を実行する場合に比べ、データDkの送信頻度が低く抑えられ、その結果、車両からサーバ2に対してデータをアップロードする際における通信負荷を低く抑えることができる。
 また、地図生成部15は、車両が通過したランドマークの数が所定の判定数に達した時点、車両の走行距離が所定の判定距離に達した時点および車両の走行時間が所定の判定時間に達した時点のうち少なくとも1つの時点を、上記した送信タイミングとするようになっている。このようにすれば、データDkをアップロードするタイミングである送信タイミングを、所望するタイミングに精度良く設定することができる。
   (第2実施形態)
 以下、第2実施形態について図6を参照して説明する。
 本実施形態では、第1実施形態に対し、地図生成部15が有する送信部としての機能に変更が加えられている。地図生成部15は、例えばトンネル内など、車両がサーバ2との通信を行うことができない箇所では、データのアップロードができない。そのため、このような箇所では、データ保存部15aに保存されたデータ量は増え続けることになる。
 地図生成部15が受信したデータDjのデータ量がデータ保存部15aの最大保存容量を超えた場合、データDjを保持しきれなくなるため、データ量が最大保存容量を超える前に、何らかの条件に基づいてデータを削除する必要がある。そこで、本実施形態では、地図生成部15は、データ保存部15aに保存されたデータが所定の許容データ量に達すると、保存された各データに優先度を付与し、その優先度に基づいてデータの取捨選択を実行するようになっている。この場合、許容データ量は、データ保存部15aの最大保存容量未満の所定値に設定されている。このような処理の流れは、例えば図6に示すようなものとなる。
 すなわち、図6に示すように、ステップS310では、データDkのアップロードを行うことができるか否かが判断される。ここで、データDkのアップロードが可能であると判断された場合、ステップS310で「YES」となり、ステップS320に進む。ステップS320では、アップロードが実行されてデータDkがサーバ2に送信される。ステップS320の実行後はステップS330に進み、データ保存部15aに保存されたデータDjが削除される。ステップS330の実行後、本処理が終了となる。
 一方、データDkのアップロードが不可能であると判断された場合、ステップS310で「NO」となり、ステップS340に進む。ステップS340では、データ保存部15aに保存されたデータのデータ量である保存データ量が許容データ量に達したか否かが判断される。ここで、保存データ量が許容データ量に達していない場合、ステップS340で「NO」となり、本処理が終了となる。
 一方、保存データ量が許容データ量に達している場合、ステップS340で「YES」となり、ステップS350に進む。ステップS350では、データ保存部15aに保存された各データに優先度が付与される。ステップS350の実行後はステップS360に進み、付与された優先度に基づいてデータ保存部15aに保存された各データの取捨選択が行われる。ステップS360の実行後、本処理が終了となる。
 地図生成部15による優先度の具体的な付与の手法としては、次の3つの手法のうち、いずれか1つ、または、少なくともいずれか2つの組み合わせを採用することができる。
  [1]第1手法
 第1手法では、地図生成部15は、最終更新日が古いデータほど優先度が高くなるようにデータ保存部15aに保存された各データに優先度を付与する。
 このような第1手法により付与された優先度に基づいて各データの取捨選択が行われた場合、最終更新日が最も新しいデータから新しい順に削除されていき、最終更新日が古いデータほど優先的に残されることになる。このようにすれば、より重要度の高い最終更新日が古いデータをサーバ2にアップロードすることを可能にしつつ、データ保存部15aの保存容量を適切に確保することができる。
  [2]第2手法
 第2手法では、地図生成部15は、サーバ2からの指示に基づいてデータ保存部15aに保存された各データに優先度を付与する。サーバ2からの指示の具体的な内容として、例えば次のような例を挙げることができる。すなわち、サーバ2は、所定の車両の地図生成部15に対し、トンネルの一部分(例えば、入口から中間部までの部分)に関するデータを残すとともにトンネルの他の部分(例えば、中間部から出口までの部分)に関するデータを削除するように各データの優先度を指示する。
 そして、サーバ2は、所定の車両とは別の車両の地図生成部15に対し、トンネルの一部分に関するデータを削除するとともにトンネルの他の部分に関するデータを残すように優先度を指示する。このようにすれば、サーバ2は、トンネル全体に関するデータを取得することができるうえ、各車両の地図生成部15は、それらのデータ保存部15aの保存容量を適切に確保することができる。
 また、サーバ2からの指示の具体的な内容として、例えば次のような例を挙げることができる。すなわち、サーバ2は、各車両の地図生成部15に対し、データ保存部15aに保存された各データのうちサーバ2が生成した統合地図に情報が存在しない箇所に関するデータの優先度を、統合地図に情報が存在する箇所に関するデータの優先度よりも高くするように各データの優先度を指示する。このようにすれば、サーバ2は、その時点で生成された統合地図に存在しないデータを優先的に取得することができるうえ、各車両の地図生成部15は、それらのデータ保存部15aの保存容量を適切に確保することができる。
  [3]第3手法
 第3手法では、地図生成部15は、自身の判断に基づいてデータ保存部15aに保存された各データに優先度を付与する。例えば、地図生成部15は、データ保存部15aに保存された各データのうち自身が生成したプローブ地図に情報が存在しない箇所に関するデータの優先度を、プローブ地図に情報が存在する箇所に関するデータの優先度よりも高くするように各データの優先度を指示する。このようにすれば、地図生成部15は、その時点で生成されたプローブ地図に存在しないデータを優先的に残して新たなプローブ地図の生成に用いることができるうえ、データ保存部15aの保存容量を適切に確保することができる。
 以上説明したように、本実施形態によれば、次のような効果が得られる。
 地図生成部15は、データ保存部15aに保存されたデータが許容データ量に達すると、保存された各データに優先度を付与し、その優先度に基づいてデータの取捨選択を実行するようになっている。このようにすれば、数kmに及ぶような比較的長いトンネルを車両が通過する際など、車両がサーバ2との通信を行うことができない期間が長期化する場合でも、データ保存部15aに保存されたデータの量が最大保存容量を超えてしまうことが無くなる。
 この場合、各データに優先度を付与したうえで、その優先度が低いものから順にデータを削除するようにデータ保存部15aに保存された各データの取捨選択が実行されるようになっている。その結果、車両側またはサーバ2側での地図の生成に際して、相対的に必要性の高いデータが優先的に残されるとともに、相対的に必要性の低いデータから順番に削除されるようになっている。したがって、本実施形態によれば、限りあるデータ保存部15aの保存可能容量を最大限に活用しつつ、車両とサーバ2との通信環境の良し悪しに依存することなく地図システム1における地図の生成および更新の精度を良好に維持することができる。
   (その他の実施形態)
 なお、本開示は上記し且つ図面に記載した各実施形態に限定されるものではなく、その要旨を逸脱しない範囲で任意に変形、組み合わせ、あるいは拡張することができる。
 上記各実施形態で示した数値などは例示であり、それに限定されるものではない。
 地図システム1において、それぞれの機能ブロックは分散されていてもよい。例えば、車両側、つまり車載器側の制御装置8が備える各機能ブロックの一部がサーバ2側の制御装置9に設けられ、各制御装置が通信を介して各種データの送受信を行うことにより、上記実施形態で説明した各処理を実行する構成としてもよい。
 地図生成部15は、図6に示したステップS340、S350およびS360の処理を、常時実行するようにしてもよい。つまり、地図生成部15は、通信環境が悪くデータのアップロードができない場合だけでなく、常時、データ保存部15aに保存された保存データ量が許容データ量を超えないように各データの取捨選択を行ってもよい。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
 本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。

Claims (10)

  1.  車両の外部に設けられたサーバ(2)との間で通信を行う車両用装置であって、
     車両の周辺を撮像する撮像装置(3)により撮像された画像に基づいて前記車両の走行する走路を認識する走路認識部(16)と、
     前記走路認識部により認識された走路を予め定められた複数の道路モデルのうち少なくともいずれか1つに分類する分類部(17)と、
     前記走路認識部により認識された前記走路の境界を表すエッジ点のうち、前記分類部により分類された前記道路モデルを表現するために必要となるエッジ点を抽出するエッジ点抽出部(18)と、
     前記分類部により分類された前記道路モデルを表す道路モデル情報と、前記エッジ点抽出部により抽出されたエッジ点と、を対応付けて、前記走路認識部により認識された前記走路を表す走路パラメータを生成するパラメータ生成部(19)と、
     前記パラメータ生成部により生成された前記走路パラメータを前記サーバへ送信する送信部(15)と、
     を備える車両用装置。
  2.  前記サーバは、複数の前記車両から送信される前記走路パラメータに基づいて前記車両の周辺の地図情報を生成して前記車両に配信するようになっており、
     さらに、
     特定の箇所に対応する前記地図情報である特定地図情報を予め記憶する不揮発性メモリ(21)と、
     前記サーバから配信される前記地図情報のうち前記特定地図情報を除く情報を受信する受信部(20)と、
     前記受信部により受信された前記地図情報を記憶する揮発性メモリ(22)と、
     を備える請求項1に記載の車両用装置。
  3.  前記送信部は、前記パラメータ生成部により生成された前記走路パラメータを表すデータが所定のデータ量に達したと判断される送信タイミングで、前記走路パラメータの送信を実行する請求項1または2に記載の車両用装置。
  4.  前記送信部は、前記車両が通過したランドマークの数が所定の判定数に達した時点、前記車両の走行距離が所定の判定距離に達した時点および前記車両の走行時間が所定の判定時間に達した時点のうち少なくとも1つの時点を前記送信タイミングとする請求項3に記載の車両用装置。
  5.  前記送信部は、
     前記パラメータ生成部により生成された前記走路パラメータを表すデータを保存するデータ保存部(15a)を備え、
     前記データ保存部に保存されたデータが所定の許容データ量に達すると、保存された各データに優先度を付与し、その優先度に基づいてデータの取捨選択を実行する請求項1から4のいずれか一項に記載の車両用装置。
  6.  前記送信部は、最終更新日が古いデータほど優先度が高くなるように前記データ保存部に保存された各データに優先度を付与する請求項5に記載の車両用装置。
  7.  前記送信部は、前記サーバからの指示に基づいて前記データ保存部に保存された各データに優先度を付与する請求項5または6に記載の車両用装置。
  8.  前記サーバは、
     複数の前記車両から送信される前記走路パラメータに基づいて前記車両の周辺の地図情報を生成して前記車両に配信するようになっており、
     前記データ保存部に保存された各データのうち前記地図情報が存在しない箇所に関する前記データの優先度を前記地図情報が存在する箇所に関する前記データの優先度よりも高くするように前記各データの優先度を指示する請求項7に記載の車両用装置。
  9.  車両の外部に設けられたサーバ(2)との間で通信を行う車両用装置(8)に、
     車両の周辺を撮像する撮像装置(3)により撮像された画像に基づいて前記車両の走行する走路を認識する走路認識手順と、
     前記走路認識手順により認識された走路を予め定められた複数の道路モデルのうち少なくともいずれか1つに分類する分類手順と、
     前記走路認識手順により認識された前記走路の境界を表すエッジ点のうち、前記分類手順により分類された前記道路モデルを表現するために必要となるエッジ点を抽出するエッジ点抽出手順と、
     前記分類手順により分類された前記道路モデルを表す道路モデル情報と、前記エッジ点抽出手順により抽出されたエッジ点と、を対応付けて、前記走路認識手順により認識された前記走路を表す走路パラメータを生成するパラメータ生成手順と、
     前記パラメータ生成手順により生成された前記走路パラメータを前記サーバに対して送信する送信手順と、
     を実行させる車両用プログラム。
  10.  請求項9に記載の車両用プログラムを記憶するコンピュータ読み取り可能な非一時的な記憶媒体。
PCT/JP2020/015534 2019-04-23 2020-04-06 車両用装置、車両用プログラムおよび記憶媒体 WO2020217953A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080030418.0A CN113728370B (zh) 2019-04-23 2020-04-06 车辆用装置、车辆用程序以及存储介质
DE112020002070.3T DE112020002070T5 (de) 2019-04-23 2020-04-06 Fahrzeugvorrichtung, fahrzeugprogramm und speichermedium davon
US17/507,688 US20220044031A1 (en) 2019-04-23 2021-10-21 Vehicle apparatus, vehicle program and recoding media thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019081934A JP7063303B2 (ja) 2019-04-23 2019-04-23 車両用装置、車両用プログラムおよび記憶媒体
JP2019-081934 2019-04-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/507,688 Continuation US20220044031A1 (en) 2019-04-23 2021-10-21 Vehicle apparatus, vehicle program and recoding media thereof

Publications (1)

Publication Number Publication Date
WO2020217953A1 true WO2020217953A1 (ja) 2020-10-29

Family

ID=72942258

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/015534 WO2020217953A1 (ja) 2019-04-23 2020-04-06 車両用装置、車両用プログラムおよび記憶媒体

Country Status (5)

Country Link
US (1) US20220044031A1 (ja)
JP (1) JP7063303B2 (ja)
CN (1) CN113728370B (ja)
DE (1) DE112020002070T5 (ja)
WO (1) WO2020217953A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114582140B (zh) * 2022-01-17 2023-04-18 浙江银江智慧交通工程技术研究院有限公司 城市道路交叉口交通流量的识别方法、系统、装置和介质
JP7467521B2 (ja) 2022-03-30 2024-04-15 本田技研工業株式会社 制御装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185322A (ja) * 1995-12-29 1997-07-15 Honda Motor Co Ltd 電子化道路地図及びその作成方法
JPH11312299A (ja) * 1998-04-28 1999-11-09 Aqueous Reserch:Kk 自車位置認識装置、自車位置認識方法及びそのプログラムを記録した記録媒体
JP2003203243A (ja) * 2001-10-26 2003-07-18 Matsushita Electric Ind Co Ltd 地図データの蓄積及び送信方法とそれを実施する装置
JP2016170606A (ja) * 2015-03-12 2016-09-23 アイサンテクノロジー株式会社 曲線作成装置、曲線作成プログラムおよび曲線作成方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3402075B2 (ja) * 1996-06-27 2003-04-28 日産自動車株式会社 車両用車線認識装置
JP2007132711A (ja) * 2005-11-08 2007-05-31 Aisin Aw Co Ltd ナビゲーション装置、地図サーバ、地図更新システム、地図更新方法および地図更新プログラム
JP4845096B2 (ja) * 2005-11-08 2011-12-28 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置、地図サーバ、地図更新方法および地図更新プログラム
JP2007183846A (ja) * 2006-01-10 2007-07-19 Honda Motor Co Ltd 車両用標識認識装置および車両制御装置
TWI371576B (en) * 2008-09-03 2012-09-01 Compal Communications Inc Navigation system capable of updating map data and method thereof
JP5310027B2 (ja) * 2009-01-26 2013-10-09 日産自動車株式会社 車線認識装置、及び車線認識方法
CN102243812B (zh) * 2010-05-13 2015-04-29 阿尔派株式会社 导航装置及交通信息提示方法
WO2012048347A1 (en) * 2010-10-08 2012-04-12 Brian Lee Moffat Private data sharing system
US20190028721A1 (en) * 2014-11-18 2019-01-24 Elwha Llc Imaging device system with edge processing
EP3845426A1 (en) 2015-02-10 2021-07-07 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
CN105426864B (zh) * 2015-12-04 2018-09-04 华中科技大学 一种基于等距边缘点匹配的多车道线检测方法
US10254121B2 (en) * 2017-01-23 2019-04-09 Uber Technologies, Inc. Dynamic routing for self-driving vehicles
KR20180088149A (ko) * 2017-01-26 2018-08-03 삼성전자주식회사 차량 경로 가이드 방법 및 장치
KR102265376B1 (ko) * 2017-03-07 2021-06-16 현대자동차주식회사 차량 및 그 제어방법과 이를 이용한 자율 주행 시스템
WO2018175441A1 (en) * 2017-03-20 2018-09-27 Mobileye Vision Technologies Ltd. Navigation by augmented path prediction
JP7062892B2 (ja) * 2017-07-13 2022-05-09 トヨタ自動車株式会社 ダイナミックマップ更新装置、ダイナミックマップ更新方法、ダイナミックマップ更新プログラム
KR102374919B1 (ko) * 2017-10-16 2022-03-16 주식회사 만도모빌리티솔루션즈 자율주행 지원 장치 및 방법
JP7000120B2 (ja) 2017-10-31 2022-02-04 東洋アルミニウム株式会社 アルミニウム箔及びそれを用いた電子部品配線基板、並びにそれらの製造方法
CN107944425A (zh) * 2017-12-12 2018-04-20 北京小米移动软件有限公司 道路标志的识别方法和装置
US11042153B2 (en) * 2018-12-21 2021-06-22 Zoox, Inc. Adaptive multi-network vehicle architecture

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185322A (ja) * 1995-12-29 1997-07-15 Honda Motor Co Ltd 電子化道路地図及びその作成方法
JPH11312299A (ja) * 1998-04-28 1999-11-09 Aqueous Reserch:Kk 自車位置認識装置、自車位置認識方法及びそのプログラムを記録した記録媒体
JP2003203243A (ja) * 2001-10-26 2003-07-18 Matsushita Electric Ind Co Ltd 地図データの蓄積及び送信方法とそれを実施する装置
JP2016170606A (ja) * 2015-03-12 2016-09-23 アイサンテクノロジー株式会社 曲線作成装置、曲線作成プログラムおよび曲線作成方法

Also Published As

Publication number Publication date
CN113728370A (zh) 2021-11-30
US20220044031A1 (en) 2022-02-10
JP7063303B2 (ja) 2022-05-09
DE112020002070T5 (de) 2022-01-20
JP2020180791A (ja) 2020-11-05
CN113728370B (zh) 2023-09-22

Similar Documents

Publication Publication Date Title
US11615706B2 (en) System and method for driving assistance along a path
KR101798519B1 (ko) 긴급 제동 시스템 및 그 제어방법
JP5257252B2 (ja) 運転支援装置および運転支援システム
JP6930152B2 (ja) 自動運転システム
WO2020217953A1 (ja) 車両用装置、車両用プログラムおよび記憶媒体
JP2007106364A (ja) 走行支援装置及び走行支援方法
JP2020087217A (ja) 情報提供システム、サーバ、車載装置、車両、プログラム及び情報提供方法
US20180281813A1 (en) Driving support method, data processor using the same, and driving support system using the same
US10591913B2 (en) Method for transmitting, receiving and processing data values, and a transmission device and receiving device
CN113135183A (zh) 车辆的控制系统、车辆的控制系统的控制方法、车辆以及计算机可读记录介质
JP4891745B2 (ja) 退出検出装置
WO2020045426A1 (ja) 車載機
JP2009069900A (ja) 車両用ナビゲーション装置
JP2009294882A (ja) 車両画像記録装置、車両画像記録システム
US20220082407A1 (en) Map system, map generating program, storage medium, on-vehicle apparatus, and server
JP2020034498A (ja) スケールファクタ学習装置、スケールファクタ学習プログラムおよび記憶媒体
JP2013061763A (ja) 判定装置
JP2022139009A (ja) 運転支援装置、運転支援方法及びプログラム
JP7228698B2 (ja) 車両制御装置
JP7140713B2 (ja) 車両用物体識別装置、システムおよび方法
US20240045027A1 (en) Adaptive lidar data processing for driverless vehicle
JP5087018B2 (ja) 車両用地図データ更新装置
WO2019181843A1 (ja) データ構造、情報処理装置、データ通信方法、プログラム及び記憶媒体
JP2023130886A (ja) 情報処理装置、情報収集装置および情報処理システム
JP2019168995A (ja) データ構造、端末装置、データ通信方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20796261

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 20796261

Country of ref document: EP

Kind code of ref document: A1