WO2020045210A1 - 地図データ構造 - Google Patents

地図データ構造 Download PDF

Info

Publication number
WO2020045210A1
WO2020045210A1 PCT/JP2019/032756 JP2019032756W WO2020045210A1 WO 2020045210 A1 WO2020045210 A1 WO 2020045210A1 JP 2019032756 W JP2019032756 W JP 2019032756W WO 2020045210 A1 WO2020045210 A1 WO 2020045210A1
Authority
WO
WIPO (PCT)
Prior art keywords
map data
information
cell
sign
road surface
Prior art date
Application number
PCT/JP2019/032756
Other languages
English (en)
French (fr)
Inventor
和紀 小山
令司 松本
克巳 天野
直人 乘松
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Publication of WO2020045210A1 publication Critical patent/WO2020045210A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • G01C21/3881Tile-based structures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Definitions

  • the present invention relates to a map data structure of map data used in a guide device for guiding a moving object.
  • Patent Literature 1 describes an example of a method of estimating a current position using a position of a feature as a landmark detected using a rider and a feature of map information.
  • Patent Document 2 discloses that a white line is detected using a rider, and the relative position of the white line to the vehicle in the horizontal direction or the direction in which the vehicle is facing the white line is detected with high accuracy.
  • One of the problems to be solved by the present invention is to improve the accuracy of estimating the self-position of a moving object.
  • an invention according to claim 1 is a map data structure of map data used in a guidance device for guiding a moving object, wherein a sign drawn on a road surface is divided into a plurality of cells.
  • information about the position of the cell is set in each of the plurality of cells, and the guide device recognizes the sign by the information about the position of the cell, and guides the mobile unit. Processing is performed.
  • the invention described in claim 4 is characterized in that the map data structure described in any one of claims 1 to 3 is stored.
  • FIG. 1 is a schematic configuration diagram of a system including a server device and an in-vehicle device according to a first embodiment of the present invention.
  • FIG. 2 is a functional configuration diagram of the server device shown in FIG. 1.
  • FIG. 2 is a functional configuration diagram of the vehicle-mounted device shown in FIG. 1.
  • 3 is a flowchart of a map data generation method in the server device shown in FIG. 2. It is an example of a binarized image. 6 is an image obtained by removing unnecessary pixels from the binarized image shown in FIG.
  • FIG. 4 is an explanatory diagram of a cell in the present embodiment.
  • FIG. 3 is an explanatory diagram of a map data structure according to one embodiment of the present invention. 6 is a modified example of the flowchart shown in FIG. FIG.
  • 4 is an explanatory diagram when a white line is a dotted line.
  • 4 is a flowchart of a self-position estimation method according to one embodiment of the present invention.
  • 5 shows a flowchart of a map data generation method according to a second embodiment of the present invention.
  • 13 is a modified example of the flowchart shown in FIG.
  • a map data structure according to an embodiment of the present invention will be described.
  • a sign drawn on a road surface is represented by being divided into a plurality of cells, and information on the position of the cell is set in each of the plurality of cells.
  • a guidance device using this map data structure recognizes a sign drawn on a road surface based on information on the position of a cell and performs a guidance process for a moving object. By doing so, the sign drawn on the road surface can be included in the map data, and the accuracy of the self-position estimation of the moving object can be improved.
  • the sign since the sign is represented by a plurality of cells, it is not necessary to perform complicated processing such as extracting and mapping the contour of a sign having a complicated shape, and it is not necessary to reproduce the contour. It is possible to reduce it.
  • each cell may have predetermined attribute information about the cell.
  • the attribute information includes the coordinates of the point group in the cell, the dispersion of the reflection intensity, and the like, it is possible to grasp the distribution and ratio of the paint indicating the sign in the cell. That is, a cell including the outline of the sign can be specified.
  • the sign drawn on the road surface targeted by the present map data structure may be a sign other than the marking line.
  • a lane marking such as a white line
  • a lane marking such as a right turn or a left turn or the like, or a maximum speed, excluding a lane marking such as a white line, is excluded.
  • Road markings can be included in map data.
  • the storage medium stores map data having the above-described map data structure.
  • the map data having the map data structure can be stored and distributed on a hard disk, an optical disk, a memory card, or the like.
  • the storage device stores map data having the above-described map data structure.
  • map data having a map data structure can be stored and distributed in a server device or the like.
  • the map data generation device is configured as a server device 1 in FIG.
  • the server device 1 acquires information collected by an on-vehicle device 2 mounted on a vehicle V as a moving object via a network N such as the Internet, and based on the acquired information, map data having a map data structure to be described later.
  • FIG. 2 shows a functional configuration of the server device 1.
  • the server device 1 includes a control unit 11, a communication unit 12, and a storage unit 13, as shown in FIG.
  • the control unit 11 functions as a CPU (Central Processing Unit) of the server device 1 and controls the entire control of the server device 1.
  • the control unit 11 generates map data based on, for example, the point cloud information transmitted from the in-vehicle device 2.
  • the communication unit 12 functions as a network interface of the server device 1 and receives, for example, point cloud information transmitted by the vehicle-mounted device 2. In addition, the communication unit 12 distributes (transmits) the map data generated by the control unit 11 to the in-vehicle device 2 of the vehicle V. That is, the server device 1 functions as a storage device in which map data is stored.
  • the storage unit 13 functions as a storage medium such as a hard disk of the server device 1 and stores map data and the like generated by the control unit 11.
  • the storage medium may be an optical disk, a memory card, or the like.
  • FIG. 3 shows a functional configuration of the vehicle-mounted device 2.
  • the in-vehicle device 2 includes a control unit 21, a communication unit 22, and a storage unit 23.
  • the vehicle-mounted device 2 is connected to a sensor 3 mounted on a vehicle V including a rider 3a, a GPS (Global Positioning System) receiver 3b, and the like.
  • GPS Global Positioning System
  • the control unit 21 is configured by, for example, a microcomputer having a CPU, a memory, and the like, and controls the entire in-vehicle device 2.
  • the control unit 21 causes the communication unit 12 to transmit the point cloud information and the like detected by the sensor 3 to the server device 1.
  • the control unit 21 includes information indicating a feature such as a sign drawn on the road surface recognized using the rider 3a and a road surface included in the map data generated by the server device 1 and having a later-described map data structure.
  • the self-position is estimated based on the information such as the sign drawn above.
  • the control unit 21 may function as a control unit of a guidance device (guide device) that guides (guides) the vehicle V along a route searched in advance based on the estimated self-position.
  • This guidance device includes at least one of a so-called automatic driving function for making the vehicle V autonomously travel along a route and a navigation function for presenting guidance information along a route to a driver or the like.
  • the communication unit 22 transmits the point cloud information and the like acquired by the control unit 21 to the server device 1. Further, the communication unit 22 receives map data and the like distributed from the server device 1.
  • the storage unit 23 stores programs operated by the control unit 21, various data, and the like.
  • the storage unit 23 stores the map data distributed from the server device 1.
  • the sensor 3 includes a rider 3a and a GPS receiver 3b. Note that the sensor 3 may include another sensor such as a speed sensor in addition to these sensors. Further, the sensor 3 may include an in-vehicle camera that captures an image of the surroundings such as the front of the vehicle.
  • the lidar 3a discretely measures a distance to an object existing in the outside world by emitting a laser beam as an electromagnetic wave.
  • a pulsed laser is output while changing the output direction in a predetermined detection area, and a reflected wave of the laser is received to generate point cloud information.
  • the rider 3a outputs a plurality of pulses of laser in the detection area, and generates point cloud information based on the reflected waves of the plurality of pulses of laser.
  • Each piece of information constituting the point cloud information is information indicating the output direction of the laser, the distance to the object reflecting the laser, and the intensity of the reflected wave (reflection intensity).
  • the rider 3a mainly irradiates a laser toward the road surface, and uses the road surface as a detection area.
  • the point cloud information includes information indicating the distance to the road surface as the object and information on the reflection intensity.
  • a laser may be emitted to a part other than the road surface to obtain peripheral information other than the road surface information.
  • the GPS receiver 3b periodically receives radio waves transmitted from a plurality of GPS satellites and detects current position information and time.
  • FIG. 4 is a flowchart executed by the server device 1.
  • This flowchart is executed by the control unit 11 of the server device 1. That is, it is configured as a computer program (map data generation program) executed by the CPU of the control unit 11.
  • this program is not limited to being stored in the storage unit 13, but may be stored in an optical disk, a memory card, or the like.
  • step S11 the control unit 11 acquires point cloud information and the like from the vehicle-mounted device 2.
  • the distance to each point is converted into absolute coordinates based on the current position detected by the GPS receiver 3b, with respect to the point group information collected from the vehicle-mounted device 2.
  • the in-vehicle device 2 may convert the coordinates into absolute coordinates in advance. That is, the control unit 11 functions as an acquisition unit that acquires point cloud information (road surface information) from the rider 3a (predetermined sensor).
  • step S12 the control unit 11 generates a binarized image based on the point cloud information acquired in step S11.
  • the binarized image according to the present embodiment is an image obtained by binarizing a point group having three-dimensional coordinates into two-dimensions and using a predetermined threshold based on the reflection intensity of each point.
  • points having high reflection intensity are expressed as pixels having high luminance.
  • the pixels included in the binarized image also inherit the coordinate information of the point group before conversion.
  • control unit 11 functions as a sign information generation unit that generates a binarized image (information indicating a sign drawn on the road surface) based on the point cloud information (road surface information) acquired by the acquisition unit.
  • FIG. 5 is a binarized image generated based on point cloud information of a certain road.
  • a white line (compartment line) W On this binarized image, a white line (compartment line) W, a traveling direction segment R indicating a right turn (hereinafter referred to as a right-turn arrow R), and a traveling direction segment S indicating a straight ahead (hereinafter referred to as a straight arrow S). Is drawn.
  • the binarized image also includes unnecessary pixels U outside the road surface (pixels having high luminance outside the road surface).
  • ⁇ Circle around (2) ⁇ unnecessary pixels U other than a sign drawn on a road surface, such as a road sign such as a white line W and a traffic division according to traveling direction, are removed.
  • map data of the area where the point cloud information is obtained is separately obtained, and a traversable area (a road surface area) set in the map data is compared with a binarized image.
  • a method of specifying a pixel having a high luminance outside the road surface There is a method of specifying a pixel having a high luminance outside the road surface.
  • width information of a road or a lane may be acquired from network data of a road or a lane included in map data, and a pixel having high luminance outside the road surface may be specified.
  • FIG. 6 shows a binarized image after removing unnecessary pixels U.
  • step S14 the control unit 11 groups pixels corresponding to the sign drawn on the road surface into cells of a fixed size in the binarized image subjected to the processing of step S13 (generates cells).
  • the generated cells are provided with coordinate information based on the pixels included in the cells. That is, the sign is divided into a plurality of cells based on the binarized image (information indicating the sign) generated by the sign information generating unit.
  • FIG. 7 shows a road surface on which a white line W and a right-turn arrow R are drawn.
  • the inside of the broken line is expressed as a pixel having high luminance in step S13. That is, the area inside the broken line is an area drawn as a white line W or a right-turn arrow R on the road surface.
  • the white line W and the right-turn arrow R are divided into a plurality of cells C by collecting the pixels corresponding to the sign drawn on the road surface into cells C of a fixed size.
  • the size of the cell C may be appropriately determined so that the sign drawn on the road surface can be divided into a plurality.
  • the shape of the cell C is not limited to a square, but may be a rectangle such as a rectangle, or a polygon such as a triangle or a hexagon.
  • the entire road surface may be divided into a plurality of cells in a grid shape (mesh shape).
  • the data amount of the map data can be reduced by using only the sign drawn on the road surface as the cell.
  • information such as a flag indicating the fact may be added to a cell including a sign drawn on the road surface.
  • control unit 11 refers to the point group acquired in step S11 from the coordinates of the cell C generated in step S14 for providing statistical information described later, and Correspond with the point cloud. That is, coordinate information is given to each cell C as position information (information about a position).
  • step S16 the control unit 11 adds statistical information as attribute information to each cell C.
  • the statistical information include the average and variance of the reflection intensity of the point group corresponding to the cell C or a histogram.
  • the map data is generated by including the sign drawn on the road surface including the plurality of cells C to which the statistical information is added in the map data as described above. That is, the control unit 11 functions as a map data generation unit that generates map data in each of the plurality of cells C including information on the position of the cell C based on the point cloud information (road surface information).
  • step S11 functions as an acquisition step
  • step S12 functions as a sign information generation step
  • steps S14 to S16 function as a map data generation step.
  • each point is a colored point group in which a color based on an image captured by the camera is added, and an average of colors is used instead of the reflection intensity. Or dispersion may be used. Further, the average and covariance of the coordinate values of the point group corresponding to the cell C can be given as statistical information. In this case, it is necessary to perform a filtering process based on the reflection intensity or the color to extract the coordinate values of the point group including only the sign drawn on the road surface.
  • FIG. 8 shows an example of a map data structure of the map data generated according to the flowchart of FIG.
  • the map data structure includes a cell ID 131, a position 132, and statistical information 133.
  • the cell ID is an ID for identifying a cell.
  • the position 132 is information indicating the position of the cell.
  • the position 132 is not limited to setting an absolute position (latitude and longitude) for each cell C, but also setting a relative position from the reference cell C. Good.
  • the absolute position may be set using the cell C at the left corner as a reference cell, and the other cells C may be set relative to the reference cell.
  • the statistical information 133 information such as the above-described reflection intensity and average and variance of coordinate values are set. Further, in addition to the items shown in FIG. 8, for example, information (white line, right-turn arrow, maximum speed, etc.) indicating the content of the sign may be included.
  • the sign drawn on the road surface is divided into a plurality of cells C, and each of the plurality of cells C has information on the position of the cell C (position 132). ) Is set.
  • the map data having such a map data structure is, for example, when the in-vehicle device 2 functions as a guidance (guidance) device having a function of guiding (guidance) the vehicle V such as navigation and automatic driving.
  • a guidance (guidance) device having a function of guiding (guidance) the vehicle V such as navigation and automatic driving.
  • FIG. 9 shows a map data generation method of dividing the cell C by excluding the lane markings.
  • step S21 the control unit 11 acquires point cloud information and the like from the in-vehicle device 2 as in step S11 of FIG.
  • step S22 the control unit 11 generates a binarized image based on the point cloud information acquired in step S21, as in step S12 in FIG.
  • step S23 the control unit 11 extracts a white line (compartment line) from the binarized image.
  • a white line component line
  • image processing is performed on the binarized image to detect, for example, a line segment (straight line).
  • the detected line segments (straight lines) and the like are grouped to extract the outline of one section line.
  • the extracted division line is represented by a sequence of points.
  • the end and the non-end of the white line are recognized from the extracted division line, and the dot sequence is interpolated between the recognized end and the non-end (that is, a continuous line between the end and the end is inserted).
  • a point sequence may be interpolated).
  • the white line can be represented by a sequence of dots (see FIG. 10).
  • FIG. 10 shows a portion of the white line W in FIG. 7 as a series of dots.
  • the white line W is expressed not by the cell C but by a plurality of points P by the processing of step S23 described above.
  • step S24 the control unit 11 removes pixels with high luminance outside the road surface and pixels in the white line portion extracted in step S23 from the binarized image generated in step S22. Pixels with high luminance outside the road surface may be removed by the same method as in step S13. The white line portion may be removed based on the contour extracted by the processing in step S23.
  • step S25 in the binarized image subjected to the processing of step S24, the control unit 11 groups pixels corresponding to the sign drawn on the road surface into cells C of a fixed size (generates the cells C). ). In this step, since the white line portion has been removed in step S24, the sign drawn on the road surface excluding the white line is divided into cells C.
  • step S26 the control unit 11 refers to the point group acquired in step S21 from the coordinates of the cell C generated in step S25 for adding statistical information, as in step S15 in FIG. And a point cloud.
  • step S27 the control unit 11 assigns statistical information to each cell C as in step S16 in FIG.
  • the map data is generated by including in the map data the sign drawn on the road surface composed of the plurality of cells C to which the statistical information is added and the white line expressed as a point sequence in step S23.
  • This flowchart is executed by the control unit 21 of the vehicle-mounted device 2. That is, it is configured as a computer program (map data generation program) executed by the CPU of the control unit 21.
  • the program is not limited to being stored in the storage unit 23, but may be stored in an optical disk, a memory card, or the like.
  • step S31 the control unit 21 acquires point cloud information from the rider 3a.
  • This point group information is information acquired by the rider 3a in real time. That is, the control unit 21 functions as a sensor information obtaining unit that obtains point group information (sensor information) obtained from the rider 3a (sensor) by running the vehicle.
  • step S32 the control unit 21 recognizes the sign drawn on the road from the point cloud information acquired in step S31, for example, by filtering the ground surface point cloud. That is, the control unit 21 functions as a recognition unit that recognizes point cloud information (sensor information) corresponding to the sign drawn on the road surface from the point cloud information (sensor information) acquired by the sensor information acquisition unit.
  • step S33 the control unit 21 acquires map data from the storage unit 23.
  • the map data acquired in this step has the map data structure described in FIG. That is, the control unit 21 displays the sign drawn on the road surface by dividing it into a plurality of cells C, and in each of the plurality of cells C, sets map data in which information on the position of the cell C is set. , Functioning as a map data acquisition unit for acquiring.
  • the map data may be obtained directly from the server device 1.
  • step S34 the control unit 21 performs matching between the point cloud information subjected to the processing in step S32 and a sign included in the map data to estimate the own position.
  • the self-position is estimated by matching the point cloud information with the statistical information of each cell on the map data side.
  • a matching method a well-known matching method between the cell C and the point group such as NDT (Normal Distributions Transform) may be used. That is, the control unit 21 functions as an estimating unit that estimates the self-location of the vehicle by performing matching between the point cloud information (sensor information) corresponding to the sign recognized by the recognition unit and the map data.
  • the matching may be performed after generating the statistical information by dividing the point cloud information acquired from the rider 3a in real time in the same manner as the map data.
  • step S31 functions as a sensor information obtaining step
  • step S32 functions as a recognition step
  • step S33 functions as a map data obtaining step
  • step S34 functions as an estimating step.
  • the map data is generated by the server device 1, but the map data may be generated by the in-vehicle device 2 and uploaded to the server device 1. That is, the flowcharts shown in FIG. 4 and FIG. In this case, the server device 1 performs processes such as combining and updating partial map data uploaded from each vehicle-mounted device 2.
  • the vehicle that collects point clouds and the like and the vehicle that performs self-position estimation are the same vehicle V, but may be different vehicles.
  • a configuration may be adopted in which the collection of point clouds and the like is performed by a measuring vehicle equipped with a dedicated measuring device, and the general vehicle receives distribution of map data generated using the measurement result to estimate the self-position.
  • the point cloud is acquired by the rider 3a mounted on the vehicle.
  • the rider is mounted not on the vehicle but on a flying object such as an aircraft, and the laser light is emitted from the sky to the ground.
  • Map data may be generated by performing the above-described binarization processing or the like on the point group obtained by irradiation.
  • the server device 1 allows the communication unit 12 to acquire the point cloud information detected by the rider 3a, and the control unit 11 to perform binarization based on the point cloud information acquired by the communication unit 12. Generate an image. Then, the portion of the sign drawn on the road surface of the binarized image is divided into a plurality of cells C, and map data is generated for each of the plurality of cells C including the position 132 and the statistical information 133. By doing so, the sign drawn on the road surface can be included in the map data, and the accuracy of the self-position estimation of the vehicle V can be improved.
  • the sign drawn on the road surface is represented by the plurality of cells C, it is not necessary to perform complicated processing such as extracting and mapping the contour of the sign having a complicated shape, and it is necessary to reproduce the contour. Since there is no information, the amount of information can be reduced.
  • control unit 11 sets the statistical information 133 for each cell C based on the point cloud information, if the control unit 11 has, for example, the variance and reflection intensity of the point cloud in the cell C as statistical information, It is possible to grasp the distribution and the ratio of the paint indicating the sign in the cell C, that is, it is possible to specify the cell C including the outline of the sign.
  • the sign drawn on the road surface may be a sign other than the marking line.
  • road markings such as traffic divisions according to traveling directions indicating a right turn or a left turn and a maximum speed, excluding the lane markings such as white lines.
  • a sign drawn on a road surface is divided into a plurality of cells C, and each cell C has a position 132 of the cell C set therein.
  • the in-vehicle device 2 using this map data structure recognizes the sign drawn on the road surface based on the position 132 of the cell C and performs the self-position estimation process of the vehicle V. By doing so, the sign drawn on the road surface can be included in the map data, and the accuracy of the self-position estimation of the vehicle V can be improved. Further, since the sign is represented by a plurality of cells C, it is not necessary to perform complicated processing such as extracting and mapping the contour of the sign having a complicated shape, and it is not necessary to reproduce the contour. Can be reduced.
  • the map data structure has, for each cell C, statistical information on the cell C. In this way, by storing the coordinates of the point group and the dispersion of the reflection intensity in the cell C as statistical information, it is possible to grasp the distribution and ratio of the paint indicating the sign in the cell C. That is, a cell including the outline of the sign can be specified.
  • the server device 1 Since the server device 1 stores the map data having the above-described map data structure, the server device 1 can distribute the map data to a plurality of vehicles.
  • the in-vehicle device 2 displays a sign drawn on a road surface by dividing the sign with a plurality of cells C.
  • Each of the plurality of cells C includes map data in which a position 132 of the cell C is set.
  • the control unit 21 obtains the point cloud information obtained from the rider 3a by running the vehicle. Then, the control unit 21 recognizes the point cloud information corresponding to the sign drawn on the road surface from the acquired point cloud information, and calculates the point cloud information corresponding to the recognized mark drawn on the road surface and the map data.
  • the self-position of the vehicle is estimated by performing the matching. By doing so, the self-position estimation can be performed using the sign drawn on the road surface, and the accuracy of the self-position estimation of the vehicle V can be improved.
  • FIG. 12 shows a flowchart of the map data generation method according to the present embodiment. This flowchart is executed by the control unit 11 of the server device 1.
  • step S41 the control unit 11 acquires point cloud information and the like from the vehicle-mounted device 2.
  • step S42 the control unit 11 performs filtering on the point group acquired in step S41, based on the reflection intensity information and the height information (distance information) that each has.
  • the control unit 11 performs filtering based on the reflection intensity information, it is possible to extract a sign drawn on a road surface such as a road sign with a high reflection intensity using a retroreflective material.
  • the height information it is possible to eliminate a point such as a sign other than the road surface having a high reflection intensity.
  • step S43 the point group information subjected to the processing in step S42 is combined into cells C of a fixed size (generate cells C) in the same manner as in step S14 and the like.
  • the position information is given to each cell C based on the absolute coordinates of each point of the point group information.
  • step S44 the control unit 11 assigns statistical information as attribute information to each cell C as in step S16 and the like.
  • the map data is generated by including the sign drawn on the road surface including the plurality of cells C to which the statistical information is added in the map data as described above.
  • the division line may be excluded from the object to be divided into the cells C.
  • FIG. 13 shows a method of generating map data that divides the cell into cells C excluding lane markings.
  • step S51 the control unit 11 acquires point cloud information and the like from the in-vehicle device 2 as in step S21 described above.
  • step S52 the control unit 11 generates a binarized image based on the point cloud information acquired in step S51, as in step S22 described above.
  • step S53 the control unit 11 extracts a white line (compartment line) from the binarized image.
  • step S54 the control unit 11 filters the point group corresponding to the white line from the point group information acquired in step S51. Further, the control unit 11 performs filtering based on the reflection intensity information and the height information (distance information) included in each of them, as in step S42.
  • step S55 the control unit 11 combines the point cloud information subjected to the processing in step S54 into cells C of a fixed size as in step S43 (generates the cell C).
  • step S56 the control unit 11 assigns statistical information as attribute information to each cell C as in step S44.
  • the map data is generated by including in the map data the marking drawn on the road surface composed of the plurality of cells C to which the statistical information is added and the white line expressed as a sequence of points in step S53.
  • the communication unit 12 acquires the point cloud information detected by the rider 3 a, and the control unit 11 performs filtering based on the point cloud information acquired by the communication unit 12. . Then, the part of the sign drawn on the road surface in the filtered point cloud is divided into a plurality of cells C, and map data is generated for each of the plurality of cells C including the position 132 and the statistical information 133. In this way, the sign drawn directly on the road surface can be converted into a cell from the point cloud information.
  • the cell C is a planar cell.
  • the cell C may be divided three-dimensionally, such as a voxel or a column.
  • the present invention is not limited to the above embodiment. That is, those skilled in the art can make various modifications in accordance with conventionally known knowledge without departing from the gist of the present invention. Such a modification is, of course, included in the scope of the present invention as long as the apparatus includes the map data generating device, the map data structure, and the self-position estimating device of the present invention.
  • server device storage device, map data generation device
  • In-vehicle device self-position estimation device
  • lidar lidar
  • communication unit acquisition unit
  • control unit signal generation unit
  • map data generation unit 13
  • Storage unit storage medium
  • control unit map data acquisition unit, sensor information acquisition unit, recognition unit, estimation unit
  • Storage unit storage medium
  • 129 location information about cell location
  • 133 Statistical information (attribute information)

Abstract

移動体の自己位置推定の精度を向上させることができる地図データ構造を提供する。 地図データ構造は、路面に描かれた標示が複数のセルで分割されて表されており、複数のセルのそれぞれには、当該セルの位置(132)が設定されており、この地図データ構造を利用する車載装置(2)は、セルの位置(132)によって、路面に描かれた標示を認識して車両Vの自己位置推定処理を行う。

Description

地図データ構造
 本発明は、移動体を案内する案内装置で用いられる地図データの地図データ構造に関する。
 自動運転車両等の移動体では、ライダ(LiDAR;Light Detection and Ranging)などのセンサで計測した地物位置と、自動運転用の地図情報の地物位置と、をマッチングして高精度に現在位置を推定する必要がある。特許文献1は、ライダを用いて検出したランドマークとしての地物の位置と、地図情報の地物とを用いて現在位置を推定する手法の一例が記載されている。
 また、特許文献2には、ライダを用いて白線を検出し、車両に対する白線の横方向の相対位置または白線に対して車両が向いている方向を高精度に検出することが記載されている。
特開2017-72422号公報 特開2017-215199号公報
 特許文献2に記載の方法により、白線(区画線)を利用して車両等の自己位置を推定することはできる。しかしながら、例えば、右折や左折等を示す進行方向別通行区分のような路面上に白線以外の標示がある場合に、当該標示を白線と誤って検出してしまうと自己位置推定の精度が低下してしまう。
 本発明が解決しようとする課題としては、移動体の自己位置推定の精度を向上させることが一例として挙げられる。
 上記課題を解決するために、請求項1に記載の発明は、移動体を案内する案内装置で用いられる地図データの地図データ構造であって、路面に描かれた標示が複数のセルで分割されて表され、更に前記複数のセルのそれぞれには、当該セルの位置に関する情報が設定されており、前記案内装置は、前記セルの位置に関する情報によって、前記標示を認識して前記移動体の案内処理を行う、ことを特徴としている。
 請求項4に記載の発明は、請求項1から3のうちいずれか一項に記載の地図データ構造が格納されていることを特徴としている。
 請求項5に記載の発明は、請求項1から3のうちいずれか一項に記載の地図データ構造が格納されていることを特徴としている。
本発明の第1の実施例にかかるサーバ装置と車載装置からなるシステムの概略構成図である。 図1に示されたサーバ装置の機能的構成図である。 図1に示された車載装置の機能的構成図である。 図2に示されたサーバ装置における地図データ生成方法のフローチャートである。 二値化画像の例である。 図5に示した二値化画像から不要なピクセルを除去した画像である。 本実施例におけるセルについての説明図である。 本発明の一実施例にかかる地図データ構造の説明図である。 図4に示されたフローチャートの変形例である。 白線を点列とした場合の説明図である。 本発明の一実施例にかかる自己位置推定方法のフローチャートである。 本発明の第2の実施例にかかる地図データ生成方法のフローチャートを示す。 図12に示されたフローチャートの変形例である。
 以下、本発明の一実施形態にかかる地図データ構造を説明する。本発明の一実施形態にかかる地図データ構造は、路面に描かれた標示が複数のセルで分割されて表され、更に複数のセルのそれぞれには、当該セルの位置に関する情報が設定されており、この地図データ構造を利用する案内装置は、セルの位置に関する情報によって、路面に描かれた標示を認識して移動体の案内処理を行う。このようにすることにより、路面に描かれた標示を地図データに含めることができ、移動体の自己位置推定の精度を向上させることができる。また、複数のセルによって標示を表現するため、複雑な形状の標示について、その輪郭を抽出して図化するといった複雑な処理を必要とせず、また、輪郭を再現する必要が無いので情報量を少なくすることが可能となる。
 また、セル毎に当該セルについての所定の属性情報を有していてもよい。このようにすることにより、例えば、セル内における点群の座標や反射強度の分散等を属性情報として有するようにすれば、そのセルにおける標示を示すペイントの分布や割合等を把握することが可能となる、つまり、標示の輪郭が含まれるセルを特定することができる。
 また、本地図データ構造が対象とする路面に描かれた標示は、区画線を除く標示であってもよい。このようにすることにより、例えば白線等の区画線が既に他の方法によりデータ化されている場合は、白線等の区画線を除く、右折や左折等を示す進行方向別通行区分や最高速度といった道路標示について地図データに含めることが可能となる。
 また、本発明の一実施形態にかかる記憶媒体は、上述した地図データ構造を有する地図データが格納されている。このようにすることにより、地図データ構造を有する地図データをハードディスクや光ディスク或いはメモリーカード等に格納して流通させることができる。
 また、本発明の一実施形態にかかる記憶装置は、上述した地図データ構造を有する地図データが格納されている。このようにすることにより、例えばサーバ装置等に地図データ構造を有する地図データを格納して配信等することができる。
 本発明の第1の実施例にかかる地図データ生成装置及び地図データ構造を図1~図11を参照して説明する。本実施例にかかる地図データ生成装置は、図1ではサーバ装置1として構成されている。サーバ装置1は、移動体としての車両Vに搭載されている車載装置2が収集した情報をインターネット等のネットワークNを介して取得し、取得した情報に基づいて後述する地図データ構造を有する地図データを生成する。
 図2にサーバ装置1の機能的構成を示す。サーバ装置1は、図2に示したように、制御部11と、通信部12と、記憶部13と、を備えている。制御部11は、サーバ装置1のCPU(Central Processing Unit)が機能し、サーバ装置1の全体制御を司る。制御部11は、車載装置2から送信された例えば点群情報に基づいて地図データを生成する。
 通信部12は、サーバ装置1のネットワークインターフェース等が機能し、車載装置2が送信した例えば点群情報を受信する。また、通信部12は、制御部11で生成された地図データを、車両Vの車載装置2へ配信(送信)する。即ち、サーバ装置1は、地図データが格納されている記憶装置として機能する。
 記憶部13は、サーバ装置1のハードディスク等の記憶媒体が機能し、制御部11で生成された地図データ等を記憶する。なお、記憶媒体としては、光ディスクやメモリーカード等のであってもよい。
 図3に車載装置2の機能的構成を示す。車載装置2は、図3に示したように、制御部21と、通信部22と、記憶部23と、を備えている。また、車載装置2は、図3に示したように、ライダ3aやGPS(Global Positioning System)受信機3b等を含む車両Vに搭載されたセンサ3が接続されている。
 制御部21は、例えばCPUやメモリ等を有するマイクロコンピュータで構成され、車載装置2の全体制御を司る。制御部21は、センサ3で検出された点群情報等を通信部12からサーバ装置1へ送信させる。また、制御部21は、ライダ3aを用いて認識した路面上に描かれた標示等の地物を示す情報と、サーバ装置1で生成された後述する地図データ構造を有する地図データに含まれる路面上に描かれた標示等の情報と、に基づいて自己位置を推定する。また、制御部21は、推定された自己位置に基づいて予め探索された経路に沿って車両Vを誘導(案内)する誘導装置(案内装置)の制御部として機能してもよい。この誘導装置には、車両Vを経路に沿って自律的に走行させる所謂自動運転機能と、ドライバ等に経路に沿った案内情報を提示するナビゲーション機能の少なくともいずれかを含むものである。
 通信部22は、制御部21が取得した点群情報等をサーバ装置1に送信する。また、通信部22は、サーバ装置1から配信された地図データ等を受信する。
 記憶部23は、制御部21で動作するプログラムや各種データ等が格納されている。また、記憶部23は、サーバ装置1から配信された地図データを記憶する。
 センサ3は、ライダ3aと、GPS受信機3bと、を備えている。なお、センサ3は、これらのセンサ以外に、例えば速度センサ等の他のセンサを備えていてもよい。さらには、車両の前方等の周囲を撮像する車載カメラをセンサ3に含めてもよい。
 ライダ3aは、電磁波としてレーザ光を出射することで、外界に存在する物体までの距離を離散的に測定する。所定の検知領域において出力方向を変えながらパルス状のレーザを出力し、そのレーザの反射波を受信して点群情報を生成する。ライダ3aは、検知領域内に複数パルスのレーザを出力し、この複数パルスのレーザの反射波に基づいて点群情報を生成する。点群情報を構成するそれぞれの情報は、レーザの出力方向と、当該レーザを反射した対象物までの距離と、反射波の強度(反射強度)と、を示す情報である。本実施例では、ライダ3aは、主にレーザを路面に向けて照射し、路面を検知領域としている。このため、点群情報は、対象物としての路面までの距離を示す情報及び反射強度の情報が含まれる。勿論、路面以外にレーザを出射して、路面情報以外の周辺情報を取得するようにしてもよい。
 GPS受信機3bは、公知であるように複数のGPS衛星から送信される電波を定期的に受信して、現在の位置情報及び時刻を検出する。
 次に、上述した構成のサーバ装置1(地図データ生成装置)における地図データ生成方法について図4~図7を参照して説明する。図4は、サーバ装置1で実行されるフローチャートである。このフローチャートは、サーバ装置1の制御部11で実行される。つまり、制御部11のCPUで実行されるコンピュータプログラム(地図データ生成プログラム)として構成されている。なお、このプログラムは、記憶部13に記憶させるに限らず、光ディスクやメモリーカード等に記憶させてもよい。
 まず、ステップS11において、制御部11は、車載装置2から点群情報等を取得する。なお、本ステップでは、車載装置2から収集した点群情報について、GPS受信機3bが検出した現在位置に基づいて各点までの距離を絶対座標に変換している。あるいは、予め車載装置2で絶対座標に変換してもよい。即ち、制御部11は、ライダ3a(所定のセンサ)から点群情報(路面情報)を取得する取得部として機能する。
 次に、ステップS12において、制御部11は、ステップS11で取得した点群情報に基づいて二値化画像を生成する。本実施例の二値化画像とは、三次元座標を持つ点群を二次元化して、各点の反射強度に基づいて所定の閾値により二値化した画像である。このようにして生成された二値化画像は、反射強度の高い点が輝度が高いピクセルとして表現される。この二値化画像に含まれるピクセルは、変換前の点群が有する座標情報も引き継いでいる。
 即ち、制御部11は、取得部が取得した点群情報(路面情報)に基づいて、二値化画像(当該路面に描かれた標示を示す情報)を生成する標示情報生成部として機能する。
 次に、ステップS13において、制御部11は、ステップS12で生成した二値化画像から路面外の輝度が高いピクセルを除去する。除去の例を図5及び図6を参照して説明する。図5は、ある道路の点群情報に基づいて生成された二値化画像である。この二値化画像上に白線(区画線)Wと、右折を示す進行方向別通行区分R(以下右折矢印Rとする)と、直進を示す進行方向通行区分S(以下直進矢印Sとする)が描かれている。また、この二値化画像には、路面外の不要なピクセルU(路面外の輝度が高いピクセル)も含まれている場合がある。
 そして、このような二値化画像において、白線Wや進行方向別通行区分といった道路標示等の路面に描かれた標示以外の不要なピクセルUを除去する。除去の方法としては、例えば、点群情報を取得した領域の地図データを別途取得し、その地図データに設定されている通行可能領域(路面の領域)と二値化画像とを対比させて、路面外にある輝度が高いピクセルを特定する方法が挙げられる。また、地図データに含まれる道路や車線のネットワークデータから道路や車線の幅員情報を取得して、路面外にある輝度が高いピクセルを特定してもよい。
 不要なピクセルUの除去後の二値化画像を図6に示す。上述した処理によって、不要なピクセルUが除去され、白線Wや右折矢印R、直進矢印Sといった路面に描かれた標示のみが残る。
 次に、ステップS14において、制御部11は、ステップS13の処理が施された二値化画像において、路面に描かれた標示に対応するピクセルを一定サイズのセルにまとめる(セルを生成する)。生成されたセルは、当該セルに含まれるピクセルに基づいて座標情報が付与されている。即ち、標示情報生成部で生成された二値化画像(標示を示す情報)に基づいて当該標示を複数のセルで分割している。
 ここで、本実施例のセルについて図7を参照して説明する。図7は、白線Wと右折矢印Rとが描かれた路面を示している。図7では、白線W、右折矢印Rとも破線内がステップS13において輝度が高いピクセルとして表現されている。つまり、破線内が路面上に白線Wや右折矢印Rとして描かれた領域となる。
 図7に示したように、路面に描かれた標示に対応するピクセルを一定サイズのセルCにまとめることで、白線Wや右折矢印Rは複数のセルCで分割される。このセルCのサイズは路面に描かれた標示を複数に分割できる程度の大きさで適宜定めればよい。また、セルCの形状は正方形に限らず長方形等の矩形や、三角形や六角形等の多角形でもよい。
 また、図7の例では、路面に描かれた標示が一部でも含まれる部分のみをセルにまとめているが、路面全体を複数のセルに分割したグリッド状(メッシュ状)としてもよい。但し、路面に描かれた標示のみをセルとした方が地図データのデータ量を小さくすることができる。また、路面全体を複数のセルに分割する場合は、路面に描かれた標示を含むセルには、その旨を示すフラグ等の情報を付与するとよい。
 図4の説明に戻り、ステップS15において、制御部11は、後述する統計情報の付与のためステップS14で生成されたセルCの座標からステップS11で取得した点群を参照して、セルCと点群とを対応させる。即ち、各セルCには座標情報が位置情報(位置に関する情報)として付与されている。
 そして、ステップS16において、制御部11は、各セルCに属性情報としての統計情報を付与する。統計情報の例としては、当該セルCに対応する点群の反射強度の平均や分散あるいはヒストグラム等が挙げられる。このようにして統計情報が付与された複数のセルCからなる路面に描かれた標示を地図データに含めることで地図データが生成される。即ち、制御部11は、複数のセルCのそれぞれに、点群情報(路面情報)に基づく当該セルCの位置に関する情報を含めて地図データを生成する地図データ生成部として機能する。
 以上の説明から明らかなように、ステップS11が取得工程、ステップS12が標示情報生成工程、ステップS14~S16が地図データ生成工程として機能する。
 なお、センサ3に含まれるものとして車載カメラが車両Vに搭載されている場合は、各点にカメラで撮像された画像に基づく色を付加した色付き点群とし、反射強度に代えて色の平均や分散を用いてもよい。また、当該セルCに対応する点群の座標値の平均や共分散を統計情報として付与することもできる。この場合は、反射強度又は色によるフィルタリング処理を施して路面に描かれた標示のみの点群の座標値を取り出す処理が必要となる。
 図8に、図4のフローチャートにより生成された地図データの地図データ構造の例を示す。図8に示したように、地図データ構造は、セルID131と、位置132と、統計情報133と、を含んでいる。セルIDは、セルを識別するIDである。位置132は、セルの位置を示す情報である、この位置132は、セルC毎に絶対位置(緯度、経度)を設定するに限らず、基準となるセルCからの相対位置を設定してもよい。例えば図7の右折矢印Rであれば、左隅にあるセルCを基準セルとして絶対位置を設定し、他のセルCは基準セルからの相対位置を設定するようにしてもよい。統計情報133は、上述した反射強度や座標値の平均や分散等の情報が設定されている。また、図8に示した項目以外に、例えばその標示の内容を示す情報(白線、右折矢印、最高速度等)を含めてもよい。
 即ち、図8に示した地図データ構造は、路面に描かれた標示が複数のセルCで分割されて表され、更に複数のセルCのそれぞれには、当該セルCの位置に関する情報(位置132)が設定されている。
 このような地図データ構造を有する地図データは、例えば、車載装置2がナビゲーションや自動運転等の車両Vを誘導(案内)する機能を有する誘導(案内)装置として機能する場合に、この地図データを参照することで、路面に描かれた標示について、白線以外の標示も認識して案内することができる。
 ところで、図4に示したフローチャートでは、路面に描かれた標示は全てセルCで分割されるようにしているが、区画線(例えば白線)は、形状が線であり単純であるため、例えば区画線の中心線を点列として地図データに格納することで、よりデータ量を削減することが可能である。そのため、セルCに分割する対象から区画線を除いてもよい。区画線を除いてセルCに分割する地図データ生成方法を図9に示す。
 まず、ステップS21において、制御部11は、図4のステップS11と同様に、車載装置2から点群情報等を取得する。
 次に、ステップS22において、制御部11は、図4のステップS12と同様に、ステップS21で取得した点群情報に基づいて二値化画像を生成する。
 次に、ステップS23において、制御部11は、二値化画像から白線(区画線)を抽出する。本ステップにおける区画線の抽出方法の例を説明する。まず、二値化画像について画像処理を行い、例えば線分(直線)等を検出する。そして、検出した線分(直線)等のグルーピングを行い、一つの区画線の輪郭を抽出する。そして、既知の手法等を用い、抽出された区画線を点列により表現する。さらに、抽出された区画線から白線の端部及び非端部を認識し、当該認識した端部及び非端部間に点列を内挿(すなわち、端部と端部の間の連続部分に点列を内挿)してもよい。
 このようにして、白線を点列により表現することができる(図10を参照)。図10は、図7について、白線Wの部分を点列で示したものである、白線Wは上述したステップS23の処理によって、セルCではなく複数の点Pにより表現される。
 図9の説明に戻る。次に、ステップS24において、制御部11は、ステップS22で生成した二値化画像から路面外の輝度が高いピクセル及びステップS23で抽出した白線部分のピクセルを除去する。路面外の輝度が高いピクセルについては、ステップS13と同様の方法で除去すればよい。白線部分については、ステップS23の処理によって抽出された輪郭に基づいて除去すればよい。
 次に、ステップS25において、制御部11は、ステップS24の処理が施された二値化画像において、路面に描かれた標示に対応するピクセルを一定サイズのセルCにまとめる(セルCを生成する)。本ステップでは、ステップS24で白線部分は除去されているので、白線を除いた路面に描かれた標示がセルCに分割される。
 次に、ステップS26において、制御部11は、図4のステップS15と同様に統計情報の付与のためステップS25で生成されたセルCの座標からステップS21で取得した点群を参照してセルCと点群とを対応させる。
 そして、ステップS27において、制御部11は、図4のステップS16と同様に各セルCに統計情報を付与する。このようにして統計情報が付与された複数のセルCからなる路面に描かれた標示及び、ステップS23で点列として表現された白線を地図データに含めることで地図データが生成される。
 次に、上述した方法により生成された地図データ構造を有する地図データを用いて車載装置2で実行される自己位置推定方法について図11のフローチャートを参照して説明する。このフローチャートは、車載装置2の制御部21で実行される。つまり、制御部21のCPUで実行されるコンピュータプログラム(地図データ生成プログラム)として構成されている。なお、このプログラムは、記憶部23に記憶させるに限らず、光ディスクやメモリーカード等に記憶させてもよい。
 まず、ステップS31において、制御部21は、ライダ3aから点群情報を取得する。この点群情報は、ライダ3aがリアルタイムに取得した情報である。即ち、制御部21は、車両走行によってライダ3a(センサ)から得られた点群情報(センサ情報)を取得するセンサ情報取得部として機能する。
 次に、ステップS32において、制御部21は、ステップS31で取得した点群情報から路面に描かれた標示を、例えば地表面点群をフィルタリングする等により認識する。即ち、制御部21は、センサ情報取得部が取得した点群情報(センサ情報)から路面に描かれた標示に該当する点群情報(センサ情報)を認識する認識部として機能する。
 次に、ステップS33において、制御部21は、記憶部23から地図データを取得する。本ステップで取得する地図データは、図8で説明した地図データ構造を有するものである。即ち、制御部21は、路面に描かれた標示が複数のセルCで分割されて表されており、複数のセルCのそれぞれには、当該セルCの位置に関する情報が設定されている地図データ、を取得する地図データ取得部として機能する。なお、地図データはサーバ装置1から直接取得するようにしてもよい。
 そして、ステップS34において、制御部21は、ステップS32の処理が施された点群情報と、地図データに含まれる標示と、のマッチングを行って自己位置の推定をする。具体的には、点群情報と、地図データ側の各セルの統計情報とのマッチングを行って自己位置の推定をする。なお、マッチングの方法としては、NDT(Normal Distributions Transform)等の周知のセルCと点群とのマッチング方法を利用すればよい。即ち、制御部21は、認識部により認識された標示に該当する点群情報(センサ情報)と、地図データと、のマッチングを行うことにより車両の自己位置を推定する推定部として機能する。
 なお、マッチングは、ライダ3aからリアルタイムに取得した点群情報を地図データと同様にセルで分割して統計情報を生成した上で行ってもよい。
 以上の説明から明らかなように、ステップS31がセンサ情報取得工程、ステップS32が認識工程、ステップS33が地図データ取得工程、ステップS34が推定工程として機能する。
 また、上述した説明では、サーバ装置1で地図データを生成していたが、車載装置2で地図データの生成を行ってサーバ装置1へアップロードするようにしてもよい。つまり、図4や図9に示したフローチャートは車載装置2で実行される。この場合、サーバ装置1では、各車載装置2からアップロードされた部分的な地図データの結合や更新等の処理を行う。
 また、上述した説明では、点群等の収集を行う車両と、自己位置推定を行う車両が同じ車両Vであったが、異なる車両であってもよい。例えば、点群等の収集は専用の計測機器を搭載した計測車両が行い、その計測結果を利用して生成された地図データの配信を一般車両が受けて自己位置推定をするといった構成でもよい。
 また、上述した実施例では、点群を取得するのは車両に搭載されたライダ3aであったが、車両ではなく航空機等の飛翔体にライダを搭載し、上空から地上に向けてレーザ光を照射して得られた点群について上記した二値化処理等を行って地図データを生成してもよい。
 本実施例によれば、サーバ装置1は、通信部12がライダ3aで検出された点群情報を取得し、制御部11が通信部12で取得された点群情報に基づいて、二値化画像を生成する。そして、二値化画像の路面に描かれた標示の部分を複数のセルCで分割し、複数のセルCのそれぞれに、位置132及び統計情報133を含めて地図データを生成する。このようにすることにより、路面に描かれた標示を地図データに含めることができ、車両Vの自己位置推定の精度を向上させることができる。また、複数のセルCによって路面に描かれた標示を表現するため、複雑な形状の標示について、その輪郭を抽出して図化するといった複雑な処理を必要とせず、また、輪郭を再現する必要が無いので情報量を少なくすることが可能となる。
 また、制御部11は、点群情報に基づいて統計情報133をセルC毎に設定しているので、例えば、セルC内における点群の分散や反射強度を統計情報として有するようにすれば、そのセルCにおける標示を示すペイントの分布や割合等を把握することが可能となる、つまり、標示の輪郭が含まれるセルCを特定することができる。
 また、路面に描かれた標示は、区画線を除く標示であってもよい。このようにすることにより、白線等の区画線を除く、右折や左折等を示す進行方向別通行区分や最高速度といった道路標示について地図データに含めることが可能となる。
 また、本実施例にかかる地図データ構造は、路面に描かれた標示が複数のセルCで分割されて表され、更に複数のセルCのそれぞれには、当該セルCの位置132が設定されており、この地図データ構造を利用する車載装置2は、セルCの位置132によって、路面に描かれた標示を認識して車両Vの自己位置推定処理を行う。このようにすることにより、路面に描かれた標示を地図データに含めることができ、車両Vの自己位置推定の精度を向上させることができる。また、複数のセルCによって標示を表現するため、複雑な形状の標示について、その輪郭を抽出して図化するといった複雑な処理を必要とせず、また、輪郭を再現する必要が無いので情報量を少なくすることが可能となる。
 また、地図データ構造は、セルC毎に当該セルCについての統計情報を有していている。このようにすることにより、セルC内における点群の座標や反射強度の分散等を統計情報として格納することで、そのセルCにおける標示を示すペイントの分布や割合等を把握することが可能となる、つまり、標示の輪郭が含まれるセルを特定することができる。
 また、サーバ装置1は、上述した地図データ構造を有する地図データが格納されているので、サーバ装置1から複数の車両に地図データを配信等することができる。
 また、車載装置2は、路面に描かれた標示が複数のセルCで分割されて表されており、複数のセルCのそれぞれには、当該セルCの位置132が設定されている地図データを、制御部21が取得し、車両走行によってライダ3aから得られた点群情報を取得する。そして、制御部21が取得した点群情報から路面に描かれた標示に該当する点群情報を認識し、認識された路面に描かれた標示に該当する点群情報と、地図データと、のマッチングを行うことにより車両の自己位置を推定する。このようにすることにより、路面に描かれた標示を利用して自己位置推定をすることができ、車両Vの自己位置推定の精度を向上させることができる。
 次に、本発明の第2の実施例にかかる地図データ生成装置を図12~図13を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。
 本実施例は、構成は図1と同様であるが、地図データ生成方法が異なる。図12に本実施例にかかる地図データ生成方法のフローチャートを示す。このフローチャートは、サーバ装置1の制御部11で実行される。
 まず、ステップS41において、制御部11は、車載装置2から点群情報等を取得する。
 次に、ステップS42において、制御部11は、ステップS41で取得した点群について、各々が有する反射強度情報及び高さ情報(距離情報)に基づいてフィルタリングする。反射強度情報によるフィルタリングにより、再帰性反射材が用いられた反射強度が高い道路標示等の路面に描かれた標示を抽出することができる。また、高さ情報によるフィルタリングにより、標識等の路面以外の反射強度が高い点を排除することができる。
 次に、ステップS43において、ステップS42の処理が施された点群情報に対して、ステップS14等と同様に一定サイズのセルCにまとめる(セルCを生成する)。このステップの時点で各セルCには点群情報の各点が有する絶対座標に基づいて位置情報が付与されている。
 そして、ステップS44において、制御部11は、ステップS16等と同様に、各セルCに属性情報としての統計情報を付与する。このようにして統計情報が付与された複数のセルCからなる路面に描かれた標示を地図データに含めることで地図データが生成される。
 ここで、本実施例も第1の実施例と同様に、セルCに分割する対象から区画線を除いてもよい。区画線を除いてセルCに分割する地図データ生成方法を図13に示す。
 まず、ステップS51において、制御部11は、上述したステップS21と同様に、車載装置2から点群情報等を取得する。
 次に、ステップS52において、制御部11は、上述したステップS22と同様に、ステップS51で取得した点群情報に基づいて二値化画像を生成する。
 次に、ステップS53において、制御部11は、二値化画像から白線(区画線)を抽出する。
 次に、ステップS54において、制御部11は、ステップS51で取得した点群情報から白線に対応する点群をフィルタリングする。また、制御部11は、ステップS42と同様に、各々が有する反射強度情報及び高さ情報(距離情報)に基づいてフィルタリングする。
 次に、ステップS55において、制御部11は、ステップS54の処理が施された点群情報に対して、ステップS43と同様に一定サイズのセルCにまとめる(セルCを生成する)。
 次に、ステップS56において、制御部11は、ステップS44と同様に、各セルCに属性情報としての統計情報を付与する。このようにして統計情報が付与された複数のセルCからなる路面に描かれた標示及び、ステップS53で点列として表現された白線を地図データに含めることで地図データが生成される。
 本実施例によれば、サーバ装置1は、通信部12がライダ3aで検出された点群情報を取得し、制御部11が通信部12で取得された点群情報に基づいて、フィルタリングをする。そして、フィルタリングされた点群における路面に描かれた標示の部分を複数のセルCで分割し、複数のセルCのそれぞれに、位置132及び統計情報133を含めて地図データを生成する。このようにすることにより、点群情報から直接路面に描かれた標示をセル化することができる。
 なお、上述した2つの実施例では、セルCは平面状のものであったが、ボクセルや柱体など、立体で分割してもよい。
 また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の地図データ生成装置、地図データ構造及び自己位置推定装置を具備する限り、勿論、本発明の範疇に含まれるものである。
  1    サーバ装置(記憶装置、地図データ生成装置)
  2    車載装置(自己位置推定装置)
  3a   ライダ(センサ)
  11   通信部(取得部)
  12   制御部(標示情報生成部、地図データ生成部)
  13   記憶部(記憶媒体)
  21   制御部(地図データ取得部、センサ情報取得部、認識部、推定部)
  23   記憶部(記憶媒体)
  132  位置(セルの位置に関する情報)
  133  統計情報(属性情報)

Claims (5)

  1.  移動体を案内する案内装置で用いられる地図データの地図データ構造であって、
     路面に描かれた標示が複数のセルで分割されて表され、更に前記複数のセルのそれぞれには、当該セルの位置に関する情報が設定されており、
     前記案内装置は、前記セルの位置に関する情報によって、前記標示を認識して前記移動体の案内処理を行う、
    ことを特徴とする地図データ構造。
  2.  前記セル毎に当該セルについての所定の属性情報を有していることを特徴とする請求項1に記載の地図データ構造。
  3.  前記標示は、区画線を除く標示であることを特徴とする請求項1または2に記載の地図データ構造。
  4.  請求項1から3のうちいずれか一項に記載の地図データ構造を有する地図データが格納されていることを特徴とする記憶媒体。
  5.  請求項1から3のうちいずれか一項に記載の地図データ構造を有する地図データが格納されていることを特徴とする記憶装置。
PCT/JP2019/032756 2018-08-28 2019-08-22 地図データ構造 WO2020045210A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018159018 2018-08-28
JP2018-159018 2018-08-28

Publications (1)

Publication Number Publication Date
WO2020045210A1 true WO2020045210A1 (ja) 2020-03-05

Family

ID=69644529

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/032756 WO2020045210A1 (ja) 2018-08-28 2019-08-22 地図データ構造

Country Status (1)

Country Link
WO (1) WO2020045210A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112991739A (zh) * 2021-03-23 2021-06-18 苏州蓝图智慧城市科技有限公司 一种基于出行强度的车辆引导方法、装置、介质及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006114955A1 (ja) * 2005-04-25 2006-11-02 Geo Technical Laboratory Co., Ltd. 撮影位置解析方法
JP2007010678A (ja) * 1996-10-25 2007-01-18 Navigation Technol Corp 物理的媒体で地理上のデータを使用し、記憶するためのシステムと方法
JP2009259215A (ja) * 2008-03-18 2009-11-05 Zenrin Co Ltd 路面標示地図生成方法
JP2011511281A (ja) * 2008-02-04 2011-04-07 テレ アトラス ノース アメリカ インコーポレイテッド センサにより検出されたオブジェクトとマップマッチングする方法
JP2015194373A (ja) * 2014-03-31 2015-11-05 株式会社デンソーアイティーラボラトリ 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007010678A (ja) * 1996-10-25 2007-01-18 Navigation Technol Corp 物理的媒体で地理上のデータを使用し、記憶するためのシステムと方法
WO2006114955A1 (ja) * 2005-04-25 2006-11-02 Geo Technical Laboratory Co., Ltd. 撮影位置解析方法
JP2011511281A (ja) * 2008-02-04 2011-04-07 テレ アトラス ノース アメリカ インコーポレイテッド センサにより検出されたオブジェクトとマップマッチングする方法
JP2009259215A (ja) * 2008-03-18 2009-11-05 Zenrin Co Ltd 路面標示地図生成方法
JP2015194373A (ja) * 2014-03-31 2015-11-05 株式会社デンソーアイティーラボラトリ 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112991739A (zh) * 2021-03-23 2021-06-18 苏州蓝图智慧城市科技有限公司 一种基于出行强度的车辆引导方法、装置、介质及设备

Similar Documents

Publication Publication Date Title
US11393097B2 (en) Using light detection and ranging (LIDAR) to train camera and imaging radar deep learning networks
JP7090597B2 (ja) 位置特定基準データを生成及び使用する方法及びシステム
CN108571974B (zh) 使用摄像机的车辆定位
CN111436216B (zh) 用于彩色点云生成的方法和系统
CN110979321B (zh) 一种用于无人驾驶车辆的障碍物躲避方法
US20200041284A1 (en) Map road marking and road quality collecting apparatus and method based on adas system
US9898668B2 (en) System and method of object detection
CN112665556B (zh) 使用被动和主动测量生成场景的三维地图
JP5441549B2 (ja) 道路形状認識装置
EP2372304B1 (en) Vehicle position recognition system
WO2019007263A1 (zh) 车载传感器的外部参数标定的方法和设备
CN106463051B (zh) 信号机识别装置以及信号机识别方法
JP2023068010A (ja) 自己位置推定装置
US11321950B2 (en) Apparatus and method for detecting lane information, and computer-readable recording medium storing computer program programmed to execute same method
CN108108750A (zh) 基于深度学习和单目视觉的距离空间重建方法
US11861841B2 (en) Lane estimation device, method, and program
US10996337B2 (en) Systems and methods for constructing a high-definition map based on landmarks
Shunsuke et al. GNSS/INS/on-board camera integration for vehicle self-localization in urban canyon
CN109635737A (zh) 基于道路标记线视觉识别辅助车辆导航定位方法
JP2020034321A (ja) 地図データ生成装置
CN114442101A (zh) 基于成像毫米波雷达的车辆导航方法、装置、设备及介质
WO2020045210A1 (ja) 地図データ構造
JP2017117105A (ja) 見通し判定装置
KR102137043B1 (ko) 환경센서와 정밀지도를 이용한 측위 정확도 개선 시스템
JP2023068009A (ja) 地図情報作成方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19856068

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19856068

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP