WO2023148865A1 - 情報処理方法、プログラム及び情報処理装置 - Google Patents

情報処理方法、プログラム及び情報処理装置 Download PDF

Info

Publication number
WO2023148865A1
WO2023148865A1 PCT/JP2022/004170 JP2022004170W WO2023148865A1 WO 2023148865 A1 WO2023148865 A1 WO 2023148865A1 JP 2022004170 W JP2022004170 W JP 2022004170W WO 2023148865 A1 WO2023148865 A1 WO 2023148865A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
building
facility
road
data
Prior art date
Application number
PCT/JP2022/004170
Other languages
English (en)
French (fr)
Inventor
晋明 宮崎
広道 雨谷
Original Assignee
ダイナミックマップ基盤株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ダイナミックマップ基盤株式会社 filed Critical ダイナミックマップ基盤株式会社
Priority to PCT/JP2022/004170 priority Critical patent/WO2023148865A1/ja
Priority to JP2022527777A priority patent/JP7138290B1/ja
Priority to JP2022131245A priority patent/JP2023113547A/ja
Publication of WO2023148865A1 publication Critical patent/WO2023148865A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/909Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Definitions

  • the present invention relates to an information processing method, a program, and an information processing apparatus.
  • the map data used in such a system includes feature information for each road and features existing around the road (for example, lanes, signs, traffic lights, etc.), and this feature information is used for route guidance and It is used in various situations such as automatic driving.
  • the feature data structure includes information about the type of the external sensor used to detect the feature and environmental information about the environment when the feature is detected. discloses a technique for detecting features and generating and updating map data.
  • Patent Document 1 Although it is attempted to detect features with high accuracy and update feature information about the features, for example, buildings that can be destinations in route guidance and automatic driving, Information on facilities and structures is not proposed.
  • the present invention provides an information processing method, a program, and an information processing method for expanding the range of use and improving convenience by associating information about buildings, facilities, and structures around roads with feature information that constitutes map data.
  • An object of the present invention is to provide an information processing apparatus.
  • An information processing method is an information processing method executed by an information processing apparatus including a processor, wherein the processor obtains building facility information regarding buildings, facilities, and structures, and configures map data. obtaining road information related to roads, and determining predetermined roads corresponding to predetermined buildings, facilities, and structures based on the building facility location information included in the building facility information and the road location information included in the road information; generating building facility data including relative position information between the specified predetermined road and the specified predetermined building, facility, and structure;
  • An information processing device can be provided.
  • FIG. 4 is a diagram showing an example of a feature code according to one embodiment of the present invention.
  • FIG. It is a figure showing an example of a roadway link and a lane link concerning one embodiment of the present invention.
  • FIG. 4 is a diagram showing an example of recognizing buildings, facilities, and structures from images captured by a camera according to one embodiment of the present invention, and specifying the buildings, facilities, and structures, and roads. It is a figure which shows an example which associates the identified building, facility, and structure, and a road which concerns on one Embodiment of this invention. It is a figure which shows an example by which the lane link which concerns on one Embodiment of this invention was updated.
  • FIG. 4 is a diagram showing another example of associating identified buildings, facilities, and structures with roads according to an embodiment of the present invention; 4 is a flowchart showing an example of processing related to building facility data generation according to an embodiment of the present invention;
  • FIG. 1 is a diagram showing an example of the configuration of an information processing system 1 according to one embodiment of the present invention.
  • the information processing system 1 shown in FIG. 1 is used in a measurement vehicle (hereinafter also referred to as "vehicle") 10 equipped with MMS (Mobile Mapping System) measurement, an information processing device 20, and a GNSS (Global Navigation Satellite System). and an observation satellite 40 capable of acquiring satellite images.
  • vehicle hereinafter also referred to as "vehicle”
  • MMS Mobile Mapping System
  • GNSS Global Navigation Satellite System
  • observation satellite 40 capable of acquiring satellite images.
  • the number of vehicles 10 and information processing devices 20 may be one or more.
  • the vehicle 10 is a vehicle that performs three-dimensional measurement using MMS, and performs three-dimensional measurement of the surrounding terrain while moving.
  • the vehicle 10 can receive signals from the GNSS positioning satellites 30 and detect the position information of the own vehicle.
  • the location information includes three-dimensional location information of latitude, longitude and altitude, or two-dimensional location information of latitude and longitude.
  • the vehicle 10 is equipped with various sensors and acquires data detected by the various sensors.
  • Various sensors include an in-vehicle camera, a vehicle speed sensor, an acceleration sensor, and the like.
  • the positioning satellite 30 is a satellite that transmits signals necessary for measuring position information.
  • the observation satellite 40 acquires a satellite image by observing and photographing the earth using, for example, a SAR (Synthetic Aperture Radar) sensor.
  • SAR Synthetic Aperture Radar
  • the information processing device 20 is, for example, a server, and acquires data measured by MMS, data detected by various sensors, and the like from the vehicle 10 .
  • the information processing device 20 also acquires signals and images from the satellites 30 and 40 .
  • the information processing device 20 generates map data using data obtained from the vehicle 10 and the satellites 30 and 40 .
  • the information processing device 20 may be composed of a plurality of information processing devices.
  • the map data used in this embodiment is, for example, high-precision three-dimensional map data used for automatic driving or the like.
  • this map data is map data called a dynamic map provided in real time to which more dynamic information such as information on surrounding vehicles and traffic information is added.
  • the map data used in this embodiment are classified into, for example, four hierarchies.
  • FIG. 2 is a diagram showing an example of the hierarchical structure of map data according to one embodiment of the present invention.
  • map data is classified into static information SI1, semi-static information SI2, semi-dynamic information MI1, and dynamic information MI2.
  • the static information SI1 is three-dimensional high-precision fundamental map data (high-precision three-dimensional map data), including road surface information, lane information, three-dimensional structures, etc., and three-dimensional position coordinates indicating features. and linear vector data.
  • the semi-static information SI2, the semi-dynamic information MI1, and the dynamic information MI2 are dynamic data that change from moment to moment, and are data superimposed on the static information based on the position information.
  • the semi-static information SI2 includes traffic regulation information, road construction information, wide-area weather information, and the like.
  • the semi-dynamic information MI1 includes accident information, traffic congestion information, narrow area weather information, and the like.
  • the dynamic information MI2 includes ITS (Intelligent Transport System) information, including surrounding vehicles, pedestrians, signal information, and the like.
  • high-precision 3D map data corresponding to static information SI1. Construction of high-precision 3D map data is performed by the following four processes.
  • the vehicle 10 receives signals from a plurality of positioning satellites 30 to acquire stable position information, and uses position correction technology to determine self-position information. In addition, the vehicle 10 uses the positioning satellites 30 to enable positioning of position information in the cm class.
  • the vehicle 10 is a vehicle equipped with a GPS (Global Positioning System) included in MMS, a camera, a laser scanner, an IMU (Inertial Measurement Unit), etc., in order to generate highly accurate three-dimensional data.
  • the vehicle 10 measures surrounding landforms, features, and the like while moving.
  • the information processing device 20 uses images acquired by MMS and 3D point cloud data to accurately and efficiently obtain 3D position information around roads such as buildings, road shapes, signs, guardrails, road surface characters, and manholes. to acquire
  • the information processing device 20 extracts a base map as vector data from the highly accurate three-dimensional data generated by MMS.
  • the information processing device 20 detects real features such as road shoulders, lane markings, stop lines, pedestrian crossings, and virtual features such as lane links representing lane center lines, generates feature data, and converts the feature data into vectors. become
  • the information processing device 20 evaluates the automatic drawing technique from the point cloud data.
  • the information processing device 20 associates the feature data arranged in the plotting process (structuring process), converts the data into a format that is easy to use as a map, and generates high-precision three-dimensional map data. Note that the information processing device 20 may use satellite images acquired from the observation satellites 40 for position correction of the vehicle 10, feature detection, and the like.
  • HD map High Definition 3D map data
  • the vehicle 10 the information processing device 20, and the like used to generate an HD map that contributes to improving the accuracy of processing on the user side, etc., according to the present embodiment will be described.
  • FIG. 3 is a diagram showing an example of the configuration of the vehicle 10 according to one embodiment of the invention.
  • the vehicle 10 travels in the measurement area using MMS, and measures the three-dimensional coordinate values of features around the traveled road.
  • the vehicle 10 includes a GNSS receiver 101, an IMU 102, a laser scanner 103, and a camera 104 in order to measure these three-dimensional coordinate values.
  • these devices are attached to a top plate 100 provided on the top of the vehicle 10 .
  • the vehicle 10 has an odometer 105 attached to its wheels, and includes a processor 106, various sensors 107, and a communication device 108 as onboard equipment.
  • the GNSS receiver 101 has an antenna that receives positioning signals from the GNSS positioning satellites 30 .
  • the GNSS receiver 101 calculates the pseudorange to the positioning satellite 30, the phase of the carrier wave carrying the positioning signal, and the three-dimensional coordinate value based on the positioning signal received by the antenna.
  • the IMU 102 includes a gyro sensor that measures angular velocities in three axial directions and an acceleration sensor that measures acceleration.
  • the IMU 102 acquires attitude data of the host vehicle from these sensors.
  • the laser scanner 103 radiates laser light while changing the radiation angle in the width direction of the vehicle 10, and receives the laser light reflected by the feature located at the radiation destination.
  • the laser scanner 103 measures the time from when the laser beam is emitted to when it is received, and calculates the distance to the feature.
  • the camera 104 takes an image of the outside of the vehicle 10, such as the front. Also, the odometer 105 measures the distance traveled by the vehicle 10 .
  • the processor 106 controls the operation of the vehicle 10, or controls transmission and reception of data with external devices.
  • Various sensors 107 include an in-vehicle camera, a vehicle speed sensor, and an acceleration sensor.
  • a communication device 108 transmits and receives data to and from an external device. For example, the communication device 108 transmits data acquired by MMS to the information processing device 20 .
  • FIG. 4 is a diagram showing an example of the configuration of the information processing device 20 according to one embodiment of the present invention.
  • the information processing device 20 includes one or more processing units (CPU: Central Processing Unit) 210, one or more network communication interfaces 220, a storage device 230, a user interface 250, and a processor for interconnecting these components. It includes one or more communication buses 270 . Note that the user interface 250 is not necessarily required.
  • Storage 230 is, for example, high speed random access memory such as DRAM, SRAM, other random access solid state storage, and may also be one or more magnetic disk storage, optical disk storage, flash memory devices, or other A non-volatile memory such as a non-volatile solid-state memory device, or a computer-readable non-transitory recording medium may be used.
  • high speed random access memory such as DRAM, SRAM, other random access solid state storage
  • a non-volatile memory such as a non-volatile solid-state memory device, or a computer-readable non-transitory recording medium may be used.
  • storage device 230 may be one or more storage devices installed remotely from the CPU 210 .
  • storage device 230 stores programs, modules and data structures executed by CPU 210, or a subset thereof.
  • the storage device 230 stores data used by the information processing system 1 .
  • storage device 230 stores data relating to HD map generation.
  • the storage device 230 stores dynamic maps, HD maps, feature data, and the like.
  • FIG. 5 is a diagram showing an example of a database according to one embodiment of the present invention.
  • storage device 230 stores the dynamic map data as a high definition map database.
  • the dynamic map data includes static information SI1, semi-static information SI2, semi-dynamic information MI1, and dynamic information MI2, each of which is associated with each other.
  • the static information SI1 included in the dynamic map data includes high-precision 3D map data, and the high-precision 3D map data includes feature data.
  • This feature data is basic information when an application uses the dynamic map, and is information that can contribute to performance improvement and the like when the application uses the dynamic map. Therefore, what information is included in the feature data is important. For example, there is an automatic driving system as a use destination of the dynamic map, and appropriate information is detected from a large amount of information so as to contribute to improving the performance of the automatic driving system, and the detected information is used in this embodiment. included in the relevant feature data.
  • feature data is generated by assigning an ID to each feature detected by the measurement vehicle 10 or the like equipped with MMS measurement, and the HD map is composed of the feature data and the like. .
  • FIG. 6 is a diagram showing an example of a feature code according to one embodiment of the present invention.
  • lane links, road links, shoulder edges, road signs, and vehicle traffic lights are recognized as features, and feature data including feature codes for each feature type as shown in FIG. 6 is generated.
  • the feature data is composed of the plotting company No., the ID given by the plotting company, and other field definitions (connection ID, numbering ID, base ID, etc.).
  • roadway links and lane links are virtual features that are detected by being formed based on these existing features.
  • a lane link is formed by tracing the center between the lane markings, which are the white lines on both sides of the roadway, to express the centerline of the lane.
  • the lane link is provided with constituent points at predetermined intervals, and can represent, for example, the shape of a lane such as a straight line or a curve.
  • the predetermined interval may be arbitrarily set within a range of, for example, 3 to 10 m, but the smaller the interval, the more detailed the shape of the lane can be represented.
  • the feature data of the lane link it is associated with the lane link ID, starting and ending point information, configuration point information, lane link length, creation date, coordinate information, lane No., connection No., lane attributes (lane change possibility and one-way traffic, etc.) may be included.
  • FIG. 7 is a diagram showing an example of roadway links and lane links according to one embodiment of the present invention.
  • the roadway has three lanes and seven connecting links.
  • the feature data of the roadway link includes the feature code "11 (roadway link)" shown in FIG. It does not matter, and it may be configured to include the total number of lanes and the total number of connections.
  • the ID of the feature data of the lane link includes the feature code "01 (lane link)" shown in FIG. Further, the lane No. may be set at position M in the above-mentioned "XXXXX0123456789MNNN", and the connection No. may be set at position NNN. That is, the lane link ID is formed based on the roadway link ID.
  • the vehicle can grasp the lane link ID while driving and can easily grasp the lane link ID of the destination, so the current position every hour can be used to match the map data. It is possible to reduce the control load of the driving support system and the automatic driving system without the need for matching processing or the like.
  • building facility information about buildings, facilities, and structures around roads may be important.
  • Building facility information related to buildings, facilities, and structures can be installed in driving support systems and automated driving systems, for example, by generating building facility data in association with feature data that constitutes an existing or newly generated HD map.
  • route guidance and automatic driving it is possible for the user to reach the destination desired by the user with high precision.
  • the generation of building facility data will be described in detail below.
  • the CPU 210 that executes processing for generating building facility data according to this embodiment will be described.
  • the CPU 210 configures a map control unit 212 , a transmission/reception unit 213 , a detection unit 214 , an acquisition unit 215 , a specification unit 216 and a generation unit 217 by executing programs stored in the storage device 230 .
  • the CP 210 controls the processing of each unit described later, and executes processing related to building facility data generation.
  • the map control unit 212 uses various data to control the generation of map data. For example, the map control unit 212 controls the generation of high-precision 3D map data, controls the generation of feature data included in the high-precision 3D map data, and further controls the generation of building facility data, which will be described later. You can control it.
  • the transmission/reception unit 213 transmits/receives data to/from an external device via the network communication interface 220 .
  • the transmitting/receiving unit 213 is configured as a receiving unit that receives data, signals, etc. from the vehicle 10 and the satellites 30, 40, and is also configured as a transmitting unit that transmits data, signals, etc. to the vehicle 10 and the satellites 30, 40. be done.
  • the transmitting/receiving unit 213 receives various data measured by MMS and various data sensed by various sensors mounted on the vehicle 10 from the vehicle 10, and receives data including a predetermined position from the observation satellite 40. Receive satellite images.
  • the detection unit 214 may acquire a satellite image acquired by the observation satellite 40 and an image captured by a mobile measurement flying object (drone, airplane, etc.), or an image captured by the camera 104 mounted on the vehicle 10.
  • An image or point cloud data acquired by the laser scanner 103 may be acquired.
  • the detection unit 214 recognizes buildings, facilities, and structures from the acquired image or point cloud data, for example, by processing such as object recognition, and acquires building facility information about the buildings, facilities, and structures.
  • the building/facility information includes all kinds of information regarding buildings, facilities, and structures, such as the types, shapes, and sizes of the buildings, facilities, and structures.
  • the GNSS receiver 101 mounted on the vehicle 10 The positional information of the vehicle 10 is acquired by. Therefore, it is possible to grasp the position information of the buildings, facilities, and structures included in the image and point cloud data.
  • position information of buildings, facilities, and structures included in the images can be grasped from the capturing positions and image data. Accordingly, with respect to buildings, facilities, and structures recognized by the detection unit 214, the building facility information regarding the buildings, facilities, and structures also includes the position information of the buildings, facilities, and structures.
  • the acquisition unit 215 acquires road information related to roads forming the map data. For example, the acquisition unit 215 acquires road information about roads from dynamic maps, HD maps, feature data, and the like stored in the storage device 230 .
  • the road information about the road is the feature data of the roadway link and the lane link shown in FIG. Contains all information about roads.
  • the identifying unit 216 identifies a predetermined building, facility, and A predetermined road corresponding to the structure is identified. For example, the identifying unit 216 identifies the closest predetermined building, facility, structure, and predetermined road based on the building facility location information and the road location information.
  • FIGS. 8A and 8B are an example of recognizing buildings, facilities and structures from images captured by a camera according to an embodiment of the present invention and identifying the buildings, facilities and structures and roads. It is a figure which shows.
  • the first building is recognized from the image by the detection unit 214, and the lane links on the road facing the first building are acquired.
  • the lane link is acquired by the acquisition unit 215 from the feature data forming the HD map stored in the storage device 230 .
  • the first building and the lane link represented by the lane link ID "XXXXX01234567891002" are specified.
  • the generating unit 217 includes relative position information between the predetermined road and predetermined buildings, facilities and structures so as to associate the predetermined road identified by the identifying unit 216 with the predetermined buildings, facilities and structures. Generate building facility data.
  • the relative position information is calculated based on the position information of the predetermined road acquired by the acquisition unit 215 and the position information of the predetermined building, facility, and structure acquired by the detection unit 214. .
  • FIG. 9 is a diagram showing an example of associating identified roads with buildings, facilities and structures according to one embodiment of the present invention.
  • the location information of Building 1 which is a predetermined building, facility, and structure, is the difference (X1, Y1, Z1).
  • ID "XXXXX01234567891002X1Y1Z1" is generated by adding the difference (X1, Y1, Z1) to the lane link ID "XXXXX01234567891002" as relative position information.
  • the building facility data of the first building may include all kinds of information related to the first building, such as the type, shape and size of the building of the first building, as data associated with the ID.
  • the building facility data ID "XXXXX01234567891002X1Y1Z1" is newly generated for the building facility data of the first building, and the building facility data is generated by associating the building facility information of the first building with the ID. It may be handled as extended data for the lane link ID "XXXXX01234567891002".
  • the building facility data may be included in the feature data of the lane link ID by associating with the lane link represented by the lane link ID "XXXX01234567891002".
  • the detection unit 214 recognizes the first building, which is a building, facility, and structure, from the image captured by the camera, and Get building facility information.
  • the acquisition unit 215 acquires lane links on the road facing the first building from the feature data constituting the HD map stored in the storage device 230 .
  • the identifying unit 216 identifies the first building and the lane link based on the location information included in the building facility information acquired by the detecting unit 214 and the lane link location information acquired by the acquiring unit 215 .
  • the generation unit 217 generates building facility data by adding relative position information (X1, Y1, Z1) between the identified lane link and the first building to the ID of the lane link.
  • the relative position information is converted to (x1, y1, z1) by reducing the amount of information (number of digits) in consideration of the predetermined resolution, etc., within a range where the impact is small as data that is
  • the data may be "XXXXXX01234567891002x1y1z1".
  • road information is updated according to these situations. That is, the dynamic map, HD map, feature data, etc. stored in the storage device 230 are also updated. Specifically, with respect to the feature data that constitutes the HD map, the vehicle 10 performs three-dimensional measurement of surrounding features by means of the mounted MMS while moving, and based on the newly measured results, Data can be updated.
  • the building/facility data generated by the information processing apparatus 20 is generated in a manner linked to the ID of the feature data, when the feature data is updated, Even if there are no changes in buildings, facilities and structures, they need to be updated accordingly.
  • the generating unit 217 does not generate new building facility data, but retains version information of the feature data when generating the building facility data.
  • the building/facility data may be converted according to (for example, the difference in the IDs of the feature data).
  • FIG. 10 is a diagram showing an example of updated lane links according to one embodiment of the present invention.
  • Feature data for the lane link ID "XXXXX01234567891002" shown in the upper diagram of FIG. 10 is generated under the version "ABC".
  • the building facility data of Building 1 is generated using the difference (X1, Y1, Z1) between the entrance/exit of Building 1 and the configuration point of the lane link represented by the lane link ID "XXXXX01234567891002" as relative position information. is generated to also include information for version "ABC”.
  • the ID "XXXXX01234567891002X1Y1Z1ABC" of the building facility data of the first building is generated.
  • the feature data for the lane link ID "XXXXX012345678901002" shown in the lower part of FIG. 10 is generated under the version "DEF".
  • the building facility data of the first building is generated using the difference (X2, Y2, Z2) between the entrance of the first building and the configuration point of the lane link represented by the lane link ID "XXXXX012345678901002" as relative position information. is generated to additionally include information for version "DEF”.
  • the ID "XXXXX012345678901002X2Y2Z2DEF" of the building facility data of the first building is generated.
  • the version information is added, and the IDs of the building facility data of Building 1 are "XXXXX01234567891002X1Y1Z1ABC" and "XXXXX012345678901002X2Y2Z2DEF".
  • the building facility data may be generated each time, but if the difference between the versions is grasped when updating the feature data, the building facility data may be converted according to the difference. I do not care. As a result, even if dynamic maps, HD maps, feature data, etc. are updated, version information is managed, so building facility data can be updated easily and accurately.
  • buildings, facilities, and structures are associated with lane links to generate building facility data, but the present invention is not limited to this. It may be associated with the roadway link.
  • building facility data is generated to include relative position information between roadway links or lane links and buildings, facilities and structures.
  • vehicle use lane links and roadway links to go to their destinations, but lane links and roadway links and buildings, facilities and structures is associated, it is possible to reach the final destination of buildings, facilities and structures with high precision.
  • the building facility data may be, for example, shoulder edges, tunnel boundaries, road It may be associated with feature data such as signs.
  • the identifying unit 216 identifies the first building and the lane link on the road facing the first building, that is, the lane link closest to the first building.
  • the vehicle can reach the position on the road closest to the destination, and then Building facility data can be used to accurately reach the destination.
  • the identifying unit 216 is not limited to identifying the closest building, facility, structure, and lane link.
  • Object data (roadway link or lane link) may be specified.
  • the generation unit 217 may generate building facility data so as to add relative position information between the identified building, facility, structure, and feature data to the ID of the feature data. do not have.
  • the feature data (roadway link or lane link) may be specified under the condition that the road has a predetermined width (width).
  • the vehicle can travel on a wide road and reach the destination.
  • the first building is recognized as a building, facility, and structure, but it is not limited to this, and for example, a store located in the first building may be recognized.
  • the detection unit 214 recognizes buildings, facilities, and structures from the acquired image or point cloud data, for example, by processing such as object recognition.
  • the lane link is specified, and the generation unit 217 generates building facility data of the store.
  • FIG. 11 is a diagram showing another example of associating identified buildings, facilities and structures with roads according to an embodiment of the present invention. As shown in FIG. 11, the difference (X3, Y3, Z3) between the store and the configuration point of the lane link is used as relative position information, and the relative position information is added to the lane link ID. An ID for the data is generated.
  • buildings, facilities and structures are not limited to buildings and stores, but include, for example, facilities such as aquariums and museums, factories, shopping malls, detached houses, collective housing such as condominiums, parks, and parking lots. , vacant lots, dams, embankments, bridges, etc.
  • facilities such as aquariums and museums, factories, shopping malls, detached houses, collective housing such as condominiums, parks, and parking lots. , vacant lots, dams, embankments, bridges, etc.
  • the relative position with respect to the feature data can be grasped, it can be applied not only to real estate, but also to facilities, pipes, etc. provided around or inside buildings, facilities, and structures, for example. Once installed, it is difficult for the location information of large facilities and pipes to be changed frequently. Applications other than route guidance in support systems and automated driving systems can also be expected.
  • the location information of the entrance of the first building is used as the location information of the first building. Therefore, the relative position information between the first building and the lane link is the difference (X1, Y1, Z1) between the entrance/exit of the first building and the configuration point of the roadway link represented by the lane link ID "XXXXX01234567891002". As for the building facility data of Building 1, "XXXXX01234567891002X1Y1Z1" is generated by adding the relative position to the lane link ID.
  • the route installed in the driving support system and the automatic driving system In guidance and automatic driving, it is possible to reach the entrance/exit of the first building, which can be a destination, with high precision.
  • the location information of buildings, facilities and structures is not limited to acquiring the location information of the entrances and exits of the buildings, facilities and structures. You can also get location information.
  • the generation unit 217 can generate building facility data including relative position information between the predetermined position and the lane link for the building, facility, and structure.
  • the entrance/exit of a building, facility, or structure cannot be detected by processing such as object recognition from the image or point cloud data acquired by the detection unit 214, the center of the building, facility, or structure facing the road It is sufficient to acquire the position and the like as position information of buildings, facilities, and structures.
  • the detection unit 214 acquires the satellite image or aerial image shown in FIG. , but not limited to these.
  • the detection unit 214 detects an image captured by the camera 104 mounted on the vehicle 10, an image captured by a mobile measurement aircraft (drones, airplanes, etc.), an image captured by a camera installed in the city, and others.
  • Image data such as an image captured by a camera installed in a building or facility may be acquired, and the building, facility, and structure may be recognized from the image data.
  • the image data is not limited to one, and a plurality of images (images of different types, different distances, angles, etc.) may be combined to recognize buildings, facilities and structures. .
  • the detection unit 214 acquires image data for recognizing buildings, facilities, and structures, but is not limited to this. Acquired point cloud data may be acquired. The detection unit 214 may recognize buildings, facilities, and structures from the point cloud data, detect entrances and the like of the buildings, facilities, and structures, and acquire building facility information.
  • the detection unit 214 preferably recognizes buildings, facilities, and structures from point cloud data rather than image data.
  • image data and point cloud data may be selected or combined.
  • FIG. 12 is a flow chart showing an example of processing related to building facility data generation according to an embodiment of the present invention.
  • the processing illustrated in FIG. 12 is processing executed by a processor included in the information processing device 20 .
  • step S102 the information processing device 20 executes building facility information acquisition processing regarding buildings, facilities, and structures.
  • the information processing device 20 acquires image data such as a satellite image, an aerial image, an image captured by the vehicle-mounted camera 104 , or point cloud data captured by the laser scanner 103 . Then, from the image data or the point cloud data, the building, facilities and structures are recognized by processing such as object recognition, and building facility information about the buildings, facilities and structures is acquired.
  • step S104 the information processing device 20 executes a process of acquiring road information related to roads forming the map data.
  • the information processing device 20 acquires lane links from HD map data (feature data) stored in the storage device 230 .
  • a lane link includes a lane link ID and all data related to the lane in association with the lane link ID.
  • location information of the lane link is also acquired.
  • step S106 the information processing device 20 determines the relationship between the predetermined roads corresponding to the predetermined buildings, facilities, and structures based on the building facility location information included in the building facility information and the road location information included in the road information. Execute specific processing. For example, the information processing device 20 identifies the building, facility, and structure and the lane link based on the configuration point of the lane link located at the shortest distance from the entrance/exit of the building, facility, and structure.
  • step S108 the information processing device 20 executes building facility data generation processing that includes relative position information between the specified road and the specified buildings, facilities, and structures.
  • the information processing device 20 adds the relative position information between the lane link and the building, facility, and structure to the specified lane link ID, and the ID of the building facility data of the building, facility, and structure is: Generate building facility data including building facility information.
  • building facility data including relative position information by associating information about buildings, facilities, and structures around the road with feature data (lane links) that make up the HD map.
  • feature data lane links
  • Information about buildings, facilities and structures around roads can be generated as map data.
  • each process performed by the information processing apparatus 20 according to one embodiment of the present invention described above can be regarded as an information processing method that provides a series of processing procedures.
  • This method is provided in the form of a program for causing a computer to execute a series of processing procedures.
  • This program is downloaded from a predetermined server, accessed via the Internet to a predetermined server where the program is stored, or is recorded in a computer-readable recording medium, and is installed in the computer. good too.
  • some or all of the functional blocks constituting the information processing apparatus 20 according to the embodiment of the present invention described above may be implemented as an LSI (Large-Scale Integration), which is an integrated circuit.
  • LSI Large-Scale Integration

Abstract

本発明に係る情報処理方法は、プロセッサが、建物、施設及び構造物に関する建物施設情報を取得すること(S102)、地図データを構成する道路に関する道路情報を取得すること(S104)、建物施設情報に含まれる建物施設位置情報と道路情報に含まれる道路位置情報とに基づいて、所定の建物、施設及び構造物に対応する所定の道路とを特定すること(S106)、特定された所定の道路と特定された所定の建物、施設及び構造物との相対位置情報を含む建物施設データを生成すること(S108)、を実行する。

Description

情報処理方法、プログラム及び情報処理装置
 本発明は、情報処理方法、プログラム及び情報処理装置に関する。
 近年、地図及びGPS(Global Positioning System)等を用いたカーナビゲーションシステム、運転支援システム及び自動運転システムに関する技術が発展している。
 このようなシステムにおいて用いられる地図データには、道路及び道路周辺に存在する地物(例えば、車線、標識及び信号機等)毎に地物情報が含まれており、この地物情報は経路案内及び自動走行等、種々の場面で利用されている。
 さらに、特許文献1では、地物データ構造に、当該地物を検出する際に用いられる外界センサの種類に関する情報と、当該地物を検出する際の環境に関する環境情報とを含み、より高精度に、地物を検出し、地図データを生成及び更新する技術が開示されている。
特開2020-73893号公報
 しかし、特許文献1に開示されている技術では、地物を高精度に検出して当該地物に関する地物情報を更新しようとするものの、例えば、経路案内及び自動走行において目的地となり得る建物、施設及び構造物に関する情報については、提案されていない。
 そこで、本発明は、道路の周辺における建物、施設及び構造物に関する情報を、地図データを構成する地物情報に関連付けることによって、利用範囲の拡大や利便性の向上を図る情報処理方法、プログラム及び情報処理装置を提供することを目的とする。
 本発明の一態様に係る情報処理方法は、プロセッサを含む情報処理装置が実行する情報処理方法であって、プロセッサが、建物、施設及び構造物に関する建物施設情報を取得すること、地図データを構成する道路に関する道路情報を取得すること、建物施設情報に含まれる建物施設位置情報と道路情報に含まれる道路位置情報とに基づいて、所定の建物、施設及び構造物に対応する所定の道路とを特定すること、特定された所定の道路と特定された所定の建物、施設及び構造物との相対位置情報を含む建物施設データを生成すること、を実行する。
 本発明によれば、道路の周辺における建物、施設及び構造物に関する情報を、地図データを構成する地物情報に関連付けることによって、利用範囲の拡大や利便性の向上を図る情報処理方法、プログラム及び情報処理装置を提供することができる。
本発明の一実施形態に係る情報処理システムの構成の一例を示す図である。 本発明の一実施形態に係る地図データの階層構造の一例を示す図である。 本発明の一実施形態に係る車両の構成の一例を示す図である。 本発明の一実施形態に係る情報処理装置の構成の一例を示す図である。 本発明の一実施形態に係るデータベースの一例を示す図である。 本発明の一実施形態に係る地物コードの一例を示す図である。 本発明の一実施形態に係る車道リンク及び車線リンクの一例を示す図である。 本発明の一実施形態に係るカメラによって撮像された画像から建物、施設及び構造物を認識し、当該建物、施設及び構造物と道路とを特定する一例を示す図である。 本発明の一実施形態に係る特定された建物、施設及び構造物と道路とを関連付ける一例を示す図である。 本発明の一実施形態に係る車線リンクが更新された一例を示す図である。 本発明の一実施形態に係る特定された建物、施設及び構造物と道路とを関連付ける他の一例を示す図である。 本発明の一実施形態に係る建物施設データ生成に関する処理の一例を示すフローチャートである。
 [実施形態]
 添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
 <システムの概要>
 図1は、本発明の一実施形態に係る情報処理システム1の構成の一例を示す図である。図1に示す情報処理システム1は、MMS(Mobile Mapping System)計測を搭載する計測車両(以下、「車両」とも称す。)10と、情報処理装置20と、GNSS(Global Navigation Satellite System)において利用される測位衛星30と、衛星画像を取得可能な観測衛星40とを含み、これらはネットワークNを介して相互にデータの送受信をすることが可能である。また、車両10や情報処理装置20の数は1つ以上あってもよい。
 車両10は、MMSによる3次元計測を行う車両であり、移動しながら、周辺の地形について3次元計測を実行する。また、車両10は、GNSSの測位衛星30から信号を受信し、自車両の位置情報を検出可能である。位置情報は、緯度、経度、高度の3次元位置情報、又は緯度、経度の2次元位置情報を含む。また、車両10は、各種センサを搭載し、各種センサにより検出されるデータを取得する。各種センサには、車載カメラ、車速センサ、加速度センサなどが含まれる。
 測位衛星30は、位置情報の計測に必要な信号を送信する衛星である。観測衛星40は、例えばSAR(Synthetic Aperture Radar)センサ等を用いて地球を観測し、撮影することで衛星画像を取得する。
 情報処理装置20は、例えばサーバであり、車両10から、MMSにより計測されたデータや、各種センサにより検知されたデータ等を取得する。また、情報処理装置20は、各衛星30、40から信号や画像を取得する。情報処理装置20は、車両10や各衛星30、40から取得したデータ等を用いて、地図データを生成する。なお、情報処理装置20は、複数の情報処理装置から構成されてもよい。
 <地図データの概要>
 ここで、本実施形態で用いられる地図データの概要について説明する。本実施形態で用いる地図データは、例えば、自動運転等に用いられる高精度な3次元地図のデータである。具体例としては、この地図データは、周辺車両の情報や交通情報といった、より動的な情報が付加されたリアルタイムに提供されるダイナミックマップと呼ばれる地図のデータである。本実施形態で用いられる地図データは、例えば4つの階層に分類される。
 図2は、本発明の一実施形態に係る地図データの階層構造の一例を示す図である。図2に示す例では、地図データは、静的情報SI1、準静的情報SI2、準動的情報MI1、動的情報MI2に分類される。
 静的情報SI1は、3次元の高精度な基盤的地図データ(高精度3次元地図データ)であって、路面情報、車線情報、3次元構造物等を含み、地物を示す3次元位置座標や線形ベクトルデータから構成される。準静的情報SI2、準動的情報MI1及び動的情報MI2は、時々刻々と変化する動的データであって、位置情報を基に静的情報に重畳されるデータである。
 準静的情報SI2は、交通規制情報、道路工事情報、広域気象情報などを含む。準動的情報MI1は、事故情報、渋滞情報、狭域気象情報などを含む。動的情報MI2は、ITS(Intelligent Transport System)情報を含み、周辺車両、歩行者、信号情報などを含む。
 ダイナミックマップの実現には、静的情報SI1に対応する高精度3次元地図データの構築が重要になる。高精度3次元地図データの構築は、次の4つの工程により行われる。
 (1.測位工程)
 車両10は、複数の測位衛星30からの信号を受けて安定した位置情報を取得し、位置補正技術を用いて自己位置情報を割り出す。また、車両10は、測位衛星30を利用することで、cmクラスでの位置情報の測位が可能となる。
 (2.計測工程)
 車両10は、高精度な3次元データを生成するために、MMSに含まれるGPS(Global Positioning System)、カメラ、レーザスキャナ、IMU(Inertial Measurement Unit)などを搭載した車両である。車両10は、移動しながら周辺の地形や地物等を計測する。情報処理装置20は、MMSにより取得された画像と3次元の点群データから、建物・道路の形状・標識・ガードレール・路面文字・マンホール等の道路周辺の3次元位置情報を、高精度で効率的に取得する。
 (3.図化工程)
 情報処理装置20は、MMSにより生成された高精度な3次元データから、基盤となる地図をベクトルデータとして抽出する。情報処理装置20は、路肩縁、区画線、停止線、横断歩道などの実在地物、車線中心線を表現する車線リンクなどの仮想地物を検出し、地物データを生成し、これらをベクトル化する。情報処理装置20は、点群データからの自動図化技術の評価を行う。
 (4.統合工程)
 情報処理装置20は、図化工程で整備された地物データの関連付け(構造化処理)、マップとして利用しやすいフォーマットへの変換を行い、高精度3次元地図データを生成する。なお、情報処理装置20は、観測衛星40から取得した衛星画像を、車両10の位置補正又は地物検出等に利用してもよい。
 以上の工程により、高精度3次元地図データ(以下、「HD(High Definition)マップ」とも称する。)が生成される。HDマップは自動運転等で利用されるため、自動運転の精度向上等に寄与するためのHDマップを生成することが期待されている。以下、本実施形態に係る、利用側の処理の精度向上等に寄与するHDマップを生成するのに用いられる車両10や情報処理装置20等について説明する。
 <車両の構成>
 図3は、本発明の一実施形態に係る車両10の構成の一例を示す図である。図1に示す例では、車両10は、MMSを用いて計測地域を走行し、走行した道路周辺の地物の3次元の座標値を計測する。この3次元座標値を計測するため、車両10は、GNSS受信機101と、IMU102と、レーザスキャナ103と、カメラ104とを備える。例えば、これらの機器は、車両10の天部に設けられた天板100に取り付けられる。
 また、車両10は、車輪に走行距離計105が取り付けられ、車載器としてプロセッサ106と、各種センサ107と、通信装置108とを備える。
 GNSS受信機101は、GNSSの測位衛星30から測位信号を受信するアンテナを備える。GNSS受信機101は、アンテナによって受信した測位信号に基づいて測位衛星30との疑似距離、測位信号を搬送した搬送波の位相および三次元の座標値を算出する。
 IMU102は、3軸方向の角速度を計測するジャイロセンサと、加速度を計測する加速度センサを備える。IMU102は、これらのセンサによって自車両の姿勢データを取得する。
 レーザスキャナ103は、車両10の幅方向において、放射角度を変更させながらレーザ光を放射し、放射先に位置する地物に反射したレーザ光を受光する。レーザスキャナ103は、レーザ光を放射してから受光するまでの時刻を計測し、地物との距離を算出する。
 カメラ104は、車両10の外部、例えば前方等を撮像する。また、走行距離計105は、車両10の走行距離を計測する。
 プロセッサ106は、車両10の運転制御等を行い、又は、外部の装置とのデータの送受信を制御する。各種センサ107は、車載カメラ、車速センサ、加速度センサを含む。通信装置108は、外部の装置とデータの送受信を行う。例えば、通信装置108は、MMSにより取得されたデータを情報処理装置20に送信する。
 <情報処理装置の構成>
 図4は、本発明の一実施形態に係る情報処理装置20の構成の一例を示す図である。情報処理装置20は、1つ又は複数の処理装置(CPU:Central Processing Unit)210、1つ又は複数のネットワーク通信インタフェース220、記憶装置230、ユーザインタフェース250及びこれらの構成要素を相互接続するための1つ又は複数の通信バス270を含む。なお、ユーザインタフェース250は必ずしも必要ではない。
 記憶装置230は、例えば、DRAM、SRAM、他のランダムアクセス固体記憶装置などの高速ランダムアクセスメモリであり、また、1つ又は複数の磁気ディスク記憶装置、光ディスク記憶装置、フラッシュメモリデバイス、又は他の不揮発性固体記憶装置などの不揮発性メモリでもよく、また、コンピュータ読み取り可能な非一時的な記録媒体でもよい。
 また、記憶装置230の他の例として、CPU210から遠隔に設置される1つ又は複数の記憶装置でもよい。ある実施形態において、記憶装置230はCPU210により実行されるプログラム、モジュール及びデータ構造、又はそれらのサブセットを格納する。
 記憶装置230は、情報処理システム1により用いられるデータを記憶する。例えば、記憶装置230は、HDマップの生成に関するデータを記憶する。具体例としては、ダイナミックマップ、HDマップ、地物データなどが記憶装置230に記憶される。
 図5は、本発明の一実施形態に係るデータベースの一例を示す図である。図5に示す例では、記憶装置230はダイナミックマップデータを高精度地図データベースとして記憶する。上述したように、ダイナミックマップデータは、静的情報SI1と、準静的情報SI2と、準動的情報MI1と、動的情報MI2とを含み、それぞれの情報が関連付けられている。
 ダイナミックマップデータに含まれる静的情報SI1は、高精度3次元地図データを含み、高精度3次元地図データは、地物データを含む。この地物データは、アプリケーションがダイナミックマップを利用する際に基本となる情報であり、アプリケーションがダイナミックマップを利用する際の性能向上等に貢献ができる情報である。したがって、地物データにどんな情報を含めるかが重要となる。例えば、ダイナミックマップの利用先として自動運転システムがあるが、自動運転システムの性能向上に寄与するように、多数の情報の中から適切な情報が検出され、検出された情報が、本実施形態に係る地物データに含められる。
 このように、MMS計測を搭載する計測車両10等によって検出された地物に関して、地物毎にIDが付与されて地物データが生成され、当該地物データ等によってHDマップが構成されている。
 図6は、本発明の一実施形態に係る地物コードの一例を示す図である。例えば、車線リンク、車道リンク、路肩縁、道路標識、及び車両信号機等が地物として認識され、図6に示されるような地物種別毎の地物コードを含む地物データが生成される。地物データは、地物コードの他に、図化事業者No、図化事業者が付与するID、及びその他フィールド定義(接続ID、採番ID及び拠点ID等)によって構成される。
 ここで、地物データのうち、運転支援システム及び自動運転システムにおいて利用される車道リンク及び車線リンクについて詳しく説明する。
 車道リンク及び車線リンクは、路肩縁、区画線、停止線、横断歩道などの実在地物とは異なり、これらの実在地物に基づいて形成されることによって検出される仮想地物である。
 例えば、車線リンクは、車道の両サイドの白線である区画線間の中央をトレースすることで形成され、車線の中心線を表現する。さらに、車線リンクは、所定間隔で構成点を設けており、例えば、直線やカーブ等の車線の形状を表現することができる。所定間隔は、例えば、3~10mの範囲等で任意に設定されても構わないが、当該間隔が小さければ小さいほど、車線の形状を詳細に表現することができる。
 また、車線リンクの地物データとしては、車線リンクIDに紐付いて、始終点情報、構成点情報、車線リンク長、作成日、座標情報、車線No、接続No、車線属性(車線変更可否及び一方通行等)等が含まれていても構わない。
 図7は、本発明の一実施形態に係る車道リンク及び車線リンクの一例を示す図である。図7に示す例では、車道内の車線数は3、接続リンク数は7である。車道リンクの地物データは、図6に示した地物コード「11(車道リンク)」を含み、図化事業者No、図化事業者が付与するID、及びその他フィールド定義によって構成されても構わないし、さらに、総車線数や総接続数を含めるように構成されても構わない。
 ここでは、説明を容易にするために、簡易的に、車道リンクの地物データのIDを「XXXXX0123456789」に、総車線数Mや総接続数NNNを含めるように、例えば、「XXXXX0123456789MNNN・・・」と表すものとする。図7に示す例では、M=3、NNN=007である。
 車線リンクの地物データのIDは、図6に示した地物コード「01(車線リンク)」を含み、図化事業者No、図化事業者が付与するID、及びその他フィールド定義によって構成されても構わないし、さらに、上述した「XXXXX0123456789MNNN・・・」のうちのMの位置に車線Noを設定し、NNNの位置に接続Noを設定するようにしても構わない。すなわち、車道リンクIDを基準にして車線リンクIDが形成される。
 例えば、運転支援システム及び自動運転システムが、これらの車線リンクIDを用いる場合、現在走行中の車線リンクが2車線目(車線No=2)の3つ目の接続リンク(接続No=003)であるとすると、この車線リンクIDは「XXXXX01234567892003・・・」である。これによれば、同車線の次の車線リンクIDは、「XXXXX01234567892004・・・」であり、同接続リンクの右隣りの車線の車線リンクIDは、「XXXXX01234567893003・・・」である。
 運転支援システム及び自動運転システムにおいて、車両は、走行中の車線リンクIDを把握し、移動先の車線リンクIDを容易に把握することが可能であるため、毎時現在位置を用いて地図データとの突合処理等をする必要がなく、運転支援システム及び自動運転システムの制御負荷を軽減することができる。
 さらに、HDマップが利用され得る運転支援システム及び自動運転システムでは、道路の周辺における建物、施設及び構造物に関する建物施設情報が重要となる場合がある。建物、施設及び構造物に関する建物施設情報について、既存又は新規に生成されるHDマップを構成する地物データに関連付けて建物施設データを生成することにより、例えば、運転支援システム及び自動運転システムに搭載される経路案内及び自動走行において、利用者が所望する目的地まで正確に高精度に到達することが可能となる。
 以下に、建物施設データの生成について、詳しく説明する。
 図4に戻り、本実施形態に係る建物施設データを生成する処理を実行するCPU210について説明する。CPU210は、記憶装置230に記憶されるプログラムを実行することで、地図制御部212、送受信部213、検出部214、取得部215、特定部216、生成部217を構成する。
 CP210は、後述する各部の処理を制御し、建物施設データの生成に関する処理を実行する。
 地図制御部212は、各種データを用いて、地図データの生成を制御する。例えば、地図制御部212は、高精度3次元地図データの生成を制御し、高精度3次元地図データに含まれる地物データの生成を制御し、さらには、後述する建物施設データの生成についても制御しても構わない。
 送受信部213は、外部装置に対して、ネットワーク通信インタフェース220を介してデータの送受信を行う。例えば、送受信部213は、車両10や各衛星30、40からデータや信号等を受信する受信部として構成され、車両10や各衛星30、40にデータや信号等を送信する送信部としても構成される。具体例として、送受信部213は、車両10から、MMSにより計測された各種データや、車両10に搭載される各種センサ等にセンシングされた各種データを受信し、観測衛星40から、所定位置を含む衛星画像を受信する。
 検出部214は、観測衛星40によって取得された衛星画像及び移動計測飛行体(ドローン、飛行機等)によって撮像される画像を取得しても構わないし、車両10に搭載されるカメラ104によって撮像された画像、又はレーザスキャナ103によって取得された点群データを取得しても構わない。
 そして、検出部214は、取得した画像又は点群データから、例えば、物体認識等の処理によって建物、施設及び構造物を認識し、当該建物、施設及び構造物に関する建物施設情報を取得する。建物施設情報には、当該建物、施設及び構造物の種類、形状及び大きさ等、建物、施設及び構造物に関するあらゆる情報が含まれる。
 また、車両10に搭載されるカメラ104によって画像が撮像された際、及び車両10に搭載されるレーザスキャナ103によって点群データが取得された際には、車両10に搭載されるGNSS受信機101によって当該車両10の位置情報が取得される。このため、当該画像及び点群データに含まれる建物、施設及び構造物の位置情報を把握することができる。同様に、衛星画像及び移動計測飛行体によって撮像される画像においても、撮像位置及び画像データから、当該画像に含まれる建物、施設及び構造物の位置情報を把握することができる。これにより、検出部214によって認識される建物、施設及び構造物について、当該建物、施設及び構造物に関する建物施設情報には、当該建物、施設及び構造物の位置情報も含まれる。
 取得部215は、地図データを構成する道路に関する道路情報を取得する。例えば、取得部215は、記憶装置230に格納されているダイナミックマップ、HDマップ、地物データ等から、道路に関する道路情報を取得する。道路に関する道路情報とは、図7に示した車道リンクや車線リンクの地物データであって、当該地物データのID、道路の種類、形状、位置、幅、長さ、分岐及び接続等、道路に関するあらゆる情報が含まれている。
 特定部216は、検出部214によって取得された建物施設情報に含まれる建物施設位置情報と、取得部215によって取得された道路情報に含まれる道路位置情報とに基づいて、所定の建物、施設及び構造物に対応する所定の道路とを特定する。例えば、特定部216は、建物施設位置情報と道路位置情報とに基づいて、最も近くに位置する所定の建物、施設及び構造物と所定の道路とを特定する。
 図8(A)及び(B)は、本発明の一実施形態に係るカメラによって撮像された画像から建物、施設及び構造物を認識し、当該建物、施設及び構造物と道路とを特定する一例を示す図である。図8(A)及び(B)に示すように、検出部214によって、画像から第1ビルが認識されており、さらには、第1ビルに面する道路における車線リンクが取得されている。当該車線リンクは、記憶装置230に記憶されているHDマップを構成する地物データから、取得部215によって取得される。ここでは、第1ビルと、車線リンクID「XXXXX01234567891002」で表される車線リンクとが特定されているとする。
 生成部217は、特定部216によって特定された所定の道路と所定の建物、施設及び構造物とを関連付けるように、当該所定の道路と所定の建物、施設及び構造物との相対位置情報を含む建物施設データを生成する。ここで、相対位置情報は、取得部215によって取得された当該所定の道路の位置情報と、検出部214によって取得された当該所定の建物、施設及び構造物の位置情報とに基づいて算出される。
 図9は、本発明の一実施形態に係る特定された道路と建物、施設及び構造物とを関連付ける一例を示す図である。図9に示すように、所定の建物、施設及び構造物である第1ビルの位置情報は、第1ビルの出入口と、車線リンクID「XXXXX01234567891002」で表される車線リンクとの差分(X1,Y1,Z1)で表現される。そして、第1ビルの建物施設データは、車線リンクID「XXXXX01234567891002」に当該差分(X1,Y1,Z1)を相対位置情報として付加するようにして、ID「XXXXX01234567891002X1Y1Z1」が生成される。さらに、第1ビルの建物施設データには、当該IDに紐付くデータとして、第1ビルの建物の種類、形状及び大きさ等、第1ビルに関するあらゆる情報が含まれても構わない。
 また、ここでは、新たに第1ビルの建物施設データのID「XXXXX01234567891002X1Y1Z1」を生成し、当該第1ビルの建物施設情報を当該IDに紐づけるようにして建物施設データを生成したが、これらを車線リンクID「XXXXX01234567891002」の拡張データとして取り扱うようにしても構わない。例えば、車線リンクID「XXXXX01234567891002」で表される車線リンクに紐付けて、当該車線リンクIDの地物データに建物施設データを含めるようにしても構わない。当該車線リンクの周辺に位置する建物、施設及び構造物等が、当該車線リンクIDに直接紐付いていることにより、その関連性を把握することができ、また、データ整理の観点においても利便性が良い場合がある。
 以上により、本発明の一実施形態に係る情報処理装置20によれば、検出部214がカメラによって撮像された画像から建物、施設及び構造物である第1ビルを認識し、当該第1ビルに関する建物施設情報を取得する。取得部215が記憶装置230に記憶されているHDマップを構成する地物データから、第1ビルに面する道路における車線リンクを取得する。特定部216は、検出部214によって取得された建物施設情報に含まれる位置情報と、取得部215によって取得された車線リンクの位置情報とに基づいて、第1ビルと車線リンクとを特定する。そして、生成部217は、特定された車線リンクと第1ビルとの相対位置情報(X1,Y1,Z1)を、当該車線リンクのIDに付加することにより、建物施設データを生成する。これにより、地図データを構成する道路に関する道路情報と建物、施設及び構造物に関する建物施設情報とを関連付けることができ、位置情報を用いて建物施設データを地図データに関連付けることができる。すなわち、HDマップ等を構成する地物データについて、当該地物データの対象となる地物(例えば、車線、標識及び信号機等)以外の任意の建物、施設及び構造物等に対して、地物データと関連付けて位置情報を付与することができる。このように、道路の周辺における建物、施設及び構造物に関する情報を、地図データを構成する地物情報に関連付けることによって、利用範囲の拡大や利便性の向上を図ることができる。
 なお、相対位置(X1,Y1,Z1)に関する情報量が大きく、メモリを圧迫し、算出処理やデータ通信等の遅延が発生するおそれがある場合には、運転支援システム及び自動運転システムに利用されるデータとして影響が小さい範囲で、例えば、所定の分解能を考慮して情報量(桁数)を少なくする等によって相対位置情報を(x1,y1,z1)と変換し、第1ビルの建物施設データを「XXXXX01234567891002x1y1z1」としても構わない。
 また、道路は、新規に建設されたり、封鎖されたり、延長、増幅又は減幅されたりするため、道路情報もこれらの状況に応じて更新される。すなわち、記憶装置230に記憶されているダイナミックマップ、HDマップ、地物データなども更新されることなる。具体的には、HDマップを構成する地物データについては、車両10は、移動しながら、搭載されるMMSによって周辺の地物について3次元計測を実行して、新たに計測した結果に基づいてデータを更新することができる。
 ここで、本発明の一実施形態に係る情報処理装置20によって生成された建物施設データは、地物データのIDに紐付く態様で生成されているため、地物データに更新があった場合、建物、施設及び構造物に変更がない場合であっても、それに伴って更新する必要がある。この時、生成部217は、新たに建物施設データを生成するのではなく、建物施設データを生成する際に、地物データのバージョン情報を保有しておき、地物データのバージョンアップによる差異点(例えば地物データのIDの差異点)に応じて、建物施設データを変換するようにしても構わない。
 図10は、本発明の一実施形態に係る車線リンクが更新された一例を示す図である。図10のうち上図に示される車線リンクID「XXXXX01234567891002」はバージョン「ABC」の下で、地物データが生成されている。例えば、第1ビルの建物施設データは、第1ビルの出入口と車線リンクID「XXXXX01234567891002」で表される車線リンクの構成点との差分(X1,Y1,Z1)を相対位置情報として生成されるが、さらに、バージョン「ABC」の情報を含むように生成される。ここでは、第1ビルの建物施設データのID「XXXXX01234567891002X1Y1Z1ABC」が生成される。
 図10のうち下図に示される車線リンクID「XXXXX012345678901002」はバージョン「DEF」の下で、地物データが生成されている。例えば、第1ビルの建物施設データは、第1ビルの出入口と車線リンクID「XXXXX012345678901002」で表される車線リンクの構成点との差分(X2,Y2,Z2)を相対位置情報として生成されるが、さらに、バージョン「DEF」の情報を含むように生成される。ここでは、第1ビルの建物施設データのID「XXXXX012345678901002X2Y2Z2DEF」が生成される。
 このように、地物データが更新されると、バージョン情報を付加して、第1ビルの建物施設データのID「XXXXX01234567891002X1Y1Z1ABC」と「XXXXX012345678901002X2Y2Z2DEF」とで表されることになる。その都度、それぞれ建物施設データを生成しても構わないが、地物データを更新する際にバージョン間における差分を把握していれば、当該差分に応じて建物施設データを変換するようにしても構わない。これにより、ダイナミックマップ、HDマップ、地物データ等の更新があったとしても、バージョン情報を管理しているため、容易に且つ正確に建物施設データを更新することができる。
 本実施形態では、建物、施設及び構造物と車線リンクとを関連付けて、建物施設データを生成したが、これに限定されるものではなく、例えば、そもそも複数の車線が存在しない道路であれば、車道リンクと関連付けても構わない。
 このように、車線リンクや車道リンクと関連付けることにより、建物施設データは、車道リンク又は車線リンクと建物、施設及び構造物との相対位置情報を含むように生成される。例えば、運転支援システム及び自動運転システムに搭載される経路案内及び自動走行において、車両は、車線リンクや車道リンクを用いて目的地に向かうが、車線リンクや車道リンクと建物、施設及び構造物とが関連付けられていれば、最終目的地である建物、施設及び構造物まで正確に高精度に到達することが可能となる。
 また、車線リンクや車道リンクが存在しない位置又は状況、存在していたとしてもその他の地物データと関連付けた方が良い場合には、建物施設データは、例えば、路肩縁、トンネル境界線、道路標識等の地物データと関連付けても構わない。
 本実施形態では、特定部216は、第1ビルと当該第1ビルに面する道路における車線リンク、すなわち、第1ビルと最も近くに位置する車線リンクとを特定した。これにより、例えば、運転支援システム及び自動運転システムに搭載される経路案内及び自動走行においてHDマップが利用される際、車両は目的地に最も近い道路上の位置まで到達することができ、その後、建物施設データを用いて、当該目的地まで正確に到達することができる。
 なお、特定部216は、最も近くに位置する建物、施設及び構造物と車線リンクとを特定することに限定されるものではなく、例えば、建物、施設及び構造物と所定範囲内に位置する地物データ(車道リンクや車線リンク)とを特定しても構わない。この場合、生成部217は、当該特定された建物、施設及び構造物と地物データとの相対位置情報を、当該地物データのIDに付加するように、建物施設データを生成しても構わない。
 また、所定の広さ(幅)を有する道路という条件で、地物データ(車道リンクや車線リンク)を特定しても構わない。これにより、例えば、運転支援システム及び自動運転システムに搭載される経路案内及び自動走行において、車両は、広い道路を走行して目的地まで到達することができる。
 本実施形態は、建物、施設及び構造物として第1ビルを認識したが、これに限定されるものではなく、例えば、当該第1ビルに入居している店舗を認識しても構わない。検出部214は、取得した画像又は点群データから、例えば、物体認識等の処理によって建物、施設及び構造物を認識するが、この際に、店舗が認識できれば、特定部216は、当該店舗と車線リンクとを特定し、生成部217は、当該店舗の建物施設データを生成する。
 図11は、本発明の一実施形態に係る特定された建物、施設及び構造物と道路とを関連付ける他の一例を示す図である。図11に示すように、店舗と車線リンクの構成点との差分(X3,Y3,Z3)を相対位置情報として、当該車線リンクIDに当該相対位置情報を付加するようにして、店舗の建物施設データのIDが生成される。
 さらに、建物、施設及び構造物としては、ビルや店舗等に限定されるものではなく、例えば、水族館や美術館等の施設、工場、ショッピングモール、戸建て住宅、マンション等の集合住宅、公園、駐車場、空き地、ダム、堤防、橋等であっても構わない。さらには、地物データとの相対位置が把握できれば、不動産のみならず、例えば、建物、施設及び構造物の周辺又は内部等に備えられる設備や配管等についても適用することが可能である。大型な設備や配管等は、一度、設置されれば頻繁に位置情報が変更され難く、このような任意の物に対しても、地物データと関連付けて位置情報を付与することができ、運転支援システム及び自動運転システムにおける経路案内等以外での利用も期待できる。
 本実施形態では、第1ビルの位置情報として、当該第1ビルの出入口の位置情報を用いていた。このため、第1ビルと車線リンクとの相対位置情報は、第1ビルの出入口と車線リンクID「XXXXX01234567891002」で表される車道リンクの構成点との差分(X1,Y1,Z1)となり、第1ビルの建物施設データは、車線リンクIDに相対位置を付加するようにして、「XXXXX01234567891002X1Y1Z1」が生成されていた。
 このように、第1ビルと車線リンクとを関連付ける際に、第1ビルの出入口と車線リンクの構成点との相対位置情報を含むようにしているため、運転支援システム及び自動運転システムに搭載される経路案内及び自動走行において、目的地となり得る第1ビルについて、その出入口まで正確に高精度に到達することが可能となる。
 なお、建物、施設及び構造物の位置情報として、当該建物、施設及び構造物の出入口の位置情報を取得することに限定されるものではなく、当該建物、施設及び構造物のうちの所定位置の位置情報を取得しても構わない。
 検出部214は、取得した画像や点群データから、物体認識等の処理によって建物、施設及び構造物を認識し、当該建物、施設及び構造物のうちの所定位置の位置情報を取得すれば、生成部217は、当該建物、施設及び構造物について、当該所定位置と車線リンクとの相対位置情報を含む建物施設データを生成することができる。
 例えば、検出部214が取得した画像や点群データから、物体認識等の処理によって建物、施設及び構造物の出入口を検出できない場合には、建物、施設及び構造物の道路に面する側の中央位置等を建物、施設及び構造物の位置情報として取得すればよい。
 これにより、例えば、運転支援システム及び自動運転システムに搭載される経路案内及び自動走行において、最終目的地である建物、施設及び構造物まで到達できないということを回避し、確実に当該建物、施設及び構造物を認識することができる。
 本実施形態では、検出部214は、図8に示した衛星画像や航空画像を取得し、当該画像データから物体認識等の処理によって建物、施設及び構造物を認識していたが、画像データは、これらに限定されるものではない。例えば、検出部214は、車両10に搭載されるカメラ104によって撮像された画像、移動計測飛行体(ドローン、飛行機等)によって撮像された画像、街中に設置されたカメラによって撮像された画像、その他建物や施設に設置されたカメラによって撮像された画像等の画像データを取得し、当該画像データから建物、施設及び構造物を認識しても構わない。また、画像データは1つに限定されるものではなく、複数の画像(異なる種類、異なる距離、角度で撮像された画像等)を組み合わせて、建物、施設及び構造物を認識しても構わない。
 検出部214は、建物、施設及び構造物を認識するために画像データを取得していたが、これに限定されるものではなく、例えば、車両10に搭載されるMMSに含まれるレーザスキャナ103によって取得された点群データを取得しても構わない。検出部214は、当該点群データから建物、施設及び構造物を認識するとともに、当該建物、施設及び構造物の出入口等を検出し、建物施設情報を取得しても構わない。
 衛星画像や航空画像等の画像データでは、日照や影、天候、撮影位置等により建物、施設及び構造物を認識し難い状況も考えられ、また、車両10によって取得される点群データでは、建物、施設及び構造物の出入口を容易に認識できる場合もある。この場合、検出部214は、画像データよりも点群データから建物、施設及び構造物を認識する方が好ましく、さらには、より正確に建物、施設及び構造物を認識するために、状況に応じて、画像データ及び点群データを選択したり、組み合わせたりしても構わない。
 <動作>
 次に、情報処理システム1の建物施設データ生成に関する各処理について説明する。図12は、本発明の一実施形態に係る建物施設データ生成に関する処理の一例を示すフローチャートである。図12に示す処理は、情報処理装置20に含まれるプロセッサによって実行される処理である。
 ステップS102において、情報処理装置20は、建物、施設及び構造物に関する建物施設情報の取得処理を実行する。例えば、情報処理装置20は、衛星画像、航空画像、車載カメラ104による画像等の画像データ、又はレーザスキャナ103による点群データを取得する。そして、当該画像データ又は点群データから、物体認識等の処理によって建物、施設及び構造物を認識し、当該建物、施設及び構造物に関する建物施設情報を取得する。
 ステップS104において、情報処理装置20は、地図データを構成する道路に関する道路情報の取得処理を実行する。例えば、情報処理装置20は、記憶装置230に格納されているHDマップデータ(地物データ)から車線リンクを取得する。車線リンクには、車線リンクIDと、当該車線リンクIDに紐付いて当該車線に関するあらゆるデータが含まれており、ここでは、車線リンクの位置情報も取得される。
 ステップS106において、情報処理装置20は、建物施設情報に含まれる建物施設位置情報と道路情報に含まれる道路位置情報とに基づいて、所定の建物、施設及び構造物に対応する所定の道路との特定処理を実行する。例えば、情報処理装置20は、建物、施設及び構造物の出入口と最短距離に位置する車線リンクの構成点に基づいて、当該建物、施設及び構造物と車線リンクとを特定する。
 ステップS108において、情報処理装置20は、特定された所定の道路と特定された所定の建物、施設及び構造物との相対位置情報を含む建物施設データの生成処理を実行する。例えば、情報処理装置20は、特定された車線リンクIDに、当該車線リンクと建物、施設及び構造物との相対位置情報を付加し、当該建物、施設及び構造物の建物施設データのIDとして、建物施設情報を含む建物施設データを生成する。
 これにより、道路の周辺における建物、施設及び構造物に関する情報を、HDマップを構成する地物データ(車線リンク)に関連付けて、相対位置情報を含む建物施設データを生成することができ、すなわち、道路の周辺における建物、施設及び構造物に関する情報を地図データとして生成することができる。
 さらに、上述した本発明の一実施形態に係る情報処理装置20が行うそれぞれの処理は、一連の処理手順を与える情報処理方法として捉えることができる。この方法は、一連の処理手順をコンピュータに実行させるためのプログラムの形式で提供される。このプログラムは、所定のサーバからダウンロードする形態で、プログラムが格納された所定のサーバにインターネット経由でアクセスする形態で、もしくはコンピュータで読み取り可能な記録媒体に記録された形態で、コンピュータに導入されてもよい。また、上述した本発明の一実施形態に係る情報処理装置20を構成する一部又は全部の機能ブロックは、集積回路であるLSI(Large-Scale Integration)等として実現されてもよい。
 以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
1…情報処理システム、10…計測車両、20…情報処理装置、30…測位衛星、40…観測衛星、100…天板、101…GNSS受信機、102…IMU、103…レーザスキャナ、104…カメラ、105…走行距離計、106…プロセッサ、107…各種センサ、108…通信装置、210…CPU、212…地図制御部、213…送受信部、214…検出部、215…取得部、216…特定部、217…生成部、220…ネットワーク通信インタフェース、230…記憶装置、250…ユーザインタフェース、270…通信バス

Claims (10)

  1.  プロセッサを含む情報処理装置が実行する情報処理方法であって、
     前記プロセッサが、
     建物、施設及び構造物に関する建物施設情報を取得すること、
     地図データを構成する道路に関する道路情報を取得すること、
     前記建物施設情報に含まれる建物施設位置情報と前記道路情報に含まれる道路位置情報とに基づいて、所定の建物、施設及び構造物に対応する所定の道路とを特定すること、
     特定された前記所定の道路と特定された前記所定の建物、施設及び構造物との相対位置情報を含む建物施設データを生成すること、
     を実行する情報処理方法。
  2.  前記建物施設データには、前記道路情報のバージョン情報が含まれる、
     請求項1に記載の情報処理方法。
  3.  前記道路情報は、車道リンク又は車線リンクであることを含む、
     請求項1又は2に記載の情報処理方法。
  4.  前記特定することは、前記所定の建物、施設及び構造物と、前記車道リンク又は車線リンクの構成点との距離に基づいて、前記所定の建物、施設及び構造物と前記所定の道路とを特定することを含む、
     請求項3に記載の情報処理方法。
  5.  前記建物施設情報には、当該建物、施設及び構造物の構造に関する情報が含まれ、
     前記特定することは、前記所定の建物、施設及び構造物のうちの所定位置と前記所定の道路との距離に基づいて、前記所定の建物、施設及び構造物と前記所定の道路とを特定することを含む、
     請求項1から4のいずれか一項に記載の情報処理方法。
  6.  前記所定位置は、前記所定の建物、施設及び構造物の出入口であることを含む、
     請求項5に記載の情報処理方法。
  7.  前記特定することは、前記所定の建物、施設及び構造物と、当該所定の建物、施設及び構造物と最短距離に位置する所定の道路とを特定することを含む、
     請求項1から6のいずれか一項に記載の情報処理方法。
  8.  前記建物施設情報は、画像データ又は点群データから取得する、
     請求項1から7のいずれか一項に記載の情報処理方法。
  9.  プロセッサを含む情報処理装置に実行させるプログラムであって、
     前記プロセッサに、
     建物、施設及び構造物に関する建物施設情報を取得すること、
     地図データを構成する道路に関する道路情報を取得すること、
     前記建物施設情報に含まれる建物施設位置情報と前記道路情報に含まれる道路位置情報とに基づいて、所定の建物、施設及び構造物に対応する所定の道路とを特定すること、
     特定された前記所定の道路と特定された前記所定の建物、施設及び構造物との相対位置情報を含む建物施設データを生成すること、
     を実行させるプログラム。
  10.  プロセッサを含む情報処理装置であって、
     前記プロセッサが、
     建物、施設及び構造物に関する建物施設情報を取得すること、
     地図データを構成する道路に関する道路情報を取得すること、
     前記建物施設情報に含まれる建物施設位置情報と前記道路情報に含まれる道路位置情報とに基づいて、所定の建物、施設及び構造物に対応する所定の道路とを特定すること、
     特定された前記所定の道路と特定された前記所定の建物、施設及び構造物との相対位置情報を含む建物施設データを生成すること、
     を実行する情報処理装置。
PCT/JP2022/004170 2022-02-03 2022-02-03 情報処理方法、プログラム及び情報処理装置 WO2023148865A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2022/004170 WO2023148865A1 (ja) 2022-02-03 2022-02-03 情報処理方法、プログラム及び情報処理装置
JP2022527777A JP7138290B1 (ja) 2022-02-03 2022-02-03 情報処理方法、プログラム及び情報処理装置
JP2022131245A JP2023113547A (ja) 2022-02-03 2022-08-19 情報処理方法、プログラム及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/004170 WO2023148865A1 (ja) 2022-02-03 2022-02-03 情報処理方法、プログラム及び情報処理装置

Publications (1)

Publication Number Publication Date
WO2023148865A1 true WO2023148865A1 (ja) 2023-08-10

Family

ID=83318373

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/004170 WO2023148865A1 (ja) 2022-02-03 2022-02-03 情報処理方法、プログラム及び情報処理装置

Country Status (2)

Country Link
JP (2) JP7138290B1 (ja)
WO (1) WO2023148865A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005024374A (ja) * 2003-07-02 2005-01-27 Alpine Electronics Inc ナビゲーション装置
JP2005338032A (ja) * 2004-05-31 2005-12-08 Matsushita Electric Ind Co Ltd 位置情報提供装置及び位置情報利用端末装置
JP2012112840A (ja) * 2010-11-25 2012-06-14 Alpine Electronics Inc 情報配信システム、配信サーバおよび配信方法
JP2019061414A (ja) * 2017-09-26 2019-04-18 パイオニア株式会社 推定装置
JP2019105789A (ja) * 2017-12-14 2019-06-27 株式会社豊田中央研究所 道路構造データ生成装置、道路構造データベース
JP2019133498A (ja) * 2018-02-01 2019-08-08 株式会社デンソー 車両用画像データ生成装置、走行軌道データ生成システム、区間画像データ生成プログラム及び記憶媒体
JP2020074030A (ja) * 2017-06-16 2020-05-14 本田技研工業株式会社 地図更新装置、地図更新システム、地図更新方法、及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005326209A (ja) * 2004-05-13 2005-11-24 Pioneer Electronic Corp 報知制御装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP5561915B2 (ja) * 2008-06-06 2014-07-30 三菱電機株式会社 地図描画装置及びプログラム
JP5300609B2 (ja) * 2009-06-11 2013-09-25 アルパイン株式会社 交差点案内情報作成装置
JP2022059827A (ja) * 2020-10-02 2022-04-14 ダイナミックマップ基盤株式会社 情報処理方法、プログラム及び情報処理装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005024374A (ja) * 2003-07-02 2005-01-27 Alpine Electronics Inc ナビゲーション装置
JP2005338032A (ja) * 2004-05-31 2005-12-08 Matsushita Electric Ind Co Ltd 位置情報提供装置及び位置情報利用端末装置
JP2012112840A (ja) * 2010-11-25 2012-06-14 Alpine Electronics Inc 情報配信システム、配信サーバおよび配信方法
JP2020074030A (ja) * 2017-06-16 2020-05-14 本田技研工業株式会社 地図更新装置、地図更新システム、地図更新方法、及びプログラム
JP2019061414A (ja) * 2017-09-26 2019-04-18 パイオニア株式会社 推定装置
JP2019105789A (ja) * 2017-12-14 2019-06-27 株式会社豊田中央研究所 道路構造データ生成装置、道路構造データベース
JP2019133498A (ja) * 2018-02-01 2019-08-08 株式会社デンソー 車両用画像データ生成装置、走行軌道データ生成システム、区間画像データ生成プログラム及び記憶媒体

Also Published As

Publication number Publication date
JP2023113547A (ja) 2023-08-16
JPWO2023148865A1 (ja) 2023-08-10
JP7138290B1 (ja) 2022-09-16

Similar Documents

Publication Publication Date Title
US11035678B2 (en) Automatic localization geometry detection
US10928523B2 (en) Accuracy of global navigation satellite system based positioning using high definition map based localization
CN110057373B (zh) 用于生成高精细语义地图的方法、装置和计算机存储介质
US10885795B2 (en) Air space maps
Brenner Extraction of features from mobile laser scanning data for future driver assistance systems
US10891497B2 (en) Traffic boundary mapping
CN106461402B (zh) 用于确定相对于数字地图的位置的方法及系统
US11657072B2 (en) Automatic feature extraction from imagery
CN108885106A (zh) 使用地图的车辆部件控制
CN107533801A (zh) 使用测绘车辆的地图测绘技术
US10876844B2 (en) Systems and methods for loading and tracking maps on a vehicle
US20200209005A1 (en) Systems and methods for loading object geometry data on a vehicle
EP3671278B1 (en) Road surface detection
CN111351502A (zh) 用于从透视图生成环境的俯视图的方法,装置和计算机程序产品
US20200132472A1 (en) Method, apparatus, and system for location correction based on feature point correspondence
US20200134844A1 (en) Method, apparatus, and system for generating feature correspondence between image views
US20200272847A1 (en) Method, apparatus, and system for generating feature correspondence from camera geometry
Chiang et al. Mobile mapping technologies
WO2020139331A1 (en) Systems and methods for loading object geometry data on a vehicle
JP2022059827A (ja) 情報処理方法、プログラム及び情報処理装置
JP7138290B1 (ja) 情報処理方法、プログラム及び情報処理装置
JP7323146B2 (ja) 情報処理方法、プログラム、及び情報処理装置
JP7329208B2 (ja) 情報処理方法、プログラム、及び情報処理装置
JP7173508B2 (ja) 情報処理方法、プログラム、及び情報処理装置
US20230008942A1 (en) Method, apparatus, and system for providing a digital elevation model from pose points

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2022527777

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22924776

Country of ref document: EP

Kind code of ref document: A1