WO2019180978A1 - 情報提供システム、情報提供方法、コンピュータプログラム - Google Patents

情報提供システム、情報提供方法、コンピュータプログラム Download PDF

Info

Publication number
WO2019180978A1
WO2019180978A1 PCT/JP2018/018452 JP2018018452W WO2019180978A1 WO 2019180978 A1 WO2019180978 A1 WO 2019180978A1 JP 2018018452 W JP2018018452 W JP 2018018452W WO 2019180978 A1 WO2019180978 A1 WO 2019180978A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
vehicle
detection
detection unit
unit
Prior art date
Application number
PCT/JP2018/018452
Other languages
English (en)
French (fr)
Inventor
伸介 黒田
Original Assignee
住友電気工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 住友電気工業株式会社 filed Critical 住友電気工業株式会社
Priority to JP2020507294A priority Critical patent/JP7396266B2/ja
Publication of WO2019180978A1 publication Critical patent/WO2019180978A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Definitions

  • the present invention relates to an information providing system, an information providing method, and a computer program.
  • This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2018-52169 for which it applied on March 20, 2018, and takes in those the indications of all here.
  • the road information transmitting device includes a communication device for performing communication between a travelable region that is a region in which the vehicle can travel and a server that generates a road map in which other regions are distinguished, and a vehicle A road information transmitting device used in a vehicle equipped with a distance measuring sensor for measuring a distance from a surrounding object to a surrounding object and a positioning sensor for measuring an absolute position and direction of the vehicle, the distance measured by the distance sensor In the distance measurement area that is the area where the distance is measured, based on the measurement result of the distance measurement sensor, an object whose height relative to the running surface is a predetermined determination threshold or more is detected as an obstacle, and the measurement is performed.
  • a region extracting means for extracting a region excluding the portion where the obstacle exists from the distance region as a travelable region and generating information representing a partial map corresponding to a part of the road map; and the measurement A feature extraction unit that extracts a predetermined feature having a fixed absolute position from the distance measurement area based on a measurement result of the sensor and generates information representing the position of the feature in the partial map; Partial map information representing a map, characteristic object information representing the position of the characteristic object in the partial map, and information measured by the positioning sensor for specifying the position of the partial map in the road map Transmitting means for performing processing for transmitting the specific information from the communication device to the server.
  • An information providing system includes a road detection unit that detects a dynamic object that is installed on a road and is present in a region that can be detected by the device; A vehicle equipped with a vehicle-mounted detection unit for detecting the vehicle, and an information providing device for providing information to the vehicle.
  • the vehicle includes vehicle-mounted detection position information indicating a position of the vehicle-mounted detection unit, and In-vehicle detection unit information including a detected on-vehicle detection result is transmitted to the information providing device, and the information providing device detects on-road detection position information indicating a position of the on-road detection unit, and on the road detected by the on-road detection unit.
  • a road detection unit information including a detection result, an acquisition unit that acquires the vehicle-mounted detection unit information, and an integration unit that generates an integrated detection result based on the road detection unit information and the vehicle detection unit information.
  • the integrated detection result The and a transmission unit that transmits to the vehicle.
  • the information providing method includes a road detection unit that detects a dynamic object that is installed on a road and exists in a region that can be detected by the device, and a dynamic object that exists in a region that can be detected by the device.
  • An information providing method in an information providing system comprising a vehicle equipped with an in-vehicle detection unit for detecting a vehicle, and an information providing device for providing information to the vehicle, the in-vehicle detection position information indicating the position of the in-vehicle detection unit; , A step of transmitting vehicle-mounted detection unit information including the vehicle-mounted detection result detected by the vehicle-mounted detection unit to the information providing device, road detection position information indicating a position of the road detection unit, and detection by the road detection unit The road detection unit information including the road detection result is acquired, and the integrated detection result based on the step of acquiring the vehicle detection unit information and the road detection unit information and the vehicle detection unit information is generated. Comprising a step, and transmitting the integrated detection result to the vehicle, a.
  • a computer program includes a road detection unit that detects a dynamic object that is installed on a road and exists in a region that can be detected by the computer, and a dynamic object that exists in a region that can be detected by the computer.
  • a computer program for causing a computer to function as an information providing system including a vehicle mounted with a vehicle-mounted detection unit that detects the road, the road detection position information indicating the position of the road detection unit, and the road detection In-vehicle detection including on-vehicle detection position information indicating the position of the in-vehicle detection unit and in-vehicle detection result detected by the in-vehicle detection unit.
  • An acquisition unit for acquiring the unit information, an integration unit for generating an integrated detection result based on the road detection unit information and the in-vehicle detection unit information, and the integrated detection result
  • a transmission unit that transmits to the vehicle, is to function.
  • One aspect of the present disclosure can be realized as an information providing system, an information providing method, and a computer program including such a characteristic processing unit and characteristic processing, and as a terminal device used in the information providing system. Can be realized.
  • One embodiment of the present disclosure may be realized as a semiconductor integrated circuit that realizes part or all of the information providing system.
  • FIG. 1 is a diagram showing a configuration of an information providing system according to the first embodiment of the present invention.
  • FIG. 2 is a diagram showing a configuration of a server in the information providing system according to the first embodiment of the present invention.
  • FIG. 3A is a first explanatory diagram illustrating an example of an integrated region generated by the generation unit of the information providing system according to the first embodiment of the present invention.
  • FIG. 3B is a second explanatory diagram illustrating an example of the integrated area generated by the generation unit of the information providing system according to the first embodiment of the present invention.
  • FIG. 3C is a third explanatory diagram illustrating an example of the integrated area generated by the generation unit of the information providing system according to the first embodiment of the present invention.
  • FIG. 3A is a first explanatory diagram illustrating an example of an integrated region generated by the generation unit of the information providing system according to the first embodiment of the present invention.
  • FIG. 3B is a second explanatory diagram illustrating an example of the integrated area generated by the generation unit of
  • FIG. 3D is a fourth explanatory diagram illustrating an example of the integrated area generated by the generation unit of the information providing system according to the first embodiment of the present invention.
  • FIG. 4A is a fifth explanatory diagram illustrating an example of the integrated area generated by the generation unit of the information providing system according to the first embodiment of the present invention.
  • FIG. 4B is a sixth explanatory diagram illustrating an example of the integrated area generated by the generation unit of the information providing system according to the first embodiment of the present invention.
  • FIG. 4C is a seventh explanatory diagram illustrating an example of the integrated area generated by the generation unit of the information providing system according to the first embodiment of the present invention.
  • FIG. 5 is a diagram showing a processing flow of the information providing system according to the first embodiment of the present invention.
  • FIG. 6 is a diagram showing a configuration of an information providing system according to the second embodiment of the present invention.
  • FIG. 7 is a diagram showing a configuration of a server in the information providing system according to the second embodiment of the present invention.
  • FIG. 8A is a first explanatory diagram illustrating an example of an integrated region generated by the integration unit of the information providing system according to the second embodiment of the present invention.
  • FIG. 8B is a second explanatory diagram illustrating an example of the integration area generated by the integration unit of the information providing system according to the second embodiment of the present invention.
  • FIG. 8C is a third explanatory diagram illustrating an example of the integration area generated by the integration unit of the information providing system according to the second embodiment of the present invention.
  • FIG. 9 is a diagram showing a processing flow of the information providing system according to the second embodiment of the present invention.
  • the present disclosure has been made to solve the above-described problem, and the purpose of the present disclosure is to include not only a dynamic object detected by the self-detecting unit but also a dynamic object detected by another detecting unit for the vehicle.
  • An information providing system, an information providing method, and a computer program capable of accurately grasping a dynamic object are provided.
  • An information providing system is installed on a road, and includes a road detection unit that detects a dynamic object existing in an area that can be detected by the road, and an area in which the self can be detected.
  • a vehicle equipped with an in-vehicle detection unit for detecting an existing dynamic object, and an information providing device for providing information to the vehicle, wherein the vehicle includes in-vehicle detection position information indicating a position of the in-vehicle detection unit;
  • In-vehicle detection unit information including the on-vehicle detection result detected by the in-vehicle detection unit is transmitted to the information providing device, the information providing device includes on-road detection position information indicating a position of the on-road detection unit, and the on-road detection.
  • Road detection unit information including the road detection result detected by the unit, and an integrated detection result based on the acquisition unit for acquiring the vehicle detection unit information, the road detection unit information, and the vehicle detection unit information.
  • the integration part With the integration part to generate And a transmission unit that transmits the integrated detection result to the vehicle.
  • the integration unit integrates information on dynamic objects detected by a plurality of detection units, and transmits the integrated detection result to the vehicle, so that only the dynamic objects detected by the detection unit for the vehicle can be obtained. Therefore, it is possible to accurately grasp the dynamic objects around the self including the dynamic objects detected by other detection units.
  • the said integration part produces
  • the said road detection part and the said vehicle detection When there is an overlap area in each detection area, the first information related to the first dynamic object indicated by the road detection result in the overlap area and the second dynamic object indicated by the in-vehicle detection result in the overlap area 2nd information regarding each on the said integrated area
  • the integration unit associates information on the dynamic object detected in the overlapping region of the plurality of detection units on the integration region, so that not only the dynamic object detected by the detection unit for the vehicle but also other detections. It is possible to accurately grasp the surrounding dynamic objects including the dynamic objects detected by the unit.
  • the road detection unit information further includes first time information transmitted from the road detection unit to the acquisition unit, and the vehicle detection unit information is further transmitted from the vehicle to the acquisition unit.
  • the integration unit further associates the first time information with the second time information.
  • the integration unit is configured such that the information transmission time from the road detection unit to the information providing device (acquisition unit) is different from the information transmission time from the in-vehicle detection unit to the information provision device (acquisition unit). Even if it exists, each time information can be related. Therefore, it is possible to more accurately grasp the dynamic objects in the vicinity of the vehicle including not only the dynamic objects detected by the own detection unit but also the dynamic objects detected by other detection units.
  • the vehicle transmits the on-vehicle detection unit information to the information providing apparatus.
  • the information providing apparatus can accurately grasp the timing at which the vehicle transmits the in-vehicle detection unit information to itself.
  • the said road detection part further detects the approach to the 1st point of the said vehicle, and transmits the approach detection information to the said vehicle, The said vehicle is based on the said approach detection information.
  • the in-vehicle detection unit information is transmitted to the information providing device.
  • the information providing apparatus can accurately grasp the timing at which the vehicle transmits the in-vehicle detection unit information to itself.
  • the integration unit further sets the first dynamic object and the second dynamic object as the same object on the integrated region based on the first information and the second information. Associate.
  • the integration unit can accurately determine these dynamic objects as the same object.
  • the integrated region is configured by a plurality of grids divided in a predetermined size, and the integration unit is configured to convert the first information and the second information into one of the plurality of grids. Associate with part or all grids.
  • the integration unit configures the integration region with the grid (grid map) and associates the first information with the second information in units of grids, so that the integration unit can easily grasp, for example, the overlapping region. It can be carried out.
  • the integration unit determines whether or not a first grid associated with the first information and a second grid associated with the second information satisfy a predetermined positional relationship. And the first dynamic object and the second dynamic object are related to the integrated region as the same object based on the determination result.
  • the integration unit associates information on dynamic objects detected by each of the plurality of detection units on a grid basis on the integration region, so that the integration unit determines whether or not these dynamic objects are the same object. Can be easily determined.
  • An information providing method includes a road detection unit that detects a dynamic object that is installed on a road and exists in an area that can be detected by itself, and an area in which the self can be detected.
  • An information providing method in an information providing system comprising a vehicle equipped with an in-vehicle detection unit for detecting an existing dynamic object and an information providing device for providing information to the vehicle, the position indicating the position of the in-vehicle detection unit In-vehicle detection position information and in-vehicle detection result detected by the in-vehicle detection unit, transmitting the in-vehicle detection unit information to the information providing device, on-road detection position information indicating the position of the on-road detection unit,
  • the road detection unit information including the road detection result detected by the road detection unit and the vehicle detection unit information are acquired, and the integrated detection based on the road detection unit information and the vehicle detection unit information is acquired. And generating a result, and transmitting the integrated detection result to the vehicle, a.
  • the integration unit integrates the information on the dynamic object detected in the overlapping area of the plurality of detection units, and transmits the integrated detection result to the vehicle. It is possible to accurately grasp a dynamic object around itself including not only an object but also a dynamic object detected by another detection unit.
  • a computer program is installed on a road, and is present in a road detection unit that detects a dynamic object existing in a region that can be detected by the self, and in a region that can be detected by the computer.
  • a computer program for causing a computer to function as an information providing system including a vehicle equipped with a vehicle-mounted detection unit that detects a dynamic object that detects the road, and the computer indicates road detection position information indicating the position of the road detection unit. And road detection results detected by the road detection unit, and vehicle detection position information indicating the position of the vehicle detection unit, and the vehicle detection result detected by the vehicle detection unit.
  • An acquisition unit that acquires in-vehicle detection unit information, an integration unit that generates an integrated detection result based on the road detection unit information and the in-vehicle detection unit information,
  • a transmission unit for transmitting a slip detection result to the vehicle, is to function.
  • the integration unit integrates the information on the dynamic object detected in the overlapping area of the plurality of detection units, and transmits the integrated detection result to the vehicle. It is possible to accurately grasp a dynamic object around itself including not only an object but also a dynamic object detected by another detection unit.
  • FIG. 1 is a diagram showing a configuration of an information providing system according to the first embodiment of the present invention.
  • the information providing system 1 includes a server 10 and a plurality of detection units 20 (including a first detection unit 20a and a second detection unit 20b.
  • a detection unit 20a the information providing system 1 includes a server 10 and a plurality of detection units 20 (including a first detection unit 20a and a second detection unit 20b.
  • symbol for example, "a" in the 1st detection part 20a
  • the detection unit 20 is a sensor including, for example, a camera, LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), and the like, and is a dynamic object (not shown in FIG. 1) that exists in an area where it can be detected. Is detected.
  • the detection part 20 may be installed in the roadside or may be installed in the vehicle, 1st Embodiment demonstrates the case where the several detection part 20 is installed in the roadside.
  • Reality detection region 21 that is a region that can be detected by detection unit 20 (first reality detection region 21a that is a region that can be detected by first detection unit 20a, and second reality detection that is a region that can be detected by second detection unit 20b)
  • the region 21b includes a radius of 40 meters centered on itself.
  • the detection unit 20 transmits detection information relating to a dynamic object existing in the reality detection region 21 to the server 10.
  • This detection information includes, for example, LiDAR point cloud detection information.
  • the server 10 has position information of a plurality of detection units 20, for example.
  • the position information includes, for example, coordinates (hereinafter also simply referred to as “coordinates”) information on latitude and longitude based on GPS (Global Positioning System).
  • coordinates hereinafter also simply referred to as “coordinates”
  • GPS Global Positioning System
  • the operator of the server 10 may register the position information of the detection unit 20 in the server 10.
  • the detection information transmitted by the detection unit 20 includes, for example, information on the position (coordinates), characteristics (size, shape, color) of the dynamic object. Details of the dynamic object will be described later.
  • FIG. 2 is a diagram showing a configuration of a server in the information providing system according to the first embodiment of the present invention.
  • the server 10 includes a communication unit 4a, a generation unit 11, and an association unit 12.
  • the communication unit 4a receives detection information from, for example, the plurality of detection units 20, and provides the detection information to the generation unit 11 or the association unit 12.
  • the generation unit 11 includes an integrated region (FIG. 2) including a region including a part or all of the reality detection regions 21 (21a, 21b) of the first detection unit 20a and the second detection unit 20b among the plurality of detection units 20. (Not shown). Details will be described later.
  • the associating unit 12 associates a predetermined area on the integrated area with a predetermined dynamic object. Details will be described later.
  • FIG. 3A is a first explanatory diagram illustrating an example of an integrated region generated by the generation unit of the information providing system according to the first embodiment of the present invention.
  • FIG. 3B is a second explanatory diagram illustrating an example of the integrated area generated by the generation unit of the information providing system according to the first embodiment of the present invention.
  • FIG. 3C is a third explanatory diagram illustrating an example of the integrated area generated by the generation unit of the information providing system according to the first embodiment of the present invention.
  • FIG. 3D is a fourth explanatory diagram illustrating an example of the integrated area generated by the generation unit of the information providing system according to the first embodiment of the present invention.
  • the configuration of the plurality of detection units 20 (20a, 20b) is the same as the configuration shown in FIGS. 1 and 2, and the configuration of the reality detection region 21 (21a, 21b) The configuration is the same as that shown in FIG.
  • the grid map 23 (the first grid map 23a of FIG. 3A and the second grid map 23b of FIG. 3B) is for associating the detection unit 20 (20a, 20b) and the dynamic object 50 (50a, 50b) with the integrated region 24. It is a partial map, and is composed of, for example, a plurality of grids (equally spaced grid lines) divided in a predetermined size. The size of one grid is, for example, 30 cm square. Details of the integrated region 24 will be described later.
  • the generation unit 11 generates the grid map 23 so as to be inscribed or included in the reality detection area 21 (21a, 21b), for example. That is, for example, the generation unit 11 divides the reality detection region 21 by a plurality of grids with the position of the detection unit 20 as the origin, and extracts a square (square or rectangle) having the maximum size from the grid map 23. Is generated.
  • the grid map 23 is also referred to as a management detection area 23 because it is a detection area that is processed so that the server 10 (association unit 12) can easily manage the reality detection area 21.
  • the reality detection area 21 (21a, 21b) and the management detection area 23 (23a, 23b) are collectively referred to as a detection area.
  • the server 10 (generation unit 11) is an integration made up of regions including part or all of the management detection regions 23 (23a, 23b) of the first detection unit 20a and the second detection unit 20b. It can be said that a region is generated.
  • a management overlap area 31 an overlapping area in which the management detection areas 23 (the first management detection area 23a and the second management detection area 23b) of the first detection unit 20a and the second detection unit 20b overlap each other.
  • the real overlap area 22 and the management overlap area 31 are collectively referred to as an overlap area.
  • region 31 which is an area
  • the server 10 has, for example, position information of the plurality of detection units 20, direction information detected by the plurality of detection units 20, the coordinates of the center points of all the grids constituting the grid map 23 are obtained. And the coordinates can correspond to the grid positions of the respective grids.
  • the integrated area 24 is composed of, for example, a plurality of grids divided by a predetermined size, like the grid map (management detection area) 23 described above.
  • the size of the grid is, for example, the same as the size of the grid used for the grid map 23, but is not limited thereto, and may be different from the size of the grid used for the grid map 23, for example.
  • the server 10 (generating unit 11) creates the integrated area 24 as follows, for example. That is, the generator 11 first draws the first grid map 23a and the second grid map 23b on one plane as shown in FIG. 3C.
  • the generation unit 11 when there is an overlapping area in each area of the first grid map 23a and the second grid map 23b, the generation unit 11 includes a grid of overlapping parts (the hatched grid in FIG. 3A) in the first grid map 23a. It is determined whether or not there is a shift in the overlapping grid (the hatched grid in FIG. 3B) in the second grid map 23b. In this determination result, when there is no deviation, the generation unit 11 determines the positions of the first grid map 23a and the second grid map 23b on the plane. Here, it is assumed that no deviation occurs in the first embodiment.
  • the generation unit 11 generates the first grid map 23a and the second grid map 23b so that the smallest square including the first grid map 23a and the second grid map 23b is generated. Add a grid to other areas. By completing the generation of this rectangle, this rectangle becomes the integrated region 24.
  • the generation unit 11 assigns a code such as an alphabet to each of the vertical column and the horizontal column of the grid constituting the integrated region 24 as shown in FIGS. 3C and 3D, for example.
  • a position formed by a combination of a code indicating a vertical column and a code indicating a horizontal column in the integrated region 24 is referred to as a grid position.
  • a grid whose grid position is “Bf” indicates a grid in which the horizontal column is “B” and the vertical column is “f”.
  • the grid position is uniquely determined in the integrated region 24 and can be set based on the coordinate information included in the detection information.
  • an area composed of a grid of horizontal E to F columns and vertical e to f columns is a management overlap area 31 belonging to any of the grid maps (management detection areas) 23 (23a, 23b).
  • an area composed of a grid of horizontal A to D columns and vertical a to d columns and an area composed of a grid of horizontal G to J columns and vertical g to j columns are grid maps (management detection areas) 23 (23a, 23b) A region (external region) which does not belong to any of them.
  • the first dynamic object 50a and the second dynamic object 50b are dynamic objects, for example, humans. These may be vehicles, animals, and the like.
  • information on the first dynamic object 50a indicated by the first detection result of the first detection unit 20a related to the first grid map 23a is set as the first information. Furthermore, the information regarding the 2nd dynamic object 50b which the 2nd detection result of the 2nd detection part 20b which concerns on the 2nd grid map 23b shows is made into 2nd information.
  • the first information includes information on the position (detection position), characteristics (size, shape, color), etc. of the first dynamic object 50a, for example.
  • the second information includes, for example, information related to the position (detection position), characteristics (size, shape, color) of the second dynamic object 50b.
  • the first information includes the detection position of the first dynamic object 50a, the size (height) is 1.7 meters, the shape is human, and the color (clothing color) is blue and black.
  • the second information includes a size (height) of 1.7 meters, a shape of a human, and colors (colors of clothes) of blue and black. Information.
  • the associating unit 12 includes a plurality of pieces of first information related to the first dynamic object 50a in the management overlap area 31 and second information related to the second dynamic object 50b. Associate with some or all of the grids (on integrated area 24). Specifically, the associating unit 12 converts the detection position of the first information into a grid position (the position of “Fe” in the management overlap area 31 in FIG. 3C), and associates the first information with the grid at the grid position. Then, the detection position of the second information is converted to the grid position (the position of “Ef” in the management overlap area 31 in FIG. 3C), and the second information is associated with the grid at the grid position.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2014-228637
  • the position of a plurality of partial maps including a predetermined characteristic object whose absolute position is fixed is determined as a partial map of the characteristic object. It is possible to grasp the above-mentioned features by matching (integrating) based on the position in the case of, but this is about grasping a dynamic object that is detected by a plurality of sensors (detection units) and whose absolute position is not fixed. Neither disclosed nor suggested in Patent Document 1.
  • the server 10 includes an information providing system 1 that includes a plurality of detection units 20 that detect a dynamic object 50 present in a region that can be detected by the server 10.
  • the server 10 used in the present invention is an integration comprising a region including a part or all of a detection region (actual detection region 21 (21a, 21b) or management detection region 23 (23a, 23b)) of each of the plurality of detection units 20.
  • the first detection result of the first detection unit 20a in the overlap area indicates that the overlap area (the actual overlap area 22 or the management overlap area 31) exists.
  • the associating unit 12 associating the first information related to the first dynamic object 50a and the second information related to the second dynamic object 50b indicated by the second detection result of the second detection unit 20b in the overlapping region on the integrated region 24, respectively. .
  • the association unit 12 associates the information related to the dynamic object 50 detected in the overlapping region of the plurality of detection units 20 on the integrated region 24, so that the dynamic object 50 detected by the plurality of detection units 20 can be accurately obtained. Can grasp.
  • a high-speed and advanced information providing system can be provided by a configuration in which the processing performed by the generation unit 11 and the association unit 12 is performed by the server 10. it can.
  • the integrated region 24 is configured by a plurality of grids divided by a predetermined size, and the associating unit 12 includes a plurality of first information and second information. Associate with some or all of the grids.
  • the associating unit 12 configures the integrated region 24 with the grid (grid map) and associates the first information with the second information in units of grids, so that the associating unit 12 can recognize, for example, an overlapping region. Etc. can be easily performed.
  • FIG. 4A is a fifth explanatory diagram illustrating an example of the integrated area generated by the generation unit of the information providing system according to the first embodiment of the present invention.
  • FIG. 4B is a sixth explanatory diagram illustrating an example of the integrated area generated by the generation unit of the information providing system according to the first embodiment of the present invention.
  • FIG. 4C is a seventh explanatory diagram illustrating an example of the integrated area generated by the generation unit of the information providing system according to the first embodiment of the present invention.
  • the position of the first dynamic object 50c in FIG. 4A is different from the position of the first dynamic object 50a in FIG. 3A, and other detection units 20 (20a, 20b),
  • the configurations of the reality detection area 21 (21a, 21b), the management detection area (grid map) 23 (23a, 23b), the integration area 24, and the management overlap area 31 are the same as those shown in FIGS. 3A to 3D, respectively.
  • the position of the second dynamic object 50d in FIG. 4B is the same as the position of the second dynamic object 50b in FIGS. 3A to 3D.
  • the procedure for creating the integrated region 24 in FIG. 4C is the same as that described above with reference to FIGS.
  • the associating unit 12 performs the first information on the first dynamic object 50c and the second information on the second dynamic object 50d. Based on the information, the first dynamic object 50c and the second dynamic object 50d are associated on the integrated region 24 as the same object 70.
  • the associating unit 12 determines whether (1) the position of the first dynamic object 50c and the position of the second dynamic object 50d satisfy a predetermined condition, or (2) the first movement It is determined whether or not the characteristics of the physical object 50c and the characteristics of the second dynamic object 50d satisfy a predetermined condition, and the first dynamic object 50c and the second dynamic object are determined based on the determination result. 50d is associated with the integrated object 24 as the same object 70.
  • the associating unit 12 includes the first grid associated with the first information (information regarding the first dynamic object 50c) and the second information (information regarding the second dynamic object 50d). It is determined whether or not the second grid associated with () satisfies a predetermined positional relationship.
  • the predetermined positional relationship is, for example, that the first grid position where the first dynamic object 50c exists and the second grid position where the second dynamic object 50d exist are the same grid position (see FIG. In the case of 4C, the relation of the grid position “Ef”) is included. Note that the predetermined positional relationship is not limited to the relationship between the same grid positions described above, and may be a relationship between adjacent grid positions (for example, the grid position “Ef” and the grid position “Ff” in FIG. 4C). Good.
  • the associating unit 12 relates to a direction in which the plurality of detecting units 20 are, for example, LiDAR, and the dynamic object 50 (50c, 50d) faces the first information and the second information, respectively. If information (hereinafter also referred to as “orientation information”) is included, it is determined whether or not the first dynamic object 50c and the second dynamic object 50d are the same object 70 based on the information. You may do.
  • the associating unit 12 is based on, for example, position information of the first detection unit 20a, position information and direction (relative direction viewed from the first detection unit 20a) information of the first dynamic object 50c, and the like. Assume that the direction in which the first dynamic object 50c is facing is determined to be south. Similarly, based on the position information of the second detection unit 20b, the position information and direction (relative direction viewed from the second detection unit 20b) information of the second dynamic object 50d, and the like, the second dynamic object 50d. The first dynamic object 50c and the second dynamic object 50d may be set as the same object 70 when it is determined that the direction facing is south.
  • the above features are, for example, size (volume), shape, and color.
  • the plurality of detection units 20 are, for example, LiDAR
  • the size and shape of the dynamic object 50 (50c, 50d) can be recognized by the LiDAR.
  • the associating unit 12 may determine whether or not the first dynamic object 50c and the second dynamic object 50d are the same object 70 based on the size and shape information.
  • the associating unit 12 analyzes the image data transmitted from the cameras, and based on the information about the colors (RGB values), the first dynamic object 50c and the second dynamic object 50c. It may be determined whether the dynamic object 50d is the same object 70 or not.
  • Satisfying the predetermined condition means, for example, that a numerical value indicating the characteristic of the first dynamic object 50c matches a numerical value indicating the characteristic of the second dynamic object 50d, or a difference between these numerical values is included within a predetermined range. It means that.
  • the predetermined condition is determined by [1]
  • the difference between the direction in which the first dynamic object 50c is facing and the direction in which the second dynamic object 50d is facing is 45 degrees, for example.
  • the size (volume) of the first dynamic object 50c and the second dynamic object whether or not within the range (more preferably within 30 degrees, more preferably within 20 degrees, more preferably within 10 degrees).
  • a shape pattern recognition technique shape matching technique
  • the associating unit 12 further performs the first dynamic object 50c and the second dynamic object 50d based on the first information and the second information. Are associated with each other on the integrated region 24 as the same object 70.
  • the associating unit 12 identifies these dynamic objects 50 (50c, 50d) as the same object. 70 can be accurately determined.
  • the associating unit 12 determines whether or not the position of the first dynamic object 50c and the position of the second dynamic object 50d satisfy a predetermined condition. And the first dynamic object 50c and the second dynamic object 50d are associated on the integrated region 24 as the same object 70 based on the determination result.
  • the associating unit 12 determines whether or not the position of the dynamic object 50 (50c, 50d) detected by each of the plurality of detecting units 20 satisfies a predetermined condition. It is possible to more accurately determine whether the target object 50 (50c, 50d) is the same object 70 or not.
  • the associating unit 12 determines whether or not the feature of the first dynamic object 50c and the feature of the second dynamic object 50d satisfy a predetermined condition. And the first dynamic object 50c and the second dynamic object 50d are associated on the integrated region 24 as the same object 70 based on the determination result.
  • the associating unit 12 determines whether or not the characteristics of the dynamic object 50 (50c, 50d) detected by each of the plurality of detecting units 20 satisfy a predetermined condition. It is possible to more accurately determine whether the target object 50 (50c, 50d) is the same object 70 or not.
  • the associating unit 12 satisfies the predetermined positional relationship between the first grid associated with the first information and the second grid associated with the second information.
  • the first dynamic object 50c and the second dynamic object 50d are associated on the integrated region 24 as the same object 70 based on the determination result.
  • the associating unit 12 associates information on the dynamic object 50 (50c, 50d) detected by each of the plurality of detecting units 20 on the integrated region 24 in units of grids, so that the associating unit 12 can perform these operations. It is possible to easily determine whether or not the dynamic object is the same object 70.
  • FIG. 5 is a diagram showing a processing flow of the information providing system according to the first embodiment of the present invention.
  • the server 10 determines the detection areas (actual detection areas 21 (21 a, 21 b) or management detection areas 23 (23 a, 23 b) of the plurality of detection units 20 (20 a, 20 b). )) Is generated as an integrated region 24 including a part or all of the region (step S101).
  • the server 10 (association unit 12), for example, a detection area (actual detection area 21 (21a, 21b) or management detection area) of each of the first detection unit 20a and the second detection unit 20b among the plurality of detection units 20. 23 (23a, 23b)), when there is an overlapping area (the actual overlapping area 22 or the management overlapping area 31), the first dynamic object 50c indicated by the first detection result of the first detection unit 20a in the overlapping area is shown.
  • 1st dynamic object 50c and 2nd dynamic object 50d are the same based on 1 information and the 2nd information regarding the 2nd dynamic object 50d which the 2nd detection result of the 2nd detection part 20b in an overlap area shows It associates with the integrated area
  • the details of this association are the same as those described above with reference to FIGS.
  • first dynamic object 50c and the second dynamic object 50d are the same object is, for example, whether or not the position of each of the dynamic objects 50 satisfies a predetermined condition, Is determined based on the determination result. The details of this determination are also the same as those described above with reference to FIGS.
  • the server 10 when the first dynamic object 50a and the second dynamic object 50b are not the same object 70, simply performs the above-described first information and second information respectively in the integrated region. 24 may be associated with each other. That is, if the first dynamic object 50a and the second dynamic object 50b are not associated with the same object 70, and the first dynamic object 50a and the second dynamic object 50b are simply associated on the integrated region 24. Good. Details of the operation in this case are the same as those described above with reference to FIGS.
  • the association unit 12 associates the information related to the dynamic object 50 detected in the overlapping region of the plurality of detection units 20 on the integrated region 24, so that the dynamic object 50 detected by the plurality of detection units 20 can be accurately Can grasp.
  • FIG. 6 is a diagram showing a configuration of an information providing system according to the second embodiment of the present invention.
  • the information providing system 1 includes a server (information providing apparatus) 13, a road detection unit 40a, and a vehicle 2 equipped with an in-vehicle detection unit 40b.
  • a server information providing apparatus
  • the detection units including the road detection unit 40a and the vehicle-mounted detection unit 40b is also referred to as “detection unit 40”.
  • the road detection unit 40a is a sensor including, for example, a camera, a LiDAR, and the like, and is installed on the road and detects a dynamic object (not shown in FIG. 6) that exists in an area that can be detected by itself.
  • the in-vehicle detection unit 40b includes a sensor including, for example, a camera, LiDAR, and the like, and detects a dynamic object (not shown in FIG. 6) existing in an area where the sensor can detect itself.
  • a sensor including, for example, a camera, LiDAR, and the like, and detects a dynamic object (not shown in FIG. 6) existing in an area where the sensor can detect itself.
  • the second reality detection region 25b includes, for example, a radius of 40 meters centered on itself.
  • the road detection unit 40 a and the vehicle-mounted detection unit 40 b transmit the detection information related to the dynamic object existing in the reality detection region 25 to the server 13.
  • This detection information includes, for example, LiDAR point cloud detection information.
  • the server 13 includes, for example, position information of the road detection unit 40a and the vehicle-mounted detection unit 40b.
  • the position information includes, for example, coordinate information based on GPS.
  • the road detection unit 40a and the vehicle-mounted detection unit 40b periodically transmit the position information to the server 13, and the server 13 acquires and manages the position information.
  • the detection information transmitted by the road detection unit 40a and the vehicle detection unit 40b includes, for example, information on the position (coordinates), characteristics (size, shape, color) and the like of the dynamic object.
  • the details of the dynamic object are the same as in the first embodiment (explanation of FIGS. 3A to 3D and the like described above), and thus the description thereof is omitted.
  • FIG. 7 is a diagram showing a configuration of a server in the information providing system according to the second embodiment of the present invention.
  • the server 13 includes a communication unit 4 b and an integration unit 80, and the communication unit 4 b further includes an acquisition unit 14 and a transmission unit 15.
  • the road detection unit 40a transmits road detection unit information including road detection position information indicating its own position and the road detection result detected by the road detection unit 40a to the server 13 (acquisition unit 14).
  • the road detection position information includes coordinate information based on GPS, for example.
  • the road detection result includes, for example, a result (detection information) indicating information on a dynamic object.
  • the road detection unit 40a may transmit road detection unit information that does not include road detection position information. In this case, the operator of the server 13 inputs the position of the road detection unit 40a to the server, and the server 13 (acquisition unit 14) acquires this.
  • the in-vehicle detection unit 40b (vehicle 2) transmits the in-vehicle detection unit information including the in-vehicle detection position information indicating its own position and the in-vehicle detection result detected by the in-vehicle detection unit 40b to the server 13 (acquisition unit 14).
  • the vehicle-mounted detection position information includes, for example, coordinate information based on GPS.
  • the on-vehicle detection result includes, for example, a result (detection information) indicating information on a dynamic object.
  • the acquisition unit 14 acquires the road detection unit information transmitted from the road detection unit 40a and the vehicle detection unit information transmitted from the vehicle detection unit 40b.
  • the road detection result includes, for example, a result (detection information) indicating information on a dynamic object.
  • the operations of the integration unit 80 and the transmission unit 15 will be described later.
  • FIG. 8A is an explanatory diagram illustrating an example of an integration area generated by the integration unit of the information providing system according to the second embodiment of the present invention.
  • FIG. 8B is a second explanatory diagram illustrating an example of the integration area generated by the integration unit of the information providing system according to the second embodiment of the present invention.
  • FIG. 8C is a third explanatory diagram illustrating an example of the integration area generated by the integration unit of the information providing system according to the second embodiment of the present invention.
  • the configuration of road detection unit 40a and on-vehicle detection unit 40b is the same as the configuration shown in FIGS. 6 to 7, and the configuration of reality detection region 25 (25a, 25b) is The configuration is the same as that shown in FIG.
  • the grid map 28 (the first grid map 28a in FIG. 8A and the second grid map 28b in FIG. 8B) includes the detection unit 40 (40a, 40b) and the dynamic objects 51 (51a to 51c) in the integrated region 26 in FIG. 8C. It is a partial map for associating, and is composed of, for example, a plurality of grids divided by a predetermined size. The size of one grid is, for example, 30 cm square. Details of the integrated area 26 will be described later.
  • the integration unit 80 generates the grid map 28 so as to be inscribed or included in the reality detection area 25 (25a, 25b), for example. That is, for example, the integration unit 80 divides the reality detection region 25 by a plurality of grids with the position of the detection unit 40 as the origin, and extracts a square (square or rectangle) having the maximum size from the grid map 28. Is generated.
  • the grid map 28 is a detection area that is processed so that the server 13 (integration unit 80) can easily manage the reality detection area 25
  • the grid map 28 is also referred to as a management detection area 28 as in the first embodiment.
  • the reality detection area 25 (25a, 25b) and the management detection area 28 (28a, 28b) are collectively referred to as a detection area.
  • the server 13 (integration unit 80) creates an integrated region composed of regions including part or all of the management detection regions 28 (28a, 28b) of the road detection unit 40a and the vehicle-mounted detection unit 40b. It can be said that it generates.
  • management overlap is performed in the same manner as in the first embodiment.
  • the overlapping area is an overlapping area of the management detection areas 28 (the first management detection area 28a and the second management detection area 28b) of the road detection unit 40a and the vehicle-mounted detection unit 40b. This is called area 32.
  • the real overlap area 27 and the management overlap area 32 are collectively referred to as an overlap area.
  • region 32 which is an area
  • the server 13 has, for example, position information of the plurality of detection units 40, direction information detected by the plurality of detection units 40, the coordinates of the center points of all the grids constituting the grid map 28 are obtained. And the coordinates can correspond to the grid positions of the respective grids.
  • the first dynamic objects 51a and 51b and the second dynamic object 51c are dynamic objects, for example, humans. These may be vehicles other than the vehicle 2, animals, and the like.
  • information on the first dynamic objects 51a and 51b indicated by the road detection result of the road detection unit 40a related to the first grid map 28a is the first information. Furthermore, the information regarding the 2nd dynamic object 51c which the vehicle-mounted detection result of the vehicle-mounted detection part 40b which concerns on the 2nd grid map 28b shows is made into 2nd information.
  • the first information includes, for example, information on the positions (detection positions), features (size, shape, color) of the first dynamic objects 51a and 51b.
  • the second information includes, for example, information on the position (detection position), characteristics (size, shape, color) and the like of the second dynamic object 51c.
  • the first information includes the detection position of the first dynamic object 51a, the size (height) is 1.7 meters, the shape is human, and the color (clothing color) is blue and black.
  • the detection position of the first dynamic object 51b the size (height) is 1.7 meters
  • the shape is human
  • the color (clothing color) is blue and black, etc.
  • the second information includes, in addition to the detection position of the second dynamic object 51c, the size (height) is 1.7 meters, the shape is human, the color (color of clothes) is blue and black, etc. Contains information.
  • the integrating unit 80 detects each of the detection regions (actual detection regions 25 ( 25a, 25b) or the management detection area 28 (28a, 28b)) is generated as an area including a part or all of the area, and is composed of, for example, a plurality of grids divided by a predetermined size.
  • the size of the grid is the same as the size of the grid used for the grid map 28, for example.
  • the size of the grid is not limited to this, and may be different from the size of the grid used for the grid map 28, for example.
  • the procedure for creating the integrated region 26 is the same as that in the first embodiment (described above with reference to FIGS. 3A to 3D, etc.), and thus description thereof is omitted.
  • the integration unit 80 when the management overlap area 32 described above exists, the first information on the first dynamic object 51a in the management overlap area 32, and the second dynamic The second information related to the object 51c is associated with some or all of the plurality of grids (on the integrated region 26). Specifically, the integration unit 80 associates the first dynamic object 51 a with the grid position “Ef” in the management overlap area 32 on the integration area 26, and the grid position “Ef” in the management overlap area 32. Is associated with the second dynamic object 51c.
  • the integration unit 80 Based on the first information regarding the dynamic object 51a and the second information regarding the second dynamic object 51c, the first dynamic object 51a and the second dynamic object 51c are associated as the same object 71 on the integrated region 26. Also good.
  • the integration unit 80 generates an integrated detection result (a result obtained by associating each information) based on the road detection unit information and the vehicle-mounted detection unit information when the above-described management overlap area 32 exists.
  • the server 13 transmits information including the integrated detection result to the in-vehicle detection unit 40b.
  • the integration unit 80 may generate the integrated detection result even when the management overlap area 32 does not exist. That is, the integration unit 80 may associate the dynamic object 51 in the management detection area 28 with a predetermined grid position on the integration area 26 even when the above-described management overlap area 32 does not exist.
  • the vehicle-mounted detection unit 40b includes not only the dynamic object 51 (second dynamic object 51c) detected by itself but also the dynamic object 51 (first dynamic objects 51a, 51b) detected by the road detection unit 40a.
  • the surrounding dynamic objects 51 (51a to 51c), in particular, the first dynamic object 51b can be accurately grasped.
  • the obstacle 3 as shown in FIG. 6 when the obstacle 3 as shown in FIG. 6 is present, it may be an obstacle for the in-vehicle detection unit 40b to detect the first dynamic object 51b around it. That is, the vehicle-mounted detection unit 40b may not be able to detect the first dynamic object 51b due to the obstacle 3. Even in such a case, the road detection unit 40a detects the first dynamic object 51b, and the server 13 (integration unit 80, transmission unit 15) generates an integrated detection result and detects the integrated detection result in the vehicle. By transmitting to the unit 40b, the in-vehicle detection unit 40b can detect the first dynamic object 51b.
  • the position of a plurality of partial maps including a predetermined characteristic object whose absolute position is fixed is determined as a partial map of the characteristic object.
  • the above feature can be grasped by matching (integrating) based on the position in the vehicle, but for the vehicle, not only a dynamic object whose absolute position detected by its own detection unit is not fixed but also other detection units There is no disclosure or suggestion of grasping the dynamic objects around the self including the dynamic objects detected by.
  • the information providing system 1 is installed on the road, and the dynamic object 51 (first dynamic object 51a) that exists in an area where it can be detected.
  • 51b a vehicle 2 equipped with an on-vehicle detection unit 40b that detects a road detection unit 40a that detects a dynamic object 51 (second dynamic object 51c) that exists in a region where it can be detected, and a vehicle 2
  • the vehicle 2 includes an in-vehicle detection position information indicating the position of the in-vehicle detection unit 40b and an in-vehicle detection result detected by the in-vehicle detection unit 40b.
  • the detection unit information is transmitted to the server (information providing device) 13, and the server (information providing device) 13 includes road detection position information indicating the position of the road detection unit 40a, the road detection result detected by the road detection unit 40a, and Road detection including While acquiring information, acquisition part 14 which acquires in-vehicle detection part information, integration part 80 which generates an integrated detection result based on road detection part information and in-vehicle detection part information, and an integrated detection result are transmitted to vehicles 2. And a transmission unit 15.
  • the integration unit 80 integrates information on the dynamic objects 51 (51a to 51c) detected by the plurality of detection units 40, and transmits the integrated detection result to the vehicle 2 (in-vehicle detection unit 40b).
  • the vehicle 2 on-vehicle detector 40b
  • the dynamic object 51 second dynamic object 51c
  • the dynamic object 51 first dynamic object
  • the server 13 when the server 13 has an advanced and high-speed arithmetic processing function, the server 13 performs a process performed by the acquisition unit 14, the integration unit 80, and the transmission unit 15. Can be provided.
  • the integration unit 80 further includes detection areas (actual detection areas 25 (25a, 25b) or management detection areas) of the road detection unit 40a and the vehicle-mounted detection unit 40b.
  • 28 (28a, 28b)) is generated as an integrated region 26, and each detection region (actual detection region 25 (25a, 25b) or management detection) of the road detection unit 40a and the vehicle-mounted detection unit 40b is generated.
  • an overlap area actual overlap area 27 or management overlap area 32
  • the first information regarding the first dynamic object 51a indicated by the road detection result in the overlap area and the overlap area The second information related to the second dynamic object 51c indicated by the in-vehicle detection result in FIG.
  • the integration unit 80 associates information on the dynamic object 51 (first dynamic object 51a, second dynamic object 51c) detected in the overlapping area of the plurality of detection units 40 on the integration area 26.
  • the dynamic object 51 (second dynamic object 51c) detected by the vehicle-mounted detection unit 40b the dynamic object 51 (first dynamic object 51a) detected by another detection unit 40 (road detection unit 40a) is detected. ) Including the dynamic object 51 around the self can be accurately grasped.
  • the integration unit 80 further adds the first dynamic object 51a and the second dynamic object 51c based on the first information and the second information.
  • the same object 71 is associated on the integrated area 26.
  • the integration unit 80 causes these dynamic objects
  • the object 51 (first dynamic object 51a, second dynamic object 51c) can be accurately determined as the same object 71.
  • the integrated area 26 is composed of a plurality of grids divided in a predetermined size, and the integration unit 80 associates the first information and the second information with some or all of the plurality of grids. .
  • the integration unit 80 configures the integration region 26 with the grid (grid map) and associates the first information and the second information in units of grids, so that the integration unit 80 can recognize, for example, an overlapping region. Can be easily performed.
  • the integration unit 80 determines whether or not the first grid associated with the first information and the second grid associated with the second information satisfy a predetermined positional relationship, and the determination result is Based on this, the first dynamic object 51a and the second dynamic object 51c are associated on the integrated region 26 as the same object 71.
  • the integration unit 80 associates information on the dynamic object 51 (the first dynamic object 51a and the second dynamic object 51c) detected by each of the plurality of detection units 40 in the grid unit on the integration region 26.
  • the integration unit 80 can easily determine whether or not these dynamic objects 51 (the first dynamic object 51a and the second dynamic object 51c) are the same object 71.
  • the road detection unit information further includes first time information transmitted from the road detection unit 40a to the acquisition unit 14, and the vehicle-mounted detection unit information is further transmitted to the acquisition unit 14 by the vehicle 2 (vehicle-mounted detection unit 40b).
  • the integration unit 80 may further associate the first time information and the second time information, including the two time information.
  • the integration unit 80 for example, the information transmission time from the road detection unit 40a to the server (information providing device) 13 (acquisition unit 14), and the server (information providing device) 13 (acquisition from the in-vehicle detection unit 40b.
  • Each time information can be associated even if the information transmission time to the unit 14) is different. Accordingly, not only the dynamic object 51 (second dynamic object 51c) detected by the own detection unit 40b but also the dynamic object 51 (first movement) detected by the other detection unit 40a for the vehicle 2 (on-vehicle detection unit 40b).
  • the dynamic objects 51 (51a to 51c) around the self including the target objects 51a and 51b) can be grasped more accurately.
  • the vehicle 2 may transmit the in-vehicle detection unit information to the server (information providing apparatus) 13 when the vehicle 2 approaches the first point.
  • the first point includes, for example, an intersection, but is not limited thereto, and may be any point to which the information providing system according to the embodiment of the present invention is applicable.
  • the determination as to whether or not the vehicle 2 (in-vehicle detection unit 40b) has approached the first point is made by, for example, the in-vehicle detection unit 40b based on its own position information and the position information of the first point.
  • the determination includes whether or not the distance between the position of 40b and the position of the first point is within a predetermined meter (for example, within 10 meters, within 30 meters, within 50 meters, within 100 meters).
  • the server (information providing apparatus) 13 can accurately grasp the timing at which the vehicle 2 (the in-vehicle detection unit 40b) transmits the in-vehicle detection unit information to itself.
  • the road detection unit 40a further detects the approach of the vehicle 2 to the first point, and transmits the approach detection information to the vehicle 2, and the vehicle 2 detects the on-vehicle detection unit based on the approach detection information.
  • Information may be transmitted to the server (information providing apparatus) 13.
  • the determination as to whether or not the vehicle 2 (on-vehicle detection unit 40b) has approached the first point is based on, for example, the road detection unit 40a based on the position information on the on-vehicle detection unit 40b and the position information on the first point. Includes determination of whether the distance between the position of the on-vehicle detector 40b and the position of the first point is within a predetermined meter (for example, within 10 meters, within 30 meters, within 50 meters, within 100 meters). .
  • the server (information providing apparatus) 13 can accurately grasp the timing at which the vehicle 2 (the in-vehicle detection unit 40b) transmits the in-vehicle detection unit information to itself.
  • FIG. 9 is a diagram showing a processing flow of the information providing system according to the second embodiment of the present invention.
  • the in-vehicle detection unit 40b determines whether or not the vehicle has approached the first point, for example (step S201).
  • the in-vehicle detection unit 40b transmits, for example, the above-described in-vehicle detection unit information to the server 13 (step S202).
  • the structure which transmits vehicle-mounted detection part information to the server 13 may be sufficient when the vehicle-mounted detection part 40b approaches the 1st point.
  • the in-vehicle detection unit 40b detects that the road detection unit 40a detects the approach to the first point of the in-vehicle detection unit 40b, transmits the approach detection information to the in-vehicle detection unit 40b, and the in-vehicle detection unit 40b
  • the structure which transmits vehicle-mounted detection part information to the server 13 based on detection information may be sufficient.
  • the server 13 acquires the above-mentioned road detection part information and vehicle-mounted detection part information, for example. Furthermore, the server 13 (integration unit 80) generates, for example, an integrated detection result based on the road detection unit information and the vehicle detection unit information, and the above-described overlap area (the actual overlap area 27 or the management overlap area 32) exists.
  • the first information related to the first dynamic objects 51a and 51b and the second information related to the second dynamic object 51c are associated with each other on the integrated area 26 (step S203). If there is no overlapping area, the first information and the second information may not be associated with each other on the integrated area 26, and the process may proceed to step S204 described later.
  • the server 13 transmits, for example, the integrated detection result to the in-vehicle detection unit 40b (step S204).
  • the integration unit 80 integrates information on the dynamic objects 51 (51a to 51c) detected by the plurality of detection units 40, and transmits the integrated detection result to the vehicle 2 (in-vehicle detection unit 40b).
  • the vehicle 2 on-vehicle detector 40b
  • the dynamic object 51 second dynamic object 51c
  • the dynamic object 51 first dynamic object
  • Each apparatus includes a computer, and an arithmetic processing unit such as a CPU in the computer stores a program including a part or all of each step of the configuration, operation, sequence diagram, or flowchart described in the above embodiment from a memory (not shown). Read and execute each.
  • Each of the programs of the plurality of apparatuses can be installed from the outside. The programs of the plurality of apparatuses are distributed while being stored in a recording medium.
  • the server 10 or the server 13 may not include at least one of the generation unit 11, the association unit 12, the acquisition unit 14, the integration unit 80, and the transmission unit 15. Good.
  • At least one of the generation unit 11 and the association unit 12 may be provided in the vehicle 2 having the communication unit 4a.
  • the information providing system according to the embodiment of the present invention can be realized without using the server 10.
  • the generation unit 11, the association unit 12, the detection unit 20, and the server 13 according to the server 10, the acquisition unit 14, the integration unit 80, and the transmission unit 15 is the vehicle 2. It may be provided in other vehicles excluding the vehicle, for example, a vehicle traveling around the vehicle 2 or a vehicle stopped around the vehicle 2. With such a configuration, the information providing system according to the embodiment of the present invention can be realized by performing inter-vehicle communication between the vehicle 2 and other vehicles excluding the vehicle 2. In addition, when other vehicles except the vehicle 2 are provided with the production
  • the grid map 23 may have a configuration in which IDs (identifiers) are distributed for each grid.
  • the server 10 association unit 12
  • the server 13 integration unit 80
  • the server 10 association unit 12
  • each dynamic object has the same object 70 (the same object). It is possible to more accurately determine whether or not the object 71).
  • the server 10 association unit 12 or the server 13 (integration unit 80) selects and represents the main grid map (main grid map) from each grid, and other grid maps.
  • the position (coordinates) may be adjusted so that is aligned with the main grid map.
  • the server 10 (association unit 12) or the server 13 (integration unit 80) associates the first information and the second information with the integrated region 24 (integrated region 26) in consideration of the position adjustment. With such a configuration, it is possible to easily generate the integrated region 24 (integrated region 26) based on the main grid map.
  • the server 10 association unit 12
  • the server 13 integration unit 80
  • the server 10 association unit 12
  • the server 13 integrated unit 80
  • the server 10 association unit 12
  • the server 13 integrated unit 80
  • the server 10 association unit 12
  • the server 13 integrated unit 80
  • the server 10 association unit 12
  • the server 13 integrated unit 80
  • the associating unit 12 further determines whether or not a predetermined condition is satisfied in the first embodiment (described above with reference to FIGS. 4A to 4C).
  • the association with the integrated region 24 may be performed using the detection position (coordinate) information of the first information and the second information.
  • the associating unit 12 [5] the difference between the position (coordinates) of the first dynamic object 50c and the position (coordinates) of the second dynamic object 50d is, for example, within 1 meter (more preferably 50 centimeters). It may be determined whether it is within a meter, more preferably within 30 centimeters, and even more preferably within 10 centimeters, and the association with the integrated region 24 may be performed.
  • a server used in an information providing system including a plurality of detection units that detect a dynamic object existing in a region that can be detected by the self, and includes a part or all of a detection region of each of the plurality of detection units A generating unit that generates an integrated region, and the first detecting unit in the overlapping region when there is an overlapping region in each of the first detecting unit and the second detecting unit of the plurality of detecting units.
  • the first information related to the first dynamic object indicated by the first detection result and the second information related to the second dynamic object indicated by the second detection result of the second detection unit in the overlapping area are respectively the integrated area.
  • An association unit associated with the server including a plurality of detection units that detect a dynamic object existing in a region that can be detected by the self, and includes a part or all of a detection region of each of the plurality of detection units A generating unit that generates an integrated region, and the first detecting unit in the overlapping region when there is an overlapping region in each of the first detecting unit and the second
  • the association unit associates the information related to the dynamic object detected in the overlapping region of the plurality of detection units on the integrated region, so that the dynamic object detected by the plurality of detection units can be accurately grasped.
  • the association unit determines whether or not a position of the first dynamic object and a position of the second dynamic object satisfy a predetermined condition, and based on the determination result, the first dynamic object The server according to appendix 2, wherein the second dynamic object and the second dynamic object are associated as the same object on the integrated region.
  • the associating unit determines whether or not the positions of the dynamic objects detected by each of the plurality of detecting units satisfy a predetermined condition, so that these dynamic objects are the same object. It is possible to more accurately determine whether or not.
  • the associating unit determines whether or not the characteristics of the first dynamic object and the characteristics of the second dynamic object satisfy a predetermined condition, and based on the determination result, the first dynamic object
  • the association unit determines whether or not the characteristics of the dynamic objects detected by each of the plurality of detection units satisfy a predetermined condition, so that these dynamic objects are the same object. It is possible to more accurately determine whether or not.
  • the integrated region is configured by a plurality of grids divided by a predetermined size, and the associating unit converts the first information and the second information into a part or all of the plurality of grids.
  • the server according to any one of appendix 1 to appendix 4, which is associated.
  • the associating unit configures the integrated region with the grid (grid map) and associates the first information with the second information in units of grids, so that the associating unit can easily grasp, for example, the overlapping region. Can be done.
  • the associating unit determines whether or not a first grid associated with the first information and a second grid associated with the second information satisfy a predetermined positional relationship.
  • the associating unit associates information on dynamic objects detected by each of the plurality of detecting units on the integrated region in units of grids, so that these dynamic objects are the same object for the associating unit. It can be easily determined.
  • An information providing method in an information providing system including a plurality of detection units for detecting a dynamic object existing in a region that can be detected by the self, the region including a part or all of the detection regions of each of the plurality of detection units And when the overlapping area exists in the detection area of each of the first detection part and the second detection part of the plurality of detection parts, the first detection part in the overlap area
  • the first information related to the first dynamic object indicated by the first detection result and the second information related to the second dynamic object indicated by the second detection result of the second detection unit in the overlapping area are respectively on the integrated area.
  • the association unit associates the information related to the dynamic object detected in the overlapping region of the plurality of detection units on the integrated region, so that the dynamic object detected by the plurality of detection units can be accurately grasped.
  • Appendix 8 A computer program for causing a computer to function as an information providing system including a plurality of detection units that detect a dynamic object existing in a region that can be detected by the self, wherein the computer detects each of the plurality of detection units.
  • the association unit associates the information related to the dynamic object detected in the overlapping region of the plurality of detection units on the integrated region, so that the dynamic object detected by the plurality of detection units can be accurately grasped.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

情報提供システムは、路上に設置され、自己が検知可能な領域内に存在する動的物体を検知する路上検知部と、自己が検知可能な領域内に存在する動的物体を検知する車載検知部を搭載する車両と、前記車両に情報を提供する情報提供装置と、を備え、前記車両は、さらに、前記車載検知部の位置を示す車載検知位置情報と、前記車載検知部が検知した車載検知結果と、を含む車載検知部情報を前記情報提供装置に送信し、前記情報提供装置は、さらに、前記路上検知部の位置を示す路上検知位置情報と、前記路上検知部が検知した路上検知結果と、を含む路上検知部情報を取得するとともに、前記車載検知部情報を取得する取得部と、前記路上検知部情報と前記車載検知部情報とに基づく統合検知結果を生成する統合部と、前記統合検知結果を前記車両へ送信する送信部と、を備える。

Description

情報提供システム、情報提供方法、コンピュータプログラム
 本発明は、情報提供システム、情報提供方法、コンピュータプログラムに関する。
 この出願は、2018年3月20日に出願された日本出願特願2018-52169号を基礎とする優先権を主張し、その開示のすべてをここに取り込む。
 特許文献1(特開2014-228637号公報)には、以下のような道路情報送信装置が掲載されている。すなわち、道路情報送信装置は、車両が走行可能な領域である走行可能領域とそれ以外の領域とが少なくとも区別された道路地図を生成するサーバとの間で通信を行うための通信機と、車両から周辺の物体までの距離を測定する測距センサと、車両の絶対位置及び方位を測定する測位センサと、が搭載された車両において用いられる道路情報送信装置であって、前記測距センサにより距離が測定された領域である測距領域において、前記測距センサによる測定結果に基づいて、走行面を基準とする高さが所定の判定しきい値以上の物体を障害物として検出し、前記測距領域から前記障害物が存在する部分を除外した領域を走行可能領域として抽出して、前記道路地図の一部分に相当する部分地図を表す情報を生成する領域抽出手段と、前記測距センサによる測定結果に基づいて、絶対位置が固定された所定の特徴物を前記測距領域から抽出し、当該部分地図における前記特徴物の位置を表す情報を生成する特徴物抽出手段と、前記部分地図を表す部分地図情報と、当該部分地図における前記特徴物の位置を表す特徴物情報と、前記測位センサにより測定された情報であって当該部分地図の前記道路地図における位置を特定するための位置特定情報と、を前記通信機から前記サーバへ送信する処理を行う送信手段と、を備える。
特開2014-228637号公報
 (1)本開示の情報提供システムは、路上に設置され、自己が検知可能な領域内に存在する動的物体を検知する路上検知部と、自己が検知可能な領域内に存在する動的物体を検知する車載検知部を搭載する車両と、前記車両に情報を提供する情報提供装置と、を備え、前記車両は、前記車載検知部の位置を示す車載検知位置情報と、前記車載検知部が検知した車載検知結果と、を含む車載検知部情報を前記情報提供装置に送信し、前記情報提供装置は、前記路上検知部の位置を示す路上検知位置情報と、前記路上検知部が検知した路上検知結果と、を含む路上検知部情報を取得するとともに、前記車載検知部情報を取得する取得部と、前記路上検知部情報と前記車載検知部情報とに基づく統合検知結果を生成する統合部と、前記統合検知結果を前記車両へ送信する送信部と、を備える。
 (9)本開示の情報提供方法は、路上に設置され、自己が検知可能な領域内に存在する動的物体を検知する路上検知部と、自己が検知可能な領域内に存在する動的物体を検知する車載検知部を搭載する車両と、前記車両に情報を提供する情報提供装置と、を備える情報提供システムにおける情報提供方法であって、前記車載検知部の位置を示す車載検知位置情報と、前記車載検知部が検知した車載検知結果と、を含む車載検知部情報を前記情報提供装置に送信するステップと、前記路上検知部の位置を示す路上検知位置情報と、前記路上検知部が検知した路上検知結果と、を含む路上検知部情報を取得するとともに、前記車載検知部情報を取得するステップと、前記路上検知部情報と前記車載検知部情報とに基づく統合検知結果を生成するステップと、前記統合検知結果を前記車両へ送信するステップと、を含む。
 (10)本開示のコンピュータプログラムは、路上に設置され、自己が検知可能な領域内に存在する動的物体を検知する路上検知部と、自己が検知可能な領域内に存在する動的物体を検知する車載検知部を搭載する車両と、を備える情報提供システムとしてコンピュータを機能させるためのコンピュータプログラムであって、前記コンピュータを、前記路上検知部の位置を示す路上検知位置情報と、前記路上検知部が検知した路上検知結果と、を含む路上検知部情報を取得するとともに、前記車載検知部の位置を示す車載検知位置情報と、前記車載検知部が検知した車載検知結果と、を含む車載検知部情報を取得する取得部と、前記路上検知部情報と前記車載検知部情報とに基づく統合検知結果を生成する統合部と、前記統合検知結果を前記車両へ送信する送信部と、して機能させる。
 本開示の一態様は、このような特徴的な処理部や特徴的な処理を備える、情報提供システム、情報提供方法、コンピュータプログラムとして実現され得るだけでなく、情報提供システムに用いられる端末装置として実現され得る。また、本開示の一態様は、情報提供システムの一部または全部を実現する半導体集積回路として実現され得る。
図1は、本発明の第1実施形態に係る情報提供システムの構成を示す図である。 図2は、本発明の第1実施形態に係る情報提供システムにおけるサーバの構成を示す図である。 図3Aは、本発明の第1実施形態に係る情報提供システムの生成部が生成する統合領域の例を示す第1の説明図である。 図3Bは、本発明の第1実施形態に係る情報提供システムの生成部が生成する統合領域の例を示す第2の説明図である。 図3Cは、本発明の第1実施形態に係る情報提供システムの生成部が生成する統合領域の例を示す第3の説明図である。 図3Dは、本発明の第1実施形態に係る情報提供システムの生成部が生成する統合領域の例を示す第4の説明図である。 図4Aは、本発明の第1実施形態に係る情報提供システムの生成部が生成する統合領域の例を示す第5の説明図である。 図4Bは、本発明の第1実施形態に係る情報提供システムの生成部が生成する統合領域の例を示す第6の説明図である。 図4Cは、本発明の第1実施形態に係る情報提供システムの生成部が生成する統合領域の例を示す第7の説明図である。 図5は、本発明の第1実施形態に係る情報提供システムの処理フローを示す図である。 図6は、本発明の第2実施形態に係る情報提供システムの構成を示す図である。 図7は、本発明の第2実施形態に係る情報提供システムにおけるサーバの構成を示す図である。 図8Aは、本発明の第2実施形態に係る情報提供システムの統合部が生成する統合領域の例を示す第1の説明図である。 図8Bは、本発明の第2実施形態に係る情報提供システムの統合部が生成する統合領域の例を示す第2の説明図である。 図8Cは、本発明の第2実施形態に係る情報提供システムの統合部が生成する統合領域の例を示す第3の説明図である。 図9は、本発明の第2実施形態に係る情報提供システムの処理フローを示す図である。
 従来、車両から収集した情報を用いて道路地図を生成するための技術が開発されている。
 [本開示が解決しようとする課題]
 特許文献1に記載の道路情報送信装置では、絶対位置が固定された所定の特徴物が含まれる複数の部分地図同士の位置を、特徴物の部分地図における位置に基づいて整合(統合)することで、上記特徴物を把握することができる。しかしながら、車両にとって、自己の検知部が検知した絶対位置が固定されない動的物体のみならず、他の検知部が検知した動的物体も含む自己周辺の動的物体を把握することについてはこの特許文献1に開示も示唆もされていない。
 本開示は、上述の課題を解決するためになされたもので、その目的は、車両にとって自己の検知部が検知した動的物体のみならず他の検知部が検知した動的物体も含む自己周辺の動的物体を正確に把握することが可能な情報提供システム、情報提供方法、コンピュータプログラムを提供することである。
 [本開示の効果]
 本開示によれば、車両にとって自己の検知部が検知した動的物体のみならず他の検知部が検知した動的物体も含む自己周辺の動的物体を正確に把握することができる。
 [本願発明の実施形態の説明]
 最初に、本発明の実施形態の内容を列記して説明する。
 (1)本発明の実施の形態に係る情報提供システムは、路上に設置され、自己が検知可能な領域内に存在する動的物体を検知する路上検知部と、自己が検知可能な領域内に存在する動的物体を検知する車載検知部を搭載する車両と、前記車両に情報を提供する情報提供装置と、を備え、前記車両は、前記車載検知部の位置を示す車載検知位置情報と、前記車載検知部が検知した車載検知結果と、を含む車載検知部情報を前記情報提供装置に送信し、前記情報提供装置は、前記路上検知部の位置を示す路上検知位置情報と、前記路上検知部が検知した路上検知結果と、を含む路上検知部情報を取得するとともに、前記車載検知部情報を取得する取得部と、前記路上検知部情報と前記車載検知部情報とに基づく統合検知結果を生成する統合部と、前記統合検知結果を前記車両へ送信する送信部と、を備える。
 このように、統合部が複数の検知部で検知された動的物体に関する情報を統合し、その統合検知結果を車両へ送信することで、車両にとって自己の検知部が検知した動的物体のみならず他の検知部が検知した動的物体も含む自己周辺の動的物体を正確に把握することができる。
 (2)好ましくは、前記統合部は、さらに、前記路上検知部と前記車載検知部それぞれの検知領域の一部または全部を含む領域からなる統合領域を生成し、前記路上検知部と前記車載検知部それぞれの検知領域において重複領域が存在する場合に、前記重複領域における前記路上検知結果が示す第1動的物体に関する第1情報と、前記重複領域における前記車載検知結果が示す第2動的物体に関する第2情報とを、それぞれ前記統合領域上に関連付ける。
 このように、統合部が複数の検知部の重複領域で検知された動的物体に関する情報を統合領域上に関連付けることで、車両にとって自己の検知部が検知した動的物体のみならず他の検知部が検知した動的物体も含む自己周辺の動的物体を正確に把握することができる。
 (3)好ましくは、前記路上検知部情報は、さらに、前記路上検知部が前記取得部へ送信した第1時刻情報を含み、前記車載検知部情報は、さらに、前記車両が前記取得部へ送信した第2時刻情報を含み、前記統合部は、さらに、前記第1時刻情報と、前記第2時刻情報とを関連付ける。
 このような構成により、統合部は、例えば路上検知部から情報提供装置(取得部)への情報伝送時間と、車載検知部から情報提供装置(取得部)への情報伝送時間とが異なる場合であっても、各時刻情報を関連付けることができる。したがって、車両にとって自己の検知部が検知した動的物体のみならず他の検知部が検知した動的物体も含む自己周辺の動的物体をより正確に把握することができる。
 (4)好ましくは、前記車両は、自己が第1地点へ接近した場合に、前記車載検知部情報を前記情報提供装置に送信する。
 このような構成により、情報提供装置は、車両が車載検知部情報を自己に送信するタイミングを正確に把握することができる。
 (5)好ましくは、前記路上検知部は、さらに、前記車両の第1地点への接近を検知して、その接近検知情報を前記車両に送信し、前記車両は、前記接近検知情報に基づいて、前記車載検知部情報を前記情報提供装置に送信する。
 このような構成により、情報提供装置は、車両が車載検知部情報を自己に送信するタイミングを正確に把握することができる。
 (6)好ましくは、前記統合部は、さらに、前記第1情報と前記第2情報とに基づいて、前記第1動的物体と前記第2動的物体とを同一物体として前記統合領域上に関連付ける。
 このような構成により、複数の検知部それぞれで検知された動的物体が同一である場合に、統合部はこれらの動的物体を同一物体として正確に判断することができる。
 (7)好ましくは、前記統合領域は、所定の大きさで区分された複数のグリッドから構成され、前記統合部は、前記第1情報と前記第2情報とを前記複数のグリッドのうちの一部または全部のグリッドに関連付ける。
 このように、統合部が統合領域を当該グリッド(グリッド地図)で構成し、グリッド単位で第1情報と第2情報との関連付けを行うことで、統合部にとって例えば重複領域の把握等を容易に行うことができる。
 (8)好ましくは、前記統合部は、前記第1情報に関連付けられた第1グリッドと、前記第2情報に関連付けられた第2グリッドとが所定の位置関係を満たしているか否かの判定を行い、その判定結果に基づいて前記第1動的物体と前記第2動的物体とを同一物体として前記統合領域上に関連付ける。
 このように、統合部がグリッド単位で、複数の検知部それぞれで検知された動的物体に関する情報を統合領域上に関連付けることで、統合部にとってこれらの動的物体が同一物体であるか否かの判断を容易に行うことができる。
 (9)本発明の実施の形態に係る情報提供方法は、路上に設置され、自己が検知可能な領域内に存在する動的物体を検知する路上検知部と、自己が検知可能な領域内に存在する動的物体を検知する車載検知部を搭載する車両と、前記車両に情報を提供する情報提供装置と、を備える情報提供システムにおける情報提供方法であって、前記車載検知部の位置を示す車載検知位置情報と、前記車載検知部が検知した車載検知結果と、を含む車載検知部情報を前記情報提供装置に送信するステップと、前記路上検知部の位置を示す路上検知位置情報と、前記路上検知部が検知した路上検知結果と、を含む路上検知部情報を取得するとともに、前記車載検知部情報を取得するステップと、前記路上検知部情報と前記車載検知部情報とに基づく統合検知結果を生成するステップと、前記統合検知結果を前記車両へ送信するステップと、を含む。
 このように、統合部が複数の検知部の重複領域で検知された動的物体に関する情報を統合し、その統合検知結果を車両へ送信することで、車両にとって自己の検知部が検知した動的物体のみならず他の検知部が検知した動的物体も含む自己周辺の動的物体を正確に把握することができる。
 (10)本発明の実施の形態に係るコンピュータプログラムは、路上に設置され、自己が検知可能な領域内に存在する動的物体を検知する路上検知部と、自己が検知可能な領域内に存在する動的物体を検知する車載検知部を搭載する車両と、を備える情報提供システムとしてコンピュータを機能させるためのコンピュータプログラムであって、前記コンピュータを、前記路上検知部の位置を示す路上検知位置情報と、前記路上検知部が検知した路上検知結果と、を含む路上検知部情報を取得するとともに、前記車載検知部の位置を示す車載検知位置情報と、前記車載検知部が検知した車載検知結果と、を含む車載検知部情報を取得する取得部と、前記路上検知部情報と前記車載検知部情報とに基づく統合検知結果を生成する統合部と、前記統合検知結果を前記車両へ送信する送信部と、して機能させる。
 このように、統合部が複数の検知部の重複領域で検知された動的物体に関する情報を統合し、その統合検知結果を車両へ送信することで、車両にとって自己の検知部が検知した動的物体のみならず他の検知部が検知した動的物体も含む自己周辺の動的物体を正確に把握することができる。
 以下、本発明の実施の形態について図面を用いて説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。また、以下に記載する実施の形態の少なくとも一部を任意に組み合わせてもよい。
 <第1実施形態>
 図1は、本発明の第1実施形態に係る情報提供システムの構成を示す図である。
 図1を参照して、情報提供システム1は、サーバ10と、複数の検知部20(第1検知部20a,第2検知部20bを含む。以下も同様とする。)とを備える。なお、符号におけるアルファベット(例えば第1検知部20aにおける「a」)を省略した場合(検知部20)は、その符号の対象の総称を指すものとする。これは以降の説明においても同様である。
 検知部20は、例えばカメラやLiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)等を含むセンサであり、自己が検知可能な領域内に存在する動的物体(図1にて不図示。)を検知する。なお、検知部20は路側に設置されていても車両に設置されていてもよいが、第1実施形態では、複数の検知部20が路側に設置されている場合について説明する。
 検知部20が検知可能な領域である現実検知領域21(第1検知部20aが検知可能な領域である第1現実検知領域21a、第2検知部20bが検知可能な領域である第2現実検知領域21bを含む)は、例えば自己を中心として半径40メートルである。検知部20は、サーバ10へ、検知部20が現実検知領域21内に存在する動的物体に係る検知情報を送信する。この検知情報は、例えばLiDAR点群検知情報を含む。
 サーバ10は、例えば複数の検知部20の位置情報を有する。当該位置情報は、例えばGPS(Global Positioning System)に基づいた、緯度、経度に関する座標(以下、単に「座標」とも称する。)情報等を含む。当該位置情報は、例えば検知部20が定期的に自己の位置情報をサーバ10に送信し、サーバ10が当該位置情報を取得して管理する。
 なお、検知部20が位置情報を有しない場合には、サーバ10のオペレータがサーバ10に検知部20の位置情報を登録してもよい。
 検知部20が送信する検知情報は、例えば動的物体の位置(座標)、特徴(大きさ、形状、色)等に関する情報を含む。動的物体の詳細については後述する。
 第1実施形態では、複数の検知部20のうちの第1検知部20aと第2検知部20bそれぞれの現実検知領域21(第1現実検知領域21aと第2現実検知領域21b)が重複する領域である現実重複領域22が存在する場合を想定する。
 図2は、本発明の第1実施形態に係る情報提供システムにおけるサーバの構成を示す図である。
 図2を参照して、サーバ10は、通信部4aと、生成部11と、関連付け部12とを備える。
 通信部4aは、例えば複数の検知部20から検知情報を受信し、生成部11または関連付け部12に当該検知情報を提供する。
 生成部11は、複数の検知部20のうちの第1検知部20aと第2検知部20bそれぞれの現実検知領域21(21a,21b)の一部または全部を含む領域からなる統合領域(図2にて不図示。)を生成する。詳細については後述する。
 関連付け部12は、統合領域上における所定の領域と、所定の動的物体とを関連付ける。詳細については後述する。
 図3Aは、本発明の第1実施形態に係る情報提供システムの生成部が生成する統合領域の例を示す第1の説明図である。図3Bは、本発明の第1実施形態に係る情報提供システムの生成部が生成する統合領域の例を示す第2の説明図である。図3Cは、本発明の第1実施形態に係る情報提供システムの生成部が生成する統合領域の例を示す第3の説明図である。図3Dは、本発明の第1実施形態に係る情報提供システムの生成部が生成する統合領域の例を示す第4の説明図である。
 図3A~図3Dを参照して、複数の検知部20(20a,20b)の構成については図1~図2に掲載の構成と同様とし、現実検知領域21(21a,21b)の構成については図1に掲載の構成と同様とする。
 グリッド地図23(図3Aの第1グリッド地図23a、図3Bの第2グリッド地図23b)は、検知部20(20a,20b)及び動的物体50(50a,50b)を統合領域24に関連付けるための部分地図であり、例えば所定の大きさで区分された複数のグリッド(等間隔の格子線)から構成される。1つのグリッドの大きさは、例えば30センチメートル四方である。統合領域24の詳細については後述する。
 生成部11は、例えば現実検知領域21(21a,21b)に内接、または内包されるようにグリッド地図23を生成する。すなわち、生成部11は、例えば現実検知領域21を、検知部20の位置を原点として複数のグリッドで区切り、そこから最大の大きさとなる四角形(正方形または長方形)を抽出することによって、グリッド地図23を生成する。
 グリッド地図23は、サーバ10(関連付け部12)が現実検知領域21を管理しやすいように加工した検知領域であることから、管理検知領域23とも称する。現実検知領域21(21a,21b)と管理検知領域23(23a,23b)を総称して検知領域という。そうすると、第1実施形態では、サーバ10(生成部11)は、第1検知部20aと第2検知部20bそれぞれの管理検知領域23(23a,23b)の一部または全部を含む領域からなる統合領域を生成する、とも言える。
 また、第1検知部20aと第2検知部20bそれぞれの管理検知領域23(第1管理検知領域23aと第2管理検知領域23b)が重複する領域である重複領域を管理重複領域31という。現実重複領域22と管理重複領域31を総称して重複領域という。そうすると、第1実施形態では、第1検知部20aと第2検知部20bそれぞれの管理検知領域23(23a,23b)が重複する領域である管理重複領域31が存在する場合を想定している、とも言える。
 さらに、サーバ10が、例えば複数の検知部20の位置情報、複数の検知部20が検知する方角情報等を有していれば、グリッド地図23を構成する全てのグリッドそれぞれの中心点の座標を算出することができ、それらの座標をそれぞれのグリッドのグリッド位置に対応させることができる。
 統合領域24は、上述のグリッド地図(管理検知領域)23と同様に、例えば所定の大きさで区分された複数のグリッドから構成される。このグリッドの大きさは、例えばグリッド地図23に用いられるグリッドの大きさと同じであるが、これに限定されるわけではなく、例えばグリッド地図23に用いられるグリッドの大きさとは異なっていてもよい。
 サーバ10(生成部11)は、例えば、統合領域24を以下のように作成する。すなわち、生成部11は、まず、図3Cに示すように、一つの平面上に第1グリッド地図23aと第2グリッド地図23bとを描く。
 次に、生成部11は、第1グリッド地図23aと第2グリッド地図23bそれぞれの領域において重複領域が存在する場合に、第1グリッド地図23aにおける重複部分のグリッド(図3Aの斜線のグリッド)と第2グリッド地図23bにおける重複部分のグリッド(図3Bの斜線のグリッド)とに、ずれが生じているか否かを判定する。この判定結果において、ずれが生じていない場合には、生成部11は、平面における第1グリッド地図23aと第2グリッド地図23bとの位置を確定する。ここで、第1実施形態ではずれが生じていないものとする。
 最後に、生成部11は、図3Dに示すように、第1グリッド地図23aと第2グリッド地図23bとを含む最小の四角形が生成されるように、第1グリッド地図23aと第2グリッド地図23b以外の領域にグリッドを加えていく。この四角形の生成が完成することにより、この四角形が統合領域24となる。
 生成部11は、例えば図3C,図3Dに示すように統合領域24を構成するグリッドの縦の列と横の列それぞれにアルファベット等の符号を振る。以下の説明では、統合領域24における縦の列を示す符号と横の列を示す符号の組合せからなる位置をグリッド位置という。例えばグリッド位置が「Bf」となるグリッドは、横の列の符号が「B」、縦の列の符号が「f」であるグリッドを示すものとする。グリッド位置は、統合領域24において一意に定まり、検知情報に含まれる座標情報に基づいて設置することができる。
 ここで、横E~F列かつ縦e~f列のグリッドからなる領域は、グリッド地図(管理検知領域)23(23a,23b)それぞれのうちのいずれにも属する管理重複領域31である。一方で、横A~D列かつ縦a~d列のグリッドからなる領域、及び、横G~J列かつ縦g~j列のグリッドからなる領域はグリッド地図(管理検知領域)23(23a,23b)それぞれのうちのいずれにも属さない領域(外部領域)である。
 第1動的物体50a、第2動的物体50bは、動的物体であり、例えば人間である。なお、これらは車両や動物等であってもよい。
 また、第1実施形態においては、第1グリッド地図23aに係る第1検知部20aの第1検知結果が示す第1動的物体50aに関する情報を第1情報とする。さらに、第2グリッド地図23bに係る第2検知部20bの第2検知結果が示す第2動的物体50bに関する情報を第2情報とする。
 第1情報は、例えば第1動的物体50aの位置(検出位置)、特徴(大きさ、形状、色)等に関する情報を含む。第2情報は、例えば第2動的物体50bの位置(検出位置)、特徴(大きさ、形状、色)等に関する情報を含む。
 具体的には、第1情報は、第1動的物体50aの検出位置に加えて、大きさ(高さ)が1.7メートル、形状が人間、色(服の色)が青と黒である、等の情報を含む。また、第2情報は、第2動的物体50bの検出位置に加えて、大きさ(高さ)が1.7メートル、形状が人間、色(服の色)が青と黒である、等の情報を含む。
 関連付け部12は、上述の管理重複領域31が存在する場合に、管理重複領域31における第1動的物体50aに関する第1情報と、第2動的物体50bに関する第2情報とを、それぞれ複数のグリッド(統合領域24上)のうちの一部または全部のグリッドに関連付ける。具体的には、関連付け部12は、第1情報の検出位置からグリッド位置(図3Cにおける管理重複領域31の「Fe」の位置)に変換して、そのグリッド位置のグリッドに第1情報を関連付け、第2情報の検出位置からグリッド位置(図3Cにおける管理重複領域31の「Ef」の位置)に変換して、そのグリッド位置のグリッドに第2情報を関連付ける。
 ところで、特許文献1(特開2014-228637号公報)に記載の道路情報送信装置では、絶対位置が固定された所定の特徴物が含まれる複数の部分地図同士の位置を、特徴物の部分地図における位置に基づいて整合(統合)することで、上記特徴物を把握することができるが、複数のセンサ(検知部)で検知した、絶対位置が固定されない動的物体を把握することについてはこの特許文献1に開示も示唆もされていない。
 それに対して、本発明の実施の形態に係るサーバ10は、以上説明したように、自己が検知可能な領域内に存在する動的物体50を検知する複数の検知部20を備える情報提供システム1に用いられるサーバ10であって、複数の検知部20それぞれの検知領域(現実検知領域21(21a,21b)または管理検知領域23(23a,23b))の一部または全部を含む領域からなる統合領域24を生成する生成部11と、複数の検知部20のうちの第1検知部20aと第2検知部20bそれぞれの検知領域(現実検知領域21(21a,21b)または管理検知領域23(23a,23b))において重複領域(現実重複領域22または管理重複領域31)が存在する場合に、重複領域における第1検知部20aの第1検知結果が示す第1動的物体50aに関する第1情報と、重複領域における第2検知部20bの第2検知結果が示す第2動的物体50bに関する第2情報とを、それぞれ統合領域24上に関連付ける関連付け部12と、を備える。
 このように、関連付け部12が複数の検知部20の重複領域で検知された動的物体50に関する情報を統合領域24上に関連付けることで、複数の検知部20で検知した動的物体50を正確に把握することができる。
 また、サーバ10が高度、高速な演算処理機能を有している場合は、生成部11、関連付け部12で行う処理をサーバ10で行う構成により、高速、高度な情報提供システムを提供することができる。
 また、本発明の実施の形態に係るサーバ10では、統合領域24は、所定の大きさで区分された複数のグリッドから構成され、関連付け部12は、第1情報と第2情報とを複数のグリッドのうちの一部または全部のグリッドに関連付ける。
 このように、関連付け部12が、統合領域24を当該グリッド(グリッド地図)で構成し、グリッド単位で第1情報と第2情報との関連付けを行うことで、関連付け部12にとって例えば重複領域の把握等を容易に行うことができる。
 <変形例1>
 以下では、第1動的物体と第2動的物体とが同一物体である場合に好適な情報提供システム1に用いられるサーバ10について説明する。
 図4Aは、本発明の第1実施形態に係る情報提供システムの生成部が生成する統合領域の例を示す第5の説明図である。図4Bは、本発明の第1実施形態に係る情報提供システムの生成部が生成する統合領域の例を示す第6の説明図である。図4Cは、本発明の第1実施形態に係る情報提供システムの生成部が生成する統合領域の例を示す第7の説明図である。
 図4A~図4Cを参照して、図4Aにおける第1動的物体50cの位置が図3Aの第1動的物体50aの位置と異なるものとし、その他の、検知部20(20a,20b)、現実検知領域21(21a,21b)、管理検知領域(グリッド地図)23(23a,23b)、統合領域24、管理重複領域31の構成については、それぞれ図3A~図3Dに掲載の構成と同様とする。また、図4Bにおける第2動的物体50dの位置は、図3A~図3Dの第2動的物体50bの位置と同様とする。また、図4Cにおける統合領域24の作成手順は、上述の図3A~図3D等の説明と同様であるので省略する。
 ここで、第1動的物体50cと第2動的物体50dとが同一物体である場合に、関連付け部12は、第1動的物体50cに関する第1情報と第2動的物体50dに関する第2情報とに基づいて、第1動的物体50cと第2動的物体50dとを同一物体70として統合領域24上に関連付ける。
 具体的には、例えば関連付け部12は、(1)第1動的物体50cの位置と第2動的物体50dの位置とが所定の条件を満たしているか否か、あるいは(2)第1動的物体50cの特徴と第2動的物体50dの特徴とが所定の条件を満たしているか否か、等の判定を行い、その判定結果に基づいて第1動的物体50cと第2動的物体50dとを同一物体70として統合領域24上に関連付ける。
 上記(1)について、より詳細には、関連付け部12は、第1情報(第1動的物体50cに関する情報)に関連付けられた第1グリッドと、第2情報(第2動的物体50dに関する情報)に関連付けられた第2グリッドとが所定の位置関係を満たしているか否かの判定を行う。
 所定の位置関係とは、例えば、第1動的物体50cが存在する第1グリッド位置と第2動的物体50dが存在する第2グリッド位置とが、管理重複領域31内における同じグリッド位置(図4Cの場合はグリッド位置「Ef」)となる関係を含む。なお、所定の位置関係は、上述した同じグリッド位置同士となる関係に限られず、隣接するグリッド位置同士となる関係(例えば図4Cでグリッド位置「Ef」とグリッド位置「Ff」)であってもよい。
 なお、上記(1)に加えて、関連付け部12は、複数の検知部20が例えばLiDARであり、第1情報及び第2情報にそれぞれ動的物体50(50c,50d)が向いている方向に関する情報(以下、「向き情報」とも称する。)が含まれていれば、これらの情報に基づいて第1動的物体50cと第2動的物体50dとが同一物体70であるか否かの判断をしてもよい。
 より詳細には、関連付け部12は、例えば第1検知部20aの位置情報と、第1動的物体50cの位置情報及び向き(第1検知部20aから見た相対的な向き)情報等に基づいて、第1動的物体50cが向いている方向が南であると判断したとする。同様に、第2検知部20bの位置情報と、第2動的物体50dの位置情報及び向き(第2検知部20bから見た相対的な向き)情報等に基づいて、第2動的物体50dが向いている方向が南であると判断した場合に、第1動的物体50cと第2動的物体50dとを同一物体70としてもよい。
 また、上記(2)について、上記の特徴とは例えば大きさ(体積)、形状、色である。複数の検知部20が例えばLiDARである場合、当該LiDARによって動的物体50(50c,50d)の大きさや形状は認識可能である。関連付け部12は、これらの大きさや形状の情報に基づいて第1動的物体50cと第2動的物体50dとが同一物体70であるか否かの判断をしてもよい。
 また、複数の検知部20が例えばカメラである場合、関連付け部12は、当該カメラから送信された画像データを解析し、色に関する情報(RGB値)に基づいて第1動的物体50cと第2動的物体50dとが同一物体70であるか否かの判断をしてもよい。
 所定の条件を満たすとは、例えば第1動的物体50cの特徴を示す数値と第2動的物体50dの特徴を示す数値とが一致することまたはこれらの数値の差異が所定の範囲内に含まれることをいう。
 より詳細には、所定の条件を満たすか否かの判断は、[1]第1動的物体50cが向いている方向と第2動的物体50dが向いている方向との差異が例えば45度以内(さらに好ましくは30度以内、さらに好ましくは20度以内、さらに好ましくは10度以内)であるか否か、[2]第1動的物体50cの大きさ(体積)と第2動的物体50dの大きさ(体積)との差異が10%以内(さらに好ましくは5%以内、さらに好ましくは3%以内、さらに好ましくは1%以内)であるか否か、[3]第1動的物体50cの色(RGB値)と第2動的物体50dの色(RGB値)とのR値、G値、B値それぞれの差異が10%以内(さらに好ましくは5%以内、さらに好ましくは3%以内、さらに好ましくは1%以内)であるか否か、等の判断を含む。
 なお、[4]第1動的物体50cの形状と第2動的物体50dの形状とが所定の条件を満たしているか否か、の判定については、例えば形状パターンの認識技術(形状マッチング技術)を用いて行うことができる。
 以上説明したように、本発明の実施の形態に係るサーバ10では、関連付け部12は、さらに、第1情報と第2情報とに基づいて、第1動的物体50cと第2動的物体50dとを同一物体70として統合領域24上に関連付ける。
 このような構成により、複数の検知部20それぞれで検知された動的物体50(50c,50d)が同一である場合に、関連付け部12はこれらの動的物体50(50c,50d)を同一物体70として正確に判断することができる。
 また、本発明の実施の形態に係るサーバ10では、関連付け部12は、第1動的物体50cの位置と第2動的物体50dの位置とが所定の条件を満たしているか否かの判定を行い、その判定結果に基づいて第1動的物体50cと第2動的物体50dとを同一物体70として統合領域24上に関連付ける。
 このように、関連付け部12が、複数の検知部20それぞれで検知された動的物体50(50c,50d)の位置が所定の条件を満たしているか否かの判定を行うことで、これらの動的物体50(50c,50d)が同一物体70であるか否かをより正確に判断することができる。
 また、本発明の実施の形態に係るサーバ10では、関連付け部12は、第1動的物体50cの特徴と第2動的物体50dの特徴とが所定の条件を満たしているか否かの判定を行い、その判定結果に基づいて第1動的物体50cと第2動的物体50dとを同一物体70として統合領域24上に関連付ける。
 このように、関連付け部12が、複数の検知部20それぞれで検知された動的物体50(50c,50d)の特徴が所定の条件を満たしているか否かの判定を行うことで、これらの動的物体50(50c,50d)が同一物体70であるか否かをより正確に判断することができる。
 また、本発明の実施の形態に係るサーバ10では、関連付け部12は、第1情報に関連付けられた第1グリッドと、第2情報に関連付けられた第2グリッドとが所定の位置関係を満たしているか否かの判定を行い、その判定結果に基づいて第1動的物体50cと第2動的物体50dとを同一物体70として統合領域24上に関連付ける。
 このように、関連付け部12が、グリッド単位で、複数の検知部20それぞれで検知された動的物体50(50c,50d)に関する情報を統合領域24上に関連付けることで、関連付け部12にとってこれらの動的物体が同一物体70であるか否かの判断を容易に行うことができる。
 <第1実施形態に係る情報提供システムの処理フロー>
 図5は、本発明の第1実施形態に係る情報提供システムの処理フローを示す図である。
 図5を参照して、まずサーバ10(生成部11)は、複数の検知部20(20a,20b)それぞれの検知領域(現実検知領域21(21a,21b)または管理検知領域23(23a,23b))の一部または全部を含む領域からなる統合領域24を生成する(ステップS101)。
 次に、サーバ10(関連付け部12)は、例えば複数の検知部20のうちの第1検知部20aと第2検知部20bそれぞれの検知領域(現実検知領域21(21a,21b)または管理検知領域23(23a,23b))において重複領域(現実重複領域22または管理重複領域31)が存在する場合に、重複領域における第1検知部20aの第1検知結果が示す第1動的物体50cに関する第1情報と、重複領域における第2検知部20bの第2検知結果が示す第2動的物体50dに関する第2情報とに基づいて、第1動的物体50cと第2動的物体50dとを同一物体70として統合領域24上に関連付ける(ステップS102)。この関連付けの詳細については、上述の図4A~図4C等の説明と同様であるので省略する。
 第1動的物体50cと第2動的物体50dとが同一物体であるか否かは、例えば動的物体50それぞれの位置が所定の条件を満たしているか否か、動的物体50それぞれの特徴が所定の条件を満たしているか否か、等の判定を行い、その判定結果に基づいて行う。この判定の詳細についても、上述の図4A~図4C等の説明と同様であるので省略する。
 なお、サーバ10(関連付け部12)は、第1動的物体50aと第2動的物体50bとが同一物体70でない場合等は、単に上述の第1情報と第2情報とを、それぞれ統合領域24上に関連付ければよい。すなわち、第1動的物体50aと第2動的物体50bとを同一物体70と判断せずに、単に第1動的物体50aと第2動的物体50bとを統合領域24上に関連付ければよい。この場合の動作の詳細については、上述の図3A~図3D等の説明と同様であるので省略する。
 このように、関連付け部12が複数の検知部20の重複領域で検知された動的物体50に関する情報を統合領域24上に関連付けることで、複数の検知部20で検知した動的物体50を正確に把握することができる。
 <第2実施形態>
 上述の第1実施形態では複数の検知部が路側に設置されている構成について説明したが、これに限定されるわけではない。本発明の第2実施形態では、複数の検知部のうちの一部が車両に設置されている構成について説明する。以下では、第1実施形態との相違点を中心に説明する。
 図6は、本発明の第2実施形態に係る情報提供システムの構成を示す図である。
 図6を参照して、情報提供システム1は、サーバ(情報提供装置)13と、路上検知部40aと、車載検知部40bを搭載した車両2とを備える。以下、路上検知部40a,車載検知部40bを含む検知部それぞれを、「検知部40」とも表記する。
 路上検知部40aは、例えばカメラやLiDAR等を含むセンサであり、路上に設置され、自己が検知可能な領域内に存在する動的物体(図6にて不図示。)を検知する。
 車載検知部40bは、例えばカメラやLiDAR等を含むセンサを備え、このセンサにより、自己が検知可能な領域内に存在する動的物体(図6にて不図示。)を検知する。
 路上検知部40aや車載検知部40bが検知可能な領域である現実検知領域25(路上検知部40aが検知可能な領域である第1現実検知領域25a、車載検知部40bが検知可能な領域である第2現実検知領域25bを含む)は、例えば自己を中心として半径40メートルである。路上検知部40aや車載検知部40bは、サーバ13へ、路上検知部40aや車載検知部40bが現実検知領域25内に存在する動的物体に係る検知情報を送信する。この検知情報は、例えばLiDAR点群検知情報を含む。
 サーバ13は、例えば路上検知部40aや車載検知部40bの位置情報を有する。当該位置情報は、例えばGPSに基づいた座標情報等を含む。当該位置情報は、例えば路上検知部40aや車載検知部40bが定期的に自己の位置情報をサーバ13に送信し、サーバ13が当該位置情報を取得して管理する。
 路上検知部40aや車載検知部40bが送信する検知情報は、例えば動的物体の位置(座標)、特徴(大きさ、形状、色)等に関する情報を含む。動的物体の詳細については、第1実施形態(上述の図3A~図3D等の説明)と同様であるので説明を省略する。
 第2実施形態では、路上検知部40aと車載検知部40bそれぞれの現実検知領域25(第1現実検知領域25aと第2現実検知領域25b)が重複する領域である現実重複領域27が存在する場合を想定する。
 図7は、本発明の第2実施形態に係る情報提供システムにおけるサーバの構成を示す図である。
 図7を参照して、サーバ13は、通信部4bと統合部80とを備え、通信部4bは、さらに、取得部14と送信部15とを備える。
 路上検知部40aは、自己の位置を示す路上検知位置情報と、路上検知部40aが検知した路上検知結果と、を含む路上検知部情報をサーバ13(取得部14)に送信する。路上検知位置情報は、例えばGPSに基づいた座標情報等を含む。路上検知結果は、例えば動的物体に関する情報を示す結果(検知情報)を含む。なお、路上検知部40aは、路上検知位置情報を含まない路上検知部情報を送信してもよい。この場合、サーバ13のオペレータが路上検知部40aの位置をサーバに入力し、サーバ13(取得部14)はこれを取得する。
 車載検知部40b(車両2)は、自己の位置を示す車載検知位置情報と、車載検知部40bが検知した車載検知結果と、を含む車載検知部情報をサーバ13(取得部14)に送信する。車載検知位置情報は、例えばGPSに基づいた座標情報等を含む。車載検知結果は、例えば動的物体に関する情報を示す結果(検知情報)を含む。
 取得部14は、路上検知部40aから送信された路上検知部情報を取得するとともに、車載検知部40bから送信された車載検知部情報を取得する。路上検知結果は、例えば動的物体に関する情報を示す結果(検知情報)を含む。統合部80、送信部15の動作については後述する。
 図8Aは、本発明の第2実施形態に係る情報提供システムの統合部が生成する統合領域の例を示す説明図である。図8Bは、本発明の第2実施形態に係る情報提供システムの統合部が生成する統合領域の例を示す第2の説明図である。図8Cは、本発明の第2実施形態に係る情報提供システムの統合部が生成する統合領域の例を示す第3の説明図である。
 図8A~図8Cを参照して、路上検知部40aと車載検知部40bとの構成については図6~図7に掲載の構成と同様とし、現実検知領域25(25a,25b)の構成については図6に掲載の構成と同様とする。
 グリッド地図28(図8Aの第1グリッド地図28a、図8Bの第2グリッド地図28b)は、検知部40(40a,40b)及び動的物体51(51a~51c)を図8Cの統合領域26に関連付けるための部分地図であり、例えば所定の大きさで区分された複数のグリッドから構成される。1つのグリッドの大きさは、例えば30センチメートル四方である。統合領域26の詳細については後述する。
 統合部80は、例えば現実検知領域25(25a,25b)に内接、または内包されるようにグリッド地図28を生成する。すなわち、統合部80は、例えば現実検知領域25を、検知部40の位置を原点として複数のグリッドで区切り、そこから最大の大きさとなる四角形(正方形または長方形)を抽出することによって、グリッド地図28を生成する。
 グリッド地図28は、サーバ13(統合部80)が現実検知領域25を管理しやすいように加工した検知領域であることから、第1実施形態と同様に管理検知領域28とも称する。現実検知領域25(25a,25b)と管理検知領域28(28a,28b)を総称して検知領域という。そうすると、第2実施形態では、サーバ13(統合部80)は、路上検知部40aと車載検知部40bそれぞれの管理検知領域28(28a,28b)の一部または全部を含む領域からなる統合領域を生成する、とも言える。
 また、路上検知部40aと車載検知部40bそれぞれの管理検知領域28(第1管理検知領域28aと第2管理検知領域28b)が重複する領域である重複領域を第1実施形態と同様に管理重複領域32という。現実重複領域27と管理重複領域32を総称して重複領域という。そうすると、第2実施形態では、路上検知部40aと車載検知部40bそれぞれの管理検知領域28(28a,28b)が重複する領域である管理重複領域32が存在する場合を想定している、とも言える。
 さらに、サーバ13が、例えば複数の検知部40の位置情報、複数の検知部40が検知する方角情報等を有していれば、グリッド地図28を構成する全てのグリッドそれぞれの中心点の座標を算出することができ、それらの座標をそれぞれのグリッドのグリッド位置に対応させることができる。
 第1動的物体51a,51b、第2動的物体51cは、動的物体であり、例えば人間である。なお、これらは車両2を除く他の車両や動物等であってもよい。
 また、第2実施形態においては、第1グリッド地図28aに係る路上検知部40aの路上検知結果が示す第1動的物体51a,51bに関する情報を第1情報とする。さらに、第2グリッド地図28bに係る車載検知部40bの車載検知結果が示す第2動的物体51cに関する情報を第2情報とする。
 第1情報は、例えば第1動的物体51a,51bの位置(検出位置)、特徴(大きさ、形状、色)等に関する情報を含む。第2情報は、例えば第2動的物体51cの位置(検出位置)、特徴(大きさ、形状、色)等に関する情報を含む。
 具体的には、第1情報は、第1動的物体51aの検出位置に加えて、大きさ(高さ)が1.7メートル、形状が人間、色(服の色)が青と黒である、等の情報や、第1動的物体51bの検出位置に加えて、大きさ(高さ)が1.7メートル、形状が人間、色(服の色)が青と黒である、等の情報を含む。また、第2情報は、第2動的物体51cの検出位置に加えて、大きさ(高さ)が1.7メートル、形状が人間、色(服の色)が青と黒である、等の情報を含む。
 なお、第2実施形態の統合領域26においても、上述の第1実施形態の統合領域24と同様に、統合部80によって路上検知部40aと車載検知部40bそれぞれの検知領域(現実検知領域25(25a,25b)または管理検知領域28(28a,28b))の一部または全部を含む領域として生成され、例えば所定の大きさで区分された複数のグリッドから構成される。
 このグリッドの大きさは、例えばグリッド地図28に用いられるグリッドの大きさと同じであるが、これに限定されるわけではなく、例えばグリッド地図28に用いられるグリッドの大きさとは異なっていてもよい。また、統合領域26の作成手順は、第1実施形態(上述の図3A~図3D等の説明)と同様であるので説明を省略する。
 統合部80は、例えば第1実施形態の関連付け部12と同様、上述の管理重複領域32が存在する場合に、管理重複領域32における第1動的物体51aに関する第1情報と、第2動的物体51cに関する第2情報とを、それぞれ複数のグリッド(統合領域26上)のうちの一部または全部のグリッドに関連付ける。具体的には、統合部80は、統合領域26上において、管理重複領域32のうちのグリッド位置「Ef」に第1動的物体51aを関連付け、管理重複領域32のうちのグリッド位置「Ef」に第2動的物体51cを関連付ける。
 なお、第1実施形態(上述の図4A~図4C等の説明)と同様、第1動的物体51aと第2動的物体51cとが同一物体である場合に、統合部80は、第1動的物体51aに関する第1情報と第2動的物体51cに関する第2情報とに基づいて、第1動的物体51aと第2動的物体51cとを同一物体71として統合領域26上に関連付けてもよい。
 このように、統合部80は、上述の管理重複領域32が存在する場合に、路上検知部情報と車載検知部情報とに基づく統合検知結果(各情報を関連付けた結果)を生成する。
 サーバ13(送信部15)は、上記統合検知結果を含む情報を車載検知部40bに送信する。
 なお、統合部80は、上述の管理重複領域32が存在しない場合であっても、上記統合検知結果を生成してもよい。すなわち、統合部80は、上述の管理重複領域32が存在しない場合であっても、管理検知領域28における動的物体51を、統合領域26上の所定のグリッド位置に関連付けてもよい。
 このような構成により、車載検知部40bにとって例えば死角となる情報を検知することができる。したがって、車載検知部40bにとって自己が検知した動的物体51(第2動的物体51c)のみならず路上検知部40aが検知した動的物体51(第1動的物体51a,51b)も含む自己周辺の動的物体51(51a~51c)、特に第1動的物体51bを正確に把握することができる。
 より具体的には、図6に示すような障害物3が存在する場合、車載検知部40bにとって自己の周辺の第1動的物体51bを検知する妨げとなり得る。すなわち、障害物3が原因で車載検知部40bが第1動的物体51bを検知できない場合がある。このような場合であっても、路上検知部40aが第1動的物体51bを検知し、さらにサーバ13(統合部80、送信部15)が統合検知結果を生成して統合検知結果を車載検知部40bへ送信することで、車載検知部40bは第1動的物体51bを検知することができる。
 ところで、特許文献1(特開2014-228637号公報)に記載の道路情報送信装置では、絶対位置が固定された所定の特徴物が含まれる複数の部分地図同士の位置を、特徴物の部分地図における位置に基づいて整合(統合)することで、上記特徴物を把握することができるが、車両にとって、自己の検知部が検知した絶対位置が固定されない動的物体のみならず、他の検知部が検知した動的物体も含む自己周辺の動的物体を把握することについて開示も示唆もされていない。
 それに対して、本発明の実施の形態に係る情報提供システム1は、以上説明したように、路上に設置され、自己が検知可能な領域内に存在する動的物体51(第1動的物体51a,51b)を検知する路上検知部40aと、自己が検知可能な領域内に存在する動的物体51(第2動的物体51c)を検知する車載検知部40bを搭載する車両2と、車両2に情報を提供するサーバ(情報提供装置)13と、を備え、車両2は、車載検知部40bの位置を示す車載検知位置情報と、車載検知部40bが検知した車載検知結果と、を含む車載検知部情報をサーバ(情報提供装置)13に送信し、サーバ(情報提供装置)13は、路上検知部40aの位置を示す路上検知位置情報と、路上検知部40aが検知した路上検知結果と、を含む路上検知部情報を取得するとともに、車載検知部情報を取得する取得部14と、路上検知部情報と車載検知部情報とに基づく統合検知結果を生成する統合部80と、統合検知結果を車両2へ送信する送信部15と、を備える。
 このように、統合部80が複数の検知部40で検知された動的物体51(51a~51c)に関する情報を統合し、その統合検知結果を車両2(車載検知部40b)へ送信することで、車両2(車載検知部40b)にとって自己の検知部40bが検知した動的物体51(第2動的物体51c)のみならず他の検知部40aが検知した動的物体51(第1動的物体51a,51b)も含む自己周辺の動的物体51(51a~51c)を正確に把握することができる。
 さらに、サーバ13が高度、高速な演算処理機能を有している場合は、取得部14、統合部80、送信部15で行う処理をサーバ13で行う構成により、高速、高度な情報提供システムを提供することができる。
 また、本発明の実施の形態に係る情報提供システム1では、統合部80は、さらに、路上検知部40aと車載検知部40bそれぞれの検知領域(現実検知領域25(25a,25b)または管理検知領域28(28a,28b))の一部または全部を含む領域からなる統合領域26を生成し、路上検知部40aと車載検知部40bそれぞれの検知領域(現実検知領域25(25a,25b)または管理検知領域28(28a,28b))において重複領域(現実重複領域27または管理重複領域32)が存在する場合に、重複領域における路上検知結果が示す第1動的物体51aに関する第1情報と、重複領域における車載検知結果が示す第2動的物体51cに関する第2情報とを、それぞれ統合領域26上に関連付ける。
 このように、統合部80が複数の検知部40の重複領域で検知された動的物体51(第1動的物体51a,第2動的物体51c)に関する情報を統合領域26上に関連付けることで、車載検知部40bにとって自己が検知した動的物体51(第2動的物体51c)のみならず他の検知部40(路上検知部40a)が検知した動的物体51(第1動的物体51a)も含む自己周辺の動的物体51を正確に把握することができる。
 また、本発明の実施の形態に係る情報提供システム1では、統合部80は、さらに、第1情報と第2情報とに基づいて、第1動的物体51aと第2動的物体51cとを同一物体71として統合領域26上に関連付ける。
 このような構成により、複数の検知部40それぞれで検知された動的物体51(第1動的物体51a,第2動的物体51c)が同一である場合に、統合部80はこれらの動的物体51(第1動的物体51a,第2動的物体51c)を同一物体71として正確に判断することができる。
 また、統合領域26は、所定の大きさで区分された複数のグリッドから構成され、統合部80は、第1情報と第2情報とを複数のグリッドのうちの一部または全部のグリッドに関連付ける。
 このように、統合部80が統合領域26を当該グリッド(グリッド地図)で構成し、グリッド単位で第1情報と第2情報との関連付けを行うことで、統合部80にとって例えば重複領域の把握等を容易に行うことができる。
 また、統合部80は、第1情報に関連付けられた第1グリッドと、第2情報に関連付けられた第2グリッドとが所定の位置関係を満たしているか否かの判定を行い、その判定結果に基づいて第1動的物体51aと第2動的物体51cとを同一物体71として統合領域26上に関連付ける。
 このように、統合部80がグリッド単位で、複数の検知部40それぞれで検知された動的物体51(第1動的物体51a,第2動的物体51c)に関する情報を統合領域26上に関連付けることで、統合部80にとってこれらの動的物体51(第1動的物体51a,第2動的物体51c)が同一物体71であるか否かの判断を容易に行うことができる。
 <変形例2>
 路上検知部情報は、さらに、路上検知部40aが取得部14へ送信した第1時刻情報を含み、車載検知部情報は、さらに、車両2(車載検知部40b)が取得部14へ送信した第2時刻情報を含み、統合部80は、さらに、第1時刻情報と、第2時刻情報とを関連付けてもよい。
 このような構成により、統合部80は、例えば路上検知部40aからサーバ(情報提供装置)13(取得部14)への情報伝送時間と、車載検知部40bからサーバ(情報提供装置)13(取得部14)への情報伝送時間とが異なる場合であっても、各時刻情報を関連付けることができる。したがって、車両2(車載検知部40b)にとって自己の検知部40bが検知した動的物体51(第2動的物体51c)のみならず他の検知部40aが検知した動的物体51(第1動的物体51a,51b)も含む自己周辺の動的物体51(51a~51c)をより正確に把握することができる。
 また、車両2は、自己が第1地点へ接近した場合に、車載検知部情報をサーバ(情報提供装置)13に送信してもよい。第1地点は、例えば交差点等を含むがこれに限られず、本発明の実施の形態に係る情報提供システムが適用可能な地点であればよい。
 なお、車両2(車載検知部40b)が第1地点へ接近したか否かの判定は、例えば車載検知部40bが、自己の位置情報と第1地点の位置情報とに基づいて、車載検知部40bの位置と第1地点の位置との間の距離が所定メートル以内(例えば、10メートル以内、30メートル以内、50メートル以内、100メートル以内)であるか否か、の判定を含む。
 このような構成により、サーバ(情報提供装置)13は、車両2(車載検知部40b)が車載検知部情報を自己に送信するタイミングを正確に把握することができる。
 あるいは、路上検知部40aは、さらに、車両2の第1地点への接近を検知して、その接近検知情報を車両2に送信し、車両2は、その接近検知情報に基づいて、車載検知部情報をサーバ(情報提供装置)13に送信してもよい。
 なお、車両2(車載検知部40b)が第1地点へ接近したか否かの判定は、例えば路上検知部40aが、車載検知部40bの位置情報と第1地点の位置情報とに基づいて、車載検知部40bの位置と第1地点の位置との間の距離が所定メートル以内(例えば、10メートル以内、30メートル以内、50メートル以内、100メートル以内)であるか否か、の判定を含む。
 このような構成によっても、サーバ(情報提供装置)13は、車両2(車載検知部40b)が車載検知部情報を自己に送信するタイミングを正確に把握することができる。
 <第2実施形態に係る情報提供システムの処理フロー>
 図9は、本発明の第2実施形態に係る情報提供システムの処理フローを示す図である。
 図9を参照して、まず車載検知部40bは、例えば自己が第1地点へ接近したか否かを判断する(ステップS201)。
 次に、車載検知部40bは、例えば上述の車載検知部情報をサーバ13に送信する(ステップS202)。
 なお、車載検知部40bは、自己が第1地点へ接近した場合に、車載検知部情報をサーバ13に送信する構成であってもよい。あるいは、車載検知部40bは、路上検知部40aが車載検知部40bの第1地点への接近を検知して、その接近検知情報を車載検知部40bに送信し、車載検知部40bが、その接近検知情報に基づいて車載検知部情報をサーバ13に送信する構成であってもよい。
 次に、サーバ13(取得部14)は、例えば上述の路上検知部情報と車載検知部情報とを取得する。さらに、サーバ13(統合部80)は、例えばこれらの路上検知部情報と車載検知部情報とに基づく統合検知結果を生成し、上述の重複領域(現実重複領域27または管理重複領域32)が存在する場合に、第1動的物体51a,51bに関する上述の第1情報と第2動的物体51cに関する上述の第2情報とを、それぞれ上述の統合領域26上に関連付ける(ステップS203)。なお、重複領域が存在しない場合は、当該第1情報と当該第2情報とをそれぞれ統合領域26上に関連付けずに、後述のステップS204へ進んでもよい。
 最後に、サーバ13(送信部15)は、例えば統合検知結果を車載検知部40bへ送信する(ステップS204)。
 このように、統合部80が複数の検知部40で検知された動的物体51(51a~51c)に関する情報を統合し、その統合検知結果を車両2(車載検知部40b)へ送信することで、車両2(車載検知部40b)にとって自己の検知部40bが検知した動的物体51(第2動的物体51c)のみならず他の検知部40aが検知した動的物体51(第1動的物体51a,51b)も含む自己周辺の動的物体51(51a~51c)を正確に把握することができる。
<その他の変形例>
 情報提供システム1における車両2、サーバ13、検知部20、検知部40や、サーバ13に係る生成部11、関連付け部12、取得部14、統合部80、送信部15、また、これらに備えられる各装置は、コンピュータを備え、当該コンピュータにおけるCPU等の演算処理部は、上記実施の形態に記載の構成、動作、シーケンス図またはフローチャートの各ステップの一部または全部を含むプログラムを図示しないメモリからそれぞれ読み出して実行する。これら複数の装置のプログラムは、それぞれ、外部からインストールすることができる。これら複数の装置のプログラムは、それぞれ、記録媒体に格納された状態で流通する。
 また、上記実施の形態は、生成部11、関連付け部12や、取得部14、統合部80、送信部15のうちの少なくともいずれか1つは、サーバ10またはサーバ13に備えられていなくてもよい。
 また、生成部11、関連付け部12のうちの少なくともいずれか1つは、通信部4aを有する車両2に備えられていてもよい。生成部11、関連付け部12のそれぞれ全てが車両2に備えられている場合は、サーバ10を用いずに本発明の実施の形態に係る情報提供システムを実現することができる。
 また、サーバ10に係る、生成部11、関連付け部12、及び検知部20、及びサーバ13に係る、取得部14、統合部80、送信部15、のうちの少なくともいずれか1つは、車両2を除く他の車両、例えば車両2の周辺を走行する車両または車両2の周辺に停車している車両に備えられていてもよい。このような構成により、車両2と、車両2を除く他の車両との車車間通信を行うことで、本発明の実施の形態に係る情報提供システムを実現することができる。なお、車両2を除く他の車両が生成部11または関連付け部12を備える場合は、当該他の車両が通信部4aを有していればよい。
 また、グリッド地図23(グリッド地図28)は、グリッド毎にID(identifier)を振り分ける構成であってもよい。このような構成により、サーバ10(関連付け部12)あるいはサーバ13(統合部80)が動的物体50(動的物体51)の位置を管理しやすくなり、各動的物体が同一物体70(同一物体71)であるか否かをより正確に判断することができる。
 なお、複数のグリッド地図23(グリッド地図28)から統合領域24(統合領域26)を作成する際、複数のグリッド地図23(グリッド地図28)それぞれの重複部分のグリッドにずれが生じ、完全に一致しない場合等においては、サーバ10(関連付け部12)あるいはサーバ13(統合部80)は、各グリッドの中から主となるグリッド地図(主グリッド地図)を代表して選択し、それ以外のグリッド地図を主グリッド地図に合わせ込むように位置(座標)調整してもよい。この場合、サーバ10(関連付け部12)あるいはサーバ13(統合部80)は、第1情報と第2情報の統合領域24(統合領域26)への関連付けも位置調整を考慮して行う。このような構成により、主グリッド地図を基準として統合領域24(統合領域26)を生成しやすくすることができる。
 また、検知部20(検知部40)及び動的物体50(動的物体51)を1つの領域に配置するための部分地図は、グリッド地図23(グリッド地図28)である場合を想定したが、これに限定されるわけではない。グリッド地図以外の地図、すなわち等間隔の格子線がない地図においても、サーバ10(関連付け部12)あるいはサーバ13(統合部80)は、検知部20の現実重複領域22(検知部40の現実重複領域27)で検知された動的物体50(動的物体51)に関する情報を統合領域24(統合領域26)上に関連付けることで、検知部20で検知した動的物体50(検知部40で検知した動的物体51)を正確に把握することができる。この場合、例えば現実重複領域22は管理重複領域31よりも広範囲となるので、動的物体50をより広範囲に把握することができる。
 このような等間隔の格子線がない地図の場合においては、関連付け部12は、第1実施形態(上述の図4A~図4Cの説明)における所定の条件を満たすか否かの判断において、さらに第1情報と第2情報の検出位置(座標)情報を用いて、統合領域24への関連付けを行ってもよい。具体的には、関連付け部12は、[5]第1動的物体50cの位置(座標)と第2動的物体50dの位置(座標)との差異が例えば1メートル以内(さらに好ましくは50センチメートル以内、さらに好ましくは30センチメートル以内、さらに好ましくは10センチメートル以内)であるか否か、の判断を行って、統合領域24への関連付けを行ってもよい。
 上記実施の形態は、全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記説明ではなく請求の範囲によって示され、請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。
 以上の説明は、以下に付記する特徴を含む。
[付記1]
 自己が検知可能な領域内に存在する動的物体を検知する複数の検知部を備える情報提供システムに用いられるサーバであって、前記複数の検知部それぞれの検知領域の一部または全部を含む領域からなる統合領域を生成する生成部と、前記複数の検知部のうちの第1検知部と第2検知部それぞれの検知領域において重複領域が存在する場合に、前記重複領域における前記第1検知部の第1検知結果が示す第1動的物体に関する第1情報と、前記重複領域における前記第2検知部の第2検知結果が示す第2動的物体に関する第2情報とを、それぞれ前記統合領域上に関連付ける関連付け部と、を備える、サーバ。
 このように、関連付け部が複数の検知部の重複領域で検知された動的物体に関する情報を統合領域上に関連付けることで、複数の検知部で検知した動的物体を正確に把握することができる。
[付記2]
 前記関連付け部は、さらに、前記第1情報と前記第2情報とに基づいて、前記第1動的物体と前記第2動的物体とを同一物体として前記統合領域上に関連付ける、付記1に記載のサーバ。
 このような構成により、複数の検知部それぞれで検知された動的物体が同一である場合に、関連付け部はこれらの動的物体を同一物体として正確に判断することができる。
[付記3]
 前記関連付け部は、前記第1動的物体の位置と前記第2動的物体の位置とが所定の条件を満たしているか否かの判定を行い、その判定結果に基づいて前記第1動的物体と前記第2動的物体とを同一物体として前記統合領域上に関連付ける、付記2に記載のサーバ。
 このように、関連付け部が、複数の検知部それぞれで検知された動的物体の位置が所定の条件を満たしているか否かの判定を行うことで、これらの動的物体が同一物体であるか否かをより正確に判断することができる。
[付記4]
 前記関連付け部は、前記第1動的物体の特徴と前記第2動的物体の特徴とが所定の条件を満たしているか否かの判定を行い、その判定結果に基づいて前記第1動的物体と前記第2動的物体とを同一物体として前記統合領域上に関連付ける、付記2または付記3に記載のサーバ。
 このように、関連付け部が、複数の検知部それぞれで検知された動的物体の特徴が所定の条件を満たしているか否かの判定を行うことで、これらの動的物体が同一物体であるか否かをより正確に判断することができる。
[付記5]
 前記統合領域は、所定の大きさで区分された複数のグリッドから構成され、前記関連付け部は、前記第1情報と前記第2情報とを前記複数のグリッドのうちの一部または全部のグリッドに関連付ける、付記1から付記4のいずれかに記載のサーバ。
 このように、関連付け部が、統合領域を当該グリッド(グリッド地図)で構成し、グリッド単位で第1情報と第2情報との関連付けを行うことで、関連付け部にとって例えば重複領域の把握等を容易に行うことができる。
[付記6]
 前記関連付け部は、前記第1情報に関連付けられた第1グリッドと、前記第2情報に関連付けられた第2グリッドとが所定の位置関係を満たしているか否かの判定を行い、その判定結果に基づいて前記第1動的物体と前記第2動的物体とを同一物体として前記統合領域上に関連付ける、付記5に記載のサーバ。
 このように、関連付け部が、グリッド単位で、複数の検知部それぞれで検知された動的物体に関する情報を統合領域上に関連付けることで、関連付け部にとってこれらの動的物体が同一物体であるか否かの判断を容易に行うことができる。
[付記7]
 自己が検知可能な領域内に存在する動的物体を検知する複数の検知部を備える情報提供システムにおける情報提供方法であって、前記複数の検知部それぞれの検知領域の一部または全部を含む領域からなる統合領域を生成するステップと、前記複数の検知部のうちの第1検知部と第2検知部それぞれの検知領域において重複領域が存在する場合に、前記重複領域における前記第1検知部の第1検知結果が示す第1動的物体に関する第1情報と、前記重複領域における前記第2検知部の第2検知結果が示す第2動的物体に関する第2情報とを、それぞれ前記統合領域上に関連付けるステップと、を含む、情報提供方法。
 このように、関連付け部が複数の検知部の重複領域で検知された動的物体に関する情報を統合領域上に関連付けることで、複数の検知部で検知した動的物体を正確に把握することができる。
[付記8]
 自己が検知可能な領域内に存在する動的物体を検知する複数の検知部を備える情報提供システムとしてコンピュータを機能させるためのコンピュータプログラムであって、前記コンピュータを、前記複数の検知部それぞれの検知領域の一部または全部を含む領域からなる統合領域を生成する生成部と、前記複数の検知部のうちの第1検知部と第2検知部それぞれの検知領域において重複領域が存在する場合に、前記重複領域における前記第1検知部の第1検知結果が示す第1動的物体に関する第1情報と、前記重複領域における前記第2検知部の第2検知結果が示す第2動的物体に関する第2情報とを、それぞれ前記統合領域上に関連付ける関連付け部と、して機能させる、コンピュータプログラム。
 このように、関連付け部が複数の検知部の重複領域で検知された動的物体に関する情報を統合領域上に関連付けることで、複数の検知部で検知した動的物体を正確に把握することができる。
1 情報提供システム
2 車両
3 障害物
4,4a,4b 通信部
10 サーバ
11 生成部
12 関連付け部
13 サーバ(情報提供装置)
14 取得部
15 送信部
20 検知部
20a 第1検知部
20b 第2検知部
21,25 現実検知領域
21a,25a 第1現実検知領域
21b,25b 第2現実検知領域
22,27 現実重複領域
23,28 グリッド地図(管理検知領域)
23a,28a 第1グリッド地図(第1管理検知領域)
23b,28b 第2グリッド地図(第2管理検知領域)
24,26 統合領域
31,32 管理重複領域
40 検知部
40a 路上検知部
40b 車載検知部
50,51 動的物体
50a,50c,51a,51b 第1動的物体
50b,50d,51c 第2動的物体
70,71 同一物体
80 統合部

Claims (10)

  1.  路上に設置され、自己が検知可能な領域内に存在する動的物体を検知する路上検知部と、
     自己が検知可能な領域内に存在する動的物体を検知する車載検知部を搭載する車両と、
     前記車両に情報を提供する情報提供装置と、を備え、
     前記車両は、
     前記車載検知部の位置を示す車載検知位置情報と、前記車載検知部が検知した車載検知結果と、を含む車載検知部情報を前記情報提供装置に送信し、
     前記情報提供装置は、
     前記路上検知部の位置を示す路上検知位置情報と、前記路上検知部が検知した路上検知結果と、を含む路上検知部情報を取得するとともに、前記車載検知部情報を取得する取得部と、
     前記路上検知部情報と前記車載検知部情報とに基づく統合検知結果を生成する統合部と、
     前記統合検知結果を前記車両へ送信する送信部と、を備える、情報提供システム。
  2.  前記統合部は、さらに、
     前記路上検知部と前記車載検知部それぞれの検知領域の一部または全部を含む領域からなる統合領域を生成し、
     前記路上検知部と前記車載検知部それぞれの検知領域において重複領域が存在する場合に、前記重複領域における前記路上検知結果が示す第1動的物体に関する第1情報と、前記重複領域における前記車載検知結果が示す第2動的物体に関する第2情報とを、それぞれ前記統合領域上に関連付ける、請求項1に記載の情報提供システム。
  3.  前記路上検知部情報は、さらに、
     前記路上検知部が前記取得部へ送信した第1時刻情報を含み、
     前記車載検知部情報は、さらに、
     前記車両が前記取得部へ送信した第2時刻情報を含み、
     前記統合部は、さらに、
     前記第1時刻情報と、前記第2時刻情報とを関連付ける、請求項1または請求項2に記載の情報提供システム。
  4.  前記車両は、
     自己が第1地点へ接近した場合に、前記車載検知部情報を前記情報提供装置に送信する、請求項1から請求項3のいずれか1項に記載の情報提供システム。
  5.  前記路上検知部は、さらに、
     前記車両の第1地点への接近を検知して、その接近検知情報を前記車両に送信し、
     前記車両は、
     前記接近検知情報に基づいて、前記車載検知部情報を前記情報提供装置に送信する、請求項1から請求項3のいずれか1項に記載の情報提供システム。
  6.  前記統合部は、さらに、
     前記第1情報と前記第2情報とに基づいて、前記第1動的物体と前記第2動的物体とを同一物体として前記統合領域上に関連付ける、請求項2に記載の情報提供システム。
  7.  前記統合領域は、所定の大きさで区分された複数のグリッドから構成され、
     前記統合部は、
     前記第1情報と前記第2情報とを前記複数のグリッドのうちの一部または全部のグリッドに関連付ける、請求項2または請求項6に記載の情報提供システム。
  8.  前記統合部は、
     前記第1情報に関連付けられた第1グリッドと、前記第2情報に関連付けられた第2グリッドとが所定の位置関係を満たしているか否かの判定を行い、その判定結果に基づいて前記第1動的物体と前記第2動的物体とを同一物体として前記統合領域上に関連付ける、請求項7に記載の情報提供システム。
  9.  路上に設置され、自己が検知可能な領域内に存在する動的物体を検知する路上検知部と、
     自己が検知可能な領域内に存在する動的物体を検知する車載検知部を搭載する車両と、
     前記車両に情報を提供する情報提供装置と、を備える情報提供システムにおける情報提供方法であって、
     前記車載検知部の位置を示す車載検知位置情報と、前記車載検知部が検知した車載検知結果と、を含む車載検知部情報を前記情報提供装置に送信するステップと、
     前記路上検知部の位置を示す路上検知位置情報と、前記路上検知部が検知した路上検知結果と、を含む路上検知部情報を取得するとともに、前記車載検知部情報を取得するステップと、
     前記路上検知部情報と前記車載検知部情報とに基づく統合検知結果を生成するステップと、
     前記統合検知結果を前記車両へ送信するステップと、を含む、情報提供方法。
  10.  路上に設置され、自己が検知可能な領域内に存在する動的物体を検知する路上検知部と、
     自己が検知可能な領域内に存在する動的物体を検知する車載検知部を搭載する車両と、を備える情報提供システムとしてコンピュータを機能させるためのコンピュータプログラムであって、
     前記コンピュータを、
     前記路上検知部の位置を示す路上検知位置情報と、前記路上検知部が検知した路上検知結果と、を含む路上検知部情報を取得するとともに、前記車載検知部の位置を示す車載検知位置情報と、前記車載検知部が検知した車載検知結果と、を含む車載検知部情報を取得する取得部と、
     前記路上検知部情報と前記車載検知部情報とに基づく統合検知結果を生成する統合部と、
     前記統合検知結果を前記車両へ送信する送信部と、して機能させる、コンピュータプログラム。
PCT/JP2018/018452 2018-03-20 2018-05-14 情報提供システム、情報提供方法、コンピュータプログラム WO2019180978A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020507294A JP7396266B2 (ja) 2018-03-20 2018-05-14 情報提供システム、情報提供方法、コンピュータプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018052169 2018-03-20
JP2018-052169 2018-03-20

Publications (1)

Publication Number Publication Date
WO2019180978A1 true WO2019180978A1 (ja) 2019-09-26

Family

ID=67986833

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/018452 WO2019180978A1 (ja) 2018-03-20 2018-05-14 情報提供システム、情報提供方法、コンピュータプログラム

Country Status (2)

Country Link
JP (1) JP7396266B2 (ja)
WO (1) WO2019180978A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003091793A (ja) * 2001-09-17 2003-03-28 Toshiba Corp 走行支援情報提供システム及び方法並びにプログラム
JP2008191988A (ja) * 2007-02-06 2008-08-21 Denso Corp 車両周辺監視装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003091793A (ja) * 2001-09-17 2003-03-28 Toshiba Corp 走行支援情報提供システム及び方法並びにプログラム
JP2008191988A (ja) * 2007-02-06 2008-08-21 Denso Corp 車両周辺監視装置

Also Published As

Publication number Publication date
JP7396266B2 (ja) 2023-12-12
JPWO2019180978A1 (ja) 2021-03-18

Similar Documents

Publication Publication Date Title
US10863166B2 (en) Method and apparatus for generating three-dimensional (3D) road model
CN106352867B (zh) 用于确定车辆自身位置的方法和设备
CN107063275B (zh) 基于路侧设备的智能车辆地图融合系统及方法
US11094112B2 (en) Intelligent capturing of a dynamic physical environment
CN109624974B (zh) 车辆控制装置、车辆控制方法以及存储介质
JP2020527500A (ja) オンボードセンサの外部パラメータを較正する方法及び装置
US11231285B2 (en) Map information system
US10928819B2 (en) Method and apparatus for comparing relevant information between sensor measurements
US11163308B2 (en) Method for creating a digital map for an automated vehicle
JP2018092483A (ja) 物体認識装置
CN112009484A (zh) 用于确定驾驶辅助数据的方法和系统
KR20190001668A (ko) 차량의 주행 환경 인식 장치, 방법 및 시스템
CN111339876B (zh) 用于识别场景中各区域类型的方法和装置
US20200341150A1 (en) Systems and methods for constructing a high-definition map based on landmarks
CN111353453B (zh) 用于车辆的障碍物检测方法和装置
JP2017156179A (ja) 設備状態検出方法および装置の設置方法
JP2015194397A (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム
CN114639085A (zh) 交通信号灯识别方法、装置、计算机设备和存储介质
CN112805766A (zh) 用于更新详细地图的装置和方法
US20220316909A1 (en) Method and Communication System for Supporting at Least Partially Automatic Vehicle Control
JP2010250743A (ja) 自動走行車両及び道路形状認識装置
JP2007212418A (ja) 車載レーダ装置
CN113038363B (zh) 资源复用方法、终端和相关设备
WO2019180978A1 (ja) 情報提供システム、情報提供方法、コンピュータプログラム
JP2021507376A (ja) 物体の特徴的な構造を考慮して車両用の特徴ベースの位置推定マップを生成する方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18910326

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020507294

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18910326

Country of ref document: EP

Kind code of ref document: A1