WO2018146882A1 - 情報提供システム、サーバ、移動端末、及びコンピュータプログラム - Google Patents

情報提供システム、サーバ、移動端末、及びコンピュータプログラム Download PDF

Info

Publication number
WO2018146882A1
WO2018146882A1 PCT/JP2017/040787 JP2017040787W WO2018146882A1 WO 2018146882 A1 WO2018146882 A1 WO 2018146882A1 JP 2017040787 W JP2017040787 W JP 2017040787W WO 2018146882 A1 WO2018146882 A1 WO 2018146882A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
server
vehicle
sensor
mobile terminal
Prior art date
Application number
PCT/JP2017/040787
Other languages
English (en)
French (fr)
Inventor
智弘 一丸
大橋 紳悟
泉 目々澤
高山 浩一
西 康彦
勝憲 牛田
Original Assignee
住友電気工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 住友電気工業株式会社 filed Critical 住友電気工業株式会社
Priority to DE112017007016.3T priority Critical patent/DE112017007016T5/de
Priority to US16/484,380 priority patent/US11238738B2/en
Priority to CN201780086044.2A priority patent/CN110419070B/zh
Priority to JP2018566759A priority patent/JP7031612B2/ja
Publication of WO2018146882A1 publication Critical patent/WO2018146882A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/90Services for handling of emergency or hazardous situations, e.g. earthquake and tsunami warning systems [ETWS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/804Relative longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Definitions

  • the present invention relates to an information providing system, a server, a mobile terminal, and a computer program.
  • This application claims priority based on Japanese Application No. 2017-021105 filed on Feb. 8, 2017 and Japanese Application No. 2017-042578 filed on Mar. 7, 2017, and is described in the aforementioned Japanese application. All described contents are used.
  • Patent Literature 1 As one aspect of the above traffic system, a central device of a traffic control center, a plurality of roadside communication devices that communicate with the central device through a dedicated line, and an in-vehicle communication device that wirelessly communicates with each roadside communication device (See paragraphs 0104 to 0129 of Patent Document 1).
  • the central device determines whether the behavior of each vehicle is a predetermined abnormal event based on vehicle information (running trajectory) including data generation time, vehicle speed, vehicle position, traveling direction, etc., transmitted by each vehicle via uplink. It is determined whether it corresponds to.
  • vehicle information running trajectory
  • the central device detects a predetermined abnormal event
  • the central device transmits downlink information to the vehicle such as the content and position of the abnormal event.
  • the vehicle that has received this information notifies the passenger of the occurrence of the abnormal event. Thereby, driving support control for dealing with abnormal running is executed.
  • a system transmits one or more mobile terminals that transmit first information based on its own sensor information to the server, and second information that is based on its own sensor information.
  • a plurality of fixed terminals and a server that generates third information based on the received first information and second information and transmits the generated third information to at least the mobile terminal.
  • the server is a server that wirelessly communicates with one or more mobile terminals and one or more fixed terminals, and the first information based on sensor information of the mobile terminal is transmitted to the mobile terminal
  • a communication unit that receives second information based on sensor information of the fixed terminal from the fixed terminal, and generates third information based on the received first information and second information
  • a control unit that controls the communication unit so as to transmit at least 3 information to the mobile terminal.
  • a mobile terminal is a mobile terminal that wirelessly communicates with a server that wirelessly communicates with one or a plurality of fixed terminals, and transmits first information based on its own sensor information to the server.
  • the control unit generates the first information based on the sensor information of itself and the received third information.
  • a computer program is a computer program for causing a computer to function as a server that wirelessly communicates with one or more mobile terminals and one or more fixed terminals. Receiving the first information based on the sensor information of the mobile terminal from the mobile terminal and receiving the second information based on the sensor information of the fixed terminal from the fixed terminal; and the received first information and the second Generating the third information based on the information, and controlling the communication unit of the server to transmit at least the generated third information to the mobile terminal.
  • a computer program is a computer program for causing a computer to function as a mobile terminal that wirelessly communicates with a server that wirelessly communicates with one or more fixed terminals.
  • the step of controlling the communication unit of the mobile terminal, and the step of generating the first information based on the sensor information of the mobile terminal and the received third information are executed.
  • the present invention can be realized not only as a system and apparatus having the above-described characteristic configuration, but also as a program for causing a computer to execute such characteristic configuration. Further, the present invention can be realized as a semiconductor integrated circuit that realizes part or all of the system and apparatus.
  • 1 is an overall configuration diagram of a wireless communication system according to an embodiment of the present invention. It is a block diagram which shows an example of an internal structure of an edge server and a core server. It is a block diagram which shows an example of an internal structure of a vehicle-mounted apparatus. It is a block diagram which shows an example of an internal structure of a pedestrian terminal. It is a block diagram which shows an example of an internal structure of a roadside sensor. 1 is an overall configuration diagram of an information providing system according to an embodiment of the present invention. It is a sequence diagram which shows an example of the update process and distribution process of dynamic information. It is explanatory drawing which shows an example of the selection method at the time of receiving the competing change point information.
  • vehicle information is uplink-transmitted via a communication path of an in-vehicle communication device ⁇ a roadside communication device ⁇ a central device, and information related to abnormal traveling using the vehicle information as source data is the central device.
  • the central device generates information useful for driving support control using the vehicle information transmitted by the in-vehicle communication device as an information source, but is superior in real time based on information collected from more information sources.
  • a system capable of providing appropriate information provision to a mobile terminal is desired.
  • This disclosure is intended to provide an information providing system and the like that can provide appropriate information to a mobile terminal in view of such conventional problems.
  • the information providing system transmits one or more mobile terminals that transmit first information based on its own sensor information to the server, and transmits second information based on its own sensor information to the server 1 or A plurality of fixed terminals; and a server that generates third information based on the received first information and second information, and transmits the generated third information to at least the mobile terminal.
  • the server generates the third information based on the received first information and second information, and transmits the generated third information to at least the mobile terminal.
  • the third information generated based not only on the first information but also on the second information derived from the fixed terminal can be provided to the mobile terminal. Therefore, compared with the conventional system which produces
  • the mobile terminal In the information providing system of the present embodiment, it is preferable that the mobile terminal generates the first information based on the sensor information of the mobile terminal and the received third information. (3) More specifically, the mobile terminal detects an object whose state has changed based on its own sensor information and the received third information, and uses the detected change point information of the object.
  • the first information is preferably used.
  • the communication load on the server can be reduced compared to the case where the sensor information is transmitted as it is to the server as the first information.
  • the mobile terminal requests the server to transmit the third information every predetermined period, and has not detected the object whose state has changed within the predetermined period. In this case, it is preferable not to generate the first information. In this way, it is possible to reduce the communication load on the server as compared to the case where the first information is generated and transmitted to the server regardless of whether or not the state has changed.
  • the first information and the second information include identification information capable of determining the accuracy of the sensor information
  • the server includes objects included in different received information. If the position satisfies a predetermined condition, it is preferable to select any one of the first information or the second information based on the identification information and generate the third information based on the selected information. . In this way, the server can select appropriate first information or second information even when received information regarding the same object competes.
  • the server when the position of the object included in the first information and the position of the object included in the second information satisfy a predetermined condition, It is preferable to generate the third information based on the second information.
  • the reason is that the second information whose information source is the fixed terminal is estimated to be more accurate than the first information whose information source is the mobile terminal, and therefore the third information is generated based on the second information. Because it should.
  • the mobile terminal corrects its own sensor information based on position information of an object included in the third information. In this way, the mobile terminal can improve the accuracy of its own sensor information.
  • the third information is dynamic information of an object superimposed on map information.
  • the dynamic information of the object superimposed on the map information can be provided to the mobile terminal. Accordingly, the mobile terminal can execute collision avoidance processing using the dynamic information, and can provide appropriate information to the mobile terminal.
  • the server includes a first server belonging to the first network slice having a shorter delay time, and a second server belonging to the second network slice having a longer delay time. , And the first server determines priorities of the first information and the second information, and generates the third information according to the determined priorities, or the second server It is preferable to determine whether to generate the third information.
  • the 1st server (for example, edge server) will generate the 3rd information based on the 1st information with high priority
  • the 2nd server for example, core server
  • 3rd information can be produced
  • the transmission period of the third information by the first server is shorter than the transmission period of the third information by the second server.
  • the reason is that the delay time of the first server is shorter than the delay time of the second server, so that the real-time property of the third information can be improved by advancing the transmission period of the third information by the first server. is there.
  • the server instructs the transmission source of the first information and the second information to change the transmission cycle of the information when the priority satisfies a predetermined condition. Is preferably notified. In this way, the transmission period of the first information and the second information can be dynamically changed according to the priority.
  • the server when the first information and the second information include image data and position information of a detected object, stores image data of the object.
  • the first information and the second information including are stored for each object. In this way, a specific object can be tracked in time series by searching the first information and the second information for each object (vehicle, pedestrian, etc.).
  • the server can generate server prediction information that is future dynamic information of an object based on the received first information and the second information,
  • the third information preferably includes the generated server prediction information.
  • server prediction information that is future dynamic information of the object is transmitted to at least the mobile terminal, so that the mobile terminal can execute processing such as collision avoidance using the received server prediction information. Become.
  • the said mobile terminal can produce
  • the mobile terminal since the mobile terminal generates vehicle prediction information that is future dynamic information of the object, the mobile terminal can execute processing such as collision avoidance using the vehicle prediction information generated by itself. become.
  • the mobile terminal preferably includes the vehicle prediction information generated by the mobile terminal in the first information.
  • the server can receive the vehicle prediction information. For this reason, the precision of server prediction information can be improved by comparing the received vehicle prediction information with the server prediction information which self produced
  • the mobile terminal corrects the vehicle prediction information generated by itself based on the received server prediction information. In this way, the mobile terminal can improve the accuracy of the vehicle prediction information generated by itself.
  • the server corrects the server prediction information generated by itself based on the received vehicle prediction information. In this way, the server can improve the accuracy of the server prediction information generated by itself.
  • the mobile terminal can generate vehicle prediction information that is future dynamic information of an object based on the sensor information of the mobile terminal, and the generated vehicle prediction information Is preferably included in the first information.
  • the server can receive the vehicle prediction information. For this reason, by receiving vehicle prediction information from a plurality of mobile terminals existing in its own service area, the prediction information in the service area can be acquired without the server executing the behavior prediction process.
  • the server includes a first server belonging to the first network slice having a shorter delay time, and a second server belonging to the second network slice having a longer delay time. It is preferable that the server prediction information generated by the second server is dynamic information in the future than the server prediction information generated by the first server. In this case, the accuracy of the behavior prediction can be improved by substituting the core server having a higher processing capability for the future behavior prediction in which the accuracy decreases in the edge server.
  • the server of the present embodiment relates to a server included in the information providing system described in (1) to (19) above. Therefore, the server of the present embodiment has the same operational effects as the information providing system described in the above (1) to (19).
  • the mobile terminal of the present embodiment relates to a mobile terminal included in the information providing system described in (2) above. Therefore, the mobile terminal of the present embodiment has the same operational effects as the information providing system described in (2) above.
  • the computer program of the present embodiment relates to a computer program that causes a computer to function as a server included in the information providing system described in (1) to (19) above. Therefore, the computer program of the present embodiment has the same operational effects as the information providing system described in the above (1) to (19).
  • the computer program of the present embodiment relates to a computer program for causing a computer to function as the mobile terminal described in (2) above. Therefore, the computer program of this embodiment has the same operational effects as the information providing system described in (2) above.
  • FIG. 1 is an overall configuration diagram of a radio communication system according to an embodiment of the present invention.
  • the wireless communication system of the present embodiment includes a plurality of communication terminals 1A to 1D capable of wireless communication, one or more base stations 2 and base stations 2 that perform wireless communication with the communication terminals 1A to 1D.
  • One or a plurality of edge servers 3 that communicate with each other in a wired or wireless manner and one or a plurality of core servers 4 that communicate with the edge server 3 in a wired or wireless manner are provided.
  • the core server 4 is installed in a core data center (DC) of the core network.
  • the edge server 3 is installed in a distributed data center (DC) of a metro network.
  • the metro network is a communication network constructed for each city, for example. Each metro network is connected to a core network.
  • the base station 2 is communicably connected to one of the edge servers 3 in the distributed data center included in the metro network.
  • the core server 4 is communicably connected to the core network.
  • the edge server 3 is communicably connected to the metro network. Therefore, the core server 4 can communicate with the edge server 3 and the base station 2 belonging to each metro network via the core network and the metro network.
  • the base station 2 includes at least one of a macro cell base station, a micro cell base station, and a pico cell base station.
  • the edge server 3 and the core server 4 are general-purpose servers capable of SDN (Software-Defined Networking).
  • the base station 2 and a relay device such as a repeater (not shown) are composed of transport devices capable of SDN. Therefore, a plurality of virtual networks (network slices) S1 to S4 that satisfy conflicting service requirements such as low-latency communication and large-capacity communication are defined as physical devices of the wireless communication system by network virtualization technology. Can do.
  • the wireless communication system of the present embodiment is composed of 5G, for example.
  • the wireless communication system of the present embodiment is a mobile communication system that can define a plurality of network slices (hereinafter also referred to as “slices”) S1 to S4 according to predetermined service request conditions such as a delay time.
  • slices network slices
  • the hierarchy of slices to be defined is not limited to four, but may be five or more.
  • each network slice S1 to S4 is defined as follows.
  • the slice S1 is a network slice defined so that the communication terminals 1A to 1D communicate directly.
  • the communication terminals 1A to 1D that directly communicate in the slice S1 are also referred to as “node N1”.
  • the slice S2 is a network slice defined so that the communication terminals 1A to 1D communicate with the base station 2.
  • the highest communication node in the slice S2 (base station 2 in the illustrated example) is also referred to as “node N2”.
  • the slice S3 is a network slice defined so that the communication terminals 1A to 1D communicate with the edge server 3 via the base station 2.
  • the highest communication node (edge server 3 in the example) in the slice S3 is also referred to as “node N3”.
  • the node N2 becomes a relay node. That is, data communication is performed through an uplink path of node N1 ⁇ node N2 ⁇ node N3 and a downlink path of node N3 ⁇ node N2 ⁇ node N1.
  • the slice S4 is a network slice defined so that the communication terminals 1A to 1D communicate with the core server 4 via the base station 2 and the edge server 3.
  • the highest communication node in the slice S4 (core server 4 in the figure) is also referred to as “node N4”.
  • the node N2 and the node N3 are relay nodes. That is, data communication is performed through an uplink path of node N1, node N2, node N3, and node N4, and a downlink path of node N4, node N3, node N2, and node N1.
  • the routing does not use the edge server 3 as a relay node.
  • data communication is performed through the uplink path of node N1 ⁇ node N2 ⁇ node N4 and the downlink path of node N4 ⁇ node N2 ⁇ node N1.
  • Communication terminal 1 ⁇ / b> A includes a wireless communication device mounted on vehicle 5.
  • the vehicles 5 include not only ordinary passenger cars but also public vehicles such as route buses and emergency vehicles.
  • the vehicle 5 may be a two-wheeled vehicle (motorcycle) as well as a four-wheeled vehicle.
  • the drive system of the vehicle 5 may be any of engine drive, electric motor drive, and hybrid system.
  • the driving method of the vehicle 5 may be either normal driving in which an occupant performs operations such as acceleration / deceleration or steering of the steering wheel, or automatic driving in which the operation is performed by software.
  • the communication terminal 1 ⁇ / b> A of the vehicle 5 may be an existing wireless communication device in the vehicle 5, or may be a portable terminal brought into the vehicle 5 by a passenger.
  • the passenger's portable terminal temporarily becomes an in-vehicle wireless communication device by being connected to an in-vehicle LAN (Local Area Network) of the vehicle 5.
  • LAN Local Area Network
  • Communication terminal 1B consists of a portable terminal which pedestrian 7 carries.
  • the pedestrian 7 is a person who moves on foot such as outdoors on roads and parking lots and indoors such as in buildings and underground shopping streets.
  • the pedestrian 7 includes not only a person walking but also a person who rides on a bicycle having no power source.
  • the communication terminal 1 ⁇ / b> C includes a wireless communication device mounted on the roadside sensor 8.
  • the roadside sensor 8 includes an image type vehicle detector installed on the road and a security camera installed outdoors or indoors.
  • the communication terminal 1D is composed of a wireless communication device mounted on the traffic signal controller 9 at the intersection.
  • FIG. 2 is a block diagram illustrating an example of an internal configuration of the edge server 3 and the core server 4.
  • the edge server 3 includes a control unit 31 including a CPU (Central Processing Unit), a ROM (Read Only Memory) 32, a RAM (Random Access Memory) 33, a storage unit 34, a communication unit 35, and the like. Is provided.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the control unit 31 reads one or more programs stored in advance in the ROM 32 into the RAM 33 and executes them, thereby controlling the operation of each hardware and communicating the computer device with the core server 4 or the base station 2. It functions as an edge server.
  • the RAM 33 is composed of a volatile memory element such as SRAM (Static RAM) or DRAM (Dynamic RAM), and temporarily stores a program executed by the control unit 31 and data necessary for the execution.
  • the storage unit 34 includes a nonvolatile memory element such as a flash memory or an EEPROM (Electrically Erasable Programmable Read Only Memory), or a magnetic storage device such as a hard disk.
  • the communication unit 35 includes a communication device that executes communication processing compatible with 5G, and communicates with the core server 4 and the base station 2 via the metro network. The communication unit 35 transmits the information given from the control unit 31 to the external device via the metro network and gives the information received via the metro network to the control unit 31.
  • the storage unit 34 of the edge server 3 stores a dynamic information map (hereinafter also simply referred to as “map”) M1.
  • the map M1 is an aggregate (virtual database) of data in which dynamic information that changes every moment is superimposed on a high-definition digital map that is static information.
  • the digital information constituting the map M1 includes the following “dynamic information”, “semi-dynamic information”, “semi-static information”, and “static information”.
  • “Dynamic information” ( ⁇ 1 second) is dynamic data that requires a delay time of 1 second or less.
  • the position information and signal information of moving bodies (vehicles, pedestrians, etc.) used as ITS (Intelligent Transport Systems) prefetch information correspond to dynamic information.
  • “Semi-dynamic information” ( ⁇ 1 minute) is quasi-dynamic data requiring a delay time of 1 minute or less. For example, accident information, traffic jam information, narrow-area weather information, and the like correspond to quasi-dynamic information.
  • the “quasi-static information” ( ⁇ 1 hour) is quasi-static data in which a delay time within one hour is allowed.
  • traffic regulation information, road construction information, wide area weather information, and the like correspond to quasi-static information.
  • Static information ( ⁇ 1 month) is static data in which a delay time within one month is allowed.
  • road surface information, lane information, and three-dimensional structure data correspond to static information.
  • the control unit 31 of the edge server 3 updates the dynamic information of the map M1 stored in the storage unit 34 every predetermined update cycle (dynamic information update process). Specifically, the control unit 31 obtains various sensor information measured by the vehicle 5 and the roadside sensor 8 in the service area of the own device from each communication terminal 1A to 1D corresponding to 5G at a predetermined update period. Collect and update the dynamic information of the map M1 based on the collected sensor information.
  • the control unit 31 When receiving the dynamic information request message from the communication terminal 1A, 1B of the predetermined user, the control unit 31 sends the latest dynamic information to the communication terminal 1A, 1B that is the transmission source of the request message for each predetermined distribution cycle.
  • Distribute dynamic information distribution process.
  • the control unit 31 collects traffic information and weather information of each location in the service area from a traffic control center, a private weather service support center, and the like, and based on the collected information, associate dynamic information and associate static information of the map M1. Update.
  • the core server 4 includes a control unit 41 including a CPU, a ROM 42, a RAM 43, a storage unit 44, a communication unit 45, and the like.
  • the control unit 41 reads out one or more programs stored in advance in the ROM 32 to the RAM 43 and executes them, thereby controlling the operation of each hardware and functioning as a core server 4 capable of communicating with the edge server 3.
  • the RAM 43 is composed of a volatile memory element such as SRAM or DRAM, and temporarily stores a program executed by the control unit 41 and data necessary for the execution.
  • the storage unit 44 includes a nonvolatile memory element such as a flash memory or an EEPROM, or a magnetic storage device such as a hard disk.
  • the communication unit 45 includes a communication device that performs communication processing compatible with 5G, and communicates with the edge server 3 and the base station 2 via the core network. The communication unit 45 transmits information given from the control unit 41 to the external device via the core network, and gives information received via the core network to the control unit 41.
  • the storage unit 44 of the core server 4 stores a dynamic information map M2.
  • the data structure of the map M2 (data structure including dynamic information, quasi-dynamic information, quasi-static information, and static information) is the same as that of the map M1.
  • the map M2 may be a map of the same service area as the map M1 of the specific edge server 3, or may be a wider area map in which the maps M1 held by the plurality of edge servers 3 are integrated.
  • the control unit 41 of the core server 4 dynamically updates the dynamic information in the map M2 stored in the storage unit 44 and dynamically responds to the request message. Dynamic information distribution processing for distributing information can be performed. That is, the control unit 41 can independently execute dynamic information update processing and distribution processing based on the map M2 of its own device separately from the edge server 3.
  • the core server 4 belonging to the slice S4 has a longer communication delay time with the communication terminals 1A to 1D than the edge server 3 belonging to the slice S3. For this reason, even if the core server 4 independently updates the dynamic information of the map M2, it is inferior in real time as compared to the dynamic information of the map M1 managed by the edge server 3. Therefore, for example, it is preferable that the control unit 31 of the edge server 3 and the control unit 41 of the core server 4 perform dynamic information update processing and distribution processing in a distributed manner according to the priority defined for each predetermined area. .
  • the control unit 41 collects traffic information and weather information of each location in the service area from a traffic control center, a private weather service support center, and the like, and based on the collected information, semi-dynamic information and semi-static information of the map M2 Update.
  • the control unit 41 may adopt the semi-dynamic information and semi-static information of the map M1 received from the edge server 3 as the semi-dynamic information and semi-static information of the map M2 of the own device.
  • FIG. 3 is a block diagram illustrating an example of the internal configuration of the in-vehicle device 50.
  • the in-vehicle device 50 of the vehicle 5 includes a control unit (ECU: Electronic Control Unit) 51, a GPS receiver 52, a vehicle speed sensor 53, a gyro sensor 54, a storage unit 55, a display 56, a speaker 57, and an input.
  • a device 58, an in-vehicle camera 59, a radar sensor 60, a communication unit 61, and the like are provided.
  • the communication unit 61 includes the above-described communication terminal 1A, that is, a wireless communication device capable of performing communication processing compatible with 5G, for example. Therefore, the vehicle 5 can communicate with the edge server 3 as a kind of mobile terminal belonging to the slice S3. The vehicle 5 can also communicate with the core server 4 as a kind of mobile terminal belonging to the slice S4.
  • the control unit 51 includes a computer device that performs route search of the vehicle 5, control of the other electronic devices 52 to 61, and the like.
  • the control unit 51 obtains the vehicle position of the host vehicle from GPS signals that the GPS receiver 52 periodically acquires.
  • the control unit 51 complements the vehicle position and direction based on the input signals of the vehicle speed sensor 53 and the gyro sensor 54 and grasps the accurate current position and direction of the vehicle 5.
  • the GPS receiver 52, the vehicle speed sensor 53, and the gyro sensor 54 are sensors that measure the current position, speed, and direction of the vehicle 5.
  • the storage unit 55 includes a map database.
  • the map database provides road map data to the control unit 51.
  • the road map data includes link data and node data, and is stored in a recording medium such as a DVD, CD-ROM, memory card, or HDD.
  • the storage unit 55 reads out necessary road map data from the recording medium and provides it to the control unit 51.
  • the display 56 and the speaker 57 are output devices for notifying various types of information generated by the control unit 51 to a user who is a passenger of the vehicle 5. Specifically, the display 56 displays an input screen for route search, a map image around the host vehicle, route information to the destination, and the like. The speaker 57 outputs an announcement or the like for guiding the vehicle 5 to the destination. These output devices can also notify the passenger of the provision information received by the communication unit 61.
  • the input device 58 is a device for a passenger of the vehicle 5 to perform various input operations.
  • the input device 58 includes a combination of an operation switch provided on the handle, a joystick, a touch panel provided on the display 56, and the like.
  • a voice recognition device that accepts input by voice recognition of the passenger can also be used as the input device 58.
  • the input signal generated by the input device 58 is transmitted to the control unit 51.
  • the in-vehicle camera 59 includes an image sensor that captures an image in front of the vehicle 5.
  • the in-vehicle camera 59 may be either monocular or compound eye.
  • the radar sensor 60 is a sensor that detects an object existing in front of or around the vehicle 5 by a millimeter wave radar, a LiDAR method, or the like. Based on the measurement data obtained by the in-vehicle camera 59 and the radar sensor 60, the control unit 51 executes driving support control that outputs a warning to the occupant during driving to the display 56 or performs forced braking intervention. be able to.
  • the control unit 51 is configured by an arithmetic processing device such as a microcomputer that executes various control programs stored in the storage unit 55.
  • the control unit 51 executes the above-described control program to display a map image on the display 56, a function to calculate a route from the departure point to the destination (including the position if there is a relay point), Various navigation functions such as a function of guiding the vehicle 5 to the destination according to the calculated route can be executed.
  • the control unit 51 Based on the measurement data of at least one of the in-vehicle camera 59 and the radar sensor 60, the control unit 51 performs object recognition processing for recognizing an object in front of or around the host vehicle, and measurement for calculating a distance to the recognized object. Distance processing is possible.
  • the control unit 51 can calculate the position information of the object recognized by the object recognition process from the distance calculated by the distance measurement process and the sensor position of the host vehicle.
  • the control unit 51 can execute the following processes in communication with the edge server 3 (which may be the core server 4). 1) Request message transmission processing 2) Dynamic information reception processing 3) Change point information calculation processing 4) Change point information transmission processing
  • the request message transmission processing is processing for transmitting, to the edge server 3, a control packet for requesting distribution of dynamic information of the map M1 that the edge server 3 sequentially updates.
  • the control packet includes the vehicle ID of the host vehicle.
  • the dynamic information reception process is a process for receiving dynamic information distributed by the edge server 3 to the own apparatus.
  • the change point information calculation process in the vehicle 5 is a process for calculating a change amount between the received dynamic information and the comparison result between the own vehicle sensor information at the time of reception.
  • Information example a1 Change point information related to recognized object
  • the control unit 51 detects the object X by its own object recognition process, although the received dynamic information does not include the object X (vehicle, pedestrian, obstacle, etc.) In such a case, the detected image data and position information of the object X are used as change point information.
  • the control unit 51 detects the detected object X The difference value between the image data and the position information of both is used as the change point information.
  • Information example a2 Change point information regarding own vehicle
  • the control unit 51 deviates the position information of the own vehicle included in the received dynamic information from the vehicle position of the own vehicle calculated by the GPS signal by a predetermined threshold or more. If they are different, the difference value between them is used as change point information.
  • the control unit 51 determines the difference between the two. The value is used as change point information.
  • the control unit 51 When calculating the change point information as described above, the control unit 51 generates a communication packet addressed to the edge server 3 including the calculated change point information.
  • the control unit 51 includes the vehicle ID of the host vehicle in the communication packet.
  • the change point information transmission process is a process of transmitting the communication packet including the change point information in the data to the edge server 3. The change point information transmission process is performed within the dynamic information distribution cycle by the edge server 3.
  • control unit 51 executes driving support control that causes the display 56 to output a warning for a driver who is driving or to perform forced braking intervention. You can also.
  • FIG. 4 is a block diagram illustrating an example of an internal configuration of the pedestrian terminal 70.
  • the pedestrian terminal 70 of FIG. 4 is composed of the above-described communication terminal 1B, that is, a wireless communication device capable of communication processing corresponding to, for example, 5G. Therefore, the pedestrian terminal 70 can communicate with the edge server 3 as a kind of mobile terminal belonging to the slice S3.
  • the pedestrian terminal 70 can also communicate with the core server 4 as a kind of mobile terminal belonging to the slice S4.
  • the pedestrian terminal 70 includes a control unit 71, a storage unit 72, a display unit 73, an operation unit 74, and a communication unit 75.
  • the communication unit 75 includes a communication interface that wirelessly communicates with the base station 2 of the carrier that provides the 5G service.
  • the communication unit 75 converts the RF signal from the base station 2 into a digital signal and outputs the digital signal to the control unit 71, converts the digital signal input from the control unit 71 into an RF signal, and transmits the RF signal to the base station 2.
  • the control unit 71 includes a CPU, a ROM, a RAM, and the like.
  • the control unit 71 reads out and executes the program stored in the storage unit 72 and controls the overall operation of the pedestrian terminal 70.
  • the storage unit 72 includes a hard disk, a nonvolatile memory, and the like, and stores various computer programs and data.
  • the storage unit 72 stores a mobile ID that is identification information of the pedestrian terminal 70.
  • the mobile ID includes, for example, a carrier subscriber's unique user ID or MAC address.
  • the storage unit 72 stores various application software arbitrarily installed by the user.
  • the application software includes, for example, application software for receiving an information providing service for receiving dynamic information on the map M1 through 5G communication with the edge server 3 (or the core server 4).
  • the operation unit 74 includes various operation buttons and a touch panel function of the display unit 73.
  • the operation unit 74 outputs an operation signal corresponding to a user operation to the control unit 71.
  • the display unit 73 includes, for example, a liquid crystal display and presents various types of information to the user.
  • the display unit 73 can display the image data of the dynamic information maps M1 and M2 transmitted from the servers 3 and 4 on the screen.
  • the control unit 71 uses the time synchronization function to acquire the current time from the GPS signal, the position detection function to measure the current position (latitude, longitude, and altitude) of the host vehicle from the GPS signal, and the direction sensor to determine the direction of the pedestrian 7. It also has an orientation detection function for measurement.
  • the control unit 71 can execute the following processes in communication with the edge server 3 (which may be the core server 4). 1) Request message transmission processing 2) Terminal state information transmission processing 3) Dynamic information reception processing
  • the request message transmission processing is processing for transmitting, to the edge server 3, a control packet for requesting distribution of dynamic information of the map M1 that the edge server 3 sequentially updates.
  • the control packet includes the mobile ID of the pedestrian terminal 70.
  • the terminal state information transmission process is a process of transmitting the state information of the pedestrian terminal 70 such as the position and orientation information of the own device to the edge server 3.
  • the terminal state information may include identification information indicating whether application software that is likely to cause a so-called “walking smartphone” such as a map application, a mail application, and a game application is being displayed.
  • the dynamic information reception process is a process for receiving dynamic information distributed by the edge server 3 to the own apparatus.
  • FIG. 5 is a block diagram illustrating an example of an internal configuration of the roadside sensor 8.
  • the roadside sensor 8 includes a control unit 81, a storage unit 82, a roadside camera 83, a radar sensor 84, and a communication unit 85.
  • the communication unit 85 includes the above-described communication terminal 1 ⁇ / b> C, that is, a wireless communication device capable of 5G-compatible communication processing, for example. Therefore, the roadside sensor 8 can communicate with the edge server 3 as a kind of fixed terminal belonging to the slice S3. The roadside sensor 8 can also communicate with the core server 4 as a kind of fixed terminal belonging to the slice S4.
  • the control unit 81 includes a CPU, a ROM, a RAM, and the like.
  • the control unit 81 reads and executes the program stored in the storage unit 82 and controls the overall operation of the roadside sensor 8.
  • the storage unit 82 includes a hard disk, a nonvolatile memory, and the like, and stores various computer programs and data.
  • the storage unit 82 stores a sensor ID that is identification information of the roadside sensor 8.
  • the sensor ID includes, for example, a user ID unique to the owner of the roadside sensor 8 or a MAC address.
  • the roadside camera 83 is composed of an image sensor that captures video of a predetermined shooting area.
  • the roadside camera 83 may be either monocular or compound eye.
  • the radar sensor 60 is a sensor that detects an object existing in front of or around the vehicle 5 by a millimeter wave radar, a LiDAR method, or the like.
  • the control unit 81 transmits the captured video data or the like to the security manager computer device.
  • the control unit 81 transmits the captured video data and the like to the traffic control center.
  • the control unit 81 performs object recognition processing for recognizing an object in the imaging area and distance measurement processing for calculating a distance to the recognized object based on at least one measurement data of the roadside camera 83 and the radar sensor 84. Is possible.
  • the control unit 51 can calculate the position information of the object recognized by the object recognition process from the distance calculated by the distance measurement process and the sensor position of the host vehicle.
  • the control unit 81 can execute the following processes in communication with the edge server 3 (which may be the core server 4). 1) Change point information calculation process 2) Change point information transmission process
  • the calculation process of the change point information in the roadside sensor 8 is based on the comparison result between the previous sensor information and the current sensor information for each predetermined measurement cycle (for example, the dynamic information delivery cycle by the edge server 3). It is a process which calculates the variation
  • the change point information calculated by the roadside sensor 8 for example, the following information example b1 can be considered.
  • the control unit 81 detects the object Y by the current object recognition process, although the object Y (vehicle, pedestrian, obstacle, etc.) is not included in the previous object recognition process. In this case, the detected image data and position information of the object Y are used as change point information.
  • the control unit 81 detects the detected object Y. And the difference value between them are used as change point information.
  • the control unit 81 When calculating the change point information as described above, the control unit 81 generates a communication packet addressed to the edge server 3 including the calculated change point information.
  • the control unit 81 includes the sensor ID of its own device in the communication packet.
  • the change point information transmission process is a process of transmitting the communication packet including the change point information in the data to the edge server 3. The change point information transmission process is performed within the dynamic information distribution cycle by the edge server 3.
  • FIG. 6 is an overall configuration diagram of the information providing system according to the embodiment of the present invention.
  • the information providing system of the present embodiment includes a large number of vehicles 5, pedestrian terminals 70 and roadside sensors 8 that are scattered in a relatively wide service area (real word) of the edge server 3.
  • the edge server 3 capable of wireless communication with low delay by 5G communication via the base station 2 or the like.
  • the edge server 3 collects the above-described change point information from the vehicle 5 and the roadside sensor 8 at a predetermined cycle (step S31), integrates the collected change point information by map matching, and manages dynamic information being managed.
  • the dynamic information of the map M1 is updated (step S32). If there is a request from the vehicle 5 or the pedestrian terminal 70, the edge server 3 transmits the latest dynamic information to the requesting communication node (step S33). Thereby, for example, the vehicle 5 that has received the dynamic information can use the dynamic information for driving assistance of the passenger.
  • step S34 change point information collection (step S31) ⁇ dynamic information update (step S32) ⁇ dynamic information distribution (step S33) ⁇ change point information detection by a vehicle (Step S34) ⁇ Information processing in each communication node circulates in the order of change point information collection (Step S31).
  • an information providing system including only one edge server 3 is illustrated, but a plurality of edge servers 3 may be included, or instead of or in addition to the edge server 3,
  • One or a plurality of core servers 4 may be included.
  • the dynamic information map M1 managed by the edge server 3 may be a map in which at least dynamic information of an object is superimposed on map information such as a digital map. This also applies to the core server dynamic information map M2.
  • FIG. 7 is a sequence diagram showing an example of dynamic information update processing and distribution processing executed by cooperation of the pedestrian terminal 70, the vehicle 5, the roadside sensor 8, and the edge server 3.
  • the execution subject is the pedestrian terminal 70, the vehicle 5, the roadside sensor 8, and the edge server 3, but the actual execution subject is the control units 71, 51, 81, and 31.
  • U1, U2,... are dynamic information distribution cycles.
  • step S ⁇ b> 1 when the edge server 3 receives a dynamic information request message from the pedestrian terminal 70 and the vehicle 5 (step S ⁇ b> 1), the latest dynamic information at the time of reception is sent to the pedestrian terminal that is the transmission source. 70 and the vehicle 5 (step S2). If there is a request message from either the pedestrian terminal 70 or the vehicle 5 in step S1, dynamic information is distributed only to one communication terminal that is the transmission source of the request message in step S2.
  • step S2 When the vehicle 5 that has received the dynamic information in step S2 detects change point information from the comparison result between the dynamic information and its own sensor information within the distribution cycle U1 (step S3), It transmits to the server 3 (step S5).
  • step S5 When the roadside sensor 8 detects the change point information of its own sensor information within the distribution cycle U1, the roadside sensor 8 transmits the detected change point information to the edge server 3 (step S5).
  • the edge server 3 When the edge server 3 receives the change point information from the vehicle 5 and the roadside sensor 8 within the distribution cycle U1, the edge server 3 updates the dynamic information reflecting the change point information (step S6), and then updates the updated dynamic information. Information is distributed to the pedestrian terminal 70 and the vehicle 5 (step S7). When only the vehicle 5 detects the change point information within the distribution cycle U1, only the change point information detected by the vehicle 5 in step S3 is transmitted to the edge server 3 (step S5), and only the change point information is reflected. The updated dynamic information is performed (step S6).
  • step S5 When only the roadside sensor 8 detects the change point information within the distribution cycle U1, only the change point information detected by the roadside sensor 8 in step S4 is transmitted to the edge server 3 (step S5), and only the change point information is detected.
  • the dynamic information reflecting the above is updated (step S6). If both the vehicle 5 and the roadside sensor 8 do not detect the change point information within the distribution cycle U1, the processing of steps S3 to S6 is not executed and is the same as the dynamic information for the previous transmission (step S2). Dynamic information is distributed to the pedestrian terminal 70 and the vehicle 5 (step S7).
  • step S7 When the vehicle 5 that has received the dynamic information in step S7 detects change point information from the comparison result between the dynamic information and its own sensor information within the distribution period U2 (step S8), the detected change point information is edged. It transmits to the server 3 (step S10).
  • the roadside sensor 8 detects the change point information of its own sensor information within the distribution cycle U2
  • the roadside sensor 8 transmits the detected change point information to the edge server 3 (step S10).
  • the edge server 3 When the edge server 3 receives the change point information from the vehicle 5 and the roadside sensor 8 within the distribution cycle U2, the edge server 3 updates the dynamic information reflecting the change point information (step S11), and then updates the updated dynamic information. Information is distributed to the pedestrian terminal 70 and the vehicle 5 (step S12). When only the vehicle 5 detects the change point information within the distribution cycle U2, only the change point information detected by the vehicle 5 in step S8 is transmitted to the edge server 3 (step S10), and only the change point information is reflected. The updated dynamic information is updated (step S11).
  • step S9 When only the roadside sensor 8 detects the change point information within the distribution cycle U2, only the change point information detected by the roadside sensor 8 in step S9 is transmitted to the edge server 3 (step S10), and only the change point information is detected.
  • the dynamic information reflecting the above is updated (step S11). If both the vehicle 5 and the roadside sensor 8 do not detect the change point information within the distribution cycle U2, the processing of steps S8 to S11 is not executed and is the same as the dynamic information for the previous transmission (step S7). Dynamic information is distributed to the pedestrian terminal 70 and the vehicle 5 (step S12).
  • FIG. 8 is an explanatory diagram showing an example of a selection method when the edge server 3 receives competing change point information.
  • the time advances in the order of t0 ⁇ t1 ⁇ t2. It is assumed that the vehicle 5A is traveling right on the road, the vehicle 5B is traveling left on the road, and the pedestrian 7A is walking right on the road.
  • the area A1 is a shooting area where the roadside sensor 8A can calculate the position information of the recognized object with high accuracy
  • the area A2 is a shooting area where the roadside sensor 8A calculates the position information of the recognized object with low accuracy
  • Area B1 is a shooting area where roadside sensor 8B can calculate the position information of the recognized object with high accuracy
  • area B2 is a shooting area where roadside sensor 8B calculates the position information of the recognized object with low accuracy.
  • the triangular area with broken-line hatching is an imaging area in which the in-vehicle camera 59 of the vehicles 5A and 5B can shoot. Further, it is assumed that the vehicles 5A and 5B, the roadside sensors 8A and 8B, and the edge server 3 are synchronized in time using GPS time or the like. At time t0, the vehicle 5A begins to enter the area A1, and the pedestrian 7A is included in the shooting area of the vehicle 5A.
  • the roadside sensor 8A transmits change point information for notifying the first detection (change point) of the recognized object (actually the vehicle 5A) to the edge server 3 at time t0 (step S21).
  • the change point information includes the image data of the recognized object, the object position, identification information for accuracy determination (measurement in the area A1, etc.), and the sensor ID of the device itself.
  • the vehicle 5A transmits change point information for notifying the first detection (change point) of the recognized object (actually a pedestrian 7A) to the edge server 3 (step S22).
  • the change point information includes image data of the recognized object, object position, identification information for accuracy determination (measurement with a monocular camera, etc.), and vehicle ID of the host vehicle.
  • the edge server 3 that has received the change point information in steps S21 and S22 determines that the recognized object is the vehicle 5A and the pedestrian 7A based on the image data, and tags each recognized object (step S23). , S24). At time t1, the vehicle 5A is still traveling in the area A1, and the pedestrian 7A is still included in the shooting area of the vehicle 5A.
  • the roadside sensor 8A transmits change point information for notifying the movement (change point) of the recognized object (actually the vehicle 5A) to the edge server 3 at time t1 (step S25).
  • the change point information includes the image data of the recognized object, the object position, identification information for accuracy determination (measurement in the area A1, etc.), and the sensor ID of the device itself.
  • vehicle 5A transmits change point information for notifying the movement (change point) of the recognized object (actually pedestrian 7A) to edge server 3 at time t1 (step S26).
  • the change point information includes image data of the recognized object, object position, identification information for accuracy determination (measurement with a monocular camera, etc.), and vehicle ID of the host vehicle.
  • the vehicle 5A approaches the area B1, and the pedestrian 7A is walking in the area B1.
  • the pedestrian 7A is included in the shooting areas of both the two vehicles 5A and 5B.
  • the roadside sensor 8B transmits the change point information for notifying the first detection (change point) of the recognized object (actually a pedestrian 7A) and the edge server 3 at time t2 (step S25).
  • the change point information includes image data of the recognized object, object position, identification information for accuracy determination (measurement in the area B1 and the like), and sensor ID of the device itself.
  • the vehicle 5A transmits change point information for notifying the movement (change point) of the recognized object (actually a pedestrian 7A) to the edge server 3, and the vehicle 5B recognizes the recognized object (actually a pedestrian).
  • the change point information for notifying the first detection (change point) of 7A) is transmitted to the edge server 3. Therefore, at time t2, the change point information received from the roadside sensor 8B and the two vehicles 5A and 5B competes for the same pedestrian 7A.
  • the edge server 3 selects any one change point information based on the accuracy determination identification information reported by each communication node (step S27), and updates the dynamic information using the selected change point information. To do. Specifically, the edge server 3 is based on the identification information on the condition that the object position included in the change point information received from the roadside sensor 8B and the two vehicles 5A and 5B is within a predetermined distance (for example, 20 cm). Apply predetermined selection criteria.
  • the edge server 3 selects the change point information from which the roadside sensor 8 is the transmission source among the three types of change point information at the time t2. To do.
  • the selection criteria for the change point information using the identification information is not limited to the above. For example, the following selection criteria 1 and 2 can be considered.
  • the change point information having a shorter distance from the sensor to the recognition object is preferentially selected over the change point information having a longer distance from the sensor to the recognition object.
  • Change point information having an object position measured by a higher accuracy sensor for example, a stereo camera
  • Change point information having an object position measured by a lower accuracy sensor for example, a monocular camera.
  • FIG. 9 is a flowchart illustrating an example of a collision avoidance process performed by the vehicle 5.
  • the execution subject is the vehicle 5 and the edge server 3, but the actual execution subject is the respective control units 51 and 31.
  • the vehicle 5 uses an accessory power supply (ACC) or an ignition power supply (IG) to be turned on (step ST11), and sends a request message for the position information and direction information of the own vehicle and dynamic information. It transmits to the server 3 (step ST12).
  • the edge server 3 updates the dynamic information after correcting the position information received from the vehicle 5 based on other sensor information (change point information acquired from the roadside sensor 8 other than the transmission source vehicle 5). Then, the updated dynamic information is distributed to the vehicle 5 (step ST13).
  • the vehicle 5 corrects the position information and the direction information of the own vehicle using the received dynamic information (step ST14), and from the comparison result of the received dynamic information and the sensor information of the own vehicle, It is determined whether or not change point information is detected (step ST15). If the determination result of step S15 is affirmative, the vehicle 5 transmits the calculated change point information to the edge server 3 (step ST16), and then executes the determination process of step ST18.
  • the edge server 3 that has received the change point information corrects the position information received from the vehicle 5 based on other sensor information (change point information acquired from the roadside sensor 8 or the like), updates the dynamic information, and updates the updated motion information.
  • the target information is distributed to the vehicle 5 (step ST17). If the determination result of step S15 is negative, the vehicle 5 skips the changing point information transmission process (step ST16) and executes the determination process of step ST18.
  • the determination process of step ST18 is a process of determining whether there is a dangerous object around the own vehicle or whether the own vehicle exists in the dangerous area.
  • Dangerous goods are pedestrians who cross a roadway without a pedestrian crossing.
  • the danger area is an intersection where there is no traffic signal and other vehicles that are at risk of encounter collision are entering.
  • step ST18 If the determination result in step ST18 is affirmative, the vehicle 5 requests dynamic information from the edge server 3 in a shorter cycle than usual, and there is a possibility of a collision with another vehicle 5 or a pedestrian 7. The fact is notified to the passenger of the vehicle 5 (step ST19). If the determination result in step ST18 is negative, the vehicle 5 requests dynamic information from the edge server 3 in a normal cycle and notifies that there is a possibility of a collision with another vehicle 5 or a pedestrian 7. Is not performed (step ST20).
  • step ST21 the vehicle 5 returns the process to step ST12 on condition that the dynamic information request timing of the next cycle is reached.
  • FIG. 10 is a flowchart illustrating an example of a collision avoidance process performed by the pedestrian terminal 70.
  • the execution subject is the pedestrian terminal 70 and the edge server 3, but the actual execution subject is the respective control units 71 and 31.
  • the pedestrian terminal 70 transmits a request message of its own position information and direction information and dynamic information to the edge server 3 on condition that the power is turned on (step ST31) (step ST32). ).
  • the terminal state information described above may be transmitted.
  • the edge server 3 corrects the position information received from the pedestrian terminal 70 with other sensor information (change point information acquired from the vehicle 5, the roadside sensor 8, etc.) and updates the dynamic information,
  • the updated dynamic information is distributed to the pedestrian terminal 70 (step ST33).
  • the pedestrian terminal 70 corrects its own position information and direction information using the received dynamic information (step ST34), and then executes the determination process of step ST35.
  • the determination process of step ST35 is a process of determining whether there is a dangerous substance around the own machine or whether the own machine exists in the dangerous area.
  • Dangerous goods are vehicles approaching at high speed toward the own aircraft, the latest pedestrians approaching toward the own aircraft, and the like.
  • a dangerous area is an intersection that cannot be reached due to a red light.
  • step ST35 If the determination result in step ST35 is affirmative, the pedestrian terminal 70 requests dynamic information from the edge server 3 in a shorter cycle than usual and may collide with other vehicles 5 or pedestrians 7. The pedestrian 7 is notified that there is (step ST36). If the determination result in step ST35 is negative, the pedestrian terminal 70 requests dynamic information from the edge server 3 in a normal cycle, and there is a possibility of a collision with another vehicle 5 or pedestrian 7. Is not notified (step ST37).
  • the pedestrian terminal 70 returns the process to step ST32 on condition that the next cycle of dynamic information request timing has come (step ST38).
  • the edge server 3 may dynamically change the sensor information (specifically, change point information) collected from the vehicle 5 and the roadside sensor 8.
  • the dynamic information of the information map M1 can be updated almost in real time. Therefore, various types of information can be provided to the user depending on the type of dynamic information included in the management target.
  • FIG. 11 is an explanatory diagram showing a service example of the information providing system.
  • the servers 3 and 4 can provide “lost child / buzzer information” to the user. For example, if the location information of the pedestrian terminal 70 owned by the elderly pedestrian 7 identified from the mobile ID circulates around the residence many times, the servers 3 and 4 7 is determined to be lost or hesitated, and the determination result is transmitted to the pedestrian terminal 70 owned by the family.
  • the servers 3 and 4 can provide “public transportation information” to the user. For example, when the pedestrian terminal 70 owned by the user is stopped at the bus stop, the servers 3 and 4 calculate the expected time when the route bus arrives at the bus stop from the location information of the route bus specified from the vehicle ID. Then, the calculated predicted time is transmitted to the user's pedestrian terminal 70.
  • the servers 3 and 4 can provide “emergency vehicle information” to the user. For example, when the vehicle 5 owned by the user is traveling on a road, the servers 3 and 4 calculate the estimated time to catch up with the vehicle 5 from the position information of the ambulance identified from the vehicle ID, and the calculated estimated time is It transmits to the user's vehicle 5.
  • the servers 3 and 4 can provide “road traffic information” to the user. For example, when there are many vehicles 5 existing in a predetermined road section, the servers 3 and 4 generate traffic information such as link data of the road section in the traffic jam and the traffic jam length when the traffic is detected. The traffic jam information is transmitted to the vehicle 5 owned by the user.
  • the servers 3 and 4 can provide “suspicious person information” to the user. For example, when the position information of the pedestrian 7 acquired from the roadside sensor 8 composed of a security camera circulates around the same residence many times, the servers 3 and 4 are suspicious persons. It determines with there and transmits a determination result to the pedestrian terminal 70 of the user who owns the residence.
  • the servers 3 and 4 can provide “parking lot information” to the user. For example, the servers 3 and 4 calculate the number of vehicles and the number of vacant vehicles existing in the parking lot from the image data acquired from the roadside sensor 8 installed in the parking lot, and store the calculated information in the vehicle 5 owned by the user. Send.
  • FIG. 12 is an explanatory diagram showing advantages of the information providing system of the present embodiment (hereinafter referred to as “the present system”) in comparison with a conventional system.
  • the present system the information providing system of the present embodiment
  • the disadvantages D1 to D5 of the conventional system and the advantages E1 to E6 of the present system will be described with reference to FIG.
  • probe information and the like are shared by mobile communication using an in-vehicle communication device such as an in-vehicle TCU (Telematics Communication Unit).
  • mobile communication up to 4G has a drawback in that the real-time property is low (see D1) because it passes through the core network.
  • the vehicle 5 since the vehicle 5 has the communication terminal 1A that supports high-speed mobile communication such as 5G, for example, a low delay response service (see E1) via the edge server 3 is provided to the passenger of the vehicle 5 There is an advantage that it can be provided.
  • the presence or absence of a pedestrian is detected by a pedestrian sensor.
  • the pedestrian sensor is arranged only locally in a place where there is a large amount of pedestrian traffic such as a pedestrian crossing, and has a drawback that the detection range of the pedestrian 7 is small (see D2).
  • the dynamic information including the position information of the pedestrian 7 is updated from the sensor information measured by the vehicle 5 and the roadside sensor 8 included in the service area of the edge server 3. For this reason, there is an advantage that the monitoring area is greatly expanded (see E2) and the pedestrian access service (see E3) can be provided to the user.
  • the number of vehicles and vehicle positions near the intersection can be detected by a vehicle detection camera or the like installed on the road.
  • the vehicle detection camera alone has a drawback that the positioning accuracy of the position information of the vehicle or the like is insufficient (see D4).
  • the position information of the same object can be corrected by sensor information collected from a plurality of vehicles and roadside sensors. For this reason, there is an advantage that an accurate location information providing service (see E5) can be realized.
  • the number of vehicles stopped on the road can be estimated based on the probe information transmitted by the ITS-compatible vehicle 5.
  • the mounting rate of ITS in-vehicle devices is still large, so there is a drawback that the situation of each lane is unknown (see D5).
  • the dynamic information managed by the edge server 3 includes sensor information from the in-vehicle camera 59. For this reason, there is an advantage that the traffic for each lane can be grasped and the service for providing the recommended travel lane (see E6) can be realized.
  • the vehicle 5 and the roadside sensor 8 generate change point information from the sensor information, and transmit the generated change point information to the edge server 3 (steps S3, S4, S8, and S9 in FIG. 7).
  • the sensor information may be transmitted to the edge server 3 as it is.
  • the edge server 3 should just perform the process which produces
  • the sensor information of the vehicle 5 and the roadside sensor 8 includes video data and the like, the vehicle 5 and the roadside sensor 8 provide change point information with a smaller amount of data in order to reduce the communication load with the edge server 3. It is preferable to produce.
  • the edge server 3 generates dynamic information based on sensor information from different angles depending on the crowded situation of the vehicle 5 or the pedestrian 7. In this way, the classification performance of the object included in the sensor information can be improved.
  • the edge server 3 calculates the traveling direction of the object based on the video data, May be reflected in the target information.
  • the edge server 3 determines the priority of the change point information or sensor information collected from the vehicle 5 and the roadside sensor 8, and whether the edge server 3 generates dynamic information according to the determined priority.
  • the core server 4 may determine whether to generate dynamic information. For example, in the case of change point information where the object position is near an intersection, the priority may be increased, and when the object position is an area with a small amount of traffic, the priority may be decreased.
  • the edge server 3 generates dynamic information based on the change point information or sensor information with high priority, and the core server 4 moves based on the change point information or sensor information with low priority. Information is generated. Therefore, the real-time property of the dynamic information in the area with high priority can be improved.
  • the congestion degree such as the vehicle 5 or the pedestrian 7.
  • FIG. it is preferable to increase the priority of change point information or sensor information of an area where the degree of congestion has increased, and notify the information transmission source of the area of an instruction to shorten the transmission cycle.
  • the update period of the dynamic information based on the change point information or sensor information of the area with high priority can be advanced, and the real-time property of the dynamic information of the area with high priority can be improved.
  • the edge server 3 or the core server 4 preferably stores change point information or sensor information including image data of a recognized object for each recognized object.
  • the specific vehicle 5 or the pedestrian 7 can be tracked in time series by searching the change point information or the sensor information for each vehicle 5 or pedestrian 7 that is the recognition object.
  • FIG. 13 is an overall configuration diagram of an information providing system according to a modification of the present invention.
  • the information providing system shown in FIG. 13 is different from the information providing system shown in FIG. 6 in that the edge server 3 generates the object behavior prediction process in addition to the dynamic information update process and distribution process (steps S31 to S34).
  • Future dynamic information (hereinafter referred to as “prediction information”) can be distributed to the vehicle 5, the pedestrian terminal 70, and the like.
  • the storage unit 34 of the edge server 3 stores the dynamic information prediction map PM1.
  • the control unit 31 of the edge server 3 updates the prediction information of the map PM1 stored in the storage unit 34 every predetermined update cycle (prediction information update process). Specifically, the control unit 31 obtains various sensor information measured by the vehicle 5 and the roadside sensor 8 in the service area of the own device from each communication terminal 1A, 1C compatible with 5G for each predetermined update period. Collecting and updating the prediction information of the map PM1 based on the collected sensor information.
  • the control unit 31 When receiving the prediction information request message from the communication terminal 1A, 1B of the predetermined user, the control unit 31 distributes the latest prediction information to the communication terminal 1A, 1B that is the transmission source of the request message at every predetermined distribution cycle. (Predictive information distribution process).
  • the dynamic information prediction map PM1 may be a map in which prediction information is superimposed on a digital map constituting the dynamic information map M1 (FIG. 2), or the prediction information is displayed on a digital map separate from the dynamic information map M1. May be a map in which is superimposed.
  • the edge server 3 can collect sensor information measured by the vehicle 5 and the roadside sensor 8 for each predetermined period in addition to collecting change point information for each predetermined period (step S31) (step S35).
  • the sensor information of the vehicle 5 includes high-definition image data (may be a moving image), vehicle CAN (Controller Area Network) information, and the like.
  • the image data of the vehicle 5 includes image data around the vehicle 5 taken by the in-vehicle camera 59. In the case of the vehicle 5 having an in-vehicle camera, image data of the driver may be included.
  • the sensor information of the roadside sensor 8 includes high-definition image data (may be a moving image).
  • the image data is image data of a predetermined shooting area shot by the roadside camera 83.
  • the edge server 3 predicts an event that may occur at a predetermined point in the service area after the current time based on information acquired from each sensor such as the vehicle 5 and the roadside sensor 8 at a predetermined update period (behavior prediction process). : Step S36), the predicted information of the predicted predetermined point is superimposed on the dynamic information prediction map PM1.
  • the edge server 3 distributes the latest prediction information to the requesting communication node (step S37). Thereby, for example, the vehicle 5 that has received the prediction information can utilize the prediction information for driving assistance of the passenger. Moreover, when the pedestrian terminal 70 displays or outputs the prediction information received from the edge server 3, the pedestrian 7 may take an action of avoiding a collision with the vehicle 5 or another pedestrian 7. it can.
  • the input information of the behavior prediction process (step S36) consists of the sensor information itself measured by the vehicle 5 and the roadside sensor 8, but the change point information (step S21) collected from each communication terminal is used as the behavior prediction process. It is good also as input information.
  • an information providing system including only one edge server 3 is illustrated, but a plurality of edge servers 3 may be included, or instead of the edge server 3 or in addition to the edge server 3, One or a plurality of core servers 4 may be included.
  • drawing reference code of the dynamic information prediction map managed by the edge server 3 is “PM1”
  • drawing reference code of the dynamic information prediction map managed by the core server 4 is “PM2”.
  • FIG. 14 is an explanatory diagram of a specific example of behavior prediction processing by the servers 3 and 4. As illustrated in FIG. 14, the behavior prediction processing executed by the control units 31 and 41 of the servers 3 and 4 includes at least one of “first prediction processing” and “second prediction processing”.
  • the “second prediction process” refers to a relatively complex algorithm (for example, image analysis, pedestrian behavior estimation model, deep learning, etc.) in consideration of at least one factor such as the property of the object and the surrounding situation. This is a process for predicting dynamic information of an object that may occur in the future.
  • the second prediction process is broadly classified into “pedestrian behavior prediction” in which the prediction target is the pedestrian 7 and “vehicle behavior prediction” in which the prediction target is the vehicle 5.
  • Process 1 The movement direction of the pedestrian 7 is estimated from the line of sight of the pedestrian 7, the face direction, or the body direction included in the image data, and the estimated movement direction is multiplied by a predetermined walking speed (set value). The position of the pedestrian 7 several seconds ahead is predicted.
  • the future behavior of the pedestrian 7 is estimated from the surrounding information of the pedestrian 7 included in the image data (such as being in the crowd while taking a walk with a dog), and with certainty according to the estimated behavior Generate a predicted position. For example, for a pedestrian 7 existing in a crowd, the position and accuracy with which the pedestrian 7 moves several seconds ahead using a behavior estimation model that compares the avoidance behavior of the pedestrians 7 with the repulsive force of the same polarity of the magnets. Is calculated.
  • the behavior of the pedestrian 7 is estimated from the attributes of the pedestrian 7 included in the image data (such as old and young men or children), and a predicted position with accuracy corresponding to the estimated behavior is generated. For example, when the pedestrian 7 is an infant, the assumed movement range is set wider than usual from the current position, and the position and accuracy at which the pedestrian 7 moves several seconds ahead is calculated. Further, when the pedestrian 7 is an elderly person, the position and accuracy at which the pedestrian 7 moves several seconds ahead is calculated using a speed value lower than usual.
  • Vehicle behavior prediction For vehicle behavior prediction, for example, the following processes 4 to 6 can be employed. Process 4 4) Based on the image data in the passenger compartment, the behavior of the vehicle 5 that can occur after the current time is predicted, and an event caused by the predicted behavior is output together with its occurrence accuracy. For example, the facial expression of the passenger extracted from the image data in the vehicle is determined by a facial expression recognition method based on deep learning, and when the determined facial expression is “sleepy”, the vehicle 5 operated by the passenger is Predicted as a dangerous vehicle with a high possibility of lane protrusion.
  • Process 5 The extension speed of the wide-range vehicle group (congestion section) is calculated from the surrounding image of the vehicle 5, the image data of the roadside sensor 8, and the like, and the traffic jam end position several seconds ahead is predicted from the calculated extension speed.
  • Process 6) A behavior that can occur after the current time is predicted from the vehicle CAN information and the surrounding image of the vehicle 5, and an event caused by the predicted behavior is output together with its occurrence accuracy.
  • the vehicle CAN information includes information on TPMS (Tire Pressure Monitoring System), gyro, yaw rate, pedal, vehicle speed, acceleration, VSA (Vehicle Stability Assist), vehicle-to-vehicle communication, and the like. Therefore, for example, when the yaw rate value of the vehicle 5 is periodically blurred and the surrounding image is entirely blurred in the same cycle, the lane may be protruded from the vehicle 5 operated by the passenger. Predict that it is a high risk vehicle.
  • the servers 3 and 4 predict facilities such as schools and kindergartens facing the roadway as popping-out points or traffic accident-prone points, or predicting roads that are congested as lane-changing frequent routes. Good.
  • the servers 3 and 4 may transmit a shooting area change command to the roadside sensor 8. In this case, the collection range of image data used for the behavior prediction process can be changed.
  • FIG. 15 to 18 are explanatory diagrams showing variations of the information providing system that are different for each execution subject of the behavior prediction process. (When there is no communication terminal with behavior prediction function)
  • FIG. 15 is an explanatory diagram illustrating a flow of information transmitted and received in an information providing system that does not include a communication terminal having a behavior prediction function. That is, the explanatory diagram of FIG. 15 is an explanatory diagram showing the flow of information in the information providing system of FIG.
  • the first information that the vehicle 5 that is the mobile terminal transmits to the servers 3 and 4 includes the change point information calculated by the vehicle 5.
  • the second information transmitted from the roadside sensor 8 that is a fixed terminal to the servers 3 and 4 includes the change point information calculated by the roadside sensor 8.
  • the sensor information of the vehicle 5 may be included in the first information
  • the sensor information of the roadside sensor 8 may be included in the second information.
  • the servers 3 and 4 can generate dynamic information from their sensor information by their own devices.
  • the servers 3 and 4 hold dynamic information maps M1 and M2.
  • the servers 3 and 4 integrate the received first and second information (change point information) at predetermined update intervals, and update the dynamic information in the dynamic information maps M1 and M2.
  • the third information distributed by the servers 3 and 4 includes dynamic information.
  • the servers 3 and 4 transmit the updated dynamic information at a predetermined distribution cycle to the vehicle 5 or the pedestrian terminal 70 that is the transmission source of the request message.
  • FIG. 16 is an explanatory diagram showing a flow of information transmitted and received in the information providing system in which the servers 3 and 4 have a behavior prediction function. That is, the explanatory diagram of FIG. 16 is an explanatory diagram showing a flow of information in the information providing system of FIG.
  • the first information transmitted from the vehicle 5 as the mobile terminal to the servers 3 and 4 includes sensor information (for example, image data and vehicle CAN information) of the vehicle 5.
  • the second information that the roadside sensor 8 that is a fixed terminal transmits to the servers 3 and 4 includes sensor information (for example, image data) of the roadside sensor 8.
  • the change point information calculated by the vehicle 5 may be included in the first information
  • the change point information calculated by the roadside sensor 8 may be included in the second information.
  • the servers 3 and 4 may execute the behavior prediction process from the change point information.
  • the servers 3 and 4 have dynamic behavior prediction maps PM1 and PM2, and have a behavior prediction unit 101 that executes the behavior prediction processing described above.
  • the behavior prediction unit 101 generates prediction information from the received first and second information (sensor information) for each predetermined update cycle, and superimposes the generated prediction information on the dynamic information prediction maps PM1 and PM2.
  • the maps PM1 and PM2 are updated.
  • the third information distributed by the servers 3 and 4 includes prediction information generated by the behavior prediction unit 101 (hereinafter referred to as “server prediction information”).
  • the servers 3 and 4 transmit the generated server prediction information at a predetermined distribution cycle to the vehicle 5 or the pedestrian terminal 70 that is the transmission source of the request message.
  • the third information distributed by the servers 3 and 4 may include dynamic information. In this case, the servers 3 and 4 transmit the updated dynamic information at a predetermined distribution cycle to the vehicle 5 or the pedestrian terminal 70 that is the transmission source of the request message.
  • FIG. 17 is an explanatory diagram showing a flow of information transmitted and received in the information providing system in which the vehicle 5 has a behavior prediction function. That is, as illustrated in FIG. 17, the vehicle 5 includes the behavior prediction unit 102 that executes the above-described behavior prediction process, and the servers 3 and 4 do not include the behavior prediction unit 101. The vehicle 5 having the behavior prediction unit 102 may be a part.
  • the first information that the vehicle 5 that is the mobile terminal transmits to the servers 3 and 4 includes the change point information calculated by the vehicle 5.
  • the second information transmitted from the roadside sensor 8 that is a fixed terminal to the servers 3 and 4 includes the change point information calculated by the roadside sensor 8.
  • the sensor information of the vehicle 5 may be included in the first information
  • the sensor information of the roadside sensor 8 may be included in the second information.
  • the servers 3 and 4 can generate dynamic information from their sensor information by their own devices.
  • the servers 3 and 4 hold dynamic information maps M1 and M2.
  • the servers 3 and 4 integrate the received first and second information (change point information) at predetermined update intervals, and update the dynamic information in the dynamic information maps M1 and M2.
  • the third information distributed by the servers 3 and 4 includes dynamic information.
  • the servers 3 and 4 transmit the updated dynamic information at a predetermined distribution cycle to the vehicle 5 or the pedestrian terminal 70 that is the transmission source of the request message.
  • Dynamic information (third information) received by the vehicle 5 is collected by the servers 3 and 4 from a large number of vehicles 5 and roadside sensors 8 in the service area at predetermined update intervals, and the collected change point information is integrated. Information. Therefore, the vehicle 5 on the dynamic information receiving side is not only an object within the sensing range of the in-vehicle camera 59 or the radar sensor 60 of the own vehicle (hereinafter referred to as “inside object”) but also an object existing outside the sensing range. (Hereinafter referred to as “outside object”) dynamic information can be acquired.
  • the behavior prediction unit 102 of the vehicle 5 may execute not only the behavior prediction process for the inner object based on the sensor information of the own device but also the behavior prediction process for the outer object. In this way, it becomes possible to predict the future dynamic information of the outside object outside the sensing range of the own vehicle.
  • the vehicle 5 may include the prediction information output from the behavior prediction unit 102 (hereinafter referred to as “vehicle prediction information”) in the first information.
  • vehicle prediction information the prediction information output from the behavior prediction unit 102
  • the servers 3 and 4 can collect vehicle prediction information from the plurality of vehicles 5 included in the service area.
  • the servers 3 and 4 can create the dynamic information prediction maps PM1 and PM2 by superimposing the vehicle prediction information collected from the vehicles 5 in the service area on the dynamic information maps M1 and M2.
  • the servers 3 and 4 include the prediction information included in the created dynamic information prediction maps PM1 and PM2 in the third information as server prediction information, thereby generating the prediction information that the vehicle 5 generates autonomously and distributedly. Distribution to the vehicle 5 and the pedestrian terminal 70 in the service area becomes possible.
  • FIG. 18 is an explanatory diagram showing a flow of information transmitted and received in the information providing system in which the servers 3 and 4 and the vehicle 5 have a behavior prediction function. That is, as illustrated in FIG. 18, the servers 3 and 4 include the behavior prediction unit 101 that performs the above-described behavior prediction processing, and the vehicle 5 also includes the behavior prediction unit 102 that performs the above-described behavior prediction processing. The vehicle 5 having the behavior prediction unit 102 may be a part.
  • the first information transmitted from the vehicle 5 as the mobile terminal to the servers 3 and 4 includes sensor information (for example, image data and vehicle CAN information) of the vehicle 5.
  • the second information that the roadside sensor 8 that is a fixed terminal transmits to the servers 3 and 4 includes sensor information (for example, image data) of the roadside sensor 8.
  • the change point information calculated by the vehicle 5 may be included in the first information
  • the change point information calculated by the roadside sensor 8 may be included in the second information.
  • the servers 3 and 4 may execute the behavior prediction process from the change point information.
  • the servers 3 and 4 have dynamic behavior prediction maps PM1 and PM2, and have a behavior prediction unit 101 that executes the behavior prediction processing described above.
  • the behavior prediction unit 101 generates prediction information from the received first and second information (sensor information) for each predetermined update cycle, and superimposes the generated prediction information on the dynamic information prediction maps PM1 and PM2.
  • the maps PM1 and PM2 are updated.
  • the third information distributed by the servers 3 and 4 includes server prediction information generated by the behavior prediction unit 101.
  • the servers 3 and 4 transmit the generated server prediction information at a predetermined distribution cycle to the vehicle 5 or the pedestrian terminal 70 that is the transmission source of the request message.
  • the third information distributed by the servers 3 and 4 may include dynamic information. In this case, the servers 3 and 4 transmit the updated dynamic information at a predetermined distribution cycle to the vehicle 5 or the pedestrian terminal 70 that is the transmission source of the request message.
  • Dynamic information (third information) received by the vehicle 5 is collected by the servers 3 and 4 from a large number of vehicles 5 and roadside sensors 8 in the service area at predetermined update intervals, and the collected change point information is integrated. Information. Therefore, the vehicle 5 on the dynamic information receiving side can acquire not only the inside object within the sensing range of the in-vehicle camera 59 and the radar sensor 60 of the own vehicle but also the dynamic information of the outside object existing outside the sensing range. .
  • the behavior prediction unit 102 of the vehicle 5 may execute not only the behavior prediction process for the inner object based on the sensor information of the own device but also the behavior prediction process for the outer object. In this way, it becomes possible to predict future position information and the like of the outside object outside the sensing range of the host vehicle.
  • the behavior prediction unit 102 of the vehicle 5 is the difference between the vehicle prediction information generated from its own sensor information and the server prediction information included in the third information. Based on the above, the vehicle prediction information may be corrected. In this way, the accuracy of the vehicle prediction information can be improved.
  • the vehicle 5 may include the vehicle prediction information output by the behavior prediction unit 102 in the first information.
  • the servers 3 and 4 can collect vehicle prediction information from the plurality of vehicles 5 included in the service area. Therefore, the servers 3 and 4 correct the server prediction information based on the difference between the vehicle prediction information collected from the vehicles 5 in the service area and the server prediction information included in the dynamic information prediction maps PM1 and PM2. be able to.
  • FIG. 19 is an explanatory diagram showing the significance of the third information distributed by the servers 3 and 4.
  • the vehicle 5 is traveling north on the road, and the road includes a pedestrian 7A who is passing a pedestrian crossing, a pedestrian 7B who is trying to cross a portion other than the pedestrian crossing, and a park. It is assumed that there is a pedestrian 7C that has jumped out of.
  • the pedestrians 7A and 7B are objects (inner objects) within the detection range of the vehicle sensor, and the pedestrian 7C is an object (outer object) outside the detection range of the vehicle sensor and the roadside sensor 8 It is assumed that the object is within the detection range.
  • the behavior prediction unit 101 of the vehicle 5 can perform behavior prediction autonomously for the pedestrians 7 ⁇ / b> A and 7 ⁇ / b> B, which are inner objects, and notify the passenger of the result.
  • the behavior of the pedestrian 7C which is an outer object, cannot be predicted because it cannot be captured by the vehicle sensor.
  • the third information received from the servers 3 and 4 includes the dynamic information of the pedestrian 7C.
  • the behavior prediction unit 102 of the vehicle 5 performs the behavior prediction process on the dynamic information of the pedestrian 7C received from the servers 3 and 4, the behavior can be predicted for the pedestrian 7C that is an outer object. It becomes like this.
  • the server prediction information of the pedestrian 7C is included in the third information that the vehicle 5 receives from the servers 3 and 4. included. Therefore, regardless of whether or not the vehicle 5 performs the behavior prediction of the object, the passenger of the vehicle 5 can be notified of the behavior prediction result of the pedestrian 7C that is the outer object.
  • FIG. 20 is an explanatory diagram showing area sharing of behavior prediction processing by the servers 3 and 4. As illustrated in FIG. 20, a downstream (left side) road section starting from a vehicle 5 passing through the road is assumed.
  • the edge server 3 indicates the accuracy with time when the position information of the vehicle 5 that is the target object is predicted, and the accuracy after 1 second is 90%, and the accuracy after 2 seconds is 70%.
  • the accuracy after 3 seconds is 50%, and the accuracy after 5 seconds is 30%.
  • the edge server 3 can communicate with a lower delay than the core server 4, but is inferior to the core server 4 in terms of processing power of the CPU.
  • the core server 4 has a communication delay larger than that of the edge server 3, but is superior to the edge server 3 in terms of processing power of the CPU. Therefore, for example, with the processing capability of the edge server 3, it is preferable to cause the core server 4 to predict the position information of the target object 5 after 2 seconds when the accuracy falls below 70%. If it does in this way, the accuracy of action prediction can be improved because the core server 4 with higher processing capability substitutes for the action prediction after 2 seconds in which the accuracy decreases in the edge server 3.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Atmospheric Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Emergency Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Public Health (AREA)
  • Traffic Control Systems (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本開示の一態様に係る情報提供システムは、自己のセンサ情報に基づく第1情報をサーバに送信する1又は複数の移動端末と、自己のセンサ情報に基づく第2情報をサーバに送信する1又は複数の固定端末と、受信した前記第1情報及び前記第2情報に基づいて第3情報を生成し、生成した第3情報を少なくとも前記移動端末に送信するサーバと、を備える。

Description

情報提供システム、サーバ、移動端末、及びコンピュータプログラム
 本発明は、情報提供システム、サーバ、移動端末、及びコンピュータプログラムに関する。
 本出願は、2017年2月8日出願の日本出願第2017-021105号、及び、2017年3月7日出願の日本出願第2017-042578号に基づく優先権を主張し、前記日本出願に記載された全ての記載内容を援用するものである。
 他車両に生じた異常事象を自車両の搭乗者に報知する交通システムが既に提案されている(特許文献1参照)。
 特許文献1には、上記の交通システムの一態様として、交通管制センターの中央装置と、中央装置と専用回線で通信する複数の路側通信機と、各路側通信機と無線通信する車載通信機と、を備える交通システムが記載されている(特許文献1の段落0104~0129参照)。
 この交通システムでは、中央装置は、各車両がアップリンク送信したデータ生成時刻、車両速度、車両位置及び進行方向などを含む車両情報(走行軌跡)に基づいて、各車両の挙動が所定の異常事象に該当するか否かを判定する。
 中央装置は、所定の異常事象を検出すると、当該異常事象の内容と位置など通知する情報を車両にダウンリンク送信する。この情報を受信した車両は、異常事象の発生を搭乗者に報知する。これにより、異常走行に対処するための運転支援制御が実行される。
特開2013-109746号公報
 (1) 本開示の一態様に係るシステムは、自己のセンサ情報に基づく第1情報をサーバに送信する1又は複数の移動端末と、自己のセンサ情報に基づく第2情報をサーバに送信する1又は複数の固定端末と、受信した前記第1情報及び前記第2情報に基づいて第3情報を生成し、生成した第3情報を少なくとも前記移動端末に送信するサーバと、を備える。
 (19) 本開示の一態様に係るサーバは、1又は複数の移動端末及び1又は複数の固定端末と無線通信するサーバであって、前記移動端末のセンサ情報に基づく第1情報を前記移動端末から受信し、前記固定端末のセンサ情報に基づく第2情報を前記固定端末から受信する通信部と、受信した前記第1情報及び前記第2情報に基づいて第3情報を生成し、生成した第3情報を少なくとも前記移動端末に送信するように、前記通信部を制御する制御部と、を備える。
 (20) 本開示の一態様に係る移動端末は、1又は複数の固定端末と無線通信するサーバと無線通信する移動端末であって、自己のセンサ情報に基づく第1情報を前記サーバに送信する通信部と、前記第1情報と前記固定端末のセンサ情報に基づく第2情報とに基づいて、前記サーバが生成した第3情報を受信するように、前記通信部を制御する制御部と、を備え、前記制御部は、前記自己のセンサ情報と、受信した前記第3情報とに基づいて、前記第1情報を生成する。
 (21) 本開示の一態様に係るコンピュータプログラムは、1又は複数の移動端末及び1又は複数の固定端末と無線通信するサーバとして、コンピュータを機能させるためのコンピュータプログラムであって、前記コンピュータに、前記移動端末のセンサ情報に基づく第1情報を前記移動端末から受信し、前記固定端末のセンサ情報に基づく第2情報を前記固定端末から受信するステップと、受信した前記第1情報及び前記第2情報に基づいて第3情報を生成し、生成した第3情報を少なくとも前記移動端末に送信するように、前記サーバの通信部を制御するステップと、を実行させる。
 (22) 本開示の別の態様に係るコンピュータプログラムは、1又は複数の固定端末と無線通信するサーバと無線通信する移動端末として、コンピュータを機能させるためのコンピュータプログラムであって、前記コンピュータに、自己のセンサ情報に基づく第1情報を前記サーバに送信するステップと、前記第1情報と前記固定端末のセンサ情報に基づく第2情報とに基づいて、前記サーバが生成した第3情報を受信するように、前記移動端末の通信部を制御するステップと、前記自己のセンサ情報と、受信した前記第3情報とに基づいて、前記第1情報を生成するステップと、を実行させる。
 本発明は、上記のような特徴的な構成を備えるシステム及び装置として実現できるだけでなく、かかる特徴的な構成をコンピュータに実行させるためのプログラムとして実現することができる。
 また、本発明は、システム及び装置の一部又は全部を実現する半導体集積回路として実現することができる。
本発明の実施形態に係る無線通信システムの全体構成図である。 エッジサーバ及びコアサーバの内部構成の一例を示すブロック図である。 車載装置の内部構成の一例を示すブロック図である。 歩行者端末の内部構成の一例を示すブロック図である。 路側センサの内部構成の一例を示すブロック図である。 本発明の実施形態に係る情報提供システムの全体構成図である。 動的情報の更新処理及び配信処理の一例を示すシーケンス図である。 競合する変化点情報を受信した場合の選択方法一例を示す説明図である。 車両による衝突回避処理の一例を示すフローチャートである。 歩行者端末による衝突回避処理の一例を示すフローチャートである。 情報提供システムのサービス事例を示す説明図である。 従来システムと対比した場合の本実施形態の情報提供システムの利点を示す説明図である。 本発明の変形例に係る情報提供システムの全体構成図である。 サーバによる行動予測処理の具体例の説明図である。 行動予測機能を有する通信端末を含まない情報提供システムにおいて送受信される、情報の流れを示す説明図である。 サーバが行動予測機能を有する情報提供システムにおいて送受信される、情報の流れを示す説明図である。 車両が行動予測機能を有する情報提供システムにおいて送受信される、情報の流れを示す説明図である。 サーバ及び車両が行動予測機能を有する情報提供システムにおいて送受信される、情報の流れを示す説明図である。 サーバが配信する第3情報の有意性を示す説明図である。 サーバによる行動予測処理のエリア分担を示す説明図である。
<本開示が解決しようとする課題>
 特許文献1に記載の従来の交通システムでは、車両情報は、車載通信機→路側通信機→中央装置の通信経路でアップリンク送信され、車両情報を原始データとする異常走行に関する情報は、中央装置→路側通信機→車載通信機の通信経路でダウンリンク送信される。
 このように、中央装置は、車載通信機が送信した車両情報を情報源として、運転支援制御に役立つ情報を生成するが、より多くの情報源から収集された情報に基づく、リアルタイム性に優れた適切な情報提供を移動端末に提供できるシステムが望まれる。
 本開示は、かかる従来の問題点に鑑み、移動端末に対して適切な情報提供を行える情報提供システム等を提供することを目的とする。
<本開示の効果>
 本開示によれば、移動端末に対して適切な情報提供を行うことができる。
<本発明の実施形態の概要>
 以下、本発明の実施形態の概要を列記して説明する。
 (1) 本実施形態の情報提供システムは、自己のセンサ情報に基づく第1情報をサーバに送信する1又は複数の移動端末と、自己のセンサ情報に基づく第2情報をサーバに送信する1又は複数の固定端末と、受信した前記第1情報及び前記第2情報に基づいて第3情報を生成し、生成した第3情報を少なくとも前記移動端末に送信するサーバと、を備える。
 本実施形態の情報提供システムによれば、サーバが、受信した第1情報及び第2情報に基づいて第3情報を生成し、生成した第3情報を少なくとも移動端末に送信するので、移動端末由来の第1情報だけでなく、固定端末由来の第2情報にも基づいて生成された第3情報を、移動端末に提供することができる。
 従って、移動端末由来の第1情報のみに基づいて提供情報を生成する従来システムに比べて、移動端末に対して適切な情報提供を行うことができる。
 (2) 本実施形態の情報提供システムにおいて、前記移動端末は、前記自己のセンサ情報と、受信した前記第3情報とに基づいて、前記第1情報を生成することが好ましい。
 (3) より具体的には、前記移動端末は、前記自己のセンサ情報と、受信した前記第3情報とに基づいて、状態が変化した物体を検出し、検出した前記物体の変化点情報を前記第1情報とすることが好ましい。
 この場合、移動端末が送信する第1情報が物体の変化点情報よりなるので、自己のセンサ情報をそのまま第1情報としてサーバに送信する場合に比べて、サーバに対する通信負荷を削減することができる。
 (4) 本実施形態の情報提供システムにおいて、前記移動端末は、前記第3情報の送信を前記サーバに所定周期ごとに要求し、前記所定周期内に状態が変化した前記物体を検出しなかった場合は、前記第1情報を生成しないことが好ましい。
 このようにすれば、状態の変化の有無に関係なく第1情報を生成してサーバに送信する場合に比べて、サーバに対する通信負荷を削減することができる。
 (5) 本実施形態の情報提供システムにおいて、前記第1情報及び前記第2情報には、前記センサ情報の精度を判別可能な識別情報が含まれ、前記サーバは、異なる受信情報に含まれる物体の位置が所定の条件を満たす場合は、前記識別情報に基づいていずれか1つの前記第1情報又は前記第2情報を選択し、選択した情報に基づいて前記第3情報を生成することが好ましい。
 このようにすれば、同じ物体に関する受信情報が競合する場合でも、サーバが適切な第1情報又は第2情報を選択できるようになる。
 (6) 本実施形態の情報提供システムにおいて、前記サーバは、前記第1情報に含まれる前記物体の位置と、前記第2情報に含まれる前記物体の位置とが所定の条件を満たす場合は、前記第2情報に基づいて前記第3情報を生成することが好ましい。
 その理由は、固定端末が情報源である第2情報は、移動端末が情報源である第1情報よりも高精度であると推定されることから、第2情報に基づいて第3情報を生成すべきだからである。
 (7) 本実施形態の情報提供システムにおいて、前記移動端末は、前記第3情報に含まれる物体の位置情報に基づいて、自己のセンサ情報を補正することが好ましい。
 このようにすれば、移動端末が自己のセンサ情報の精度を向上することができる。
 (8) 本実施形態の情報提供システムにおいて、前記第3情報は、地図情報に重畳される物体の動的情報であることが好ましい。
 この場合、地図情報に重畳される物体の動的情報を移動端末に提供できる。従って、移動端末が動的情報を用いて衝突回避処理などを実行できるようになり、移動端末に対して適切な情報提供を行うことができる。
 (9) 本実施形態の情報提供システムにおいて、前記サーバには、遅延時間が短い方の第1ネットワークスライスに属する第1サーバと、遅延時間が長い方の第2ネットワークスライスに属する第2サーバと、が含まれ、前記第1サーバは、前記第1情報及び前記第2情報の優先度を判定し、判定した優先度に応じて、自身が前記第3情報を生成するか、前記第2サーバに前記第3情報を生成させるかを決定することが好ましい。
 このようにすれば、第1サーバ(例えばエッジサーバ)が、優先度が高い第1情報に基づいて第3情報を生成し、第2サーバ(例えばコアサーバ)が、優先度が低い第2情報に基づいて第3情報を生成することができ、優先度が高い第3情報のリアルタイム性を高めることができる。
 (10) 本実施形態の情報提供システムにおいて、前記第1サーバによる前記第3情報の送信周期は、前記第2サーバによる前記第3情報の送信周期よりも短いことが好ましい。
 その理由は、第1サーバの遅延時間は第2サーバの遅延時間よりも短いので、第1サーバによる第3情報の送信周期を早めることで、第3情報のリアルタイム性を高めることができるからである。
 (11) 本実施形態の情報提供システムにおいて、前記サーバは、前記優先度が所定の条件を満たす場合は、前記第1情報及び前記第2情報の送信元に当該情報の送信周期を変更する指示を通知することが好ましい。
 このようにすれば、優先度に応じて第1情報及び第2情報の送信周期を動的に変更できるようになる。
 (12) 本実施形態の情報提供システムにおいて、前記第1情報及び前記第2情報に、検出された物体の画像データと位置情報とが含まれる場合には、前記サーバは、前記物体の画像データを含む前記第1情報及び前記第2情報を、当該物体ごとに蓄積することが好ましい。
 このようにすれば、物体(車両や歩行者など)ごとに第1情報及び第2情報を検索することにより、特定の物体を時系列に追跡できるようになる。
 (13) 本実施形態の情報提供システムにおいて、前記サーバは、受信した前記第1情報及び前記第2情報に基づいて、物体の将来の動的情報であるサーバ予測情報を生成可能であり、前記第3情報には、生成された前記サーバ予測情報が含まれることが好ましい。
 このようにすれば、物体の将来の動的情報であるサーバ予測情報が少なくとも移動端末に送信されるので、移動端末が、受信したサーバ予測情報を用いた衝突回避などの処理を実行できるようになる。
 (14) 本実施形態の情報提供システムにおいて、前記移動端末は、受信した前記第3情報に基づいて、物体の将来の動的情報である車両予測情報を生成可能であることが好ましい。
 このようにすれば、物体の将来の動的情報である車両予測情報を移動端末が生成するので、当該移動端末が、自身で生成した車両予測情報を用いた衝突回避などの処理を実行できるようになる。
 (15) 本実施形態の情報提供システムにおいて、前記移動端末は、自身が生成した前記車両予測情報を前記第1情報に含めることが好ましい。
 このようにすれば、サーバが車両予測情報を受信できる。このため、受信した車両予測情報と自身が生成したサーバ予測情報とを比較することにより、サーバ予測情報の精度を向上することができる。
 (16) 本実施形態の情報提供システムにおいて、前記移動端末は、受信した前記サーバ予測情報に基づいて、自身が生成した前記車両予測情報を補正することが好ましい。
 このようにすれば、移動端末が、自身が生成した車両予測情報の精度を向上することができる。
 (17) 本実施形態の情報提供システムにおいて、前記サーバは、受信した前記車両予測情報に基づいて、自身が生成した前記サーバ予測情報を補正することが好ましい。
 このようにすれば、サーバが、自身が生成したサーバ予測情報の精度を向上することができる。
 (18) 本実施形態の情報提供システムにおいて、前記移動端末は、前記自己のセンサ情報に基づいて、物体の将来の動的情報である車両予測情報を生成可能であり、生成した前記車両予測情報を前記第1情報に含めることが好ましい。
 このようにすれば、サーバが車両予測情報を受信できる。このため、自身のサービスエリア内に存在する複数の移動端末から車両予測情報を受信することにより、サーバが行動予測処理を実行しなくても、サービスエリア内の予測情報を取得することができる。
 (19) 本実施形態の情報提供システムにおいて、前記サーバには、遅延時間が短い方の第1ネットワークスライスに属する第1サーバと、遅延時間が長い方の第2ネットワークスライスに属する第2サーバと、が含まれ、前記第2サーバが生成する前記サーバ予測情報は、前記第1サーバが生成する前記サーバ予測情報よりも将来の動的情報であることが好ましい。
 この場合、エッジサーバでは確度が低下する未来の行動予測を、処理能力がより高いコアサーバが代行することにより、行動予測の確度を向上することができる。
 (20) 本実施形態のサーバは、上述の(1)~(19)に記載の情報提供システムに含まれるサーバに関する。
 従って、本実施形態のサーバは、上述の(1)~(19)に記載の情報提供システムと同様の作用効果を奏する。
 (21) 本実施形態の移動端末は、上述の(2)に記載の情報提供システムに含まれる移動端末に関する。
 従って、本実施形態の移動端末は、上述の(2)に記載の情報提供システムと同様の作用効果を奏する。
 (22) 本実施形態のコンピュータプログラムは、上述の(1)~(19)に記載の情報提供システムに含まれるサーバとして、コンピュータを機能させるコンピュータプログラムに関する。
 従って、本実施形態のコンピュータプログラムは、上述の(1)~(19)に記載の情報提供システムと同様の作用効果を奏する。
 (23) 本実施形態のコンピュータプログラムは、上述の(2)に記載の移動端末として、コンピュータを機能させるためのコンピュータプログラムに関する。
 従って、本実施形態のコンピュータプログラムは、上述の(2)に記載の情報提供システムと同様の作用効果を奏する。
<本発明の実施形態の詳細>
 以下、図面を参照して、本発明の実施形態の詳細を説明する。なお、以下に記載する実施形態の少なくとも一部を任意に組み合わせてもよい。
 〔無線通信システムの全体構成〕
 図1は、本発明の実施形態に係る無線通信システムの全体構成図である。
 図1に示すように、本実施形態の無線通信システムは、無線通信が可能な複数の通信端末1A~1D、通信端末1A~1Dと無線通信する1又は複数の基地局2、基地局2と有線又は無線で通信する1又は複数のエッジサーバ3、及び、エッジサーバ3と有線又は無線で通信する1又は複数のコアサーバ4を備える。
 コアサーバ4は、コアネットワークのコアデータセンタ(DC)に設置されている。エッジサーバ3は、メトロネットワークの分散データセンタ(DC)に設置されている。
 メトロネットワークは、例えば都市ごとに構築された通信ネットワークである。各地のメトロネットワークは、それぞれコアネットワークに接続されている。
 基地局2は、メトロネットワークに含まれる分散データセンタのいずれかのエッジサーバ3に通信可能に接続されている。
 コアサーバ4は、コアネットワークに通信可能に接続されている。エッジサーバ3は、メトロネットワークに通信可能に接続されている。従って、コアサーバ4は、コアネットワーク及びメトロネットワークを介して、各地のメトロネットワークに属するエッジサーバ3及び基地局2と通信可能である。
 基地局2は、マクロセル基地局、マイクロセル基地局、及びピコセル基地局のうちの少なくとも1つよりなる。
 本実施形態の無線通信システムにおいて、エッジサーバ3及びコアサーバ4は、SDN(Software-Defined Networking)が可能な汎用サーバよりなる。基地局2及び図示しないリピータなどの中継装置は、SDNが可能なトランスポート機器によりなる。
 従って、ネットワーク仮想化技術により、低遅延通信と大容量通信などの相反するサービス要求条件を満足する複数の仮想的なネットワーク(ネットワークスライス)S1~S4を、無線通信システムの物理機器に定義することができる。
 上記のネットワーク仮想化技術は、現時点で規格化が進行中の「第5世代移動通信システム」(以下、「5G」(5th Generation)と略記する。)の基本コンセプトである。従って、本実施形態の無線通信システムは、例えば5Gよりなる。
 もっとも、本実施形態の無線通信システムは、遅延時間などの所定のサービス要求条件に応じて複数のネットワークスライス(以下、「スライス」ともいう。)S1~S4を定義可能な移動通信システムであればよく、5Gに限定されるものではない。また、定義するスライスの階層は、4階層に限らず5階層以上であってもよい。
 図1の例では、各ネットワークスライスS1~S4は、次のように定義されている。
 スライスS1は、通信端末1A~1Dが、直接通信するように定義されたネットワークスライスである。スライスS1で直接通信する通信端末1A~1Dを、「ノードN1」ともいう。
 スライスS2は、通信端末1A~1Dが、基地局2と通信するように定義されたネットワークスライスである。スライスS2における最上位の通信ノード(図例では基地局2)を、「ノードN2」ともいう。
 スライスS3は、通信端末1A~1Dが、基地局2を経由してエッジサーバ3と通信するように定義されたネットワークスライスである。スライスS3における最上位の通信ノード(図例ではエッジサーバ3)を、「ノードN3」ともいう。
 スライスS3では、ノードN2が中継ノードとなる。すなわち、ノードN1→ノードN2→ノードN3のアップリンク経路と、ノードN3→ノードN2→ノードN1のダウンリンク経路によりデータ通信が行われる。
 スライスS4は、通信端末1A~1Dが、基地局2及びエッジサーバ3を経由してコアサーバ4と通信するように定義されたネットワークスライスである。スライスS4における最上位の通信ノード(図例ではコアサーバ4)を、「ノードN4」ともいう。
 スライスS4では、ノードN2及びノードN3が中継ノードとなる。すなわち、ノードN1→ノードN2→ノードN3→ノードN4のアップリンク経路と、ノードN4→ノードN3→ノードN2→ノードN1のダウンリンク経路によりデータ通信が行われる。
 スライスS4において、エッジサーバ3を中継ノードとしないルーティングの場合もある。この場合、ノードN1→ノードN2→ノードN4のアップリンク経路と、ノードN4→ノードN2→ノードN1のダウンリンク経路によりデータ通信が行われる。
 スライスS2において、複数の基地局2(ノードN2)が含まれる場合は、基地局2,2間の通信を辿るルーティングも可能である。
 同様に、スライスS3において、複数のエッジサーバ3(ノードN3)が含まれる場合は、エッジサーバ3,3間の通信を辿るルーティングも可能である。スライスS4において、複数のコアサーバ4(ノードN4)が含まれる場合は、コアサーバ4,4の通信を辿るルーティングも可能である。
 通信端末1Aは、車両5に搭載された無線通信機よりなる。車両5には、通常の乗用車だけでなく、路線バスや緊急車両などの公共車両も含まれる。車両5は、四輪車だけでなく、二輪車(バイク)であってもよい。
 車両5の駆動方式は、エンジン駆動、電気モータ駆動、及びハイブリッド方式のいずれでもよい。車両5の運転方式は、搭乗者が加減速やハンドル操舵などの操作を行う通常運転、及びその操作をソフトウェアが実行する自動運転のいずれでもよい。
 車両5の通信端末1Aは、車両5に既設の無線通信機であってもよいし、搭乗者が車両5に持ち込んだ携帯端末であってもよい。
 搭乗者の携帯端末は、車両5の車内LAN(Local Area Network)に接続されることにより、一時的に車載の無線通信機となる。
 通信端末1Bは、歩行者7が携帯する携帯端末よりなる。歩行者7は、道路や駐車場などの屋外、及び建物内や地下街などの屋内を徒歩で移動する人間である。歩行者7には、徒歩だけでなく、動力源を有しない自転車などに搭乗する人間も含まれる。
 通信端末1Cは、路側センサ8に搭載された無線通信機よりなる。路側センサ8は、道路に設置された画像式車両感知器、及び屋外又は屋内に設置された防犯カメラなどよりなる。通信端末1Dは、交差点の交通信号制御機9に搭載された無線通信機よりなる。
 スライスS1~S4のサービス要求条件は、次の通りである。スライスS1~S4に許容される遅延時間D1~D4は、D1<D2<D3<D4となるように定義されている。例えば、D1=1ms、D2=10ms、D3=100ms、D4=1sである。
 スライスS1~S4に許容される所定期間(例えば1日)当たりのデータ通信量C1~C4は、C1<C2<C3<C4となるように定義されている。例えば、C1=20GB、C2=100GB、C3=2TB、C4=10TBである。
 上記の通り、図1の無線通信システムでは、スライスS1での直接的な無線通信(例えば、車両5の通信端末1Aが直接通信する「車車間通信」など)、及び基地局2を経由するスライスS2の無線通信が可能である。
 もっとも、本実施形態では、図1の無線通信システムにおけるスライスS3及びスライスS4を利用した、比較的広域のサービスエリア(例えば、市町村や都道府県を包含するエリア)に含まれるユーザに対する情報提供サービスを想定している。
 〔エッジサーバ及びコアサーバの内部構成〕
 図2は、エッジサーバ3及びコアサーバ4の内部構成の一例を示すブロック図である。
 図2に示すように、エッジサーバ3は、CPU(Central Processing Unit)などを含む制御部31、ROM(Read Only Memory)32、RAM(Random Access Memory)33、記憶部34、及び通信部35などを備える。
 制御部31は、ROM32に予め記憶された1又は複数のプログラムをRAM33に読み出して実行することにより、各ハードウェアの動作を制御し、コンピュータ装置をコアサーバ4や基地局2などと通信可能なエッジサーバとして機能させる。
 RAM33は、SRAM(Static RAM)又はDRAM(Dynamic RAM)などの揮発性のメモリ素子で構成され、制御部31が実行するプログラム及びその実行に必要なデータが一時的に記憶される。
 記憶部34は、フラッシュメモリ若しくはEEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性のメモリ素子、又は、ハードディスクなどの磁気記憶装置などにより構成されている。
 通信部35は、5G対応の通信処理を実行する通信装置よりなり、メトロネットワークを介してコアサーバ4や基地局2などと通信する。通信部35は、制御部31から与えられた情報を、メトロネットワークを介して外部装置に送信するとともに、メトロネットワークを介して受信した情報を制御部31に与える。
 図2に示すように、エッジサーバ3の記憶部34は、動的情報マップ(以下、単に「マップ」ともいう。)M1を記憶している。
 マップM1は、静的情報である高精細のデジタル地図に対して、時々刻々と変化する動的情報を重畳させたデータの集合体(仮想的なデータベース)である。マップM1を構成するデジタル情報には、下記の「動的情報」、「准動的情報」、「准静的情報」、及び「静的情報」が含まれる。
 「動的情報」(~1秒)は、1秒以内の遅延時間が要求される動的なデータのことである。例えば、ITS(Intelligent Transport Systems)先読み情報として活用される、移動体(車両及び歩行者など)の位置情報、及び信号情報などが動的情報に該当する。
 「准動的情報」(~1分)は、1分以内の遅延時間が要求される准動的なデータのことである。例えば、事故情報、渋滞情報、及び狭域気象情報などが准動的情報に該当する。
 「准静的情報」(~1時間)は、1時間以内の遅延時間が許容される准静的なデータのことである。例えば、交通規制情報、道路工事情報、及び広域気象情報などが准静的情報に該当する。
 「静的情報」(~1カ月)は、1カ月以内の遅延時間が許容される静的なデータのことである。例えば、路面情報、車線情報、及び3次元構造物データなどが静的情報に該当する。
 エッジサーバ3の制御部31は、記憶部34に格納されたマップM1の動的情報を、所定の更新周期ごとに更新する(動的情報の更新処理)。
 具体的には、制御部31は、所定の更新周期ごとに、自装置のサービスエリア内で車両5や路側センサ8などが計測した各種のセンサ情報を、5G対応の各通信端末1A~1Dから収集し、収集したセンサ情報に基づいてマップM1の動的情報を更新する。
 制御部31は、所定のユーザの通信端末1A,1Bから動的情報の要求メッセージを受信すると、所定の配信周期ごとに、最新の動的情報を要求メッセージの送信元の通信端末1A,1Bに配信する(動的情報の配信処理)。
 制御部31は、交通管制センター及び民間気象業務支援センターなどからサービスエリア内の各地の交通情報及び気象情報を収集し、収集した情報に基づいて、マップM1の准動的情報及び准静的情報を更新する。
 図2に示すように、コアサーバ4は、CPUなどを含む制御部41、ROM42、RAM43、記憶部44、及び通信部45などを備える。
 制御部41は、ROM32に予め記憶された1又は複数のプログラムをRAM43に読み出して実行することにより、各ハードウェアの動作を制御し、コンピュータ装置をエッジサーバ3と通信可能なコアサーバ4として機能させる。
 RAM43は、SRAM又はDRAMなどの揮発性のメモリ素子で構成され、制御部41が実行するプログラム及びその実行に必要なデータが一時的に記憶される。
 記憶部44は、フラッシュメモリ若しくはEEPROMなどの不揮発性のメモリ素子、又は、ハードディスクなどの磁気記憶装置などにより構成されている。
 通信部45は、5G対応の通信処理を実行する通信装置よりなり、コアネットワークを介してエッジサーバ3や基地局2などと通信する。通信部45は、制御部41から与えられた情報を、コアネットワークを介して外部装置に送信するとともに、コアネットワークを介して受信した情報を制御部41に与える。
 図2に示すように、コアサーバ4の記憶部44は、動的情報マップM2を記憶している。
 マップM2のデータ構造(動的情報、准動的情報、准静的情報、及び静的情報を含むデータ構造)は、マップM1の場合と同様である。マップM2は、特定のエッジサーバ3のマップM1と同じサービスエリアのマップでもよいし、複数のエッジサーバ3が保持する各マップM1を統合した、より広域のマップであってもよい。
 コアサーバ4の制御部41は、エッジサーバ3の場合と同様に、記憶部44に格納されたマップM2の動的情報を更新する動的情報の更新処理と、要求メッセージに応答して動的情報を配信する動的情報の配信処理を行うことができる。
 すなわち、制御部41は、エッジサーバ3とは別に、自装置のマップM2に基づく動的情報の更新処理及び配信処理を独自に実行可能である。
 もっとも、スライスS4に属するコアサーバ4は、スライスS3に属するエッジサーバ3に比べて、通信端末1A~1Dとの通信の遅延時間が大きい。
 このため、コアサーバ4がマップM2の動的情報を独自に更新しても、エッジサーバ3が管理するマップM1の動的情報に比べてリアルタイム性に劣る。そこで、例えば所定のエリアごとに定義した優先度に応じて、エッジサーバ3の制御部31とコアサーバ4の制御部41が動的情報の更新処理及び配信処理を分散的に処理することが好ましい。
 制御部41は、交通管制センター及び民間気象業務支援センターなどからサービスエリア内の各地の交通情報及び気象情報を収集し、収集した情報に基づいて、マップM2の准動的情報及び准静的情報を更新する。
 制御部41は、エッジサーバ3から受信したマップM1の准動的情報及び准静的情報を、自装置のマップM2の准動的情報及び准静的情報として採用してもよい。
 〔車載装置の内部構成〕
 図3は、車載装置50の内部構成の一例を示すブロック図である。
 図3に示すように、車両5の車載装置50は、制御部(ECU:Electronic Control Unit)51、GPS受信機52、車速センサ53、ジャイロセンサ54、記憶部55、ディスプレイ56、スピーカ57、入力デバイス58、車載カメラ59、レーダセンサ60、及び通信部61などを備える。
 通信部61は、前述の通信端末1A、すなわち、例えば5G対応の通信処理が可能な無線通信機よりなる。
 従って、車両5は、スライスS3に属する移動端末の一種として、エッジサーバ3と通信することができる。また、車両5は、スライスS4に属する移動端末の一種として、コアサーバ4と通信することもできる。
 制御部51は、車両5の経路探索及び他の電子機器52~61の制御などを行うコンピュータ装置よりなる。制御部51は、GPS受信機52が定期的に取得するGPS信号により自車両の車両位置を求める。
 制御部51は、車速センサ53及びジャイロセンサ54の入力信号に基づいて、車両位置及び方位を補完し、車両5の正確な現在位置及び方位を把握する。
 GPS受信機52、車速センサ53及びジャイロセンサ54は、車両5の現在位置、速度及び向きを計測するセンサ類である。
 記憶部55は、地図データベースを備える。地図データベースは、制御部51に道路地図データを提供する。道路地図データは、リンクデータやノードデータを含み、DVD、CD-ROM、メモリカード、又はHDDなどの記録媒体に格納されている。記憶部55は、記録媒体から必要な道路地図データを読み出して制御部51に提供する。
 ディスプレイ56とスピーカ57は、制御部51が生成した各種情報を車両5の搭乗者であるユーザに通知するための出力装置である。
 具体的には、ディスプレイ56は、経路探索の際の入力画面、自車周辺の地図画像及び目的地までの経路情報などを表示する。スピーカ57は、車両5を目的地に誘導するためのアナウンスなどを音声出力する。これらの出力装置は、通信部61が受信した提供情報を搭乗者に通知することもできる。
 入力デバイス58は、車両5の搭乗者が各種の入力操作を行うためデバイスである。入力デバイス58は、ハンドルに設けた操作スイッチ、ジョイスティック、及びディスプレイ56に設けたタッチパネルなどの組み合わせよりなる。
 搭乗者の音声認識によって入力を受け付ける音声認識装置を、入力デバイス58とすることもできる。入力デバイス58が生成した入力信号は、制御部51に送信される。
 車載カメラ59は、車両5の前方の映像を取り込む画像センサよりなる。車載カメラ59は、単眼又は複眼のいずれでもよい。レーダセンサ60は、ミリ波レーダやLiDAR方式などにより車両5の前方や周囲に存在する物体を検出するセンサよりなる。
 制御部51は、車載カメラ59及びレーダセンサ60による計測データに基づいて、運転中の搭乗者に対する注意喚起をディスプレイ56に出力させたり、強制的なブレーキ介入を行ったりする運転支援制御を実行することができる。
 制御部51は、記憶部55に格納された各種の制御プログラムを実行する、マイクロコンピュータなどの演算処理装置により構成されている。
 制御部51は、上記制御プログラムを実行することにより、ディスプレイ56に地図画像を表示させる機能、出発地から目的地までの経路(中継地がある場合はその位置を含む。)を算出する機能、算出した経路に従って車両5を目的地まで誘導する機能など、各種のナビゲーション機能を実行可能である。
 制御部51は、車載カメラ59及びレーダセンサ60のうちの少なくとも1つの計測データに基づいて、自車両の前方又は周囲の物体を認識する物体認識処理と、認識した物体までの距離を算出する測距処理が可能である。
 制御部51は、測距処理により算出した距離と、自車両のセンサ位置とから、物体認識処理によって認識した物体の位置情報を算出することができる。
 制御部51は、エッジサーバ3(コアサーバ4であってもよい。)との通信において、以下の各処理を実行可能である。
 1)要求メッセージの送信処理
 2)動的情報の受信処理
 3)変化点情報の算出処理
 4)変化点情報の送信処理
 要求メッセージの送信処理とは、エッジサーバ3が逐次更新するマップM1の動的情報の配信を要求する制御パケットを、エッジサーバ3に送信する処理のことである。制御パケットには、自車両の車両IDが含まれる。
 エッジサーバ3は、所定の車両IDを含む要求メッセージを受信すると、送信元の車両IDを有する車両5の通信端末1A宛てに、動的情報を所定の配信周期で配信する。
 動的情報の受信処理とは、自装置に宛ててエッジサーバ3が配信した動的情報を、受信する処理のことである。
 車両5における変化点情報の算出処理とは、受信した動的情報と、受信時点における自車両のセンサ情報との比較結果から、それらの情報間の変化量を算出する処理である。車両5が算出する変化点情報としては、例えば、次の情報例a1~a2が考えられる。
 情報例a1:認識物体に関する変化点情報
 制御部51は、受信した動的情報には物体X(車両、歩行者及び障害物など)が含まれないが、自身の物体認識処理により物体Xを検出した場合は、検出した物体Xの画像データと位置情報を変化点情報とする。
 制御部51は、受信した動的情報に含まれる物体Xの位置情報と、自身の物体認識処理により求めた物体Xの位置情報とが、所定の閾値以上ずれている場合は、検出した物体Xの画像データと、両者の位置情報の差分値を変化点情報とする。
 情報例a2:自車両に関する変化点情報
 制御部51は、受信した動的情報に含まれる自車両の位置情報と、GPS信号により自身が算出した自車両の車両位置とが、所定の閾値以上ずれている場合は、両者の差分値を変化点情報とする。
 制御部51は、受信した動的情報に含まれる自車両の方位と、ジャイロセンサ54の計測データから自身が算出した自車両の方位とが、所定の閾値以上ずれている場合は、両者の差分値を変化点情報とする。
 制御部51は、上記のようにして変化点情報を算出すると、算出した変化点情報を含むエッジサーバ3宛の通信パケットを生成する。制御部51は、その通信パケットに自車両の車両IDを含める。
 変化点情報の送信処理とは、変化点情報をデータに含む上記の通信パケットを、エッジサーバ3宛てに送信する処理のことである。変化点情報の送信処理は、エッジサーバ3による動的情報の配信周期内に行われる。
 制御部51は、エッジサーバ3などから受信した動的情報に基づいて、運転中の搭乗者に対する注意喚起をディスプレイ56に出力させたり、強制的なブレーキ介入を行ったりする運転支援制御を実行することもできる。
 〔歩行者端末の内部構成〕
 図4は、歩行者端末70の内部構成の一例を示すブロック図である。
 図4の歩行者端末70は、前述の通信端末1B、すなわち、例えば5G対応の通信処理が可能な無線通信機よりなる。
 従って、歩行者端末70は、スライスS3に属する移動端末の一種として、エッジサーバ3と通信することができる。また、歩行者端末70は、スライスS4に属する移動端末の一種として、コアサーバ4と通信することもできる。
 図4に示すように、歩行者端末70は、制御部71、記憶部72、表示部73、操作部74、及び通信部75を備える。
 通信部75は、5Gサービスを提供するキャリアの基地局2と無線通信する通信インターフェースよりなる。通信部75は、基地局2からのRF信号をデジタル信号に変換して制御部71に出力し、制御部71から入力されたデジタル信号をRF信号に変換して、基地局2に送信する。
 制御部71は、CPU、ROM及びRAMなどを含む。制御部71は、記憶部72に記憶されたプログラムを読み出して実行し、歩行者端末70の全体の動作を制御する。
 記憶部72は、ハードディスクや不揮発性のメモリなどより構成され、各種のコンピュータプログラムやデータを記憶する。記憶部72は、歩行者端末70の識別情報である携帯IDを記憶している。携帯IDは、例えば、キャリア契約者の固有のユーザIDやMACアドレスなどよりなる。
 記憶部72は、ユーザが任意にインストールした各種のアプリケーションソフトを記憶している。
 このアプリケーションソフトには、例えば、エッジサーバ3(コアサーバ4でもよい。)との5G通信により、マップM1の動的情報などを受信する情報提供サービスを享受するためのアプリケーションソフトなどが含まれる。
 操作部74は、各種の操作ボタンや表示部73のタッチパネル機能により構成されている。操作部74は、ユーザの操作に応じた操作信号を制御部71に出力する。
 表示部73は、例えば液晶ディスプレイよりなり、各種の情報をユーザに提示する。例えば、表示部73は、サーバ3,4から送信された動的情報マップM1,M2の画像データなどを画面表示することができる。
 制御部71は、GPS信号から現在時刻を取得する時刻同期機能と、GPS信号から自車両の現在位置(緯度、経度及び高度)を計測する位置検出機能と、方位センサによって歩行者7の向きを計測する方位検出機能なども有する。
 制御部71は、エッジサーバ3(コアサーバ4であってもよい。)との通信において、以下の各処理を実行可能である。
 1)要求メッセージの送信処理
 2)端末状態情報の送信処理
 3)動的情報の受信処理
 要求メッセージの送信処理とは、エッジサーバ3が逐次更新するマップM1の動的情報の配信を要求する制御パケットを、エッジサーバ3に送信する処理のことである。制御パケットには、歩行者端末70の携帯IDが含まれる。
 エッジサーバ3は、所定の携帯IDを含む要求メッセージを受信すると、送信元の携帯IDを有する歩行者7の通信端末1B宛てに、動的情報を所定の配信周期で配信する。
 端末状態情報の送信処理とは、自装置の位置及び方位情報などの歩行者端末70の状態情報を、エッジサーバ3に送信する処理のことである。端末状態情報には、地図アプリ、メールアプリ及びゲームアプリなど、いわゆる「歩きスマホ」の原因になり易いアプリケーションソフトを表示中か否かを表す識別情報を含めてもよい。
 動的情報の受信処理とは、自装置に宛ててエッジサーバ3が配信した動的情報を、受信する処理のことである。
 〔路側センサの内部構成〕
 図5は、路側センサ8の内部構成の一例を示すブロック図である。
 図5に示すように、路側センサ8は、制御部81、記憶部82、路側カメラ83、レーダセンサ84、及び通信部85を備える。
 通信部85は、前述の通信端末1C、すなわち、例えば5G対応の通信処理が可能な無線通信機よりなる。
 従って、路側センサ8は、スライスS3に属する固定端末の一種として、エッジサーバ3と通信することができる。また、路側センサ8は、スライスS4に属する固定端末の一種として、コアサーバ4と通信することもできる。
 制御部81は、CPU、ROM及びRAMなどを含む。制御部81は、記憶部82に記憶されたプログラムを読み出して実行し、路側センサ8の全体の動作を制御する。
 記憶部82は、ハードディスクや不揮発性のメモリなどより構成され、各種のコンピュータプログラムやデータを記憶する。記憶部82は、路側センサ8の識別情報であるセンサIDを記憶している。センサIDは、例えば、路側センサ8の所有者固有のユーザIDやMACアドレスなどよりなる。
 路側カメラ83は、所定の撮影エリアの映像を取り込む画像センサよりなる。路側カメラ83は、単眼又は複眼のいずれでもよい。レーダセンサ60は、ミリ波レーダやLiDAR方式などにより車両5の前方や周囲に存在する物体を検出するセンサよりなる。
 路側センサ8が防犯カメラである場合、制御部81は、取り込んだ映像データなどを防犯管理者のコンピュータ装置に送信する。路側センサ8が画像式車両感知器である場合、制御部81は、取り込んだ映像データなどを交通管制センターに送信する。
 制御部81は、路側カメラ83及びレーダセンサ84のうちの少なくとも1つの計測データに基づいて、撮影エリア内の物体を認識する物体認識処理と、認識した物体までの距離を算出する測距処理が可能である。
 制御部51は、測距処理により算出した距離と、自車両のセンサ位置とから、物体認識処理によって認識した物体の位置情報を算出することができる。
 制御部81は、エッジサーバ3(コアサーバ4であってもよい。)との通信において、以下の各処理を実行可能である。
 1)変化点情報の算出処理
 2)変化点情報の送信処理
 路側センサ8における変化点情報の算出処理とは、所定の計測周期(例えば、エッジサーバ3による動的情報の配信周期)ごとの、前回のセンサ情報と今回のセンサ情報との比較結果から、それらのセンサ情報間の変化量を算出する処理である。路側センサ8が算出する変化点情報としては、例えば、次の情報例b1が考えられる。
 情報例b1:認識物体に関する変化点情報
 制御部81は、前回の物体認識処理では物体Y(車両、歩行者及び障害物など)が含まれないが、今回の物体認識処理により物体Yを検出した場合は、検出した物体Yの画像データと位置情報を変化点情報とする。
 制御部81は、前回の物体認識処理により求めた物体Yの位置情報と、今回の物体認識処理により求めた物体Xの位置情報とが、所定の閾値以上ずれている場合は、検出した物体Yの位置情報と、両者の差分値を変化点情報とする。
 制御部81は、上記のようにして変化点情報を算出すると、算出した変化点情報を含むエッジサーバ3宛の通信パケットを生成する。制御部81は、その通信パケットに自装置のセンサIDを含める。
 変化点情報の送信処理とは、変化点情報をデータに含む上記の通信パケットを、エッジサーバ3宛てに送信する処理のことである。変化点情報の送信処理は、エッジサーバ3による動的情報の配信周期内に行われる。
 〔情報提供システムの全体構成〕
 図6は、本発明の実施形態に係る情報提供システムの全体構成図である。
 図6に示すように、本実施形態の情報提供システムは、比較的広範囲であるエッジサーバ3のサービスエリア(リアルワード)に散在する多数の車両5、歩行者端末70及び路側センサ8と、これらの通信ノードと基地局2を介した5G通信などにより低遅延での無線通信が可能なエッジサーバ3とを備える。
 エッジサーバ3は、車両5及び路側センサ8などから、前述の変化点情報を所定周期で収集しており(ステップS31)、収集した変化点情報をマップマッチングによって統合し、管理中の動的情報マップM1の動的情報を更新する(ステップS32)。
 エッジサーバ3は、車両5又は歩行者端末70から要求があれば、最新の動的情報を要求元の通信ノードに送信する(ステップS33)。これにより、例えば動的情報を受信した車両5は、搭乗者の運転支援などに動的情報を活用することができる。
 動的情報を受信した車両5は、動的情報に基づいて自車両のセンサ情報との変化点情報を検出すると、検出した変化点情報をエッジサーバ3に送信する(ステップS34)。
 このように、本実施形態の情報提供システムでは、変化点情報の収集(ステップS31)→動的情報の更新(ステップS32)→動的情報の配信(ステップS33)→車両による変化点情報の検出(ステップS34)→変化点情報の収集(ステップS31)の順で、各通信ノードにおける情報処理が循環する。
 図6では、1つのエッジサーバ3のみを含む情報提供システムを例示しているが、複数のエッジサーバ3が含まれていてもよいし、エッジサーバ3の代わりに或いはエッジサーバ3に加えて、1又は複数のコアサーバ4が含まれていてもよい。
 また、エッジサーバ3が管理する動的情報マップM1は、デジタル地図などの地図情報に少なくとも物体の動的情報が重畳されたマップであればよい。この点は、コアサーバの動的情報マップM2の場合も同様である。
 〔動的情報の更新処理及び配信処理〕
 図7は、歩行者端末70、車両5、路側センサ8、及びエッジサーバ3の協働により実行される、動的情報の更新処理及び配信処理の一例を示すシーケンス図である。
 以下の説明では、実行主体が歩行者端末70、車両5、路側センサ8及びエッジサーバ3となっているが、実際の実行主体は、それらの制御部71,51,81,31である。図7中のU1,U2……は、動的情報の配信周期である。
 図7に示すように、エッジサーバ3は、歩行者端末70及び車両5から動的情報の要求メッセージを受信すると(ステップS1)、受信時点において最新の動的情報を、送信元の歩行者端末70及び車両5に配信する(ステップS2)。
 ステップS1において、歩行者端末70及び車両5のいずれか一方から要求メッセージがあった場合には、ステップS2において、要求メッセージの送信元である一方の通信端末のみに動的情報が配信される。
 ステップS2の動的情報を受信した車両5は、配信周期U1内に、動的情報と自身のセンサ情報との比較結果から変化点情報を検出すると(ステップS3)、検出した変化点情報をエッジサーバ3に送信する(ステップS5)。
 路側センサ8は、配信周期U1内に、自身のセンサ情報の変化点情報を検出すると、検出した変化点情報をエッジサーバ3に送信する(ステップS5)。
 エッジサーバ3は、配信周期U1内に、車両5及び路側センサ8から変化点情報を受信すると、それらの変化点情報を反映した動的情報に更新したあと(ステップS6)、更新後の動的情報を歩行者端末70及び車両5に配信する(ステップS7)。
 配信周期U1内に、車両5のみが変化点情報を検出した場合は、ステップS3で車両5が検出した変化点情報のみがエッジサーバ3に送信され(ステップS5)、その変化点情報のみを反映した動的情報の更新が行われる(ステップS6)。
 配信周期U1内に、路側センサ8のみが変化点情報を検出した場合は、ステップS4で路側センサ8が検出した変化点情報のみがエッジサーバ3に送信され(ステップS5)、その変化点情報のみを反映した動的情報の更新が行われる(ステップS6)。
 配信周期U1内に、車両5及び路側センサ8の双方が変化点情報を検出しなかった場合は、ステップS3~S6の処理が実行されず、前回送信分の動的情報(ステップS2)と同じ動的情報が歩行者端末70及び車両5に配信される(ステップS7)。
 ステップS7の動的情報を受信した車両5は、配信周期U2内に、動的情報と自身のセンサ情報との比較結果から変化点情報を検出すると(ステップS8)、検出した変化点情報をエッジサーバ3に送信する(ステップS10)。
 路側センサ8は、配信周期U2内に、自身のセンサ情報の変化点情報を検出すると、検出した変化点情報をエッジサーバ3に送信する(ステップS10)。
 エッジサーバ3は、配信周期U2内に、車両5及び路側センサ8から変化点情報を受信すると、それらの変化点情報を反映した動的情報に更新したあと(ステップS11)、更新後の動的情報を歩行者端末70及び車両5に配信する(ステップS12)。
 配信周期U2内に、車両5のみが変化点情報を検出した場合は、ステップS8で車両5が検出した変化点情報のみがエッジサーバ3に送信され(ステップS10)、その変化点情報のみを反映した動的情報の更新が行われる(ステップS11)。
 配信周期U2内に、路側センサ8のみが変化点情報を検出した場合は、ステップS9で路側センサ8が検出した変化点情報のみがエッジサーバ3に送信され(ステップS10)、その変化点情報のみを反映した動的情報の更新が行われる(ステップS11)。
 配信周期U2内に、車両5及び路側センサ8の双方が変化点情報を検出しなかった場合は、ステップS8~S11の処理が実行されず、前回送信分の動的情報(ステップS7)と同じ動的情報が歩行者端末70及び車両5に配信される(ステップS12)。
 その後、歩行者端末70及び車両5の双方から、動的情報の配信停止の要求メッセージを受信するか、或いは、歩行者端末70及び車両5の通信が遮断されるまで、上記と同様のシーケンスが繰り返される。
 〔競合する変化点情報の選択方法〕
 図8は、エッジサーバ3が競合する変化点情報を受信した場合の選択方法の一例を示す説明図である。
 図8において、時刻はt0→t1→t2の順に進行する。車両5Aは道路を右方向に走行中であり、車両5Bは道路を左方向に走行中であり、歩行者7Aは道路を右方向に歩行中であるとする。
 エリアA1は、路側センサ8Aが認識物体の位置情報を高精度に算出可能な撮影エリアであり、エリアA2は、路側センサ8Aが認識物体の位置情報を低精度に算出する撮影エリアである。
 エリアB1は、路側センサ8Bが認識物体の位置情報を高精度に算出可能な撮影エリアであり、エリアB2は、路側センサ8Bが認識物体の位置情報を低精度に算出する撮影エリアである。
 破線のハッチングが付された三角領域は、車両5A,5Bの車載カメラ59が撮影可能な撮影エリアである。また、車両5A,5B、路側センサ8A,8B及びエッジサーバ3が、GPS時刻などを用いて時刻同期が図られているものとする。
 時刻t0では、車両5AがエリアA1に進入し始め、歩行者7Aは車両5Aの撮影エリアに含まれる。
 この場合、路側センサ8Aは、時刻t0において、認識物体(実際には車両5A)の初回検出(変化点)を通知するための変化点情報を、エッジサーバ3に送信する(ステップS21)。
 上記の変化点情報には、認識物体の画像データ、物体位置、精度判定のための識別情報(エリアA1における測定など)、及び自装置のセンサIDが含まれる。
 同様に、車両5Aは、時刻t0において、認識物体(実際には歩行者7A)の初回検出(変化点)を通知するための変化点情報を、エッジサーバ3に送信する(ステップS22)。
 上記の変化点情報には、認識物体の画像データ、物体位置、精度判定のための識別情報(単眼カメラによる測定など)、及び自車両の車両IDが含まれる。
 ステップS21,S22の変化点情報を受信したエッジサーバ3は、画像データに基づいて認識物体が車両5A及び歩行者7Aであることを判定し、各認識物体に対してタグ付けを行う(ステップS23,S24)。
 時刻t1では、車両5AがエリアA1を未だ走行中であり、歩行者7Aも未だ車両5Aの撮影エリアに含まれる。
 この場合、路側センサ8Aは、時刻t1において、認識物体(実際には車両5A)の移動(変化点)を通知するための変化点情報を、エッジサーバ3に送信する(ステップS25)。
 上記の変化点情報には、認識物体の画像データ、物体位置、精度判定のための識別情報(エリアA1における測定など)、及び自装置のセンサIDが含まれる。
 同様に、車両5Aは、時刻t1において、認識物体(実際には歩行者7A)の移動(変化点)を通知するための変化点情報を、エッジサーバ3に送信する(ステップS26)。
 上記の変化点情報には、認識物体の画像データ、物体位置、精度判定のための識別情報(単眼カメラによる測定など)、及び自車両の車両IDが含まれる。
 時刻t2では、車両5AがエリアB1に差し掛かり、歩行者7AがエリアB1を歩行中である。また、歩行者7Aは、2台の車両5A,5Bの双方の撮影エリアに含まれる。
 この場合、路側センサ8Bは、時刻t2において、認識物体(実際には歩行者7A)の初回検出(変化点)を通知するための変化点情報と、エッジサーバ3に送信する(ステップS25)。
 上記の変化点情報には、認識物体の画像データ、物体位置、精度判定のための識別情報(エリアB1における測定など)、及び自装置のセンサIDが含まれる。
 時刻t2では、車両5Aが認識物体(実際には歩行者7A)の移動(変化点)を通知するための変化点情報をエッジサーバ3に送信し、車両5Bが認識物体(実際には歩行者7A)の初回検出(変化点)を通知するための変化点情報をエッジサーバ3に送信する。
 従って、時刻t2においては、同じ歩行者7Aについて、路側センサ8B及び2つの車両5A,5Bから受信した変化点情報が競合する。
 そこで、エッジサーバ3は、各通信ノードが申告する精度判定の識別情報に基づいて、いずれか1つの変化点情報を選択し(ステップS27)、選択した変化点情報を用いて動的情報を更新する。
 具体的には、エッジサーバ3は、路側センサ8Bと2つの車両5A,5Bから受信した変化点情報に含まれる物体位置が所定距離(例えば20cm)以内であることを条件として、識別情報に基づく所定の選択基準を適用する。
 例えば、路側センサを車両センサよりも優先する選択基準を採用する場合は、エッジサーバ3は、時刻t2での3種類の変化点情報のうち、路側センサ8が送信元である変化点情報を選択する。
 もっとも、識別情報を利用した変化点情報の選択基準は、上記に限られず、例えば以下の選択基準1及び2などが考えられる。
 1)センサから認識物体までの距離が近い方の変化点情報を、センサから認識物体までの距離が遠い方の変化点情報よりも優先的に選択する。
 2)より高精度のセンサ(例えばステレオカメラ)で計測された物体位置を有する変化点情報を、より低精度のセンサ(例えば単眼カメラ)で計測された物体位置を有する変化点情報よりも優先的に選択する。
 〔車両による衝突回避処理〕
 図9は、車両5による衝突回避処理の一例を示すフローチャートである。
 以下の説明では、実行主体が車両5及びエッジサーバ3となっているが、実際の実行主体は、それらの各制御部51,31である。
 図9に示すように、車両5は、アクセサリー電源(ACC)又はイグニッション電源(IG)のオンを条件として(ステップST11)、自車両の位置情報及び方位情報と、動的情報の要求メッセージをエッジサーバ3に送信する(ステップST12)。
 次に、エッジサーバ3は、他センサ情報(送信元の車両5以外の路側センサ8などから取得した変化点情報など)により、車両5から受信した位置情報を補正してから動的情報を更新し、更新した動的情報を車両5に配信する(ステップST13)。
 次に、車両5は、受信した動的情報を用いて、自車両の位置情報及び方位情報を補正してから(ステップST14)、受信した動的情報と自車両のセンサ情報の比較結果から、変化点情報を検出したか否かを判定する(ステップST15)。
 ステップS15の判定結果が肯定的である場合は、車両5は、算出した変化点情報をエッジサーバ3に送信した上で(ステップST16)、ステップST18の判定処理を実行する。
 変化点情報を受信したエッジサーバ3は、他センサ情報(路側センサ8などから取得した変化点情報など)により、車両5から受信した位置情報を補正して動的情報を更新し、更新した動的情報を車両5に配信する(ステップST17)。
 ステップS15の判定結果が否定的である場合は、車両5は、変化点情報の送信処理(ステップST16)をスキップして、ステップST18の判定処理を実行する。
 ステップST18の判定処理は、自車両の周辺に危険物があるか否か、或いは、自車両が危険エリアに存在するかを判定する処理である。
 危険物とは、横断歩道の存在しない車道を横断する歩行者などのことである。危険エリアとは、出会い頭衝突の危険性のある他車両が進入中の、交通信号機のない交差点などのことである。
 ステップST18の判定結果が肯定的である場合は、車両5は、通常よりも短周期で動的情報をエッジサーバ3に要求し、他の車両5や歩行者7との衝突の可能性がある旨を、車両5の搭乗者に通知する(ステップST19)。
 ステップST18の判定結果が否定的である場合は、車両5は、通常周期で動的情報をエッジサーバ3に要求し、他の車両5や歩行者7との衝突の可能性がある旨の通知を行わない(ステップST20)。
 次に、車両5は、次回周期の動的情報の要求タイミングになったことを条件として(ステップST21)、処理をステップST12の前に戻す。
 〔歩行者端末による衝突回避処理〕
 図10は、歩行者端末70による衝突回避処理の一例を示すフローチャートである。
 以下の説明では、実行主体が歩行者端末70及びエッジサーバ3となっているが、実際の実行主体は、それらの各制御部71,31である。
 図10に示すように、歩行者端末70は、電源のオンを条件として(ステップST31)、自機の位置情報及び方位情報と、動的情報の要求メッセージをエッジサーバ3に送信する(ステップST32)。この場合、前述の端末状態情報を送信してもよい。
 次に、エッジサーバ3は、他センサ情報(車両5や路側センサ8などから取得した変化点情報など)により、歩行者端末70から受信した位置情報を補正してから動的情報を更新し、更新した動的情報を歩行者端末70に配信する(ステップST33)。
 次に、歩行者端末70は、受信した動的情報を用いて、自機の位置情報及び方位情報を補正してから(ステップST34)、ステップST35の判定処理を実行する。
 ステップST35の判定処理は、自機の周辺に危険物があるか否か、或いは、自機が危険エリアに存在するかを判定する処理である。
 危険物とは、自機に向かって高速で接近する車両や、自機に向かって接近する直近の歩行者などのことである。危険エリアとは、赤信号などのために通行できない交差点などのことである。
 ステップST35の判定結果が肯定的である場合は、歩行者端末70は、通常よりも短周期で動的情報をエッジサーバ3に要求し、他の車両5や歩行者7との衝突の可能性がある旨を、歩行者7に通知する(ステップST36)。
 ステップST35の判定結果が否定的である場合は、歩行者端末70は、通常周期で動的情報をエッジサーバ3に要求し、他の車両5や歩行者7との衝突の可能性がある旨の通知を行わない(ステップST37)。
 次に、歩行者端末70は、次回周期の動的情報の要求タイミングになったことを条件として(ステップST38)、処理をステップST32の前に戻す。
 〔情報提供システムのサービス事例〕
 上述の通り、本実施形態の情報提供システムでは、エッジサーバ3(コアサーバ4でもよい。)が、車両5及び路側センサ8から収集したセンサ情報(具体的には変化点情報)により、動的情報マップM1の動的情報をほぼリアルタイムで更新可能である。
 従って、管理対象に含める動的情報の種類によっては、種々の情報をユーザに提供できるようになる。図11は、情報提供システムのサービス事例を示す説明図である。
 図11に示すように、サーバ3,4は、「迷子・徘徊者情報」をユーザに提供可能である。
 例えば、サーバ3,4は、携帯IDから特定した高齢の歩行者7が所有する、歩行者端末70の位置情報が、居住地の周囲を何回も周回している場合には、当該歩行者7が迷子又は徘徊していると判定し、その家族が所有する歩行者端末70に判定結果を送信する。
 サーバ3,4は、「公共交通機関情報」をユーザに提供可能である。
 例えば、サーバ3,4は、ユーザが所有する歩行者端末70がバス停で停止中である場合に、車両IDから特定した路線バスの位置情報から、当該路線バスがバス停に到着する予想時刻を算出し、算出した予想時刻をユーザの歩行者端末70に送信する。
 サーバ3,4は、「緊急車両情報」をユーザに提供可能である。
 例えば、サーバ3,4は、ユーザが所有する車両5が道路を走行中である場合に、車両IDから特定した救急車の位置情報から、車両5に追いつく予想時刻を算出し、算出した予想時刻をユーザの車両5に送信する。
 サーバ3,4は、「道路交通情報」をユーザに提供可能である。
 例えば、サーバ3,4は、所定の道路区間に存在する車両5が多数であるため渋滞を検出した場合には、渋滞中の道路区間のリンクデータ及び渋滞長などの渋滞情報を生成し、生成した渋滞情報を、ユーザが所有する車両5に送信する。
 サーバ3,4は、「不審者情報」をユーザに提供可能である。
 例えば、サーバ3,4は、防犯カメラよりなる路側センサ8から取得した歩行者7の位置情報が、同じ住居の周囲を何回も周回している場合には、当該歩行者7が不審者であると判定し、その住居を所有するユーザの歩行者端末70に判定結果を送信する。
 サーバ3,4は、「駐車場情報」をユーザに提供可能である。
 例えば、サーバ3,4は、駐車場に設置された路側センサ8から取得した画像データから、駐車場に存在する車両台数や空き台数などを算出し、算出した情報をユーザが所有する車両5に送信する。
 〔情報提供システムの利点〕
 図12は、従来システムと対比した場合の本実施形態の情報提供システム(以下、「本件システム」という。)の利点を示す説明図である。
 以下、図12を参照しつつ、従来システムの欠点D1~D5と本件システムの利点E1~E6について説明する。
 従来システムでは、車載TCU(Telematics Communication Unit)などの車載通信機による移動体通信にてプローブ情報などを共有する。しかし、4Gまでの移動体通信ではコアネットワークを介するため、リアルタイム性が低い(D1参照)という欠点がある。
 これに対して、本件システムでは、車両5が5Gなどの高速移動通信に対応する通信端末1Aを有するので、例えばエッジサーバ3を介した低遅延応答サービス(E1参照)を車両5の搭乗者に提供できるという利点がある。
 従来システムでは、歩行者センサによる歩行者の有無など検出する。しかし、歩行者センサは、横断歩道などの歩行者通行が多い場所に局所的にしか配置されず、歩行者7の検出範囲が少ない(D2参照)という欠点がある。
 これに対して、本件システムでは、エッジサーバ3のサービスエリアに含まれる車両5及び路側センサ8が計測するセンサ情報から、歩行者7の位置情報を含む動的情報が更新される。このため、監視エリアが大幅に拡大する(E2参照)とともに、歩行者接近サービス(E3参照)をユーザに提供できるという利点がある。
 従来システムでは、ITS対応の車両5の場合には、道路管理者が運営するITS路側機と無線通信することができる。しかし、ITS路側機の通信範囲は交差点から200m程度であり、交差点の近くしか通信できない(D3参照)という欠点がある。
 これに対して、本件システムでは、エッジサーバ3がサービスエリア内での情報収集と動的情報の配信を無線通信により行う。このため、通信エリアが大幅に拡大する(E4参照)という利点がある。
 従来システムでは、道路に設置した車両検知カメラなどにより、交差点付近の車両台数や車両位置を検出することができる。しかし、車両検知カメラ単体では、車両などの位置情報の測位精度が不十分である(D4参照)という欠点がある。
 これに対して、本件システムでは、複数の車両及び路側センサから収集したセンサ情報により、同じ物体の位置情報を補正することができる。このため、正確な位置情報の提供サービス(E5参照)を実現できるという利点がある。
 従来システムでは、ITS対応の車両5が送信したプローブ情報などにより、道路に停止中の車両台数などを概算することができる。しかし、ITS車載機の搭載率は未だ多いとは言えないので、各車線の状況までは分からない(D5参照)という欠点がある。
 これに対して、本件システムでは、エッジサーバ3が管理する動的情報には、車載カメラ59によるセンサ情報が含まれる。このため、車線ごとの通行量を把握することができ、推奨走行車線の提供サービス(E6参照)を実現できるという利点がある。
 〔第1の変形例〕
 上述の実施形態では、車両5及び路側センサ8がセンサ情報から変化点情報を生成し、生成した変化点情報をエッジサーバ3に送信するが(図7のステップS3,S4,S8,S9)、センサ情報をそのままエッジサーバ3に送信してもよい。
 この場合、各センサ情報から変化点情報を生成する処理を、エッジサーバ3が実行することにすればよい。
 もっとも、車両5及び路側センサ8のセンサ情報には映像データなどが含まれることから、エッジサーバ3との通信負荷を軽減するため、よりデータ量の少ない変化点情報を車両5及び路側センサ8が生成することが好ましい。
 〔第2の変形例〕
 上述の実施形態において、エッジサーバ3は、車両5又は歩行者7の密集状況によっては、異なるアングルからのセンサ情報に基づいて、動的情報を生成することが好ましい。このようにすれば、センサ情報に含まれる物体の分類性能を改善することができる。
 また、エッジサーバ3は、車両5や歩行者7の映像データが、車両5や路側センサ8から受信するセンサ情報に含まれる場合には、映像データに基づいて物体の進行方向を算出し、動的情報に反映させることにしてもよい。
 上述の実施形態において、エッジサーバ3は、車両5及び路側センサ8から収集する変化点情報又はセンサ情報の優先度を判定し、判定した優先度に応じて、自身が動的情報を生成するか、コアサーバ4に動的情報を生成させるかを決定することにしてもよい。
 例えば、物体位置が交差点近傍である変化点情報の場合は、優先度を高くし、物体位置が通行量の少ないエリアである場合は、優先度を低くすればよい。
 このようにすれば、エッジサーバ3が、優先度が高い変化点情報又はセンサ情報に基づいて動的情報を生成し、コアサーバ4が、優先度が低い変化点情報又はセンサ情報に基づいて動的情報を生成する。従って、優先度が高いエリアの動的情報のリアルタイム性を高めることができる。
 また、所定のエリアにおける優先度を、車両5又は歩行者7などの密集度合いに応じて動的に変更してもよい。
 例えば、密集度合いが増加したエリアの変化点情報又はセンサ情報の優先度を高くし、当該エリアの情報送信元に送信周期を短縮する指示を通知することが好ましい。逆に、密集度合いが低下したエリアの変化点情報又はセンサ情報の優先度を高くし、当該エリアの情報送信元に送信周期を伸長する指示を通知することが好ましい。
 このようにすれば、優先度の高いエリアの変化点情報又はセンサ情報に基づく動的情報の更新周期を早めることができ、優先度が高いエリアの動的情報のリアルタイム性を向上することができる。
 〔第3の変形例〕
 上述の実施形態において、エッジサーバ3又はコアサーバ4は、認識物体の画像データを含む変化点情報又はセンサ情報を、当該認識物体ごとに蓄積することが好ましい。
 このようにすれば、認識物体である車両5や歩行者7ごとに変化点情報又はセンサ情報を検索することにより、特定の車両5又は歩行者7を時系列に追跡できるようになる。
 〔情報提供システムの変形例〕
 図13は、本発明の変形例に係る情報提供システムの全体構成図である。
 図13の情報提供システムが図6の情報提供システムと異なる点は、動的情報の更新処理及び配信処理(ステップS31~S34)に加えて、エッジサーバ3が、物体の行動予測処理によって生成した将来の動的情報(以下、「予測情報」という。)を、車両5及び歩行者端末70などに配信可能である点にある。
 変形例に係る情報提供システムでは、エッジサーバ3の記憶部34は、動的情報予測マップPM1を記憶している。エッジサーバ3の制御部31は、記憶部34に格納されたマップPM1の予測情報を、所定の更新周期ごとに更新する(予測情報の更新処理)。
 具体的には、制御部31は、所定の更新周期ごとに、自装置のサービスエリア内で車両5や路側センサ8などが計測した各種のセンサ情報を、5G対応の各通信端末1A,1Cから収集し、収集したセンサ情報に基づいてマップPM1の予測情報を更新する。
 制御部31は、所定のユーザの通信端末1A,1Bから予測情報の要求メッセージを受信すると、所定の配信周期ごとに、最新の予測情報を要求メッセージの送信元の通信端末1A,1Bに配信する(予測情報の配信処理)。
 動的情報予測マップPM1は、動的情報マップM1(図2)を構成するデジタル地図に予測情報を重畳したマップであってもよいし、動的情報マップM1とは別個のデジタル地図に予測情報を重畳したマップであってもよい。
 エッジサーバ3は、所定周期ごとの変化点情報の収集(ステップS31)に加えて、車両5及び路側センサ8が計測するセンサ情報を、所定周期ごとに収集可能である(ステップS35)。
 車両5のセンサ情報には、高精細な画像データ(動画でもよい。)及び車両CAN(Controller Area Network)情報などが含まれる。車両5の画像データは、車載カメラ59が撮影した車両5周囲の画像データよりなる。車内カメラを有する車両5の場合は、運転者の画像データが含まれていてもよい。
 路側センサ8のセンサ情報には、高精細な画像データ(動画でもよい。)が含まれる。画像データは、路側カメラ83が撮影した所定の撮影エリアの画像データである。
 エッジサーバ3は、所定の更新周期ごとに、車両5及び路側センサ8などの各センサから取得した情報に基づいて、現時点以後にサービスエリア内の所定地点において起こり得る事象を予測し(行動予測処理:ステップS36)、予測した所定地点の予測情報を動的情報予測マップPM1に重畳する。
 エッジサーバ3は、車両5又は歩行者端末70から要求があれば、最新の予測情報を要求元の通信ノードに配信する(ステップS37)。
 これにより、例えば予測情報を受信した車両5は、搭乗者の運転支援などに予測情報を活用することができる。また、エッジサーバ3から受信した予測情報を歩行者端末70が画面表示又は音声出力することにより、歩行者7は、車両5や他の歩行者7などとの衝突を回避する行動を取ることができる。
 図13では、行動予測処理(ステップS36)の入力情報が、車両5及び路側センサ8が計測したセンサ情報そのものよりなるが、各通信端末から収集した変化点情報(ステップS21)を、行動予測処理の入力情報としてもよい。
 図13では、1つのエッジサーバ3のみを含む情報提供システムを例示しているが、複数のエッジサーバ3が含まれていてもよいし、エッジサーバ3の代わりに或いはエッジサーバ3に加えて、1又は複数のコアサーバ4が含まれていてもよい。
 以下において、エッジサーバ3が管理する動的情報予測マップの図面参照符号を、「PM1」とし、コアサーバ4が管理する動的情報予測マップの図面参照符号を、「PM2」とする。
 〔行動予測処理の具体例〕
 図14は、サーバ3,4による行動予測処理の具体例の説明図である。
 図14に示すように、サーバ3,4の制御部31,41が実行する行動予測処理には、「第1予測処理」及び「第2予測処理」の少なくとも1つの処理が含まれる。
 「第1予測処理」とは、物体の性状及び周囲の状況などの要因を考慮せず、比較的単純なアルゴリズムにより、物体に関する将来の動的情報(例えば、物体の将来の位置情報など)を予測する処理のことである。
 例えば、道路を通行中の物体の現時点の座標(Xc,Yc)、速度Vc及び方位角θc(北から右回りの角度)を入力情報として、T秒後の車両位置(Xt,Yt)を、次式により算出する処理などが第1予測処理に該当する。
 (Xt,Yt)=(Xc+Vc×T×sinθc,Yc+Vc×T×cosθc)
 「第2予測処理」とは、物体の性状及び周囲の状況などの少なくとも1つの要因を考慮して、比較的複雑なアルゴリズム(例えば、画像解析、歩行者の行動推定モデル及び深層学習など)により、将来起こりうる物体の動的情報を予測する処理のことである。
 第2予測処理は、予測対象が歩行者7である「歩行者行動予測」と、予測対象が車両5である「車両挙動予測」に大別される。
 (歩行者行動予測)
 歩行者行動予測には、例えば、以下の処理1~3を採用することができる。
 処理1) 画像データに含まれる歩行者7の視線、顔の向き又は体の向きなどから、歩行者7の移動方向を推定し、推定した移動方向に所定の歩行速度(設定値)を乗じて、数秒先の歩行者7の位置を予測する。
 処理2) 画像データに含まれる歩行者7の周辺情報(犬を随行した散歩中、群衆内に存在など)から、歩行者7の将来の行動を推定し、推定した行動に応じた確度付きの予測位置を生成する。
 例えば、群衆内に存在する歩行者7については、歩行者7同士の回避行動を磁石の同極の反発力になぞらえた行動推定モデルを用いて、歩行者7が数秒先に移動する位置及び確度を算出する。
 処理3) 画像データに含まれる歩行者7の属性(老若男女又は子供など)から、歩行者7の行動を推定し、推定した行動に応じた確度付きの予測位置を生成する。
 例えば、歩行者7が幼児である場合には、現在位置から移動想定範囲を通常より広めに設定し、歩行者7が数秒先に移動する位置及び確度を算出する。また、歩行者7が高齢者である場合には、通常より低速の速度値を用いて、歩行者7が数秒先に移動する位置及び確度を算出する。
 (車両挙動予測)
 車両挙動予測には、例えば、以下の処理4~6を採用することができる。
 処理4) 車室内の画像データに基づいて、現時点以後に発生し得る車両5の挙動を予測し、予測した挙動が原因となる事象をその発生確度とともに出力する。
 例えば、車両内の画像データから抽出した搭乗者の表情を、深層学習に基づく表情認識手法によって決定し、決定した表情が「眠気」である場合には、当該搭乗者が運行する車両5を、車線はみ出しの可能性が高い危険車両と予測する。
 処理5) 車両5の周辺画像や路側センサ8の画像データなどから、広範囲車群(渋滞区間)の延伸速度を算出し、算出した延伸速度から数秒先の渋滞末尾位置を予測する。
 処理6) 車両CAN情報と車両5の周辺画像から、現時点以後に発生し得る挙動を予測し、予測した挙動が原因となる事象をその発生確度とともに出力する。
 車両CAN情報には、TPMS(Tire Pressure Monitoring System)、ジャイロ、ヨーレート、ペダル、車速、加速度、VSA(Vehicle Stability Assist)、車車間通信などに関する情報が含まれる。
 そこで、例えば、車両5のヨーレート値が周期的にぶれており、かつ、周辺画像が同じ周期で全体的にぶれている場合には、当該搭乗者が運行する車両5を、車線はみ出しの可能性が高い危険車両であると予測する。
 その他、サーバ3,4は、車道に面する学校や幼稚園などの施設を、飛び出し多発地点又は交通事故多発地点と予測したり、渋滞中の道路を、車線変更多発路線と予測したりしてもよい。
 また、路側センサ8が撮影エリアの変更可能な機種である場合には、サーバ3,4は、撮影エリアの変更指令を路側センサ8に対して送信してもよい。この場合、行動予測処理に用いる画像データの収集範囲を変更することができる。
 〔情報提供システムのバリエーション〕
 図15~図18は、行動予測処理の実行主体ごとに異なる情報提供システムのバリエーションを示す説明図である。
 (行動予測機能を有する通信端末がない場合)
 図15は、行動予測機能を有する通信端末を含まない情報提供システムにおいて送受信される、情報の流れを示す説明図である。すなわち、図15の説明図は、図6の情報提供システムにおける情報の流れを示す説明図である。
 移動端末である車両5がサーバ3,4に送信する第1情報には、車両5が算出した変化点情報が含まれる。固定端末である路側センサ8がサーバ3,4に送信する第2情報には、路側センサ8が算出した変化点情報が含まれる。
 もっとも、第1情報に車両5のセンサ情報が含まれ、第2情報に路側センサ8のセンサ情報が含まれていてもよい。この場合、サーバ3,4は、各センサ情報から動的情報を自装置で生成することができる。
 サーバ3,4は、動的情報マップM1,M2を保持する。サーバ3,4は、受信した第1及び第2情報(変化点情報)を所定の更新周期ごとに統合して、動的情報マップM1,M2の動的情報を更新する。
 サーバ3,4が配信する第3情報には、動的情報が含まれる。サーバ3,4は、要求メッセージの送信元である車両5又は歩行者端末70に対して、更新した動的情報を所定の配信周期で送信する。
 (サーバが行動予測機能を有する場合)
 図16は、サーバ3,4が行動予測機能を有する情報提供システムにおいて送受信される、情報の流れを示す説明図である。すなわち、図16の説明図は、図13の情報提供システムにおける情報の流れを示す説明図である。
 移動端末である車両5がサーバ3,4に送信する第1情報には、車両5のセンサ情報(例えば、画像データ及び車両CAN情報)が含まれる。固定端末である路側センサ8がサーバ3,4に送信する第2情報には、路側センサ8のセンサ情報(例えば、画像データ)が含まれる。
 もっとも、第1情報に車両5が算出した変化点情報が含まれ、第2情報に路側センサ8が算出した変化点情報が含まれていてもよい。この場合、サーバ3,4は、変化点情報から行動予測処理を実行してもよい。
 サーバ3,4は、動的情報予測マップPM1,PM2を保持し、上述の行動予測処理を実行する行動予測部101を有する。
 行動予測部101は、受信した第1及び第2情報(センサ情報)から予測情報を所定の更新周期ごとに生成し、生成した予測情報を動的情報予測マップPM1,PM2に重畳することにより、マップPM1,PM2を更新する。
 サーバ3,4が配信する第3情報には、行動予測部101が生成する予測情報(以下、「サーバ予測情報」という。)が含まれる。サーバ3,4は、要求メッセージの送信元である車両5又は歩行者端末70に対して、生成したサーバ予測情報を所定の配信周期で送信する。
 サーバ3,4が配信する第3情報には、動的情報が含まれていてもよい。この場合、サーバ3,4は、要求メッセージの送信元である車両5又は歩行者端末70に対して、更新した動的情報を所定の配信周期で送信する。
 (車両が行動予測機能を有する場合)
 図17は、車両5が行動予測機能を有する情報提供システムにおいて送受信される、情報の流れを示す説明図である。すなわち、図17に示すように、車両5は、上述の行動予測処理を実行する行動予測部102を有し、サーバ3,4は、行動予測部101を備えていない。なお、行動予測部102を有する車両5は、一部であってもよい。
 移動端末である車両5がサーバ3,4に送信する第1情報には、車両5が算出した変化点情報が含まれる。固定端末である路側センサ8がサーバ3,4に送信する第2情報には、路側センサ8が算出した変化点情報が含まれる。
 もっとも、第1情報に車両5のセンサ情報が含まれ、第2情報に路側センサ8のセンサ情報が含まれていてもよい。この場合、サーバ3,4は、各センサ情報から動的情報を自装置で生成することができる。
 サーバ3,4は、動的情報マップM1,M2を保持する。サーバ3,4は、受信した第1及び第2情報(変化点情報)を所定の更新周期ごとに統合して、動的情報マップM1,M2の動的情報を更新する。
 サーバ3,4が配信する第3情報には、動的情報が含まれる。サーバ3,4は、要求メッセージの送信元である車両5又は歩行者端末70に対して、更新した動的情報を所定の配信周期で送信する。
 車両5が受信する動的情報(第3情報)は、サーバ3,4が、サービスエリア内の多数の車両5及び路側センサ8から所定の更新周期ごとに収集し、収集した変化点情報を統合した情報である。
 従って、動的情報の受信側の車両5は、自車両の車載カメラ59やレーダセンサ60のセンシング範囲内の物体(以下、「内側物体」という)だけでなく、センシング範囲の外側に存在する物体(以下、「外側物体」という。)の動的情報を取得できる。
 そこで、車両5の行動予測部102は、自装置のセンサ情報に基づく内側物体の行動予測処理だけでなく、外側物体に関する行動予測処理を実行することにしてもよい。
 このようにすれば、自車両のセンシング範囲外の外側物体についても、当該物体の将来の動的情報を予測できるようになる。
 図17に破線枠で示すように、車両5は、行動予測部102が出力する予測情報(以下、「車両予測情報」という。)を第1情報に含めてもよい。
 この場合、サーバ3,4は、サービスエリア内に含まれる複数の車両5から、車両予測情報を収集することができる。
 このため、サーバ3,4は、サービスエリア内の車両5から収集した車両予測情報を動的情報マップM1,M2に重畳することにより、動的情報予測マップPM1,PM2を作成することができる。
 また、サーバ3,4は、作成した動的情報予測マップPM1,PM2に含まれる予測情報を、サーバ予測情報として第3情報に含めることにより、車両5が自律分散的に生成する予測情報を、サービスエリア内の車両5や歩行者端末70に配信できるようになる。
 (サーバ及び車両が行動予測機能を有する場合)
 図18は、サーバ3,4及び車両5が行動予測機能を有する情報提供システムにおいて送受信される、情報の流れを示す説明図である。すなわち、図18に示すように、サーバ3,4は、上述の行動予測処理を実行する行動予測部101を有し、車両5も、上述の行動予測処理を実行する行動予測部102を有する。なお、行動予測部102を有する車両5は、一部であってもよい。
 移動端末である車両5がサーバ3,4に送信する第1情報には、車両5のセンサ情報(例えば、画像データ及び車両CAN情報)が含まれる。固定端末である路側センサ8がサーバ3,4に送信する第2情報には、路側センサ8のセンサ情報(例えば、画像データ)が含まれる。
 もっとも、第1情報に車両5が算出した変化点情報が含まれ、第2情報に路側センサ8が算出した変化点情報が含まれていてもよい。この場合、サーバ3,4は、変化点情報から行動予測処理を実行してもよい。
 サーバ3,4は、動的情報予測マップPM1,PM2を保持し、上述の行動予測処理を実行する行動予測部101を有する。
 行動予測部101は、受信した第1及び第2情報(センサ情報)から予測情報を所定の更新周期ごとに生成し、生成した予測情報を動的情報予測マップPM1,PM2に重畳することにより、マップPM1,PM2を更新する。
 サーバ3,4が配信する第3情報には、行動予測部101が生成するサーバ予測情報が含まれる。サーバ3,4は、要求メッセージの送信元である車両5又は歩行者端末70に対して、生成したサーバ予測情報を所定の配信周期で送信する。
 サーバ3,4が配信する第3情報には、動的情報が含まれていてもよい。この場合、サーバ3,4は、要求メッセージの送信元である車両5又は歩行者端末70に対して、更新した動的情報を所定の配信周期で送信する。
 車両5が受信する動的情報(第3情報)は、サーバ3,4が、サービスエリア内の多数の車両5及び路側センサ8から所定の更新周期ごとに収集し、収集した変化点情報を統合した情報である。
 従って、動的情報の受信側の車両5は、自車両の車載カメラ59やレーダセンサ60のセンシング範囲内の内側物体だけでなく、センシング範囲の外側に存在する外側物体の動的情報を取得できる。
 そこで、車両5の行動予測部102は、自装置のセンサ情報に基づく内側物体の行動予測処理だけでなく、外側物体に関する行動予測処理を実行することにしてもよい。
 このようにすれば、自車両のセンシング範囲外の外側物体についても、当該物体の将来の位置情報などを予測できるようになる。
 内側物体に関するサーバ予測情報が第3情報に含まれる場合には、車両5の行動予測部102は、自身のセンサ情報から生成した車両予測情報と、第3情報に含まれるサーバ予測情報との差分に基づいて、車両予測情報を補正することにしてもよい。このようにすれば、車両予測情報の精度を向上することができる。
 図18に破線枠で示すように、車両5は、行動予測部102が出力する車両予測情報を第1情報に含めてもよい。
 この場合、サーバ3,4は、サービスエリア内に含まれる複数の車両5から、車両予測情報を収集することができる。このため、サーバ3,4は、サービスエリア内の車両5から収集した車両予測情報と、動的情報予測マップPM1,PM2に含まれるサーバ予測情報との差分に基づいて、サーバ予測情報を補正することができる。
 〔第3情報の有意性〕
 図19は、サーバ3,4が配信する第3情報の有意性を示す説明図である。
 図19において、車両5は、道路を北向きに走行中であるとし、道路には、横断歩道を通行中の歩行者7A、横断歩道以外の部分を横断しようとする歩行者7B、及び、公園から飛び出した歩行者7Cが存在するものとする。
 また、歩行者7A,7Bは、車両センサの検知範囲内の物体(内側物体)であるとし、歩行者7Cは、車両センサの検知範囲外の物体(外側物体)であり、かつ、路側センサ8の検知範囲内の物体であるとする。
 図19の状況において、車両5の行動予測部101は、内側物体である歩行者7A,7Bについては、自律的に行動予測を行ってその結果を搭乗者に通知できる。しかし、外側物体である歩行者7Cについては、車両センサで捕捉できないため行動を予測できない。
 この点、本実施形態の情報提供システムによれば、サーバ3,4から受信する第3情報に歩行者7Cの動的情報が含まれる。
 このため、車両5の行動予測部102が、サーバ3,4から受信した歩行者7Cの動的情報に対して行動予測処理を実行すれば、外側物体である歩行者7Cについても行動を予測できるようになる。
 また、本実施形態の情報提供システムによれば、サーバ3,4が行動予測処理を実行する場合には、車両5がサーバ3,4から受信する第3情報に歩行者7Cのサーバ予測情報が含まれる。
 従って、車両5が物体の行動予測を実行するか否かに関係なく、外側物体である歩行者7Cの行動予測結果を車両5の搭乗者に通知できるようになる。
 〔サーバによる行動予測処理のエリア分担〕
 図20は、サーバ3,4による行動予測処理のエリア分担を示す説明図である。
 図20に示すように、道路を通行する車両5を起点とする下流側(左側)の道路区間を想定する。
 この場合、現時点の車両位置から遠くなるほど、すなわち、未来になるほどサーバ3,4による車両位置の予測情報の確度が低下すると考えられる。
 例えば、図20では、エッジサーバ3が、対象物体である車両5の位置情報を予測する場合の時間経過ごとの確度を示し、1秒後の確度が90%、2秒後の確度が70%、3秒後の確度が50%、及び5秒後の確度が30%となっている。
 エッジサーバ3は、コアサーバ4に比べてより低遅延で通信できるが、CPUの処理能力の点ではコアサーバ4に劣る。逆に、コアサーバ4は、エッジサーバ3に比べて通信の遅延が大きいが、CPUの処理能力の点ではエッジサーバ3に勝る。
 そこで、例えば、エッジサーバ3の処理能力では、確度が70%未満に落ちる2秒以後の対象物体5の位置情報については、コアサーバ4に予測させることが好ましい。このようにすれば、エッジサーバ3では確度が低下する2秒以後の行動予測を、処理能力がより高いコアサーバ4が代行することにより、行動予測の確度を向上することができる。
 今回開示した実施形態(変形例を含む。)はすべての点で例示であって制限的なものではない。本発明の権利範囲は、上述の実施形態に限定されるものではなく、請求の範囲に記載された構成と均等の範囲内でのすべての変更が含まれる。
 1A 通信端末
 1B 通信端末
 1C 通信端末
 1D 通信端末
 2 基地局
 3 エッジサーバ
 4 コアサーバ
 5 車両(移動端末)
 7 歩行者
 8 路側センサ(固定端末)
 9 交通信号制御機
 31 制御部
 32 ROM
 33 RAM
 34 記憶部
 35 通信部
 41 制御部
 42 ROM
 43 RAM
 44 記憶部
 45 通信部
 50 車載装置
 51 制御部
 52 GPS受信機
 53 車速センサ
 54 ジャイロセンサ
 55 記憶部
 56 ディスプレイ
 57 スピーカ
 58 入力デバイス
 59 車載カメラ
 60 レーダセンサ
 61 通信部
 70 歩行者端末(移動端末)
 71 制御部
 72 記憶部
 73 表示部
 74 操作部
 75 通信部
 81 制御部
 82 記憶部
 83 路側カメラ
 84 レーダセンサ
 85 通信部
 

Claims (23)

  1.  自己のセンサ情報に基づく第1情報をサーバに送信する1又は複数の移動端末と、 
     自己のセンサ情報に基づく第2情報をサーバに送信する1又は複数の固定端末と、
     受信した前記第1情報及び前記第2情報に基づいて第3情報を生成し、生成した第3情報を少なくとも前記移動端末に送信するサーバと、を備える情報提供システム。
  2.  前記移動端末は、
     前記自己のセンサ情報と、受信した前記第3情報とに基づいて、前記第1情報を生成する請求項1に記載の情報提供システム。
  3.  前記移動端末は、
     前記自己のセンサ情報と、受信した前記第3情報とに基づいて、状態が変化した物体を検出し、検出した前記物体の変化点情報を前記第1情報とする請求項2に記載の情報提供システム。
  4.  前記移動端末は、
     前記第3情報の送信を前記サーバに所定周期ごとに要求し、前記所定周期内に状態が変化した前記物体を検出しなかった場合は、前記第1情報を生成しない請求項3に記載の情報提供システム。
  5.  前記第1情報及び前記第2情報には、前記センサ情報の精度を判別可能な識別情報が含まれ、
     前記サーバは、
     異なる受信情報に含まれる物体の位置が所定の条件を満たす場合は、前記識別情報に基づいていずれか1つの前記第1情報又は前記第2情報を選択し、選択した情報に基づいて前記第3情報を生成する請求項1~請求項4のいずれか1項に記載の情報提供システム。
  6.  前記サーバは、
     前記第1情報に含まれる前記物体の位置と、前記第2情報に含まれる前記物体の位置とが所定の条件を満たす場合は、前記第2情報に基づいて前記第3情報を生成する請求項5に記載の情報提供システム。
  7.  前記移動端末は、
     前記第3情報に含まれる物体の位置情報に基づいて、自己のセンサ情報を補正する請求項6に記載の情報提供システム。
  8.  前記第3情報は、地図情報に重畳される物体の動的情報である請求項1~請求項7のいずれか1項に記載の情報提供システム。
  9.  前記サーバには、
     遅延時間が短い方の第1ネットワークスライスに属する第1サーバと、
     遅延時間が長い方の第2ネットワークスライスに属する第2サーバと、が含まれ、
     前記第1サーバは、
     前記第1情報及び前記第2情報の優先度を判定し、判定した優先度に応じて、自身が前記第3情報を生成するか、前記第2サーバに前記第3情報を生成させるかを決定する請求項1~請求項8のいずれか1項に記載の情報提供システム。
  10.  前記第1サーバによる前記第3情報の送信周期は、前記第2サーバによる前記第3情報の送信周期よりも短い請求項9に記載の情報提供システム。
  11.  前記サーバは、
     前記優先度が所定の条件を満たす場合は、前記第1情報及び前記第2情報の送信元に当該情報の送信周期を変更する指示を通知する請求項9又は請求項10に記載の情報提供システム。
  12.  前記第1情報及び前記第2情報には、
     検出された物体の画像データと位置情報とが含まれ、
     前記サーバは、
     前記物体の画像データを含む前記第1情報及び前記第2情報を、当該物体ごとに蓄積する請求項1~請求項11のいずれか1項に記載の情報提供システム。
  13.  前記サーバは、
     受信した前記第1情報及び前記第2情報に基づいて、物体の将来の動的情報であるサーバ予測情報を生成可能であり、
     前記第3情報には、生成された前記サーバ予測情報が含まれる請求項1~請求項12のいずれか1項に記載の情報提供システム。
  14.  前記移動端末は、
     受信した前記第3情報に基づいて、物体の将来の動的情報である車両予測情報を生成可能である請求項13に記載の情報提供システム。
  15.  前記移動端末は、
     自身が生成した前記車両予測情報を前記第1情報に含める請求項14に記載の情報提供システム。
  16.  前記移動端末は、
     受信した前記サーバ予測情報に基づいて、自身が生成した前記車両予測情報を補正する請求項14又は請求項15に記載の情報提供システム。
  17.  前記サーバは、
     受信した前記車両予測情報に基づいて、自身が生成した前記サーバ予測情報を補正する請求項15又は請求項16に記載の情報提供システム。
  18.  前記移動端末は、
     前記自己のセンサ情報に基づいて、物体の将来の動的情報である車両予測情報を生成可能であり、生成した前記車両予測情報を前記第1情報に含める請求項1~請求項12のいずれか1項に記載の情報提供システム。
  19.  前記サーバには、
     遅延時間が短い方の第1ネットワークスライスに属する第1サーバと、
     遅延時間が長い方の第2ネットワークスライスに属する第2サーバと、が含まれ、
     前記第2サーバが生成する前記サーバ予測情報は、前記第1サーバが生成する前記サーバ予測情報よりも将来の動的情報である請求項13~請求項16のいずれか1項に記載の情報提供システム。
  20.  1又は複数の移動端末及び1又は複数の固定端末と無線通信するサーバであって、
     前記移動端末のセンサ情報に基づく第1情報を前記移動端末から受信し、前記固定端末のセンサ情報に基づく第2情報を前記固定端末から受信する通信部と、
     受信した前記第1情報及び前記第2情報に基づいて第3情報を生成し、生成した第3情報を少なくとも前記移動端末に送信するように、前記通信部を制御する制御部と、を備えるサーバ。
  21.  1又は複数の固定端末と無線通信するサーバと無線通信する移動端末であって、
     自己のセンサ情報に基づく第1情報を前記サーバに送信する通信部と、
     前記第1情報と前記固定端末のセンサ情報に基づく第2情報とに基づいて、前記サーバが生成した第3情報を受信するように、前記通信部を制御する制御部と、を備え、
     前記制御部は、前記自己のセンサ情報と、受信した前記第3情報とに基づいて、前記第1情報を生成する移動端末。
  22.  1又は複数の移動端末及び1又は複数の固定端末と無線通信するサーバとして、コンピュータを機能させるためのコンピュータプログラムであって、前記コンピュータに、
     前記移動端末のセンサ情報に基づく第1情報を前記移動端末から受信し、前記固定端末のセンサ情報に基づく第2情報を前記固定端末から受信するステップと、
     受信した前記第1情報及び前記第2情報に基づいて第3情報を生成し、生成した第3情報を少なくとも前記移動端末に送信するように、前記サーバの通信部を制御するステップと、を実行させるためのコンピュータプログラム。
  23.  1又は複数の固定端末と無線通信するサーバと無線通信する移動端末として、コンピュータを機能させるためのコンピュータプログラムであって、前記コンピュータに、
     自己のセンサ情報に基づく第1情報を前記サーバに送信するステップと、
     前記第1情報と前記固定端末のセンサ情報に基づく第2情報とに基づいて、前記サーバが生成した第3情報を受信するように、前記移動端末の通信部を制御するステップと、
     前記自己のセンサ情報と、受信した前記第3情報とに基づいて、前記第1情報を生成するステップと、を実行させるためのコンピュータプログラム。
PCT/JP2017/040787 2017-02-08 2017-11-13 情報提供システム、サーバ、移動端末、及びコンピュータプログラム WO2018146882A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE112017007016.3T DE112017007016T5 (de) 2017-02-08 2017-11-13 Informationsbereitsstellungssystem, Server, mobiles Endgerät und Computerprogramm
US16/484,380 US11238738B2 (en) 2017-02-08 2017-11-13 Information providing system, server, mobile terminal, and computer program
CN201780086044.2A CN110419070B (zh) 2017-02-08 2017-11-13 信息提供系统、服务器、移动终端和计算机程序
JP2018566759A JP7031612B2 (ja) 2017-02-08 2017-11-13 情報提供システム、サーバ、移動端末、及びコンピュータプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2017-021105 2017-02-08
JP2017021105 2017-02-08
JP2017042578 2017-03-07
JP2017-042578 2017-03-07

Publications (1)

Publication Number Publication Date
WO2018146882A1 true WO2018146882A1 (ja) 2018-08-16

Family

ID=63108080

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/040787 WO2018146882A1 (ja) 2017-02-08 2017-11-13 情報提供システム、サーバ、移動端末、及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US11238738B2 (ja)
JP (1) JP7031612B2 (ja)
CN (1) CN110419070B (ja)
DE (1) DE112017007016T5 (ja)
WO (1) WO2018146882A1 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019124105A1 (ja) * 2017-12-22 2019-06-27 ソニー株式会社 情報処理装置、移動体、及び、情報処理システム
JP2020071495A (ja) * 2018-10-29 2020-05-07 日立オートモティブシステムズ株式会社 移動体挙動予測装置
JP2020072278A (ja) * 2018-10-29 2020-05-07 三菱電機株式会社 車両通信システムおよびその通信方法
JP2020143901A (ja) * 2019-03-04 2020-09-10 アルパイン株式会社 移動体の位置測定システム
JP2020173600A (ja) * 2019-04-10 2020-10-22 住友電気工業株式会社 経路予測装置、それを備えた車載装置、経路予測システム、経路予測方法、及びコンピュータプログラム
JP2020181277A (ja) * 2019-04-24 2020-11-05 住友電気工業株式会社 サーバ装置およびその制御方法、端末およびその制御方法、移動体支援システムおよび方法、並びにコンピュータプログラム
CN112581755A (zh) * 2019-09-30 2021-03-30 本田技研工业株式会社 信息处理装置、信息处理方法、移动终端以及存储介质
WO2021070750A1 (ja) * 2019-10-11 2021-04-15 ソニー株式会社 情報処理システム、情報処理装置及び情報処理方法
WO2021085048A1 (ja) * 2019-10-31 2021-05-06 ソニー株式会社 情報処理装置、情報処理システム及び情報処理方法
JPWO2020039798A1 (ja) * 2018-08-24 2021-08-10 住友電気工業株式会社 情報提供装置、情報提供方法、情報提供システム、コンピュータプログラム、及びデータ構造
JP2021140470A (ja) * 2020-03-05 2021-09-16 本田技研工業株式会社 情報処理装置、車両、プログラム、及び情報処理方法
JP2021149162A (ja) * 2020-03-16 2021-09-27 株式会社Soken 交通システム
JP2021149163A (ja) * 2020-03-16 2021-09-27 株式会社Soken 交通システム
JPWO2020188895A1 (ja) * 2019-03-18 2021-12-23 日本電気株式会社 エッジコンピューティングサーバ、制御方法、及び制御プログラム
WO2022264962A1 (ja) * 2021-06-16 2022-12-22 株式会社デンソー 挙動予測システム、挙動予測装置、挙動予測方法、挙動予測プログラム
US20220415054A1 (en) * 2019-06-24 2022-12-29 Nec Corporation Learning device, traffic event prediction system, and learning method
JP7348344B1 (ja) 2022-03-28 2023-09-20 ソフトバンク株式会社 車両およびサーバ
JP2023137189A (ja) * 2022-03-18 2023-09-29 三菱電機株式会社 車両制御装置、サーバ、車両制御システム及び車両制御方法
US12027039B2 (en) 2019-12-30 2024-07-02 Subaru Corporation Mobility information provision system, server, and vehicle

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017214921A1 (de) * 2017-08-25 2019-02-28 Robert Bosch Gmbh Mobiles Gerät, Server und Verfahren zum Aktualisieren und Bereitstellen einer hochgenauen Karte
JP7047474B2 (ja) * 2018-03-08 2022-04-05 株式会社Jvcケンウッド 通信装置、通信システム、及び通信方法
US20190306677A1 (en) 2018-04-03 2019-10-03 Corning Research & Development Corporation Pathside communication relay (pcr) for collecting pathside data for a pcr network
EP3794421A4 (en) * 2018-05-09 2022-12-21 Cavh Llc INTELLIGENCE ALLOCATION TRAINING SYSTEMS AND METHODS BETWEEN VEHICLES AND HIGHWAYS
JP2019200658A (ja) * 2018-05-17 2019-11-21 株式会社日立製作所 情報通信システムとその方法およびサーバ
US11735041B2 (en) * 2018-07-10 2023-08-22 Cavh Llc Route-specific services for connected automated vehicle highway systems
US11636681B2 (en) * 2018-11-21 2023-04-25 Meta Platforms, Inc. Anticipating future video based on present video
US10661795B1 (en) * 2018-12-20 2020-05-26 Verizon Patent And Licensing Inc. Collision detection platform
US11447152B2 (en) * 2019-01-25 2022-09-20 Cavh Llc System and methods for partially instrumented connected automated vehicle highway systems
US11190916B2 (en) * 2019-02-22 2021-11-30 At&T Mobility Ii Llc Connected vehicle network access optimization using an intermediary platform
US11170642B2 (en) * 2019-03-28 2021-11-09 Stc, Inc. Systems and methods for pacing a mass transit vehicle
US10940832B1 (en) * 2019-09-18 2021-03-09 Toyota Motor North America, Inc. Identifying suspicious events relating to a vehicle
WO2021132566A1 (ja) * 2019-12-26 2021-07-01 パナソニックIpマネジメント株式会社 表示制御装置、表示システム、表示制御方法
CN111210661A (zh) * 2020-01-16 2020-05-29 北京汽车集团有限公司 交叉路口车辆防碰撞方法及装置
CN111402631A (zh) * 2020-03-12 2020-07-10 博睿泰克科技(宁波)有限公司 一种基于车辆行驶的危险预警方法、系统及存储介质
CN113806380B (zh) * 2020-06-16 2024-01-26 财团法人车辆研究测试中心 路口动态图像资源更新共享系统及方法
WO2022004912A1 (ko) * 2020-07-01 2022-01-06 엘지전자 주식회사 V2x 서비스를 위한 서버, 방법 및 기기
US11680818B2 (en) * 2020-08-06 2023-06-20 Automotive Research & Testing Center System and method for updating and sharing crossroad dynamic map data
WO2022040944A1 (zh) * 2020-08-25 2022-03-03 华为技术有限公司 一种动态信息的获取方法及其相关设备
KR102366017B1 (ko) * 2021-07-07 2022-02-23 쿠팡 주식회사 설치 서비스를 위한 정보 제공 방법 및 장치
TWI819874B (zh) * 2022-11-01 2023-10-21 緯創資通股份有限公司 網路管理方法及網路實體

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091899A (ja) * 1996-09-13 1998-04-10 Oki Electric Ind Co Ltd 道路監視システム
JP2007323117A (ja) * 2006-05-30 2007-12-13 Kenwood Corp 道路通信システム、移動体装置、および、移動体装置の情報処理方法
JP2010188981A (ja) * 2009-02-20 2010-09-02 Fuji Heavy Ind Ltd 車両の運転支援装置
JP2014089491A (ja) * 2012-10-29 2014-05-15 Hitachi Consumer Electronics Co Ltd 映像処理システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5401464B2 (ja) * 2007-11-15 2014-01-29 エスケープラネット株式会社 重要度基盤のリッチメディア提供システム及び方法と、これに適用されるサーバー
CN201378363Y (zh) * 2009-04-13 2010-01-06 甘宁 远程道路交通信息遥控提示系统
US9418554B2 (en) * 2014-08-07 2016-08-16 Verizon Patent And Licensing Inc. Method and system for determining road conditions based on driver data
JP5891889B2 (ja) 2011-10-27 2016-03-23 住友電気工業株式会社 交通システムとこれに用いるコンピュータプログラム、並びに異常事象の判定処理装置
DE112011105838T5 (de) 2011-11-10 2014-08-28 Mitsubishi Electric Corp. Zentrum-Seitensystem und Fahrzeug-Seitensystem
US9758120B2 (en) * 2014-07-24 2017-09-12 Andreas Alamanos Automatic cloudbased notification system for vehicle accidents
KR101728326B1 (ko) * 2015-03-19 2017-05-02 현대자동차주식회사 차량, 서버 및 이를 포함하는 차량 모니터링 시스템
JP2017021105A (ja) 2015-07-08 2017-01-26 キヤノン株式会社 定着装置
JP2017042578A (ja) 2015-08-25 2017-03-02 口田 友一 遠赤外線医療用スリッパ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091899A (ja) * 1996-09-13 1998-04-10 Oki Electric Ind Co Ltd 道路監視システム
JP2007323117A (ja) * 2006-05-30 2007-12-13 Kenwood Corp 道路通信システム、移動体装置、および、移動体装置の情報処理方法
JP2010188981A (ja) * 2009-02-20 2010-09-02 Fuji Heavy Ind Ltd 車両の運転支援装置
JP2014089491A (ja) * 2012-10-29 2014-05-15 Hitachi Consumer Electronics Co Ltd 映像処理システム

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019124105A1 (ja) * 2017-12-22 2019-06-27 ソニー株式会社 情報処理装置、移動体、及び、情報処理システム
JPWO2020039798A1 (ja) * 2018-08-24 2021-08-10 住友電気工業株式会社 情報提供装置、情報提供方法、情報提供システム、コンピュータプログラム、及びデータ構造
JP7484716B2 (ja) 2018-08-24 2024-05-16 住友電気工業株式会社 情報提供装置、情報提供方法、情報提供システムおよびコンピュータプログラム
US11978345B2 (en) 2018-10-29 2024-05-07 Hitachi Astemo, Ltd. Moving object behavior prediction device
JP2020071495A (ja) * 2018-10-29 2020-05-07 日立オートモティブシステムズ株式会社 移動体挙動予測装置
JP2020072278A (ja) * 2018-10-29 2020-05-07 三菱電機株式会社 車両通信システムおよびその通信方法
WO2020090419A1 (ja) * 2018-10-29 2020-05-07 日立オートモティブシステムズ株式会社 移動体挙動予測装置
JP7203563B2 (ja) 2018-10-29 2023-01-13 日立Astemo株式会社 移動体挙動予測装置
JP2020143901A (ja) * 2019-03-04 2020-09-10 アルパイン株式会社 移動体の位置測定システム
JP7246829B2 (ja) 2019-03-04 2023-03-28 アルパイン株式会社 移動体の位置測定システム
JPWO2020188895A1 (ja) * 2019-03-18 2021-12-23 日本電気株式会社 エッジコンピューティングサーバ、制御方法、及び制御プログラム
JP7173287B2 (ja) 2019-03-18 2022-11-16 日本電気株式会社 エッジコンピューティングサーバ、制御方法、及び制御プログラム
JP7419667B2 (ja) 2019-04-10 2024-01-23 住友電気工業株式会社 経路予測装置、それを備えた車載装置、経路予測システム、経路予測方法、及びコンピュータプログラム
JP2020173600A (ja) * 2019-04-10 2020-10-22 住友電気工業株式会社 経路予測装置、それを備えた車載装置、経路予測システム、経路予測方法、及びコンピュータプログラム
JP7379858B2 (ja) 2019-04-24 2023-11-15 住友電気工業株式会社 サーバ装置およびその制御方法、端末およびその制御方法、移動体支援システムおよび方法、並びにコンピュータプログラム
JP2020181277A (ja) * 2019-04-24 2020-11-05 住友電気工業株式会社 サーバ装置およびその制御方法、端末およびその制御方法、移動体支援システムおよび方法、並びにコンピュータプログラム
US20220415054A1 (en) * 2019-06-24 2022-12-29 Nec Corporation Learning device, traffic event prediction system, and learning method
JP6997157B2 (ja) 2019-09-30 2022-02-04 本田技研工業株式会社 情報処理装置、情報処理方法及びプログラム
CN112581755A (zh) * 2019-09-30 2021-03-30 本田技研工业株式会社 信息处理装置、信息处理方法、移动终端以及存储介质
JP2021056878A (ja) * 2019-09-30 2021-04-08 本田技研工業株式会社 情報処理装置、情報処理方法、移動端末、記憶媒体及びプログラム
WO2021070750A1 (ja) * 2019-10-11 2021-04-15 ソニー株式会社 情報処理システム、情報処理装置及び情報処理方法
WO2021085048A1 (ja) * 2019-10-31 2021-05-06 ソニー株式会社 情報処理装置、情報処理システム及び情報処理方法
CN114586081A (zh) * 2019-10-31 2022-06-03 索尼集团公司 信息处理设备、信息处理系统和信息处理方法
US12027039B2 (en) 2019-12-30 2024-07-02 Subaru Corporation Mobility information provision system, server, and vehicle
JP2021140470A (ja) * 2020-03-05 2021-09-16 本田技研工業株式会社 情報処理装置、車両、プログラム、及び情報処理方法
JP7497999B2 (ja) 2020-03-05 2024-06-11 本田技研工業株式会社 情報処理装置、車両、プログラム、及び情報処理方法
JP2021149162A (ja) * 2020-03-16 2021-09-27 株式会社Soken 交通システム
JP2021149163A (ja) * 2020-03-16 2021-09-27 株式会社Soken 交通システム
JP7484258B2 (ja) 2020-03-16 2024-05-16 株式会社デンソー 交通システム
WO2022264962A1 (ja) * 2021-06-16 2022-12-22 株式会社デンソー 挙動予測システム、挙動予測装置、挙動予測方法、挙動予測プログラム
JP2023137189A (ja) * 2022-03-18 2023-09-29 三菱電機株式会社 車両制御装置、サーバ、車両制御システム及び車両制御方法
JP7442561B2 (ja) 2022-03-18 2024-03-04 三菱電機株式会社 車両制御装置、サーバ、車両制御システム及び車両制御方法
WO2023188995A1 (ja) * 2022-03-28 2023-10-05 ソフトバンク株式会社 車両およびサーバ
JP2023145176A (ja) * 2022-03-28 2023-10-11 ソフトバンク株式会社 車両およびサーバ
JP7348344B1 (ja) 2022-03-28 2023-09-20 ソフトバンク株式会社 車両およびサーバ

Also Published As

Publication number Publication date
DE112017007016T5 (de) 2019-10-24
JP7031612B2 (ja) 2022-03-08
CN110419070A (zh) 2019-11-05
CN110419070B (zh) 2022-03-29
US11238738B2 (en) 2022-02-01
US20200005644A1 (en) 2020-01-02
JPWO2018146882A1 (ja) 2019-12-12

Similar Documents

Publication Publication Date Title
WO2018146882A1 (ja) 情報提供システム、サーバ、移動端末、及びコンピュータプログラム
WO2018220971A1 (ja) 通信制御装置、通信制御方法、及びコンピュータプログラム
US10176715B2 (en) Navigation system with dynamic mapping mechanism and method of operation thereof
US11472291B2 (en) Graphical user interface for display of autonomous vehicle behaviors
US11884155B2 (en) Graphical user interface for display of autonomous vehicle behaviors
CN114255606A (zh) 辅助驾驶提醒、地图辅助驾驶提醒方法、装置和地图
JP2021111331A (ja) 移動情報提供システム、サーバ装置、および車両
KR102634073B1 (ko) 루트 정보를 사용한 차량의 궤적 계획
JP2020027645A (ja) サーバ、無線通信方法、コンピュータプログラム、及び車載装置
JP2022041923A (ja) 接続されたデータ分析プラットフォームを用いた車両経路指定
JP2020091614A (ja) 情報提供システム、サーバ、移動端末、及びコンピュータプログラム
WO2020071072A1 (ja) 情報提供システム、移動端末、情報提供方法、及びコンピュータプログラム
WO2019198449A1 (ja) 情報提供システム、移動端末、情報提供装置、情報提供方法、及びコンピュータプログラム
JP2020091652A (ja) 情報提供システム、サーバ、及びコンピュータプログラム
JP2019079453A (ja) 情報生成システム、情報生成装置、情報生成方法およびコンピュータプログラム
WO2021117370A1 (ja) 動的情報の更新装置、更新方法、情報提供システム、及びコンピュータプログラム
US20230182734A1 (en) Vehicle localization
US11648938B2 (en) Braking data mapping
JP2020091612A (ja) 情報提供システム、サーバ、及びコンピュータプログラム
JP2020052725A (ja) 移動体監視装置、並びにこれを用いる車両制御システムおよび交通システム
US20240051581A1 (en) Determination of an action for an autonomous vehicle in the presence of intelligent agents
WO2019239757A1 (ja) 通信制御装置、通信制御方法、コンピュータプログラム、及び車載通信機
US20230182729A1 (en) Vehicle localization
US20230303124A1 (en) Predicting and controlling object crossings on vehicle routes
JP7009827B2 (ja) 車両用情報記憶方法、車両の走行制御方法、及び車両用情報記憶装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17895535

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018566759

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 17895535

Country of ref document: EP

Kind code of ref document: A1