WO2020039798A1 - 情報提供装置、情報提供方法、情報提供システム、コンピュータプログラム、及びデータ構造 - Google Patents

情報提供装置、情報提供方法、情報提供システム、コンピュータプログラム、及びデータ構造 Download PDF

Info

Publication number
WO2020039798A1
WO2020039798A1 PCT/JP2019/027933 JP2019027933W WO2020039798A1 WO 2020039798 A1 WO2020039798 A1 WO 2020039798A1 JP 2019027933 W JP2019027933 W JP 2019027933W WO 2020039798 A1 WO2020039798 A1 WO 2020039798A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
dynamic object
vehicle
unit
sensor
Prior art date
Application number
PCT/JP2019/027933
Other languages
English (en)
French (fr)
Inventor
明紘 小川
勝憲 牛田
高山 浩一
Original Assignee
住友電気工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 住友電気工業株式会社 filed Critical 住友電気工業株式会社
Priority to JP2020538233A priority Critical patent/JPWO2020039798A1/ja
Priority to CN201980055558.0A priority patent/CN112602126B/zh
Priority to DE112019004232.7T priority patent/DE112019004232T5/de
Priority to US17/269,894 priority patent/US20210319690A1/en
Publication of WO2020039798A1 publication Critical patent/WO2020039798A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/056Detecting movement of traffic to be counted or controlled with provision for distinguishing direction of travel
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • the present invention relates to an information providing device, an information providing method, an information providing system, a computer program, and a data structure.
  • a system has been proposed in which sensor information from a fixedly installed sensor (hereinafter, also referred to as an infrastructure sensor) such as a street surveillance camera is uploaded to a server computer (hereinafter, simply referred to as a server), analyzed, and monitored.
  • a server computer hereinafter, simply referred to as a server
  • various sensors are mounted on an automobile, a motorcycle, and the like (hereinafter, referred to as a vehicle), and that sensor information is uploaded to a server, analyzed, and used for driving assistance.
  • Information on a running road can be obtained only by a sensor mounted on a vehicle (hereinafter also referred to as an in-vehicle sensor), but information on a road intersecting with the running road can be obtained from buildings around the road. For example, a blind spot area is generated near an intersection.
  • the fixedly installed sensor such as a street surveillance camera for driving assistance.
  • Patent Document 1 discloses a plurality of communication terminals capable of wireless communication, one or a plurality of base stations wirelessly communicating with the communication terminal, one or a plurality of edge servers communicating with the base station in a wired or wireless manner
  • a wireless communication system including one or a plurality of core servers that communicate with an edge server in a wired or wireless manner is disclosed.
  • the communication terminals include a vehicle communication terminal, a pedestrian communication terminal, a roadside sensor communication terminal, and a traffic signal controller communication terminal.
  • Each element constituting this wireless communication system is classified into a plurality of network slices S1 to S4 according to predetermined service requirements such as delay time.
  • a plurality of communication terminals communicate directly, in slice S2, a plurality of communication terminals communicate with base station 2, and in slice S3, a plurality of communication terminals communicate with edge server 3 via base station 2.
  • a plurality of communication terminals communicate with the core server 4 via the base station 2 and the edge server 3.
  • the wireless communication system configured as described above can appropriately provide information to the target vehicle.
  • An information providing device may be configured to determine a position of a first dynamic object and one or a plurality of second dynamic objects receiving information about the first dynamic object.
  • a selection unit that selects a hierarchy from analysis results in which the sensor information related to the first dynamic object is hierarchized into a plurality of hierarchies; and an output unit that outputs information of the hierarchy selected by the selection unit. , Is provided.
  • An information providing method analyzes a sensor information to detect a first dynamic object, and the sensor information on the first dynamic object is hierarchized into a plurality of hierarchies. Generating an analysis result; identifying a positional relationship between the first dynamic object and one or more second dynamic objects receiving information about the first dynamic object; A step of selecting a layer from the plurality of layers according to the positional relationship; and outputting information of the selected layer.
  • a computer program causes a computer to analyze sensor information and detect a first dynamic object, and the sensor information regarding the first dynamic object is hierarchized into a plurality of hierarchies.
  • An information providing system includes a receiving unit that receives sensor information, analyzes the sensor information received by the receiving unit, detects a first dynamic object, and detects the first dynamic object.
  • a server computer including an analysis unit configured to generate an analysis result in which the sensor information regarding the moving object is hierarchized into a plurality of hierarchies; and one or a plurality of second computers that are provided with information regarding the first dynamic object.
  • An information providing system includes a receiving unit that receives sensor information, analyzes the sensor information received by the receiving unit, detects a first dynamic object, and detects the first dynamic object.
  • a server computer that includes an analysis unit that generates an analysis result in which sensor information about a moving object is hierarchized into a plurality of hierarchies; and one or more second servers that receive information about the first dynamic object.
  • the server computer further includes a transmission unit that transmits the information of the plurality of layers to the second dynamic object, the server of the second dynamic object A communication device, a receiving unit that receives the information of the plurality of layers transmitted by the server computer, a specifying unit that specifies a positional relationship between the first dynamic object and the second dynamic object, According to the positional relationship Comprising a selection unit for selecting a hierarchy from said plurality of hierarchies, and an output unit for outputting information of the selected the hierarchy, the.
  • a data structure is a data structure that is hierarchized into a plurality of layers related to a dynamic object detected by analyzing sensor information, wherein the plurality of layers include the dynamic object.
  • a first layer including information on a current position of the dynamic object
  • a second layer including information on a current attribute of the dynamic object
  • a third layer including information on a current behavior pattern of the dynamic object
  • a fourth layer including information on at least one of a position, an attribute, and a behavior pattern of the dynamic object after a predetermined time.
  • the present disclosure is realized as an information providing apparatus including such a characteristic processing unit, an information providing method including the characteristic processing as a step, and a computer program for causing a computer to execute the characteristic processing. be able to. Further, the present invention can be realized as a semiconductor integrated circuit having a function of performing some or all of the steps, as a data structure used in a computer program, or as an information providing system including an information providing apparatus. it can.
  • FIG. 1 is a schematic diagram illustrating a configuration of an information providing system according to an embodiment of the present invention.
  • FIG. 2 is a plan view showing an intersection in the monitoring target area of the information providing system according to the embodiment of the present invention and the vicinity thereof.
  • FIG. 3 is a block diagram illustrating a configuration of the server.
  • FIG. 4 is a block diagram illustrating a configuration of the vehicle-mounted device.
  • FIG. 5 is a block diagram showing a configuration of the infrastructure sensor.
  • FIG. 6 is a block diagram illustrating functions of the server.
  • FIG. 7 is a schematic diagram illustrating a relationship between the type (hierarchy) of the driving support information and the delay time.
  • FIG. 1 is a schematic diagram illustrating a configuration of an information providing system according to an embodiment of the present invention.
  • FIG. 2 is a plan view showing an intersection in the monitoring target area of the information providing system according to the embodiment of the present invention and the vicinity thereof.
  • FIG. 3 is a block diagram illustrating a configuration of
  • FIG. 8 is a schematic diagram showing that different types of driving assistance information are provided according to the distance between the detected object and each of the on-vehicle devices.
  • FIG. 9 is a flowchart showing the processing of the server.
  • FIG. 10 is a schematic diagram illustrating a situation in which the type of driving support information provided to the in-vehicle device of one vehicle changes according to the distance to the detected object.
  • FIG. 11 is a plan view showing a situation for explaining a change in information presented by the in-vehicle device.
  • FIG. 12A is a diagram illustrating an example of information presented to the vehicle-mounted device.
  • FIG. 12B is a diagram illustrating an example of information presented to the in-vehicle device subsequent to FIG. 12A.
  • FIG. 13A is a diagram illustrating an example of information presented to the in-vehicle device subsequent to FIG. 12B.
  • FIG. 13B is a diagram illustrating an example of information presented to the in-vehicle device subsequent to FIG.
  • Various sensors are used as in-vehicle sensors and infrastructure sensors. Typical examples include a laser sensor (such as LiDAR), a millimeter-wave radar, and an image sensor (such as a camera).
  • the type of sensor information acquired by these sensors, the data format output from the sensors, and the amount of data output differ for each sensor. Therefore, the time required for these analysis processes also differs. That is, the time (delay time) from when the sensor information is acquired by the sensor to when the sensor information is received and analyzed by the analysis device (for example, a server) and the analysis result is transmitted and received by the in-vehicle device is calculated as follows: Depends on the type. Further, various forms of driving assistance information created by analyzing the sensor information can be considered. Therefore, it is preferable that the analysis result can be appropriately transmitted as the driving support information according to the sensor information and the type of analysis.
  • the driving support information is uniformly transmitted to the in-vehicle device of each vehicle, there is a problem that data communication traffic increases and congestion occurs. Further, there is a problem that an inefficient situation occurs in which information that cannot be used for driving assistance is received depending on the vehicle.
  • the driving support information in providing driving support information to an in-vehicle device or the like, the driving support information can be appropriately provided, and an increase in data communication traffic can be suppressed.
  • the information providing apparatus responds to a positional relationship between a first dynamic object and one or a plurality of second dynamic objects receiving information about the first dynamic object.
  • a selection unit that selects a hierarchy from analysis results in which the sensor information related to the first dynamic object is hierarchized into a plurality of hierarchies; and an output unit that outputs information of the hierarchy selected by the selection unit. , Is provided.
  • the driving support information can be provided appropriately.
  • the analysis result is obtained by analyzing the time from when the sensor information is transmitted from the sensor to when the sensor information is received by the analyzer, and when the received sensor information is analyzed by the analyzer. And may be hierarchized in ascending order of delay time including the delay time. Thereby, in providing the driving support information to the second dynamic object such as the vehicle-mounted device, it is possible to suppress an increase in data communication traffic.
  • the hierarchy may include at least one of position information, an attribute, an action, and an action prediction of the first dynamic object.
  • the selection unit selects at least two layers among the plurality of layers, and the output unit outputs the information of each selected layer at the same timing.
  • the output may be made for the second dynamic object.
  • the selection unit selects at least two layers from the plurality of layers, and the output unit outputs the information of each selected layer at mutually different timings. , May be output to the second dynamic object.
  • the information providing device may determine the positional relationship between the first dynamic object and the second dynamic object by using the direction, speed, acceleration, and progress of the second dynamic object.
  • the information processing apparatus may further include a determination unit that determines the information according to at least one of the above. Accordingly, in providing the driving support information to the second dynamic object such as the vehicle-mounted device, the second dynamic object providing the driving support information can be appropriately determined.
  • the positional relationship may be a distance between the first dynamic object and the second dynamic object. Accordingly, in providing the driving support information to the second dynamic object such as the vehicle-mounted device, the second dynamic object providing the driving support information can be easily determined.
  • the output unit may include, in the second dynamic object, the information of the hierarchy and update information indicating whether the information of the hierarchy has been updated. May be output. This facilitates the management of the driving support information for the second dynamic object.
  • the output unit may output the information of the same hierarchy to the second dynamic objects of the same group.
  • the sensor information is analyzed to detect a first dynamic object, and the sensor information on the first dynamic object is hierarchized into a plurality of hierarchies. Generating an analysis result; identifying a positional relationship between the first dynamic object and one or more second dynamic objects receiving information about the first dynamic object; A step of selecting a layer from the plurality of layers according to the positional relationship; and outputting information of the selected layer.
  • the driving support information can be provided appropriately.
  • the computer program according to the present embodiment has a computer analyze sensor information to detect a first dynamic object, and the sensor information relating to the first dynamic object is hierarchized into a plurality of hierarchies.
  • the information providing system detects the first dynamic object by analyzing the sensor information received by the receiving unit and the sensor information received by the receiving unit, and detects the first dynamic object.
  • a server computer including an analysis unit configured to generate an analysis result in which the sensor information regarding the moving object is hierarchized into a plurality of hierarchies; and one or a plurality of second computers that are provided with information regarding the first dynamic object.
  • the information providing system detects the first dynamic object by analyzing the sensor information received by the receiving unit and the sensor information received by the receiving unit, and detects the first dynamic object.
  • a server computer that includes an analysis unit that generates an analysis result in which sensor information about a moving object is hierarchized into a plurality of hierarchies; and one or more second servers that receive information about the first dynamic object.
  • the server computer further includes a transmission unit that transmits the information of the plurality of layers to the second dynamic object, the server of the second dynamic object A communication device, a receiving unit that receives the information of the plurality of layers transmitted by the server computer, a specifying unit that specifies a positional relationship between the first dynamic object and the second dynamic object, In the above positional relationship Flip comprising a selection unit for selecting a hierarchy from said plurality of tiers, and an output unit for outputting information of the selected the hierarchy, the.
  • the driving support information can be appropriately provided from the in-vehicle device or the like mounted on the second dynamic object.
  • the data structure according to the present embodiment is a data structure hierarchized into a plurality of layers related to a dynamic object detected by analyzing sensor information, and the plurality of layers are A first layer including information on a current position of the dynamic object, a second layer including information on a current attribute of the dynamic object, a third layer including information on a current behavior pattern of the dynamic object, A fourth layer including information on at least one of a position, an attribute, and a behavior pattern of the dynamic object after a predetermined time.
  • an information providing system 100 includes an infrastructure sensor 102 fixedly installed on a road and its surroundings (hereinafter, also referred to as on the road), a traffic signal 104 for road traffic, It includes a base station 106 for wireless communication, a server 110 for communicating with the base station 106 via a network 108, and a plurality of vehicles 112 and 114.
  • the vehicle 112 and the vehicle 114 are equipped with a vehicle-mounted device 140 and a vehicle-mounted device 154, respectively.
  • the pedestrian 200 is a detection target of the infrastructure sensor 102.
  • the base station 106 provides a mobile communication service using, for example, a 5G (fifth generation mobile communication system) line or the like.
  • the infrastructure sensor 102 is a device that is installed on a road and its periphery and has a function of acquiring information on the road and its periphery, and has a communication function with the base station 106.
  • the infrastructure sensor 102 is, for example, an image sensor (such as a digital surveillance camera), a radar (such as a millimeter-wave radar), or a laser sensor (such as LiDAR).
  • the server 110 receives and analyzes information (hereinafter, also referred to as sensor information) uploaded from the infrastructure sensor 102 via the base station 106, generates information for driving assistance, and sends the information to the vehicles 112 and 114. Send.
  • the server 110 also receives information indicating the state of the traffic light uploaded from the traffic light 104 via the base station 106 (for example, information indicating the color of the lighting or blinking state, hereinafter referred to as traffic information). It is used to generate information for driving assistance.
  • traffic information information indicating the state of the traffic light uploaded from the traffic light 104 via the base station 106
  • traffic information information indicating the color of the lighting or blinking state
  • a communication specification here, a 5G line
  • FIG. 1 exemplarily shows one base station 106, one infrastructure sensor 102, one traffic signal 104, and two vehicles 112 and 114 having different distances from the pedestrian 200.
  • a plurality of base stations are provided, and three or more vehicles are provided with a mobile communication function.
  • Two or more infra sensors may be installed in a predetermined area such as an intersection.
  • a plurality of traffic lights such as pedestrian traffic lights 202 and 204 (other pedestrian traffic lights are not shown), vehicle traffic lights 206 to 212, and a plurality of image sensors I, a plurality of laser sensors L, and one radar R are installed.
  • a plurality of traffic lights such as pedestrian traffic lights 202 and 204 (other pedestrian traffic lights are not shown)
  • vehicle traffic lights 206 to 212 at the intersection, a plurality of image sensors I, a plurality of laser sensors L, and one radar R are installed.
  • FIG. 1 exemplarily shows one base station 106, one infrastructure sensor 102, one traffic signal 104, and two vehicles 112 and
  • the pedestrian signal 202, the pedestrian signal 204, the vehicle signals 206 and 210 are red signals
  • the vehicle signals 208 and 212 are blue signals
  • the pedestrian 200 stops and the vehicles 112, 114 , 116 and 118 are running.
  • a plurality of in-vehicle sensors are also mounted on the vehicles 112 and 114, respectively, and the in-vehicle devices 140 and 154 transmit information of the in-vehicle sensors to the server 110 via the base station 106.
  • the server 110 communicates with these infrastructure sensors, the vehicle-mounted device and the traffic light, collects and analyzes information, and provides driving support information to the vehicle-mounted device.
  • server 110 includes a control unit 120 for controlling each unit, a memory 122 for storing data, a communication unit 124 for performing communication, and a bus 126 for exchanging data between the units.
  • the control unit 120 is configured to include a CPU (Central Processing Unit), and realizes a function described later by controlling each unit.
  • the memory 122 includes a rewritable semiconductor nonvolatile memory and a large-capacity storage device such as a hard disk drive (hereinafter referred to as an HDD).
  • the communication unit 124 transmits the sensor information uploaded from the infrastructure sensor 102 arranged on the road, the sensor information uploaded from the vehicle-mounted devices 140 and 154 of the vehicles 112 and 114, and the traffic information uploaded from the traffic light 104 to the base station. Receive via station 106. The data received by the communication unit 124 is transmitted to the memory 122 and stored. Thereby, the server 110 functions as an information providing device as described later.
  • the vehicle-mounted device 154 of the vehicle 114 has the same configuration as the vehicle-mounted device 140.
  • the in-vehicle device 140 includes an interface unit (hereinafter, referred to as an I / F unit) 144 connected to one or a plurality of sensors 142 mounted on the vehicle 112, a communication unit 146 for performing wireless communication, a memory 148 for storing data, It includes a control unit 150 that controls them, and a bus 152 for exchanging data between the units.
  • the sensor 142 is a known video image pickup device (for example, a digital camera (CCD camera, CMOS camera)) mounted on the vehicle 112, a laser sensor (LiDAR), or the like. If the sensor 142 is a digital camera, it outputs a predetermined video signal (analog signal or digital data). A signal from the sensor 142 is input to the I / F unit 144.
  • the I / F unit 144 includes an A / D conversion unit. When an analog signal is input, the I / F unit 144 performs sampling at a predetermined frequency to generate and output digital data (sensor information). The generated digital data is transmitted to the memory 148 and stored. If the output signal from the sensor 142 is digital data, the I / F unit 144 stores the input digital data in the memory 148.
  • the memory 148 is, for example, a rewritable nonvolatile semiconductor memory or HDD.
  • the communication unit 146 has a mobile communication function such as a 5G line and communicates with the server 110. Communication between the in-vehicle device 140 and the server 110 is performed via the base station 106.
  • the communication unit 146 includes an IC for performing modulation and multiplexing adopted in a 5G line or the like, an antenna for emitting and receiving radio waves of a predetermined frequency, an RF circuit, and the like.
  • the control unit 150 includes a CPU, and realizes the function of the vehicle-mounted device 140 by controlling each unit. For example, the control unit 150 transmits the sensor information acquired from the sensor 142 to the server 110. At this time, the control unit 150 adds information specifying the in-vehicle device 140, information on the current position and orientation of the vehicle 112, and information on the sensor 142 to the sensor information and transmits the information.
  • the information for specifying the in-vehicle device 140 is, for example, an ID uniquely assigned to each in-vehicle device in advance.
  • Control unit 150 acquires the current position of vehicle 112 by GPS. The transmitted sensor information is used by the server 110 to generate driving support information.
  • Information on the current position and orientation of the vehicle 112 and information on the sensor 142 are used to specify correspondence between sensor information (for example, an image obtained by the sensor) and a position on a map.
  • the control unit 150 receives driving assistance information from the server 110 and performs processing such as controlling the traveling of the vehicle 112 and providing information for assisting the driver.
  • the control unit 150 analyzes the data acquired by the sensor 142, detects an object around the vehicle 112, and uses the detected object for driving assistance.
  • the control unit 150 transmits the current position of the vehicle 112 to the server 110 as information on the vehicle 112 (hereinafter, also referred to as vehicle information) as appropriate or in response to a request from the server 110. I do.
  • the server 110 broadcasts, for example, a request for transmitting position information.
  • the infrastructure sensor 102 is basically configured in the same manner as the in-vehicle device 140. Referring to FIG. 5, an example of a hardware configuration of the infrastructure sensor 102 is shown.
  • the infrastructure sensor 102 includes an I / F unit 162 connected to the sensor unit 160, a communication unit 164 that performs wireless communication, a memory 166 that stores data, a control unit 168 that controls them, and exchanges data among the units. And a bus 170.
  • the sensor unit 160 is, for example, a known video image capturing device (for example, a digital camera).
  • the sensor unit 160 acquires surrounding information and outputs it as sensor information. If it is a digital camera, it outputs digital image data.
  • a signal (analog or digital) from the sensor unit 160 is input to the I / F unit 162.
  • the I / F unit 162 includes an A / D conversion unit, and generates and outputs digital data (sensor information) when an analog signal is input.
  • the generated digital data is transmitted to the memory 166 and stored. If the output signal from the sensor unit 160 is digital data, the I / F unit 162 stores the input digital data in the memory 166.
  • the memory 166 is, for example, a rewritable nonvolatile semiconductor memory or HDD.
  • the communication unit 164 has a mobile communication function and communicates with the server 110 via the base station 106. Since the infrastructure sensor 102 is fixedly installed, there is no need to support a plurality of mobile communication systems, as long as the infrastructure sensor 102 supports a mobile communication system (for example, a 5G line) provided by a nearby base station 106. Good.
  • the communication unit 164 includes an IC for performing modulation and multiplexing, an antenna for emitting and receiving radio waves of a predetermined frequency, an RF circuit, and the like.
  • the communication function of the fixedly installed infrastructure sensor 102 is not limited to the case where the communication is performed via the base station 106, and is arbitrary. A communication function by a wired LAN or a wireless LAN such as WiFi may be used. In the case of WiFi communication, a device (a wireless router or the like) that provides a WiFi service is provided separately from the mobile communication base station 106, and the infrastructure sensor 102 communicates with the server 110 via the network 108.
  • the control unit 168 includes a CPU, and realizes the function of the infrastructure sensor 102 by controlling each unit. That is, the control unit 168 reads out the sensor information (for example, moving image data) acquired by the sensor unit 160 and stored in the memory 166 at predetermined time intervals, generates packet data, and transmits the base station 106 from the communication unit 164 to the base station 106. Via the server 110. At this time, the control unit 168 adds information for specifying an area where the sensor information is acquired by the sensor unit 160 (for example, an imaging area of a camera) to the sensor information and transmits the information.
  • the sensor information for example, moving image data
  • the control unit 168 adds information for specifying an area where the sensor information is acquired by the sensor unit 160 (for example, an imaging area of a camera) to the sensor information and transmits the information.
  • the server 110 associates information specifying the infrastructure sensor 102 (for example, an ID uniquely assigned to each infrastructure sensor in advance) with information on an area where the infrastructure unit 102 acquires sensor information from the sensor unit 160 (for example, if information indicating the correspondence between an image captured by a camera and map information) is stored, the infrastructure sensor 102 may add its own ID to the sensor information and transmit it.
  • information specifying the infrastructure sensor 102 for example, an ID uniquely assigned to each infrastructure sensor in advance
  • information on an area where the infrastructure unit 102 acquires sensor information from the sensor unit 160 For example, if information indicating the correspondence between an image captured by a camera and map information) is stored, the infrastructure sensor 102 may add its own ID to the sensor information and transmit it.
  • the traffic light 104 is a known traffic light for traffic. In the case of a traffic light for a vehicle, three-color indicator lights of blue, yellow, and red, a control unit that controls lighting and blinking thereof, and traffic information that is information indicating the state of the indicator lights are transmitted to the server 110. Communication unit. It should be noted that a pedestrian traffic light is configured similarly to a vehicle traffic light, except that the indicator lights are two colors of blue and red.
  • the communication unit of the traffic signal 104 has a mobile communication function like the communication unit 164 of the infrastructure sensor 102, and communicates with the server 110 via the base station 106. The communication function of the fixedly installed traffic signal 104 is arbitrary.
  • the control unit of the traffic light 104 includes a CPU, and in addition to controlling the lighting and blinking of the indicator light, every time the state of the indicator light is changed, the traffic information indicating the current state of the traffic light is displayed. Is transmitted to the server 110 via the base station 106. At this time, the traffic light 104 adds information identifying itself (for example, an ID uniquely assigned to each traffic light, position coordinates, and the like) to traffic information and transmits the traffic information.
  • information identifying itself for example, an ID uniquely assigned to each traffic light, position coordinates, and the like
  • the server 110 receives a packet receiving unit 180 for receiving packet data, a packet transmitting unit 182 for transmitting packet data, and a data separating unit 184 for outputting received data to an output destination according to the type of received data.
  • An analysis processing unit 186 that executes a predetermined analysis process using data and a vehicle identification unit 188 that identifies a vehicle are included.
  • the functions of the packet reception unit 180, the packet transmission unit 182, the data separation unit 184, the analysis processing unit 186, and the vehicle identification unit 188 are realized by the control unit 120 in FIG. Note that the functions of the data separation unit 184, the analysis processing unit 186, and the vehicle identification unit 188 may be realized by dedicated hardware (a circuit board, an ASIC, or the like).
  • the packet receiving unit 180 receives packet data from the infrastructure sensor 102, the traffic light 104, the in-vehicle device 140, and the in-vehicle device 154, and outputs the received data to the data separation unit 184.
  • the data separation unit 184 inputs the data to the analysis processing unit 186. If the received data is data (traffic information) from the traffic light 104, the data separation unit 184 inputs the data to the analysis processing unit 186. When the received data is data from the in-vehicle device 140 or the in-vehicle device 154, the data separation unit 184 inputs the data to the analysis processing unit 186 if the information is sensor information, and inputs the data to the vehicle identification unit 188 if the information is vehicle information.
  • the analysis processing unit 186 performs an analysis process using the input data, detects a pedestrian and a vehicle, and calculates attribute information and the like regarding the pedestrian and the vehicle.
  • “Pedestrian” means a person moving at an arbitrary speed (including “0”), and includes not only a walking person but also a stopped person and a running person.
  • FIG. 1 shows one pedestrian 200. However, if a plurality of people are included in the uploaded moving image data, each person is detected.
  • the analysis processing unit 186 includes a position specifying unit 190, an attribute specifying unit 192, a behavior specifying unit 194, and a behavior prediction unit 196.
  • the position specifying unit 190 receives data (sensor information) received from sensors such as LiDAR and millimeter-wave radar (hereinafter collectively referred to as radar sensors), detects a pedestrian and a vehicle, and determines “position” for each detected object. Information ". As described above, regardless of whether the sensor information is transmitted from the infrastructure sensor or the in-vehicle device, the sensor information includes information for specifying the area where the sensor information is obtained. The position and size of the detected object can be specified by referring to the map information.
  • the position information includes, for example, a two-dimensional position (latitude and longitude), an altitude (height from a reference plane), a moving speed, a moving direction, a simple classification (pedestrian or vehicle), and the like.
  • the same object may be detected if they include sensor information in the same area. In that case, it is preferable to specify the same detection object and integrate the position information specified from the sensor information of each radar sensor.
  • the attribute specifying unit 192 receives the data (sensor information) received from the image sensor (camera or the like) and the position information specified by the position specifying unit 190, detects a pedestrian and a vehicle, and detects each of the detected objects. Specify "Attribute".
  • the sensor information from the image sensor may be at least one image (still image) and is not limited to moving image data.
  • the attribute is, for example, a detailed classification.
  • the detected object is a person
  • the type for example, child, adult, old man
  • its state for example, a state in which the user is looking at a smartphone, tablet, or book while walking (for example, Hereinafter, this is also referred to as a walking smartphone)
  • details of the moving direction for example, face direction, body direction, etc.
  • the attributes include a vehicle type (for example, a general vehicle, a large vehicle, an emergency vehicle, and the like) and a traveling state (for example, stop, normal traveling, meandering, and the like).
  • a vehicle type for example, a general vehicle, a large vehicle, an emergency vehicle, and the like
  • a traveling state for example, stop, normal traveling, meandering, and the like.
  • it can be determined whether the vehicle is running normally or meandering by determining the positional relationship between the vehicle and the white line on the road.
  • the position information specified by the position specifying unit 190 is input to the attribute specifying unit 192, whether the detected object detected by the attribute specifying unit 192 and the detected object detected by the position specifying unit 190 are the same detected object. It is determined whether or not the position information and the attribute are associated with the same detected object. Also, when analyzing sensor information from a plurality of image sensors, if they include sensor information in the same area, the same target may be detected. In that case, it is preferable to specify the same detected object and integrate the attributes specified from the sensor information of each image sensor.
  • the behavior specifying unit 194 includes data (sensor information) received from the radar sensor and the image sensor, data (traffic information) received from the traffic signal, and information (position information and position information) specified by the position specifying unit 190 and the attribute specifying unit 192. Attribute) is input, and the “behavior pattern” of the detected object is specified.
  • the action specifying unit 194 uses map information as needed.
  • the map information may be stored in the memory 122 in advance. For example, if the detected object is a pedestrian, the behavior pattern is normal walking or dangerous behavior (for example, ignoring a signal). If the detected object is a vehicle, the behavior pattern is normal driving or dangerous driving (for example, speeding, drunk driving) or the like.
  • the behavior specifying unit 194 determines a behavior pattern using a plurality of pieces of position information, attributes, and traffic information at different times.
  • the behavior specifying unit 194 can determine a behavior pattern from, for example, a two-dimensional position, a moving speed, a moving direction, and a time change of a lighting state of a traffic light.
  • the behavior predicting unit 196 is specified by the data (sensor information) received from the radar sensor and the image sensor, the data (traffic information) received from the traffic light, and the position specifying unit 190, the attribute specifying unit 192, and the behavior specifying unit 194. Information (position information, attributes, and behavior patterns) is input, and “behavior prediction” of a detected object in the near future is specified.
  • the behavior prediction unit 196 uses map information as needed.
  • the behavior prediction is, for example, position information, an attribute, and a behavior pattern of the detected object after N seconds (N> 0).
  • the behavior prediction unit 196 determines behavior prediction using a plurality of pieces of position information, attributes, behavior patterns, and traffic information at different times.
  • the behavior predicting unit 196 calculates the two-dimensional position, the traveling speed, the traveling direction, and the behavior pattern of the detected object after N seconds from the two-dimensional position, the traveling speed, the traveling direction, the behavior pattern, and the temporal change in the lighting state of the traffic light. Can be predicted.
  • the analysis processing unit 186 executes a plurality of types of analysis processing in a form in which the result of one type of analysis processing is used in the subsequent analysis processing, and is finally hierarchized in the order of the analysis processing. Generate analysis results. That is, the analysis result by the analysis processing unit 186 includes the position information, the attribute, the heartbeat pattern, and the behavior prediction hierarchy.
  • the analysis processing unit 186 transmits the information (position information, attribute, action pattern, and action prediction) regarding each detected object specified as described above to the in-vehicle device as driving assistance information. To enter.
  • the driving support information may include the position information, the attribute, the behavior pattern, and the behavior prediction described above. However, since the respective delay times are different, the information to be transmitted in consideration of the delay time and the transmission destination of the information are described. It is preferable to determine the vehicle (vehicle-mounted device).
  • the system delay time (hereinafter simply referred to as delay time) SL (System @ Latency) increases in the order of position information, attribute, action pattern, and action prediction.
  • the delay time SL is a data collection time DCT (Data Collection Time) from when sensor information is collected by the sensor to when it is received by the server 110 via the communication line.
  • DCT Data Collection Time
  • FIG. 7 schematically shows delay times T1 to T4 of position information, attributes, action patterns, and action predictions, and DCTs, ATs, and DTs that constitute each delay time.
  • the position information is specified using data (sensor information) received from the radar sensor, and the data amount of the sensor information is smaller than the sensor information of the image sensor, so the delay time T1 shown in FIG. Target small.
  • the delay time T1 of LiDAR is several tens of milliseconds to several hundreds of milliseconds.
  • the attribute is specified using data (sensor information) received from the image sensor, and the data amount of the sensor information of the image sensor is larger than the sensor information of the radar sensor. Therefore, the delay time T2 shown in FIG. Relatively large.
  • the delay time T2 of the digital camera depends on data compression / non-compression, but is several hundred milliseconds to about 1 second.
  • the behavior pattern is specified using the data (sensor information) received from the radar sensor and the image sensor, and the position information and the attribute.
  • the data amount of the sensor information of the image sensor is relatively large, and the time required for specifying the behavior pattern (analysis time AT) is relatively long. Therefore, the delay time T3 of the behavior pattern shown in FIG. It is larger than the delay time T2 of the attribute and smaller than the delay time T4 of the behavior prediction described later.
  • the behavior prediction is specified using data (sensor information) received from the radar sensor and the image sensor, as well as position information, attributes, and behavior patterns.
  • data sensor information
  • the image sensor since the data amount of the sensor information of the image sensor is relatively large, and the time required for specifying the behavior prediction (analysis time AT) is relatively long, the behavior prediction delay time T4 shown in FIG. It is longer than the delay time T3 of the action pattern. For example, the delay time T4 of the behavior prediction is several seconds.
  • the vehicle specifying unit 188 uses the driving support information input from the analysis processing unit 186 and the vehicle information input from the data separating unit 184 to specify a vehicle to which the driving support information is to be transmitted, and specifies the vehicle.
  • the driving support information is transmitted to the vehicle (vehicle-mounted device).
  • Vehicle identification unit 188 is an example of a selection unit. That is, the vehicle specifying unit 188 calculates the driving support information from the analysis result according to the positional relationship between the detected object (the first dynamic object) and the vehicle (the second dynamic object) to which the driving support information is to be transmitted. Select the hierarchy to be included in.
  • the transmission of the driving assistance information is performed by the packet transmission unit 182, and packet data including the driving assistance information is transmitted.
  • the packet transmitting unit 182 is an example of an output unit.
  • the vehicle specifying unit 188 stores the input vehicle information (ID, position coordinates, and the like) in the memory 122 together with the time information. At this time, by referring to the vehicle ID, if there is information of the same ID stored in the memory 122 in the past, the information is stored in the memory 122 in association with the information.
  • the vehicle specifying unit 188 calculates the distance between the two using the position coordinates of the detected object included in the driving support information and the position coordinates of each vehicle, and transmits the distance in accordance with the calculated distance and the traveling direction.
  • the type of the driving support information that is, the hierarchy is selected, and the vehicle to which the driving support information is transmitted is specified.
  • FIG. 8 shows four vehicles at a certain time and a pedestrian 200 (detected object) detected by the sensor 198 (including an infrastructure sensor and an on-vehicle sensor).
  • the vehicle specifying unit 188 specifies the in-vehicle device of the vehicle (for example, the vehicle 220) running in the direction of the detected object when the distance X from the detected object is equal to or less than X1 (0 ⁇ X ⁇ X1).
  • Location information is specified as driving assistance information to be transmitted to the in-vehicle device.
  • the vehicle specifying unit 188 specifies the in-vehicle device of the vehicle (for example, the vehicle 222) traveling in the direction of the detected object when the distance X from the detected object is X1 ⁇ X ⁇ X2, and Position information and attributes are specified as driving assistance information to be transmitted.
  • the vehicle specifying unit 188 specifies the in-vehicle device of the vehicle (for example, the vehicle 224) traveling in the direction of the detected object when the distance X from the detected object is X2 ⁇ X ⁇ X3, and
  • the position information, the attribute, and the behavior pattern are specified as the driving assistance information to be transmitted.
  • the vehicle specifying unit 188 specifies the in-vehicle device of the vehicle (for example, the vehicle 226) traveling in the direction of the detected object when the distance X from the detected object is X3 ⁇ X ⁇ X4, and The position information, the attribute, the behavior pattern, and the behavior prediction are specified as the driving assistance information to be transmitted. Whether or not the vehicle is traveling in the direction of the detected object is determined, for example, in a region in front of the vehicle on the map, within a predetermined central angle (for example, 180 degrees) with the traveling direction of the vehicle as the central axis. May be determined based on whether or not a search object is included in the area.
  • a predetermined central angle for example, 180 degrees
  • the relationship (rule) between the positional relationship (distance and direction) between the detected object and the vehicle and the selected hierarchy may be determined in advance.
  • the vehicle specifying unit 188 selects a hierarchy according to the positional relationship between the detected object and the vehicle according to the rules.
  • the delay time of the driving support information increases in the order of the position information, the attribute, the behavior pattern, and the behavior prediction.
  • information having a long delay time cannot be used for driving assistance and is unnecessary.
  • information having a long delay time can be used for driving assistance. Therefore, as described above with reference to FIG. 8, by changing the type of the driving support information according to the distance from the detected object, it is possible to suppress transmission of useless data, and to be effective for each vehicle.
  • Driving support information can be transmitted.
  • the vehicle identification unit 188 (selection unit) of the server 110 selects a predetermined hierarchy (type of driving information) according to the positional relationship between the vehicle and the detected object, and the packet transmission unit 182 (output unit) of the server 110 Outputs information of the selected hierarchy.
  • FIG. 9 the processing by the server 110 will be described more specifically.
  • the process illustrated in FIG. 9 is realized by control unit 120 reading a predetermined program from memory 122 and executing the program.
  • map information of an information providing area of the server 110 including a range in which sensor information is collected by each infrastructure sensor is stored in advance.
  • the memory 122 stores information (for example, ID) and position coordinates for specifying each infrastructure sensor and traffic signal.
  • the infrastructure sensor and the traffic light add their own ID to the packet data to be transmitted to the server 110 and transmit the packet data.
  • the memory 122 also stores information on an area from which sensor information is acquired for each infrastructure sensor.
  • Step 300 the control unit 120 determines whether or not data has been received. If it is determined that the data has been received, the control unit 120 stores the received data in the memory 122, and the control proceeds to step 302. Otherwise, step 300 is repeated.
  • step 302 the control unit 120 determines whether or not the data received in step 300 includes sensor information.
  • the sensor information is transmitted from the infrastructure sensor 102, the vehicle-mounted device 140, and the vehicle-mounted device 154. If it is determined that sensor information is included, the control proceeds to step 306. Otherwise, control transfers to 304.
  • step 304 the control unit 120 determines whether or not the data received in step 300 includes traffic information (signal information) transmitted from the traffic signal 104. If it is determined that traffic information is included, control proceeds to step 306. Otherwise, control proceeds to step 308.
  • the traffic information includes, for example, data indicating the color (blue, yellow, or red) that is emitting light and the state (lighting or blinking).
  • step 306 the control unit 120 inputs the data received in step 300 to the analysis processing unit 186. Thereafter, control proceeds to step 312. Specifically, if the data received in step 300 includes the sensor information obtained by the radar sensor, the control unit 120 transmits the sensor information to the position specifying unit 190 and the action specifying unit 194 as described above. And the behavior prediction unit 196. If the data received in step 300 includes the sensor information acquired by the image sensor, the control unit 120 transmits the sensor information to the attribute specifying unit 192, the behavior specifying unit 194, and the behavior prediction unit 196 as described above. To enter. If the data received in step 300 includes traffic information, the control unit 120 inputs the traffic information to the behavior specifying unit 194 and the behavior prediction unit 196 as described above.
  • step 308 the control unit 120 determines whether or not the data received in step 300 includes vehicle information (such as position information) about the vehicle transmitted from the vehicle. If it is determined that the vehicle information is included, the control proceeds to step 310. Otherwise, control proceeds to step 312.
  • vehicle information such as position information
  • step 310 the control unit 120 inputs the data (vehicle information) received in step 300 to the vehicle identification unit 188 in association with time information (for example, data reception time).
  • step 312 the control unit 120 executes an analysis process and stores the analysis result in the memory 122. Specifically, as described above for the position specifying section 190, the attribute specifying section 192, the action specifying section 194, and the action predicting section 196, a person or a vehicle is detected, and the position information, attribute, action pattern, and action of each detected object are detected. The prediction is specified and stored in the memory 122.
  • step 314 the control unit 120 specifies the in-vehicle device transmitting the driving support information and the type of the driving support information transmitted to the in-vehicle device. Specifically, as described above with reference to FIG. 8 regarding the vehicle specifying unit 188, the distance between the detected object included in the driving support information and each vehicle is calculated, and the driving support information is calculated according to the calculated distance. And the type of driving support information to be transmitted are specified.
  • step 316 the control unit 120 reads out the specified type of driving support information from the memory 122 and transmits it to the in-vehicle device specified in step 314.
  • the delay time increases in the order of the position information, the attribute, the behavior pattern, and the behavior prediction. This is because the frequency at which the server 110 receives sensor information depends on the type of sensor (radar sensor or image sensor), and the analysis processing time depends on the type of analysis (position information, attribute, behavior pattern or behavior prediction). Is one of the causes. That is, the analysis result of the analysis processing unit 186 has a lower update frequency in the order of the position identification unit 190, the attribute identification unit 192, the behavior identification unit 194, and the behavior prediction unit 196.
  • the control unit 120 can transmit only the updated information (one of the position information, the attribute, the behavior pattern, and the behavior prediction).
  • the hierarchically layered driving support information is transmitted at different timings, and the data of each layer is transmitted in ascending order of delay time.
  • data of each layer is transmitted as a plurality of packet data, and each packet data is transmitted at a different time.
  • a plurality of packet data for transmitting data of one layer is transmitted at the same timing. Suppose that. That is, the timing does not correspond to the transmission time of each packet data, but represents the transmission time of each packet data when each layer of data is transmitted (representative time), or before and after the representative time. It represents a relationship.
  • step 318 the control unit 120 determines whether an end instruction has been received. If it is determined that the termination instruction has been received, the program ends. Otherwise, control returns to step 300.
  • the termination instruction is issued, for example, by operating the server 110 by an administrator or the like.
  • the server 110 specifies (selects) the hierarchy (type) to be transmitted from the hierarchized driving support information according to the distance between the detected object and the vehicle, and uses the hierarchy for each vehicle. Possible driving assistance information can be transmitted. Therefore, transmission of useless data can be suppressed, and an increase in communication traffic can be suppressed.
  • vehicles 226A to 226D indicate vehicles 226 corresponding to the lapse of time from the time in FIG.
  • pedestrians 200A to 200D indicate pedestrians 200 according to the lapse of time from the time in FIG.
  • the pedestrians 200A to 200D show the state of the walking smartphone. Vehicles and persons with the same alphabet are shown at the same time.
  • the in-vehicle device of the vehicle 226A in a state where the distance X between the two is traveling at a position where X4 ⁇ X> X3 receives the position information, the attribute, the behavior pattern, and the behavior prediction from the server 110 as driving support information, Store in memory.
  • the in-vehicle device of the vehicle 226B that has traveled at a position where the distance X between them is X3 ⁇ X> X2 receives the position information, the attribute, and the behavior pattern as driving assistance information from the server 110 and stores the information in the memory. I do.
  • the vehicle 226B does not receive the behavior prediction, but retains the behavior prediction received in the past and stored in the memory (for example, the last received behavior prediction).
  • a solid arrow pointing right means that the corresponding information is transmitted and updated from the server 110 during that time
  • a broken arrow right arrow means that the corresponding information is not transmitted from the server 110 during that time
  • Information indicated by a broken line means information that is stored in the past and is not updated.
  • the in-vehicle device of the vehicle 226C that has traveled at a position where the distance X between them is X2 ⁇ X> X1 receives the position information and the attribute from the server 110 as driving support information, and stores the information in the memory.
  • the vehicle 226C does not receive the behavior pattern and the behavior prediction, but stores the behavior pattern and the behavior prediction received in the past.
  • the in-vehicle device of the vehicle 226 ⁇ / b> D that has traveled at a position where the distance X between them is X1 ⁇ X> 0 receives the position information from the server 110 as driving support information and stores it in the memory.
  • the vehicle 226D does not receive the attribute, the behavior pattern, and the behavior prediction, but stores the attribute, the behavior pattern, and the behavior prediction received in the past.
  • FIG. 11 two-dimensionally shows the vehicles 226A to 226D and the pedestrians 200A to 200D shown in FIG.
  • a plurality of traffic lights and infrastructure sensors are set as shown in FIG.
  • FIG. 11 shows a state in which the pedestrian signal 202 is a red signal and the vehicle signal 208 is a blue signal, as in FIG.
  • four dashed lines are arcs with radii X4 to X1 around the pedestrians 200A to 200D, respectively.
  • the pedestrian 200 (pedestrians 200A to 200D) crosses the pedestrian crossing in a state where the pedestrian traffic light 202 is in the state of the red light and the state of the walking smartphone, ignoring the traffic light.
  • pedestrian 200B represents a pedestrian N seconds after pedestrian 200A
  • pedestrian 200D represents a pedestrian N seconds after pedestrian 200B.
  • the vehicle-mounted devices of the vehicles 226A to 226D provide the driver with information, for example, as shown in FIGS. 12A, 12B, 13A, and 13B.
  • the in-vehicle device of the vehicle 226A in a state where the distance X to the detected object (the pedestrian 200A) is traveling at the position where X4 ⁇ X> X3 is used as the driving assistance information. Receive information, attributes, behavior patterns and behavior predictions. Therefore, the in-vehicle device can identify the occurrence of a dangerous state with the possibility of an accident (the presence of a pedestrian who has started ignoring the signal at the intersection in the traveling direction of the vehicle) from the received driving support information. it can. Accordingly, the in-vehicle device displays, for example, a map near the intersection and a warning message 230 on a part of the display screen of the car navigation system as shown in FIG.
  • a figure 240A indicating the current pedestrian (pedestrian 200A) is displayed. Further, the in-vehicle device displays a predicted figure 242 indicating a future pedestrian at a position on the map corresponding to the two-dimensional position of the detected object after N seconds included in the received behavior prediction.
  • the graphic displayed at the position specified from the position information is displayed by a solid line, and the graphic displayed at the position specified by the behavior prediction is displayed by a broken line (FIGS. 12B, 13A, and FIG. 13B).
  • the in-vehicle device of the vehicle 226B that travels at a position where the distance X to the detected object (pedestrian 200B) satisfies X3 ⁇ X> X2 receives the position information, the attribute, and the behavior pattern as driving support information. .
  • the in-vehicle device of the vehicle 226B holds the behavior prediction received in the past and stored in the memory (for example, the behavior prediction last received). Therefore, the in-vehicle device can specify that the dangerous state still exists from the received driving support information. Accordingly, as shown in FIG.
  • the in-vehicle device maintains the display of the warning message 230 on the displayed map, and moves to the position on the map corresponding to the two-dimensional position included in the received position information.
  • a figure 240B indicating the current pedestrian (pedestrian 200B) is displayed.
  • the in-vehicle device displays a predicted figure 244 indicating a future pedestrian at a position on the map corresponding to the two-dimensional position of the detected object included in the past behavior prediction stored in the memory.
  • the in-vehicle device of the vehicle 226C that travels at a position where the distance X to the detected object (the pedestrian 200C) satisfies X2 ⁇ X> X1 receives the position information and the attribute as driving support information.
  • the in-vehicle device of the vehicle 226C holds the behavior pattern and the behavior prediction received in the past and stored in the memory. Therefore, the in-vehicle device can specify that the dangerous state still exists from the received driving support information. Accordingly, the in-vehicle device maintains the display of the warning message 230 on the displayed map, as shown in FIG.
  • a figure 240C indicating the current pedestrian (pedestrian 200C) is displayed.
  • the in-vehicle device maintains the prediction graphic 244 displayed at a position on the map corresponding to the two-dimensional position of the detected object included in the past behavior prediction stored in the memory.
  • the driver of the vehicle can know that there is a pedestrian crossing the pedestrian crossing at the intersection in front of the vehicle, ignoring the traffic light, and still needs to drive carefully. It turns out that there is.
  • the in-vehicle device of the vehicle 226D that has traveled at a position where the distance X to the detected object (the pedestrian 200D) satisfies X1 ⁇ X> 0 receives the position information as the driving support information.
  • the in-vehicle device of the vehicle 226D retains the attributes, behavior patterns, and behavior predictions received and stored in the memory in the past. Therefore, the in-vehicle device can specify from the received driving support information that the pedestrian (detected object) that has ignored the signal is located on the sidewalk. Accordingly, as shown in FIG.
  • the in-vehicle device deletes the display of the warning message 230 from the displayed map, and places the two-dimensional position included in the received position information on the displayed map. At the corresponding position, a figure 240D indicating the current pedestrian (pedestrian 200D) is displayed.
  • the in-vehicle device receives the hierarchical driving assistance information transmitted according to the distance from the detected object from the server 110, thereby causing a dangerous condition for the driver of the vehicle. Can be presented and warned. Since the type (hierarchy) of the received driving support information changes according to the distance from the detected object, the in-vehicle device can appropriately perform driving support without receiving useless information for the own vehicle.
  • a moving object that may be damaged by collision of the vehicle can be a detection target, and may be a person riding a bicycle, an animal, or the like.
  • the analysis result is transmitted to the in-vehicle device of the vehicle as the hierarchized driving support information has been described, but the present invention is not limited to this. It may be transmitted to a terminal device carried by a person (smartphone, mobile phone, tablet, etc.).
  • the type of information (position information, attribute, action pattern, and action prediction) of the detected vehicle may be selected and transmitted according to the positional relationship between the terminal device and the detected vehicle. Thereby, for example, it is possible to warn a person that a dangerous driving vehicle is approaching by voice or warning sound.
  • the server 110 may target only the sensor information from the infrastructure sensor for the analysis process.
  • the server 110 does not need to receive the sensor information from the in-vehicle sensor, or even if it has received the sensor information, does not need to use the sensor information to generate the hierarchically-supported driving support information.
  • the server 110 may acquire the traffic information via a network 108 from, for example, a device (computer or the like) of a traffic control center that manages and controls a traffic light.
  • the traffic signal 104 may transmit the current traffic information to the traffic control center via a dedicated line, for example.
  • the control unit 120 transmits only the updated information, but the present invention is not limited to this.
  • the information that has not been updated may be transmitted together with the updated information at the same timing.
  • the in-vehicle device can receive the hierarchical information at one time, for example, as described above, the information is presented to the driver using appropriate information according to the positional relationship between the own vehicle and the detected object. Support information to be generated. Further, the in-vehicle device can generate the support information to be presented to the driver using only the updated information without using the non-updated information.
  • update information (for example, a 1-bit flag) specifying whether or not each piece of information has been updated may be transmitted.
  • the in-vehicle device can determine whether or not the received information has been updated based on the update information without performing a process such as calculating a difference between the received information and the information received and stored immediately before.
  • the in-vehicle device can hold only the latest information with respect to the information that has not been updated, and can discard other information. In such a case, the update information makes it easy to determine whether to discard the information. Can be performed.
  • the attribute specifying unit 192 uses the position information that is the analysis result of the position specifying unit 190
  • the action specifying unit 194 uses the position information and the attribute that are the analysis results of the position specifying unit 190 and the attribute specifying unit 192.
  • the action prediction unit 196 uses the position information, the attribute, and the action that are the analysis results of the position specifying unit 190, the attribute specifying unit 192, and the action specifying unit 194, the present invention is not limited to this.
  • Some or all of the position specifying unit 190, the attribute specifying unit 192, the behavior specifying unit 194, and the behavior prediction unit 196 may individually analyze the input sensor information. When individually analyzed, the process of integrating the same detected object may be performed, for example, last.
  • the information hierarchically divided into four pieces of the position information, the attribute, the action and the action prediction is shown as the driving support information, but the present invention is not limited to this.
  • Driving support information that is hierarchized according to the delay time of the sensor information received by the in-vehicle device may be used.
  • the driving support information may include at least one of the position information, the attribute, the behavior, and the behavior prediction.
  • the number of layers may be three or less, or five or more.
  • the distribution time DT does not have a great difference due to the position information, the attribute, the behavior, and the behavior prediction. Further, the distribution time DT tends to be smaller than both the data collection time DCT and the analysis time AT. Therefore, the distribution time DT does not have to be included in the delay time SL.
  • the hierarchy to be transmitted may be determined according to the positional relationship between the detected object and each vehicle. That is, the server 110 includes a determination unit that determines the positional relationship between the detected object and each vehicle according to, for example, any one of the direction, speed, acceleration, and travel destination of the vehicle. A hierarchy to be transmitted may be selected based on the determined positional relationship. The hierarchy to be transmitted may be determined according to the distance along the road on which the vehicle travels, instead of the linear distance.
  • the hierarchy to be transmitted may be determined in consideration of the traveling speed of the vehicle in addition to the distance between the detected object and each vehicle. Even if the distance to the detected object is the same, if the traveling speed is different, the time to reach the detected object is different. It is preferable that the driving support information can be received at a position far from the object. For example, a hierarchy to be transmitted can be determined according to a value obtained by dividing the distance by the traveling speed (expected time to reach the detected object). Further, the acceleration of each vehicle may be considered. Further, since vehicles usually travel around the speed limit, a speed limit set on the road may be used instead of the speed of each vehicle. For example, a layer to be transmitted can be determined according to a value obtained by dividing the distance by the speed limit.
  • Driving support information of the same hierarchy may be transmitted to a plurality of vehicles grouped under a predetermined condition.
  • driving support information of the same hierarchy may be transmitted by multicast to a vehicle whose current position is in a predetermined area.
  • the driving support information may be transmitted (broadcast) to an in-vehicle device of a vehicle traveling in the area.
  • the hierarchy of the driving support information transmitted from the beacon is changed according to the distance between the predetermined area and the detected object. Even if the broadcast transmission does not need to identify the vehicle, the number of vehicles that can receive the beacon signal is limited, so the multicast transmission is used. Further, since the coverage area of each base station for mobile communication is limited, a base station having a relatively small coverage area may be used instead of the beacon. That is, the hierarchy of the driving support information transmitted (broadcast) from each base station is changed according to the distance between each base station and the detected object.
  • the on-board device transmits the current vehicle position information as the vehicle information to the server 110 , but the present invention is not limited to this.
  • a destination for example, a destination or a traveling route
  • the information may be transmitted to the server 110 as vehicle information.
  • vehicle specifying unit 188) of specifying the vehicle to which the driving assistance information is transmitted the server 110 reaches the detected object from the information of the traveling destination even if the vehicle is currently traveling toward the detected object.
  • the vehicle whose traveling direction is determined to deviate from the direction toward the detected object can be excluded from the transmission target of the driving support information. Thereby, the processing load on the server 110 can be reduced.
  • the server 110 selects and transmits the hierarchy to be transmitted to the in-vehicle device of each vehicle from among the hierarchized driving support information according to the positional relationship between each vehicle and the detected object.
  • the server 110 transmits all the layers of the driving assistance information that is hierarchized to all the vehicles, and the vehicle-mounted device of each vehicle that receives the information transmits driving assistance information to the driving assistance according to the positional relationship between the own vehicle and the detected object.
  • the hierarchy to be used may be selected. That is, the in-vehicle device may be an information providing device.
  • the in-vehicle device includes a receiving unit that receives the analysis result from the server 110, a selecting unit that selects a hierarchy from the received analysis result, and an output unit that outputs information of the selected hierarchy.
  • the receiving unit is realized by the communication unit 146.
  • the selection unit selects a hierarchy from the analysis result according to a positional relationship between the vehicle (the second dynamic object) and the detected object (the first dynamic object).
  • the selection unit is realized by the control unit 150.
  • the output unit displays the driving support information including the selected hierarchy so that the user can visually recognize the driving assistance information. That is, the in-vehicle device may include a display unit, and the output unit may be realized by the display unit.
  • the in-vehicle device is connected to a display device mounted on the vehicle.
  • the display device is connected to, for example, the I / F unit 144, receives an electric signal output from the I / F unit 144, and displays a screen including driving assistance information according to the electric signal.
  • the output unit outputs the driving support information including the selected hierarchy as audio that can be heard by the user. That is, the in-vehicle device may include a speaker, and the output unit may be realized by the speaker. In one example, the in-vehicle device is connected to a speaker mounted on the vehicle.
  • the speaker is connected to, for example, the I / F unit 144, receives an electric signal output from the I / F unit 144, and outputs a sound including driving assistance information according to the electric signal.
  • the output unit is realized by the I / F unit 144.
  • the selection unit included in the in-vehicle device selects a predetermined layer according to the positional relationship between the vehicle on which the own device is mounted and the detected object, and outputs information on the layer where the display device or the speaker or the like is selected. be able to.
  • Reference Signs List 100 Information providing system 102 Infrastructure sensor 104 Traffic light 106 Base station 108 Network 110 Server 112, 114, 116, 118, 220, 222, 224, 226, 226A, 226B, 226C, 226D Vehicles 120, 150, 168 Control units 122, 148 166 Memory 124, 146, 164 Communication unit 126, 152, 170 Bus 140, 154 In-vehicle device 142, 198 Sensor 144, 162 I / F unit 160 Sensor unit 180 Packet reception unit 182 Packet transmission unit 184 Data separation unit 186 Analysis processing Section 188 vehicle specifying section 190 position specifying section 192 attribute specifying section 194 action specifying section 196 action predicting section 200, 200A, 200B, 200C, 200D pedestrian 202, 204 pedestrian signal 206, 208, 210, 212 Vehicle traffic light 230 Messages 240A, 240B, 240C, 240D Figures 242, 244 Predicted figures I Image sensor R Radar L

Abstract

情報提供装置は、第1の動的物体と、前記第1の動的物体に関する情報の提供を受ける一または複数の第2の動的物体との位置関係に応じて、前記第1の動的物体に関するセンサ情報が複数の階層に階層化されている解析結果から階層を選択する選択部と、前記選択部により選択された前記階層の情報を出力する出力部と、を備える。

Description

情報提供装置、情報提供方法、情報提供システム、コンピュータプログラム、及びデータ構造
 本発明は、情報提供装置、情報提供方法、情報提供システム、コンピュータプログラム、及びデータ構造に関する。本出願は、2018年8月24日出願の日本出願第2018-157239号に基づく優先権を主張し、前記日本出願に記載された全ての内容を援用するものである。
 街頭監視カメラ等の固定設置されたセンサ(以下、インフラセンサともいう)によるセンサ情報をサーバコンピュータ(以下、単にサーバという)にアップロードし、解析して監視するシステムが提案されている。また、自動車及び自動二輪車等(以下、車両という)に種々のセンサを搭載し、これらのセンサ情報をサーバにアップロードして解析し、運転支援のために使用することが提案されている。
 車両に搭載されたセンサ(以下、車載センサともいう)だけでは、走行中の道路上の情報を取得することはできるが、走行中の道路と交差する道路に関する情報は、道路周辺の建造物等により遮蔽されて取得することができず、例えば交差点付近に死角領域が生じてしまう。これを回避するためには、車載センサのセンサ情報の解析結果と、街頭監視カメラ等の固定設置されたセンサによるセンサ情報の解析結果とを合わせて、運転支援のために使用することが好ましい。
 例えば、後掲の特許文献1には、無線通信が可能な複数の通信端末、通信端末と無線通信する1または複数の基地局、基地局と有線または無線で通信する1または複数のエッジサーバ、及び、エッジサーバと有線または無線で通信する1または複数のコアサーバを備える無線通信システムが開示されている。通信端末には、車両の通信端末、歩行者の通信端末、路側センサの通信端末、及び交通信号制御機の通信端末が含まれる。この無線通信システムを構成する各要素は、遅延時間等の所定のサービス要求条件に応じて複数のネットワークスライスS1~S4に分類される。スライスS1では、複数の通信端末が直接通信し、スライスS2では、複数の通信端末が基地局2と通信し、スライスS3では、複数の通信端末が、基地局2を経由してエッジサーバ3と通信し、スライスS4では、複数の通信端末が、基地局2及びエッジサーバ3を経由してコアサーバ4と通信する。このように構成された無線通信システムは、対象車両に対する情報提供を適切に実行することができる。
特開2018-18284号公報
 本開示の一の態様に係る情報提供装置は、第1の動的物体と、前記第1の動的物体に関する情報の提供を受ける一または複数の第2の動的物体との位置関係に応じて、前記第1の動的物体に関するセンサ情報が複数の階層に階層化されている解析結果から階層を選択する選択部と、前記選択部により選択された前記階層の情報を出力する出力部と、を備える。
 本開示の一の態様に係る情報提供方法は、センサ情報を解析して、第1の動的物体を検出し、前記第1の動的物体に関するセンサ情報が複数の階層に階層化されている解析結果を生成するステップと、前記第1の動的物体と、前記第1の動的物体に関する情報の提供を受ける一または複数の第2の動的物体との位置関係を特定するステップと、前記位置関係に応じて、前記複数の階層から階層を選択するステップと、選択された前記階層の情報を出力するステップと、を含む。
 本開示の一の態様に係るコンピュータプログラムは、コンピュータに、センサ情報を解析して、第1の動的物体を検出し、前記第1の動的物体に関するセンサ情報が複数の階層に階層化されている解析結果を生成する機能と、前記第1の動的物体と、前記第1の動的物体に関する情報の提供を受ける一または複数の第2の動的物体との位置関係を特定する機能と、前記位置関係に応じて、前記複数の階層から階層を選択する機能と、選択された前記階層の情報を出力する機能と、実現させる。
 本開示の一の態様に係る情報提供システムは、センサ情報を受信する受信部と、前記受信部により受信されたセンサ情報を解析して、第1の動的物体を検出し、前記第1の移動物体に関する前記センサ情報が複数の階層に階層化されている解析結果を生成する解析部と、を含むサーバコンピュータと、前記第1の動的物体に関する情報の提供を受ける一または複数の第2の動的物体が有する通信装置と、を備え、前記サーバコンピュータは、前記第1の動的物体と前記第2の動的物体との位置関係を特定する特定部と、前記位置関係に応じて、前記複数の階層から階層を選択する選択部と、選択された前記階層の情報を前記通信装置に送信する送信部と、をさらに含む。
 本開示の一の態様に係る情報提供システムは、センサ情報を受信する受信部と、前記受信部により受信されたセンサ情報を解析して、第1の動的物体を検出し、前記第1の移動物体に関するセンサ情報が複数の階層に階層化されている解析結果を生成する解析部と、を含むサーバコンピュータと、前記第1の動的物体に関する情報を受信する一つまたは複数の第2の動的物体が有する通信装置と、を備え、前記サーバコンピュータは、前記複数の階層の情報を前記第2の動的物体に送信する送信部をさらに有し、前記第2の動的物体の前記通信装置は、前記サーバコンピュータによって送信された前記複数の階層の情報を受信する受信部と、前記第1の動的物体と前記第2の動的物体との位置関係を特定する特定部と、前記位置関係に応じて前記複数の階層から階層を選択する選択部と、選択された前記階層の情報を出力する出力部と、を含む。
 本開示の他の態様に係るデータ構造は、センサ情報が解析されることにより検出された動的物体に関する複数の階層に階層化されているデータ構造であって、前記複数の階層は、前記動的物体の現在の位置に関する情報を含む第1階層と、前記動的物体の現在の属性に関する情報を含む第2階層と、前記動的物体の現在の行動パターンに関する情報を含む第3階層と、前記動的物体の所定時間後における位置、属性及び行動パターンのうちの少なくともいずれか1つに関する情報を含む第4階層と、を含む。
 本開示は、このような特徴的な処理部を備える情報提供装置、かかる特徴的な処理をステップとする情報提供方法、及びかかる特徴的な処理をコンピュータに実行させるためのコンピュータプログラム、として実現することができる。また、かかるステップの一部または全部を実行する機能を有する半導体集積回路として実現したり、コンピュータプログラムに用いられるデータ構造として実現したり、情報提供装置を含む情報提供システムとして実現したりすることができる。
図1は、本発明の実施形態に係る情報提供システムの構成を示す模式図である。 図2は、本発明の実施形態に係る情報提供システムの監視対象領域内の交差点及びその周辺を示す平面図である。 図3は、サーバの構成を示すブロック図である。 図4は、車載装置の構成を示すブロック図である。 図5は、インフラセンサの構成を示すブロック図である。 図6は、サーバの機能を示すブロック図である。 図7は、運転支援情報の種類(階層)と遅延時間との関係を示す模式図である。 図8は、検出物と各車載装置との距離に応じて異なる種類の運転支援情報が提供されることを示す模式図である。 図9は、サーバの処理を示すフローチャートである。 図10は、検出物との距離に応じて1台の車両の車載装置に提供される運転支援情報の種類が変化する状況を示す模式図である。 図11は、車載装置により提示される情報の変化を説明するための状況を示す平面図である。 図12Aは、車載装置に提示される情報の一例を示す図である。 図12Bは、図12Aに続いて車載装置に提示される情報の一例を示す図である。 図13Aは、図12Bに続いて車載装置に提示される情報の一例を示す図である。 図13Bは、図13Aに続いて車載装置に提示される情報の一例を示す図である。
 <本開示が解決しようとする課題>
 車載センサ及びインフラセンサとして、種々のセンサが使用されている。代表的なものとしては、例えば、レーザセンサ(LiDAR等)、ミリ波レーダ、イメージセンサ(カメラ等)がある。これらのセンサにより取得されるセンサ情報の種類、センサから出力されるデータ形態、及び出力されるデータ量は、センサ毎に異なる。したがって、それらの解析処理に要する時間も異なる。即ち、センサによりセンサ情報が取得されてから、センサ情報が解析装置(例えばサーバ)により受信され、解析され、解析結果が送信されて車載装置により受信されるまでの時間(遅延時間)は、解析の種類に依存する。また、センサ情報を解析して作成する運転支援情報も種々の形態が考えられる。したがって、センサ情報及び解析の種類等に応じて、適切に、解析結果を運転支援情報として送信することができれば好ましい。
 また、運転支援情報を、各車両の車載装置に一律に送信すると、データ通信のトラフィックが増大し、輻輳が発生する問題がある。また、車両によっては運転支援に利用できない情報を受信するという非効率な状況が発生する問題がある。
 <本開示の効果>
 本開示によれば、車載装置等への運転支援情報の提供において、適切に運転支援情報を提供することができ、データ通信のトラフィックの増大を抑制することができる。
 <本発明の実施形態の概要>
 以下、本発明の実施形態の概要を列記して説明する。
 (1) 本実施形態に係る情報提供装置は、第1の動的物体と、前記第1の動的物体に関する情報の提供を受ける一または複数の第2の動的物体との位置関係に応じて、前記第1の動的物体に関するセンサ情報が複数の階層に階層化されている解析結果から階層を選択する選択部と、前記選択部により選択された前記階層の情報を出力する出力部と、を備える。これにより、車載装置等の第2の動的物体への運転支援情報の提供において、適切に運転支援情報を提供することができる。
 (2) 本実施形態に係る情報提供装置において、前記解析結果は、前記センサ情報がセンサから送信され解析装置により受信されるまでの時間と、受信された前記センサ情報が前記解析装置により解析される時間とを含む遅延時間の短い順に階層化されていてもよい。これにより、車載装置等の第2の動的物体への運転支援情報の提供において、データ通信のトラフィックの増大を抑制することができる。
 (3) 本実施形態に係る情報提供装置において、前記階層は、前記第1の動的物体の位置情報、属性、行動及び行動予測の少なくともいずれか1つを含んでもよい。これにより、車載装置等の第2の動的物体への運転支援情報の提供において、より適切に運転支援情報を提供することができる。
 (4) 本実施形態に係る情報提供装置において、前記選択部は、前記複数の階層のうち少なくとも2つの階層を選択し、前記出力部は、選択された各階層の情報を同じタイミングで、前記第2の動的物体に対して出力してもよい。これにより、車載装置等の第2の動的物体への運転支援情報の提供において、第2の動的物体側で、情報の各階層を適切に取捨選択することができる。
 (5) 本実施形態に係る情報提供装置において、前記選択部は、前記複数の階層のうち少なくとも2つの階層を選択し、前記出力部は、選択された各階層の情報を相互に異なるタイミングで、前記第2の動的物体に対して出力してもよい。これにより、車載装置等の第2の動的物体への運転支援情報の提供において、データ通信のトラフィックの増大をより一層抑制することができる。
 (6) 本実施形態に係る情報提供装置は、前記第1の動的物体と前記第2の動的物体との前記位置関係を、前記第2の動的物体の向き、速度、加速度及び進行先の少なくともいずれか1つに応じて決定する決定部をさらに備えてもよい。これにより、車載装置等の第2の動的物体への運転支援情報の提供において、運転支援情報を提供する第2の動的物体を適切に決定することができる。
 (7) 本実施形態に係る情報提供装置において、前記位置関係は、前記第1の動的物体と前記第2の動的物体との間の距離であってもよい。これにより、車載装置等の第2の動的物体への運転支援情報の提供において、運転支援情報を提供する第2の動的物体を容易に決定することができる。
 (8) 本実施形態に係る情報提供装置において、前記出力部は、前記階層の情報と、前記階層の情報が更新されているか否かを表す更新情報とを、前記第2の動的物体に対して出力してもよい。これにより、第2の動的物体における運転支援情報の管理が容易になる。
 (9) 本実施形態に係る情報提供装置において、前記第2の動的物体は複数存在し、複数の前記第2の動的物体は、複数の前記第2の動的物体のそれぞれの現在位置に応じてグループ化されており、前記出力部は、同じグループの前記第2の動的物体に対して、同じ前記階層の情報を出力してもよい。これにより、車載装置等の第2の動的物体への運転支援情報の提供において、運転支援情報を容易に提供することができる。
 (10) 本実施形態に係る情報提供方法は、センサ情報を解析して、第1の動的物体を検出し、前記第1の動的物体に関するセンサ情報が複数の階層に階層化されている解析結果を生成するステップと、前記第1の動的物体と、前記第1の動的物体に関する情報の提供を受ける一または複数の第2の動的物体との位置関係を特定するステップと、前記位置関係に応じて、前記複数の階層から階層を選択するステップと、選択された前記階層の情報を出力するステップと、を含む。これにより、車載装置等の第2の動的物体への運転支援情報の提供において、適切に運転支援情報を提供することができる。
 (11) 本実施形態に係るコンピュータプログラムは、コンピュータに、センサ情報を解析して、第1の動的物体を検出し、前記第1の動的物体に関するセンサ情報が複数の階層に階層化されている解析結果を生成する機能と、前記第1の動的物体と、前記第1の動的物体に関する情報の提供を受ける一または複数の第2の動的物体との位置関係を特定する機能と、前記位置関係に応じて、前記複数の階層から階層を選択する機能と、選択された前記階層の情報を出力する機能と、実現させる。これにより、車載装置等の第2の動的物体への運転支援情報の提供において、適切に運転支援情報を提供することができる。
 (12) 本実施形態に係る情報提供システムは、センサ情報を受信する受信部と、前記受信部により受信されたセンサ情報を解析して、第1の動的物体を検出し、前記第1の移動物体に関する前記センサ情報が複数の階層に階層化されている解析結果を生成する解析部と、を含むサーバコンピュータと、前記第1の動的物体に関する情報の提供を受ける一または複数の第2の動的物体が有する通信装置と、を備え、前記サーバコンピュータは、前記第1の動的物体と前記第2の動的物体との位置関係を特定する特定部と、前記位置関係に応じて、前記複数の階層から階層を選択する選択部と、選択された前記階層の情報を前記通信装置に送信する送信部と、をさらに含む。これにより、車載装置等の第2の動的物体への運転支援情報の提供において、適切に運転支援情報を提供することができる。
 (13) 本実施形態に係る情報提供システムは、センサ情報を受信する受信部と、前記受信部により受信されたセンサ情報を解析して、第1の動的物体を検出し、前記第1の移動物体に関するセンサ情報が複数の階層に階層化されている解析結果を生成する解析部と、を含むサーバコンピュータと、前記第1の動的物体に関する情報を受信する一つまたは複数の第2の動的物体が有する通信装置と、を備え、前記サーバコンピュータは、前記複数の階層の情報を前記第2の動的物体に送信する送信部をさらに有し、前記第2の動的物体の前記通信装置は、前記サーバコンピュータによって送信された前記複数の階層の情報を受信する受信部と、前記第1の動的物体と前記第2の動的物体との位置関係を特定する特定部と、前記位置関係に応じて前記複数の階層から階層を選択する選択部と、選択された前記階層の情報を出力する出力部と、を含む。これにより、第2の動的物体に搭載された車載装置等から、適切に運転支援情報を提供することができる。
 (14) 本実施形態に係るデータ構造は、センサ情報が解析されることにより検出された動的物体に関する複数の階層に階層化されているデータ構造であって、前記複数の階層は、前記動的物体の現在の位置に関する情報を含む第1階層と、前記動的物体の現在の属性に関する情報を含む第2階層と、前記動的物体の現在の行動パターンに関する情報を含む第3階層と、前記動的物体の所定時間後における位置、属性及び行動パターンのうちの少なくともいずれか1つに関する情報を含む第4階層と、を含む。これにより、車載装置等に対して、適切に運転支援情報を提供することができる。
 <本発明の実施形態の詳細>
 以下、図面を参照しつつ、本発明の実施形態の詳細を説明する。なお、以下に記載する実施形態の少なくとも一部を任意に組み合わせてもよい。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらの説明は繰り返さない。
 (実施形態)
 [全体構成]
 図1を参照して、本発明の実施形態に係る情報提供システム100は、道路及びその周辺等(以下、路上ともいう)に固定して設置されたインフラセンサ102、道路交通用の信号機104、無線通信の基地局106、ネットワーク108を介して基地局106と通信するサーバ110、並びに、複数の車両112及び車両114を含む。車両112及び車両114はそれぞれ車載装置140及び車載装置154を搭載している。歩行者200は、インフラセンサ102の検出対象である。ここでは、情報提供システム100を構成する各要素間の通信は、移動通信の基地局106を介して行なわれるとする。基地局106は、例えば5G(第5世代移動通信システム)回線等による移動通信サービスを提供している。
 インフラセンサ102は道路及びその周辺に設置され、道路及びその周辺における情報を取得する機能を備えた装置であり、基地局106との通信機能を有している。インフラセンサ102は、例えば、イメージセンサ(デジタルの監視カメラ等)、レーダ(ミリ波レーダ等)、またはレーザセンサ(LiDAR等)等である。
 サーバ110は、インフラセンサ102から基地局106を介してアップロードされる情報(以下、センサ情報ともいう)を受信して解析し、運転支援のための情報を生成して、車両112及び車両114に送信する。また、サーバ110は、基地局106を介して信号機104からアップロードされる信号機の状態を表す情報(例えば、点灯または点滅状態の色を表す情報等であり、以下、交通情報という)をも受信して、運転支援のための情報の生成に利用する。
 車両112及び車両114がそれぞれ搭載している車載装置140及び車載装置154は、基地局106がサービスしている通信仕様(ここでは、5G回線)による通信機能を有している。
 図1には、例示的に1つの基地局106、1つのインフラセンサ102、1台の信号機104、並びに、歩行者200との距離が異なる2台の車両112及び114を示しているが、通常、複数の基地局が設けられ、3台以上の車両に移動通信機能が提供されている。インフラセンサは、交差点等の所定領域に2台以上設置されていてもよい。例えば、図2を参照して、交差点には、歩行者用信号機202及び204(これら以外の歩行者用信号機は図示せず)、車両用信号機206~212等の複数の信号機、複数のイメージセンサI、複数のレーザセンサL、及び1台のレーダRが設置されている。図2において、歩行者用信号機202、歩行者用信号機204、車両用信号機206及び210が赤信号であり、車両用信号機208及び212が青信号であり、歩行者200は停止し、車両112、114、116及び118が走行している。後述するように、車両112及び114にもそれぞれ複数の車載センサが搭載され、車載装置140及び154は車載センサの情報を、基地局106を介してサーバ110に送信する。サーバ110は、これらのインフラセンサ、車両の車載装置及び信号機と通信し、情報を収集して解析し、車載装置に運転支援情報を提供する。
 [サーバのハードウェア構成]
 図3を参照して、サーバ110は、各部を制御する制御部120と、データを記憶するメモリ122と、通信を行なう通信部124と、各部の間でデータを交換するためのバス126とを含む。制御部120は、CPU(Central Processing Unit)を含んで構成されており、各部を制御することにより、後述する機能を実現する。メモリ122は、書換可能な半導体の不揮発性メモリ及びハードディスクドライブ(以下、HDDという)等の大容量記憶装置を含む。通信部124は、路上に配置されたインフラセンサ102からアップロードされるセンサ情報、車両112及び114の車載装置140及び154からアップロードされるセンサ情報、並びに、信号機104からアップロードされる交通情報を、基地局106を介して受信する。通信部124により受信されたデータは、メモリ122に伝送されて記憶される。これにより、サーバ110は、後述するように情報提供装置として機能する。
 [車載装置のハードウェア構成及び機能]
 図4を参照して、車両112に搭載されている車載装置140のハードウェア構成の一例を示す。車両114の車載装置154も、車載装置140と同様に構成されている。車載装置140は、車両112に搭載されている1または複数のセンサ142に接続されたインターフェイス部(以下、I/F部という)144、無線通信を行なう通信部146、データを記憶するメモリ148、それらを制御する制御部150、及び、各部の間でデータを交換するためのバス152を含む。
 センサ142は、車両112に搭載されている公知のビデオ映像の撮像装置(例えば、デジタルカメラ(CCDカメラ、CMOSカメラ))、レーザセンサ(LiDAR)等である。センサ142がデジタルカメラであれば、所定のビデオ信号(アナログ信号またはデジタルデータ)を出力する。センサ142からの信号はI/F部144に入力される。I/F部144はA/D変換部を含み、アナログ信号が入力されると所定周波数でサンプリングし、デジタルデータ(センサ情報)を生成して出力する。生成されたデジタルデータは、メモリ148に伝送されて記憶される。センサ142からの出力信号がデジタルデータであれば、I/F部144は、入力されるデジタルデータをメモリ148に記憶する。メモリ148は、例えば書換可能な不揮発性の半導体メモリまたはHDDである。
 通信部146は、5G回線等の移動通信機能を有し、サーバ110との通信を行なう。車載装置140とサーバ110との間の通信は基地局106を介して行なわれる。通信部146は、5G回線等で採用されている変調及び多重化を行なうためのIC、所定周波数の電波を放射及び受信するためのアンテナ、並びにRF回路等により構成されている。
 制御部150は、CPUを含んで構成されており、各部を制御することにより車載装置140の機能を実現する。例えば、制御部150は、センサ142から取得したセンサ情報をサーバ110に送信する。このとき、制御部150は、車載装置140を特定する情報、車両112の現在位置及び向きの情報、並びに、センサ142に関する情報を、センサ情報に付加して送信する。車載装置140を特定する情報は、例えば、各車載装置に予め一意に付与されたIDである。制御部150は、GPSにより、車両112の現在位置を取得する。送信されたセンサ情報は、サーバ110により運転支援情報の生成に利用される。車両112の現在位置及び向きの情報、並びに、センサ142に関する情報は、センサ情報(例えば、センサにより得られた画像)と地図上の位置との対応を特定するために利用される。制御部150は、サーバ110から運転支援情報を受信して、車両112の走行を制御する、運転者を支援する情報を提供する等の処理を行なう。また、制御部150は、センサ142により取得したデータを解析して、車両112周辺の対象物を検出し、運転支援に利用する。また、制御部150は、センサ情報の送信とは別に、車両112の現在位置を、適宜またはサーバ110からの要求を受けて、車両112に関する情報(以下、車両情報ともいう)としてサーバ110に送信する。サーバ110は、例えば、位置情報の送信要求をブロードキャストする。
 [インフラセンサのハードウェア構成及び機能]
 インフラセンサ102も、基本的に車載装置140と同様に構成されている。図5を参照して、インフラセンサ102のハードウェア構成の一例を示す。インフラセンサ102は、センサ部160に接続されたI/F部162、無線通信を行なう通信部164、データを記憶するメモリ166、それらを制御する制御部168、及び、各部の間でデータを交換するためのバス170を含む。
 センサ部160は、例えば、公知のビデオ映像の撮像装置(例えば、デジタルカメラ)である。センサ部160は、周囲の情報を取得してセンサ情報として出力する。デジタルカメラであれば、デジタルの画像データを出力する。センサ部160からの信号(アナログまたはデジタル)はI/F部162に入力される。I/F部162はA/D変換部を含み、アナログ信号が入力されるとデジタルデータ(センサ情報)を生成して出力する。生成されたデジタルデータは、メモリ166に伝送されて記憶される。センサ部160からの出力信号がデジタルデータであれば、I/F部162は、入力されるデジタルデータをメモリ166に記憶する。メモリ166は、例えば書換可能な不揮発性の半導体メモリまたはHDDである。
 通信部164は、移動通信機能を有し、基地局106を介してサーバ110との通信を行なう。インフラセンサ102は固定設置されているので、複数の移動通信方式に対応している必要はなく、近くにある基地局106により提供されている移動通信方式(例えば5G回線)に対応していればよい。通信部164は、採用されている変調及び多重化を行なうためのIC、所定周波数の電波を放射及び受信するためのアンテナ、並びにRF回路等により構成されている。なお、固定設置されているインフラセンサ102の通信機能は、基地局106を介する場合に限定されず、任意である。有線LAN、またはWiFi等の無線LANによる通信機能であってもよい。なお、WiFi通信の場合、移動通信の基地局106とは別にWiFiサービスを提供する装置(無線ルータ等)が設けられ、インフラセンサ102はサーバ110とネットワーク108を介して通信する。
 制御部168は、CPUを含んで構成されており、各部を制御することによりインフラセンサ102の機能を実現する。即ち、制御部168は、センサ部160により取得されメモリ166に記憶されたセンサ情報(例えば、動画像データ)を所定の時間間隔で読出し、パケットデータを生成し、通信部164から基地局106を介してサーバ110に送信する。このとき、制御部168は、センサ部160によりセンサ情報が取得される領域(例えば、カメラの撮像領域)を特定するための情報をセンサ情報に付加して送信する。例えば、サーバ110が、インフラセンサ102を特定する情報(例えば、各インフラセンサに予め一意に付与されたID)に対応させて、インフラセンサ102がセンサ部160によりセンサ情報を取得する領域の情報(例えば、カメラにより撮像される画像と地図情報との対応を示す情報)を記憶していれば、インフラセンサ102は自己のIDをセンサ情報に付加して送信すればよい。
 [信号機のハードウェア構成及び機能]
 信号機104は、公知の道路交通用の信号機である。車両用信号機であれば、青、黄及び赤の3色の表示灯と、それらの点灯及び点滅を制御する制御部と、表示灯の状態を表す情報である交通情報をサーバ110に送信するための通信部とを備えている。なお、歩行者用信号機であれば、表示灯が青及び赤の2色である点が異なるが、車両用信号機と同様に構成されている。信号機104の通信部は、インフラセンサ102の通信部164と同様に、移動通信機能を有し、基地局106を介してサーバ110との通信を行なう。なお、固定設置されている信号機104の通信機能は任意である。有線LAN、またはWiFi等の無線LANによる通信機能であってもよい。信号機104の制御部は、CPUを含んで構成されており、表示灯の点灯及び点滅を制御することに加えて、表示灯の状態が変更される度に、現在の信号機の状態を表す交通情報を、基地局106を介してサーバ110に送信する。このとき、信号機104は、自己を特定する情報(例えば、各信号機に予め一意に付与されたID、位置座標等)を交通情報に付加して送信する。
 [サーバの機能的構成]
 図6を参照して、サーバ110の機能について説明する。サーバ110は、パケットデータを受信するパケット受信部180と、パケットデータを送信するパケット送信部182と、受信データの種類に応じた出力先に受信データを出力するデータ分離部184と、入力されるデータを用いて所定の解析処理を実行する解析処理部186と、車両を特定する車両特定部188とを含む。パケット受信部180、パケット送信部182、データ分離部184、解析処理部186及び車両特定部188の各機能は、図3の制御部120が、メモリ122及び通信部124を用いて実現する。なお、データ分離部184、解析処理部186及び車両特定部188の機能は、専用のハードウェア(回路基板、ASIC等)により実現されてもよい。
 パケット受信部180は、インフラセンサ102、信号機104、車載装置140及び車載装置154からパケットデータを受信し、受信データをデータ分離部184に出力する。
 データ分離部184は、受信データが、インフラセンサ102からのデータであれば、そのデータを解析処理部186に入力する。データ分離部184は、受信したデータが、信号機104からのデータ(交通情報)であれば、そのデータを解析処理部186に入力する。データ分離部184は、受信したデータが車載装置140または車載装置154からのデータである場合、センサ情報であれば解析処理部186に入力し、車両情報であれば車両特定部188に入力する。
 解析処理部186は、入力されるデータを用いて解析処理を実行して歩行者及び車両を検出し、それに関する属性情報等を算出する。「歩行者」は、任意の速度(“0”を含む)で移動している人を意味し、歩いている人に限らず、停止している人、及び、走っている人を含む。図1では、1人の歩行者200を示しているが、アップロードされた動画像データに複数の人が含まれていれば、それぞれの人が検出される。
 解析処理部186は、位置特定部190、属性特定部192、行動特定部194及び行動予測部196から構成される。位置特定部190は、LiDAR及びミリ波レーダ等のセンサ(以下、レーダセンサと総称する)から受信したデータ(センサ情報)が入力され、歩行者及び車両を検出し、それぞれの検出物に関して「位置情報」を特定する。上記したように、センサ情報がインフラセンサ及び車載装置のいずれから送信されたものであっても、センサ情報には、そのセンサ情報が取得された領域を特定するための情報が付加されているので、地図情報を参照して、検出物の位置及び大きさを特定することができる。ここで、位置情報は、例えば、2次元位置(緯度及び経度)、高度(基準面からの高さ)、移動速度、移動方向、簡易分類(歩行者または車両)等である。
 複数のレーダセンサによるセンサ情報を解析する場合、それらが同じ領域のセンサ情報を含んでいれば、同じ対象を検出する可能性がある。その場合には、同じ検出物を特定し、各レーダセンサのセンサ情報から特定された位置情報を統合することが好ましい。
 属性特定部192は、イメージセンサ(カメラ等)から受信したデータ(センサ情報)、及び、位置特定部190により特定された位置情報が入力され、歩行者及び車両を検出し、それぞれの検出物に関して「属性」を特定する。イメージセンサからのセンサ情報は、少なくとも1枚の画像(静止画像)であればよく、動画像データに限らない。ここで、属性は、例えば詳細分類であり、検出物が人であれば、種別(例えば、子供、大人、老人)、その状態(例えば、歩きながらスマートフォン、タブレットまたは本等を見ている状態(以下、歩きスマホともいう)等)、及び、その移動方向の詳細(例えば、顔の向き、体の向き等)等である。検出物が車両であれば、属性(詳細分類)は、車種(例えば、一般車両、大型車、緊急車両等)、及び、その走行状態(例えば、停止、通常走行、蛇行運転等)等である。なお、1枚の静止画像であっても、車両と道路上の白線との位置関係を判定することにより、通常走行であるか、蛇行運転であるかを判定することができる。
 位置特定部190により特定された位置情報が属性特定部192に入力されるので、属性特定部192により検出された検出物と位置特定部190により検出された検出物とが同じ検出物であるか否かが判定され、同じ検出物に位置情報及び属性を対応付けることができる。また、複数のイメージセンサによるセンサ情報を解析する場合、それらが同じ領域のセンサ情報を含んでいれば、同じ対象を検出する可能性がある。その場合には、同じ検出物を特定し、各イメージセンサのセンサ情報から特定された属性を統合することが好ましい。
 行動特定部194は、レーダセンサ及びイメージセンサから受信したデータ(センサ情報)、信号機から受信したデータ(交通情報)、並びに、位置特定部190及び属性特定部192により特定された情報(位置情報及び属性)が入力され、検出物の「行動パターン」を特定する。行動特定部194は、必要に応じて地図情報を利用する。地図情報は、予めメモリ122に記憶されていればよい。例えば、検出物が歩行者であれば、行動パターンは、通常歩行または危険行動(例えば、信号無視)等である。検出物が車両であれば、行動パターンは、通常走行または危険走行(例えば、スピード違反、飲酒運転)等である。行動特定部194は、異なる時刻における複数の位置情報、属性及び交通情報を用いて、行動パターンを決定する。行動特定部194は、例えば、2次元位置、移動速度、移動方向、及び信号機の点灯状態の時間変化から行動パターンを決定することができる。
 行動予測部196は、レーダセンサ及びイメージセンサから受信したデータ(センサ情報)、信号機から受信したデータ(交通情報)、並びに、位置特定部190、属性特定部192及び行動特定部194により特定された情報(位置情報、属性及び行動パターン)が入力され、近い将来における検出物の「行動予測」を特定する。行動予測部196は、必要に応じて地図情報を利用する。行動予測は、例えば、N秒後(N>0)における検出物の位置情報、属性及び行動パターンである。行動予測部196は、異なる時刻における複数の位置情報、属性、行動パターン及び交通情報を用いて、行動予測を決定する。行動予測部196は、例えば、2次元位置、移動速度、移動方向、行動パターン及び信号機の点灯状態の時間的変化から、N秒後における検出物の2次元位置、移動速度、移動方向及び行動パターンを予測することができる。
 このように、解析処理部186は、1種類の解析処理の結果をそれ以降の解析処理で利用する形態で複数種類の解析処理を実行し、最終的に、解析処理の順に階層化されている解析結果を生成する。すなわち、解析処理部186による解析結果は、位置情報、属性、鼓動パターン、及び行動予測の階層を含む。解析処理部186は、上記のようにして特定された、各検出物に関する情報(位置情報、属性、行動パターン及び行動予測)を、運転支援情報として車載装置に送信するために、車両特定部188に入力する。
 運転支援情報には、上記の位置情報、属性、行動パターン及び行動予測が含まれ得るが、それぞれの遅延時間が異なるので、遅延時間を考慮して、送信する情報、及びその情報の送信先の車両(車載装置)を決定することが好ましい。システム遅延時間(以下、単に遅延時間ともいう)SL(System Latency)は、位置情報、属性、行動パターン及び行動予測の順で大きくなる。ここで、遅延時間SLは、センサによりセンサ情報が収集されてから、通信回線を介してサーバ110により受信されるまでのデータ収集時間DCT(Data Collection time)と、サーバ110により上記の解析処理が実行される解析時間AT(Analysis Time)と、解析結果が運転支援情報としてサーバ110から送信されてから、車載装置により受信されるまでの配布時間DT(Distribution Time)との和である(SL=DCT+AT+DT)。図7に、位置情報、属性、行動パターン及び行動予測のそれぞれの遅延時間T1~T4と、各遅延時間を構成するDCT、AT及びDTとを模式的に示す。
 位置情報は、レーダセンサから受信したデータ(センサ情報)を用いて特定され、そのセンサ情報のデータ量は、イメージセンサのセンサ情報と比較して小さいので、図7に示した遅延時間T1は比較的小さい。例えば、LiDARの遅延時間T1は、数十ミリ秒~数百ミリ秒である。
 属性は、イメージセンサから受信したデータ(センサ情報)を用いて特定され、イメージセンサのセンサ情報のデータ量は、レーダセンサのセンサ情報と比較して大きいので、図7に示した遅延時間T2は比較的大きい。例えば、デジタルカメラの遅延時間T2は、データの圧縮/非圧縮に依存するが、数百ミリ秒~約1秒である。
 行動パターンは、レーダセンサ及びイメージセンサから受信したデータ(センサ情報)、並びに、位置情報及び属性を用いて特定される。上記したように、イメージセンサのセンサ情報のデータ量は比較的大きく、行動パターンの特定に要する時間(解析時間AT)は比較的長くなるので、図7に示した行動パターンの遅延時間T3は、属性の遅延時間T2よりも大きく、後述する行動予測の遅延時間T4よりも小さい。
 行動予測は、レーダセンサ及びイメージセンサから受信したデータ(センサ情報)、並びに、位置情報、属性及び行動パターンを用いて特定される。上記したように、イメージセンサのセンサ情報のデータ量は比較的大きく、行動予測の特定に要する時間(解析時間AT)は比較的長くなるので、図7に示した行動予測の遅延時間T4は、行動パターンの遅延時間T3よりも大きい。例えば、行動予測の遅延時間T4は、数秒である。
 車両特定部188は、解析処理部186から入力される運転支援情報と、データ分離部184から入力される車両情報とを用いて、その運転支援情報を送信すべき車両を特定し、特定された車両(車載装置)に運転支援情報を送信する。車両特定部188は、選択部の一例である。つまり、車両特定部188は、検出物(第1の動的物体)と、運転支援情報の送信対象の車両(第2の動的物体)との位置関係に応じて、解析結果から運転支援情報に含める階層を選択する。運転支援情報の送信は、パケット送信部182により行なわれ、運転支援情報が含まれるパケットデータが送信される。パケット送信部182は、出力部の一例である。
 車両特定部188は、入力される車両情報(ID及び位置座標等)を、時刻情報と共にメモリ122に記憶する。このとき、車両のIDを参照して、過去にメモリ122に記憶されている同じIDの情報があれば、対応させてメモリ122に記憶する。車両特定部188は、運転支援情報に含まれる検出物の位置座標と、各車両の位置座標とを用いて、両者の距離を算出し、算出された距離と走行方向とに応じて、送信する運転支援情報の種類、すなわち階層を選択し、運転支援情報を送信する車両を特定する。
 図8を参照して、具体的に説明する。図8は、ある時刻における4台の車両と、センサ198(インフラセンサ及び車載センサを含む)により検出された歩行者200(検出物)とを示す。車両特定部188は、検出物からの距離XがX1以下(0≦X≦X1)であり、検出物の方向に走行している車両(例えば、車両220)の車載装置を特定し、特定された車載装置に送信する運転支援情報として位置情報を特定する。車両特定部188は、検出物からの距離XがX1<X≦X2であり、検出物の方向に走行している車両(例えば、車両222)の車載装置を特定し、特定された車載装置に送信する運転支援情報として、位置情報及び属性を特定する。車両特定部188は、検出物からの距離XがX2<X≦X3であり、検出物の方向に走行している車両(例えば、車両224)の車載装置を特定し、特定された車載装置に送信する運転支援情報として、位置情報、属性及び行動パターンを特定する。車両特定部188は、検出物からの距離XがX3<X≦X4であり、検出物の方向に走行している車両(例えば、車両226)の車載装置を特定し、特定された車載装置に送信する運転支援情報として、位置情報、属性、行動パターン及び行動予測を特定する。なお、車両が検出物の方向に走行しているか否かは、地図上において、例えば、車両前方の領域であって、車両の走行方向を中心軸とする所定の中心角(例えば180度)以内の領域に、検索物が含まれるか否かにより判定すればよい。上記のように、検出物と車両との位置関係(距離及び方向)と、選択される階層との関係(ルール)が予め決定されていてもよい。車両特定部188は、ルールにしたがって、検出物と車両との位置関係に応じた階層を選択する。
 上記したように、運転支援情報の遅延時間は、位置情報、属性、行動パターン及び行動予測の順に大きくなる。検出物から近い車両の車載装置にとっては、遅延時間が大きい情報は運転支援には利用できず、不要である。検出物から遠い車両の車載装置にとっては、遅延時間が長い情報であっても運転支援に利用することができる。したがって、図8を参照して上記したように、検出物からの距離に応じて、運転支援情報の種類を変更することにより、無駄なデータが送信されることを抑制し、各車両にとって有効な運転支援情報を送信することができる。すなわち、サーバ110の車両特定部188(選択部)は車両と検出物との位置関係に応じて所定の階層(運転情報の種類)を選択し、サーバ110のパケット送信部182(出力部)は選択された階層の情報を出力する。
 [サーバの動作]
 図9を参照して、サーバ110による処理に関して、より具体的に説明する。図9に示した処理は、制御部120が、所定のプログラムをメモリ122から読出して実行することにより実現される。サーバ110のメモリ122には、各インフラセンサによりセンサ情報を収集する範囲を含む、サーバ110の情報提供エリアの地図情報が予め記憶されている。また、メモリ122には、各インフラセンサ及び信号機を特定する情報(例えばID)及び位置座標が記憶されている。インフラセンサ及び信号機は、サーバ110に送信するパケットデータに、自己のIDを追加して送信する。また、メモリ122には、各インフラセンサに関して、センサ情報を取得する領域の情報をも記憶している。
 ステップ300において、制御部120は、データを受信したか否かを判定する。受信したと判定された場合、制御部120は受信データをメモリ122に記憶し、制御はステップ302に移行する。そうでなければ、ステップ300が繰返される。
 ステップ302において、制御部120は、ステップ300で受信したデータが、センサ情報を含むか否かを判定する。ここでセンサ情報は、インフラセンサ102、車載装置140及び車載装置154から送信される。センサ情報を含むと判定された場合、制御はステップ306に移行する。そうでなければ、制御は304に移行する。
 ステップ304において、制御部120は、ステップ300で受信したデータが、信号機104から送信された交通情報(信号機の情報)を含むか否かを判定する。交通情報を含むと判定された場合、制御はステップ306に移行する。そうでなければ、制御はステップ308に移行する。交通情報は、例えば、発光している色(青、黄または赤)とその状態(点灯または点滅)を表すデータを含む。
 ステップ306において、制御部120は、ステップ300で受信したデータを解析処理部186に入力する。その後、制御はステップ312に移行する。具体的には、ステップ300で受信したデータにレーダセンサにより取得されたセンサ情報が含まれていれば、制御部120はそのセンサ情報を、上記したように、位置特定部190、行動特定部194及び行動予測部196に入力する。ステップ300で受信したデータにイメージセンサにより取得されたセンサ情報が含まれていれば、制御部120はそのセンサ情報を、上記したように、属性特定部192、行動特定部194及び行動予測部196に入力する。ステップ300で受信したデータに交通情報が含まれていれば、制御部120はその交通情報を、上記したように、行動特定部194及び行動予測部196に入力する。
 ステップ308において、制御部120は、ステップ300で受信したデータに、車両から送信されたその車両に関する車両情報(位置情報等)が含まれているか否かを判定する。車両情報が含まれていると判定された場合、制御はステップ310に移行する。そうでなければ、制御はステップ312に移行する。
 ステップ310において、制御部120は、ステップ300で受信したデータ(車両情報)を、時刻情報(例えば、データの受信時刻)と対応させて車両特定部188に入力する。
 ステップ312において、制御部120は、解析処理を実行し、解析結果をメモリ122に記憶する。具体的には、位置特定部190、属性特定部192、行動特定部194及び行動予測部196に関して上記したように、人または車両を検出し、各検出物の位置情報、属性、行動パターン及び行動予測を特定し、メモリ122に記憶する。
 ステップ314において、制御部120は、運転支援情報を送信する車載装置、及び、その車載装置に送信する運転支援情報の種類を特定する。具体的には、図8を参照して車両特定部188に関して上記したように、運転支援情報に含まれる検出物と各車両との距離を算出し、算出された距離に応じて、運転支援情報を送信する車両の車載装置と、送信する運転支援情報の種類とを特定する。
 ステップ316において、制御部120は、ステップ314で特定された車載装置に、特定された種類の運転支援情報をメモリ122から読出して送信する。上記したように、位置情報、属性、行動パターン及び行動予測の順で遅延時間は長くなる。これは、サーバ110がセンサ情報を受信する頻度がセンサの種類(レーダセンサまたはイメージセンサ)に依存し、解析処理時間が解析の種類(位置情報、属性、行動パターンまたは行動予測)に依存することが原因の一つである。即ち、解析処理部186による解析結果は、位置特定部190、属性特定部192、行動特定部194及び行動予測部196の順に、更新頻度が低くなる。したがって、制御部120は、解析結果が更新される度に、更新された情報(位置情報、属性、行動パターン及び行動予測のいずれか)のみを送信することができる。即ち、階層化されている運転支援情報は、それぞれ異なるタイミングで、遅延時間の短い順に各階層のデータが送信される。通常、各階層のデータは複数のパケットデータとして送信され、各パケットデータは異なる時刻に送信されるが、ここでは、1つの階層のデータを送信するための複数のパケットデータは、同じタイミングで送信されるとする。即ち、タイミングとは、各パケットデータの送信時刻に対応するものではなく、各階層のデータが送信されるときの各パケットデータの送信時刻を代表する時刻(代表時刻)、または、代表時刻の前後関係を表すものである。
 ステップ318において、制御部120は、終了の指示を受けたか否かを判定する。終了の指示を受けたと判定された場合、本プログラムは終了する。そうでなければ、制御はステップ300に戻る。終了の指示は、例えば、サーバ110が管理者等により操作されることにより成される。
 以上により、サーバ110は、階層化されている運転支援情報のうち送信すべき階層(種類)を、検出物と車両との距離に応じて特定(選択)し、各車両に、その車両にとって利用可能な運転支援情報を送信することができる。したがって、無駄なデータが送信されることを抑制することができ、通信トラフィックの増大を抑制することができる。
 [車両における運転支援情報の利用形態]
 図10を参照して、1台の車両が検出物に近づくにつれて、その車両の車載装置がサーバ110から受信する運転支援情報がどのように変化するかについて説明する。図10において、車両226A~226Dは、図8の時刻からの時間経過に応じた車両226を示す。同様に、歩行者200A~200Dは、図8の時刻からの時間経過に応じた歩行者200を示す。歩行者200A~200Dは歩きスマホの状態を示している。同じアルファベットが付された車両及び人は同時刻の状態を示す。
 両者の距離Xが、X4≧X>X3である位置を走行している状態の車両226Aの車載装置は、サーバ110から、運転支援情報として位置情報、属性、行動パターン及び行動予測を受信し、メモリに記憶する。
 両者の距離Xが、X3≧X>X2である位置を走行するようになった車両226Bの車載装置は、サーバ110から、運転支援情報として位置情報、属性及び行動パターンを受信し、メモリに記憶する。車両226Bは、行動予測を受信しないが、過去に受信してメモリに記憶した行動予測(例えば、最後に受信した行動予測)を保持している。図10において、実線の右向きの矢印は、その間、該当する情報がサーバ110から送信されて更新されることを意味し、破線の右向きの矢印は、その間、該当する情報がサーバ110から送信されず、更新されないことを意味する。破線で示す情報は、過去に記憶された情報であって更新されない情報を意味する。
 両者の距離Xが、X2≧X>X1である位置を走行するようになった車両226Cの車載装置は、サーバ110から、運転支援情報として位置情報及び属性を受信し、メモリに記憶する。車両226Cは、行動パターン及び行動予測を受信しないが、過去に受信した行動パターン及び行動予測を記憶している。
 両者の距離Xが、X1≧X>0である位置を走行するようになった車両226Dの車載装置は、サーバ110から、運転支援情報として位置情報を受信し、メモリに記憶する。車両226Dは、属性、行動パターン及び行動予測を受信しないが、過去に受信した属性、行動パターン及び行動予測を記憶している。
 このように1台の車両において、受信する運転支援情報が変化することにより、車載装置により提供される情報が変化する例を図11~13を参照して説明する。図11は、図10に示した車両226A~226D及び歩行者200A~200Dを、2次元的に示している。図11に示した交差点には、図2に示したように複数の信号機及びインフラセンサが設定されている。図11は、図2と同様に、歩行者用信号機202が赤信号であり、車両用信号機208が青信号である状態を示す。図11において、4つの破線は、歩行者200A~200Dのそれぞれを中心とする、半径X4~X1の円弧である。歩行者200(歩行者200A~200D)は、歩行者用信号機202が赤信号の状態で、歩きスマホの状態で、信号を無視して横断歩道を横断する。
 ここでは、図11において、歩行者200Bは、歩行者200AからN秒後の歩行者を表し、歩行者200Dは、歩行者200BからN秒後の歩行者を表わすとする。このような状況において、車両226A~226Dの車載装置は運転者に、例えば、図12A、図12B、図13A、及び図13Bに示すように情報を提供する。
 図10を参照して上記したように、検出物(歩行者200A)までの距離XがX4≧X>X3である位置を走行している状態の車両226Aの車載装置は、運転支援情報として位置情報、属性、行動パターン及び行動予測を受信する。したがって、車載装置は、受信した運転支援情報から、事故の可能性のある危険な状態の発生(自己車両の進行方向にある交差点で信号無視し始めた歩行者がいること)を特定することができる。それに伴い、車載装置は、例えば、カーナビゲーションシステムの表示画面の一部に、図12Aに示すように、交差点付近の地図と警告するメッセージ230とを表示し、受信した位置情報に含まれる2次元位置に対応する地図上の位置に、現在の歩行者(歩行者200A)を示す図形240Aを表示する。さらに、車載装置は、受信した行動予測に含まれるN秒後の検出物の2次元位置に対応する地図上の位置に、将来の歩行者を示す予測図形242を表示する。図12Aにおいて、位置情報から特定される位置に表示される図形は実線で表示され、行動予測から特定される位置に表示される図形は破線で表示されている(図12B、図13A、及び図13Bにおいても同様)。
 これにより、車両の運転者は、前方の交差点に、信号を無視して横断歩道を渡り始めた歩行者がいることを知ることができ、慎重に運転する必要があることが分かる。
 その後、検出物(歩行者200B)までの距離XがX3≧X>X2である位置を走行するようになった車両226Bの車載装置は、運転支援情報として位置情報、属性及び行動パターンを受信する。上記したように、車両226Bの車載装置は、過去に受信してメモリに記憶した行動予測(例えば、最後に受信した行動予測)を保持している。したがって、車載装置は、受信した運転支援情報から、依然として危険な状態が存在することを特定することができる。それに伴い、車載装置は、図12Bに示すように、表示されている地図上に警告するメッセージ230の表示を維持し、受信した位置情報に含まれる2次元位置に対応する地図上の位置に、現在の歩行者(歩行者200B)を示す図形240Bを表示する。さらに、車載装置は、メモリに記憶している過去の行動予測に含まれる検出物の2次元位置に対応する地図上の位置に、将来の歩行者を示す予測図形244を表示する。
 その後、検出物(歩行者200C)までの距離XがX2≧X>X1である位置を走行するようになった車両226Cの車載装置は、運転支援情報として位置情報及び属性を受信する。上記したように、車両226Cの車載装置は、過去に受信してメモリに記憶した行動パターン及び行動予測を保持している。したがって、車載装置は、受信した運転支援情報から、依然として危険な状態が存在することを特定することができる。それに伴い、車載装置は、図13Aに示すように、表示されている地図上に警告するメッセージ230の表示を維持し、受信した位置情報に含まれる2次元位置に対応する地図上の位置に、現在の歩行者(歩行者200C)を示す図形240Cを表示する。車載装置は、メモリに記憶している過去の行動予測に含まれる検出物の2次元位置に対応する地図上の位置に表示した予測図形244を維持する。
 図12B及び図13Aのような提示により、車両の運転者は、前方の交差点において、信号を無視して横断歩道を渡っている歩行者がいることを知ることができ、依然として慎重に運転する必要があることが分かる。
 その後、検出物(歩行者200D)までの距離XがX1≧X>0である位置を走行するようになった車両226Dの車載装置は、運転支援情報として位置情報を受信する。上記したように、車両226Dの車載装置は、過去に受信してメモリに記憶した属性、行動パターン及び行動予測を保持している。したがって、車載装置は、受信した運転支援情報から、信号無視した歩行者(検出物)が歩道に位置していることを特定することができる。それに伴い、車載装置は、図13Bに示すように、表示されている地図上から警告するメッセージ230の表示を消去し、表示されている地図上に、受信した位置情報に含まれる2次元位置に対応する位置に、現在の歩行者(歩行者200D)を示す図形240Dを表示する。
 これにより、車両の運転者は、前方の交差点において、歩行者が横断歩道を渡り終え、歩道にいることを知ることができ、危険が去ったことが分かる。
 このように、車載装置は、サーバ110から、検出物との距離に応じて送信される、階層化されている運転支援情報を受信することにより、車両の運転者に危険な状態が発生したことを提示し、警告することができる。受信する運転支援情報の種類(階層)が、検出物との距離に応じて変化するので、車載装置は、自己車両にとって無駄な情報を受信することなく、適切に運転支援を行なうことができる。
 上記では、5G回線を使用する場合を説明したが、WiFi等の無線通信であってもよい。
 上記では歩行者を検出対象としたが、これに限定されない。車両が衝突して損傷を与える可能性がある移動物体を検出対象とすることができ、自転車に乗った人、動物等であってもよい。
 上記では、解析結果を階層化されている運転支援情報として車両の車載装置に送信する場合を説明したが、これに限定されない。人が携帯している端末装置(スマートフォン、携帯電話、タブレット等)に送信してもよい。その場合、例えば、端末装置と、検出された車両との位置関係に応じて、検出された車両の情報(位置情報、属性、行動パターン及び行動予測)の種類を選択して送信すればよい。これにより、例えば、危険運転の車両が接近していることを、音声または警告音等により人に警告することができる。
 上記では、車載センサからのセンサ情報をサーバ110に送信し、サーバ110がインフラセンサからの情報と合わせて解析する場合を説明したが、これに限定されない。サーバ110は、インフラセンサからのセンサ情報のみを解析処理の対象としてもよい。サーバ110は、車載センサからのセンサ情報を受信せず、または、受信したとしても、解析対象とせず階層化されている運転支援情報の生成に使用しなくてもよい。
 上記では、サーバ110が、信号機104から交通情報を受信する場合を説明したが、これに限定されない。サーバ110は交通情報を、例えば、信号機を管理・制御する交通管制センターの装置(コンピュータ等)から、ネットワーク108を介して取得してもよい。その場合には、信号機104は、例えば専用回線を介して交通管制センターに現在の交通情報を送信すればよい。
 上記では、階層化されている運転支援情報を受信した車載装置において、危険な状態をカーナビゲーションの表示画面に表示する場合を説明したが、運転者を支援する情報としてどのような情報を提示するか、情報をどのように提示するかは任意である。例えば、音響により提示してもよい。
 上記では、ステップ316において、制御部120は、更新された情報のみを送信するとしたが、これに限定されない。更新された情報と共に、更新されていない情報を、同じタイミングで送信してもよい。例えば、位置情報のみが更新された場合、更新された位置情報と共に、非更新の最新の属性、行動パターン及び行動予測のうちの少なくともいずれか1つを同じタイミングで送信する。車載装置は、階層化されている情報を一度に受信できるので、例えば、上記したように、自己の車両と検出物との位置関係に応じて、適切な情報を使用して、運転者に提示する支援情報を生成することができる。また、車載装置は、非更新の情報を使用せず、更新された情報のみを用いて運転者に提示する支援情報を生成することもできる。このとき、各情報が更新されているか否かを特定する更新情報(例えば、1ビットのフラグ)を付加して送信してもよい。車載装置は、受信した情報と、その直前に受信し記憶している情報との差分を求める等の処理を行なうことなく、更新情報により、受信した情報の更新の有無を判定することができる。車載装置は、更新されていない情報に関して、最新の情報のみを保持し、それ以外の情報を破棄することができ、そのような場合にも、更新情報により、破棄するか否かの判定を容易に行なうことができる。
 上記では、属性特定部192が、位置特定部190の解析結果である位置情報を利用し、行動特定部194が、位置特定部190及び属性特定部192の解析結果である位置情報及び属性を利用し、行動予測部196が、位置特定部190、属性特定部192及び行動特定部194の解析結果である位置情報、属性及び行動を利用する場合を説明したが、これに限定されない。位置特定部190、属性特定部192、行動特定部194及び行動予測部196の一部または全てが、個別に、入力されるセンサ情報を解析してもよい。個別に解析した場合、同じ検出物について統合する処理は、例えば最後に行なえばよい。
 上記では、運転支援情報として、位置情報、属性、行動及び行動予測の4つに階層化されている情報を示したが、これに限定されない。車載装置が受信するセンサ情報の遅延時間に応じて階層化されている運転支援情報であればよい。位置情報、属性、行動及び行動予測の少なくともいずれか1つを含む運転支援情報であってもよい。3階層以下であっても、5階層以上であってもよい。
 上記では、遅延時間SLが配布時間DTを含む場合を説明したが、配布時間DTは、位置情報、属性、行動及び行動予測による差はそれほど大きくない。また、配布時間DTは、データ収集時間DCT及び解析時間ATのいずれよりも小さい傾向にある。したがって、遅延時間SLに配布時間DTを含めなくてもよい。
 上記では、階層化されている運転支援情報のうち送信すべき階層を、検出物と各車両との直線距離に応じて決定する場合を説明したが、これに限定されない。検出物と各車両との位置関係に応じて、送信すべき階層を決定すればよい。すなわち、検出物と各車両との位置関係を、例えば、車両の向き、速度、加速度、及び進行先のいずれか1つに応じて決定する決定部を、サーバ110が備え、サーバ110が、決定された位置関係に基づいて、送信すべき階層を選択してもよい。直線距離ではなく、車両が走行する道路の道なりに沿った距離に応じて、送信すべき階層を決定してもよい。また、検出物と各車両との距離に加えて、車両の走行速度を考慮して、送信すべき階層を決定してもよい。検出物との距離が同じであっても、走行速度が異なると、検出物に到達する時間は異なるので、走行速度が大きい車両の車載装置は、走行速度が小さい車両の車載装置よりも、検出物から遠い位置で、運転支援情報を受信できることが好ましい。例えば、距離を走行速度で除して得られた値(検出物に到達する見込み時間)に応じて、送信すべき階層を決定することができる。また、各車両の加速度を考慮してもよい。また、通常、車両は制限速度前後で走行するので、各車両の走行速度の代わりに、道路に設定された制限速度を使用してもよい。例えば、距離を制限速度で除して得られた値に応じて、送信すべき階層を決定することができる。
 上記では、車両の車載装置毎に、その車両と検出物との距離に応じた階層の運転支援情報を送信する場合を説明したが、これに限定されない。所定の条件でグループ化された複数の車両に、同じ階層の運転支援情報を送信してもよい。例えば、車両の現在位置が所定領域にある車両に対して、同じ階層の運転支援情報を、マルチキャスト送信してもよい。例えば、所定領域に含まれる道路に設置された公知のビーコンを用いて、その領域を走行中の車両の車載装置に、運転支援情報を送信(ブロードキャスト)すればよい。このとき、上記と同様に、所定領域と検出物との距離に応じて、ビーコンから送信する運転支援情報の階層を変更する。車両を特定する必要がないブロードキャスト送信であっても、ビーコンの信号を受信できる車両は限られるので、マルチキャスト送信である。また、移動通信の各基地局のカバーエリアは限定されているので、ビーコンの代わりに、カバーエリアが比較的狭い基地局を用いてもよい。即ち、各基地局と検出物との距離に応じて、各基地局から送信(ブロードキャスト)する運転支援情報の階層を変更する。
 上記では、車載装置から、車両情報として現在の車両の位置情報をサーバ110に送信する場合を説明したが、これに限定されない。例えば、カーナビゲーションに進行先(例えば、目的地または走行ルート)が決定されていれば、その情報を、車両情報としてサーバ110に送信してもよい。サーバ110は、運転支援情報を送信する車両を特定する処理(車両特定部188)において、進行先の情報から、現在、検出物に向かって走行している車両であっても、検出物に到達する前に、走行方向が検出物に向かう方向から逸れると判断できる車両は、運転支援情報の送信対象から除外することができる。これにより、サーバ110の処理負荷を軽減することができる。
 上記では、サーバ110が、各車両と検出物との位置関係に応じて、階層化されている運転支援情報のうち、各車両の車載装置に送信すべき階層を選択して送信する場合を説明したが、これに限定されない。サーバ110が、全ての車両に階層化されている運転支援情報の全階層を送信し、それを受信した各車両の車載装置が、自己車両と検出物との位置関係に応じて、運転支援に使用する階層を選択してもよい。すなわち、車載装置が情報提供装置であってもよい。この場合、車載装置は、サーバ110から解析結果を受信する受信部と、受信された解析結果から階層を選択する選択部と、選択された階層の情報を出力する出力部とを備える。受信部は通信部146によって実現される。選択部は、自己車両(第2の動的物体)と検出物(第1の動的物体)との位置関係に応じて、解析結果から階層を選択する。選択部は、制御部150によって実現される。具体的な一例では、出力部は、選択された階層を含む運転支援情報を、ユーザが視認可能なように表示する。すなわち、車載装置は、表示部を備えており、当該表示部によって出力部が実現されてもよい。他の一例では、車載装置は、自己車両に搭載された表示装置に接続される。表示装置は、例えばI/F部144に接続され、I/F部144から出力される電気信号を受信し、当該電気信号に応じて運転支援情報を含む画面を表示する。さらに他の例では、出力部は、選択された階層を含む運転支援情報を、ユーザが聴取可能な音声として出力する。すなわち、車載装置は、スピーカーを備えており、当該スピーカーによって出力部が実現されてもよい。一例では、車載装置は、自己車両に搭載されたスピーカーに接続される。スピーカーは、例えばI/F部144に接続され、I/F部144から出力される電気信号を受信し、当該電気信号に応じて運転支援情報を含む音声を出力する。I/F部144から表示装置又はスピーカーに電気信号が出力される場合、出力部はI/F部144によって実現される。以上により、車載装置に含まれる選択部は自装置が搭載された車両と検出物との位置関係に応じて所定の階層を選択し、表示装置又はスピーカー等が選択された階層の情報を出力することができる。
 今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
100  情報提供システム
102  インフラセンサ
104  信号機
106  基地局
108  ネットワーク
110  サーバ
112、114、116、118、220、222、224、226、226A、226B、226C、226D  車両
120、150、168  制御部
122、148、166  メモリ
124、146、164  通信部
126、152、170  バス
140、154  車載装置
142、198  センサ
144、162  I/F部
160  センサ部
180  パケット受信部
182  パケット送信部
184  データ分離部
186  解析処理部
188  車両特定部
190  位置特定部
192  属性特定部
194  行動特定部
196  行動予測部
200、200A、200B、200C、200D  歩行者
202、204  歩行者用信号機
206、208、210、212  車両用信号機
230  メッセージ
240A、240B、240C、240D  図形
242、244  予測図形
I  イメージセンサ
R  レーダ
L  レーザセンサ
 

Claims (14)

  1.  第1の動的物体と、前記第1の動的物体に関する情報の提供を受ける一または複数の第2の動的物体との位置関係に応じて、前記第1の動的物体に関するセンサ情報が複数の階層に階層化されている解析結果から階層を選択する選択部と、
     前記選択部により選択された前記階層の情報を出力する出力部と、
     を備える、
     情報提供装置。
  2.  前記解析結果は、前記センサ情報がセンサから送信され解析装置により受信されるまでの時間と、受信された前記センサ情報が前記解析装置により解析される時間とを含む遅延時間の短い順に階層化されている、
     請求項1に記載の情報提供装置。
  3.  前記階層は、前記第1の動的物体の位置情報、属性、行動及び行動予測の少なくともいずれか1つを含む、
     請求項1または請求項2に記載の情報提供装置。
  4.  前記選択部は、前記複数の階層のうち少なくとも2つの階層を選択し、
     前記出力部は、選択された各階層の情報を同じタイミングで、前記第2の動的物体に対して出力する、
     請求項1から請求項3のいずれか1項に記載の情報提供装置。
  5.  前記選択部は、前記複数の階層のうち少なくとも2つの階層を選択し、
     前記出力部は、選択された各階層の情報を相互に異なるタイミングで、前記第2の動的物体に対して出力する、
     請求項1から請求項3のいずれか1項に記載の情報提供装置。
  6.  前記第1の動的物体と前記第2の動的物体との前記位置関係を、前記第2の動的物体の向き、速度、加速度及び進行先の少なくともいずれか1つに応じて決定する決定部をさらに備える、
     請求項1から請求項5のいずれか1項に記載の情報提供装置。
  7.  前記位置関係は、前記第1の動的物体と前記第2の動的物体との間の距離である、
     請求項1から請求項5のいずれか1項に記載の情報提供装置。
  8.  前記出力部は、前記階層の情報と、前記階層の情報が更新されているか否かを表す更新情報とを、前記第2の動的物体に対して出力する、
     請求項1から請求項7のいずれか1項に記載の情報提供装置。
  9.  前記第2の動的物体は複数存在し、複数の前記第2の動的物体は、複数の前記第2の動的物体のそれぞれの現在位置に応じてグループ化されており、
     前記出力部は、同じグループの前記第2の動的物体に対して、同じ前記階層の情報を出力する、
     請求項1から請求項8のいずれか1項に記載の情報提供装置。
  10.  センサ情報を解析して、第1の動的物体を検出し、前記第1の動的物体に関するセンサ情報が複数の階層に階層化されている解析結果を生成するステップと、
     前記第1の動的物体と、前記第1の動的物体に関する情報の提供を受ける一または複数の第2の動的物体との位置関係を特定するステップと、
     前記位置関係に応じて、前記複数の階層から階層を選択するステップと、
     選択された前記階層の情報を出力するステップと、
     を含む、
     情報提供方法。
  11.  コンピュータに、
     センサ情報を解析して、第1の動的物体を検出し、前記第1の動的物体に関するセンサ情報が複数の階層に階層化されている解析結果を生成する機能と、
     前記第1の動的物体と、前記第1の動的物体に関する情報の提供を受ける一または複数の第2の動的物体との位置関係を特定する機能と、
     前記位置関係に応じて、前記複数の階層から階層を選択する機能と、
     選択された前記階層の情報を出力する機能と、
    を実現させる、
     コンピュータプログラム。
  12.  センサ情報を受信する受信部と、
     前記受信部により受信されたセンサ情報を解析して、第1の動的物体を検出し、前記第1の移動物体に関する前記センサ情報が複数の階層に階層化されている解析結果を生成する解析部と、
     を含むサーバコンピュータと、
     前記第1の動的物体に関する情報の提供を受ける一または複数の第2の動的物体が有する通信装置と、
     を備え、
     前記サーバコンピュータは、
      前記第1の動的物体と前記第2の動的物体との位置関係を特定する特定部と、
      前記位置関係に応じて、前記複数の階層から階層を選択する選択部と、
      選択された前記階層の情報を前記通信装置に送信する送信部と、
     をさらに含む、
     情報提供システム。
  13.  センサ情報を受信する受信部と、
     前記受信部により受信されたセンサ情報を解析して、第1の動的物体を検出し、前記第1の移動物体に関するセンサ情報が複数の階層に階層化されている解析結果を生成する解析部と、
     を含むサーバコンピュータと、
     前記第1の動的物体に関する情報を受信する一つまたは複数の第2の動的物体が有する通信装置と、
     を備え、
     前記サーバコンピュータは、
     前記複数の階層の情報を前記第2の動的物体に送信する送信部をさらに有し、
     前記第2の動的物体の前記通信装置は、
     前記サーバコンピュータによって送信された前記複数の階層の情報を受信する受信部と、
     前記第1の動的物体と前記第2の動的物体との位置関係を特定する特定部と、
     前記位置関係に応じて前記複数の階層から階層を選択する選択部と、
     選択された前記階層の情報を出力する出力部と、
     を含む、
     情報提供システム。
  14.  センサ情報が解析されることにより検出された動的物体に関する複数の階層に階層化されているデータ構造であって、
     前記複数の階層は、
      前記動的物体の現在の位置に関する情報を含む第1階層と、
      前記動的物体の現在の属性に関する情報を含む第2階層と、
      前記動的物体の現在の行動パターンに関する情報を含む第3階層と、
      前記動的物体の所定時間後における位置、属性及び行動パターンのうちの少なくともいずれか1つに関する情報を含む第4階層と、
     を含む、
     データ構造。
     
PCT/JP2019/027933 2018-08-24 2019-07-16 情報提供装置、情報提供方法、情報提供システム、コンピュータプログラム、及びデータ構造 WO2020039798A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020538233A JPWO2020039798A1 (ja) 2018-08-24 2019-07-16 情報提供装置、情報提供方法、情報提供システム、コンピュータプログラム、及びデータ構造
CN201980055558.0A CN112602126B (zh) 2018-08-24 2019-07-16 信息提供装置、信息提供方法、信息提供系统、计算机程序和数据结构
DE112019004232.7T DE112019004232T5 (de) 2018-08-24 2019-07-16 Informationsbereitstellungsvorrichtung, Informationsbereitstellungsverfahren, Informationsbereitstellungssystem, Computerprogramm, und Datenstruktur
US17/269,894 US20210319690A1 (en) 2018-08-24 2019-07-16 Information providing device, information providing method, information providing system, computer program, and data structure

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-157239 2018-08-24
JP2018157239 2018-08-24

Publications (1)

Publication Number Publication Date
WO2020039798A1 true WO2020039798A1 (ja) 2020-02-27

Family

ID=69592528

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/027933 WO2020039798A1 (ja) 2018-08-24 2019-07-16 情報提供装置、情報提供方法、情報提供システム、コンピュータプログラム、及びデータ構造

Country Status (5)

Country Link
US (1) US20210319690A1 (ja)
JP (1) JPWO2020039798A1 (ja)
CN (1) CN112602126B (ja)
DE (1) DE112019004232T5 (ja)
WO (1) WO2020039798A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022244377A1 (ja) * 2021-05-18 2022-11-24 株式会社日立製作所 制御システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020244787A1 (en) * 2019-06-07 2020-12-10 NEC Laboratories Europe GmbH Method and system for dynamic event identification and dissemination

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1013961A (ja) * 1996-04-24 1998-01-16 Fujitsu Ltd 移動通信システム並びに同移動通信システムに使用される移動端末,情報センタ及び記憶媒体
WO2014038323A1 (ja) * 2012-09-06 2014-03-13 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2014083778A1 (ja) * 2012-11-30 2014-06-05 パナソニック株式会社 情報提供方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6118763A (en) * 1996-09-27 2000-09-12 Inventions, Inc. Transmission of voice over an asynchronous network
US20030039226A1 (en) * 2001-08-24 2003-02-27 Kwak Joseph A. Physical layer automatic repeat request (ARQ)
JP4990421B2 (ja) * 2010-03-16 2012-08-01 三菱電機株式会社 路車協調型安全運転支援装置
JP5646086B2 (ja) * 2011-11-29 2014-12-24 三菱電機株式会社 歩行者用通信装置およびこれを備えたナビゲーション装置、歩車間通信システム
JP6492660B2 (ja) * 2012-10-03 2019-04-03 日本電気株式会社 通信システム、制御装置、制御方法及びプログラム
CN103832434B (zh) * 2012-11-22 2016-06-29 中国移动通信集团公司 一种行车安全控制系统及方法
WO2017077621A1 (ja) * 2015-11-05 2017-05-11 株式会社日立製作所 移動体移動システム及び移動経路選択方法
CN105957401A (zh) * 2016-06-08 2016-09-21 上海汽车集团股份有限公司 基于车路协同的交叉路口行人防碰撞方法及其装置
JP7031612B2 (ja) * 2017-02-08 2022-03-08 住友電気工業株式会社 情報提供システム、サーバ、移動端末、及びコンピュータプログラム
CN107798916B (zh) * 2017-09-21 2020-07-28 长安大学 车-路-人协同的高速公路行车安全智能预警系统及方法
CN107993456B (zh) * 2017-12-29 2023-08-01 山东科技大学 基于人行道通行末期的单行道智能交通灯控制系统及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1013961A (ja) * 1996-04-24 1998-01-16 Fujitsu Ltd 移動通信システム並びに同移動通信システムに使用される移動端末,情報センタ及び記憶媒体
WO2014038323A1 (ja) * 2012-09-06 2014-03-13 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2014083778A1 (ja) * 2012-11-30 2014-06-05 パナソニック株式会社 情報提供方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022244377A1 (ja) * 2021-05-18 2022-11-24 株式会社日立製作所 制御システム

Also Published As

Publication number Publication date
US20210319690A1 (en) 2021-10-14
CN112602126A (zh) 2021-04-02
JPWO2020039798A1 (ja) 2021-08-10
CN112602126B (zh) 2022-11-25
DE112019004232T5 (de) 2021-06-10

Similar Documents

Publication Publication Date Title
KR101981409B1 (ko) 차량 탑재기, 자동 운전 차량, 자동 운전 지원 시스템, 자동 운전 감시 장치, 도로 관리 장치 및 자동 운전 정보 수집 장치
US20200193831A1 (en) Pedestrian side collision warning systems and methods
US10867510B2 (en) Real-time traffic monitoring with connected cars
US20180072313A1 (en) Method and apparatus for triggering vehicle sensors based on human accessory detection
US8885039B2 (en) Providing vehicle information
JP6888253B2 (ja) 無線通信システム、情報取得端末、コンピュータプログラム、及び提供情報の採用可否の判定方法
US9373255B2 (en) Method and system for producing an up-to-date situation depiction
JP2017151798A (ja) 道路異常警告システム及び車載機
CN110710264A (zh) 通信控制装置、通信控制方法和计算机程序
WO2022057645A1 (zh) 辅助驾驶提醒、地图辅助驾驶提醒方法、装置和地图
JPWO2019151427A1 (ja) 情報送信方法及びクライアント装置
JP7205204B2 (ja) 車両の制御装置及び自動運転システム
JP6269562B2 (ja) 運転支援システム、車載機
JP2022535454A (ja) 無線通信に基づくオブジェクトの分類
JP2020027645A (ja) サーバ、無線通信方法、コンピュータプログラム、及び車載装置
US11341847B1 (en) Method and apparatus for determining map improvements based on detected accidents
US11932278B2 (en) Method and apparatus for computing an estimated time of arrival via a route based on a degraded state of a vehicle after an accident and/or malfunction
WO2017104209A1 (ja) 運転支援装置
WO2020039798A1 (ja) 情報提供装置、情報提供方法、情報提供システム、コンピュータプログラム、及びデータ構造
JP2022542641A (ja) 動的なイベントの特定および流布のための方法およびシステム
JP2019215785A (ja) 情報提供装置、情報提供方法及びコンピュータプログラム
JP2023171455A (ja) 経路予測装置、それを備えた車載装置、経路予測システム、経路予測方法、及びコンピュータプログラム
JP6880586B2 (ja) 情報提供方法および情報提供装置
JP2019079454A (ja) 車両制御システム、機能通知装置、機能通知方法およびコンピュータプログラム
US11480436B2 (en) Method and apparatus for requesting a map update based on an accident and/or damaged/malfunctioning sensors to allow a vehicle to continue driving

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19852465

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020538233

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19852465

Country of ref document: EP

Kind code of ref document: A1