WO2019159494A1 - 情報生成装置、情報生成方法、コンピュータプログラムおよび車載装置 - Google Patents

情報生成装置、情報生成方法、コンピュータプログラムおよび車載装置 Download PDF

Info

Publication number
WO2019159494A1
WO2019159494A1 PCT/JP2018/044111 JP2018044111W WO2019159494A1 WO 2019159494 A1 WO2019159494 A1 WO 2019159494A1 JP 2018044111 W JP2018044111 W JP 2018044111W WO 2019159494 A1 WO2019159494 A1 WO 2019159494A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensors
information
display information
sensor
display
Prior art date
Application number
PCT/JP2018/044111
Other languages
English (en)
French (fr)
Inventor
良明 林
Original Assignee
住友電気工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 住友電気工業株式会社 filed Critical 住友電気工業株式会社
Priority to CN201880089011.8A priority Critical patent/CN111699523B/zh
Priority to DE112018007073.5T priority patent/DE112018007073T5/de
Priority to JP2019559853A priority patent/JP6687169B2/ja
Priority to US16/625,240 priority patent/US11010612B2/en
Publication of WO2019159494A1 publication Critical patent/WO2019159494A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/20Arrangements in telecontrol or telemetry systems using a distributed architecture
    • H04Q2209/25Arrangements in telecontrol or telemetry systems using a distributed architecture using a mesh network, e.g. a public urban network such as public lighting, bus stops or traffic lights
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/40Arrangements in telecontrol or telemetry systems using a wireless architecture

Definitions

  • the present technology relates to an information generation device, an information generation method, a computer program, and an in-vehicle device.
  • This application claims priority based on Japanese Patent Application No. 2018-022896 filed on Feb. 13, 2018, and incorporates all the content described in the above Japanese application.
  • this display control system when information received from a plurality of sensors is displayed on a plurality of display devices, display information suitable for each of the display devices is generated and displayed on the display device.
  • an information generating apparatus provides sensor information indicating a measurement result of the detection target area from each of a plurality of sensors having a common detection target area. Whether or not each of the plurality of sensors detects an object existing in the same predetermined area based on the sensor information acquisition unit that acquires the sensor information and the plurality of sensor information acquired by the sensor information acquisition unit.
  • a determination unit for determining, and a determination result of the determination unit is affirmative, and a predetermined condition for determining whether the objects detected by the plurality of sensors are the same object is not satisfied Generating first display information for separately displaying the object detected by each of the plurality of sensors, the determination result being affirmative and satisfying the predetermined condition, display
  • An information generation method includes: obtaining sensor information indicating a measurement result of the detection target area from each of a plurality of sensors having a common detection target area; The determination result in the step of determining whether or not each of the plurality of sensors has detected an object existing in the same predetermined area and the determination result in the determination step is positive based on the plurality of sensor information And when the predetermined objects for determining whether the objects detected by the plurality of sensors are the same object or not, the objects detected by each of the plurality of sensors are separated from each other.
  • the determination result is affirmative, and the predetermined condition is satisfied, the display mode is different from the display mode of the first display information And generating a second display information for displaying said object, each detected a plurality of sensors.
  • a computer program acquires sensor information indicating a sensor result indicating a measurement result of a detection target area from each of a plurality of sensors having a common detection target area.
  • a determination unit that determines whether each of the plurality of sensors has detected an object present in the same predetermined area based on the plurality of sensor information acquired by the sensor information acquisition unit; and Each of the plurality of sensors is determined when a determination result of the determination unit is affirmative and a predetermined condition for determining whether the objects detected by the plurality of sensors are the same object is not satisfied.
  • An in-vehicle device acquires at least one display information of the first display information and the second display information generated by the information generation device from the information generation device described above. And a display control unit that controls display on a screen based on the display information acquired by the display information acquisition unit.
  • 1 is an overall configuration diagram of a wireless communication system according to an embodiment of the present invention. It is a block diagram which shows an example of a structure of a server. It is a figure which shows an example of the sensor information which a sensor information acquisition part acquires. It is a figure which shows an example of 1st display information. It is a figure which shows an example of 2nd display information. It is a figure which shows an example of 2nd display information. It is a figure which shows an example of 2nd display information. It is a figure which shows an example of 2nd display information. It is a figure which shows an example of 2nd display information. It is a figure which shows an example of 2nd display information. It is a figure which shows an example of 2nd display information. It is a figure for demonstrating the predetermined conditions for judging that the some target object which exists in a predetermined area is the same target object.
  • each sensor when each sensor detects an object in a measurement target area where a plurality of sensors overlap, the same object may be erroneously detected as a separate object due to a difference in detection accuracy for each sensor. is there. In such a case, since display information that uses the same object as separate objects is generated, it may be difficult to perform appropriate driving support control.
  • the present disclosure has been made in view of such circumstances, and provides an information generation device, an information generation method, a computer program, and an in-vehicle device capable of generating appropriate display information from a plurality of sensor information. With the goal. [Effects of the present disclosure]
  • appropriate display information can be generated from a plurality of sensor information.
  • An information generation apparatus includes a sensor information acquisition unit that acquires sensor information indicating a measurement result of the detection target area from each of a plurality of sensors having a common detection target area.
  • a determination unit that determines whether or not each of the plurality of sensors has detected an object existing in the same predetermined area based on the plurality of sensor information acquired by the sensor information acquisition unit;
  • Each of the plurality of sensors when the determination result of the unit is affirmative and the predetermined condition for determining whether or not the objects detected by the plurality of sensors are the same object First display information for separately displaying the detected object is generated, and when the determination result is affirmative and the predetermined condition is satisfied, the display mode of the first display information is different.
  • display And a display information generation unit for generating a second display information for displaying said object, each detected a plurality of sensors in modal.
  • the display mode of the object can be changed depending on whether the predetermined condition is satisfied or not. For example, when a plurality of objects are different objects, the plurality of objects are displayed separately, and when the plurality of objects are the same object, the plurality of objects are displayed in a display mode different from the above display. Can be displayed. Thereby, the user can know whether a plurality of objects are determined to be different objects or whether they are determined to be the same object. Thereby, appropriate display information can be generated from a plurality of sensor information.
  • an area within a predetermined distance from the position of the object based on sensor information obtained from one of the plurality of sensors is set as the predetermined area.
  • the second display information includes information for displaying any one of the objects detected by the plurality of sensors.
  • the display information generation unit is configured to display the selected target object by selecting any one of the target objects based on the types of the plurality of sensors. Is generated.
  • the display information generating unit selects the one of the objects based on the installation targets of the plurality of sensors, thereby displaying the selected object. Information may be generated.
  • the detection result of the roadside sensor installed on the roadside or the like can be selected with priority over the detection result of the in-vehicle sensor. Since the roadside sensor is fixed, the positional accuracy of the sensor itself is higher than the vehicle-mounted sensor on which the sensor moves, and thus the detection accuracy of the object is also increased. For this reason, an object can be displayed with high accuracy.
  • the display information generation unit selects any one of the objects based on a distance from each sensor to the object detected by each sensor, thereby selecting the object.
  • the second display information for displaying may be generated.
  • the second display information may include information for displaying an object obtained by integrating the objects detected by each of the plurality of sensors.
  • the plurality of objects when a plurality of objects existing in a predetermined area are the same object, the plurality of objects can be integrated and displayed. Thereby, the same number of objects as the actual objects can be displayed.
  • the second display information may include information for blinking and displaying the object detected by each of the plurality of sensors.
  • the plurality of objects when a plurality of objects existing in a predetermined area are the same object, the plurality of objects can be blinked and displayed. Thereby, it can inform a user that a plurality of objects are the same object.
  • the second display information may include information for displaying one target object at an average position of the target object detected by each of the plurality of sensors.
  • the display position of the object is an average position of the plurality of objects. By averaging the positions, the position of the object can be brought close to an accurate position. Thereby, the same number of objects as the actual objects can be displayed at the correct positions.
  • the predetermined condition may include a condition based on the position of the object detected by the plurality of sensors.
  • the predetermined condition may include that a distance between the objects detected by the plurality of sensors at a predetermined time in the past is equal to or less than a predetermined distance threshold.
  • the predetermined condition may include that a difference in direction of the object detected by the plurality of sensors is equal to or less than a predetermined angle threshold.
  • the predetermined condition may include that a difference in speed of the object detected by the plurality of sensors is equal to or less than a predetermined speed threshold.
  • the threshold values may be determined based on the types of the plurality of sensors.
  • the sensor detection accuracy varies depending on the sensor type. For this reason, when each of the plurality of high-precision sensors detects an object existing in the predetermined area, the threshold value is set to a small value, and each of the plurality of low-precision sensors detects the object existing in the predetermined area. When detected, by setting the threshold value to a large value, it is possible to accurately determine whether or not a plurality of objects existing in the predetermined area are the same object.
  • the threshold values may be determined based on the installation targets of the plurality of sensors.
  • a roadside sensor installed on the roadside or the like has higher detection accuracy than an in-vehicle sensor. For this reason, when each of the plurality of roadside sensors detects an object, the threshold value is set to a small value. When each of the plurality of vehicle-mounted sensors detects an object, the threshold value is set to a large value. It is possible to accurately determine whether or not a plurality of objects existing in the predetermined area are the same object.
  • each of the threshold values may be determined based on detection accuracy of the plurality of sensors.
  • the threshold value is set to a small value, and each of the plurality of low-precision sensors exists in a predetermined area.
  • each of the threshold values may be determined based on position accuracy of the plurality of sensors.
  • the position accuracy of the sensor affects the position accuracy of the object. For this reason, when each of a plurality of sensors with high positional accuracy detects an object existing in a predetermined area, the threshold value is set to a small value, and each of a plurality of sensors with low positional accuracy exists in a predetermined area. When an object is detected, it is possible to accurately determine whether or not a plurality of objects existing in a predetermined area are the same object by setting the threshold value to a large value.
  • the predetermined condition may include a condition based on at least one of a size, a color, and a shape of the object detected by the plurality of sensors.
  • Vehicles traveling in the same lane or vehicles traveling in parallel in adjacent lanes may travel in the same direction at the same speed in the same position. In such a case, it may be difficult to determine whether or not these vehicles are the same object. In such a case, it is possible to determine whether or not a plurality of objects existing in a predetermined area are the same object by performing a condition determination process based on at least one of the size, color, and shape of the object. It can be determined accurately.
  • the determination unit may determine whether or not the detected target object is to be determined based on a positional relationship between the sensors and the target object detected by the sensors. .
  • An information generation method includes processing executed by the information generation apparatus described above. For this reason, there can exist an effect
  • a computer program according to another embodiment of the present invention causes a computer to function as the above-described information generation device. For this reason, there can exist an effect
  • An in-vehicle device acquires at least one display information of the first display information and the second display information generated by the information generation device from the information generation device described above. And a display control unit that controls display on a screen based on the display information acquired by the display information acquisition unit.
  • At least one display information of the first display information and the second display information created by the information generation device described above can be displayed on the screen. For this reason, appropriate display information generated from a plurality of sensor information can be displayed on the screen.
  • FIG. 1 is an overall configuration diagram of a radio communication system according to an embodiment of the present invention.
  • the wireless communication system functions as a vehicle control system and communicates with a plurality of roadside sensors 1 and vehicles 2 capable of wireless communication and wirelessly with the roadside sensors 1 and 2.
  • a plurality of base stations 4 and a server 5 that communicates with the base stations 4 via a network in a wired or wireless manner.
  • the base station 4 includes at least one of a macro cell base station, a micro cell base station, and a pico cell base station.
  • the server 5 is composed of a general-purpose server capable of SDN (Software-Defined Networking), for example.
  • the relay device such as the base station 4 and a repeater (not shown) is composed of a transport device capable of SDN.
  • the network virtualization technology represented by the above SDN is the basic concept of “5th generation mobile communication system” (hereinafter abbreviated as “5G” (5th generation)) whose standardization is currently in progress. Therefore, the wireless communication system of the present embodiment is composed of 5G, for example.
  • the roadside sensor 1 has a wireless communication function and includes various sensors such as an image type vehicle detector or LiDAR installed on the road, a security camera installed outdoors or indoors.
  • the vehicle 2 includes an in-vehicle device 3 having a wireless communication function.
  • the in-vehicle device 3 includes various sensors (hereinafter referred to as “in-vehicle sensor”) such as a camera and a millimeter wave radar.
  • Vehicle 2 includes not only ordinary passenger cars but also public vehicles such as route buses and emergency vehicles. Further, the vehicle 2 may be a two-wheeled vehicle (motorcycle) as well as a four-wheeled vehicle.
  • the drive system of the vehicle 2 may be any of engine drive, electric motor drive, and hybrid system.
  • the driving method of the vehicle 2 may be either a normal driving in which an occupant performs operations such as acceleration / deceleration or steering of the steering wheel, or an automatic driving in which the operation is executed by software.
  • FIG. 2 is a block diagram illustrating an example of the configuration of the server 5.
  • the server 5 functions as an information generation device, and includes a control unit 51 including a CPU (Central Processing Unit), a ROM (Read Only Memory) 55, a RAM (Random Access Memory) 56, A storage unit 57 and a communication unit 58 are provided.
  • a control unit 51 including a CPU (Central Processing Unit), a ROM (Read Only Memory) 55, a RAM (Random Access Memory) 56, A storage unit 57 and a communication unit 58 are provided.
  • a control unit 51 including a CPU (Central Processing Unit), a ROM (Read Only Memory) 55, a RAM (Random Access Memory) 56, A storage unit 57 and a communication unit 58 are provided.
  • a control unit 51 including a CPU (Central Processing Unit), a ROM (Read Only Memory) 55, a RAM (Random Access Memory) 56, A storage unit 57 and a communication unit 58 are provided.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the control unit 51 reads out one or more programs stored in advance in the ROM 55 to the RAM 56 and executes them, thereby controlling the operation of each hardware and causing the computer device to function as the server 5 that can communicate with the base station 4. . That is, the control unit 51 includes a sensor information acquisition unit 52, a determination unit 53, and a display information generation unit 54 as functional processing units realized by executing a program.
  • the RAM 56 is composed of a volatile memory element such as SRAM (Static RAM) or DRAM (Dynamic RAM), and temporarily stores a program executed by the control unit 51 and data necessary for the execution.
  • SRAM Static RAM
  • DRAM Dynamic RAM
  • the storage unit 57 includes a nonvolatile memory element such as a flash memory or an EEPROM (Electrically-Erasable-Programmable-Read-Only Memory), or a magnetic storage device such as a hard disk.
  • a nonvolatile memory element such as a flash memory or an EEPROM (Electrically-Erasable-Programmable-Read-Only Memory), or a magnetic storage device such as a hard disk.
  • the communication unit 58 includes a communication device that executes communication processing compatible with 5G, and communicates with the base station 4 via the network.
  • the communication unit 58 transmits the information given from the control unit 51 to the external device via the network, and gives the control unit 51 the information received via the network.
  • the sensor information acquisition unit 52 of the control unit 51 acquires, from the vehicle 2 or the roadside sensor 1, various sensor information measured by the vehicle 2 or the roadside sensor 1 in the service area of the server 5 at a predetermined period. . That is, the sensor information acquisition unit 52 acquires sensor information indicating the measurement result of the detection target area of the sensor from each sensor.
  • FIG. 3 is a diagram illustrating an example of sensor information acquired by the sensor information acquisition unit 52.
  • a millimeter wave radar hereinafter referred to as “roadside millimeter wave radar” 1M and a camera (hereinafter referred to as “roadside camera”) 1C are installed as the roadside sensor 1 on the roadside.
  • the roadside millimeter wave radar 1M monitors the detection target area 7M and detects the vehicle 2I in the detection target area 7M.
  • the roadside camera 1C monitors the detection target area 7C and detects the vehicle 2J in the detection target area 7C.
  • the sensor information acquisition part 52 acquires the sensor information containing the positional information on the vehicle 2I from the roadside millimeter wave radar 1M, and acquires the sensor information containing the positional information on the vehicle 2J from the roadside camera 1C.
  • the roadside sensor 1 is shown in FIG. 3, a vehicle-mounted sensor may be sufficient.
  • a LiDAR, an ultrasonic sensor, or the like may be used as the roadside sensor 1, a LiDAR, an ultrasonic sensor, or the like may be used.
  • the determination unit 53 of the control unit 51 determines whether or not each of the plurality of sensors has detected an object existing in the same predetermined area based on the sensor information acquired by the sensor information acquisition unit 52.
  • the determination unit 53 determines whether there are a plurality of vehicles included in the predetermined area. Judging by.
  • the display information generation unit 54 of the control unit 51 is configured to separately display the objects detected by each of the plurality of sensors when the determination result of the determination unit 53 is positive and the predetermined condition is not satisfied.
  • First display information is generated.
  • the predetermined condition is a condition for determining that a plurality of objects existing in the predetermined area (area 8) are the same object. Details of the predetermined condition will be described later. That is, the display information generation unit 54 detects a plurality of objects in a predetermined area, and when the plurality of objects are different objects, the first display for separately displaying the plurality of objects. Generate information.
  • FIG. 4A is a diagram illustrating an example of the first display information.
  • the vehicle 2I and the vehicle 2J are displayed separately.
  • each vehicle is displayed with a vehicle icon, for example.
  • the display information generation unit 54 displays each of the plurality of sensors in a display mode different from the display mode of the first display information.
  • Second display information for displaying the detected object is generated. That is, when a plurality of objects are detected in the predetermined area and the plurality of objects are the same object, the display information generation unit 54 displays the plurality of objects as the display mode of the first display information. Second display information for displaying in a display mode different from the above is generated.
  • FIG. 4B to 4F are diagrams illustrating examples of second display information.
  • the second display information shown in FIG. 4B one of the objects detected by each of the plurality of sensors is displayed. That is, in the second display information, the vehicle 2J is selected and displayed among the vehicles 2I and 2J shown by the first display information in FIG. 4A.
  • the vehicle 2I may be selected and displayed.
  • the target object to be displayed may be selected at random, or may be selected according to the criteria described below.
  • the display information generation unit 54 may select any one of the plurality of objects based on the types of the plurality of sensors. Cameras and LiDAR are highly accurate, but millimeter wave radars are less accurate than those. For this reason, the priority order of the sensors may be determined in descending order of accuracy, and the display information generation unit 54 may select an object detected by the sensor having the highest priority order. Thereby, a target object can be displayed with high precision.
  • the server 5 may determine the sensor type from the sensor ID included in the sensor information acquired by the sensor information acquisition unit 52 with reference to a table associating the sensor type with the sensor ID. Note that sensor detection accuracy information may be added to the sensor information. Thereby, the display information generation unit 54 can select the object corresponding to the sensor information by giving priority to the sensor information with high detection accuracy based on the detection accuracy information.
  • the display information generation unit 54 may select any one of the plurality of objects based on the installation targets of the plurality of sensors.
  • the roadside sensor 1 installed on the roadside or the like often has higher detection accuracy than the vehicle-mounted sensor installed on the vehicle 2. For this reason, the display information generation unit 54 selects the object detected by the roadside sensor 1 with priority over the object detected by the vehicle-mounted sensor. Thereby, a target object can be displayed with high precision.
  • the server 5 may determine the sensor installation target from the sensor ID included in the sensor information acquired by the sensor information acquisition unit 52 with reference to a table associating the sensor installation target with the sensor ID.
  • the display information generation unit 54 may select any one of the plurality of objects based on the distance from each sensor to the object detected by the sensor. The closer the distance to the object, the higher the detection accuracy of the sensor. For this reason, the display information generation unit 54 selects an object detected by a sensor having the closest distance to the object. Thereby, a target object can be displayed with high precision.
  • one object is displayed at the average position of the objects detected by each of the plurality of sensors. That is, in the second display information, the vehicle 2L is displayed at the average position of the vehicle 2I and the vehicle 2J indicated by the first display information in FIG. 4A. By averaging the positions, the position of the object can be brought close to an accurate position. Thereby, the same number of objects as the actual objects can be displayed at the correct positions.
  • the second display information shown in FIG. 4D an object obtained by integrating the objects detected by each of the plurality of sensors is displayed. That is, in the second display information, a vehicle 2N having a size covering the vehicle 2I and the vehicle 2J is displayed at the position of the vehicle 2I and the vehicle 2J shown by the first display information in FIG. 4A.
  • the objects detected by each of the plurality of sensors are displayed while blinking. That is, in the second display information, the vehicle 2I and the vehicle 2J indicated by the first display information in FIG. 4A are displayed while blinking. As a result, the user can be notified that the vehicle 2I and the vehicle 2J are the same vehicle 2.
  • the object detected by each of the plurality of sensors is displayed in a different color from the object indicated by the first display information. That is, in the second display information, the vehicle 2I and the vehicle 2J shown by the first display information in FIG. 4A are displayed in a different color.
  • the display information generation unit 54 creates second display information of at least one display mode shown in FIGS. 4B to 4F, for example. Note that the display information generation unit 54 can also create second display information that combines these display modes.
  • the display information generating unit 54 When receiving the display information request message from the in-vehicle device 3 of the vehicle 2 or the communication terminal owned by the user, the display information generating unit 54 sends the generated display information to the in-vehicle device 3 or communication terminal that is the transmission source of the request message. To deliver.
  • FIG. 5 is a diagram for explaining a predetermined condition for determining that a plurality of objects existing in a predetermined area are the same object.
  • the predetermined condition includes a condition based on the positions of the objects detected by a plurality of sensors. For example, when a plurality of objects are the same object, it is considered that the positions of the plurality of objects are the same in both the present and the past. On the other hand, when a plurality of objects are different objects, even if the current positions of the plurality of objects coincide with each other, it is considered that the positions of the objects are different in the past. For this reason, if the positions of a plurality of objects coincide at the time k seconds before the current time (k is a positive value), the display information generation unit 54 determines that they are the same object. If they do not match, it is determined that they are different objects. Even if the positions of the objects do not exactly match, it can be assumed that the positions of the objects match if the distance between the objects is equal to or less than a predetermined distance threshold.
  • the distance threshold is a positive value.
  • the display information generation unit 54 determines that the vehicle 2K and the vehicle 2J are different vehicles.
  • the predetermined condition may include that the difference in the direction of the object detected by the plurality of sensors is equal to or less than a predetermined angle threshold. That is, the display information generation unit 54 determines that the plurality of objects are the same when the direction difference is equal to or smaller than the predetermined angle threshold, and the plurality of objects when the direction difference is larger than the predetermined angle threshold. Are determined to be different.
  • the angle threshold value is a positive value. In the example shown in FIG. 5, it can be determined that the vehicle 2I is traveling northward from the position change, and the vehicle 2K can be determined to be traveling eastward from the position change. . For this reason, the difference of both directions is about 90 degrees. For example, when the angle threshold is set to 5 °, the display information generation unit 54 determines that the vehicle 2K and the vehicle 2J are different vehicles.
  • the predetermined condition may include that the difference between the speeds of the objects detected by the plurality of sensors is equal to or less than a predetermined speed threshold.
  • the speed of the object is calculated based on the distance and time between two points of the object.
  • the speed threshold is a positive value.
  • the display information generation unit 54 determines that the vehicles 2I and 2K are the same when the absolute value of the difference between the speeds v1 and v2 is equal to or less than a predetermined speed threshold, and the absolute value of the difference between the speeds is greater than the predetermined speed threshold. Is also larger, it is determined that the vehicles 2I and 2K are different.
  • the predetermined condition may include a condition based on at least one of the size, color, and shape of the object detected by the plurality of sensors. For example, when the sensor is a camera, the size, color and shape of the object can be detected.
  • the predetermined condition may include that the difference in size of the objects detected by the plurality of sensors is equal to or smaller than a predetermined size threshold. For example, when the size of the object is the number of pixels in the area occupied by the object in the image, the predetermined condition is set when the difference in the number of pixels in the area corresponding to the object is equal to or less than a predetermined size threshold. It may be satisfied.
  • the predetermined condition may include that the color difference between the objects detected by the plurality of sensors is equal to or less than a predetermined color threshold.
  • the predetermined condition may be satisfied when the difference in the average brightness of the R, G, and B colors of the object is equal to or less than the color threshold.
  • the predetermined condition may include that the shapes of the objects detected by a plurality of sensors are similar. For example, when the shape of the object in the image is approximated to a rectangle, the shape of the object is indicated by the ratio of the long side to the short side of the rectangle corresponding to the object.
  • the predetermined condition may be satisfied when the difference in the ratio corresponding to the object detected by the plurality of sensors is equal to or less than a predetermined ratio threshold value.
  • a plurality of vehicles traveling in the same lane or a plurality of vehicles running in parallel in adjacent lanes are erroneously determined as one vehicle. Can be prevented. Thereby, it can be determined correctly whether the several target object which exists in a predetermined area is the same target object.
  • various thresholds such as a speed threshold and an angle threshold used when determining the various predetermined conditions described above may be determined based on the types of a plurality of sensors.
  • the camera and LiDAR have high accuracy, but the millimeter wave radar has low accuracy compared to them.
  • the threshold value is set to a small value (first threshold value), and the low-accuracy among the plurality of sensors is set.
  • the threshold value may be set to a large value (a second threshold value that is larger than the first threshold value).
  • the server 5 may determine the sensor type from the sensor ID included in the sensor information acquired by the sensor information acquisition unit 52 with reference to a table associating the sensor type with the sensor ID.
  • the various threshold values may be determined based on the installation targets of a plurality of sensors.
  • the roadside sensor 1 installed on the roadside or the like often has higher detection accuracy than the vehicle-mounted sensor installed on the vehicle 2. For this reason, when each of the plurality of roadside sensors 1 detects an object, the threshold is set to a small value (first threshold), and when each of the plurality of in-vehicle sensors detects an object, the threshold is increased. Set to a value (second threshold greater than the first threshold). Thereby, it can be determined correctly whether the several target object which exists in a predetermined area is the same target object.
  • the server 5 may determine the sensor installation target from the sensor ID included in the sensor information acquired by the sensor information acquisition unit 52 with reference to a table associating the sensor installation target with the sensor ID.
  • the various threshold values may be determined based on detection accuracy of a plurality of sensors.
  • the threshold value is set to a small value (first threshold value)
  • the threshold value is set. May be set to a large value (second threshold value larger than the first threshold value).
  • second threshold value larger than the first threshold value
  • the various threshold values may be determined based on the positional accuracy of a plurality of sensors. Since the roadside sensor 1 installed on the roadside or the like is fixed, the position accuracy of the sensor is higher than the vehicle-mounted sensor installed on the vehicle 2.
  • the absolute position of the object can be defined by the absolute position of the sensor and the relative position from the sensor to the object. For this reason, when the detection accuracy of the absolute position of the sensor is low, the detection accuracy of the absolute position of the object is also lowered. That is, the higher the position accuracy of the sensor, the higher the detection accuracy of the absolute position of the object.
  • the server 5 may determine the sensor position accuracy from the sensor ID included in the sensor information acquired by the sensor information acquisition unit 52 with reference to a table that associates the sensor position accuracy with the sensor ID. As will be described later, sensor position accuracy information may be included in the sensor information.
  • FIG. 6 is a block diagram illustrating an example of the configuration of the in-vehicle device 3.
  • the in-vehicle device 3 of the vehicle 2 includes a control unit (ECU: Electronic Control Unit) 31, a GPS (Global Positioning System) receiver 32, a vehicle speed sensor 33, a gyro sensor 34, and a storage unit. 35, a display 36, a speaker 37, an input device 38, a camera 39, a millimeter wave radar 40, and a communication unit 41.
  • ECU Electronic Control Unit
  • GPS Global Positioning System
  • the communication unit 41 is composed of a wireless communication device capable of 5G compatible communication processing, for example.
  • the communication unit 41 may be a wireless communication device that is already installed in the vehicle 2, or may be a mobile terminal that the passenger has brought into the vehicle 2.
  • the passenger terminal When the passenger's mobile terminal is connected to the in-vehicle LAN (Local Area Network) of the vehicle 2, the passenger terminal temporarily becomes an in-vehicle wireless communication device.
  • the in-vehicle LAN Local Area Network
  • the control unit 31 includes a computer device that performs route search of the vehicle 2, control of the other electronic devices 32 to 41, and the like.
  • the control part 31 calculates
  • the control part 31 complements a GPS signal by using together the GPS complementary signal or GPS reinforcement signal which the receiver which receives the signal transmitted from the quasi-zenith satellite which is not shown in figure, or vehicle of the own vehicle The position may be corrected.
  • the control unit 31 complements the vehicle position and direction based on the input signals of the vehicle speed sensor 33 and the gyro sensor 34 and grasps the accurate current position and direction of the vehicle 2.
  • the GPS receiver 32, the vehicle speed sensor 33, and the gyro sensor 34 are sensors that measure the current position, speed, and direction of the vehicle 2.
  • the storage unit 35 includes a map database.
  • the map database provides road map data to the control unit 31.
  • the road map data includes link data and node data, and is stored in a recording medium such as a DVD, a CD-ROM, a memory card, or an HDD.
  • the storage unit 35 reads out necessary road map data from the recording medium and provides it to the control unit 31.
  • the display 36 and the speaker 37 are output devices for notifying a user who is a passenger of the vehicle 2 of various information generated by the control unit 31.
  • the display 36 displays an input screen for route search, a map image around the host vehicle, route information to the destination, and the like.
  • the speaker 37 outputs an announcement or the like for guiding the vehicle 2 to the destination. These output devices can also notify the passenger of the provision information received by the communication unit 41.
  • the input device 38 is a device for a passenger of the vehicle 2 to perform various input operations.
  • the input device 38 includes a combination of an operation switch provided on the handle, a joystick, a touch panel provided on the display 36, and the like.
  • the voice recognition device that accepts input by voice recognition of the passenger can also be used as the input device 38.
  • the input signal generated by the input device 38 is transmitted to the control unit 31.
  • the camera 39 is composed of an image sensor that captures an image in front of the vehicle 2.
  • the camera 39 may be either a single eye or a compound eye.
  • the millimeter wave radar 40 includes a sensor that detects an object present in front of or around the vehicle 2.
  • Various sensors such as LiDAR, laser radar, and ultrasonic radar can be used instead of or together with the millimeter wave radar 40.
  • the control unit 31 Based on the measurement data from the camera 39 and the millimeter wave radar 40 and the sensor information acquired from the server 5, the control unit 31 outputs a warning to the occupant during driving to the display 36 or performs forced braking intervention. Driving assistance control to be performed can be executed.
  • the control unit 31 is configured by an arithmetic processing device such as a microcomputer that executes various control programs stored in the storage unit 35.
  • the control unit 31 executes the above control program, thereby supporting a safe driving of the vehicle 2, a function of displaying a map image on the display 36, a route from the departure point to the destination (if there is a relay point, Various navigation functions such as a function for calculating the position of the vehicle 2 and a function for guiding the vehicle 2 to the destination according to the calculated route can be executed.
  • the control unit 31 calculates a recognition process for recognizing an object in front of or around the host vehicle and a distance to the recognized object based on at least one measurement data of the camera 39 and the millimeter wave radar 40. Ranging processing is possible.
  • the control unit 31 can calculate the position information of the object recognized by the recognition process from the distance calculated by the distance measurement process and the sensor position of the host vehicle.
  • the control unit 31 includes a display information acquisition unit 31 ⁇ / b> A and a display control unit 31 ⁇ / b> B, and can execute the following processes in communication with the server 5.
  • 1) Request message transmission processing 2) Display information reception processing 3) Communication packet transmission processing
  • the request message transmission process is a process in which the display information acquisition unit 31A transmits to the server 5 a control packet for requesting the distribution of the display information generated by the server 5.
  • the control packet includes the vehicle ID of the host vehicle.
  • the server 5 When the server 5 receives the request message including the predetermined vehicle ID, the server 5 distributes the display information to the communication unit 41 of the vehicle 2 having the transmission source vehicle ID at a predetermined distribution cycle.
  • the display information reception process is a process in which the display information acquisition unit 31A receives the display information distributed by the server 5 to the device itself.
  • the display control unit 31B executes processing for causing the display 36 to display the received display information.
  • the display control unit 31B superimposes the received display information on the map image and displays it on the display 36.
  • the transmission process of the communication packet in the vehicle 2 is a process of transmitting a communication packet including the sensor information indicating the detection result of the object by the camera 39 or the millimeter wave radar 40 to the server 5.
  • the transmission process of the communication packet is performed within the display information distribution cycle by the server 5.
  • the sensor information includes position information of the object (latitude information and longitude information of the object), distance information from the vehicle 2 (camera 39 or millimeter wave radar 40) to the object, and position information of the vehicle 2 (vehicle 2). Latitude information and longitude information), speed information of the vehicle 2, azimuth information of the vehicle 2, position accuracy information of the sensor, and the like.
  • the position accuracy information of the sensor is information indicating the position accuracy of the vehicle 2.
  • the positional accuracy information of the sensor is determined by, for example, the following (a) to (g).
  • the control unit 31 includes the vehicle ID of the host vehicle in the communication packet and transmits it to the server 5.
  • FIG. 7 is a block diagram illustrating an example of the configuration of the roadside sensor 1.
  • the roadside sensor 1 includes a control unit 11, a storage unit 12, a camera 13, a millimeter wave radar 14, and a communication unit 15.
  • the communication unit 15 includes a wireless communication device capable of 5G-compatible communication processing, for example.
  • the roadside sensor 1 can communicate with the server 5.
  • the control unit 11 includes a CPU, a ROM, a RAM, and the like.
  • the control unit 11 reads and executes the program stored in the storage unit 12 and controls the overall operation of the roadside sensor 1.
  • the storage unit 12 is composed of a hard disk, a non-volatile memory, and the like, and stores various computer programs and data.
  • the storage unit 12 stores a sensor ID that is identification information of the roadside sensor 1.
  • the sensor ID includes, for example, a user ID unique to the owner of the roadside sensor 1 and a MAC address.
  • the camera 13 is composed of an image sensor that captures an image of a predetermined shooting area.
  • the camera 13 may be either monocular or compound eye.
  • the millimeter wave radar 14 includes a sensor that detects an object in front of or around the millimeter wave radar 14.
  • Various sensors such as LiDAR, laser radar, and ultrasonic radar can be used instead of or together with the millimeter wave radar 14.
  • the roadside sensor 1 may be provided with only one of the camera 13 and the millimeter wave radar 14.
  • the control unit 11 recognizes an object in the imaging area based on at least one measurement data of the camera 13 and the millimeter wave radar 14, and a distance measurement process that calculates a distance to the recognized object. Is possible.
  • the control unit 11 can calculate the position information of the object recognized by the recognition process from the distance calculated by the distance measurement process and the sensor position of the host vehicle.
  • the control unit 11 can execute communication packet transmission processing in communication with the server 5.
  • the transmission process of the communication packet by the roadside sensor 1 is a process of transmitting a communication packet including the sensor information indicating the detection result of the object by the camera 13 or the millimeter wave radar 14 to the server 5.
  • the transmission process of the communication packet is performed within the display information distribution cycle by the server 5.
  • the sensor information includes position information of the object (latitude information and longitude information of the object), distance information from the roadside sensor 1 to the object, and the like.
  • the control unit 11 includes the sensor ID in the communication packet and transmits it to the server 5.
  • FIG. 8 is a sequence diagram showing an example of display information distribution processing executed by the cooperation of the in-vehicle device 3, the in-vehicle camera 2C, the in-vehicle millimeter wave radar 2M, the roadside camera 1C, the roadside millimeter wave radar 1M, and the server 5. It is. By repeating the sequence shown in FIG. 8 at a predetermined interval (for example, an interval of 100 msec), a function for assisting safe driving is selected and distributed at a predetermined interval.
  • a predetermined interval for example, an interval of 100 msec
  • the vehicle-mounted device 3 indicates a vehicle-mounted device installed in the vehicle 2 that receives display information.
  • the in-vehicle camera 2 ⁇ / b> C indicates the in-vehicle device 3 including the camera 39.
  • the in-vehicle millimeter wave radar 2M indicates the in-vehicle device 3 including the millimeter wave radar 40.
  • the roadside camera 1 ⁇ / b> C shows the roadside sensor 1 including the camera 13.
  • the roadside millimeter wave radar 1M indicates the roadside sensor 1 including the millimeter wave radar 14.
  • these sensors are examples, and any one of the sensors may not be included, or other sensors may be included.
  • the object detected by each sensor is described as a moving object, but the object to be detected may be a stationary object.
  • the in-vehicle camera 2C detects a moving object such as the vehicle 2 or the pedestrian 6 traveling in front of or around the vehicle 2 including the in-vehicle camera 2C based on the video data captured by the camera 39 (S1).
  • the in-vehicle millimeter wave radar 2M detects a moving object such as the vehicle 2 or the pedestrian 6 traveling in front of or around the vehicle 2 including the millimeter wave radar 40 based on the measurement data of the millimeter wave radar 40 (S2).
  • the roadside camera 1C detects a moving object such as another vehicle 2 or a pedestrian 6 traveling in front of or around the roadside camera 1C based on video data captured by the camera 13 (S3).
  • the roadside millimeter wave radar 1M detects a moving object such as another vehicle 2 or a pedestrian 6 traveling in front of or around the roadside millimeter wave radar 1M based on the measurement data of the millimeter wave radar 14 (S4).
  • the in-vehicle camera 2C transmits a communication packet including sensor information including the detection result of the moving object to the server 5 (S5).
  • the server 5 receives the communication packet transmitted from the in-vehicle camera 2C.
  • the in-vehicle millimeter wave radar 2M transmits a communication packet including sensor information including the detection result of the moving object to the server 5 (S6).
  • the server 5 receives the communication packet transmitted from the in-vehicle millimeter wave radar 2M.
  • the roadside camera 1C transmits a communication packet including sensor information including the detection result of the moving object to the server 5 (S7).
  • the server 5 receives the communication packet transmitted from the roadside camera 1C.
  • the roadside millimeter wave radar 1M transmits a communication packet including sensor information including the detection result of the moving object to the server 5 (S8).
  • the server 5 receives the communication packet transmitted from the roadside millimeter wave radar 1M.
  • the server 5 displays information indicating a moving object detected by each sensor based on sensor information included in communication packets respectively received from the in-vehicle camera 2C, the in-vehicle millimeter wave radar 2M, the roadside camera 1C, and the roadside millimeter wave radar 1M. Is generated (S9).
  • the generation process (step S9) of display information (first display information, second display information, or third display information described later) will be described later.
  • the in-vehicle device 3 transmits a control packet requesting distribution of display information to the server 5 as a request message (S10).
  • the server 5 receives the request message from the in-vehicle device 3, and transmits the display information generated in the display information generation process (step S9) to the in-vehicle device 3 that is the transmission source of the request message (S11).
  • the in-vehicle device 3 of the vehicle 2 receives the display information and executes a process for causing the display 36 to display the received display information.
  • Step S9 in FIG. 8 Details of the display information generation process (step S9 in FIG. 8) will be described.
  • FIG. 9 is a flowchart showing details of the display information generation process (step S9 in FIG. 8).
  • the determination unit 53 of the server 5 based on the sensor information acquired by the sensor information acquisition unit 52 from a moving object (hereinafter referred to as “first object”) detected by a certain sensor. It is determined whether or not there is a moving object (hereinafter referred to as “second object”) detected by another sensor within the range (S21).
  • first object a moving object
  • second object another sensor within the range (S21).
  • step S21 determines the first object and the second object at a time k seconds before the current time (k is a positive value). It is determined whether or not the positions match (S22). That is, the display information generation unit 54 determines that the positions of the first object and the second object are equal to each other when the distance between the first object and the second object k seconds before the current time is equal to or less than a predetermined distance threshold, If the distance is greater than the distance threshold, it is determined that the positions do not match.
  • FIG. 5 shows the vehicle 2K and the vehicle 2I whose positions before k seconds do not match.
  • the display information generation unit 54 determines whether the traveling directions of the first object and the second object match. Is determined (S23). That is, the display information generation unit 54 determines that the traveling directions match when the difference between the directions of the first object and the second object is equal to or less than the predetermined angle threshold, and the difference between the directions is greater than the angle threshold. If it is larger, it is determined that the traveling directions do not match.
  • FIG. 5 shows the vehicle 2K and the vehicle 2I whose traveling directions do not match.
  • the display information generation unit 54 determines whether or not the speeds of the first object and the second object match. (S24). That is, when the absolute value of the difference between the speeds of the first object and the second object is equal to or less than a predetermined speed threshold, the display information generation unit 54 determines that the speeds of the two objects match and determines the absolute difference between the speeds. If the value is greater than the speed threshold, it is determined that the speeds of the two are different (S24).
  • the display information generation unit 54 determines that the first object and the second object are the same moving object, and the first object Second display information for integrating and displaying the object and the second object is generated (S25). Examples of the second display information are as shown in FIGS. 4B to 4D.
  • the second display information may be display information for displaying the first object and the second object as shown in FIG. 4E or FIG. 4F without integrating them.
  • the display information generation unit 54 determines that the first object and the second object are different moving objects.
  • the first display information for displaying the first object and the second object is generated (S26). An example of the first display information is as shown in FIG. 4A.
  • the display information generating unit 54 When the second object does not exist within the predetermined distance range from the first object (NO in S21), the display information generating unit 54 generates the third display information for displaying the first display object (S27). .
  • the display mode can be changed. For example, when a plurality of objects are different objects, the plurality of objects are displayed separately, and when the plurality of objects are the same object, the plurality of objects are displayed in a display mode different from the above display. Can be displayed. Thereby, the user can know whether a plurality of objects are determined to be different objects or whether they are determined to be the same object. Thereby, appropriate display information can be generated from a plurality of sensor information.
  • the position of the object detected by the sensor is not limited. However, the position of the object may be limited.
  • the determination unit 53 of the server 5 may determine whether or not the detected object is to be determined based on the positional relationship between each sensor and the object detected by each sensor.
  • FIG. 10 is a diagram for illustrating a criterion for determining whether or not an object is to be determined.
  • the detection range of the in-vehicle camera, the detection range of the in-vehicle millimeter wave radar, and the detection range of the in-vehicle LiDAR shown in FIG. 10 indicate ranges in which the detection accuracy of the object by each sensor is high. That is, each sensor can detect an object outside the detection range, but the detection accuracy of the object is low outside the detection range.
  • the detection range shown in FIG. 10 is an example, and changes with the detection accuracy of each sensor. For example, it is assumed that the detection range of the 8K in-vehicle camera is wider than that of the 4K in-vehicle camera.
  • the determining unit 53 determines whether the target is included in the detection range of the vehicle-mounted millimeter-wave radar set in front of the vehicle-mounted millimeter-wave radar. If the target is not included in the detection range, the target is removed from the determination target.
  • the determination unit 53 sets the object as a determination target, and the object is detected When it is not included in the range, the target object is excluded from the determination target.
  • the determination unit 53 sets the target as a determination target, and the target is detected. When it is not included in the range, the target object is excluded from the determination target.
  • the determination unit 53 determines whether or not both objects are the same when only a target with high detection accuracy is determined as a determination target and another target exists within a predetermined distance from the target determined as the determination target. Make a decision.
  • this modification it is possible to determine whether or not a plurality of objects existing in the predetermined area are the same object only when the distance to the object is short. Thereby, it is possible to perform the determination process only on the object with high detection accuracy without performing the determination process on the object with low detection accuracy located far from the sensor. Thereby, the reliability of the determination process can be improved, and it can be accurately determined whether or not a plurality of objects existing in the predetermined area are the same object.
  • the detection range of the in-vehicle sensor is shown. However, the detection range of the road-side sensor is also set in the same manner. Can be determined.
  • the above-described wireless communication system can also be realized as an information generation apparatus shown in the following supplementary note 1.
  • a sensor information acquisition unit that acquires sensor information indicating the measurement result of the detection target area from each sensor; Based on the sensor information acquired by the sensor information acquisition unit, a determination unit that determines whether or not each of the plurality of sensors has detected an object present in the same predetermined area; When the determination result of the determination unit is affirmative and the predetermined condition for determining whether the object detected by the plurality of sensors is the same object or not, First display information for individually displaying the detected object is generated, and when the determination result is affirmative and the predetermined condition is satisfied, the display mode of the first display information Comprises a display information generator for generating second display information for displaying the object detected by each of the plurality of sensors in different display modes, The information generating apparatus, wherein the second display information includes information for displaying the object detected by each of the plurality of sensors in a color different from that of the object indicated by the first display information.
  • the display information generation unit 54 determines whether or not a plurality of objects existing in the predetermined area are the same object by determining whether or not a predetermined condition is satisfied.
  • the determination unit 53 may determine whether or not a predetermined condition is satisfied.
  • the system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. .
  • a computer program is stored in the RAM.
  • the system LSI achieves its functions by the microprocessor operating according to the computer program.
  • the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer.
  • the computer program may be recorded on a computer-readable non-transitory recording medium, such as an HDD, a CD-ROM, or a semiconductor memory.
  • a computer-readable non-transitory recording medium such as an HDD, a CD-ROM, or a semiconductor memory.
  • the computer program may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, data broadcasting, or the like.

Abstract

情報生成装置は、互いに共通する検出対象エリアを持つ複数のセンサの各々から、前記検出対象エリアの計測結果を示すセンサ情報を取得するセンサ情報取得部と、前記センサ情報取得部が取得した前記複数のセンサ情報に基づいて、前記複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断する判断部と、前記判断部の判断結果が肯定的であり、かつ前記複数のセンサが検出した前記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、前記複数のセンサの各々が検出した前記対象物を別個に表示するための第1表示情報を生成し、前記判断結果が肯定的であり、かつ前記所定の条件を満たす場合に、前記第1表示情報の表示態様とは異なる表示態様で前記複数のセンサの各々が検出した前記対象物を表示するための第2表示情報を生成する表示情報生成部とを備える。

Description

情報生成装置、情報生成方法、コンピュータプログラムおよび車載装置
 本技術は、情報生成装置、情報生成方法、コンピュータプログラムおよび車載装置に関する。
 本出願は、2018年2月13日出願の日本出願第2018-022896号に基づく優先権を主張し、前記日本出願に記載された全ての記載内容を援用するものである。
 従来、複数のセンサから受信したセンサ情報を表示機器に表示する表示制御システムが提案されている(例えば、特許文献1参照)。
 この表示制御システムでは、複数のセンサから受信した情報を複数の表示機器に表示する際に、表示機器のそれぞれに合った表示情報を生成して、表示機器に表示させる。
特開2009-206750号公報
 (1)上記目的を達成するために、本発明の一実施態様に係る情報生成装置は、互いに共通する検出対象エリアを持つ複数のセンサの各々から、前記検出対象エリアの計測結果を示すセンサ情報を取得するセンサ情報取得部と、前記センサ情報取得部が取得した前記複数のセンサ情報に基づいて、前記複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断する判断部と、前記判断部の判断結果が肯定的であり、かつ前記複数のセンサが検出した前記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、前記複数のセンサの各々が検出した前記対象物を別個に表示するための第1表示情報を生成し、前記判断結果が肯定的であり、かつ前記所定の条件を満たす場合に、前記第1表示情報の表示態様とは異なる表示態様で前記複数のセンサの各々が検出した前記対象物を表示するための第2表示情報を生成する表示情報生成部とを備える。
 (20)本発明の他の実施態様に係る情報生成方法は、互いに共通する検出対象エリアを持つ複数のセンサの各々から、前記検出対象エリアの計測結果を示すセンサ情報を取得するステップと、取得された前記複数のセンサ情報に基づいて、前記複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断するステップと、前記判断するステップにおける判断結果が肯定的であり、かつ前記複数のセンサが検出した前記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、前記複数のセンサの各々が検出した前記対象物を別個に表示するための第1表示情報を生成し、前記判断結果が肯定的であり、かつ前記所定の条件を満たす場合に、前記第1表示情報の表示態様とは異なる表示態様で前記複数のセンサの各々が検出した前記対象物を表示するための第2表示情報を生成するステップとを含む。
 (21)本発明の他の実施態様に係るコンピュータプログラムは、コンピュータを、互いに共通する検出対象エリアを持つ複数のセンサの各々から、検出対象エリアの計測結果を示すセンサ情報を取得するセンサ情報取得部、前記センサ情報取得部が取得した前記複数のセンサ情報に基づいて、前記複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断する判断部、及び前記判断部の判断結果が肯定的であり、かつ前記複数のセンサが検出した前記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、前記複数のセンサの各々が検出した前記対象物を別個に表示するための第1表示情報を生成し、前記判断結果が肯定的であり、かつ前記所定の条件を満たす場合に、前記第1表示情報の表示態様とは異なる表示態様で前記複数のセンサの各々が検出した前記対象物を表示するための第2表示情報を生成する表示情報生成部として機能させる。
 (22)本発明の他の実施態様に係る車載装置は、上述の情報生成装置から、当該情報生成装置が生成した前記第1表示情報および第2表示情報のうちの少なくとも1つの表示情報を取得する表示情報取得部と、前記表示情報取得部が取得した前記表示情報に基づく画面への表示を制御する表示制御部とを備える。
本発明の実施形態に係る無線通信システムの全体構成図である。 サーバの構成の一例を示すブロック図である。 センサ情報取得部が取得するセンサ情報の一例を示す図である。 第1表示情報の一例を示す図である。 第2表示情報の一例を示す図である。 第2表示情報の一例を示す図である。 第2表示情報の一例を示す図である。 第2表示情報の一例を示す図である。 第2表示情報の一例を示す図である。 所定エリアに存在する複数の対象物が同一の対象物であると判断するための所定の条件について説明するための図である。 車載装置の構成の一例を示すブロック図である。 路側センサの構成の一例を示すブロック図である。 車載装置、車載カメラ、車載ミリ波レーダ、路側カメラ、路側ミリ波レーダ、およびサーバの協働により実行される、表示情報の配信処理の一例を示すシーケンス図である。 表示情報生成処理(図8のステップS9)の詳細を示すフローチャートである 対象物を判断対象とするか否かの判断基準を示すための図である。
[本開示が解決しようとする課題]
 複数のセンサ情報を情報源として、自動車等の車両の運転支援制御に役立つ情報を生成することが望まれている。
 しかしながら、従来の表示制御システムでは、表示機器に対応した表示方法に着目されており、複数のセンサが検出した対象物をどのように表示するかについては考慮されていない。各センサの精度は様々であり、センサが高精度であったとしても、センサと対象物との間の遮蔽物の存在等によっては、当該センサによって、適切に対象物が検出できない場合がある。
 例えば、複数のセンサの重なり合う計測対象エリアにおいてそれぞれのセンサが対象物を検出した場合に、センサごとの検出精度の違い等により、同一の対象物が別個の対象物と誤検出されてしまう場合がある。このような場合に、同一の対象物を別個の対象物とする表示情報が生成されるため、適切な運転支援制御を行うことが困難になる場合がある。
 本開示は、このような事情に鑑みてなされたものであり、複数のセンサ情報から、適切な表示情報を生成することのできる情報生成装置、情報生成方法、コンピュータプログラムおよび車載装置を提供することを目的とする。
[本開示の効果]
 本開示によると、複数のセンサ情報から、適切な表示情報を生成することができる。
 [本願発明の実施形態の概要]
 最初に本発明の実施形態の概要を列記して説明する。
 (1)本発明の一実施形態に係る情報生成装置は、互いに共通する検出対象エリアを持つ複数のセンサの各々から、前記検出対象エリアの計測結果を示すセンサ情報を取得するセンサ情報取得部と、前記センサ情報取得部が取得した前記複数のセンサ情報に基づいて、前記複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断する判断部と、前記判断部の判断結果が肯定的であり、かつ前記複数のセンサが検出した前記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、前記複数のセンサの各々が検出した前記対象物を別個に表示するための第1表示情報を生成し、前記判断結果が肯定的であり、かつ前記所定の条件を満たす場合に、前記第1表示情報の表示態様とは異なる表示態様で前記複数のセンサの各々が検出した前記対象物を表示するための第2表示情報を生成する表示情報生成部とを備える。
 この構成によると、複数のセンサの各々が所定エリアに存在する対象物を検出している場合に、所定条件を満たす場合と満たさない場合とで、対象物の表示態様を変化させることができる。例えば、複数の対象物が異なる対象物である場合に複数の対象物を別個に表示させ、複数の対象物が同一の対象物である場合に、上記表示とは異なる表示態様で複数の対象物を表示させることができる。これにより、複数の対象物が異なる対象物と判断されたのか、同一の対象物と判断されたのかの別をユーザは知ることができる。これにより、複数のセンサ情報から、適切な表示情報を生成することができる。
 (2)好ましくは、前記複数のセンサの一つから得られたセンサ情報に基づく対象物の位置から所定距離内のエリアを前記所定エリアとする。
 この構成によると、所定エリアに含まれる対象物が単数となるように、所定エリアを設定しやすい。
 (3)さらに好ましくは、前記第2表示情報は、前記複数のセンサの各々が検出した前記対象物のうち、いずれか1つの前記対象物を表示するための情報を含む。
 この構成によると、例えば、所定エリアに存在する複数の対象物が同一の対象物である場合に、1つの対象物しか表示されないようにすることができる。これにより、実際の対象物と同じ数の対象物を表示させることができる。
 (4)また、前記表示情報生成部は、前記複数のセンサの種別に基づいて、いずれか1つの前記対象物を選択することにより、選択した前記対象物を表示するための前記第2表示情報を生成する。
 この構成によると、検出精度の高いセンサにより選択された対象物を選択して表示させることができる。これにより、対象物を高精度で表示させることができる。
 (5)また、前記表示情報生成部は、前記複数のセンサの設置対象に基づいて、いずれか1つの前記対象物を選択することにより、選択した前記対象物を表示するための前記第2表示情報を生成してもよい。
 この構成によると、例えば、路側等に設置された路側センサの検出結果を、車載センサの検出結果よりも優先させて対象物を選択させることができる。路側センサは固定されているため、センサが移動する車載センサよりもセンサ自体の位置精度が高く、これにより、対象物の検出精度も高くなる。このため、対象物を高精度で表示させることができる。
 (6)また、前記表示情報生成部は、前記各センサから当該各センサが検出した前記対象物までの距離に基づいて、いずれか1つの前記対象物を選択することにより、選択した前記対象物を表示するための前記第2表示情報を生成してもよい。
 この構成によると、例えば、対象物までの距離が近いセンサを優先させて、センサが検出した対象物を選択することができる。センサに近い位置では遠い位置に比べて、対象物を高精度に検出することができる。これにより、対象物を高精度で表示させることができる。
 (7)また、前記第2表示情報は、前記複数のセンサの各々が検出した前記対象物を統合した対象物を表示するための情報を含んでもよい。
 この構成によると、所定エリアに存在する複数の対象物が同一の対象物である場合に、複数の対象物を1つに統合して表示することができる。これにより、実際の対象物と同じ数の対象物を表示させることができる。
 (8)また、前記第2表示情報は、前記複数のセンサの各々が検出した前記対象物を点滅させて表示するための情報を含んでもよい。
 この構成によると、所定エリアに存在する複数の対象物が同一の対象物である場合に、複数の対象物を点滅させて表示することができる。これにより、複数の対象物が同一の対象物であることをユーザに知らせることができる。
 (9)また、前記第2表示情報は、前記複数のセンサの各々が検出した前記対象物の平均の位置に1つの対象物を表示するための情報を含んでもよい。
 この構成によると、所定エリアに存在する複数の対象物が同一の対象物である場合に、1つの対象物しか表示されないようにすることができる。また、対象物の表示位置は、複数の対象物の平均の位置である。位置を平均することにより、対象物の位置を正確な位置に近づけることができる。これにより、実際の対象物と同じ数の対象物を正確な位置に表示させることができる。
 (10)また、前記所定の条件は、前記複数のセンサが検出した前記対象物の位置に基づく条件を含んでもよい。
 この構成によると、所定エリアに存在する複数の対象物の位置に基づいて、複数の対象物が同一の対象物か否かを判定することができる。
 (11)また、前記所定の条件は、前記複数のセンサが過去の所定時刻において検出した前記対象物間の距離が所定の距離閾値以下であることを含んでもよい。
 複数の対象物が同一の場合には、過去の所定時刻において複数の対象物は同じ位置に存在する。このため、上述の所定の条件を判定することにより、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
 (12)また、前記所定の条件は、前記複数のセンサが検出した前記対象物の方向の差が所定の角度閾値以下であることを含んでもよい。
 複数の対象物が同一の場合には、複数の対象物は同じ方向を向いている。このため、上述の所定の条件を判定することにより、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
 (13)また、前記所定の条件は、前記複数のセンサが検出した前記対象物の速度の差が所定の速度閾値以下であることを含んでもよい。
 複数の対象物が同一の場合には、複数の対象物の速度は同じである。このため、上述の所定の条件を判定することにより、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
 (14)また、前記各閾値は、前記複数のセンサの種別に基づいて定められてもよい。
 センサの種別によって、センサの検出精度は異なる。このため、高精度な複数のセンサの各々が所定エリアに存在する対象物を検出した場合には閾値を小さな値に設定し、低精度な複数のセンサの各々が所定エリアに存在する対象物を検出した場合には閾値を大きな値に設定することで、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
 (15)また、前記各閾値は、前記複数のセンサの設置対象に基づいて定められてもよい。
 例えば、路側等に設置された路側センサは、車載センサよりも検出精度が高い。このため、複数の路側センサの各々が対象物を検出した場合には閾値を小さな値に設定し、複数の車載センサの各々が対象物を検出した場合には閾値を大きな値に設定することで、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
 (16)また、前記各閾値は、前記複数のセンサの検出精度に基づいて定められてもよい。
 この構成によると、高精度な複数のセンサの各々が所定エリアに存在する対象物を検出した場合には閾値を小さな値に設定し、低精度な複数のセンサの各々が所定エリアに存在する対象物を検出した場合には閾値を大きな値に設定することで、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
 (17)また、前記各閾値は、前記複数のセンサの位置精度に基づいて定められてもよい。
 対象物の位置は、センサの位置と、センサから対象物までの距離に基づいて定められるため、センサの位置精度は対象物の位置精度に影響を与える。このため、位置精度が高い複数のセンサの各々が所定エリアに存在する対象物を検出した場合には閾値を小さな値に設定し、位置精度が低い複数のセンサの各々が所定エリアに存在する対象物を検出した場合には閾値を大きな値に設定することで、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
 (18)また、前記所定の条件は、前記複数のセンサが検出した前記対象物のサイズ、色および形状のうちの少なくとも1つに基づく条件を含んでもよい。
 同一車線を走行する車両同士または隣接する車線を並走する車両同士は、近い位置を同一の方向に同一の速度で走行する場合がある。このような場合には、これらの車両同士が同一の対象物か否かを判断するのが困難な場合がある。このような場合に、対象物のサイズ、色および形状のうちの少なくとも1つに基づいた条件の判断処理を行うことで、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
 (19)また、前記判断部は、前記各センサと当該各センサが検出した前記対象物との位置関係に基づいて、検出した当該対象物を判断対象とするか否かを決定してもよい。
 この構成によると、例えば、センサの検出範囲内に対象物が存在しており、対象物までの距離が近い場合にのみ、所定エリアに存在する複数の対象物が同一の対象物か否かを判定することができる。これにより、センサから遠方に位置する検出精度の低い対象物に対しては判定処理を行わずに、検出精度の高い対象物に対してのみ判定処理を行うようにすることができる。これにより、判定処理の信頼性を高めることができ、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
 (20)本発明の他の実施形態に係る情報生成方法は、上述の情報生成装置が実行する処理を含む。
 このため、上述の情報生成装置と同様の作用および効果を奏することができる。
 (21)本発明の他の実施形態に係るコンピュータプログラムは、コンピュータを、上述の情報生成装置として機能させる。
 このため、上述の情報生成装置と同様の作用および効果を奏することができる。
 (22)本発明の他の実施形態に係る車載装置は、上述の情報生成装置から、当該情報生成装置が生成した前記第1表示情報および第2表示情報のうちの少なくとも1つの表示情報を取得する表示情報取得部と、前記表示情報取得部が取得した前記表示情報に基づく画面への表示を制御する表示制御部とを備える。
 この構成によると、上述の情報生成装置で作成された第1表示情報および第2表示情報のうちの少なくとも1つの表示情報を画面に表示することができる。このため、複数のセンサ情報から生成された適切な表示情報を画面に表示することができる。
 [本願発明の実施形態の詳細]
 以下、本発明の実施形態について、図面を用いて詳細に説明する。なお、以下で説明する実施形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。本発明は、請求の範囲によって特定される。よって、以下の実施形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。
 また、同一の構成要素には同一の符号を付す。それらの機能および名称も同様であるため、それらの説明は適宜省略する。
 [無線通信システムの全体構成]
 図1は、本発明の実施形態に係る無線通信システムの全体構成図である。
 図1に示すように、本実施形態の無線通信システムは、車両制御システムとして機能し、無線通信が可能な複数の路側センサ1および車両2と、路側センサ1および車両2と無線通信する1または複数の基地局4と、基地局4とネットワークを介して有線または無線で通信するサーバ5とを備える。
 基地局4は、マクロセル基地局、マイクロセル基地局、およびピコセル基地局のうちの少なくとも1つよりなる。
 本実施形態の無線通信システムにおいて、サーバ5は、例えば、SDN(Software-Defined Networking)が可能な汎用サーバよりなる。また、基地局4および図示しないリピータなどの中継装置は、SDNが可能なトランスポート機器によりなる。
 上記のSDNに代表されるネットワーク仮想化技術は、現時点で規格化が進行中の「第5世代移動通信システム」(以下、「5G」(5th Generation)と略記する。)の基本コンセプトである。したがって、本実施形態の無線通信システムは、例えば5Gよりなる。
 路側センサ1は、無線通信機能を有し、道路に設置された画像式車両感知器またはLiDAR、屋外または屋内に設置された防犯カメラなどの各種センサを含んで構成される。
 車両2は、無線通信機能を有する車載装置3を含む。車載装置3は、カメラ、ミリ波レーダなどの各種センサ(以下、「車載センサ」という。)を含んで構成される。
 車両2には、通常の乗用車だけでなく、路線バスや緊急車両などの公共車両も含まれる。また、車両2は、四輪車だけでなく、二輪車(バイク)であってもよい。
 車両2の駆動方式は、エンジン駆動、電気モータ駆動、およびハイブリッド方式のいずれでもよい。車両2の運転方式は、搭乗者が加減速やハンドル操舵などの操作を行う通常運転、およびその操作をソフトウェアが実行する自動運転のいずれでもよい。
 [サーバの構成]
 図2は、サーバ5の構成の一例を示すブロック図である。
 図2に示すように、サーバ5は、情報生成装置として機能し、CPU(Central Processing Unit)などを含む制御部51と、ROM(Read Only Memory)55と、RAM(Random Access Memory)56と、記憶部57と、通信部58とを備える。
 制御部51は、ROM55に予め記憶された1または複数のプログラムをRAM56に読み出して実行することにより、各ハードウェアの動作を制御し、コンピュータ装置を基地局4と通信可能なサーバ5として機能させる。つまり、制御部51は、プログラムを実行することにより実現される機能な処理部として、センサ情報取得部52と、判断部53と、表示情報生成部54とを備える。
 RAM56は、SRAM(Static RAM)またはDRAM(Dynamic RAM)などの揮発性のメモリ素子で構成され、制御部51が実行するプログラムおよびその実行に必要なデータを一時的に記憶する。
 記憶部57は、フラッシュメモリ若しくはEEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性のメモリ素子、または、ハードディスクなどの磁気記憶装置などにより構成されている。
 通信部58は、5G対応の通信処理を実行する通信装置よりなり、ネットワークを介して基地局4と通信する。通信部58は、制御部51から与えられた情報を、ネットワークを介して外部装置に送信するとともに、ネットワークを介して受信した情報を制御部51に与える。
 制御部51のセンサ情報取得部52は、所定の周期ごとに、サーバ5のサービスエリア内で車両2や路側センサ1などが計測した各種のセンサ情報を、車両2や路側センサ1などから取得する。つまり、センサ情報取得部52は、各センサから、当該センサの検出対象エリアの計測結果を示すセンサ情報を取得する。
 図3は、センサ情報取得部52が取得するセンサ情報の一例を示す図である。
 例えば、路側には、路側センサ1としてミリ波レーダ(以下、「路側ミリ波レーダ」という。)1Mと、カメラ(以下、「路側カメラ」という。)1Cとが設置されているものとする。路側ミリ波レーダ1Mは、検出対象エリア7Mを監視し、検出対象エリア7M内で車両2Iを検出したものとする。一方、路側カメラ1Cは、検出対象エリア7Cを監視し、検出対象エリア7C内で車両2Jを検出したものとする。これにより、センサ情報取得部52は、路側ミリ波レーダ1Mから車両2Iの位置情報を含むセンサ情報を取得し、路側カメラ1Cから車両2Jの位置情報を含むセンサ情報を取得する。なお、図3には、路側センサ1を示しているが、車載センサであってもよい。また、路側センサ1として、LiDARや超音波センサなどを用いてもよい。
 制御部51の判断部53は、センサ情報取得部52が取得したセンサ情報に基づいて、複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断する。
 図3に示した例で車両2Iから所定距離以内のエリア8を所定エリアとした場合には、エリア8内に車両2Iおよび2Jが検出されている。このため、判断部53による上記の判断結果は肯定的である。なお、この所定エリアに含まれる車両は基本的に1台となるように、車両の大きさを考慮してこの所定距離を定めるとし、所定エリアに含まれる車両が複数か否かは判断部53によって判断している。
 制御部51の表示情報生成部54は、判断部53の判断結果が肯定的であり、かつ所定の条件を満たさない場合に、複数のセンサの各々が検出した対象物を別個に表示するための第1表示情報を生成する。ここで、所定の条件とは、上記の所定エリア(エリア8)に存在する複数の対象物が同一の対象物であると判断するための条件である。所定の条件の詳細については後述する。つまり、表示情報生成部54は、所定エリア内に複数の対象物が検出され、当該複数の対象物が異なる対象物である場合に、それら複数の対象物を別々に表示するための第1表示情報を生成する。
 図4Aは、第1表示情報の一例を示す図である。第1表示情報においては、車両2Iと車両2Jとが別々に表示される。なお、第1表示情報および後述する第2表示情報において、各車両は、例えば、車両のアイコンで表示される。
 一方、表示情報生成部54は、判断部53の判断結果が肯定的であり、かつ上記所定の条件を満たす場合に、第1表示情報の表示態様とは異なる表示態様で複数のセンサの各々が検出した対象物を表示するための第2表示情報を生成する。つまり、表示情報生成部54は、所定エリア内に複数の対象物が検出され、当該複数の対象物が同一の対象物である場合に、それら複数の対象物を、第1表示情報の表示態様とは異なる表示態様で表示するための第2表示情報を生成する。
 図4B~図4Fの各々は、第2表示情報の一例を示す図である。
 図4Bに示す第2表示情報においては、複数のセンサの各々が検出した対象物のうち、いずれか1つの対象物が表示される。つまり、当該第2表示情報では、図4Aの第1表示情報で示された車両2Iおよび車両2Jのうち、車両2Jが選択されて表示される。なお、車両2Iが選択されて表示されてもよい。表示対象の対象物はランダムに選択されてもよいし、以下に説明する基準に従い選択されてもよい。
 例えば、表示情報生成部54は、複数のセンサの種別に基づいて、複数の対象物のうちいずれか1つの対象物を選択してもよい。カメラやLiDARは高精度であるが、ミリ波レーダはそれらに比べて低精度である。このため、精度の高い順にセンサの優先順位を決めておき、表示情報生成部54は、優先順位が最も高いセンサが検出した対象物を選択するようにしてもよい。これにより、対象物を高精度で表示させることができる。ここで、サーバ5は、センサ種別とセンサIDとを対応付けるテーブルを参照して、センサ情報取得部52が取得したセンサ情報に含まれるセンサIDからセンサ種別を判断してもよい。なお、センサ情報にセンサの検出精度情報が付加されていてもよい。これにより、表示情報生成部54は、検出精度情報に基づいて、高い検出精度のセンサ情報を優先して、当該センサ情報に対応する対象物を選択することができる。
 また、表示情報生成部54は、複数のセンサの設置対象に基づいて、複数の対象物のうちいずれか1つの対象物を選択してもよい。路側等に設置された路側センサ1は、車両2に設置された車載センサよりも検出精度が高い場合が多い。このため、表示情報生成部54は、路側センサ1が検出した対象物を、車載センサが検出した対象物よりも優先して選択する。これにより、対象物を高精度で表示させることができる。ここで、サーバ5は、センサの設置対象とセンサIDとを対応付けるテーブルを参照して、センサ情報取得部52が取得したセンサ情報に含まれるセンサIDからセンサの設置対象を判断してもよい。
 また、表示情報生成部54は、各センサから当該センサが検出した対象物までの距離に基づいて、複数の対象物のうちいずれか1つの対象物を選択してもよい。対象物までの距離が近いほどセンサの検出精度は高い。このため、表示情報生成部54は、対象物までの距離が最も近いセンサが検出した対象物を選択する。これにより、対象物を高精度で表示させることができる。
 図4Cに示す第2表示情報においては、複数のセンサの各々が検出した対象物の平均の位置に1つの対象物が表示される。つまり、当該第2表示情報では、図4Aの第1表示情報で示された車両2Iおよび車両2Jの平均の位置に、車両2Lが表示される。位置を平均することにより、対象物の位置を正確な位置に近づけることができる。これにより、実際の対象物と同じ数の対象物を正確な位置に表示させることができる。
 図4Dに示す第2表示情報においては、複数のセンサの各々が検出した対象物を統合した対象物が表示される。つまり、当該第2表示情報では、図4Aの第1表示情報で示された車両2Iおよび車両2Jの位置に、車両2Iおよび車両2Jをカバーするサイズの車両2Nが表示される。
 図4Eに示す第2表示情報においては、複数のセンサの各々が検出した対象物が点滅しながら表示される。つまり、当該第2表示情報では、図4Aの第1表示情報で示された車両2Iおよび車両2Jが点滅しながら表示される。これにより、車両2Iおよび車両2Jが同一の車両2であることをユーザに知らせることができる。
 図4Fに示す第2表示情報においては、複数のセンサの各々が検出した対象物が、第1表示情報で示された対象物と異なる色で表示される。つまり、当該第2表示情報では、図4Aの第1表示情報で示された車両2Iおよび車両2Jが、それらとは異なる色で表示される。
 表示情報生成部54は、例えば、図4B~図4Fに示した少なくとも1つの表示態様の第2表示情報を作成する。なお、表示情報生成部54は、これらの表示態様を組み合わせた第2表示情報を作成することもできる。
 表示情報生成部54は、車両2の車載装置3や、ユーザが所持する通信端末から、表示情報の要求メッセージを受信すると、生成した表示情報を要求メッセージの送信元の車載装置3または通信端末に配信する。
 次に、所定エリアに存在する複数の対象物が同一の対象物であると判断するための所定の条件について説明する。
 図5は、所定エリアに存在する複数の対象物が同一の対象物であると判断するための所定の条件について説明するための図である。
 所定の条件は、複数のセンサが検出した対象物の位置に基づく条件を含む。例えば、複数の対象物が同一の対象物である場合には、現在および過去のいずれにおいても、複数の対象物の位置は一致していると考えられる。一方、複数の対象物が異なる対象物である場合には、複数の対象物の現在の位置が一致していたとしても、過去において両者の位置は異なると考えられる。このため、表示情報生成部54は、現在時刻よりk秒前(kは正の値)の時刻において複数の対象物の位置が一致していれば、それらは同一の対象物であると判断し、一致していなければ、それらが別の対象物であると判断する。なお、厳密に対象物の位置が一致してなくても、対象物間の距離が所定の距離閾値以下である場合に両者の位置は一致しているとすることができる。なお、距離閾値は正の値である。
 図5に示すように、車両2Iは北向きに走行し、車両2Kは東向きに走行しているものとする。この場合、現在時刻tにおいて両者の位置は一致しているが、現在時刻tよりもk秒前の時刻(t-k)においては両者の位置は異なる。このため、表示情報生成部54は、車両2Kおよび車両2Jは別の車両であると判断する。
 所定の条件は、複数のセンサが検出した対象物の方向の差が所定の角度閾値以下であることを含んでいてもよい。つまり、表示情報生成部54は、方向の差が所定の角度閾値以下の場合に複数の対象物が同一であると判定し、方向の差が所定の角度閾値よりも大きい場合に複数の対象物が異なると判定する。なお、角度閾値は正の値である。図5に示す例では、車両2Iは、その位置変化から北向きに走行していると判断することができ、車両2Kは、その位置変化から東向きに走行していると判断することができる。このため、両者の方向の差は、およそ90°である。例えば角度閾値を5°とした場合には、表示情報生成部54は、車両2Kおよび車両2Jは別の車両であると判断する。
 所定の条件は、複数のセンサが検出した対象物の速度の差が所定の速度閾値以下であることを含んでいてもよい。対象物の速度は、対象物の2地点間の距離および時間に基づいて算出される。速度閾値は正の値である。図5に示す例では、車両2Iおよび車両2Kの速度が、それぞれv1およびv2と算出されたものとする。表示情報生成部54は、速度v1およびv2の差の絶対値が所定の速度閾値以下の場合に、車両2Iおよび2Kが同一であると判断し、速度の差の絶対値が所定の速度閾値よりも大きい場合に、車両2Iおよび2Kが異なると判断する。
 所定の条件は、複数のセンサが検出した対象物のサイズ、色および形状のうちの少なくとも1つに基づく条件を含んでいてもよい。例えば、センサがカメラの場合には、対象物のサイズ、色および形状を検知することができる。
 このため、所定の条件は、複数のセンサが検出した対象物のサイズの差が、所定のサイズ閾値以下であることを含んでいてもよい。例えば、対象物のサイズを画像中で対象物が占める領域の画素数とした場合には、対象物に対応する領域の画素数の差が所定のサイズ閾値以下である場合に、所定の条件を満たすとしてもよい。
 また、所定の条件は、複数のセンサが検出した対象物の色の差が所定の色閾値以下であることを含んでいてもよい。例えば、対象物のR,GおよびBの各色の輝度の平均値の差が色閾値以下の場合に、所定の条件を満たすとしてもよい。
 さらに、所定の条件は、複数のセンサが検出した対象物の形状が類似することを含んでいてもよい。例えば、画像中の対象物の形状を矩形近似した場合に、対象物の形状を対象物に対応する矩形の長辺と短辺の比で示す。複数のセンサが検出した対象物に対応する上記比の差が所定の比閾値以下である場合に、所定の条件を満たすとしてもよい。
 対象物のサイズ、色または形状を用いて所定の条件を判断することにより、同一車線を走行する複数の車両または隣接する車線を並走する複数の車両を誤って1台の車両と判断することを防ぐことができる。これにより、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
 なお、上述した各種の所定の条件を判断する際に用いられる速度閾値、角度閾値等の各種閾値は、複数のセンサの種別に基づいて定められてもよい。例えば、カメラやLiDARは高精度であるが、ミリ波レーダはそれらに比べて低精度である。このため、対象物を検出した複数のセンサの全てが高精度なセンサ(カメラまたはLiDAR)の場合には閾値を小さな値(第1閾値)に設定し、当該複数のセンサの中に低精度なセンサ(例えば、ミリ波レーダ)が含まれる場合には閾値を大きな値(第1閾値よりも大きい第2閾値)に設定してもよい。このように、センサの精度に応じて閾値を設定することで、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。ここで、サーバ5は、センサ種別とセンサIDとを対応付けるテーブルを参照して、センサ情報取得部52が取得したセンサ情報に含まれるセンサIDからセンサ種別を判断してもよい。   
 また、上記の各種閾値は、複数のセンサの設置対象に基づいて定められてもよい。路側等に設置された路側センサ1は、車両2に設置された車載センサよりも検出精度が高い場合が多い。このため、複数の路側センサ1の各々が対象物を検出した場合には閾値を小さな値(第1閾値)に設定し、複数の車載センサの各々が対象物を検出した場合には閾値を大きな値(第1閾値よりも大きい第2閾値)に設定する。これにより、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。ここで、サーバ5は、センサの設置対象とセンサIDとを対応付けるテーブルを参照して、センサ情報取得部52が取得したセンサ情報に含まれるセンサIDからセンサの設置対象を判断してもよい。
 また、上記の各種閾値は、複数のセンサの検出精度に基づいて定められてもよい。対象物を検出した複数のセンサの全てが高精度なセンサの場合には閾値を小さな値(第1閾値)に設定し、当該複数のセンサの中に低精度なセンサが含まれる場合には閾値を大きな値(第1閾値よりも大きい第2閾値)に設定してもよい。これにより、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。ここで、サーバ5は、センサの検出精度とセンサIDとを対応付けるテーブルを参照して、センサ情報取得部52が取得したセンサ情報に含まれるセンサIDからセンサの検出精度を判断してもよい。
 また、上記の各種閾値は、複数のセンサの位置精度に基づいて定められてもよい。路側等に設置された路側センサ1は固定されているため、車両2に設置された車載センサよりもセンサの位置精度が高い。対象物の絶対位置は、センサの絶対位置と、センサから対象物までの相対位置で規定することができる。このため、センサの絶対位置の検出精度が低い場合には、対象物の絶対位置の検出精度までも低くなる。つまり、センサの位置精度が高いほど、対象物の絶対位置の検出精度も高くなる。よって、対象物を検出した複数のセンサの全ての位置精度が高い場合には閾値を小さな値(第1閾値)に設定し、当該複数のセンサの中に位置精度が低いセンサが含まれる場合には閾値を大きな値(第1閾値よりも大きい第2閾値)に設定してもよい。これにより、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。ここで、サーバ5は、センサの位置精度とセンサIDとを対応付けるテーブルを参照して、センサ情報取得部52が取得したセンサ情報に含まれるセンサIDからセンサの位置精度を判断してもよい。また、後述するように、センサ情報にセンサの位置精度情報が含まれていてもよい。
 [車載装置の構成]
 図6は、車載装置3の構成の一例を示すブロック図である。
 図6に示すように、車両2の車載装置3は、制御部(ECU:Electronic Control Unit)31と、GPS(Global Positioning System)受信機32と、車速センサ33と、ジャイロセンサ34と、記憶部35と、ディスプレイ36と、スピーカ37と、入力デバイス38と、カメラ39と、ミリ波レーダ40と、通信部41とを備える。
 通信部41は、例えば5G対応の通信処理が可能な無線通信機よりなる。なお、通信部41は、車両2に既設の無線通信機であってもよいし、搭乗者が車両2に持ち込んだ携帯端末であってもよい。
 搭乗者の携帯端末は、車両2の車内LAN(Local Area Network)に接続されることにより、一時的に車載の無線通信機となる。
 制御部31は、車両2の経路探索および他の電子機器32~41の制御などを行うコンピュータ装置よりなる。制御部31は、GPS受信機32が定期的に取得するGPS信号により自車両の車両位置を求める。なお、制御部31は、図示しない準天頂衛星から送信される信号を受信する受信機が受信したGPS補完信号またはGPS補強信号を合わせて用いることで、GPS信号を補完したり、自車両の車両位置を補正したりしてもよい。
 制御部31は、車速センサ33およびジャイロセンサ34の入力信号に基づいて、車両位置および方位を補完し、車両2の正確な現在位置および方位を把握する。
 GPS受信機32、車速センサ33およびジャイロセンサ34は、車両2の現在位置、速度および向きを計測するセンサ類である。
 記憶部35は、地図データベースを備える。地図データベースは、制御部31に道路地図データを提供する。道路地図データは、リンクデータやノードデータを含み、DVD、CD-ROM、メモリカード、またはHDDなどの記録媒体に格納されている。記憶部35は、記録媒体から必要な道路地図データを読み出して制御部31に提供する。
 ディスプレイ36とスピーカ37は、制御部31が生成した各種情報を車両2の搭乗者であるユーザに通知するための出力装置である。
 具体的には、ディスプレイ36は、経路探索の際の入力画面、自車周辺の地図画像および目的地までの経路情報などを表示する。スピーカ37は、車両2を目的地に誘導するためのアナウンスなどを音声出力する。これらの出力装置は、通信部41が受信した提供情報を搭乗者に通知することもできる。
 入力デバイス38は、車両2の搭乗者が各種の入力操作を行うためのデバイスである。入力デバイス38は、ハンドルに設けた操作スイッチ、ジョイスティック、およびディスプレイ36に設けたタッチパネルなどの組み合わせよりなる。
 搭乗者の音声認識によって入力を受け付ける音声認識装置を、入力デバイス38とすることもできる。入力デバイス38が生成した入力信号は、制御部31に送信される。
 カメラ39は、車両2の前方の映像を取り込む画像センサよりなる。カメラ39は、単眼または複眼のいずれでもよい。ミリ波レーダ40は、車両2の前方や周囲に存在する対象物を検出するセンサよりなる。なお、ミリ波レーダ40の代わりに、または、ミリ波レーダ40とともに、LiDARや、レーザレーダ、超音波レーダなどの各種センサを用いることができる。
 制御部31は、カメラ39およびミリ波レーダ40による計測データや、サーバ5から取得したセンサ情報に基づいて、運転中の搭乗者に対する注意喚起をディスプレイ36に出力させたり、強制的なブレーキ介入を行ったりする運転支援制御を実行することができる。
 制御部31は、記憶部35に格納された各種の制御プログラムを実行する、マイクロコンピュータなどの演算処理装置により構成されている。
 制御部31は、上記制御プログラムを実行することにより、車両2の安全運転を支援する機能、ディスプレイ36に地図画像を表示させる機能、出発地から目的地までの経路(中継地がある場合はその位置を含む。)を算出する機能、算出した経路に従って車両2を目的地まで誘導する機能など、各種のナビゲーション機能を実行可能である。
 制御部31は、カメラ39およびミリ波レーダ40のうちの少なくとも1つの計測データに基づいて、自車両の前方または周囲の対象物を認識する認識処理と、認識した対象物までの距離を算出する測距処理が可能である。
 制御部31は、測距処理により算出した距離と、自車両のセンサ位置とから、認識処理によって認識した対象物の位置情報を算出することができる。
 制御部31は、表示情報取得部31Aおよび表示制御部31Bを有し、サーバ5との通信において、以下の各処理を実行可能である。
 1)要求メッセージの送信処理
 2)表示情報の受信処理
 3)通信パケットの送信処理
 要求メッセージの送信処理とは、表示情報取得部31Aが、サーバ5が生成する表示情報の配信を要求する制御パケットを、サーバ5に送信する処理のことである。制御パケットには、自車両の車両IDが含まれる。
 サーバ5は、所定の車両IDを含む要求メッセージを受信すると、送信元の車両IDを有する車両2の通信部41宛てに、表示情報を所定の配信周期で配信する。
 表示情報の受信処理とは、表示情報取得部31Aが、自装置に宛ててサーバ5が配信した表示情報を受信する処理のことである。
 表示制御部31Bは、受信した表示情報をディスプレイ36に表示させるための処理を実行する。
 例えば、表示制御部31Bは、受信した表示情報を地図画像に重畳し、ディスプレイ36に表示させる。
 車両2における通信パケットの送信処理とは、カメラ39またはミリ波レーダ40による対象物の検出結果を示すセンサ情報を含む通信パケットを、サーバ5宛に送信する処理のことである。通信パケットの送信処理は、サーバ5による表示情報の配信周期内に行われる。
 センサ情報には、対象物の位置情報(対象物の緯度情報および経度情報)の他、車両2(カメラ39またはミリ波レーダ40)から対象物までの距離情報、車両2の位置情報(車両2の緯度情報よび経度情報)、車両2の速度情報、車両2の方位情報、センサの位置精度情報などが含まれる。センサの位置精度情報とは、つまり、車両2の位置精度を示す情報のことである。センサの位置精度情報は、例えば、以下に示す(a)~(g)などにより定められる。
 (a)DR(自律航法、ジャイロセンサ34や車速センサ33などの車速パルスやバック信号による位置の補正)の有無
 (b)マップマッチングによる補正の有無
 (c)記憶部35に記憶されている道路地図データの精度
 (d)車両2の位置を求める際に用いたGPS衛星の数
 (e)GPS受信機32のC/N0(搬送波雑音電力密度比)
 (f)GPSクオリティ
 (g)PDOP(位置精度低下率)
 制御部31は、通信パケットに自車両の車両IDを含めて、サーバ5宛に送信する。
 [路側センサの構成]
 図7は、路側センサ1の構成の一例を示すブロック図である。
 図7に示すように、路側センサ1は、制御部11と、記憶部12と、カメラ13と、ミリ波レーダ14と、通信部15とを備える。
 通信部15は、例えば5G対応の通信処理が可能な無線通信機よりなる。
 したがって、路側センサ1は、サーバ5と通信することができる。
 制御部11は、CPU、ROM及びRAMなどを含む。制御部11は、記憶部12に記憶されたプログラムを読み出して実行し、路側センサ1の全体の動作を制御する。
 記憶部12は、ハードディスクや不揮発性のメモリなどより構成され、各種のコンピュータプログラムやデータを記憶する。記憶部12は、路側センサ1の識別情報であるセンサIDを記憶している。センサIDは、例えば、路側センサ1の所有者固有のユーザIDやMACアドレスなどよりなる。
 カメラ13は、所定の撮影エリアの映像を取り込む画像センサよりなる。カメラ13は、単眼又は複眼のいずれでもよい。ミリ波レーダ14は、ミリ波レーダ14の前方や周囲に存在する対象物を検出するセンサよりなる。なお、ミリ波レーダ14の代わりに、または、ミリ波レーダ14とともに、LiDARや、レーザレーダ、超音波レーダなどの各種センサを用いることができる。
 また、路側センサ1には、カメラ13およびミリ波レーダ14のいずれか1つのみが備えられていてもよい。
 制御部11は、カメラ13及びミリ波レーダ14のうちの少なくとも1つの計測データに基づいて、撮影エリア内の対象物を認識する認識処理と、認識した対象物までの距離を算出する測距処理が可能である。
 制御部11は、測距処理により算出した距離と、自車両のセンサ位置とから、認識処理によって認識した対象物の位置情報を算出することができる。
 制御部11は、サーバ5との通信において、通信パケットの送信処理を実行可能である。
 路側センサ1による通信パケットの送信処理とは、カメラ13またはミリ波レーダ14による対象物の検出結果を示すセンサ情報を含む通信パケットを、サーバ5宛に送信する処理のことである。通信パケットの送信処理は、サーバ5による表示情報の配信周期内に行われる。
 センサ情報には、対象物の位置情報(対象物の緯度情報および経度情報)や、路側センサ1から対象物までの距離情報などが含まれる。
 制御部11は、通信パケットにセンサIDを含めて、サーバ5宛に送信する。
 [表示情報の配信処理]
 図8は、車載装置3、車載カメラ2C、車載ミリ波レーダ2M、路側カメラ1C、路側ミリ波レーダ1M、およびサーバ5の協働により実行される、表示情報の配信処理の一例を示すシーケンス図である。図8に示されるシーケンスを所定間隔(例えば、100msec間隔)で繰り返すことにより、所定間隔で安全運転支援のための機能が選択され、配信される。
 ここで、車載装置3は、表示情報の提供を受ける車両2に設置された車載装置を示す。車載カメラ2Cは、カメラ39を備える車載装置3を示す。車載ミリ波レーダ2Mは、ミリ波レーダ40を備える車載装置3を示す。路側カメラ1Cは、カメラ13を備える路側センサ1を示す。路側ミリ波レーダ1Mは、ミリ波レーダ14を備える路側センサ1を示す。ただし、これらのセンサは、一例であり、いずれかのセンサが含まれていなくてもよいし、これ以外のセンサが含まれていてもよい。
 以下では、各センサが検出する対象物は移動物体であるとして説明を行うが、検出対象物は静止物体であってもよい。
 車載カメラ2Cは、カメラ39が撮像した映像データに基づいて、車載カメラ2Cを備える車両2の前方または周囲を走行する車両2または歩行者6などの移動物体を検出する(S1)。
 車載ミリ波レーダ2Mは、ミリ波レーダ40の計測データに基づいて、ミリ波レーダ40を備える車両2の前方または周囲を走行する車両2または歩行者6などの移動物体を検出する(S2)。
 路側カメラ1Cは、カメラ13が撮像した映像データに基づいて、路側カメラ1Cの前方または周囲を走行する他の車両2または歩行者6などの移動物体を検出する(S3)。
 路側ミリ波レーダ1Mは、ミリ波レーダ14の計測データに基づいて、路側ミリ波レーダ1Mの前方または周囲を走行する他の車両2または歩行者6などの移動物体を検出する(S4)。
 車載カメラ2Cは、移動物体の検出結果を含むセンサ情報を含む通信パケットを、サーバ5に送信する(S5)。サーバ5は、車載カメラ2Cから送信された通信パケットを受信する。
 車載ミリ波レーダ2Mは、移動物体の検出結果を含むセンサ情報を含む通信パケットを、サーバ5に送信する(S6)。サーバ5は、車載ミリ波レーダ2Mから送信された通信パケットを受信する。
 路側カメラ1Cは、移動物体の検出結果を含むセンサ情報を含む通信パケットを、サーバ5に送信する(S7)。サーバ5は、路側カメラ1Cから送信された通信パケットを受信する。
 路側ミリ波レーダ1Mは、移動物体の検出結果を含むセンサ情報を含む通信パケットを、サーバ5に送信する(S8)。サーバ5は、路側ミリ波レーダ1Mから送信された通信パケットを受信する。
 サーバ5は、車載カメラ2C、車載ミリ波レーダ2M、路側カメラ1Cおよび路側ミリ波レーダ1Mからそれぞれ受信した通信パケットに含まれるセンサ情報に基づいて、各センサが検出した移動物体を示した表示情報を生成する(S9)。表示情報(後述の第1表示情報、第2表示情報または第3表示情報)の生成処理(ステップS9)については後述する。
 車載装置3は、表示情報の配信を要求する制御パケットを要求メッセージとしてサーバ5に送信する(S10)。
 サーバ5は、車載装置3から要求メッセージを受け取り、要求メッセージの送信元である車載装置3に対して、表示情報生成処理(ステップS9)で生成された表示情報を送信する(S11)。車両2の車載装置3は、当該表示情報を受信し、受信した表示情報をディスプレイ36に表示させるための処理を実行する。
 [表示情報生成処理(図8のステップS9)]
 表示情報生成処理(図8のステップS9)の詳細について、説明する。
 図9は、表示情報生成処理(図8のステップS9)の詳細を示すフローチャートである。
 図9を参照して、サーバ5の判断部53は、センサ情報取得部52が取得したセンサ情報に基づいて、あるセンサが検出した移動物体(以下、「第1物体」という。)から所定距離範囲内に他のセンサが検出した移動物体(以下、「第2物体」という。)が存在するか否かを判断する(S21)。図3を参照して、第1物体を車両2Iとし、所定距離範囲をエリア8とした場合、第1物体から所定距離範囲内に第2物体である車両2Jが存在することとなる。
 ステップS21の判断結果が肯定的である場合には(S21でYES)、表示情報生成部54は、現在時刻よりk秒前(kは正の値)の時刻において第1物体および第2物体の位置が一致しているか否かを判断する(S22)。つまり、表示情報生成部54は、現在時刻よりもk秒前の第1物体および第2物体間の距離が所定の距離閾値以下である場合に両者の位置が一致していると判断し、当該距離が距離閾値よりも大きい場合に両者の位置が一致していないと判断する。図5は、k秒前の位置が一致していない車両2Kおよび車両2Iを示している。
 第1物体および第2物体のk秒前の位置が一致している場合には(S22でYES)、表示情報生成部54は、第1物体および第2物体の進行方向が一致しているか否かを判断する(S23)。つまり、表示情報生成部54は、第1物体および第2物体の方向の差が所定の角度閾値以下である場合に進行方向が一致していると判断し、当該方向の差が角度閾値よりも大きい場合に進行方向が一致していないと判断する。図5は、進行方向が一致していない車両2Kおよび車両2Iを示している。
 第1物体および第2物体の進行方向が一致している場合には(S23でYES)、表示情報生成部54は、第1物体および第2物体の速度が一致しているか否かを判断する(S24)。つまり、表示情報生成部54は、第1物体および第2物体の速度の差の絶対値が所定の速度閾値以下の場合に、両者の速度が一致していると判断し、速度の差の絶対値が速度閾値よりも大きい場合に、両者の速度が異なると判断する(S24)。
 第1物体および第2物体の速度が一致している場合には(S24でYES)、表示情報生成部54は、第1物体および第2物体が同一の移動物体であると判断し、第1物体および第2物体を統合して表示するための第2表示情報を生成する(S25)。第2表示情報の例は、図4B~図4Dに示した通りである。なお、第2表示情報は、図4Eまたは図4Fに示したような第1物体および第2物体を統合せずに表示するための表示情報であってもよい。
 ステップS22~24のいずれかの判断結果が否定的である場合には(S22でNO、S23でNOまたはS24でNO)、表示情報生成部54は、第1物体および第2物体が異なる移動物体であると判断し、第1物体および第2物体をそれぞれ表示する第1表示情報を生成する(S26)。第1表示情報の例は、図4Aに示した通りである。
 第1物体から所定距離範囲内に第2物体が存在しない場合には(S21でNO)、表示情報生成部54は、第1表示物体を表示するための第3表示情報を生成する(S27)。
 [実施形態の効果]
 以上説明したように、本発明の実施形態によると、複数のセンサの各々が所定エリアに存在する対象物を検出している場合に、所定条件を満たす場合と満たさない場合とで、対象物の表示態様を変化させることができる。例えば、複数の対象物が異なる対象物である場合に複数の対象物を別個に表示させ、複数の対象物が同一の対象物である場合に、上記表示とは異なる表示態様で複数の対象物を表示させることができる。これにより、複数の対象物が異なる対象物と判断されたのか、同一の対象物と判断されたのかの別をユーザは知ることができる。これにより、複数のセンサ情報から、適切な表示情報を生成することができる。
 (変形例)
 なお、上述した実施形態では、センサが検出した対象物の位置に制限を設けていなかったが、対象物の位置に制限を設けるようにしてもよい。
 つまり、サーバ5の判断部53は、各センサと、各センサが検出した対象物との位置関係に基づいて、検出した対象物を判断対象とするか否かを決定してもよい。
 図10は、対象物を判断対象とするか否かの判断基準を示すための図である。
 図10に示す車載カメラの検出範囲、車載ミリ波レーダの検出範囲および車載LiDARの検出範囲は、各センサによる対象物の検出精度が高い範囲を示している。つまり、各センサは、検出範囲外の対象物も検出可能ではあるが、検出範囲外では対象物の検出精度が低い。なお、図10に示す検出範囲は一例であり、各センサの検出精度により変化する。たとえば、4Kの車載カメラに比べ8Kの車載カメラの方が検出範囲は広くなることが想定される。
 図10を参照して、判断部53は、車載ミリ波レーダが検出した対象物が車載ミリ波レーダの前方に設定された車載ミリ波レーダの検出範囲に含まれる場合には、当該対象物を判断対象とし、対象物が当該検出範囲に含まれない場合には、当該対象物を判断対象から外す。
 また、判断部53は、車載カメラが検出した対象物が車載カメラの前方もしくは周囲に設定された車載カメラの検出範囲に含まれる場合には、当該対象物を判断対象とし、対象物が当該検出範囲に含まれない場合には、当該対象物を判断対象から外す。
 さらに、判断部53は、車載LiDARが検出した対象物が車載LiDARの前方もしくは周囲に設定された車載LiDARの検出範囲に含まれる場合には、当該対象物を判断対象とし、対象物が当該検出範囲に含まれない場合には、当該対象物を判断対象から外す。
 これにより、判断部53は、検出精度が高い対象物のみを判断対象として、判断対象とされた対象物から所定距離以内に他の対象物が存在する場合に、両対象物が同一か否かの判断を行う。
 本変形例によると、対象物までの距離が近い場合にのみ、所定エリアに存在する複数の対象物が同一の対象物か否かを判定することができる。これにより、センサから遠方に位置する検出精度の低い対象物に対しては判定処理を行わずに、検出精度の高い対象物に対してのみ判定処理を行うようにすることができる。これにより、判定処理の信頼性を高めることができ、所定エリアに存在する複数の対象物が同一の対象物か否かを正確に判定することができる。
 なお、図10では、車載センサの検出範囲を示したが、路側センサの検出範囲も同様に設定されており、判断部53は、車載センサの場合と同様の処理により路側センサが検出した対象物を判断対象とするか否かを判断することができる。
 以上、本発明の実施形態に係る無線通信システムについて説明したが、本発明は、この実施形態に限定されるものではない。
 例えば、上記した無線通信システムは、以下の付記1に示す情報生成装置として実現することもできる。
 [付記1]
 各センサから、検出対象エリアの計測結果を示すセンサ情報を取得するセンサ情報取得部と、
 上記センサ情報取得部が取得した上記センサ情報に基づいて、複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断する判断部と、
 上記判断部の判断結果が肯定的であり、かつ上記複数のセンサが検出した上記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、上記複数のセンサの各々が検出した上記対象物を別個に表示するための第1表示情報を生成し、上記判断結果が肯定的であり、かつ上記所定の条件を満たす場合に、上記第1表示情報の表示態様とは異なる表示態様で上記複数のセンサの各々が検出した上記対象物を表示するための第2表示情報を生成する表示情報生成部と、を備え、
 上記第2表示情報は、上記複数のセンサの各々が検出した上記対象物を上記第1表示情報で示された対象物と異なる色で表示するための情報を含む、情報生成装置。
 また、上述の実施形態では、表示情報生成部54が、所定の条件を満たすか否かを判断することにより、所定エリアに存在する複数の対象物が同一の対象物であるか否かを判断していた。ただし、表示情報生成部54ではなく、判断部53が、所定の条件を満たすか否かを判断してもよい。
 また、上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSIから構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
 また、本発明は、上記に示す方法であるとしてもよい。また、本発明は、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよい。
 さらに、本発明は、上記コンピュータプログラムをコンピュータ読取可能な非一時的な記録媒体、例えば、HDD、CD-ROM、半導体メモリなどに記録したものとしてもよい。
 また、本発明は、上記コンピュータプログラムを、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
 また、上記実施形態および上記変形例の少なくとも一部を任意に組み合わせるとしてもよい。
 今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1     路側センサ
1C    路側カメラ
1M    路側ミリ波レーダ
2     車両
2C    車載カメラ
2I    車両
2J    車両
2K    車両
2L    車両
2M    車載ミリ波レーダ
2N    車両
3     車載装置
4     基地局
5     サーバ
6     歩行者
7C    検出対象エリア
7M    検出対象エリア
8     エリア
11    制御部
12    記憶部
13    カメラ
14    ミリ波レーダ
15    通信部
31    制御部
31A   表示情報取得部
31B   表示制御部
32    GPS受信機
33    車速センサ
34    ジャイロセンサ
35    記憶部
36    ディスプレイ
37    スピーカ
38    入力デバイス
39    カメラ
40    ミリ波レーダ
41    通信部
51    制御部
52    センサ情報取得部
53    判断部
54    表示情報生成部
55    ROM
56    RAM
57    記憶部
58    通信部

Claims (22)

  1.  互いに共通する検出対象エリアを持つ複数のセンサの各々から、前記検出対象エリアの計測結果を示すセンサ情報を取得するセンサ情報取得部と、
     前記センサ情報取得部が取得した前記複数のセンサ情報に基づいて、前記複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断する判断部と、
     前記判断部の判断結果が肯定的であり、かつ前記複数のセンサが検出した前記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、前記複数のセンサの各々が検出した前記対象物を別個に表示するための第1表示情報を生成し、前記判断結果が肯定的であり、かつ前記所定の条件を満たす場合に、前記第1表示情報の表示態様とは異なる表示態様で前記複数のセンサの各々が検出した前記対象物を表示するための第2表示情報を生成する表示情報生成部と
     を備える情報生成装置。
  2.  前記複数のセンサの一つから得られたセンサ情報に基づく対象物の位置から所定距離内のエリアを前記所定エリアとする
     請求項1に記載の情報生成装置。
  3.  前記第2表示情報は、前記複数のセンサの各々が検出した前記対象物のうち、いずれか1つの前記対象物を表示するための情報を含む
     請求項1又は2に記載の情報生成装置。
  4.  前記表示情報生成部は、前記複数のセンサの種別に基づいて、いずれか1つの前記対象物を選択することにより、選択した前記対象物を表示するための前記第2表示情報を生成する
     請求項3に記載の情報生成装置。
  5.  前記表示情報生成部は、前記複数のセンサの設置対象に基づいて、いずれか1つの前記対象物を選択することにより、選択した前記対象物を表示するための前記第2表示情報を生成する
     請求項3に記載の情報生成装置。
  6.  前記表示情報生成部は、前記各センサから当該各センサが検出した前記対象物までの距離に基づいて、いずれか1つの前記対象物を選択することにより、選択した前記対象物を表示するための前記第2表示情報を生成する
     請求項3に記載の情報生成装置。
  7.  前記第2表示情報は、前記複数のセンサの各々が検出した前記対象物を統合した対象物を表示するための情報を含む
     請求項1又は請求項2に記載の情報生成装置。
  8.  前記第2表示情報は、前記複数のセンサの各々が検出した前記対象物を点滅させて表示するための情報を含む
     請求項1又は請求項2に記載の情報生成装置。
  9.  前記第2表示情報は、前記複数のセンサの各々が検出した前記対象物の平均の位置に1つの対象物を表示するための情報を含む
     請求項1又は請求項2に記載の情報生成装置。
  10.  前記所定の条件は、前記複数のセンサが検出した前記対象物の位置に基づく条件を含む
     請求項1~請求項9のいずれか1項に記載の情報生成装置。
  11.  前記所定の条件は、前記複数のセンサが過去の所定時刻において検出した前記対象物間の距離が所定の距離閾値以下であることを含む
     請求項10に記載の情報生成装置。
  12.  前記所定の条件は、前記複数のセンサが検出した前記対象物の方向の差が所定の角度閾値以下であることを含む
     請求項1~請求項11のいずれか1項に記載の情報生成装置。
  13.  前記所定の条件は、前記複数のセンサが検出した前記対象物の速度の差が所定の速度閾値以下であることを含む
     請求項1~請求項12のいずれか1項に記載の情報生成装置。
  14.  前記各閾値は、前記複数のセンサの種別に基づいて定められる
     請求項11~請求項13のいずれか1項に記載の情報生成装置。
  15.  前記各閾値は、前記複数のセンサの設置対象に基づいて定められる
     請求項11~請求項13のいずれか1項に記載の情報生成装置。
  16.  前記各閾値は、前記複数のセンサの検出精度に基づいて定められる
     請求項11~請求項13のいずれか1項に記載の情報生成装置。
  17.  前記各閾値は、前記複数のセンサの位置精度に基づいて定められる
     請求項11~請求項13のいずれか1項に記載の情報生成装置。
  18.  前記所定の条件は、前記複数のセンサが検出した前記対象物のサイズ、色および形状のうちの少なくとも1つに基づく条件を含む
     請求項1~請求項17のいずれか1項に記載の情報生成装置。
  19.  前記判断部は、前記各センサと当該各センサが検出した前記対象物との位置関係に基づいて、検出した当該対象物を判断対象とするか否かを決定する
     請求項1~請求項18のいずれか1項に記載の情報生成装置。
  20.  互いに共通する検出対象エリアを持つ複数のセンサの各々から、前記検出対象エリアの計測結果を示すセンサ情報を取得するステップと、
     取得された前記複数のセンサ情報に基づいて、前記複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断するステップと、
     前記判断するステップにおける判断結果が肯定的であり、かつ前記複数のセンサが検出した前記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、前記複数のセンサの各々が検出した前記対象物を別個に表示するための第1表示情報を生成し、前記判断結果が肯定的であり、かつ前記所定の条件を満たす場合に、前記第1表示情報の表示態様とは異なる表示態様で前記複数のセンサの各々が検出した前記対象物を表示するための第2表示情報を生成するステップと
     を含む情報生成方法。
  21.  コンピュータを、
     互いに共通する検出対象エリアを持つ複数のセンサの各々から、検出対象エリアの計測結果を示すセンサ情報を取得するセンサ情報取得部、
     前記センサ情報取得部が取得した前記複数のセンサ情報に基づいて、前記複数のセンサの各々が同一の所定エリアに存在する対象物を検出しているか否かを判断する判断部、及び
     前記判断部の判断結果が肯定的であり、かつ前記複数のセンサが検出した前記対象物が同一の対象物か否かを判断するための所定の条件を満たさない場合に、前記複数のセンサの各々が検出した前記対象物を別個に表示するための第1表示情報を生成し、前記判断結果が肯定的であり、かつ前記所定の条件を満たす場合に、前記第1表示情報の表示態様とは異なる表示態様で前記複数のセンサの各々が検出した前記対象物を表示するための第2表示情報を生成する表示情報生成部
     として機能させるためのコンピュータプログラム。
  22.  請求項1~請求項19のいずれか1項に記載の情報生成装置から、当該情報生成装置が生成した前記第1表示情報および第2表示情報のうちの少なくとも1つの表示情報を取得する表示情報取得部と、
     前記表示情報取得部が取得した前記表示情報に基づく画面への表示を制御する表示制御部と
     を備える車載装置。
PCT/JP2018/044111 2018-02-13 2018-11-30 情報生成装置、情報生成方法、コンピュータプログラムおよび車載装置 WO2019159494A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201880089011.8A CN111699523B (zh) 2018-02-13 2018-11-30 信息生成装置、信息生成方法、计算机程序和车内装置
DE112018007073.5T DE112018007073T5 (de) 2018-02-13 2018-11-30 Informationserzeugungsvorrichtung, Informationserzeugungsverfahren, Computerprogramm und fahrzeuginterne Vorrichtung
JP2019559853A JP6687169B2 (ja) 2018-02-13 2018-11-30 情報生成装置、情報生成方法、コンピュータプログラムおよび無線通信システム
US16/625,240 US11010612B2 (en) 2018-02-13 2018-11-30 Information generation device, information generation method, computer program, and in-vehicle device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018022896 2018-02-13
JP2018-022896 2018-02-13

Publications (1)

Publication Number Publication Date
WO2019159494A1 true WO2019159494A1 (ja) 2019-08-22

Family

ID=67619888

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/044111 WO2019159494A1 (ja) 2018-02-13 2018-11-30 情報生成装置、情報生成方法、コンピュータプログラムおよび車載装置

Country Status (5)

Country Link
US (1) US11010612B2 (ja)
JP (1) JP6687169B2 (ja)
CN (1) CN111699523B (ja)
DE (1) DE112018007073T5 (ja)
WO (1) WO2019159494A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021148581A (ja) * 2020-03-18 2021-09-27 株式会社デンソー 車両用位置特定装置及び車両用位置特定方法
JP7474689B2 (ja) 2020-12-04 2024-04-25 日産自動車株式会社 物体検出方法及び物体検出装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6789440B2 (ja) * 2018-03-30 2020-11-25 三菱電機株式会社 物体同定装置
JP7044000B2 (ja) * 2018-07-20 2022-03-30 株式会社デンソー 車両制御装置および車両制御方法
US11808843B2 (en) * 2019-08-29 2023-11-07 Qualcomm Incorporated Radar repeaters for non-line-of-sight target detection
US11067638B2 (en) 2019-12-12 2021-07-20 Sma Solar Technology Ag Method of and system for detecting a serial arc fault in a power circuit
CN114338585A (zh) * 2021-11-30 2022-04-12 青岛海尔科技有限公司 消息推送方法、装置、存储介质及电子装置
JP7214024B1 (ja) 2022-03-09 2023-01-27 三菱電機株式会社 物体位置検出装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000131432A (ja) * 1998-10-23 2000-05-12 Honda Motor Co Ltd 車両の障害物検知方法
JP2006293835A (ja) * 2005-04-13 2006-10-26 Toyota Motor Corp 物体検出装置
JP2015215201A (ja) * 2014-05-09 2015-12-03 本田技研工業株式会社 物体認識装置
WO2017017766A1 (ja) * 2015-07-27 2017-02-02 日産自動車株式会社 物体検出方法及び物体検出装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4426535B2 (ja) * 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
CN101889299B (zh) * 2007-12-05 2013-02-06 博世株式会社 车辆信息显示系统
JP4881898B2 (ja) * 2008-02-27 2012-02-22 日本電信電話株式会社 センサ情報の表示制御装置およびその方法、プログラム、記録媒体
US8305444B2 (en) * 2008-11-14 2012-11-06 Toyota Motor Engineering & Manufacturing North America, Inc. Integrated visual display system
JP5669767B2 (ja) * 2011-12-13 2015-02-18 トヨタ自動車株式会社 情報提供装置
EP2746137B1 (en) * 2012-12-19 2019-02-20 Volvo Car Corporation Method and system for assisting a driver
JP5812061B2 (ja) * 2013-08-22 2015-11-11 株式会社デンソー 物標検出装置およびプログラム
US10037469B2 (en) * 2013-12-10 2018-07-31 Google Llc Image location through large object detection
JP6028766B2 (ja) * 2014-05-20 2016-11-16 株式会社デンソー 運転支援表示装置
DE102015108759A1 (de) * 2015-06-03 2016-12-08 Valeo Schalter Und Sensoren Gmbh Verfahren zum Klassifizieren eines länglich ausgedehnten stationären Objektes in einem seitlichen Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
KR20170058188A (ko) * 2015-11-18 2017-05-26 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
JP6493365B2 (ja) * 2016-05-19 2019-04-03 株式会社デンソー 車両制御装置、車両制御方法
JP6625932B2 (ja) * 2016-05-31 2019-12-25 株式会社東芝 監視装置及び監視システム
JP2017083477A (ja) 2017-02-07 2017-05-18 パイオニア株式会社 表示制御方法、プログラムおよび表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000131432A (ja) * 1998-10-23 2000-05-12 Honda Motor Co Ltd 車両の障害物検知方法
JP2006293835A (ja) * 2005-04-13 2006-10-26 Toyota Motor Corp 物体検出装置
JP2015215201A (ja) * 2014-05-09 2015-12-03 本田技研工業株式会社 物体認識装置
WO2017017766A1 (ja) * 2015-07-27 2017-02-02 日産自動車株式会社 物体検出方法及び物体検出装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021148581A (ja) * 2020-03-18 2021-09-27 株式会社デンソー 車両用位置特定装置及び車両用位置特定方法
JP7342753B2 (ja) 2020-03-18 2023-09-12 株式会社デンソー 車両用位置特定装置及び車両用位置特定方法
JP7474689B2 (ja) 2020-12-04 2024-04-25 日産自動車株式会社 物体検出方法及び物体検出装置

Also Published As

Publication number Publication date
JPWO2019159494A1 (ja) 2020-05-28
CN111699523B (zh) 2022-07-05
CN111699523A (zh) 2020-09-22
JP6687169B2 (ja) 2020-04-22
US11010612B2 (en) 2021-05-18
US20200143167A1 (en) 2020-05-07
DE112018007073T5 (de) 2020-11-12

Similar Documents

Publication Publication Date Title
WO2019159494A1 (ja) 情報生成装置、情報生成方法、コンピュータプログラムおよび車載装置
US10531254B2 (en) Millimeter wave vehicle-to-vehicle communication system for data sharing
WO2017145650A1 (ja) 車載機及び道路異常警告システム
US11683684B2 (en) Obtaining a credential for V2X transmission on behalf of a vehicle
US11039384B2 (en) Wireless communication system, information acquiring terminal, computer program, method for determining whether to adopt provided information
US20180090009A1 (en) Dynamic traffic guide based on v2v sensor sharing method
US11315420B2 (en) Moving object and driving support system for moving object
US11682300B2 (en) Techniques for utilizing a mobile device as a proxy for a vehicle
WO2017057043A1 (ja) 画像処理装置、画像処理方法、およびプログラム
US11511767B2 (en) Techniques for utilizing CV2X registration data
CN106575480B (zh) 信息处理系统、终端装置、程序、移动终端装置、计算机可读取的非易失性的有形记录介质
US20200322585A1 (en) Image processing device, image processing method, and vehicle
US11915452B2 (en) Information processing device and information processing method
WO2019131075A1 (ja) 送信装置、点群データ収集システムおよびコンピュータプログラム
US20220390557A9 (en) Calibration apparatus, calibration method, program, and calibration system and calibration target
CN113167592A (zh) 信息处理设备、信息处理方法和信息处理程序
JP2019079453A (ja) 情報生成システム、情報生成装置、情報生成方法およびコンピュータプログラム
US20200357284A1 (en) Information processing apparatus and information processing method
JP2019079454A (ja) 車両制御システム、機能通知装置、機能通知方法およびコンピュータプログラム
US20210295563A1 (en) Image processing apparatus, image processing method, and program
CN117280720A (zh) 通信设备、通信方法和车辆
JP2020098532A (ja) 動的情報生成装置、車載装置、動的情報生成方法およびコンピュータプログラム
JP2024003806A (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18906246

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019559853

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 18906246

Country of ref document: EP

Kind code of ref document: A1