WO2023157343A1 - 車両認識システム及びサーバ - Google Patents

車両認識システム及びサーバ Download PDF

Info

Publication number
WO2023157343A1
WO2023157343A1 PCT/JP2022/030657 JP2022030657W WO2023157343A1 WO 2023157343 A1 WO2023157343 A1 WO 2023157343A1 JP 2022030657 W JP2022030657 W JP 2022030657W WO 2023157343 A1 WO2023157343 A1 WO 2023157343A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
dynamic object
server
information
feature point
Prior art date
Application number
PCT/JP2022/030657
Other languages
English (en)
French (fr)
Inventor
チュン キム タン
裕人 今西
有真 加藤
康宏 布施
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Publication of WO2023157343A1 publication Critical patent/WO2023157343A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions

Definitions

  • the present invention relates to technology for raising the level of automated driving of automated driving vehicles.
  • ODD Operational Design Domain
  • V2I Vehicle-to-Infrastructure
  • infrastructure can cover vehicle blind spots to reduce the likelihood of traffic accidents and warn approaching vehicles.
  • the infrastructure itself may announce the status of traffic lights.
  • V2I technologies can enhance the autonomous driving capabilities of vehicles. In other words, it will be possible to raise the level of autonomous driving without installing additional hardware in the vehicle.
  • systems providing V2I technology can be used by multiple vehicles within the ODD to provide useful information when multiple vehicles are moving within the ODD.
  • vehicles must be accurately located.
  • an initial vehicle pose is required for the edge server, which receives and computes information from infrastructure sensors, to accurately track the vehicle pose.
  • the pose of the vehicle in the present invention means the coordinate position (xy) and the azimuth ( ⁇ ) in the running direction in the running route along which the vehicle runs.
  • a vehicle recognition system includes an infrastructure sensor that monitors dynamic objects moving on a travel route, and a server that receives information from a plurality of vehicles traveling on the travel route.
  • a vehicle recognition system comprising a dynamic object ID for identifying a dynamic object when the infrastructure sensor detects that the dynamic object has reached an arbitrary feature point on the travel route and time information when the dynamic object reaches the feature point is transmitted to the server, and each of the plurality of vehicles identifies itself when it detects that it has reached the feature point.
  • the vehicle ID information including the vehicle ID and the time information when the self reaches the feature point is transmitted to the server, and the server matches the dynamic object ID information and the vehicle ID information to generate a plurality of Determine whether there is a vehicle matching the dynamic object among the vehicles.
  • the server obtains a dynamic object ID for identifying a dynamic object from an infrastructure sensor that monitors dynamic objects moving on a travel route, and the dynamic object is an arbitrary feature on the travel route.
  • Dynamic object ID information including time information when reaching a point is received, and from each of a plurality of vehicles traveling on the travel route, a vehicle ID for identifying the self and a time when the self has reached the feature point are sent.
  • a receiving unit that receives vehicle ID information including time information, and a matching process between the dynamic object ID information and the vehicle ID information to determine whether or not there is a vehicle that matches the dynamic object among a plurality of vehicles. and a matching logic unit for determining.
  • FIG. 1 is a block diagram showing an overview of a vehicle recognition system according to one embodiment of the present invention
  • FIG. FIG. 2 is a block diagram showing an overview of the hardware configuration in which the vehicle recognition system is implemented
  • 4 is a flowchart showing the details of vehicle recognition processing performed using a vehicle recognition system
  • 2 is a block diagram showing the functional architecture of the vehicle recognition system
  • Feature point detection example An example showing a case where the system according to the present embodiment is applied at an intersection.
  • FIG. 10 is an example of feature point detection using the system according to the second embodiment;
  • FIG. An example showing the case where the system is applied at a T-junction.
  • FIG. 10 is a diagram showing another example of communication failure;
  • FIG. 1 is a diagram showing an outline of a vehicle recognition system according to one embodiment of the invention.
  • a vehicle 1 is an automobile to be recognized.
  • VID2 is a unique ID that vehicle 1 has.
  • a predetermined travel path 3 is the area in which the initial pose of the vehicle 1 is calculated and then tracked. Also, the direction and location of traffic within the travel route 3 are known.
  • a feature point 4 is a unique point in the travel route 3 detected by an in-vehicle sensor. The positions of the feature points 4 are also predetermined.
  • the infrastructure sensor 5 is installed on the roadside of the travel route 3 and mounted on the infrastructure that monitors the ODD including the travel route 3 .
  • the sensor perception area 6 is a virtual space that represents the concept of observation of the physical world by the infrastructure sensors 5 .
  • dynamic objects 7 are shown as mobiles detected by the infrastructure sensors 5 .
  • OID 8 is a unique ID assigned to dynamic object 7 by infrastructure sensor 5 .
  • Edge server 9 is a computer that processes data received from vehicle 1 and infrastructure sensors 5 .
  • Infrastructure sensor output 10 is data sent from infrastructure sensor 5 to edge server 9 via a wired or wireless network.
  • the vehicle output 0 is data transmitted from the vehicle 1 to the edge server 9 via the wireless network.
  • Fig. 2 is an example of a hardware configuration in which the vehicle recognition system according to the present invention is implemented.
  • the vehicle 1 is equipped with an in-vehicle sensor 11 , an ECU 12 and an in-vehicle antenna 13 .
  • An in-vehicle sensor 11 is used to detect the feature points 4 .
  • An ECU (Electronic Control Unit) 12 is an in-vehicle computer that processes data and controls other in-vehicle devices of the vehicle 1 .
  • the vehicle-mounted antenna 13 is a device for transmitting and receiving data between the vehicle 1 and the edge server 9 .
  • the infrastructure sensor 5 has a sensor 14 and an RSU 15 .
  • the sensor 14 is a sensor device installed in the infrastructure to monitor the ODD containing the predefined driving path 3 .
  • the RSU (Road Side Unit) 15 is a road side unit computer that pre-processes data acquired from the sensor 14 .
  • the edge server 9 also has an edge server antenna 16 and an edge server computer 17.
  • Edge server antenna 16 is a device for transmitting and receiving data on edge server 9 .
  • Edge server computer 17 is a computer for processing data received from vehicle 1 and infrastructure sensors 5 .
  • FIG. 3 is a flowchart showing initial vehicle pose calculation processing performed by the vehicle identification system according to the present invention.
  • step S ⁇ b>101 the vehicle 1 reaches the predetermined travel route 3 and transmits its own VID 2 to the edge server 9 . Thereafter, processing is performed on the vehicle 1 side and the infrastructure sensor 5 side, respectively. First, the processing performed on the vehicle 1 side will be described.
  • step S ⁇ b>102 the vehicle 1 starts searching for the feature point 4 using the in-vehicle sensor 11 .
  • step S ⁇ b>103 the in-vehicle sensor 11 detects that the vehicle 1 has reached the feature point 4 .
  • step S ⁇ b>104 the ECU 12 records the arrival time when the vehicle 1 reaches the feature point 4 .
  • step S ⁇ b>105 the vehicle 1 transmits its own VID 2 and arrival time to the edge server antenna 16 of the edge server 9 via the vehicle-mounted antenna 13 .
  • step S106 the infrastructure sensor 5 detects the dynamic object 7 using the sensor 14 and starts tracking/monitoring.
  • step S ⁇ b>107 the sensor 14 detects that the dynamic object 7 has reached the feature point 4 .
  • step S 108 the infrastructure sensor 5 uses the RSU 15 to record the time of the event when the dynamic object 7 reaches the feature point 4 .
  • step S ⁇ b>109 the infrastructure sensor 5 transmits the OID 8 linked to the detected dynamic object 7 and the arrival event time to the edge server antenna 16 of the edge server 9 via the RSU 15 .
  • step S110 the edge server 9 uses time data to compare VID2 and OID8.
  • step S111 when matching is established, the process proceeds to step S112, and the edge server 9 calculates the initial vehicle pose of the vehicle 1.
  • step S113 If the matching is not established, the process proceeds to step S113 to execute backup processing. Details of the matching process, the initial vehicle pose calculation process, and the backup process will be described later. Thus, it is determined in step S114 that the initial vehicle pose calculation process has been completed.
  • FIG. 4 is an example of an ID table that can be used in step S110 in FIG.
  • Timestamp 18 is the time data recorded in infrastructure sensor output 10 and vehicle output 0 .
  • ID type 19 indicates whether the recorded data belongs to vehicle 1 or dynamic object 7 .
  • the ID number 20 is an ID value unique to each of the vehicle 1 and the dynamic object.
  • Pair ID21 indicates the matched pair of VID2 and OID8.
  • the edge server 9 extracts VIDs for which matching has not yet been established from the list of VIDs received in step S101 of FIG. 3 when only OIDs are received as described above. Then, the vehicle 1 having the VID is specified, and the vehicle 1 is specified as the vehicle having the VID to be matched with the OID for which the matching has not been established. This is the backup processing performed in step S113 of FIG. Further, when a plurality of VIDs for which matching is not established are extracted, the edge server 9 may instruct each of the vehicles 1 having the VIDs to transmit the position information.
  • FIG. 5 is a block diagram showing the functional architecture for realizing the initial vehicle pose calculation implemented in the vehicle recognition system according to this embodiment.
  • the vehicle 1 is equipped with various ECUs that function as a feature point detector 22 , a time logger 23 , and a data transmitter 24 .
  • the feature point detection unit 22 exhibits the function of finding the feature points 4 .
  • the time logger 23 performs the function of recording the time when the vehicle 1 reaches the feature point 4 .
  • the data transmission unit 24 performs a function of transmitting vehicle output 0 to the edge server 9 .
  • the infrastructure sensor 5 is equipped with various ECUs that function as a dynamic object detection unit 25, an OID allocation logic unit 26, a feature point detection unit 27, a time logger 28, and a data transmission unit 29.
  • the dynamic object detector 25 performs the function of processing the sensor data and extracting information about the dynamic object 7 therefrom.
  • the OID assignment logic 26 performs the function of giving each detected dynamic object 7 a unique ID.
  • the feature point detection unit 27 executes a function of acquiring a trigger when the dynamic object 7 reaches the feature point 4 .
  • the time logger 28 performs a function of recording the detected time.
  • the data transmission unit 29 performs a function of transmitting the infrastructure sensor output 10 to the edge server 9 .
  • Matching logic 30 performs the function of pairing OID 8 and VID 2 using timestamp 18 .
  • the ID database 31 performs the function of storing matched ID pairs 21 in the storage device of the edge server 9 . It also executes a function of storing a list of VIDs transmitted to the edge server 9 when the vehicle 1 enters the travel route 3 .
  • the initial vehicle pose calculator 32 executes a function of calculating the position and orientation of the vehicle 1 based on the observation data transmitted from the infrastructure sensor 5 when the matching between the vehicle 1 and the dynamic object 7 is established. .
  • FIG. 6 is a diagram for explaining an example of the initial vehicle pose calculation method executed in step S112 of FIG.
  • Coordinates 33 are predetermined positions of the feature points 4 .
  • a predetermined direction 34 is a traffic direction set for the travel route 3 .
  • the vehicle 1 and the infrastructure sensor 5 execute the above-described processing, and send a set of ID and time stamp to the edge server 9 .
  • the matching logic unit 30 performs matching processing, and when the matching is established, the initial vehicle pose calculation unit 32 calculates the position: "coordinates [40.2, 117.9]" and the direction as the initial vehicle pose of the vehicle 1. : Calculate "driving direction 34".
  • FIG. 7 shows an example of feature point detection using a vehicle as an example.
  • the travel route maintenance camera 35 is an in-vehicle sensor 11 attached to the vehicle 1 and enables the vehicle 1 to detect and track lane markers on the travel route 3 .
  • a box-shaped marker 36 formed on the travel route 3 is detected as the characteristic point 4 using the travel route maintenance camera 35 .
  • the feature point 4 is shown as a box-shaped marker 36 in FIG.
  • FIG. 8 is a diagram showing a case where the system according to this embodiment is applied at an intersection on a general road.
  • the intersection 37 is an ODD area in which the position of the vehicle should be accurately tracked after the initial pose of the vehicle has been calculated as a result of the processing shown in FIG.
  • the stop line of the signal can be treated as the feature point 4, and the position of the vehicle 1 entering the intersection can be tracked accurately.
  • markers, stop lines, and the like provided on the travel route are set as characteristic points, and when the vehicle reaches the characteristic points, each of the vehicle 1 and the infrastructure sensor 5 ID information and time stamps of the vehicle 1 and the dynamic object 7 are acquired from the vehicle 1 and the dynamic object 7, and based on the information, a matching process is performed to determine whether the vehicle 1 and the dynamic object 7 match. calculates the initial vehicle pose of the vehicle 1 at the feature point 4 .
  • the relationship between the vehicle 1 and the dynamic object 7 having the VID and OID for which matching is established is the vehicle 1 and the dynamic object 7 that is the result of the vehicle being detected by the infrastructure sensor 5 . Therefore, once the matching is established, the observation of the dynamic object 7 by the infrastructure sensor 5 afterward becomes synonymous with the observation of the vehicle 1 . Moreover, since the initial vehicle pose is calculated when the matching is established, it becomes possible to track the position and direction of the vehicle after the matching is established very accurately. Therefore, the edge server 9 can control the behavior of the vehicle in the ODD with very high accuracy using only the sensor information received from the existing infrastructure sensor 5 . In other words, it is possible to implement a higher level of autonomous driving without installing expensive additional devices in the vehicle.
  • FIG. 9 is a diagram illustrating a method of detecting feature points 4 using an example of a vehicle according to the second embodiment.
  • the RFID transmitter 38 is a transmitter for generating feature points 4 within the predetermined travel route 3 .
  • the vehicle-mounted RFID device 39 is a sensor for detecting the feature points 4 generated by the RFID transmitter 38, and corresponds to the vehicle-mounted sensor 11 in FIG. In this way, by generating the characteristic points 4 using the RFID transmitter 38 installed on the roadside, the characteristic points 4 can be easily generated on the travel route 3 without the need for physical marking or the like. becomes possible. Further, by configuring the RFID transmitter 38 to be portable, it becomes possible to adjust the position and the size of the area for generating the feature points according to the environment such as the weather and road conditions.
  • FIG. 10 is a diagram showing a situation in which the system according to this embodiment is applied to a T-shaped intersection 40.
  • the T-junction 40 is an ODD area where the vehicle should be located with high accuracy after completing the initial posing of the vehicle 1 . Since feature points 4 can be generated by RFID transmitters 38 (see FIG. 9) even in areas such as T-shaped intersections 40, a high level of automated driving can be achieved using existing equipment as in Embodiment 1. becomes possible.
  • FIG. 11 shows an example of a case where a communication failure occurs before calculating the initial pose of the vehicle.
  • the entrance 41 is where the vehicle 1 reaches the predetermined travel route 3
  • the exit 42 is where the vehicle 1 leaves the travel route 3 .
  • the ODD 43 is an ODD area where the position of the vehicle 1 should be accurately tracked after the initial pose of the vehicle 1 is calculated.
  • FIG. 12 shows another example of communication failure.
  • a vehicle recognition system includes an infrastructure sensor that monitors dynamic objects moving on a travel route, and a server that receives information from a plurality of vehicles traveling on the travel route.
  • the infrastructure sensor detects that the dynamic object has reached an arbitrary feature point on the travel route
  • the infrastructure sensor detects the dynamic object ID for specifying the dynamic object and the dynamic object is and dynamic object ID information including time information when reaching the feature point is transmitted to the server, and when each of the plurality of vehicles detects that it has reached the feature point, each of the plurality of vehicles has a vehicle ID for identifying itself.
  • the server performs matching processing on the dynamic object ID information and the vehicle ID information, thereby moving among a plurality of vehicles. It is determined whether or not there is a vehicle that matches the target object.
  • the infrastructure sensor observes the position and movement direction of the dynamic object on the driving route, transmits observation data including the observation result to the server, and the server determines that there is a vehicle that matches the dynamic object. Then, based on the observation data, the position and moving direction of the vehicle at the time when the vehicle reaches the feature point are calculated.
  • the vehicle state (position and moving direction) when reaching the feature point can be specified, and the behavior after reaching the feature point can be tracked by the infrastructure sensor, so the behavior of the vehicle in the ODD can be accurately grasped, Level 4 automated driving can be achieved with high accuracy.
  • Each of the plurality of vehicles transmits the vehicle ID to the server when entering the operation area in which the feature points are arranged, and the server stores the vehicle ID received from each of the plurality of vehicles and dynamically
  • the vehicle ID to be matched with the dynamic object ID is selected from the stored vehicle IDs. Executes a backup process that searches for the existence of As a result, even when the vehicle cannot transmit the vehicle ID information due to communication failure or the like, the matching process can be performed again, and the accuracy of vehicle recognition can be improved.
  • the feature point is a marker on the travel route, and the vehicle detects the feature point with an in-vehicle camera mounted on the vehicle.
  • the feature points are defined by signals emitted from an RFID communicator, and the vehicle detects the feature points by RFID devices mounted on the vehicle.
  • the server obtains a dynamic object ID for identifying a dynamic object and a dynamic object on the driving route from an infrastructure sensor that monitors dynamic objects moving on the driving route.
  • a vehicle that matches the dynamic object exists among a plurality of vehicles by performing a matching process between the dynamic object ID information and the vehicle ID information and the receiving unit that receives the vehicle ID information including the time information when the dynamic object is detected. and a matching logic unit for determining whether or not.
  • the same effect as (1) can be expected.
  • the infrastructure sensor receives observation data including observation results of the position and movement direction of the dynamic object on the driving route, and the server determines that there is a vehicle that matches the dynamic object, It further has an initial vehicle pose calculator that calculates the position and moving direction of the vehicle when the vehicle reaches the feature point according to the reception of the observation data.
  • the same effect as (2) can be expected.
  • the server receives the dynamic object ID information.
  • vehicle ID information that matches the dynamic object ID information has not been received, whether or not there is a vehicle ID that should be matched with the dynamic object ID from among the stored vehicle IDs. It further has a processing unit that executes a backup process of searching for As a result, the same effect as (3) can be expected.
  • the present invention is not limited to the above embodiments, and various modifications are possible.
  • the above embodiments have been described in detail in order to facilitate understanding of the present invention, and the present invention is not necessarily limited to aspects having all the described configurations.
  • part of the configuration of one embodiment can be replaced with the configuration of another embodiment.
  • add the configuration of another embodiment to the configuration of one embodiment.
  • VID Vehicle ID
  • Driving route 4 Feature point
  • 5 Infrastructure sensor 7 Dynamic object
  • 8 OID Dynamic object ID
  • 9 Edge server 11 In-vehicle sensor
  • 14 Sensor 16 Edge Server antenna (receiving unit)
  • 17 edge server computer processing unit
  • 30 matching logic unit 32 initial vehicle pose calculation unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

ODD内の複数の車両それぞれのポーズを正確に特定・追跡する。インフラストラクチャセンサ5は、動的オブジェクト7が、走行経路3上の任意の特徴点4に到達したことを検知した際に、該動的オブジェクト7を特定するための動的オブジェクトIDと動的オブジェクト7が特徴点に到達したときの時刻情報とを含む動的オブジェクトID情報をサーバに送信し、複数の車両1の各々は、特徴点4に到達したことを検知した際に、自己を特定するための車両IDと自己が特徴点4に到達したときの時刻情報とを含む車両ID情報をサーバ9に送信し、サーバ9は、動的オブジェクトID情報及び車両ID情報をマッチング処理することによって、複数の車両1の中に動的オブジェクト7と一致する車両が存在するか否か判定する。

Description

車両認識システム及びサーバ
 本発明は、自動運転車両の自動運転レベルを引き上げる技術に関する。
 レベル4の自動運転を実現するには、通常、高価なセンサとプロセッサーが必要とされる。これはレベル4の自動運転車を数多く所有する所有者にとって非常に重要な問題である。車両の数が増えると、メンテナンスコストとハードウェアコストが大幅に増加するからである。これらのコストを削減するために、インフラストラクチャに所定数のセンサを取り付けて、安価なセンサを備えたレベル2の車両が、運行設計領域(ODD:Operational design domain)内でレベル4の自動運転を実現できるようにすることができる。これらのインフラストラクチャセンサは常にODDを監視する。ここで、ODDとは、各自動運転システムが作動する前提となる走行環境条件のことであり、例えば道路条件、前後の自動車との間の距離に関する条件、速度条件、センサの検知条件等である。
 また、特許文献1等に記載されているように、V2I(Vehicle-to-Infrastructure)テクノロジーにより、車両はインフラストラクチャサービスと通信して、自動運転をサポートするための追加情報を取得できる。たとえば、インフラストラクチャに設置されたセンサは、車両の死角をカバーして交通事故の可能性を減らし、接近する車両に対して警告を発することができる。また、インフラストラクチャ自体が信号機の状態を通知し得る。これらのV2Iテクノロジーは、車両の自動運転機能を強化できる。つまり、車両に追加のハードウェアを搭載させることなく自動運転レベルを引き上げることが可能になる。
米国特許出願公開第2021/0072041号明細書
 高価な車載センサを追加することなく自動運転レベルを引き上げるには、ODD内で複数の車両が移動している場合、有用な情報を提供するために、V2Iテクノロジーを提供するシステムはODD内の複数の車両それぞれの位置を正確に特定する必要がある。また、インフラストラクチャセンサから情報を受信して演算するエッジサーバが車両のポーズを正確に追跡するために、初期の車両のポーズが必要となる。ここで、本発明において車両のポーズとは、車両が走行する走行経路内における座標位置(x-y)及び走行方向の方位(θ)のことをいう。
 上記課題を解決するために、本発明に係る車両認識システムは、走行経路上を移動する動的オブジェクトを監視するインフラストラクチャセンサ、及び走行経路上を走行する複数の車両、から情報を受信するサーバを備える車両認識システムであって、インフラストラクチャセンサは、動的オブジェクトが、走行経路上の任意の特徴点に到達したことを検知した際に、該動的オブジェクトを特定するための動的オブジェクトIDと動的オブジェクトが特徴点に到達したときの時刻情報とを含む動的オブジェクトID情報をサーバに送信し、複数の車両の各々は、特徴点に到達したことを検知した際に、自己を特定するための車両IDと自己が特徴点に到達したときの時刻情報とを含む車両ID情報をサーバに送信し、サーバは、動的オブジェクトID情報及び車両ID情報をマッチング処理することによって、複数の車両の中に動的オブジェクトと一致する車両が存在するか否か判定する。
 また、本発明に係るサーバは、走行経路上を移動する動的オブジェクトを監視するインフラストラクチャセンサから、動的オブジェクトを特定するための動的オブジェクトIDおよび動的オブジェクトが走行経路上の任意の特徴点に到達したときの時刻情報を含む動的オブジェクトID情報を受信し、走行経路上を走行する複数の車両の各々から、自己を特定するための車両IDおよび自己が特徴点に到達したときの時刻情報を含む車両ID情報を受信する受信部と、動的オブジェクトID情報と車両ID情報とをマッチング処理することによって、複数の車両の中に動的オブジェクトと一致する車両が存在するか否か判定するマッチングロジック部と、を備える。
 本発明によれば、所定のルールに基づいたメカニズムにより、機能が自動運転レベル2に制限されている車両であっても、各車両に高価な車載センサを設置することなく、ODD内で完全に自律的に、すなわち自動運転レベル4の状態で運行できるようになる。このように、本発明によれば、レベル4の自動運転を実現するためのより安価な代替手段を提供することが可能になる。
 本発明に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、上記した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
本発明の一実施例に係る車両認識システムの概要を示すブロック図。 車両認識システムが実装されるハードウェア構成の概要を示すブロック図。 車両認識システムを用いて行う車両認識処理の内容を示すフローチャート。 車両及び動的オブジェクトのIDが記憶されたIDテーブルの一例。 車両認識システムの機能アーキテクチャを示すブロック図。 初期車両ポーズの算出方法を示す一例。 特徴点の検出例。 本実施例に係るシステムを交差点において適用した場合を示す例。 実施例2に係るシステムを用いた特徴点の検出例。 システムをT字交差点において適用した場合を示す例。 通信障害の一例を示す図。 通信障害の他の例を示す図。
[実施例1]
 以下、図面に従って実施例を説明する。
 図1は、本発明の一実施例に係る車両認識システムの概要を示す図である。車両1は認識対象の自動車である。VID2は、車両1が有する一意のIDである。予め定められた走行経路3は、車両1の初期ポーズが算出され、その後追跡される領域である。また、走行経路3内における交通の方向と位置は既知である。特徴点4は、車載センサによって検出される、走行経路3内の固有点である。特徴点4の位置もまた予め定められている。インフラストラクチャセンサ5は、走行経路3の路側に設置されるとともに走行経路3を含むODDを監視するインフラストラクチャに搭載されている。センサ知覚領域6は、インフラストラクチャセンサ5が物理世界を観測した概念を示す仮想空間である。センサ知覚領域6の内部では、動的オブジェクト7が、インフラストラクチャセンサ5によって検出された移動体として示されている。OID8は、インフラストラクチャセンサ5によって動的オブジェクト7に割り当てられた一意のIDである。エッジサーバ9は、車両1およびインフラストラクチャセンサ5から受信したデータを処理するコンピュータである。インフラストラクチャセンサ出力10は、インフラストラクチャセンサ5からエッジサーバ9へ有線または無線ネットワークを介して送信されるデータでる。車両出力0は、車両1からエッジサーバ9に無線ネットワークを介して送信されるデータである。
 図2は、本発明に係る車両認識システムが実装されるハードウェア構成の一例である。車両1には、車載センサ11、ECU12、及び車載アンテナ13が搭載されている。車載センサ11は、特徴点4を検出するために使用される。ECU(Electronic Control Unit)12は、データを処理し、車両1の他の車載装置を制御する車載コンピュータである。車載アンテナ13は、車両1とエッジサーバ9との間でデータを送受信するためのデバイスである。
 また、インフラストラクチャセンサ5は、センサ14及びRSU15を有する。センサ14は、予め定められた走行経路3を含むODDを監視するためにインフラストラクチャにインストールされたセンサデバイスである。RSU(Road Side Unit)15は、センサ14から取得したデータを前処理する道路側ユニットコンピュータである。
 また、エッジサーバ9は、エッジサーバアンテナ16及びエッジサーバコンピュータ17を有する。エッジサーバアンテナ16は、エッジサーバ9上でデータを送受信するためのデバイスである。エッジサーバコンピュータ17は、車両1およびインフラストラクチャセンサ5から受信したデータを処理するためのコンピュータである。
 図3は、本発明に係る車両特定システムが行う初期車両ポーズ算出処理を示すフローチャートである。ステップS101において、車両1が予め定められた走行経路3に到達するとともに、自己のVID2をエッジサーバ9に送信する。その後、車両1側及びインフラストラクチャセンサ5側のそれぞれにおいて処理が行われるが、まず車両1側において行われる処理について説明する。ステップS102において、車両1は、車載センサ11を用いて特徴点4の探索を開始する。ステップS103において、車載センサ11が、車両1が特徴点4に到達したことを検出する。ステップS104において、ECU12は、車両1が特徴点4に到達した到達時間を記録する。ステップS105において、車両1は自己のVID2と到達時刻とを、車載アンテナ13を介してエッジサーバ9のエッジサーバアンテナ16に送信する。
 次に、インフラストラクチャセンサ5側において行われる処理について説明する。ステップS106において、インフラストラクチャセンサ5は、センサ14を用いて、動的オブジェクト7を検知し、追跡・監視を開始する。ステップS107において、センサ14が、動的オブジェクト7が特徴点4に到達したことを検出する。ステップS108において、インフラストラクチャセンサ5は、RSU15を用いて動的オブジェクト7が特徴点4に到達したイベントの時間を記録する。ステップS109において、インフラストラクチャセンサ5は、検知した動的オブジェクト7に紐づけられたOID8と到達イベントの時刻とをRSU15を介してエッジサーバ9のエッジサーバアンテナ16に送信する。
 以上のようにしてエッジサーバ9が車両1及びインフラストラクチャセンサ5の両方からデータを受信すると、ステップS110に進み、エッジサーバ9は時間データを用いてVID2とOID8とを照合する。ステップS111において、マッチングが成立した場合には、ステップS112に進み、エッジサーバ9は車両1の初期車両ポーズを算出する。マッチングが成立しなかった場合にはステップS113に進み、バックアップ処理を実行する。マッチング処理、初期車両ポーズ算出処理及びバックアップ処理の詳細については後述する。こうして、ステップS114において初期車両ポーズ算出処理が完了したと判断される。
 マッチング処理の詳細について図4を参照して説明する。図4は、図3中のステップS110において使用できるIDテーブルの一例である。タイムスタンプ18は、インフラストラクチャセンサ出力10および車両出力0に記録された時間データである。IDタイプ19は、記録されたデータが車両1または動的オブジェクト7のどちらに属するかを示す。ID番号20は、車両1及び動的オブジェクトのそれぞれに固有のID値である。ペアID21は、一致したVID2とOID8のペアを示す。
 図4に示すように、本実施例においては、タイムスタンプ18が0:25のときに、ID番号が「01」であるVIDと、ID番号20が「10」であるOIDが検出されている。したがって、これらを一致するペアであると判断して、ペアID21として「100」を付与する。同様に、タイムスタンプが0:56のときにもID番号20が「02」のVIDとID番号「12」のOIDが検知されており、これらにペアID「101」を付与する。
 また、タイムスタンプ18が1:12のときには、ID番号20が「11」であるOIDが検出されているが、対応するVIDは検出されていない。このような場合には、車両1との間の通信にエラーが生じたか、もしくは人物や動物等車両以外のものを動的オブジェクトとして検出した等が考えられる。後者の場合であれば認識対象である車両が存在しないため問題ないが、前者の場合にはODD内に車両が存在するにも関わらず認識・追跡できないことになり、安全性に問題が生じる。
 このような事態を防止するために、エッジサーバ9は、上記のようにOIDのみ受信した場合には、図3のステップS101で受信したVIDのリストから、未だマッチングが成立していないVIDを抽出し、そのVIDを有する車両1を特定し、該車両1を、上記マッチングが成立しなかったOIDとマッチングすべきVIDを有する車両として特定する。これが図3のステップS113で行うバックアップ処理である。また、マッチングが成立していないVIDが複数抽出された場合には、該VIDを有する車両1のそれぞれに位置情報を送信するようにエッジサーバ9が指令してもよい。
 図5は、本実施例に係る車両認識システムに実装された、初期車両ポーズ算出を実現するための機能アーキテクチャを示すブロック図である。車両1には、特徴点検出部22、タイムロガー23、及びデータ送信部24として機能する各種のECUが搭載されている。特徴点検出部22は、特徴点4を見つけるための機能を発揮する。タイムロガー23は、車両1が特徴点4に到達した時間を記録するための機能を実行する。データ送信部24は、エッジサーバ9に対して車両出力0を送信する機能を実行する。
 また、インフラストラクチャセンサ5には、動的オブジェクト検出部25、OID割当ロジック部26、特徴点検出部27、タイムロガー28、及びデータ送信部29として機能する各種のECUが搭載されている。動的オブジェクト検出部25は、センサデータを処理し、そこから動的オブジェクト7に関する情報を抽出する機能を実行する。OID割当ロジック部26は、検出された各動的オブジェクト7に一意のIDを与える機能を実行する。特徴点検出部27は、動的オブジェクト7が特徴点4に到達した場合にトリガーを取得する機能を実行する。タイムロガー28は、特徴点検出部27が、動的オブジェクト7が特徴点4に到達したことを検知した場合に、その検知した時間を記録する機能を実行する。データ送信部29は、インフラストラクチャセンサ出力10をエッジサーバ9に送信する機能を実行する。
 また、エッジサーバ9上には同様に、マッチングロジック部30、IDデータベース31、及び初期車両ポーズ算出部32として機能する各種ECUが搭載されている。ただし、エッジサーバをネットワーク上のクラウドとして設計する場合には、これらの機能はプログラムとして実装されたソフトウェアによって実行されてもよい。マッチングロジック部30は、タイムスタンプ18を使用してOID8とVID2とをペアリングする機能を実行する。IDデータベース31は、一致したIDペア21をエッジサーバ9のストレージデバイスに格納する機能を実行する。また、車両1が走行経路3に進入した際にエッジサーバ9に送信されるVIDをリストとして保存する機能も実行する。初期車両ポーズ算出部32は、車両1と動的オブジェクト7とのマッチングが成立した際に、インフラストラクチャセンサ5から送信される観測データに基づいて車両1の位置と向きを算出する機能を実行する。
 図6は、図3のステップS112で実行される、初期車両ポーズの算出方法の一例を説明するための図である。座標33は、予め定められた特徴点4の位置である。また予め定められた方向34は、走行経路3に対して設定された交通方向である。この特徴点4の座標33の地点に車両1が到達した時に、車両1及びインフラストラクチャセンサ5は上述した処理を実行し、IDとタイムスタンプとのセットをエッジサーバ9に送信する。そして、マッチングロジック部30がマッチング処理を行い、マッチングが成立した場合、初期車両ポーズ算出部32が、車両1の初期車両ポーズとして、位置:「座標[40.2,117.9]」及び方向:「運転方向34」を算出する。
 図7は、車両を例とする特徴点の検出に関する一例を示す。走行経路維持カメラ35は、車両1に取り付けられた車載センサ11であり、車両1が走行経路3上の車線マーカーを検出して追跡させることが可能である。この例では、走行経路維持カメラ35を使用して、走行経路3上に形成されたボックス状のマーカー36が特徴点4として検出される。なお、図7においては特徴点4はボックス状のマーカー36として示されている。
 図8は、本実施例に係るシステムを一般道路上の交差点において適用した場合を示す図である。交差点37は、車両が図3に示す処理の結果初期ポーズが算出された後に、車両の位置が正確に追跡されるべきODDエリアである。この場合においては、信号の停止線を特徴点4として扱うことが可能となり、交差点内に進入した車両1の位置を正確に追跡することが可能になる。
 以上説明したように、本実施例においては、走行経路上に設けられたマーカーや停止線等を特徴点として設定し、車両が特徴点に到達した際に、車両1及びインフラストラクチャセンサ5の各々から車両1及び動的オブジェクト7のID情報及びタイムスタンプを取得し、それらの情報に基づいて車両1と動的オブジェクト7とが一致するかどうか判断するマッチング処理を行い、マッチングが成立する場合には特徴点4における車両1の初期車両ポーズを算出している。
 マッチングが成立したVID及びOIDをそれぞれ有する車両1と動的オブジェクト7との関係は、車両1と、該車両がインフラストラクチャセンサ5により検知された結果である動的オブジェクト7、というものになる。したがって、一度マッチングが成立すると、以後に行われるインフラストラクチャセンサ5による動的オブジェクト7の観測は、車両1の観測と同義となる。しかも、マッチングが成立した場合には初期車両ポーズを算出するため、マッチング成立後の車両について、位置・方向ともに非常に正確に追跡することが可能になる。したがって、エッジサーバ9は、既存のインフラストラクチャセンサ5から受信するセンサ情報のみで、ODD内における車両の挙動を非常に精度良く制御できる。つまり、車両に高価な追加デバイスを搭載することなく、より高いレベルの自動運転を実行させることが可能になる。
[実施例2]
 図9は、実施例2に係る、車両の例による特徴点4の検出方法を示す図である。RFID送信機38は、予め定められた走行経路3内に特徴点4を生成するための送信装置である。車載RFID装置39は、RFID送信機38によって生成された特徴点4を検出するためのセンサであり、図2中の車載センサ11に該当する。このように、路側に設置したRFID送信機38を使用して特徴点4を生成することにより、走行経路3上に、物理的なマーキング等を施す必要がなく容易に特徴点4を生成することが可能になる。また、RFID送信機38を携帯可能な構成とすることによって、天候や道路状況等の環境によって特徴点を生成する位置や領域の広さ等を調整することが可能になる。
 図10は、本実施例に係るシステムをT字交差点40に対して適用した状況を示す図である。T字交差点40は、車両1の初期ポーズ化を完了した後、車両が高精度で位置を特定されるべきODDエリアである。T字交差点40のような領域であっても、RFID送信機38(図9参照)により特徴点4を生成できるため、実施例1と同様に既存の設備を用いた高い自動運転レベルを実現することが可能になる。
[実施例3]
 図11は、車両の初期ポーズ算出前に通信障害が生じた場合の一例を示す。入口41は、車両1が予め定められた走行経路3に到達する箇所であり、出口42は、車両1が走行経路3を離れる箇所である。ODD43は、車両1の初期ポーズを算出した後に、車両1の位置を正確に追跡すべきODD領域である。車両1が、図11中S201で示すように入口41近傍の特徴点に到達した時点におけるエッジサーバ9との通信に失敗した場合、自動運転レベルを変更させずS202で示すように走行を維持し、出口42から走行経路3を離れる。
 図12は、通信障害の他の例を示す。車両1の初期ポーズを算出後に、S301で示すように、例えば駐車場等のODD内で車両1とエッジサーバ9との間の接続が失われた場合、S302で示すように車両1を停止させ、エッジサーバ9間との間の接続が復帰するまで待機する。
 車両1の初期ポーズを算出する前後において通信障害が生じた場合には、上記の手法を採用することによって、安全レベルが危機にさらされることを防止することが可能になるため、車両1の所有者は、安全に本システムを導入することが可能になる。
 以上で説明した本発明の実施例によれば、以下の作用効果を奏する。
(1)本発明に係る車両認識システムは、走行経路上を移動する動的オブジェクトを監視するインフラストラクチャセンサ、及び走行経路上を走行する複数の車両、から情報を受信するサーバを備える車両認識システムであって、インフラストラクチャセンサは、動的オブジェクトが、走行経路上の任意の特徴点に到達したことを検知した際に、該動的オブジェクトを特定するための動的オブジェクトIDと動的オブジェクトが特徴点に到達したときの時刻情報とを含む動的オブジェクトID情報をサーバに送信し、複数の車両の各々は、特徴点に到達したことを検知した際に、自己を特定するための車両IDと自己が特徴点に到達したときの時刻情報とを含む車両ID情報をサーバに送信し、サーバは、動的オブジェクトID情報及び車両ID情報をマッチング処理することによって、複数の車両の中に動的オブジェクトと一致する車両が存在するか否か判定する。
 上記構成により、所定のルールに基づいたメカニズムにより、機能が自動運転レベル2に制限されている車両であっても、各車両に高価な車載センサを設置することなく、ODD内で完全に自律的に、すなわち自動運転レベル4の状態で運行できるようになる。このように、本発明によれば、レベル4の自動運転を実現するためのより安価な代替手段を提供することが可能になる。
(2)インフラストラクチャセンサは動的オブジェクトの走行経路上における位置及び移動方向を観測し、該観測結果を含む観測データをサーバに送信し、サーバは、動的オブジェクトと一致する車両が存在すると判定した場合に、観測データに基づいて、該車両が特徴点に到達した時点における該車両の位置及び移動方向を算出する。これにより、特徴点到達時の車両状態(位置及び移動方向)を特定でき、かつ特徴点到達後の挙動はインフラストラクチャセンサによって追跡可能であるため、ODD内における車両の挙動を正確に把握でき、高い精度でレベル4の自動運転を実現できる。
(3)複数の車両の各々は、特徴点が配置された運行領域に進入した際に車両IDをサーバに送信し、サーバは、複数の車両の各々から受信した車両IDを保存し、動的オブジェクトID情報を受信した場合であって、動的オブジェクトID情報とマッチングが成立する車両ID情報を受信していない場合に、保存した車両IDの中から、動的オブジェクトIDとマッチングすべき車両IDが存在するか否か検索するバックアップ処理を実行する。これにより、車両が通信不調等により車両ID情報を送信できなかった場合等においても再度マッチング処理を行うことができ、車両認識の精度を向上させることができる。
(4)特徴点は、走行経路上のマーカーであり、車両は、該車両に搭載された車載カメラによって特徴点を検出する。または特徴点は、RFID通信機から発信される信号によって画定され、車両は、該車両に搭載されたRFID装置によって特徴点を検出する。これにより、高価な機器を追加することなく、既存のカメラや通信機器を用いて特徴点を検出できるため、コスト増加を抑制できる。
(5)また、本発明に係るサーバは、走行経路上を移動する動的オブジェクトを監視するインフラストラクチャセンサから、動的オブジェクトを特定するための動的オブジェクトIDおよび動的オブジェクトが走行経路上の任意の特徴点に到達したときの時刻情報を含む動的オブジェクトID情報を受信し、走行経路上を走行する複数の車両の各々から、自己を特定するための車両IDおよび自己が特徴点に到達したときの時刻情報を含む車両ID情報を受信する受信部と、動的オブジェクトID情報と車両ID情報とをマッチング処理することによって、複数の車両の中に動的オブジェクトと一致する車両が存在するか否か判定するマッチングロジック部と、を備える。これにより(1)と同様の効果を期待できる。
(6)インフラストラクチャセンサが動的オブジェクトの走行経路上における位置及び移動方向を観測した観測結果を含む観測データを受信し、サーバは、動的オブジェクトと一致する車両が存在すると判定した場合に、観測データの受信に従って、車両が特徴点に到達した時点における該車両の位置及び移動方向を算出する初期車両ポーズ算出部をさらに有する。これにより(2)と同様の効果を期待できる。
(7)複数の車両の各々が特徴点が配置された運行領域に進入した際に、該複数の車両の各々から車両IDを受信するとともに保存し、サーバは、動的オブジェクトID情報を受信した場合であって、該動的オブジェクトID情報とマッチングが成立する車両ID情報を受信していない場合に、保存した車両IDの中から、動的オブジェクトIDとマッチングすべき車両IDが存在するか否か検索するバックアップ処理を実行する処理部をさらに有する。これにより(3)と同様の効果を期待できる。
 なお、本発明は、上記の実施例に限定されるものではなく、様々な変形が可能である。例えば、上記の実施例は、本発明を分かりやすく説明するために詳細に説明したものであり、本発明は、必ずしも説明した全ての構成を備える態様に限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能である。また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、削除したり、他の構成を追加・置換したりすることが可能である。
1 車両、2 VID(車両ID)、3 走行経路、4 特徴点、5 インフラストラクチャセンサ、7 動的オブジェクト、8 OID(動的オブジェクトID)、9 エッジサーバ、11 車載センサ、14 センサ、16 エッジサーバアンテナ(受信部)、17 エッジサーバコンピュータ(処理部)、30 マッチングロジック部、32 初期車両ポーズ算出部

Claims (8)

  1.  走行経路上を走行する車両を認識する車両認識システムであって、
     走行経路上を移動する動的オブジェクトを監視するインフラストラクチャセンサ、及び前記走行経路上を走行する複数の車両、から情報を受信するサーバを備える車両認識システムであって、
     前記インフラストラクチャセンサは、前記動的オブジェクトが、前記走行経路上の任意の特徴点に到達したことを検知した際に、該動的オブジェクトを特定するための動的オブジェクトIDと前記動的オブジェクトが前記特徴点に到達したときの時刻情報とを含む動的オブジェクトID情報を前記サーバに送信し、
     前記複数の車両の各々は、前記特徴点に到達したことを検知した際に、自己を特定するための車両IDと自己が前記特徴点に到達したときの時刻情報とを含む車両ID情報を前記サーバに送信し、
     前記サーバは、
     前記動的オブジェクトID情報及び前記車両ID情報をマッチング処理することによって、前記複数の車両の中に前記動的オブジェクトと一致する車両が存在するか否か判定する、
    ことを特徴とする車両認識システム。
  2.  請求項1に記載の車両認識システムであって、
     前記インフラストラクチャセンサは前記動的オブジェクトの前記走行経路上における位置及び移動方向を観測し、該観測結果を含む観測データを前記サーバに送信し、
     前記サーバは、前記動的オブジェクトと一致する前記車両が存在すると判定した場合に、前記観測データに基づいて、前記車両が前記特徴点に到達した時点における前記車両の前記位置及び移動方向を算出する、
    ことを特徴とする車両認識システム。
  3.  請求項1に記載の車両認識システムであって、
     前記複数の車両の各々は、前記特徴点が配置された運行領域に進入した際に前記車両IDを前記サーバに送信し、
     前記サーバは、前記複数の車両の各々から受信した前記車両IDを保存し、前記動的オブジェクトID情報を受信した場合であって、前記動的オブジェクトID情報とマッチングが成立する前記車両ID情報を受信していない場合に、保存した前記車両IDの中から、前記動的オブジェクトIDとマッチングすべき車両IDが存在するか否か検索するバックアップ処理を実行する、
    ことを特徴とする車両認識システム。
  4.  請求項1に記載の車両認識システムであって、
     前記特徴点は、前記走行経路上のマーカーであり、前記車両は、該車両に搭載された車載カメラによって前記特徴点を検出する、
    ことを特徴とする車両認識システム。
  5.  請求項1に記載の車両認識システムであって、
     前記特徴点は、RFID通信機から発信される信号によって画定され、前記車両は、該車両に搭載されたRFID装置によって前記特徴点を検出する、
    ことを特徴とする車両認識システム。
  6.  走行経路上を移動する動的オブジェクトを監視するインフラストラクチャセンサから、前記動的オブジェクトを特定するための動的オブジェクトIDおよび前記動的オブジェクトが前記走行経路上の任意の特徴点に到達したときの時刻情報を含む動的オブジェクトID情報を受信し、前記走行経路上を走行する複数の車両の各々から、自己を特定するための車両IDおよび自己が前記特徴点に到達したときの時刻情報を含む車両ID情報を受信する受信部と、
     前記動的オブジェクトID情報と前記車両ID情報とをマッチング処理することによって、前記複数の車両の中に前記動的オブジェクトと一致する車両が存在するか否か判定するマッチングロジック部と、を備える、
    ことを特徴とするサーバ。
  7.  請求項6に記載のサーバであって、
     前記インフラストラクチャセンサが前記動的オブジェクトの前記走行経路上における位置及び移動方向を観測した観測結果を含む観測データを受信し、
     前記サーバは、前記動的オブジェクトと一致する前記車両が存在すると判定した場合に、前記観測データの受信に従って、前記車両が前記特徴点に到達した時点における該車両の前記位置及び移動方向を算出する初期車両ポーズ算出部をさらに有する、
    ことを特徴とするサーバ。
  8.  請求項6に記載のサーバであって、
     前記複数の車両の各々が前記特徴点が配置された運行領域に進入した際に、該複数の車両の各々から前記車両IDを受信するとともに保存し、
     前記サーバは、前記動的オブジェクトID情報を受信した場合であって、該動的オブジェクトID情報とマッチングが成立する前記車両ID情報を受信していない場合に、保存した前記車両IDの中から、前記動的オブジェクトIDとマッチングすべき車両IDが存在するか否か検索するバックアップ処理を実行する処理部をさらに有する、
    ことを特徴とするサーバ。
PCT/JP2022/030657 2022-02-17 2022-08-10 車両認識システム及びサーバ WO2023157343A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022022747A JP2023119740A (ja) 2022-02-17 2022-02-17 車両認識システム及びサーバ
JP2022-022747 2022-02-17

Publications (1)

Publication Number Publication Date
WO2023157343A1 true WO2023157343A1 (ja) 2023-08-24

Family

ID=87578216

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/030657 WO2023157343A1 (ja) 2022-02-17 2022-08-10 車両認識システム及びサーバ

Country Status (2)

Country Link
JP (1) JP2023119740A (ja)
WO (1) WO2023157343A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013207A (ja) * 2002-06-03 2004-01-15 Matsushita Electric Ind Co Ltd 自動料金収受システムと車両管理方法
JP2014174602A (ja) * 2013-03-06 2014-09-22 Sumitomo Electric Ind Ltd 路側インフラ装置、及び情報処理方法
JP2020181277A (ja) * 2019-04-24 2020-11-05 住友電気工業株式会社 サーバ装置およびその制御方法、端末およびその制御方法、移動体支援システムおよび方法、並びにコンピュータプログラム
JP2020193954A (ja) * 2019-05-30 2020-12-03 住友電気工業株式会社 位置補正サーバ、位置管理装置、移動体の位置管理システム及び方法、位置情報の補正方法、コンピュータプログラム、車載装置並びに車両
US20210072041A1 (en) * 2019-09-06 2021-03-11 Ford Global Technologies, Llc Sensor localization from external source data
JP2021105915A (ja) * 2019-12-27 2021-07-26 トヨタ自動車株式会社 位置特定システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013207A (ja) * 2002-06-03 2004-01-15 Matsushita Electric Ind Co Ltd 自動料金収受システムと車両管理方法
JP2014174602A (ja) * 2013-03-06 2014-09-22 Sumitomo Electric Ind Ltd 路側インフラ装置、及び情報処理方法
JP2020181277A (ja) * 2019-04-24 2020-11-05 住友電気工業株式会社 サーバ装置およびその制御方法、端末およびその制御方法、移動体支援システムおよび方法、並びにコンピュータプログラム
JP2020193954A (ja) * 2019-05-30 2020-12-03 住友電気工業株式会社 位置補正サーバ、位置管理装置、移動体の位置管理システム及び方法、位置情報の補正方法、コンピュータプログラム、車載装置並びに車両
US20210072041A1 (en) * 2019-09-06 2021-03-11 Ford Global Technologies, Llc Sensor localization from external source data
JP2021105915A (ja) * 2019-12-27 2021-07-26 トヨタ自動車株式会社 位置特定システム

Also Published As

Publication number Publication date
JP2023119740A (ja) 2023-08-29

Similar Documents

Publication Publication Date Title
US10963462B2 (en) Enhancing autonomous vehicle perception with off-vehicle collected data
US10157544B2 (en) Method for determining position data for use during the operation of a vehicle system of a motor vehicle, and position-data determining and distributing system
US9786171B2 (en) Systems and methods for detecting and distributing hazard data by a vehicle
JP6822564B2 (ja) 車両用情報記憶方法、車両の走行制御方法、及び車両用情報記憶装置
US10649455B2 (en) Device, method and system for determining a pilot vehicle for an autonomous vehicle
US10168702B2 (en) Autonomous driving control device
US10395524B2 (en) Method and system for detecting autonomously driven vehicles, for distance measurement and for distance control
US20200241531A1 (en) Automated driving apparatus
CN109658719B (zh) 用于识别交通指示牌的方法、车辆设备和可信性验证方法以及存储媒介
US20190009785A1 (en) System and method for detecting bullying of autonomous vehicles while driving
CN110570674A (zh) 车路协同数据交互方法、系统、电子设备及可读存储介质
JP2019532292A (ja) 車両位置特定の自律走行車両
US20190385444A1 (en) Vehicle control system, data processing apparatus, and vehicle control method
GB2590133A (en) Method for assisting a motor vehicle
CN110562269A (zh) 一种智能驾驶车辆故障处理的方法、车载设备和存储介质
US20200341485A1 (en) System and Method for Performing Differential Analysis of Vehicles
WO2021010396A1 (ja) 走行記憶システム、潜在事故責任決定装置、走行記憶方法、潜在事故責任決定方法、映像記録システム、自動運転システム、および映像記録方法
US11335136B2 (en) Method for ascertaining illegal driving behavior by a vehicle
WO2023157343A1 (ja) 車両認識システム及びサーバ
US20230154199A1 (en) Driving control system and method of controlling the same using sensor fusion between vehicles
CN113660269B (zh) 面向集中式网联云控平台的信息可信度识别处理方法
CN115230732A (zh) 远程功能选择装置
JP7326429B2 (ja) センサの画像区間の選択方法
CN111665839A (zh) 无人车自动驾驶接管方法、装置、终端设备和存储介质
US20240227860A1 (en) System and method for generating a trajectory of an at least partially autonomous motor vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22927238

Country of ref document: EP

Kind code of ref document: A1