JP2023531826A - Method, apparatus and computer program for vehicle - Google Patents
Method, apparatus and computer program for vehicle Download PDFInfo
- Publication number
- JP2023531826A JP2023531826A JP2022581567A JP2022581567A JP2023531826A JP 2023531826 A JP2023531826 A JP 2023531826A JP 2022581567 A JP2022581567 A JP 2022581567A JP 2022581567 A JP2022581567 A JP 2022581567A JP 2023531826 A JP2023531826 A JP 2023531826A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- vehicles
- map
- trajectory
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000004590 computer program Methods 0.000 title claims abstract description 12
- 230000002596 correlated effect Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 12
- 230000001502 supplementing effect Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 19
- 238000012937 correction Methods 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 8
- 238000010295 mobile communication Methods 0.000 description 7
- 238000003491 array Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001297 coherence probe microscopy Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011867 re-evaluation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/024—Guidance services
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0291—Fleet control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/40—High definition maps
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/50—Determining position whereby the position solution is constrained to lie upon a particular curve or surface, e.g. for locomotives on railway tracks
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0112—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096766—Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
- G08G1/096791—Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Aviation & Aerospace Engineering (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
本発明は、車両のための方法、装置、およびコンピュータプログラムに関し、より具体的には、受信された集団認識メッセージに基づいて他車両の位置を決定するための方法、装置、およびコンピュータプログラムに関する。方法は、1つもしくは複数の集団認識メッセージを受信すること(110)を含む。各集団認識メッセージは、集団認識メッセージを生成する車両の絶対位置と集団認識メッセージを生成する車両によって認識されている1つもしくは複数の別の車両の相対位置とに関する情報を含む。方法は、1つもしくは複数の集団認識メッセージにおいて受信された位置を使用して、当該集団認識メッセージを生成するそれぞれの車両と当該集団認識メッセージを生成する車両によって認識されている1つもしくは複数の別の車両とをマップ上に配置すること(120)を含む。方法は、マップ上の車両の位置とそれぞれの車両が走行している道路進路とを相関させること(130)と、道路進路と車両の位置との間の相関に基づいてそれぞれの位置を補正すること(140)とを含む。
The present invention relates to methods, apparatus and computer programs for vehicles and, more particularly, to methods, apparatus and computer programs for determining the location of other vehicles based on received crowd recognition messages. The method includes receiving (110) one or more population recognition messages. Each mass recognition message contains information regarding the absolute position of the vehicle generating the mass recognition message and the relative position of one or more other vehicles that are recognized by the vehicle generating the mass recognition message. The method includes using the locations received in one or more of the population recognition messages to locate (120) on a map each vehicle generating the population recognition message and one or more other vehicles recognized by the vehicle generating the population recognition message. The method includes correlating (130) the positions of the vehicles on the map with the road course on which each vehicle is traveling, and correcting (140) each position based on the correlation between the road course and the positions of the vehicles.
Description
本発明は、車両のための方法、装置、およびコンピュータプログラムに関し、より具体的には、受信された集団認識メッセージに基づいて他車両の位置を決定するための方法、装置、およびコンピュータプログラムに関する。 The present invention relates to methods, apparatus and computer programs for vehicles and, more particularly, to methods, apparatus and computer programs for determining the location of other vehicles based on received crowd recognition messages.
デバイス・ツー・デバイス(D2D)通信、車車間(V2V)通信、またはカー・ツー・カー(C2C)通信とも称されるモバイルデバイス間の直接通信は、新世代のモバイル通信システムの開発中のフィーチャであり続けている。車両間の直接通信を可能にすることにより、低いレイテンシでのメッセージ交換を可能にすることができる。こうしたメッセージは、道路参加者間で情報を共有するために使用することができる。 Direct communication between mobile devices, also referred to as device-to-device (D2D) communication, vehicle-to-vehicle (V2V) communication, or car-to-car (C2C) communication, continues to be a developing feature of new generation mobile communication systems. By enabling direct communication between vehicles, low latency message exchange can be enabled. Such messages can be used to share information between road participants.
車両間で交換されるメッセージの種類の1つとして「集団認識メッセージ」(CPM)が挙げられ、これは欧州電気通信標準化機構(ETSI)で規格化されている。ここでのメッセージは、CPMを生成する車両の環境の抽象的表現を含む。当該メッセージは、車両のセンサ到達範囲内にその時点で位置しない他車両を認識するために使用することができる。CPMにおいては、他の対象物、例えば他車両が、一般的にはCPMを生成する車両の位置に対して相対的に参照される。換言すれば、CPMは、絶対座標における送信側車両の位置を含むことができ、また当該車両のセンサによって検出された、送信側車両に対して相対的な対象物に関する情報を含むことができる。これらの対象物は、他の道路利用者、特に他車両でありうる。また、歩行者に関する情報もCPM対象物の形態で送信可能である。こうしたトピックは様々な研究プロジェクトで取り扱われており、交通安全性を高めるための重要な用途であって、例えば交差点に持続的に設置されている路側センサシステムにとって重要である。さらに、静的な対象物に関する情報が、CPM対象物、例えば道路作業障壁として送信されることもある。 One type of message exchanged between vehicles is a "collective recognition message" (CPM), which is standardized by the European Telecommunications Standards Institute (ETSI). The message here contains an abstract representation of the environment of the vehicle that generates the CPM. Such messages can be used to recognize other vehicles that are not currently within the vehicle's sensor reach. In CPM, other objects, such as other vehicles, are generally referenced relative to the position of the vehicle generating the CPM. In other words, the CPM may contain the position of the transmitting vehicle in absolute coordinates and may contain information about objects relative to the transmitting vehicle detected by the vehicle's sensors. These objects can be other road users, in particular other vehicles. Information about pedestrians can also be transmitted in the form of CPM objects. These topics have been addressed in various research projects and are important applications for increasing traffic safety, for example for roadside sensor systems permanently installed at intersections. Additionally, information about static objects may be transmitted as CPM objects, eg road work barriers.
受信された集団認識メッセージに基づいて他車両の位置を決定するための改善されたコンセプトの提供が望まれうる。 It would be desirable to provide improved concepts for determining the location of other vehicles based on received crowd recognition messages.
こうした要望に対して、各独立請求項の主題により対処がなされる。 These needs are met by the subject matter of the respective independent claims.
本開示の実施形態は、CPMにおいて参照されている他車両の相対位置がCPMを生成する車両に対して適切に正確に得られるものの、CPMを生成する車両の絶対位置が衛星測位システムを介して決定されたときに、車両の位置決定における不正確性を生じさせることがあるという発見に基づいている。例えば、CPMを生成する車両の絶対位置と進行方向との双方の精度が低くなることがあり、この場合にはCPMを生成する車両の位置に対して相対的に規定された他車両の位置が、CPMを受信する車両の認識において僅かにずれる可能性がある。実施形態は、CPMを生成する車両の位置とCPMにおいて参照されている車両の位置との双方を道路進路に相関させ、これに従って位置を補正することによって、こうした制限を克服しようと努めるものでありうる。 Embodiments of the present disclosure are based on the discovery that while the relative position of other vehicles referenced in the CPM can be reasonably accurate with respect to the vehicle generating the CPM, it can lead to inaccuracies in vehicle position determination when the absolute position of the vehicle generating the CPM is determined via a satellite positioning system. For example, both the absolute position and direction of travel of the vehicle generating the CPM may be less accurate, in which case the position of other vehicles defined relative to the position of the vehicle generating the CPM may be slightly off in the perception of the vehicle receiving the CPM. Embodiments may seek to overcome these limitations by correlating both the position of the vehicle generating the CPM and the position of the vehicle referenced in the CPM to the road course and correcting the position accordingly.
実施形態は、車両のための方法を提供する。方法は、1つもしくは複数の集団認識メッセージを受信することを含む。各集団認識メッセージは、集団認識メッセージを生成する車両の絶対位置と集団認識メッセージを生成する車両によって認識されている1つもしくは複数の別の車両の相対位置とに関する情報を含む。方法は、1つもしくは複数の集団認識メッセージにおいて受信された位置を使用して、集団認識メッセージを生成するそれぞれの車両と集団認識メッセージを生成する車両によって認識されている1つもしくは複数の別の車両とをマップ上に配置することを含む。方法は、マップ上の車両の位置とそれぞれの車両が走行している道路進路とを相関させることを含む。方法は、道路進路と車両の位置との間の相関に基づいてそれぞれの位置を補正することを含む。CPMを生成する車両の位置とCPMにおいて参照されている車両の位置との双方を使用することにより、例えばマップに対して相対的にそれぞれの車両を共に平行移動させるかつ/または回転させることで、それぞれの位置を高い精度で補正することができる。 Embodiments provide a method for a vehicle. The method includes receiving one or more collective recognition messages. Each mass recognition message contains information regarding the absolute position of the vehicle generating the mass recognition message and the relative position of one or more other vehicles that are recognized by the vehicle generating the mass recognition message. The method includes using the positions received in one or more of the population recognition messages to locate on a map each vehicle generating the population recognition message and one or more other vehicles recognized by the vehicle generating the population recognition message. The method includes correlating the location of the vehicles on the map with the road course on which each vehicle is traveling. The method includes correcting each position based on the correlation between the road course and the vehicle's position. By using both the position of the vehicle generating the CPM and the position of the vehicle referenced in the CPM, each position can be corrected with high accuracy, for example by co-translating and/or rotating each vehicle relative to the map.
幾つかの実施形態では、車両の位置は、離散的な位置として(のみ)みなされるわけではなく、むしろ道路上を走行する車両の軌跡としてみなすことができる。したがって、方法は、1つもしくは複数の集団認識メッセージにおいて受信される車両の位置を追跡して、車両の軌跡を決定することを含みうる。車両の軌跡は、それぞれの車両が走行している道路進路と相関させることができる。車両のそれぞれの位置は、道路進路と車両の軌跡との間の相関に基づいて補正可能である。これにより、時間の経過に伴う位置と道路進路との相関に要求される労力を低減させつつ、精度をさらに向上させることができる。 In some embodiments, the positions of the vehicle are not (only) viewed as discrete positions, but rather as the trajectory of the vehicle traveling on the road. Accordingly, the method may include tracking vehicle positions received in one or more of the collective recognition messages to determine the vehicle's trajectory. The vehicle trajectory can be correlated with the road course on which the respective vehicle is traveling. The vehicle's respective position can be corrected based on the correlation between the road course and the vehicle's trajectory. This can further improve accuracy while reducing the effort required to correlate position and road course over time.
例えば、車両の軌跡と道路進路とを相関させることは、各位置に対して、当該位置の周囲の信頼度領域を決定することと、各軌跡に対して、当該軌跡の位置の周囲の信頼度領域に基づき、当該軌跡の周囲の信頼度領域を決定することとを含みうる。マップ上のそれぞれの位置は、軌跡の周囲の信頼度領域を使用して、例えば当該信頼度領域に対する相関を制限することによって、補正することができる。例えば、軌跡の周囲の信頼度領域は、時間の経過に伴って収縮することからより正確なものとなりうる、軌跡の周囲の「信頼度チューブ」とみなすことができる。 For example, correlating the trajectory of the vehicle with the road course may include, for each position, determining a confidence region around the position; and for each trajectory, determining a confidence region around the trajectory based on the confidence region around the position of the trajectory. Each position on the map can be corrected using a confidence region around the trajectory, eg by limiting the correlation to that confidence region. For example, the confidence region around the trajectory can be viewed as a "confidence tube" around the trajectory that shrinks over time and thus can become more accurate.
一般的に、車両間で交換されるメッセージは、短期的な識別を可能にしつつ車両の長時間の追跡を回避するために定期的に変更される一時的な識別子を含みうる。例えば、各集団認識メッセージは、集団認識メッセージを生成する車両の識別子を含みうる。当該識別子は、予め定められたスケジュールに従って、新たに生成された識別子へと変更されうる。方法は、新たに生成された識別子と以前に決定された軌跡とを有する集団認識メッセージにおいて受信された位置間の一致を判定することと、その後受信された、新たに生成された識別子を含む集団認識メッセージを使用して、それぞれの位置の追跡およびそれぞれの軌跡の決定を続行することとを含みうる。換言すれば、車両の識別子が変更された場合、方法は、軌跡の追跡を続行するために、新たに生成された識別子と以前に決定された軌跡との間の一致の判定を試みることができる。 In general, messages exchanged between vehicles may contain temporary identifiers that change periodically to avoid long-term tracking of vehicles while allowing short-term identification. For example, each collective recognition message may include an identifier for the vehicle generating the collective recognition message. The identifier can be changed to a newly generated identifier according to a predetermined schedule. The method may include determining a match between locations received in population recognition messages having newly generated identifiers and previously determined trajectories, and subsequently using received population awareness messages including the newly generated identifiers to continue tracking respective locations and determining respective trajectories. In other words, if the vehicle's identifier changes, the method may attempt to determine a match between the newly generated identifier and the previously determined trajectory in order to continue tracking the trajectory.
様々な実施形態において、同じ集団認識メッセージに由来するマップ上の車両の位置および/または軌跡は、共に道路進路と相関される。例えば、同じ集団認識メッセージに由来するマップ上の車両の位置および/または軌跡は、それぞれの車両と道路進路との相関のために、マップに対して相対的に共に平行移動されかつ/または回転されうる。これにより、車両が静的配置に留まっているときには相関に必要な労力が低減され、精度を向上させることができる。 In various embodiments, vehicle positions and/or trajectories on the map derived from the same mass recognition message are both correlated with the road course. For example, the positions and/or trajectories of vehicles on the map from the same mass recognition message may be co-translated and/or rotated relative to the map for correlation of the respective vehicles and road courses. This reduces the effort required for correlation when the vehicle remains in a static configuration and can improve accuracy.
様々な実施形態において、マップ上の車両の位置および/または軌跡は、道路の1つもしくは複数の車線に基づいて道路進路と相関させることができる。付加的にもしくは代替的に、マップ上の車両の位置および/または軌跡を、道路上の1つもしくは複数の交通規則に基づいて道路進路と相関させることができる。道路の車線とそれぞれの交通規則との双方が、相関のための有意なコンテキスト情報を提供することができる。 In various embodiments, the position and/or trajectory of the vehicle on the map can be correlated with the road course based on one or more lanes of the road. Additionally or alternatively, the position and/or trajectory of the vehicle on the map can be correlated with the road course based on one or more traffic rules on the road. Both road lanes and respective traffic rules can provide meaningful contextual information for correlation.
一般的に、補正された位置は、車両の近傍の他車両を識別するために当該車両によって使用されうる。例えば、方法は、車両の1つもしくは複数のセンサを介して車両の近傍の1つもしくは複数の車両の位置を決定することを含みうる。方法は、マップ上の車両の補正された位置に基づいて、マップ上の車両と当該車両の近傍の1つもしくは複数の車両との間の関係を決定することを含みうる。例えば、マップ上の車両を、その補正された位置に基づいて、当該車両の近傍の1つもしくは複数の車両と一致させることができる。マップ上の車両の補正された位置を使用することにより、各位置間の関係の決定が容易となりかつ/またはより正確となりうる。 In general, the corrected position can be used by the vehicle to identify other vehicles in its vicinity. For example, the method may include determining the position of one or more vehicles in the vicinity of the vehicle via one or more sensors of the vehicle. The method may include determining a relationship between the vehicle on the map and one or more vehicles in the vicinity of the vehicle based on the corrected position of the vehicle on the map. For example, a vehicle on the map can be matched with one or more vehicles in its vicinity based on its corrected position. By using the vehicle's corrected position on the map, determining the relationship between each position may be easier and/or more accurate.
幾つかの実施形態では、車両の近傍の1つもしくは複数の車両に関する追加情報が、車両のセンサを使用して決定されうる。当該情報は、それぞれの車両について以前に既知となっている情報に追加可能である。換言すれば、方法は、マップ上の車両と当該車両の近傍の1つもしくは複数の車両との間の決定された関係に基づいて、マップ上の車両に関する情報を補足することを含みうる。 In some embodiments, additional information about one or more vehicles in the vehicle's vicinity may be determined using the vehicle's sensors. This information can be in addition to information previously known for each vehicle. In other words, the method may include supplementing information about the vehicle on the map based on the determined relationship between the vehicle on the map and one or more vehicles in its vicinity.
幾つかのケースでは、同じ車両が複数の車両によって認識され、このため複数の集団認識メッセージに含まれることがある。したがって、方法は、マップ上の複数の車両によって認識されている車両を一致させることができる。換言すれば、少なくとも、第1の集団認識メッセージを第1の車両から受信することができ、第2の集団認識メッセージを第2の車両から受信することができる。方法は、第1の集団認識メッセージにおいて参照されている車両と第2の集団認識メッセージにおいて参照されている車両とを、それぞれの集団認識メッセージに含まれている位置に基づいてかつ/または車両の補正された位置に基づいて一致させることを含みうる。 In some cases, the same vehicle may be recognized by multiple vehicles and thus included in multiple collective recognition messages. Thus, the method can match vehicles that are perceived by multiple vehicles on the map. In other words, at least a first mass recognition message can be received from a first vehicle and a second mass recognition message can be received from a second vehicle. The method may include matching the vehicle referenced in the first population recognition message and the vehicle referenced in the second population recognition message based on the positions included in the respective population recognition messages and/or based on the corrected positions of the vehicles.
様々な実施形態において、補正された位置は、他車両間における車両の自律的または半自律的なナビゲーションを補助するために使用されうる。換言すれば、方法は、マップ上の車両の補正された位置を使用して、自律運転モードまたは半自律運転モードで車両を動作させることを含みうる。 In various embodiments, the corrected position can be used to assist the vehicle's autonomous or semi-autonomous navigation among other vehicles. In other words, the method may include operating the vehicle in an autonomous or semi-autonomous driving mode using the vehicle's corrected position on the map.
本開示の実施形態は、さらに、コンピュータ、プロセッサまたはプログラマブルハードウェアコンポーネントにおいて実行される際に提示の方法を実行するためのプログラムコードを有する、対応するコンピュータプログラムを提供する。 Embodiments of the present disclosure further provide corresponding computer programs having program code for performing the presented methods when run on a computer, processor or programmable hardware component.
本開示の実施形態は、さらに、車両のための対応する装置を提供する。装置は、他車両からの集団認識メッセージを受信するためのインタフェースを備える。装置は、上述した方法を実施するように構成された処理モジュールを備える。実施形態によればさらに、装置を備えた車両および/または方法を実行するように構成された車両が提供される。 Embodiments of the present disclosure also provide corresponding apparatus for vehicles. The device comprises an interface for receiving group recognition messages from other vehicles. The apparatus comprises a processing module configured to carry out the methods described above. Embodiments further provide a vehicle comprising the apparatus and/or a vehicle configured to carry out the method.
他の幾つかの特徴または態様につき、例示としてにすぎないが、装置または方法またはコンピュータプログラムまたはコンピュータプログラム製品の以下の非限定的な実施形態を使用して、添付の図面を参照しながら説明する。 Several other features or aspects are described, by way of example only, using the following non-limiting embodiments of apparatus or methods or computer programs or computer program products and with reference to the accompanying drawings.
ここで、幾つかの例示的な実施形態が示されている添付の図面を参照して、様々な例示的な実施形態についてさらに詳細に説明する。図では、線の太さ、層の厚さまたは領域の厚みにつき、簡明性のために誇張して示したところがある。任意選択手段としての構成要素は、破線、鎖線または点線を使用して示したところがある。 Various exemplary embodiments will now be described in greater detail with reference to the accompanying drawings, in which some exemplary embodiments are shown. In the drawings, the thickness of lines, the thickness of layers, or the thickness of regions may be exaggerated for the sake of clarity. Optional components have been indicated using dashed, dashed or dotted lines.
したがって、例示的な実施形態は様々な修正形態および代替形態とすることが可能であるが、そのうちの幾つかの実施形態を例として図に示し、本明細書で詳細に説明するものとする。しかし、例示的な実施形態を開示の特定の形態に限定することは意図しておらず、むしろ、例示的な実施形態は、本発明の範囲内に該当する全ての修正形態、等価形態および代替形態をカバーすることを理解されたい。なお、各図の説明を通して、同様の参照番号は同様のもしくは類似の要素を指すものとする。 Accordingly, while example embodiments are capable of various modifications and alternative forms, several embodiments thereof have been shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the exemplary embodiments are not intended to be limited to the particular forms disclosed, but rather the exemplary embodiments cover all modifications, equivalents, and alternatives falling within the scope of the invention. Like reference numbers refer to like or similar elements throughout the description of the figures.
本明細書で使用される用語「または」は、別様の示唆(例えば「またはさもなければ」もしくは「または代替的に」など)がない限り、非排他的な「または」をいうものとする。さらに、本明細書で用いられる場合、要素間の関係の記述に用いられる語は、別様の示唆がない限り、直接の関係を含んでもよくまたは介在する要素の存在を含んでもよいよう、広義に解釈されたい。例えば、ある要素が別の要素に「接続されている」または「結合されている」という場合、この要素は他の要素に直接に接続もしくは結合されていてもよいし、または介在する要素が存在してもよい。これとは対照的に、ある要素が別の要素と「直接に接続されている」または「直接に結合されている」という場合、介在する要素は存在しない。同様に、「~の間」、「~に隣接する」などの語も類似の方式で解釈されたい。 As used herein, the term "or" shall refer to a non-exclusive "or" unless otherwise indicated (eg, "or otherwise" or "or alternatively"). Moreover, as used herein, terms used to describe relationships between elements are to be interpreted broadly, either to include a direct relationship or to include the presence of intervening elements, unless otherwise indicated. For example, when an element is referred to as being “connected” or “coupled” to another element, that element may be directly connected or coupled to the other element or there may be intervening elements. In contrast, when an element is referred to as being "directly connected to" or "directly coupled with" another element, there are no intervening elements present. Similarly, words such as "between" and "adjacent to" should be construed in a similar fashion.
本明細書で使用される用語は、特定の実施形態を説明するためだけのものであり、例示的な実施形態の限定を意図しない。本明細書で使用される単数形「1つの(“a”,“an”,“the”)」は、文脈において明示的な別様の示唆がない限り、複数形も含むことが意図されている。さらに、用語「備える(comprises)」、「備えている(comprising)」、「含む(includes)」または「含んでいる(including)」は、本明細書で用いられる場合、記載している特徴、整数、ステップ、動作、要素または構成要素の存在を規定するが、1つもしくは複数の他の特徴、整数、ステップ、動作、要素、構成要素またはこれらのグループの存在または追加を排除しないことが理解されるであろう。 The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of example embodiments. As used herein, the singular form "a", "an", "the" is intended to include the plural as well, unless the context clearly indicates otherwise. Further, it will be understood that the terms “comprises,” “comprising,” “includes,” or “including,” as used herein, prescribe the presence of the recited feature, integer, step, action, element or component, but do not exclude the presence or addition of one or more other features, integers, steps, actions, elements, components, or groups thereof.
別様の定義がない限り、本明細書で使用される全ての用語(技術用語および学術用語を含む)は、例示的な実施形態が属する技術分野の当業者によって一般的に理解されるものと同じ意味を有する。さらに、例えば一般的に使用されている辞書において定義されている用語は、関連分野の文脈におけるそれらの意味と矛盾しない意味を有していると解釈されるべきであり、本明細書で明示的にそのように定義されていない限り、観念的な意味または過度に形式的な意味で解釈されるものでないことを理解されたい。 Unless otherwise defined, all terms (including technical and scientific terms) used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the exemplary embodiments belong. Moreover, it is to be understood that terms defined, for example, in commonly used dictionaries, are to be construed to have a meaning consistent with their meaning in the context of the relevant field, and are not to be construed in an ideological or overly formal sense unless explicitly so defined herein.
図1aおよび図1bは、車両100のための方法の実施例のフローチャートを示している。方法は、1つもしくは複数の集団認識メッセージ(CPM)を受信すること110を含む。各集団認識メッセージは、当該集団認識メッセージを生成する車両の絶対位置および当該集団認識メッセージを生成する車両によって認識されている1つもしくは複数の別の車両の相対位置に関する情報を含む。当該方法は、1つもしくは複数の集団認識メッセージにおいて受信された位置を使用して、集団認識メッセージを生成するそれぞれの車両と集団認識メッセージを生成する車両によって認識されている1つもしくは複数の別の車両とをマップ上に配置すること120を含む。方法は、マップ上の車両の位置と、それぞれの車両が走行している道路進路とを相関させること130を含む。方法は、道路進路と車両の位置との間の相関に基づいてそれぞれの位置を補正すること140を含む。
1a and 1b show a flowchart of an embodiment of the method for
図1cは、車両のための対応する装置10の一実施例のブロック図を示している。装置10は、他車両200からの集団認識メッセージを受信するためのインタフェース12を備えている。装置は、例えばインタフェース12に関連して図1aおよび/または図1bの方法を実行するように構成された処理モジュール14を備えている。処理モジュール14は、インタフェース12と接続されており、また任意選択手段として車両の1つもしくは複数の認識センサ(図示せず)とも接続されている。図1cは、装置10を備えた車両100をさらに示している。
FIG. 1c shows a block diagram of one embodiment of a
以下の説明は、図1aおよび/または図1bの方法ならびに対応する装置10または車両100に関する。
The following description relates to the method of FIGS. 1a and/or 1b and the
本開示の様々な実施形態は、車両、例えばいわゆる「コネクテッド」車両、すなわち近傍の他車両と通信するためのインタフェース12を備えた車両のための方法、装置およびコンピュータプログラムに関する。本願の文脈では、このような車両を、V2X車両、すなわちV2X(ビークル・ツー・エニシング)通信が装備された車両と称することがある。こうした車両は、互いに直接の通信、すなわち車車間(V2V)通信、デバイス・ツー・デバイス(D2D)通信とも称される、基地局トランシーバを関与させない通信を行うことができる。このようなD2D/V2V通信またはV2X通信を可能にする技術には、802.11pおよびそれ以降、3GPP(Third Generation Partnership Project)システム(4G(第4世代)、5G(第5世代)、NR(NewRadio)およびそれ以降)などが含まれる。例えば、車両は、所定のメッセージ、例えばCPM、協調的認識メッセージ(CAM)または分散環境通知メッセージ(DENM)などを交換する。このようなメッセージの内容によって、受信者は自身の環境を認識できるようになり、車両環境のマップを決定できるようになる。例として、提案のコンセプトの視点が車両に焦点を当てているので、車両100を自車両と称することもできる。
Various embodiments of the present disclosure relate to methods, apparatus and computer programs for vehicles, eg, so-called "connected" vehicles, i.e. vehicles equipped with an
本開示の様々な実施形態は、事前知識の助けを借りて自車両の環境モデルにCPM対象物を関連付けるためのコンセプトに関する。一般に、CPMは、当該CPMを生成する車両によって認識されている、CPMを生成する車両の環境の抽象表現を含む。CPMにおいては、他車両などの他の対象物が、一般的にはCPMを生成する車両の位置に対して参照される。換言すれば、CPMは、絶対座標における送信側の車両(すなわちCPMを生成する車両)の位置と、車両センサによって検出された、送信側車両に対して相対的な対象物に関する情報とを含むことができる。ここでの対象物は、他の道路利用者、特に他車両でありうる。また、歩行者に関する情報をCPM対象物の形式で送信することも可能である。提案のコンセプトは、CPM対象物以外の車両に限定することができる。したがって、各集団認識メッセージは、集団認識メッセージを生成する車両の絶対位置(すなわち絶対座標)に関する情報と、(前記車両の認識センサを使用して)集団認識メッセージを生成する車両によって認識されている1つもしくは複数の別の車両の相対位置(すなわちCPMを生成する車両に対する相対座標)に関する情報とを含む。 Various embodiments of the present disclosure relate to concepts for associating CPM objects with the ego-vehicle's environment model with the help of prior knowledge. In general, a CPM includes an abstract representation of the environment of the vehicle generating the CPM as perceived by the vehicle generating the CPM. In CPM, other objects, such as other vehicles, are referenced, generally relative to the location of the vehicle generating the CPM. In other words, the CPM may include the position of the sending vehicle (i.e., the vehicle generating the CPM) in absolute coordinates and information about objects detected by vehicle sensors relative to the sending vehicle. Objects here can be other road users, in particular other vehicles. It is also possible to transmit information about pedestrians in the form of CPM objects. The proposed concept can be restricted to vehicles other than CPM objects. Thus, each mass recognition message contains information about the absolute position (i.e., absolute coordinates) of the vehicle generating the mass recognition message and information about the relative position (i.e., coordinates relative to the vehicle generating the CPM) of one or more other vehicles that are recognized by the vehicle generating the mass recognition message (using the recognition sensors of said vehicles).
CPM送信側の車両(すなわちCPMメッセージを生成する車両)と当該CPM送信側の車両によって検出された(CPMにおいて参照されている)CPM対象物との間での、受信側の車両自体によって検出された対象物への割り当ては、通常きわめて困難であり、多くの場合に不可能である。その理由は、CPM伝達側の車両が各自の自姿勢(位置および向き)を十分な精度で決定することができないことが多いためである。CPM伝達側の車両によって検出されたCPM対象物に関する情報は、相応に不正確である。センサの測定および較正の不正確さに加えて、車両の向き(進行方向)の推定における誤差もこれに影響を与える。角度誤差は、遠方の対象物を検出する際に特に大きな影響を有する。 Assignment between the CPM sender's vehicle (i.e., the vehicle generating the CPM message) and the CPM objects (referenced in the CPM) detected by the CPM sender's vehicle to objects detected by the receiving vehicle itself is usually very difficult and often impossible. The reason is that vehicles on the CPM transmitting side often cannot determine their own attitude (position and orientation) with sufficient accuracy. Information about CPM objects detected by the CPM transmitting vehicle is correspondingly inaccurate. In addition to inaccuracies in sensor measurement and calibration, errors in estimating vehicle heading (heading) also contribute to this. Angular errors have a particularly large impact in detecting distant objects.
幾つかの他のコンセプトとは対照的に、本提案のコンセプトは、V2Xメッセージ(CAM、DENM、CPM)を送信する車両の関連付けに焦点を当てることができるだけでなく、CPM対象物、すなわちCPMにおいて送信されておりかつCPM車両のセンサによって検出されている車両の関連付けにも対処することができる。 In contrast to some other concepts, the proposed concept can not only focus on the association of vehicles transmitting V2X messages (CAM, DENM, CPM), but also address the association of CPM objects, i.e. vehicles that are transmitted in the CPM and detected by the sensors of the CPM vehicle.
提案のコンセプトは、次の特徴、すなわち
‐CPMメッセージを受信すること110、
‐受信されたCPMメッセージを、例えば履歴を作成するためのテーブルに記憶すること、
‐CPM送信側の車両とそのCPM対象物とをマップ(すなわちV2X環境マップ)上に配置すること120、
‐論理的結合に基づいて(例えばCPM送信側の車両およびCPM対象物と道路進路とを相関させること130、ならびにこれに従ってマップ上の位置を補正すること140により)、車線および位置への割り当てを改善すること、
‐自車両によって検出された車両とV2X環境マップからの対応するCPM対象物とを高レベルで融合させること150、
のうちの1つもしくは複数を含みうる。
The proposed concept has the following features: - receiving 110 CPM messages;
- storing the received CPM messages, e.g. in a table for creating a history;
- placing 120 the CPM sender's vehicle and its CPM objects on a map (i.e. V2X environment map);
- improving the allocation to lanes and positions based on logical combinations (e.g. by correlating 130 CPM sender vehicles and CPM objects with road courses and correcting 140 map positions accordingly);
- high-
may include one or more of
提案の方法を使用するために、受信側の車両(すなわち車両100)は、
‐CPM、CAMおよびDENMの受信を可能にするV2X受信機ユニット(例えばインタフェース12)、
‐十分な精度を有するデジタルマップ、例えば(道路進路を表現した)高精細マップ、
‐自位置特定のためのシステム(例えばGPS受信機)、
‐対象物検出のためのセンサシステム、例えばカメラ、LiDAR、レーダーなど、
‐環境モデルを計算し、V2X車両およびCPM対象物を関連付けるための計算ユニット(例えば処理モジュール)、
の各装置のうちの1つもしくは複数の部品を含みうる。
To use the proposed method, the receiving vehicle (i.e. vehicle 100):
- a V2X receiver unit (e.g. interface 12) enabling reception of CPM, CAM and DENM,
- digital maps with sufficient accuracy, e.g. high-definition maps (representing road courses);
- a system for localization (e.g. GPS receiver),
- sensor systems for object detection, e.g. cameras, LiDAR, radar, etc.
- a computing unit (e.g. a processing module) for computing the environment model and associating the V2X vehicle and the CPM object;
may include one or more parts of each device of
関連付けを実行するために、以下の措置の1つもしくは複数が講じられる。 To perform association, one or more of the following measures are taken.
V2X環境マップを作成することができる。本願の文脈において、V2X環境マップは、それぞれの車両が配置されたマップとしても参照可能である。幾つかの実施形態では、CPMメッセージにおいて参照される車両の位置をV2X環境テーブルに記憶することができ、このV2X環境テーブルを用いてマップを生成することができる。受信されたCPMメッセージに基づいて、送信側の車両の位置(当該車両の信頼度楕円/領域を有する位置)および車両の進行方向をV2X環境テーブルに記憶することができる。さらに、CPM対象物は、CPMにおいて規定されているその信頼度レベルの規定(例えばCPM車両の座標系に対するx方向、y方向およびz方向における信頼度レベルの規定であり、以下では信頼度距離と称する)と共に当該テーブルに記憶することができる。テーブルのための順序基準は、送信者のスードニム(すなわちCPMメッセージに含まれる識別子)および伝送時間でありうる。V2X環境テーブルは周期的に更新されうる。更新は、予め定められた期間、例えば直近の30秒に制限することができる。循環バッファと同様に、不使用の情報を新しい情報によって置き換えることができ、必要に応じて他の場所に格納することができる。V2X環境テーブルの内容はデジタルマップに入力可能である。換言すれば、方法は、1つもしくは複数の集団認識メッセージにおいて受信された位置を使用して、集団認識メッセージを生成するそれぞれの車両と集団認識メッセージを生成する車両によって認識されている1つもしくは複数の別の車両とをマップ上に配置すること120を含む。例えば、1つもしくは複数の集団認識メッセージにおいて受信される位置は、各CPMに対して、CPMを生成する車両の絶対位置と、1つもしくは複数の別の車両のためにCPMを生成する車両の絶対位置に対する1つもしくは複数の相対位置とを含むことができる。例えば、(V2X環境)マップは、1つもしくは複数の道路、交差点、交通インフラストラクチャ(信号機、標識、横断歩道など)、建物などの進路を含む静的マップであってよい。 A V2X environment map can be created. In the context of this application, the V2X environment map can also be referred to as the map on which the respective vehicle is located. In some embodiments, the vehicle's location referenced in the CPM message can be stored in a V2X environment table, and the V2X environment table can be used to generate the map. Based on the received CPM message, the position of the sending vehicle (where it has its confidence ellipse/region) and the direction of travel of the vehicle can be stored in the V2X environment table. In addition, CPM objects can be stored in the table along with their confidence level definitions defined in the CPM (e.g. confidence level definitions in the x, y and z directions relative to the coordinate system of the CPM vehicle, hereinafter referred to as confidence distances). The ordering criteria for the table can be the sender's pseudonym (ie, the identifier included in the CPM message) and the transmission time. The V2X environment table may be updated periodically. Updates can be limited to a predetermined period of time, eg, the last 30 seconds. As with circular buffers, unused information can be replaced by new information and stored elsewhere as needed. The contents of the V2X environment table can be input into the digital map. In other words, the method includes locating 120 on a map each vehicle generating the population recognition message and one or more other vehicles recognized by the vehicle generating the population recognition message using the locations received in the one or more population recognition messages. For example, the positions received in one or more collective recognition messages may include, for each CPM, the absolute position of the vehicle generating the CPM and one or more relative positions to the absolute position of the vehicle generating the CPM for one or more other vehicles. For example, the (V2X environment) map may be a static map containing paths of one or more roads, intersections, traffic infrastructure (traffic lights, signs, crosswalks, etc.), buildings, and the like.
(V2X環境)マップは、車両の軌跡の少なくとも一部に沿った車両環境内の静的対象物および動的対象物を含みうる。軌跡の当該部分は、例えば、車両が次の30秒、1分、5分、10分などにおいて走行を計画している部分であってよい。動的対象物とは、他の道路参加者、歩行者、車両などの持続的に静止していない/固定されていない対象物であるが、移動していく建設工事現場、道路もしくは車線の狭隘部を表す交通標識などの半静的な対象物であることもある。例えばこうした動的対象物は、他車両、歩行者、自転車、道路参加者などとすることができる。環境モデルを決定する際には、モデル内の全ての対象物を同じ信頼度で決定できるわけではない。他よりも高い確実性を達成することができる対象物が存在する。例えば、複数のCPMまたはセンサが所定の対象物を識別もしくは確認することができた場合、その存在および/またはその運動状態は、単一のCPMまたはセンサからのデータのみが対象物を示す場合と比較して潜在的により高い信頼度で決定することができる。 The (V2X environment) map may include static and dynamic objects within the vehicle environment along at least a portion of the vehicle's trajectory. That portion of the trajectory may be, for example, the portion that the vehicle plans to travel in the next 30 seconds, 1 minute, 5 minutes, 10 minutes, and so on. Dynamic objects are objects that are not persistently stationary/fixed, such as other road participants, pedestrians, vehicles, etc., but can also be semi-static objects, such as moving construction sites, traffic signs representing narrow sections of roads or lanes. For example, such dynamic objects can be other vehicles, pedestrians, cyclists, road participants, and the like. When determining an environment model, not all objects in the model can be determined with the same degree of confidence. There are objects that can achieve higher certainty than others. For example, if multiple CPMs or sensors were able to identify or confirm a given object, its presence and/or its state of motion could potentially be determined with greater confidence than if only data from a single CPM or sensor were indicative of the object.
CPM送信側の車両では、車両が走行する経路に関する軌跡と信頼度チューブ(すなわち軌跡の周囲の信頼度領域)とを、車両の位置および/または信頼度楕円から導出することができる。換言すれば、方法は、1つもしくは複数の集団認識メッセージにおいて受信された車両の位置を追跡して122、車両の軌跡を決定すること124を含むことができる。例えば、車両の軌跡は、時間の経過に伴う車両の個々の位置から導出することができる。方法は、各位置に対して、当該位置周囲の信頼度領域を決定することを含みうる。例えば、CPMは、当該CPMを生成する車両の絶対位置の信頼度に関する情報を有することができ、これを用いて当該位置周囲の信頼度領域を生成することができる。各CPM対象物が走行した経路に関して、CPMに含まれるx方向、y方向およびz方向の信頼度距離は、信頼度チューブを有する軌跡(すなわち軌跡の周囲の信頼度領域)を生じさせることがある。観察期間の間に信頼度が変化する場合、信頼度チューブの幅を変化させることができる。方法は、軌跡の位置の周囲の信頼度領域に基づき、各軌跡に対して、(例えば位置の周囲の信頼度領域を組み合わせることによって)軌跡の周囲の1つの信頼度領域を決定することを含みうる。これらは、例えば相関を位置もしくは軌跡の周囲の信頼度領域に制限することによって、後にマップ上の位置を補正するために使用されうる。換言すれば、マップ上のそれぞれの位置は、軌跡の周囲の信頼度領域を用いて補正可能である。各信頼度チューブは、CPMと共に送信された位置から得られた軌跡を含みうる。認識されたCPM対象物の軌跡は、その個々の位置から導出可能であり、またはその個々の位置から構成可能である。軌跡は信頼度チューブによって補足することができる。個々のCPMメッセージが受信されなかった場合、例えば平均化によって、欠落した位置を近隣の値から推定もしくは補間することができる。送信側のV2X車両の位置は、CPMにおいて絶対座標として規定可能である。CPM対象物(軌跡、信頼度チューブ)の値は、CPM対象物に対して相対的なものとすることができる。外れ値は破棄することができ、受信されないメッセージのケースに応じて(道路の車線に対する)軌跡および信頼度チューブの最良適合を行うことができる。 In the CPM sender's vehicle, the trajectory and confidence tube (ie, the confidence region around the trajectory) for the route traveled by the vehicle can be derived from the vehicle's position and/or the confidence ellipse. In other words, the method may include tracking 122 the position of the vehicle received in one or more mass recognition messages to determine 124 the trajectory of the vehicle. For example, a vehicle trajectory can be derived from the vehicle's individual positions over time. The method may include, for each location, determining a confidence region around that location. For example, a CPM can have information about the confidence of the absolute position of the vehicle generating that CPM, which can be used to generate a confidence region around that position. For the path traveled by each CPM object, the x-, y-, and z-confidence distances included in the CPM may yield a trajectory with a confidence tube (i.e., a confidence region around the trajectory). If the confidence changes during the observation period, the width of the confidence tube can be changed. The method may include determining, for each trajectory, one confidence region around the trajectory (e.g., by combining the confidence regions around the position) based on the confidence regions around the positions of the trajectories. These can be used later to correct the position on the map, for example by restricting the correlation to a confidence region around the position or trajectory. In other words, each position on the map can be corrected using a confidence region around the trajectory. Each confidence tube may contain a trajectory obtained from the position transmitted with the CPM. The trajectory of a recognized CPM object can be derived from its individual positions or can be constructed from its individual positions. Trajectories can be supplemented by confidence tubes. If individual CPM messages were not received, the missing positions can be estimated or interpolated from neighboring values, eg by averaging. The position of the transmitting V2X vehicle can be defined as absolute coordinates in the CPM. CPM object (trajectory, confidence tube) values can be relative to the CPM object. Outliers can be discarded and a best fit of the trajectory and confidence tube (to the lane of the road) can be done in case of messages not received.
多くのケースにおいて、軌跡がマップ上の車線に明示的に割り当てられないことがある。したがって、別のステップにおいて、例えばオントロジまたはルールを使用する論理的関係を使用して補正を行うことができ、軌跡および信頼度チューブを移動させることができる。方法は、マップ上の車両の位置とそれぞれの車両が走行している道路進路とを相関させること130を含む。例えば、マップ上の車両の位置と道路進路とを相関させることは、制約に違反することなく、かつ/または論理的関係に従って、例えば車線間もしくは路側を走行することなく、または交通規則に違反することなく、車両を道路進路に最良に適合させるにはどのようにすればよいかを決定することを含みうる。すなわち、道路進路と車両の位置との間の相関に基づいて、それぞれの位置が相応に補正される140。例えば、道路進路と車両の位置との間の相関は、制約および/または論理的関係に最良に適合する道路進路に対する車両の相対位置に関連付けることができる。補正された軌跡/位置の値および/または信頼度チューブの値は、第2のテーブルに記憶することができる。初期の値を有するテーブルは、例えば制御目的またはさらなる補正のために後に利用可能とすることができるよう、保持可能である。各補正の正確性の確率が推定されて記憶され、次いでこれを関連付けの間に処理することができる。 In many cases, trajectories may not be explicitly assigned to lanes on the map. Thus, in a separate step, corrections can be made using, for example, ontology or logical relationships using rules, and trajectories and confidence tubes can be moved. The method includes correlating 130 the location of the vehicles on the map with the road course on which each vehicle is traveling. For example, correlating a vehicle's position on a map with a road course may include determining how to best fit the vehicle to the road course without violating constraints and/or according to logical relationships, such as without driving between lanes or roadsides or violating traffic rules. That is, based on the correlation between road course and vehicle position, each position is corrected 140 accordingly. For example, the correlation between the road course and the position of the vehicle can relate to the position of the vehicle relative to the road course that best fits the constraints and/or logical relationships. The corrected trajectory/position values and/or confidence tube values can be stored in a second table. A table with initial values can be kept so that it can be made available later, eg for control purposes or further corrections. The probability of correctness for each correction is estimated and stored, which can then be processed during association.
例えば(例えばGPSシステムを用いて可能な)自位置の測定誤差によって引き起こされて送信側の車両(すなわちCPMを生成する車両)の位置データに跳躍的変化が生じた場合、軌跡および信頼度チューブのセクションごとの補正を実行することができる。そのCPM対象物の軌跡および信頼度チューブは、相応に補正可能である。 Section-by-section corrections of the trajectory and confidence tube can be performed when there is a jump in the position data of the transmitting vehicle (i.e. the vehicle generating the CPM), for example caused by self-position measurement errors (possible with GPS systems for example). The CPM object trajectory and confidence tube can be corrected accordingly.
CPM車両およびCPM対象物についての補正のために、とりわけ、以下の論理的関係のうちの1つもしくは複数が使用可能である。 One or more of the following logical relationships, among others, can be used for corrections for CPM vehicles and CPM objects.
例えば、補正では、マップ上の通過可能領域および通過不能領域(こちらが図示されている)を考慮することができる。例えば、車両が建物内を通過したり橋の脇を通過したりすることはできない。換言すれば、車両の位置は、道路進路と相関している。マップ上の車両の位置および/または軌跡は、道路の1つもしくは複数の車線に基づいて、道路進路と相関させることができる。付加的にもしくは代替的に、補正により、CPM対象物をグループとして移動させる際の論理的関係を考慮することができる。CPM送信側の車両およびそのCPM対象物は、平行移動および回転により全体としてマップに挿入可能となるグループを形成する。換言すれば、同じ集団認識メッセージに由来するマップ上の車両の位置および/または軌跡は、共に道路進路に相関させることができる。換言すれば、相関中、同じ集団認識メッセージに由来するマップ上の車両の位置および/または軌跡は、相互に相対的にその位置を保持することができる。例えば、同じ集団認識メッセージに由来するマップ上の車両の位置および/または軌跡は、それぞれの車両と道路進路とを相関させるために、マップに対して相対的に共に平行移動させるかつ/または回転させることができる。付加的にもしくは代替的に、補正は、軌跡の形状から得られる論理的関係、例えばカーブの始点などの顕著な点まで走行した半径または距離から得られる論理的関係を考慮することもできる。付加的にもしくは代替的に、補正は、有効な交通規則を考慮することもできる。これらは、妥当性検査のために、かつ補正の正確性の確率を決定するために使用することができる。換言すれば、マップ上の車両の位置および/または軌跡は、道路上での1つもしくは複数の交通規則に基づいて道路進路と相関される。 For example, the correction can take into account traversable and impassable regions (shown here) on the map. For example, vehicles cannot pass through buildings or by bridges. In other words, the vehicle's position is correlated with the road course. The position and/or trajectory of the vehicle on the map can be correlated with the road course based on one or more lanes of the road. Additionally or alternatively, the correction can take into account logical relationships when moving CPM objects as a group. The CPM sender's vehicle and its CPM object form a group that can be inserted into the map as a whole by translation and rotation. In other words, vehicle positions and/or trajectories on the map derived from the same collective recognition message can both be correlated to the road course. In other words, during correlation, vehicle positions and/or trajectories on the map that originate from the same mass recognition message can retain their positions relative to each other. For example, the positions and/or trajectories of vehicles on the map derived from the same mass recognition message can be co-translated and/or rotated relative to the map to correlate the respective vehicles and road courses. Additionally or alternatively, the correction may also take into account logical relationships derived from the shape of the trajectory, for example from the radius or distance traveled to a salient point such as the start of a curve. Additionally or alternatively, the correction can also take into account the traffic rules in force. These can be used for validation and to determine the probability of correctness of the correction. In other words, the vehicle's position and/or trajectory on the map is correlated with the road course based on one or more traffic rules on the road.
上で指摘したように、位置と道路進路とを相関させる場合、車両の位置だけでなく軌跡も考慮することができる。換言すれば、車両の軌跡は、それぞれの車両が走行している道路進路と相関させることができる130。車両のそれぞれの位置は、道路進路と車両の軌跡との間の相関に基づいて補正することもできる140。 As pointed out above, when correlating position and road course, not only the position of the vehicle but also its trajectory can be considered. In other words, the trajectory of the vehicles can be correlated 130 with the road course on which each vehicle is traveling. The vehicle's respective position may also be corrected 140 based on the correlation between the road course and the vehicle's trajectory.
V2X環境マップに加えて、別のマップまたはモデルを生成することができ、これは、対象物環境マップとも称されうる。以下では、対象物環境マップの作成について説明する。V2X環境マップを作成するための上記のステップと並行して、車両は、自身のセンサを使用して、その環境内の対象物を定常的に検出することができる。方法は、車両の1つもしくは複数のセンサを介して、車両の近傍の1つもしくは複数の車両の位置を決定すること150を含みうる。例えば、車両は、視覚/光学センサ(カメラ)、レーダーセンサ、超音波センサ、LiDAR(光検出および測距)センサ、または他のセンサを含みうる。対象物環境マップは、車両のセンサデータに基づく車両環境のデジタルモデルであってよい。車両は、当該センサデータを使用して自身の周囲をモデル化することができる。 In addition to the V2X environment map, another map or model may be generated, which may also be referred to as an object environment map. The creation of the object environment map will be described below. In parallel with the above steps for creating a V2X environment map, the vehicle can use its own sensors to detect objects in its environment on a regular basis. The method may include determining 150 the position of one or more vehicles in the vicinity of the vehicle via one or more sensors of the vehicle. For example, a vehicle may include visual/optical sensors (cameras), radar sensors, ultrasonic sensors, LiDAR (light detection and ranging) sensors, or other sensors. The object environment map may be a digital model of the vehicle environment based on vehicle sensor data. A vehicle can use the sensor data to model its surroundings.
対象物環境マップの生成は、対象物検出における測定の不正確性および自位置決定における不正確性を含みうる。各対象物の位置は、対象物環境テーブルおよび/または対象物環境マップに入力されうる。各車両に対して、走行された観察距離の履歴(軌跡、位置‐時間進行)も記憶することができる。また、自軌跡および自信頼度チューブも対象物環境マップに含まれうる。対象物環境テーブルまたは対象物環境マップは、周期的に更新することができる。 Generating an object environment map can include measurement inaccuracies in object detection and inaccuracies in self-localization. The location of each object can be entered into an object environment table and/or an object environment map. For each vehicle a history of observed distances traveled (trajectory, position-time progression) can also be stored. Egotrajectories and confidence tubes can also be included in the object environment map. The object environment table or object environment map can be updated periodically.
以下では、対象物マップからの対象物とV2X環境マップからの対象物との一致確認について論じる。例えば、ここで、対象物環境マップ内の車両が、V2X環境マップの対応する領域からの車両と比較されうる。V2X通信の範囲はセンサ範囲よりも大きいことが多いため、環境マップは、通常、V2X環境マップのサブセットのみを含みうる。センサによって検出された対象物の軌跡とV2X対象物(CAM送信側、DENM送信側、CPM送信側の車両およびCPM対象物)の軌跡とを比較することができる。換言すれば、方法は、マップ上の車両の補正された位置に基づいて、マップ上の車両と当該車両の近傍の1つもしくは複数の車両との間の関係を決定すること160を含みうる。例えば、マップ上の車両を、マップ上の車両の補正された位置に基づいて、当該車両の近傍の1つもしくは複数の車両と一致させることができる。このために、統計的方法を使用することができる。とりわけ、空間進路および速度プロファイルを考慮することができる。定義される閾値(例えば相関の尺度)から割り当てを行うことができ、すなわち、V2X送信機またはCPM対象物を検出された車両に割り当てることができる。こうした割り当てによって、車両クラス(トラック、自動車)など、V2Xメッセージに含まれる情報も考慮することができる。割り当てによって、V2X車両の軌跡の補正の確率を考慮することもできる。センサを介して収集された情報が、V2X環境マップに含まれる情報を拡張するために使用されうる。したがって、方法は、例えばそれぞれの車両の位置および/または軌跡の精度を改善することによって、マップ上の車両と当該車両の近傍の1つもしくは複数の車両との間の決定された関係に基づいて、マップ上の車両に関する情報を補足すること162を含むことができる。 In the following, we discuss matching objects from the object map with objects from the V2X environment map. For example, a vehicle in the object environment map can now be compared with a vehicle from the corresponding region of the V2X environment map. Since the range of V2X communication is often larger than the sensor range, the environment map may typically contain only a subset of the V2X environment map. The trajectories of objects detected by the sensors can be compared with the trajectories of V2X objects (CAM sender, DENM sender, CPM sender vehicle and CPM objects). In other words, the method may include determining 160 a relationship between the vehicle on the map and one or more vehicles in its vicinity based on the corrected position of the vehicle on the map. For example, a vehicle on the map can be matched with one or more vehicles in its vicinity based on the vehicle's corrected position on the map. Statistical methods can be used for this. Among other things, spatial trajectories and velocity profiles can be considered. The assignment can be made from a defined threshold (eg a measure of correlation), ie V2X transmitters or CPM objects can be assigned to detected vehicles. Such assignments can also take into account information contained in the V2X messages, such as vehicle class (truck, car). The allocation can also take into account the probability of correcting the trajectory of the V2X vehicle. Information collected via sensors may be used to augment the information contained in the V2X environment map. Accordingly, the method may include supplementing 162 information about vehicles on the map based on the determined relationship between the vehicle on the map and one or more vehicles in its vicinity, for example by improving the accuracy of the position and/or trajectory of each vehicle.
CPM対象物は、CAM(Cooperative Awareness Message)送信側の車両、またはDENM(Decentralized Environmental Notification Message)送信側の車両、または他のCPM送信側の車両であることもある。また、複数のCPM送信側の車両によって1つの車両がCPM対象物として識別されている可能性もある。例えば、少なくとも第1の集団認識メッセージを第1の車両から受信し、第2の集団認識メッセージを第2の車両から受信することができる110。したがって、様々な実施形態において、こうした曖昧性を解消し、車両間の一致を判定することがタスクとなりうる。換言すれば、方法は、第1の集団認識メッセージにおいて参照されている車両と第2の集団認識メッセージにおいて参照されている車両とを、それぞれの集団認識メッセージに含まれている位置に基づいてかつ/または車両の補正された位置に基づいて一致させること170を含みうる。様々な実施形態において、この目的のために、補正されたマップエントリを使用することができる。第1のステップにおいて、影響を受けるV2X車両またはCPM対象物を識別することができる。例えば、このために、軌跡および信頼度チューブの空間的近接性または重なりの尺度を用いることができる。次に、同じ対象物であることの妥当性検査を可能とする基準を考慮することができる。適切な基準は、例えば速度‐時間曲線(同時に減速し始める)の比較または車両の向き(進行方向)の変化についての角度‐時間曲線の比較である。さらに、車両クラス(トラック、乗用車)などのV2Xメッセージに含まれる情報を考慮することができる。ここで、統計的手法を用いることができる。定義される閾値(例えば相関の尺度)から割り当てを行うことができる。 A CPM object may be a CAM (Cooperative Awareness Message) sender vehicle, or a DENM (Decentralized Environmental Notification Message) sender vehicle, or other CPM sender vehicle. Also, one vehicle may have been identified as a CPM object by multiple CPM sender vehicles. For example, at least a first mass recognition message can be received from a first vehicle and a second mass recognition message can be received 110 from a second vehicle. Accordingly, in various embodiments, resolving such ambiguities and determining matches between vehicles can be a task. In other words, the method may include matching 170 the vehicles referenced in the first population recognition message and the vehicles referenced in the second population recognition message based on the positions included in the respective population recognition messages and/or based on the corrected positions of the vehicles. In various embodiments, corrected map entries can be used for this purpose. In a first step, the affected V2X vehicle or CPM object can be identified. For example, a measure of spatial proximity or overlap of trajectories and confidence tubes can be used for this purpose. Criteria that allow validation of the same object can then be considered. Suitable criteria are, for example, a comparison of speed-time curves (starting to decelerate at the same time) or angle-time curves for changes in vehicle orientation (direction of travel). Furthermore, information contained in the V2X message such as vehicle class (truck, passenger car) can be taken into account. Statistical methods can be used here. The assignment can be made from a defined threshold (eg a measure of correlation).
マップから曖昧性を除去することができる。消去された対象物は、後の検査および補正を可能にするために、別のテーブルに保存することができる。例えば、マップ内に残っている対象物は、複数回検出されたものとしてマークすることができる。幾つかの実施形態では、個々の対象物の複数回の検出はより長い期間にわたって行われうる。なぜなら、例えばこうした結果は、交通および車両の流れが実質的に相互に並行して動作することから生じるからである。この場合、妥当性検査を単純化することができ、例えば周期的な確認として定義される間隔でのみ行うことができる。重複を削除する場合、どの対象物が削除され、どの対象物が保持されているかの評価を行うこともできる。この目的のために、どの情報がより正確である確率が高いかに関しての評価を行うことができる。より不正確なものが削除されうる。幾つかの実施形態では、当該ステップ中に対象物の位置の補正が行われ、補正された値のみがマップに残される。 Ambiguity can be removed from the map. Erased objects can be saved in a separate table to allow later inspection and correction. For example, objects that remain in the map can be marked as having been detected multiple times. In some embodiments, multiple detections of individual objects may occur over longer periods of time. Because, for example, these results result from the fact that traffic and vehicle flows operate substantially parallel to each other. In this case the plausibility check can be simplified, eg only at intervals defined as periodic checks. When removing duplicates, an evaluation can also be made of which objects have been removed and which objects have been retained. To this end, an assessment can be made as to which information is likely to be more accurate. The less accurate ones can be deleted. In some embodiments, a correction of the object's position is performed during this step and only the corrected values are left in the map.
一般的に、各集団認識メッセージは、この集団認識メッセージを生成する車両の識別子を含む。識別子は、(静的であってよいまたは近傍の車両の数に基づいていてもよい)予め定められたスケジュールに従って新たに生成された識別子へと変更可能である。スードニムが(新たな識別子の生成によって)変更された場合、V2X車両は消滅し、新たな車両が作成される。したがって、両方の車両が同一であることを保証するために妥当性検査を行うことができる。方法は、新たに生成された識別子と以前に決定された軌跡とを有する集団認識メッセージにおいて受信された位置間の一致を判定すること126を含みうる。例えば、新たに生成された識別子を有する集団認識メッセージにおいて受信された位置が以前に決定された軌跡の拡張である場合、一致を確認することができる。方法は、それぞれの位置の追跡122、およびその後受信された、新たに生成された識別子を含む集団認識メッセージを用いたそれぞれの軌跡の決定を続行することを含みうる。例えば、新しいスードニムと同じセンサセットおよび同じ古いスードニムで認識されている対象物ならびに道路進路を用いた運転により、新しい車両の再評価が許容されない場合、同一の車両が関与している可能性が高い。 Typically, each mass recognition message includes an identifier for the vehicle generating the mass recognition message. The identifiers can change to newly generated identifiers according to a predetermined schedule (which may be static or based on the number of vehicles in the vicinity). If the pseudonym is changed (by generating a new identifier), the V2X vehicle will disappear and a new vehicle will be created. Therefore, a plausibility check can be performed to ensure that both vehicles are identical. The method may include determining 126 a match between locations received in population recognition messages with newly generated identifiers and previously determined trajectories. For example, a match can be confirmed if the position received in the population recognition message with the newly generated identifier is an extension of the previously determined trajectory. The method may include tracking 122 each location and continuing to determine each trajectory using subsequently received population recognition messages including the newly generated identifier. For example, if a re-evaluation of the new vehicle is not allowed by driving with the same sensor set and objects and road courses recognized by the same old pseudonym as the new pseudonym, then it is likely that the same vehicle is involved.
生成されたV2X環境は、車両を動作させるために使用可能である。換言すれば、方法は、マップ上の補正された車両の位置を使用して、自律運転モードまたは半自律運転モードで車両を動作させること180を含みうる。例えば、補正された位置を含むマップが車両によって使用されて、車両の近傍の他車両の位置、他車両の(投影された)軌跡および/または他車両までの距離を決定することができ、これを使用して道路上の車両の進路をプロットすることができる。 The generated V2X environment can be used to operate the vehicle. In other words, the method may include operating 180 the vehicle in an autonomous or semi-autonomous driving mode using the corrected vehicle position on the map. For example, a map containing corrected positions can be used by a vehicle to determine the position of other vehicles in its vicinity, its (projected) trajectory and/or distance to other vehicles, which can be used to plot the course of the vehicle on the road.
実施形態では、インタフェース12は、アナログまたはデジタルの信号または情報を取得し、受信し、送信しもしくは提供する任意の手段、例えば信号または情報の提供もしくは取得を可能にする任意のコネクタ、コンタクト、ピン、レジスタ、入力ポート、出力ポート、導体、レーンなどに対応することができる。インタフェースは無線または有線とすることができ、別の内部または外部のコンポーネントと信号、情報を通信すなわち送受信するように構成することができる。インタフェース12は、例えば移動通信システムにおいて、通信に従って有効化される別のコンポーネントを有することができ、こうしたコンポーネントは、通信装置(送信機および/または受信機)のコンポーネント、例えば1つもしくは複数の低雑音増幅器(LNA)、1つもしくは複数の電力増幅器(PA)、1つもしくは複数のデュプレクサ、1つもしくは複数のダイプレクサ、1つもしくは複数のフィルタもしくはフィルタ回路、1つもしくは複数のコンバータ、1つもしくは複数のミキサ、相応に適応化された無線周波数コンポーネントなどを含むことができる。インタフェース12は、任意の送信アンテナおよび/または受信アンテナ、例えばホーンアンテナ、ダイポールアンテナ、パッチアンテナ、セクタアンテナなどに対応することのできる1つもしくは複数のアンテナに接続可能である。アンテナは、定義された幾何学的設定で配置することができ、例えば均一なアレイ、直線的なアレイ、円形アレイ、三角形アレイ、均一なフィールドアンテナ、フィールドアレイ、これらの組み合わせなどで配置することができる。幾つかの実施例では、インタフェース12は、情報の送信もしくは受信もしくは送受信、例えばケイパビリティ、制御情報、ペイロード情報、アプリケーション要件、トリガ指示、要求、メッセージ、データパケット、肯定応答パケット/メッセージなどに関連する情報の送信もしくは受信もしくは送受信の目的に利用することができる。
In embodiments,
図2aに示されているように、インタフェース12は、装置10における各処理モジュール14に接続されている。実施形態では、処理モジュール14は、1つもしくは複数の処理ユニット、1つもしくは複数の処理デバイス、任意の処理手段、例えばプロセッサ、コンピュータ、または相応に適応化されたソフトウェアによって動作可能なプログラマブルハードウェアコンポーネントを使用して実装されうる。換言すれば、処理モジュール14について説明した機能は、ソフトウェアとして実装されてもよく、この場合、ソフトウェアは、1つもしくは複数のプログラマブルハードウェアコンポーネントにおいて実行される。このようなハードウェアコンポーネントは、汎用プロセッサ、デジタルシグナルプロセッサ(DSP)、マイクロコントローラなどを含みうる。
As shown in FIG. 2a, an
実施形態では、通信、すなわち送信もしくは受信もしくは送受信が、車両間で直接に、かつ/またはモバイル通信装置/車両とネットワークコンポーネント/エンティティ(インフラストラクチャまたはモバイル通信装置、例えば基地局、ネットワークサーバ、バックエンドサーバなど)との間で行われうる。こうした通信は、移動通信システムを利用することができる。こうした通信は、例えばデバイス・ツー・デバイス(D2D)通信によって直接に行うことができ、このデバイス・ツー・デバイス(D2D)通信は、車両のケースでは車車間(V2V)通信またはカー・ツー・カー(C2C)通信も含みうるものであり、移動通信システムの仕様を使用して実行することができる。 In embodiments, communication, i.e. transmission or reception or transmission and reception, may occur directly between vehicles and/or between mobile communication devices/vehicles and network components/entities (infrastructure or mobile communication devices such as base stations, network servers, backend servers, etc.). Such communication can utilize a mobile communication system. Such communication can be done directly by, for example, device-to-device (D2D) communication, which in the case of vehicles can also include vehicle-to-vehicle (V2V) communication or car-to-car (C2C) communication, and can be performed using the specifications of mobile communication systems.
実施形態では、インタフェース12は、移動通信システムにおいて無線通信を行うように構成することができる。例えば、V2Xが少なくともV2V、V2インフラストラクチャ(V2I)、V2歩行者(V2P)、3GPPリリース14以降に準拠した送信などを含む、ダイレクト・セルラ・ビークル・ツー・エニシング(C-V2X)通信は、インフラストラクチャによって管理され(LTEにおけるいわゆるモード3)、またはUEにおいて実行されうる(LTEにおけるいわゆるモード4)。
In embodiments,
提案のコンセプトの様々な例には、CPM送信側の車両のトレースと、CPMにおいて記述されている検出された対象物との記録が含まれうる。提案のコンセプトは、マップ上の位置/トレース(V2X環境マップ)の割り当て、ならびにCPM送信側の車両およびCPMにおいて記述されている検出された対象物の双方に関する論理的関係に基づく車線および位置への割り当ての改善を含むことができる。様々な例には、車両センサによって観察される対象物のトレースを記録し、これらのトレースを別のマップ(対象物環境マップ)に割り当てることが含まれうる。提案のコンセプトは、V2X環境マップからの検出された車両と対応する対象物との高レベルでの融合、およびトレースの相関の評価を提供することができる。 Various examples of the proposed concept may include recording a trace of the CPM sender's vehicle and the detected objects described in the CPM. Proposed concepts may include the allocation of locations/traces on maps (V2X environment maps) and improved allocation to lanes and locations based on logical relationships for both the vehicle of the CPM sender and the detected objects described in the CPM. Various examples may include recording traces of objects observed by vehicle sensors and assigning these traces to another map (an object environment map). The proposed concept can provide high-level fusion of detected vehicles and corresponding objects from V2X environment maps and evaluation of trace correlations.
既に述べたように、実施形態では、それぞれの方法が、それぞれのハードウェアにおいて実行可能なコンピュータプログラムまたはコードとして実装されうる。したがって、別の実施形態は、コンピュータ、プロセッサまたはプログラマブルハードウェアコンポーネントにおいて実行される際に、上記の方法のうちの少なくとも1つを実行するためのプログラムコードを有する、コンピュータプログラムである。別の実施形態は、コンピュータ、プロセッサまたはプログラマブルハードウェアコンポーネントによって実行される際に、本明細書で説明した方法のうちの1つをコンピュータに実行させるための命令を記憶した、コンピュータ可読記憶媒体である。 As already mentioned, in embodiments each method may be implemented as a computer program or code executable in the respective hardware. Another embodiment is therefore a computer program product having program code for performing at least one of the above methods when run on a computer, processor or programmable hardware component. Another embodiment is a computer-readable storage medium storing instructions that, when executed by a computer, processor, or programmable hardware component, cause the computer to perform one of the methods described herein.
当業者であれば、プログラミングされたコンピュータにより上述した様々な方法の各ステップを実行でき、例えばスロットの位置を決定もしくは計算できることは容易に理解されよう。本明細書では、幾つかの実施形態は、プログラムストレージデバイス、例えば機械可読もしくはコンピュータ可読であって機械実行可能もしくはコンピュータ実行可能な命令のプログラムを符号化したデジタルデータ記憶媒体もカバーすることを意図しており、ここで、前記命令は、本明細書に記載した方法のステップの一部または全部を実行するためのものである。プログラムストレージデバイスは、例えば、デジタルメモリ、磁気ディスクおよび磁気テープなどの磁気記憶媒体、ハードディスクドライブ、または光学的に読み出し可能なデジタルデータ記憶媒体であってよい。実施形態はまた、本明細書に記載した方法の前記ステップを実行するようにプログラミングされたコンピュータ、または上述した方法の前記ステップを実行するようにプログラミングされた(フィールド)プログラマブルロジックアレイ((F)PLA)もしくは(フィールド)プログラマブルゲートアレイ((F)PGA)をカバーすることも意図している。 A person of ordinary skill in the art will readily appreciate that a programmed computer can perform the steps of the various methods described above, for example determining or calculating slot positions. As used herein, some embodiments are also intended to cover program storage devices, e.g., digital data storage media that are machine-readable or computer-readable and that encode a program of machine-executable or computer-executable instructions, where the instructions are for performing some or all of the steps of the methods described herein. The program storage device may be, for example, a digital memory, a magnetic storage medium such as a magnetic disk and magnetic tape, a hard disk drive, or an optically readable digital data storage medium. Embodiments are also intended to cover a computer programmed to perform the steps of the methods described herein, or a (field) programmable logic array ((F)PLA) or (field) programmable gate array ((F)PGA) programmed to perform the steps of the methods described above.
説明および図面は本発明の基本方式の例示にすぎない。したがって、当業者であれば、本明細書に明示的に説明または図示されていなくても、本発明の基本方式を具現化する様々な装置を考案することができ、またこれらが本発明の思想および範囲に含まれることを理解することができよう。さらに、本明細書に記載した全ての例は、基本的に、本発明の基本方式および発明者が技術促進に寄与するものとしたコンセプトについての読者の理解を助けるための教示の目的のものにすぎないことが明確に意図されており、具体的に言及したこうした例および条件への限定なしに考察されるべきである。さらに、本明細書で言及した本発明の基本方式、態様および実施形態ならびにその特定の例についての本明細書の全ての論述は、これらのものの等価物を包含することが意図されている。各機能は、プロセッサによって提供される場合、単一の専用プロセッサによって、単一の共有プロセッサによって、または幾つかの機能を共有することができる複数の個別のプロセッサによって、提供可能である。さらに、「プロセッサ」または「コントローラ」なる用語の明示的な使用は、ソフトウェアを実行することのできるハードウェアのみを指すと解釈されるべきではなく、以下に限定されるわけではないが、デジタルシグナルプロセッサ(DSP)ハードウェア、ネットワークプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ソフトウェアを記憶する読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)および不揮発性ストレージを暗示的に含みうる。他のハードウェア、従来のハードウェアまたはカスタムハードウェアも含まれうる。これらのものの機能は、プログラムロジックの動作を通じて、もしくは専用ロジックを通じて、もしくはプログラム制御と専用ロジックとのインタラクションを通じて、または手動でも実行することができ、文脈からより具体的に理解されるように、当業者が特定の技術を選択することができる。 The description and drawings are merely illustrative of the basic scheme of the invention. Accordingly, those skilled in the art will appreciate that various devices, even though not explicitly described or illustrated herein, may be devised that embody the basic principles of the invention and are within the spirit and scope of the invention. Further, all examples set forth herein are expressly intended merely for teaching purposes, primarily to assist the reader in understanding the underlying principles of the present invention and the concepts to which the inventors have contributed to advancing the art, and should be considered without limitation to such examples and conditions specifically mentioned. Moreover, all discussions herein of basic schemes, aspects, and embodiments of the invention, as well as specific examples thereof, referred to herein are intended to encompass equivalents thereof. Each function, if provided by a processor, can be provided by a single dedicated processor, by a single shared processor, or by multiple separate processors that may share some functions. Furthermore, any explicit use of the term "processor" or "controller" should not be construed to refer only to hardware capable of executing software, which can implicitly include, but is not limited to, digital signal processor (DSP) hardware, network processors, application specific integrated circuits (ASICs), field programmable gate arrays (FPGAs), read-only memory (ROM) for storing software, random access memory (RAM), and non-volatile storage. Other hardware, conventional or custom hardware may also be included. The functions of these things may be performed through the operation of program logic, or through dedicated logic, or through interaction of program control and dedicated logic, or even manually, and the specific techniques may be selected by those skilled in the art as more specifically understood from the context.
当業者に明らかな通り、本明細書のいずれのブロック図も、本発明の基本方式を具現化した例示的な回路の概念的なビューを表している。同様に、任意のフローチャート、流れ図、状態遷移図、擬似コードなどは、コンピュータ可読媒体内に実質的に表現されており、かつコンピュータまたはプロセッサが明示的に示されているか否かにかかわらずこうしたコンピュータまたはプロセッサによって実行可能である、様々なプロセスを表現していることが理解されよう。 It will be appreciated by those skilled in the art that any block diagrams herein represent conceptual views of illustrative circuits embodying the basic principles of the invention. Similarly, it will be understood that any flowchart, flow diagram, state transition diagram, pseudocode, etc., are embodied in a computer-readable medium and represent various processes that are executable by a computer or processor, whether or not such computer or processor is explicitly indicated.
さらに、以下の特許請求の範囲はここでの詳細な説明に組み込まれるものであり、各請求項はそれ自体が別個の実施形態として独立しうるものである。各請求項が個別の実施形態として独立しうる一方で、ある従属請求項が特許請求の範囲において1つもしくは複数の他の請求項との特定の組み合わせに言及するとしても、他の実施形態が従属請求項と他の各従属請求項の主題との組み合わせを含んでもよいことに留意されたい。特定の組み合わせを意図しないことが言明されていない限り、このような組み合わせは本明細書で提案されているものとする。さらに、ある請求項が直接に任意の他の独立請求項に従属していない場合であっても、当該独立請求項に対する請求項の特徴も含まれることが意図されている。 Moreover, the following claims are hereby incorporated into this Detailed Description, with each claim standing on its own as a separate embodiment. While each claim may stand alone as a separate embodiment, it should be noted that even if a dependent claim refers in a claim to a particular combination with one or more other claims, other embodiments may include the subject matter of each other dependent claim in combination with the dependent claim. Unless it is stated that no particular combination is intended, such combinations are proposed herein. Furthermore, even if a claim is not directly dependent on any other independent claim, it is also intended to include the features of the claims to that independent claim.
さらに、明細書または特許請求の範囲に開示されている方法は、これらの方法の対応するステップのそれぞれを実行する手段を有するデバイスによって実装されうることに留意されたい。 Furthermore, it should be noted that the methods disclosed in the specification or claims may be implemented by a device having means for performing each of the corresponding steps of those methods.
10 装置
12 インタフェース
14 処理モジュール
100 車両
110 1つもしくは複数の集団認識メッセージを受信する
120 車両をマップ上に配置する
122 車両の位置を追跡する
124 車両の軌跡を決定する
126 一致を判定する
130 車両の位置と道路進路とを相関させる
140 それぞれの位置を補正する
150 車両の近傍の車両の位置を決定する
160 関係を決定する
162 情報を補足する
170 車両を一致させる
180 車両を動作させる
200 車両
10
Claims (15)
1つもしくは複数の集団認識メッセージを受信するステップ(110)であって、各集団認識メッセージは、該集団認識メッセージを生成する車両の絶対位置と該集団認識メッセージを生成する車両によって認識されている1つもしくは複数の別の車両の相対位置とに関する情報を含む、ステップと、
前記1つもしくは複数の集団認識メッセージにおいて受信された位置を使用して、前記集団認識メッセージを生成するそれぞれの車両と前記集団認識メッセージを生成する車両によって認識されている1つもしくは複数の別の車両とをマップ上に配置するステップ(120)と、
前記マップ上の前記車両の位置とそれぞれの車両が走行している道路進路とを相関させるステップ(130)および、前記道路進路と前記車両の位置との間の相関に基づいてそれぞれの位置を補正するステップ(140)と、
を含む、方法。 A method for a vehicle (100), the method comprising:
receiving (110) one or more mass recognition messages, each mass recognition message including information regarding the absolute position of the vehicle generating the mass recognition message and the relative position of one or more other vehicles recognized by the vehicle generating the mass recognition message;
locating (120) on a map each vehicle generating the population recognition message and one or more other vehicles recognized by the vehicle generating the population recognition message using the positions received in the one or more population recognition messages;
correlating (130) the position of the vehicle on the map with the road course on which each vehicle is traveling, and correcting (140) each position based on the correlation between the road course and the position of the vehicle;
A method, including
前記車両の軌跡が、それぞれの車両が走行している道路進路と相関され(130)、車両のそれぞれの位置が、前記道路進路と前記車両の軌跡との間の相関に基づいて補正される(140)、
請求項1記載の方法。 The method includes tracking (122) the positions of vehicles received in the one or more population recognition messages to determine (124) vehicle trajectories;
The trajectories of the vehicles are correlated (130) with the road courses on which the respective vehicles are traveling, and the respective positions of the vehicles are corrected (140) based on the correlation between the road courses and the trajectories of the vehicles;
The method of claim 1.
前記マップ上のそれぞれの位置が前記軌跡の周囲の信頼度領域を使用して補正される、
請求項2記載の方法。 correlating (130) the trajectory of the vehicle with the road course comprises, for each location, determining a confidence region around the location; and for each trajectory, determining a confidence region around the trajectory based on the confidence region around the location of the trajectory,
each position on the map is corrected using a confidence region around the trajectory;
3. The method of claim 2.
前記方法が、新たに生成された識別子と以前に決定された軌跡とを有する集団認識メッセージにおいて受信された位置間の一致を判定するステップ(126)と、その後受信された、前記新たに生成された識別子を含む集団認識メッセージを使用して、それぞれの位置の追跡(122)およびそれぞれの軌跡の決定を続行するステップとを含む、
請求項2または3記載の方法。 each cluster identification message includes an identifier of the vehicle generating the cluster identification message, the identifier being changed to the newly generated identifier according to a predetermined schedule;
The method comprises determining (126) a match between locations received in population recognition messages having newly generated identifiers and previously determined trajectories, and then continuing to track (122) respective locations and determine respective trajectories using population recognition messages received thereafter containing said newly generated identifiers;
4. A method according to claim 2 or 3.
前記マップ上の前記車両の位置および/または軌跡が、道路上の1つもしくは複数の交通規則に基づいて前記道路進路と相関される、
請求項1から6までのいずれか1項記載の方法。 The position and/or trajectory of the vehicle on the map is correlated with the road course based on one or more lanes of a road, and/or the position and/or trajectory of the vehicle on the map is correlated with the road course based on one or more traffic rules on the road.
A method according to any one of claims 1 to 6.
前記方法が、前記第1の集団認識メッセージにおいて参照されている車両と前記第2の集団認識メッセージにおいて参照されている車両とを、それぞれの集団認識メッセージに含まれている位置に基づいてかつ/または前記車両の補正された位置に基づいて一致させるステップ(170)を含む、
請求項1から10までのいずれか1項記載の方法。 at least a first mass recognition message is received from the first vehicle and a second mass recognition message is received from the second vehicle (110);
The method includes matching (170) a vehicle referenced in the first population recognition message and a vehicle referenced in the second population recognition message based on locations contained in the respective population recognition messages and/or based on corrected locations of the vehicles;
A method according to any one of claims 1 to 10.
他車両(200)からの集団認識メッセージを受信するためのインタフェース(12)と、
請求項1から12までのいずれか1項記載の方法を実行するように構成された処理モジュール(14)と、
を備える、装置(10)。 A device (10) for a vehicle (100), the device comprising:
an interface (12) for receiving collective recognition messages from other vehicles (200);
a processing module (14) configured to perform the method according to any one of claims 1 to 12;
A device (10) comprising:
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20183745.7 | 2020-07-02 | ||
EP20183745.7A EP3933344B1 (en) | 2020-07-02 | 2020-07-02 | Method, apparatus and computer program for a vehicle |
PCT/EP2021/067915 WO2022002976A1 (en) | 2020-07-02 | 2021-06-29 | Method, apparatus and computer program for a vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023531826A true JP2023531826A (en) | 2023-07-25 |
JP7502483B2 JP7502483B2 (en) | 2024-06-18 |
Family
ID=71465080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022581567A Active JP7502483B2 (en) | 2020-07-02 | 2021-06-29 | Method, apparatus, and computer program for a vehicle |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230288211A1 (en) |
EP (1) | EP3933344B1 (en) |
JP (1) | JP7502483B2 (en) |
CN (1) | CN115803586A (en) |
WO (1) | WO2022002976A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114663804A (en) * | 2022-03-02 | 2022-06-24 | 小米汽车科技有限公司 | Driving area detection method, device, mobile equipment and storage medium |
JP2024052175A (en) * | 2022-09-30 | 2024-04-11 | 株式会社デンソー | Message control device, message control method, and vehicle |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4931706B2 (en) * | 2007-06-25 | 2012-05-16 | アルパイン株式会社 | Navigation device |
US8229663B2 (en) * | 2009-02-03 | 2012-07-24 | GM Global Technology Operations LLC | Combined vehicle-to-vehicle communication and object detection sensing |
US9253753B2 (en) * | 2012-04-24 | 2016-02-02 | Zetta Research And Development Llc-Forc Series | Vehicle-to-vehicle safety transceiver using time slots |
US20130278441A1 (en) * | 2012-04-24 | 2013-10-24 | Zetta Research and Development, LLC - ForC Series | Vehicle proxying |
DE102016205140A1 (en) | 2015-11-04 | 2017-05-04 | Volkswagen Aktiengesellschaft | Method and control systems for determining a traffic gap between two vehicles for a lane change for a vehicle |
KR102215325B1 (en) * | 2017-02-28 | 2021-02-15 | 현대자동차주식회사 | Apparatus and method for estimating location of vehicle and vehicle using the same |
US20190339082A1 (en) * | 2018-05-02 | 2019-11-07 | Blackberry Limited | Method and system for hybrid collective perception and map crowdsourcing |
-
2020
- 2020-07-02 EP EP20183745.7A patent/EP3933344B1/en active Active
-
2021
- 2021-06-29 CN CN202180047102.7A patent/CN115803586A/en active Pending
- 2021-06-29 US US18/003,723 patent/US20230288211A1/en active Pending
- 2021-06-29 WO PCT/EP2021/067915 patent/WO2022002976A1/en active Application Filing
- 2021-06-29 JP JP2022581567A patent/JP7502483B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN115803586A (en) | 2023-03-14 |
US20230288211A1 (en) | 2023-09-14 |
WO2022002976A1 (en) | 2022-01-06 |
EP3933344B1 (en) | 2022-10-26 |
EP3933344A1 (en) | 2022-01-05 |
JP7502483B2 (en) | 2024-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11204428B2 (en) | Communication for high accuracy cooperative positioning solutions | |
EP3491854B1 (en) | Methods and apparatuses relating to determination of locations of portable devices | |
US11041934B2 (en) | Precise positioning using millimeter wave narrow beamforming | |
KR101755944B1 (en) | Autonomous driving method and system for determing position of car graft on gps, uwb and v2x | |
Qin et al. | Vehicles on RFID: Error-cognitive vehicle localization in GPS-less environments | |
WO2018233699A1 (en) | Vehicle positioning method, apparatus and terminal device | |
US20210172749A1 (en) | Controlling platooning vehicle | |
CN112009484A (en) | Method and system for determining driving assistance data | |
JP2020075695A (en) | Vehicle-to-Everything data transfer for automated vehicles | |
JP7502483B2 (en) | Method, apparatus, and computer program for a vehicle | |
US20230036475A1 (en) | Local navigation assisted by vehicle-to-everything (v2x) | |
US11900808B2 (en) | Apparatus, method, and computer program for a first vehicle and for estimating a position of a second vehicle at the first vehicle | |
US11029155B2 (en) | High-precision position determination for vehicles | |
US20230059897A1 (en) | System and method for vehicle-to-everything (v2x) collaborative perception | |
CN109416393B (en) | Object tracking method and system | |
CN114397878A (en) | Automatic driving system and method for generating detailed map thereof | |
US12047853B2 (en) | Method and device for determining a position of a vehicle | |
CN113626545B (en) | Vehicle, apparatus, method and computer program for determining a merged environment map | |
US11776392B2 (en) | Method for assigning ego vehicle to a lane | |
WO2023158524A1 (en) | Sidelink-based positioning in unicast session | |
KR20210100377A (en) | Token management and vehicle control for autonomous driving | |
KR20240093188A (en) | System for Assisting Right Turn of Vehicle based on UWB Communication and V2X Communication at Intersection, and Operation Method Thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240606 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7502483 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |