CZ308605B6 - Sensory system with fast group fusion to obtain a model of objects in its vicinity - Google Patents
Sensory system with fast group fusion to obtain a model of objects in its vicinity Download PDFInfo
- Publication number
- CZ308605B6 CZ308605B6 CZ2018-524A CZ2018524A CZ308605B6 CZ 308605 B6 CZ308605 B6 CZ 308605B6 CZ 2018524 A CZ2018524 A CZ 2018524A CZ 308605 B6 CZ308605 B6 CZ 308605B6
- Authority
- CZ
- Czechia
- Prior art keywords
- objects
- group
- states
- module
- sensors
- Prior art date
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 19
- 230000001953 sensory effect Effects 0.000 title description 2
- 238000005259 measurement Methods 0.000 claims abstract description 50
- 238000005070 sampling Methods 0.000 claims abstract description 39
- 238000012937 correction Methods 0.000 claims abstract description 17
- 238000000034 method Methods 0.000 claims abstract description 15
- 230000007246 mechanism Effects 0.000 claims abstract description 5
- 238000009826 distribution Methods 0.000 claims description 177
- 230000006399 behavior Effects 0.000 claims description 13
- 230000015654 memory Effects 0.000 claims description 9
- 238000007500 overflow downdraw method Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 8
- 238000003384 imaging method Methods 0.000 abstract 1
- 238000013459 approach Methods 0.000 description 14
- 230000003993 interaction Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000005670 electromagnetic radiation Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005293 physical law Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/257—Belief theory, e.g. Dempster-Shafer
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Biology (AREA)
- Game Theory and Decision Science (AREA)
- Optics & Photonics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Electromagnetism (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
Senzorický systém s rychlou skupinovou fúzí pro získání modelu objektů v jeho okolíSensory system with fast group fusion to obtain a model of objects in its vicinity
Oblast technikyField of technology
Vynález se týká senzorického systému s rychlou skupinovou fúzí pro získání modelu objektů v jeho okolí využívajícího fúzi dat z množství senzorů pro vytvoření obrazu okolního prostředí například v dopravních prostředcích jako jsou autonomní vozidla.The invention relates to a fast group fusion sensor system for obtaining a model of objects in its vicinity using the fusion of data from a number of sensors to form an image of the environment, for example in vehicles such as autonomous vehicles.
Dosavadní stav technikyPrior art
V současné době je technika kolem autonomního řízení vozidel a jiných senzorických systémů na vzestupu. Čím dál více společností se zabývá systémy pro autonomní řízení, asistenčními systémy, systémy pro vytvoření obrazu objektů v okolí snímaného určitými senzory jak v automobilovém průmyslu, tak v jiných odvětvích zabývajících se jinými dopravními prostředky jako je letecký či námořní průmysl.At present, technology around autonomous vehicle control and other sensor systems is on the rise. More and more companies are dealing with autonomous control systems, assistance systems, systems for creating the image of objects in the environment sensed by certain sensors both in the automotive industry and in other sectors dealing with other means of transport such as the aerospace industry.
Definičně je autonomní vozidlo, nebo taky samořízené vozidlo takové vozidlo, které ke svému provozu nepotřebuje řidiče a orientuje se zcela za pomoci počítačových systémů, a senzorů, které detekují okolí vozidla a určují jeho trasu, přičemž senzorů pro detekci okolí, polohy a rychlosti vozidla je více druhů, jako např. kamera, radar, lidar atd.Definitely, an autonomous vehicle, or also a self-driving vehicle, is a vehicle that does not need a driver to operate and is completely oriented with the help of computer systems and sensors that detect the vehicle's surroundings and determine its route, while sensors to detect the vehicle's surroundings, position and speed are more species, such as camera, radar, lidar, etc.
Autonomní vozidlo, vozidlo s asistenčními systémy, nebo systém pro vytvoření obrazu objektů v okolí snímaného určitými senzory potřebuje pro svůj chod množinu senzorů, přičemž, obecně lze říct, že čím větší je početjejich typů a celkový počet, tím spolehlivější výsledek je měřením možno dosáhnout. Jednotlivé měření zaznamenané jednotlivými senzory zpravidla nejsou vyhodnocovány samostatně, ale tyto měření jsou slučovány do jednoho komplexního obrazu okolního prostředí. Tímto se dosáhne vyšší spolehlivost výsledků měření a jednotlivé naměřené hodnoty lze ověřit pomocí naměřených hodnot z dalších senzorů.An autonomous vehicle, a vehicle with assistance systems, or a system for creating an image of objects in the environment sensed by certain sensors needs a plurality of sensors to operate, and, in general, the larger the number and total number, the more reliable the measurement result. The individual measurements recorded by the individual sensors are usually not evaluated separately, but these measurements are combined into one complex image of the environment. This achieves a higher reliability of the measurement results and the individual measured values can be verified using measured values from other sensors.
Ve zjednodušeném pojetí je výstupem jednotlivých senzorů stav objektů, které se nacházejí v okolí autonomního vozidla, vozidla s asistenčními systémy, nebo jiného zařízení využívajícího systém pro vytvoření obrazu objektů ve svém okolí. Někdy se jednotlivé objekty můžou částečně, nebo úplně překrývat, nebo jsou jednoduše příliš blízko, což zapříčiňuje problematické a vyžaduje další sledování těchto objektů. Existují dva základní přístupy, jak se vypořádat s tímto problémem.In a simplified sense, the output of individual sensors is the status of objects located in the vicinity of an autonomous vehicle, a vehicle with assistance systems, or another device using a system to create an image of objects in its vicinity. Sometimes individual objects may overlap partially or completely, or are simply too close, which causes problems and requires further monitoring of these objects. There are two basic approaches to dealing with this problem.
Globální přístup vnímá celý svět jako jeden super-objekt, resp. jednu velkou skupinu objektů. Tento přístup přináší jednu výhodu - nevylučuje žádnou možno interakci mezi libovolnými objekty a tedy, přesnost měření je maximální. Nevýhodou tohoto přístupu je výpočetní náročnost pro kombinace interakcí všech objektů. Při použití globálního přístupu roste počet možných kombinací interakcí exponenciálně se zvyšujícím se počtem objektů. Kvůli tomu není možno tento přístup efektivně aplikovat například na autonomní vozidla, vozidla s asistenčními systémy, nebo na jiné zařízení využívající systémy pro vytvoření obrazu objektů v okolí takového zařízení, protože výsledky není možno získat v reálném čase.The global approach perceives the whole world as one super-object, resp. one large group of objects. This approach has one advantage - it does not exclude any possible interaction between any objects and therefore, the accuracy of the measurement is maximum. The disadvantage of this approach is the computational complexity for combinations of interactions of all objects. Using the global approach, the number of possible combinations of interactions increases exponentially with the increasing number of objects. Therefore, this approach cannot be effectively applied to, for example, autonomous vehicles, vehicles with assistance systems, or other devices using systems to create an image of objects in the vicinity of such a device, because the results cannot be obtained in real time.
Lokální přístup považuje všechny objekty za samostatné a vzájemně na sobě nezávislé. V tomto přístupu nejsou uvažovány žádné interakce mezi jednotlivými objekty, čímž se výrazně snižuje výpočetní náročnost. Výpočetní náročnost roste lineárně se zvyšujícím se počtem objektů. Nevýhodou a zároveň důvodem, proč tento systém není výhodné v tomto provedení plnohodnotně aplikovat například do autonomního vozidla, vozidla s asistenčními systémy, nebo na jiné zařízení využívající systémy pro vytvoření obrazu objektů v okolí takového zařízení je, že se zanedbáním všech interakcí objektů se ztrácí množství užitečných informací a spolehlivost měření je o moc nižší.The local approach considers all objects to be separate and independent of each other. In this approach, no interactions between individual objects are considered, which significantly reduces the computational complexity. Computational complexity increases linearly with increasing number of objects. The disadvantage and at the same time the reason why this system is not advantageous in this embodiment to be fully applied, for example, to an autonomous vehicle, vehicles with assistance systems, or to other devices using systems to create images of objects in the vicinity of such devices is that neglecting all object interactions useful information and the reliability of the measurement is much lower.
-1 CZ 308605 B6-1 CZ 308605 B6
Dalším problémem je ten, že každý senzor má svá specifika, nepřesnosti a slabosti. Kamera dokáže zachytit tvar objektu, nikoli jeho vzdálenost, kdežto radar máje na tom opačně. Rozdíly v měření je možno najít i u senzorů stejného typu (např. mezi dvěma kamerami). Nesrovnalosti mezi měřeními je možno pozorovat i u jednoho senzoru, např. kamera poskytuje přesnější měření pro objekty ve středu jejího zorného pole než pro objekty na krajích zorného pole. Tudíž nastávají situace, kdy například dva senzory zaznamenají rozdílnou vzdálenost jednoho objektu ve stejném okamžiku, nebo jeden senzor zaznamená dvě výrazně odlišné vzdálenosti jednoho objektu ve dvou blízkých časech. V takovém případě je nevhodné řešit hodnoty vzdálenosti jako absolutní hodnoty, ale je nutné vyhodnotit pravděpodobnostní rozložení hodnoty vzdálenosti. Nejvyužívanějším způsobem pro řešení těchto problémů je prostřednictvím kódu. Takové řešení funguje v jednoduchých situacích, nicméně ve složitých situacích, jako například ve velkoměstském provozu je nepoužitelné.Another problem is that each sensor has its own specifics, inaccuracies and weaknesses. The camera can capture the shape of the object, not its distance, while the radar has the opposite. Differences in measurements can also be found for sensors of the same type (eg between two cameras). Discrepancies between measurements can also be observed with one sensor, eg the camera provides more accurate measurements for objects in the center of its field of view than for objects at the edges of the field of view. Thus, for example, there are situations where, for example, two sensors detect different distances of one object at the same time, or one sensor detects two significantly different distances of one object at two close times. In this case, it is inappropriate to treat the distance values as absolute values, but it is necessary to evaluate the probability distribution of the distance value. The most commonly used way to solve these problems is through code. Such a solution works in simple situations, however, in complex situations, such as in a city traffic, it is unusable.
Dokument US 9963215 B2 popisuje řešení pro fúzi dat ze senzorů pro autonomní plavidla. V tomto řešení je na problém nahlíženo komplexně. Vytváří se pravděpodobnostní model, na základě, kterého je později vytvořena „cluster hypothesis“ a „global hypothesis“, tedy vytváří se skupiny objektů, které se sebou můžou interagovat a tyto jsou enumerovány společně. Nicméně takové řešení sebou nese podstatnou nevýhodu a tou je fakt, že se vždy vybírá malé množství hypotéz s největší pravděpodobností a ostatní jsou kompletně eliminovány. Takový přístup může do jisté míry fungovat u námořních plavidel, protože provoz ve vodě je podstatně méně hustý a více předvídatelný, a tedy statisticky se méně pravděpodobné scénáře, se kterými není počítáno i méně pravděpodobně uplatní. Například pro silniční provoz je takový přístup nevhodný, protože situace na silnici se mění každou vteřinou, v mnoha případech není vůbec předvídatelná, a tedy pro zachování bezpečnosti všech účastníků provozu není vhodné eliminovat méně pravděpodobné situace/polohy objektů.US 9963215 B2 describes a solution for fusing data from sensors for autonomous vessels. In this solution, the problem is viewed comprehensively. A probabilistic model is created, on the basis of which the "cluster hypothesis" and the "global hypothesis" are later created, ie groups of objects are created that can interact with each other and these are enumerated together. However, such a solution has a significant disadvantage and that is the fact that a small number of hypotheses are always selected with the highest probability and the others are completely eliminated. Such an approach may work to some extent for seagoing vessels, as water traffic is significantly less dense and more predictable, and thus statistically less likely scenarios that are not anticipated or less likely to apply. For example, such an approach is unsuitable for road traffic because the situation on the road changes every second, in many cases not at all predictable, and therefore it is not appropriate to eliminate less likely situations / locations of objects to maintain the safety of all road users.
Další blízké řešení je zveřejněno v US 7289906 B2. Toto řešení pojednává o fúzi dat ze senzorů za použití Kalmanových filtrů a Gaussovského pravděpodobnostního rozložení. Právě Gaussovské rozložení sebou nese jednu podstatnou nevýhodu v případě, že měření je výrazně nepřesné/spomé. V případě, že senzory zaznamenají, že v pravém pruhu se nachází objekt/auto s jistou pravděpodobností a s jistou pravděpodobností i v levém pruhu (v tomto případě je v levém pruhu pouze stín, nezvyklý odraz světla, nebo cokoli, co mimikruje přítomnost objektu/auta). Dle Gaussovského rozložení by se objekt nacházel někde mezi těmito „objekty“, což bude v obou případech nesprávně.Another close solution is disclosed in US 7289906 B2. This solution deals with the fusion of data from sensors using Kalman filters and Gaussian probability distribution. It is the Gaussian distribution that has one significant disadvantage if the measurement is significantly inaccurate / slow. If the sensors detect that there is an object / car in the right lane with a certain probability and with a certain probability in the left lane (in this case there is only a shadow, unusual reflection of light in the left lane, or anything that mimics the presence of the object / car ). According to the Gaussian distribution, the object would be somewhere between these "objects", which will be incorrect in both cases.
Proto by bylo vhodné nalézt řešení, které by spojovalo výhody globálního přístupu, tedy vysoké přesnosti a spolehlivosti fúze dat a výhody lokálního přístupu, tedy nízké výpočtové náročnosti, a tedy rychlému zpracování dat, a to za současné eliminace nevýhod obou přístupů. Zároveň by nové řešení mělo umět pracovat s pravděpodobnostním rozložením jiným, než Gaussovským a bylo by schopno dosáhnout vysokou přesnost a opakovatelnost měření v reálném čase.Therefore, it would be appropriate to find a solution that would combine the advantages of the global approach, ie high accuracy and reliability of data fusion, and the advantages of the local approach, ie low computational complexity, and thus fast data processing, while eliminating the disadvantages of both approaches. At the same time, the new solution should be able to work with a probability distribution other than Gaussian and would be able to achieve high accuracy and repeatability of measurements in real time.
Podstata vynálezuThe essence of the invention
Senzorický systém s rychlou skupinovou fúzí pro získání modelu objektů v jeho okolí přináší řešení pro výše popsané problémy. Vynález spojuje výhody již zmíněného globálního a lokálního přístupu a eliminuje jejich nevýhody. Vynález řeší nedostatky citovaných řešení v citovaných dokumentech, tedy pracuje s celým pravděpodobnostním rozložením stavu daného objektu, nebo skupiny objektů, a ne jenom s těmi nejpravděpodobnějšími, tedy vynález je použitelný jak pro aplikace například v námořní či letecké dopravě, tak i pro aplikace v silničním provozu. Vynález dále dokáže pracovat s obecným pravděpodobnostním rozložením, ne jenom s Gaussovským, a tudíž je použitelný pro širokou škálu aplikací.The sensor system with fast group fusion to obtain a model of objects in its vicinity provides a solution to the problems described above. The invention combines the advantages of the already mentioned global and local approach and eliminates their disadvantages. The invention solves the shortcomings of the cited solutions in the cited documents, ie it works with the whole probability distribution of the state of a given object or group of objects, and not only with the most probable ones, so the invention is applicable to applications such as sea or air transport and road applications. operation. Furthermore, the invention can work with a general probability distribution, not just a Gaussian one, and is therefore applicable to a wide range of applications.
- 2 CZ 308605 B6- 2 CZ 308605 B6
Vynález zahrnuje senzorický systém s rychlou skupinovou fúzí pro vytvoření modelu objektů ve svém okolí, přičemž zahrnuje alespoň dva senzory, alespoň jeden procesor, predikční modul, skupinový modul, modul modelu měření, vzorkovací modul a výstupní modul, který se vyznačuje tím, že zahrnuje kroky:The invention includes a fast group fusion sensor system for modeling an object in its vicinity, comprising at least two sensors, at least one processor, a prediction module, a group module, a measurement model module, a sampling module, and an output module comprising the steps of: :
- odeslání pravděpodobnostních rozložení predikovaných stavů objektů z predikčního modulu do skupinového modulu, kde jsou objekty zařazeny do alespoň jedné skupiny objektů, která je popsaná pravděpodobnostním rozložením stavu skupiny objektů, přičemž vzdálenost v měřicím prostoru mezi každými dvěma objekty patřícími do stejné skupiny objektů je menší než daný práh, kde práh je přednastavená fixní hodnota, nebo plovoucí hodnota závislá na konkrétním měření;- sending the probability distributions of the predicted states of the objects from the prediction module to the group module, where the objects are included in at least one group of objects described by the probability distribution of the state of the group of objects, the distance in the measuring space between every two objects belonging to the same group of objects a given threshold, where the threshold is a preset fixed value, or a floating value depending on the particular measurement;
- odeslání stavů objektů zaznamenaných senzory ze senzorů do modulu modelu měření, kde jsou převedeny na pravděpodobnostní rozložení stavů objektů zaznamenaných senzory;- sending the states of the objects recorded by the sensors from the sensors to the measurement model module, where they are converted into a probabilistic distribution of the states of the objects recorded by the sensors;
- odeslání pravděpodobnostních rozložení stavů objektů zaznamenaných senzory a pravděpodobnostních rozložení stavů alespoň jedné skupiny objektů do vzorkovacího modulu;- sending probabilistic state distributions of the objects detected by the sensors and probabilistic state distributions of at least one group of objects to the sampling module;
- generování korigovaného pravděpodobnostního rozložení stavu skupiny objektů na základě pravděpodobnostních rozložení stavů objektů zaznamenaných senzory agenerating a corrected probability state distribution of the group of objects based on the probability distributions of the states of the objects detected by the sensors, and
- pravděpodobnostního rozložení stavu této skupiny objektů probíhající ve vzorkovacím modulu pomocí Gibbsova vzorkování;- the probability distribution of the state of this group of objects taking place in the sampling module by means of Gibbs sampling;
- výběr korigovaných pravděpodobnostních rozložení stavů objektů patřících do skupiny objektů na základě korigovaného pravděpodobnostního rozložení stavu skupiny objektů, do které tyto objekty patří;- selecting the corrected probability distributions of the states of the objects belonging to the group of objects on the basis of the corrected probability distributions of the states of the group of objects to which these objects belong;
- odeslání korigovaných pravděpodobnostních rozložení stavů objektů do výstupního modulu za účelem vytvoření obrazu objektů v okolí zařízení;- sending corrected probabilistic distributions of the states of the objects to the output module in order to create an image of the objects in the vicinity of the device;
- odeslání korigovaných pravděpodobnostních rozložení stavů objektů do predikčního modulu, přičemž predikční modul zahrnuje model chování objektu;- sending corrected probability distributions of object states to the prediction module, wherein the prediction module includes an object behavior model;
- generování pravděpodobnostních rozložení predikovaných stavů objektů, na základě modelu chování objektu a korigovaných pravděpodobnostních rozložení stavů objektů, přičemž pravděpodobnostní rozložení predikovaných stavů objektů zahrnuje odhad budoucího stavu objektů- generating probabilistic distributions of predicted states of objects, based on the model of object behavior and corrected probabilistic distributions of states of objects, wherein the probabilistic distribution of predicted states of objects includes an estimate of the future state of objects
Vynález dále zahrnuje způsob v rychlé skupinové fúze pro získání modelu objektů v okolí senzorického systému zahrnujícího alespoň jeden procesor, alespoň dva senzory, predikční modul, skupinový modul, modul modelu měření, vzorkovací modul a výstupní modul, přičemž způsob vytvoření obrazu objektů v okolí takového zařízení, který se vyznačuje tím, že zahrnuje kroky:The invention further includes a fast group fusion method for obtaining an object model in the vicinity of a sensor system comprising at least one processor, at least two sensors, a prediction module, a group module, a measurement model module, a sampling module, and an output module. , characterized in that it comprises the steps of:
- odeslání pravděpodobnostních rozložení predikovaných stavů objektů z predikčního modulu do skupinového modulu, kde jsou objekty zařazeny do alespoň jedné skupiny objektů, která je popsaná pravděpodobnostním rozložením stavu skupiny objektů, přičemž vzdálenost v měřicím prostoru mezi každými dvěma objekty patřícími do stejné skupiny objektů je menší než daný práh, kde práh je přednastavená fixní hodnota, nebo plovoucí hodnota závislá na konkrétním měření;- sending the probability distributions of the predicted states of the objects from the prediction module to the group module, where the objects are included in at least one group of objects described by the probability distribution of the state of the group of objects, the distance in the measuring space between every two objects belonging to the same group of objects a given threshold, where the threshold is a preset fixed value, or a floating value depending on the particular measurement;
- odeslání stavů objektů zaznamenaných senzory ze senzorů do modulu modelu měření, kde jsou převedeny na pravděpodobnostní rozložení stavů objektů zaznamenaných senzory;- sending the states of the objects recorded by the sensors from the sensors to the measurement model module, where they are converted into a probabilistic distribution of the states of the objects recorded by the sensors;
-3CZ 308605 B6-3GB 308605 B6
- odeslání pravděpodobnostních rozložení stavů objektů zaznamenaných senzory a pravděpodobnostních rozložení stavů alespoň jedné skupiny objektů do vzorkovacího modulu;- sending probabilistic state distributions of the objects detected by the sensors and probabilistic state distributions of at least one group of objects to the sampling module;
- generování korigovaného pravděpodobnostního rozložení stavu skupiny objektů na základě pravděpodobnostních rozložení stavů objektů zaznamenaných senzory a pravděpodobnostního rozložení stavu této skupiny objektů probíhající ve vzorkovacím modulu pomocí Gibbsova vzorkování;- generating a corrected probability state distribution of the group of objects based on the probability distributions of the states of the objects recorded by the sensors and the probability distribution of the state of this group of objects taking place in the sampling module by Gibbs sampling;
- výběr korigovaných pravděpodobnostních rozložení stavů objektů patricích do skupiny objektů na základě korigovaného pravděpodobnostního rozložení stavu skupiny objektů, do které tyto objekty patří;- selecting the corrected probability distributions of the states of the objects belonging to the group of objects on the basis of the corrected probability distributions of the states of the group of objects to which these objects belong;
- odeslání korigovaných pravděpodobnostních rozložení stavů objektů do výstupního modulu za účelem vytvoření obrazu objektů v okolí zařízení;- sending corrected probabilistic distributions of the states of the objects to the output module in order to create an image of the objects in the vicinity of the device;
- odeslání korigovaných pravděpodobnostních rozložení stavů objektů do predikčního modulu, přičemž predikční modul zahrnuje model chování objektu;- sending corrected probability distributions of object states to the prediction module, wherein the prediction module includes an object behavior model;
- generování pravděpodobnostních rozložení predikovaných stavů objektů, na základě modelu chování objektu a korigovaných pravděpodobnostních rozložení stavů objektů, přičemž pravděpodobnostní rozložení predikovaných stavů objektů zahrnuje odhad budoucího stavu objektů- generating probabilistic distributions of predicted states of objects, based on the model of object behavior and corrected probabilistic distributions of states of objects, wherein the probabilistic distribution of predicted states of objects includes an estimate of the future state of objects
V alternativním provedení vynález zahrnuje způsob řízení vozidla s rychlou skupinovou fúzí pro získání modelu objektů v jeho okolí zahrnujícího alespoň dva senzory, alespoň jeden procesor, predikční modul, skupinový modul, model měření, vzorkovací modul a výstupní modul, přičemž způsob vytvoření obrazu objektů v okolí takového zařízení, který se vyznačuje tím, že zahrnuje kroky:In an alternative embodiment, the invention includes a method of driving a fast group fusion vehicle to obtain a model of objects in its vicinity comprising at least two sensors, at least one processor, a prediction module, a group module, a measurement model, a sampling module, and an output module. such a device, characterized in that it comprises the steps of:
- odeslání pravděpodobnostních rozložení predikovaných stavů objektů z predikčního modulu do skupinového modulu, kde jsou objekty zařazeny do alespoň jedné skupiny objektů, která je popsaná pravděpodobnostním rozložením stavu skupiny objektů, přičemž vzdálenost v měřicím prostoru mezi každými dvěma objekty patřícími do stejné skupiny objektů je menší než daný práh, kde práh je přednastavená fixní hodnota, nebo plovoucí hodnota závislá na konkrétním měření;- sending the probability distributions of the predicted states of the objects from the prediction module to the group module, where the objects are included in at least one group of objects described by the probability distribution of the state of the group of objects, the distance in the measuring space between every two objects belonging to the same group of objects a given threshold, where the threshold is a preset fixed value, or a floating value depending on the particular measurement;
- odeslání stavů objektů zaznamenaných senzory ze senzorů do modulu modelu měření, kde jsou převedeny na pravděpodobnostní rozložení stavů objektů zaznamenaných senzory;- sending the states of the objects recorded by the sensors from the sensors to the measurement model module, where they are converted into a probabilistic distribution of the states of the objects recorded by the sensors;
- odeslání pravděpodobnostních rozložení stavů objektů zaznamenaných senzory a pravděpodobnostních rozložení stavů alespoň jedné skupiny objektů do vzorkovacího modulu;- sending probabilistic state distributions of the objects detected by the sensors and probabilistic state distributions of at least one group of objects to the sampling module;
- generování korigovaného pravděpodobnostního rozložení stavu skupiny objektů na základě pravděpodobnostních rozložení stavů objektů zaznamenaných senzory a pravděpodobnostního rozložení stavu této skupiny objektů probíhající ve vzorkovacím modulu pomocí Gibbsova vzorkování;- generating a corrected probability state distribution of the group of objects based on the probability distributions of the states of the objects recorded by the sensors and the probability distribution of the state of this group of objects taking place in the sampling module by Gibbs sampling;
- výběr korigovaných pravděpodobnostních rozložení stavů objektů patřících do skupiny objektů na základě korigovaného pravděpodobnostního rozložení stavu skupiny objektů, do které tyto objekty patří;- selecting the corrected probability distributions of the states of the objects belonging to the group of objects on the basis of the corrected probability distributions of the states of the group of objects to which these objects belong;
- odeslání korigovaných pravděpodobnostních rozložení stavů objektů do výstupního modulu za účelem vytvoření obrazu objektů v okolí automobilu;- sending corrected probabilistic distributions of the states of the objects to the output module in order to create an image of the objects around the car;
-4CZ 308605 B6-4GB 308605 B6
- odeslání korigovaných pravděpodobnostních rozložení stavů objektů do predikčního modulu, přičemž predikční modul zahrnuje model chování objektu;- sending corrected probability distributions of object states to the prediction module, wherein the prediction module includes an object behavior model;
- generování pravděpodobnostních rozložení predikovaných stavů objektů, na základě modelu chování objektu a korigovaných pravděpodobnostních rozložení stavů objektů, přičemž pravděpodobnostní rozložení predikovaných stavů objektů zahrnuje odhad budoucího stavu objektů;- generating probability distributions of the predicted states of the objects, based on the object behavior model and the corrected probability distributions of the states of the objects, wherein the probability distribution of the predicted states of the objects comprises estimating the future state of the objects;
- změna alespoň jednoho z jízdních parametrů automobilu zahrnující rychlost, nebo směr jízdy na základě korigovaných pravděpodobnostních rozložení stavů objektů, které byly odeslány a zpracovány ve vstupním modulu.- change of at least one of the driving parameters of the car, including the speed or direction of travel, based on the corrected probability distributions of the states of the objects that have been sent and processed in the input module.
Objasnění výkresůExplanation of drawings
Podstata vynálezu j e dále obj asněna na příkladech j eho uskutečnění, které j sou popsány s využitím připojených výkresů, kde na:The essence of the invention is further elucidated on the basis of examples of its embodiment, which are described with the aid of the accompanying drawings, where in:
obr. 1 schematicky znázorněna interakce predikčního modulu s jednotlivými prvky korekčního modulu;Fig. 1 schematically shows the interaction of a prediction module with individual elements of a correction module;
obr. 2 je schéma celého systému;Fig. 2 is a diagram of the whole system;
obr. 3 znázorňuje vozidlo jenž využívá systém pro vytvoření obrazu objektů v okolí a způsob řízení vozidla.Fig. 3 shows a vehicle that uses a system to create an image of objects in the environment and a method of driving the vehicle.
Příklady uskutečnění vynálezuExamples of embodiments of the invention
Pro zaznamenávání okolí senzorického systému jev prvním řade nevyhnutelný velký počet spolehlivých senzorů 3 různých typů. V prvním příkladu provedení vynálezu jsou jako senzory 3 použity vizuální kamery, RADAR a LiDAR. Alternativně však mohou být použity dvě nebo více kamer, kombinace libovonného počtu radarů a kamer, kombinace libovolného množství lidarů a kamer či libovolné kombinace výše uvedených a dalších v této přihlášce neuvedených senzorů 3 schopných snímat alespoň jeden ze skupiny parametrů zahrnující rychlost, velikost, vzdálenost, tvar, barvu a typ objektu.For recording the surroundings of the sensor system, a large number of reliable sensors of 3 different types are inevitable in the first place. In the first embodiment of the invention, visual cameras, RADAR and LiDAR are used as sensors 3. Alternatively, however, two or more cameras may be used, a combination of any number of radars and cameras, a combination of any number of lidars and cameras or any combination of the above and other sensors 3 not disclosed in this application capable of sensing at least one of a group of parameters including speed, size, distance, shape, color and type of object.
Kamery jsou nej výhodnějšími a nej používanějšími senzory 3 pro senzorické systémy, jakými jsou například autonomní vozidla, nebo vozidla s asistenčními systémy. Standardní kamery poskytují dvojdimenzionální obraz (2D kamery), nicméně někdy jsou používány i kamery poskytující virtuální troj dimenzionální obraz (3D kamery). V případě 3D kamer je pro vytvoření troj dimenzionálního obrazu potřeba čtyř až šesti kusů kamer. V prvním příkladu provedení vynálezu, kdy je aplikován na senzorickém systému, je použito pěti kamer, kde je jedna kamera namířena směrem před senzorický systém, jedna kamera je namířena nahoru nad senzorický systém, jednaje namířena dozadu, jedna nalevo a jedna napravo od senzorického systému.Cameras are the most advantageous and most used sensors 3 for sensor systems, such as autonomous vehicles or vehicles with assistance systems. Standard cameras provide two-dimensional images (2D cameras), however, sometimes cameras providing virtual three-dimensional images (3D cameras) are also used. In the case of 3D cameras, four to six cameras are needed to create a three-dimensional image. In a first embodiment of the invention, when applied to a sensor system, five cameras are used, where one camera is pointed in front of the sensor system, one camera is pointed upwards above the sensor system, one pointed backwards, one to the left and one to the right of the sensor system.
LiDAR je zařízení použitelné pro zjištění prostorového monochromatického obrazu jednotlivých objektů zachycených jiným senzorem 3 (např. kamerou). Další výhodou LiDARu je schopnost zachytit malé objekty, které by RADAR zachytit nemohl, a to díky tomu, že vlnová délka elektromagnetického záření v něm použita je mnohem nižší než u radaru. Nevýhoda oproti RADARu je vtom, že není použitelný pro velké vzdálenosti. Mezní vzdáleností pro spolehlivou použitelnost LiDARu zpravidla nepřekračuje 50 až 200 metrů. Poslední nevýhodou je to, že LiDAR není použitelný při oblačném počasí, nebo dešti. V prvním provedení vynálezu, kdy jeLiDAR is a device usable for detecting the spatial monochromatic image of individual objects captured by another sensor 3 (eg a camera). Another advantage of LiDAR is the ability to capture small objects that RADAR could not detect, due to the fact that the wavelength of electromagnetic radiation used in it is much lower than that of radar. The disadvantage compared to RADAR is that it is not usable for long distances. The limit distance for reliable usability of LiDAR usually does not exceed 50 to 200 meters. The last disadvantage is that LiDAR is not usable in cloudy weather or rain. In a first embodiment of the invention, when is
-5CZ 308605 B6 aplikován na senzorickém systému, je použito čtyř LiDAR senzorů 3, z nichž je jeden namířen dopředu napravo od senzorického systému, jeden je namířen dopředu nalevo, jeden je namířen dozadu napravo a jeden je namířen dozadu na nalevo.-5GB 308605 B6 applied to the sensor system, four LiDAR sensors 3 are used, one pointing forward to the right of the sensor system, one pointing forward to the left, one pointing backwards to the right, and one pointing backwards to the left.
RADAR je spolehlivý a cenově dostupný senzor 3 využíván pro zjištění vzdálenosti jednotlivých objektů, a to i ve špatném počasí a na velice dlouhé vzdálenosti. Jeho použití je ale omezeno tím, že kvůli velké vlnové délce použitého elektromagnetického záření není možno detekovat malé objekty a také není možno zkoumat jejich přesný tvar. V prvním provedení vynálezu, kdy je aplikován na senzorickém systému se na senzorickém systému nachází šest RADARových senzorů 3, přičemž dva jsou namířené dopředu, jeden je namířen doprava, jeden je namířen doleva a dva jsou namířeny dozadu za senzorický systém.RADAR is a reliable and affordable sensor 3 used to determine the distance of individual objects, even in bad weather and over very long distances. However, its use is limited by the fact that due to the large wavelength of the electromagnetic radiation used, it is not possible to detect small objects and also to examine their exact shape. In a first embodiment of the invention, when applied to a sensor system, there are six RADAR sensors 3 on the sensor system, two facing forward, one facing right, one facing left and two facing backwards behind the sensor system.
Každý prostorový útvar zaznamenaný alespoň jedním senzorem 3 nazýváme objektem. Různé senzory 3 zaznamenají jeho různé parametry, kterými jsou nej častěji rychlost, velikost, tvar, vzdálenost, barva, nebo typ objektu, přičemž pod pojmem typ objektu se rozumí, jestli se jedná například o člověka, automobil, zvíře apod. Alespoň jeden parametr je změřen alespoň jedním senzorem 3. Hodnota každého parametru změřeného senzorem 3 je absolutní, tj. má konkrétní hodnotu. Jak již bylo uvedeno, hodnoty jednoho parametru pro jeden objekt změřené dvěma senzory 3 ve stejný čas se můžou lišit, a proto systém musí rozhodnout která z těchto hodnot více odpovídá realitě, přičemž nej výhodnějším a nej spolehlivějším řešením tohoto problému je převedení všech hodnot do pravděpodobnostního rozložení. Souhrnným parametrem každého objektu nesoucí v sobě informace o změřených parametrech je stav objektu. Alespoň jeden stav 5 objektu zaznamenaného senzory 3 je odeslán k fúzi za účelem vytvoření obrazu objektů v okolí senzorického systému. Samotná fúze probíhá na základě iterativního mechanismu na principu predikce - korekce, přičemž fúnkce celého mechanizmu je znázorněna na obr. 2. To znamená, že jednu iteraci fúze lze rozdělit na dvě základní fáze, kterými jsou predikční fáze a korekční fáze. Je to mechanizmus podobný mechanizmu, pomocí kterého lidský mozek zpracovává informace o svém okolním prostředí. V případě lidského mozku jsou jeho senzory 3 oči, uši, chuťové kanálky apod. a každý signál ze senzoru 3 je porovnáván s obrazem okolního světa, který si lidský mozek vytvořil na základě předešlých dat a na základě porovnávání tento obraz okolního světa stále průběžně aktualizuje.Each spatial formation detected by at least one sensor 3 is called an object. Different sensors 3 record its various parameters, which are most often speed, size, shape, distance, color, or type of object, the term object type meaning whether it is, for example, a human, car, animal, etc. At least one parameter is measured by at least one sensor 3. The value of each parameter measured by sensor 3 is absolute, ie it has a specific value. As already mentioned, the values of one parameter for one object measured by two sensors 3 at the same time may differ, and therefore the system must decide which of these values corresponds more to reality, while the most advantageous and reliable solution to this problem is to convert all values to probabilistic. layout. The summary parameter of each object carrying information about the measured parameters is the state of the object. At least one state 5 of the object detected by the sensors 3 is sent for fusion in order to create an image of the objects in the vicinity of the sensor system. The fusion itself takes place on the basis of an iterative mechanism based on the principle of prediction - correction, while the function of the whole mechanism is shown in Fig. 2. This means that one iteration of fusion can be divided into two basic phases, which are prediction phases and correction phases. It is a mechanism similar to the one by which the human brain processes information about its environment. In the case of the human brain, its sensors 3 are eyes, ears, taste canals, etc., and each signal from sensor 3 is compared with an image of the surrounding world created by the human brain based on previous data and constantly updates this image of the surrounding world.
Senzorický systém s rychlou skupinovou fúzí pro vytvoření modelu objektů v jeho okolí zahrnuje alespoň jeden procesor 11 a alespoň jednu úložnou paměť. V prvním provedení vynálezu využívají všechny popsané moduly jeden společný procesor 11 a jednu společnou úložnou paměť. V alternativním provedení využívá každý modul vlastní úložnou paměť a vlastní procesor 11. nebo některé moduly navzájem procesory 11 a úložné paměti sdílejí.The fast group fusion sensor system for creating a model of objects in its vicinity comprises at least one processor 11 and at least one storage memory. In a first embodiment of the invention, all the described modules use one common processor 11 and one common storage memory. In an alternative embodiment, each module uses its own storage memory and its own processor 11, or some modules share processors 11 and storage memories with each other.
Korekční fáze probíhá v korekčním modulu 2. Během korekční fáze dochází ke korekci stavů objektů. Tři hlavní procesy probíhající v korekční fázi jsou převádění stavů 5 objektů zaznamenaných senzory 3 do pravděpodobnostního rozložení, rozdělování objektů do skupin 6 objektů a Gibbsovo vzorkování.The correction phase takes place in correction module 2. During the correction phase, the states of the objects are corrected. The three main processes taking place in the correction phase are the conversion of the states of 5 objects detected by the sensors 3 into a probability distribution, the division of objects into groups of 6 objects and Gibbs sampling.
Vstupními informacemi do korekční fáze jsou stavy 5 objektů zaznamenané senzory 3, které v sobě nesou konkrétní hodnoty jednotlivých parametrů popisujících daný objekt a pravděpodobnostní rozložení 4 predikovaných stavů objektů, přičemž pravděpodobnostní rozložení 4 predikovaných stavů objektů jsou produktem předešlé iterace aje reprezentován pravděpodobnostním rozložením stavu příslušných objektů. Jak stavy 5 objektů zaznamenaných senzory 3 tak pravděpodobnostní rozložení 4 predikovaných stavů objektů v sobě nesou informaci alespoň o jednom z parametrů objektu zahrnující rychlost, vzdálenost, velikost a tvar. Stavy 5 objektů zaznamenaných senzory můžou přímo obsahovat informaci o jednom konkrétním parametru, jako například vzdálenost objektu, nebo mohou tuto informaci v sobě nést nepřímo. Příkladem nepřímé informace o parametru je například případ, kdy je známá vzdálenost objektu v čase ti a vzdálenost objektu v čase Ϊ2, přičemž tyto parametry nesou nepřímo informaci o rychlosti daného objektu. Rychlost tohoto objektu je pak v prvním provedení určena v modulu 22 modelu měření. V prvním provedeníThe input information to the correction phase is the states 5 of the objects recorded by the sensors 3, which carry specific values of individual parameters describing the object and the probability distribution 4 of predicted states of objects, the probability distributions 4 of predicted states of objects . Both the states 5 of the objects detected by the sensors 3 and the probability distribution 4 of the predicted states of the objects carry information about at least one of the parameters of the object including speed, distance, size and shape. The states of the 5 objects detected by the sensors may directly contain information about one particular parameter, such as the distance of the object, or they may carry this information indirectly. An example of indirect parameter information is, for example, the case where the distance of an object at time t1 and the distance of an object at time Ϊ2 are known, and these parameters indirectly carry information about the velocity of the object. The speed of this object is then determined in the first embodiment in the module 22 of the measurement model. In the first embodiment
-6CZ 308605 B6 jsou pravděpodobnostní rozložení 4 predikovaných stavů objektů odeslána z predikčního modulu 1 do skupinového modulu 21. přičemž skupinový modul 21 je implementován v korekčním modulu 2. Skupinový modul 21 zahrnuje úložnou paměť pro uložení vstupních informací a procesor 11 na kterém je implementován skupinový algoritmus, který roztřiďuje všechny objekty, popsané pravděpodobnostními rozloženími 4 predikovaných stavů objektů do alespoň jedné skupiny 6 objektů v závislosti na jejich vzájemné vzdálenosti v prostoru měření, kde libovolné dva objekty zařazené do různých skupin 6 objektů jsou od sebe vzájemně vzdáleny v prostoru měření více, než je daný práh. Libovolné dva objekty zařazené do stejné skupiny 6 objektů jsou od sebe vzdáleny v prostoru měření méně než daný práh. Práh je v prvním provedení předem pevně nastavená hodnota vzdálenosti v prostoru měření. V alternativním provedení je hodnota prahu pohyblivá, tzv. plovoucí hodnota, což znamená, že hodnota vzdálenosti v měřicím prostoru odpovídající prahu se dynamicky mění v průběhu iterací. Minimální počet skupin 6 objektů je jedna a maximální počet skupin 6 objektů není omezen. Aktuální počet skupin 6 objektů je definován vždy jednotlivými objekty a jejich vzájemnými vzdálenostmi v prostoru měření. Platí přitom, že minimální počet objektů ve skupině 6 objektů jsou dva a jeden objekt může patřit pouze do jedné skupiny 6 objektů. Skupinovým algoritmem je libovolný algoritmus, jehož výstup splňuje výše uvedené požadavky, například následující:The probability distributions 4 of the predicted object states are sent from the prediction module 1 to the group module 21. The group module 21 is implemented in the correction module 2. The group module 21 includes a storage memory for storing input information and a processor 11 on which the group module is implemented. an algorithm that classifies all objects described by probabilistic distributions of 4 predicted states of objects into at least one group of 6 objects depending on their mutual distance in the measurement space, where any two objects included in different groups of 6 objects are more distant from each other in the measurement space, than the given threshold. Any two objects included in the same group of 6 objects are spaced apart in the measurement space less than the given threshold. In the first embodiment, the threshold is a preset distance value in the measuring space. In an alternative embodiment, the threshold value is movable, the so-called floating value, which means that the value of the distance in the measuring space corresponding to the threshold changes dynamically during iterations. The minimum number of groups of 6 objects is one and the maximum number of groups of 6 objects is not limited. The current number of groups of 6 objects is always defined by individual objects and their mutual distances in the measurement space. It is true that the minimum number of objects in a group of 6 objects is two and one object can belong to only one group of 6 objects. A group algorithm is any algorithm whose output meets the above requirements, such as the following:
V prvním krokuje pro každý objekt vytvořena jedna skupina objektů, která obsahuje právě tento objekt;In the first step, one group of objects is created for each object, which contains this object;
V druhém kroku, pokud existují dvě skupiny objektů soi a s02, jejichž některé dva objekty oi náleží do Soi a 02 náleží do s02 a zároveň jsou oi a 02 o sebe vzájemně vzdáleny v prostoru měření méně nebo stejně, než je daný práh, jsou skupiny objektů soi a s02 sloučeny do jedné skupiny;In the second step, if there are two groups of objects s o ias 0 2, some two objects oi belong to Soi and 02 belong to s 0 2 and at the same time oi and 02 are spaced apart from each other in the measurement space less than or equal to threshold, groups of objects with o ias 0 2 are merged into one group;
Druhý krok je opakován, dokud existují alespoň dvě skupiny pro sloučení, jinak je proces rozdělování do skupin 6 objektů ukončen.The second step is repeated until there are at least two groups to merge, otherwise the process of dividing into groups of 6 objects is completed.
Výstupem ze skupinového modulu 21 je minimálně jedna skupina 6 objektů, která je popsána pravděpodobnostním rozložením stavu skupiny 6 objektů, přičemž skupina 6 objektů obsahuje objekty jejíchž vzájemné vzdálenosti v prostoru měření jsou menší než definovaný práh. Každá skupina 6 objektů sestává z minimálně dvou objektů. Každý objekt patřící do skupiny 6 objektů je charakterizován pravděpodobnostním rozložením stavu objektu. Pravděpodobnostní rozložení stavu každého objektu patřícího do skupiny 6 objektů obsahuje informace o alespoň jednom z parametrů jako rychlost, vzdálenost, tvar, velikost, barva a typ objektu. Pravděpodobnostní rozložení stavu skupiny 6 objektů obsahuje informace o alespoň jednom z parametrů jako rychlost, vzdálenost, tvar, velikost, barva a typ objektu.The output of the group module 21 is at least one group 6 of objects, which is described by the probabilistic distribution of the state of the group of 6 objects, the group of 6 objects containing objects whose mutual distances in the measurement space are less than a defined threshold. Each group of 6 objects consists of at least two objects. Each object belonging to a group of 6 objects is characterized by a probabilistic distribution of the state of the object. The probability state distribution of each object belonging to the group of 6 objects contains information about at least one of the parameters such as speed, distance, shape, size, color and type of the object. The probability state distribution of a group of 6 objects contains information about at least one of the parameters such as speed, distance, shape, size, color and type of the object.
V případě, kdy pravděpodobnostní rozložení 4 predikovaných stavů objektů nejsou k dispozici, jakým je například první iterace, k odeslání pravděpodobnostních rozložení 4 predikovaných stavů objektů do skupinového modulu 21 nedochází a skupinový modul 21 zůstává v rámci takové iterace neaktivní.In the case where the probability distributions 4 of the predicted states of objects are not available, such as the first iteration, the probability distributions of the 4 predicted states of the objects are not sent to the group module 21 and the group module 21 remains inactive within such iteration.
Stavy 5 objektů zaznamenaných senzory jsou ze senzorů 3 odesílány do modulu 22 modelu měření. Stavy 5 objektů zaznamenaných senzory jsou popsány konkrétními naměřenými hodnotami pro alespoň jeden z parametrů jako rychlost, velikost, tvar, vzdálenost, barva, typ objektu apod. Modul 22 modelu měření zahrnuje dočasnou úložnou paměť a procesor 11 a je uzpůsoben na převádění konkrétních hodnot parametrů obsažených ve stavech 5 objektů zaznamenaných senzory do pravděpodobnostního rozložení, přičemž každý objekt je následně popsán komplexním parametrem, kterým je pravděpodobnostní rozložení 10 stavu objektu zaznamenaného senzory a tento komplexní parametr zahrnuje kombinace všech parametrů jenž byly pro daný objekt změřeny senzory 3. Výstupem z modulu 22 modelu měření tedy je pravděpodobnostní rozložení 10 stavů objektů zaznamenaných senzory.The states of the 5 objects detected by the sensors are sent from the sensors 3 to the module 22 of the measurement model. The states of 5 objects recorded by the sensors are described by specific measured values for at least one of parameters such as speed, size, shape, distance, color, object type, etc. The measurement model module 22 includes temporary storage memory and processor 11 and is adapted to convert specific parameter values contained. in the states of 5 objects recorded by sensors in the probability distribution, each object is subsequently described by a complex parameter, which is the probability distribution 10 of the state of the object recorded by sensors, and this complex parameter includes combinations of all parameters measured for the object by sensors 3. the measurement is thus the probability distribution of 10 states of objects detected by the sensors.
-7 CZ 308605 B6-7 CZ 308605 B6
Stavy 5 objektů zaznamenaných senzory jsou ze senzorů 3 odesílány do modulu 22 modelu měření. Modul 22 modelu měření zahrnuje dočasnou úložnou paměť a procesor 11 a je uzpůsoben na převádění konkrétních hodnot parametrů obsažených ve stavech 5 objektů zaznamenaných senzory a uloženého měření zaznamenaného senzory 3 na pravděpodobnost odpovídající pravděpodobnosti, že senzory 3 by v situaci popsané parametry obsaženými ve stavech 5 objektů zaznamenaných senzory zaznamenaly dané měření. Tato pravděpodobnost a její rozložení je popsána pravděpodobnostním rozložením 10 stavů objektů zaznamenaných senzory. Modul 22 modelu měření je opakovaně využíván Gibbsovým vzorkovačem ve vzorkovacím modulu 23.The states of the 5 objects detected by the sensors are sent from the sensors 3 to the module 22 of the measurement model. The measurement model module 22 comprises a temporary storage memory and a processor 11 and is adapted to convert specific values of parameters contained in the states 5 of objects recorded by the sensors and stored measurements recorded by the sensors 3 to a probability corresponding to the probability that the sensors 3 would recorded by the sensors recorded the measurement. This probability and its distribution is described by the probability distribution of 10 states of objects detected by sensors. The measurement model module 22 is repeatedly used by the Gibbs sampler in the sampling module 23.
V prvním příkladu provedení je pravděpodobnostní rozložení stavu alespoň jedné skupin 6 objektů společně s pravděpodobnostními rozloženími 10 stavů objektů zaznamenaných senzory odesláno do vzorkovacího modulu 23. Vzorkovací modul 23 zahrnuje dočasnou úložnou paměť a procesor 11 na kterém je implementován Gibbsův vzorkovač. Prostřednictvím Gibbsova vzorkovače dochází ve vzorkovacím modulu 23 ke korekci pravděpodobnostních rozložení 10 stavů objektů zaznamenaných senzory a pravděpodobnostního rozložení stavu alespoň jedné skupiny 6 objektů. Při procesu korekce dochází v první fázi k výpočtu takzvaného korigovaného pravděpodobnostního rozložení stavu skupiny 6 objektů na základě pravděpodobnostního rozložení stavu té stejné skupiny 6 objektů a pravděpodobnostních rozložení 10 stavů objektů zaznamenaných senzory. Korigovaným pravděpodobnostním rozložením stavu skupiny 6 objektů jsou popsány parametry této skupiny 6 objektů jako celku a zároveň parametry jednotlivých objektů v této skupině 6 objektů obsažených.In the first exemplary embodiment, the probability state distribution of the at least one group 6 of objects together with the probability distributions 10 of the object states recorded by the sensors is sent to the sampling module 23. The sampling module 23 comprises temporary storage and a processor 11 on which a Gibbs sampler is implemented. By means of a Gibbs sampler, the probability distributions 10 of the states of the objects recorded by the sensors and the probability distributions of the states of at least one group of 6 objects are corrected in the sampling module 23. In the first phase of the correction process, the so-called corrected probability state distribution of a group of 6 objects is calculated based on the probability state distribution of the same group of 6 objects and the probability distributions of 10 states of objects detected by the sensors. The corrected probabilistic distribution of the state of a group of 6 objects describes the parameters of this group of 6 objects as a whole and at the same time the parameters of individual objects contained in this group of 6 objects.
Při výpočtu korigovaného pravděpodobnostního rozložení stavu skupiny 6 objektů nedochází k úplné eliminaci nepravděpodobných stavů skupiny 6 objektů. Pro zjednodušení výpočtové náročnosti celého procesu je počet jednotlivých možných stavů skupiny 6 objektů v rámci jeho pravděpodobnostního rozložení redukován na předem definovaný počet stavů, přičemž v prvním příkladu provedení je tento definovaný počet stavů 100 000. Přičemž distribuční fiinkce pravděpodobnostního rozložení stavu skupiny 6 objektů po takové redukci má stejný tvar, ale je složena z menšího počtu jednotlivých možných stavů, čímž je dosaženo zachování přesnosti měření a zároveň zjednodušení výpočetní náročnosti. A toho je dosaženo použitím Gibbsova vzorkování, při němž je brán do úvahy každý, i nejméně pravděpodobný stav objektu zahrnutý v pravděpodobnostním rozložení stavu skupiny 6 objektů. Každý stav skupiny 6 objektů zahrnutý v pravděpodobnostním rozložení stavu této skupiny 6 objektů ovlivní korigované pravděpodobnostní rozložení stavu skupiny 6 objektů, nicméně míra takového ovlivnění je dána právě pravděpodobností toho stavu. To znamená, že méně pravděpodobné stavy z pravděpodobnostního rozložení stavu skupiny 6 objektů ovlivní korigované pravděpodobnostní rozložení stavu skupiny 6 objektů méně, než více pravděpodobné stavy z pravděpodobnostního rozložení stavu skupiny 6 objektů a možnost uplatnění méně pravděpodobných stavů, tedy možnost, že méně pravděpodobné stavy jsou pravdivé je dána právě jejich pravděpodobností. Proces Gibbsova vzorkování je popsán následovně:When calculating the corrected probability distribution of the state of a group of 6 objects, improbable states of a group of 6 objects are not completely eliminated. To simplify the computational complexity of the whole process, the number of individual possible states of a group of 6 objects within its probability distribution is reduced to a predefined number of states, while in the first embodiment this defined number of states is 100,000. The reduction has the same shape, but is composed of a smaller number of individual possible states, which achieves the preservation of measurement accuracy and at the same time simplifies computational complexity. And this is achieved by using Gibbs sampling, which takes into account each, even the least probable state of an object included in the probability distribution of the state of a group of 6 objects. Each state of a group of 6 objects included in the probability distribution of the state of this group of 6 objects will affect the corrected probability distribution of the state of the group of 6 objects, however, the degree of such influence is determined by the probability of that state. This means that less probable states from the probabilistic state distribution of a group of 6 objects will affect the corrected probability state distribution of a group of 6 objects less than more probable states from the probabilistic state distribution of a group of 6 objects and the possibility of applying less probable states, ie the possibility that less probable states are the truth is given precisely by their probability. The Gibbs sampling process is described as follows:
Existuje (z předchozího postupu) skupina 6 n objektů, které je třeba vyhodnotit v systému společně. Rozložení pravděpodobnosti stavu každého objektu i je reprezentováno množinou vzorků S, (i zThere is (from the previous procedure) a group of 6 n objects that need to be evaluated in the system together. The probability distribution of the state of each object i is represented by the set of samples S, (i z
Cílem je získat společné rozložení pravděpodobnosti pro skupinu objektů tedy p vzorků. Proces Gibbsova vzorkování používá hodnotící fiinkci f(X), kde Xj = (xij,X2j, ... xn]), která pošle konkrétní stavy objektů X do modulu 22 modelu měření a vrací pravděpodobnost vypočítanou modulem 22 modelu měřeníThe aim is to obtain a common probability distribution for a group of objects, ie p samples. The Gibbs sampling process uses the evaluation function f (X), where Xj = (xij, X2j, ... x n] ), which sends specific states of X objects to the measurement model module 22 and returns the probability calculated by the measurement model module 22
Náhodně je zvolen zvol první vzorek - tj. Xo = (xio, X20 ... xno)The first sample is randomly selected - ie Xo = (xio, X20 ... x n o)
Pro j = 1 do pFor j = 1 to p
Pro k = 1 do nFor k = 1 to n
-8CZ 308605 B6-8GB 308605 B6
Náhodně je zvolen další vzorek z množiny vzorků Sk označme ho x’y a vytvořen alternativní společný stav X’j = (xij, xy, ... x’kj, ... xnj) nahrazením Xkj za x’kj;Randomly, another sample is selected from the set of samples Sk, denote it x'y and create an alternative common state X'j = (xij, xy, ... x'kj, ... x nj ) by replacing Xkj with x'kj;
Je rozhodnuto o akceptaci nového vzorku:It is decided to accept a new sample:
a. zvoleno je náhodné alfa z uniformní distribuce (0..1)a. random alpha from uniform distribution is selected (0..1)
b. pokud f(X’j) / f(Xj) <= alfa akceptuje x’kj a tedy Xj: = Xy end k;b. if f (X’j) / f (Xj) <= alpha accepts x’kj and thus Xj: = Xy end k;
do výsledného společného rozložení je přidán vzorek Xj;sample Xj is added to the resulting common distribution;
endj;endj;
Výsledkem je p vzorků ze společného rozdělení;The result is p samples from a common distribution;
Jednotlivé složky těchto vzorků současně reprezentují nové rozdělení pravděpodobnosti pro jednotlivé objekty po aplikaci daného měření.At the same time, the individual components of these samples represent a new probability distribution for individual objects after the application of a given measurement.
Ve druhé fázi korekce ve vzorkovacím modulu 23 dochází k určení korigovaného pravděpodobnostního rozložení 7 stavu objektů obsažených ve skupině 6 objektů, u níž bylo vypočítáno korigované pravděpodobnostní rozložení stavu skupiny 6 objektů. Určení korigovaného pravděpodobnostního rozložení 7 stavu objektů obsažených ve skupině 6 objektů, u níž bylo vypočítáno korigované pravděpodobnostní rozložení stavu skupiny 6 objektů je umožněno tím, že korigované pravděpodobnostní rozložení stavů skupiny 6 objektů v sobě přímo obsahuje informace o pravděpodobnostním rozložení stavů objektů v této skupině 6 objektů obsažených, tudíž se jedná o výběr těchto informací.In the second phase of the correction in the sampling module 23, the corrected probability distribution 7 of the state of the objects contained in the group 6 of objects is determined, for which the corrected probability distribution of the state of the group 6 of objects has been calculated. Determining the corrected probability state distribution 7 of objects contained in the group 6 of objects for which the corrected probability state distribution of the group 6 objects has been calculated is enabled by the fact that the corrected probability state distribution of the group 6 objects directly contains information on the probability distribution of object states in this group 6. objects contained, so it is a matter of selecting this information.
Korigované pravděpodobnostní rozložení 7 stavu objektu popisuje minimálně jeden parametr objektu jako rychlost, vzdálenost, velikost, tvar, barva a typ objektu a určuje korigovaný stav objektu. Korigované pravděpodobnostní rozložení 7 stavu objektu je pak následně odesláno do výstupního modulu 8. Stejně tak je toto korigované pravděpodobnostní rozložení 7 stavů objektů odesláno do predikčního modulu LThe corrected probability distribution 7 of the object state describes at least one object parameter such as speed, distance, size, shape, color and type of the object and determines the corrected state of the object. The corrected probability distribution 7 of the state of the object is then sent to the output module 8. Likewise, this corrected probability distribution 7 of the state of the objects is sent to the prediction module L
Výstupní modul 8 spojuje korigované pravděpodobnostní rozložení 7 stavů objektů patřících do skupin 6 objektů a utváří z nich obraz objektů v okolí senzorického systému. Výstupním modulem 8 může být například:The output module 8 combines the corrected probability distribution 7 of the states of the objects belonging to the groups 6 of objects and forms from them an image of the objects in the vicinity of the sensor system. The output module 8 can be, for example:
- systém řízení vozidla, který na základě takového obrazu objektů okolí autonomního vozidla mění alespoň jeden z jízdních parametrů automobilu zahrnující směr jízdy, rychlost jízdy, výkon pohonného agregátu, nastavení systému brzd, nastavení natočení kol, změna převodového stupně, nebo změna signalizace. Vozidlo, jenž využívá tento systém je znázorněno na obr. 3;- a vehicle control system which, on the basis of such an image of objects around the autonomous vehicle, changes at least one of the car's driving parameters including direction of travel, speed, power unit output, brake system settings, wheel rotation settings, gear changes or signaling changes. A vehicle using this system is shown in Figure 3;
- asistenční systém pro vozidla, který upozorňuje řidiče/pilota na případné překážky, nebo nebezpečí;- a vehicle assistance system that alerts the driver / pilot to possible obstacles or dangers;
- systém pro projekci komplexní čtyřrozměrné mapy ohraničeného prostoru.- a system for the projection of a complex four-dimensional map of a bounded space.
Systém pro monitorování volných parkovacích míst na parkovišti, kdy jsou na parkovišti rozmístěny různé senzory 3 monitorující obsazenost parkoviště s následnou možnou funkcí nastavení informační tabule volno/obsazeno, a/nebo nastavení navigačních tabulí směřujících řidiče k volným parkovacím místům.System for monitoring free parking spaces in the car park, where various sensors 3 are placed in the car park monitoring the parking space occupancy with the subsequent possible function of setting the information board free / occupied, and / or setting navigation boards directing the driver to free parking spaces.
V predikčním modulu 1 dochází k predikční fázi iterace. Detail na predikční fázi iterace je na obr. 1. Predikční modul 1 zahrnuje úložnou paměť 9 predikčního modulu určenou pro uchovávání pravděpodobnostních rozložení 4 predikovaných stavů objektů a procesor 11 s implementovaným modelem chování objektů. Korigované pravděpodobnostní rozložení 7 stavů objektů z iterace,In the prediction module 1, the prediction phase of the iteration takes place. A detail on the prediction phase of the iteration is shown in Fig. 1. The prediction module 1 comprises a storage memory 9 of the prediction module intended for storing probability distributions 4 of predicted states of objects and a processor 11 with an implemented object behavior model. Corrected probability distribution of 7 states of objects from iteration,
-9CZ 308605 B6 která byla popisována výše, se po odeslání do predikčního modulu 1 stává pravděpodobnostním rozložením predikovaných stavů objektů pro další iteraci.-9EN 308605 B6 which has been described above, after sending to the prediction module 1, it becomes a probabilistic distribution of the predicted states of the objects for the next iteration.
Příklady predikce pomocí modelu chování objektů:Examples of prediction using the object behavior model:
Sledovaný objekt je auto, parametry stavu jsou: pozice (x, y) a rychlost (yx, vy), tedy celý stav je (x, y, vx, Vy).The monitored object is auto, the parameters of the state are: position (x, y) and speed (y x , in y ), so the whole state is (x, y, in x , you).
Predikce má vstupy: 1. korigované pravděpodobnostní rozložení 7 stavu objektu v čase to což je n vzorků ve tvaru (x, y, vx, vy), 2. uplynulý čas pro predikci: dt.The prediction has inputs: 1. corrected probability distribution 7 of the state of the object in time that is n samples in the form (x, y, v x , v y ), 2. elapsed time for prediction: dt.
Výstupem je pravděpodobnostní rozložení 4 predikovaného stavu objektu v čase to + dt, což je m vzorků ve tvaru (x, y, vx, vy).The output is the probability distribution 4 of the predicted state of the object in time to + dt, which is m of samples in the form (x, y, v x , v y ).
PříkladExample
Vstupem je 100 vzorků (0 +- 2, 0 +- 2, 10, 0) tedy auto je přibližně na pozici (0, 0) plus mínus 2 metry, a jede rychlostí 10 m/s dopředu, dt = 1 s, tedy predikce o 1 s dopředu.The input is 100 samples (0 + - 2, 0 + - 2, 10, 0) so the car is approximately in position (0, 0) plus or minus 2 meters, and travels at a speed of 10 m / s forward, dt = 1 s, so prediction 1 s ahead.
Výstupem je 100 vzorků (10+-3, 0+-2.5, 10+- 1, 0 +- 1) tedy je předpokládáno, že auto 1. bude na pozici (10, 0) plus minus (3, 2.5) - nejistota se zvětšuje, 2. pojede rychlostí (10, 0) plus mínus 1 - nejistota rychlosti se zvětšuje.The output is 100 samples (10 + -3, 0 + -2.5, 10 + - 1, 0 + - 1) so it is assumed that car 1. will be in position (10, 0) plus or minus (3, 2.5) - uncertainty increases, 2. travels at speed (10, 0) plus or minus 1 - speed uncertainty increases.
Predikční algoritmus k tomu používá:The prediction algorithm uses:
- fýzikální zákony - pohyb auta s danou rychlostí;- physical laws - movement of a car at a given speed;
- znalost pravděpodobného chování auta/řidiče, jako například to, že pravděpodobně nebude příliš prudce zatáčet.- knowledge of the likely behavior of the car / driver, such as not likely to turn too hard.
Výsledkem toho, že v korekční fázi další iterace jsou použity pravděpodobnostní rozložení 4 predikovaných stavů objektů je to, že systém vyžívající senzorický systém s rychlou skupinovou fůzí dat pro získání modelu objektů v jeho okolí se chová inteligentně. To znamená, že pokud pravděpodobnostní rozložení 10 stavu objektu zaznamenaného senzorem při další iteraci se radikálně změní oproti pravděpodobnostnímu rozložení 4 predikovaného stavu toho stejného objektu, přičemž predikovaný stav objektu je ovlivněn všemi minulými korigovanými stavy objektu, např. kvůli chybě na jednom senzoru 3, systém bude reagovat pružně, což znamená, že odchylku zaregistruje tím, že korigované pravděpodobnostní rozložení 7 stavu objektu další iterace bude zahrnovat informace o pravděpodobnostním rozložení stavu daného objektu z chybného nového měření ze senzoru 3, tedy i informaci o pravděpodobnostním rozložení 10 stavů objektů zaznamenaných senzory a toto korigované pravděpodobnostní rozložení 7 stavu objektu se stává pravděpodobnostním rozložením 4 predikovaného stavu tohoto objektu v následující iteraci.As a result of using the probability distributions of 4 predicted object states in the correction phase of the next iteration, a system using a sensor system with fast group fusion of data to obtain a model of objects in its vicinity behaves intelligently. That is, if the probability distribution 10 of the state of the object detected by the sensor in the next iteration changes radically compared to the probability distribution 4 of the predicted state of the same object, the predicted state of the object being affected by all past corrected object states, e.g. due to an error on one sensor 3. will react flexibly, which means that it registers the deviation by the corrected probability distribution 7 of the state of the object of the next iteration including information on the probability distribution of the state of the object from the erroneous re-measurement from sensor 3, thus also information on the probability distribution of 10 states of objects detected by the sensors; this corrected probability distribution 7 of the state of the object becomes the probability distribution 4 of the predicted state of this object in the following iteration.
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CZ2018-524A CZ308605B6 (en) | 2018-10-01 | 2018-10-01 | Sensory system with fast group fusion to obtain a model of objects in its vicinity |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CZ2018-524A CZ308605B6 (en) | 2018-10-01 | 2018-10-01 | Sensory system with fast group fusion to obtain a model of objects in its vicinity |
Publications (2)
Publication Number | Publication Date |
---|---|
CZ2018524A3 CZ2018524A3 (en) | 2020-06-03 |
CZ308605B6 true CZ308605B6 (en) | 2020-12-30 |
Family
ID=70848243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CZ2018-524A CZ308605B6 (en) | 2018-10-01 | 2018-10-01 | Sensory system with fast group fusion to obtain a model of objects in its vicinity |
Country Status (1)
Country | Link |
---|---|
CZ (1) | CZ308605B6 (en) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130325241A1 (en) * | 2012-06-01 | 2013-12-05 | Google Inc. | Inferring State of Traffic Signal and Other Aspects of a Vehicle's Environment Based on Surrogate Data |
US20150352999A1 (en) * | 2014-06-06 | 2015-12-10 | Denso Corporation | Driving context generation system |
US20160061612A1 (en) * | 2014-09-02 | 2016-03-03 | Hyundai Motor Company | Apparatus and method for recognizing driving environment for autonomous vehicle |
US20160180177A1 (en) * | 2014-12-23 | 2016-06-23 | Volkswagen Ag | Fused raised pavement marker detection for autonomous driving using lidar and camera |
US20170123422A1 (en) * | 2015-11-04 | 2017-05-04 | Zoox, Inc. | Interactive autonomous vehicle command controller |
US9855894B1 (en) * | 2016-09-16 | 2018-01-02 | Volkswagen Aktiengesellschaft | Apparatus, system and methods for providing real-time sensor feedback and graphically translating sensor confidence data |
US20180031384A1 (en) * | 2016-07-28 | 2018-02-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Augmented road line detection and display system |
US20180124423A1 (en) * | 2016-10-28 | 2018-05-03 | Nec Laboratories America, Inc. | Dynamic scene prediction with multiple interacting agents |
EP2865576B1 (en) * | 2013-10-22 | 2018-07-04 | Honda Research Institute Europe GmbH | Composite confidence estimation for predictive driver assistant systems |
US10037613B1 (en) * | 2017-03-30 | 2018-07-31 | Uber Technologies, Inc. | Systems and methods to track vehicles proximate perceived by an autonomous vehicle |
-
2018
- 2018-10-01 CZ CZ2018-524A patent/CZ308605B6/en not_active IP Right Cessation
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130325241A1 (en) * | 2012-06-01 | 2013-12-05 | Google Inc. | Inferring State of Traffic Signal and Other Aspects of a Vehicle's Environment Based on Surrogate Data |
EP2865576B1 (en) * | 2013-10-22 | 2018-07-04 | Honda Research Institute Europe GmbH | Composite confidence estimation for predictive driver assistant systems |
US20150352999A1 (en) * | 2014-06-06 | 2015-12-10 | Denso Corporation | Driving context generation system |
US20160061612A1 (en) * | 2014-09-02 | 2016-03-03 | Hyundai Motor Company | Apparatus and method for recognizing driving environment for autonomous vehicle |
US20160180177A1 (en) * | 2014-12-23 | 2016-06-23 | Volkswagen Ag | Fused raised pavement marker detection for autonomous driving using lidar and camera |
US20170123422A1 (en) * | 2015-11-04 | 2017-05-04 | Zoox, Inc. | Interactive autonomous vehicle command controller |
US20180031384A1 (en) * | 2016-07-28 | 2018-02-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Augmented road line detection and display system |
US9855894B1 (en) * | 2016-09-16 | 2018-01-02 | Volkswagen Aktiengesellschaft | Apparatus, system and methods for providing real-time sensor feedback and graphically translating sensor confidence data |
US20180124423A1 (en) * | 2016-10-28 | 2018-05-03 | Nec Laboratories America, Inc. | Dynamic scene prediction with multiple interacting agents |
US10037613B1 (en) * | 2017-03-30 | 2018-07-31 | Uber Technologies, Inc. | Systems and methods to track vehicles proximate perceived by an autonomous vehicle |
Non-Patent Citations (3)
Title |
---|
Kalman filter, Wikipedia, 28.09.2018, https://en.wikipedia.org/w/index.php?title=Kalman_filter&oldid=861554938 * |
Liang Xiao; Ruili Wang; Bin Dai; Yuqiang Fang; Daxue Liu; Tao Wu: Hybrid conditional random field based camera-LIDAR fusion for road detection, Information Sciences, Vol. 432, March 2018, pages 543–558, https://doi.org/10.1016/j.ins.2017.04.048 , https://www.sciencedirect.com/science/article/pii/S0020025517307119 Available online: 29 April 2017 * |
Stephan Reuter; Andreas Danzer; Manuel Stübler; Alexander Scheel; Karl Granström: A fast implementation of the Labeled Multi-Bernoulli filter using gibbs sampling, 2017 IEEE Intelligent Vehicles Symposium (IV), Los Angeles, CA, USA, Date of Conference: 11-14 June 2017, DOI: 10.1109/IVS.2017.7995809 , https://ieeexplore.ieee.org/document/7995809 * |
Also Published As
Publication number | Publication date |
---|---|
CZ2018524A3 (en) | 2020-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111223135B (en) | System and method for enhancing range estimation by monocular cameras using radar and motion data | |
US10949684B2 (en) | Vehicle image verification | |
CN112184589B (en) | Point cloud intensity completion method and system based on semantic segmentation | |
CN110796007B (en) | Scene recognition method and computing device | |
US10369993B2 (en) | Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free | |
US10974730B2 (en) | Vehicle perception system on-line diangostics and prognostics | |
KR101864127B1 (en) | Apparatus and method for environment mapping of an unmanned vehicle | |
GB2560618A (en) | Object tracking by unsupervised learning | |
RU2750243C2 (en) | Method and system for generating a trajectory for a self-driving car (sdc) | |
Danescu et al. | Particle grid tracking system stereovision based obstacle perception in driving environments | |
RU2744012C1 (en) | Methods and systems for automated determination of objects presence | |
US20230109473A1 (en) | Vehicle, electronic apparatus, and control method thereof | |
US20210033706A1 (en) | Methods and systems for automatically labeling point cloud data | |
CN115205803A (en) | Automatic driving environment sensing method, medium and vehicle | |
Jagannathan et al. | Multi-sensor fusion for Automated Driving: Selecting model and optimizing on Embedded platform | |
Ahmed et al. | Lane marking detection using LiDAR sensor | |
CZ308605B6 (en) | Sensory system with fast group fusion to obtain a model of objects in its vicinity | |
CN112799079A (en) | Data association method and device | |
JP6980497B2 (en) | Information processing method and information processing equipment | |
US20240265713A1 (en) | Drive device, vehicle, and method for automated driving and/or assisted driving | |
CN115597649A (en) | Occupancy grid calibration | |
US11544899B2 (en) | System and method for generating terrain maps | |
KR20230014008A (en) | Method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network | |
Katare et al. | Autonomous embedded system enabled 3-D object detector:(With point cloud and camera) | |
Simon et al. | Extracting sensor models from a scene based simulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | Patent lapsed due to non-payment of fee |
Effective date: 20211001 |