CZ308605B6 - Sensory system with fast group fusion to obtain a model of objects in its vicinity - Google Patents

Sensory system with fast group fusion to obtain a model of objects in its vicinity Download PDF

Info

Publication number
CZ308605B6
CZ308605B6 CZ2018-524A CZ2018524A CZ308605B6 CZ 308605 B6 CZ308605 B6 CZ 308605B6 CZ 2018524 A CZ2018524 A CZ 2018524A CZ 308605 B6 CZ308605 B6 CZ 308605B6
Authority
CZ
Czechia
Prior art keywords
objects
group
states
module
sensors
Prior art date
Application number
CZ2018-524A
Other languages
Czech (cs)
Other versions
CZ2018524A3 (en
Inventor
Tomáš Ondráček
Jaroslav MĂĽller
Pavel Černocký
Original Assignee
Roboauto s.r.o.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Roboauto s.r.o. filed Critical Roboauto s.r.o.
Priority to CZ2018-524A priority Critical patent/CZ308605B6/en
Publication of CZ2018524A3 publication Critical patent/CZ2018524A3/en
Publication of CZ308605B6 publication Critical patent/CZ308605B6/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/257Belief theory, e.g. Dempster-Shafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Game Theory and Decision Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

The invention is a fast group fusion sensor system for obtaining a model of objects in its vicinity and is a system for group fusion and for creating an image of objects in the vicinity of the sensor system on which the invention is. The object imaging process is based on an iterative prediction-correction mechanism and includes at least two sensors, an output module, a prediction module, and a correction module, the correction module also includes a group module, a sampling module, and a measurement model module.

Description

Senzorický systém s rychlou skupinovou fúzí pro získání modelu objektů v jeho okolíSensory system with fast group fusion to obtain a model of objects in its vicinity

Oblast technikyField of technology

Vynález se týká senzorického systému s rychlou skupinovou fúzí pro získání modelu objektů v jeho okolí využívajícího fúzi dat z množství senzorů pro vytvoření obrazu okolního prostředí například v dopravních prostředcích jako jsou autonomní vozidla.The invention relates to a fast group fusion sensor system for obtaining a model of objects in its vicinity using the fusion of data from a number of sensors to form an image of the environment, for example in vehicles such as autonomous vehicles.

Dosavadní stav technikyPrior art

V současné době je technika kolem autonomního řízení vozidel a jiných senzorických systémů na vzestupu. Čím dál více společností se zabývá systémy pro autonomní řízení, asistenčními systémy, systémy pro vytvoření obrazu objektů v okolí snímaného určitými senzory jak v automobilovém průmyslu, tak v jiných odvětvích zabývajících se jinými dopravními prostředky jako je letecký či námořní průmysl.At present, technology around autonomous vehicle control and other sensor systems is on the rise. More and more companies are dealing with autonomous control systems, assistance systems, systems for creating the image of objects in the environment sensed by certain sensors both in the automotive industry and in other sectors dealing with other means of transport such as the aerospace industry.

Definičně je autonomní vozidlo, nebo taky samořízené vozidlo takové vozidlo, které ke svému provozu nepotřebuje řidiče a orientuje se zcela za pomoci počítačových systémů, a senzorů, které detekují okolí vozidla a určují jeho trasu, přičemž senzorů pro detekci okolí, polohy a rychlosti vozidla je více druhů, jako např. kamera, radar, lidar atd.Definitely, an autonomous vehicle, or also a self-driving vehicle, is a vehicle that does not need a driver to operate and is completely oriented with the help of computer systems and sensors that detect the vehicle's surroundings and determine its route, while sensors to detect the vehicle's surroundings, position and speed are more species, such as camera, radar, lidar, etc.

Autonomní vozidlo, vozidlo s asistenčními systémy, nebo systém pro vytvoření obrazu objektů v okolí snímaného určitými senzory potřebuje pro svůj chod množinu senzorů, přičemž, obecně lze říct, že čím větší je početjejich typů a celkový počet, tím spolehlivější výsledek je měřením možno dosáhnout. Jednotlivé měření zaznamenané jednotlivými senzory zpravidla nejsou vyhodnocovány samostatně, ale tyto měření jsou slučovány do jednoho komplexního obrazu okolního prostředí. Tímto se dosáhne vyšší spolehlivost výsledků měření a jednotlivé naměřené hodnoty lze ověřit pomocí naměřených hodnot z dalších senzorů.An autonomous vehicle, a vehicle with assistance systems, or a system for creating an image of objects in the environment sensed by certain sensors needs a plurality of sensors to operate, and, in general, the larger the number and total number, the more reliable the measurement result. The individual measurements recorded by the individual sensors are usually not evaluated separately, but these measurements are combined into one complex image of the environment. This achieves a higher reliability of the measurement results and the individual measured values can be verified using measured values from other sensors.

Ve zjednodušeném pojetí je výstupem jednotlivých senzorů stav objektů, které se nacházejí v okolí autonomního vozidla, vozidla s asistenčními systémy, nebo jiného zařízení využívajícího systém pro vytvoření obrazu objektů ve svém okolí. Někdy se jednotlivé objekty můžou částečně, nebo úplně překrývat, nebo jsou jednoduše příliš blízko, což zapříčiňuje problematické a vyžaduje další sledování těchto objektů. Existují dva základní přístupy, jak se vypořádat s tímto problémem.In a simplified sense, the output of individual sensors is the status of objects located in the vicinity of an autonomous vehicle, a vehicle with assistance systems, or another device using a system to create an image of objects in its vicinity. Sometimes individual objects may overlap partially or completely, or are simply too close, which causes problems and requires further monitoring of these objects. There are two basic approaches to dealing with this problem.

Globální přístup vnímá celý svět jako jeden super-objekt, resp. jednu velkou skupinu objektů. Tento přístup přináší jednu výhodu - nevylučuje žádnou možno interakci mezi libovolnými objekty a tedy, přesnost měření je maximální. Nevýhodou tohoto přístupu je výpočetní náročnost pro kombinace interakcí všech objektů. Při použití globálního přístupu roste počet možných kombinací interakcí exponenciálně se zvyšujícím se počtem objektů. Kvůli tomu není možno tento přístup efektivně aplikovat například na autonomní vozidla, vozidla s asistenčními systémy, nebo na jiné zařízení využívající systémy pro vytvoření obrazu objektů v okolí takového zařízení, protože výsledky není možno získat v reálném čase.The global approach perceives the whole world as one super-object, resp. one large group of objects. This approach has one advantage - it does not exclude any possible interaction between any objects and therefore, the accuracy of the measurement is maximum. The disadvantage of this approach is the computational complexity for combinations of interactions of all objects. Using the global approach, the number of possible combinations of interactions increases exponentially with the increasing number of objects. Therefore, this approach cannot be effectively applied to, for example, autonomous vehicles, vehicles with assistance systems, or other devices using systems to create an image of objects in the vicinity of such a device, because the results cannot be obtained in real time.

Lokální přístup považuje všechny objekty za samostatné a vzájemně na sobě nezávislé. V tomto přístupu nejsou uvažovány žádné interakce mezi jednotlivými objekty, čímž se výrazně snižuje výpočetní náročnost. Výpočetní náročnost roste lineárně se zvyšujícím se počtem objektů. Nevýhodou a zároveň důvodem, proč tento systém není výhodné v tomto provedení plnohodnotně aplikovat například do autonomního vozidla, vozidla s asistenčními systémy, nebo na jiné zařízení využívající systémy pro vytvoření obrazu objektů v okolí takového zařízení je, že se zanedbáním všech interakcí objektů se ztrácí množství užitečných informací a spolehlivost měření je o moc nižší.The local approach considers all objects to be separate and independent of each other. In this approach, no interactions between individual objects are considered, which significantly reduces the computational complexity. Computational complexity increases linearly with increasing number of objects. The disadvantage and at the same time the reason why this system is not advantageous in this embodiment to be fully applied, for example, to an autonomous vehicle, vehicles with assistance systems, or to other devices using systems to create images of objects in the vicinity of such devices is that neglecting all object interactions useful information and the reliability of the measurement is much lower.

-1 CZ 308605 B6-1 CZ 308605 B6

Dalším problémem je ten, že každý senzor má svá specifika, nepřesnosti a slabosti. Kamera dokáže zachytit tvar objektu, nikoli jeho vzdálenost, kdežto radar máje na tom opačně. Rozdíly v měření je možno najít i u senzorů stejného typu (např. mezi dvěma kamerami). Nesrovnalosti mezi měřeními je možno pozorovat i u jednoho senzoru, např. kamera poskytuje přesnější měření pro objekty ve středu jejího zorného pole než pro objekty na krajích zorného pole. Tudíž nastávají situace, kdy například dva senzory zaznamenají rozdílnou vzdálenost jednoho objektu ve stejném okamžiku, nebo jeden senzor zaznamená dvě výrazně odlišné vzdálenosti jednoho objektu ve dvou blízkých časech. V takovém případě je nevhodné řešit hodnoty vzdálenosti jako absolutní hodnoty, ale je nutné vyhodnotit pravděpodobnostní rozložení hodnoty vzdálenosti. Nejvyužívanějším způsobem pro řešení těchto problémů je prostřednictvím kódu. Takové řešení funguje v jednoduchých situacích, nicméně ve složitých situacích, jako například ve velkoměstském provozu je nepoužitelné.Another problem is that each sensor has its own specifics, inaccuracies and weaknesses. The camera can capture the shape of the object, not its distance, while the radar has the opposite. Differences in measurements can also be found for sensors of the same type (eg between two cameras). Discrepancies between measurements can also be observed with one sensor, eg the camera provides more accurate measurements for objects in the center of its field of view than for objects at the edges of the field of view. Thus, for example, there are situations where, for example, two sensors detect different distances of one object at the same time, or one sensor detects two significantly different distances of one object at two close times. In this case, it is inappropriate to treat the distance values as absolute values, but it is necessary to evaluate the probability distribution of the distance value. The most commonly used way to solve these problems is through code. Such a solution works in simple situations, however, in complex situations, such as in a city traffic, it is unusable.

Dokument US 9963215 B2 popisuje řešení pro fúzi dat ze senzorů pro autonomní plavidla. V tomto řešení je na problém nahlíženo komplexně. Vytváří se pravděpodobnostní model, na základě, kterého je později vytvořena „cluster hypothesis“ a „global hypothesis“, tedy vytváří se skupiny objektů, které se sebou můžou interagovat a tyto jsou enumerovány společně. Nicméně takové řešení sebou nese podstatnou nevýhodu a tou je fakt, že se vždy vybírá malé množství hypotéz s největší pravděpodobností a ostatní jsou kompletně eliminovány. Takový přístup může do jisté míry fungovat u námořních plavidel, protože provoz ve vodě je podstatně méně hustý a více předvídatelný, a tedy statisticky se méně pravděpodobné scénáře, se kterými není počítáno i méně pravděpodobně uplatní. Například pro silniční provoz je takový přístup nevhodný, protože situace na silnici se mění každou vteřinou, v mnoha případech není vůbec předvídatelná, a tedy pro zachování bezpečnosti všech účastníků provozu není vhodné eliminovat méně pravděpodobné situace/polohy objektů.US 9963215 B2 describes a solution for fusing data from sensors for autonomous vessels. In this solution, the problem is viewed comprehensively. A probabilistic model is created, on the basis of which the "cluster hypothesis" and the "global hypothesis" are later created, ie groups of objects are created that can interact with each other and these are enumerated together. However, such a solution has a significant disadvantage and that is the fact that a small number of hypotheses are always selected with the highest probability and the others are completely eliminated. Such an approach may work to some extent for seagoing vessels, as water traffic is significantly less dense and more predictable, and thus statistically less likely scenarios that are not anticipated or less likely to apply. For example, such an approach is unsuitable for road traffic because the situation on the road changes every second, in many cases not at all predictable, and therefore it is not appropriate to eliminate less likely situations / locations of objects to maintain the safety of all road users.

Další blízké řešení je zveřejněno v US 7289906 B2. Toto řešení pojednává o fúzi dat ze senzorů za použití Kalmanových filtrů a Gaussovského pravděpodobnostního rozložení. Právě Gaussovské rozložení sebou nese jednu podstatnou nevýhodu v případě, že měření je výrazně nepřesné/spomé. V případě, že senzory zaznamenají, že v pravém pruhu se nachází objekt/auto s jistou pravděpodobností a s jistou pravděpodobností i v levém pruhu (v tomto případě je v levém pruhu pouze stín, nezvyklý odraz světla, nebo cokoli, co mimikruje přítomnost objektu/auta). Dle Gaussovského rozložení by se objekt nacházel někde mezi těmito „objekty“, což bude v obou případech nesprávně.Another close solution is disclosed in US 7289906 B2. This solution deals with the fusion of data from sensors using Kalman filters and Gaussian probability distribution. It is the Gaussian distribution that has one significant disadvantage if the measurement is significantly inaccurate / slow. If the sensors detect that there is an object / car in the right lane with a certain probability and with a certain probability in the left lane (in this case there is only a shadow, unusual reflection of light in the left lane, or anything that mimics the presence of the object / car ). According to the Gaussian distribution, the object would be somewhere between these "objects", which will be incorrect in both cases.

Proto by bylo vhodné nalézt řešení, které by spojovalo výhody globálního přístupu, tedy vysoké přesnosti a spolehlivosti fúze dat a výhody lokálního přístupu, tedy nízké výpočtové náročnosti, a tedy rychlému zpracování dat, a to za současné eliminace nevýhod obou přístupů. Zároveň by nové řešení mělo umět pracovat s pravděpodobnostním rozložením jiným, než Gaussovským a bylo by schopno dosáhnout vysokou přesnost a opakovatelnost měření v reálném čase.Therefore, it would be appropriate to find a solution that would combine the advantages of the global approach, ie high accuracy and reliability of data fusion, and the advantages of the local approach, ie low computational complexity, and thus fast data processing, while eliminating the disadvantages of both approaches. At the same time, the new solution should be able to work with a probability distribution other than Gaussian and would be able to achieve high accuracy and repeatability of measurements in real time.

Podstata vynálezuThe essence of the invention

Senzorický systém s rychlou skupinovou fúzí pro získání modelu objektů v jeho okolí přináší řešení pro výše popsané problémy. Vynález spojuje výhody již zmíněného globálního a lokálního přístupu a eliminuje jejich nevýhody. Vynález řeší nedostatky citovaných řešení v citovaných dokumentech, tedy pracuje s celým pravděpodobnostním rozložením stavu daného objektu, nebo skupiny objektů, a ne jenom s těmi nejpravděpodobnějšími, tedy vynález je použitelný jak pro aplikace například v námořní či letecké dopravě, tak i pro aplikace v silničním provozu. Vynález dále dokáže pracovat s obecným pravděpodobnostním rozložením, ne jenom s Gaussovským, a tudíž je použitelný pro širokou škálu aplikací.The sensor system with fast group fusion to obtain a model of objects in its vicinity provides a solution to the problems described above. The invention combines the advantages of the already mentioned global and local approach and eliminates their disadvantages. The invention solves the shortcomings of the cited solutions in the cited documents, ie it works with the whole probability distribution of the state of a given object or group of objects, and not only with the most probable ones, so the invention is applicable to applications such as sea or air transport and road applications. operation. Furthermore, the invention can work with a general probability distribution, not just a Gaussian one, and is therefore applicable to a wide range of applications.

- 2 CZ 308605 B6- 2 CZ 308605 B6

Vynález zahrnuje senzorický systém s rychlou skupinovou fúzí pro vytvoření modelu objektů ve svém okolí, přičemž zahrnuje alespoň dva senzory, alespoň jeden procesor, predikční modul, skupinový modul, modul modelu měření, vzorkovací modul a výstupní modul, který se vyznačuje tím, že zahrnuje kroky:The invention includes a fast group fusion sensor system for modeling an object in its vicinity, comprising at least two sensors, at least one processor, a prediction module, a group module, a measurement model module, a sampling module, and an output module comprising the steps of: :

- odeslání pravděpodobnostních rozložení predikovaných stavů objektů z predikčního modulu do skupinového modulu, kde jsou objekty zařazeny do alespoň jedné skupiny objektů, která je popsaná pravděpodobnostním rozložením stavu skupiny objektů, přičemž vzdálenost v měřicím prostoru mezi každými dvěma objekty patřícími do stejné skupiny objektů je menší než daný práh, kde práh je přednastavená fixní hodnota, nebo plovoucí hodnota závislá na konkrétním měření;- sending the probability distributions of the predicted states of the objects from the prediction module to the group module, where the objects are included in at least one group of objects described by the probability distribution of the state of the group of objects, the distance in the measuring space between every two objects belonging to the same group of objects a given threshold, where the threshold is a preset fixed value, or a floating value depending on the particular measurement;

- odeslání stavů objektů zaznamenaných senzory ze senzorů do modulu modelu měření, kde jsou převedeny na pravděpodobnostní rozložení stavů objektů zaznamenaných senzory;- sending the states of the objects recorded by the sensors from the sensors to the measurement model module, where they are converted into a probabilistic distribution of the states of the objects recorded by the sensors;

- odeslání pravděpodobnostních rozložení stavů objektů zaznamenaných senzory a pravděpodobnostních rozložení stavů alespoň jedné skupiny objektů do vzorkovacího modulu;- sending probabilistic state distributions of the objects detected by the sensors and probabilistic state distributions of at least one group of objects to the sampling module;

- generování korigovaného pravděpodobnostního rozložení stavu skupiny objektů na základě pravděpodobnostních rozložení stavů objektů zaznamenaných senzory agenerating a corrected probability state distribution of the group of objects based on the probability distributions of the states of the objects detected by the sensors, and

- pravděpodobnostního rozložení stavu této skupiny objektů probíhající ve vzorkovacím modulu pomocí Gibbsova vzorkování;- the probability distribution of the state of this group of objects taking place in the sampling module by means of Gibbs sampling;

- výběr korigovaných pravděpodobnostních rozložení stavů objektů patřících do skupiny objektů na základě korigovaného pravděpodobnostního rozložení stavu skupiny objektů, do které tyto objekty patří;- selecting the corrected probability distributions of the states of the objects belonging to the group of objects on the basis of the corrected probability distributions of the states of the group of objects to which these objects belong;

- odeslání korigovaných pravděpodobnostních rozložení stavů objektů do výstupního modulu za účelem vytvoření obrazu objektů v okolí zařízení;- sending corrected probabilistic distributions of the states of the objects to the output module in order to create an image of the objects in the vicinity of the device;

- odeslání korigovaných pravděpodobnostních rozložení stavů objektů do predikčního modulu, přičemž predikční modul zahrnuje model chování objektu;- sending corrected probability distributions of object states to the prediction module, wherein the prediction module includes an object behavior model;

- generování pravděpodobnostních rozložení predikovaných stavů objektů, na základě modelu chování objektu a korigovaných pravděpodobnostních rozložení stavů objektů, přičemž pravděpodobnostní rozložení predikovaných stavů objektů zahrnuje odhad budoucího stavu objektů- generating probabilistic distributions of predicted states of objects, based on the model of object behavior and corrected probabilistic distributions of states of objects, wherein the probabilistic distribution of predicted states of objects includes an estimate of the future state of objects

Vynález dále zahrnuje způsob v rychlé skupinové fúze pro získání modelu objektů v okolí senzorického systému zahrnujícího alespoň jeden procesor, alespoň dva senzory, predikční modul, skupinový modul, modul modelu měření, vzorkovací modul a výstupní modul, přičemž způsob vytvoření obrazu objektů v okolí takového zařízení, který se vyznačuje tím, že zahrnuje kroky:The invention further includes a fast group fusion method for obtaining an object model in the vicinity of a sensor system comprising at least one processor, at least two sensors, a prediction module, a group module, a measurement model module, a sampling module, and an output module. , characterized in that it comprises the steps of:

- odeslání pravděpodobnostních rozložení predikovaných stavů objektů z predikčního modulu do skupinového modulu, kde jsou objekty zařazeny do alespoň jedné skupiny objektů, která je popsaná pravděpodobnostním rozložením stavu skupiny objektů, přičemž vzdálenost v měřicím prostoru mezi každými dvěma objekty patřícími do stejné skupiny objektů je menší než daný práh, kde práh je přednastavená fixní hodnota, nebo plovoucí hodnota závislá na konkrétním měření;- sending the probability distributions of the predicted states of the objects from the prediction module to the group module, where the objects are included in at least one group of objects described by the probability distribution of the state of the group of objects, the distance in the measuring space between every two objects belonging to the same group of objects a given threshold, where the threshold is a preset fixed value, or a floating value depending on the particular measurement;

- odeslání stavů objektů zaznamenaných senzory ze senzorů do modulu modelu měření, kde jsou převedeny na pravděpodobnostní rozložení stavů objektů zaznamenaných senzory;- sending the states of the objects recorded by the sensors from the sensors to the measurement model module, where they are converted into a probabilistic distribution of the states of the objects recorded by the sensors;

-3CZ 308605 B6-3GB 308605 B6

- odeslání pravděpodobnostních rozložení stavů objektů zaznamenaných senzory a pravděpodobnostních rozložení stavů alespoň jedné skupiny objektů do vzorkovacího modulu;- sending probabilistic state distributions of the objects detected by the sensors and probabilistic state distributions of at least one group of objects to the sampling module;

- generování korigovaného pravděpodobnostního rozložení stavu skupiny objektů na základě pravděpodobnostních rozložení stavů objektů zaznamenaných senzory a pravděpodobnostního rozložení stavu této skupiny objektů probíhající ve vzorkovacím modulu pomocí Gibbsova vzorkování;- generating a corrected probability state distribution of the group of objects based on the probability distributions of the states of the objects recorded by the sensors and the probability distribution of the state of this group of objects taking place in the sampling module by Gibbs sampling;

- výběr korigovaných pravděpodobnostních rozložení stavů objektů patricích do skupiny objektů na základě korigovaného pravděpodobnostního rozložení stavu skupiny objektů, do které tyto objekty patří;- selecting the corrected probability distributions of the states of the objects belonging to the group of objects on the basis of the corrected probability distributions of the states of the group of objects to which these objects belong;

- odeslání korigovaných pravděpodobnostních rozložení stavů objektů do výstupního modulu za účelem vytvoření obrazu objektů v okolí zařízení;- sending corrected probabilistic distributions of the states of the objects to the output module in order to create an image of the objects in the vicinity of the device;

- odeslání korigovaných pravděpodobnostních rozložení stavů objektů do predikčního modulu, přičemž predikční modul zahrnuje model chování objektu;- sending corrected probability distributions of object states to the prediction module, wherein the prediction module includes an object behavior model;

- generování pravděpodobnostních rozložení predikovaných stavů objektů, na základě modelu chování objektu a korigovaných pravděpodobnostních rozložení stavů objektů, přičemž pravděpodobnostní rozložení predikovaných stavů objektů zahrnuje odhad budoucího stavu objektů- generating probabilistic distributions of predicted states of objects, based on the model of object behavior and corrected probabilistic distributions of states of objects, wherein the probabilistic distribution of predicted states of objects includes an estimate of the future state of objects

V alternativním provedení vynález zahrnuje způsob řízení vozidla s rychlou skupinovou fúzí pro získání modelu objektů v jeho okolí zahrnujícího alespoň dva senzory, alespoň jeden procesor, predikční modul, skupinový modul, model měření, vzorkovací modul a výstupní modul, přičemž způsob vytvoření obrazu objektů v okolí takového zařízení, který se vyznačuje tím, že zahrnuje kroky:In an alternative embodiment, the invention includes a method of driving a fast group fusion vehicle to obtain a model of objects in its vicinity comprising at least two sensors, at least one processor, a prediction module, a group module, a measurement model, a sampling module, and an output module. such a device, characterized in that it comprises the steps of:

- odeslání pravděpodobnostních rozložení predikovaných stavů objektů z predikčního modulu do skupinového modulu, kde jsou objekty zařazeny do alespoň jedné skupiny objektů, která je popsaná pravděpodobnostním rozložením stavu skupiny objektů, přičemž vzdálenost v měřicím prostoru mezi každými dvěma objekty patřícími do stejné skupiny objektů je menší než daný práh, kde práh je přednastavená fixní hodnota, nebo plovoucí hodnota závislá na konkrétním měření;- sending the probability distributions of the predicted states of the objects from the prediction module to the group module, where the objects are included in at least one group of objects described by the probability distribution of the state of the group of objects, the distance in the measuring space between every two objects belonging to the same group of objects a given threshold, where the threshold is a preset fixed value, or a floating value depending on the particular measurement;

- odeslání stavů objektů zaznamenaných senzory ze senzorů do modulu modelu měření, kde jsou převedeny na pravděpodobnostní rozložení stavů objektů zaznamenaných senzory;- sending the states of the objects recorded by the sensors from the sensors to the measurement model module, where they are converted into a probabilistic distribution of the states of the objects recorded by the sensors;

- odeslání pravděpodobnostních rozložení stavů objektů zaznamenaných senzory a pravděpodobnostních rozložení stavů alespoň jedné skupiny objektů do vzorkovacího modulu;- sending probabilistic state distributions of the objects detected by the sensors and probabilistic state distributions of at least one group of objects to the sampling module;

- generování korigovaného pravděpodobnostního rozložení stavu skupiny objektů na základě pravděpodobnostních rozložení stavů objektů zaznamenaných senzory a pravděpodobnostního rozložení stavu této skupiny objektů probíhající ve vzorkovacím modulu pomocí Gibbsova vzorkování;- generating a corrected probability state distribution of the group of objects based on the probability distributions of the states of the objects recorded by the sensors and the probability distribution of the state of this group of objects taking place in the sampling module by Gibbs sampling;

- výběr korigovaných pravděpodobnostních rozložení stavů objektů patřících do skupiny objektů na základě korigovaného pravděpodobnostního rozložení stavu skupiny objektů, do které tyto objekty patří;- selecting the corrected probability distributions of the states of the objects belonging to the group of objects on the basis of the corrected probability distributions of the states of the group of objects to which these objects belong;

- odeslání korigovaných pravděpodobnostních rozložení stavů objektů do výstupního modulu za účelem vytvoření obrazu objektů v okolí automobilu;- sending corrected probabilistic distributions of the states of the objects to the output module in order to create an image of the objects around the car;

-4CZ 308605 B6-4GB 308605 B6

- odeslání korigovaných pravděpodobnostních rozložení stavů objektů do predikčního modulu, přičemž predikční modul zahrnuje model chování objektu;- sending corrected probability distributions of object states to the prediction module, wherein the prediction module includes an object behavior model;

- generování pravděpodobnostních rozložení predikovaných stavů objektů, na základě modelu chování objektu a korigovaných pravděpodobnostních rozložení stavů objektů, přičemž pravděpodobnostní rozložení predikovaných stavů objektů zahrnuje odhad budoucího stavu objektů;- generating probability distributions of the predicted states of the objects, based on the object behavior model and the corrected probability distributions of the states of the objects, wherein the probability distribution of the predicted states of the objects comprises estimating the future state of the objects;

- změna alespoň jednoho z jízdních parametrů automobilu zahrnující rychlost, nebo směr jízdy na základě korigovaných pravděpodobnostních rozložení stavů objektů, které byly odeslány a zpracovány ve vstupním modulu.- change of at least one of the driving parameters of the car, including the speed or direction of travel, based on the corrected probability distributions of the states of the objects that have been sent and processed in the input module.

Objasnění výkresůExplanation of drawings

Podstata vynálezu j e dále obj asněna na příkladech j eho uskutečnění, které j sou popsány s využitím připojených výkresů, kde na:The essence of the invention is further elucidated on the basis of examples of its embodiment, which are described with the aid of the accompanying drawings, where in:

obr. 1 schematicky znázorněna interakce predikčního modulu s jednotlivými prvky korekčního modulu;Fig. 1 schematically shows the interaction of a prediction module with individual elements of a correction module;

obr. 2 je schéma celého systému;Fig. 2 is a diagram of the whole system;

obr. 3 znázorňuje vozidlo jenž využívá systém pro vytvoření obrazu objektů v okolí a způsob řízení vozidla.Fig. 3 shows a vehicle that uses a system to create an image of objects in the environment and a method of driving the vehicle.

Příklady uskutečnění vynálezuExamples of embodiments of the invention

Pro zaznamenávání okolí senzorického systému jev prvním řade nevyhnutelný velký počet spolehlivých senzorů 3 různých typů. V prvním příkladu provedení vynálezu jsou jako senzory 3 použity vizuální kamery, RADAR a LiDAR. Alternativně však mohou být použity dvě nebo více kamer, kombinace libovonného počtu radarů a kamer, kombinace libovolného množství lidarů a kamer či libovolné kombinace výše uvedených a dalších v této přihlášce neuvedených senzorů 3 schopných snímat alespoň jeden ze skupiny parametrů zahrnující rychlost, velikost, vzdálenost, tvar, barvu a typ objektu.For recording the surroundings of the sensor system, a large number of reliable sensors of 3 different types are inevitable in the first place. In the first embodiment of the invention, visual cameras, RADAR and LiDAR are used as sensors 3. Alternatively, however, two or more cameras may be used, a combination of any number of radars and cameras, a combination of any number of lidars and cameras or any combination of the above and other sensors 3 not disclosed in this application capable of sensing at least one of a group of parameters including speed, size, distance, shape, color and type of object.

Kamery jsou nej výhodnějšími a nej používanějšími senzory 3 pro senzorické systémy, jakými jsou například autonomní vozidla, nebo vozidla s asistenčními systémy. Standardní kamery poskytují dvojdimenzionální obraz (2D kamery), nicméně někdy jsou používány i kamery poskytující virtuální troj dimenzionální obraz (3D kamery). V případě 3D kamer je pro vytvoření troj dimenzionálního obrazu potřeba čtyř až šesti kusů kamer. V prvním příkladu provedení vynálezu, kdy je aplikován na senzorickém systému, je použito pěti kamer, kde je jedna kamera namířena směrem před senzorický systém, jedna kamera je namířena nahoru nad senzorický systém, jednaje namířena dozadu, jedna nalevo a jedna napravo od senzorického systému.Cameras are the most advantageous and most used sensors 3 for sensor systems, such as autonomous vehicles or vehicles with assistance systems. Standard cameras provide two-dimensional images (2D cameras), however, sometimes cameras providing virtual three-dimensional images (3D cameras) are also used. In the case of 3D cameras, four to six cameras are needed to create a three-dimensional image. In a first embodiment of the invention, when applied to a sensor system, five cameras are used, where one camera is pointed in front of the sensor system, one camera is pointed upwards above the sensor system, one pointed backwards, one to the left and one to the right of the sensor system.

LiDAR je zařízení použitelné pro zjištění prostorového monochromatického obrazu jednotlivých objektů zachycených jiným senzorem 3 (např. kamerou). Další výhodou LiDARu je schopnost zachytit malé objekty, které by RADAR zachytit nemohl, a to díky tomu, že vlnová délka elektromagnetického záření v něm použita je mnohem nižší než u radaru. Nevýhoda oproti RADARu je vtom, že není použitelný pro velké vzdálenosti. Mezní vzdáleností pro spolehlivou použitelnost LiDARu zpravidla nepřekračuje 50 až 200 metrů. Poslední nevýhodou je to, že LiDAR není použitelný při oblačném počasí, nebo dešti. V prvním provedení vynálezu, kdy jeLiDAR is a device usable for detecting the spatial monochromatic image of individual objects captured by another sensor 3 (eg a camera). Another advantage of LiDAR is the ability to capture small objects that RADAR could not detect, due to the fact that the wavelength of electromagnetic radiation used in it is much lower than that of radar. The disadvantage compared to RADAR is that it is not usable for long distances. The limit distance for reliable usability of LiDAR usually does not exceed 50 to 200 meters. The last disadvantage is that LiDAR is not usable in cloudy weather or rain. In a first embodiment of the invention, when is

-5CZ 308605 B6 aplikován na senzorickém systému, je použito čtyř LiDAR senzorů 3, z nichž je jeden namířen dopředu napravo od senzorického systému, jeden je namířen dopředu nalevo, jeden je namířen dozadu napravo a jeden je namířen dozadu na nalevo.-5GB 308605 B6 applied to the sensor system, four LiDAR sensors 3 are used, one pointing forward to the right of the sensor system, one pointing forward to the left, one pointing backwards to the right, and one pointing backwards to the left.

RADAR je spolehlivý a cenově dostupný senzor 3 využíván pro zjištění vzdálenosti jednotlivých objektů, a to i ve špatném počasí a na velice dlouhé vzdálenosti. Jeho použití je ale omezeno tím, že kvůli velké vlnové délce použitého elektromagnetického záření není možno detekovat malé objekty a také není možno zkoumat jejich přesný tvar. V prvním provedení vynálezu, kdy je aplikován na senzorickém systému se na senzorickém systému nachází šest RADARových senzorů 3, přičemž dva jsou namířené dopředu, jeden je namířen doprava, jeden je namířen doleva a dva jsou namířeny dozadu za senzorický systém.RADAR is a reliable and affordable sensor 3 used to determine the distance of individual objects, even in bad weather and over very long distances. However, its use is limited by the fact that due to the large wavelength of the electromagnetic radiation used, it is not possible to detect small objects and also to examine their exact shape. In a first embodiment of the invention, when applied to a sensor system, there are six RADAR sensors 3 on the sensor system, two facing forward, one facing right, one facing left and two facing backwards behind the sensor system.

Každý prostorový útvar zaznamenaný alespoň jedním senzorem 3 nazýváme objektem. Různé senzory 3 zaznamenají jeho různé parametry, kterými jsou nej častěji rychlost, velikost, tvar, vzdálenost, barva, nebo typ objektu, přičemž pod pojmem typ objektu se rozumí, jestli se jedná například o člověka, automobil, zvíře apod. Alespoň jeden parametr je změřen alespoň jedním senzorem 3. Hodnota každého parametru změřeného senzorem 3 je absolutní, tj. má konkrétní hodnotu. Jak již bylo uvedeno, hodnoty jednoho parametru pro jeden objekt změřené dvěma senzory 3 ve stejný čas se můžou lišit, a proto systém musí rozhodnout která z těchto hodnot více odpovídá realitě, přičemž nej výhodnějším a nej spolehlivějším řešením tohoto problému je převedení všech hodnot do pravděpodobnostního rozložení. Souhrnným parametrem každého objektu nesoucí v sobě informace o změřených parametrech je stav objektu. Alespoň jeden stav 5 objektu zaznamenaného senzory 3 je odeslán k fúzi za účelem vytvoření obrazu objektů v okolí senzorického systému. Samotná fúze probíhá na základě iterativního mechanismu na principu predikce - korekce, přičemž fúnkce celého mechanizmu je znázorněna na obr. 2. To znamená, že jednu iteraci fúze lze rozdělit na dvě základní fáze, kterými jsou predikční fáze a korekční fáze. Je to mechanizmus podobný mechanizmu, pomocí kterého lidský mozek zpracovává informace o svém okolním prostředí. V případě lidského mozku jsou jeho senzory 3 oči, uši, chuťové kanálky apod. a každý signál ze senzoru 3 je porovnáván s obrazem okolního světa, který si lidský mozek vytvořil na základě předešlých dat a na základě porovnávání tento obraz okolního světa stále průběžně aktualizuje.Each spatial formation detected by at least one sensor 3 is called an object. Different sensors 3 record its various parameters, which are most often speed, size, shape, distance, color, or type of object, the term object type meaning whether it is, for example, a human, car, animal, etc. At least one parameter is measured by at least one sensor 3. The value of each parameter measured by sensor 3 is absolute, ie it has a specific value. As already mentioned, the values of one parameter for one object measured by two sensors 3 at the same time may differ, and therefore the system must decide which of these values corresponds more to reality, while the most advantageous and reliable solution to this problem is to convert all values to probabilistic. layout. The summary parameter of each object carrying information about the measured parameters is the state of the object. At least one state 5 of the object detected by the sensors 3 is sent for fusion in order to create an image of the objects in the vicinity of the sensor system. The fusion itself takes place on the basis of an iterative mechanism based on the principle of prediction - correction, while the function of the whole mechanism is shown in Fig. 2. This means that one iteration of fusion can be divided into two basic phases, which are prediction phases and correction phases. It is a mechanism similar to the one by which the human brain processes information about its environment. In the case of the human brain, its sensors 3 are eyes, ears, taste canals, etc., and each signal from sensor 3 is compared with an image of the surrounding world created by the human brain based on previous data and constantly updates this image of the surrounding world.

Senzorický systém s rychlou skupinovou fúzí pro vytvoření modelu objektů v jeho okolí zahrnuje alespoň jeden procesor 11 a alespoň jednu úložnou paměť. V prvním provedení vynálezu využívají všechny popsané moduly jeden společný procesor 11 a jednu společnou úložnou paměť. V alternativním provedení využívá každý modul vlastní úložnou paměť a vlastní procesor 11. nebo některé moduly navzájem procesory 11 a úložné paměti sdílejí.The fast group fusion sensor system for creating a model of objects in its vicinity comprises at least one processor 11 and at least one storage memory. In a first embodiment of the invention, all the described modules use one common processor 11 and one common storage memory. In an alternative embodiment, each module uses its own storage memory and its own processor 11, or some modules share processors 11 and storage memories with each other.

Korekční fáze probíhá v korekčním modulu 2. Během korekční fáze dochází ke korekci stavů objektů. Tři hlavní procesy probíhající v korekční fázi jsou převádění stavů 5 objektů zaznamenaných senzory 3 do pravděpodobnostního rozložení, rozdělování objektů do skupin 6 objektů a Gibbsovo vzorkování.The correction phase takes place in correction module 2. During the correction phase, the states of the objects are corrected. The three main processes taking place in the correction phase are the conversion of the states of 5 objects detected by the sensors 3 into a probability distribution, the division of objects into groups of 6 objects and Gibbs sampling.

Vstupními informacemi do korekční fáze jsou stavy 5 objektů zaznamenané senzory 3, které v sobě nesou konkrétní hodnoty jednotlivých parametrů popisujících daný objekt a pravděpodobnostní rozložení 4 predikovaných stavů objektů, přičemž pravděpodobnostní rozložení 4 predikovaných stavů objektů jsou produktem předešlé iterace aje reprezentován pravděpodobnostním rozložením stavu příslušných objektů. Jak stavy 5 objektů zaznamenaných senzory 3 tak pravděpodobnostní rozložení 4 predikovaných stavů objektů v sobě nesou informaci alespoň o jednom z parametrů objektu zahrnující rychlost, vzdálenost, velikost a tvar. Stavy 5 objektů zaznamenaných senzory můžou přímo obsahovat informaci o jednom konkrétním parametru, jako například vzdálenost objektu, nebo mohou tuto informaci v sobě nést nepřímo. Příkladem nepřímé informace o parametru je například případ, kdy je známá vzdálenost objektu v čase ti a vzdálenost objektu v čase Ϊ2, přičemž tyto parametry nesou nepřímo informaci o rychlosti daného objektu. Rychlost tohoto objektu je pak v prvním provedení určena v modulu 22 modelu měření. V prvním provedeníThe input information to the correction phase is the states 5 of the objects recorded by the sensors 3, which carry specific values of individual parameters describing the object and the probability distribution 4 of predicted states of objects, the probability distributions 4 of predicted states of objects . Both the states 5 of the objects detected by the sensors 3 and the probability distribution 4 of the predicted states of the objects carry information about at least one of the parameters of the object including speed, distance, size and shape. The states of the 5 objects detected by the sensors may directly contain information about one particular parameter, such as the distance of the object, or they may carry this information indirectly. An example of indirect parameter information is, for example, the case where the distance of an object at time t1 and the distance of an object at time Ϊ2 are known, and these parameters indirectly carry information about the velocity of the object. The speed of this object is then determined in the first embodiment in the module 22 of the measurement model. In the first embodiment

-6CZ 308605 B6 jsou pravděpodobnostní rozložení 4 predikovaných stavů objektů odeslána z predikčního modulu 1 do skupinového modulu 21. přičemž skupinový modul 21 je implementován v korekčním modulu 2. Skupinový modul 21 zahrnuje úložnou paměť pro uložení vstupních informací a procesor 11 na kterém je implementován skupinový algoritmus, který roztřiďuje všechny objekty, popsané pravděpodobnostními rozloženími 4 predikovaných stavů objektů do alespoň jedné skupiny 6 objektů v závislosti na jejich vzájemné vzdálenosti v prostoru měření, kde libovolné dva objekty zařazené do různých skupin 6 objektů jsou od sebe vzájemně vzdáleny v prostoru měření více, než je daný práh. Libovolné dva objekty zařazené do stejné skupiny 6 objektů jsou od sebe vzdáleny v prostoru měření méně než daný práh. Práh je v prvním provedení předem pevně nastavená hodnota vzdálenosti v prostoru měření. V alternativním provedení je hodnota prahu pohyblivá, tzv. plovoucí hodnota, což znamená, že hodnota vzdálenosti v měřicím prostoru odpovídající prahu se dynamicky mění v průběhu iterací. Minimální počet skupin 6 objektů je jedna a maximální počet skupin 6 objektů není omezen. Aktuální počet skupin 6 objektů je definován vždy jednotlivými objekty a jejich vzájemnými vzdálenostmi v prostoru měření. Platí přitom, že minimální počet objektů ve skupině 6 objektů jsou dva a jeden objekt může patřit pouze do jedné skupiny 6 objektů. Skupinovým algoritmem je libovolný algoritmus, jehož výstup splňuje výše uvedené požadavky, například následující:The probability distributions 4 of the predicted object states are sent from the prediction module 1 to the group module 21. The group module 21 is implemented in the correction module 2. The group module 21 includes a storage memory for storing input information and a processor 11 on which the group module is implemented. an algorithm that classifies all objects described by probabilistic distributions of 4 predicted states of objects into at least one group of 6 objects depending on their mutual distance in the measurement space, where any two objects included in different groups of 6 objects are more distant from each other in the measurement space, than the given threshold. Any two objects included in the same group of 6 objects are spaced apart in the measurement space less than the given threshold. In the first embodiment, the threshold is a preset distance value in the measuring space. In an alternative embodiment, the threshold value is movable, the so-called floating value, which means that the value of the distance in the measuring space corresponding to the threshold changes dynamically during iterations. The minimum number of groups of 6 objects is one and the maximum number of groups of 6 objects is not limited. The current number of groups of 6 objects is always defined by individual objects and their mutual distances in the measurement space. It is true that the minimum number of objects in a group of 6 objects is two and one object can belong to only one group of 6 objects. A group algorithm is any algorithm whose output meets the above requirements, such as the following:

V prvním krokuje pro každý objekt vytvořena jedna skupina objektů, která obsahuje právě tento objekt;In the first step, one group of objects is created for each object, which contains this object;

V druhém kroku, pokud existují dvě skupiny objektů soi a s02, jejichž některé dva objekty oi náleží do Soi a 02 náleží do s02 a zároveň jsou oi a 02 o sebe vzájemně vzdáleny v prostoru měření méně nebo stejně, než je daný práh, jsou skupiny objektů soi a s02 sloučeny do jedné skupiny;In the second step, if there are two groups of objects s o ias 0 2, some two objects oi belong to Soi and 02 belong to s 0 2 and at the same time oi and 02 are spaced apart from each other in the measurement space less than or equal to threshold, groups of objects with o ias 0 2 are merged into one group;

Druhý krok je opakován, dokud existují alespoň dvě skupiny pro sloučení, jinak je proces rozdělování do skupin 6 objektů ukončen.The second step is repeated until there are at least two groups to merge, otherwise the process of dividing into groups of 6 objects is completed.

Výstupem ze skupinového modulu 21 je minimálně jedna skupina 6 objektů, která je popsána pravděpodobnostním rozložením stavu skupiny 6 objektů, přičemž skupina 6 objektů obsahuje objekty jejíchž vzájemné vzdálenosti v prostoru měření jsou menší než definovaný práh. Každá skupina 6 objektů sestává z minimálně dvou objektů. Každý objekt patřící do skupiny 6 objektů je charakterizován pravděpodobnostním rozložením stavu objektu. Pravděpodobnostní rozložení stavu každého objektu patřícího do skupiny 6 objektů obsahuje informace o alespoň jednom z parametrů jako rychlost, vzdálenost, tvar, velikost, barva a typ objektu. Pravděpodobnostní rozložení stavu skupiny 6 objektů obsahuje informace o alespoň jednom z parametrů jako rychlost, vzdálenost, tvar, velikost, barva a typ objektu.The output of the group module 21 is at least one group 6 of objects, which is described by the probabilistic distribution of the state of the group of 6 objects, the group of 6 objects containing objects whose mutual distances in the measurement space are less than a defined threshold. Each group of 6 objects consists of at least two objects. Each object belonging to a group of 6 objects is characterized by a probabilistic distribution of the state of the object. The probability state distribution of each object belonging to the group of 6 objects contains information about at least one of the parameters such as speed, distance, shape, size, color and type of the object. The probability state distribution of a group of 6 objects contains information about at least one of the parameters such as speed, distance, shape, size, color and type of the object.

V případě, kdy pravděpodobnostní rozložení 4 predikovaných stavů objektů nejsou k dispozici, jakým je například první iterace, k odeslání pravděpodobnostních rozložení 4 predikovaných stavů objektů do skupinového modulu 21 nedochází a skupinový modul 21 zůstává v rámci takové iterace neaktivní.In the case where the probability distributions 4 of the predicted states of objects are not available, such as the first iteration, the probability distributions of the 4 predicted states of the objects are not sent to the group module 21 and the group module 21 remains inactive within such iteration.

Stavy 5 objektů zaznamenaných senzory jsou ze senzorů 3 odesílány do modulu 22 modelu měření. Stavy 5 objektů zaznamenaných senzory jsou popsány konkrétními naměřenými hodnotami pro alespoň jeden z parametrů jako rychlost, velikost, tvar, vzdálenost, barva, typ objektu apod. Modul 22 modelu měření zahrnuje dočasnou úložnou paměť a procesor 11 a je uzpůsoben na převádění konkrétních hodnot parametrů obsažených ve stavech 5 objektů zaznamenaných senzory do pravděpodobnostního rozložení, přičemž každý objekt je následně popsán komplexním parametrem, kterým je pravděpodobnostní rozložení 10 stavu objektu zaznamenaného senzory a tento komplexní parametr zahrnuje kombinace všech parametrů jenž byly pro daný objekt změřeny senzory 3. Výstupem z modulu 22 modelu měření tedy je pravděpodobnostní rozložení 10 stavů objektů zaznamenaných senzory.The states of the 5 objects detected by the sensors are sent from the sensors 3 to the module 22 of the measurement model. The states of 5 objects recorded by the sensors are described by specific measured values for at least one of parameters such as speed, size, shape, distance, color, object type, etc. The measurement model module 22 includes temporary storage memory and processor 11 and is adapted to convert specific parameter values contained. in the states of 5 objects recorded by sensors in the probability distribution, each object is subsequently described by a complex parameter, which is the probability distribution 10 of the state of the object recorded by sensors, and this complex parameter includes combinations of all parameters measured for the object by sensors 3. the measurement is thus the probability distribution of 10 states of objects detected by the sensors.

-7 CZ 308605 B6-7 CZ 308605 B6

Stavy 5 objektů zaznamenaných senzory jsou ze senzorů 3 odesílány do modulu 22 modelu měření. Modul 22 modelu měření zahrnuje dočasnou úložnou paměť a procesor 11 a je uzpůsoben na převádění konkrétních hodnot parametrů obsažených ve stavech 5 objektů zaznamenaných senzory a uloženého měření zaznamenaného senzory 3 na pravděpodobnost odpovídající pravděpodobnosti, že senzory 3 by v situaci popsané parametry obsaženými ve stavech 5 objektů zaznamenaných senzory zaznamenaly dané měření. Tato pravděpodobnost a její rozložení je popsána pravděpodobnostním rozložením 10 stavů objektů zaznamenaných senzory. Modul 22 modelu měření je opakovaně využíván Gibbsovým vzorkovačem ve vzorkovacím modulu 23.The states of the 5 objects detected by the sensors are sent from the sensors 3 to the module 22 of the measurement model. The measurement model module 22 comprises a temporary storage memory and a processor 11 and is adapted to convert specific values of parameters contained in the states 5 of objects recorded by the sensors and stored measurements recorded by the sensors 3 to a probability corresponding to the probability that the sensors 3 would recorded by the sensors recorded the measurement. This probability and its distribution is described by the probability distribution of 10 states of objects detected by sensors. The measurement model module 22 is repeatedly used by the Gibbs sampler in the sampling module 23.

V prvním příkladu provedení je pravděpodobnostní rozložení stavu alespoň jedné skupin 6 objektů společně s pravděpodobnostními rozloženími 10 stavů objektů zaznamenaných senzory odesláno do vzorkovacího modulu 23. Vzorkovací modul 23 zahrnuje dočasnou úložnou paměť a procesor 11 na kterém je implementován Gibbsův vzorkovač. Prostřednictvím Gibbsova vzorkovače dochází ve vzorkovacím modulu 23 ke korekci pravděpodobnostních rozložení 10 stavů objektů zaznamenaných senzory a pravděpodobnostního rozložení stavu alespoň jedné skupiny 6 objektů. Při procesu korekce dochází v první fázi k výpočtu takzvaného korigovaného pravděpodobnostního rozložení stavu skupiny 6 objektů na základě pravděpodobnostního rozložení stavu té stejné skupiny 6 objektů a pravděpodobnostních rozložení 10 stavů objektů zaznamenaných senzory. Korigovaným pravděpodobnostním rozložením stavu skupiny 6 objektů jsou popsány parametry této skupiny 6 objektů jako celku a zároveň parametry jednotlivých objektů v této skupině 6 objektů obsažených.In the first exemplary embodiment, the probability state distribution of the at least one group 6 of objects together with the probability distributions 10 of the object states recorded by the sensors is sent to the sampling module 23. The sampling module 23 comprises temporary storage and a processor 11 on which a Gibbs sampler is implemented. By means of a Gibbs sampler, the probability distributions 10 of the states of the objects recorded by the sensors and the probability distributions of the states of at least one group of 6 objects are corrected in the sampling module 23. In the first phase of the correction process, the so-called corrected probability state distribution of a group of 6 objects is calculated based on the probability state distribution of the same group of 6 objects and the probability distributions of 10 states of objects detected by the sensors. The corrected probabilistic distribution of the state of a group of 6 objects describes the parameters of this group of 6 objects as a whole and at the same time the parameters of individual objects contained in this group of 6 objects.

Při výpočtu korigovaného pravděpodobnostního rozložení stavu skupiny 6 objektů nedochází k úplné eliminaci nepravděpodobných stavů skupiny 6 objektů. Pro zjednodušení výpočtové náročnosti celého procesu je počet jednotlivých možných stavů skupiny 6 objektů v rámci jeho pravděpodobnostního rozložení redukován na předem definovaný počet stavů, přičemž v prvním příkladu provedení je tento definovaný počet stavů 100 000. Přičemž distribuční fiinkce pravděpodobnostního rozložení stavu skupiny 6 objektů po takové redukci má stejný tvar, ale je složena z menšího počtu jednotlivých možných stavů, čímž je dosaženo zachování přesnosti měření a zároveň zjednodušení výpočetní náročnosti. A toho je dosaženo použitím Gibbsova vzorkování, při němž je brán do úvahy každý, i nejméně pravděpodobný stav objektu zahrnutý v pravděpodobnostním rozložení stavu skupiny 6 objektů. Každý stav skupiny 6 objektů zahrnutý v pravděpodobnostním rozložení stavu této skupiny 6 objektů ovlivní korigované pravděpodobnostní rozložení stavu skupiny 6 objektů, nicméně míra takového ovlivnění je dána právě pravděpodobností toho stavu. To znamená, že méně pravděpodobné stavy z pravděpodobnostního rozložení stavu skupiny 6 objektů ovlivní korigované pravděpodobnostní rozložení stavu skupiny 6 objektů méně, než více pravděpodobné stavy z pravděpodobnostního rozložení stavu skupiny 6 objektů a možnost uplatnění méně pravděpodobných stavů, tedy možnost, že méně pravděpodobné stavy jsou pravdivé je dána právě jejich pravděpodobností. Proces Gibbsova vzorkování je popsán následovně:When calculating the corrected probability distribution of the state of a group of 6 objects, improbable states of a group of 6 objects are not completely eliminated. To simplify the computational complexity of the whole process, the number of individual possible states of a group of 6 objects within its probability distribution is reduced to a predefined number of states, while in the first embodiment this defined number of states is 100,000. The reduction has the same shape, but is composed of a smaller number of individual possible states, which achieves the preservation of measurement accuracy and at the same time simplifies computational complexity. And this is achieved by using Gibbs sampling, which takes into account each, even the least probable state of an object included in the probability distribution of the state of a group of 6 objects. Each state of a group of 6 objects included in the probability distribution of the state of this group of 6 objects will affect the corrected probability distribution of the state of the group of 6 objects, however, the degree of such influence is determined by the probability of that state. This means that less probable states from the probabilistic state distribution of a group of 6 objects will affect the corrected probability state distribution of a group of 6 objects less than more probable states from the probabilistic state distribution of a group of 6 objects and the possibility of applying less probable states, ie the possibility that less probable states are the truth is given precisely by their probability. The Gibbs sampling process is described as follows:

Existuje (z předchozího postupu) skupina 6 n objektů, které je třeba vyhodnotit v systému společně. Rozložení pravděpodobnosti stavu každého objektu i je reprezentováno množinou vzorků S, (i zThere is (from the previous procedure) a group of 6 n objects that need to be evaluated in the system together. The probability distribution of the state of each object i is represented by the set of samples S, (i z

Cílem je získat společné rozložení pravděpodobnosti pro skupinu objektů tedy p vzorků. Proces Gibbsova vzorkování používá hodnotící fiinkci f(X), kde Xj = (xij,X2j, ... xn]), která pošle konkrétní stavy objektů X do modulu 22 modelu měření a vrací pravděpodobnost vypočítanou modulem 22 modelu měřeníThe aim is to obtain a common probability distribution for a group of objects, ie p samples. The Gibbs sampling process uses the evaluation function f (X), where Xj = (xij, X2j, ... x n] ), which sends specific states of X objects to the measurement model module 22 and returns the probability calculated by the measurement model module 22

Náhodně je zvolen zvol první vzorek - tj. Xo = (xio, X20 ... xno)The first sample is randomly selected - ie Xo = (xio, X20 ... x n o)

Pro j = 1 do pFor j = 1 to p

Pro k = 1 do nFor k = 1 to n

-8CZ 308605 B6-8GB 308605 B6

Náhodně je zvolen další vzorek z množiny vzorků Sk označme ho x’y a vytvořen alternativní společný stav X’j = (xij, xy, ... x’kj, ... xnj) nahrazením Xkj za x’kj;Randomly, another sample is selected from the set of samples Sk, denote it x'y and create an alternative common state X'j = (xij, xy, ... x'kj, ... x nj ) by replacing Xkj with x'kj;

Je rozhodnuto o akceptaci nového vzorku:It is decided to accept a new sample:

a. zvoleno je náhodné alfa z uniformní distribuce (0..1)a. random alpha from uniform distribution is selected (0..1)

b. pokud f(X’j) / f(Xj) <= alfa akceptuje x’kj a tedy Xj: = Xy end k;b. if f (X’j) / f (Xj) <= alpha accepts x’kj and thus Xj: = Xy end k;

do výsledného společného rozložení je přidán vzorek Xj;sample Xj is added to the resulting common distribution;

endj;endj;

Výsledkem je p vzorků ze společného rozdělení;The result is p samples from a common distribution;

Jednotlivé složky těchto vzorků současně reprezentují nové rozdělení pravděpodobnosti pro jednotlivé objekty po aplikaci daného měření.At the same time, the individual components of these samples represent a new probability distribution for individual objects after the application of a given measurement.

Ve druhé fázi korekce ve vzorkovacím modulu 23 dochází k určení korigovaného pravděpodobnostního rozložení 7 stavu objektů obsažených ve skupině 6 objektů, u níž bylo vypočítáno korigované pravděpodobnostní rozložení stavu skupiny 6 objektů. Určení korigovaného pravděpodobnostního rozložení 7 stavu objektů obsažených ve skupině 6 objektů, u níž bylo vypočítáno korigované pravděpodobnostní rozložení stavu skupiny 6 objektů je umožněno tím, že korigované pravděpodobnostní rozložení stavů skupiny 6 objektů v sobě přímo obsahuje informace o pravděpodobnostním rozložení stavů objektů v této skupině 6 objektů obsažených, tudíž se jedná o výběr těchto informací.In the second phase of the correction in the sampling module 23, the corrected probability distribution 7 of the state of the objects contained in the group 6 of objects is determined, for which the corrected probability distribution of the state of the group 6 of objects has been calculated. Determining the corrected probability state distribution 7 of objects contained in the group 6 of objects for which the corrected probability state distribution of the group 6 objects has been calculated is enabled by the fact that the corrected probability state distribution of the group 6 objects directly contains information on the probability distribution of object states in this group 6. objects contained, so it is a matter of selecting this information.

Korigované pravděpodobnostní rozložení 7 stavu objektu popisuje minimálně jeden parametr objektu jako rychlost, vzdálenost, velikost, tvar, barva a typ objektu a určuje korigovaný stav objektu. Korigované pravděpodobnostní rozložení 7 stavu objektu je pak následně odesláno do výstupního modulu 8. Stejně tak je toto korigované pravděpodobnostní rozložení 7 stavů objektů odesláno do predikčního modulu LThe corrected probability distribution 7 of the object state describes at least one object parameter such as speed, distance, size, shape, color and type of the object and determines the corrected state of the object. The corrected probability distribution 7 of the state of the object is then sent to the output module 8. Likewise, this corrected probability distribution 7 of the state of the objects is sent to the prediction module L

Výstupní modul 8 spojuje korigované pravděpodobnostní rozložení 7 stavů objektů patřících do skupin 6 objektů a utváří z nich obraz objektů v okolí senzorického systému. Výstupním modulem 8 může být například:The output module 8 combines the corrected probability distribution 7 of the states of the objects belonging to the groups 6 of objects and forms from them an image of the objects in the vicinity of the sensor system. The output module 8 can be, for example:

- systém řízení vozidla, který na základě takového obrazu objektů okolí autonomního vozidla mění alespoň jeden z jízdních parametrů automobilu zahrnující směr jízdy, rychlost jízdy, výkon pohonného agregátu, nastavení systému brzd, nastavení natočení kol, změna převodového stupně, nebo změna signalizace. Vozidlo, jenž využívá tento systém je znázorněno na obr. 3;- a vehicle control system which, on the basis of such an image of objects around the autonomous vehicle, changes at least one of the car's driving parameters including direction of travel, speed, power unit output, brake system settings, wheel rotation settings, gear changes or signaling changes. A vehicle using this system is shown in Figure 3;

- asistenční systém pro vozidla, který upozorňuje řidiče/pilota na případné překážky, nebo nebezpečí;- a vehicle assistance system that alerts the driver / pilot to possible obstacles or dangers;

- systém pro projekci komplexní čtyřrozměrné mapy ohraničeného prostoru.- a system for the projection of a complex four-dimensional map of a bounded space.

Systém pro monitorování volných parkovacích míst na parkovišti, kdy jsou na parkovišti rozmístěny různé senzory 3 monitorující obsazenost parkoviště s následnou možnou funkcí nastavení informační tabule volno/obsazeno, a/nebo nastavení navigačních tabulí směřujících řidiče k volným parkovacím místům.System for monitoring free parking spaces in the car park, where various sensors 3 are placed in the car park monitoring the parking space occupancy with the subsequent possible function of setting the information board free / occupied, and / or setting navigation boards directing the driver to free parking spaces.

V predikčním modulu 1 dochází k predikční fázi iterace. Detail na predikční fázi iterace je na obr. 1. Predikční modul 1 zahrnuje úložnou paměť 9 predikčního modulu určenou pro uchovávání pravděpodobnostních rozložení 4 predikovaných stavů objektů a procesor 11 s implementovaným modelem chování objektů. Korigované pravděpodobnostní rozložení 7 stavů objektů z iterace,In the prediction module 1, the prediction phase of the iteration takes place. A detail on the prediction phase of the iteration is shown in Fig. 1. The prediction module 1 comprises a storage memory 9 of the prediction module intended for storing probability distributions 4 of predicted states of objects and a processor 11 with an implemented object behavior model. Corrected probability distribution of 7 states of objects from iteration,

-9CZ 308605 B6 která byla popisována výše, se po odeslání do predikčního modulu 1 stává pravděpodobnostním rozložením predikovaných stavů objektů pro další iteraci.-9EN 308605 B6 which has been described above, after sending to the prediction module 1, it becomes a probabilistic distribution of the predicted states of the objects for the next iteration.

Příklady predikce pomocí modelu chování objektů:Examples of prediction using the object behavior model:

Sledovaný objekt je auto, parametry stavu jsou: pozice (x, y) a rychlost (yx, vy), tedy celý stav je (x, y, vx, Vy).The monitored object is auto, the parameters of the state are: position (x, y) and speed (y x , in y ), so the whole state is (x, y, in x , you).

Predikce má vstupy: 1. korigované pravděpodobnostní rozložení 7 stavu objektu v čase to což je n vzorků ve tvaru (x, y, vx, vy), 2. uplynulý čas pro predikci: dt.The prediction has inputs: 1. corrected probability distribution 7 of the state of the object in time that is n samples in the form (x, y, v x , v y ), 2. elapsed time for prediction: dt.

Výstupem je pravděpodobnostní rozložení 4 predikovaného stavu objektu v čase to + dt, což je m vzorků ve tvaru (x, y, vx, vy).The output is the probability distribution 4 of the predicted state of the object in time to + dt, which is m of samples in the form (x, y, v x , v y ).

PříkladExample

Vstupem je 100 vzorků (0 +- 2, 0 +- 2, 10, 0) tedy auto je přibližně na pozici (0, 0) plus mínus 2 metry, a jede rychlostí 10 m/s dopředu, dt = 1 s, tedy predikce o 1 s dopředu.The input is 100 samples (0 + - 2, 0 + - 2, 10, 0) so the car is approximately in position (0, 0) plus or minus 2 meters, and travels at a speed of 10 m / s forward, dt = 1 s, so prediction 1 s ahead.

Výstupem je 100 vzorků (10+-3, 0+-2.5, 10+- 1, 0 +- 1) tedy je předpokládáno, že auto 1. bude na pozici (10, 0) plus minus (3, 2.5) - nejistota se zvětšuje, 2. pojede rychlostí (10, 0) plus mínus 1 - nejistota rychlosti se zvětšuje.The output is 100 samples (10 + -3, 0 + -2.5, 10 + - 1, 0 + - 1) so it is assumed that car 1. will be in position (10, 0) plus or minus (3, 2.5) - uncertainty increases, 2. travels at speed (10, 0) plus or minus 1 - speed uncertainty increases.

Predikční algoritmus k tomu používá:The prediction algorithm uses:

- fýzikální zákony - pohyb auta s danou rychlostí;- physical laws - movement of a car at a given speed;

- znalost pravděpodobného chování auta/řidiče, jako například to, že pravděpodobně nebude příliš prudce zatáčet.- knowledge of the likely behavior of the car / driver, such as not likely to turn too hard.

Výsledkem toho, že v korekční fázi další iterace jsou použity pravděpodobnostní rozložení 4 predikovaných stavů objektů je to, že systém vyžívající senzorický systém s rychlou skupinovou fůzí dat pro získání modelu objektů v jeho okolí se chová inteligentně. To znamená, že pokud pravděpodobnostní rozložení 10 stavu objektu zaznamenaného senzorem při další iteraci se radikálně změní oproti pravděpodobnostnímu rozložení 4 predikovaného stavu toho stejného objektu, přičemž predikovaný stav objektu je ovlivněn všemi minulými korigovanými stavy objektu, např. kvůli chybě na jednom senzoru 3, systém bude reagovat pružně, což znamená, že odchylku zaregistruje tím, že korigované pravděpodobnostní rozložení 7 stavu objektu další iterace bude zahrnovat informace o pravděpodobnostním rozložení stavu daného objektu z chybného nového měření ze senzoru 3, tedy i informaci o pravděpodobnostním rozložení 10 stavů objektů zaznamenaných senzory a toto korigované pravděpodobnostní rozložení 7 stavu objektu se stává pravděpodobnostním rozložením 4 predikovaného stavu tohoto objektu v následující iteraci.As a result of using the probability distributions of 4 predicted object states in the correction phase of the next iteration, a system using a sensor system with fast group fusion of data to obtain a model of objects in its vicinity behaves intelligently. That is, if the probability distribution 10 of the state of the object detected by the sensor in the next iteration changes radically compared to the probability distribution 4 of the predicted state of the same object, the predicted state of the object being affected by all past corrected object states, e.g. due to an error on one sensor 3. will react flexibly, which means that it registers the deviation by the corrected probability distribution 7 of the state of the object of the next iteration including information on the probability distribution of the state of the object from the erroneous re-measurement from sensor 3, thus also information on the probability distribution of 10 states of objects detected by the sensors; this corrected probability distribution 7 of the state of the object becomes the probability distribution 4 of the predicted state of this object in the following iteration.

Claims (9)

PATENTOVÉ NÁROKYPATENT CLAIMS 1. Způsob rychlé skupinové fúze pro získání modelu objektů v okolí senzorického systému zahrnujícího alespoň jeden procesor (11), alespoň dva senzory (3), predikční modul (1), skupinový modul (21), modul modelu měření (22), vzorkovací modul (23) a výstupní modul (8), přičemž způsob rychlé skupinové fúze se vyznačuje tím, že zahrnuje kroky:A fast group fusion method for obtaining a model of objects in the vicinity of a sensor system comprising at least one processor (11), at least two sensors (3), a prediction module (1), a group module (21), a measurement model module (22), a sampling module (23) and an output module (8), wherein the fast group fusion method comprises the steps of: - odeslání pravděpodobnostních rozložení (4) predikovaných stavů objektů z predikčního modulu (1) do skupinového modulu (21), kde jsou objekty zařazeny do alespoň jedné skupiny (6) objektů, která je popsaná pravděpodobnostním rozložením stavu skupiny (6) objektů, přičemž vzdálenost v měřicím prostoru mezi každými dvěma objekty patřícími do stejné skupiny objektů je menší než daný práh, kde práh je přednastavená fixní hodnota, nebo plovoucí hodnota závislá na konkrétním měření;- sending probabilistic distributions (4) of the predicted states of objects from the prediction module (1) to a group module (21), where the objects are included in at least one group (6) of objects, which is described by a probabilistic distribution of the state of the group (6) of objects, in the measuring space between every two objects belonging to the same group of objects is less than a given threshold, where the threshold is a preset fixed value, or a floating value depending on the particular measurement; - odeslání stavů (5) objektů zaznamenaných senzory ze senzorů (3) do modulu (22) modelu měření, kde jsou převedeny na pravděpodobnostní rozložení (10) stavů objektů zaznamenaných senzory;- sending the states (5) of the objects recorded by the sensors from the sensors (3) to the module (22) of the measurement model, where they are converted into a probability distribution (10) of the states of the objects recorded by the sensors; - odeslání pravděpodobnostních rozložení (10) stavů objektů zaznamenaných senzory a pravděpodobnostních rozložení stavů alespoň jedné skupiny (6) objektů do vzorkovacího modulu (23);- sending probability distributions (10) of the states of the objects recorded by the sensors and probabilistic distributions of the states of the at least one group (6) of objects to the sampling module (23); - generování korigovaného pravděpodobnostního rozložení stavu skupiny (6) objektů na základě pravděpodobnostních rozložení (10) stavů objektů zaznamenaných senzory a pravděpodobnostního rozložení stavu této skupiny (10) objektů probíhající ve vzorkovacím modulu (23) pomocí Gibbsova vzorkování;- generating a corrected probability state distribution of the group (6) of objects based on the probability distributions (10) of the states of the objects recorded by the sensors and the probability state distribution of this group (10) of objects taking place in the sampling module (23) by Gibbs sampling; - výběr korigovaných pravděpodobnostních rozložení (7) stavů objektů patřících do skupiny (6) objektů na základě korigovaného pravděpodobnostního rozložení stavu skupiny (6) objektů, do které tyto objekty patří;- selecting the corrected probability distributions (7) of the states of the objects belonging to the group (6) of objects on the basis of the corrected probability distributions of the states of the group (6) of objects to which these objects belong; - odeslání korigovaných pravděpodobnostních rozložení (7) stavů objektů do výstupního modulu (8) za účelem vytvoření obrazu objektů v okolí zařízení;- sending corrected probability distributions (7) of the states of the objects to the output module (8) in order to create an image of the objects in the vicinity of the device; - odeslání korigovaných pravděpodobnostních rozložení (7) stavů objektů do predikčního modulu (1), přičemž predikční modul (1) zahrnuje model chování objektu;- sending corrected probability distributions (7) of the states of the objects to the prediction module (1), the prediction module (1) comprising a model of the behavior of the object; - generování pravděpodobnostních rozložení (4) predikovaných stavů objektů, na základě modelu chování objektu a korigovaných pravděpodobnostních rozložení (7) stavů objektů, přičemž pravděpodobnostní rozložení (7) predikovaných stavů objektů zahrnuje odhad budoucího stavu objektů.- generating probability distributions (4) of the predicted states of the objects, based on the object behavior model and the corrected probability distributions (7) of the states of the objects, the probability distribution (7) of the predicted states of the objects comprising estimating the future state of the objects. 2. Způsob rychlé skupinové fúze podle nároku 1, vyznačující se tím, že stavy (5) objektů zaznamenaných senzory zahrnují alespoň jeden ze skupiny parametrů zahrnující rychlost, velikost, vzdálenost, tvar, barvu, a typ objektu.The fast group fusion method according to claim 1, characterized in that the states (5) of the objects detected by the sensors comprise at least one of a group of parameters including speed, size, distance, shape, color, and object type. 3. Způsob rychlé skupinové fúze podle nároku 1, vyznačující se tím, že korigované pravděpodobnostní rozložení (7) stavu objektu, jenž bylo generováno ve vzorkovacím modulu (23) při jedné iteraci je odesláno do predikčního modulu (1), kde se stává pravděpodobnostním rozložením (4) predikovaného stavu téhož objektu pro následující iteraci.Fast group fusion method according to claim 1, characterized in that the corrected probability distribution (7) of the state of the object which was generated in the sampling module (23) in one iteration is sent to the prediction module (1), where it becomes a probability distribution (4) the predicted state of the same object for the next iteration. 4. Způsob rychlé skupinové fúze podle nároku 2, vyznačující se tím, že při generování korigovaného pravděpodobnostního rozložení stavu skupiny (6) objektů ve vzorkovacím modulu (23) na základě pravděpodobnostních rozložení (10) stavů objektů zaznamenaných senzory a pravděpodobnostního rozložení stavu té stejné skupiny (6) objektů je korigované Fast group fusion method according to claim 2, characterized in that when generating a corrected probability state distribution of a group (6) of objects in the sampling module (23) based on probability distributions (10) of object states recorded by sensors and probability state distribution of the same group (6) objects is corrected -11 CZ 308605 B6 pravděpodobnostní rozložení stavu skupiny objektů (6) ovlivněno každým stavem z pravděpodobnostního rozložení skupiny (6) objektů, přičemž méně pravděpodobné stavy z pravděpodobnostního rozložení skupiny (6) objektů mají menší vliv než více pravděpodobné stavy z pravděpodobnostního rozložení skupiny (6) objektů.-11 CZ 308605 B6 probabilistic state distribution of a group of objects (6) affected by each state from the probabilistic distribution of a group (6) of objects, while less probable states from the probabilistic distribution of a group (6) of objects have less influence than more probable states from the probabilistic distribution of a group (6). ) objects. 5. Způsob řízení vozidla s rychlou skupinovou fúzí pro získání modelu objektů v jeho okolí zahrnujícího alespoň dva senzory (3), alespoň jeden procesor (11), predikční modul (1), skupinový modul (21), model měření (22), vzorkovací modul (23) a výstupní modul (8), přičemž rychlá skupinová fúze dat v okolí takového vozidla se vyznačuje tím, že zahrnuje kroky:A method of driving a fast group fusion vehicle to obtain a model of objects in its vicinity comprising at least two sensors (3), at least one processor (11), a prediction module (1), a group module (21), a measurement model (22), sampling module (23) and an output module (8), wherein the rapid group fusion of data in the vicinity of such a vehicle is characterized in that it comprises the steps of: - odeslání pravděpodobnostních rozložení (4) predikovaných stavů objektů z predikčního modulu (1) do skupinového modulu (21), kde jsou objekty zařazeny do alespoň jedné skupiny (6) objektů, která je popsaná pravděpodobnostním rozložením stavu skupiny (6) objektů, přičemž vzdálenost v měřicím prostoru mezi každými dvěma objekty patřícími do stejné skupiny (6) objektů je menší než daný práh, kde práh je přednastavená fixní hodnota, nebo plovoucí hodnota závislá na konkrétním měření;- sending probabilistic distributions (4) of the predicted states of objects from the prediction module (1) to a group module (21), where the objects are included in at least one group (6) of objects, which is described by a probabilistic distribution of the state of the group (6) of objects, in the measuring space between every two objects belonging to the same group (6) of objects is smaller than a given threshold, where the threshold is a preset fixed value, or a floating value depending on the particular measurement; - odeslání stavů (5) objektů zaznamenaných senzory ze senzorů (3) do modulu (22) modelu měření, kde jsou převedeny na pravděpodobnostní rozložení (10) stavů objektů zaznamenaných senzory;- sending the states (5) of the objects recorded by the sensors from the sensors (3) to the module (22) of the measurement model, where they are converted into a probability distribution (10) of the states of the objects recorded by the sensors; - odeslání pravděpodobnostních rozložení (10) stavů objektů zaznamenaných senzory a pravděpodobnostních rozložení stavů alespoň jedné skupiny (6) objektů do vzorkovacího modulu (23);- sending probability distributions (10) of the states of the objects recorded by the sensors and probabilistic distributions of the states of the at least one group (6) of objects to the sampling module (23); - generování korigovaného pravděpodobnostního rozložení stavu skupiny (6) objektů na základě pravděpodobnostních rozložení (10) stavů objektů zaznamenaných senzory a pravděpodobnostního rozložení stavu této skupiny (6) objektů probíhající ve vzorkovacím modulu (23) pomocí Gibbsova vzorkování;- generating a corrected probability state distribution of the group (6) of objects based on the probability distributions (10) of the states of the objects recorded by the sensors and the probability state distribution of this group (6) of objects taking place in the sampling module (23) by Gibbs sampling; - výběr korigovaných pravděpodobnostních rozložení (7) stavů objektů patřících do skupiny (6) objektů na základě korigovaného pravděpodobnostního rozložení stavu skupiny (6) objektů, do které tyto objekty patří;- selecting the corrected probability distributions (7) of the states of the objects belonging to the group (6) of objects on the basis of the corrected probability distributions of the states of the group (6) of objects to which these objects belong; - odeslání korigovaných pravděpodobnostních rozložení (7) stavů objektů do výstupního modulu (8) za účelem vytvoření obrazu objektů v okolí automobilu;- sending corrected probability distributions (7) of the states of the objects to the output module (8) in order to create an image of the objects around the car; - odeslání korigovaných pravděpodobnostních rozložení (7) stavů objektů do predikčního modulu (1), přičemž predikční modul (1) zahrnuje model chování objektu;- sending corrected probability distributions (7) of the states of the objects to the prediction module (1), the prediction module (1) comprising a model of the behavior of the object; - generování pravděpodobnostních rozložení (4) predikovaných stavů objektů, na základě modelu chování objektu a korigovaných pravděpodobnostních rozložení (4) stavů objektů, přičemž pravděpodobnostní rozložení (4) predikovaných stavů objektů zahrnuje odhad budoucího stavu objektů;- generating probability distributions (4) of the predicted states of the objects, based on the object behavior model and the corrected probability distributions (4) of the states of the objects, the probability distributions (4) of the predicted states of the objects comprising estimating the future state of the objects; - změna alespoň jednoho ze skupiny jízdních parametrů automobilu zahrnující rychlost a směr jízdy na základě korigovaných pravděpodobnostních rozložení (4) stavů objektů, které byly odeslány a zpracovány ve vstupním modulu.- change of at least one of the group of driving parameters of the car including the speed and direction of travel based on the corrected probability distributions (4) of the states of the objects that have been sent and processed in the input module. 6. Způsob řízení vozidla podle nároku 5, vyznačující se tím, že stavy (5) objektů zaznamenaných senzory zahrnují alespoň jeden ze skupiny parametrů zahrnující rychlost, velikost, vzdálenost, tvar, barvu a typ objektu.Vehicle control method according to claim 5, characterized in that the states (5) of the objects detected by the sensors comprise at least one of a group of parameters comprising speed, size, distance, shape, color and type of object. 7. Způsob řízení vozidla podle nároku 5, vyznačující se tím, že korigované pravděpodobnostní rozložení (7) stavu objektu, jenž bylo generováno ve vzorkovacím modulu (23) při jedné iteraci je Vehicle control method according to claim 5, characterized in that the corrected probability distribution (7) of the state of the object which was generated in the sampling module (23) in one iteration is -12 CZ 308605 B6 odesláno do predikčního modulu (1), kde se stává pravděpodobnostním rozložením (4) predikovaného stavu téhož objektu pro následující iteraci.-12 CZ 308605 B6 sent to the prediction module (1), where it becomes a probability distribution (4) of the predicted state of the same object for the next iteration. 8. Způsob řízení vozidla podle nároku 5, vyznačující se tím, že při generování korigovaného pravděpodobnostního rozložení stavu skupiny (6) objektů ve vzorkovacím modulu (23) na základě pravděpodobnostních rozložení (10) stavů objektů zaznamenaných senzory a pravděpodobnostního rozložení stavu té stejné skupiny (6) objektů je korigované pravděpodobnostní rozložení stavu skupiny objektů (6) ovlivněno každým stavem z pravděpodobnostního rozložení skupiny (6) objektů, přičemž méně pravděpodobné stavy z pravděpodobnostního rozložení skupiny (6) objektů mají menší vliv než více pravděpodobné stavy z pravděpodobnostního rozložení skupiny (6) objektů.Vehicle control method according to claim 5, characterized in that when generating a corrected probability state distribution of a group (6) of objects in the sampling module (23) based on the probability distributions (10) of object states recorded by sensors and the probability state distribution of the same group ( 6) objects, the corrected probability distribution of the state of the group of objects (6) is affected by each state from the probability distribution of the group (6) of objects, while less probable states from the probability distribution of the group of objects (6) have less influence than more probable states from the probabilistic distribution of the group (6). ) objects. 9. Senzorický systém s rychlou skupinovou fůzí pro získání modelu objektů v jeho okolí implementovaný na alespoň jednom procesoru (11) založen na bázi iterativního mechanizmu predikce-korekce zahrnující:A fast group fusion sensor system for obtaining a model of objects in its vicinity implemented on at least one processor (11) based on an iterative prediction-correction mechanism comprising: - alespoň dva senzory (3) uzpůsobené pro sledování objektů a odesílání stavů (5) objektů zaznamenaných senzory do modulu (22) modelu měření;- at least two sensors (3) adapted to monitor the objects and send the states (5) of the objects recorded by the sensors to the module (22) of the measurement model; - predikční modul (1) se zabudovanou úložnou pamětí (9) predikčního modulu pro pravděpodobnostní rozložení (4) predikovaných stavů objektů;- a prediction module (1) with a built-in storage memory (9) of the prediction module for probabilistic distribution (4) of predicted states of objects; - korekční modul (2), jenž zahrnuje skupinový modul (21), modul (22) modelu měření a vzorkovaní modul (23);- a correction module (2), which comprises a group module (21), a measurement model module (22) and a sampling module (23); - skupinový modul (21) který je uzpůsoben pro přijímání pravděpodobnostních rozložení (4) predikovaných stavů z objektů z predikčního modulu (1) a třídění objektů do alespoň jedné skupiny (6) objektů, které stav je popsán pravděpodobnostním rozložením stavu skupiny (6) objektů a odeslání pravděpodobnostního rozložení stavu alespoň jedné skupiny (6) objektů do vzorkovacího modulu (23);- a group module (21) which is adapted to receive probabilistic distributions (4) of predicted states from objects from the prediction module (1) and sort objects into at least one group (6) of objects, the state being described by probabilistic state distributions of a group (6) of objects and sending a probabilistic state distribution of the at least one group (6) of objects to the sampling module (23); - modul (22) modelu měření, jenž je uzpůsoben pro přijímání stavů (5) objektů zaznamenaných senzory ze senzorů a převedení stavů (5) objektů zaznamenaných senzory na pravděpodobnostní rozložení (10) stavů objektů zaznamenaných senzory a jejich odeslání do vzorkovacího modulu (23);- a measurement model module (22) adapted to receive the states (5) of the objects recorded by the sensors from the sensors and convert the states (5) of the objects recorded by the sensors into a probability distribution (10) of the states of the objects recorded by the sensors and send them to the sampling module (23) ; - vzorkovací modul (23) zahrnující Gibbsův vzorkovač, přičemž vzorkovací modul (23) je uzpůsoben pro přijímání pravděpodobnostních rozložení stavů skupin (6) objektů a pravděpodobnostního rozložení (10) stavů objektů zaznamenaných senzory a dále je uzpůsoben pro korekci pravděpodobnostního rozložení stavu alespoň jedné skupiny (6) objektů a pravděpodobnostních rozložení (10) stavů objektů zaznamenaných senzory pomocí Gibbsova vzorkovače za vzniku korigovaného pravděpodobnostního rozložení stavu alespoň jedné skupiny (6) objektů a výběr korigovaného pravděpodobnostního rozložení (7) stavů objektů obsažených v korigovaném pravděpodobnostním rozložení stavu skupiny (6) objektů do nichž tyto objekty patřily a odeslání korigovaného pravděpodobnostního rozložení (7) stavu alespoň jednoho objektu do výstupního modulu (8) a predikčního modulu (1);- a sampling module (23) comprising a Gibbs sampler, the sampling module (23) being adapted to receive probability state distributions of groups of objects (6) and probability distributions (10) of object states detected by sensors and further adapted to correct probabilistic state distributions of at least one group (6) objects and probability distributions (10) of object states recorded by sensors using a Gibbs sampler to produce a corrected probability state distribution of at least one group (6) of objects and selecting a corrected probability distribution (7) of object states contained in the corrected group state probability distribution (6) objects to which these objects belonged and sending a corrected probability distribution (7) of the state of the at least one object to the output module (8) and the prediction module (1); - výstupní modul (8), jenž je uzpůsoben přijímat korigované pravděpodobnostní rozložení (7) stavů objektů.- an output module (8) which is adapted to receive a corrected probability distribution (7) of the states of the objects.
CZ2018-524A 2018-10-01 2018-10-01 Sensory system with fast group fusion to obtain a model of objects in its vicinity CZ308605B6 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CZ2018-524A CZ308605B6 (en) 2018-10-01 2018-10-01 Sensory system with fast group fusion to obtain a model of objects in its vicinity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CZ2018-524A CZ308605B6 (en) 2018-10-01 2018-10-01 Sensory system with fast group fusion to obtain a model of objects in its vicinity

Publications (2)

Publication Number Publication Date
CZ2018524A3 CZ2018524A3 (en) 2020-06-03
CZ308605B6 true CZ308605B6 (en) 2020-12-30

Family

ID=70848243

Family Applications (1)

Application Number Title Priority Date Filing Date
CZ2018-524A CZ308605B6 (en) 2018-10-01 2018-10-01 Sensory system with fast group fusion to obtain a model of objects in its vicinity

Country Status (1)

Country Link
CZ (1) CZ308605B6 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130325241A1 (en) * 2012-06-01 2013-12-05 Google Inc. Inferring State of Traffic Signal and Other Aspects of a Vehicle's Environment Based on Surrogate Data
US20150352999A1 (en) * 2014-06-06 2015-12-10 Denso Corporation Driving context generation system
US20160061612A1 (en) * 2014-09-02 2016-03-03 Hyundai Motor Company Apparatus and method for recognizing driving environment for autonomous vehicle
US20160180177A1 (en) * 2014-12-23 2016-06-23 Volkswagen Ag Fused raised pavement marker detection for autonomous driving using lidar and camera
US20170123422A1 (en) * 2015-11-04 2017-05-04 Zoox, Inc. Interactive autonomous vehicle command controller
US9855894B1 (en) * 2016-09-16 2018-01-02 Volkswagen Aktiengesellschaft Apparatus, system and methods for providing real-time sensor feedback and graphically translating sensor confidence data
US20180031384A1 (en) * 2016-07-28 2018-02-01 Toyota Motor Engineering & Manufacturing North America, Inc. Augmented road line detection and display system
US20180124423A1 (en) * 2016-10-28 2018-05-03 Nec Laboratories America, Inc. Dynamic scene prediction with multiple interacting agents
EP2865576B1 (en) * 2013-10-22 2018-07-04 Honda Research Institute Europe GmbH Composite confidence estimation for predictive driver assistant systems
US10037613B1 (en) * 2017-03-30 2018-07-31 Uber Technologies, Inc. Systems and methods to track vehicles proximate perceived by an autonomous vehicle

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130325241A1 (en) * 2012-06-01 2013-12-05 Google Inc. Inferring State of Traffic Signal and Other Aspects of a Vehicle's Environment Based on Surrogate Data
EP2865576B1 (en) * 2013-10-22 2018-07-04 Honda Research Institute Europe GmbH Composite confidence estimation for predictive driver assistant systems
US20150352999A1 (en) * 2014-06-06 2015-12-10 Denso Corporation Driving context generation system
US20160061612A1 (en) * 2014-09-02 2016-03-03 Hyundai Motor Company Apparatus and method for recognizing driving environment for autonomous vehicle
US20160180177A1 (en) * 2014-12-23 2016-06-23 Volkswagen Ag Fused raised pavement marker detection for autonomous driving using lidar and camera
US20170123422A1 (en) * 2015-11-04 2017-05-04 Zoox, Inc. Interactive autonomous vehicle command controller
US20180031384A1 (en) * 2016-07-28 2018-02-01 Toyota Motor Engineering & Manufacturing North America, Inc. Augmented road line detection and display system
US9855894B1 (en) * 2016-09-16 2018-01-02 Volkswagen Aktiengesellschaft Apparatus, system and methods for providing real-time sensor feedback and graphically translating sensor confidence data
US20180124423A1 (en) * 2016-10-28 2018-05-03 Nec Laboratories America, Inc. Dynamic scene prediction with multiple interacting agents
US10037613B1 (en) * 2017-03-30 2018-07-31 Uber Technologies, Inc. Systems and methods to track vehicles proximate perceived by an autonomous vehicle

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Kalman filter, Wikipedia, 28.09.2018, https://en.wikipedia.org/w/index.php?title=Kalman_filter&oldid=861554938 *
Liang Xiao; Ruili Wang; Bin Dai; Yuqiang Fang; Daxue Liu; Tao Wu: Hybrid conditional random field based camera-LIDAR fusion for road detection, Information Sciences, Vol. 432, March 2018, pages 543–558, https://doi.org/10.1016/j.ins.2017.04.048 , https://www.sciencedirect.com/science/article/pii/S0020025517307119 Available online: 29 April 2017 *
Stephan Reuter; Andreas Danzer; Manuel Stübler; Alexander Scheel; Karl Granström: A fast implementation of the Labeled Multi-Bernoulli filter using gibbs sampling, 2017 IEEE Intelligent Vehicles Symposium (IV), Los Angeles, CA, USA, Date of Conference: 11-14 June 2017, DOI: 10.1109/IVS.2017.7995809 , https://ieeexplore.ieee.org/document/7995809 *

Also Published As

Publication number Publication date
CZ2018524A3 (en) 2020-06-03

Similar Documents

Publication Publication Date Title
CN111223135B (en) System and method for enhancing range estimation by monocular cameras using radar and motion data
US10949684B2 (en) Vehicle image verification
KR102499398B1 (en) Lane detection method and apparatus
CN112184589B (en) Point cloud intensity completion method and system based on semantic segmentation
US10369993B2 (en) Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free
CN110796007B (en) Scene recognition method and computing device
JP6857697B2 (en) Vehicle positioning methods, vehicle positioning devices, electronic devices and computer readable storage media
GB2560618A (en) Object tracking by unsupervised learning
KR101864127B1 (en) Apparatus and method for environment mapping of an unmanned vehicle
RU2750243C2 (en) Method and system for generating a trajectory for a self-driving car (sdc)
CN110936959B (en) On-line diagnosis and prediction of vehicle perception system
US20210033706A1 (en) Methods and systems for automatically labeling point cloud data
CN115205803A (en) Automatic driving environment sensing method, medium and vehicle
Jagannathan et al. Multi-sensor fusion for Automated Driving: Selecting model and optimizing on Embedded platform
US20230109473A1 (en) Vehicle, electronic apparatus, and control method thereof
CZ308605B6 (en) Sensory system with fast group fusion to obtain a model of objects in its vicinity
JP6980497B2 (en) Information processing method and information processing equipment
WO2023017625A1 (en) Drive device, vehicle, and method for automated driving and/or assisted driving
Ahmed et al. Lane marking detection using LiDAR sensor
US11544899B2 (en) System and method for generating terrain maps
KR20230014008A (en) Method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network
Katare et al. Autonomous embedded system enabled 3-D object detector:(With point cloud and camera)
Simon et al. Extracting sensor models from a scene based simulation
CN112799079A (en) Data association method and device
US11945439B2 (en) AD or ADAS aided maneuvering of a vehicle

Legal Events

Date Code Title Description
MM4A Patent lapsed due to non-payment of fee

Effective date: 20211001