SK9787Y1 - Method of locating an autonomous vehicle and the connection of a visual system for locating an autonomous vehicle - Google Patents

Method of locating an autonomous vehicle and the connection of a visual system for locating an autonomous vehicle Download PDF

Info

Publication number
SK9787Y1
SK9787Y1 SK127-2022U SK1272022U SK9787Y1 SK 9787 Y1 SK9787 Y1 SK 9787Y1 SK 1272022 U SK1272022 U SK 1272022U SK 9787 Y1 SK9787 Y1 SK 9787Y1
Authority
SK
Slovakia
Prior art keywords
vehicle
locating
ellipse
visual
road identifier
Prior art date
Application number
SK127-2022U
Other languages
Slovak (sk)
Other versions
SK1272022U1 (en
Inventor
Ing. Drahoš Petr
Ing. Haffner Oto PhD.
Ing. Valocký Frederik
Michal Kocúr
Ing. Ťapák Peter PhD.
Original Assignee
Slovenská Technická Univerzita V Bratislave
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Slovenská Technická Univerzita V Bratislave filed Critical Slovenská Technická Univerzita V Bratislave
Priority to SK127-2022U priority Critical patent/SK9787Y1/en
Publication of SK1272022U1 publication Critical patent/SK1272022U1/en
Publication of SK9787Y1 publication Critical patent/SK9787Y1/en

Links

Landscapes

  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

The method of locating an autonomous vehicle is characterized by the steps of: determining the initial position (6) of the vehicle using a GNSS sensor system (4); calculating the error ellipse (7) of the vehicle position by fusing data from the sensor system (4) GNSS to determine the approximate position (6) of the vehicle and the sensor system (5) odometry to determine the error ellipse estimate (7) of the vehicle position; visual scanning of the road identifier (2) R-ID on the lane in front of the vehicle in the field of view of the visual device; image processing (16) by a sampling algorithm; recognition (17) to recognize the road identifier (2) R-ID; determination, by the selection algorithm (11), of a specific recognized road identifier (2) R-ID with its exact position and at the same time the relative position (12) of the vehicle with respect to the recognized road identifier (2) R-ID based on the intersection of the ellipse estimation (7) error the position of the vehicle with the surroundings (9) of this R-ID in the virtual map (10) and the R-ID database; calculating the relative coordinates of a specific recognized road indicator (2) R-ID in the direction of the vehicle axis x and perpendicular to the vehicle axis y in millimetre scale and the relative position (12) of the vehicle with respect to this R-ID; calculation of the precise position (13) of the vehicle, by the conversion algorithm and the sum (15), from the known position (14) of the specific recognized road identifier (2) R-ID and from the relative position (12) of the vehicle with respect to this R-ID.

Description

Oblasť technikyThe field of technology

Technické riešenie sa týka spôsobu zvýšenia presnosti lokalizácie autonómneho vozidla a zapojenia vizuálneho systému na lokalizáciu autonómneho vozidla. Technické riešenie spadá do oblasti lokalizačných systémov autonómnych vozidiel.The technical solution relates to the method of increasing the accuracy of the localization of the autonomous vehicle and the involvement of the visual system for the localization of the autonomous vehicle. The technical solution falls into the field of localization systems of autonomous vehicles.

Doterajší stav technikyCurrent state of the art

V súčasnom stave techniky je známe, že ako kľúčová technológia na lokalizáciu autonómnych vozidiel sa často používa GPS alebo multisystémové GNSS (GPS, GLONASS, Galileo, Beidou) v kombinácii s IMU (Inertial Measuring Unit) a odometriou. GNSS môže poskytovať globálnu, vysoko presnú službu určovania polohy, ale v dôsledku orbitálnej chyby satelitu, chyby časovania s vplyvom chýb šírenia signálu a podobne dokáže presnosť určovania polohy pomocou GNSS dosiahnuť iba úroveň 1 metra. Hoci je možné použiť metódu fázového posunu a postprocessing (bez pohybu vozidla), a tak zvýšiť presnosť polohovania na niekoľko centimetrov, v intenzívnej zástavbe budov alebo v interiéroch - halách dochádza k rušeniu alebo interferencii signálu. V takomto prípade je potom využitie GNSS na účely lokalizácie a navigácie autonómneho vozidla nemožné.In the current state of the art, it is known that GPS or multi-system GNSS (GPS, GLONASS, Galileo, Beidou) in combination with IMU (Inertial Measuring Unit) and odometry is often used as the key technology for the localization of autonomous vehicles. GNSS can provide a global, high-precision positioning service, but due to satellite orbital error, timing error with the influence of signal propagation errors, and so on, the positioning accuracy of GNSS can only reach the level of 1 meter. Although it is possible to use the method of phase shift and postprocessing (without vehicle movement), and thus increase the positioning accuracy to a few centimeters, in intensive building construction or in interiors - halls, interference or signal interference occurs. In such a case, the use of GNSS for the purposes of localization and navigation of an autonomous vehicle is impossible.

Na zlepšenie presnosti určovania polohy, na účely navigácie sa často do výpočtov integrujú informácie o polohe z iných snímačov. Polohu vozidla je možné určiť použitím enkodérov rýchlosti kolies vozidla (kolesová odometria). Takáto metóda je ale náchylná, okrem samotnej chyby enkodéra, na akumuláciu chyby v určitých stavoch okolia (nános pôdy na kolesách, preklzávanie kolies), kedy nie je možné zabezpečiť získanie presnej polohy vozidla a odhad polohy. Inou metódou na určenie polohy je inerciálny navigačný systém (INS), ktorý určuje polohu vzhľadom na počiatočný inerciálny priestor. Presné určenie polohy použitím systému INS je zaťažené integračnou chybou, ktorá s časom narastá a stáva sa tak tento systém nevhodný na samostatné použitie v autonómnych vozidlách.To improve positioning accuracy, position information from other sensors is often integrated into the calculations for navigation purposes. Vehicle position can be determined using vehicle wheel speed encoders (wheel odometry). However, such a method is susceptible, in addition to the encoder error itself, to the accumulation of error in certain environmental conditions (deposition of soil on the wheels, wheel slippage), when it is not possible to ensure obtaining the exact position of the vehicle and estimating the position. Another method for determining position is an inertial navigation system (INS), which determines position relative to an initial inertial space. The exact determination of the position using the INS system is burdened by an integration error that grows over time, making this system unsuitable for independent use in autonomous vehicles.

Zo stavu techniky je známych viacero metód a spôsobov vizuálnej lokalizácie vozidla a zvyšovania presnosti lokalizácie. Napríklad, v dokumente US20200318976 A1 sú poskytnuté systémy a spôsoby ovládania vozidla. V jednom uskutočnení spôsob zahŕňa: prijímanie údajov o orientačnom bode získaných z obrazového snímača vozidla procesorom; fúzovanie údajov o orientačnom bode pomocou procesora s údajmi o polohe vozidla na vytvorenie fúzovaných údajov o jazdnom pruhu, pričom fúzovanie je založené na Kalmanovom filtri; získavanie, pomocou procesora, mapových údajov z mapy jazdných pruhov na základe údajov o polohe vozidla; selektívna aktualizácia mapy jazdných pruhov procesorom na základe zmeny údajov spojených jazdných pruhov z údajov mapy a riadenie vozidla procesorom na základe aktualizovanej mapy jazdných pruhov.From the state of the art, several methods and ways of visual localization of the vehicle and increasing the accuracy of the localization are known. For example, US20200318976 A1 provides systems and methods for controlling a vehicle. In one embodiment, the method includes: receiving landmark data obtained from a vehicle image sensor by a processor; fusing the landmark data using the processor with the vehicle position data to form the fused lane data, the fusing being based on a Kalman filter; obtaining, using the processor, map data from the lane map based on the vehicle position data; selectively updating the lane map by the processor based on the change of the associated lane data from the map data, and controlling the vehicle by the processor based on the updated lane map.

Ďalej dokument WO2014130854 A1 opisuje rôzne techniky na použitie v inerciálnom navigačnom systéme s podporou vizuálneho systému. Ide o inerciálny navigačný systém s podporou vizuálneho systému, ktorý obsahuje: obrazový zdroj, ktorý generuje obrazové dáta obsahujúce množstvo obrazov, a inerciálnu meraciu jednotku (IMU), ktorá vytvára údaje o inerciálnej meracej jednotke indikujúce pohyb vizuálne podporovaného inerciálneho navigačného systému, keď vizuálne asistovaný inerciálny navigačný systém generuje obraz, pričom obrazové údaje zachytávajú znaky externého kalibračného cieľa. Inerciálny navigačný systém s podporou videnia ďalej obsahuje jednotku spracovania vrátane odhadovača, pričom jednotka spracovania zahŕňa spracovanie údajov inerciálnej meracej jednotky a obrazových údajov na výpočet kalibračných parametrov pre inerciálny navigačný systém s podporou videnia pri výpočte náklonu a sklonu kalibračného cieľa, pričom kalibračné parametre definujú relatívne polohy a orientácie inerciálnej meracej jednotky a zdroja obrazu inerciálneho navigačného systému s podporou videnia.Furthermore, document WO2014130854 A1 describes various techniques for use in an inertial navigation system with the support of a visual system. It is a visually assisted inertial navigation system that includes: an image source that generates image data containing a plurality of images, and an inertial measurement unit (IMU) that generates inertial measurement unit data indicating the motion of the visually assisted inertial navigation system when visually assisted the inertial navigation system generates an image, while the image data captures the features of the external calibration target. The vision-aided inertial navigation system further includes a processing unit including an estimator, wherein the processing unit includes processing the data of the inertial measurement unit and the image data to calculate calibration parameters for the vision-aided inertial navigation system in calculating the tilt and inclination of the calibration target, wherein the calibration parameters define the relative positions and orientations of the inertial measurement unit and image source of the vision-aided inertial navigation system.

Spôsob pre systém riadenia vozidiel s kamerou s perspektívnym videním generujúcou perspektívne obrazy vozidiel v smere premávky vrátane vykonávania antiperspektívnej transformácie na perspektívnych obrazoch je prezentovaný v dokumente US9928426 B1. Metóda rozdeľuje každý antiperspektívny obraz na čiastkové obrazy pozdĺž jedného z radiálneho smeru a tangenciálneho smeru vzhľadom na smer dopravy a určí mierkový faktor pre každý čiastkový obrázok na základe merania mierky každého vozidla na viacerých pozíciách na jednom obrázku použitím metódy rámcového rozdielu. Následne sa vykonaná transformácia mierky pre každý čiastkový obrázok použitím zodpovedajúcich mierkových faktorov pre čiastkový obrázok. Kombináciou každého z mierkových transformovaných čiastkových obrázkov pre každé vozidlo do zodpovedajúcich vylepšených antiperspektívnych obrázkov je následne možné vykonať detekciu vozidla pre každé vozidlo na základe kombinácie vylepšených antiperspektívnych obrázkov, v ktorých je sledovanie vylepšené optimalizovaným rozsahom veľkosti detekčného boxu určeného vylepšenými antiperspektívnymi obrázkami.A method for a vehicle control system with a perspective vision camera generating perspective images of vehicles in the direction of traffic, including performing an anti-perspective transformation on the perspective images, is presented in document US9928426 B1. The method divides each anti-perspective image into sub-images along one of the radial direction and the tangential direction with respect to the traffic direction, and determines the scale factor for each sub-image based on measuring the scale of each vehicle at multiple positions in one image using the frame difference method. Subsequently, scale transformation is performed for each sub-image using the corresponding scale factors for the sub-image. By combining each of the scaled transformed sub-images for each vehicle into the corresponding enhanced anti-perspective images, vehicle detection can then be performed for each vehicle based on the combination of the enhanced anti-perspective images, in which the tracking is enhanced by an optimized detection box size range determined by the enhanced anti-perspective images.

Potom je možné sledovať vozidlo na základe kombinácie vylepšených antiperspektívnych obrazov, v ktorých je detekcia vylepšená s optimalizovaným rozsahom veľkosti detekčného boxu určeného vylepšenými antiperspektívnymi obrazmi.The vehicle can then be tracked based on a combination of enhanced anti-perspective images in which the detection is enhanced with an optimized detection box size range determined by the enhanced anti-perspective images.

Dokument US10691963 B2 opisuje spôsob lokalizácie vozidla, kde vozidlo senzoricky deteguje prvé okolité objekty. Lokalizácia vozidla je potom realizovaná zosúladením údajov senzoricky zistených prvých okolitých objektov s mapovými údajmi prvej digitálnej mapy. Ak toto zosúladenie nie je možné, vytvorí sa druhá digitálna mapa pre lokálne okolie a poloha vozidla sa určí použitím podľa druhej digitálnej mapy.Document US10691963 B2 describes a method of locating a vehicle, where the vehicle sensorically detects the first surrounding objects. The localization of the vehicle is then carried out by matching the data of the sensorially detected first surrounding objects with the map data of the first digital map. If this matching is not possible, a second digital map is created for the local area and the vehicle's position is determined using the second digital map.

Riešenie opísané v dokumente CN107229063 A sa týka druhu bezpilotnej automobilovej navigácie a zlepšenia presnosti určovania polohy zlúčenej na základe GNSS a vizuálnej odometrie (VO). Kroky vizuálnej odometrie sú nasledujúce: Ide o detekciu jazdného pruhu na základe monokulárneho videnia. Nasleduje optimalizácia presnosti polohovania počítadla kilometrov pre monokulárne videnie. Napokon je to korekcia presnosti polohovania integrovaného navigačného systému GNSS a vizuálnej odometrie. Predložené riešenie zlepšuje vizuálnu odometriu pomocou čiary jazdného pruhu, potom sa zlúči s určovaním polohy GNSS, aby sa zlepšila spoľahlivosť systému určovania polohy vozidla. GNSS/VO má veľmi silnú doplnkovú charakteristiku, GNSS môže získať dlhodobo stabilný výsledok určovania polohy a VO môže získať krátkodobé vysoko presné údaje polohy. Výpočet je filtrovaný rozdielom meraní polohy pomocou dvoch druhov snímačov.The solution described in document CN107229063 A relates to a type of unmanned automotive navigation and positioning accuracy improvement based on GNSS and visual odometry (VO). The steps of visual odometry are as follows: It is lane detection based on monocular vision. Next comes the optimization of the odometer positioning accuracy for monocular vision. Finally, it is a correction of the positioning accuracy of the integrated GNSS navigation system and visual odometry. The presented solution improves visual odometry using the lane line, then merges it with GNSS positioning to improve the reliability of the vehicle positioning system. GNSS/VO has a very strong complementary characteristic, GNSS can obtain long-term stable positioning result, and VO can obtain short-term high-precision position data. The calculation is filtered by the difference of position measurements using two types of sensors.

Nedostatky riešení známych v stave techniky evokovali navrhnúť iný systém, ktorý by poskytoval globálnu polohu pre navigáciu autonómnych vozidiel vo vonkajšom aj vnútornom prostredí (outdoor a indoor) bez potreby jazdných pruhov. Výsledkom tohto úsilia je ďalej opisovaný spôsob lokalizácie autonómneho vozidla a zapojenie vizuálneho systému na lokalizáciu autonómneho vozidla v predloženom technickom riešení.The shortcomings of the solutions known in the state of the art evoked the design of another system that would provide a global location for the navigation of autonomous vehicles in both outdoor and indoor environments (outdoor and indoor) without the need for lanes. The result of this effort is the further described method of locating an autonomous vehicle and the inclusion of a visual system for locating an autonomous vehicle in the presented technical solution.

Podstata technického riešeniaThe essence of the technical solution

Nedostatky zo stavu techniky odstraňuje spôsob lokalizácie autonómneho vozidla a zapojenie vizuálneho systému na lokalizáciu autonómneho vozidla podľa predloženého technického riešenia. Odhad polohy vozidla je možné realizovať využitím rôznych metód, resp. snímačov. Najjednoduchšou implementáciou hrubého stanovenia polohy je odometria. Pri použití typických inkrementálnych snímačov na určenie polohy autonómneho vozidla sa odhad chyby v uhle otočenia vozidla pohybuje okolo 1°/m, kým odhad chyby v prejdenej vzdialenosti býva zhruba do niekoľkých decimetrov na desať metrov. Odhad chyby v otočení a prejdenej dráhe vozidla je možné v globálnej mape vizualizovať/realizovať tzv. elipsou odhadu chýb. Tento spôsob predpokladá známu približnú globálnu polohu vozidla, ktorú je možné zistiť rôznymi inými postupmi, ktoré nie sú podstatou tejto metódy. Elipsa odhadu chýb určuje distribúciu nameraných bodov (polôh) od skutočného bodu (polohy) vozidla.Deficiencies from the state of the art are eliminated by the method of locating an autonomous vehicle and the involvement of a visual system for locating an autonomous vehicle according to the presented technical solution. It is possible to estimate the position of the vehicle using various methods, or sensors. The simplest implementation of rough positioning is odometry. When using typical incremental sensors to determine the position of an autonomous vehicle, the estimation of the error in the angle of rotation of the vehicle is around 1°/m, while the estimation of the error in the traveled distance is roughly within a few decimeters per ten meters. The estimation of the error in the turn and the traveled path of the vehicle can be visualized/realized in the global map. by the error estimation ellipse. This method assumes a known approximate global position of the vehicle, which can be determined by various other procedures that are not the essence of this method. The error estimation ellipse determines the distribution of the measured points (positions) from the actual point (position) of the vehicle.

Minimálnu elipsu odhadu chýb a približnú polohu vozidla je možné určiť viacerými spôsobmi známymi v stave techniky. V prípade, ak je dostupný signál GNSS v dostatočne dlhom čase (napr. 1 až 2 minúty), je možné určiť polohu štatistickým vyhodnotením signálov GNSS a pomocou metódy RTK (Real Time Kinematic, ktorá sa poskytuje ako služba - SK POS), a takto získať vyššiu presnosť polohy vozidla, resp. minimálnu elipsu odhadu chýb. Inou možnosťou je získanie presnej polohy (resp. elipsy s minimálnym rozmerom) manuálnym zadaním známej polohy operátorom alebo automaticky, napr. pri dobíjaní vozidla v dokovacej stanici so známou globálnou polohou. Ďalšou možnosťou je využitie iných senzorových systémov, ktoré umožnia globálnu lokalizáciu vozidla, napr. vizuálna triangulácia, rozpoznanie unikátneho identifikátora, Wi-Fi trilaterácia, UWB lokalizácia a pod.The minimum error estimation ellipse and the approximate position of the vehicle can be determined in several ways known in the art. If the GNSS signal is available for a long enough time (e.g. 1 to 2 minutes), it is possible to determine the position by statistical evaluation of GNSS signals and using the RTK method (Real Time Kinematic, which is provided as a service - SK POS), and as follows to obtain higher accuracy of the vehicle's position, or minimum error estimation ellipse. Another option is to obtain an exact position (or an ellipse with a minimum dimension) by manually entering a known position by the operator or automatically, e.g. when recharging the vehicle in a docking station with a known global position. Another possibility is the use of other sensor systems that enable global localization of the vehicle, e.g. visual triangulation, unique identifier recognition, Wi-Fi trilateration, UWB localization, etc.

Navrhnutá metóda na zvýšenie presnosti lokalizácie využíva cestný identifikátor (R-ID), ktorý je rozpoznaný vizuálnym senzorovým systémom. Cestný identifikátor má vopred známu grafickú podobu výhodne napr. trojuholník, ktorú je možné vyobraziť buď priamo na cestu, alebo grafickú podobu naniesť na iný materiál (napr. papier, plastovú či kovovú dosku atď.) a tento materiál umiestniť na vozovku. Grafická podoba je výhodne zvolená tak, aby z nej bolo možné určiť polohu cestného identifikátora vzhľadom na vozidlo. Poloha každého cestného identifikátora je známa v globálnej mape. Pre každý cestný identifikátor je zadefinované jeho prislúchajúce okolie. Veľkosť elipsy odhadu chyby lokalizácie vozidla určenej podľa navrhnutej metódy je minimalizovaná dostatočnou hustotou, resp. vzdialenosťou jednotlivých R-ID na vozovke. V prípade, ak je R-ID detegovaný pomocou vizuálneho senzorického systému, vyhodnotí sa, do ktorého okolia R-ID táto elipsa odhadu chýb spadá. Na základe identifikácie daného R-ID je možné určiť spresnenú polohu vozidla a azimut (elipsa odhadu chýb sa teda v tomto momente minimalizuje), keďže každé R-ID má presne určenú polohu a rotáciu vo virtuálnej globálnej mape uloženej v riadiacom počítači. Podstata riešenia pri meraní polohy spočíva v periodickom snímkovaní kamery, ktorá, ak zachytí R-ID, tak pomocou viacerých algoritmov rozpozná obraz cestného identifikátora R-ID a určí jeho polohu v zornom poli kamery, a potom vypočíta jeho relatívnu polohu k vozidlu. Keďže každý R-ID má známu svoju globálnu polohu, tak pomocou relatívnej polohy sa získa globálna poloha vozidla. Pri lokalizácii R-ID sa výhodne vyhodnocujú primárne dve súradnice: v smere osi vozidla (dĺžka x) a kolmo na smer osi vozidla (šírka y). Spracovanie obrazu zahŕňa dve základné fázy: prvou fázou je rozpoznanie/identifikácia značky výhodne pomocou konvolučnej neurónovej siete, kaskádovým klasifikátorom a podobne. Výstupom rozpoznaných objektov z kamery je poloha rozpoznaného R-ID. V druhej fáze pomocou súradníc R-ID (v pixeloch) prebieha výpočet relatívnych súradníc R-ID v rovine dráhy a v milimetrovej mierke.The proposed method to increase the localization accuracy uses the road identifier (R-ID), which is recognized by the visual sensor system. The road identifier has a graphic form known in advance, preferably e.g. a triangle, which can be depicted either directly on the road, or the graphic form can be applied to another material (e.g. paper, plastic or metal plate, etc.) and placed on the road. The graphic form is preferably chosen so that it is possible to determine the position of the road identifier relative to the vehicle. The position of each road identifier is known on the global map. For each road identifier, its associated neighborhood is defined. The size of the ellipse of the estimation of the vehicle localization error determined according to the proposed method is minimized by sufficient density, or by the distance of individual R-IDs on the road. In case the R-ID is detected using a visual sensory system, it is evaluated in which neighborhood of the R-ID this error estimation ellipse falls. Based on the identification of a given R-ID, it is possible to determine the precise position of the vehicle and the azimuth (thus, the error estimation ellipse is minimized at this point), since each R-ID has a precisely determined position and rotation in the virtual global map stored in the control computer. The essence of the position measurement solution consists in periodic imaging of the camera, which, if it captures the R-ID, uses several algorithms to recognize the image of the R-ID road identifier and determine its position in the field of view of the camera, and then calculates its relative position to the vehicle. Since each R-ID has a known global position, the global position of the vehicle is obtained using the relative position. When locating the R-ID, two coordinates are primarily evaluated: in the direction of the vehicle axis (length x) and perpendicular to the direction of the vehicle axis (width y). Image processing involves two basic phases: the first phase is mark recognition/identification preferably using a convolutional neural network, a cascade classifier, and the like. The output of recognized objects from the camera is the position of the recognized R-ID. In the second phase, the R-ID coordinates (in pixels) are used to calculate the relative R-ID coordinates in the plane of the track and on a millimeter scale.

Podstata zapojenia vizuálneho systému na lokalizáciu autonómneho vozidla využívajúceho spôsob lokalizácie autonómneho vozidla spočíva v tom, že sa skladá z vizuálneho snímacieho zariadenia - kamery prepojenej s výpočtovým prostriedkom - riadiacim počítačom, z algoritmu - softvéru na spracovanie obrazu a cestného identifikátora R-ID umiestneného na dráhe vo forme špecifického 2D obrazu pripevneného alebo nakresleného na cestnej komunikácii. Vizuálne snímacie zariadenie je upevnené vpredu na vozidlo v definovanej výške a so sklonom tak, aby snímalo cestu pred vozidlom. V tejto polohe musí byť vizuálne snímacie zariadenie kalibrované. Kalibrácia spočíva v umiestnení kalibračného vzoru (obyčajne čierno-bielej šachovnice) do zorného poľa vizuálneho snímacieho zariadenia v rovine vozidla, zosnímaní tohto vzoru a porovnaní snímky s reálnymi rozmermi šachovnice. Po umiestnení cestného identifikátora R-ID na dráhu je potrebná kalibrácia každého R-ID, ktorá spočíva v zmeraní absolútnej, globálnej polohy R-ID, napr. pomocou geodetického prístroja alebo presným GNSS prijímačom a štatistickým vyhodnotením. Globálna poloha každého R-ID sa zaznamená do databázy a do mapy prostredia v riadiacom počítači. Ďalej k riadiacemu počítaču je dátovým spojením pripojený senzorový systém GNSS na určenie približnej polohy vozidla a senzorový systém odometrie na určenie odhadu elipsy chyby polohy vozidla. Funkcia vizuálneho snímacieho zariadenia v súčinnosti s inými lokalizačnými systémami (napr.: GNSS, odometria, IMU...) pri riadení autonómnych vozidiel sú navzájom komplementárne a zároveň aj redundandné v záujme zvýšenia spoľahlivosti a v konečnom dôsledku zabezpečenia funkčnej bezpečnosti. GNSS poskytuje absolútnu globálnu polohu, odometriu a IMU relatívnu polohu. Navrhovaný spôsob vizuálnej lokalizácie poskytuje globálnu polohu, a to fyzikálne nezávislým (od GNSS) spôsobom. Vysokú úroveň vierohodnosti dosahuje tým, že R-ID sú výhodne umiestnené podľa potreby užívateľa priamo do jazdnej dráhy vozidiel. Po zachytení identifikátora R-ID je isté, že sa vozidlo nachádza na vhodnom mieste v priestore.The essence of the involvement of a visual system for the localization of an autonomous vehicle using the method of localization of an autonomous vehicle consists in the fact that it consists of a visual sensing device - a camera connected to a computing device - a control computer, an algorithm - image processing software and an R-ID road identifier placed on the track in the form of a specific 2D image fixed or drawn on the road. The visual sensing device is mounted on the front of the vehicle at a defined height and with an inclination so as to sense the road in front of the vehicle. In this position, the visual sensing device must be calibrated. Calibration consists in placing a calibration pattern (usually a black-and-white checkerboard) in the field of view of the visual sensing device in the plane of the vehicle, photographing this pattern and comparing the image with the real dimensions of the checkerboard. After placing the R-ID road identifier on the track, calibration of each R-ID is required, which consists in measuring the absolute, global position of the R-ID, e.g. using a geodetic instrument or a precise GNSS receiver and statistical evaluation. The global position of each R-ID is recorded in the database and in the environment map in the control computer. Furthermore, the GNSS sensor system for determining the approximate position of the vehicle and the odometry sensor system for determining the estimation of the ellipse of the vehicle position error are connected to the control computer via a data link. The function of the visual sensing device in cooperation with other localization systems (e.g.: GNSS, odometry, IMU...) when driving autonomous vehicles are complementary to each other and at the same time redundant in order to increase reliability and ultimately ensure functional safety. GNSS provides absolute global position, odometry and IMU relative position. The proposed method of visual localization provides a global position in a physically independent (from GNSS) way. It achieves a high level of reliability by the fact that R-IDs are advantageously placed according to the user's needs directly in the driving path of vehicles. After capturing the R-ID identifier, it is certain that the vehicle is located in a suitable place in the space.

Aby vizuálny systém na lokalizáciu autonómneho vozidla správne fungoval, je potrebné splniť podmienky na výber jednotlivých komponentov tohto vizuálneho systému. Pri výbere vizuálneho snímacieho zariadenia - tu výhodne kamery, je potrebné prihliadať na počet pixelov, ale hlavne na počet snímok za sekundu tak, aby sa pri najvyššej rýchlosti vozidla v zornom poli zachytil a zosnímal aspoň jeden cestný identifikátor R-ID. Rýchlosť spracovania obrazu sa zvyšuje pri menšom počte pixelov, ale pritom klesá rozlišovacia schopnosť. Rýchlosť spracovania obrazu sa zvyšuje, ak sa zabezpečí minimálna dovolená vzdialenosť medzi dvomi cestnými identifikátormi R-ID tak, aby v zornom poli kamery bol iba jeden cestný identifikátor R-ID súčasne. Napríklad, minimálna vzdialenosť bude výhodne 2 m medzi dvomi cestnými identifikátormi R-ID. Pri takto zvolenej vzdialenosti bude aj veľkosť elipsy odhadu chyby lokalizácie určenej podľa navrhnutej metódy optimálna.In order for the visual system to locate an autonomous vehicle to work properly, the conditions for selecting the individual components of this visual system must be met. When choosing a visual sensing device - here preferably a camera, it is necessary to take into account the number of pixels, but mainly the number of frames per second so that at the highest speed of the vehicle in the field of vision, at least one R-ID road identifier is captured and scanned. Image processing speed increases with fewer pixels, but resolution decreases. Image processing speed is increased if the minimum permissible distance between two R-ID road identifiers is ensured so that only one R-ID road identifier is in the field of view of the camera at the same time. For example, the minimum distance will preferably be 2 m between two R-ID road identifiers. With the distance chosen in this way, the size of the ellipse of the localization error estimate determined according to the proposed method will be optimal.

Kamera je prepojená s výpočtovým prostriedkom - riadiacim počítačom na účely rozpoznávania objektov. Pri rozpoznávaní sa výhodne používa rozlíšenie 640 x 480 pixelov pri rýchlosti snímania 30 obrázkov za sekundu. Toto rozlíšenie predstavuje výhodný kompromis medzi schopnosťou kamery zachytiť detail a veľkosťou nasnímaného obrazu, resp. rýchlosťou, ako je možné pre potreby tu opisovaného technického riešenia tento obraz spracovať. Kamera rozpoznáva jednoduchý cestný identifikátor R-ID. Výhody spôsobu zvýšenia presnosti lokalizácie autonómneho vozidla a zapojenia vizuálneho systému na lokalizáciu autonómneho vozidla podľa technického riešenia sú zjavné z jeho účinkov, ktorými sa prejavuje navonok. Účinky spočívajú v použití monokulárnej kamery na vozidle na snímanie polohy cestného identifikátora R-ID na dráhe pred vozidlom na účely vyhodnotenia relatívnych súradníc R-ID k vozidlu. R-ID má vopred známu, kalibrovanú polohu v globálnych súradniciach v globálnej mape uloženej v riadiacom počítači. Pomocou kamery a spracovania obrazu sa získajú presné globálne súradnice vozidla. Tento originálny senzorický systém poskytuje globálnu polohu na navigáciu autonómnych vozidiel vo vonkajšom aj vnútornom prostredí (outdoor a indoor). Na rozdiel od GNSS (GPS, Galileo...) meria globálnu polohu aj v „satelitnom tieni“ budov, prístreškov alebo priamo v budovách. Na navigáciu a autonómne riadenie vozidiel s využitím spôsobu podľa predkladaného technického riešenia nie sú potrebné jazdné pruhy. Navrhovaný spôsob lokalizácie poskytuje globálnu polohu, a to na GNSS fyzikálne nezávislým spôsobom. Vysoká úroveň vierohodnosti sa dosahuje tým, že R-ID sú umiestnené podľa potreby užívateľa priamo do jazdnej dráhy vozidiel. Po zachytení identifikátora R-ID je isté a vierohodné, že sa vozidlo nachádza na vhodnom mieste v priestore.The camera is connected to a computing device - a control computer for the purpose of object recognition. A resolution of 640 x 480 pixels at a scanning speed of 30 images per second is advantageously used for recognition. This resolution represents an advantageous compromise between the camera's ability to capture detail and the size of the captured image, or speed, as it is possible to process this image for the needs of the technical solution described here. The camera recognizes a simple R-ID road identifier. The advantages of the method of increasing the accuracy of the localization of the autonomous vehicle and the involvement of the visual system for the localization of the autonomous vehicle according to the technical solution are apparent from its external effects. The effects consist of using a monocular camera on the vehicle to capture the position of the road identifier R-ID on the track in front of the vehicle for the purpose of evaluating the relative coordinates of the R-ID to the vehicle. The R-ID has a pre-known, calibrated position in global coordinates on a global map stored in the control computer. Using the camera and image processing, the exact global coordinates of the vehicle are obtained. This original sensor system provides global positioning for autonomous vehicle navigation in both outdoor and indoor environments. Unlike GNSS (GPS, Galileo...) it measures the global position even in the "satellite shadow" of buildings, shelters or directly in buildings. Lanes are not required for navigation and autonomous driving of vehicles using the method according to the presented technical solution. The proposed localization method provides a global position, physically independent of GNSS. A high level of reliability is achieved by the fact that the R-IDs are placed according to the user's needs directly in the driving path of the vehicles. After capturing the R-ID identifier, it is certain and reliable that the vehicle is located in the appropriate place in the space.

Prehľad obrázkov na výkresochOverview of images on drawings

Spôsob lokalizácie autonómneho vozidla a zapojenie vizuálneho systému na lokalizáciu autonómneho vozidla podľa technického riešenia budú ďalej vysvetlené na výkresoch. Na obr. 1 je znázornený vývojový diagram postupnosti spôsobu. Na obr. 2 je znázornené rozpoznanie cestného identifikátora R-ID a prekrytie okolia R-ID elipsou odhadu chýb polohy vozidla. Na obr. 3 je znázornená jedna možná forma cestného identifikátora R-ID. Na obr. 4 je znázornené rozpoznanie cestného identifikátora R-ID a určenie relatívnej polohy vozidla vzhľadom na R-ID. Na obr. 5 je znázornená ilustrácia zapojenia vizuálneho systému na lokalizáciu autonómneho vozidla.The method of locating the autonomous vehicle and the involvement of the visual system for locating the autonomous vehicle according to the technical solution will be further explained in the drawings. In fig. 1 shows a flowchart of the sequence of the method. In fig. 2 shows the recognition of the R-ID road identifier and the overlay of the R-ID surroundings with the ellipse of the vehicle position error estimation. In fig. 3 shows one possible form of road identifier R-ID. In fig. 4 shows the recognition of the road identifier R-ID and the determination of the relative position of the vehicle with respect to the R-ID. In fig. 5 shows an illustration of the connection of a visual system for the localization of an autonomous vehicle.

Príklady uskutočneniaImplementation examples

Jednotlivé uskutočnenia technického riešenia sa uvádzajú na ilustráciu a nie ako obmedzenia riešení. Odborníci poznajúci stav techniky nájdu alebo budú schopní zistiť s použitím nie viac ako rutinného experimentovania mnoho ekvivalentov k špecifickým uskutočneniam technického riešenia. Aj takéto ekvivalenty budú spadať do rozsahu nárokov na ochranu.Individual implementations of the technical solution are presented for illustration and not as limitations of the solutions. Those skilled in the art will find or be able to find, using no more than routine experimentation, many equivalents to specific embodiments of the technical solution. Even such equivalents will fall within the scope of protection claims.

Príklad 1Example 1

V tomto príklade výhodného uskutočnenia je opísaný spôsob lokalizácie autonómneho vozidla podľa technického riešenia, ako je to názorne zobrazené na obr. 1 až 4. Vychádza sa zo stavu, keď senzorovým systémom 4 GNSS sa určuje približná poloha 6 vozidla so známou chybou polohy vozidla. Ďalej sa fúziou dát zo senzorového systému 4 GNSS na určenie približnej polohy vozidla a senzorového systému 5 odometrie na určenie odhadu elipsy chyby polohy vozidla vypočítava odhad elipsy 7 chyby polohy vozidla. Približnú polohu vozidla a minimálnu elipsu odhadu chýb je možné výhodne určiť viacerými spôsobmi. V prípade, ak je dostupný signál GNSS v dostatočne dlhom čase (napr. 1 až 2 minúty), je možné určiť polohu štatistickým vyhodnotením signálov GNSS a pomocou metódy RTK (Real Time Kinematic, ktorá sa poskytuje ako služba SK POS), a takto získať vyššiu presnosť polohy vozidla, resp. minimálnu elipsu odhadu chýb. Inou výhodnou možnosťou je získanie presnej polohy (resp. elipsy s minimálnym rozmerom) manuálnym zadaním známej polohy operátorom alebo automaticky, napr. pri dobíjaní vozidla v dokovacej stanici so známou globálnou polohou. Ďalšou výhodnou možnosťou je využitie iných senzorových systémov, ktoré umožnia globálnu lokalizáciu vozidla, napr. vizuálna triangulácia, rozpoznanie unikátneho identifikátora, Wi-Fi trilaterácia, UWB lokalizácia a pod.In this example of a preferred embodiment, the method of locating an autonomous vehicle is described according to the technical solution, as illustrated in fig. 1 to 4. It is based on the condition when the approximate position 6 of the vehicle is determined by the GNSS sensor system 4 with a known error of the vehicle position. Further, by fusing data from the GNSS sensor system 4 for determining the approximate position of the vehicle and the odometry sensor system 5 for determining the estimate of the vehicle position error ellipse, an estimate of the vehicle position error ellipse 7 is calculated. The approximate position of the vehicle and the minimum error estimation ellipse can be advantageously determined in several ways. If the GNSS signal is available for a long enough time (e.g. 1 to 2 minutes), it is possible to determine the position by statistically evaluating the GNSS signals and using the RTK method (Real Time Kinematic, which is provided as a SK POS service), and thus obtain higher accuracy of the vehicle position, or minimum error estimation ellipse. Another advantageous option is to obtain an exact position (or an ellipse with a minimum dimension) by manually entering a known position by the operator or automatically, e.g. when recharging the vehicle in a docking station with a known global position. Another advantageous option is the use of other sensor systems that enable global localization of the vehicle, e.g. visual triangulation, unique identifier recognition, Wi-Fi trilateration, UWB localization, etc.

Zároveň sa vizuálnym snímacím zariadením 1 so stanoveným vzorkovaním obrazu 16 zisťuje prítomnosť cestného identifikátora 2 R-ID v zornom poli 8 vizuálneho snímacieho zariadenia 1. Nasleduje rozpoznávanie 17 R-ID. V prípade, že je rozpoznaný cestný identifikátor 2 R-ID, na základe prieniku odhadu elipsy chyby polohy vozidla s okolím 9 R-ID vo virtuálnej mape 10 a databáze R-ID sa algoritmom selekcie 11 určí, ktorý konkrétny cestný identifikátor bol rozpoznaný. Zároveň sa výpočtom 18 určí relatívna poloha 12 vozidla vzhľadom na rozpoznaný R-ID.At the same time, the presence of the R-ID road identifier 2 in the visual field 8 of the visual sensing device 1 is detected by the visual sensing device 1 with the determined image sampling 16. The recognition 17 of the R-ID follows. If the road identifier 2 R-ID is recognized, based on the intersection of the ellipse estimate of the vehicle position error with the surroundings 9 of the R-ID in the virtual map 10 and the R-ID database, the selection algorithm 11 determines which specific road identifier has been recognized. At the same time, calculation 18 determines the relative position 12 of the vehicle with respect to the recognized R-ID.

Použitím známej polohy 14 konkrétneho rozpoznaného cestného identifikátora 2 R-ID a relatívnej polohy 12 vozidla vzhľadom na tento R-ID je algoritmom konverzie a súčtu 15 vypočítaná spresnená poloha 13 vozidla so zvýšenou presnosťou, resp. odhad elipsy chyby polohy vozidla. Postup metódy sa následne výhodne opakuje na ďalšie rozpoznania cestných identifikátorov R-ID, napríklad počas pohybu vozidla tak, ako bolo opísané. V prípade, že odhad elipsy chýb je väčší ako okolie R-ID vo virtuálnej mape, približná poloha vozidla sa určí uvedeným postupom opätovne alebo sa určí inou metódou známou v stave techniky. Po opätovnom určení približnej polohy vozidla sa postup metódy vykoná, ako bolo už opísané.By using the known position 14 of the specific recognized road identifier 2 R-ID and the relative position 12 of the vehicle with respect to this R-ID, the conversion and sum algorithm 15 calculates the precise position 13 of the vehicle with increased accuracy, or estimation of the vehicle position error ellipse. The procedure of the method is subsequently advantageously repeated for further recognitions of R-ID road identifiers, for example during the movement of the vehicle as described. In the event that the estimate of the error ellipse is larger than the neighborhood of the R-ID in the virtual map, the approximate position of the vehicle is determined by the above procedure again or determined by another method known in the state of the art. After re-determining the approximate position of the vehicle, the procedure of the method is performed as previously described.

Príklad 2Example 2

V tomto príklade konkrétneho uskutočnenia je opísané zapojenie vizuálneho systému na lokalizáciu autonómneho vozidla podľa technického riešenia, ktoré je znázornené na obr. 5, spôsobom opísaným v príklade 1. Pozostáva z vizuálneho snímacieho zariadenia 1 s algoritmom na rozpoznávanie cestného identifikátora 2 R-ID, ktorý má vizuálny dosah na cestný identifikátor 2 R-ID umiestnený na vozovke. Jedna možná realizácia cestného identifikátora 2 R-ID v tvare trojuholníka je znázornená na obr. 3. Vizuálne snímacie zariadenie 1 je dátovým spojením pripojené na riadiaci počítač 3. K riadiacemu počítaču 3 je dátovým spojením pripojený senzorový systém 4 GNSS na určenie približnej polohy vozidla a senzorový systém 5 odometrie na určenie odhadu elipsy chyby polohy vozidla.In this example of a specific embodiment, the connection of a visual system for the localization of an autonomous vehicle according to the technical solution shown in fig. 5, in the manner described in example 1. It consists of a visual sensing device 1 with an algorithm for recognizing the road identifier 2 R-ID, which has a visual range of the road identifier 2 R-ID located on the road. One possible implementation of the road identifier 2 R-ID in the shape of a triangle is shown in fig. 3. The visual sensing device 1 is connected to the control computer 3 by a data connection. The GNSS sensor system 4 for determining the approximate position of the vehicle and the odometry sensor system 5 for determining the estimation of the ellipse of the vehicle position error are connected to the control computer 3 by a data connection.

Na vizuálne snímacie zariadenie 1 bola použitá kamera FSCAM_CU135 s vyrovnávacou pamäťou, ktorá umožňuje rýchlo a lacno spracovať snímky, čo zabezpečuje uloženie a spracovanie každého nasnímaného obrázka. Táto kamera má jedinečný vstavaný vyrovnávací mechanizmus. Efektívne oddelenie snímania obrazu z kamery od komunikácie USB umožňuje vysokú rýchlosť, flexibilitu a stabilitu pri prenose bez straty snímok. Kamera má 13 MP snímač a pripája sa do zariadenia pomocou USB rozhrania. Snímač má objektív s 5 pevným zaostrením. Doska plošného spoja disponuje pokročilou viacnásobnou vyrovnávacou pamäťou pre vyššiu spoľahlivosť. Má 2Gb DDR3 SDRAM na uloženie a načítanie celého rámca bez straty dát aj pri veľmi vysokých rýchlostiach.The FSCAM_CU135 camera was used for the visual capture device 1 with a buffer memory, which allows fast and cheap image processing, which ensures the storage and processing of each captured image. This camera has a unique built-in leveling mechanism. Effective separation of camera image capture from USB communication enables high speed, flexibility and stability during transfer without image loss. The camera has a 13 MP sensor and connects to the device using a USB interface. The sensor has a lens with 5 fixed focus. The printed circuit board has an advanced multiple buffer memory for higher reliability. It has 2Gb DDR3 SDRAM to save and load the entire frame without data loss even at very high speeds.

Priemyselná využiteľnosťIndustrial applicability

Spôsob lokalizácie autonómneho vozidla a zapojenie vizuálneho systému na zvýšenú presnosť lokalizácie autonómneho vozidla pomocou kamerového systému podľa technického riešenia sú využiteľné pre všetky autonómne vozidlá a transportné systémy, ktoré potrebujú automatickú navigáciu a presné riadenie po 15 určenej dráhe na cestách alebo obslužných plochách, ako sú logistické centrá, výrobné areály, rekreačne areály, letiská a pod., alebo v budovách, ako sú výrobné haly, sklady, hangáre a pod.The method of locating an autonomous vehicle and involving a visual system for increased accuracy of locating an autonomous vehicle using a camera system according to the technical solution are applicable to all autonomous vehicles and transport systems that need automatic navigation and precise control along a designated path on roads or service areas such as logistics centers, production areas, recreation areas, airports, etc., or in buildings such as production halls, warehouses, hangars, etc.

Zoznam vzťahových značiek vizuálne snímacie zariadenieList of visual sensing device related tags

R-ID riadiaci počítač senzorový systém GNSS senzorový systém na určenie odhadu elipsy chyby polohy vozidla približná poloha vozidla elipsa odhadu chýb polohy vozidla zorné pole vizuálneho systému okolie R-ID virtuálna mapa a databáza R-ID selekcia R-ID relatívna poloha vozidla vzhľadom na R-ID spresnená poloha vozidla známa poloha R-ID konverzia a súčet obraz rozpoznanie R-ID výpočet polohyR-ID control computer sensor system GNSS sensor system for determining vehicle position error ellipse estimation approximate vehicle position vehicle position error estimation ellipse field of vision of the visual system surroundings R-ID virtual map and database R-ID selection R-ID relative position of the vehicle with respect to R -ID precise position of vehicle known position R-ID conversion and sum image recognition R-ID position calculation

Claims (3)

1. Spôsob lokalizácie autonómneho vozidla, v y z n a č u j ú c i sa tým, že zahŕňa kroky: určenie približnej polohy (6) vozidla pomocou senzorového systému (4) GNSS; vypočítanie odhadu elipsy (7) chyby polohy vozidla fúziou dát zo senzorového systému (4) GNSS na určenie približnej polohy (6) vozidla a senzorového systému (5) odometrie na určenie odhadu elipsy (7) chyby polohy vozidla; vizuálne snímanie cestného identifikátora (2) R-ID na dráhe pred vozidlom v zornom poli vizuálneho zariadenia; spracovanie obrazu (16) algoritmom vzorkovania; rozpoznávanie (17) na rozpoznanie cestného identifikátora (2) R-ID; určovanie, algoritmom selekcie (11), konkrétneho rozpoznaného cestného identifikátora (2) R-ID s jeho presnou polohou a súčasne relatívnej polohy (12) vozidla vzhľadom na rozpoznaný cestný identifikátor (2) R-ID na základe prieniku odhadu elipsy (7) chyby polohy vozidla s okolím (9) tohto R-ID vo virtuálnej mape (10) a databáze R-ID; vypočítanie relatívnych súradníc konkrétneho rozpoznaného cestného indikátora (2) R-ID v smere osi vozidla x a kolmo na os vozidla y v milimetrovej mierke a relatívnej polohy (12) vozidla vzhľadom na tento R-ID; vypočítanie spresnenej polohy (13) vozidla, algoritmom konverzie a súčtu (15), zo známej polohy (14) konkrétneho rozpoznaného cestného identifikátora (2) R-ID a z relatívnej polohy (12) vozidla vzhľadom na tento R-ID.1. A method of locating an autonomous vehicle, characterized in that it includes the steps: determining the approximate position (6) of the vehicle using the GNSS sensor system (4); calculating the ellipse estimate (7) of the vehicle position error by fusing data from the sensor system (4) GNSS to determine the approximate position (6) of the vehicle and the sensor system (5) odometry to determine the ellipse estimate (7) of the vehicle position error; visual scanning of the road identifier (2) R-ID on the track in front of the vehicle in the field of view of the visual device; image processing (16) by a sampling algorithm; recognition (17) to recognize the road identifier (2) R-ID; determination, by the selection algorithm (11), of a specific recognized road identifier (2) R-ID with its exact position and at the same time the relative position (12) of the vehicle with respect to the recognized road identifier (2) R-ID based on the intersection of the ellipse estimation (7) error the position of the vehicle with the surroundings (9) of this R-ID in the virtual map (10) and the R-ID database; calculating the relative coordinates of a specific recognized road indicator (2) R-ID in the direction of the vehicle axis x and perpendicular to the vehicle axis y in millimeter scale and the relative position (12) of the vehicle with respect to this R-ID; calculation of the precise position (13) of the vehicle, by the conversion algorithm and the sum (15), from the known position (14) of the specific recognized road identifier (2) R-ID and from the relative position (12) of the vehicle with respect to this R-ID. 2. Spôsob lokalizácie autonómneho vozidla podľa nároku 1, vyznačujúci sa tým, že vypočítanie relatívnych súradníc konkrétneho rozpoznaného cestného indikátora (2) R-ID sa uskutočňuje pomocou súradníc tohto R-ID v pixeloch v zornom poli vizuálneho zariadenia.2. The method of locating an autonomous vehicle according to claim 1, characterized in that the calculation of the relative coordinates of a particular recognized road indicator (2) R-ID is carried out using the coordinates of this R-ID in pixels in the field of view of the visual device. 3. Systém na lokalizáciu autonómneho vozidla na uskutočnenie spôsobu lokalizácie autonómneho vozidla podľa ktoréhokoľvek z predchádzajúcich nárokov, v y z n a č u j ú c i s a t ý m , že pozostáva z vizuálneho snímacieho zariadenia (1) s algoritmom vzorkovania obrazu na rozpoznávanie cestného identifikátora (2) R-ID, pričom vizuálne snímacie zariadenie (1) je dátovým spojením pripojené na riadiaci počítač (3), pričom k riadiacemu počítaču (3) je dátovým spojením pripojený senzorový systém (4) na určenie približnej polohy vozidla a senzorový systém (5) na určenie odhadu elipsy chyby polohy vozidla.3. A system for locating an autonomous vehicle for carrying out a method of locating an autonomous vehicle according to any one of the preceding claims, characterized in that it consists of a visual sensing device (1) with an image sampling algorithm for recognizing a road identifier (2) R-ID , while the visual sensing device (1) is connected to the control computer (3) by a data connection, while the sensor system (4) for determining the approximate position of the vehicle and the sensor system (5) for determining the ellipse estimate are connected to the control computer (3) by a data connection vehicle position errors.
SK127-2022U 2022-10-05 2022-02-22 Method of locating an autonomous vehicle and the connection of a visual system for locating an autonomous vehicle SK9787Y1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
SK127-2022U SK9787Y1 (en) 2022-10-05 2022-02-22 Method of locating an autonomous vehicle and the connection of a visual system for locating an autonomous vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
SK127-2022U SK9787Y1 (en) 2022-10-05 2022-02-22 Method of locating an autonomous vehicle and the connection of a visual system for locating an autonomous vehicle

Publications (2)

Publication Number Publication Date
SK1272022U1 SK1272022U1 (en) 2023-02-22
SK9787Y1 true SK9787Y1 (en) 2023-06-28

Family

ID=85241263

Family Applications (1)

Application Number Title Priority Date Filing Date
SK127-2022U SK9787Y1 (en) 2022-10-05 2022-02-22 Method of locating an autonomous vehicle and the connection of a visual system for locating an autonomous vehicle

Country Status (1)

Country Link
SK (1) SK9787Y1 (en)

Also Published As

Publication number Publication date
SK1272022U1 (en) 2023-02-22

Similar Documents

Publication Publication Date Title
Rose et al. An integrated vehicle navigation system utilizing lane-detection and lateral position estimation systems in difficult environments for GPS
RU2727164C1 (en) Method and apparatus for correcting map data
KR102128851B1 (en) Method and system for determining global location of first landmark
US10240934B2 (en) Method and system for determining a position relative to a digital map
US8447519B2 (en) Method of augmenting GPS or GPS/sensor vehicle positioning using additional in-vehicle vision sensors
US8077913B2 (en) Method and device for determining the actual position of a geodetic instrument
CN111833717B (en) Method, device, equipment and storage medium for positioning vehicle
US20130060520A1 (en) Method And System For Position Determination Using RFID Devices
CN103256920A (en) Determining tilt angle and tilt direction using image processing
US12067743B2 (en) Automated license plate recognition system and related method
EP3842735B1 (en) Position coordinates estimation device, position coordinates estimation method, and program
JP2009294214A (en) Method and system for navigation based on topographic structure
JP2008065087A (en) Apparatus for creating stationary object map
JP2016080460A (en) Moving body
US20230243657A1 (en) Vehicle control device and host vehicle position estimation method
JP2012003706A (en) Unmanned running vehicle guiding device and unmanned running vehicle guiding method
JP3900365B2 (en) Positioning device and positioning method
Khoshelham et al. Vehicle positioning in the absence of GNSS signals: Potential of visual-inertial odometry
JP6834401B2 (en) Self-position estimation method and self-position estimation device
WO2019046504A1 (en) Lane marker signal improvement through mapped geo-referenced boundaries
JP5355443B2 (en) Position correction system
JP2019120629A (en) Position calculation device, position calculation program, and coordinate marker
CN116476047A (en) Method, device, robot and system for automatically paving two-dimension code
SK9787Y1 (en) Method of locating an autonomous vehicle and the connection of a visual system for locating an autonomous vehicle
SK992022A3 (en) Method of locating an autonomous vehicle and the connection of a visual system for locating an autonomous vehicle