SK1272022U1 - Method of locating an autonomous vehicle and the connection of a visual system for locating an autonomous vehicle - Google Patents
Method of locating an autonomous vehicle and the connection of a visual system for locating an autonomous vehicle Download PDFInfo
- Publication number
- SK1272022U1 SK1272022U1 SK127-2022U SK1272022U SK1272022U1 SK 1272022 U1 SK1272022 U1 SK 1272022U1 SK 1272022 U SK1272022 U SK 1272022U SK 1272022 U1 SK1272022 U1 SK 1272022U1
- Authority
- SK
- Slovakia
- Prior art keywords
- vehicle
- locating
- ellipse
- visual
- road identifier
- Prior art date
Links
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Navigation (AREA)
Abstract
Description
Oblasť technikyThe field of technology
Technické riešenie sa týka spôsobu zvýšenia presnosti lokalizácie autonómneho vozidla a zapojenia vizuálneho systému na lokalizáciu autonómneho vozidla. Technické riešenie spadá do oblasti lokalizačných systémov autonómnych vozidiel.The technical solution relates to the method of increasing the accuracy of the localization of the autonomous vehicle and the involvement of the visual system for the localization of the autonomous vehicle. The technical solution falls into the field of localization systems of autonomous vehicles.
Doterajší stav technikyCurrent state of the art
V súčasnom stave techniky je známe, že kľúčovou technológiou na lokalizáciu autonómnych vozidiel sa často používa GPS alebo multisystémové GNSS (GPS, GLONASS, Galileo, Beidou) v kombinácii s IMU (Inertial Measuring Unit) a odometriou. GNSS môže poskytovať globálnu, vysoko presnú službu určovania polohy, ale v dôsledku orbitálnej chyby satelitu, chyby časovania s vplyvom chýb šírenia signálu a podobne dokáže presnosť určovania polohy pomocou GNSS dosiahnuť iba úroveň 1 metra. Hoci je možné použiť metódu fázového posunu a post-processing (bez pohybu vozidla) a tak zvýšiť presnosť polohovania na niekoľko centimetrov, v intenzívnej zástavbe budov alebo v interiéroch - halách dochádza k rušeniu alebo interferencii signálu. V takomto prípade je potom využitie GNSS na účely lokalizácie a navigácie autonómneho vozidla nemožné.In the current state of the art, it is known that GPS or multi-system GNSS (GPS, GLONASS, Galileo, Beidou) in combination with IMU (Inertial Measuring Unit) and odometry is often used as the key technology for the localization of autonomous vehicles. GNSS can provide a global, high-precision positioning service, but due to satellite orbital error, timing error with the influence of signal propagation errors, and so on, the positioning accuracy of GNSS can only reach the level of 1 meter. Although it is possible to use the method of phase shift and post-processing (without moving the vehicle) and thus increase the positioning accuracy to a few centimeters, in intensive building construction or in interiors - halls, interference or signal interference occurs. In such a case, the use of GNSS for the purposes of localization and navigation of an autonomous vehicle is impossible.
Na zlepšenie presnosti určovania polohy, na účely navigácie sa často do výpočtov integrujú informácie o polohe z iných snímačov. Polohu vozidla je možné určiť použitím enkóderov rýchlosti kolies vozidla (kolesová odometria). Takáto metóda je ale náchylná, okrem samotnej chyby enkódera, na akumuláciu chyby v určitých stavoch okolia (nános pôdy na kolesách, preklzávanie kolies), kedy nie je možné zabezpečiť získanie presnej polohy vozidla a odhad polohy. Inou metódou na určenie polohy je inerciálny navigačný systém (INS), ktorý určuje polohu vzhľadom na počiatočný inerciálny priestor. Presné určenie polohy použitím systému INS je zaťažené integračnou chybou, ktorá s časom narastá a stáva sa tak tento systém nevhodný na samostatné použitie v autonómnych vozidlách.To improve positioning accuracy, position information from other sensors is often integrated into the calculations for navigation purposes. Vehicle position can be determined using vehicle wheel speed encoders (wheel odometry). However, such a method is susceptible, in addition to the encoder error itself, to the accumulation of error in certain environmental conditions (deposition of soil on the wheels, wheel slippage), when it is not possible to ensure obtaining the exact position of the vehicle and estimating the position. Another method for determining position is an inertial navigation system (INS), which determines position relative to an initial inertial space. The exact determination of the position using the INS system is burdened by an integration error that grows over time, making this system unsuitable for independent use in autonomous vehicles.
Zo stavu techniky je známych viacero metód a spôsobov vizuálnej lokalizácie vozidla a zvyšovania presnosti lokalizácie. Napríklad, v dokumente US20200318976 A1 sú poskytnuté systémy a spôsoby ovládania vozidla. V jednom uskutočnení, spôsob zahŕňa: prijímanie údajov o orientačnom bode získaných z obrazového snímača vozidla procesorom; fúzovanie údajov o orientačnom bode pomocou procesora s údajmi o polohe vozidla na vytvorenie fúzovaných údajov o jazdnom pruhu, pričom fúzovanie je založené na Kalmanovom filtri; získavanie, pomocou procesora, mapových údajov z mapy jazdných pruhov na základe údajov o polohe vozidla; selektívna aktualizácia mapy jazdných pruhov procesorom na základe zmeny údajov spojených jazdných pruhov z údajov mapy; a riadenie vozidla procesorom na základe aktualizovanej mapy jazdných pruhov.From the state of the art, several methods and ways of visual localization of the vehicle and increasing the accuracy of the localization are known. For example, US20200318976 A1 provides systems and methods for controlling a vehicle. In one embodiment, the method includes: receiving landmark data obtained from a vehicle image sensor by a processor; fusing the landmark data using the processor with the vehicle position data to form the fused lane data, the fusing being based on a Kalman filter; obtaining, using the processor, map data from the lane map based on the vehicle position data; selectively updating the lane map by the processor based on a change in the associated lane data from the map data; and controlling the vehicle by the processor based on the updated lane map.
Ďalej dokument WO2014130854 A1 opisuje rôzne techniky na použitie v inerciálnom navigačnom systéme s podporou vizuálneho systému. Ide o inerciálny navigačný systém s podporou vizuálneho systému, ktorý obsahuje: obrazový zdroj, ktorý generuje obrazové dáta obsahujúce množstvo obrazov; a inerciálnu meraciu jednotku (IMU), ktorá vytvára údaje o inerciálnej meracej jednotke indikujúce pohyb vizuálne podporovaného inerciálneho navigačného systému, keď vizuálne asistovaný inerciálny navigačný systém generuje obraz, pričom obrazové údaje zachytávajú znaky externého kalibračného cieľa. Inerciálny navigačný systém s podporou videnia ďalej obsahuje jednotku spracovania vrátane odhadovača, pričom jednotka spracovania zahŕňa spracovanie údajov inerciálnej meracej jednotky a obrazových údajov na výpočet kalibračných parametrov pre inerciálny navigačný systém s podporou videnia pri výpočte náklonu a sklonu kalibračného cieľa, pričom kalibračné parametre definujú relatívne polohy a orientácie inerciálnej meracej jednotky a zdroja obrazu inerciálneho navigačného systému s podporou videnia.Furthermore, document WO2014130854 A1 describes various techniques for use in an inertial navigation system with the support of a visual system. It is an inertial navigation system with the support of a visual system, which includes: an image source that generates image data containing a number of images; and an inertial measurement unit (IMU) that generates inertial measurement unit data indicative of motion of the visually assisted inertial navigation system when the visually assisted inertial navigation system generates an image, the image data capturing features of the external calibration target. The vision-aided inertial navigation system further includes a processing unit including an estimator, wherein the processing unit includes processing of inertial measurement unit data and image data to calculate calibration parameters for the vision-aided inertial navigation system in calculating the tilt and inclination of the calibration target, wherein the calibration parameters define relative positions and orientations of the inertial measurement unit and image source of the vision-aided inertial navigation system.
Spôsob pre systém riadenia vozidiel s kamerou s perspektívnym videním generujúcou perspektívne obrazy vozidiel v smere premávky, vrátane vykonávania antiperspektívnej transformácie na perspektívnych obrazoch je prezentovaný v dokumente US9928426 B1. Metóda rozdeľuje každý antiperspektívny obraz na čiastkové obrazy pozdĺž jedného z radiálneho smeru a tangenciálneho smeru vzhľadom na smer dopravy a určí mierkový faktor pre každý čiastkový obrázok na základe merania mierky každého vozidla na viacerých pozíciách na jednom obrázku použitím metódy rámcového rozdielu. Následne sa vykonaná transformácia mierky pre každý čiastkový obrázok použitím zodpovedajúcich mierkových faktorov pre čiastkový obrázok. Kombináciou každého z mierkových transformovaných čiastkových obrázkov pre každé vozidlo do zodpovedajúcich vylepšených antiperspektívnych obrázkov je následne možné vykonať detekciu vozidla pre každé vozidlo na základe kombinácie vylepšených antiperspektívnych obrázkov, v ktorých je sledovanie vylepšené optimalizovaným rozsahom veľkosti detekčného boxu určeného vylepšenými antiperspektívnymi obrázkami.A method for a vehicle control system with a perspective view camera generating perspective images of vehicles in the direction of traffic, including performing an anti-perspective transformation on the perspective images is presented in document US9928426 B1. The method divides each anti-perspective image into sub-images along one of the radial direction and the tangential direction with respect to the traffic direction, and determines the scale factor for each sub-image based on measuring the scale of each vehicle at multiple positions in one image using the frame difference method. Subsequently, scale transformation is performed for each sub-image using the corresponding scale factors for the sub-image. By combining each of the scaled transformed sub-images for each vehicle into the corresponding enhanced anti-perspective images, it is then possible to perform vehicle detection for each vehicle based on the combination of the enhanced anti-perspective images, in which the tracking is enhanced by an optimized detection box size range determined by the enhanced anti-perspective images.
SK 127-2022 U1SK 127-2022 U1
Potom je možné sledovať vozidlo na základe kombinácie vylepšených antiperspektívnych obrazov, v ktorých je detekcia vylepšená s optimalizovaným rozsahom veľkosti detekčného boxu určeného vylepšenými antiperspektívnymi obrazmi.The vehicle can then be tracked based on a combination of enhanced anti-perspective images in which the detection is enhanced with an optimized detection box size range determined by the enhanced anti-perspective images.
Dokument US10691963 B2 opisuje spôsob lokalizácie vozidla, kde vozidlo senzoricky deteguje prvé okolité objekty. Lokalizácia vozidla je potom realizovaná zosúladením údajov senzoricky zistených prvých okolitých objektov s mapovými údajmi prvej digitálnej mapy. Ak toto zosúladenie nie je možné, vytvorí sa druhá digitálna mapa pre lokálne okolie a poloha vozidla sa určí použitím podľa druhej digitálnej mapy.Document US10691963 B2 describes a method of locating a vehicle, where the vehicle sensorically detects the first surrounding objects. The localization of the vehicle is then carried out by matching the data of the sensorially detected first surrounding objects with the map data of the first digital map. If this matching is not possible, a second digital map is created for the local area and the vehicle's position is determined using the second digital map.
Riešenie opísané v dokumente CN107229063 A sa týka druhu bezpilotnej automobilovej navigácie a zlepšenia presnosti určovania polohy zlúčenej na základe GNSS a vizuálnej odometrie (VO). Kroky vizuálnej odometrie sú nasledovné: Ide o detekciu jazdného pruhu na základe monokulárneho videnia. Nasleduje optimalizácia presnosti polohovania počítadla kilometrov pre monokulárne videnie. Napokon je to korekcia presnosti polohovania integrovaného navigačného systému GNSS a vizuálnej odometrie. Predložené riešenie zlepšuje vizuálnu odometriu pomocou čiary jazdného pruhu, potom sa zlúči s určovaním polohy GNSS, aby sa zlepšila spoľahlivosť systému určovania polohy vozidla. GNSS/VO má veľmi silnú doplnkovú charakteristiku, GNSS môže získať dlhodobo stabilný výsledok určovania polohy a VO môže získať krátkodobé vysoko presné údaje polohy. Výpočet je filtrovaný rozdielom meraní polohy pomocou dvoch druhov snímačov.The solution described in document CN107229063 A relates to a type of unmanned automotive navigation and positioning accuracy improvement based on GNSS and visual odometry (VO). The steps of visual odometry are as follows: It is lane detection based on monocular vision. Next comes the optimization of the odometer positioning accuracy for monocular vision. Finally, it is a correction of the positioning accuracy of the integrated GNSS navigation system and visual odometry. The presented solution improves visual odometry using the lane line, then merges it with GNSS positioning to improve the reliability of the vehicle positioning system. GNSS/VO has a very strong complementary characteristic, GNSS can obtain long-term stable positioning result, and VO can obtain short-term high-precision position data. The calculation is filtered by the difference of position measurements using two types of sensors.
Nedostatky riešení známych v stave techniky evokovali navrhnúť iný systém, ktorý by poskytoval globálnu polohu pre navigáciu autonómnych vozidiel vo vonkajšom aj vnútornom prostredí (outdoor + indoor) bez potreby jazdných pruhov. Výsledkom tohto úsilia je ďalej opisovaný spôsob lokalizácie autonómneho vozidla a zapojenie vizuálneho systému na lokalizáciu autonómneho vozidla v predloženom technickom riešení.The shortcomings of the solutions known in the state of the art evoked the design of another system that would provide a global location for the navigation of autonomous vehicles in both outdoor and indoor environments (outdoor + indoor) without the need for lanes. The result of this effort is the further described method of locating an autonomous vehicle and the inclusion of a visual system for locating an autonomous vehicle in the presented technical solution.
Podstata technického riešeniaThe essence of the technical solution
Nedostatky zo stavu techniky odstraňuje spôsob lokalizácie autonómneho vozidla a zapojenie vizuálneho systému na lokalizáciu autonómneho vozidla podľa predloženého technického riešenia. Odhad polohy vozidla je možné realizovať využitím rôznych metód resp. snímačov. Najjednoduchšou implementáciou hrubého stanovenia polohy je odometria. Pri použití typických inkrementálnych snímačov na určenie polohy autonómneho vozidla sa odhad chyby v uhle otočenia vozidla pohybuje okolo 1°/m, kým odhad chyby v prejdenej vzdialenosti býva zhruba do niekoľkých decimetrov na desať metrov. Odhad chyby v otočení a prejdenej dráhe vozidla je možné v globálnej mape vizualizovať/realizovať tzv. elipsou odhadu chýb. Tento spôsob predpokladá známu približnú globálnu polohu vozidla, ktorú je možné zistiť rôznymi inými postupmi, ktoré nie sú podstatou tejto metódy. Elipsa odhadu chýb určuje distribúciu nameraných bodov (polôh) od skutočného bodu (polohy) vozidla.Deficiencies from the state of the art are eliminated by the method of locating an autonomous vehicle and the involvement of a visual system for locating an autonomous vehicle according to the presented technical solution. It is possible to estimate the position of the vehicle using various methods or sensors. The simplest implementation of rough positioning is odometry. When using typical incremental sensors to determine the position of an autonomous vehicle, the estimation of the error in the angle of rotation of the vehicle is around 1°/m, while the estimation of the error in the traveled distance is roughly within a few decimeters per ten meters. The estimation of the error in the turn and the traveled path of the vehicle can be visualized/realized in the global map. by the error estimation ellipse. This method assumes a known approximate global position of the vehicle, which can be determined by various other procedures that are not the essence of this method. The error estimation ellipse determines the distribution of the measured points (positions) from the actual point (position) of the vehicle.
Minimálnu elipsu odhadu chýb a približnú polohu vozidla je možné určiť viacerými spôsobmi známymi v stave techniky. V prípade, ak je dostupný signál GNSS, v dostatočne dlhom čase (napr. 1 až 2 minúty) je možné určiť polohu štatistickým vyhodnotením signálov GNSS a pomocou metódy RTK (Real Time Kinematic, ktorá sa poskytuje ako služba - SK POS) a takto získať vyššiu presnosť polohy vozidla resp. minimálnu elipsu odhadu chýb. Inou možnosťou je získanie presnej polohy (resp. elipsy s minimálnym rozmerom) manuálnym zadaním známej polohy operátorom alebo automaticky napr. pri dobíjaní vozidla v dokovacej stanici so známou globálnou polohou. Ďalšou možnosťou je využitie iných senzorových systémov, ktoré umožnia globálnu lokalizáciu vozidla napr. vizuálna triangulácia, rozpoznanie unikátneho identifikátora, WiFi trilaterácia, UWB lokalizácia a pod.The minimum error estimation ellipse and the approximate position of the vehicle can be determined in several ways known in the art. If a GNSS signal is available, in a sufficiently long time (e.g. 1 to 2 minutes) it is possible to determine the position by statistical evaluation of GNSS signals and using the RTK method (Real Time Kinematic, which is provided as a service - SK POS) and thus obtain higher accuracy of vehicle position or minimum error estimation ellipse. Another option is to obtain an exact position (or an ellipse with a minimum dimension) by manually entering a known position by the operator or automatically, e.g. when recharging the vehicle in a docking station with a known global position. Another possibility is the use of other sensor systems that enable global localization of the vehicle, e.g. visual triangulation, unique identifier recognition, WiFi trilateration, UWB localization, etc.
Navrhnutá metóda na zvýšenie presnosti lokalizácie využíva cestný identifikátor (R-ID), ktorý je rozpoznaný vizuálnym senzorovým systémom. Cestný identifikátor má vopred známu grafickú podobu výhodne napr. trojuholník, ktorú je možné vyobraziť buď priamo na cestu alebo grafickú podobu naniesť na iný materiál (napr. papier, plastovú či kovovú dosku atď.) a tento materiál umiestniť na vozovku. Grafická podoba je výhodne zvolená tak, aby z nej bolo možné určiť polohu cestného identifikátora vzhľadom na vozidlo. Poloha každého cestného identifikátora je známa v globálnej mape. Pre každý cestný identifikátor je zadefinované jeho prislúchajúce okolie. Veľkosť elipsy odhadu chyby lokalizácie vozidla určenej podľa navrhnutej metódy je minimalizovaná dostatočnou hustotou resp. vzdialenosťou jednotlivých R-ID na vozovke. V prípade ak je R-ID detegovaný pomocou vizuálneho senzorického systému, vyhodnotí sa, do ktorého okolia R-ID táto elipsa odhadu chýb spadá. Na základe identifikácie daného R-ID je možné určiť spresnenú polohu vozidla a azimut (elipsa odhadu chýb sa teda v tomto momente minimalizuje), keďže každé R-ID má presne určenú polohu a rotáciu vo virtuálnej globálnej mape uloženej v riadiacom počítači. Podstata riešenia pri meraní polohy spočíva v periodickom snímkovaní kamery, ktorá ak zachytí R-ID, tak pomocou viacerých algoritmov rozpozná obraz cestného identifikátora R-ID a určí jeho polohu v zornom poli kamery aThe proposed method to increase the localization accuracy uses the road identifier (R-ID), which is recognized by the visual sensor system. The road identifier has a graphic form known in advance, preferably e.g. a triangle, which can be depicted either directly on the road or applied graphically to another material (e.g. paper, plastic or metal plate, etc.) and place this material on the road. The graphic form is preferably chosen so that it is possible to determine the position of the road identifier relative to the vehicle. The position of each road identifier is known on the global map. For each road identifier, its associated neighborhood is defined. The size of the ellipse of the estimation of the vehicle localization error determined according to the proposed method is minimized by a sufficient density or by the distance of individual R-IDs on the road. If the R-ID is detected using a visual sensory system, it is evaluated in which neighborhood of the R-ID this error estimation ellipse falls. Based on the identification of a given R-ID, it is possible to determine the precise position of the vehicle and the azimuth (thus, the error estimation ellipse is minimized at this point), since each R-ID has a precisely determined position and rotation in the virtual global map stored in the control computer. The essence of the solution when measuring the position consists in periodic imaging of the camera, which, if it captures the R-ID, uses several algorithms to recognize the image of the R-ID road identifier and determine its position in the field of view of the camera and
SK 127-2022 U1 potom vypočíta jeho relatívnu polohu k vozidlu. Keďže každý R-ID má známu svoju globálnu polohu, tak pomocou relatívnej polohy sa získa globálna poloha vozidla. Pri lokalizácii R-ID sa výhodne vyhodnocujú primárne dve súradnice: v smere osi vozidla (dĺžka x) a kolmo na smer osi vozidla (šírka y). Spracovanie obrazu zahŕňa dve základné fázy: prvou fázou je rozpoznanie/identifikácia značky výhodne pomocou konvolučnej neurónovej siete, kaskádovým klasifikátorom a podobne. Výstupom rozpoznaných objektov z kamery je poloha rozpoznaného R-ID. V druhej fáze, pomocou súradníc R-ID (v pixeloch) prebieha výpočet relatívnych súradníc R-ID v rovine dráhy a v milimetrovej mierke.SK 127-2022 U1 then calculates its relative position to the vehicle. Since each R-ID has a known global position, the global position of the vehicle is obtained using the relative position. When locating the R-ID, two coordinates are primarily evaluated: in the direction of the vehicle axis (length x) and perpendicular to the direction of the vehicle axis (width y). Image processing involves two basic phases: the first phase is mark recognition/identification preferably using a convolutional neural network, a cascade classifier, and the like. The output of recognized objects from the camera is the position of the recognized R-ID. In the second phase, using the R-ID coordinates (in pixels), the calculation of the relative R-ID coordinates takes place in the plane of the track and in the millimeter scale.
Podstata zapojenia vizuálneho systému na lokalizáciu autonómneho vozidla využívajúceho spôsob lokalizácie autonómneho vozidla spočíva v tom, že sa skladá z vizuálneho snímacieho zariadenia - kamery prepojenej s výpočtovým prostriedkom - riadiacim počítačom, z algoritmu - softvéru na spracovanie obrazu a cestného identifikátora R-ID umiestneného na dráhe vo forme špecifického 2D obrazu pripevneného alebo nakresleného na cestnej komunikácii. Vizuálne snímacie zariadenie je upevnené vpredu na vozidlo v definovanej výške a so sklonom tak, aby snímalo cestu pred vozidlom. V tejto polohe musí byť vizuálne snímacie zariadenie kalibrované. Kalibrácia spočíva v umiestnení kalibračného vzoru (obyčajne čierno-bielej šachovnice) do zorného poľa vizuálneho snímacieho zariadenia v rovine vozidla, zosnímaní tohto vzoru a porovnaní snímky s reálnymi rozmermi šachovnice. Po umiestnení cestného identifikátora R-ID na dráhu je potrebná kalibrácia každého R-ID, ktorá spočíva v zmeraní absolútnej, globálnej polohy R-ID napr. pomocou geodetického prístroja alebo presným GNSS prijímačom a štatistickým vyhodnotením. Globálna poloha každého R-ID sa zaznamená do databázy a do mapy prostredia v riadiacom počítači. Ďalej k riadiacemu počítaču je dátovým spojením pripojený senzorový systém GNSS na určenie približnej polohy vozidla a senzorový systém odometrie na určenie odhadu elipsy chyby polohy vozidla. Funkcia vizuálneho snímacieho zariadenia v súčinnosti s inými lokalizačnými systémami (napr.: GNSS, odometria, IMU,...) pri riadení autonómnych vozidiel sú navzájom komplementárne a zároveň aj redundandné v záujme zvýšenia spoľahlivosti a v konečnom dôsledku zabezpečenia funkčnej bezpečnosti. GNSS poskytuje absolútnu globálnu polohu, odometria a IMU relatívnu polohu. Navrhovaný spôsob vizuálnej lokalizácie poskytuje globálnu polohu a to fyzikálne nezávislým (od GNSS) spôsobom. Vysokú úroveň vierohodnosti dosahuje tým, že R-ID sú výhodne umiestnené podľa potreby užívateľa priamo do jazdnej dráhy vozidiel. Po zachytení identifikátora R-ID je isté, že sa vozidlo nachádza na vhodnom mieste v priestore.The essence of the involvement of a visual system for the localization of an autonomous vehicle using the method of localization of an autonomous vehicle consists in the fact that it consists of a visual sensing device - a camera connected to a computing device - a control computer, an algorithm - image processing software and an R-ID road identifier placed on the track in the form of a specific 2D image fixed or drawn on the road. The visual sensing device is fixed at the front of the vehicle at a defined height and with an inclination so as to sense the road in front of the vehicle. In this position, the visual sensing device must be calibrated. Calibration consists in placing a calibration pattern (usually a black-and-white checkerboard) in the field of view of the visual sensing device in the plane of the vehicle, photographing this pattern and comparing the image with the real dimensions of the checkerboard. After placing the road identifier R-ID on the track, calibration of each R-ID is necessary, which consists in measuring the absolute, global position of the R-ID, e.g. using a geodetic instrument or a precise GNSS receiver and statistical evaluation. The global position of each R-ID is recorded in the database and in the environment map in the control computer. Furthermore, the GNSS sensor system for determining the approximate position of the vehicle and the odometry sensor system for determining the estimation of the ellipse of the vehicle position error are connected to the control computer via a data connection. The function of the visual sensing device in cooperation with other localization systems (e.g.: GNSS, odometry, IMU,...) when driving autonomous vehicles are complementary to each other and at the same time redundant in order to increase reliability and ultimately ensure functional safety. GNSS provides absolute global position, odometry and IMU relative position. The proposed method of visual localization provides a global position in a physically independent (from GNSS) way. It achieves a high level of reliability by the fact that R-IDs are advantageously placed according to the user's needs directly in the driving path of vehicles. After capturing the R-ID identifier, it is certain that the vehicle is located in a suitable place in the space.
Aby vizuálny systém na lokalizáciu autonómneho vozidla správne fungoval, je potrebné splniť podmienky pre výber jednotlivých komponentov tohto vizuálneho systému. Pri výbere vizuálneho snímacieho zariadenia - tu výhodne kamery, je potrebné prihliadať na počet pixelov, ale hlavne na počet snímok za sekundu tak, aby sa pri najvyššej rýchlosti vozidla v zornom poli zachytil a zosnímal aspoň jeden cestný identifikátor R-ID. Rýchlosť spracovania obrazu sa zvyšuje pri menšom počte pixelov, ale pritom klesá rozlišovacia schopnosť. Rýchlosť spracovania obrazu sa zvyšuje, ak sa zabezpečí minimálna dovolená vzdialenosť medzi dvomi cestnými identifikátormi R-ID tak, aby v zornom poli kamery bol iba jeden cestný identifikátor R-ID súčasne. Napríklad, minimálna vzdialenosť bude výhodne 2 m medzi dvomi cestnými identifikátormi R-ID. Pri takto zvolenej vzdialenosti bude aj veľkosť elipsy odhadu chyby lokalizácie určenej podľa navrhnutej metódy optimálna.In order for the visual system to locate an autonomous vehicle to work properly, the conditions for selecting the individual components of this visual system must be met. When choosing a visual sensing device - here preferably a camera, it is necessary to take into account the number of pixels, but mainly the number of frames per second so that at the highest speed of the vehicle in the field of vision, at least one R-ID road identifier is captured and scanned. Image processing speed increases with fewer pixels, but resolution decreases. Image processing speed increases if the minimum permissible distance between two R-ID road identifiers is ensured so that only one R-ID road identifier is in the field of view of the camera at the same time. For example, the minimum distance will preferably be 2 m between two R-ID road identifiers. With the distance chosen in this way, the size of the ellipse of the localization error estimate determined according to the proposed method will be optimal.
Kamera je prepojená s výpočtovým prostriedkom - riadiacim počítačom na účely rozpoznávania objektov. Pri rozpoznávaní sa výhodne používa rozlíšenie 640 x 480 pixelov pri rýchlosti snímania 30 obrázkov za sekundu. Toto rozlíšenie predstavuje výhodný kompromis medzi schopnosťou kamery zachytiť detail a veľkosťou nasnímaného obrazu resp. rýchlosťou ako je možné pre potreby tu opisovaného technického riešenia tento obraz spracovať. Kamera rozpoznáva jednoduchý cestný identifikátor R-ID. Výhody spôsobu zvýšenia presnosti lokalizácie autonómneho vozidla a zapojenia vizuálneho systému na lokalizáciu autonómneho vozidla podľa technického riešenia sú zjavné z jeho účinkov, ktorými sa prejavuje navonok. Účinky spočívajú v použití monokulárnej kamery na vozidle na snímanie polohy cestného identifikátora R-ID na dráhe pred vozidlom za účelom vyhodnotenia relatívnych súradníc R-ID ku vozidlu. R-ID má vopred známu, kalibrovanú polohu v globálnych súradniciach v globálnej mape uloženej v riadiacom počítači. Pomocou kamery a spracovania obrazu sa získajú presné globálne súradnice vozidla. Tento originálny senzorický systém poskytuje globálnu polohu pre navigáciu autonómnych vozidiel vo vonkajšom aj vnútornom prostredí (outdoor + indoor). Na rozdiel od GNSS (GPS, Galileo,..) meria globálnu polohu aj v „satelitnom tieni budov, prístreškov alebo priamo v budovách. Pre navigáciu a autonómne riadenie vozidiel s využitím spôsobu podľa predkladaného technického riešenia nie sú potrebné jazdné pruhy. Navrhovaný spôsob lokalizácie poskytuje globálnu polohu a to na GNSS fyzikálne nezávislým spôsobom. Vysoká úroveň vierohodnosti sa dosahuje tým, že R-ID sú umiestnené podľa potreby užívateľa priamo do jazdnej dráhy vozidiel. Po zachytení identifikátora R-ID je isté a vierohodné, že sa vozidlo nachádza na vhodnom mieste v priestore.The camera is connected to a computing device - a control computer for the purpose of object recognition. A resolution of 640 x 480 pixels at a scanning speed of 30 images per second is advantageously used for recognition. This resolution represents an advantageous compromise between the camera's ability to capture detail and the size of the captured image or as fast as it is possible to process this image for the needs of the technical solution described here. The camera recognizes a simple R-ID road identifier. The advantages of the method of increasing the accuracy of the localization of the autonomous vehicle and the involvement of the visual system for the localization of the autonomous vehicle according to the technical solution are apparent from its external effects. The effects consist in the use of a monocular camera on the vehicle to capture the position of the road identifier R-ID on the track in front of the vehicle in order to evaluate the relative coordinates of the R-ID to the vehicle. The R-ID has a pre-known, calibrated position in global coordinates on a global map stored in the control computer. Using the camera and image processing, the exact global coordinates of the vehicle are obtained. This original sensor system provides a global position for the navigation of autonomous vehicles in both outdoor and indoor environments (outdoor + indoor). Unlike GNSS (GPS, Galileo,...) it measures the global position even in the "satellite shadow of buildings, shelters or directly in buildings. Lanes are not required for navigation and autonomous driving of vehicles using the method according to the presented technical solution. The proposed localization method provides a global position in a physically independent way from GNSS. A high level of reliability is achieved by the fact that R-IDs are placed according to the user's needs directly in the driving path of the vehicles. After capturing the R-ID identifier, it is certain and reliable that the vehicle is located in the appropriate place in the space.
SK 127-2022 U1SK 127-2022 U1
Prehľad obrázkov na výkresochOverview of images on drawings
Spôsob lokalizácie autonómneho vozidla a zapojenie vizuálneho systému na lokalizáciu autonómneho vozidla podľa technického riešenia budú ďalej vysvetlené na výkresoch. Na obr. 1 je znázornený vývojový diagram postupnosti spôsobu. Na obr. 2 je znázornené rozpoznanie cestného identifikátora R-ID a prekrytie okolia R-ID elipsou odhadu chýb polohy vozidla. Na obr. 3 je znázornená jedna možná forma cestného identifikátora R-ID. Na obr. 4 je znázornené rozpoznanie cestného identifikátora R-ID a určenie relatívnej polohy vozidla vzhľadom na R-ID. Na obr. 5 je znázornená ilustrácia zapojenia vizuálneho systému na lokalizáciu autonómneho vozidla.The method of locating the autonomous vehicle and the involvement of the visual system for locating the autonomous vehicle according to the technical solution will be further explained in the drawings. In fig. 1 shows a flowchart of the sequence of the method. In fig. 2 shows the recognition of the R-ID road identifier and the overlay of the R-ID surroundings with an ellipse of the vehicle position error estimation. In fig. 3 shows one possible form of road identifier R-ID. In fig. 4 shows the recognition of the road identifier R-ID and the determination of the relative position of the vehicle with respect to the R-ID. In fig. 5 shows an illustration of the connection of a visual system for the localization of an autonomous vehicle.
Príklady uskutočneniaImplementation examples
Rozumie sa, že jednotlivé uskutočnenia technického riešenia sa uvádzajú na ilustráciu a nie ako obmedzenia riešení. Odborníci poznajúci stav techniky nájdu alebo budú schopní zistiť s použitím nie viac ako rutinného experimentovania mnoho ekvivalentov k špecifickým uskutočneniam technického riešenia. Aj takéto ekvivalenty budú spadať do rozsahu nárokov na ochranu.It is understood that individual embodiments of the technical solution are given for illustration and not as limitations of the solutions. Those skilled in the art will find or be able to find, using no more than routine experimentation, many equivalents to specific embodiments of the technical solution. Even such equivalents will fall within the scope of protection claims.
Príklad 1Example 1
V tomto príklade výhodného uskutočnenia je opísaný spôsob lokalizácie autonómneho vozidla podľa technického riešenia ako je to názorne zobrazené na obr. 1 až 4. Vychádza sa zo stavu, keď senzorovým systémom 4 GNSS sa určuje približná poloha (6) vozidla so známou chybou polohy vozidla. Ďalej sa fúziou dát zo senzorového systému 4 GNSS na určenie približnej polohy vozidla a senzorového systému 5 odometrie na určenie odhadu elipsy chyby polohy vozidla vypočítava odhad elipsy 7 chyby polohy vozidla. Približnú polohu vozidla a minimálnu elipsu odhadu chýb je možné výhodne určiť viacerými spôsobmi. V prípade, ak je dostupný signál GNSS, v dostatočne dlhom čase (napr. 1 až 2 minúty) je možné určiť polohu štatistickým vyhodnotením signálov GNSS a pomocou metódy RTK (Real Time Kinematic, ktorá sa poskytuje ako služba SK POS) a takto získať vyššiu presnosť polohy vozidla resp. minimálnu elipsu odhadu chýb. Inou výhodnou možnosťou je získanie presnej polohy (resp. elipsy s minimálnym rozmerom) manuálnym zadaním známej polohy operátorom alebo automaticky napr. pri dobíjaní vozidla v dokovacej stanici so známou globálnou polohou. Ďalšou výhodnou možnosťou je využitie iných senzorových systémov, ktoré umožnia globálnu lokalizáciu vozidla napr. vizuálna triangulácia, rozpoznanie unikátneho identifikátora, WiFi trilaterácia, UWB lokalizácia a pod.In this example of a preferred embodiment, the method of locating an autonomous vehicle is described according to the technical solution as illustrated in fig. 1 to 4. It is based on the situation when the approximate position (6) of the vehicle is determined by the GNSS sensor system 4 with a known error of the vehicle position. Further, by fusing data from the GNSS sensor system 4 for determining the approximate position of the vehicle and the odometry sensor system 5 for determining the estimate of the vehicle position error ellipse, an estimate of the vehicle position error ellipse 7 is calculated. The approximate position of the vehicle and the minimum error estimation ellipse can be advantageously determined in several ways. If a GNSS signal is available, in a sufficiently long time (e.g. 1 to 2 minutes) it is possible to determine the position by statistical evaluation of GNSS signals and using the RTK method (Real Time Kinematic, which is provided as a SK POS service) and thus obtain a higher the accuracy of the vehicle's position or minimum error estimation ellipse. Another advantageous option is to obtain an exact position (or an ellipse with a minimum dimension) by manually entering a known position by the operator or automatically, e.g. when recharging the vehicle in a docking station with a known global position. Another advantageous option is the use of other sensor systems that enable global localization of the vehicle, e.g. visual triangulation, unique identifier recognition, WiFi trilateration, UWB localization, etc.
Zároveň sa vizuálnym snímacím zariadením 1 so stanoveným vzorkovaním obrazu 16 zisťuje prítomnosť cestného identifikátora 2 R-ID v zornom poli 8 vizuálneho snímacieho zariadenia 1. Nasleduje rozpoznávanie 17 R-ID. V prípade, že je rozpoznaný cestný identifikátor 2 R-ID, na základe prieniku odhadu elipsy chyby polohy vozidla s okolím 9 R-ID vo virtuálnej mape 10 a databáze R-ID sa algoritmom selekcie 11 určí, ktorý konkrétny cestný identifikátor bol rozpoznaný. Zároveň sa výpočtom 18 určí relatívna poloha 12 vozidla vzhľadom na rozpoznaný R-ID.At the same time, the presence of the R-ID road identifier 2 in the visual field 8 of the visual sensing device 1 is detected by the visual sensing device 1 with the determined image sampling 16. The recognition 17 of the R-ID follows. If the road identifier 2 R-ID is recognized, based on the intersection of the ellipse estimate of the vehicle position error with the surroundings 9 of the R-ID in the virtual map 10 and the R-ID database, the selection algorithm 11 determines which specific road identifier has been recognized. At the same time, calculation 18 determines the relative position 12 of the vehicle with respect to the recognized R-ID.
Použitím známej polohy 14 konkrétneho rozpoznaného cestného identifikátora 2 R-ID a relatívnej polohy 12 vozidla vzhľadom na tento R-ID je algoritmom konverzie a súčtu 15 vypočítaná spresnená poloha 13 vozidla so zvýšenou presnosťou resp. odhad elipsy chyby polohy vozidla. Postup metódy sa následne výhodne opakuje na ďalšie rozpoznania cestných identifikátorov R-ID, napríklad počas pohybu vozidla, tak ako bolo opísané. V prípade, že odhad elipsy chýb je väčší ako okolie R-ID vo virtuálnej mape, približná poloha vozidla sa určí vyššie uvedeným postupom opätovne, alebo sa určí inou metódou známou v stave techniky. Po opätovnom určení približnej polohy vozidla sa postup metódy vykoná ako bolo už opísané.By using the known position 14 of the specific recognized road identifier 2 R-ID and the relative position 12 of the vehicle with respect to this R-ID, the conversion and sum algorithm 15 calculates the precise position 13 of the vehicle with increased accuracy or estimation of the vehicle position error ellipse. The procedure of the method is subsequently advantageously repeated for further recognitions of R-ID road identifiers, for example during the movement of the vehicle, as described. In the event that the estimate of the error ellipse is larger than the neighborhood of the R-ID in the virtual map, the approximate position of the vehicle is determined by the above-mentioned procedure again, or determined by another method known in the state of the art. After re-determining the approximate position of the vehicle, the procedure of the method is carried out as already described.
Príklad 2Example 2
V tomto príklade konkrétneho uskutočnenia je opísané zapojenie vizuálneho systému na lokalizáciu autonómneho vozidla podľa technického riešenia, ktoré je znázornené na obr. 5, spôsobom opísaným v príklade 1. Pozostáva z vizuálneho snímacieho zariadenia 1 s algoritmom na rozpoznávanie cestného identifikátora 2 R-ID, ktorý má vizuálny dosah na cestný identifikátor 2 R-ID umiestnený na vozovke. Jedna možná realizácia cestného identifikátora 2 R-ID v tvare trojuholníka je znázornená na obr. 3. Vizuálne snímacie zariadenie 1 je dátovým spojením pripojené na riadiaci počítač 3. K riadiacemu počítaču 3 je dátovým spojením pripojený senzorový systém 4 GNSS na určenie približnej polohy vozidla a senzorový systém 5 odometrie na určenie odhadu elipsy chyby polohy vozidla.In this example of a specific embodiment, the connection of a visual system for the localization of an autonomous vehicle according to the technical solution shown in fig. 5, in the manner described in example 1. It consists of a visual sensing device 1 with an algorithm for recognizing the road identifier 2 R-ID, which has a visual range of the road identifier 2 R-ID located on the road. One possible realization of the road identifier 2 R-ID in the shape of a triangle is shown in fig. 3. The visual sensing device 1 is connected to the control computer 3 by a data connection. The GNSS sensor system 4 for determining the approximate position of the vehicle and the odometry sensor system 5 for determining the estimation of the ellipse of the vehicle position error are connected to the control computer 3 by a data connection.
SK 127-2022 U1SK 127-2022 U1
Na vizuálne snímacie zariadenie 1 bola použitá kamera FSCAM_CU135 s vyrovnávacou pamäťou, ktorá umožňuje rýchlo a lacno spracovať snímky, čo zabezpečuje uloženie a spracovanie každého nasnímaného obrázku. Táto kamera má jedinečný vstavaný vyrovnávací mechanizmus. Efektívne oddelenie snímania obrazu z kamery od komunikácie USB umožňuje vysokú rýchlosť, flexibilitu a stabilitu pri prenose bez straty 5 snímok. Kamera má 13 MP snímač a pripája sa do zariadenia pomocou USB rozhrania. Snímač má objektív s pevným zaostrením. Doska plošného spoja disponuje pokročilou viacnásobnou vyrovnávacou pamäťou pre vyššiu spoľahlivosť. Má 2Gb DDR3 SDRAM na uloženie a načítanie celého rámca bez straty dát aj pri veľmi vysokých rýchlostiach.The FSCAM_CU135 camera was used for the visual capture device 1 with a buffer memory, which allows fast and cheap processing of images, which ensures the storage and processing of each captured image. This camera has a unique built-in leveling mechanism. Effective separation of camera image capture from USB communication enables high speed, flexibility and stability during transfer without loss of 5 frames. The camera has a 13 MP sensor and connects to the device using a USB interface. The sensor has a fixed focus lens. The printed circuit board has an advanced multiple buffer memory for higher reliability. It has 2Gb DDR3 SDRAM to save and load the entire frame without data loss even at very high speeds.
Priemyselná využiteľnosťIndustrial applicability
Spôsob lokalizácie autonómneho vozidla a zapojenie vizuálneho systému pre zvýšenú presnosť lokalizácie autonómneho vozidla pomocou kamerového systému podľa technického riešenia je využiteľné pre všetky 15 autonómne vozidlá a transportné systémy, ktoré potrebujú automatickú navigáciu a presné riadenie po určenej dráhe na cestách alebo obslužných plochách ako sú logistické centrá, výrobné areály, rekreačne areály, letiská a pod. alebo v budovách ako sú výrobné haly, sklady, hangár a pod.The method of locating an autonomous vehicle and connecting a visual system for increased accuracy of locating an autonomous vehicle using a camera system according to the technical solution is usable for all 15 autonomous vehicles and transport systems that need automatic navigation and precise control along a designated path on roads or service areas such as logistics centers , production areas, recreation areas, airports, etc. or in buildings such as production halls, warehouses, hangars, etc.
SK 127-2022 U1SK 127-2022 U1
Zoznam vzťahových značiek vizuálne snímacie zariadenieList of visual sensing device related tags
R-ID riadiaci počítač senzorový systém GNSS senzorový systém na určenie odhadu elipsy chyby polohy vozidla približná poloha vozidla elipsa odhadu chýb polohy vozidla zorné pole vizuálneho systému okolie R-ID virtuálna mapa a databáza R-ID selekcia R-ID relatívna poloha vozidla vzhľadom na R-ID spresnená poloha vozidla známa poloha R-ID konverzia a súčet obraz rozpoznanie R-ID výpočet polohyR-ID control computer sensor system GNSS sensor system for determining vehicle position error ellipse estimation approximate vehicle position vehicle position error estimation ellipse field of vision of the visual system surroundings R-ID virtual map and database R-ID selection R-ID relative position of the vehicle with respect to R -ID precise position of vehicle known position R-ID conversion and sum image recognition R-ID position calculation
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SK127-2022U SK9787Y1 (en) | 2022-10-05 | 2022-02-22 | Method of locating an autonomous vehicle and the connection of a visual system for locating an autonomous vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SK127-2022U SK9787Y1 (en) | 2022-10-05 | 2022-02-22 | Method of locating an autonomous vehicle and the connection of a visual system for locating an autonomous vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
SK1272022U1 true SK1272022U1 (en) | 2023-02-22 |
SK9787Y1 SK9787Y1 (en) | 2023-06-28 |
Family
ID=85241263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
SK127-2022U SK9787Y1 (en) | 2022-10-05 | 2022-02-22 | Method of locating an autonomous vehicle and the connection of a visual system for locating an autonomous vehicle |
Country Status (1)
Country | Link |
---|---|
SK (1) | SK9787Y1 (en) |
-
2022
- 2022-02-22 SK SK127-2022U patent/SK9787Y1/en unknown
Also Published As
Publication number | Publication date |
---|---|
SK9787Y1 (en) | 2023-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rose et al. | An integrated vehicle navigation system utilizing lane-detection and lateral position estimation systems in difficult environments for GPS | |
RU2727164C1 (en) | Method and apparatus for correcting map data | |
KR102425272B1 (en) | Method and system for determining a position relative to a digital map | |
US8447519B2 (en) | Method of augmenting GPS or GPS/sensor vehicle positioning using additional in-vehicle vision sensors | |
CN111833717B (en) | Method, device, equipment and storage medium for positioning vehicle | |
US8077913B2 (en) | Method and device for determining the actual position of a geodetic instrument | |
US20130304374A1 (en) | Apparatus and method for recognizing position of moving object | |
JP2009294214A (en) | Method and system for navigation based on topographic structure | |
JP5610870B2 (en) | Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method | |
CN103256920A (en) | Determining tilt angle and tilt direction using image processing | |
JP2008065087A (en) | Apparatus for creating stationary object map | |
JP2016080460A (en) | Moving body | |
US20230243657A1 (en) | Vehicle control device and host vehicle position estimation method | |
JP3900365B2 (en) | Positioning device and positioning method | |
Khoshelham et al. | Vehicle positioning in the absence of GNSS signals: Potential of visual-inertial odometry | |
JP6834401B2 (en) | Self-position estimation method and self-position estimation device | |
JP2019120629A (en) | Position calculation device, position calculation program, and coordinate marker | |
CN116476047A (en) | Method, device, robot and system for automatically paving two-dimension code | |
SK1272022U1 (en) | Method of locating an autonomous vehicle and the connection of a visual system for locating an autonomous vehicle | |
SK992022A3 (en) | Method of locating an autonomous vehicle and the connection of a visual system for locating an autonomous vehicle | |
US20230003530A1 (en) | Position estimation method and position estimation system | |
Baumbach et al. | GPS and IMU Require Visual Odometry for Elevation Accuracy | |
CN117268404B (en) | Unmanned aerial vehicle indoor and outdoor autonomous navigation method utilizing multi-sensor fusion | |
Britt | Lane detection, calibration, and attitude determination with a multi-layer lidar for vehicle safety systems | |
Janssen et al. | Bootstrapping Computer vision and sensor fusion for absolute and relative vehicle positioning |