TR2022021363A2 - AUTONOMOUS AUTOPILOT COMPUTER ARCHITECTURE SYSTEM - Google Patents
AUTONOMOUS AUTOPILOT COMPUTER ARCHITECTURE SYSTEMInfo
- Publication number
- TR2022021363A2 TR2022021363A2 TR2022/021363 TR2022021363A2 TR 2022021363 A2 TR2022021363 A2 TR 2022021363A2 TR 2022/021363 TR2022/021363 TR 2022/021363 TR 2022021363 A2 TR2022021363 A2 TR 2022021363A2
- Authority
- TR
- Turkey
- Prior art keywords
- vehicle
- information
- module
- unit
- planning
- Prior art date
Links
- 230000033001 locomotion Effects 0.000 claims description 53
- 230000008447 perception Effects 0.000 claims description 23
- 230000009471 action Effects 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 14
- 230000001133 acceleration Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 11
- 230000007613 environmental effect Effects 0.000 claims description 10
- 238000013473 artificial intelligence Methods 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 8
- 238000004458 analytical method Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 5
- 238000012544 monitoring process Methods 0.000 claims description 5
- 238000012546 transfer Methods 0.000 claims description 5
- 238000011156 evaluation Methods 0.000 claims description 3
- 230000006872 improvement Effects 0.000 claims description 3
- 230000003993 interaction Effects 0.000 claims description 3
- 230000004807 localization Effects 0.000 claims description 3
- 230000014509 gene expression Effects 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 claims 1
- 238000013519 translation Methods 0.000 claims 1
- 238000000034 method Methods 0.000 abstract description 40
- 230000008569 process Effects 0.000 abstract description 8
- 230000006399 behavior Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000000704 physical effect Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000012502 risk assessment Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000033772 system development Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Abstract
Buluş; ağ erişimi de bulunan araç üzerinde çalışabilen bir veya birden fazla bilgisayardan oluşan ve her çevrimde otonom olarak kararların alınmasına ve icrasına yönelik tüm süreci işletebilen, kara aracının otoyollarda otonom olarak hareket etmesini sağlayan bir otoyol otopilot bilgisayar mimarisi sistemi ile ilgilidir.The invention relates to a highway autopilot computer architecture system that consists of one or more computers that can operate on the vehicle with network access and that can operate the entire process of making and executing decisions autonomously in each cycle, enabling the land vehicle to move autonomously on highways.
Description
TARIFNAME OTONOM OTOPILOT BILGISAYAR MIMARISI SISTEMI Teknik Alan Bulus; ag erisimi de bulunan araç üzerinde çalisabilen bir veya birden fazla bilgisayardan olusan ve her çevrimde otonom olarak kararlarin alinmasina ve icrasina yönelik tüm süreci isletebilen, kara aracinin otoyollarda otonom olarak hareket etmesini saglayan bir otoyol otopilot bilgisayar mimarisi sistemi ile ilgilidir. Teknigin Bilinen Durumu Otonom araç, bilinen diger adlariyla robot araç, sürücüsüz araç, çevresini algilayabilen ve çok az insan girdisi veya hiç girdi olmadan hareket edebilen bir otomobil türüdür. Otonom araçlar; radar, bilgisayar görüsü, Lidar, sonar, GPS, odometre ve atalet gibi ölçüm birimleri kullanarak çevrelerini algilamaya yarayan çesitli sensörleri içinde bulundurmaktadirlar. Gelismis kontrol sistemleri; uygun gezinme yollarini, engelleri ve ilgili isaretleri tanimlamak için duyusal bilgileri yorumlamaktadir. Teknigin bilinen durumunda otonom otoyol araçlari için özel tesislerin gelistirildigi uygulamalar bulunmaktadir. Fakat hizli kentlesen ülkelerde yeni insa edilen yollar gibi çok fazla degisken bulunmaktadir ve bu degiskenlerin de hesaba katilarak sistem tasarimi yapilmasi gerekliligi ortaya çikmaktadir. Kentsel uygulamalardan bazilari özel altyapidan yararlanabilmektedir. Fiziksel altyapi, araçtan araca ve araçtan altyapiya haberlesme teçhizati, küresel navigasyon sistemleri için yer tabanli üniteler, otobüs ve bisiklet seritleriyle karsilastirilabilir özel tesisler, sokakta park kisitlamalari ve özel yol veya kaldirim modifikasyonlarini içerebilir. Dijital altyapi, son derece ayrintili karayolu haritalarinin ve ilgili trafik operasyonlari verilerinin bakimini içerebilir. Bu özel altyapi, gerçekten gerekli olmasi halinde, belirli bir kentsel hareketlilik sistemi tarafindan kullanilan yönetilebilir bir dizi koridorla sinirli olabilmektedir. otonom veya yari otonom çalisan bir aracin sensör algilama sistemine, sensörlerin limitlerinden dolayi karsilasilan sinirlamalar için bir çözüm önerilmistir. Sensörlerden elde edilen yol bilgileri ve çevredeki araçlarin kinematik özellikleri farkli bir sunucu ortamindan veya araçlar arasi (V2V) haberlesmesi araciligiyla otonom araçlar arasinda paylasima sunulmaktadir. Elde edilen verilerin otonom araçtaki kullanimi üç farkli görev altinda incelenmistir. Bunlar; stratejik, taktiksel ve operasyonel görevlerdir. Stratejik görevler; otonom aracin karar verici ve rota olusturucu mekanizmalarini, taktiksel görevler; olusturulan rotayi gerçekleyebilmesi için seyri boyunca araç hizi ve direksiyon hareketlerinin belirlenmesini, operasyonel görevler ise aracin planlanan bu manevra hareketlerini gerçeklestirecek aktüatör kontrolünü saglamaktadir. Sunucu ortaminda veya çevredeki araçlardan elde edilen çevre verileri, bu görevlerin gerçeklestirilmesi sirasinda kullanilmaktadir. V2V mesajlari özel kisa menzilli kablosuz iletisim protokolü ile saglanabilecegi önerilmistir. Özellikle düsük güç ve kisa-orta menzilli çalisma durumlarinda kullanima elverisli olmaktadir. Bununla birlikte bahsedilen sistemde, ortama iliskin yolun fiziksel özellikleri, serit çizgileri ve trafik bilesenleri gibi statik bilgilerin çikarimi ile ortamdaki diger araç ve yaya gibi hareketli objelere iliskin yörünge ve manevra tahminlerinin çikarimindaki veri akisini sistematik bir sekilde düzenlenmesinin saglandigi bir yapi görülmemektedir. Bilinen teknikte yer alan USZOl70168485Al yayin numarali bir diger patent dokümaninda; otonom aracin baslangiç konumundan varis noktasina kadarki seyri boyunca, iteratif (yinelemeli) yöntemler ile araç kontrolü yapilmaktadir. Metot, aracin seyri sirasinda araç limitleri dahilinde iteratif hesaplama ile komsu lokasyon noktalarini belirlenmekte ve hangi noktaya ilerleyecegini belirlemek için aracin durum geçislerini hesaplamaktadir. Araç her iterasyonda harekete en uygun komsu lokasyonun hesabi için durum geçisleri içerisindeki optimal sonuca sahip noktayi hedef konum olarak belirlemektedir. Belirlenen bu yeni konuma hareketi sonrasinda yeni araç durum geçislerini hesaplayarak yeni komsu lokasyon noktalarinin hesaplanmasini saglar. Optimal konum tespitinde, en iyilestirme metotlari kullanilarak optimal süre baz alinmis ve hesaplama sirasinda aracin limitleri dahil edilerek model tabanli araç kontrolü gerçeklestirildigi iddia edilmistir. Bahsedilen patent basvurusunda, otonom aracin baslangiç konumundan varis noktasina kadarki seyri boyunca araç hareket planlamasini hiyerarsik bir sistem seklinde açiga çikmamaktadir ve araç güvenligini artirmayi amaçlayan talep-onay mekanizmasi bulunmamaktadir. USZOO90319112A1 yayin numarali patent dokümaninda ise otonom araçlarin kentsel alanlar gibi engel açisindan zengin ortamlarda seyir halindeyken, yörünge planlama sirasinda engellerden kaçinmakla birlikte bu yörüngelerin ne kadar hizli geçilmesi gerektigini planlamak için bir yöntem gelistirilmistir. Geleneksel yol planlama algoritmalarinda, aracin bu yörüngeleri kat ederken gerekli hiz bilgisi üretilmemektedir. Seyir güvenligi ve sürücü (8) konforunun saglanmasi için aracin hiz hedefinin dogru bir sekilde hesaplanmasi gerektigine deginilmistir. Olusturulan sistemde bir veya birden fazla sensör, hiz planlayici, yol planlayici, araç yönlendirme ve kontrol sistemleri ile bir veya birden fazla aktüatör içermektedir. Olusturulan bu mimariler sadece kara araçlari için degil, insansiz bir hava aracinda kullanilmak üzere modüler bir yapiya sahiptir. Otonom aracin çevresinde bulunan engeller ise konum, hiz veya hareket yönü gibi evrensel veri tiplerini içerdigi iddia edilmektedir. Bununla birlikte bahsedilen bulusun otonom aracin serit degisikligi veya serit takibi aksiyonlarini güvenli bir sekilde gerçekleyebilmesi için çarpisma önleme ve engelden kaçinmaya yönelik hesaplamayi yaparak hareket profilini belirleme gibi bir özelligi bulunmamaktadir. Alinan manevra kararinin gerçeklenebilirlik, güvenlik ve konfor bakimindan uygun olup olmadigini degerlendiren bir mimariyi içermemektedir. Teknigin bilinen durumunda yer alan bir diger basvuru ise USlO377375B2 yayin numarali patent dokümanidir. Bu dosyada bahsedilen bulus, otonom araç için gerekli olan bütün çalisma modülleri yukaridan asagiya bir yaklasim ile olusturulmasi ile ilgilidir. Bulus, mimari modüller olup donanim veya yazilim üreticilerinden bagimsiz olarak uyarlanabilir bir yapiya sahiptir. Her modül bileseni, farkli araç kontrol sistemleri ve sensör alt sistemleri ile uyumlu bir sekilde çalisacak sekilde olusturulmustur. Mimari; algilama, planlama ve kontrol modüllerinin yani sira insan-makine arayüzü ve araç-çevre (V2X) etkilesim sistemlerini içermektedir. Bahsedilen bulusta, sistem gözlem modülünü temsil eden "System Controller" modülü daha alt bir seviyede kismi olarak çevre modüllerle haberlesmekte ve modülerlikten uzak bir yapida konumlandirilmaktadir. Bu da kullanici arayüzüne giden veri akisinin, "System Controller" modülünde olusabilecek bir hata durumunda kesilmesine neden olmaktadir. Teknigin bilinen durumunda yer alan USlO955847B2 yayin numarali patent dokümaninda, otonom araçlardaki algilayicilardan sensör seviyesindeki bilgileri toplayarak yüksek seviyeli sistem elemanlarinda kullanilmak üzere bagimsiz veri isleyen gerçek zamanli veri yoluna sahip birimler (nod) bulunmaktadir. Yüksek seviyeli sistem ile sensör seviyesinin soyutlanmasiyla, yüksek seviyedeki algoritmalarda meydana gelebilecek herhangi bir degisiklikte sensör seviyesi etkilenmemektedir. Yüksek seviyede olusturulmus bu algoritmalarin, sensör seviyesi ile sorunsuz bir sekilde iletisim kurabilmesi için gerçek zamanli veri yoluna yayinlama yapabilen uygulama programlama arayüzü (API) olusturulmustur. Dosya incelendiginde otonom araçlardaki sensör ve sistem seviyesindeki tüm birimleri kapsayan ve yöneten merkezi bir otoyol otopilot bilgisayari mimarisi (1) ile ilgili bir özelligi barindirmadigi görülmüstür. Teknigin bilinen durumunda yer alan U88260498B2 yayin numarali patent dokümaninda, yukaridan asagiya bir yaklasim ile modüler araç kontrol mimarisi tasarlanmistir. Mimaride, aracin gelismis sürücü destek sistemlerinin (Serit takip sistemi, adaptif hiz sabitleyici gibi) yaninda sürücü davranisini da gözlemleyen ve bu davranisa göre araç kontrolünü saglayan bir araç kontrol sistemi olusturulmasi amaçlanmistir. Sürücü tarafindan hem kullanici arayüzü üzerinden sürüs destek sistemleri için verilen komutlara göre, hem de sürücünün gaz, fren ve direksiyon aktivitelerini de degerlendirerek araç kontrolüne gönderilen komutun önceligini belirleyen bir yapi bulunmaktadir. Teknigin bilinen durumunda yer alan USlO796204B2 numarali patent dokümaninda, yapay sinir aglari kullanarak otonom aracin görev, davranis ve hareket planlama modüllerinin stokastik yaklasimla olusturulmasi amaçlanmistir. Yapay sinir agi modelleri, en uygun rotayi tespit etmek, tespit edilen rota için davranis planlamak ve planlanan davranisi gerçeklestirmek için hareket planlama modüllerini ayri ayri ele almaktadir. Model egitimleri, belirlenen senaryolar dahilinde her bir modül için bagimsiz olarak yapilmistir. Her modül kendi içerisinde çesitli fonksiyonel görevler içermektedir. Modellerin egitimi bu fonksiyonel görevler dahil edilerek yapilmaktadir. Bahsedilen sistem, performansinin güvenli sürüs limitlerinin altina düsmemesi için gerekli aksiyonlarin alinmasini saglayan bir yapi bulundurmamaktadir. Bu durum sistem güvenligi ve güvenirligi açisindan düsük bir basari saglamasina yol açacaktir. otonom araçlarin yüksek hizlarda navigasyonunu saglayan bir mimari olusturulmustur. Sensörlerden elde edilen çevre verileri harita tabanli bir maliyet hesabindan geçirildikten sonra çarpisma riski içeren engellerin tespiti yapildigi iddia edilmekte ve anlamlandirilan sensör verileri füzyon isleminden geçtikten sonra otonom aracin planlanan rotayi tamamlayabilmesi için gerekli olan hareket planinda ve seyir hizi hesabinda kullanildigi ifade edilmnektedir. Önerilen yöntemde otonom aracin muhtemel seyahat edebilecegi alanlarin tespitinde gerekli olan hesaplama islemi yükünün azaltilmasi amaçlanmistir. Bulusun Amaci Bu bulusun amaci; farkli araç türleri, donanim ve sensörleri ile çalisabilecek, tüm yazilim modüllerini kosturmaktan, elektronik algilayici ve ekipmanlarin baglantisindan ve yönetiminden, araçlar ve çevre birimleri arasinda iletisim ile harici bilgi kaynaklarindan veri getirmekten ve bunlarin islenip bir karara ve takiben gerçeklenmesinden sorumlu modüler bir mimari ile kurgulanmis otoyol otopilot bilgisayari olmasidir. Bulusun bir diger amaci islem gücünü yönetebilmek için dagitik mimariye uygun sekilde tasarlanmis ve farkli bilgisayarlara farkli modüllerin yüklenmesine ve ölçeklenerek çalismasina olanak saglayan bir bilgisayar yapisi olmasidir. Bu sayede gerekli hesaplamalar, bulut bilisim tabanli bilgisayarlar tarafindan uzaktan da yapilabilmekte ve hizli ag erisimi ile araca iletilebilmektedir. Bulusun bir diger amaci; araç içi ve dis ortamdan gelen ham sensör verilerinin sirasiyla çözümleyici, ön isleme, obje filtresi ve takibi, sensör füzyonu islemlerinden geçerek aracin bulundugu ortama iliskin anlamli verilere dönüsme asamalarini detayli olarak ele almis, yolun fiziksel özellikleri, serit çizgileri ve trafik bilesenleri gibi statik bilgilerin çikarimi ile ortamdaki diger araç ve yaya gibi hareketli objelere iliskin yörünge ve manevra tahminlerinin çikarimindaki veri akisini sistematik bir sekilde düzenleyen bir bilgisayar yapisi olmasidir. Bulusun diger bir amaci; otonom aracin baslangiç konumundan varis noktasina kadarki seyri boyunca araç hareket planlamasini "Karar Verme ve Planlama" modülü içerisinde hiyerarsik bir yapida ele almasidir. "Karar Verme ve Planlama" modülü "Güzergâh Planlama", "Karar Verici" ve "Hareket Planlama" alt birimlerinden olusmaktadir. "Karar Verici" ile "Hareket Planlama" birimleri arasinda kurulan ve araç güvenligini artirmayi amaçlayan talep-onay mekanizmasini ortaya çikarmaktir. Bulusun bir diger amaci; aracin hedef konuma çarpisma olmadan gidebilmesini otonom sürüs mimarisi içerisinde modüler bir yapida ele almaktir. Aracin çarpisma olmadan hedef konuma en uygun süre içerisinde gitmesini saglayacak manevra kararlari etraftaki araçlar ve hareketli nesnelerin manevra tahminine göre "Karar Verme ve Planlama" modülünde pekistirmeli ögrenme, derin ögrenme gibi yapay zekâ tabanli yöntemler, karar agaci, bulanik mantik veya teknigin bilinen durumundaki yöntemlerden biri kullanilarak yapilabilmektir. Alinan manevra kararina göre "Hareket Planlama" alt birimi otonom aracin serit degisikligi veya serit takibi aksiyonlarini güvenli bir sekilde gerçekleyebilmesi için gerekli olan referans hareket bilgilerini üretmektir. Bulusun bir diger amaci; otonom aracin serit degisikligi veya serit takibi aksiyonlarini güvenli bir sekilde gerçekleyebilmesi için çarpisma önleme ve engelden kaçinmaya yönelik hesaplamayi yaparak hareket profilini "Karar Verici" biriminin belirlemis oldugu manevra karari bilgisine göre "Hareket Planlama" alt biriminin olusturmasidir. Bulusun diger bir amaci; "Karar Verici" biriminin belirlemis oldugu manevranin "Hareket Planlama" birimi tarafindan gerçeklenebilirlik, güvenlik ve konfor bakimindan degerlendirilmesi ve "Karar Verici" birimine geri bildirim olarak iletmesidir. Bulusun bir diger amaci; modüler yapiyi kurgularken sistem hatalarinin izlendigi ve gerektiginde ilgili aksiyonlarin alinmasini saglayacak sistem gözlem modülünü tüm modül ve komponentlerle baglantili olacak sekilde ele almis olmasidir. Sistem mimarisinde "baglantili bilgi kaynaklari" modülünün dagitik mimariye uygun bir sekilde tasarlanmasi ile araç üstünde ve bulut tarafindaki islem gücünün dogru yönetilebilmesi için daha güçlü bir kurgu öne sürülmüs olmasidir. Bulusun diger bir amaci; araç hareket kontrolünü otonom sürüs mimarisi içerisinde modüler bir yapida ele alarak "Üst Seviye Hareket Kontrol" ve "Alt Seviye Hareket Kontrol" alt birimlerinden olusan "Hareket Kontrol" modülünde hiyerarsik bir yapida gerçeklestirmesidir. Araç hareket kontrolünün otonom sürüs mimarisi içerisinde ele alinmasi bir üst modül olan saglamaktadir. Böylece stratejik ve taktiksel manevra kararlarinin hareket kontrolüne giris olarak uygulanilmasi ve dolayisiyla daha optimal araç kontrol çiktilarinin (Direksiyon Referansi, Ivmelenme referansi, Yavaslama Referansi) elde edilmesi saglanacaktir. Bulusun bir diger amaci; otonom aracin görev, davranis ve hareket planlama islemlerini sadece yapay sinir agi modelinin çiktilari ile saglamak yerine alinan manevra kararinin talep-onay mekanizmasi içerisinde gerçeklenebilirlik, güvenlik ve konfor bakimindan farkli algoritmalar ile testini yaparak gerçeklestirmektir. Ayrica "Sistem Gözlem Modülü" sistem içerisindeki tüm modüllerin anlik durumunu takip ederek sistem performansinin güvenli sürüs limitlerinin altina düsmemesi için gerekli aksiyonlari almaktadir. Böylece sistem güvenligi ve güvenirligi açisindan çok daha üstün bir basarim elde edilmektedir. Bulusun diger bir amaci; otonom araçlar için bir arayüz sisteminden ziyade, otonom araçlardaki sensör ve sistem seviyesindeki tüm birimleri kapsayan ve yöneten merkezi bir otoyol otopilot bilgisayari içererek çevre birimlerle iletisimi saglamasi, bilgi paylasimi amaçli veya hesaplama gücü gerekliliklerinde baglantili bilgi kaynaklarini kullanmasi ve kullanici arayüzü ile programlanabilir bir yapida konumlandirilmasidir. Bu baglamda, otonom sürüs görevlerini bir merkezden yöneten, takibi ve icrasindan sorumlu olan bu bilgisayar, araçtaki diger bilgisayarlar (yani elektronik kontrol üniteleri) ile entegrasyonu kolaylikla saglayabilmektedir. Otonom sürüs mimarisi yenilikçi bir yaklasimla ele alinarak sistemin sürdürülebilirligi ve güvenirliginin artirilmasi hedeIlenmistir. Modüllerin birbiri ile iletisimde oldugu ve sistem gözlem modülü ile bu iletisimin gözlemlendigi yapida, alt modüllerde olusabilecek kismi hata durumlarinda dahi sistemin sürdürülebilirliginin saglanabilecegi bir yapi olusturulmustur. Önerilen modüler mimari, merkezi otoyol otopilot bilgisayari mimarisi (1) tarafindan kontrol edilen dagitik bilesenler ile daha hizli sistem gelistirme ve yazilimlarin yeniden kullanimini mümkün kilar. Ayrica bu mimari, bilesenlerin birbirlerinden izole tasarlanmasi ile yazilim gelistirme veya bakim esnasinda karsilasilabilecek olasi güncellemelere hizli adaptasyonuna olanak saglamaktadir. Baglantili bilgi kaynaklarinin, bu modülerite ile birlesimi sonucunda uç noktanin da güvence altinda tutulmasi mümkün kilmaktadir. Harici Bilgi Kaynaklari içerisinde yer alan bulut bilisim bilgisayarlarinda her bir modüle ait veri gruplarinin sifrelenerek depolanmasi ve ihtiyaç durumunda kullanilmasina imkân saglamaktadir. Sekillerin açiklamasi Sekil 1. Otoyol otopilot bilgisayari mimarisi Sekil 2. Otoyol Otopilot Bilgisayarinin Modüler Mimarisi Sekil 3. Otoyol Otopilot Bilgisayari Algi Modülü Sekil 4. Otoyol Otopilot Bilgisayari Karar Verme ve Planlama Modülü Sekil 5. Otoyol Otopilot Bilgisayari Hareket Kontrol Modülü Sekillerdeki Referanslarin Açiklanmasi Bulusun daha iyi anlasilabilmesi için sekillerdeki numaralarin karsiligi asagida verilmistir: 1. Otoyol otopilot bilgisayari mimarisi Algi modülü Hareket kontrolü modülü Sistem gözlem modülü Kullanici arayüzü modülü Baglantili bilgi kaynagi 9. Araç sensörü . Araç bilgisayari 11. Harici bilgi kaynagi 12. Otonom araç 21. Çözümleme birimi 22. Yol algilama birimi 24. Tahmin birimi 31. Güzergâh planlama birimi 32. Karar verici birim 33. Hareket planlama birimi 41. Yörünge takipçisi birimi 42. Eyleyici kontrolör birimi 91. Radar 92. Lidar 93. Kamera 94. GPS/IMU 101. Araç içi sensör 1 1 1. Sayisal harita 112. Baglantili birimler 113. Bulut bilisim 231. Obje filtresi birimi 232. Obje takibi birimi 233. Lokalizasyon birimi 234. Serit polinomlarinin kestirimi birimi 235. Sensör füzyonu birimi Bulusun Detavli Açiklamasi Sekil 1 otoyol otopilot bilgisayari mimarisi (1) semasini göstermektedir. otoyol otopilot bilgisayari mimarisi (1), farkli otonom sürüs görevlerini gerçeklestirmek adina birden fazla bilgisayarda yüklü, yazilimlar içeren temel modüllerden olusmaktadir. Dahili bir iletisim hatti üzerinden birbirleri ile haberlesen bu modüller arasindaki iliski ve sistem görünümünü veren otoyol otopilot bilgisayarinin modüler mimarisi (1) Sekil 2,de verilmistir. Önerilen mimarinin bilesenlerinden birisi algi modülüdür (2). Algi modülü (2), hem otonom araç (25) bilgilerini hem de aracin içinde bulundugu çevrenin durum ve özelliklerini anlamlandirarak hiyerarsik olarak bir çevre modelinin olusturulmasini amaçlamaktadir. Bu dogrultuda araç sensörleri (9) ve araç bilgisayarlari (10) üzerinden elde edilen ham bilgi, çözümleme biriminde (21) çözümlenip önisleme adimindan geçirildikten sonra ilgili modüllerce kullanilabilir hale getirilir. Böylelikle bu birimde sensör çözümleme ve ön isleme islemleri yapilmis olmaktadir. Ön islemesi yapilmis olan sensör verileri içerisinden sürüs aktivitesi için önem arz eden yol, trafik isaretleri ve trafik aktörleri gibi sürüs sahnesini olusturan bilesenler tespit edilir ve daha önceden tespit edilmis olanlarin takibine devam edilir. Tekil sensörler yani araç sensörleri (9) tarafindan algilanan trafik bilesenleri bir üst seviyede sensör füzyonu birimi (235) veya veri birlestirmesi yapabilecek yöntemlerden herhangi biri ile bir araya getirilerek tutarli çevre modeli elde edilir. Algi modülünün (2) en üst seviyesinde ise planlayici modüllerin ihtiyaçlarina göre çevre modelinde yer alan trafik bilesenlerinin manevra ya da yörüngelerinin tahmini yapilir. Algi modülünün (2) ilk katmaninda çözümleme birimi (21) yer almaktadir. Otonom aracin (25); tekerlek hizi, lastik basinci gibi araç dahili bilgileri ve yol durumu, trafik aktörleri gibi aracin çevresel durumuna dair bilgiler araç sensörleri (9) ile ham veri olarak elde edilmektedir. Araç sensörlerinden (9) elde edilen veriler, otomotivde kullanilan standart veri aktarim protokollerine (örnegin CAN protokolü) uygun olacak sekilde kodlanmis halde farkli araç bilgisayarlarina (10) aktarilir. Bu araç sensör (9) verilerine ek olarak, aracin güç aktarim organlari, sasi, bilgi ekrani gibi ünitelerine ait bilgilerin de belirli bir veri aktarim metoduyla alinmasi gerekmektedir. Tüm bu bilgiler kodlanmis olarak iletildiginden daha üst seviye algi modülleri (2) tarafindan kullanilabilir hale gelmesi için verilerin çözümlenmesi gerekmektedir. Bu bilgilerin tamami araç bilgilerinin olusturulmasinda kullanilir. Bu baglamda çözümleme birimi (21) sayesinde algilama modüllünün (2) üst katmanlarindaki birimler için gerekli olan araç içi bilgiler elde edilir ve üst seviye modellerinde kullanilmak üzere gönderilir. aracin çevresini algilamakta kullanilan sensörler hedeIlenen ileri sürüs destek veya otonom sürüs faaliyeti için gerekenden daha genis alanlari veya daha öteyi duyumsayabilmektedir. Örnegin; otoyolda aktif olan bir kör nokta uyari sistemi için aracin seyir halinde bulundugu seridin hemen yanindaki seritlerde bulunan araçlar önem arz etmektedir, ancak sensörlerin görüs uIku serit çizgileri ile sinirli olmak zorunda degildir. Sürüs faaliyeti için gerekli olanin ötesindeki bilgi daha üst algilama modülleri açisindan gereksiz islem yüküne sebebiyet verebilecegi için ön islemeden geçirilmesi gerekmektedir. Önden ayiklamasi yapilan sensör verileri içerisinden trafik bilesenlerinin seçilmesi gerekmektedir. Radar (91) veya lidar (92) gibi sensörler yayinladiklari elektromanyetik dalgalarin geri dönüsüne göre ölçüm yaptiklari için her bir trafik bilesenine dair tekil bir cisim bilgisi olusturmaktansa nokta kümeleri seklinde veri üretmektedir. Kamera (93) ile elde edilen veriler ise iki boyutlu veya iki boyutlu görüntülerin kamera (93) tarafindan ön islemeden geçirilmesiyle elde edilen üç boyutlu görüntüler seklindedir. Nokta kümesi, iki veya üç boyutlu görüntü seklindeki bu veriler içerisinden çesitli bilgisayarli görü yöntemleri kullanilarak trafik bilesenleri belirlenir. Sürüs faaliyetinin temel bilesenlerinden biri de yol altyapisidir. Serit çizgileri, trafik isaretleri gibi yola ait bilesenler yol altyapisini olusturmaktadir. Güvenli bir sürüs için sürüs yapilabilir alanlarin, serit çizgilerinin ve trafik isaretlerinin algilanabilmesi gerekmektedir. Yol altyapisina dair bilginin tamami kamera (93) ile elde edilen görüntülerin islenmesi ile elde edilebilecegi gibi bilesenlerin bir kismi tekil olarak farkli sensörler kullanilarak da algilanabilir (örnegin lidar(92)). Ayrica harici bilgi kaynaklari (1 1) üzerinden haritalar vasitasiyla, sayisal haritalar (1 l 1) elde edilebilir. Bu bilgi, dünya modeli olusturulurken algilanan anlik yol fiziksel özellikleri ile eslenebilmektedir. Bu islemler, yol algilama birimi (22) tarafindan gerçeklestirilir Sensörlerden elde edilen veriler belirli oranda gürültü içermektedir. Bu gürültü, tespit edilen trafik aktörlerinin pozisyonlari ve hizlari gibi sürüs faaliyetleri açisinda önem tasiyan bilgilerin dogrulugunu etkilemektedir. Bu nedenle, trafik aktörlerinin kinematik durum verilerinin filtrelenmesi gerekmektedir. Sensörlerden elde edilen verilerin belirli oranda içerdigi gürültünün filtrelenmesini saglayan bir algilayicilarin filtrelenmesi, takip edilmesi ve iüzyonunu saglayan veri isleme birimi (23) sistem içerisinde yer almaktadir. Sensör gürültüsünün karakteristigi ve filtrelenecek trafik aktörlerine ait hareket modellerine bagli olarak teknigin bilinen durumundaki filtreleme yöntemlerinden biri uygulanir. Bu islemler obje filtresi birimi (231) tarafindan gerçeklestirilir. Trafik aktörlerinin filtrelenen bilgileri, kapsamli bir dünya modeli olusturulmasinda kullanilir. Eger sistemin önceki çevrimlerinde dünya modeli olusturulmus ise yeni elde edilen veriler ile mevcut dünya modeli içerisinde yer alan aktörler eslestirilerek, sadece aracin degil, tüm trafik aktörlerinin takibi obje takibi biriminde (232) yapilir. Böylece anlik duyumsamalarin ötesinde hafizaya sahip bir algi ortaya çikarilmis olur. Araç bilgileri olarak adlandirilan araca ait tüm islenmis sensör bilgileri ve aracin dahili durumunu içeren bilgilerin tamaminin olusturulmasi lokalizasyon birimi (233) tarafindan gerçeklestirilir. Yoldaki serit çizgilerinin Karar verme ve planlama modülü (3) kullanilmak üzere matematiksel ifadelere çevrilmesi ise serit polinomlarinin kestirimi birimi (234) tarafindan gerçeklestirilir. Ayrica, seçilen sensörler ve sensör yerlesim mimarisine göre sensörlerin görüs alanlarinda öitüsme olmasi durumunda sensör füzyonu teknigi kullanilarak dünya modeli daha da iyilestirilebilir. Sensör füzyonu, ayri sensörler tarafindan takip edilmekte olan trafik aktörlerinin bilgilerinin birlestirilerek iyilestirilmesinde kullanilabilecegi gibi takip asamasinda önce filtrelenen bilginin iyilestirilmesine katki sunup sonrasinda takibin gerçeklestirilmesinde kullanilabilir. Bu islemler sensör füzyonu birimi (235) tarafindan gerçeklestirilir. Algi modülünün (2) son katmaninda, gözlemlenen trafik aktörlerinin/objelerin hem kendi hareketlerini hem de çevreleri ile etkilesimlerini dikkate alan yapay zekâ tabanli bir karar tahmini algoritmasinin kullanilmaktadir. Gözlemlenen trafik verileri zaman serileri haline getirilerek zaman serilerini islemede kullanilan makine ögrenme yöntemleri veya teknigin bilinen durumundaki yapay zekâ yöntemleri ile deterministik yöntemlerden seçilen bir yöntem ile tahminler gerçeklestirilmektedir. Bu islemler obje yörünge ve manevra tahminini saglayan tahmin birimi (24) tarafindan gerçeklestirilir. Karar verme ve planlama modülü (3), kullanici arayüzünden gelen sürücü (8) komutlari ve algi modülünden (2) aldigi verileri göz önünde bulundurarak aracin takip edecegi güzergâhin belirlenmesini, güzergâh takibini en etkin sekilde gerçeklestirmede kullanilacak kararlarin alinmasini ve bu kararlarin gerçeklestirilmesinde kullanilacak yörüngelerin olusturulmasini saglayan bilgisayarlardan olusur (Sekil 4). Güzergâh planlama birimi (31), aracin kullanici tarafindan belirlenen hedefe en etkin sekilde gitmesini saglayacak güzergâhin planlamasindan sorumludur. Kullanici arayüzü modülü (6) vasitasiyla sürücüden (8) alinan güzergâh bilgisi bu birimde islenir ve güncel güzergâh planlamalarinda oldugu gibi kullaniciya mesafe, yakit ekonomisi, yol seçenekleri (parali veya ücretsiz yollar) ve sürüs süresi gibi kriterler ile gelecekte aracin sahip olacagi özelliklere uygun kriterleri de saglamak üzere en uygun güzergâhlardan seçenekler sunulur. Yine kullanici arayüzü modülü (6) vasitasiyla sürücünün (8), önerilen güzergâh seçenekleri arasindan, seçilen güzergâh onayi alinir ve bu seçilen güzergâh davranis planlama için karar verici biriminde (32) kullanilmak üzere kaydedilir. Davranis planlama için karar verici birimi (32), güzergâh planlama birimi (31) ile belirlenen araç güzergâhinin takip edilmesi ve bu esnada yolcularin güvenlik, konfor ve isteklerini karsilamaya yönelik manevra kararlari vermekten sorumludur. Otoyol sürüsünde bu manevralar, sürücü (8) tarafindan seçilen hiz hedefinin veya araçlar arasi güvenli mesafenin saglamasina veya performans iyilestirmesine yönelik zorunlu olmayan serit degisiklikleri ile güzergâh takibi için gerekli olan zorunlu serit degisikliklerini içermektedir. Bu manevralar, pekistirmeli ögrenme, derin ögrenme gibi yapay zekâ tabanli yöntemler, karar agaci benzeri deterministik metotlar veya bulanik mantik tabanli yöntemler ile teknigin bilinen durumundaki yöntemlerden biri ile icra edilebilmektedir. Otoyol sürüs manevrasi olarak belirlenen serit degisikligi ve buna bagli hiz degisikligi kararlari hareket planlama birimine (33) iletilir. Ek olarak, araç güvenligini arttirmak amaciyla, davranis planlama için karar verici birimi (32) ile hareket planlama birimi (33) arasinda bir talep-onay mekanizmasi tanimlanmistir. Bu baglamda istenen manevrayi (örnegin serit degisikligi) gerçeklestirmek için gerekli hareket aksiyonlari, mevcut araç durumu ve çevre kosullari göz önüne alindiginda gerçeklenebilir veya güvenli degil ise, manevra gerçeklestirilmez ve bu durumun bilgisi hareket planlama birimi (33) tarafindan davranis planlama için karar verici birimine (32) geri beslenir. Hareket planlama biriminde (33), davranis planlama için karar verici birimi (32) tarafindan belirlenen manevra karari bilgisine göre otonom araç (25) serit degisikligi veya serit takibi aksiyonlarinin güvenli bir sekilde gerçeklenebilmesi için gerekli olan referans planlama bilgileri üretilir. Manevra bilgisinin degerlendirilmesi sonucunda herhangi bir sebepten dolayi manevranin gerçeklenmesi risk teskil ediyorsa davranis planlama için karar verici biriminden (32) yeni manevra bilgisi talep edilir. Belirlenen manevra komutuna göre eger araç serit takibine devam edecekse bulundugu seridin orta dogrultusuna yakin duracak sekilde hareket yörüngeleri olusturulur. Bu esnada aracin bulundugu seridin disina çikma riskine karsi kontrolü de saglanir. Eger araç serit degisimi yapacaksa hedef serit için yol egimi ve obje bilgileri ile diger seritlerin risk durumlari göz önüne alinarak ilgili serit degisim kararina uygun olacak sekilde her hesaplama döngüsü için yanal yörünge noktalari hesaplanir. Bu hesaplama sirasinda aracin çevredeki diger objelere çarpma durumu ve aracin serit degisimi sirasinda uygulayacagi ivmelenme hareketinin devrilme riski yaratip yaratmayacagi hesaplamalarda kontrol edilir. Yapilan risk analizi sonucunda, kararin icra edilebilirligi ve güvenlik bakimindan uygun olup olmadigina dair geri bildirim davranis planlama için karar verici birimi (32) ile paylasilir. Eger verilen karar risk analizi kriterlerini karsilamiyorsa karar uygulanmaz ve bir önceki hareket modunda devam edilir. Aracin kontrolü için referans planlama bilgileri otonom aracin (25) hareket kontrol modülüne (4) gönderilir. Hareket kontrol modülü (4), karar verme ve planlama modülünden (3) elde edilen araç hareket bilgilerinin takibi için araca uygulanmak üzere eyleyicilerin kontrol edildigi araç bilgisayari (10) ile paylasilacak bilgilerin olusturulmasindan sorumludur (Sekil 5). Yörünge takipçisi alt birimi (41), karar verme ve planlama modülünden (3) elde edilen referans planlama bilgilerini, yörünge takibi için gerekli olan referans tekerlek açisi ve referans bileske ivmelenme bilgilerine dönüstürülmesinden sorumludur. Araç dinamiklerinin dogasi geregi yanal ve dogrusal hareket dinamikleri birbirleri ile bagimli durumda olup, aracin kontrolü için karmasik ve dogrusal olmayan bir sistem modellemesi gerektirir. Bu durum da göz önünde bulundurularak aracin kontrolü için kullanilan algoritma, otonom aracin hem yanal hem dogrusal kontrolünü beraber gerçeklestirmekte ve bu sayede etkin ve güvenli bir otonom sürüs saglanmaktadir. Bu sayede otonom aracin otoyol sürüs imkâni saglanirken, sehir içi seyir veya otonom park gibi düsük hizli sürüsün gerçeklestirilmesi mümkün hale gelmektedir. Elde edilen referans direksiyon açisi ve referans bileske ivmelenme degerleri eyleyici kontrolör birimine (42) gönderilir. Eyleyici kontrolör birimi (42), yörünge takipçisi biriminden (41) gelen referans teker açisi ve referans ivmelenme degerleri, çesitli hesaplama yöntemleri ile aracin hareket tahrik birimlerinde gerçeklenmek üzere eyleyici referans bilgilerine dönüstürülerek araç bilgisayarlarina (10) iletilir. Otonom araç (25), referans hareket hizina ulasana dek ivmelenme veya yavaslama hareketine devam eder, benzer sekilde aracin belirlenen referans ön tekerlek açisi elde edilene kadar direksiyon referansi hesaplamasi devam eder. Aracin tahrik birimleri ile arayüze ve veri aktarim metoduna bagli olarak, bu eyleyici referanslarinin bilgi transferi farkli sekillerde gerçeklestirilmektedir. Örnegin; gaz pedali pozisyonu, fren pedali pozisyonu, hizlanma / yavaslama için gerekli olan ivme, hizlanma / yavaslama için gerekli olan tork, direksiyon açisi, direksiyon motoru torku, gibi referans degerler aracin tahrik birimlerine iletilmektir. Sistem gözlem modülü (5), otoyol otopilot bilgisayari mimarisi (l) bilesenlerinin gözlemlenmesi, takip edilmesi, uyari indikatörlerine göre alarmlarin üretilmesi, gerekli kurtarici aksiyonlarin belirlenmesi ve sartlar gerektiginde bu aksiyonlarin gerçeklestirilmesi ve performans takibinin yapilmasi gibi sorumluluklari olan modüldür. Sistem içerisindeki tüm modüllerin (algi modülü (2), karar verme ve planlama modülü (3), hareket kontrol modülü (4), kullanici arayüzü modülü (6) ve baglantili bilgi kaynaklari (7)) veya sistem mimarisi içindeki hayati öneme sahip modüllerin ürettigi ve kullandigi tüm sinyallere erisilebilir niteliktedir. Bu erisim üzerinden modüllerin ve sistemin anlik durumunu takip etmekte ve sistemin performansini gözlemlemektedir. Sistemin çalistigi donanimin sagligi, kullanilan ve kullanima hazir islem gücü orani, kullanilabilir rastgele erisim bellegi orani, güç seviyesindeki dalgalanma gibi donanim ile ilgili durumlar da izlenmektedir. Sistemin anlik durumunu tüm modüllere ileten geri besleme mekanizmasi sayesinde, ilgili modüllerin hata reaksiyonlari almasi veya münferit kurtarici aksiyonlari almasi saglanmaktadir. Sistemin anlik durumu, ayni zamanda kullanici arayüzü modülü (6) araciligiyla sürücüye de iletilmektedir. Sürücü (8) ve/veya yolcularin sisteme güvenlerini arttirmak ve otonomi seviyesine bagli olarak olasi hatalarin fark edilebilmeleri ve geriye dönük olay günlügü ve sorgulamalar açisindan kullanilan tüm yapay zekâ tabanli yöntemlerin çiktilarinin açiklamalari sistem gözlem modülü (5) içerisinde olusturulur ve yine kullanici arayüzü modülü (6) araciligiyla sürücüye de iletilmektedir. Bu amaç dogrultusunda kullanilan yapay zekâ modelleri dogal olarak açiklanabilir teknikler ile gelistirilebilecegi gibi; bunun mümkün olmadigi kara kutu modeller üreten yapay zekâ modelleri için, modellere etki eden faktörleri ortaya koyan teknigin bilinen model açiklanabilirligi yöntemleri de sistem gözlem modülü (5) içerisinde uygulanir. Model açiklanabilirligi yöntemleri, yapay zekâ modellerinin çiktilarini en baskin sekilde etkileyen veriyi ayristirip sürücüye sunmakta kullanilir. Bu kapsamda kamera (103) ile elde edilen görüntülerde araçlarin siniflari (motosiklet, binek araç, kamyon vb.) belirlenirken görüntünün hangi kisimlarinin siniflandirmada göz önünde bulunduruldugu belirtilebilir ve gösterilir. Sistemdeki hata durumlari, iki farkli yaklasim ile yakalanabilmektedir; l) Modüle gelen ve modülün ürettigi sinyaller üzerinden çesitli hata yakalama yöntemlerinin uygulanmasi: Bu yöntemler, mesaji gönderen modülün örnekleme frekansinin gelen mesajin örnekleme frekansi ile uyumu, modül ile baglantinin sürekli oldugunu gösteren mesaj sayaci, gelen mesajin uygun deger araliginda olmasi olabilmektedir. 2) Diger modüllerden gelen münferit hata mesajlarinin islenmesi: Bu hata mesajlari ilgili modüllerin gerçeklestirdigi iç uygunluk kontrolleri veya otomat diyagramlarindaki hata durumlari olabilir. Sistem performansinin güvenli sürüs limitlerinin altina düsmesi ve modüllerinin gerekli kurtarma aksiyonlarini alamamasi durumunda; hatali modüller kapatilarak, sistemin servis modunda sinirli performans ile çalismasi saglanmaktadir. Sistemin gözlemledigi tüm kritik modüller için bir aksiyon plani tanimlanmistir. Ilgili modülde bir sorun meydana geldiginde, sistem, aksiyon planini uygulamaya koymaktadir. Otoyol otopilot bilgisayari mimarisinde (1) her modül için birden fazla bilgisayar bulunabilmekte ve yüksek elverislilik prensibi ile sistem gözlem modülü (5) tarafindan gözetilmekte ve isletilmektedir. Böylece herhangi bir modülün bilgisayarindan limitler dahilinde yanit alinamadiginda diger bilgisayara geçis yapilacak ve sistemin sürdürülebilirligi saglanacaktir. Yanit alinamayan modül bilgisayarinin hizmete dahil olabilmesi ilgili modülün kritik olup olmamasina bagli olarak, modülün kapatilmasi, yeniden baslatilmasi ya da birbirine bagli modüller zincirinin komple kapatilmasi aksiyonlari alinabilmektedir. Sistemdeki tüm hatalar, modül etiketlemesi ve ilgili modül özelinde belirlenmis hata kodlari ile tutulmaktadir. Sistemin aldigi kararlar, uyguladigi manevralar ve icra ettigi hareket planlarinin hepsi anlik olarak kaydedilir, zaman-veri bütünlügü bozulmadan salt okunur saklanir. Tüm bu bilgiler, teshis ve hata ayiklama amaçlariyla otoyol otopilot bilgisayari mimarisinde (l) ve/veya araç bilgisayarinda (10) salt okunur saklanabilir. Kullanici arayüzü modülü (6) ile sistemin tamamini veya belli alt bilesenlerini devreye alma, devreden çikarma ve yönetme özellikleri ana ekranda mevcuttur. Kullanici arayüzü, sistemin ayarlamalarina dair ekranlar içerir. Sistemin bilesenlerinin kullanici ayarlarini barindirir ve bilesen bazinda ayar degistirme olanagi sunar. Kullaniciya, önceden olusturulmus hazir ayarlama durumlari arasindan geçis yaparak kolay degistirme imkâni sunar. Kullanici arayüzü modülü (6) araciligiyla algi modülü (2) tarafindan belirlenen diger hareketli ve duragan aktörler ve objelerin yerlesimleri gösterilir ve hareket eden aktör ve objeler de dinamik olarak arayüz üzerinde güncellenir. Trafik isaretçisi, görüntüleme ve baglantili bilgi kaynaklarindan (7) gelen sinyal ve bilgiler anlik islenir ve arayüzde gösterilir. Karar verme ve planlama modülü (3) tarafindan verilen kararlarin açiklamasina, karar bilgisi detayi üzerinden erisilebilir. Bu durumda, karar vericinin karari hangi nedenlere göre, ne güvenle verdigi seffaf biçimde kullaniciya, kullanicinin da anlayacagi görsel ve infografikler ile aktarilir. Ayrica planlanan ve hareket kontrolü modülü (4) tarafindan gerçeklenen hareket yörüngeleri sürekli olarak kullanici arayüzünde baglantili bilgi kaynaklari modülü (7) vasitayla elde edilen sayisal harita (1 l 1) tabani üzerinde görsellestirilir. Algilayicilar basta olmak üzere fiziksel ekipmanlarda meydana gelen ariza, hatali çalisma, algilamaya engel zorluklarin varligi gibi durumlari da sistem gözlem modülünün (5) sagladigi bilgilere bagli olarak uyari ekranlari üzerinden sürücüye (8) iletilir. Sistemin alt bilesenlerinin güvenligini tehdit eden unsurlarin meydana gelmesi durumunda sistem gözlem modülünden (5) gelen mesajlari kullaniciya bildirir ve acil yardim uyarisini daha önceden belirlenmis otoritelere (konum, hiz, durum, yol sartlari, son yapilan manevralarin listesi vb.) baglantili bilgi kaynaklari modülü (7) iletisim kanallarini kullanarak iletir. Kaydetme ve yedekleme kapsaminda; kararlar, manevralar, hatalar ve tam verileri gibi bilgiler zaman etiketi ile sirali ve salt okunur degistirilemez biçimde saklanir. Bu bilgilerin saklanmasinda teknigin bilinen durumundaki blok zincir gibi yöntemler kullanilabilir. Verilerin geriye dönük incelemesinin yapilabilmesine veya simülatörlerde oynatilabilmesine imkân tanir. Bu bilgiler belli araliklarla bagli olunan bulut sistemine (113) yedeklenebilir veya baglantili birimler (112) ile ilgili trafik otoritelerinin sistemlerine gönderilebilir. Sayisal haritalar (111) veya yüksek çözünürlüklü sayisal haritalar (111) üzerinden konuma dayali bilgiler alinir ve kullanici arayüzü modülünde (6) dinamik sekilde sunulur. Haritalarda konuma dayali bilgiler arasinda, santimetre hassasiyetine kadar konum, yol cinsi ve sinifi, egimi, yüksekligi, trafik isaret ve denetçileri gibi bilgiler bulunur. Sayisal harita servisi üzerinden konuma dair dinamik bilgiler temin edilir. Bunlar teknigin bilinen durumundaki trafik durumu, ilgi noktalari (ör: otoparklar, benzin ve sarj istasyonlari vb.), varsa hava durumu bilgisi ve ileride bu servisler üzerinden sunulacak diger tüm bilgileri içerebilir. Yüksek çözünürlüklü haritalarin kullanilmasi durumunda konumlandirma yapilabilir. Serit bilgisi ve hassas konum, hareket planlarini belirleyen karar verme ve planlama modülüne (3) girdi olarak sunulabilir. Harita verileri, harici bir algilayici gibi anlik veriler sunmakta oldugundan algi modülüne (2) de algilayici füzyonu yöntemine girdi olarak sunulabilir. Diger hareketli veya duragan aktörlerin yol üzerindeki konumlarini daha hassas belirlemek için bu bilgi kullanilir. Araçlar arasi (V2V) ve araçlar ile çevrede kurulu akilli cihazlar arasindaki (V21) anlik bilgi alisverisi için kisa mesafe iletisim protokolleri basta olmak üzere teknigin bilinen durumundaki yöntemlerin (ör: 802.11p, vb.) ve genis mobil aglar için teknigin bilinen durumundaki yöntemlerin (ör: 4G, 5G ve sonrasi) bir arada veya ayri ayri kullanimi ile aracin sürekli baglantili olma durumu olusturulmaktadir. Çevreye dair bilgiler, yolda anlik olusan zamana bagli olaylari içerebilir. Bu bilgiler arasinda, anlik yol durumu, kaza, kapali serit, bakim çalismasi, tünel / köprü giris çikislarinda diger sartlara bagli özel hiz tanimlamalari vb. gibi durumlar olabilir. Çevreye dair bilgiler 0 konumdaki çevreye kurulu akilli cihazlardan iletilebilecegi gibi, yol üzerinde ayni serit veya karsi seritten gelmekte olan diger araçlardan iletisim yöntemleri kullanilarak da aktarilabilmektedir. Bulunan andaki bilgiler, yolun ilerisinde olan durumlar bu sekilde araca aktarilir ve degerlendirilmek üzere karar verme ve planlama modülüne (3) girdi olarak sunulur. Baglantili araç teknolojilerinden gelen bilgiler ayni zamanda bir algilayici olarak görev yapabilir ve algi modülüne (2) algilayici ûizyonu yöntemlerinde kullanilmak üzere girdi olusturabilir. Yolda olusan bilgilerin aktarilmasi ile ayricalikli geçise sahip (ör: ambulans) araçlara serit bazinda kolaylik saglanabilmesi için bilginin önden aktarilmasi ve ona göre serit degistirme manevrasi beklenebilir. Yolda olusan anlik durumlara istinaden trafik isiklari ve kavsak kontrol durumlarinda da önceden araç hizinin ayarlanmasi ve optimize edilmesi sayesinde bu gibi durumlarin önüne geçmek veya azaltmak mümkün olabilmektedir. Otoyol kullaniminda araçlarin konvoy kullanimi için teknigin bilinen durumundaki bu iletisim yöntemleri bir arada kullanilabilir ve konvoy durumunda pilot aracin manevralari, takip eden araçlar tarafindan izlenebilmekte ve taklit edilebilmektedir. Bulusun Sanayiye Uygulanmasi Bu bulus, ag erisimi de bulunan araç üzerinde çalisabilen bir veya birden fazla bilgisayardan olusan ve her çevrimde otonom olarak kararlarin alinmasina ve icrasina yönelik tüm süreci isletebilen, kara aracinin otoyollarda otonom olarak hareket etmesini saglayan bir otoyol otopilot bilgisayar mimarisi sistemi olup sanayiye uygulanabilir birimler ve parçalar bütününden olusmaktadir. Bulus yukaridaki örnek uygulamalar ile sinirli olmayip, teknikte uzman bir kisi kolaylikla bulusun farkli uygulamalarini ortaya koyabilir. Bunlar bulusun istemler ile talep edilen koruma kapsaminda degerlendirilmelidir. TR DESCRIPTION AUTONOMOUS AUTOPILOT COMPUTER ARCHITECTURE SYSTEM Technical Field The invention relates to a highway autopilot computer architecture system consisting of one or more computers that can operate on the vehicle with network access and that can operate the entire process of making and executing decisions autonomously in each cycle, enabling the land vehicle to move autonomously on highways. Known State of the Art Autonomous vehicle, also known as robot vehicle, driverless vehicle, is a type of automobile that can perceive its environment and move with little or no human input. Autonomous vehicles contain various sensors that use measurement units such as radar, computer vision, Lidar, sonar, GPS, odometer and inertia to perceive their environment. Advanced control systems interpret sensory information to define appropriate navigation paths, obstacles and relevant signs. There are applications in the state of the art where special facilities have been developed for autonomous highway vehicles. However, there are many variables such as newly constructed roads in rapidly urbanizing countries, and the system design needs to be made taking these variables into account. Some of the urban applications can benefit from special infrastructure. The physical infrastructure can include vehicle-to-vehicle and vehicle-to-infrastructure communication equipment, ground-based units for global navigation systems, special facilities comparable to bus and bicycle lanes, on-street parking restrictions, and special road or pavement modifications. The digital infrastructure can include the maintenance of highly detailed highway maps and related traffic operations data. This special infrastructure can be limited to a manageable set of corridors used by a particular urban mobility system, if really necessary. A solution has been proposed for the limitations encountered in the sensor detection system of an autonomous or semi-autonomous vehicle due to the limits of the sensors. The road information obtained from the sensors and the kinematic properties of the surrounding vehicles are shared between autonomous vehicles via a different server environment or via vehicle-to-vehicle (V2V) communication. The use of the obtained data in the autonomous vehicle has been examined under three different tasks. These are; strategic, tactical and operational tasks. Strategic tasks; the decision-making and route-generating mechanisms of the autonomous vehicle, tactical tasks; the determination of the vehicle speed and steering movements throughout the course in order to realize the created route, and operational tasks provide the actuator control that will perform these planned maneuver movements of the vehicle. The environmental data obtained in the server environment or from the surrounding vehicles are used during the performance of these tasks. It has been suggested that V2V messages can be provided with a special short-range wireless communication protocol. It is particularly suitable for use in low power and short-medium range operating conditions. However, in the mentioned system, there is no structure that systematically organizes the data flow in the extraction of static information such as physical properties of the road, lane lines and traffic components and the extraction of trajectory and maneuver estimates related to other moving objects such as vehicles and pedestrians in the environment. In another patent document in the known art with the publication number USZOl70168485Al; vehicle control is performed with iterative methods throughout the course of the autonomous vehicle from its starting position to its destination. The method determines neighboring location points with iterative calculations within the vehicle limits during the vehicle's journey and calculates the vehicle's state transitions to determine which point it will move to. In each iteration, the vehicle determines the point with the optimal result within the state transitions as the target location for the calculation of the most suitable neighboring location for movement. After moving to this new location, it calculates new vehicle state transitions and provides the calculation of new neighboring location points. In determining the optimal location, the optimal time is taken as a basis by using optimization methods and it is claimed that model-based vehicle control is performed by including the vehicle's limits during the calculation. In the mentioned patent application, the vehicle movement planning is not disclosed as a hierarchical system during the autonomous vehicle's journey from the starting position to the destination point and there is no request-approval mechanism aimed at increasing vehicle safety. In the patent document with the publication number USZOO90319112A1, a method has been developed to plan how fast these trajectories should be crossed while avoiding obstacles during trajectory planning while autonomous vehicles are navigating in obstacle-rich environments such as urban areas. In traditional path planning algorithms, the necessary speed information is not produced while the vehicle is traversing these trajectories. It is mentioned that the speed target of the vehicle should be calculated correctly in order to ensure navigation safety and driver (8) comfort. The created system includes one or more sensors, speed planner, path planner, vehicle guidance and control systems and one or more actuators. These created architectures have a modular structure to be used not only for land vehicles but also for an unmanned aerial vehicle. It is claimed that the obstacles around the autonomous vehicle contain universal data types such as location, speed or direction of movement. However, the invention mentioned does not have a feature such as determining the motion profile by making calculations for collision avoidance and obstacle avoidance so that the autonomous vehicle can safely perform lane change or lane following actions. It does not include an architecture that evaluates whether the maneuver decision taken is appropriate in terms of realizability, safety and comfort. Another application in the state of the art is the patent document with the publication number USlO377375B2. The invention mentioned in this file is related to the creation of all working modules required for the autonomous vehicle with a top-down approach. The invention is an architectural module and has an adaptable structure independent of hardware or software manufacturers. Each module component is created to work in a compatible manner with different vehicle control systems and sensor subsystems. The architecture; It includes human-machine interface and vehicle-environment (V2X) interaction systems as well as sensing, planning and control modules. In the invention in question, the "System Controller" module representing the system observation module communicates partially with environmental modules at a lower level and is positioned in a structure far from modularity. This causes the data flow to the user interface to be interrupted in the event of an error that may occur in the "System Controller" module. In the patent document with the publication number USlO955847B2, which is in the state of the art, there are units (nodes) with a real-time data path that collects sensor-level information from sensors in autonomous vehicles and processes independent data to be used in high-level system elements. By abstracting the sensor level with the high-level system, the sensor level is not affected by any change that may occur in high-level algorithms. In order for these algorithms, which are created at a high level, to communicate smoothly with the sensor level, an application programming interface (API) that can broadcast to the real-time data path has been created. When the file is examined, it is seen that it does not contain a feature related to a central highway autopilot computer architecture (1) that covers and manages all the units at the sensor and system level in autonomous vehicles. In the patent document with the publication number U88260498B2, which is in the state of the art, a modular vehicle control architecture has been designed with a top-down approach. In the architecture, it is aimed to create a vehicle control system that observes the driver's behavior in addition to the vehicle's advanced driver support systems (such as lane tracking system, adaptive cruise control) and provides vehicle control according to this behavior. There is a structure that determines the priority of the command sent to the vehicle control according to the commands given by the driver for the driving support systems via the user interface and also by evaluating the driver's gas, brake and steering activities. In the patent document numbered USlO796204B2, which is in the state of the art, it is aimed to create the task, behavior and motion planning modules of the autonomous vehicle with a stochastic approach using artificial neural networks. Artificial neural network models handle the motion planning modules separately in order to determine the most suitable route, plan the behavior for the detected route and realize the planned behavior. Model trainings are done independently for each module within the determined scenarios. Each module contains various functional tasks within itself. The training of the models is done by including these functional tasks. The mentioned system does not have a structure that ensures that the necessary actions are taken so that its performance does not fall below the safe driving limits. This situation will lead to a low success in terms of system security and reliability. An architecture that enables navigation of autonomous vehicles at high speeds has been created. It is claimed that after the environmental data obtained from the sensors are passed through a map-based cost calculation, the obstacles that pose a collision risk are detected and it is stated that after the interpreted sensor data are passed through the fusion process, they are used in the movement plan and cruise speed calculation required for the autonomous vehicle to complete the planned route. The proposed method aims to reduce the computational load required for the determination of the areas where the autonomous vehicle can possibly travel. Purpose of the Invention The purpose of this invention; is a highway autopilot computer designed with a modular architecture that can work with different vehicle types, hardware and sensors, is responsible for running all software modules, connection and management of electronic sensors and equipment, communication between vehicles and peripherals, bringing data from external information sources and processing them, making a decision and then implementing them. Another purpose of the invention is to be a computer structure that is designed in accordance with distributed architecture in order to manage processing power and allows different modules to be loaded on different computers and to operate by scaling. In this way, the necessary calculations can be done remotely by cloud computing-based computers and can be transmitted to the vehicle with fast network access. Another purpose of the invention; It is a computer structure that systematically organizes the data flow in the extraction of static information such as the physical properties of the road, lane lines and traffic components, and the extraction of trajectory and maneuver estimates related to moving objects such as other vehicles and pedestrians in the environment. Another purpose of the invention is to handle the vehicle motion planning throughout the course of the autonomous vehicle from its starting position to its destination in a hierarchical structure within the "Decision Making and Planning" module. The "Decision Making and Planning" module consists of the sub-units "Route Planning", "Decision Maker" and "Motion Planning". The aim of the invention is to reveal the request-approval mechanism established between the "Decision Maker" and "Motion Planning" units and aimed at increasing vehicle safety. Another purpose of the invention is to handle the vehicle's ability to go to the target location without a collision in a modular structure within the autonomous driving architecture. The maneuver decisions that will ensure that the vehicle goes to the target location without a collision within the most appropriate time can be made in the "Decision Making and Planning" module according to the maneuver estimation of the surrounding vehicles and moving objects by using artificial intelligence-based methods such as reinforcement learning, deep learning, decision tree, fuzzy logic or one of the methods in the known state of the art. According to the maneuver decision taken, the "Motion Planning" sub-unit produces the reference motion information necessary for the autonomous vehicle to safely perform lane change or lane tracking actions. Another purpose of the invention is; is to create the "Motion Planning" sub-unit by calculating collision avoidance and obstacle avoidance in order for the autonomous vehicle to safely perform lane change or lane follow actions and according to the maneuver decision information determined by the "Decision Maker" unit. Another purpose of the invention is to evaluate the maneuver determined by the "Decision Maker" unit in terms of realizability, safety and comfort by the "Motion Planning" unit and to transmit it to the "Decision Maker" unit as feedback. Another purpose of the invention is to consider the system observation module, which will monitor system errors and ensure that relevant actions are taken when necessary, in a way that it will be connected to all modules and components while constructing the modular structure. In the system architecture, by designing the "connected information sources" module in accordance with the distributed architecture, a more powerful structure has been proposed for the correct management of the processing power on the vehicle and on the cloud. Another purpose of the invention is to handle the vehicle motion control in a modular structure within the autonomous driving architecture and to realize it in a hierarchical structure in the "Motion Control" module consisting of "Upper Level Motion Control" and "Lower Level Motion Control" sub-units. The handling of the vehicle motion control within the autonomous driving architecture provides a higher module. Thus, it will be ensured that strategic and tactical maneuver decisions are applied as input to the motion control and thus more optimal vehicle control outputs (Steering Reference, Acceleration Reference, Deceleration Reference) are obtained. Another purpose of the invention is; The aim of the invention is to test the autonomous vehicle's task, behavior and motion planning processes only with the outputs of the artificial neural network model by testing the maneuver decision taken within the request-approval mechanism with different algorithms in terms of realizability, safety and comfort. In addition, the "System Observation Module" monitors the current status of all modules in the system and takes the necessary actions to prevent the system performance from falling below safe driving limits. Thus, a much higher success is achieved in terms of system safety and reliability. Another purpose of the invention is; Rather than an interface system for autonomous vehicles, it includes a central highway autopilot computer that covers and manages all units at the sensor and system level in autonomous vehicles, provides communication with peripheral units, uses connected information sources for information sharing purposes or in computational power requirements, and is positioned in a programmable structure with a user interface. In this context, this computer, which manages autonomous driving tasks from a center and is responsible for their monitoring and execution, can easily integrate with other computers in the vehicle (i.e. electronic control units). The autonomous driving architecture is addressed with an innovative approach, aiming to increase the sustainability and reliability of the system. In the structure where the modules communicate with each other and this communication is observed with the system observation module, a structure has been created where the sustainability of the system can be ensured even in cases of partial failures that may occur in the sub-modules. The proposed modular architecture enables faster system development and software reuse with distributed components controlled by the central highway autopilot computer architecture (1). In addition, this architecture allows for rapid adaptation to possible updates that may be encountered during software development or maintenance by designing the components in isolation from each other. As a result of the combination of connected information sources with this modularity, it is possible to keep the endpoint under security. It allows the data groups belonging to each module to be encrypted and stored in cloud computing computers within the External Information Sources and to be used when needed. Explanation of the Figures Figure 1. Highway autopilot computer architecture Figure 2. Modular Architecture of Highway Autopilot Computer Figure 3. Highway Autopilot Computer Perception Module Figure 4. Highway Autopilot Computer Decision Making and Planning Module Figure 5. Highway Autopilot Computer Motion Control Module Explanation of References in the Figures For a better understanding of the invention, the correspondences of the numbers in the figures are given below: 1. Highway autopilot computer architecture Perception module Motion control module System observation module User interface module Related information source 9. Vehicle sensor . On-board computer 11. External information source 12. Autonomous vehicle 21. Analysis unit 22. Road perception unit 24. Estimation unit 31. Route planning unit 32. Decision making unit 33. Motion planning unit 41. Trajectory follower unit 42. Actuator controller unit 91. Radar 92. Lidar 93. Camera 94. GPS/IMU 101. In-vehicle sensor 1 1 1. Digital map 112. Linked units 113. Cloud computing 231. Object filter unit 232. Object tracking unit 233. Localization unit 234. Strip polynomial estimation unit 235. Sensor fusion unit Detailed Description of the Invention Figure 1 shows the schematic of the highway autopilot computer architecture (1). The highway autopilot computer architecture (1) consists of basic modules containing software loaded on multiple computers to perform different autonomous driving tasks. The relationship between these modules, which communicate with each other over an internal communication line, and the modular architecture of the highway autopilot computer (1), which provides a system view, are given in Figure 2. One of the components of the proposed architecture is the perception module (2). The perception module (2) aims to create a hierarchical environmental model by interpreting both the autonomous vehicle (25) information and the status and characteristics of the environment in which the vehicle is located. In this direction, the raw information obtained from the vehicle sensors (9) and vehicle computers (10) is analyzed in the analysis unit (21) and made usable by the relevant modules after being passed through the preprocessing step. Thus, sensor analysis and preprocessing processes are performed in this unit. From the sensor data that has been preprocessed, the components that constitute the driving scene such as roads, traffic signs and traffic actors that are important for driving activity are detected and the previously detected ones are continued to be followed. The traffic components detected by the individual sensors, namely vehicle sensors (9), are brought together at the next level with the sensor fusion unit (235) or any of the methods that can perform data fusion, and a consistent environmental model is obtained. At the highest level of the perception module (2), the maneuvers or trajectories of the traffic components in the environmental model are estimated according to the needs of the planning modules. The first layer of the perception module (2) includes the analysis unit (21). The vehicle internal information such as wheel speed, tire pressure and information about the vehicle's environmental status such as road conditions and traffic actors are obtained as raw data by vehicle sensors (9). The data obtained from the vehicle sensors (9) are transferred to different vehicle computers (10) in a coded form in accordance with the standard data transfer protocols used in the automotive industry (e.g. CAN protocol). In addition to this vehicle sensor (9) data, information about the vehicle's powertrain, chassis, information display, etc. must also be obtained with a specific data transfer method. Since all this information is transmitted in a coded form, the data must be decoded in order to be usable by higher-level perception modules (2). All of this information is used in the creation of vehicle information. In this context, thanks to the analysis unit (21), the vehicle interior information required for the units in the upper layers of the perception module (2) is obtained and sent to be used in higher-level models. The sensors used to perceive the vehicle's surroundings can sense wider areas or further than required for the targeted advanced driving support or autonomous driving activity. For example; For an active blind spot warning system on the highway, the vehicles in the lanes immediately adjacent to the lane in which the vehicle is driving are important, but the visibility of the sensors does not have to be limited to the lane lines. Information beyond what is required for driving activity may cause unnecessary processing load for higher perception modules, and therefore must be preprocessed. Traffic components must be selected from the sensor data that is pre-sorted. Since sensors such as radar (91) or lidar (92) make measurements according to the return of the electromagnetic waves they emit, they produce data in the form of point clusters rather than creating single object information about each traffic component. The data obtained with the camera (93) is in the form of two-dimensional or three-dimensional images obtained by preprocessing two-dimensional images by the camera (93). Traffic components are determined using various computer vision methods from this data in the form of point clusters, two or three-dimensional images. One of the basic components of driving activity is the road infrastructure. Road components such as lane lines and traffic signs constitute the road infrastructure. For safe driving, it is necessary to be able to perceive driving areas, lane lines and traffic signs. While all of the information about the road infrastructure can be obtained by processing the images obtained with the camera (93), some of the components can be detected individually using different sensors (e.g. lidar (92)). In addition, digital maps (1 l 1) can be obtained by means of maps from external information sources (1 1). This information can be matched with the instantaneous road physical properties perceived while creating the world model. These processes are performed by the road detection unit (22). The data obtained from the sensors contain a certain amount of noise. This noise affects the accuracy of information that is important for driving activities such as the positions and speeds of the detected traffic actors. Therefore, the kinematic status data of the traffic actors must be filtered. The data processing unit (23) that provides filtering, tracking and illusion of a sensor that allows the filtering of the noise contained in the data obtained from the sensors to a certain extent is included in the system. Depending on the characteristics of the sensor noise and the movement models of the traffic actors to be filtered, one of the filtering methods in the known state of the art is applied. These processes are performed by the object filter unit (231). The filtered information of the traffic actors is used to create a comprehensive world model. If the world model has been created in the previous cycles of the system, the newly obtained data is matched with the actors in the current world model, and not only the vehicle but also all traffic actors are tracked in the object tracking unit (232). Thus, a perception with a memory beyond instantaneous sensations is created. The creation of all processed sensor information of the vehicle, called vehicle information, and the information containing the internal status of the vehicle is performed by the localization unit (233). The conversion of the lane lines on the road into mathematical expressions for use in the Decision Making and Planning Module (3) is performed by the estimation unit of lane polynomials (234). In addition, in case of a conflict in the fields of view of the sensors according to the selected sensors and sensor placement architecture, the world model can be further improved by using the sensor fusion technique. Sensor fusion can be used to improve the information of traffic actors being tracked by separate sensors by combining them, or it can contribute to the improvement of the filtered information during the tracking phase and then be used to perform the tracking. These operations are performed by the sensor fusion unit (235). In the last layer of the perception module (2), an artificial intelligence-based decision estimation algorithm is used, which takes into account both the movements of the observed traffic actors/objects and their interactions with their environment. The observed traffic data is converted into time series and estimations are performed with a method selected from machine learning methods used in processing time series or artificial intelligence methods in the known state of the art and deterministic methods. These operations are performed by the estimation unit (24), which provides object trajectory and maneuver estimation. The decision-making and planning module (3) consists of computers that determine the route the vehicle will follow, take decisions to be used in the most effective way to follow the route, and create trajectories to be used in the implementation of these decisions, taking into account the driver (8) commands coming from the user interface and the data received from the perception module (2) (Figure 4). The route planning unit (31) is responsible for planning the route that will ensure that the vehicle reaches the target determined by the user in the most effective way. The route information received from the driver (8) via the user interface module (6) is processed in this unit and, as in current route planning, the user is presented with the most suitable route options to meet criteria such as distance, fuel economy, road options (toll or free roads) and driving time, as well as criteria suitable for the features that the vehicle will have in the future. Again, the driver (8) is given approval for the selected route among the suggested route options via the user interface module (6) and this selected route is recorded for use in the decision-making unit (32) for behavior planning. The decision-making unit (32) for behavior planning is responsible for following the vehicle route determined by the route planning unit (31) and making maneuver decisions to meet the safety, comfort and requests of the passengers. In highway driving, these maneuvers include non-mandatory lane changes for the purpose of ensuring the speed target selected by the driver (8) or the safe distance between vehicles or for performance improvement, and mandatory lane changes required for route tracking. These maneuvers can be performed with artificial intelligence-based methods such as reinforcement learning, deep learning, deterministic methods such as decision trees or fuzzy logic-based methods, and one of the methods in the state of the art. The lane change determined as a highway driving maneuver and the speed change decisions related to it are transmitted to the motion planning unit (33). In addition, a request-approval mechanism has been defined between the decision-making unit (32) and the motion planning unit (33) for behavior planning in order to increase vehicle safety. In this context, if the required movement actions to perform the desired maneuver (e.g. lane change) are not feasible or safe considering the current vehicle status and environmental conditions, the maneuver is not performed and the information about this situation is fed back to the decision-making unit (32) for behavior planning by the motion planning unit (33). In the motion planning unit (33), the reference planning information required for the autonomous vehicle (25) to safely perform the lane change or lane following actions is generated according to the maneuver decision information determined by the decision-making unit (32) for behavior planning. If the maneuver poses a risk for any reason as a result of the evaluation of the maneuver information, new maneuver information is requested from the decision-making unit (32) for behavior planning. According to the determined maneuver command, if the vehicle is to continue lane following, movement trajectories are created in a way that it will stay close to the center line of the lane it is in. During this time, the vehicle is also controlled against the risk of going out of its lane. If the vehicle is going to change lanes, the lateral trajectory points are calculated for each calculation cycle in accordance with the relevant lane change decision, considering the road slope and object information for the target lane and the risk status of the other lanes. During this calculation, the vehicle's collision with other objects in the environment and whether the acceleration movement that the vehicle will apply during the lane change will create a rollover risk are checked in the calculations. As a result of the risk analysis, feedback on the enforceability of the decision and whether it is appropriate in terms of safety is shared with the decision-making unit (32) for behavior planning. If the given decision does not meet the risk analysis criteria, the decision is not implemented and the previous movement mode is continued. The reference planning information for the control of the vehicle is sent to the motion control module (4) of the autonomous vehicle (25). The motion control module (4) is responsible for generating information to be shared with the vehicle computer (10) that controls the actuators to be applied to the vehicle for tracking the vehicle motion information obtained from the decision-making and planning module (3) (Figure 5). The trajectory follower subunit (41) is responsible for converting the reference planning information obtained from the decision-making and planning module (3) into the reference wheel angle and reference resultant acceleration information required for trajectory tracking. Due to the nature of vehicle dynamics, lateral and linear motion dynamics are interdependent and require a complex and non-linear system model for vehicle control. Considering this situation, the algorithm used for vehicle control performs both lateral and linear control of the autonomous vehicle together, thus providing effective and safe autonomous driving. In this way, while the autonomous vehicle is provided with the possibility of highway driving, it becomes possible to perform low-speed driving such as urban cruising or autonomous parking. The obtained reference steering angle and reference resultant acceleration values are sent to the actuator controller unit (42). The actuator controller unit (42) converts the reference wheel angle and reference acceleration values coming from the orbit follower unit (41) into actuator reference information to be realized in the vehicle's motion drive units with various calculation methods and transmits them to the vehicle computers (10). The autonomous vehicle (25) continues its acceleration or deceleration movement until it reaches the reference motion speed, and similarly, the steering reference calculation continues until the determined reference front wheel angle of the vehicle is obtained. Depending on the interface with the vehicle's drive units and the data transfer method, the information transfer of these actuator references is carried out in different ways. For example; gas pedal position, brake pedal position, acceleration required for acceleration / deceleration, torque required for acceleration / deceleration, steering angle, steering motor torque, etc. reference values are transmitted to the vehicle's drive units. The system observation module (5) is the module that has the responsibilities of observing and monitoring the highway autopilot computer architecture (l) components, generating alarms according to warning indicators, determining the necessary rescue actions and performing these actions when conditions require and monitoring performance. All signals produced and used by all modules in the system (perception module (2), decision-making and planning module (3), motion control module (4), user interface module (6) and related information sources (7)) or vital modules in the system architecture are accessible. Through this access, the current status of the modules and the system is monitored and the performance of the system is observed. The health of the hardware on which the system operates, the rate of used and ready-to-use processing power, the rate of usable random access memory, and hardware-related conditions such as fluctuations in power levels are also monitored. Thanks to the feedback mechanism that transmits the current status of the system to all modules, the relevant modules are enabled to receive error reactions or take individual rescue actions. The current status of the system is also transmitted to the driver via the user interface module (6). The explanations of the outputs of all artificial intelligence-based methods used to increase the confidence of the driver (8) and/or passengers in the system and to detect possible errors depending on the level of autonomy and to provide retrospective event logging and queries are created in the system observation module (5) and are also transmitted to the driver via the user interface module (6). While the artificial intelligence models used for this purpose can be developed with naturally explainable techniques; for artificial intelligence models that produce black box models where this is not possible, the known model explainability methods of the technique that reveal the factors affecting the models are also applied in the system observation module (5). Model explainability methods are used to separate the data that most dominantly affects the outputs of artificial intelligence models and present them to the driver. In this context, when determining the vehicle classes (motorcycle, passenger car, truck, etc.) in the images obtained with the camera (103), it can be specified and shown which parts of the image are taken into consideration in the classification. Error conditions in the system can be captured with two different approaches; l) Application of various error detection methods over the signals coming to the module and produced by the module: These methods can be the compatibility of the sampling frequency of the module sending the message with the sampling frequency of the incoming message, the message counter indicating that the connection with the module is continuous, and the incoming message being within the appropriate value range. 2) Processing of individual error messages coming from other modules: These error messages can be internal conformity checks performed by the relevant modules or error conditions in the automaton diagrams. In case the system performance falls below the safe driving limits and the modules cannot take the necessary rescue actions; By shutting down faulty modules, the system is allowed to operate with limited performance in service mode. An action plan is defined for all critical modules that the system monitors. When a problem occurs in the relevant module, the system implements the action plan. In the highway autopilot computer architecture (1), there can be more than one computer for each module and it is monitored and operated by the system monitoring module (5) with the principle of high availability. Thus, when a response cannot be received from any module's computer within the limits, the other computer will be switched to and the sustainability of the system will be ensured. Depending on whether the relevant module is critical or not, the module can be shut down, restarted or the entire chain of interconnected modules can be shut down. All errors in the system are recorded with module labeling and error codes determined specifically for the relevant module. The decisions taken by the system, the maneuvers it implements and the action plans it executes are all recorded instantly and stored as read-only without compromising time-data integrity. All this information can be stored as read-only in the highway autopilot computer architecture (l) and/or in the vehicle computer (10) for diagnostic and debugging purposes. The user interface module (6) allows the activation, deactivation and management features of the entire system or certain sub-components on the main screen. The user interface includes screens for the system settings. It hosts the user settings of the system components and offers the opportunity to change settings on a component basis. It offers the user the opportunity to easily change by switching between pre-created ready-made settings. The user interface module (6) displays the locations of other moving and stationary actors and objects determined by the perception module (2) and the moving actors and objects are also dynamically updated on the interface. Signals and information from traffic signals, imaging and connected information sources (7) are processed instantly and displayed on the interface. The explanation of the decisions made by the decision-making and planning module (3) can be accessed via the decision information detail. In this case, the reasons and confidence of the decision-maker are transparently conveyed to the user with visuals and infographics that the user can understand. In addition, the planned and realized movement trajectories by the motion control module (4) are continuously visualized on the user interface on the digital map (1 l 1) base obtained by the connected information sources module (7). Situations such as malfunctions, faulty operation, and difficulties in perception in physical equipment, especially sensors, are also conveyed to the driver (8) via warning screens based on the information provided by the system observation module (5). In case of occurrence of elements threatening the security of subcomponents of the system, the system notifies the user about the messages coming from the observation module (5) and transmits the emergency aid warning to the previously determined authorities (location, speed, status, road conditions, list of last performed maneuvers, etc.) using the communication channels of the connected information sources module (7). Within the scope of recording and backup; information such as decisions, maneuvers, errors and complete data are stored in a sequential and read-only and unchangeable manner with a time stamp. Methods such as block chain in the known state of the art can be used to store this information. It allows retrospective review of the data or playback in simulators. This information can be backed up to the connected cloud system (113) at certain intervals or sent to the systems of the relevant traffic authorities via connected units (112). Location-based information is obtained from digital maps (111) or high-resolution digital maps (111) and presented dynamically in the user interface module (6). Location-based information on maps includes information such as location, road type and class, slope, height, traffic signs and controllers with centimeter precision. Dynamic information about the location is provided through the digital map service. These may include traffic conditions in the state of the art, points of interest (e.g. parking lots, gas and charging stations, etc.), weather information if any, and all other information that will be provided through these services in the future. Positioning can be done in the case of using high-resolution maps. Lane information and precise location can be provided as input to the decision-making and planning module (3) that determines movement plans. Since map data provides instantaneous data like an external sensor, it can also be provided as input to the perception module (2) and the sensor fusion method. This information is used to more precisely determine the location of other mobile or stationary actors on the road. The continuous connection status of the vehicle is created by using the methods in the state of the art (e.g. 802.11p, etc.) and the methods in the state of the art for wide mobile networks (e.g. 4G, 5G and later) together or separately, especially the short-range communication protocols for instant information exchange between vehicles (V2V) and between vehicles and smart devices installed in the environment (V21). Information about the environment may include time-dependent events that occur instantly on the road. This information may include situations such as instant road conditions, accidents, closed lanes, maintenance work, special speed definitions depending on other conditions at tunnel / bridge entrances and exits, etc. Information about the environment can be transmitted from smart devices installed in the environment at position 0, as well as from other vehicles coming from the same lane or the opposite lane on the road using communication methods. The information at the moment, the situations ahead of the road are transmitted to the vehicle in this way and presented as input to the decision-making and planning module (3) for evaluation. Information from connected vehicle technologies can also serve as a sensor and create input to the perception module (2) for use in sensor vision methods. With the transmission of information formed on the road, it is possible to expect that the information will be transmitted from the front in order to provide convenience to vehicles with privileged passage (e.g. ambulance) on a lane basis and to change lanes accordingly. It is possible to prevent or reduce such situations by adjusting and optimizing the vehicle speed in advance in traffic lights and intersection control situations based on instantaneous situations on the road. In highway use, these communication methods in the state of the art can be used together for the convoy use of vehicles and in the case of a convoy, the maneuvers of the pilot vehicle can be monitored and imitated by the following vehicles. Application of the Invention to Industry This invention is a highway autopilot computer architecture system consisting of one or more computers that can operate on the vehicle with network access and can operate the entire process for autonomously making and executing decisions in each cycle, enabling the land vehicle to move autonomously on highways and consists of units and parts applicable to industry. The invention is not limited to the above example applications, and a person skilled in the art can easily reveal different applications of the invention. These should be evaluated within the scope of the protection claimed by the invention.TR
Claims (1)
Publications (1)
Publication Number | Publication Date |
---|---|
TR2022021363A2 true TR2022021363A2 (en) | 2024-07-22 |
Family
ID=
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10963462B2 (en) | Enhancing autonomous vehicle perception with off-vehicle collected data | |
JP7150846B2 (en) | Object interaction prediction system and method for autonomous vehicles | |
US10902165B2 (en) | Deployable development platform for autonomous vehicle (DDPAV) | |
US10377375B2 (en) | Autonomous vehicle: modular architecture | |
You et al. | Trajectory planning and tracking control for autonomous lane change maneuver based on the cooperative vehicle infrastructure system | |
US10401852B2 (en) | Teleoperation system and method for trajectory modification of autonomous vehicles | |
CN111613091A (en) | Enhancing mobile device operation with external driver data | |
CA3096472A1 (en) | Systems and methods for driving intelligence allocation between vehicles and highways | |
US11565717B2 (en) | Method and system for remote assistance of an autonomous agent | |
US20210188316A1 (en) | Systems and Methods for Generating Behavioral Predictions in Reaction to Autonomous Vehicle Movement | |
JP2015205691A (en) | Control and system for autonomously driven vehicle | |
Gómez-Huélamo et al. | Train here, drive there: Simulating real-world use cases with fully-autonomous driving architecture in carla simulator | |
CN115620540A (en) | Batch control for autonomous driving vehicles | |
EP3515780A1 (en) | Autonomous vehicle with modular architecture | |
US12012097B2 (en) | Complementary control system for an autonomous vehicle | |
WO2018199941A1 (en) | Enhancing autonomous vehicle perception with off-vehicle collected data | |
Villagra et al. | Automated driving | |
Najem et al. | Fuzzy-Based Clustering for Larger-Scale Deep Learning in Autonomous Systems Based on Fusion Data | |
TR2022021363A2 (en) | AUTONOMOUS AUTOPILOT COMPUTER ARCHITECTURE SYSTEM | |
Saberi et al. | On the impact of early design decisions on quality attributes of automated driving systems | |
Fahmy et al. | Vehicular safety applications and approaches: A technical survey | |
EP4145358A1 (en) | Systems and methods for onboard enforcement of allowable behavior based on probabilistic model of automated functional components | |
Pek et al. | Autonomous Vehicles: A Technical Introduction | |
He | AI-Based Approaches for Autonomous Vehicle Emergency Handling and Response | |
Xie et al. | Reduced-Scale Mobile Robots for Autonomous Driving Research |