TW202408852A - 全視覺自動駕駛系統 - Google Patents
全視覺自動駕駛系統 Download PDFInfo
- Publication number
- TW202408852A TW202408852A TW111130984A TW111130984A TW202408852A TW 202408852 A TW202408852 A TW 202408852A TW 111130984 A TW111130984 A TW 111130984A TW 111130984 A TW111130984 A TW 111130984A TW 202408852 A TW202408852 A TW 202408852A
- Authority
- TW
- Taiwan
- Prior art keywords
- vehicle
- model
- road
- optical lenses
- object detection
- Prior art date
Links
- 238000001514 detection method Methods 0.000 claims abstract description 42
- 230000003287 optical effect Effects 0.000 claims abstract description 37
- 238000012549 training Methods 0.000 claims description 25
- 238000000034 method Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000010223 real-time analysis Methods 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 230000009977 dual effect Effects 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical group OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 241000512668 Eunectes Species 0.000 description 1
- 101000827703 Homo sapiens Polyphosphoinositide phosphatase Proteins 0.000 description 1
- 102100023591 Polyphosphoinositide phosphatase Human genes 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Abstract
本發明提供一種全視覺自動駕駛系統,其包含:攝影模組,其設置於一車輛,用於收集該車輛四周的影像,並包含複數個光學鏡頭,其中至少有兩個光學鏡頭設置於該車輛前方;運算平台模組,其包含:影像辨識模型,用於辨識道路方向並進行轉向角預測,接著,提供一轉向角數值;以及物件偵測模型,用於偵測該車輛前方的物件,包含交通號誌及其他車輛,並且藉由設置於該車輛前方的兩個光學鏡頭測量該車輛與該其他車輛之間的距離,接著,提供一車速數值;以及車輛控制模組,根據該轉向角數值以及該車速數值控制該車輛;其中,該系統不含光學鏡頭以外的其他任何感測器。
Description
本發明係關於一種自動駕駛系統,特別關於一種不含光學鏡頭以外的其他任何感測器的全視覺自動駕駛系統。
自動駕駛技術隨著資訊科技的進步迅速發展,各大品牌皆以提高自動駕駛系統的自動化程度,降低駕駛人需介入操控車輛的比例為目標。在早期的自動駕駛系統中多應用雷達來感測車輛周遭的環境,然而,雷達無法精確的判斷物體的材質與移動方向,而且容易受天氣影響,車輛上配備的通訊天線等設備發射的電磁波也容易干擾雷達造成誤判,另外,如果未來自動駕駛系統普及化,道路上皆為自動駕駛車輛,不同車輛發射的電磁波就可能會彼此干擾,造成安全疑慮。
近年來,拜大幅進步的AI視覺演算法技術所賜,人們開始研發以光學鏡頭為主要偵測車輛環境方式的自動駕駛系統,以光學鏡頭結合深度學習與AI視覺演算法技術,取代過往的雷達系統。相較於雷達系統,使用光學鏡頭的優點包含成本低、不易受氣候干擾、不易受其他電磁波訊號干擾,而且能辨識物體材質。
除上述考量,自動駕駛系統也需要有足夠的即時性及準確性,能夠準確判斷路況並快速作出反應,以應付於道路實況中各種複雜的狀況。
[發明所欲解決之技術問題]
據此,本發明欲提供一種全視覺自動駕駛系統,其僅使用光學鏡頭,而不包含光學鏡頭以外的其他任何感測器,並兼具即時性及準確性。
[技術手段]
本發明提供一種全視覺自動駕駛系統,其包含:
一攝影模組,該攝影模組設置於一車輛,用於收集該車輛四周的影像,並包含複數個光學鏡頭,其中至少有兩個光學鏡頭設置於該車輛前方;
一運算平台模組,該運算平台模組包含:一影像辨識模型,用於在該車輛於道路行駛時,根據該攝影模組收集的該影像進行即時分析,辨識道路方向並進行轉向角預測,接著,提供一轉向角數值以使該車輛沿道路路線行駛;以及一物件偵測模型,用於在該車輛於道路行駛時,根據該攝影模組收集的該影像進行即時分析,偵測該車輛前方的物件,該物件包含交通號誌及其他車輛,並且藉由設置於該車輛前方的兩個光學鏡頭收集到的影像測量該車輛與該其他車輛之間的距離,接著,提供一車速數值以使該車輛根據該交通號誌的指示行駛並與該其他車輛保持安全距離;以及
一車輛控制模組,接收該轉向角數值以及該車速數值,並根據該轉向角數值以及該車速數值控制該車輛;
其中,該全視覺自動駕駛系統不含該光學鏡頭以外的其他任何感測器。
進一步地,該影像辨識模型經一模型訓練流程訓練,該模型訓練流程包含:收集資料,使該車輛於一道路上以小幅度方式移動,並於每個點收集不同角度的影像;獲得第一資料集,該第一資料集為藉由分析該影像所獲得之該道路的路徑資料;以及,以該第一資料集訓練該影像辨識模型。
進一步地,該物件偵測模型經一模型訓練流程訓練,該模型訓練流程包含:收集資料,使該車輛於一道路上以小幅度方式移動,並於每個點收集不同角度的影像;獲得第二資料集,該第二資料集為藉由分析該影像所獲得之物件資料,該物件資料包含交通號誌及其他車輛;以人工標註該物件資料;以及,以該第二資料集訓練該物件偵測模型。
進一步地,該攝影模組包含七個光學鏡頭,其中,三個光學鏡頭設置於該車輛的前方,一個光學鏡頭設置於該車輛的右方,一個光學鏡頭設置於該車輛的左方,兩個光學鏡頭設置於該車輛的後方,其中,至少其中一個設置於該車輛前方的該光學鏡頭為140度的廣角鏡頭,該光學鏡頭模組能收集到該車輛周圍360度的全景影像。
其中,該運算平台模組包含嵌入式平台NVIDIA Jetson Nano,該影像辨識模型為ResNet18模型,該物件偵測模型為YOLOv4-tiny模型,該運算平台模組包含TensorRT,用以優化運算過程,減少推論時的延遲。進一步地,該系統中包含PID控制器。
[發明之效果]
本發明將數個準確性較高的AI視覺演算法,部署至擁有優秀的運算能力的運算平台中,其中數個AI視覺演算法各司其職,分別進行車前路況的影像辨識以及交通號誌及車輛等物件偵測的工作,使本發明提供的全視覺自動駕駛系統滿足即時性需求的同時,兼具物件偵測及影像辨識的準確性,同時讓使用者能夠以較低的硬體成本建立優良的全視覺自動駕駛系統。
在本發明的描述中,需要說明的是,術語「上」、「下」、「左」、「右」等指示的方位或位置關係為基於圖式所示的方位或位置關係,或者是該發明產品使用時慣常擺放的方位或位置關係,僅為便於描述本發明,而不是指示或暗示所指的裝置或元件必須具有特定的方位、以特定的方位構造及操作。除此之外,用語「第一」、「第二」等僅用於區分描述,不代表順序,亦不能理解為指示或暗示相對重要性。在本發明的描述中,除非另有說明,用語「多個」、「複數個」的含義是兩個或兩個以上。
以下,參照圖式詳細說明本發明之具體型態。此外,關於實施例之說明僅為闡述本發明之目的,而非用以限制本發明。
於一實施型態中,參照圖1,本發明之全視覺自動駕駛系統1包含攝影模組11、運算平台模組12、車輛控制模組13,其中,運算平台模組12包含影像辨識模型121及物件偵測模型122。其中,該攝影模組11設置於一車輛,用於收集該車輛四周的影像,並包含複數個光學鏡頭,其中至少有兩個光學鏡頭設置於該車輛前方,除該複數個光學鏡頭以外,本發明之全視覺自動駕駛系統1不包含其他任何感測器;該影像辨識模型121用於在該車輛於道路行駛時,根據該攝影模組11收集的該影像進行即時分析,辨識道路方向並進行轉向角預測,接著,提供一轉向角數值以使該車輛沿道路路線行駛;該物件偵測模型122則用於在該車輛於道路行駛時,根據該攝影模組11收集的該影像進行即時分析,偵測該車輛前方的物件,該物件包含交通號誌及其他車輛,並且藉由設置於該車輛前方的兩個光學鏡頭收集到的影像測量該車輛與該其他車輛之間的距離,接著,提供一車速數值以使該車輛根據該交通號誌的指示行駛並與該其他車輛保持安全距離;該車輛控制模組13則接收該轉向角數值以及該車速數值,並根據該轉向角數值以及該車速數值控制該車輛,例如轉向、煞車、根據交通號誌行駛等。據此,該全視覺自動駕駛系統1不含光學鏡頭以外的其他任何感測器,而能達成以較低的硬體成本建立優良的全視覺自動駕駛系統之功效。
於另一實施型態中,參照圖2A,該影像辨識模型121經一模型訓練流程訓練,該模型訓練流程包含:收集資料S1,使該車輛於一道路上以小幅度方式移動,並於每個點收集不同角度的影像;獲得第一資料集S12,該第一資料集為藉由分析該影像所獲得之該道路的路徑資料;以及,以該第一資料集訓練該影像辨識模型S13。
於另一實施型態中,參照圖2B,該物件偵測模型122經一模型訓練流程訓練,該模型訓練流程包含:收集資料S2,使該車輛於一道路上以小幅度方式移動,並於每個點收集不同角度的影像;獲得第二資料集S22,該第二資料集為藉由分析該影像所獲得之物件資料,該物件資料包含交通號誌及其他車輛;以人工標註該物件資料S23,例如將影像中禁止進入之交通號誌標註為「禁止通行號誌」;以及,以該第二資料集訓練該物件偵測模型S24。
於另一實施型態中,本發明之全視覺自動駕駛系統中的影像辨識模型121為ResNet18模型。於又另一實施型態中,本發明之全視覺自動駕駛系統中的物件偵測模型122為YOLOv4-tiny模型。
於另一實施型態中,本發明之全視覺自動駕駛系統中的攝影模組11包含七個光學鏡頭,其中,三個光學鏡頭設置於該車輛的前方,一個光學鏡頭設置於該車輛的右方,一個光學鏡頭設置於該車輛的左方,兩個光學鏡頭設置於該車輛的後方,其中,至少其中一個設置於該車輛前方的該光學鏡頭為140度的廣角鏡頭,該光學鏡頭模組能收集到該車輛周圍360度的全景影像。
於另一實施型態中,本發明之全視覺自動駕駛系統中的運算平台模組包含TensorRT,用以優化運算過程,減少推論時的延遲。於又另一實施型態中,本發明之全視覺自動駕駛系統中包含PID控制器。
[實施例]
以下實施例係將本發明之全視覺自動駕駛系統設置於一模型車上,以示例性地展示如何建置本發明之全視覺自動駕駛系統及其效能。
首先,本實施例以Jetracer模型車(以下簡稱「模型車」)進行改裝,在模型車上設置具有CUDA核心的嵌入式平台Nvidia Jetson Nano以作為運算平台模組12,其可提升本地端的運算能力,並同時使用TensorRT推理引擎,以進一步提升推論速度,滿足即時性的要求。模型車上的嵌入式平台Nvidia Jetson Nano與馬達主要由電池及行動電源供電。電池盒設置於模型車底座,行動電源設置於模型車上為嵌入式平台Nvidia Jetson Nano供電。模型車的前輪由後輪帶動,後輪由伺服馬達與直流減速馬達驅動進而控制模型車移動,前輪則是加上拉桿等零件使兩個前輪固定後用於控制模型車轉向。為了讓模型車具有360度的全景視野可以環顧周圍情況並取得環境資訊,本實施例在模型車四周設置複數個板載鏡頭作為攝影模組11,其中,三個鏡頭設置於模型車的前方,其中一個鏡頭為具有140度可見範圍的廣角鏡頭,一個鏡頭設置於模型車的右方,一個鏡頭設置於模型車的左方,兩個鏡頭設置於模型車的後方。設置板載鏡頭後的整體模型車外觀如圖3A至圖3D所示,其中,紅色圓圈為鏡頭設置處。
接著,選擇適當的深度學習模型作為影像辨識模型121及物件偵測模型122。本實施例採用ResNet18模型作為影像辨識模型121,進行車前路況的影像辨識並負責預測轉向角。本發明的目標是利用深度學習技術使全視覺自動駕駛系統能在行駛時即時執行轉向角預測,選用的深度學習模型的推論速度必須夠快,才能具備足夠的即時性,因此,本實施例使用卷積神經網路架構ResNet18,以得到比較好的效能表現。ResNet18為ResNet50的輕量版本,其架構使用較少的卷積層擷取特徵,整體計算量與ResNet50相差甚遠。ResNet的殘差架構對於模型訓練而言具有相當大的助益,可使深度學習效果更好。
另一方面,本實施例採用YOLOv4-tiny模型作為物件偵測模型122,負責對車輛前方出現的重要目標進行物件偵測,包含交通號誌及車輛等。YOLOv4-tiny物件偵測模型為YOLOv4物件偵測模型的輕量版本。採用較輕量版本的YOLOv4-tiny之模型架構與上述採用ResNet18的原因相同,皆因需優先考慮系統必須具備足夠的即時性,以進行即時影像推論,而YOLOv4-tiny模型於嵌入式平台Jetson Nano上進行物件偵測時,即可達到即時性的門檻。YOLOv4-tiny模型進行即時物件偵測的示例如圖7所示。在視覺測距的方面,則是藉由雙鏡頭的即時影像串流,根據三角形定理(圖8)以及測得的視差(圖9)進行計算而推測出偵測到的物件與鏡頭之間的距離。需注意使用雙鏡頭進行視覺測距的限制,包含需固定雙鏡頭之間的距離、雙鏡頭需建立在同一水平線上等,否則將會大幅影響視覺測距的精準度。
接著,進行影像辨識模型121及物件偵測模型122的模型訓練流程。首先,設計一張實驗用平面道路地圖,其為封閉的田字道路,並參考實際道路上的分向限制線及路面邊線等繪製此實驗用平面道路地圖,如圖4所示。同時設計小型的交通號誌,包含速限號誌、轉向號誌、停止號誌以及紅綠燈,用以訓練及測試模型車於此實驗用平面道路地圖上行駛時,可以遵循交通號誌的規則行駛,如圖5所示。
接著,進行前述收集資料S1、S2的步驟。收集資料時,將模型車與可以遠端遙控模型的遙控手把連接,透過遙控手把操作模型車,使模型車於道路地圖上小幅度移動,並藉由置於模型車前方具有140度可見範圍的廣角鏡頭以及其他置於模型車四周的鏡頭於每個點收集不同角度的影像。使用包含模型車周圍360度環景的影像訓練影像辨識模型及物件偵測模型能使其更精準地掌握道路路況,並從中學習如何矯正自動駕駛的路徑
接著,分析前述收集資料步驟中收集到的影像後獲得第一資料集S12及第二資料集S22。第一資料集為地圖上道路的路徑資料,第二資料集為各式物件資料,例如車輛與各種交通號誌,因為第二資料集為訓練物件偵測模型所使用的資料集,因此需要為第二資料集的物件資料進行人工標註,如圖6A至圖6B所示。
接著,進行以該第一資料集訓練影像辨識模型之步驟S13以及以該第二資料集訓練物件偵測模型之步驟S24。為了建置用來訓練影像辨識模型與物件偵測模型的訓練環境,此實施例中使用Windows10作業系統的Workstation作為主要建置環境,並安裝Anaconda以便程式語言Python的執行。將各種訓練時所需套件安裝至此虛擬環境中,並下載可訓練模型之深度學習框架。撰寫程式時,主要利用Jupyter Notebook,此工具的優勢在於可逐步寫入程式並逐步執行來確認程式內容是否有紕漏。接著,於前述訓練環境中,以第一資料集訓練影像辨識模型,使影像辨識模型學習辨識實驗用平面道路地圖的路徑,分析後提供正確的轉向角數值,並以第二資料集訓練物件偵測模型,使物件偵測模型學習辨識設置於實驗用平面道路地圖上的小型交通號誌以及行駛於相同地圖上的其他模型車,同時計算距離,分析後提供適當的車速數值。
當模型車行駛時,因為其係利用深度學習預測轉向角,轉向角的預測數值可能隨著模型車向前移動造成劇烈震盪,導致模型車體明顯左右搖擺。因此,此實施例亦加入PID控制器的機制,其中包含比例控制、積分控制及微分控制。比例控制用於當模型車偏離車道越多時,修正回車道之程度越大;積分控制用於將所有誤差值加總,針對偏移較多之方向進行反方向修正;微分控制用於以反方向修正偏移來避免僅透過P參數造成修正過頭的現象。三個參數設置如表1所示。
〔表1〕PID控制器的參數設置
控制類型 | kp | ki | kd |
PID | 0.09 | 0.00144 | 1.40625 |
為了模擬在車輛進行轉向時,駕駛人能夠清楚辨認目前車輛預計進行轉彎的路徑,本實施例同時將轉向幅度以視覺化的方式呈現在即時影像上,以提醒駕駛人目前車輛的轉向情形。當系統出現偏差而即將造成車輛偏離車道時,可以即時藉由人為介入使車輛重回車道,保障駕駛人的行車安全,如圖10所示。
最後,將經訓練的影像辨識模型(ResNet18模型)與經訓練的物件偵測模型(YOLOv4-tiny模型)部屬於模型車的嵌入式平台Nvidia Jetson Nano上,組成包含影像辨識模型121與物件偵測模型122的運算平台模組12,並利用函式庫透過程式的撰寫加入馬達驅動以及轉向驅動以形成車輛控制模組13控制模型車,其透過數值變動控制模型車前進或後退,以及左轉或右轉,完成本實施例之全視覺自動駕駛系統。
本實施例中使用兩個不同深度學習模型達成自動駕駛功能,並將其部署於嵌入式平台Nvidia Jetson Nano上,並同時使用TensorRT推理引擎提升推論速度,並在確保全視覺自動駕駛系統具有足夠的即時性的前提下,採用準確性較高的AI視覺演算法,也就是ResNet18模型與YOLOv4-tiny模型,使本實施例之全視覺自動駕駛系統在同時運行物件偵測模型與影像辨識模型時,仍然可以滿足即時性的需求,同時兼顧物件偵測及影像辨識的準確性以及全視覺自動駕駛系統整體的即時性。
本發明之全視覺自動駕駛系統同時使用影像辨識與物件偵測的技術,各司其職。影像辨識主要用於讓自駕車能在學習如何正確地行駛於道路上。物件偵測則是用來確認交通號誌與道路上出現的其他車輛,使自駕車能依交通號誌行駛以及與其他車輛保持安全距離,其中,自駕車與其他車輛之間的實際距離係根據雙鏡頭的視差計算兩者之間的距離,進而避免自駕車撞擊位於前方的其他車輛。
1:全視覺自動駕駛系統
11:攝影模組
12:運算平台模組
121:影像辨識模型
122:物件偵測模型
13:車輛控制模組
S1:收集資料
S12:獲得第一資料集
S13:以該第一資料集訓練該影像辨識模型
S2:收集資料
S22:獲得第二資料集
S23:以人工標註
S24:以該第二資料集訓練該物件偵測模型
〔圖1〕本發明之全視覺自動駕駛系統之一實施型態的方塊示意圖。
〔圖2〕圖2A為本發明之影像辨識模型訓練流程之一實施型態的流程示意圖;圖2B為本發明之物件偵測模型訓練流程之一實施型態的流程示意圖。
〔圖3〕根據本發明之一實施例,設置有本發明之全視覺自動駕駛系統之模型車的影像,圖3A所示為模型車的前方,圖3B所示為模型車的左方,圖3C所示為模型車的後方,圖3D所示為模型車的右方,其中,紅色圓圈為攝影模組的板載鏡頭的設置位置。
〔圖4〕根據本發明之一實施例,用以訓練及測試設置有本發明之全視覺自動駕駛系統之模型車的實驗用平面道路地圖。
〔圖5〕根據本發明之一實施例,用以訓練及測試的實驗用平面道路地圖上的小型交通號誌示意圖。
〔圖6〕根據本發明之一實施例,為用以訓練物件偵測模型的第二資料集中的物件進行人工標註的示例,圖6A為標註為「禁止通行號誌」的物件資料,圖6B為標註為「紅燈禁止移動」的物件資料。
〔圖7〕根據本發明之一實施例,使用物件偵測模型進行即時物件偵測的示例。
〔圖8〕用以求得目標物與本體測量距離之三角形定理。
〔圖9〕根據本發明之一實施例,雙鏡頭之視差的示例性影像。
〔圖10〕根據本發明之一實施例,將轉向幅度以視覺化的方式呈現在即時影像上的示意圖。
1:全視覺自動駕駛系統
11:攝影模組
12:運算平台模組
121:影像辨識模型
122:物件偵測模型
13:車輛控制模組
Claims (9)
- 一種全視覺自動駕駛系統,其特徵係包含: 一攝影模組,該攝影模組設置於一車輛,用於收集該車輛四周的影像,並包含複數個光學鏡頭,其中至少有兩個光學鏡頭設置於該車輛前方; 一運算平台模組,該運算平台模組包含: 一影像辨識模型,用於在該車輛於道路行駛時,根據該攝影模組收集的該影像進行即時分析,辨識道路方向並進行轉向角預測,接著,提供一轉向角數值以使該車輛沿道路路線行駛;以及 一物件偵測模型,用於在該車輛於道路行駛時,根據該攝影模組收集的該影像進行即時分析,偵測該車輛前方的物件,該物件包含交通號誌及其他車輛,並且藉由設置於該車輛前方的兩個光學鏡頭收集到的影像測量該車輛與該其他車輛之間的距離,接著,提供一車速數值以使該車輛根據該交通號誌的指示行駛並與該其他車輛保持安全距離;以及 一車輛控制模組,接收該轉向角數值以及該車速數值,並根據該轉向角數值以及該車速數值控制該車輛; 其中,該全視覺自動駕駛系統不含該光學鏡頭以外的其他任何感測器。
- 如請求項1所述之系統,其中,該影像辨識模型經一模型訓練流程訓練,該模型訓練流程包含:收集資料,使該車輛於一道路上以小幅度方式移動,並於每個點收集不同角度的影像;獲得第一資料集,該第一資料集為藉由分析該影像所獲得之該道路的路徑資料;以及,以該第一資料集訓練該影像辨識模型。
- 如請求項1所述之系統,其中,該物件偵測模型經一模型訓練流程訓練,該模型訓練流程包含:收集資料,使該車輛於一道路上以小幅度方式移動,並於每個點收集不同角度的影像;獲得第二資料集,該第二資料集為藉由分析該影像所獲得之物件資料,該物件資料包含交通號誌及其他車輛;以人工標註該物件資料;以及,以該第二資料集訓練該物件偵測模型。
- 如請求項1所述之系統,其中,該攝影模組包含七個光學鏡頭,其中,三個光學鏡頭設置於該車輛的前方,一個光學鏡頭設置於該車輛的右方,一個光學鏡頭設置於該車輛的左方,兩個光學鏡頭設置於該車輛的後方,其中,至少其中一個設置於該車輛前方的該光學鏡頭為140度的廣角鏡頭,該光學鏡頭模組能收集到該車輛周圍360度的全景影像。
- 如請求項1所述之系統,其中,該運算平台模組包含嵌入式平台NVIDIA Jetson Nano。
- 如請求項1所述之系統,其中,該影像辨識模型為ResNet18模型。
- 如請求項1所述之系統,其中,該物件偵測模型為YOLOv4-tiny模型。
- 如請求項1所述之系統,其中,該運算平台模組包含TensorRT,用以優化運算過程,減少推論時的延遲。
- 如請求項1所述之系統,其中,該系統中包含PID控制器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW111130984A TWI819751B (zh) | 2022-08-17 | 2022-08-17 | 全視覺自動駕駛系統 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW111130984A TWI819751B (zh) | 2022-08-17 | 2022-08-17 | 全視覺自動駕駛系統 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI819751B TWI819751B (zh) | 2023-10-21 |
TW202408852A true TW202408852A (zh) | 2024-03-01 |
Family
ID=89857591
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111130984A TWI819751B (zh) | 2022-08-17 | 2022-08-17 | 全視覺自動駕駛系統 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI819751B (zh) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107878437A (zh) * | 2016-09-29 | 2018-04-06 | 法乐第(北京)网络科技有限公司 | 车辆控制系统及其方法 |
CN107628032A (zh) * | 2017-08-09 | 2018-01-26 | 广东欧珀移动通信有限公司 | 自动驾驶控制方法、装置、车辆和计算机可读存储介质 |
US11840261B2 (en) * | 2020-05-15 | 2023-12-12 | Perceptive Automata, Inc. | Ground truth based metrics for evaluation of machine learning based models for predicting attributes of traffic entities for navigating autonomous vehicles |
CN114620059B (zh) * | 2020-12-14 | 2024-05-17 | 广州汽车集团股份有限公司 | 一种自动驾驶方法及其系统、计算机可读存储介质 |
-
2022
- 2022-08-17 TW TW111130984A patent/TWI819751B/zh active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11698263B2 (en) | Safety and comfort constraints for navigation | |
US11120688B2 (en) | Orientation-adjust actions for autonomous vehicle operational management | |
US10372130B1 (en) | Communicating reasons for vehicle actions | |
US20210339741A1 (en) | Constraining vehicle operation based on uncertainty in perception and/or prediction | |
CN111583715B (zh) | 一种车辆轨迹预测方法、车辆碰撞预警方法、装置及存储介质 | |
CN108986540A (zh) | 车辆控制系统和方法、以及行驶辅助服务器 | |
US11499834B2 (en) | Aligning road information for navigation | |
CN109074069A (zh) | 具有改进的视觉检测能力的自主车辆 | |
CN108628324A (zh) | 基于矢量地图的无人车导航方法、装置、设备及存储介质 | |
JP2017146730A (ja) | 経路決定装置 | |
CN109426244A (zh) | 自动驾驶装置 | |
EP4020113A1 (en) | Dynamic model evaluation package for autonomous driving vehicles | |
CN115907250A (zh) | 用于调整自主驾驶车辆的运动规划器的基于学习的评论器 | |
US20230150549A1 (en) | Hybrid log simulated driving | |
US11157756B2 (en) | System and method for detecting errors and improving reliability of perception systems using logical scaffolds | |
WO2024006115A1 (en) | Determining right of way | |
TWI819751B (zh) | 全視覺自動駕駛系統 | |
TW202408852A (zh) | 全視覺自動駕駛系統 | |
WO2023076343A1 (en) | Autonomous vehicle trajectory determination based on state transition model | |
Li | Ros-Based Sensor Fusion and Motion Planning for Autonomous Vehicles: Application to Automated Parkinig System | |
US11603119B2 (en) | Method and apparatus for out-of-distribution detection | |
CN116643565A (zh) | 计算机执行的方法、电子设备和存储介质 | |
CN117508219A (zh) | 一种车辆路径规划方法及装置 | |
Nabil et al. | Self-Driving Vehicles Using End to End Deep Imitation Learning | |
CN116902007A (zh) | 自动驾驶车辆的转向控制方法、装置、车辆和介质 |