TW202125329A - 物件識別模型訓練方法及車載裝置 - Google Patents
物件識別模型訓練方法及車載裝置 Download PDFInfo
- Publication number
- TW202125329A TW202125329A TW108147939A TW108147939A TW202125329A TW 202125329 A TW202125329 A TW 202125329A TW 108147939 A TW108147939 A TW 108147939A TW 108147939 A TW108147939 A TW 108147939A TW 202125329 A TW202125329 A TW 202125329A
- Authority
- TW
- Taiwan
- Prior art keywords
- recognition model
- area
- object recognition
- marked
- point cloud
- Prior art date
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本發明提供了一種物件識別模型訓練方法,該方法在驗證物件識別模型時,透過計算與每個物件關聯的重疊度、距離,以及角度偏差值來確定所述物件識別模型是否正確識別每個物件。利用該方法訓練獲得的物件識別模型可以準確識別物件。本發明還提供一種實現所述物件識別模型訓練方法的車載裝置。
Description
本發明涉及物件偵測技術領域,具體涉及一種物件識別模型訓練方法及車載裝置。
隨著自駕技術的發展,雷射雷達(Lidar)被用來作為物體偵測的感測器。現有的物體偵測方法中,將雷射雷達偵測得到的點雲資料用XY座標劃分。然而,在該種劃分方式下,由於雷射雷達是以輻射狀的方式射出,因此會遇到如下問題: 距離雷射雷達原點較近的資料密度較高,而距離雷射雷達原點較遠的資料密度較低,容易出現某些區域漏檢或誤檢的情況發生。
鑒於以上內容,有必要提出一種物件識別模型訓練方法及車載裝置,能夠有效提升物件偵測的準確率。
本發明第一方面提供一種物件識別模型訓練方法,應用於車載裝置,該方法包括:
收集預設份數的點雲資料,並對每份點雲資料所對應的每個物件實際所在區域以及實際所在方向進行標記;
將所述預設份數的點雲資料中的每份點雲資料轉換為極坐標系中的極座標資料,由此獲得所述預設份數的極座標資料,並將所述預設份數的極座標資料作為總訓練樣本;及
將所述總訓練樣本劃分成訓練集和驗證集,並利用所述訓練集訓練神經網路獲得物件識別模型,以及利用所述驗證集驗證所述物件識別模型;
其中,利用所述驗證集驗證所述物件識別模型包括:
利用所述物件識別模型識別所述驗證集中的每份點雲資料所對應的每個物件所在區域以及所在方向;
計算所識別到的每個物件所在區域與所標記的每個物件實際所在區域之間的重疊度IOU和距離d,並將每個物件與對應計算得到的重疊度IOU和距離d建立關聯;
計算所識別到的每個物件所在方向與所標記的每個物件的實際所在方向之間的角度偏差值Δa,並將每個物件與對應計算得到的角度偏差值Δa建立關聯;
根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件;
基於所述物件識別模型對所述驗證集中的每份點雲資料所對應的每個物件的識別結果計算所述物件識別模型的準確率;及
當所計算得到的準確率大於或等於預設值時,結束對所述物件識別模型的訓練,以及當所計算得到的準確率小於所述預設值時,繼續訓練所述物件識別模型直至所述準確率大於或者等於所述預設值。
優選地,所述重疊度IOU=I/U,其中,I代表所述物件識別模型所識別到的每個物件所在區域與所標記的每個物件實際所在區域的交集所在區域的面積,U代表所識別到的每個物件所在區域與所標記的每個物件實際所在區域的並集所在區域的面積。
優選地,所述距離d=max(Δx /Lgt, Δy/Wgt),其中,Δx代表所述物件識別模型所識別到的每個物件所在區域的中心點的橫坐標與所標記的每個物件實際所在區域的中心點的橫坐標之差;Δy代表所述物件識別模型所識別到的每個物件所在區域的中心點的縱坐標與所標記的每個物件實際所在區域的中心點的縱坐標之差;以及Lgt代表所標記的每個物件實際所在區域的長,Wgt代表所標記的每個物件實際所在區域的寬。
優選地,所述根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件包括:
當與任一物件所關聯的所述重疊度IOU、d、Δa分別落入對應的預設的值域範圍時,確定所述物件識別模型正確識別出該任一物件;當與任一物件所關聯的所述重疊度IOU、d、Δa中的至少一者沒有落入對應的預設的值域範圍時,確定所述物件識別模型沒有正確識別出該任一物件。
優選地,所述神經網路為卷積神經網路。
本發明第二方面提供一種車載裝置,該車載裝置包括儲存器和處理器,所述儲存器用於儲存電腦程式,所述處理器用於執行所述電腦程式時實現以下步驟,包括:
收集預設份數的點雲資料,並對每份點雲資料所對應的每個物件實際所在區域以及實際所在方向進行標記;
將所述預設份數的點雲資料中的每份點雲資料轉換為極坐標系中的極座標資料,由此獲得所述預設份數的極座標資料,並將所述預設份數的極座標資料作為總訓練樣本;及
將所述總訓練樣本劃分成訓練集和驗證集,並利用所述訓練集訓練神經網路獲得物件識別模型,以及利用所述驗證集驗證所述物件識別模型;
其中,利用所述驗證集驗證所述物件識別模型包括:
利用所述物件識別模型識別所述驗證集中的每份點雲資料所對應的每個物件所在區域以及所在方向;
計算所識別到的每個物件所在區域與所標記的每個物件實際所在區域之間的重疊度IOU和距離d,並將每個物件與對應計算得到的重疊度IOU和距離d建立關聯;
計算所識別到的每個物件所在方向與所標記的每個物件的實際所在方向之間的角度偏差值Δa,並將每個物件與對應計算得到的角度偏差值Δa建立關聯;
根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件;
基於所述物件識別模型對所述驗證集中的每份點雲資料所對應的每個物件的識別結果計算所述物件識別模型的準確率;及
當所計算得到的準確率大於或等於預設值時,結束對所述物件識別模型的訓練,以及當所計算得到的準確率小於所述預設值時,繼續訓練所述物件識別模型直至所述準確率大於或者等於所述預設值。
優選地,所述重疊度IOU=I/U,其中,I代表所述物件識別模型所識別到的每個物件所在區域與所標記的每個物件實際所在區域的交集所在區域的面積,U代表所識別到的每個物件所在區域與所標記的每個物件實際所在區域的並集所在區域的面積。
優選地,所述距離d=max(Δx /Lgt, Δy/Wgt),其中,Δx代表所述物件識別模型所識別到的每個物件所在區域的中心點的橫坐標與所標記的每個物件實際所在區域的中心點的橫坐標之差;Δy代表所述物件識別模型所識別到的每個物件所在區域的中心點的縱坐標與所標記的每個物件實際所在區域的中心點的縱坐標之差;以及Lgt代表所標記的每個物件實際所在區域的長,Wgt代表所標記的每個物件實際所在區域的寬。
優選地,所述根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件包括:
當與任一物件所關聯的所述重疊度IOU、d、Δa分別落入對應的預設的值域範圍時,確定所述物件識別模型正確識別出該任一物件;及
當與任一物件所關聯的所述重疊度IOU、d、Δa中的至少一者沒有落入對應的預設的值域範圍時,確定所述物件識別模型沒有正確識別出該任一物件。
優選地,所述神經網路為卷積神經網路。
本發明實施例中所述的物件識別模型訓練的方法及車載裝置,透過收集預設份數的點雲資料,並對每份點雲資料所對應的每個物件實際所在區域以及實際所在方向進行標記;將所述預設份數的點雲資料中的每份點雲資料轉換為極坐標系中的極座標資料,由此獲得所述預設份數的極座標資料,並將所述預設份數的極座標資料作為總訓練樣本;及將所述總訓練樣本劃分成訓練集和驗證集,並利用所述訓練集訓練神經網路獲得物件識別模型,以及利用所述驗證集驗證所述物件識別模型;其中,利用所述驗證集驗證所述物件識別模型包括:利用所述物件識別模型識別所述驗證集中的每份點雲資料所對應的每個物件所在區域以及所在方向;計算所識別到的每個物件所在區域與所標記的每個物件實際所在區域之間的重疊度IOU和距離d,並將每個物件與對應計算得到的重疊度IOU和距離d建立關聯;計算所識別到的每個物件所在方向與所標記的每個物件的實際所在方向之間的角度偏差值Δa,並將每個物件與對應計算得到的角度偏差值Δa建立關聯;根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件;基於所述物件識別模型對所述驗證集中的每份點雲資料所對應的每個物件的識別結果計算所述物件識別模型的準確率;及當所計算得到的準確率大於或等於預設值時,結束對所述物件識別模型的訓練,以及當所計算得到的準確率小於所述預設值時,繼續訓練所述物件識別模型直至所述準確率大於或者等於所述預設值,可以提升物件識別的準確率。
為了能夠更清楚地理解本發明的上述目的、特徵和優點,下面結合附圖和具體實施例對本發明進行詳細描述。需要說明的是,在不衝突的情況下,本發明的實施例及實施例中的特徵可以相互組合。
在下面的描述中闡述了很多具體細節以便於充分理解本發明,所描述的實施例僅僅是本發明一部分實施例,而不是全部的實施例。基於本發明中的實施例,本領域普通技術人員在沒有做出創造性勞動前提下所獲得的所有其他實施例,都屬於本發明保護的範圍。
除非另有定義,本文所使用的所有的技術和科學術語與屬於本發明的技術領域的技術人員通常理解的含義相同。本文中在本發明的說明書中所使用的術語只是為了描述具體的實施例的目的,不是旨在於限制本發明。
圖1是本發明較佳實施例提供的物件識別模型訓練方法的流程圖。
在本實施例中,所述物件識別模型訓練方法可以應用於車載裝置中,對於需要進行物件識別模型訓練的車載裝置,可以直接在車載裝置上集成本發明的方法所提供的用於物件識別模型訓練的功能,或者以軟體開發套件(Software Development Kit,SDK)的形式運行在車載裝置上。
如圖1所示,所述物件識別模型訓練方法具體包括以下步驟,根據不同的需求,該流程圖中步驟的順序可以改變,某些步驟可以省略。
步驟S1,車載裝置收集預設份數的點雲資料,並對每份點雲資料所對應的每個物件實際所在區域以及實際所在方向進行標記。
本實施例中,所述預設份數的點雲資料中的每份點雲資料是車輛在行駛過程中利用雷射雷達對車輛所在的行駛環境進行掃描所獲得的。
本實施例中,所述預設份數可以為10萬份、20萬份,或其他數目。
步驟S2,車載裝置將所述預設份數的點雲資料中的每份點雲資料轉換為極坐標系中的極座標資料,由此車載裝置獲得所述預設份數的極座標資料,並將所述預設份數的極座標資料作為總訓練樣本。
需要說明的是,在這裡,將所述每份點雲資料分別轉換為極坐標系中的極座標資料,可以使得近處密集的點得到較高的取樣頻率,遠處稀疏的點取樣頻率較低,由此改善遠近點被取樣的頻率不均的問題。
步驟S3,車載裝置將所述總訓練樣本劃分成訓練集和驗證集,並利用所述訓練集訓練神經網路獲得物件識別模型,以及利用所述驗證集驗證所述物件識別模型。
在一個實施例中,所述訓練集所包括的樣本數目為所述總訓練樣本的m%,所述驗證集所包括的樣本數目為所述總訓練樣本的n%。在一個實施例中,m%與n%的和等於100%。
舉例而言,所述訓練集所包括的樣本的數目為所述總訓練樣本的70%,所述驗證集所包括的樣本的數目為所述總訓練樣本的30%。
在一個實施例中,所述神經網路為卷積神經網路(Convolutional Neural Network, CNN)。在一個實施例中,所述利用訓練集訓練神經網路獲得物件識別模型的方法為習知技術,於此不再贅述。
在一個實施例中,利用所述驗證集驗證所述物件識別模型包括(a1)-(a6):
(a1)利用所述物件識別模型識別所述驗證集中的每份點雲資料所對應的每個物件所在區域以及所在方向。
(a2)計算所識別到的每個物件所在區域與所標記的每個物件實際所在區域之間的重疊度(Intersection over Union, IOU)和距離d,並將每個物件與對應計算得到的重疊度IOU和距離d建立關聯。
本實施例中,重疊度IOU=I/U,其中,I代表所述物件識別模型所識別到的每個物件所在區域與所標記的每個物件實際所在區域的交集所在區域的面積,U代表所識別到的每個物件所在區域與所標記的每個物件實際所在區域的並集所在區域的面積。
舉例而言,為清楚說明本發明,請參閱圖2A-2C所示,假設圖2A中實線所框區域E1代表所標記的物件O實際所在區域,圖2A中虛線所框區域E2代表所述物件識別模型所識別到的物件O所在區域。那麼圖2B所示的黑色填充區域E10即是E1和E2的交集所在區域,圖2C所示的黑色填充區域E12即是E1和E2的並集所在區域。由此可知,所述物件識別模型所識別到的物件O所在區域與所標記的物件O實際所在區域之間的重疊度IOU等於E10的面積除以E12的面積。所述車載裝置還將所述物件O與所計算得到的重疊度IOU建立關聯。
本實施例中,距離d=max(Δx /Lgt, Δy/Wgt),其中,Δx代表所述物件識別模型所識別到的每個物件所在區域的中心點的橫坐標與所標記的每個物件實際所在區域的中心點的橫坐標之差。Δy代表所述物件識別模型所識別到的每個物件所在區域的中心點的縱坐標與所標記的每個物件實際所在區域的中心點的縱坐標之差。Lgt代表所標記的每個物件實際所在區域的長,Wgt代表所標記的每個物件實際所在區域的寬。
舉例而言,假設所述物件識別模型識別到物件O所在區域的中心點的橫坐標為X1,縱坐標為Y1,所標記的物件O實際所在區域的長為L,寬為W,中心點的橫坐標為X2,縱坐標為Y2,那麼d=max((X1- X2)/L, (Y1-Y2)/W)。所述車載裝置還將所述物件O與所計算得到的距離d建立關聯。
(a3)計算所識別到的每個物件所在方向與所標記的每個物件的實際所在方向之間的角度偏差值Δa,並將每個物件與對應計算得到的角度偏差值Δa建立關聯。
本實施例中,可以對所標記的每個物件定義一個第一方向向量,對所識別到的每個物件定義一個第二方向向量,由此,根據所述第一方向向量以及第二方向向量即可計算得到所述角度偏差值Δa。
具體地,可以基於所標記的每個物件實際所在區域的中心點與原點所構成的直線為所標記的每個物件定義第一方向向量。同樣地,對所識別到的每個物件所在區域的中心點與原點所構成的直線為所識別到的每個物件定義第二方向向量。由此根據該第一方向向量和第二方向向量即可計算得出所述角度偏差值Δa。
(a4)根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件。
本實施例中,所述根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件包括:
當與任一物件所關聯的所述重疊度IOU、d、Δa分別落入對應的預設的值域範圍時,車載裝置確定所述物件識別模型正確識別出該任一物件;及
當與任一物件所關聯的所述重疊度IOU、d、Δa中的至少一者沒有落入對應的預設的值域範圍時,車載裝置確定所述物件識別模型沒有正確識別出該任一物件。
舉例而言,假設與物件O所關聯的重疊度IOU落入預設的重疊度值域範圍,與物件O所關聯的距離d落入預設的距離值域範圍,以及與物件O所關聯的角度偏差值Δa落入預設的角度偏差值的值域範圍,則確定所述物件識別模型正確識別出所述物件O。
(a5)基於所述物件識別模型對所述驗證集中的每份點雲資料所對應的每個物件的識別結果計算所述物件識別模型的準確率。
為清楚說明本發明,假設所述驗證集包括兩份點雲資料,分別是第一份點雲資料和第二份點雲資料,每份點雲資料對應兩個物件。假設所述物件識別模型正確識別出了第一份點雲資料中的兩個物件和第二份點雲資料中的其中一個物件,但是未正確識別出第二份點雲資料中的另一個物件。那麼所述物件識別模型的準確率即為75%。
(a6)當所計算得到的準確率大於或等於預設值時,結束對所述物件識別模型的訓練,以及當所計算得到的準確率小於所述預設值時,繼續訓練所述物件識別模型直至所述準確率大於或者等於所述預設值。
在一個實施例中,當所計算得到的準確率小於所述預設值時,可以增加所述總訓練樣本的數量獲得新的總訓練樣本,並基於新的總訓練樣本繼續訓練所述物件識別模型直至所述準確率大於或者等於所述預設值。
當結束對所述物件識別模型的訓練後,車載裝置即可利用該物件識別模型在車輛運行過程中識別物件。
具體地,車載裝置可以將雷射雷達在車輛運行過程中所掃描獲得的點雲資料裝換為極座標資料後輸入至所述物件識別模型即可獲得物件識別結果。
需要說明的是,由於本發明在訓練所述物件識別模型的時候加入了對所述距離d及角度偏差值Δa的判斷,可以有效改善使用極座標資料進行物件偵測時所導致的近處的車子呈現上是斜的技術問題。此外,還可進一步提升對物件識別的準確率。
根據上述記載可知,本發明實施例的所述物件識別模型訓練方法,透過收集預設份數的點雲資料,並對每份點雲資料所對應的每個物件實際所在區域以及實際所在方向進行標記;將所述預設份數的點雲資料中的每份點雲資料轉換為極坐標系中的極座標資料,由此獲得所述預設份數的極座標資料,並將所述預設份數的極座標資料作為總訓練樣本;及將所述總訓練樣本劃分成訓練集和驗證集,並利用所述訓練集訓練神經網路獲得物件識別模型,以及利用所述驗證集驗證所述物件識別模型;其中,利用所述驗證集驗證所述物件識別模型包括:利用所述物件識別模型識別所述驗證集中的每份點雲資料所對應的每個物件所在區域以及所在方向;計算所識別到的每個物件所在區域與所標記的每個物件實際所在區域之間的重疊度IOU和距離d,並將每個物件與對應計算得到的重疊度IOU和距離d建立關聯;計算所識別到的每個物件所在方向與所標記的每個物件的實際所在方向之間的角度偏差值Δa,並將每個物件與對應計算得到的角度偏差值Δa建立關聯;根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件;基於所述物件識別模型對所述驗證集中的每份點雲資料所對應的每個物件的識別結果計算所述物件識別模型的準確率;及當所計算得到的準確率大於或等於預設值時,結束對所述物件識別模型的訓練,以及當所計算得到的準確率小於所述預設值時,繼續訓練所述物件識別模型直至所述準確率大於或者等於所述預設值,可以提升物件識別的準確率。
上述圖1詳細介紹了本發明的物件識別模型訓練方法,下面結合圖3和圖4,分別對實現所述物件識別模型訓練方法的軟體裝置的功能模組以及實現所述物件識別模型訓練方法的硬體裝置架構進行介紹。
應該瞭解,所述實施例僅為說明之用,在申請專利範圍上並不受此結構的限制。
參閱圖3所示,是本發明較佳實施例提供的物件識別模型訓練系統30的功能模組圖。
在一些實施例中,所述物件識別模型訓練系統30運行於車載裝置中。所述物件識別模型訓練系統30可以包括多個由電腦程式的程式碼片段所組成的功能模組。所述物件識別模型訓練系統30中的各個電腦程式的程式碼片段可以儲存於車載裝置的儲存器中,並由所述車載裝置的至少一個處理器所執行,以實現(詳見圖1描述)物件識別模型訓練。
本實施例中,所述物件識別模型訓練系統30根據其所執行的功能,可以被劃分為多個功能模組。所述功能模組可以包括:收集模組301、執行模組302。本發明所稱的模組是指一種能夠被至少一個處理器所執行並且能夠完成固定功能的一系列電腦程式的程式碼片段,其儲存在儲存器中。在本實施例中,關於各模組的功能將在後續的實施例中詳述。
收集模組301收集預設份數的點雲資料,並對每份點雲資料所對應的每個物件實際所在區域以及實際所在方向進行標記。
本實施例中,所述預設份數的點雲資料中的每份點雲資料是車輛在行駛過程中利用雷射雷達對車輛所在的行駛環境進行掃描所獲得的。
本實施例中,所述預設份數可以為10萬份、20萬份,或其他數目。
執行模組302將所述預設份數的點雲資料中的每份點雲資料轉換為極坐標系中的極座標資料,由此執行模組302獲得所述預設份數的極座標資料,並將所述預設份數的極座標資料作為總訓練樣本。
需要說明的是,在這裡,將所述每份點雲資料分別轉換為極坐標系中的極座標資料,可以使得近處密集的點得到較高的取樣頻率,遠處稀疏的點取樣頻率較低,由此改善遠近點被取樣的頻率不均的問題。
執行模組302將所述總訓練樣本劃分成訓練集和驗證集,並利用所述訓練集訓練神經網路獲得物件識別模型,以及利用所述驗證集驗證所述物件識別模型。
在一個實施例中,所述訓練集所包括的樣本數目為所述總訓練樣本的m%,所述驗證集所包括的樣本數目為所述總訓練樣本的n%。在一個實施例中,m%與n%的和等於100%。
舉例而言,所述訓練集所包括的樣本的數目為所述總訓練樣本的70%,所述驗證集所包括的樣本的數目為所述總訓練樣本的30%。
在一個實施例中,所述神經網路為卷積神經網路(Convolutional Neural Network, CNN)。在一個實施例中,所述利用訓練集訓練神經網路獲得物件識別模型的方法為習知技術,於此不再贅述。
在一個實施例中,利用所述驗證集驗證所述物件識別模型包括(a1)-(a6):
(a1)利用所述物件識別模型識別所述驗證集中的每份點雲資料所對應的每個物件所在區域以及所在方向。
(a2)計算所識別到的每個物件所在區域與所標記的每個物件實際所在區域之間的重疊度(Intersection over Union, IOU)和距離d,並將每個物件與對應計算得到的重疊度IOU和距離d建立關聯。
本實施例中,重疊度IOU=I/U,其中,I代表所述物件識別模型所識別到的每個物件所在區域與所標記的每個物件實際所在區域的交集所在區域的面積,U代表所識別到的每個物件所在區域與所標記的每個物件實際所在區域的並集所在區域的面積。
舉例而言,為清楚說明本發明,請參閱圖2A-2C所示,假設圖2A中實線所框區域E1代表所標記的物件O實際所在區域,圖2A中虛線所框區域E2代表所述物件識別模型所識別到的物件O所在區域。那麼圖2B所示的黑色填充區域E10即是E1和E2的交集所在區域,圖2C所示的黑色填充區域E12即是E1和E2的並集所在區域。由此可知,所述物件識別模型所識別到的物件O所在區域與所標記的物件O實際所在區域之間的重疊度IOU等於E10的面積除以E12的面積。所述執行模組302還將所述物件O與所計算得到的重疊度IOU建立關聯。
本實施例中,距離d=max(Δx /Lgt, Δy/Wgt),其中,Δx代表所述物件識別模型所識別到的每個物件所在區域的中心點的橫坐標與所標記的每個物件實際所在區域的中心點的橫坐標之差。Δy代表所述物件識別模型所識別到的每個物件所在區域的中心點的縱坐標與所標記的每個物件實際所在區域的中心點的縱坐標之差。Lgt代表所標記的每個物件實際所在區域的長,Wgt代表所標記的每個物件實際所在區域的寬。
舉例而言,假設所述物件識別模型識別到物件O所在區域的中心點的橫坐標為X1,縱坐標為Y1,所標記的物件O實際所在區域的長為L,寬為W,中心點的橫坐標為X2,縱坐標為Y2,那麼d=max((X1- X2)/L, (Y1-Y2)/W)。所述執行模組302還將所述物件O與所計算得到的距離d建立關聯。
(a3)計算所識別到的每個物件所在方向與所標記的每個物件的實際所在方向之間的角度偏差值Δa,並將每個物件與對應計算得到的角度偏差值Δa建立關聯。
本實施例中,可以對所標記的每個物件定義一個第一方向向量,對所識別到的每個物件定義一個第二方向向量,由此,根據所述第一方向向量以及第二方向向量即可計算得到所述角度偏差值Δa。
具體地,可以基於所標記的每個物件實際所在區域的中心點與原點所構成的直線為所標記的每個物件定義第一方向向量。同樣地,對所識別到的每個物件所在區域的中心點與原點所構成的直線為所識別到的每個物件定義第二方向向量。由此根據該第一方向向量和第二方向向量即可計算得出所述角度偏差值Δa。
(a4)根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件。
本實施例中,所述根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件包括:
當與任一物件所關聯的所述重疊度IOU、d、Δa分別落入對應的預設的值域範圍時,執行模組302確定所述物件識別模型正確識別出該任一物件;及
當與任一物件所關聯的所述重疊度IOU、d、Δa中的至少一者沒有落入對應的預設的值域範圍時,執行模組302確定所述物件識別模型沒有正確識別出該任一物件。
舉例而言,假設與物件O所關聯的重疊度IOU落入預設的重疊度值域範圍,與物件O所關聯的距離d落入預設的距離值域範圍,以及與物件O所關聯的角度偏差值Δa落入預設的角度偏差值的值域範圍,則確定所述物件識別模型正確識別出所述物件O。
(a5)基於所述物件識別模型對所述驗證集中的每份點雲資料所對應的每個物件的識別結果計算所述物件識別模型的準確率。
為清楚說明本發明,假設所述驗證集包括兩份點雲資料,分別是第一份點雲資料和第二份點雲資料,每份點雲資料對應兩個物件。假設所述物件識別模型正確識別出了第一份點雲資料中的兩個物件和第二份點雲資料中的其中一個物件,但是未正確識別出第二份點雲資料中的另一個物件。那麼所述物件識別模型的準確率即為75%。
(a6)當所計算得到的準確率大於或等於預設值時,結束對所述物件識別模型的訓練,以及當所計算得到的準確率小於所述預設值時,繼續訓練所述物件識別模型直至所述準確率大於或者等於所述預設值。
在一個實施例中,當所計算得到的準確率小於所述預設值時,可以增加所述總訓練樣本的數量獲得新的總訓練樣本,並基於新的總訓練樣本繼續訓練所述物件識別模型直至所述準確率大於或者等於所述預設值。
當結束對所述物件識別模型的訓練後,車載裝置即可利用該物件識別模型在車輛運行過程中識別物件。
具體地,執行模組302可以將雷射雷達在車輛運行過程中所掃描獲得的點雲資料裝換為極座標資料後輸入至所述物件識別模型即可獲得物件識別結果。
需要說明的是,由於本發明在訓練所述物件識別模型的時候加入了對所述距離d及角度偏差值Δa的判斷,可以有效改善使用極座標資料進行物件偵測時所導致的近處的車子呈現上是斜的技術問題。此外,還可進一步提升對物件識別的準確率。
根據上述記載可知,本發明實施例的所述物件識別模型訓練系統,透過收集預設份數的點雲資料,並對每份點雲資料所對應的每個物件實際所在區域以及實際所在方向進行標記;將所述預設份數的點雲資料中的每份點雲資料轉換為極坐標系中的極座標資料,由此獲得所述預設份數的極座標資料,並將所述預設份數的極座標資料作為總訓練樣本;及將所述總訓練樣本劃分成訓練集和驗證集,並利用所述訓練集訓練神經網路獲得物件識別模型,以及利用所述驗證集驗證所述物件識別模型;其中,利用所述驗證集驗證所述物件識別模型包括:利用所述物件識別模型識別所述驗證集中的每份點雲資料所對應的每個物件所在區域以及所在方向;計算所識別到的每個物件所在區域與所標記的每個物件實際所在區域之間的重疊度IOU和距離d,並將每個物件與對應計算得到的重疊度IOU和距離d建立關聯;計算所識別到的每個物件所在方向與所標記的每個物件的實際所在方向之間的角度偏差值Δa,並將每個物件與對應計算得到的角度偏差值Δa建立關聯;根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件;基於所述物件識別模型對所述驗證集中的每份點雲資料所對應的每個物件的識別結果計算所述物件識別模型的準確率;及當所計算得到的準確率大於或等於預設值時,結束對所述物件識別模型的訓練,以及當所計算得到的準確率小於所述預設值時,繼續訓練所述物件識別模型直至所述準確率大於或者等於所述預設值,可以提升物件識別的準確率。
參閱圖3所示,為本發明較佳實施例提供的車載裝置的結構示意圖。
本發明的較佳實施例中,車載裝置3可以安裝在車輛100上。所述車輛100可以是汽車、機車等。所述物件識別模型訓練系統30用於在車輛100行駛過程中,對車輛100所在的行車環境中的物件進行識別(具體細節後面介紹)。
本實施例中,所述車載裝置3包括互相之間電氣連接的儲存器31、至少一個處理器32。
本領域技術人員應該瞭解,圖1示出的車載裝置3的結構並不構成本發明實施例的限定,所述車載裝置3還可以包括比圖示更多或更少的其他硬體或者軟體,或者不同的部件佈置。例如,所述車載裝置3還可以包括顯示幕等部件。
在一些實施例中,所述車載裝置3包括一種能夠按照事先設定或儲存的指令,自動進行數值計算和/或資訊處理的終端,其硬體包括但不限於微處理器、專用積體電路、可程式設計閘陣列、數文書處理器及嵌入式設備等。
需要說明的是,所述車載裝置3僅為舉例,其他現有的或今後可能出現的電子產品如可適應於本發明,也應包含在本發明的保護範圍以內,並以引用方式包含於此。
在一些實施例中,所述儲存器31可以用於儲存電腦程式的程式碼和各種資料。例如,所述儲存器31可以用於儲存安裝在所述車載裝置3中的物件識別模型訓練系統30,並在車載裝置3的運行過程中實現高速、自動地完成程式或資料的存取。所述儲存器31可以是包括唯讀儲存器(Read-Only Memory,ROM)、可程式設計唯讀儲存器(Programmable Read-Only Memory,PROM)、可抹除可程式設計唯讀儲存器(Erasable Programmable Read-Only Memory,EPROM)、一次可程式設計唯讀儲存器(One-time Programmable Read-Only Memory,OTPROM)、電子抹除式可複寫唯讀儲存器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、唯讀光碟(Compact Disc Read-Only Memory,CD-ROM)或其他光碟儲存器、磁碟儲存器、磁帶儲存器、或者任何其他能夠用於攜帶或儲存資料的電腦可讀的儲存介質。
在一些實施例中,所述至少一個處理器32可以由積體電路組成。例如,可以由單個封裝的積體電路所組成,也可以是由多個相同功能或不同功能封裝的積體電路所組成,包括一個或者多個中央處理器(Central Processing unit,CPU)、微處理器、數文書處理晶片、圖形處理器及各種控制晶片的組合等。所述至少一個處理器32是所述車載裝置3的控制核心(Control Unit),利用各種介面和線路連接整個車載裝置3的各個部件,透過運行或執行儲存在所述儲存器31內的程式或者模組,以及調用儲存在所述儲存器31內的資料,以執行車載裝置3的各種功能和處理資料,例如,訓練物件識別模型(具體細節後面介紹)。
儘管未示出,所述車載裝置3還可以包括給各個部件供電的電源(比如電池),優選的,電源可以透過電源管理裝置與所述至少一個處理器32邏輯相連,從而透過電源管理裝置實現管理充電、放電、以及功耗管理等功能。電源還可以包括一個或一個以上的直流或交流電源、再充電裝置、電源故障檢測電路、電源轉換器或者逆變器、電源狀態指示器等任意元件。所述車載裝置3還可以包括多種感測器、藍牙模組、Wi-Fi模組等,在此不再贅述。
應該瞭解,所述實施例僅為說明之用,在申請專利範圍上並不受此結構的限制。
上述以軟體功能模組的形式實現的集成的單元,可以儲存在一個電腦可讀取儲存介質中。上述軟體功能模組包括若干指令,該若干指令用以使得一台車載裝置(即車載電腦)或處理器(processor)執行本發明各個實施例所述方法的部分。
在進一步的實施例中,結合圖2,所述至少一個處理器32可執行所述車載裝置3的操作裝置以及安裝的各類應用程式(如物件識別模型訓練系統30)等。
所述儲存器31中儲存有電腦程式代碼,且所述至少一個處理器32可調用所述儲存器31中儲存的電腦程式代碼以執行相關的功能。例如,圖2中所述的各個模組是儲存在所述儲存器31中的電腦程式代碼,並由所述至少一個處理器32所執行,從而實現所述各個模組的功能以訓練物件識別模型的目的。
在本發明的一個實施例中,所述儲存器31儲存多個指令,所述多個指令被所述至少一個處理器32所執行以訓練物件識別模型。
具體地,結合圖1所示,所述至少一個處理器32對上述指令的具體實現方法包括:
收集預設份數的點雲資料,並對每份點雲資料所對應的每個物件實際所在區域以及實際所在方向進行標記;
將所述預設份數的點雲資料中的每份點雲資料轉換為極坐標系中的極座標資料,由此獲得所述預設份數的極座標資料,並將所述預設份數的極座標資料作為總訓練樣本;及
將所述總訓練樣本劃分成訓練集和驗證集,並利用所述訓練集訓練神經網路獲得物件識別模型,以及利用所述驗證集驗證所述物件識別模型;
其中,利用所述驗證集驗證所述物件識別模型包括:
利用所述物件識別模型識別所述驗證集中的每份點雲資料所對應的每個物件所在區域以及所在方向;
計算所識別到的每個物件所在區域與所標記的每個物件實際所在區域之間的重疊度IOU和距離d,並將每個物件與對應計算得到的重疊度IOU和距離d建立關聯;
計算所識別到的每個物件所在方向與所標記的每個物件的實際所在方向之間的角度偏差值Δa,並將每個物件與對應計算得到的角度偏差值Δa建立關聯;
根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件;
基於所述物件識別模型對所述驗證集中的每份點雲資料所對應的每個物件的識別結果計算所述物件識別模型的準確率;及
當所計算得到的準確率大於或等於預設值時,結束對所述物件識別模型的訓練,以及當所計算得到的準確率小於所述預設值時,繼續訓練所述物件識別模型直至所述準確率大於或者等於所述預設值。
優選地,所述重疊度IOU=I/U,其中,I代表所述物件識別模型所識別到的每個物件所在區域與所標記的每個物件實際所在區域的交集所在區域的面積,U代表所識別到的每個物件所在區域與所標記的每個物件實際所在區域的並集所在區域的面積。
優選地,所述距離d=max(Δx /Lgt, Δy/Wgt),其中,Δx代表所述物件識別模型所識別到的每個物件所在區域的中心點的橫坐標與所標記的每個物件實際所在區域的中心點的橫坐標之差;Δy代表所述物件識別模型所識別到的每個物件所在區域的中心點的縱坐標與所標記的每個物件實際所在區域的中心點的縱坐標之差;以及Lgt代表所標記的每個物件實際所在區域的長,Wgt代表所標記的每個物件實際所在區域的寬。
優選地,所述根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件包括:
當與任一物件所關聯的所述重疊度IOU、d、Δa分別落入對應的預設的值域範圍時,確定所述物件識別模型正確識別出該任一物件;當與任一物件所關聯的所述重疊度IOU、d、Δa中的至少一者沒有落入對應的預設的值域範圍時,確定所述物件識別模型沒有正確識別出該任一物件。
優選地,所述神經網路為卷積神經網路。
在本發明所提供的幾個實施例中,應該理解到,所揭露的電腦可讀儲存介質,裝置和方法,可以透過其它的方式實現。例如,以上所描述的裝置實施例僅僅是示意性的,例如,所述模組的劃分,僅僅為一種邏輯功能劃分,實際實現時可以有另外的劃分方式。
所述作為分離部件說明的模組可以是或者也可以不是物理上分開的,作為模組顯示的部件可以是或者也可以不是物理單元,即可以位於一個地方,或者也可以分佈到多個網路單元上。可以根據實際的需要選擇其中的部分或者全部模組來實現本實施例方案的目的。
另外,在本發明各個實施例中的各功能模組可以集成在一個處理單元中,也可以是各個單元單獨物理存在,也可以兩個或兩個以上單元集成在一個單元中。上述集成的單元既可以採用硬體的形式實現,也可以採用硬體加軟體功能模組的形式實現。
對於本領域技術人員而言,顯然本發明不限於上述示範性實施例的細節,而且在不背離本發明的精神或基本特徵的情況下,能夠以其他的具體形式實現本發明。因此,無論從哪一點來看,均應將實施例看作是示範性的,而且是非限制性的,本發明的範圍由所附申請專利範圍而不是上述說明限定,因此旨在將落在申請專利範圍的等同要件的含義和範圍內的所有變化涵括在本發明內。不應將申請專利範圍中的任何附圖標記視為限制所涉及的申請專利範圍。此外,顯然“包括”一詞不排除其他單元或,單數不排除複數。裝置申請專利範圍中陳述的多個單元或裝置也可以由一個單元或裝置透過軟體或者硬體來實現。第一,第二等詞語用來表示名稱,而並不表示任何特定的順序。
最後應說明的是,以上實施例僅用以說明本發明的技術方案而非限制,儘管參照較佳實施例對本發明進行了詳細說明,本領域的普通技術人員應當理解,可以對本發明的技術方案進行修改或等同替換,而不脫離本發明技術方案的精神和範圍。
30:物件識別模型訓練系統
301:收集模組
302:執行模組
100:車輛
3:車載裝置
31:儲存器
32:處理器
E1、E2、E10、E12:區域
為了更清楚地說明本發明實施例或習知技術中的技術方案,下面將對實施例或習知技術描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發明的實施例,對於本領域普通技術人員來講,在不付出創造性勞動的前提下,還可以根據提供的附圖獲得其他的附圖。
圖1是本發明較佳實施例提供的物件識別模型訓練方法的流程圖。
圖2A舉例說明物件的實際所在區域和利用物件識別模型所識別到的物件所在區域。
圖2B舉例說明物件的實際所在區域與利用物件識別模型所識別到的物件所在區域的交集所在區域。
圖2C舉例說明物件的實際所在區域與利用物件識別模型所識別到的物件所在區域的並集所在區域。
圖3是本發明較佳實施例提供的物件識別模型訓練系統的功能模組圖。
圖4是本發明較佳實施例提供的車載裝置的架構圖。
如下具體實施方式將結合上述附圖進一步說明本發明。
無。
Claims (10)
- 一種物件識別模型訓練方法,應用於車載裝置,其中,該方法包括: 收集預設份數的點雲資料,並對每份點雲資料所對應的每個物件實際所在區域以及實際所在方向進行標記; 將所述預設份數的點雲資料中的每份點雲資料轉換為極坐標系中的極座標資料,由此獲得所述預設份數的極座標資料,並將所述預設份數的極座標資料作為總訓練樣本;及 將所述總訓練樣本劃分成訓練集和驗證集,並利用所述訓練集訓練神經網路獲得物件識別模型,以及利用所述驗證集驗證所述物件識別模型; 其中,利用所述驗證集驗證所述物件識別模型包括: 利用所述物件識別模型識別所述驗證集中的每份點雲資料所對應的每個物件所在區域以及所在方向; 計算所識別到的每個物件所在區域與所標記的每個物件實際所在區域之間的重疊度IOU和距離d,並將每個物件與對應計算得到的重疊度IOU和距離d建立關聯; 計算所識別到的每個物件所在方向與所標記的每個物件的實際所在方向之間的角度偏差值Δa,並將每個物件與對應計算得到的角度偏差值Δa建立關聯; 根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件; 基於所述物件識別模型對所述驗證集中的每份點雲資料所對應的每個物件的識別結果計算所述物件識別模型的準確率;及 當所計算得到的準確率大於或等於預設值時,結束對所述物件識別模型的訓練,以及當所計算得到的準確率小於所述預設值時,繼續訓練所述物件識別模型直至所述準確率大於或者等於所述預設值。
- 如申請專利範圍第1項所述的物件識別模型訓練方法,其中,所述重疊度IOU=I/U,其中,I代表所述物件識別模型所識別到的每個物件所在區域與所標記的每個物件實際所在區域的交集所在區域的面積,U代表所識別到的每個物件所在區域與所標記的每個物件實際所在區域的並集所在區域的面積。
- 如申請專利範圍第1項所述的物件識別模型訓練方法,其中,所述距離d=max(Δx /Lgt, Δy/Wgt),其中,Δx代表所述物件識別模型所識別到的每個物件所在區域的中心點的橫坐標與所標記的每個物件實際所在區域的中心點的橫坐標之差;Δy代表所述物件識別模型所識別到的每個物件所在區域的中心點的縱坐標與所標記的每個物件實際所在區域的中心點的縱坐標之差;以及Lgt代表所標記的每個物件實際所在區域的長,Wgt代表所標記的每個物件實際所在區域的寬。
- 如申請專利範圍第1項所述的物件識別模型訓練方法,其中,所述根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件包括: 當與任一物件所關聯的所述重疊度IOU、d、Δa分別落入對應的預設的值域範圍時,確定所述物件識別模型正確識別出該任一物件;當與任一物件所關聯的所述重疊度IOU、d、Δa中的至少一者沒有落入對應的預設的值域範圍時,確定所述物件識別模型沒有正確識別出該任一物件。
- 如申請專利範圍第1項所述的物件識別模型訓練方法,其中,所述神經網路為卷積神經網路。
- 一種車載裝置,其中,該車載裝置包括儲存器和處理器,所述儲存器用於儲存電腦程式,所述處理器用於執行所述電腦程式時實現以下步驟,包括: 收集預設份數的點雲資料,並對每份點雲資料所對應的每個物件實際所在區域以及實際所在方向進行標記; 將所述預設份數的點雲資料中的每份點雲資料轉換為極坐標系中的極座標資料,由此獲得所述預設份數的極座標資料,並將所述預設份數的極座標資料作為總訓練樣本;及 將所述總訓練樣本劃分成訓練集和驗證集,並利用所述訓練集訓練神經網路獲得物件識別模型,以及利用所述驗證集驗證所述物件識別模型; 其中,利用所述驗證集驗證所述物件識別模型包括: 利用所述物件識別模型識別所述驗證集中的每份點雲資料所對應的每個物件所在區域以及所在方向; 計算所識別到的每個物件所在區域與所標記的每個物件實際所在區域之間的重疊度IOU和距離d,並將每個物件與對應計算得到的重疊度IOU和距離d建立關聯; 計算所識別到的每個物件所在方向與所標記的每個物件的實際所在方向之間的角度偏差值Δa,並將每個物件與對應計算得到的角度偏差值Δa建立關聯; 根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件; 基於所述物件識別模型對所述驗證集中的每份點雲資料所對應的每個物件的識別結果計算所述物件識別模型的準確率;及 當所計算得到的準確率大於或等於預設值時,結束對所述物件識別模型的訓練,以及當所計算得到的準確率小於所述預設值時,繼續訓練所述物件識別模型直至所述準確率大於或者等於所述預設值。
- 如申請專利範圍第6項所述的車載裝置,其中,所述重疊度IOU=I/U,其中,I代表所述物件識別模型所識別到的每個物件所在區域與所標記的每個物件實際所在區域的交集所在區域的面積,U代表所識別到的每個物件所在區域與所標記的每個物件實際所在區域的並集所在區域的面積。
- 如申請專利範圍第6項所述的車載裝置,其中,所述距離d=max(Δx /Lgt, Δy/Wgt),其中,Δx代表所述物件識別模型所識別到的每個物件所在區域的中心點的橫坐標與所標記的每個物件實際所在區域的中心點的橫坐標之差;Δy代表所述物件識別模型所識別到的每個物件所在區域的中心點的縱坐標與所標記的每個物件實際所在區域的中心點的縱坐標之差;以及Lgt代表所標記的每個物件實際所在區域的長,Wgt代表所標記的每個物件實際所在區域的寬。
- 如申請專利範圍第6項所述的車載裝置,其中,所述根據與每個物件關聯的重疊度IOU、距離d,以及角度偏差值Δa確定所述物件識別模型是否正確識別每個物件包括: 當與任一物件所關聯的所述重疊度IOU、d、Δa分別落入對應的預設的值域範圍時,確定所述物件識別模型正確識別出該任一物件;及 當與任一物件所關聯的所述重疊度IOU、d、Δa中的至少一者沒有落入對應的預設的值域範圍時,確定所述物件識別模型沒有正確識別出該任一物件。
- 如申請專利範圍第6項所述的車載裝置,其中,所述神經網路為卷積神經網路。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108147939A TWI762848B (zh) | 2019-12-26 | 2019-12-26 | 物件識別模型訓練方法及車載裝置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108147939A TWI762848B (zh) | 2019-12-26 | 2019-12-26 | 物件識別模型訓練方法及車載裝置 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202125329A true TW202125329A (zh) | 2021-07-01 |
TWI762848B TWI762848B (zh) | 2022-05-01 |
Family
ID=77908466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW108147939A TWI762848B (zh) | 2019-12-26 | 2019-12-26 | 物件識別模型訓練方法及車載裝置 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI762848B (zh) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI614515B (zh) * | 2016-11-03 | 2018-02-11 | 車用毫米波雷達之環境辨識系統 | |
TWI656260B (zh) * | 2018-03-01 | 2019-04-11 | 正修學校財團法人正修科技大學 | 軌道自動檢測裝置 |
-
2019
- 2019-12-26 TW TW108147939A patent/TWI762848B/zh active
Also Published As
Publication number | Publication date |
---|---|
TWI762848B (zh) | 2022-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6915009B2 (ja) | センサーキャリブレーション方法と装置、コンピュータ機器、媒体及び車両 | |
US20210201083A1 (en) | Vehicle-mounted device and method for training object recognition model | |
EP3623838A1 (en) | Method, apparatus, device, and medium for determining angle of yaw | |
JP2020046427A (ja) | マルチセンサーのキャリブレーション方法とその装置、コンピュータ機器、媒体及び車両 | |
EP3772862A1 (en) | Vehicle information interacting method, device, apparatus and storage medium | |
CN109035831A (zh) | 交通指示灯的识别方法、装置、设备、存储介质及车辆 | |
EP3862723A2 (en) | Method and apparatus for detecting map quality | |
EP3961582A2 (en) | Method and apparatus for controlling vehicle and electronic device | |
US11904853B2 (en) | Apparatus for preventing vehicle collision and method thereof | |
JP2021170410A (ja) | 交通データの分析方法、装置、デバイス、車両、記憶媒体及びプログラム | |
CN109635868B (zh) | 障碍物类别的确定方法、装置、电子设备及存储介质 | |
WO2020147518A1 (zh) | 一种超声波雷达阵列、障碍物检测方法及系统 | |
CN109959937B (zh) | 长廊环境基于激光雷达的定位方法、存储介质及电子设备 | |
WO2023284705A1 (zh) | 一种激光雷达点云聚类方法、装置、激光雷达及车辆 | |
US11290843B2 (en) | Method for measuring sensing range of vehicle, device and medium | |
US20210008730A1 (en) | Pose determining method for mobile robot and apparatus and mobile robot thereof | |
WO2024104189A1 (zh) | 车辆定位方法、装置、电子设备、存储介质 | |
WO2022016355A1 (zh) | 标注信息的确定方法及装置 | |
CN114036248A (zh) | 高精地图数据的处理方法、装置及电子设备 | |
CN113722342A (zh) | 高精地图要素变更检测方法、装置、设备及自动驾驶车辆 | |
CN108399128A (zh) | 一种用户数据的生成方法、装置、服务器及存储介质 | |
TW202125329A (zh) | 物件識別模型訓練方法及車載裝置 | |
JP5682388B2 (ja) | 障害診断方法及び障害診断システム | |
CN114036218A (zh) | 一种数据模型切换方法、装置、服务器和存储介质 | |
US11636619B2 (en) | System and method for generating basic information for positioning and self-positioning determination device |