TWI807935B - 深度識別模型訓練方法、圖像深度識別方法及相關設備 - Google Patents
深度識別模型訓練方法、圖像深度識別方法及相關設備 Download PDFInfo
- Publication number
- TWI807935B TWI807935B TW111127894A TW111127894A TWI807935B TW I807935 B TWI807935 B TW I807935B TW 111127894 A TW111127894 A TW 111127894A TW 111127894 A TW111127894 A TW 111127894A TW I807935 B TWI807935 B TW I807935B
- Authority
- TW
- Taiwan
- Prior art keywords
- image
- depth
- initial
- projection
- ground plane
- Prior art date
Links
Landscapes
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本申請涉及影像處理,提供一種深度識別模型訓練方法、圖像深度識別方法及相關設備。在本申請中,根據測試對象在測試圖像中的像素座標計算測試投影斜率,根據初始對象在第一圖像的初始投影斜率及多個測試投影斜率生成的閥值區間識別地面類型,基於預設的深度識別網路、拍攝設備、第一圖像的初始深度圖像及根據地面類型及初始對象的像素座標對第一圖像的初始地平面區域進行調整後生成的目標地平面區域生成目標高度損失,基於目標高度損失及深度損失調整深度識別網路,得到深度識別模型,將待識別圖像輸入到深度識別模型中,得到深度資訊。
Description
本發明涉及影像處理領域,尤其涉及一種深度識別模型訓練方法、圖像深度識別方法及相關設備。
在目前對車載圖像進行深度識別的方案中,由於訓練圖像中處於上下坡的地平面區域會影響深度識別網路的訓練精度,從而造成訓練完成的深度識別模型的識別準確性低。因此,如何提高圖像的識別準確性成為亟需解決的技術問題。
鑒於以上內容,有必要提供一種深度識別模型訓練方法、圖像深度識別方法及相關設備,解決了圖像的深度識別準確性不高的技術問題。
本申請提供一種深度識別模型訓練方法,所述深度識別模型訓練方法包括:從獲取的測試圖像中確定測試對象,並獲取所述拍攝設備對初始對象進行拍攝後得到的第一圖像及第二圖像,根據所述測試對象在所述測試圖像中的像素點的座標,計算所述測試對象的測試投影斜率,根據多個測試投影斜率生成閥值區間,根據所述初始對象在所述第一圖像中的初始投影斜率及所述閥值區間,識別所述初始對象所處位置對應的地面類型,根據所述地面類型及
所述初始對象的像素座標對所述第一圖像中的初始地平面區域進行調整,得到所述第一圖像中的目標地平面區域,基於預設的深度識別網路、所述拍攝設備、所述第一圖像對應的初始深度圖像及所述目標地平面區域,生成所述深度識別網路的目標高度損失,根據所述目標高度損失以及基於所述第一圖像及所述第二圖像生成的深度損失,調整所述深度識別網路,得到深度識別模型。
根據本申請可選實施例,所述根據所述測試對象在所述測試圖像中的像素點的座標,計算所述測試對象的測試投影斜率包括:獲取所述測試對象中每個像素點的橫座標值與縱座標值,計算多個橫座標值的橫座標平均值,並計算多個縱座標值的縱座標平均值,計算每個像素點的橫座標值與所述橫座標平均值的橫座標差值,並計算每個像素點的縱座標值與所述縱座標平均值的縱座標差值,統計所述測試對象中所有像素點的像素數量,根據預設規則、所述像素數量、多個橫座標差值及多個縱座標差值生成協方差矩陣,對所述協方差矩陣進行奇異值分解,得到特徵向量,將所述特徵向量的第一個向量元素與所述特徵向量的第二個向量元素的比值確定為投影斜率,並從所述投影斜率中選取所述測試投影斜率。
根據本申請可選實施例,所述根據預設規則、所述像素數量、多個橫座標差值及多個縱座標差值生成協方差矩陣包括:根據所述多個橫座標差值及所述像素數量計算橫座標方差值,並根據所述多個縱座標差值及所述像素數量計算縱座標方差值,根據所述像素數量、所述多個橫座標差值及所述多個縱座標差值,計算協方差值,將所述協方差值、所述橫座標方差值及所述縱座標方差值按照所述預設規則進行排列,得到所述協方差矩陣。
根據本申請可選實施例,所述根據多個測試投影斜率生成閥值區間包括:計算所述多個測試投影斜率的投影平均值及投影標準差,並根據所述投影標準差計算配置值,將所述投影平均值與所述配置值的差值確定為最小閥值,並將所述投影平均值與所述投影標準差的和確定為最大閥值,將所述最小閥值與所述最大閥值構成的區間確定為所述閥值區間。
根據本申請可選實施例,所述根據所述初始對象在所述第一圖像中的初始投影斜率及所述閥值區間,識別所述初始對象所處位置對應的地面類型包括:若所述初始投影斜率處於所述閥值區間中,確定所述地面類型為平地,或者,若所述初始投影斜率處於所述閥值區間之外,確定所述地面類型為上下坡。
根據本申請可選實施例,所述根據所述地面類型及所述初始對象的像素座標對所述第一圖像中的初始地平面區域進行調整,得到所述第一圖像中的目標地平面區域包括:根據任一個初始對象的像素座標識別出所述任一個初始對象在所述初始地平面區域中對應的特徵地平面區域,若所述任一個初始對象對應的地面類型為平地,將所述特徵地平面區域確定為所述目標地平面區域,或者,若所述任一個初始對象對應的地面類型為上下坡,在所述初始地平面區域中將所述特徵地平面區域進行掩膜處理,得到所述目標地平面區域。
根據本申請可選實施例,所述基於預設的深度識別網路、所述拍攝設備、所述第一圖像對應的初始深度圖像及所述目標地平面區域,生成所述深度識別網路的目標高度損失包括:獲取所述拍攝設備的光心到所述目標地平面區域的真實世界高度,基於所述第一圖像及所述拍攝設備構建相機座標系,根據所述第一圖像中的目標地平面區域的每個地面像素點在所述相機座標系中的座標,計算投影高度,根據所述初始深度圖像中像素點的像素座標、所述投影高度及所述真實世界高度,計算所述目標高度損失。
根據本申請可選實施例,所述根據所述第一圖像中的目標地平面區域的每個地面像素點在所述相機座標系中的座標計算投影高度包括:獲取所述目標地平面區域的任一地面像素點在所述相機座標系中的座標,根據所述任一地面像素點的座標計算出單位法向量,將以所述拍攝設備的光心為起點及以每個地面像素點為終點構成的向量確定為該地面像素點的目標向量,根據每個地面像素點的目標向量與所述單位法向量,計算每個地面像素點對應的投影距離,將所有地面像素點對應的投影距離進行加權平均運算,得到所述投影高度。
本申請提供一種圖像深度識別方法,所述圖像深度識別方法包括:獲取待識別圖像,將所述待識別圖像輸入到深度識別模型中,得到所述待識別圖像的目標深度圖像及所述待識別圖像的深度資訊,所述深度識別模型透過執行如所述的深度識別模型訓練方法而獲得。
本申請提供一種電腦設備,所述電腦設備包括:儲存器,儲存至少一個指令;及處理器,執行所述至少一個指令以實現所述的深度識別模型訓練方法或所述的圖像深度識別方法。
本申請提供一種電腦可讀儲存介質,所述電腦可讀儲存介質中儲存有至少一個指令,所述至少一個指令被電腦設備中的處理器執行以實現所述的深度識別模型訓練方法及所述的圖像深度識別方法。
綜上所述,在本申請中,根據測試對象在測試圖像中的像素點的座標計算所述測試對象的測試投影斜率,並根據多個測試投影斜率生成閥值區間,由於所述測試對象所處位置對應的地面類型為平地,因此,所述閥值區間為初始對象的初始投影斜率提供了一個參考範圍,透過生成所述閥值區間,避免了單個測試投影斜率極值的出現,因此,能夠提高所述閥值區間的合理性,根據所述初始對象在第一圖像中的初始投影斜率及所述閥值區間識別所述初始對象的所處位置對應的地面類型是否為上下坡,進而根據所述地面類型及所述初始對象的像素座標對所述第一圖像中的初始地平面區域進行調整,能夠將處於上下坡的初始對象所對應的區域濾除,使得所述目標地平面區域中均不包含上下坡區域,由於在利用所述目標地平面區域計算所述深度識別網路的目標高度損失時,能夠避免上下坡地平面中的像素點的像素值的變化對所述目標高度損失的影響,因此,能夠使得訓練完成的深度識別模型的識別精度更高,從而能夠提高圖像的識別準確性。
1:電腦設備
2:拍攝設備
12:儲存器
13:處理器
101~107:步驟
108~109:步驟
圖1是本申請的實施例提供的應用環境圖。
圖2是本申請的實施例提供的深度識別模型訓練方法的流程圖。
圖3是本申請實施例提供的像素座標系和相機座標系的示意圖。
圖4是本申請實施例提供的圖像深度識別方法的流程圖。
圖5是本申請實施例提供的電腦設備的結構示意圖。
為了使本申請的目的、技術方案和優點更加清楚,下面結合附圖和具體實施例對本申請進行詳細描述。
如圖1所示,是本申請的實施例提供的應用環境圖。本申請提供的深度識別模型訓練方法以及圖像深度識別方法可應用於一個或者多個電腦設備1中,所述電腦設備1與拍攝設備2相通信,所述拍攝設備2可以是單目相機,也可以是實現拍攝的其它裝置。圖1提供的電腦設備1及拍攝設備2僅為示例。
所述電腦設備1是一種能夠按照事先設定或儲存的指令,自動進行參數值計算和/或資訊處理的設備,其硬體包括,但不限於:微處理器、專用積體電路(Application Specific Integrated Circuit,ASIC)、可程式設計閘陣列(Field-Programmable Gate Array,FPGA)、數位訊號處理器(Digital Signal Processor,DSP)、嵌入式設備等。
所述電腦設備1可以是任何一種可與用戶進行人機交互的電腦產品,例如,個人電腦、平板電腦、智慧手機、個人數位助理(Personal Digital Assistant,PDA)、遊戲機、互動式網路電視(Internet Protocol Television,IPTV)、穿戴式智慧設備等。所述電腦設備1還可以包括網路設備和/或使用者設備。其中,所述網路設備包括,但不限於單個網路伺服器、多個網路伺服器組成的伺服器組或基於雲計算(Cloud Computing)的由大量主機或網路伺服器構成的雲。所述電腦設備1所處的網路包括,但不限於:網際網路、廣域網路、都會區網路、區域網路、虛擬私人網路(Virtual Private Network,VPN)等。
如圖2所示,是本申請實施例提供的深度識別模型訓練方法的流
程圖。根據不同的需求,所述流程圖中各個步驟的順序可以根據實際檢測要求進行調整,某些步驟可以省略。所述方法的執行主體為電腦設備,例如圖1所示的電腦設備1。
步驟101,從獲取的測試圖像中確定測試對象,並獲取所述拍攝設備對初始對象進行拍攝後得到的第一圖像及第二圖像。
在本申請的至少一個實施例中,所述拍攝設備可以是單目相機,所述第一圖像及所述第二圖像為相鄰幀的三原色光(Red Green Blue,RGB)圖像,所述第二圖像的生成時間大於所述第一圖像的生成時間。
在本申請的至少一個實施例中,所述電腦設備從獲取的測試圖像中確定測試對象包括:所述電腦設備獲取實例分割網路,並獲取測試圖像,進一步地,所述電腦設備使用所述實例分割網路對所述測試圖像進行實例分割,得到所述測試對象。
其中,所述實例分割網路可以為Mask R-CNN、YOLCAT及PolarMask等網路,基於所述實例分割網路為現有技術,故本申請在此不作贅述。所述測試圖像包括水準的地平面及所述測試對象,所述測試對象是指所述測試圖像中處於水準的地平面上的對象。例如,所述測試對象可以為處於水準的地平面上的車輛。
在本申請的至少一個實施例中,所述電腦設備獲取所述拍攝設備對初始對象進行拍攝後得到的第一圖像及第二圖像包括:所述電腦設備控制所述拍攝設備拍攝多個所述初始對象,得到所述第一圖像,並在相隔預設時間後再次拍攝所述多個初始對象,得到所述第二圖像。其中,所述拍攝設備可以為單目相機,所述多個初始對象可以為車輛,地面、行人、地面、行人、天空、樹木。可以理解的是,所述預設時間很小,例如,預設時間可以為10ms。
在本實施例中,在相隔預設時間後拍攝所述多個初始對象,得到所述第二圖像,由於所述預設時間很小,在很小的預設時間內能夠移動的初始對象移動的距離較小,因此,能夠使得所述第二圖像與所述第一圖像存在更多
的相同的初始對象。
步驟102,根據所述測試對象在所述測試圖像中的像素點的座標,計算所述測試對象的測試投影斜率。
在本申請的至少一個實施例中,所述測試投影斜率是指所述測試對象的位置相對於水準的地平面的傾斜程度。
在本申請的至少一個實施例中,所述電腦設備根據所述測試對象在所述測試圖像中的像素點的座標,計算所述測試對象的測試投影斜率包括:所述電腦設備獲取所述測試對象中每個像素點的橫座標值與縱座標值,進一步地,所述電腦設備計算多個橫座標值的橫座標平均值,並計算多個縱座標值的縱座標平均值,更進一步地,所述電腦設備計算每個像素點的橫座標值與所述橫座標平均值的橫座標差值,並計算每個像素點的縱座標值與所述縱座標平均值的縱座標差值,所述電腦設備統計所述測試對象中所有像素點的像素數量,進一步地,所述電腦設備根據預設規則、所述像素數量、多個橫座標差值及多個縱座標差值生成協方差矩陣,更進一步地,所述電腦設備對所述協方差矩陣進行奇異值分解,得到特徵向量,更進一步地,所述電腦設備將所述特徵向量的第一個向量元素與所述特徵向量的第二個向量元素的比值確定為投影斜率,並從所述投影斜率中選取所述測試投影斜率。
其中,所述橫座標值及所述縱座標值是指所述測試圖像中的每個像素點在所述測試圖像對應的像素座標系中的座標值,所述測試圖像對應的像素座標系的構建過程與下文中第一圖像對應的像素座標系的構建過程基本相同,故本申請在此不再贅述。
具體地,所述電腦設備根據預設規則、所述像素數量、多個橫座標差值及多個縱座標差值生成協方差矩陣包括:所述電腦設備根據所述多個橫座標差值及所述像素數量計算橫座標方差值,並根據所述多個縱座標差值及所述像素數量計算縱座標方差值,進一步地,所述電腦設備根據所述像素數量、所述多個橫座標差值及所述多個縱座標差值,計算協方差值,更進一步地,所
述電腦設備將所述協方差值、所述橫座標方差值及所述縱座標方差值按照所述預設規則進行排列,得到所述協方差矩陣。
其中,所述預設規則包括將所述橫座標方差值及所述縱座標方差值作為主對角線上的矩陣元素,並將所述協方差值作為副對角線上的矩陣元素。在本實施例中,由於所述特徵向量的數量為多個,因此所述投影斜率的數量也為多個,且存在大於零及小於零的投影斜率,由於在所述測試圖像對應的像素座標系中所述測試圖像中的每個像素點的座標值均大於零,因此,所述電腦設備選取大於零的投影斜率作為所述測試投影斜率。
具體地,所述橫座標方差值的計算公式為:
;其中,所述Var(x)表示所述橫座標方差值,
n表示所述像素數量,x i 表示第i個橫座標方差值。所述縱座標方差值的計算公式與所述橫座標方差值的計算公式相同,本申請在此不作贅述。根據上述公式,可得所述橫座標方差值為0.24,所述縱座標方差值為0.56。
其中,所述協方差值的計算公式為:
;其中,所述cov(x,y)表示所述協方差值,
n表示所述像素數量,x i 表示第i個橫座標方差值,y i 表示第i個縱座標方差值。根據上述公式,可得所述協方差值為0.12。將所述橫座標方差值0.24及所述縱座標方差值0.56作為主對角線上的元素,並將所述協方差值0.12作為副對角線
上的元素,可得所述協方差矩陣:,將所述協方差矩陣Q進行
奇異值分解後得到第一特徵向量和第二特徵向量,計算出所
述第一特徵向量的第一個向量元素與所述第一特徵向量的第二個向量元素的第一比值約為+0.33,計算出所述第二特徵向量的第一個向量元素與所述第二特徵向量的第二個向量元素的第二比值約為-3,由於5個像素點的座標值均大於零,因此,選取第一比值+0.33作為所述測試對象的測試投影斜率。
在本實施例中,由於所述測試投影斜率是指所述測試對象的位置相對於水準的地平面的傾斜程度,因此,能夠根據所述測試投影斜率初步判斷出所述初始對象的地面類型。
步驟103,根據多個測試投影斜率生成閥值區間。
在本申請的至少一個實施例中,所述閥值區間是指處於水準的地平面的測試對象的初始投影斜率的範圍。
在本申請的至少一個實施例中,所述電腦設備根據多個測試投影斜率生成閥值區間包括:所述電腦設備計算所述多個測試投影斜率的投影平均值及投影標準差,並根據所述投影標準差計算配置值,進一步地,所述電腦設備將所述投影平均值與所述配置值的差值確定為最小閥值,並將所述投影平均值與所述配置值的和確定為最大閥值,更進一步地,所述電腦設備將所述最小閥值與所述最大閥值構成的區間確定為所述閥值區間。其中,所述配置值可以為所述投影標準差的倍數。例如,所述配置值可以為所述投影標準差的二倍。
透過上述實施方式,根據所述投影平均值及所述配置值生成所述最小閥值及所述最大閥值,並將所述最小閥值與所述最大閥值構成的區間確定為所述閥值區間,能夠擴大所述閥值區間,從而能夠提高所述閥值區間的容錯性,由於所述投影平均值及所述配置值能夠減少所述多個測試投影斜率的誤差,因此,能夠提高所述閥值區間的合理性。
步驟104,根據所述初始對象在所述第一圖像中的初始投影斜率及所述閥值區間,識別所述初始對象所處位置對應的地面類型。
在本申請的至少一個實施例中,所述地面類型至少包括平地與上下坡,所述平地是指水準的地平面,所述上下坡是指與水準的地平面存在傾斜角的地平面。在本申請的至少一個實施例中,所述電腦設備根據所述初始對象在所述第一圖像中的初始投影斜率及所述閥值區間,識別所述初始對象所處位置對應的地面類型包括:若所述初始投影斜率處於所述閥值區間中,所述電腦設備確定所述地面類型為平地,或者,若所述初始投影斜率處於所述閥值區間之外,所述電腦設備確定所述地面類型為上下坡。
透過上述實施方式,根據所述第一圖像中的初始對象對應的初始投影斜率及所述閥值區間識別出所述初始圖像的地面類型是否在上下坡,由於所述閥值區間具有更高的容錯性及合理性,因此,能夠準確判斷出所述初始對象的地面類型。
步驟105,根據所述地面類型及所述初始對象的像素座標對所述第一圖像中的初始地平面區域進行調整,得到所述第一圖像中的目標地平面區域。
如圖3所示,是本申請實施例提供的像素座標系和相機座標系的示意圖,所述電腦設備以所述第一圖像的第一行第一列的像素點Ouv為原點,以第一行像素點所在的平行線為u軸,以第一列像素點所在的垂直線為v軸構建所述第一圖像的像素座標系。例如,可以將左上角的第一個像素點作為原點。此外,所述電腦設備以所述單目相機的光點OXY為原點,以所述單目相機的光軸為X軸,以所述第一圖像的像素座標系u軸的平行線為Y軸,以所述第一圖像的像素座標系的v軸的平行線為Z軸構建所述相機座標系。在本申請的至少一個實施例中,所述初始地平面區域是指使用地平面分割網路對所述第一圖像進行分割後生成的地平面區域,所述地平面分割網路可以從網際網路資料庫中獲取。例如,所述地平面分割網路可以為高解析度網路(High-Resolution Net v2,HRNet v2)。
在本申請的至少一個實施例中,所述電腦設備根據所述地面類型
及所述初始對象的像素座標對所述第一圖像中的初始地平面區域進行調整,得到所述第一圖像中的目標地平面區域包括:所述電腦設備根據任一個初始對象的像素座標識別出所述任一個初始對象在所述初始地平面區域中對應的特徵地平面區域,若所述任一個初始對象對應的地面類型為平地,所述電腦設備將所述特徵地平面區域確定為所述目標地平面區域,或者,若所述任一個初始對象對應的地面類型為上下坡,所述電腦設備在所述初始地平面區域中將所述特徵地平面區域進行掩膜處理,得到所述目標地平面區域。
具體地,所述電腦設備根據任一個所述初始對象的像素座標識別出所述任一個初始對象在所述初始地平面區域中對應的特徵地平面區域包括:所述電腦設備獲取所述初始地平面區域的每個地平面像素點在所述第一圖像的像素座標系中的地平面座標,並獲取所述任一個初始對象的每個初始像素點在所述第一圖像的像素座標系中的初始像素座標,進一步地,所述電腦設備計算每個初始像素座標與所述第一圖像的像素座標系中原點的座標之間的像素距離,並確定出最大的像素距離所對應的初始像素座標,進一步地,所述電腦設備將處於所述原點的座標與所述最大的初始像素座標之間的地平面座標所對應的地面像素點構成的區域確定為所述特徵地平面區域。
在本實施例中,將處於所述原點的座標與所述最大的初始像素座標之間的地平面座標所對應的地面像素點構成的區域確定為所述特徵地平面區域,能夠準確地確定出所述第一圖像中處於上下坡的地平面的位置。
步驟106,基於預設的深度識別網路、所述拍攝設備、所述第一圖像對應的初始深度圖像及所述目標地平面區域,生成所述深度識別網路的目標高度損失。
在本申請的至少一個實施例中,所述深度識別網路是指能夠識別出圖像中的深度資訊的網路。在本申請的至少一個實施例中,所述初始深度圖像是指包含所述第一圖像的深度資訊的圖像,所述深度資訊是指所述第一圖像中每個像素點對應的初始對象與拍攝所述第一圖像的拍攝設備之間的距離。在
本申請的至少一個實施例中,所述目標高度損失是指預測高度與真實世界高度之間的差異,所述預測高度是指所述深度識別網路預測的所述第一圖像中每個像素點與所述拍攝設備之間的距離,所述真實世界高度是指在現實中所述第一圖像中的像素點對應的初始對象與所述拍攝設備之間的距離。
在本申請的至少一個實施例中,所述電腦設備基於預設的深度識別網路、所述拍攝設備、所述第一圖像對應的初始深度圖像及所述目標地平面區域,生成所述深度識別網路的目標高度損失包括:所述電腦設備獲取所述拍攝設備的光心到所述目標地平面區域的真實世界高度,進一步地,所述電腦設備基於所述第一圖像及所述拍攝設備構建相機座標系,更進一步地,所述電腦設備根據所述第一圖像中的目標地平面區域的每個地面像素點在所述相機座標系中的座標,計算投影高度,更進一步地,所述電腦設備根據所述初始深度圖像中像素點的像素座標、所述投影高度及所述真實世界高度,計算所述目標高度損失。
其中,所述電腦設備將所述第一圖像輸入到所述深度識別網路中,得到所述初始深度圖像。具體地,所述電腦設備根據所述第一圖像中的目標地平面區域的每個地面像素點在所述相機座標系中的座標計算投影高度包括:所述電腦設備獲取所述目標地平面區域的任一地面像素點在所述相機座標系中的座標,所述電腦設備根據所述任一地面像素點的座標,計算出單位法向量,進一步地,所述電腦設備將以所述拍攝設備的光心為起點及以每個地面像素點為終點構成的向量確定為該地面像素點的目標向量,並根據每個地面像素點的目標向量與所述單位法向量,計算每個地面像素點對應的投影距離,進一步地,所述電腦設備將所有地面像素點對應的投影距離進行加權平均運算,得到所述投影高度。
其中,所述單位法向量的計算公式為:N t =(P t P t T )-1 P t ;其中,N t 是指所述單位法向量,P t 是指所述相機座標系中所述目標地平面區域的任一地面像素點的座標,P t T 是指所述目標向量。
在本實施例中,所述投影高度是指所述第一圖像中每個像素點到所述拍攝設備之間的多個投影距離的加權平均值,由於將所述地平面區域中的所有像素點的座標全部參與了運算,因此,能夠使得所述投影高度更加準確。
具體地,所述電腦設備根據所述初始深度圖像中像素點的像素座標、所述投影高度及所述真實世界高度,計算所述目標高度損失包括:所述電腦設備計算所述真實世界高度與所述投影高度的高度比值,進一步地,所述電腦設備將所述高度比值與所述初始深度圖像中每個像素點的像素座標進行相乘運算,得到每個像素點對應的深度座標,更進一步地,所述電腦設備根據所述初始深度圖像中每個像素點的像素座標及對應的深度座標生成第一高度損失,所述電腦設備將所述平移矩陣與所述高度比值進行相乘運算,得到相乘矩陣,進一步地,所述電腦設備根據所述相乘矩陣及所述平移矩陣生成第二高度損失,更進一步地,所述電腦設備根據所述第一高度損失及所述第二高度損失生成所述目標高度損失。
具體地,所述第一高度損失的計算公式為:
;其中,所述L d 是指所述第一高度損失,
n是指所述初始深度圖像中所有像素點的數量,i是指所述初始深度圖像中的第i個像素點,所述D i t (u,v)是指所述初始深度圖像中第i個像素點對應的深度座標,D i (u,v)是指所述初始深度圖像中第i個像素點的像素座標。
具體地,所述第二高度損失的計算公式為:L ts =|t s -t|;其中,L ts 是指所述第二高度損失,t s 是指所述相乘矩陣,t是指所述平移矩陣。其中,所述電腦設備將所述第一高度損失及所述第二高度損失進行加權平均運算,得到所述目標高度損失。
透過上述實施方式,根據所述初始深度圖像中像素點的像素座標、所述投影高度及所述真實世界高度計算出目標高度損失,由於所述投影高度更加準確,能夠使得所述目標高度損失下降的更快。
步驟107,根據所述目標高度損失以及基於所述第一圖像及所述
第二圖像生成的深度損失,調整所述深度識別網路,得到深度識別模型。
在本申請的至少一個實施例中,所述深度損失包括光度損失和梯度損失。在本申請的至少一個實施例中,所述深度識別模型是指對所述深度識別網路進行調整後生成的模型。
在本申請的至少一個實施例中,所述電腦設備根據所述目標高度損失以及基於所述第一圖像及所述第二圖像生成的深度損失,調整所述深度識別網路,得到深度識別模型包括:所述電腦設備基於所述深度損失及所述目標高度損失計算所述深度識別網路的總體損失,進一步地,所述電腦設備基於所述總體損失調整所述深度識別網路,直至所述總體損失下降到最低,得到所述深度識別模型。
具體地,所述電腦設備將所述深度損失與所述目標高度損失進行加權平均運算,得到所述總體損失。在本實施例中,所述總體損失包括所述深度損失及所述目標高度損失,由於所述深度損失能夠更加準確地反映所述第一圖像與所述第二圖像之間的差異,基於所述總體損失對所述深度網路進行調整,能夠提高所述深度網路的學習能力,使得所述深度識別模型的識別精度更高。
具體地,所述電腦設備計算所述初始深度圖像與所述第一圖像之間的梯度損失,並計算所述第一圖像的投影圖像與所述第一圖像之間的光度損失,進一步地,所述電腦設備將所述梯度損失及所述光度損失進行加權平均運算,得到所述深度損失。其中,所述電腦設備基於所述第一圖像、所述第一圖像對應的初始深度圖像及同時與所述第一圖像及所述第二圖像對應的位姿矩陣生成所述第一圖像的投影圖像。所述位姿矩陣的生成過程均為現有技術,本申請在此不作贅述。
具體地,所述光度損失的計算公式為:Lt=αSSIM(x,y)+(1-α)∥x i -y i ∥;其中,Lt表示所述光度損失,α為預設的平衡參數,一般取值為0.85,SSIM(x,y)表示所述投影圖像與所述第一圖像之間的結構相似指數,∥x i -y i ∥表示所述投影圖像與所述第一圖像之間的灰度差值,x i 表示所述投影
圖像中第i個像素點的像素值,y i 表示所述第一圖像中與所述第i個像素點對應的像素點的像素值。所述結構相似指數的計算過程為現有技術,本申請在此不作贅述。
具體地,所述梯度損失的計算公式為:
;其中,Ls表示所述梯度
損失,x表示所述初始深度圖像,y表示所述第一圖像,D(u,v)表示所述初始深度圖像中第i個像素點的像素座標,I(u,v)表示所述第一圖像中第i個像素點的像素座標。
在本實施例中,由於所述深度損失包括了所述第一圖像中的每個像素點到所述第二圖像中對應的像素點的光度、梯度的變化,所以所述深度損失能夠更加準確地反映所述第一圖像與所述第二圖像之間的差異。
如圖4所示,是本申請實施例提供的圖像深度識別方法的流程圖。
根據不同的需求,所述流程圖中各個步驟的順序可以根據實際檢測要求進行調整,某些步驟可以省略。所述方法的執行主體為電腦設備,例如圖1所示的電腦設備1。
步驟108,獲取待識別圖像。
在本申請的至少一個實施例中,所述待識別圖像是指需要識別深度資訊的圖像。在本申請的至少一個實施例中,所述電腦設備獲取待識別圖像包括:所述電腦設備從預設的資料庫中獲取所述待識別圖像。其中,所述預設的資料庫可以為KITTI資料庫、Cityscapes資料庫及vKITTI資料庫等等。所述深度識別網路可以為深度神經網路,所述深度識別網路可以從網際網路的資料庫中獲取。
步驟109,將所述待識別圖像輸入到所述深度識別模型中,得到所述待識別圖像的目標深度圖像及所述待識別圖像的深度資訊,所述深度識別模型透過執行如所述的深度識別模型訓練方法而獲得。
在本申請的至少一個實施例中,所述目標深度圖像是指包含所述
待識別圖像中每個像素點的深度資訊的圖像,所述待識別圖像中每個像素點的深度資訊是指所述待識別圖像中每個像素點對應的待識別對象與拍攝所述待識別圖像的拍攝設備之間的距離。在本申請的至少一個實施例中,所述目標深度圖像的生成方式與所述初始深度圖像的生成方式基本一致,故本申請在此不做贅述。在本申請的至少一個實施例中,所述電腦設備獲取所述目標深度圖像中每個像素點的像素值作為所述待識別圖像中對應的像素點的深度資訊。
透過上述實施方式,由於提升了所述深度識別模型的精度,因此能夠提高所述待識別圖像的深度識別的精確度。
綜上所述,在本申請中,根據測試對象在測試圖像中的像素點的座標計算所述測試對象的測試投影斜率,並根據多個測試投影斜率生成閥值區間,由於所述測試對象所處位置對應的地面類型為平地,因此,所述閥值區間為初始對象的初始投影斜率提供了一個參考範圍,透過生成所述閥值區間,避免了單個測試投影斜率極值的出現,因此,能夠提高所述閥值區間的合理性,根據所述初始對象在第一圖像中的初始投影斜率及所述閥值區間識別所述初始對象的所處位置對應的地面類型是否為上下坡,進而根據所述地面類型及所述初始對象的像素座標對所述第一圖像中的初始地平面區域進行調整,能夠將處於上下坡的初始對象所對應的區域濾除,使得所述目標地平面區域中均不包含上下坡區域,由於在利用所述目標地平面區域計算所述深度識別網路的目標高度損失時,能夠避免上下坡地平面中的像素點的像素值的變化對所述目標高度損失的影響,因此,能夠使得訓練完成的深度識別模型的識別精度更高,從而能夠提高圖像的識別準確性。
如圖5所示,是本申請實施例提供的電腦設備的結構示意圖。
在本申請的一個實施例中,所述電腦設備1包括,但不限於,儲存器12、處理器13,以及儲存在所述儲存器12中並可在所述處理器13上運行的電腦程式,例如圖像深度識別程式及深度識別模型訓練程式。本領域技術人員可以理解,所述示意圖僅僅是電腦設備1的示例,並不構成對電腦設備1的
限定,可以包括比圖示更多或更少的部件,或者組合某些部件,或者不同的部件,例如所述電腦設備1還可以包括輸入輸出設備、網路接入設備、匯流排等。
所述處理器13可以是中央處理單元(Central Processing Unit,CPU),還可以是其他通用處理器、數位訊號處理器(Digital Signal Processor,DSP)、專用積體電路(Application Specific Integrated Circuit,ASIC)、現場可程式設計閘陣列(Field-Programmable Gate Array,FPGA)或者其他可程式設計邏輯器件、分立元器件門電路或者電晶體組件、分立硬體組件等。通用處理器可以是微處理器或者該處理器也可以是任何常規的處理器等,所述處理器13是所述電腦設備1的運算核心和控制中心,利用各種介面和線路連接整個電腦設備1的各個部分,及獲取所述電腦設備1的作業系統以及安裝的各類應用程式、程式碼等。例如,所述處理器13可以透過介面獲取所述拍攝設備2拍攝到的所述第一圖像。
所述處理器13獲取所述電腦設備1的作業系統以及安裝的各類應用程式。所述處理器13獲取所述應用程式以實現上述各個深度識別模型訓練方法以及各個圖像深度識別方法實施例中的步驟,例如圖2及圖4所示的步驟。示例性的,所述電腦程式可以被分割成一個或多個模組/單元,所述一個或者多個模組/單元被儲存在所述儲存器12中,並由所述處理器13獲取,以完成本申請。所述一個或多個模組/單元可以是能夠完成特定功能的一系列電腦程式指令段,該指令段用於描述所述電腦程式在所述電腦設備1中的獲取過程。
所述儲存器12可用於儲存所述電腦程式和/或模組,所述處理器13透過運行或獲取儲存在所述儲存器12內的電腦程式和/或模組,以及調用儲存在儲存器12內的資料,實現所述電腦設備1的各種功能。所述儲存器12可主要包括儲存程式區和儲存資料區,其中,儲存程式區可儲存作業系統、至少一個功能所需的應用程式(比如聲音播放功能、圖像播放功能等)等;儲存資料區可儲存根據電腦設備的使用所創建的資料等。此外,儲存器12可以包括非易失性儲存器,例如硬碟、儲存器、插接式硬碟,智慧儲存卡(Smart Media
Card,SMC),安全數位(Secure Digital,SD)卡,快閃儲存器卡(Flash Card)、至少一個磁碟儲存器件、快閃儲存器器件、或其他非易失性固態儲存器件。
所述儲存器12可以是電腦設備1的外部儲存器和/或內部儲存器。進一步地,所述儲存器12可以是具有實物形式的儲存器,如儲存器條、TF卡(Trans-flash Card)等等。
所述電腦設備1集成的模組/單元如果以軟體功能單元的形式實現並作為獨立的產品銷售或使用時,可以儲存在一個電腦可讀取儲存介質中。基於這樣的理解,本申請實現上述實施例方法中的全部或部分流程,也可以透過電腦程式來指令相關的硬體來完成,所述的電腦程式可儲存於一電腦可讀儲存介質中,該電腦程式在被處理器獲取時,可實現上述各個方法實施例的步驟。其中,所述電腦程式包括電腦程式代碼,所述電腦程式代碼可以為原始程式碼形式、對象代碼形式、可獲取檔或某些中間形式等。所述電腦可讀介質可以包括:能夠攜帶所述電腦程式代碼的任何實體或裝置、記錄介質、隨身碟、移動硬碟、磁碟、光碟、電腦儲存器、唯讀記憶體(ROM,Read-Only Memory)。
結合圖2,所述電腦設備1中的所述儲存器12儲存多個指令以實現一種深度識別模型訓練方法,所述處理器13可獲取所述多個指令從而實現:從獲取的測試圖像中確定測試對象,並獲取所述拍攝設備對初始對象進行拍攝後得到的第一圖像及第二圖像;根據所述測試對象在所述測試圖像中的像素點的座標,計算所述測試對象的測試投影斜率;根據多個測試投影斜率生成閥值區間;根據所述初始對象在所述第一圖像中的初始投影斜率及所述閥值區間,識別所述初始對象所處位置對應的地面類型;根據所述地面類型及所述初始對象的像素座標對所述第一圖像中的初始地平面區域進行調整,得到所述第一圖像中的目標地平面區域;基於預設的深度識別網路、所述拍攝設備、所述第一圖像對應的初始深度圖像及所述目標地平面區域,生成所述深度識別網路的目標高度損失;根據所述目標高度損失以及基於所述第一圖像及所述第二圖像生成的深度損失,調整所述深度識別網路,得到深度識別模型。
結合圖4,所述電腦設備1中的所述儲存器12儲存多個指令以實現一種圖像深度識別方法,所述處理器13可獲取所述多個指令從而實現:獲取待識別圖像,將所述待識別圖像輸入到深度識別模型中,得到所述待識別圖像的目標深度圖像及所述待識別圖像的深度資訊。
具體地,所述處理器13對上述指令的具體實現方法可參考圖2及圖4對應實施例中相關步驟的描述,在此不贅述。在本申請所提供的幾個實施例中,應該理解到,所揭露的系統,裝置和方法,可以透過其它的方式實現。例如,以上所描述的裝置實施例僅僅是示意性的,例如,所述模組的劃分,僅僅為一種邏輯功能劃分,實際實現時可以有另外的劃分方式。
所述作為分離部件說明的模組可以是或者也可以不是物理上分開的,作為模組顯示的部件可以是或者也可以不是物理單元,即可以位於一個地方,或者也可以分佈到多個網路單元上。可以根據實際的需要選擇其中的部分或者全部模組來實現本實施例方案的目的。另外,在本申請各個實施例中的各功能模組可以集成在一個處理單元中,也可以是各個單元單獨物理存在,也可以兩個或兩個以上單元集成在一個單元中。上述集成的單元既可以採用硬體的形式實現,也可以採用硬體加軟體功能模組的形式實現。
因此,無論從哪一點來看,均應將實施例看作是示範性的,而且是非限制性的,本申請的範圍由所附請求項而不是上述說明限定,因此旨在將落在請求項的等同要件的含義和範圍內的所有變化涵括在本申請內。不應將請求項中的任何附關聯圖標記視為限制所涉及的請求項。此外,顯然“包括”一詞不排除其他單元或步驟,單數不排除複數。本申請中陳述的多個單元或裝置也可以由一個單元或裝置透過軟體或者硬體來實現。第一、第二等詞語用來表示名稱,而並不表示任何特定的順序。
最後應說明的是,以上實施例僅用以說明本申請的技術方案而非限制,儘管參照較佳實施例對本申請進行了詳細說明,本領域的普通技術人員應當理解,可以對本申請的技術方案進行修改或等同替換,而不脫離本申請技
術方案的精神和範圍。
101~107:步驟
Claims (10)
- 一種深度識別模型訓練方法,應用於電腦設備,所述電腦設備與拍攝設備相通信,其中,所述深度識別模型訓練方法包括:從獲取的測試圖像中確定測試對象,並獲取所述拍攝設備對初始對象進行拍攝後得到的第一圖像及第二圖像,所述第一圖像及所述第二圖像為相鄰幀的圖像,所述第二圖像與所述第一圖像具有不同的生成時間;根據所述測試對象在所述測試圖像中的像素點的座標,計算所述測試對象的測試投影斜率;根據多個測試投影斜率生成閥值區間;根據所述初始對象在所述第一圖像中的初始投影斜率及所述閥值區間,識別所述初始對象所處位置對應的地面類型;根據所述地面類型及所述初始對象的像素座標對所述第一圖像中的初始地平面區域進行調整,得到所述第一圖像中的目標地平面區域;基於預設的深度識別網路、所述拍攝設備、所述第一圖像對應的初始深度圖像及所述目標地平面區域,生成所述深度識別網路的目標高度損失;根據所述目標高度損失以及基於所述第一圖像及所述第二圖像生成的深度損失,調整所述深度識別網路,得到深度識別模型,包括:基於所述深度損失及所述目標高度損失計算所述深度識別網路的總體損失,基於所述總體損失調整所述深度識別網路,直至所述總體損失下降到最低,得到所述深度識別模型,所述深度損失為梯度損失與光度損失之間的加權平均值,其中,所述梯度損失為所述初始深度圖像與所述第一圖像之間梯度的損失,所述光度損失為所述第一圖像與所述第一圖像的投影圖像之間光度的損失,所述投影圖像通過所述第一圖像、所述初始深度圖像及同時與所述第一圖像及所述第二圖像對應的位姿矩陣生成。
- 如請求項1所述的深度識別模型訓練方法,其中,所述根據所述測試對象在所述測試圖像中的像素點的座標,計算所述測試對象的測試投 影斜率包括:獲取所述測試對象中每個像素點的橫座標值與縱座標值;計算多個橫座標值的橫座標平均值,並計算多個縱座標值的縱座標平均值;計算每個像素點的橫座標值與所述橫座標平均值的橫座標差值,並計算每個像素點的縱座標值與所述縱座標平均值的縱座標差值;統計所述測試對象中所有像素點的像素數量;根據預設規則、所述像素數量、多個橫座標差值及多個縱座標差值生成協方差矩陣;對所述協方差矩陣進行奇異值分解,得到特徵向量;將所述特徵向量的第一個向量元素與所述特徵向量的第二個向量元素的比值確定為投影斜率,並從所述投影斜率中選取所述測試投影斜率。
- 如請求項2所述的深度識別模型訓練方法,其中,所述根據預設規則、所述像素數量、多個橫座標差值及多個縱座標差值生成協方差矩陣包括:根據所述多個橫座標差值及所述像素數量計算橫座標方差值,並根據所述多個縱座標差值及所述像素數量計算縱座標方差值;根據所述像素數量、所述多個橫座標差值及所述多個縱座標差值,計算協方差值;將所述協方差值、所述橫座標方差值及所述縱座標方差值按照所述預設規則進行排列,得到所述協方差矩陣,所述預設規則包括將所述橫座標方差值及所述縱座標方差值作為主對角線上的矩陣元素,並將所述協方差值作為副對角線上的矩陣元素。
- 如請求項1所述的深度識別模型訓練方法,其中,所述根據多個測試投影斜率生成閥值區間包括:計算所述多個測試投影斜率的投影平均值及投影標準差,並根據所述投影標準差計算配置值; 將所述投影平均值與所述配置值的差值確定為最小閥值,並將所述投影平均值與所述投影標準差的和確定為最大閥值;將所述最小閥值與所述最大閥值構成的區間確定為所述閥值區間。
- 如請求項1所述的深度識別模型訓練方法,其中,所述根據所述初始對象在所述第一圖像中的初始投影斜率及所述閥值區間,識別所述初始對象所處位置對應的地面類型包括:若所述初始投影斜率處於所述閥值區間中,確定所述地面類型為平地;或者若所述初始投影斜率處於所述閥值區間之外,確定所述地面類型為上下坡。
- 如請求項1至請求項5中任一項所述的深度識別模型訓練方法,其中,所述根據所述地面類型及所述初始對象的像素座標對所述第一圖像中的初始地平面區域進行調整,得到所述第一圖像中的目標地平面區域包括:根據任一個初始對象的像素座標識別出所述任一個初始對象在所述初始地平面區域中對應的特徵地平面區域;若所述任一個初始對象對應的地面類型為平地,將所述特徵地平面區域確定為所述目標地平面區域;或者若所述任一個初始對象對應的地面類型為上下坡,在所述初始地平面區域中將所述特徵地平面區域進行掩膜處理,得到所述目標地平面區域。
- 如請求項1所述的深度識別模型訓練方法,其中,所述基於預設的深度識別網路、所述拍攝設備、所述第一圖像對應的初始深度圖像及所述目標地平面區域,生成所述深度識別網路的目標高度損失包括:獲取所述拍攝設備的光心到所述目標地平面區域的真實世界高度;基於所述第一圖像及所述拍攝設備構建相機座標系;根據所述第一圖像中的目標地平面區域的每個地面像素點在所述相機座標系中的座標,計算投影高度;根據所述初始深度圖像中像素點的像素座標、所述投影高度及所述真實世 界高度,計算所述目標高度損失。
- 如請求項7所述的深度識別模型訓練方法,其中,所述根據所述第一圖像中的目標地平面區域的每個地面像素點在所述相機座標系中的座標計算投影高度包括:獲取所述目標地平面區域的任一地面像素點在所述相機座標系中的座標;根據所述任一地面像素點的座標計算出單位法向量;將以所述拍攝設備的光心為起點及以每個地面像素點為終點構成的向量確定為該地面像素點的目標向量;根據每個地面像素點的目標向量與所述單位法向量,計算每個地面像素點對應的投影距離;將所有地面像素點對應的投影距離進行加權平均運算,得到所述投影高度。
- 一種圖像深度識別方法,應用於電腦設備,其中,所述圖像深度識別方法包括:獲取待識別圖像;將所述待識別圖像輸入到深度識別模型中,得到所述待識別圖像的目標深度圖像及所述待識別圖像的深度資訊,所述深度識別模型透過執行如請求項1至8中任一項所述的深度識別模型訓練方法而獲得。
- 一種電腦設備,其中,所述電腦設備包括:儲存器,儲存至少一個指令;及處理器,執行所述至少一個指令以實現如請求項1至8中任意一項所述的深度識別模型訓練方法,或者如請求項9所述的圖像深度識別方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW111127894A TWI807935B (zh) | 2022-07-26 | 2022-07-26 | 深度識別模型訓練方法、圖像深度識別方法及相關設備 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW111127894A TWI807935B (zh) | 2022-07-26 | 2022-07-26 | 深度識別模型訓練方法、圖像深度識別方法及相關設備 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI807935B true TWI807935B (zh) | 2023-07-01 |
TW202405754A TW202405754A (zh) | 2024-02-01 |
Family
ID=88149357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111127894A TWI807935B (zh) | 2022-07-26 | 2022-07-26 | 深度識別模型訓練方法、圖像深度識別方法及相關設備 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI807935B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629835A (zh) * | 2017-03-20 | 2018-10-09 | 哈尔滨工业大学 | 基于高光谱、真彩图与点云互补的室内重建方法及系统 |
US20210090274A1 (en) * | 2019-09-25 | 2021-03-25 | Blue River Technology Inc. | Identifying and treating plants using depth information in a single image |
US20220101554A1 (en) * | 2020-09-25 | 2022-03-31 | Blue River Technology Inc. | Extracting Feature Values from Point Clouds to Generate Plant Treatments |
US20220100996A1 (en) * | 2020-09-25 | 2022-03-31 | Blue River Technology Inc. | Ground Plane Compensation in Identifying and Treating Plants |
-
2022
- 2022-07-26 TW TW111127894A patent/TWI807935B/zh active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629835A (zh) * | 2017-03-20 | 2018-10-09 | 哈尔滨工业大学 | 基于高光谱、真彩图与点云互补的室内重建方法及系统 |
US20210090274A1 (en) * | 2019-09-25 | 2021-03-25 | Blue River Technology Inc. | Identifying and treating plants using depth information in a single image |
US20210264624A1 (en) * | 2019-09-25 | 2021-08-26 | Blue River Technology Inc. | Identifying and avoiding obstructions using depth information in a single image |
US20220101554A1 (en) * | 2020-09-25 | 2022-03-31 | Blue River Technology Inc. | Extracting Feature Values from Point Clouds to Generate Plant Treatments |
US20220100996A1 (en) * | 2020-09-25 | 2022-03-31 | Blue River Technology Inc. | Ground Plane Compensation in Identifying and Treating Plants |
Also Published As
Publication number | Publication date |
---|---|
TW202405754A (zh) | 2024-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10803554B2 (en) | Image processing method and device | |
US8588516B2 (en) | Interpolation image generation apparatus, reconstructed image generation apparatus, method of generating interpolation image, and computer-readable recording medium storing program | |
US10726580B2 (en) | Method and device for calibration | |
CN110568447A (zh) | 视觉定位的方法、装置及计算机可读介质 | |
CN106447602A (zh) | 一种图像拼接方法及装置 | |
KR20160058058A (ko) | 이미지 처리 방법 및 장치 | |
WO2019096310A1 (en) | Light field image rendering method and system for creating see-through effects | |
WO2023116430A1 (zh) | 视频与城市信息模型三维场景融合方法、系统及存储介质 | |
WO2023226218A1 (zh) | 轴对称光学成像并行仿真方法及装置 | |
CN109902675B (zh) | 物体的位姿获取方法、场景重构的方法和装置 | |
CN110567441A (zh) | 基于粒子滤波的定位方法、定位装置、建图及定位的方法 | |
JP7312026B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
CN110111341B (zh) | 图像前景获取方法、装置及设备 | |
TWI807935B (zh) | 深度識別模型訓練方法、圖像深度識別方法及相關設備 | |
CN117058183A (zh) | 一种基于双摄像头的图像处理方法、装置、电子设备及存储介质 | |
CN112752088B (zh) | 深度图像生成方法及装置、参考图像生成方法、电子设备 | |
TWI814503B (zh) | 深度識別模型訓練方法、圖像深度識別方法及相關設備 | |
TWI807904B (zh) | 深度識別模型訓練方法、圖像深度識別方法及相關設備 | |
TWI831552B (zh) | 圖像識別模型訓練方法、圖像深度識別方法及相關設備 | |
TWM625817U (zh) | 具時序平滑性之影像模擬系統 | |
TWI817594B (zh) | 圖像深度識別方法、電腦設備及儲存介質 | |
CN117542005A (zh) | 深度识别模型训练方法、图像深度识别方法及相关设备 | |
US20240046601A1 (en) | Deep recognition model training method, electronic device and readable storage medium | |
TWI832591B (zh) | 車道線檢測方法、電腦設備及儲存介質 | |
US20240221200A1 (en) | Method for identifying depths of images and related device |