TW202417291A - 混合式車輛偵測系統與混合式車輛偵測方法 - Google Patents
混合式車輛偵測系統與混合式車輛偵測方法 Download PDFInfo
- Publication number
- TW202417291A TW202417291A TW111140093A TW111140093A TW202417291A TW 202417291 A TW202417291 A TW 202417291A TW 111140093 A TW111140093 A TW 111140093A TW 111140093 A TW111140093 A TW 111140093A TW 202417291 A TW202417291 A TW 202417291A
- Authority
- TW
- Taiwan
- Prior art keywords
- radar detection
- vehicle
- distance
- detection point
- image
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 210
- 238000000034 method Methods 0.000 title description 5
- 230000004927 fusion Effects 0.000 claims description 51
- 238000005259 measurement Methods 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 abstract 1
- 238000013507 mapping Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000003068 static effect Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000009429 distress Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Emergency Alarm Devices (AREA)
- Automobile Manufacture Line, Endless Track Vehicle, Trailer (AREA)
Abstract
本發明提出一種混合式車輛偵測方法,其包含以下步驟。透過雷達偵測至少一雷達偵測點,至少一雷達偵測點具有三維座標系下的第一位置座標;透過相機擷取影像;透過處理器對影像執行影像測距,藉以將影像中的至少一車輛的位置轉換成三維座標系下的第二位置座標;透過處理器判斷第一位置座標與第二位置座標之間的距離是否小於預設距離;當第一位置座標與第二位置座標之間的距離未小於預設距離時,透過處理器將至少一雷達偵測點映射在影像上以判斷至少一雷達偵測點與影像中的至少一車輛是否匹配。
Description
本發明是有關於一種系統與方法,且特別是有關於一種混合式車輛偵測系統與混合式車輛偵測方法。
在汽車行駛相關的主要安全問題一直是駕駛員的困擾,人為錯誤是大多數交通相關事故的原因。為了盡量減少不可避免的人為錯誤的危險,汽車製造商已經開始在車輛上加裝感測器,讓車輛能夠解讀周圍環境。
然而,感測器從來都不是完美的,汽車可能遇到的場景數量幾乎是無窮無盡的,僅靠單個感測器難以應付現實中的場景。
本發明提出一種混合式車輛偵測系統與混合式車輛偵測方法,改善先前技術的問題。
在本發明的一實施例中,本發明所提出的混合式車輛偵測系統包含雷達、相機以及處理器,處理器電性連接雷達與相機。雷達偵測至少一雷達偵測點,至少一雷達偵測點具有三維座標系下的第一位置座標。相機擷取影像。 處理器對影像執行影像測距,藉以將影像中的至少一車輛的位置轉換成三維座標系下的第二位置座標,處理器判斷第一位置座標與第二位置座標之間的距離是否小於預設距離,當第一位置座標與第二位置座標之間的距離未小於預設距離時,處理器將至少一雷達偵測點映射在影像上以判斷至少一雷達偵測點與影像中的至少一車輛是否匹配。
在本發明的一實施例中,處理器判斷至少一雷達偵測點是否映射到至少一車輛的預設容許範圍中,當至少一雷達偵測點映射到至少一車輛的預設容許範圍中時,處理器判定至少一雷達偵測點與至少一車輛匹配。
在本發明的一實施例中,至少一雷達偵測點包含複數個雷達偵測點,當複數個雷達偵測點皆映射到至少一車輛的預設容許範圍中時,處理器自複數個雷達偵測點中選擇最短距離的雷達偵測點與至少一車輛匹配,其中最短距離雷達偵測點的第一位置座標與至少一車輛的第二位置座標之間的距離小於複數個雷達偵測點中任一其餘者的第一位置座標與該至少一車輛的第二位置座標之間的距離。
在本發明的一實施例中,當第一位置座標與第二位置座標之間的距離小於預設距離時,或當至少一雷達偵測點與至少一車輛匹配時,處理器將至少一雷達偵測點的資料與影像中的至少一車輛的資料進行混合式的關聯融合。
在本發明的一實施例中,混合式的關聯融合將至少一雷達偵測點的橫向速度與縱向速度做為融合後的橫向速度與融合後的縱向速度,將影像中所偵測到的至少一車輛的種類做為融合後的種類,將至少一雷達偵測點的縱向距離做為融合後的縱向距離,將至少一雷達偵測點的歐式距離乘以融合角度的餘弦函數以做為融合後的橫向距離,其中融合角度係影像所能探測到的視野角度除以影像的邊界框的中心點的橫向像素位置。
在本發明的一實施例中,本發明所提出的混合式車輛偵測方法包含以下步驟:透過雷達偵測至少一雷達偵測點,至少一雷達偵測點具有三維座標系下的第一位置座標;透過相機擷取影像;透過處理器對影像執行影像測距,藉以將影像中的至少一車輛的位置轉換成三維座標系下的第二位置座標;透過處理器判斷第一位置座標與第二位置座標之間的距離是否小於預設距離;當第一位置座標與第二位置座標之間的距離未小於預設距離時,透過處理器將至少一雷達偵測點映射在影像上以判斷至少一雷達偵測點與影像中的至少一車輛是否匹配。
在本發明的一實施例中,混合式車輛偵測方法更包含:透過處理器判斷至少一雷達偵測點是否映射到至少一車輛的預設容許範圍中;當至少一雷達偵測點映射到至少一車輛的預設容許範圍中時,透過處理器判定至少一雷達偵測點與至少一車輛匹配。
在本發明的一實施例中,至少一雷達偵測點包含複數個雷達偵測點,混合式車輛偵測方法更包含:當複數個雷達偵測點皆映射到至少一車輛的預設容許範圍中時,處理器自複數個雷達偵測點中選擇最短距離的雷達偵測點與至少一車輛匹配,其中最短距離雷達偵測點的第一位置座標與至少一車輛的第二位置座標之間的距離小於複數個雷達偵測點中任一其餘者的該第一位置座標與至少一車輛的第二位置座標之間的距離。
在本發明的一實施例中,混合式車輛偵測方法,更包含:當第一位置座標與第二位置座標之間的距離小於預設距離時,或當至少一雷達偵測點與至少一車輛匹配時,透過處理器將至少一雷達偵測點的資料與影像中的至少一車輛的資料進行混合式的關聯融合。
在本發明的一實施例中,混合式的關聯融合將至少一雷達偵測點的橫向速度與縱向速度做為融合後的橫向速度與融合後的縱向速度,將影像中所偵測到的至少一車輛的種類做為融合後的種類,將至少一雷達偵測點的縱向距離做為融合後的縱向距離,將至少一雷達偵測點的歐式距離乘以融合角度的餘弦函數以做為融合後的橫向距離,其中融合角度係影像所能探測到的視野角度除以影像的邊界框的中心點的橫向像素位置。
綜上所述,本發明之技術方案與現有技術相比具有明顯的優點和有益效果。藉由本發明的混合式車輛偵測系統與混合式車輛偵測方法,使用雷達與相機融合,相機可以對目標提供精準的物件分類,還有具有良好的水平分辨率,而雷達的測距精度高,能夠直接探測物體速度,且對環境的影響受限小,雷達與相機互相彌補彼此不足的地方,能夠更精準的在各個情況下提供正確的物體狀態資訊。再者,本發明的混合式車輛偵測系統與混合式車輛偵測方法,結合了距離和映射的關聯融合,提供更高的關聯融合率。
以下將以實施方式對上述之說明作詳細的描述,並對本發明之技術方案提供更進一步的解釋。
為了使本發明之敘述更加詳盡與完備,可參照所附之圖式及以下所述各種實施例,圖式中相同之號碼代表相同或相似之元件。另一方面,眾所週知的元件與步驟並未描述於實施例中,以避免對本發明造成不必要的限制。
請參照第1圖,本發明之技術態樣是一種混合式車輛偵測系統100,其可應用在車輛、車用電子設備,或是廣泛地運用在相關之技術環節。本技術態樣之混合式車輛偵測系統100可達到相當的技術進步,並具有産業上的廣泛利用價值。以下將搭配第1圖來說明混合式車輛偵測系統100之具體實施方式。
應瞭解到,混合式車輛偵測系統100的多種實施方式搭配第1圖進行描述。於以下描述中,為了便於解釋,進一步設定許多特定細節以提供一或多個實施方式的全面性闡述。然而,本技術可在沒有這些特定細節的情況下實施。於其他舉例中,為了有效描述這些實施方式,已知結構與裝置以方塊圖形式顯示。此處使用的「舉例而言」的用語,以表示「作為例子、實例或例證」的意思。此處描述的作為「舉例而言」的任何實施例,無須解讀為較佳或優於其他實施例。
第1圖是依照本發明一實施例之一種混合式車輛偵測系統100的方塊圖。如第1圖所示,混合式車輛偵測系統100包含雷達110、處理器120、相機130、顯示器180以及儲存裝置190。舉例而言,儲存裝置190可為硬碟、快閃記憶體或其他儲存媒介,處理器120可為中央處理器、控制器或其他電路,相機130可為彩色相機、單眼相機或其他電子相機,顯示器180可為車用顯示器,雷達110可為毫米波雷達。
在架構上,處理器120電性連接儲存裝置190,雷達110電性連接處理器120,顯示器180電性連接處理器120,處理器120電性連接相機130。應瞭解到,於實施方式與申請專利範圍中,涉及『電性連接』之描述,其可泛指一元件透過其他元件而間接電氣耦合至另一元件,或是一元件無須透過其他元件而直接電連結至另一元件。舉例而言,雷達110可為內建雷達直接電連結至處理器120,或是雷達110可為外接雷達透過線路間接連線至處理器120。
為了對上述混合式車輛偵測系統100的機制做更進一步的闡述,請同時參照第1、2A、2B圖,第2A圖是依照本發明一實施例之一種距離融合的示意圖,第2B圖是依照本發明一實施例之一種映射融合的示意圖。
於使用時,雷達110偵測雷達偵測點221、222、223(即,所偵測到的物體),雷達偵測點221、222、223分別具有三維座標系下的位置座標。實作上,舉例而言,雷達110所接收到的資料有可能包含著雜訊或是不感興趣的雷達偵測點,所以在進行追蹤前處理器120可先進行雷達偵測點的前處理,過濾掉部分的雷達偵測點。首先,處理器120設定雷達偵測點的邊界範圍作篩選,濾除掉過遠的雷達偵測點,前述邊界範圍例如可匹配於相機的視野範圍200。接者,處理器120針對雷達110所給的存在概率進行篩選,當物體的存在概率小於約75%就會當作雜點。接者,處理器120進一步區分物體的狀態,是否為動態物或是靜態物,會利用自車速度和物體速度進行區分,由於雷達所偵測到的速度資訊為相對速度,若是自車在行進中,所探測到靜態物的相對速度會相對較大,動態物則相對較小,以此則可以進一步區分物體為動態物或靜態物。最後,處理器120會根據雷達點追蹤,設定雷達點的保留幀,會連續觀察大約3 幀,當那個雷達偵測點持續被追蹤到3幀,代表可能為真實的一個物體而不是雜點。
應瞭解到,本文中所使用之『約』、『大約』或『大致』係用以修飾任何可些微變化的數量,但這種些微變化並不會改變其本質。於實施方式中若無特別說明,則代表以『約』、『大約』或『大致』所修飾之數值的誤差範圍一般是容許在百分之二十以內,較佳地是於百分之十以內,而更佳地則是於百分五之以內。
另一方面,相機130擷取影像230。實作上,舉例而言,相機130在其視野範圍200內擷取影像230。
儲存裝置190可儲存程式指令,處理器120執行程式指令以完成實現如第2A圖所示的距離融合與/或如第2B圖所示的映射融合。具體而言,處理器120對影像230執行影像測距,藉以將影像中的車輛211、212的位置轉換成三維座標系下的位置座標。實作上,舉例而言,處理器120可先對影像執行物件辨識以識別出車輛211、212,接著對影像執行影像測距(如:習知或開發中的影像測距模型)以利用相機130離地高度、相機130焦距、消失面231(如:地平線、天際線…等)、車輛211、212底部的橫軸、影像中的車輛211、212的車寬、車輛211、212的真實車寬…等資訊,將影像230中的車輛211、212的位置轉換成三維座標系下的位置座標。藉此,車輛211、212的位置座標與雷達偵測點211、212、213的位置座標皆在同一個三維座標系,以實現第2A圖的距離融合。
參照第1、2A圖,處理器110判斷車輛211、212的位置座標與雷達偵測點221、222、223的位置座標之間的距離是否約小於預設距離。
於第2A圖中,車輛211的位置座標與雷達偵測點221的位置座標之間的距離小於預設距離,除此之外,車輛211的位置座標與雷達偵測點223的位置座標之間的距離大於預設距離,車輛212的位置座標與雷達偵測點222的位置座標之間的距離大於預設距離,車輛212的位置座標與雷達偵測點223的位置座標之間的距離大於預設距離。因此,在距離融合中,車輛211與雷達偵測點221相匹配。
關於映射融合,參照第1、2B圖,當車輛211、212中有至少一者的位置座標與雷達偵測點221、222、223中有至少一者的位置座標之間的距離未小於預設距離時,處理器120將雷達偵測點221、222、223映射在影像230上以判斷雷達偵測點221、222、223與影像230中的車輛211、212是否匹配。
在本發明的一實施例中,處理器120判斷雷達偵測點222是否映射到車輛212的預設容許範圍252中,當雷達偵測點222是否映射到車輛212的預設容許範圍252中時,處理器120判定雷達偵測點222與車輛212匹配,以實現第2B圖的映射融合。
在本發明的一實施例中,當雷達偵測點221、223皆映射到車輛211的預設容許範圍251中時,處理器120自雷達偵測點221、223中選擇最短距離的雷達偵測點221與車輛211匹配,其中最短距離雷達偵測點221的位置座標與車輛211的位置座標之間的距離小於其餘的雷達偵測點223的位置座標與車輛211的位置座標之間的距離。或者或再者,在本發明的另一實施例中,由於雷達偵測點221與車輛211已在第2A圖的距離融合中匹配,即便在第2B圖的映射融合中其餘的雷達偵測點223映射到車輛211的預設容許範圍251中,處理器120亦可自動排除雷達偵測點223,將雷達偵測點223視為被車輛211所遮蔽的前車。
實作上,舉例而言,預設容許範圍251可包圍車輛211,預設容許範圍252可包圍車輛212,至於預設容許範圍的形狀、大小與範圍,本領域具有通知知識者可基於實際狀況彈性設定之。
關於第2A圖的距離融合,在本發明的一實施例中,當雷達偵測點221的位置座標與車輛211的位置座標之間的距離小於預設距離時,處理器120將雷達偵測點221的資料與影像230中的車輛211的資料進行混合式的關聯融合。另外,關於第2B圖的映射融合,在本發明的一實施例中,當雷達偵測點222與車輛212匹配時,處理器120將雷達偵測點222的資料與影像230中的車輛212的資料進行混合式的關聯融合。
關於上述混合式的關聯融合,在本發明的一實施例中,雷達偵測點221與車輛211的混合式的關聯融合將雷達偵測點221的橫向速度與縱向速度做為融合後的橫向速度與融合後的縱向速度,將影像230中所偵測到的車輛211的種類(如:車型)做為融合後的種類,將雷達偵測點221的縱向距離做為融合後的縱向距離,將雷達偵測點221的歐式距離乘以融合角度的餘弦函數以做為融合後的橫向距離,其中融合角度係影像230所能探測到的視野角度除以影像230的邊界框232的中心點的橫向像素位置。
同理,在本發明的一實施例中,雷達偵測點222與車輛212的混合式的關聯融合將雷達偵測點222的橫向速度與縱向速度做為融合後的橫向速度與融合後的縱向速度,將影像230中所偵測到的車輛212的種類(如:車型)做為融合後的種類,將雷達偵測點222的縱向距離做為融合後的縱向距離,將雷達偵測點222的歐式距離乘以融合角度的餘弦函數以做為融合後的橫向距離,其中融合角度係影像230所能探測到的視野角度除以影像230的邊界框232的中心點的橫向像素位置。
於使用時,處理器120令顯示器180於影像230中的車輛211、212周圍呈現對應的混合式的關聯融合的資訊,藉以讓駕駛人知道更充足的行車資訊。
為了對上述混合式車輛偵測系統100的混合式車輛偵測方法做更進一步的闡述,請同時參照第1~3圖,第3圖是依照本發明一實施例之一種混合式車輛偵測方法300的流程圖。如第3圖所示,混合式車輛偵測方法300包含步驟S301~S307(應瞭解到,在本實施例中所提及的步驟,除特別敘明其順序者外,均可依實際需要調整其前後順序,甚至可同時或部分同時執行)。
混合式車輛偵測方法300可以採用非暫態電腦可讀取記錄媒體上的電腦程式產品的形式,此電腦可讀取記錄媒體具有包含在介質中的電腦可讀取的複數個指令。適合的記錄媒體可以包括以下任一者:非揮發性記憶體,例如:唯讀記憶體(ROM)、可程式唯讀記憶體(PROM)、可抹拭可程式唯讀記憶體(EPROM)、電子抹除式可程式唯讀記憶體(EEPROM);揮發性記憶體,例如:靜態存取記憶體(SRAM)、動態存取記憶體(DRAM)、雙倍資料率隨機存取記憶體(DDR-RAM);光學雷達,例如:唯讀光碟(CD-ROM)、唯讀數位多功能影音光碟(DVD-ROM);磁性雷達,例如:硬碟機、軟碟機。
於步驟S301,執行距離融合。在本發明的一實施例中,透過雷達110偵測雷達偵測點221、222、223,雷達偵測點221、222、223分別具有三維座標系下的位置座標;透過相機130擷取影像230;透過處理器120對影像230執行影像測距,藉以將影像中的車輛211、212的位置轉換成三維座標系下的位置座標;透過處理器120判斷車輛211、212的位置座標與雷達偵測點221、222、223的位置座標之間的距離是否約小於預設距離。
於步驟S302,車輛211的位置座標與雷達偵測點221的位置座標之間的距離小於預設距離,透過處理器120判定車輛211與雷達偵測點221相匹配。
於步驟S307,當雷達偵測點221的位置座標與車輛211的位置座標之間的距離小於預設距離時,透過處理器120將雷達偵測點221的資料與影像230中的車輛211的資料進行混合式的關聯融合。在本發明的一實施例中,雷達偵測點221與車輛211的混合式的關聯融合將雷達偵測點221的橫向速度與縱向速度做為融合後的橫向速度與融合後的縱向速度,將影像230中所偵測到的車輛211的種類(如:車型)做為融合後的種類,將雷達偵測點221的縱向距離做為融合後的縱向距離,將雷達偵測點221的歐式距離乘以融合角度的餘弦函數以做為融合後的橫向距離,其中融合角度係影像230所能探測到的視野角度除以影像230的邊界框232的中心點的橫向像素位置。
於步驟S303,雷達110不匹配。舉例而言,車輛212的位置座標與雷達偵測點222的位置座標之間的距離大於預設距離,且車輛212與雷達偵測點222橫向差距較大,有可能是雷達110橫向測距比較粗略所致,因此,車輛212與雷達偵測點222之間的不匹配可歸類為雷達110不匹配,但本發明不已此為限。
於步驟S304,影像230不匹配。舉例而言,車輛211的位置座標與雷達偵測點223的位置座標之間的距離大於預設距離,且車輛211與雷達偵測點223縱向差距較大,有可能是透過相機130的縱向測距比較粗略且易受路況影響不穩定所致,因此,車輛211與雷達偵測點223可歸類為影像230不匹配,但本發明不已此為限。
於步驟S305,執行映射融合。具體而言,透過處理器120將雷達偵測點221、222、223映射在影像230上以判斷雷達偵測點221、222、223與影像230中的車輛211、212是否匹配。
在本發明的一實施例中,透過處理器120判斷雷達偵測點222是否映射到車輛212的預設容許範圍252中,當雷達偵測點222是否映射到車輛212的預設容許範圍252中時,於步驟S306,透過處理器120判定雷達偵測點222與車輛212匹配。
於步驟S307,當雷達偵測點222的位置座標與車輛212的位置座標之間的距離小於預設距離時,透過處理器120將雷達偵測點222的資料與影像230中的車輛212的資料進行混合式的關聯融合。在本發明的一實施例中,雷達偵測點222與車輛212的混合式的關聯融合將雷達偵測點222的橫向速度與縱向速度做為融合後的橫向速度與融合後的縱向速度,將影像230中所偵測到的車輛212的種類(如:車型)做為融合後的種類,將雷達偵測點222的縱向距離做為融合後的縱向距離,將雷達偵測點222的歐式距離乘以融合角度的餘弦函數以做為融合後的橫向距離,其中融合角度係影像230所能探測到的視野角度除以影像230的邊界框232的中心點的橫向像素位置。
另一方面,於步驟S305,在本發明的一實施例中,當雷達偵測點221、223皆映射到車輛211的預設容許範圍251中時,於步驟S306,透過處理器120自雷達偵測點221、223中選擇最短距離的雷達偵測點221與車輛211匹配,其中最短距離雷達偵測點221的位置座標與車輛211的位置座標之間的距離小於其餘的雷達偵測點223的位置座標與車輛211的位置座標之間的距離。或者或再者,在本發明的另一實施例中,由於雷達偵測點221與車輛211已在步驟S302中匹配,即便在步驟S305的映射融合中其餘的雷達偵測點223映射到車輛211的預設容許範圍251中,透過處理器120亦可自動排除雷達偵測點223,將雷達偵測點223視為被車輛211所遮蔽的前車。
綜上所述,本發明之技術方案與現有技術相比具有明顯的優點和有益效果。藉由本發明的混合式車輛偵測系統100與混合式車輛偵測方法300,使用雷達110與相機130融合,相機130可以對目標提供精準的物件分類,還有具有良好的水平分辨率,而雷達110的測距精度高,能夠直接探測物體速度,且對環境的影響受限小,雷達110與相機130互相彌補彼此不足的地方,能夠更精準的在各個情況下提供正確的物體狀態資訊。再者,本發明的混合式車輛偵測系統100與混合式車輛偵測方法300,結合了距離和映射的關聯融合,提供更高的關聯融合率。
雖然本發明已以實施方式揭露如上,然其並非用以限定本發明,任何熟習此技藝者,在不脫離本發明之精神和範圍內,當可作各種之更動與潤飾,因此本發明之保護範圍當視後附之申請專利範圍所界定者為準。
為讓本發明之上述和其他目的、特徵、優點與實施例能更明顯易懂,所附符號之說明如下:
100:混合式車輛偵測系統
110:雷達
120:處理器
130:相機
180:顯示器
190:儲存裝置
200:視野範圍
211:車輛
212:車輛
221:雷達偵測點
222:雷達偵測點
223:雷達偵測點
230:影像
231:消失面
232:邊界框
252:預設容許範圍
300:混合式車輛偵測方法
S301~S307:步驟
為讓本發明之上述和其他目的、特徵、優點與實施例能更明顯易懂,所附圖式之說明如下:
第1圖是依照本發明一實施例之一種混合式車輛偵測系統的方塊圖;
第2A圖是依照本發明一實施例之一種距離融合的示意圖;
第2B圖是依照本發明一實施例之一種映射融合的示意圖;以及
第3圖是依照本發明一實施例之一種混合式車輛偵測方法的流程圖。
300:混合式車輛偵測方法
S301~S307:步驟
Claims (10)
- 一種混合式車輛偵測系統,包含: 一雷達,偵測至少一雷達偵測點,該至少一雷達偵測點具有三維座標系下的一第一位置座標; 一相機,擷取一影像;以及 一處理器,電性連接該雷達與該相機,該處理器對該影像執行一影像測距,藉以將該影像中的至少一車輛的位置轉換成該三維座標系下的一第二位置座標,該處理器判斷該第一位置座標與該第二位置座標之間的距離是否小於一預設距離,當該第一位置座標與該第二位置座標之間的距離未小於該預設距離時,該處理器將該至少一雷達偵測點映射在該影像上以判斷該至少一雷達偵測點與該影像中的該至少一車輛是否匹配。
- 如請求項1所述之混合式車輛偵測系統,其中該處理器判斷該至少一雷達偵測點是否映射到該至少一車輛的一預設容許範圍中,當該至少一雷達偵測點映射到該至少一車輛的該預設容許範圍中時,該處理器判定該至少一雷達偵測點與該至少一車輛匹配。
- 如請求項2所述之混合式車輛偵測系統,其中該至少一雷達偵測點包含複數個雷達偵測點,當該些雷達偵測點皆映射到該至少一車輛的該預設容許範圍中時,該處理器自該些雷達偵測點中選擇一最短距離的雷達偵測點與該至少一車輛匹配,其中該最短距離雷達偵測點的該第一位置座標與該至少一車輛的該第二位置座標之間的距離小於該些雷達偵測點中任一其餘者的該第一位置座標與該至少一車輛的該第二位置座標之間的距離。
- 如請求項1所述之混合式車輛偵測系統,其中當該第一位置座標與該第二位置座標之間的距離小於該預設距離時,或當該至少一雷達偵測點與該至少一車輛匹配時,該處理器將該至少一雷達偵測點的資料與該影像中的該至少一車輛的資料進行混合式的關聯融合。
- 如請求項4所述之混合式車輛偵測系統,其中該混合式的關聯融合將該至少一雷達偵測點的橫向速度與縱向速度做為融合後的橫向速度與融合後的縱向速度,將該影像中所偵測到的該至少一車輛的種類做為融合後的種類,將該至少一雷達偵測點的縱向距離做為融合後的縱向距離,將該至少一雷達偵測點的歐式距離乘以融合角度的餘弦函數以做為融合後的橫向距離,其中該融合角度係該影像所能探測到的視野角度除以該影像的邊界框的中心點的橫向像素位置。
- 一種混合式車輛偵測方法,包含以下步驟: 透過一雷達偵測至少一雷達偵測點,該至少一雷達偵測點具有三維座標系下的一第一位置座標; 透過一相機擷取一影像; 透過一處理器對該影像執行一影像測距,藉以將該影像中的至少一車輛的位置轉換成該三維座標系下的一第二位置座標; 透過該處理器判斷該第一位置座標與該第二位置座標之間的距離是否小於一預設距離;以及 當該第一位置座標與該第二位置座標之間的距離未小於該預設距離時,透過該處理器將該至少一雷達偵測點映射在該影像上以判斷該至少一雷達偵測點與該影像中的該至少一車輛是否匹配。
- 如請求項6所述之混合式車輛偵測方法,更包含: 透過該處理器判斷該至少一雷達偵測點是否映射到該至少一車輛的一預設容許範圍中;以及 當該至少一雷達偵測點映射到該至少一車輛的該預設容許範圍中時,透過該處理器判定該至少一雷達偵測點與該至少一車輛匹配。
- 如請求項7所述之混合式車輛偵測方法,其中該至少一雷達偵測點包含複數個雷達偵測點,該混合式車輛偵測方法更包含: 當該些雷達偵測點皆映射到該至少一車輛的該預設容許範圍中時,透過該處理器自該些雷達偵測點中選擇一最短距的離雷達偵測點與該至少一車輛匹配,其中該最短距離的雷達偵測點的該第一位置座標與該至少一車輛的該第二位置座標之間的距離小於該些雷達偵測點中任一其餘者的該第一位置座標與該至少一車輛的該第二位置座標之間的距離。
- 如請求項6所述之混合式車輛偵測方法,更包含: 當該第一位置座標與該第二位置座標之間的距離小於該預設距離時,或當該至少一雷達偵測點與該至少一車輛匹配時,透過該處理器將該至少一雷達偵測點的資料與該影像中的該至少一車輛的資料進行混合式的關聯融合。
- 如請求項9所述之混合式車輛偵測方法,其中該混合式的關聯融合將該至少一雷達偵測點的橫向速度與縱向速度做為融合後的橫向速度與融合後的縱向速度,將該影像中所偵測到的該至少一車輛的種類做為融合後的種類,將該至少一雷達偵測點的縱向距離做為融合後的縱向距離,將該至少一雷達偵測點的歐式距離乘以融合角度的餘弦函數以做為融合後的橫向距離,其中該融合角度係該影像所能探測到的視野角度除以該影像的邊界框的中心點的橫向像素位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW111140093A TWI824789B (zh) | 2022-10-21 | 2022-10-21 | 混合式車輛偵測系統與混合式車輛偵測方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW111140093A TWI824789B (zh) | 2022-10-21 | 2022-10-21 | 混合式車輛偵測系統與混合式車輛偵測方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI824789B TWI824789B (zh) | 2023-12-01 |
TW202417291A true TW202417291A (zh) | 2024-05-01 |
Family
ID=90053010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111140093A TWI824789B (zh) | 2022-10-21 | 2022-10-21 | 混合式車輛偵測系統與混合式車輛偵測方法 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI824789B (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109747530A (zh) * | 2017-11-02 | 2019-05-14 | 郭宇铮 | 一种双摄像头和毫米波融合汽车感知系统 |
CN109709541A (zh) * | 2018-12-26 | 2019-05-03 | 杭州奥腾电子股份有限公司 | 一种车载环境感知融合系统目标误检处理方法 |
CN110371108B (zh) * | 2019-06-14 | 2020-12-15 | 浙江零跑科技有限公司 | 车载超声波雷达与车载环视系统融合方法 |
US11210535B1 (en) * | 2020-08-17 | 2021-12-28 | Ford Global Technologies, Llc | Sensor fusion |
TWI774543B (zh) * | 2021-08-31 | 2022-08-11 | 財團法人車輛研究測試中心 | 障礙物偵測方法 |
-
2022
- 2022-10-21 TW TW111140093A patent/TWI824789B/zh active
Also Published As
Publication number | Publication date |
---|---|
TWI824789B (zh) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11854272B2 (en) | Hazard detection from a camera in a scene with moving shadows | |
US11615709B2 (en) | Image generating apparatus, image generating method, and recording medium | |
JP6522076B2 (ja) | 側方の車両測位のための方法、装置、記憶媒体及びプログラム製品 | |
US10620000B2 (en) | Calibration apparatus, calibration method, and calibration program | |
US11393126B2 (en) | Method and apparatus for calibrating the extrinsic parameter of an image sensor | |
JP6795027B2 (ja) | 情報処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム | |
JP3868876B2 (ja) | 障害物検出装置及び方法 | |
LU502288B1 (en) | Method and system for detecting position relation between vehicle and lane line, and storage medium | |
JP2008186246A (ja) | 移動物体認識装置 | |
JP2011215063A (ja) | カメラ姿勢パラメータ推定装置 | |
CN112489136B (zh) | 标定方法、位置确定方法、装置、电子设备及存储介质 | |
JP2013203337A (ja) | 運転支援装置 | |
JP2008262333A (ja) | 路面判別装置および路面判別方法 | |
JP4344860B2 (ja) | ステレオ画像を用いた道路平面領域並びに障害物検出方法 | |
KR102003387B1 (ko) | 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체 | |
US9384576B2 (en) | Method and device for computing a change in an image scale of an object | |
Itu et al. | An efficient obstacle awareness application for android mobile devices | |
US10643077B2 (en) | Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program | |
TW202417291A (zh) | 混合式車輛偵測系統與混合式車輛偵測方法 | |
JP2007233487A (ja) | 歩行者検出方法、装置、およびプログラム | |
JP7064400B2 (ja) | 物体検知装置 | |
EP2919191B1 (en) | Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value producing method | |
KR102681321B1 (ko) | 듀얼 카메라를 이용하여 거리를 계산하는 고속도로 주행지원 시스템의 성능 평가 장치와 그 방법 | |
CN112580402A (zh) | 一种单目视觉行人测距方法及其系统、车辆、介质 | |
JP2005030968A (ja) | 車載用距離算出装置 |