TWI824789B - 混合式車輛偵測系統與混合式車輛偵測方法 - Google Patents

混合式車輛偵測系統與混合式車輛偵測方法 Download PDF

Info

Publication number
TWI824789B
TWI824789B TW111140093A TW111140093A TWI824789B TW I824789 B TWI824789 B TW I824789B TW 111140093 A TW111140093 A TW 111140093A TW 111140093 A TW111140093 A TW 111140093A TW I824789 B TWI824789 B TW I824789B
Authority
TW
Taiwan
Prior art keywords
radar detection
vehicle
distance
detection point
image
Prior art date
Application number
TW111140093A
Other languages
English (en)
Other versions
TW202417291A (zh
Inventor
許志明
吳哲佑
Original Assignee
國立臺北科技大學
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 國立臺北科技大學 filed Critical 國立臺北科技大學
Priority to TW111140093A priority Critical patent/TWI824789B/zh
Application granted granted Critical
Publication of TWI824789B publication Critical patent/TWI824789B/zh
Publication of TW202417291A publication Critical patent/TW202417291A/zh

Links

Images

Landscapes

  • Automobile Manufacture Line, Endless Track Vehicle, Trailer (AREA)
  • Emergency Alarm Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本發明提出一種混合式車輛偵測方法,其包含以下步驟。透過雷達偵測至少一雷達偵測點,至少一雷達偵測點具有三維座標系下的第一位置座標;透過相機擷取影像;透過處理器對影像執行影像測距,藉以將影像中的至少一車輛的位置轉換成三維座標系下的第二位置座標;透過處理器判斷第一位置座標與第二位置座標之間的距離是否小於預設距離;當第一位置座標與第二位置座標之間的距離未小於預設距離時,透過處理器將至少一雷達偵測點映射在影像上以判斷至少一雷達偵測點與影像中的至少一車輛是否匹配。

Description

混合式車輛偵測系統與混合式車輛偵測方法
本發明是有關於一種系統與方法,且特別是有關於一種混合式車輛偵測系統與混合式車輛偵測方法。
在汽車行駛相關的主要安全問題一直是駕駛員的困擾,人為錯誤是大多數交通相關事故的原因。為了盡量減少不可避免的人為錯誤的危險,汽車製造商已經開始在車輛上加裝感測器,讓車輛能夠解讀周圍環境。
然而,感測器從來都不是完美的,汽車可能遇到的場景數量幾乎是無窮無盡的,僅靠單個感測器難以應付現實中的場景。
本發明提出一種混合式車輛偵測系統與混合式車輛偵測方法,改善先前技術的問題。
在本發明的一實施例中,本發明所提出的混合式車輛偵測系統包含雷達、相機以及處理器,處理器電性連接雷達與相機。雷達偵測至少一雷達偵測點,至少一雷達偵測點具有三維座標系下的第一位置座標。相機擷取影像。 處理器對影像執行影像測距,藉以將影像中的至少一車輛的位置轉換成三維座標系下的第二位置座標,處理器判斷第一位置座標與第二位置座標之間的距離是否小於預設距離,當第一位置座標與第二位置座標之間的距離未小於預設距離時,處理器將至少一雷達偵測點映射在影像上以判斷至少一雷達偵測點與影像中的至少一車輛是否匹配。
在本發明的一實施例中,處理器判斷至少一雷達偵測點是否映射到至少一車輛的預設容許範圍中,當至少一雷達偵測點映射到至少一車輛的預設容許範圍中時,處理器判定至少一雷達偵測點與至少一車輛匹配。
在本發明的一實施例中,至少一雷達偵測點包含複數個雷達偵測點,當複數個雷達偵測點皆映射到至少一車輛的預設容許範圍中時,處理器自複數個雷達偵測點中選擇最短距離的雷達偵測點與至少一車輛匹配,其中最短距離雷達偵測點的第一位置座標與至少一車輛的第二位置座標之間的距離小於複數個雷達偵測點中任一其餘者的第一位置座標與該至少一車輛的第二位置座標之間的距離。
在本發明的一實施例中,當第一位置座標與第二位置座標之間的距離小於預設距離時,或當至少一雷達偵測點與至少一車輛匹配時,處理器將至少一雷達偵測點的資料與影像中的至少一車輛的資料進行混合式的關聯融合。
在本發明的一實施例中,混合式的關聯融合將至少一雷達偵測點的橫向速度與縱向速度做為融合後的橫向速度與融合後的縱向速度,將影像中所偵測到的至少一車輛的種類做為融合後的種類,將至少一雷達偵測點的縱向距離做為融合後的縱向距離,將至少一雷達偵測點的歐式距離乘以融合角度的餘弦函數以做為融合後的橫向距離,其中融合角度係影像所能探測到的視野角度除以影像的邊界框的中心點的橫向像素位置。
在本發明的一實施例中,本發明所提出的混合式車輛偵測方法包含以下步驟:透過雷達偵測至少一雷達偵測點,至少一雷達偵測點具有三維座標系下的第一位置座標;透過相機擷取影像;透過處理器對影像執行影像測距,藉以將影像中的至少一車輛的位置轉換成三維座標系下的第二位置座標;透過處理器判斷第一位置座標與第二位置座標之間的距離是否小於預設距離;當第一位置座標與第二位置座標之間的距離未小於預設距離時,透過處理器將至少一雷達偵測點映射在影像上以判斷至少一雷達偵測點與影像中的至少一車輛是否匹配。
在本發明的一實施例中,混合式車輛偵測方法更包含:透過處理器判斷至少一雷達偵測點是否映射到至少一車輛的預設容許範圍中;當至少一雷達偵測點映射到至少一車輛的預設容許範圍中時,透過處理器判定至少一雷達偵測點與至少一車輛匹配。
在本發明的一實施例中,至少一雷達偵測點包含複數個雷達偵測點,混合式車輛偵測方法更包含:當複數個雷達偵測點皆映射到至少一車輛的預設容許範圍中時,處理器自複數個雷達偵測點中選擇最短距離的雷達偵測點與至少一車輛匹配,其中最短距離雷達偵測點的第一位置座標與至少一車輛的第二位置座標之間的距離小於複數個雷達偵測點中任一其餘者的該第一位置座標與至少一車輛的第二位置座標之間的距離。
在本發明的一實施例中,混合式車輛偵測方法,更包含:當第一位置座標與第二位置座標之間的距離小於預設距離時,或當至少一雷達偵測點與至少一車輛匹配時,透過處理器將至少一雷達偵測點的資料與影像中的至少一車輛的資料進行混合式的關聯融合。
在本發明的一實施例中,混合式的關聯融合將至少一雷達偵測點的橫向速度與縱向速度做為融合後的橫向速度與融合後的縱向速度,將影像中所偵測到的至少一車輛的種類做為融合後的種類,將至少一雷達偵測點的縱向距離做為融合後的縱向距離,將至少一雷達偵測點的歐式距離乘以融合角度的餘弦函數以做為融合後的橫向距離,其中融合角度係影像所能探測到的視野角度除以影像的邊界框的中心點的橫向像素位置。
綜上所述,本發明之技術方案與現有技術相比具有明顯的優點和有益效果。藉由本發明的混合式車輛偵測系統與混合式車輛偵測方法,使用雷達與相機融合,相機可以對目標提供精準的物件分類,還有具有良好的水平分辨率,而雷達的測距精度高,能夠直接探測物體速度,且對環境的影響受限小,雷達與相機互相彌補彼此不足的地方,能夠更精準的在各個情況下提供正確的物體狀態資訊。再者,本發明的混合式車輛偵測系統與混合式車輛偵測方法,結合了距離和映射的關聯融合,提供更高的關聯融合率。
以下將以實施方式對上述之說明作詳細的描述,並對本發明之技術方案提供更進一步的解釋。
為了使本發明之敘述更加詳盡與完備,可參照所附之圖式及以下所述各種實施例,圖式中相同之號碼代表相同或相似之元件。另一方面,眾所週知的元件與步驟並未描述於實施例中,以避免對本發明造成不必要的限制。
請參照第1圖,本發明之技術態樣是一種混合式車輛偵測系統100,其可應用在車輛、車用電子設備,或是廣泛地運用在相關之技術環節。本技術態樣之混合式車輛偵測系統100可達到相當的技術進步,並具有産業上的廣泛利用價值。以下將搭配第1圖來說明混合式車輛偵測系統100之具體實施方式。
應瞭解到,混合式車輛偵測系統100的多種實施方式搭配第1圖進行描述。於以下描述中,為了便於解釋,進一步設定許多特定細節以提供一或多個實施方式的全面性闡述。然而,本技術可在沒有這些特定細節的情況下實施。於其他舉例中,為了有效描述這些實施方式,已知結構與裝置以方塊圖形式顯示。此處使用的「舉例而言」的用語,以表示「作為例子、實例或例證」的意思。此處描述的作為「舉例而言」的任何實施例,無須解讀為較佳或優於其他實施例。
第1圖是依照本發明一實施例之一種混合式車輛偵測系統100的方塊圖。如第1圖所示,混合式車輛偵測系統100包含雷達110、處理器120、相機130、顯示器180以及儲存裝置190。舉例而言,儲存裝置190可為硬碟、快閃記憶體或其他儲存媒介,處理器120可為中央處理器、控制器或其他電路,相機130可為彩色相機、單眼相機或其他電子相機,顯示器180可為車用顯示器,雷達110可為毫米波雷達。
在架構上,處理器120電性連接儲存裝置190,雷達110電性連接處理器120,顯示器180電性連接處理器120,處理器120電性連接相機130。應瞭解到,於實施方式與申請專利範圍中,涉及『電性連接』之描述,其可泛指一元件透過其他元件而間接電氣耦合至另一元件,或是一元件無須透過其他元件而直接電連結至另一元件。舉例而言,雷達110可為內建雷達直接電連結至處理器120,或是雷達110可為外接雷達透過線路間接連線至處理器120。
為了對上述混合式車輛偵測系統100的機制做更進一步的闡述,請同時參照第1、2A、2B圖,第2A圖是依照本發明一實施例之一種距離融合的示意圖,第2B圖是依照本發明一實施例之一種映射融合的示意圖。
於使用時,雷達110偵測雷達偵測點221、222、223(即,所偵測到的物體),雷達偵測點221、222、223分別具有三維座標系下的位置座標。實作上,舉例而言,雷達110所接收到的資料有可能包含著雜訊或是不感興趣的雷達偵測點,所以在進行追蹤前處理器120可先進行雷達偵測點的前處理,過濾掉部分的雷達偵測點。首先,處理器120設定雷達偵測點的邊界範圍作篩選,濾除掉過遠的雷達偵測點,前述邊界範圍例如可匹配於相機的視野範圍200。接者,處理器120針對雷達110所給的存在概率進行篩選,當物體的存在概率小於約75%就會當作雜點。接者,處理器120進一步區分物體的狀態,是否為動態物或是靜態物,會利用自車速度和物體速度進行區分,由於雷達所偵測到的速度資訊為相對速度,若是自車在行進中,所探測到靜態物的相對速度會相對較大,動態物則相對較小,以此則可以進一步區分物體為動態物或靜態物。最後,處理器120會根據雷達點追蹤,設定雷達點的保留幀,會連續觀察大約3 幀,當那個雷達偵測點持續被追蹤到3幀,代表可能為真實的一個物體而不是雜點。
應瞭解到,本文中所使用之『約』、『大約』或『大致』係用以修飾任何可些微變化的數量,但這種些微變化並不會改變其本質。於實施方式中若無特別說明,則代表以『約』、『大約』或『大致』所修飾之數值的誤差範圍一般是容許在百分之二十以內,較佳地是於百分之十以內,而更佳地則是於百分五之以內。
另一方面,相機130擷取影像230。實作上,舉例而言,相機130在其視野範圍200內擷取影像230。
儲存裝置190可儲存程式指令,處理器120執行程式指令以完成實現如第2A圖所示的距離融合與/或如第2B圖所示的映射融合。具體而言,處理器120對影像230執行影像測距,藉以將影像中的車輛211、212的位置轉換成三維座標系下的位置座標。實作上,舉例而言,處理器120可先對影像執行物件辨識以識別出車輛211、212,接著對影像執行影像測距(如:習知或開發中的影像測距模型)以利用相機130離地高度、相機130焦距、消失面231(如:地平線、天際線…等)、車輛211、212底部的橫軸、影像中的車輛211、212的車寬、車輛211、212的真實車寬…等資訊,將影像230中的車輛211、212的位置轉換成三維座標系下的位置座標。藉此,車輛211、212的位置座標與雷達偵測點211、212、213的位置座標皆在同一個三維座標系,以實現第2A圖的距離融合。
參照第1、2A圖,處理器110判斷車輛211、212的位置座標與雷達偵測點221、222、223的位置座標之間的距離是否約小於預設距離。
於第2A圖中,車輛211的位置座標與雷達偵測點221的位置座標之間的距離小於預設距離,除此之外,車輛211的位置座標與雷達偵測點223的位置座標之間的距離大於預設距離,車輛212的位置座標與雷達偵測點222的位置座標之間的距離大於預設距離,車輛212的位置座標與雷達偵測點223的位置座標之間的距離大於預設距離。因此,在距離融合中,車輛211與雷達偵測點221相匹配。
關於映射融合,參照第1、2B圖,當車輛211、212中有至少一者的位置座標與雷達偵測點221、222、223中有至少一者的位置座標之間的距離未小於預設距離時,處理器120將雷達偵測點221、222、223映射在影像230上以判斷雷達偵測點221、222、223與影像230中的車輛211、212是否匹配。
在本發明的一實施例中,處理器120判斷雷達偵測點222是否映射到車輛212的預設容許範圍252中,當雷達偵測點222是否映射到車輛212的預設容許範圍252中時,處理器120判定雷達偵測點222與車輛212匹配,以實現第2B圖的映射融合。
在本發明的一實施例中,當雷達偵測點221、223皆映射到車輛211的預設容許範圍251中時,處理器120自雷達偵測點221、223中選擇最短距離的雷達偵測點221與車輛211匹配,其中最短距離雷達偵測點221的位置座標與車輛211的位置座標之間的距離小於其餘的雷達偵測點223的位置座標與車輛211的位置座標之間的距離。或者或再者,在本發明的另一實施例中,由於雷達偵測點221與車輛211已在第2A圖的距離融合中匹配,即便在第2B圖的映射融合中其餘的雷達偵測點223映射到車輛211的預設容許範圍251中,處理器120亦可自動排除雷達偵測點223,將雷達偵測點223視為被車輛211所遮蔽的前車。
實作上,舉例而言,預設容許範圍251可包圍車輛211,預設容許範圍252可包圍車輛212,至於預設容許範圍的形狀、大小與範圍,本領域具有通知知識者可基於實際狀況彈性設定之。
關於第2A圖的距離融合,在本發明的一實施例中,當雷達偵測點221的位置座標與車輛211的位置座標之間的距離小於預設距離時,處理器120將雷達偵測點221的資料與影像230中的車輛211的資料進行混合式的關聯融合。另外,關於第2B圖的映射融合,在本發明的一實施例中,當雷達偵測點222與車輛212匹配時,處理器120將雷達偵測點222的資料與影像230中的車輛212的資料進行混合式的關聯融合。
關於上述混合式的關聯融合,在本發明的一實施例中,雷達偵測點221與車輛211的混合式的關聯融合將雷達偵測點221的橫向速度與縱向速度做為融合後的橫向速度與融合後的縱向速度,將影像230中所偵測到的車輛211的種類(如:車型)做為融合後的種類,將雷達偵測點221的縱向距離做為融合後的縱向距離,將雷達偵測點221的歐式距離乘以融合角度的餘弦函數以做為融合後的橫向距離,其中融合角度係影像230所能探測到的視野角度除以影像230的邊界框232的中心點的橫向像素位置。
同理,在本發明的一實施例中,雷達偵測點222與車輛212的混合式的關聯融合將雷達偵測點222的橫向速度與縱向速度做為融合後的橫向速度與融合後的縱向速度,將影像230中所偵測到的車輛212的種類(如:車型)做為融合後的種類,將雷達偵測點222的縱向距離做為融合後的縱向距離,將雷達偵測點222的歐式距離乘以融合角度的餘弦函數以做為融合後的橫向距離,其中融合角度係影像230所能探測到的視野角度除以影像230的邊界框232的中心點的橫向像素位置。
於使用時,處理器120令顯示器180於影像230中的車輛211、212周圍呈現對應的混合式的關聯融合的資訊,藉以讓駕駛人知道更充足的行車資訊。
為了對上述混合式車輛偵測系統100的混合式車輛偵測方法做更進一步的闡述,請同時參照第1~3圖,第3圖是依照本發明一實施例之一種混合式車輛偵測方法300的流程圖。如第3圖所示,混合式車輛偵測方法300包含步驟S301~S307(應瞭解到,在本實施例中所提及的步驟,除特別敘明其順序者外,均可依實際需要調整其前後順序,甚至可同時或部分同時執行)。
混合式車輛偵測方法300可以採用非暫態電腦可讀取記錄媒體上的電腦程式產品的形式,此電腦可讀取記錄媒體具有包含在介質中的電腦可讀取的複數個指令。適合的記錄媒體可以包括以下任一者:非揮發性記憶體,例如:唯讀記憶體(ROM)、可程式唯讀記憶體(PROM)、可抹拭可程式唯讀記憶體(EPROM)、電子抹除式可程式唯讀記憶體(EEPROM);揮發性記憶體,例如:靜態存取記憶體(SRAM)、動態存取記憶體(DRAM)、雙倍資料率隨機存取記憶體(DDR-RAM);光學雷達,例如:唯讀光碟(CD-ROM)、唯讀數位多功能影音光碟(DVD-ROM);磁性雷達,例如:硬碟機、軟碟機。
於步驟S301,執行距離融合。在本發明的一實施例中,透過雷達110偵測雷達偵測點221、222、223,雷達偵測點221、222、223分別具有三維座標系下的位置座標;透過相機130擷取影像230;透過處理器120對影像230執行影像測距,藉以將影像中的車輛211、212的位置轉換成三維座標系下的位置座標;透過處理器120判斷車輛211、212的位置座標與雷達偵測點221、222、223的位置座標之間的距離是否約小於預設距離。
於步驟S302,車輛211的位置座標與雷達偵測點221的位置座標之間的距離小於預設距離,透過處理器120判定車輛211與雷達偵測點221相匹配。
於步驟S307,當雷達偵測點221的位置座標與車輛211的位置座標之間的距離小於預設距離時,透過處理器120將雷達偵測點221的資料與影像230中的車輛211的資料進行混合式的關聯融合。在本發明的一實施例中,雷達偵測點221與車輛211的混合式的關聯融合將雷達偵測點221的橫向速度與縱向速度做為融合後的橫向速度與融合後的縱向速度,將影像230中所偵測到的車輛211的種類(如:車型)做為融合後的種類,將雷達偵測點221的縱向距離做為融合後的縱向距離,將雷達偵測點221的歐式距離乘以融合角度的餘弦函數以做為融合後的橫向距離,其中融合角度係影像230所能探測到的視野角度除以影像230的邊界框232的中心點的橫向像素位置。
於步驟S303,雷達110不匹配。舉例而言,車輛212的位置座標與雷達偵測點222的位置座標之間的距離大於預設距離,且車輛212與雷達偵測點222橫向差距較大,有可能是雷達110橫向測距比較粗略所致,因此,車輛212與雷達偵測點222之間的不匹配可歸類為雷達110不匹配,但本發明不已此為限。
於步驟S304,影像230不匹配。舉例而言,車輛211的位置座標與雷達偵測點223的位置座標之間的距離大於預設距離,且車輛211與雷達偵測點223縱向差距較大,有可能是透過相機130的縱向測距比較粗略且易受路況影響不穩定所致,因此,車輛211與雷達偵測點223可歸類為影像230不匹配,但本發明不已此為限。
於步驟S305,執行映射融合。具體而言,透過處理器120將雷達偵測點221、222、223映射在影像230上以判斷雷達偵測點221、222、223與影像230中的車輛211、212是否匹配。
在本發明的一實施例中,透過處理器120判斷雷達偵測點222是否映射到車輛212的預設容許範圍252中,當雷達偵測點222是否映射到車輛212的預設容許範圍252中時,於步驟S306,透過處理器120判定雷達偵測點222與車輛212匹配。
於步驟S307,當雷達偵測點222的位置座標與車輛212的位置座標之間的距離小於預設距離時,透過處理器120將雷達偵測點222的資料與影像230中的車輛212的資料進行混合式的關聯融合。在本發明的一實施例中,雷達偵測點222與車輛212的混合式的關聯融合將雷達偵測點222的橫向速度與縱向速度做為融合後的橫向速度與融合後的縱向速度,將影像230中所偵測到的車輛212的種類(如:車型)做為融合後的種類,將雷達偵測點222的縱向距離做為融合後的縱向距離,將雷達偵測點222的歐式距離乘以融合角度的餘弦函數以做為融合後的橫向距離,其中融合角度係影像230所能探測到的視野角度除以影像230的邊界框232的中心點的橫向像素位置。
另一方面,於步驟S305,在本發明的一實施例中,當雷達偵測點221、223皆映射到車輛211的預設容許範圍251中時,於步驟S306,透過處理器120自雷達偵測點221、223中選擇最短距離的雷達偵測點221與車輛211匹配,其中最短距離雷達偵測點221的位置座標與車輛211的位置座標之間的距離小於其餘的雷達偵測點223的位置座標與車輛211的位置座標之間的距離。或者或再者,在本發明的另一實施例中,由於雷達偵測點221與車輛211已在步驟S302中匹配,即便在步驟S305的映射融合中其餘的雷達偵測點223映射到車輛211的預設容許範圍251中,透過處理器120亦可自動排除雷達偵測點223,將雷達偵測點223視為被車輛211所遮蔽的前車。
綜上所述,本發明之技術方案與現有技術相比具有明顯的優點和有益效果。藉由本發明的混合式車輛偵測系統100與混合式車輛偵測方法300,使用雷達110與相機130融合,相機130可以對目標提供精準的物件分類,還有具有良好的水平分辨率,而雷達110的測距精度高,能夠直接探測物體速度,且對環境的影響受限小,雷達110與相機130互相彌補彼此不足的地方,能夠更精準的在各個情況下提供正確的物體狀態資訊。再者,本發明的混合式車輛偵測系統100與混合式車輛偵測方法300,結合了距離和映射的關聯融合,提供更高的關聯融合率。
雖然本發明已以實施方式揭露如上,然其並非用以限定本發明,任何熟習此技藝者,在不脫離本發明之精神和範圍內,當可作各種之更動與潤飾,因此本發明之保護範圍當視後附之申請專利範圍所界定者為準。
為讓本發明之上述和其他目的、特徵、優點與實施例能更明顯易懂,所附符號之說明如下:
100:混合式車輛偵測系統
110:雷達
120:處理器
130:相機
180:顯示器
190:儲存裝置
200:視野範圍
211:車輛
212:車輛
221:雷達偵測點
222:雷達偵測點
223:雷達偵測點
230:影像
231:消失面
232:邊界框
252:預設容許範圍
300:混合式車輛偵測方法
S301~S307:步驟
為讓本發明之上述和其他目的、特徵、優點與實施例能更明顯易懂,所附圖式之說明如下: 第1圖是依照本發明一實施例之一種混合式車輛偵測系統的方塊圖; 第2A圖是依照本發明一實施例之一種距離融合的示意圖; 第2B圖是依照本發明一實施例之一種映射融合的示意圖;以及 第3圖是依照本發明一實施例之一種混合式車輛偵測方法的流程圖。
300:混合式車輛偵測方法
S301~S307:步驟

Claims (10)

  1. 一種混合式車輛偵測系統,包含: 一雷達,偵測至少一雷達偵測點,該至少一雷達偵測點具有三維座標系下的一第一位置座標; 一相機,擷取一影像;以及 一處理器,電性連接該雷達與該相機,該處理器對該影像執行一影像測距,藉以將該影像中的至少一車輛的位置轉換成該三維座標系下的一第二位置座標,該處理器判斷該第一位置座標與該第二位置座標之間的距離是否小於一預設距離,當該第一位置座標與該第二位置座標之間的距離未小於該預設距離時,該處理器將該至少一雷達偵測點映射在該影像上以判斷該至少一雷達偵測點與該影像中的該至少一車輛是否匹配。
  2. 如請求項1所述之混合式車輛偵測系統,其中該處理器判斷該至少一雷達偵測點是否映射到該至少一車輛的一預設容許範圍中,當該至少一雷達偵測點映射到該至少一車輛的該預設容許範圍中時,該處理器判定該至少一雷達偵測點與該至少一車輛匹配。
  3. 如請求項2所述之混合式車輛偵測系統,其中該至少一雷達偵測點包含複數個雷達偵測點,當該些雷達偵測點皆映射到該至少一車輛的該預設容許範圍中時,該處理器自該些雷達偵測點中選擇一最短距離的雷達偵測點與該至少一車輛匹配,其中該最短距離雷達偵測點的該第一位置座標與該至少一車輛的該第二位置座標之間的距離小於該些雷達偵測點中任一其餘者的該第一位置座標與該至少一車輛的該第二位置座標之間的距離。
  4. 如請求項1所述之混合式車輛偵測系統,其中當該第一位置座標與該第二位置座標之間的距離小於該預設距離時,或當該至少一雷達偵測點與該至少一車輛匹配時,該處理器將該至少一雷達偵測點的資料與該影像中的該至少一車輛的資料進行混合式的關聯融合。
  5. 如請求項4所述之混合式車輛偵測系統,其中該混合式的關聯融合將該至少一雷達偵測點的橫向速度與縱向速度做為融合後的橫向速度與融合後的縱向速度,將該影像中所偵測到的該至少一車輛的種類做為融合後的種類,將該至少一雷達偵測點的縱向距離做為融合後的縱向距離,將該至少一雷達偵測點的歐式距離乘以融合角度的餘弦函數以做為融合後的橫向距離,其中該融合角度係該影像所能探測到的視野角度除以該影像的邊界框的中心點的橫向像素位置。
  6. 一種混合式車輛偵測方法,包含以下步驟: 透過一雷達偵測至少一雷達偵測點,該至少一雷達偵測點具有三維座標系下的一第一位置座標; 透過一相機擷取一影像; 透過一處理器對該影像執行一影像測距,藉以將該影像中的至少一車輛的位置轉換成該三維座標系下的一第二位置座標; 透過該處理器判斷該第一位置座標與該第二位置座標之間的距離是否小於一預設距離;以及 當該第一位置座標與該第二位置座標之間的距離未小於該預設距離時,透過該處理器將該至少一雷達偵測點映射在該影像上以判斷該至少一雷達偵測點與該影像中的該至少一車輛是否匹配。
  7. 如請求項6所述之混合式車輛偵測方法,更包含: 透過該處理器判斷該至少一雷達偵測點是否映射到該至少一車輛的一預設容許範圍中;以及 當該至少一雷達偵測點映射到該至少一車輛的該預設容許範圍中時,透過該處理器判定該至少一雷達偵測點與該至少一車輛匹配。
  8. 如請求項7所述之混合式車輛偵測方法,其中該至少一雷達偵測點包含複數個雷達偵測點,該混合式車輛偵測方法更包含: 當該些雷達偵測點皆映射到該至少一車輛的該預設容許範圍中時,透過該處理器自該些雷達偵測點中選擇一最短距的離雷達偵測點與該至少一車輛匹配,其中該最短距離的雷達偵測點的該第一位置座標與該至少一車輛的該第二位置座標之間的距離小於該些雷達偵測點中任一其餘者的該第一位置座標與該至少一車輛的該第二位置座標之間的距離。
  9. 如請求項6所述之混合式車輛偵測方法,更包含: 當該第一位置座標與該第二位置座標之間的距離小於該預設距離時,或當該至少一雷達偵測點與該至少一車輛匹配時,透過該處理器將該至少一雷達偵測點的資料與該影像中的該至少一車輛的資料進行混合式的關聯融合。
  10. 如請求項9所述之混合式車輛偵測方法,其中該混合式的關聯融合將該至少一雷達偵測點的橫向速度與縱向速度做為融合後的橫向速度與融合後的縱向速度,將該影像中所偵測到的該至少一車輛的種類做為融合後的種類,將該至少一雷達偵測點的縱向距離做為融合後的縱向距離,將該至少一雷達偵測點的歐式距離乘以融合角度的餘弦函數以做為融合後的橫向距離,其中該融合角度係該影像所能探測到的視野角度除以該影像的邊界框的中心點的橫向像素位置。
TW111140093A 2022-10-21 2022-10-21 混合式車輛偵測系統與混合式車輛偵測方法 TWI824789B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW111140093A TWI824789B (zh) 2022-10-21 2022-10-21 混合式車輛偵測系統與混合式車輛偵測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW111140093A TWI824789B (zh) 2022-10-21 2022-10-21 混合式車輛偵測系統與混合式車輛偵測方法

Publications (2)

Publication Number Publication Date
TWI824789B true TWI824789B (zh) 2023-12-01
TW202417291A TW202417291A (zh) 2024-05-01

Family

ID=90053010

Family Applications (1)

Application Number Title Priority Date Filing Date
TW111140093A TWI824789B (zh) 2022-10-21 2022-10-21 混合式車輛偵測系統與混合式車輛偵測方法

Country Status (1)

Country Link
TW (1) TWI824789B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109709541A (zh) * 2018-12-26 2019-05-03 杭州奥腾电子股份有限公司 一种车载环境感知融合系统目标误检处理方法
CN109747530A (zh) * 2017-11-02 2019-05-14 郭宇铮 一种双摄像头和毫米波融合汽车感知系统
CN110371108A (zh) * 2019-06-14 2019-10-25 浙江零跑科技有限公司 车载超声波雷达与车载环视系统融合方法
CN114074666A (zh) * 2020-08-17 2022-02-22 福特全球技术公司 传感器融合
TWI774543B (zh) * 2021-08-31 2022-08-11 財團法人車輛研究測試中心 障礙物偵測方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109747530A (zh) * 2017-11-02 2019-05-14 郭宇铮 一种双摄像头和毫米波融合汽车感知系统
CN109709541A (zh) * 2018-12-26 2019-05-03 杭州奥腾电子股份有限公司 一种车载环境感知融合系统目标误检处理方法
CN110371108A (zh) * 2019-06-14 2019-10-25 浙江零跑科技有限公司 车载超声波雷达与车载环视系统融合方法
CN114074666A (zh) * 2020-08-17 2022-02-22 福特全球技术公司 传感器融合
TWI774543B (zh) * 2021-08-31 2022-08-11 財團法人車輛研究測試中心 障礙物偵測方法

Also Published As

Publication number Publication date
TW202417291A (zh) 2024-05-01

Similar Documents

Publication Publication Date Title
JP6522076B2 (ja) 側方の車両測位のための方法、装置、記憶媒体及びプログラム製品
CN112292711B (zh) 关联lidar数据和图像数据
US11183067B2 (en) Image generating apparatus, image generating method, and recording medium
CN108352056B (zh) 用于校正错误深度信息的系统和方法
CN101910781B (zh) 移动状态推测装置
US11620837B2 (en) Systems and methods for augmenting upright object detection
US8126210B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method
CN106952308B (zh) 运动物体的位置确定方法及系统
JP5455124B2 (ja) カメラ姿勢パラメータ推定装置
US20160098815A1 (en) Imaging surface modeling for camera modeling and virtual view synthesis
EP3671643A1 (en) Method and apparatus for calibrating the extrinsic parameter of an image sensor
US20140362193A1 (en) Distance measuring apparatus and distance measuring method
US7987052B2 (en) Method for evaluation, by motor vehicle, of the characteristics of a front element
CN111572633B (zh) 转向角度检测方法、装置及系统
CN110986887B (zh) 基于单目摄像头的测距方法、存储介质及单目摄像头
CN113869422B (zh) 多相机目标匹配方法、系统、电子设备及可读存储介质
KR102003387B1 (ko) 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체
CN112912895B (zh) 一种检测方法、装置和车辆
EP3629292A1 (en) Reference point selection for extrinsic parameter calibration
TWI824789B (zh) 混合式車輛偵測系統與混合式車輛偵測方法
CN115523929B (zh) 一种基于slam的车载组合导航方法、装置、设备及介质
TW201536609A (zh) 障礙物偵測裝置
US12106492B2 (en) Computer vision system for object tracking and time-to-collision
CN115346191A (zh) 用于校准的方法和设备
CN107082049A (zh) 车辆车窗控制装置