TW202311781A - Obstacle detection method utilizing an obstacle recognition model to recognize obstacle category corresponding to each obstacle - Google Patents
Obstacle detection method utilizing an obstacle recognition model to recognize obstacle category corresponding to each obstacle Download PDFInfo
- Publication number
- TW202311781A TW202311781A TW110132319A TW110132319A TW202311781A TW 202311781 A TW202311781 A TW 202311781A TW 110132319 A TW110132319 A TW 110132319A TW 110132319 A TW110132319 A TW 110132319A TW 202311781 A TW202311781 A TW 202311781A
- Authority
- TW
- Taiwan
- Prior art keywords
- point cloud
- cloud data
- obstacle
- image
- data
- Prior art date
Links
Images
Landscapes
- Geophysics And Detection Of Objects (AREA)
- Image Processing (AREA)
Abstract
Description
本發明是有關於一種障礙物偵測方法,特別是指一種融合不同感測器之障礙物偵測方法。The present invention relates to an obstacle detection method, in particular to an obstacle detection method that integrates different sensors.
移動載具引入越來越多的傳感器和智能算法,不斷增強其環境感知和靈活運動的能力,在各領域上,包含工廠運用AMR(Autonomous Mobile Robot)產業進行倉儲搬運及自駕車在路上運行進行障礙物偵測停止或閃避,皆需要使用到多感測器,如,雷達、光達及攝影機等偵測進而做避障功能。當移動載具行駛在任意路徑上,需要可做閃避障礙物與辨識障礙物種類為最主要之需求。Mobile vehicles introduce more and more sensors and intelligent algorithms to continuously enhance their environmental perception and flexible movement capabilities. In various fields, including factories using AMR (Autonomous Mobile Robot) industry for storage and handling and self-driving cars running on the road Obstacle detection, stop or dodge requires the use of multi-sensors, such as radar, lidar, and cameras for detection and obstacle avoidance. When the mobile vehicle is driving on any path, the most important requirements are to avoid obstacles and identify the types of obstacles.
各感測元件有其不同優勢,現多以異質感知融合運用在各載具平台上。然而,各感測器的感測資料及取樣時間皆不相同,例如,雷達係在每50ms獲得一雷達資料,光達係在每100ms獲得一點雲資料,攝影機係在每33ms拍攝一影像,在感測器差異大時,皆有時間與空間無法同步問題,也無法得知障礙物為何,實有必要提出一解決方案。Each sensing element has its own advantages, and now it is mostly used on various vehicle platforms with heterogeneous sensing fusion. However, the sensing data and sampling time of each sensor are different. For example, the radar system obtains a radar data every 50ms, the lidar system obtains a point cloud data every 100ms, and the camera system takes an image every 33ms. When there are large differences in sensors, there will be a problem that time and space cannot be synchronized, and it is impossible to know what the obstacle is. It is necessary to propose a solution.
因此,本發明的目的,即在提供一種在融合多感測器時進行空間與時間之同步並辨識出障礙物類別的障礙物偵測方法。Therefore, the object of the present invention is to provide an obstacle detection method for synchronizing space and time and identifying obstacle types when multi-sensors are fused.
於是,本發明障礙物偵測方法,藉由一運算裝置來實施,該運算裝置與設置於一移動載具上之一影像拍攝裝置與一光達模組電連接,該影像拍攝裝置用於拍攝位於該移動載具前方之多個障礙物的一連串影像,該光達模組用於獲得位於該移動載具之前方且包含該等障礙物的一連串點雲資料,該障礙物偵測方法包含以下步驟:Therefore, the obstacle detection method of the present invention is implemented by a computing device, and the computing device is electrically connected with an image capturing device installed on a mobile vehicle and a LiDAR module, and the image capturing device is used to capture A series of images of a plurality of obstacles located in front of the mobile vehicle, the lidar module is used to obtain a series of point cloud data located in front of the mobile vehicle and including the obstacles, the obstacle detection method includes the following step:
(A)在接收到該光達模組的該等點雲資料與該影像拍攝裝置的該等影像後,對於每一點雲資料,根據該點雲資料,自該影像拍攝裝置所拍攝之該等影像中獲得一對應該點雲資料的待融合影像;(A) After receiving the point cloud data of the LiDAR module and the images of the image capture device, for each point cloud data, according to the point cloud data, the image captured by the image capture device Obtain a pair of images to be fused corresponding to the point cloud data in the image;
(B) 對於每一待融合影像,獲得早於該待融合影像拍攝的前第N張待合成影像,其中N≧3;(B) For each image to be fused, obtain the Nth image to be synthesized earlier than the image to be fused, where N≧3;
(C) 對於每一點雲資料,根據所對應的該待融合影像與該前第N張待合成影像,獲得一對應該點雲資料的整合影像;(C) For each point cloud data, according to the corresponding image to be fused and the previous Nth image to be synthesized, obtain a pair of integrated images corresponding to the point cloud data;
(D) 對於每一點雲資料,將該點雲資料對齊投影至所對應之該整合影像;及(D) For each point cloud data, align and project the point cloud data to the corresponding integrated image; and
(E)對於每一點雲資料,根據經步驟(D)之對齊投影後的該點雲資料與該整合影像,利用一障礙物辨識模型,辨識出位於該移動載具前方之每一障礙物對應的障礙物類別。(E) For each point cloud data, according to the point cloud data and the integrated image after the aligned projection in step (D), use an obstacle recognition model to identify the correspondence of each obstacle located in front of the mobile vehicle obstacle category.
本發明的功效在於:藉由該運算裝置自該影像拍攝裝置所拍攝之該等影像中獲得對應該點雲資料的該待融合影像,並根據所對應的待融合影像與前第N張待合成影像獲得該整合影像,且將該點雲資料對齊投影至所對應之整合影像,以達成在融合該光達模組與該影像拍攝裝置之感測資料時進行空間與時間之同步,此外,藉由根據對齊投影後的整合影像與點雲資料,利用該障礙物辨識模型,來辨識出每一障礙物對應的障礙物類別,以達成辨識障礙物之目的。The effect of the present invention lies in: the image to be fused corresponding to the point cloud data is obtained from the images captured by the image shooting device by the computing device, and the image to be fused is synthesized according to the corresponding image to be fused and the previous Nth image Image obtains the integrated image, and aligns and projects the point cloud data to the corresponding integrated image to achieve spatial and temporal synchronization when fusing the sensing data of the lidar module and the image capture device. In addition, by According to the integrated image and point cloud data after alignment and projection, the obstacle identification model is used to identify the obstacle category corresponding to each obstacle, so as to achieve the purpose of identifying obstacles.
參閱圖1,本發明障礙物偵測方法的實施例,藉由一設置於一移動載具上之障礙物偵測系統來實施。該障礙物偵測系統包含設置於該移動載具上的一影像拍攝裝置11、一光達模組12、一雷達模組13及一電連接該影像拍攝裝置11、該光達模組12與該雷達模組13的運算裝置14。Referring to FIG. 1 , an embodiment of the obstacle detection method of the present invention is implemented by an obstacle detection system installed on a mobile vehicle. The obstacle detection system includes an
該影像拍攝裝置11用於持續拍攝位於該移動載具前方之多個障礙物的一連串影像。在本實施例中,該影像拍攝裝置11例如為一攝影機,且在每33ms拍攝一張影像。The
該光達模組12用於持續獲得位於該移動載具之前方且包含該等障礙物的一連串點雲資料。在本實施例中,該光達模組12例如為一光達感測器,且在每100ms獲得一筆點雲資料。每100ms所獲得的點雲資料係該光達模組12在一自一第一個掃描時間點至一第N個掃描時間點之預設期間內由右至左所掃描到的點雲資料。The
該雷達模組13用於持續獲得位於該移動載具之前方且包含該等障礙物的一連串雷達資料。在本實施例中,該雷達模組13例如為一雷達感測器,且在每50ms獲得一筆雷達資料。The
該運算裝置14例如為一處理器或一微處理器等其他可執行運算功能的晶片。The
以下將藉由本發明障礙物偵測方法之實施例來說明該障礙物偵測系統中各元件之作動,該實施例包含一雷達融合程序及一影像融合程序。The action of each component in the obstacle detection system will be described below by using an embodiment of the obstacle detection method of the present invention. The embodiment includes a radar fusion program and an image fusion program.
參閱圖1與圖2,本發明障礙物偵測方法之實施例的雷達融合程序包含以下步驟。Referring to FIG. 1 and FIG. 2 , the radar fusion procedure of the embodiment of the obstacle detection method of the present invention includes the following steps.
在步驟21中,該運算裝置14在接收到該光達模組12的該等點雲資料與該雷達模組13的該等雷達資料後,對於每一點雲資料,根據該點雲資料,自該雷達模組13所獲得之該等雷達資料中獲得一對應該點雲資料的待融合雷達資料。In
值得一提的是,步驟21還包含以下子步驟(參圖3)。It is worth mentioning that
在子步驟211中,該運算裝置14在接收到該光達模組12的該等點雲資料與該雷達模組13的該等雷達資料後,對於每一點雲資料,根據該點雲資料,自該雷達模組13所獲得之該等雷達資料中取出一第一候選雷達資料及一第二候選雷達資料,該第一候選雷達資料之獲得時間早於該點雲資料的獲得時間,且與該點雲資料之獲得時間的時間間隔最短,該第二候選雷達資料為該第一候選雷達資料的前一筆雷達資料。In
在子步驟212中,對於每一點雲資料,該運算裝置14根據該點雲資料對應的該第一候選雷達資料,獲得位於該移動載具前方之該等障礙物中之一特定障礙物對應的一第一特定障礙物參數。在本實施方式中,該第一特定障礙物參數為該移動載具與該特定障礙物的一第一特定障礙物距離,然而,在其他實施方式中,該第一特定障礙物參數亦可為該特定障礙物的一第一特定障礙物位置,或是該特定障礙物的一第一特定障礙物速度,並不以此為限。In sub-step 212, for each point cloud data, the
在子步驟213中,對於每一點雲資料,該運算裝置14根據該點雲資料對應的該第二候選雷達資料,獲得該特定障礙物對應的一第二特定障礙物參數。在本實施方式中,該第二特定障礙物參數為該移動載具與該特定障礙物的一第二特定障礙物距離,然而,在其他實施方式中,該第二特定障礙物參數亦可為該特定障礙物的一第二特定障礙物位置,或是該特定障礙物的一第二特定障礙物速度,並不以此為限。In
在子步驟214中,對於每一點雲資料,該運算裝置14根據該點雲資料之獲得時間
、該點雲資料所對應之第一候選雷達資料的獲得時間
及第二候選雷達資料的獲得時間
、該第一特定障礙物參數
以及該第二特定障礙物參數
,利用以下公式(1)計算該特定障礙物在該點雲資料之獲得時間t的一推測障礙物參數
。在本實施方式中,該推測障礙物參數為該移動載具與該特定障礙物的一推測障礙物距離,然而,在其他實施方式中,該推測障礙物參數亦可為該特定障礙物的一推測障礙物位置,或是該特定障礙物的一推測障礙物速度,並不以此為限。
…(1)
In
其中, 為一誤差值。 in, is an error value.
在子步驟215中,對於每一點雲資料,該運算裝置14根據該推測障礙物參數及一障礙物參數如,距離對獲得區間的第一轉換規則,將該推測障礙物參數轉換至一推測獲得區間。值得特別說明的是,該第一轉換規則係先根據該推測障礙物參數利用一障礙物參數對時間的第一轉換函式,計算出該推測障礙物參數所對應的一推測獲得時間,接著,根據該推測獲得時間及多個雷達取樣區間,將該推測獲得時間所落入的雷達取樣區間作為該推測獲得區間。其中,該第一轉換函式係根據每一筆雷達資料的獲得時間及所指示出之該特定障礙物的障礙物參數而獲得,每一筆雷達資料的獲得時間點至下一筆雷達資料的獲得時間點,但不包含下一筆雷達資料的獲得時間點所定義出的時間區間即構成一雷達取樣區間,圖4示例出該第一轉換函式41及該等雷達取樣區間42。In
在子步驟216中,對於每一點雲資料,該運算裝置14根據該推測獲得區間自該雷達模組13所獲得之該等雷達資料中獲得對應該推測獲得區間的雷達資料,以作為該待融合雷達資料。對應該推測獲得區間的雷達資料即為對應有獲得時間在該推測獲得區間之起始時間點的雷達資料。In
值得特別說明的是,由於該雷達模組13係每50ms獲得一筆雷達資料,該光達模組12係每100ms獲得一筆點雲資料,加上該雷達模組13與該光達模組12開始獲取資料的起始時間恐也存在誤差,故該雷達模組13與該光達模組12獲得資料的時間恐不同步,本發明藉由子步驟211~216之執行,以該光達模組12獲得該等點雲資料的獲得時間為準去獲得對應的該待融合雷達資料,進而盡量使所獲得的該待融合雷達資料能與所對應的該點雲資料在時間上同步。It is worth noting that since the
在步驟22中,對於每一點雲資料,該運算裝置14利用一方向包圍盒演算法,定位該點雲資料中的該等障礙物。在本實施例中,該方向包圍盒演算法係基於主成分分析來定位出該等障礙物。In
在步驟23中,該運算裝置14利用一卡爾曼濾波器,追蹤每一點雲資料中的所定位出的該等障礙物以獲得該移動載具與位於該移動載具前方之每一障礙物對應的障礙物距離。In
在步驟24中,對於每一待融合雷達資料,該運算裝置14利用該方向包圍盒演算法,定位該待融合雷達資料中的該等障礙物。In
在步驟25中,該運算裝置14利用該卡爾曼濾波器,追蹤每一待融合雷達資料中所定位出的該等障礙物以獲得位於該移動載具前方之每一障礙物對應的障礙物速度。In step 25, the
參閱圖1與圖5,本發明障礙物偵測方法之實施例的影像融合程序包含以下步驟。Referring to FIG. 1 and FIG. 5 , the image fusion procedure of the embodiment of the obstacle detection method of the present invention includes the following steps.
在步驟51中,該運算裝置14在接收到該光達模組12的該等點雲資料與該影像拍攝裝置11的該等影像後,對於每一點雲資料,根據該點雲資料,自該影像拍攝裝置11所拍攝之該等影像中獲得一對應該點雲資料的待融合影像。In
值得一提的是,步驟51包含以下子步驟(參圖6)。It is worth mentioning that
在子步驟511中,該運算裝置14在接收到該光達模組12的該等點雲資料與該影像拍攝裝置11的該等影像後,對於每一點雲資料,根據該點雲資料,自該影像拍攝裝置11所拍攝之該等影像中取出一第一候選影像及一第二候選影像,該第一候選影像之拍攝時間早於該點雲資料的獲得時間,且與該點雲資料之獲得時間的時間間隔最短,該第二候選影像為該第一候選影像的前一張影像。In
在子步驟512中,對於每一點雲資料,該運算裝置14根據該點雲資料對應的該第一候選影像,獲得位於該移動載具前方之該等障礙物中之該特定障礙物對應的一第三特定障礙物參數。在本實施方式中,該第三特定障礙物參數為該移動載具與該特定障礙物的一第三特定障礙物距離,然而,在其他實施方式中,該第三特定障礙物參數亦可為該特定障礙物的一第三特定障礙物位置,或是該特定障礙物的一第三特定障礙物速度,並不以此為限。其中,當該第三特定障礙物參數為該第三特定障礙物距離或第三特定障礙物速度時,該運算裝置14還需根據該影像拍攝裝置11之焦距來獲得該第三特定障礙物距離或第三特定障礙物速度。In
在子步驟513中,對於每一點雲資料,該運算裝置14根據該點雲資料對應的該第二候選影像,獲得該特定障礙物對應的一第四特定障礙物參數。在本實施方式中,該第四特定障礙物參數為該移動載具與該特定障礙物的一第四特定障礙物距離,然而,在其他實施方式中,該第四特定障礙物參數亦可為該特定障礙物的一第四特定障礙物位置,或是該特定障礙物的一第四特定障礙物速度,並不以此為限。其中,當該第四特定障礙物參數為該第四特定障礙物距離或第四特定障礙物速度時,該運算裝置14還需根據該影像拍攝裝置11之焦距來獲得該第四特定障礙物距離或第四特定障礙物速度。In
在子步驟514中,對於每一點雲資料,該運算裝置14根據該點雲資料之獲得時間
、該點雲資料所對應之第一候選影像的拍攝時間
及第二候選影像的拍攝時間
、該第三特定障礙物參數
以及該第四特定障礙物參數
,利用以下公式(2)計算該特定障礙物在點雲資料之獲得時間t的另一推測障礙物參數
。在本實施方式中,該另一推測障礙物參數為該移動載具與該特定障礙物的另一推測障礙物距離,然而,在其他實施方式中,該另一推測障礙物參數亦可為該特定障礙物的另一推測障礙物位置,或是該特定障礙物的另一推測障礙物速度,並不以此為限。
…(2)
In
其中, 為一誤差值。 in, is an error value.
在子步驟515中,對於每一點雲資料,該運算裝置14根據該另一推測障礙物參數及一障礙物參數如,距離對拍攝區間的第二轉換規則,將該另一推測障礙物參數轉換至一推測拍攝區間。值得特別說明的是,該第二轉換規則係先根據該另一推測障礙物參數利用一障礙物參數對時間的第二轉換函式,計算出該另一推測障礙物參數所對應的一推測拍攝時間,接著,根據該推測拍攝時間及多個影像取樣區間,將該推測拍攝時間所落入的影像取樣區間作為該推測拍攝區間。其中,該第二轉換函式係根據每一張影像的拍攝時間及所指示出之該特定障礙物的障礙物參數而獲得,每一張影像的拍攝時間點至下一張影像的拍攝時間點,但不包含下一張影像的拍攝時間點所定義出的時間區間即構成一影像取樣區間,圖7示例出該第二轉換函式71及該等影像取樣區間72。In
在子步驟516中,對於每一點雲資料,該運算裝置14根據該推測拍攝區間自該影像拍攝裝置11所拍攝之該等影像中獲得對應該推測拍攝區間的影像,以作為該待融合影像。對應該推測拍攝區間的影像即為對應有拍攝時間在該推測拍攝區間之起始時間點的影像。In
值得特別說明的是,由於該影像拍攝裝置11係每33ms拍攝一張影像,該光達模組12係每100ms獲得一筆點雲資料,加上該影像拍攝裝置11與該光達模組12開始獲取資料的起始時間恐也存在誤差,故該影像拍攝裝置11與該光達模組12獲得資料的時間恐不同步,本發明藉由子步驟511~516之執行,以該光達模組12獲得該等點雲資料的獲得時間為準去獲得對應的待融合影像,進而盡量使所獲得的待融合影像能與所對應的點雲資料在時間上同步。It is worth noting that since the
在步驟52中,對於每一待融合影像,該運算裝置14獲得早於該待融合影像拍攝的前第N張待合成影像,其中N≧3。在本實施例中,N為3。In
在步驟53中,對於每一點雲資料,該運算裝置14根據所對應的該待融合影像與該前第N張待合成影像,獲得一對應該點雲資料的整合影像。在本實施例中,對於每一點雲資料,該運算裝置14係將所對應的該待融合影像之一部分(亦即,左半部)與前第N張待合成影像之一部分(亦即,右半部)進行影像合成,以獲得對應該點雲資料的該整合影像,由於該光達模組12每次在掃描時係由右至左掃描以獲得每筆點雲資料,因此所獲得之點雲資料中對應該移動載具之前方的右半部場景與對應該移動載具之前方的左半部場景間存在掃描延遲(亦即,所獲得之點雲資料中對應左半部場景的部分較新,所獲得之點雲資料中對應右半部場景的部分較舊),故藉由將所對應的待融合影像之左半邊與前第N張待合成影像之右半邊整合,可使合成後的整合影像較貼近該光達模組12的掃描情況,藉此達到空間上之同步。In
在步驟54中,對於每一點雲資料,該運算裝置14將該點雲資料對齊投影至所對應之整合影像。In
值得一提的是,步驟54包含以下子步驟(參圖8)。It is worth mentioning that
在子步驟541中,對於每一點雲資料,該運算裝置14根據相關於該點雲資料之一點雲座標系與該整合影像之像素座標系之座標系轉換的一座標轉換參數組,將該點雲資料轉換為二維點雲資料。值得一提的是,該座標轉換參數組包含一外部參數矩陣及一內部參數矩陣,該外部參數矩陣係根據該光達模組12之架設位置與該影像拍攝裝置11之架設位置而獲得。該內部參數矩陣係根據該影像拍攝裝置11之以像素為單位的焦距距離,及影像中心座標而獲得。由於本發明之重點不在於如何將該點雲資料轉換為二維點雲資料,其運算細節可參考http://www.vision.caltech.edu/bouguetj/calib_doc/htmls/parameters.html此網站之說明,不再於此贅述及細節。In
在子步驟542中,對於每一二維點雲資料,該運算裝置14獲得該二維點雲資料中每一物件的邊緣特徵。In
在子步驟543中,對於每一點雲資料所對應的整合影像,該運算裝置14獲得該整合影像中每一物件的邊緣特徵。In
在子步驟544中,對於每一點雲資料,該運算裝置14根據所對應的該二維點雲資料中每一物件的邊緣特徵與所對應的整合影像中每一物件的邊緣特徵,將所對應的該二維點雲資料與所對應的整合影像對齊。In
在步驟55中,對於每一點雲資料,該運算裝置14根據經步驟54之對齊投影後的該點雲資料與該整合影像,利用一障礙物辨識模型,辨識出位於該移動載具前方之每一障礙物對應的障礙物類別。值得一提的是,該障礙物辨識模型係根據多筆標記有障礙物位置及障礙物類別的訓練資料利用一機器學習演算法而訓練出,每筆訓練資料包含一經對齊投影後的訓練點雲資料與訓練影像,且經對齊投影後的訓練點雲資料與訓練影像上標記有障礙物位置及障礙物類別。In
綜上所述,本發明障礙物偵測方法,藉由該運算裝置14自該影像拍攝裝置11所拍攝之該等影像中獲得對應該點雲資料的該待融合影像,且自該雷達模組13所獲得之該等雷達資料中獲得對應該點雲資料的該待融合雷達資料,以同步不同感測器所獲得之資料,此外,藉由該運算裝置14根據所對應的待融合影像與前第N張待合成影像獲得該整合影像,且將該點雲資料對齊投影至所對應之整合影像,以使該點雲資料與該整合影像在空間上融合,再者,藉由根據對齊投影後的整合影像與點雲資料,利用該障礙物辨識模型,來辨識出每一障礙物對應的障礙物類別,以達成辨識障礙物之功效,故確實能達成本發明的目的。To sum up, in the obstacle detection method of the present invention, the
惟以上所述者,僅為本發明的實施例而已,當不能以此限定本發明實施的範圍,凡是依本發明申請專利範圍及專利說明書內容所作的簡單的等效變化與修飾,皆仍屬本發明專利涵蓋的範圍內。But the above-mentioned ones are only embodiments of the present invention, and should not limit the scope of the present invention. All simple equivalent changes and modifications made according to the patent scope of the present invention and the content of the patent specification are still within the scope of the present invention. Within the scope covered by the patent of the present invention.
11:影像拍攝裝置
12:光達模組
13:雷達模組
14:運算裝置
41:第一轉換函式
42:雷達取樣區間
71:第二轉換函式
72:影像取樣區間
21~25:步驟
51~55:步驟
211~216:子步驟
511~516:子步驟
541~544:子步驟
11: Image shooting device
12:Lidar module
13:Radar module
14: Computing device
41: The first conversion function
42: Radar sampling interval
71: The second conversion function
72:
本發明的其他的特徵及功效,將於參照圖式的實施方式中清楚地呈現,其中: 圖1是一方塊圖,說明實施本發明障礙物偵測方法之實施例的障礙物偵測系統; 圖2是一流程圖,說明本發明障礙物偵測方法之實施例的一雷達融合程序; 圖3是一流程圖,說明一運算裝置如何獲得一點雲資料所對應的一待融合雷達資料; 圖4是一示意圖,說明一第一轉換函式及多個雷達取樣區間; 圖5是一流程圖,說明本發明障礙物偵測方法之實施例的一影像融合程序; 圖6是一流程圖,說明該運算裝置如何獲得該點雲資料所對應的一待融合影像; 圖7是一示意圖,說明一第二轉換函式及多個影像取樣區間;及 圖8是一流程圖,說明該運算裝置如何將該點雲資料對齊投影至所對應的整合影像。 Other features and effects of the present invention will be clearly presented in the implementation manner with reference to the drawings, wherein: FIG. 1 is a block diagram illustrating an obstacle detection system implementing an embodiment of the obstacle detection method of the present invention; FIG. 2 is a flowchart illustrating a radar fusion procedure of an embodiment of the obstacle detection method of the present invention; Fig. 3 is a flow chart illustrating how an computing device obtains radar data to be fused corresponding to a point cloud data; 4 is a schematic diagram illustrating a first transfer function and a plurality of radar sampling intervals; FIG. 5 is a flowchart illustrating an image fusion procedure of an embodiment of the obstacle detection method of the present invention; Fig. 6 is a flowchart illustrating how the computing device obtains an image to be fused corresponding to the point cloud data; FIG. 7 is a schematic diagram illustrating a second conversion function and a plurality of image sampling intervals; and FIG. 8 is a flowchart illustrating how the computing device aligns and projects the point cloud data to the corresponding integrated image.
51~55:步驟 51~55: Steps
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW110132319A TWI774543B (en) | 2021-08-31 | 2021-08-31 | Obstacle detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW110132319A TWI774543B (en) | 2021-08-31 | 2021-08-31 | Obstacle detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI774543B TWI774543B (en) | 2022-08-11 |
TW202311781A true TW202311781A (en) | 2023-03-16 |
Family
ID=83807341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW110132319A TWI774543B (en) | 2021-08-31 | 2021-08-31 | Obstacle detection method |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI774543B (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI824789B (en) * | 2022-10-21 | 2023-12-01 | 國立臺北科技大學 | Hybrid system for vehicle detection and hybrid method for vehicle detection |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI754808B (en) * | 2018-11-29 | 2022-02-11 | 財團法人工業技術研究院 | Vehicle, vehicle positioning system, and vehicle positioning method |
US11100702B2 (en) * | 2019-12-27 | 2021-08-24 | Industrial Technology Research Institute | 3D image labeling method based on labeling information of 2D image and 3D image labeling device |
-
2021
- 2021-08-31 TW TW110132319A patent/TWI774543B/en active
Also Published As
Publication number | Publication date |
---|---|
TWI774543B (en) | 2022-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104108392B (en) | Lane Estimation Apparatus And Method | |
US7321386B2 (en) | Robust stereo-driven video-based surveillance | |
JP5663352B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2019194616A (en) | Position detection method, device and equipment based upon image, and storage medium | |
KR20120053275A (en) | Method and apparatus for estimating 3d face position | |
TW201004818A (en) | The asynchronous photography automobile-detecting apparatus | |
KR101203816B1 (en) | Robot fish localization system using artificial markers and method of the same | |
JP2018156408A (en) | Image recognizing and capturing apparatus | |
JP5539250B2 (en) | Approaching object detection device and approaching object detection method | |
JP2006226965A (en) | Image processing system, computer program and image processing method | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
JP2000293693A (en) | Obstacle detecting method and device | |
JPH09297849A (en) | Vehicle detector | |
JP4123138B2 (en) | Vehicle detection method and vehicle detection device | |
TWI774543B (en) | Obstacle detection method | |
JPH1144533A (en) | Preceding vehicle detector | |
CN111932590B (en) | Object tracking method and device, electronic equipment and readable storage medium | |
KR101420242B1 (en) | vehicle detector and method using stereo camera | |
JP5132164B2 (en) | Background image creation device | |
JPH11211738A (en) | Speed measurement method of traveling body and speed measuring device using the method | |
JP6886136B2 (en) | Alignment device, alignment method and computer program for alignment | |
KR100844640B1 (en) | Method for object recognizing and distance measuring | |
WO2021124657A1 (en) | Camera system | |
JP2010014699A (en) | Shape measuring apparatus and shape measuring method | |
CN113792645A (en) | AI eyeball fusing image and laser radar |