TWI774543B - Obstacle detection method - Google Patents
Obstacle detection method Download PDFInfo
- Publication number
- TWI774543B TWI774543B TW110132319A TW110132319A TWI774543B TW I774543 B TWI774543 B TW I774543B TW 110132319 A TW110132319 A TW 110132319A TW 110132319 A TW110132319 A TW 110132319A TW I774543 B TWI774543 B TW I774543B
- Authority
- TW
- Taiwan
- Prior art keywords
- point cloud
- cloud data
- image
- obstacle
- data
- Prior art date
Links
Images
Landscapes
- Geophysics And Detection Of Objects (AREA)
- Image Processing (AREA)
Abstract
一種障礙物偵測方法包含:(A)在接收到多筆點雲資料與多張影像後,對於每一點雲資料,根據該點雲資料自該等影像中獲得一待融合影像;(B)對於每一待融合影像,獲得早於該待融合影像拍攝的前第N張待合成影像;(C)對於每一點雲資料,根據所對應的待融合影像與前第N張待合成影像,獲得一整合影像;(D)對於每一點雲資料,將該點雲資料對齊投影至所對應之整合影像;及(E)對於每一點雲資料,根據對齊投影後的點雲資料與整合影像,利用一障礙物辨識模型,辨識出位於前方之每一障礙物對應的障礙物類別。An obstacle detection method includes: (A) after receiving a plurality of point cloud data and a plurality of images, for each point cloud data, obtaining a to-be-fused image from the images according to the point cloud data; (B) For each image to be fused, obtain the first N th image to be synthesized earlier than the image to be fused; (C) for each point cloud data, according to the corresponding image to be fused and the previous N th image to be synthesized, obtain an integrated image; (D) for each point cloud data, align and project the point cloud data to the corresponding integrated image; and (E) for each point cloud data, according to the aligned projected point cloud data and the integrated image, use An obstacle identification model identifies the obstacle type corresponding to each obstacle located in the front.
Description
本發明是有關於一種障礙物偵測方法,特別是指一種融合不同感測器之障礙物偵測方法。The present invention relates to an obstacle detection method, in particular to an obstacle detection method integrating different sensors.
移動載具引入越來越多的傳感器和智能算法,不斷增強其環境感知和靈活運動的能力,在各領域上,包含工廠運用AMR(Autonomous Mobile Robot)產業進行倉儲搬運及自駕車在路上運行進行障礙物偵測停止或閃避,皆需要使用到多感測器,如,雷達、光達及攝影機等偵測進而做避障功能。當移動載具行駛在任意路徑上,需要可做閃避障礙物與辨識障礙物種類為最主要之需求。Mobile vehicles have introduced more and more sensors and intelligent algorithms to continuously enhance their environmental perception and flexible movement capabilities. In various fields, factories use the AMR (Autonomous Mobile Robot) industry for warehousing and handling and self-driving cars run on the road. Obstacle detection, stop or avoidance requires the use of multiple sensors, such as radar, lidar, and cameras to detect and avoid obstacles. When the mobile vehicle travels on any path, it is the most important requirement to be able to avoid obstacles and identify the type of obstacles.
各感測元件有其不同優勢,現多以異質感知融合運用在各載具平台上。然而,各感測器的感測資料及取樣時間皆不相同,例如,雷達係在每50ms獲得一雷達資料,光達係在每100ms獲得一點雲資料,攝影機係在每33ms拍攝一影像,在感測器差異大時,皆有時間與空間無法同步問題,也無法得知障礙物為何,實有必要提出一解決方案。Each sensing element has its own advantages, and it is now mostly used on various vehicle platforms with heterogeneous sensing fusion. However, the sensing data and sampling time of each sensor are different. For example, the radar system obtains a radar data every 50ms, the lidar system obtains a point cloud data every 100ms, and the camera system captures an image every 33ms. When the sensors are very different, there is a problem that time and space cannot be synchronized, and it is impossible to know what the obstacles are. It is necessary to propose a solution.
因此,本發明的目的,即在提供一種在融合多感測器時進行空間與時間之同步並辨識出障礙物類別的障礙物偵測方法。Therefore, the object of the present invention is to provide an obstacle detection method for synchronizing space and time and recognizing the type of obstacles when fusing multiple sensors.
於是,本發明障礙物偵測方法,藉由一運算裝置來實施,該運算裝置與設置於一移動載具上之一影像拍攝裝置與一光達模組電連接,該影像拍攝裝置用於拍攝位於該移動載具前方之多個障礙物的一連串影像,該光達模組用於獲得位於該移動載具之前方且包含該等障礙物的一連串點雲資料,該障礙物偵測方法包含以下步驟:Therefore, the obstacle detection method of the present invention is implemented by a computing device, the computing device is electrically connected to an image capturing device and a lidar module disposed on a mobile carrier, and the image capturing device is used for capturing images. A series of images of a plurality of obstacles located in front of the mobile vehicle, the lidar module is used to obtain a series of point cloud data located in front of the mobile vehicle and including the obstacles, and the obstacle detection method includes the following step:
(A)在接收到該光達模組的該等點雲資料與該影像拍攝裝置的該等影像後,對於每一點雲資料,根據該點雲資料,自該影像拍攝裝置所拍攝之該等影像中獲得一對應該點雲資料的待融合影像;(A) After receiving the point cloud data of the lidar module and the images of the image capture device, for each point cloud data, according to the point cloud data, the images captured by the image capture device Obtain a pair of images to be fused corresponding to the point cloud data in the image;
(B) 對於每一待融合影像,獲得早於該待融合影像拍攝的前第N張待合成影像,其中N≧3;(B) For each image to be fused, obtain the Nth image to be synthesized earlier than the image to be fused, where N≧3;
(C) 對於每一點雲資料,根據所對應的該待融合影像與該前第N張待合成影像,獲得一對應該點雲資料的整合影像;(C) For each point cloud data, obtain a pair of integrated images corresponding to the point cloud data according to the corresponding image to be fused and the first N image to be synthesized;
(D) 對於每一點雲資料,將該點雲資料對齊投影至所對應之該整合影像;及(D) for each point cloud data, align the projection of the point cloud data to the corresponding integrated image; and
(E)對於每一點雲資料,根據經步驟(D)之對齊投影後的該點雲資料與該整合影像,利用一障礙物辨識模型,辨識出位於該移動載具前方之每一障礙物對應的障礙物類別。(E) For each point cloud data, according to the point cloud data and the integrated image after the alignment and projection in step (D), an obstacle identification model is used to identify each obstacle located in front of the mobile vehicle corresponding to obstacle category.
本發明的功效在於:藉由該運算裝置自該影像拍攝裝置所拍攝之該等影像中獲得對應該點雲資料的該待融合影像,並根據所對應的待融合影像與前第N張待合成影像獲得該整合影像,且將該點雲資料對齊投影至所對應之整合影像,以達成在融合該光達模組與該影像拍攝裝置之感測資料時進行空間與時間之同步,此外,藉由根據對齊投影後的整合影像與點雲資料,利用該障礙物辨識模型,來辨識出每一障礙物對應的障礙物類別,以達成辨識障礙物之目的。The effect of the present invention lies in: obtaining the image to be fused corresponding to the point cloud data from the images captured by the image capturing device by the computing device, and according to the corresponding image to be fused and the previous N th image to be synthesized The integrated image is obtained from the image, and the point cloud data is aligned and projected to the corresponding integrated image, so as to achieve spatial and temporal synchronization when fusing the sensing data of the lidar module and the image capture device. According to the integrated image and point cloud data after alignment and projection, the obstacle identification model is used to identify the obstacle type corresponding to each obstacle, so as to achieve the purpose of identifying the obstacle.
參閱圖1,本發明障礙物偵測方法的實施例,藉由一設置於一移動載具上之障礙物偵測系統來實施。該障礙物偵測系統包含設置於該移動載具上的一影像拍攝裝置11、一光達模組12、一雷達模組13及一電連接該影像拍攝裝置11、該光達模組12與該雷達模組13的運算裝置14。Referring to FIG. 1 , an embodiment of the obstacle detection method of the present invention is implemented by an obstacle detection system disposed on a mobile vehicle. The obstacle detection system includes an image capturing
該影像拍攝裝置11用於持續拍攝位於該移動載具前方之多個障礙物的一連串影像。在本實施例中,該影像拍攝裝置11例如為一攝影機,且在每33ms拍攝一張影像。The image capturing
該光達模組12用於持續獲得位於該移動載具之前方且包含該等障礙物的一連串點雲資料。在本實施例中,該光達模組12例如為一光達感測器,且在每100ms獲得一筆點雲資料。每100ms所獲得的點雲資料係該光達模組12在一自一第一個掃描時間點至一第N個掃描時間點之預設期間內由右至左所掃描到的點雲資料。The lidar module 12 is used to continuously obtain a series of point cloud data in front of the moving vehicle and including the obstacles. In this embodiment, the lidar module 12 is, for example, a lidar sensor, and obtains a point cloud data every 100ms. The point cloud data obtained every 100 ms is the point cloud data scanned from right to left by the lidar module 12 within a preset period from a first scan time point to an Nth scan time point.
該雷達模組13用於持續獲得位於該移動載具之前方且包含該等障礙物的一連串雷達資料。在本實施例中,該雷達模組13例如為一雷達感測器,且在每50ms獲得一筆雷達資料。The
該運算裝置14例如為一處理器或一微處理器等其他可執行運算功能的晶片。The
以下將藉由本發明障礙物偵測方法之實施例來說明該障礙物偵測系統中各元件之作動,該實施例包含一雷達融合程序及一影像融合程序。The operation of each element in the obstacle detection system will be described below by means of an embodiment of the obstacle detection method of the present invention, which includes a radar fusion process and an image fusion process.
參閱圖1與圖2,本發明障礙物偵測方法之實施例的雷達融合程序包含以下步驟。Referring to FIG. 1 and FIG. 2 , the radar fusion process of the embodiment of the obstacle detection method of the present invention includes the following steps.
在步驟21中,該運算裝置14在接收到該光達模組12的該等點雲資料與該雷達模組13的該等雷達資料後,對於每一點雲資料,根據該點雲資料,自該雷達模組13所獲得之該等雷達資料中獲得一對應該點雲資料的待融合雷達資料。In
值得一提的是,步驟21還包含以下子步驟(參圖3)。It is worth mentioning that
在子步驟211中,該運算裝置14在接收到該光達模組12的該等點雲資料與該雷達模組13的該等雷達資料後,對於每一點雲資料,根據該點雲資料,自該雷達模組13所獲得之該等雷達資料中取出一第一候選雷達資料及一第二候選雷達資料,該第一候選雷達資料之獲得時間早於該點雲資料的獲得時間,且與該點雲資料之獲得時間的時間間隔最短,該第二候選雷達資料為該第一候選雷達資料的前一筆雷達資料。In sub-step 211, after the
在子步驟212中,對於每一點雲資料,該運算裝置14根據該點雲資料對應的該第一候選雷達資料,獲得位於該移動載具前方之該等障礙物中之一特定障礙物對應的一第一特定障礙物參數。在本實施方式中,該第一特定障礙物參數為該移動載具與該特定障礙物的一第一特定障礙物距離,然而,在其他實施方式中,該第一特定障礙物參數亦可為該特定障礙物的一第一特定障礙物位置,或是該特定障礙物的一第一特定障礙物速度,並不以此為限。In sub-step 212, for each point cloud data, the
在子步驟213中,對於每一點雲資料,該運算裝置14根據該點雲資料對應的該第二候選雷達資料,獲得該特定障礙物對應的一第二特定障礙物參數。在本實施方式中,該第二特定障礙物參數為該移動載具與該特定障礙物的一第二特定障礙物距離,然而,在其他實施方式中,該第二特定障礙物參數亦可為該特定障礙物的一第二特定障礙物位置,或是該特定障礙物的一第二特定障礙物速度,並不以此為限。In sub-step 213, for each point cloud data, the
在子步驟214中,對於每一點雲資料,該運算裝置14根據該點雲資料之獲得時間
、該點雲資料所對應之第一候選雷達資料的獲得時間
及第二候選雷達資料的獲得時間
、該第一特定障礙物參數
以及該第二特定障礙物參數
,利用以下公式(1)計算該特定障礙物在該點雲資料之獲得時間t的一推測障礙物參數
。在本實施方式中,該推測障礙物參數為該移動載具與該特定障礙物的一推測障礙物距離,然而,在其他實施方式中,該推測障礙物參數亦可為該特定障礙物的一推測障礙物位置,或是該特定障礙物的一推測障礙物速度,並不以此為限。
…(1)
In
其中, 為一誤差值。 in, is an error value.
在子步驟215中,對於每一點雲資料,該運算裝置14根據該推測障礙物參數及一障礙物參數如,距離對獲得區間的第一轉換規則,將該推測障礙物參數轉換至一推測獲得區間。值得特別說明的是,該第一轉換規則係先根據該推測障礙物參數利用一障礙物參數對時間的第一轉換函式,計算出該推測障礙物參數所對應的一推測獲得時間,接著,根據該推測獲得時間及多個雷達取樣區間,將該推測獲得時間所落入的雷達取樣區間作為該推測獲得區間。其中,該第一轉換函式係根據每一筆雷達資料的獲得時間及所指示出之該特定障礙物的障礙物參數而獲得,每一筆雷達資料的獲得時間點至下一筆雷達資料的獲得時間點,但不包含下一筆雷達資料的獲得時間點所定義出的時間區間即構成一雷達取樣區間,圖4示例出該第一轉換函式41及該等雷達取樣區間42。In
在子步驟216中,對於每一點雲資料,該運算裝置14根據該推測獲得區間自該雷達模組13所獲得之該等雷達資料中獲得對應該推測獲得區間的雷達資料,以作為該待融合雷達資料。對應該推測獲得區間的雷達資料即為對應有獲得時間在該推測獲得區間之起始時間點的雷達資料。In
值得特別說明的是,由於該雷達模組13係每50ms獲得一筆雷達資料,該光達模組12係每100ms獲得一筆點雲資料,加上該雷達模組13與該光達模組12開始獲取資料的起始時間恐也存在誤差,故該雷達模組13與該光達模組12獲得資料的時間恐不同步,本發明藉由子步驟211~216之執行,以該光達模組12獲得該等點雲資料的獲得時間為準去獲得對應的該待融合雷達資料,進而盡量使所獲得的該待融合雷達資料能與所對應的該點雲資料在時間上同步。It is worth noting that, since the
在步驟22中,對於每一點雲資料,該運算裝置14利用一方向包圍盒演算法,定位該點雲資料中的該等障礙物。在本實施例中,該方向包圍盒演算法係基於主成分分析來定位出該等障礙物。In
在步驟23中,該運算裝置14利用一卡爾曼濾波器,追蹤每一點雲資料中的所定位出的該等障礙物以獲得該移動載具與位於該移動載具前方之每一障礙物對應的障礙物距離。In
在步驟24中,對於每一待融合雷達資料,該運算裝置14利用該方向包圍盒演算法,定位該待融合雷達資料中的該等障礙物。In
在步驟25中,該運算裝置14利用該卡爾曼濾波器,追蹤每一待融合雷達資料中所定位出的該等障礙物以獲得位於該移動載具前方之每一障礙物對應的障礙物速度。In step 25, the
參閱圖1與圖5,本發明障礙物偵測方法之實施例的影像融合程序包含以下步驟。Referring to FIG. 1 and FIG. 5 , the image fusion process of the embodiment of the obstacle detection method of the present invention includes the following steps.
在步驟51中,該運算裝置14在接收到該光達模組12的該等點雲資料與該影像拍攝裝置11的該等影像後,對於每一點雲資料,根據該點雲資料,自該影像拍攝裝置11所拍攝之該等影像中獲得一對應該點雲資料的待融合影像。In
值得一提的是,步驟51包含以下子步驟(參圖6)。It is worth mentioning that
在子步驟511中,該運算裝置14在接收到該光達模組12的該等點雲資料與該影像拍攝裝置11的該等影像後,對於每一點雲資料,根據該點雲資料,自該影像拍攝裝置11所拍攝之該等影像中取出一第一候選影像及一第二候選影像,該第一候選影像之拍攝時間早於該點雲資料的獲得時間,且與該點雲資料之獲得時間的時間間隔最短,該第二候選影像為該第一候選影像的前一張影像。In sub-step 511, after receiving the point cloud data of the lidar module 12 and the images of the
在子步驟512中,對於每一點雲資料,該運算裝置14根據該點雲資料對應的該第一候選影像,獲得位於該移動載具前方之該等障礙物中之該特定障礙物對應的一第三特定障礙物參數。在本實施方式中,該第三特定障礙物參數為該移動載具與該特定障礙物的一第三特定障礙物距離,然而,在其他實施方式中,該第三特定障礙物參數亦可為該特定障礙物的一第三特定障礙物位置,或是該特定障礙物的一第三特定障礙物速度,並不以此為限。其中,當該第三特定障礙物參數為該第三特定障礙物距離或第三特定障礙物速度時,該運算裝置14還需根據該影像拍攝裝置11之焦距來獲得該第三特定障礙物距離或第三特定障礙物速度。In sub-step 512, for each point cloud data, the
在子步驟513中,對於每一點雲資料,該運算裝置14根據該點雲資料對應的該第二候選影像,獲得該特定障礙物對應的一第四特定障礙物參數。在本實施方式中,該第四特定障礙物參數為該移動載具與該特定障礙物的一第四特定障礙物距離,然而,在其他實施方式中,該第四特定障礙物參數亦可為該特定障礙物的一第四特定障礙物位置,或是該特定障礙物的一第四特定障礙物速度,並不以此為限。其中,當該第四特定障礙物參數為該第四特定障礙物距離或第四特定障礙物速度時,該運算裝置14還需根據該影像拍攝裝置11之焦距來獲得該第四特定障礙物距離或第四特定障礙物速度。In
在子步驟514中,對於每一點雲資料,該運算裝置14根據該點雲資料之獲得時間
、該點雲資料所對應之第一候選影像的拍攝時間
及第二候選影像的拍攝時間
、該第三特定障礙物參數
以及該第四特定障礙物參數
,利用以下公式(2)計算該特定障礙物在點雲資料之獲得時間t的另一推測障礙物參數
。在本實施方式中,該另一推測障礙物參數為該移動載具與該特定障礙物的另一推測障礙物距離,然而,在其他實施方式中,該另一推測障礙物參數亦可為該特定障礙物的另一推測障礙物位置,或是該特定障礙物的另一推測障礙物速度,並不以此為限。
…(2)
In
其中, 為一誤差值。 in, is an error value.
在子步驟515中,對於每一點雲資料,該運算裝置14根據該另一推測障礙物參數及一障礙物參數如,距離對拍攝區間的第二轉換規則,將該另一推測障礙物參數轉換至一推測拍攝區間。值得特別說明的是,該第二轉換規則係先根據該另一推測障礙物參數利用一障礙物參數對時間的第二轉換函式,計算出該另一推測障礙物參數所對應的一推測拍攝時間,接著,根據該推測拍攝時間及多個影像取樣區間,將該推測拍攝時間所落入的影像取樣區間作為該推測拍攝區間。其中,該第二轉換函式係根據每一張影像的拍攝時間及所指示出之該特定障礙物的障礙物參數而獲得,每一張影像的拍攝時間點至下一張影像的拍攝時間點,但不包含下一張影像的拍攝時間點所定義出的時間區間即構成一影像取樣區間,圖7示例出該第二轉換函式71及該等影像取樣區間72。In sub-step 515, for each point cloud data, the
在子步驟516中,對於每一點雲資料,該運算裝置14根據該推測拍攝區間自該影像拍攝裝置11所拍攝之該等影像中獲得對應該推測拍攝區間的影像,以作為該待融合影像。對應該推測拍攝區間的影像即為對應有拍攝時間在該推測拍攝區間之起始時間點的影像。In
值得特別說明的是,由於該影像拍攝裝置11係每33ms拍攝一張影像,該光達模組12係每100ms獲得一筆點雲資料,加上該影像拍攝裝置11與該光達模組12開始獲取資料的起始時間恐也存在誤差,故該影像拍攝裝置11與該光達模組12獲得資料的時間恐不同步,本發明藉由子步驟511~516之執行,以該光達模組12獲得該等點雲資料的獲得時間為準去獲得對應的待融合影像,進而盡量使所獲得的待融合影像能與所對應的點雲資料在時間上同步。It is worth noting that, since the
在步驟52中,對於每一待融合影像,該運算裝置14獲得早於該待融合影像拍攝的前第N張待合成影像,其中N≧3。在本實施例中,N為3。In
在步驟53中,對於每一點雲資料,該運算裝置14根據所對應的該待融合影像與該前第N張待合成影像,獲得一對應該點雲資料的整合影像。在本實施例中,對於每一點雲資料,該運算裝置14係將所對應的該待融合影像之一部分(亦即,左半部)與前第N張待合成影像之一部分(亦即,右半部)進行影像合成,以獲得對應該點雲資料的該整合影像,由於該光達模組12每次在掃描時係由右至左掃描以獲得每筆點雲資料,因此所獲得之點雲資料中對應該移動載具之前方的右半部場景與對應該移動載具之前方的左半部場景間存在掃描延遲(亦即,所獲得之點雲資料中對應左半部場景的部分較新,所獲得之點雲資料中對應右半部場景的部分較舊),故藉由將所對應的待融合影像之左半邊與前第N張待合成影像之右半邊整合,可使合成後的整合影像較貼近該光達模組12的掃描情況,藉此達到空間上之同步。In
在步驟54中,對於每一點雲資料,該運算裝置14將該點雲資料對齊投影至所對應之整合影像。In
值得一提的是,步驟54包含以下子步驟(參圖8)。It is worth mentioning that
在子步驟541中,對於每一點雲資料,該運算裝置14根據相關於該點雲資料之一點雲座標系與該整合影像之像素座標系之座標系轉換的一座標轉換參數組,將該點雲資料轉換為二維點雲資料。值得一提的是,該座標轉換參數組包含一外部參數矩陣及一內部參數矩陣,該外部參數矩陣係根據該光達模組12之架設位置與該影像拍攝裝置11之架設位置而獲得。該內部參數矩陣係根據該影像拍攝裝置11之以像素為單位的焦距距離,及影像中心座標而獲得。由於本發明之重點不在於如何將該點雲資料轉換為二維點雲資料,其運算細節可參考http://www.vision.caltech.edu/bouguetj/calib_doc/htmls/parameters.html此網站之說明,不再於此贅述及細節。In
在子步驟542中,對於每一二維點雲資料,該運算裝置14獲得該二維點雲資料中每一物件的邊緣特徵。In
在子步驟543中,對於每一點雲資料所對應的整合影像,該運算裝置14獲得該整合影像中每一物件的邊緣特徵。In
在子步驟544中,對於每一點雲資料,該運算裝置14根據所對應的該二維點雲資料中每一物件的邊緣特徵與所對應的整合影像中每一物件的邊緣特徵,將所對應的該二維點雲資料與所對應的整合影像對齊。In
在步驟55中,對於每一點雲資料,該運算裝置14根據經步驟54之對齊投影後的該點雲資料與該整合影像,利用一障礙物辨識模型,辨識出位於該移動載具前方之每一障礙物對應的障礙物類別。值得一提的是,該障礙物辨識模型係根據多筆標記有障礙物位置及障礙物類別的訓練資料利用一機器學習演算法而訓練出,每筆訓練資料包含一經對齊投影後的訓練點雲資料與訓練影像,且經對齊投影後的訓練點雲資料與訓練影像上標記有障礙物位置及障礙物類別。In
綜上所述,本發明障礙物偵測方法,藉由該運算裝置14自該影像拍攝裝置11所拍攝之該等影像中獲得對應該點雲資料的該待融合影像,且自該雷達模組13所獲得之該等雷達資料中獲得對應該點雲資料的該待融合雷達資料,以同步不同感測器所獲得之資料,此外,藉由該運算裝置14根據所對應的待融合影像與前第N張待合成影像獲得該整合影像,且將該點雲資料對齊投影至所對應之整合影像,以使該點雲資料與該整合影像在空間上融合,再者,藉由根據對齊投影後的整合影像與點雲資料,利用該障礙物辨識模型,來辨識出每一障礙物對應的障礙物類別,以達成辨識障礙物之功效,故確實能達成本發明的目的。To sum up, in the obstacle detection method of the present invention, the
惟以上所述者,僅為本發明的實施例而已,當不能以此限定本發明實施的範圍,凡是依本發明申請專利範圍及專利說明書內容所作的簡單的等效變化與修飾,皆仍屬本發明專利涵蓋的範圍內。However, the above are only examples of the present invention, and should not limit the scope of implementation of the present invention. Any simple equivalent changes and modifications made according to the scope of the patent application of the present invention and the contents of the patent specification are still included in the scope of the present invention. within the scope of the invention patent.
11:影像拍攝裝置
12:光達模組
13:雷達模組
14:運算裝置
41:第一轉換函式
42:雷達取樣區間
71:第二轉換函式
72:影像取樣區間
21~25:步驟
51~55:步驟
211~216:子步驟
511~516:子步驟
541~544:子步驟
11: Video shooting device
12: LiDAR module
13: Radar module
14: Computing device
41: The first conversion function
42: Radar sampling interval
71: Second conversion function
72:
本發明的其他的特徵及功效,將於參照圖式的實施方式中清楚地呈現,其中: 圖1是一方塊圖,說明實施本發明障礙物偵測方法之實施例的障礙物偵測系統; 圖2是一流程圖,說明本發明障礙物偵測方法之實施例的一雷達融合程序; 圖3是一流程圖,說明一運算裝置如何獲得一點雲資料所對應的一待融合雷達資料; 圖4是一示意圖,說明一第一轉換函式及多個雷達取樣區間; 圖5是一流程圖,說明本發明障礙物偵測方法之實施例的一影像融合程序; 圖6是一流程圖,說明該運算裝置如何獲得該點雲資料所對應的一待融合影像; 圖7是一示意圖,說明一第二轉換函式及多個影像取樣區間;及 圖8是一流程圖,說明該運算裝置如何將該點雲資料對齊投影至所對應的整合影像。 Other features and effects of the present invention will be clearly presented in the embodiments with reference to the drawings, wherein: 1 is a block diagram illustrating an obstacle detection system implementing an embodiment of the obstacle detection method of the present invention; 2 is a flow chart illustrating a radar fusion procedure of an embodiment of the obstacle detection method of the present invention; 3 is a flowchart illustrating how a computing device obtains a radar data to be fused corresponding to a point cloud data; 4 is a schematic diagram illustrating a first transfer function and a plurality of radar sampling intervals; 5 is a flow chart illustrating an image fusion process of an embodiment of the obstacle detection method of the present invention; 6 is a flowchart illustrating how the computing device obtains an image to be fused corresponding to the point cloud data; FIG. 7 is a schematic diagram illustrating a second transfer function and a plurality of image sampling intervals; and FIG. 8 is a flowchart illustrating how the computing device aligns and projects the point cloud data to the corresponding integrated image.
51~55:步驟 51~55: Steps
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW110132319A TWI774543B (en) | 2021-08-31 | 2021-08-31 | Obstacle detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW110132319A TWI774543B (en) | 2021-08-31 | 2021-08-31 | Obstacle detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI774543B true TWI774543B (en) | 2022-08-11 |
TW202311781A TW202311781A (en) | 2023-03-16 |
Family
ID=83807341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW110132319A TWI774543B (en) | 2021-08-31 | 2021-08-31 | Obstacle detection method |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI774543B (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI824789B (en) * | 2022-10-21 | 2023-12-01 | 國立臺北科技大學 | Hybrid system for vehicle detection and hybrid method for vehicle detection |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW202020734A (en) * | 2018-11-29 | 2020-06-01 | 財團法人工業技術研究院 | Vehicle, vehicle positioning system, and vehicle positioning method |
TW202124190A (en) * | 2019-12-27 | 2021-07-01 | 財團法人工業技術研究院 | 3d image labeling method based on labeling information of 2d image and 3d image labeling device |
-
2021
- 2021-08-31 TW TW110132319A patent/TWI774543B/en active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW202020734A (en) * | 2018-11-29 | 2020-06-01 | 財團法人工業技術研究院 | Vehicle, vehicle positioning system, and vehicle positioning method |
TW202124190A (en) * | 2019-12-27 | 2021-07-01 | 財團法人工業技術研究院 | 3d image labeling method based on labeling information of 2d image and 3d image labeling device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI824789B (en) * | 2022-10-21 | 2023-12-01 | 國立臺北科技大學 | Hybrid system for vehicle detection and hybrid method for vehicle detection |
Also Published As
Publication number | Publication date |
---|---|
TW202311781A (en) | 2023-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5688456B2 (en) | Security camera tracking and monitoring system and method using thermal image coordinates | |
KR101647370B1 (en) | road traffic information management system for g using camera and radar | |
CN104108392B (en) | Lane Estimation Apparatus And Method | |
US10867166B2 (en) | Image processing apparatus, image processing system, and image processing method | |
CN111462200A (en) | Cross-video pedestrian positioning and tracking method, system and equipment | |
US11132538B2 (en) | Image processing apparatus, image processing system, and image processing method | |
JP2010063001A (en) | Person-tracking device and person-tracking program | |
US20200097702A1 (en) | Image recognition device | |
JP2014089687A (en) | Obstacle detection apparatus and method for avm system | |
CN111818274A (en) | Optical unmanned aerial vehicle monitoring method and system based on three-dimensional light field technology | |
JP6617150B2 (en) | Object detection method and object detection apparatus | |
KR101203816B1 (en) | Robot fish localization system using artificial markers and method of the same | |
TWI774543B (en) | Obstacle detection method | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
JPH09297849A (en) | Vehicle detector | |
JP2000293693A (en) | Obstacle detecting method and device | |
JP4123138B2 (en) | Vehicle detection method and vehicle detection device | |
CN111932590B (en) | Object tracking method and device, electronic equipment and readable storage medium | |
Naser et al. | Infrastructure-free NLoS obstacle detection for autonomous cars | |
CN110728703B (en) | Registration fusion method for visible light image and solar blind ultraviolet light image | |
JP2009266155A (en) | Apparatus and method for mobile object tracking | |
JP6886136B2 (en) | Alignment device, alignment method and computer program for alignment | |
KR100844640B1 (en) | Method for object recognizing and distance measuring | |
JPH1093954A (en) | Object detection method/system | |
KR101990734B1 (en) | Vehicle positioning system by fusing images from multi camera |