TW202334613A - 利用三維重建地圖搜尋路徑之方法 - Google Patents

利用三維重建地圖搜尋路徑之方法 Download PDF

Info

Publication number
TW202334613A
TW202334613A TW111106361A TW111106361A TW202334613A TW 202334613 A TW202334613 A TW 202334613A TW 111106361 A TW111106361 A TW 111106361A TW 111106361 A TW111106361 A TW 111106361A TW 202334613 A TW202334613 A TW 202334613A
Authority
TW
Taiwan
Prior art keywords
information
dimensional
path
map
obstacle
Prior art date
Application number
TW111106361A
Other languages
English (en)
Other versions
TWI809727B (zh
Inventor
歐陽盟
顏永哲
江明達
許達夫
葉紹均
陳坤向
陳宗正
Original Assignee
國立陽明交通大學
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 國立陽明交通大學 filed Critical 國立陽明交通大學
Priority to TW111106361A priority Critical patent/TWI809727B/zh
Priority to US17/825,503 priority patent/US20230267717A1/en
Application granted granted Critical
Publication of TWI809727B publication Critical patent/TWI809727B/zh
Publication of TW202334613A publication Critical patent/TW202334613A/zh

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3826Terrain data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/102Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

本發明為一種利用三維重建地圖搜尋路徑之方法,包括接收三維點雲圖資訊及三維材質地圖資訊。利用群中心演算法將三維點雲圖資訊類聚,以取得分群資訊,及利用材質神經網路模型辨識三維材質地圖資訊中物件的材質屬性資訊。利用三維點雲圖資訊及三維材質地圖資訊的座標資訊進行融合,以輸出融合地圖資訊。利用障礙物神經網路模型根據分群資訊及材質屬性資訊,辨識出融合地圖資訊中的障礙物區域及非障礙物區域。根據非障礙物區域產生三維路徑資訊。本發明由於利用三維點雲圖資訊及三維材質地圖資訊產生三圍路徑資訊,所以能有效的判斷出障礙物區域及可飛行空間,以產生精準的飛行路徑。

Description

利用三維重建地圖搜尋路徑之方法
本發明係有關一種行動載具路徑產生之技術,特別是指一種應用於規劃無人飛行載具的路徑之利用三維重建地圖搜尋路徑之方法。
無人飛行載具,廣義上的定義為不需要駕駛員登機操作,即能自動或透過遠端遙控行駛。無人飛行載具通常被使用在科學研究、場地探勘、軍事、農業或空中攝影等用途。
以下舉例產生以自動行駛之路徑之文獻。文獻1(F. Gao and S. Shen, "Online quadrotor trajectory generation and autonomous navigation on point clouds," 2016 IEEE International Symposium on Safety, Security, and Rescue Robotics (SSRR), 2016, 第139-146頁)提出一種利用三維(3D)點雲資訊建立無人飛行載具避障飛行路徑方法。文獻1係直接使用三維點雲資訊,結合快速探索圖形方法以及A*路徑搜尋演算法(A* search algorithm),計算出無人飛行載具於環境中的飛行路徑。但文獻1並未擁有三維點雲的屬性資訊,使得每次更新地圖資訊時,都必須重新建構點雲資訊的資料結構,影響飛行效能以及成功率。
文獻2(Z. Zheng, T. R. Bewley and F. Kuester, "Point Cloud-Based Target-Oriented 3D Path Planning for UAVs," 2020 International Conference on Unmanned Aircraft Systems (ICUAS), 2020, 第790-798頁)提出一種利用三維點雲資訊建立無人飛行載具的三維路徑規劃方法,文獻2分析目標環境的三維點雲資訊並使用改進的快速擴展隨機樹(rapidly exploring random tree,RRT)路徑演算法,基於k-維樹(k-d樹)的資料結構,避障策略替無人飛行載具提供三維的路徑規劃,但文獻2僅單純倚靠三維點雲資訊來判斷障礙物,並無法有效判斷場域中物件的材質屬性,也就是無法判斷該場域中的樹木、土地或石塊的材質屬性等,因此無法有效的判斷出場域中的障礙物,或有效對點雲圖中的進行物件分類,導致無人機需搭載額外的感測器來達到更好障礙物判斷,以提供更好的避障效果。
有鑑於此,本發明遂針對上述習知技術之缺失,提出一種利用三維重建地圖搜尋路徑之方法,以有效克服上述之該等問題。
本發明之主要目的在提供一種利用三維重建地圖搜尋路徑之方法,其利用三維點雲圖資訊及三維材質地圖資訊,能有效的判斷出障礙物區域及可飛行空間,產生精準的飛行路徑,以在更小的空間飛行,提升飛行的精巧度,並提高避障成功率,令無人飛行載具尺寸可被做得更小。
本發明之另一目的在提供一種利用三維重建地圖搜尋路徑之方法,其能根據風級參數調整三維路徑資訊,提供更加優化的飛行路徑。
本發明之再一目的在提供一種利用三維重建地圖搜尋路徑之方法,其可減少使用感測器偵測產生飛行路徑所需之參數,能縮小無人飛行載具的重量及體積,可提升飛行效能,並降低無人飛行載具的生產成本。
為達上述之目的,本發明提供一種利用三維重建地圖搜尋路徑之方法,包括下列步驟,首先接收三維點雲圖資訊及三維材質地圖資訊。接著利用群中心演算法將三維點雲圖資訊類聚,以取得分群資訊,及利用材質神經網路模型辨識三維材質地圖資訊中物件的材質屬性,以取得材質屬性資訊。擷取三維點雲圖資訊及三維材質地圖資訊的座標資訊,以利用該座標資訊將三維點雲圖資訊及三維材質地圖資訊融合,以輸出一融合地圖資訊。利用障礙物神經網路模型,根據分群資訊及材質屬性資訊,辨識出融合地圖資訊中的障礙物區域及非障礙物區域。最後根據非障礙物區域產生一三維路徑資訊。
在本實施例中,三維路徑資訊包括複數路徑點連接而成,且複數路徑點與障礙物區域留有一距離形成一避障圓。
在本實施例中,在產生三維路徑資訊之步驟後,更包括輸入一風力資訊,以判斷風力資訊是否大於一風級閥值或逆風。若是,縮減避障圓的距離,並降低三維路徑資訊中Z軸高度位置,以產生一新三維路徑資訊。但若否,則擴大避障圓的距離,以產生一新三維路徑資訊。
在本實施例中,非障礙物區域為距離障礙物區域至少0.5公尺的區域。
在本實施例中,材質屬性為顏色屬性。
在本實施例中,三維點雲圖資訊為三維光達點雲圖資訊;三維材質地圖資訊為三維影像資訊。
底下藉由具體實施例詳加說明,當更容易瞭解本發明之目的、技術內容、特點及其所達成之功效。
本發明提供一種利用三維重建地圖搜尋路徑之方法,提供應用於一電腦系統中,經由電腦載入三維重建地圖搜尋路徑之方法執行,以計算出無人飛行載具的飛行路徑,藉此操控無人飛行載具,使無人飛行載具能自動行駛。
在計算飛行路徑之前,需透過裝置擷取環境資訊,以建立環境三維地圖模型。請參照第一圖,建立環境資訊的裝置包括一點雲圖擷取裝置10及一攝影裝置20。點雲圖擷取裝置10用以產生三維點雲圖資訊。在本實施例中,點雲圖擷取裝置10為光學雷達(lidar),故三維點雲圖資訊為三維光達點雲圖資訊。點雲圖擷取裝置10發出光達訊號至環境中,以透過光達訊號偵測到複數距離資料點,並根據真實座標的位置將複數距離資料點組合成三維點雲圖資訊。
攝影裝置20用以產生三維材質地圖資訊。在本實施例中,攝影裝置20為攝影機,故三維材質地圖資訊為三維影像資訊。攝影裝置20提供拍攝環境中的影像,並將影像組合以產生三維材質地圖資訊。
利用點雲圖擷取裝置10及攝影裝置20,蒐集到三維點雲圖資訊及三維材質地圖資訊後,即可提供給一處理裝置30,以進行無人飛行載具之飛行路徑的運算。
處理裝置30係安裝在無人飛行載具(圖中未示)上,在本實施例中,處理裝置30包括一處理器32、一資料庫34、一風力感測器36以及一訊號傳輸器38。處理器32為具有運算功能之裝置,如中央處理器(Central Processing Unit,CPU)。處理器32內可載入本發明三維重建地圖搜尋路徑之方法,以執行無人飛行載具之飛行路徑的運算,進而產生三維路徑資訊。資料庫34連接處理器32,資料庫34可為記憶體或硬碟等提供儲存資料之裝置。風力感測器36連接處理器32,風力感測器36用以感測風力的風級,以產生風力資訊給處理器32。訊號傳輸器38連接處理器32,訊號傳輸器38可為網路收發裝置或資料傳輸介面,如通用序列匯流排(Universal Serial Bus,USB)等,訊號傳輸器38用以接收外部資訊,如接收三維點雲圖資訊及三維材質地圖資訊或其他資訊。
點雲圖擷取裝置10及攝影裝置20生成三維點雲圖資訊及三維材質地圖資訊後,即可傳遞給處理裝置30。點雲圖擷取裝置10及攝影裝置20透過訊號傳輸器38傳輸三維點雲圖資訊及三維材質地圖資訊給處理器32,令處理器32利用本發明之方法計算出三維路徑資訊。處理器32接收到三維點雲圖資訊及三維材質地圖資訊後,更可將三維點雲圖資訊及三維材質地圖資訊儲存至資料庫34,以利後續改變航點時,處理器32重新計算飛行路徑時能被使用。
在上述說明如何取得三維點雲圖資訊及三維材質地圖資訊,以及本發明之方法所應用之系統架構後,接續詳細說明三維重建地圖搜尋路徑之方法。請參照第一圖與第二圖,如步驟S10所示,首先處理器30接收點雲圖擷取裝置10產生的三維點雲圖資訊,及攝影裝置20產生的三維材質地圖資訊。
進入步驟S12,處理裝置30利用群中心演算法,在本實施例中,群中心演算法為基於密度的聚類演算法(Density-based spatial clustering of applications with noise,DBSCAN)。群中心演算法將三維點雲圖資訊分群類聚,以取得分群資訊,即可將障礙物區域表現出來,在後續能提供辨識出障礙物區域。同時處理裝置30亦利用材質神經網路模型,辨識三維材質地圖資訊中物件的材質屬性,以取得材質屬性資訊。其中材質神經網路模型係預先使用不同物件的材質屬性之歷史資料進行訓練。如事先輸入樹木、石頭等障礙物的影像資料,提供給材質神經網路模型進行訓練,以有效辨識出三維材質地圖資訊中物件的材質屬性,在後續能提供辨識出障礙物區域。其中材質的辨識係透過影像中的顏色進行辨識,材質屬性也可視為顏色屬性。
接著進入步驟S14,處理裝置30擷取三維點雲圖資訊及三維材質地圖資訊的座標資訊,以利用座標資訊將三維點雲圖資訊及三維材質地圖資訊融合,以輸出一融合地圖資訊。融合地圖資訊中即有效顯示出分群資訊及各物件的材質屬性,可明顯表示出障礙物區域的部分。
接著進入步驟S16,處理裝置30利用障礙物神經網路模型,根據分群資訊及材質屬性資訊,辨識出融合地圖資訊中的障礙物區域及非障礙物區域。其中障礙物神經網路模型係預先使用不同障礙物區域之分群資訊及材質屬性資訊的歷史資料進行訓練。例如過去利用點雲圖擷取裝置10及影像裝置20取得樹木、石頭等障礙物的三維點雲圖資訊及三維材質地圖資訊,並計算出該等障礙物的分群資訊及材質屬性資訊等歷史參數後,輸入障礙物神經網路模型進行訓練,障礙物神經網路模型即可辨識出障礙物區域,其餘無法辨識的無屬性區域則可被視為非障礙物區域。
最後進入步驟S18,處理裝置30取得融合地圖資訊中的障礙物區域及非障礙物區域,處理裝置30即可設定目的地航點,並根據非障礙物區域產生一三維路徑資訊。其中三維路徑資訊包括三維真實空間的X軸、Y軸、及Z軸的數值,以控制無人飛行載具在三維真實空間的移動。且三維路徑資訊包括複數路徑點連接而成,複數路徑點與障礙物區域留有一距離形成一避障圓。因此本實施例設定無人飛行載具與障礙物之間更設有一空間屏障,也就是說無人飛行載具設有一固定半徑的避障圓,其半徑可為2公尺,使無人機飛行載具距離障礙物有2公尺遠。因此三維路徑資訊在規劃時係將上述條件加入,只要該區域中的2公尺內具有障礙物,不視為可產生路徑的空間。
除上述可直接產生無人飛行載具的三維路徑資訊之外,在本實施例中,處理器32更加入風力感測器36產生風力資訊作為調整無人飛行載具的三維路徑資訊的參數,風力資訊的加入主要是用以調整避障圓的半徑及飛行高度。請配合參照第三圖,如步驟S20所示,處理器32接收風力感測器36的輸入風力資訊。接著進入步驟S22,處理器32判斷風力資訊是否大於一風級閥值或逆風,其中逆風的判斷可透過風力感測器36偵測風向,並傳遞給處理器32,若判斷無人飛行載具的路徑行駛與風向相反則為逆風。若判斷風力資訊是大於風級閥值或逆風,進入步驟S24,縮減避障圓的距離,也就是縮減避障圓的半徑,使無人機飛行載具飛行時,能較接近障礙物。同時降低三維路徑資訊中Z軸高度位置,透過上述調整產生新三維路徑資訊。在本實施例中,縮減避障圓的距離之縮減距離為0~0.7公尺,降低三維路徑資訊中Z軸高度位置係降低0.5~2公尺。若判斷風力資訊是否大於風級閥值或逆風為否,則進入步驟S26,擴大避障圓的距離,也就是擴大避障圓的半徑,使無人機飛行載具飛行時,能較遠離障礙物,經調整後產生一新三維路徑資訊。其中擴大避障圓的距離之擴大距離為0~0.5公尺。
綜上所述,本發明利用三維點雲圖資訊及三維材質地圖資訊,能有效的判斷出障礙物區域及可飛行空間,產生精準的飛行路徑,以在更小的空間飛行,提升飛行的精巧度,並提高避障成功率,令無人飛行載具尺寸可被做得更小。同時更能根據風級參數調整三維路徑資訊,提供更加優化的飛行路徑。本發明並可減少使用感測器偵測產生飛行路徑所需之參數,能縮小無人飛行載具的重量級體積,提升飛行效能,並能降低無人飛行載具的生產成本。
唯以上所述者,僅為本發明之較佳實施例而已,並非用來限定本發明實施之範圍。故即凡依本發明申請範圍所述之特徵及精神所為之均等變化或修飾,均應包括於本發明之申請專利範圍內。
10:點雲圖擷取裝置 20:攝影裝置 30:處理裝置 32:處理器 34:資料庫 36:風力感測器 38:訊號傳輸器 S10~S18:步驟 S20~S26:步驟
第一圖係為本發明之方法所應用之系統。 第二圖係為本發明之方法流程圖。 第三圖係為本發明之加入風力參數調整三維路徑資訊的方法流程圖。
S10~S18:步驟

Claims (11)

  1. 一種利用三維重建地圖搜尋路徑之方法,包括下列步驟: 接收三維點雲圖資訊及三維材質地圖資訊; 利用群中心演算法將該三維點雲圖資訊類聚,以取得分群資訊,及利用材質神經網路模型辨識該三維材質地圖資訊中物件的材質屬性,以取得材質屬性資訊; 擷取該三維點雲圖資訊及該三維材質地圖資訊的座標資訊,以利用該座標資訊將該三維點雲圖資訊及該三維材質地圖資訊融合,以輸出一融合地圖資訊; 利用障礙物神經網路模型,根據該分群資訊及該材質屬性資訊辨識出該融合地圖資訊中的障礙物區域及非障礙物區域;以及 根據該非障礙物區域產生一三維路徑資訊。
  2. 如請求項1所述之利用三維重建地圖搜尋路徑之方法,其中三維路徑資訊包括複數路徑點連接而成,且該等路徑點與該障礙物區域留有一距離形成一避障圓。
  3. 如請求項2所述之利用三維重建地圖搜尋路徑之方法,其中產生該三維路徑資訊之步驟後,更包括: 輸入一風力資訊,判斷該風力資訊是否大於一風級閥值或逆風: 若是,縮減該避障圓的該距離,並降低該三維路徑資訊中Z軸高度位置,以產生一新三維路徑資訊;及 若否,擴大該避障圓的該距離,以產生另一新三維路徑資訊。
  4. 如請求項3所述之利用三維重建地圖搜尋路徑之方法,其中縮減該避障圓的該距離之縮減距離為0~0.7公尺;其中擴大該避障圓的該距離之擴大距離為0~0.5公尺。
  5. 如請求項1所述之利用三維重建地圖搜尋路徑之方法,其中降低該三維路徑資訊中Z軸高度位置係降低0.5~2公尺。
  6. 如請求項1所述之利用三維重建地圖搜尋路徑之方法,其中該非障礙物區域為距離該障礙物區域至少0.5公尺的區域。
  7. 如請求項1所述之利用三維重建地圖搜尋路徑之方法,其中該材質神經網路模型係預先使用不同物件的材質屬性之歷史資料進行訓練。
  8. 如請求項1所述之利用三維重建地圖搜尋路徑之方法,其中該材質屬性為顏色屬性。
  9. 如請求項1所述之利用三維重建地圖搜尋路徑之方法,其中該障礙物神經網路模型係預先使用不同障礙物區域之分群資訊及材質屬性資訊的歷史資料進行訓練。
  10. 如請求項1所述之利用三維重建地圖搜尋路徑之方法,其中該聚類分析算法為基於密度的聚類演算法(Density-based spatial clustering of applications with noise,DBSCAN)。
  11. 如請求項1所述之利用三維重建地圖搜尋路徑之方法,其中該三維點雲圖資訊為三維光達點雲圖資訊;其中該三維材質地圖資訊為三維影像資訊。
TW111106361A 2022-02-22 2022-02-22 利用三維重建地圖搜尋路徑之方法 TWI809727B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW111106361A TWI809727B (zh) 2022-02-22 2022-02-22 利用三維重建地圖搜尋路徑之方法
US17/825,503 US20230267717A1 (en) 2022-02-22 2022-05-26 Method for searching a path by using a three-dimensional reconstructed map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW111106361A TWI809727B (zh) 2022-02-22 2022-02-22 利用三維重建地圖搜尋路徑之方法

Publications (2)

Publication Number Publication Date
TWI809727B TWI809727B (zh) 2023-07-21
TW202334613A true TW202334613A (zh) 2023-09-01

Family

ID=87574280

Family Applications (1)

Application Number Title Priority Date Filing Date
TW111106361A TWI809727B (zh) 2022-02-22 2022-02-22 利用三維重建地圖搜尋路徑之方法

Country Status (2)

Country Link
US (1) US20230267717A1 (zh)
TW (1) TWI809727B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7465290B2 (ja) * 2020-11-09 2024-04-10 達闥機器人股▲分▼有限公司 点群に基づく地図較正方法、システム、ロボット及びクラウドプラットフォーム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9618934B2 (en) * 2014-09-12 2017-04-11 4D Tech Solutions, Inc. Unmanned aerial vehicle 3D mapping system
CN105928493A (zh) * 2016-04-05 2016-09-07 王建立 基于无人机的双目视觉三维测绘系统和方法
KR102082815B1 (ko) * 2018-04-24 2020-02-28 주식회사 지디에프랩 인공지능 기반 해상도 개선 시스템
EP3654064B1 (en) * 2018-11-16 2021-01-13 Bayerische Motoren Werke Aktiengesellschaft Apparatus and method for characterizing an object based on measurement samples from one or more location sensors
CN111141264B (zh) * 2019-12-31 2022-06-28 中国电子科技集团公司信息科学研究院 一种基于无人机的城市三维测绘方法和系统
US20210201145A1 (en) * 2019-12-31 2021-07-01 Nvidia Corporation Three-dimensional intersection structure prediction for autonomous driving applications
JP7505844B2 (ja) * 2020-01-03 2024-06-25 モービルアイ ビジョン テクノロジーズ リミテッド 歩行者を伴い、車両フリースペースを特定する車両ナビゲーション
WO2021217352A1 (zh) * 2020-04-27 2021-11-04 深圳市大疆创新科技有限公司 一种可移动平台的控制方法、装置及可移动平台
CN111928862B (zh) * 2020-08-10 2023-11-21 廊坊和易生活网络科技股份有限公司 利用激光雷达和视觉传感器融合在线构建语义地图的方法
CN112506222A (zh) * 2020-12-10 2021-03-16 中国南方电网有限责任公司超高压输电公司天生桥局 一种无人机智能化避障方法及装置
CN112762957B (zh) * 2020-12-29 2022-12-30 西北工业大学 一种基于多传感器融合的环境建模及路径规划方法
US20230136860A1 (en) * 2021-10-28 2023-05-04 Nvidia Corporation 3d surface structure estimation using neural networks for autonomous systems and applications

Also Published As

Publication number Publication date
TWI809727B (zh) 2023-07-21
US20230267717A1 (en) 2023-08-24

Similar Documents

Publication Publication Date Title
US20220234733A1 (en) Aerial Vehicle Smart Landing
Barry et al. High‐speed autonomous obstacle avoidance with pushbroom stereo
CN108475059B (zh) 自主视觉导航
US11308391B2 (en) Offline combination of convolutional/deconvolutional and batch-norm layers of convolutional neural network models for autonomous driving vehicles
US20210009121A1 (en) Systems, devices, and methods for predictive risk-aware driving
Frew et al. Vision-based road-following using a small autonomous aircraft
Bacik et al. Autonomous flying with quadrocopter using fuzzy control and ArUco markers
McGee et al. Obstacle detection for small autonomous aircraft using sky segmentation
CN112558608B (zh) 一种基于无人机辅助的车机协同控制及路径优化方法
US20180350086A1 (en) System And Method Of Dynamically Filtering Depth Estimates To Generate A Volumetric Map Of A Three-Dimensional Environment Having An Adjustable Maximum Depth
DK201970115A1 (en) DEEP LEARNING FOR OBJECT DETECTION USING PILLARS
CN105759829A (zh) 基于激光雷达的微型无人机操控方法及系统
Lin et al. Autonomous quadrotor navigation with vision based obstacle avoidance and path planning
Griffiths et al. Obstacle and terrain avoidance for miniature aerial vehicles
KR102313115B1 (ko) 인공지능 신경망을 이용한 자율비행 드론
US20190066522A1 (en) Controlling Landings of an Aerial Robotic Vehicle Using Three-Dimensional Terrain Maps Generated Using Visual-Inertial Odometry
EP3989034B1 (en) Automatic safe-landing-site selection for unmanned aerial systems
US20210072041A1 (en) Sensor localization from external source data
Frew et al. Flight demonstrations of self-directed collaborative navigation of small unmanned aircraft
Chen et al. A review of autonomous obstacle avoidance technology for multi-rotor UAVs
CN116301051A (zh) 一种无人机集群控制与避障方法和装置
TWI809727B (zh) 利用三維重建地圖搜尋路徑之方法
Li et al. A survey of indoor uav obstacle avoidance research
Kim et al. Development of a vision-based recognition and position measurement system for cooperative missions of multiple heterogeneous unmanned vehicles
KR102467855B1 (ko) 자율항법지도를 설정하는 방법 및 무인비행체가 자율항법지도에 기초하여 자율 비행하는 방법 및 이를 구현하는 시스템