TWI403690B - 自我定位裝置及其方法 - Google Patents

自我定位裝置及其方法 Download PDF

Info

Publication number
TWI403690B
TWI403690B TW098136414A TW98136414A TWI403690B TW I403690 B TWI403690 B TW I403690B TW 098136414 A TW098136414 A TW 098136414A TW 98136414 A TW98136414 A TW 98136414A TW I403690 B TWI403690 B TW I403690B
Authority
TW
Taiwan
Prior art keywords
point data
data
self
point
tree structure
Prior art date
Application number
TW098136414A
Other languages
English (en)
Other versions
TW201115109A (en
Inventor
Tzung Han Lin
Original Assignee
Ind Tech Res Inst
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ind Tech Res Inst filed Critical Ind Tech Res Inst
Priority to TW098136414A priority Critical patent/TWI403690B/zh
Priority to US12/650,553 priority patent/US8385683B2/en
Publication of TW201115109A publication Critical patent/TW201115109A/zh
Application granted granted Critical
Publication of TWI403690B publication Critical patent/TWI403690B/zh

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • G01S17/875Combinations of systems using electromagnetic waves other than radio waves for determining attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

自我定位裝置及其方法
本發明是有關於一種定位技術,且特別是有關於一種可自我定位,建立二維或三維地圖的定位裝置及其方法。
目前由Google Earth或Virtual Earth所提供的3D GIS平台,一般只能展示三維(3D)的地形資訊,屬於地表上的建築物、道路、樹木與景觀則大多是利用3D模型建構軟體工具以人工逐一建置起來。為了能更精確與更有效率建置這些地表的三維模型,以3D數位掃描是普遍採用的方式。目前主要的3D數位化工具有兩類,一類是在地面上採用定點式的雷射測距儀,隨著雷射線所輻射的方向不同,逐點測量,但因為移動不方便,又有許多量測死角與大量資料定位處理的問題。故對大範圍的區域掃描,使用上非常不便。另一類則是利用外部載具去承載雷射設備,並透過各種方式將載具定位,以達到將感測器的每一個測量位置都可以估算出來,例如空拍(Airbone)測距,直接由飛行器搭載雷達或雷射測距儀,從空中掃描經過地表的所有三維資料,或者單純於地面運動的載具透過主動或被動方式將自己的位置定位出來,達到測量的目的。
目前,需要一種具有高度機動性、操作簡便,又能適用於大範圍街區與不同曲折路徑之道路的三維數位化裝置,能夠在地面上快速擷取建築或地表物景觀的三維資訊。
本發明發展一種具有高度機動性、操作簡便,又能適用於大範圍街區與不同曲折路徑之道路的數位化裝置,能夠在地面上快速擷取建築或地表物景觀的二維或三維資訊。
另外,本發明針對水平運動的可動載具,發展一套多元樹分割與合併方法,可以處理全域比對問題,使得可動載具的相對位置可以被估算出來。可動載具上方搭取像裝置與其他需要被定位的感測器,本發明進一步達到將感測器定位,而透過定位的感測器進行二維或三維地圖數位化之應用。
在此提出一種自我定位的裝置,包括可動載具、第一雷射取像元件與處理器。可動載具可在平面上進行移動與轉動,其中移動與轉動可各自獨立進行。第一雷射取像元件配置在可動載具上,用以在可動載具行進時,在時間點ti 擷取空間中的第i筆點資料,其中i≧1~n,且n為整數。處理器用以控制第一雷射取像元件,並接收上述第i筆點資料的座標(i=1~n)。處理器執行多元樹演算法,將第一雷射取像元件所取得的第i筆點資料與第一筆點資料,進行比較合併程序,以建立二維輪廓。
在此更提出一種自我定位裝置,包括可動載具、第一雷射取像元件、至少一第二雷射取像元件與處理器。可動載具可在平面上進行移動與轉動,其中移動與轉動可各自 獨立進行。第一雷射取像元件配置在可動載具上,用以在可動載具行進時,在時間點ti 擷取空間中沿第一方向的第i筆點資料,i≧1~n,且n為整數。第二雷射取像元件配置在該可動載具上,在時間點tj 擷取空間中沿第二方向的一第j筆點資料(j≧1~m,且m為整數)。處理器用以控制第一與第二雷射取像元件,並接收第一雷射取像元件取得的第i筆點資料以及第二雷射取像元件取得的第j筆點資料(i=1~n,j=1~m)的座標。處理器執行多元樹演算法,將第一雷射取像元件所取得的第i筆點資料與該第一筆點資料,進行比較合併程序,以建立二維輪廓。另外,基於二維輪廓以及第二雷射取像元件取得的第j筆點資料,還原出三維地圖。
在此,更提出一種自我定位方法,包括:利用第一雷射取像元件,在可動載具行進時,在時間點ti 擷取空間中的第i筆點資料,其中i≧1~n,且n為整數。接著,利用一處理器,執行多元樹演算法,將第一雷射取像元件所取得的第i筆點資料與第一筆點資料,進行一比較合併程序,以建立二維輪廓。
為讓本發明之特徵能更明顯易懂,下文特舉較佳實施例,並配合所附圖式,作詳細說明如下。
本實施例在於達到“載具自我定位功能”,且不需要事先校正,也不需額外的覘標。一旦可動載具可以自我定位, 其代表放置於可動載具上的任何取像元件(如包含雷射、CCD等)都可以被定位。換句話說,透過取像元件所取得的三維資訊,也可以被定位出來。
本實施例要解決的定位問題,僅針對相對位置的定位,也就是說以可動載具出發點當做作原點,而所有的位置變化皆是參考這個原點。本實施例針對未知的環境,解決平面運動的定位問題,僅依賴一個感測元件,且可動載具可在任何水平運動模式運作,即可達到自我定位之目的。一旦可動載具可以定位,而可動載具上的其他元件可以透過同步或內插的方式,一併被定位。實施例搭載相機與雷射拍攝屬於地面上的幾何形狀,並可以將這些資訊還原回環境中,而建構空間中的3D幾何與色彩資訊。
圖1繪示本實施例之硬體配置的示意圖。如圖1所示,在可動載具10上配置第一雷射取像元件,其做為定位計算用之元件;例如使用光達(Light Detection And Ranging,LiDAR,或稱雷射測距元件),為使用雷射光束進行掃描式測距之系統。以下實施例中,均以雷射取像元件做為說明例,但非用以限制本發明的實施。
另外,本實施例的定位尚包括一處理器與儲存元件等,可用來控制雷射取像元件以及資料之傳輸、演算、儲存等處理程序。
另外,可動載具10的特性是可在平面上進行水平的移動與轉動。須注意的是,本實施例可允許可動載具10僅在原地轉動而完成自我定位。可動載具10類型可以是輪裝載 具或非輪裝載具。而輪裝載具為單輪載具或多輪載具,例如四輪、三輪、二輪、單輪等的汽車、摩托車等。另外,載具可以是燃料動力裝置、電力動力裝置或人力驅動裝置(如手推車等)。此外,非輪裝載可為履帶裝置、球型裝置、軌道型式裝置或磁浮裝置等。此外,可動載具10亦可以是自走型機器人、履帶或滑動裝置等形式。可動載具10只要可以在略平面地形移動即可,移動模式並特殊限制。
可動載具10的運動模式包括三個自由度(兩個移動與一個轉動),而這三個自由度是互相獨立不受牽制。因此可動載具10可以隨時單純往前後移動、單純往左右平移、單純的自轉,以及複合上述三種運動狀態之模式。另外,根據本實施例,可動載具10本身不需要額外配置感測器,如計步器等計算行走距離的編碼器。
圖2A、2B、2C為說明雷射取像元件之運作原理的概略說明圖。圖2A為雷射取像元件內部的旋轉反射鏡機構,使得雷射光擷取的資料為一角度區間範圍,圖2B繪示在不同時間下,雷射光指向方向之示意圖;圖2C繪示雷射取像元件在運轉一週期後實際取得的輪廓圖(上視圖)。
如圖2A所示,雷射取像元件20內具有雷射光源(未繪出),用以射出一雷射光束24。此雷射光束會射到目標物,然後循原路徑反射回雷射取像元件20,以取得距離的資料。另外,雷射取像元件20更具備反射鏡22,其配置成可以繞一旋轉軸旋轉,使雷射光束24得以在一預設範圍內(預設角度區間範圍),掃描目標物。
圖2B繪示雷射光束每個掃描週期的掃描示意圖,在每個時間點,雷射取像元件20或30會進行一個週期的掃描。亦即,在其可掃描的角度範圍(如圖2A之反射鏡22的旋轉範圍)不斷地發出雷射光、地面物反射雷射光、並由接收到的反射雷射光進行距離的計算。一個週期的掃描次數是t1 ~tn
如圖2C所示,其例示一個掃描結果,例如可動載具10位在起始位置的原點上。當可動載具10位於原點時,圖1之第一雷射取像元件20會在其掃描範圍內掃描一個週期,如圖2B所示之t1 ~tn 。之後,得到掃描資料50,其有多數個資料點所構成,亦即每個地上物反射雷射光束後所得到的地貌輪廓52,而掃瞄處若無地上物,亦即沒有反射之雷射光束,將呈現出例如圖2C所示之直線段54。透過一次掃描所獲得的資料點及其計算出來的距離等,便可以獲得圖2C之二維輪廓。
當可動載具10持續前進,每個時間點所獲得的輪廓資料,便可以整合合併成一個完整的二維平面輪廓,以達到定位之結果。
此外,在可動載具10上還可以搭載一或一個以上的雷射取像元件。例如,在其他實施例中,可動載具10更可以配置第二雷射取像元件30。另外,可動載具10上也可以搭載影像感測元件40,例如CCD元件(彩色或黑白等)於可動載具10上。
圖3繪示可動載具上各種測距與取像元件的配置示意 圖。如圖3所示,在可動載具上除了第一雷射取像元件20(本實施例為LiDAR雷射取像元件)外,尚可配置第二雷射取像元件30(本實施例為LiDAR雷射取像元件),或者加裝影像感測元件(如CCD等)40。在本實施例中,裝影像感測元件例如是使用彩色CCD(數位相機等)。
根據本實施例,因為所有的感測元件(如20、30、40等)均固定相同可動載具10上,故各元件之間的相對位置是固定的。亦即,只要一個元件定位好後,其他元件的定位便可以隨著定位,不需要額外的定位元件。如圖3所示,第一雷射取像元件20的座標中心A與第二雷射取像元件30的座標中心B僅差一平移向量AB,故只要第一雷射取像元件20完成定位,第二雷射取像元件30的相對位置也隨之定位完成。換句話說,透過機構配置,可以很容易的得到其他感測器與第一雷射取像元件之間的空間轉換關係
在此架構下,一旦可動載具10可以自我定位,其代表放置於可動載具上的任何取像元件(如包含雷射、CCD等)都可以被定位。換句話說,透過取像元件所取得的三維資訊,也可以被定位出來。例如,透過第一雷射取像元件20取得的平面(水平方向)資訊)以及第二雷射取像元件30取得的平面(垂直方向)資訊,還原出三維資訊。
在本實施例的硬體架構下,僅需搭載一個雷射取像元件(如LiDAR)做為平面定位裝置,並透過同步或內插方式(後文詳述)使得可動載具上搭載的其他元件也可以被定位出來,達到三維取像目的。
另外,本實施例僅使用一個雷射取像元件(LiDAR)做為定位計算用之元件,該元件放置於可動載具10前面,如圖1之第一雷射取像元件20所示,其可以測量距離,其基本結構是透過一個旋轉的反射鏡取得距離資料。另外,定位的第二台LiDAR(或兩台以上)與彩色CCD等即可做為取得空間中的幾何資料與色彩資訊之用途。
接著說明本實施例之運算部分。運算部分可由軟體方式進行,主要包括兩個運算部分,一為定位運算,另一為同步(或內插)運算。定位運算是針對一個雷射取像元件(LiDAR),同時收集資料,以採用四元樹分割法進行搜尋、比對、整併、融合,並將目前位置與姿態跟四元樹內的點資料做權重型ICP比對,達到建構地圖的目的。另外,關於同步運算,當一個雷射取像元件(LiDAR)被定位後,透過同步(或者軟體內插)方式,可將其他雷射取像元件或感測元件在每個時間下的姿態位置都計算出來,最後達到3D取像的目的。
首先介紹定位運算。本實施例中,例如可以採用類似機器人領域所使用的定位運算。在機器人領域中,如何讓機器人本身獲知自己與環境的相對關係?如同我們對周遭環境的感知,通常我們會以附近的參考物體來描述自身的位置。同樣地,機器人也可以用這樣的形式來描述自己與周遭環境的相對關係,進而重建本身的絕對位置。
圖4繪示可動載具在平面上的移動示意圖。如圖4所示,假設可動載具10(或機器人)行走在一個水平的平面 上,在此稱這個座標系統為卡式座標系(Cartesian coordinate),第i 時間點與第j 時間點的位置差可用一個向量X ij 表示。這個向量x ij 代表從第i時間點移動到第j時間點時,必須先經過θ ij 角度的旋轉後,接著再移動(x ij ,y ij )距離,如方程式(1)所示。同樣地,第j 時間點與第k 時間點的位置差也可用一個向量x jk 表示,如方程式(2)。假設將第i時間點當作原點(或者出發點),向量x ij 代表機器人在第j 時間點的位置狀態。同理,x ik 代表可動載具10在第k時間點的位置狀態。
藉此方式,可動載具10的速度便可以從位置差與時間差的比值獲知,而可動載具10的加速度值可再從速度差分計算出。x ik 可從x ij x jk 的複合運算(compounding operator)獲得,此處稱運算子“⊕”為複合運算子,如方程式(3)所示。在此,以一個向量代表可動載具10的位置,此向量包括旋轉與位移兩種運動模式。
其次,如前所述,向量x ij 代表了從第i時間點移動到第j時間點時,必須先經過θ ij 角度的旋轉後,接著再移動(x ij ,y ij )距離。句話說,若時間反轉,可動載具10由第j時間點倒移到第i時間點時,可動載具10則先移動(-x ij ,-y ij ),然後再旋轉-θ ij 角度。在此定義一個反運算子“”,使得向量x ij 與向量x ji 可以滿足逆運算關係,如方程式(4)所示。
由方程式(3)與(4),可以很輕易的從可動載具10的連續兩個時間點關係去推算可動載具10的絕對位置。理論上,可動載具10在第n時間點的位置可以透過如方程式(5)所示之一連串估算來獲得。
x 0n =⊕(...⊕(⊕(x 0,1 ,x 1,2 ),x 2,3 ),...,x (n-1),n ) (5)
但是,方程式(5)的方法推算,固然直覺且簡單,但這種推算法很容易使得測量數據的誤差快速累積。從測量的角度來看,任何感測器都存在著測量的不確定性(uncertainty),這些測量的不確定性通常以誤差來描述它或記錄它。從過去的研究資料中顯示,可動載具(或機器人)移動時的誤差累積相當快,其中角度誤差的成長遠比位置誤差來得快。因此,有許多應用例子則適度的加入人工的標示物來補償誤差。從理論分析來看,假若要計算出可動 載具在每個時間點的絕對位置,則必須先知到每兩個連續時間點相對關係,這類的問題牽涉到兩組資料的對應關係,在此我們採用二維的疊代最近點(iterative closest points,以下均稱ICP)方法來解決這個問題,並且排除測量時候可能發生的問題。
連續兩次掃瞄點的比對,可以由下面的方程式(6)與(7)來計算出最佳的相對位移向量:[Γ x’ Γ y’ Γ θ ] T ,其中方程式(6)為ICP的目標函數。假設兩組欲被比對的資料序列且每組對應點為a i b i ,對應點的數目為n,而向量Γ’ =[Γ x’ Γ y’ Γ θ ] T ,滿足方程式(6),使得E有最小值,這意味著b i 移動Γ後與a i 之間的距離差異最低,其解如方程式(7)所示。
其中(a x i a y i )與(b x i b y i )為兩筆掃瞄資料的對應點,在ICP的應用例中,對應點必須符合"距離最接近"或"相似程度最高"。在此實施例中,實驗設備採用德國SICK公司生產的長距離雷射掃描器(LMS-291),其掃瞄所得的形式為一序列的點資料,掃瞄所得的資料為涵蓋一個截面的點資料,該設備的高速傳輸模式(RS-422介面)每秒可取得37.5次單一截面完整掃瞄(包括361個點,在180度的平面中每0.5度掃瞄獲得一個反射點資料)。
綜合上面所敘述,任何一筆掃瞄資料間的整併都必須透過ICP計算,且僅能在相鄰幾次掃瞄時做比對,因此比對相當耗時無法達到及時運算,為了提高效率以及達到全域性比對,本實施例提出一個多元樹(K-D tree)的結構,例如四元樹,其將每一筆掃瞄資料融入一個四元樹結構中,資料結構如圖5A所示。
首先,先以圖5A、5B來做說明。圖5A是一個四元樹的例子,其顯示四層結構,每一層具有多個節點(或稱子空間或分支)。每一層的節點又可以往下延伸多個節點,每個節點是由多數個點資料所構成。圖5B是之前圖2C的變化。以可動載具10將起始點設定為原點為例子,並且將二維輪廓以原點為中心,分成四個象限I、II、III、IV。配合圖5A、5B,原點A對應圖5A之四元樹的最上端節點A。接著,由節點A向下衍生成四個節點(第二層),每個節點均對應到圖5B中的每一個象限I、II、III、IV。
在圖5B中,將一個時間點(在此為原點)所掃描得到的 二維輪廓點資料分成四個區域(象限、子空間),各象限中的點資料則分別填入四元樹對應的節點中。在此例中,象限I更可挑出一中心點A’,做為四元樹第二層之節點A’。如上述方式,以A’為中心,將區域I在分割成四個象限區域I’、II’、III’、IV’,其分別對應圖5A中之四元樹第三層。子空間是否進行分割,可以檢查每個節點(子空間)所佔的點數密度,假如點數密度高過某個設定值,則將該節點分割,向下產生新的層。各區域I’、II’、III’、IV’中的點資料,則填入對應的節點中。如此,便可以得對對應一特定時間點的四元樹資料結構。其中,不再往下分支者稱為點集合(point cluster),而可再往下分割者,稱為分割中心(patition center)。本實施例的方法便是利用在各個時間點所建立的四元樹資料結構,來進行比對、融合、合併等程序,建立出完整的二維平面輪廓。
接著參考圖6A-6D來說明兩筆掃描資料的比對與整合。首先在時間點ti ,可動載具10上雷射取像元件取得第i筆點資料,表示該時間點ti 的地上物輪廓,如圖6A所示。接著在時間點ti+1 ,可動載具10上雷射取像元件接著取得第i+1筆點資料,表示該時間點ti+1 的地上物輪廓,如圖6B所示。地上物基本上是固定的,在可動載具行進過程中,有些目標是相同的。因此,在時間點ti 與時間點ti+1 所取得的兩筆點資料,基本上會有很高的重複性。
接著,如圖6C所示,將圖6A與6C的點資料進行比較後,可以發現有許多點資料是對應到相同的地上物對應 點,如圈起來的部份所表示的點。另外,也會有在時間點ti+1 掃描時所增加或減少的點,如圖6C中未被圈起來的點。
之後,將輪廓還原成圖6D所示,對應到相同對應點的點資料便會重疊在一起,如符號*所示,符號C表示在時間點ti+1 新增加的資料點,幅號A表示在時間點ti+1 未再出現的資料點。符號B則例如可以定義為權重型的資料點。
上述新增加的資料點,可以在圖5A所示的四元樹資料結構中,從其中一分割中心點繼續往下產生分支。藉由此方式,可以建立出一完整的四元樹結構,並且還原出完整的二維輪廓剖面。
接著,參考圖7A-7D與圖8說明多元樹的計算流程。
配合圖1,首先在圖8之步驟110,將可動載具10目前所在的位置設定為原點,並利用主LiDAR(即第一雷射取像元件20)對地上物進行掃描,獲得第一筆掃描資料,並建立一四元樹(如圖7A左側),建立方式可以參考圖5A、5B的說明。圖8之步驟110、112、114、116、118包括以下的步驟流程。
(i)定目前位置原點,並由第一筆掃瞄建立一個四元樹結構。
(ii)第i筆掃瞄與四元樹結構比較,找尋四元樹結構中各節點內之最接近的點資料最為比對點。
(iii)使用權重型ICP計算第i筆點資料,並乘以一個轉換矩陣M’0i ,使得該筆點資料靠近四元樹所代表的位置。當誤差小於某個設定值,或疊代次數高於某個設定值 則進入步驟(iv),否則回到步驟(ii)。
(iv)將第i筆點資料融合入四元樹內,融合時將每筆點資料分配到對應的四元樹節點(子空間)中。若每個節點中的每個點資料假如足夠靠近,則將兩個點資料依權重合併。
(v)檢查每個節點所佔的點數密度,假如高過某個設定值,則將該節點分割。
(vi)記住目前位置與方位(包含速度與角速度),回到步驟(ii),以進行下一步掃瞄(i=i+1)。
上述步驟(i)至(vi),即圖8的步驟110-118。在四元樹上所呈現的具體運作概念圖如圖7A至7D所示。當第i筆點資料([P i ])已經取得,[P i ]即是代表目前可動載具10的位置與方位狀態。透過與四元樹的位置比對,可以找到最接近的對應點(圖7A)。經過權重型ICP疊代後[P i ]的位的置已經被改變到M’ 0i [P i ](圖7B)。之後,將每一筆點資料逐一的融入四元樹中(圖7C)。最後,產生新的四元樹,如圖7D所示。
接著說明與可動載具上其他感測器整合之方式。如前所說明,透過第一雷射取像元件20進行定位運算後,可以明確知道可動載具10的運動路線。另外,如果搭載第二雷射取像元件30(掃描其他方位)時,便可以在每個時間點找出所對應到的方位資料(即如第二雷射取像元件30的掃描資料)。進一步透過這些的資訊,可以使用同步的技術或內插的技術,將他感測器的位置也計算出來。
在在同步的情況下,第一雷射取像元件(LiDAR)與其他元件間僅有位置(包含方位)的差異。因此,座標轉換僅需一個4x4的矩陣便可以轉換兩者的座標系。若以軟體同步來處理的話,則需使用內插技術。如圖9的例子所示,第一雷射取像元件(LiDAR)20發生的時間軸是如方塊所示。當有其他的感測元件(如第二雷射取像元件(LiDAR)30或影像感測元件(如CCD)40等)時,其取像發生的時間為t 且介於t 0 t 1 之間,則內插所得的位置如方程式(8)所示。第一雷射取像元件(LiDAR)20於t 0 t 1 所發生的位置分別是x M | t0 與x M | t1 ,而第二雷射取像元件(LiDAR)30於t 時間時,第一雷射取像元件(LiDAR)20最可能的位置為x S | t ,其可以被輕易計算出來。
因此,第二雷射取像元件(LiDAR)座標系(P')便可以透過4x4的轉換矩陣,將時間t 當下的第一雷射取像元件(LiDAR)20座標(P S )換成過來,其如方程式(9)所示。而這個4x4的轉換矩陣可以從設計圖(如圖3)或其他校正方式計算出來。以本實施例而言(針對圖3的設計而言),第二雷射取像元件(LiDAR)30以及影像感測元件(如彩色CCD)40相對於第一雷射取像元件(LiDAR)10的座標轉換分別列出如方程式(10)與(11),方程式(10)至(11)在此僅為例子。
P’ =M 4 x4 Ps (9)
圖10繪示應用本實施例的方法進行可動載具10定位的一個實驗示意圖。根據上述之手段,如圖10所示,圖中的垂直與水平線代表多元樹的每個分割空間(即節點,參考圖5A、5B的說明),標號76多元樹的節點。在每個分割空間中皆佔有一部分點資料(標號70所構成)。這些點資料70即代表所有第一雷射取像元件20所取得的掃瞄點,並經過權重型ICP調整位置後合併入多元樹結構之結果。
另外,標號72的軌跡代表可動載具10所行經過的路線。軌跡78大部分代表如行人等之動態物件的軌跡,由於距離誤差太大被視為不可用的參考點。在定位程序中,會被忽略而不列入計算。
從此實驗結果說明,透過自我定位程序,可以得到可動載具10的軌跡,且每個軌跡所對應的時間戳記(timestamp)也可以被記錄下來。
圖10是以四元樹方法建構的地圖,由此可看出每個分割區域所包含的點資料一旦定位完成後,透過同步或內插技術,我們可以計算出第二雷射取像元件(LiDAR)30的座 標位置,實驗結果如圖11所示,圖中80色所呈現的資料為定位所建構出的2D地圖資料,82部分為第二雷射取像元件(LiDAR)所得到的3D點資料,還原於空間中所產生的點資料。同樣的方法也可以套用在其他影像感測元件(如彩色CCD)40,將影像的空間位置確定下來,達到影像定位的目的,可顯示一連串的影像與地圖以及3D點之相對關係,
因此,本實施例對於平面運動的可動載具10,不僅可將其他雷射取像元件(LiDAR),亦可以用於將如彩色CCD之類的取像元件進行,將其他雷射取像元件(LiDAR)後,把點還原回空間中所得的結果。
綜上所述,透過本實施例,利用可以進行水平移動與轉動之可動載具、定位用雷射元件、傳輸、計算與儲存元件,有需要時再加上其他取像用途之取像元件,便可以以簡單的硬體架構,獲得2D定位的地圖。另外,透過第二個定位用雷射元件,更可以建立出3D地圖資訊。
另外,在軟體上,本實施例可以持續讀取接收來自雷射取像元件(LiDAR)之點資料。根據第一筆LiDAR的點資料,建立四元樹結構。之後,持續比對目前位置與四元樹結構之相對位置(估算目前可動載具位置)。接著,持續融合(包含合併、擴充與更新)四元樹結構之分支的點資料,藉以建立2D定位的地圖。此外,更可以透過同步或內插的方法,將可動載具上其他感測器之對應位置定位出來,藉此得以建立3D地圖。
雖然本發明已以較佳實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明之精神和範圍內,當可作些許之更動與潤飾,因此本發明之保護範圍當視後附之申請專利範圍所界定者為準。
10‧‧‧可動載具
20‧‧‧第一雷射取像元件
22‧‧‧反射鏡
24‧‧‧雷射光束
30‧‧‧第二雷射取像元件
40‧‧‧影像感測元件
50‧‧‧掃描資料
52‧‧‧地貌輪廓
54‧‧‧直線段
70‧‧‧點資料
72‧‧‧載具軌跡
76‧‧‧多元樹的節點
78‧‧‧動態物件的軌跡
80‧‧‧2D地圖資料
82‧‧‧3D地圖資料
圖1繪示本實施例之硬體配置的示意圖。
圖2A、2B、2C為說明雷射取像元件之運作原理的概略說明圖。
圖3繪示可動載具上各種測距與取像元件的配置示意圖。
圖4繪示可動載具在平面上的移動示意圖。
圖5A、5B繪示四元樹之示意圖及其對應的掃描輪廓示意圖。
圖6A-6D為兩筆掃描資料點之比對與合併的概略說明圖。
圖7A-7D繪示本實施例之四元樹之比較、合併的步驟示意圖。
圖8繪示二維輪廓之2D地圖的建立以及3D地圖之建立的流程示意圖。
圖9為說明內插定位第二個雷射取像元件的示意圖。
圖10繪示應用本實施例的方法進行可動載具定位的一個實驗示意圖。
圖11繪示本實施例之還原3D地圖的實驗示意圖。
步驟100~118‧‧‧自我定位之各執行步驟

Claims (37)

  1. 一種自我定位裝置,包括:一可動載具,係在平面上進行一移動與一轉動,其中該移動與該轉動係各自獨立進行;一雷射取像元件,配置在該可動載具上,用以在該可動載具行進時,在時間點ti 擷取空間中的一第i筆點資料,其中i≧1~n,且n為整數;以及一處理器,用以控制該雷射取像元件,並接收該第i筆點資料的座標(i=1~n);其中,該處理器執行一多元樹演算法,將該雷射取像元件所取得的該第i筆點資料與該第一筆點資料,進行一比較合併程序,以建立一二維輪廓,其中該比較合併程序更包括:(i)以該第一筆點資料,建立一多元樹結構,該多元樹結構具有多數個節點,各該節點由多數個點資料構成;(ii)將該第i筆點資料與該多元樹結構中的各該節點中的各該些點資料進行比較,以找尋各該節點中最接近該第i筆點資料的一點資料做為一比對點;(iii)將該第i筆點資料合併到該多元樹結構中;以及(iv)儲存該可動載具目前之位置與方位。
  2. 如申請專利範圍第1項所述之自我定位裝置,其中在該步驟(iii)更包括:在合併時,將各該第i筆點資料分配到該多元樹結構中所對應的一節點中。
  3. 如申請專利範圍第2項所述之自我定位裝置,其中在該步驟(iii)更包括:當各該節點中的各該點資料接近到一預設值,將各該點資料依據一權重進行合併。
  4. 如申請專利範圍第1項所述之自我定位裝置,其中在該步驟(iii)後更包括:當該多元樹結構的各該節點的點數密度超過一預設值時,將該節點進行分割。
  5. 如申請專利範圍第1項所述之自我定位裝置,其中該多元樹演算法,是將該雷射取像元件所取得該第i點資料(i=1~n),透過該處理器,產生一多元樹結構,且該多元樹結構與目前掃描取得的該第i筆點資料進行一資料比對、一資料融合以及一載具位置更新。
  6. 如申請專利範圍第5項所述之自我定位裝置,其中該資料比對是將該多元樹結構與該可動載具之目前位置所掃瞄取得之該第i筆點資料進行一全域性比對,藉以決定一對應點,並使用一權重型ICP運算(rational ICP),使得掃瞄的該第i筆點資料(i=1~n)與一地圖資料之匹配誤差最小。
  7. 如申請專利範圍第5項所述之自我定位裝置,其中該資料融合是將該第i筆點資料逐一分配到該多元樹結構中之對應的一節點,並且與該節點中相近的一點資料進行一權重線性合併,且更新合併後的該點資料之權重值。
  8. 如申請專利範圍第5項所述之自我定位裝置,其中該載具位置更新是指當該第i筆點資料合併到該多元樹結 構的同時,將此時之該可動載具所對應的位置、方位與時間資訊記錄下來。
  9. 如申請專利範圍第1項所述之自我定位裝置,其中該可動載具包括一輪裝載具或一非輪裝載具。
  10. 如申請專利範圍第9項所述之自我定位裝置,其中該輪裝載具包括單輪載具或多輪載具。
  11. 如申請專利範圍第1項所述之自我定位裝置,其中該可動載具包括一燃料動力裝置、一電力動力裝置或一人力驅動裝置。
  12. 如申請專利範圍第9項所述之自我定位裝置,其中該非輪裝載具包括一履帶裝置、一球型裝置、一軌道型式裝置或一磁浮裝置。
  13. 一種自我定位裝置,包括:一可動載具,係在平面上進行一移動與一轉動,其中該移動與該轉動可各自獨立進行;一第一雷射取像元件,配置在該可動載具上,用以在該可動載具行進時,在時間點ti 擷取空間中沿一第一方向的一第i筆點資料,i≧1~n,且n為整數;至少一第二雷射取像元件,配置在該可動載具上,在時間點tj 擷取空間中沿一第二方向的一第j筆點資料(j≧1~m,且m為整數);以及一處理器,用以控制該第一與該第二雷射取像元件,並接收該第一雷射取像元件取得的該第i筆點資料與該第二雷射取像元件取得的該第j筆點資料的座標(i=1~n, j=1~m),其中,該處理器執行一多元樹演算法,將該第一雷射取像元件所取得的該第i筆點資料與該第一筆點資料,進行一比較合併程序,以建立一二維輪廓,及基於該二維輪廓以及該第二雷射取像元件取得的該第j筆點資料,還原出一三維地圖,其中該比較合併程序更包括:(i)以該第一筆點資料,建立一多元樹結構,該多元樹結構具有多數個節點,各該節點由多數個點資料構成;(ii)將該第i筆點資料與該多元樹結構中的各該節點中的各該些點資料進行比較,以找尋各該節點中最接近該第i筆點資料的一點資料做為一比對點;(iii)將該第i筆點資料合併到該多元樹結構中;以及(iv)儲存該可動載具目前之位置與方位。
  14. 如申請專利範圍第13項所述之自我定位裝置,其中在該步驟(iii)更包括:在合併時,將各該點資料分配到該多元樹結構中所對應的一節點中。
  15. 如申請專利範圍第14項所述之自我定位裝置,其中在該步驟(iii)更包括:當各該節點中的各該點資料接近到一預設值,將各該點資料依一權重進行合併。
  16. 如申請專利範圍第14項所述之自我定位裝置,其中在該步驟(iii)後更包括:當該多元樹結構的一節點中的點數密度超過一預設值 時,將該節點進行分割。
  17. 如申請專利範圍第13項所述之自我定位裝置,其中該多元樹演算法,是將該第一雷射取像元件所取得該第i筆點資料(i=1~n),透過該處理器,組織成一多元樹結構,且該多元樹結構與目前掃描取得的該第i筆點資料進行一資料比對、一資料融合以及一載具位置更新。
  18. 如申請專利範圍第17項所述之自我定位裝置,其中該資料比對是指將該多元樹結構與該可動載具之目前位置所掃瞄取得之該第i筆點資料進行一全域性比對,藉以決定一對應點,並使用一權重型ICP運算(rational ICP),使得掃瞄的第i筆點資料(i=1~n)與一地圖資料之匹配誤差最小。
  19. 如申請專利範圍第17項所述之自我定位的裝置,其中該資料融合是將該第i筆點資料逐一分配到該多元樹結構中之對應的節點,並且與該節點中相近的一點資料進行一權重線性合併,且更新合併後的該點資料之權重值。
  20. 如申請專利範圍第17項所述之自我定位的裝置,其中該載具位置更新是指當該第i筆點資料合併到該多元樹結構的同時,將此時之該可動載具所對應的位置、方位與時間資訊記錄下來。
  21. 如申請專利範圍第13項所述之自我定位裝置,其中該處理器利用一同步演算法或一內插演算法,計算該第一與該第二雷射取像元件之在任何時間的一相對位置與一相對方位。
  22. 如申請專利範圍第13項所述之自我定位的裝置,其中該可動載具包括一輪裝載具或一非輪裝載具。
  23. 如申請專利範圍第22項所述之自我定位的裝置,其中該輪裝載具包括單輪載具或多輪載具。
  24. 如申請專利範圍第13項所述之自我定位的裝置,其中該可動載具包括一燃料動力裝置、一電力動力裝置或一人力驅動裝置。
  25. 如申請專利範圍第22項所述之自我定位的裝置,其中該非輪裝載包括一履帶裝置、一球型裝置、一軌道型式裝置或一磁浮裝置。
  26. 如申請專利範圍第13項所述之自我定位裝置,更包括一取像裝置。
  27. 如申請專利範圍第26項所述之自我定位裝置,其中該取像裝置包括聲納、黑白CCD或彩色CCD。
  28. 一種自我定位方法,包括:利用一第一雷射取像元件,在一可動載具行進時,在時間點ti 擷取空間中的一第i筆點資料,其中i≧1~n,且n為整數;利用一處理器,執行一多元樹演算法,將該第一雷射取像元件所取得的該第i筆點資料與該第一筆點資料,進行一比較合併程序,以建立一二維輪廓,其中該比較合併程序更包括:(i)以該第一筆點資料,建立一多元樹結構,該多元樹結構具有多數個節點,各該節點由多數個點資料構成; (ii)將該第i筆點資料與該多元樹結構中的各該節點中的各該些點資料進行比較,以找尋各該節點中一最接近該第i筆點資料的點資料做為一比對點;(iii)將該第i筆點資料合併到該多元樹結構中;以及(iv)儲存該可動載具目前之位置與方位。
  29. 如申請專利範圍第28項所述之自我定位方法,其中在該步驟(iii)更包括:在合併時,將各該第i筆點資料分配到該多元樹結構中所對應的一節點。
  30. 如申請專利範圍第29項所述之自我定位方法,其中在該步驟(iii)更包括:當各該節點中的各該點資料接近到一預設值,將各該點資料依一權重進行合併。
  31. 如申請專利範圍第28項所述之自我定位方法,其中在該步驟(iii)後更包括:當該多元樹結構的一節點的點數密度超過一預設值時,將該節點進行分割。
  32. 如申請專利範圍第28項所述之自我定位方法,其中該多元樹演算法,是將該第一雷射取像元件所取得該第i筆點資料(i=1~n),透過該處理器,產生一多元樹結構,且該多元樹結構與目前掃描取得的該第i筆點資料進行一資料比對、一資料融合以及一載具位置更新。
  33. 如申請專利範圍第32項所述之自我定位方法,其中該資料比對是將該多元樹結構與該可動載具之目前位置所掃瞄取得之該第i筆點資料進行一全域性比對,藉以決 定一對應點,並使用一權重型ICP運算(rational ICP),使得掃瞄的該第i筆點資料(i=1~n)與一地圖資料之匹配誤差最小。
  34. 如申請專利範圍第32項所述之自我定位方法,其中該資料融合是將該第i筆點資料逐一分配到該多元樹結構中之對應的一節點,並且與該節點中相近的一點資料進行一權重線性合併,且更新合併後的該點資料之權重值。
  35. 如申請專利範圍第32項所述之自我定位方法,其中該載具位置更新是指當該第i筆掃瞄資料合併到該多元樹結構的同時,將此時之該可動載具所對應的位置、方位與時間資訊記錄下來。
  36. 如申請專利範圍第28項所述之自我定位方法,更包括:利用至少一第二雷射取像元件,在時間點tj 擷取空間中沿一第二方向的一第j筆點資料,其中j≧1~m,且m為整數;以及依據該二維輪廓以及該第二雷射取像元件取得的該第j筆點資料(j=1~m),還原出一三維地圖。
  37. 如申請專利範圍第28項所述之自我定位方法,更包括利用一同步演算法或一內插演算法,計算該第一與該第二雷射取像元件之在任何時間的一相對位置與一相對方位。
TW098136414A 2009-10-26 2009-10-26 自我定位裝置及其方法 TWI403690B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW098136414A TWI403690B (zh) 2009-10-26 2009-10-26 自我定位裝置及其方法
US12/650,553 US8385683B2 (en) 2009-10-26 2009-12-31 Self-positioning device and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW098136414A TWI403690B (zh) 2009-10-26 2009-10-26 自我定位裝置及其方法

Publications (2)

Publication Number Publication Date
TW201115109A TW201115109A (en) 2011-05-01
TWI403690B true TWI403690B (zh) 2013-08-01

Family

ID=43898498

Family Applications (1)

Application Number Title Priority Date Filing Date
TW098136414A TWI403690B (zh) 2009-10-26 2009-10-26 自我定位裝置及其方法

Country Status (2)

Country Link
US (1) US8385683B2 (zh)
TW (1) TWI403690B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11024055B2 (en) 2018-11-29 2021-06-01 Industrial Technology Research Institute Vehicle, vehicle positioning system, and vehicle positioning method

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8515257B2 (en) 2007-10-17 2013-08-20 International Business Machines Corporation Automatic announcer voice attenuation in a presentation of a televised sporting event
CN103717995B (zh) * 2011-08-29 2016-05-11 株式会社日立制作所 监视装置、监视系统及监视方法
GB201202344D0 (en) 2012-02-10 2012-03-28 Isis Innovation Method of locating a sensor and related apparatus
GB2501466A (en) * 2012-04-02 2013-10-30 Univ Oxford Localising transportable apparatus
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
US9091628B2 (en) 2012-12-21 2015-07-28 L-3 Communications Security And Detection Systems, Inc. 3D mapping with two orthogonal imaging views
ITTO20130202A1 (it) * 2013-03-15 2014-09-16 Torino Politecnico Dispositivo e sistema di scansione tridimensionale, e relativo metodo.
TWI502297B (zh) * 2013-11-18 2015-10-01 Weistech Technology Co Ltd Mobile device with route memory function
US9625582B2 (en) 2015-03-25 2017-04-18 Google Inc. Vehicle with multiple light detection and ranging devices (LIDARs)
US10359507B2 (en) * 2016-12-30 2019-07-23 Panosense Inc. Lidar sensor assembly calibration based on reference surface
CN108820073B (zh) * 2018-04-17 2021-02-26 哈尔滨理工大学 基于磁悬浮的球轮车结构装置及集成控制方法
US11733387B2 (en) 2018-10-25 2023-08-22 Aeye, Inc. Adaptive ladar receiver control using spatial index of prior ladar return data
US11536845B2 (en) 2018-10-31 2022-12-27 Waymo Llc LIDAR systems with multi-faceted mirrors
US10641897B1 (en) 2019-04-24 2020-05-05 Aeye, Inc. Ladar system and method with adaptive pulse duration
KR102610001B1 (ko) * 2019-07-22 2023-12-06 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 자율 주행 차량 중의 센서 동기화 데이터 분석을 위한 시스템
CN111596299B (zh) * 2020-05-19 2022-09-30 三一机器人科技有限公司 反光柱跟踪定位方法、装置及电子设备
WO2021245834A1 (ja) * 2020-06-03 2021-12-09 日本電信電話株式会社 物体検知装置、検知処理装置、検知処理方法およびプログラム
CN113158399B (zh) * 2020-12-14 2024-03-12 中国国家铁路集团有限公司 钢轨廓形动态拼接处理方法及装置
US20240126267A1 (en) * 2022-10-14 2024-04-18 Omron Corporation Mobile robot localization systems

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
TW200725433A (en) * 2005-12-29 2007-07-01 Ind Tech Res Inst Three-dimensional face recognition system and method thereof
TW200928570A (en) * 2007-12-28 2009-07-01 Ind Tech Res Inst Method for three-dimension (3D) measurement and an apparatus thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8313339D0 (en) 1983-05-14 1983-06-22 Gen Electric Co Plc Vehicle guidance
US6061644A (en) 1997-12-05 2000-05-09 Northern Digital Incorporated System for determining the spatial position and orientation of a body
WO2004059900A2 (en) 2002-12-17 2004-07-15 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
US7057548B1 (en) 2003-10-03 2006-06-06 Geophysical Survey Systems, Inc. Automatic data capture technology to enhance data collection
US7689321B2 (en) 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
TW200725433A (en) * 2005-12-29 2007-07-01 Ind Tech Res Inst Three-dimensional face recognition system and method thereof
TW200928570A (en) * 2007-12-28 2009-07-01 Ind Tech Res Inst Method for three-dimension (3D) measurement and an apparatus thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11024055B2 (en) 2018-11-29 2021-06-01 Industrial Technology Research Institute Vehicle, vehicle positioning system, and vehicle positioning method

Also Published As

Publication number Publication date
TW201115109A (en) 2011-05-01
US20110097014A1 (en) 2011-04-28
US8385683B2 (en) 2013-02-26

Similar Documents

Publication Publication Date Title
TWI403690B (zh) 自我定位裝置及其方法
Prusak et al. Pose estimation and map building with a time-of-flight-camera for robot navigation
Borrmann et al. Globally consistent 3D mapping with scan matching
CN109313024B (zh) 具有实时在线自我运动估计的激光扫描仪
Chen et al. Indoor localization algorithms for a human-operated backpack system
Yuan et al. Efficient and probabilistic adaptive voxel mapping for accurate online lidar odometry
Holz et al. Continuous 3D sensing for navigation and SLAM in cluttered and dynamic environments
Liu et al. An enhanced lidar inertial localization and mapping system for unmanned ground vehicles
Wang et al. Acoustic camera-based pose graph slam for dense 3-d mapping in underwater environments
Forsman et al. 3-D mapping of natural environments with trees by means of mobile perception
US20220214696A1 (en) Simultaneous Localization and Mapping
Kim et al. High-precision underwater 3d mapping using imaging sonar for navigation of autonomous underwater vehicle
CN113778096B (zh) 室内机器人的定位与模型构建方法及系统
Tu et al. Multi-camera-lidar auto-calibration by joint structure-from-motion
Shacklock et al. Visual guidance for autonomous vehicles: capability and challenges
Birk et al. Simultaneous localization and mapping (SLAM)
Jensen et al. Laser range imaging using mobile robots: From pose estimation to 3D-models
CN112505723B (zh) 一种基于导航点选择的三维地图重建方法
Xie et al. Map merging with terrain-adaptive density using mobile 3D laser scanner
Li et al. Localization of leader-follower formations using kinect and RTK-GPS
Li et al. Object-Aware View Planning for Autonomous 3D Model Reconstruction of Buildings Using a Mobile Robot
Grinstead et al. Developing detailed a priori 3D models of large environments to aid in robotic navigation tasks
WO2023002978A1 (ja) 画像生成処理装置、3次元形状の復元システム、画像生成処理方法およびプログラム
KR102577907B1 (ko) 3차원 맵 생성 방법 및 시스템
Yu et al. A new 3D map reconstruction based mobile robot navigation