TW202124917A - 擴增實境裝置與定位方法 - Google Patents
擴增實境裝置與定位方法 Download PDFInfo
- Publication number
- TW202124917A TW202124917A TW108147692A TW108147692A TW202124917A TW 202124917 A TW202124917 A TW 202124917A TW 108147692 A TW108147692 A TW 108147692A TW 108147692 A TW108147692 A TW 108147692A TW 202124917 A TW202124917 A TW 202124917A
- Authority
- TW
- Taiwan
- Prior art keywords
- point
- point cloud
- augmented reality
- positioning method
- reality device
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1652—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/64—Analysis of geometric attributes of convexity or concavity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Navigation (AREA)
Abstract
本發明提出一種定位方法,適用於一電子裝置,此電子裝置包括深度感測器與慣性量測單元。上述的定位方法包括:根據慣性量測單元的訊號計算電子裝置的初始位置與初始方向;從資料庫中取得環境點雲,並根據初始位置與初始方向取得局部環境點雲;透過深度感測器取得讀取點雲;以及配對讀取點雲與局部環境點雲以計算出電子裝置的更新位置與更新方向。
Description
本發明是有關於一種定位方法,可用於擴增實境裝置或一般的電子裝置。
空間位置與姿態的認知主要應用於運算元件需與現實空間結合之場景,傳統上進行空間位置與姿態資訊的取得主要應用慣性量測單元來進行,然而慣性量測單元具有長時間測量下產生積分誤差與缺乏位置資訊的缺點。現今多數室外場域可應用全球定位資訊系統(GPS)取得位置資訊,然而在室內的場域,透過GPS進行定位是不可靠的。常見的無GPS室內空間位置與姿態定義的技術為同步定位與地圖構建(Simultaneous localization and mapping,SLAM),然而在工業界應用上,在固定的空間場域中,不斷進行場域模型更新是冗餘的。不斷進行地圖更新除了耗費大量的運算資源,且在工業界的應用上,人員會不斷在不同區域之間轉換,SLAM可能會因為建圖環境差異而造成圖資錯誤。
本發明的實施例提出一種定位方法,適用於一電子裝置,此電子裝置包括深度感測器與慣性量測單元。上述的定位方法包括:根據慣性量測單元的訊號計算電子裝置的初始位置與初始方向;從資料庫中取得環境點雲,並根據初始位置與初始方向從環境點雲中取得局部環境點雲;透過深度感測器取得讀取點雲;以及配對讀取點雲與局部環境點雲以計算出電子裝置的更新位置與更新方向。
在一些實施例中,上述的定位方法包括求解以下方程式(1)。
其中 p i 為讀取點雲中的第i個點, q i 為局部環境點雲中的第i個點,點 q i 配對至點 p i ,w i 為點 p i 與點 q i 所對應的權重, R 為旋轉矩陣, t 為位移向量,N表示讀取點雲中點的數目。
在一些實施例中,權重w i 與點 q i 和( Rp i + t )之間的距離成負相關。
在一些實施例中,點 p i 與點 q i 包括X座標、Y座標、Z座標與法向量。
在一些實施例中,上述的定位方法更包括:從讀取點雲中取得點 p i 與多個相鄰點;以及對點 p i 與相鄰點執行主成份分析以取得多個特徵值與多個主成份,並且把特徵值中的最小特徵值所對應的主成份設定為點 p i 的法向量。
在一些實施例中,點 p i 與點 q i 還包括曲率因子,
上述的定位方法還包括:將最小特徵值除以特徵值的總和以計算出曲率因子。
以另一個角度來說,本發明的實施例提出一種擴增實境裝置,包括慣性量測單元、深度感測器與處理器,處理器用以執行多個步驟:根據慣性量測單元的訊號計算擴增實境裝置的一初始位置與一初始方向;從資料庫中取得環境點雲,並根據初始位置與初始方向從環境點雲中取得局部環境點雲;透過深度感測器取得讀取點雲;以及配對讀取點雲與局部環境點雲以計算出擴增實境裝置的更新位置與更新方向。
在一些實施例中,讀取點雲包括多個點,每一個點對應至一權重,上述處理器執行的步驟更包括:對於每一個點,根據點的深度來設定點所對應的權重,其中點的深度反比於點所對應的權重;以及求解上述方程式(1)。
在一些實施例中,點 p i 與點 q i 包括X座標、Y座標、Z座標與法向量,上述處理器執行的步驟還包括:從讀取點雲中取得點 p i 與多個相鄰點;以及對點 p i 與相鄰點執行主成份分析以取得多個特徵值與多個主成份,並且把最小特徵值所對應的主成份設定為點 p i 的法向量。
在一些實施例中,點 p i 與點 q i 還包括曲率因子,上述處理器執行的步驟還包括:將最小特徵值除以特徵值的總和以計算出曲率因子。
在上述的裝置與方法中,可由慣性量測單元做粗略的定位,然後透過點雲配對做進一步的定位,如此一來
可以提供精準定位且減少點雲配對的計算。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
100‧‧‧擴增實境裝置
110‧‧‧工具機
210‧‧‧處理器
220‧‧‧慣性量測單元
230‧‧‧深度感測器
240‧‧‧通訊模組
250‧‧‧顯示器
300‧‧‧室內環境
301‧‧‧初始方向
310‧‧‧視野
410‧‧‧擴增實境模組
420、430、440、460、470‧‧‧步驟
450‧‧‧資料庫
510、520、530、540、550、560‧‧‧步驟
610‧‧‧相鄰點
710、720、730、740‧‧‧步驟
[圖1]是根據一實施例繪示擴增實境裝置的應用情境。
[圖2]是根據一實施例繪示擴增實境裝置的方塊示意圖。
[圖3]是根據一實施例繪示擴增實境裝置的應用情境示意圖。
[圖4]是根據一實施例繪示一定位方法的流程示意圖。
[圖5]是根據一實施例繪示迭代最近點演算法的示意流程圖。
[圖6]是根據一實施例繪示計算法向量的示意圖。
[圖7]是根據一實施例繪示定位方法的流程圖。
關於本文中所使用之『第一』、『第二』、...等,並非特別指次序或順位的意思,其僅為了區別以相同技術用語描述的元件或操作。
本揭露提出的定位方法是採用點雲(point cloud)、慣性量測單元(Inertial measurement unit,IMU)、點雲匹配(point cloud registration,PCR)等技
術,由深度感測器擷取空間中的點雲資料,並藉由點雲資料與慣性量測單元結合點雲匹配技術給定空間內的位置與方向。在工業應用場域空間定位技術可以用以連結電腦程式與環境空間的虛擬與現實關係,藉由擴增實境(augmented reality,AR)的物件設計,引導人員在特定場域中完成任務。傳統上單IMU空間定位,具有無法準確量測位置,以及在長時間使用下會產生累積積分誤差的缺點。本揭露提出的方法藉由點雲即時掃描,並根據IMU提供點雲在已知空間環境中粗略的位置,而最後依照PCR的演算法進行掃描點雲與3D空間模型點雲的匹配,求出精確的位置與方向,來獲得正確的空間定位資訊,增加AR虛實結合設計之可靠性。
圖1是根據一實施例繪示擴增實境裝置的應用情境。請參照圖1,在此實施例中擴增實境裝置100是實作為智慧眼鏡,但在其他實施例中也可以實作為面罩、智慧型手機、平板等等,本發明並不限制擴增實境裝置100的外型。使用者可以配戴擴增實境裝置100在室內移動,例如在一工業環境中,此工業環境具有一或多個工具機110,特別的是工具機110的點雲模型為已知,因此擴增實境裝置100可以辨識工具機110的點雲模型來進行自身的定位。
圖2是根據一實施例繪示擴增實境裝置的方塊示意圖。請參照圖2,擴增實境裝置100包括了處理器210、慣性量測單元220、深度感測器230、通訊模組240與顯示器250。處理器210可為中央處理器、微處理器、微控制器、數位信號處理器、影像處理晶片、特殊應用積體電路等。慣
性量測單元220可包括加速度感測器、角速度感測器、磁力計等。深度感測器230可包括紅外線發射器、紅外線感測器、雙攝影機、結構光感測裝置或任意可以感測場景深度的裝置。通訊模組240可以是提供互聯網、區域網路、廣域網路、蜂巢式網路(或稱行動網路)、近場通訊、紅外線通訊、藍芽、無線保真(WiFi)等通訊手段的電路。顯示器250可包括有機發光二極體面板、液晶面板或其他合適的顯示裝置。為了簡化起見,圖2中並未繪示擴增實境裝置100的所有元件。
圖3是根據一實施例繪示擴增實境裝置的應用情境示意圖。圖4是根據一實施例繪示一定位方法的流程示意圖。請參照圖3與圖4,在此實施例中擴增實境裝置100是在一室內環境300中移動,以下所述方法的各步驟是由擴增實境裝置100中的處理器210所執行或者將所需資料傳送至雲端的伺服器(未繪示)來執行後再將結果傳回到擴增實境裝置100,以下不再贅述各步驟由誰執行。
首先在步驟420中,根據慣性量測單元220的訊號計算初始位置與初始方向301,舉例來說,可將慣性量測單元220所量測到的加速度值積分以得到速度值,再將速度值積分以得到初始位置,而初始方向301可根據角加速度與磁力方向來取得。
在步驟430中,透過深度感測器230進行點雲掃描,掃描得到的點雲稱為讀取點雲,此讀取點雲可以表示為矩陣(亦可稱為一個集合),讀取點雲
包括多個點,其中第i個點表示為向量p i ,M、N、i為正整數,N代表集合P中點的個數,M代表向量p i 的長度。更具體來說,深度感測器230會掃描環境物件(例如工具機110)以得到環境物件上每個點到擴增實境裝置100的距離,根據此距離以及擴增實境裝置100的位置與方向可以算出每個點的座標,因此向量p i 至少包括了X座標、Y座標、Z座標。在一些實施例中,向量p i 還包括了法向量與曲率因子(將詳細描述如下),在此用向量p i 來表示一個點以做為一般性的解釋。
在步驟440中,從資料庫450中取得環境點雲,環境點雲Q包括了室內環境300中一或多個工具機(例如工具機110)的點雲,此環境點雲可以表示為矩陣(集合),類似地,環境點雲包括多個點,其中第i個點表示為向量q i 。環境點雲可以是事先建立的,例如可先把一個三維繪圖檔案轉換為點雲,此三維繪圖檔案可以由Autocad、Solidwork、Catia等各種軟體所產生。或者在一些實施例中若沒有上述的三維繪圖檔案,也可以由深度感測器230建立環境點雲,建立的程序包括拼接(stitching)、雜訊過濾(noise filtering)、銳利化(sharpening)、網格化(gridization)等。在一些實施例中,環境點雲也可以由其他的電腦系統建立並提供。
同樣在步驟440中,進行初始猜測。上述的環境點雲包括了在室內環境中所有物件的點雲,但若對所有的物件都進行配對會產生一些多餘的計算量,在一些實施例
中,深度感測器230具有一視角,可以根據此視角以及上述計算出的初始位置與初始方向計算出一視野310,並且從所有的環境點雲中僅取得視野310所包含的點雲(亦稱為局部環境點雲,為了簡化起見,以下還是用Q來表示)以進行後續的配對,這樣可減少計算量。在一些實施例中是假設讀取點雲與局部環境點雲之間具有旋轉與位移的轉換,此轉換可以表示為以下方程式(1)。
q i=Rp i+t,i=1...N…(1)
其中R為旋轉矩陣,t為位移向量。在一些實施例中,可以根據步驟420計算出的初始方向與初始位置來初始化旋轉矩陣R與位移向量t,或者也可以用隨機的方式來決定旋轉矩陣R與位移向量t。
在步驟460中,執行點雲匹配演算法,在此實施例中是採用迭代最近點(iterative closest points,ICP)演算法,但在其他實施例中也可以採用其他的匹配演算法。圖5是根據一實施例繪示迭代最近點演算法的示意流程圖。請參照圖5,在步驟510中,對點p i進行轉換,也就是計算(Rp i+t)。在第一次執行步驟510時旋轉矩陣R與位移向量t是根據初始方向與初始位置來初始化。
在步驟520,根據局部環境點雲Q建立一KD樹,此KD樹是用以快速地搜尋點q i,但在其他實施例中也可以採用其他資料結構來搜尋點q i,例如BSP樹、KDB樹、R樹、R+樹、CELL樹、四叉樹和八叉樹等,本發明並不在此限。
在步驟530中,配對讀取點雲P與局部環境點雲Q,也就是對每一個點p i都搜尋最接近的點q i以形成一個配對(p i,q i),值得注意的是這裡計算的是點(Rp i+t)到點q i之間的距離,此距離可以是尤拉(Euclidean)距離或其他合適的距離。
在步驟540,對於每一個配對(p i,q i)計算出一權重wi,此權重w i 與點 q i 和( Rp i + t )之間的距離(以下表示為實數d)成負相關。舉例來說,如果實數d大於一臨界值,則權重w i 為0;如果實數d小於該臨界值,則權重w i 可設定為實數d的倒數或其他遞減函式,例如e-d等等。上述點 q i 和( Rp i + t )之間的距離可為尤拉距離(L2-範數)或其他合適的距離。權重wi是要去除點雲之中的離群值(outlier),此離群值可能是背景,如此一來可以避免背景影響了配對結果。
在步驟550中,執行最佳化演算法以計算出矩陣R與向量t,此最佳化演算法可以表示為以下方程式(2)。
上述的最佳化演算法可以採用公式解或用一搜尋方法(例如基因演算法)來求解,本發明並不限制用何者方式來求得旋轉矩陣R與位移向量t。舉例來說,若採用公式解則須執行以下方程式(3)~(5)。
接著根據以下方程式(6)建立矩陣S,對矩陣做奇異值分解(singular value decomposition,SVD),如方程式(7)所示。最後根據奇異值分解中的矩陣U、V可以計算出旋轉矩陣R,如以下方程式(8)所示。
svd{S}=UΣV T ...(7)
在步驟560中,判斷是否收斂。舉例來說,如果旋轉矩陣R與位移向量t的改變幅度小於一預設值則判斷已經收斂。或者在一些實施例中也可以在執行一固定次數的迭代以後判斷為收斂。若沒有收斂則回到步驟510,根據新的旋轉矩陣R與位移向量t對點p i進行轉換。
參照回圖3與圖4,在步驟470中計算更新位置與更新方向。具體來說,在配對讀取點雲與局部環境點雲以後,如果所配對的點q i是屬於工具機110,這表示工具機110目前在擴增實境裝置100的視野310中,此外根據配對(p i,q i)也可以得到擴增實境裝置100相對於工具機110的距離與方向,由於工具機110的位置是已知,藉此可以計算出擴增實境裝置100的位置與方向(分別稱為更新位置與更新方向),此更新位置與更新方向可以用來替換上述步驟420計算的初始方向與初始位置,也可以用於一個擴增實境模組410,此擴增實境模組410由處理器210所執行,用以決定在顯示器250顯示那些資訊。
在一些實施例中,對於點雲中的每個點還會額外計算法向量與曲率因子,因此每個點p i與點q i 可以表示為一個長度為7的向量(x,y,z,u,v,w,c),其中(x,y,z)分別是X座標、Y座標與Z座標,(u,v,w)為法向量,c為曲率因子。圖6是根據一實施例繪示計算法向量的示意圖。請參照圖6,以點p i(x,y,z)為例,首先會取得點p i與周圍一小範圍(或一固定數目)內的相鄰點610。接下來對點p i與相鄰點610執行一主成份分析(principle component analyze,PCA)以得到多個特徵值(eigenvalue)λ1,λ2,λ3與多個主成份,這三個特徵值λ1,λ2,λ3是由大到小排列,然而本領域具有通常知識者當可理解PCA,在此不再詳細贅述。每個特徵值是對應至一個主成份,而每個主成份是長度為3的向量,最大特徵值λ1所對應的主成份表示最能代表點p i與相鄰點610的基底(basis),由於點p i與相鄰點610應位於一個二維表面上,因此這個表面主要可由兩個基底來表示,而第三個基底則代表此表面的法向量。換言之,可以把最小特徵值λ3所對應的主成份設定為點 p i 的法向量(u,v,w)。除此之外,如果點p i所在的表面是平坦的,則最小特徵值λ3應該相對地較小,如果點p i所在的表面是彎曲的則λ3應該相對地較大,因此最小特徵值λ3可以用來計算曲率因子c。在一些實施例中,可以將最小特徵值除以所有三個特徵值的總和以計算出曲率因子c,如以下方程式(9)所示。
對於讀取點雲與環境點雲中的每個點都可以執
行上述運算以求得向量(x,y,z,u,v,w,c)來代替原本的向量(x,y,z)。在此實施例中由於在迭代最近點演算法中每個點還具有法向量與曲率因子,因此每個點會更具有描述性,更容易找到真正的配對(p i,q i)。
圖7是根據一實施例繪示定位方法的流程圖。請參照圖7,在步驟710,根據慣性量測單元的訊號計算電子裝置的初始位置與初始方向。在步驟720,從資料庫中取得環境點雲,並根據初始位置與初始方向從環境點雲中取得局部環境點雲。在步驟730,透過深度感測器取得讀取點雲。在步驟740,配對讀取點雲與局部環境點雲以計算出電子裝置的更新位置與更新方向。然而,圖7中各步驟已詳細說明如上,在此便不再贅述。值得注意的是,圖7中各步驟可以實作為多個程式碼或是電路,本發明並不在此限。此外,圖7的方法可以應用於上述的擴增實境裝置100也可以應用於一般的電子裝置,此電子裝置可以是智慧型手機、平板電腦或任意合適的穿戴裝置,此電子裝置至少包括了處理器、深度感測器與慣性量測單元。
在上述的定位方法與擴增實境裝置中,藉由結合深度點雲資訊,IMU與PCR演算法技術,解決給定室內場域應用中,SLAM無法正確提供位置與轉向資訊之問題,也解決了IMU無法有效提供位置資訊,與長時間下IMU會產生累積積分誤差的問題。此定位方法可以應用於任意具有3D模型的室內環境或可建模之室內場域,如工廠區域或經Cad軟體設計之機械與室內空間。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
220‧‧‧慣性量測單元
230‧‧‧深度感測器
410‧‧‧擴增實境模組
420、430、440、460、470‧‧‧步驟
450‧‧‧資料庫
Claims (10)
- 一種定位方法,適用於一電子裝置,該電子裝置包括一深度感測器與一慣性量測單元,包括:根據該慣性量測單元的訊號計算該電子裝置的一初始位置與一初始方向;從一資料庫中取得一環境點雲,並根據該初始位置與該初始方向從該環境點雲中取得一局部環境點雲;透過該深度感測器取得一讀取點雲;以及配對該讀取點雲與該局部環境點雲以計算出該電子裝置的一更新位置與一更新方向。
- 如申請專利範圍第1項所述之定位方法,其中該權重w i 與該點 q i 和( Rp i + t )之間的距離成負相關。
- 如申請專利範圍第3項所述之定位方法,其中該點 p i 與該點 q i 包括X座標、Y座標、Z座標與一法向量。
- 如申請專利範圍第4項所述之定位方法,更包括:從該讀取點雲中取得該點 p i 與多個相鄰點;以及對該點 p i 與該些相鄰點執行一主成份分析以取得多個特徵值與多個主成份,並且把該些特徵值中的一最小特徵值所對應的該主成份設定為該點 p i 的該法向量。
- 如申請專利範圍第5項所述之定位方法,其中該點 p i 與該點 q i 還包括一曲率因子,該定位方法還包括:將該最小特徵值除以該些特徵值的總和以計算出該曲率因子。
- 一種擴增實境裝置,包括:一慣性量測單元;一深度感測器;以及一處理器,用以執行多個步驟:根據該慣性量測單元的訊號計算該擴增實境裝置的一初始位置與一初始方向;從一資料庫中取得一環境點雲,並根據該初始位 置與該初始方向從該環境點雲中取得一局部環境點雲;透過該深度感測器取得一讀取點雲;以及配對該讀取點雲與該局部環境點雲以計算出該擴增實境裝置的一更新位置與一更新方向。
- 如申請專利範圍第8項所述之擴增實境裝置,其中該點 p i 與該點 q i 包括X座標、Y座標、Z座標與一法向量,該些步驟還包括:從該讀取點雲中取得該點 p i 與多個相鄰點;以及對該點 p i 與該些相鄰點執行一主成份分析以取得多個特徵值與多個主成份,並且把該些特徵值中的一最小特徵值所對應的該主成份設定為該點 p i 的該法向量。
- 如申請專利範圍第9項所述之擴增實境裝置,其中該點 p i 與該點 q i 還包括一曲率因子,該些步驟還包括:將該最小特徵值除以該些特徵值的總和以計算出該曲率因子。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108147692A TWI722738B (zh) | 2019-12-25 | 2019-12-25 | 擴增實境裝置與定位方法 |
US16/847,637 US11158081B2 (en) | 2019-12-25 | 2020-04-13 | Augmented reality device and positioning method |
NL2025743A NL2025743B1 (en) | 2019-12-25 | 2020-06-03 | Augmented reality device and positioning method |
GB2008424.0A GB2590745B (en) | 2019-12-25 | 2020-06-04 | Augmented reality device and positioning method |
JP2020215384A JP7114686B2 (ja) | 2019-12-25 | 2020-12-24 | 拡張現実装置及び位置決め方法 |
KR1020200182939A KR102585821B1 (ko) | 2019-12-25 | 2020-12-24 | 증강 현실 장치 및 위치 설정 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108147692A TWI722738B (zh) | 2019-12-25 | 2019-12-25 | 擴增實境裝置與定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI722738B TWI722738B (zh) | 2021-03-21 |
TW202124917A true TW202124917A (zh) | 2021-07-01 |
Family
ID=71616102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW108147692A TWI722738B (zh) | 2019-12-25 | 2019-12-25 | 擴增實境裝置與定位方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11158081B2 (zh) |
JP (1) | JP7114686B2 (zh) |
KR (1) | KR102585821B1 (zh) |
GB (1) | GB2590745B (zh) |
NL (1) | NL2025743B1 (zh) |
TW (1) | TWI722738B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI795764B (zh) * | 2021-04-22 | 2023-03-11 | 政威資訊顧問有限公司 | 基於擴增實境視景的呈現設施物件定位方法及伺服端 |
CN113345023B (zh) * | 2021-07-05 | 2024-03-01 | 北京京东乾石科技有限公司 | 箱体的定位方法、装置、介质和电子设备 |
CN113566829A (zh) * | 2021-07-19 | 2021-10-29 | 上海极赫信息技术有限公司 | 基于高精度定位技术的混合现实的导览方法、系统及mr设备 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2961264B1 (ja) * | 1998-09-21 | 1999-10-12 | 工業技術院長 | 3次元物体モデル生成方法及び3次元物体モデル生成プログラムを記録したコンピュータ読み取り可能な記録媒体 |
US7187809B2 (en) * | 2004-06-10 | 2007-03-06 | Sarnoff Corporation | Method and apparatus for aligning video to three-dimensional point clouds |
TW201447235A (zh) * | 2011-11-22 | 2014-12-16 | Core Wireless Licensing Sarl | 用於決定位置偏移資訊之方法、設備和電腦可讀儲存媒體 |
TWI475191B (zh) * | 2012-04-03 | 2015-03-01 | Wistron Corp | 用於實景導航之定位方法、定位系統及電腦可讀取儲存媒體 |
CN103047981B (zh) * | 2012-12-22 | 2017-03-15 | 江苏车视杰电子有限公司 | 电子装置及其导航定位方法和系统 |
KR102516124B1 (ko) * | 2013-03-11 | 2023-03-29 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
US9582516B2 (en) * | 2013-10-17 | 2017-02-28 | Nant Holdings Ip, Llc | Wide area augmented reality location-based services |
EP3094806B1 (en) * | 2014-01-14 | 2019-07-24 | Sandvik Mining and Construction Oy | Mine vehicle and method of initiating mine work task |
JP2015184056A (ja) * | 2014-03-20 | 2015-10-22 | 株式会社東芝 | 計測装置、方法及びプログラム |
US10180734B2 (en) * | 2015-03-05 | 2019-01-15 | Magic Leap, Inc. | Systems and methods for augmented reality |
TWI616829B (zh) * | 2015-08-21 | 2018-03-01 | 緯創資通股份有限公司 | 物品定位追蹤的方法及其系統與電腦可讀取記錄媒體 |
US9984499B1 (en) * | 2015-11-30 | 2018-05-29 | Snap Inc. | Image and point cloud based tracking and in augmented reality systems |
US9918204B1 (en) * | 2015-12-08 | 2018-03-13 | Bentley Systems, Incorporated | High accuracy indoor tracking |
JP6643170B2 (ja) | 2016-04-11 | 2020-02-12 | 株式会社日立製作所 | 作業支援システム及び方法 |
US11297346B2 (en) * | 2016-05-28 | 2022-04-05 | Microsoft Technology Licensing, Llc | Motion-compensated compression of dynamic voxelized point clouds |
TWI597513B (zh) * | 2016-06-02 | 2017-09-01 | 財團法人工業技術研究院 | 定位系統、車載定位裝置及其定位方法 |
US9906885B2 (en) * | 2016-07-15 | 2018-02-27 | Qualcomm Incorporated | Methods and systems for inserting virtual sounds into an environment |
US11037369B2 (en) * | 2017-05-01 | 2021-06-15 | Zimmer Us, Inc. | Virtual or augmented reality rehabilitation |
US10762707B2 (en) * | 2017-11-17 | 2020-09-01 | Thales Canada, Inc. | Point cloud rail asset data extraction |
JP7113611B2 (ja) * | 2017-11-30 | 2022-08-05 | 大成建設株式会社 | 位置特定装置、位置特定プログラム及び位置特定方法、並びに、撮影画像登録装置、撮影画像登録プログラム及び撮影画像登録方法 |
JP7294148B2 (ja) * | 2018-02-09 | 2023-06-20 | ソニーグループ株式会社 | キャリブレーション装置とキャリブレーション方法およびプログラム |
KR102098929B1 (ko) * | 2018-02-26 | 2020-04-08 | 성균관대학교산학협력단 | 수술용 내비게이션의 표면 정합 방법 및 장치 |
JP2019168976A (ja) * | 2018-03-23 | 2019-10-03 | 株式会社ジオ技術研究所 | 3次元モデル生成装置 |
US11294060B2 (en) | 2018-04-18 | 2022-04-05 | Faraday & Future Inc. | System and method for lidar-based vehicular localization relating to autonomous navigation |
JP6632656B2 (ja) * | 2018-05-14 | 2020-01-22 | キヤノン株式会社 | 干渉判定装置、干渉判定方法、コンピュータプログラム |
TWM598411U (zh) * | 2019-12-25 | 2020-07-11 | 亞達科技股份有限公司 | 擴增實境裝置 |
-
2019
- 2019-12-25 TW TW108147692A patent/TWI722738B/zh active
-
2020
- 2020-04-13 US US16/847,637 patent/US11158081B2/en active Active
- 2020-06-03 NL NL2025743A patent/NL2025743B1/en active
- 2020-06-04 GB GB2008424.0A patent/GB2590745B/en active Active
- 2020-12-24 KR KR1020200182939A patent/KR102585821B1/ko active IP Right Grant
- 2020-12-24 JP JP2020215384A patent/JP7114686B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
KR102585821B1 (ko) | 2023-10-10 |
US20210201525A1 (en) | 2021-07-01 |
JP2021103168A (ja) | 2021-07-15 |
US11158081B2 (en) | 2021-10-26 |
GB202008424D0 (en) | 2020-07-22 |
GB2590745B (en) | 2022-01-05 |
KR20210083198A (ko) | 2021-07-06 |
JP7114686B2 (ja) | 2022-08-08 |
NL2025743B1 (en) | 2021-09-09 |
TWI722738B (zh) | 2021-03-21 |
GB2590745A (en) | 2021-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Svärm et al. | City-scale localization for cameras with known vertical direction | |
JP5920352B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
TWI722738B (zh) | 擴增實境裝置與定位方法 | |
US10086955B2 (en) | Pattern-based camera pose estimation system | |
CN113048980B (zh) | 位姿优化方法、装置、电子设备及存储介质 | |
US10451403B2 (en) | Structure-based camera pose estimation system | |
US20210183100A1 (en) | Data processing method and apparatus | |
US9858669B2 (en) | Optimized camera pose estimation system | |
JP2012128661A (ja) | 情報処理装置、情報処理方法及びプログラム | |
Hansen et al. | Online continuous stereo extrinsic parameter estimation | |
CN104848861A (zh) | 一种基于图像消失点识别技术的移动设备姿态测量方法 | |
WO2022188334A1 (zh) | 定位初始化方法和装置、设备、存储介质、程序产品 | |
CN111459269A (zh) | 一种增强现实显示方法、系统及计算机可读存储介质 | |
TW202238449A (zh) | 室內定位系統及室內定位方法 | |
Stranner et al. | A high-precision localization device for outdoor augmented reality | |
CN105184268A (zh) | 手势识别设备、手势识别方法及虚拟现实系统 | |
JP2023503750A (ja) | ロボットの位置決め方法及び装置、機器、記憶媒体 | |
US11758100B2 (en) | Portable projection mapping device and projection mapping system | |
TWM598411U (zh) | 擴增實境裝置 | |
TWI822423B (zh) | 運算裝置及模型產生方法 | |
JP7291251B2 (ja) | 環境地図管理装置、環境地図管理方法及びプログラム | |
JP6281938B2 (ja) | データ処理装置、データ処理方法、及びデータ処理プログラム | |
KR102675282B1 (ko) | 자동 생성된 컨트롤 피처를 이용한 거리뷰 영상의 절대 포즈 추정 방법 및 시스템 | |
KR102225342B1 (ko) | 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 | |
WO2021211002A1 (ru) | Пособ оптико-инерциального трекинга пользователя |