TW201913044A - 適用於疊代最近點法以選擇關鍵圖框的系統與方法 - Google Patents

適用於疊代最近點法以選擇關鍵圖框的系統與方法 Download PDF

Info

Publication number
TW201913044A
TW201913044A TW106131250A TW106131250A TW201913044A TW 201913044 A TW201913044 A TW 201913044A TW 106131250 A TW106131250 A TW 106131250A TW 106131250 A TW106131250 A TW 106131250A TW 201913044 A TW201913044 A TW 201913044A
Authority
TW
Taiwan
Prior art keywords
frame
current
key frame
point method
selecting
Prior art date
Application number
TW106131250A
Other languages
English (en)
Other versions
TWI652447B (zh
Inventor
謝明得
陳俊維
林庭宇
楊得煒
Original Assignee
財團法人成大研究發展基金會
奇景光電股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財團法人成大研究發展基金會, 奇景光電股份有限公司 filed Critical 財團法人成大研究發展基金會
Priority to TW106131250A priority Critical patent/TWI652447B/zh
Application granted granted Critical
Publication of TWI652447B publication Critical patent/TWI652447B/zh
Publication of TW201913044A publication Critical patent/TW201913044A/zh

Links

Landscapes

  • Image Analysis (AREA)

Abstract

一種適用於疊代最近點法以選擇關鍵圖框的系統,包含參考圖框選擇器,根據目前圖框與目前關鍵圖框以產生參考圖框;疊代最近點法迴圈單元,針對參考圖框與目前圖框執行疊代最近點法,以產生目前圖框的姿勢;及關鍵圖框更新單元,根據目前圖框的姿勢與參考圖框的姿勢的差值條件,以產生新關鍵圖框。

Description

適用於疊代最近點法以選擇關鍵圖框的系統與方法
本發明係有關視覺測距(visual odometry),特別是關於一種適用於疊代最近點法(iterative closest point, ICP)以選擇關鍵圖框(keyframe)的系統與方法。
視覺測距可適用於機器人學(robotics)與電腦視覺,藉由分析相機(例如紅綠藍-深度相機)所擷取影像,用以決定機器人的位置與方位。使用疊代最近點法(ICP)將來源圖框與目標圖框予以校準(align),以估算機器人的移動。第一圖顯示傳統視覺測距系統100的方塊圖,揭露於李施樂(Shile Li)等人提出的“使用強度輔助的疊代最近點法的快速視覺測距(Fast Visual Odometry Using Intensity-Assisted Iterative Closest Point)”,公開於2016年七月,刊登於電氣及電子工程師學會的機器人學與自動化期刊(IEEE ROBOTICS AND AUTOMATION LETTERS)第1冊第2號,其內容視為本說明書的一部份。
視覺測距系統100可用以降低計算成本,且能降低異常值(outlier或離群值)的影響。如第一圖的視覺測距系統100所示,對來源圖框執行顯著點(salient point)選擇11,以提供疊代最近點法(ICP)有用的訊息。接著,執行對應(correspondence)搜尋12,以決定匹配點。基於強韌靜態(robust static)以執行對應組(correspondence pair)的加權(weighting)13。執行遞增轉換(incremental transformation)14以降低所建立的對應之間的距離。重複執行上述11至14的操作,直到遞增轉換小於臨界值或者已到達最大容許執行次數。
由於感測器雜訊於估算時總是會造成誤差,因此傳統圖框至圖框的校準方法本質上會造成漂移(drift)的累積。為了克服漂移問題,克里斯琴·克爾(Christian Kerl)等人提出“紅綠藍-深度相機的密集視覺同步定位與地圖構建(Dense Visual SLAM for RGB-D Cameras)”,公開於2013年,刊登於智慧機器人系統的國際會議公報(Proc. of the Int. Conf. on Intelligent Robot Systems (IROS)),其內容視為本說明書的一部份。基於關鍵圖框的姿勢同步定位與地圖構建(SLAM)方法可估算目前影像與關鍵圖框之間的轉換,用以限制區域漂移。只要相機足夠靠近關鍵圖框,即不會累積漂移。同步定位與地圖構建(SLAM)系統需要額外執行關鍵圖框的選擇、迴圈閉合(loop closure)的偵測與驗證、地圖的最佳化。
於傳統方法中,當目前影像無法匹配於最近的關鍵圖框時,即會產生新的關鍵圖框。然而,於決定目前圖框與最近關鍵圖框的轉換後,所選擇的關鍵圖框可能產生大誤差,因而造成嚴重的追蹤漏失。因此,亟需提出一種新穎機制,用以避免選擇具大誤差的關鍵圖框。
鑑於上述,本發明實施例的目的之一在於提出一種適用於疊代最近點法(ICP)以選擇具小誤差的關鍵圖框的系統與方法,用於未知環境下建構或更新地圖且同步追蹤定位。
根據本發明實施例,適用於疊代最近點法以選擇關鍵圖框的系統包含參考圖框選擇器、疊代最近點法迴圈單元及關鍵圖框更新單元。參考圖框選擇器根據目前圖框與目前關鍵圖框以產生參考圖框。疊代最近點法迴圈單元針對參考圖框與目前圖框執行疊代最近點法,以產生目前圖框的姿勢。關鍵圖框更新單元根據目前圖框的姿勢與參考圖框的姿勢的差值條件,以產生新關鍵圖框。
第二圖的方塊圖顯示本發明實施例的適用於疊代最近點法(ICP)以選擇關鍵圖框(keyframe)的系統200。疊代最近點法(ICP)一般可用以減少二個點群(clouds of points)之間的差值。本實施例的系統200可適用於同步定位與地圖構建(SLAM),其可用於未知環境下建構或更新地圖且同步追蹤定位,例如使用於機器人地圖構建與導航。
系統200的方塊可使用電路、電腦軟體或其組合來實施。例如,系統200的至少一部分可執行於數位影像處理器。又例如,系統200的至少一部分可使用電腦指令來實施。在一實施例中,系統200可適用於擴增實境(AR)裝置。擴增實境裝置的硬體元件主要包含處理器(例如影像處理器)、顯示器(例如頭戴顯示裝置)及感測器(例如色彩-深度相機,例如可得到紅、綠、藍及深度的紅綠藍-深度相機)。其中,感測器或相機擷取場景以產生影像圖框(簡稱圖框),再饋至處理器以執行系統200的操作,因而產生擴增實境於顯示器。
在本實施例中,系統200可包含參考圖框選擇器21,其根據目前圖框C與目前關鍵圖框K以產生參考圖框S。目前圖框C可由相機(例如紅綠藍-深度相機)來提供。
第三圖顯示第二圖的參考圖框選擇器21的流程圖。於步驟211,針對目前圖框C與目前關鍵圖框K執行至少一次疊代最近點法(ICP)。在本實施例中,針對目前圖框C與目前關鍵圖框K僅執行一次疊代最近點法(ICP)。疊代最近點法(ICP)的操作細節可參閱前述“使用強度輔助的疊代最近點法的快速視覺測距”及“紅綠藍-深度相機的密集視覺同步定位與地圖構建”。疊代最近點法(ICP)的操作細節還可參閱卡里·普立(Kari Pulli)提出的“大數據集的多視配準(Multiview Registration for Large Data Sets)”,公開於1999年十月,刊登於三維數位影像與模型建立第二次國際會議(Second International Conference on 3D Digital Imaging and Modeling);以及弗朗索瓦·帕莫洛(Francois Pomerleau)等人提出的“深度相機追蹤:快速疊代最近點法的參數研究(Tracking a Depth Camera: Parameter Exploration for Fast ICP)”,公開於2011年九月,刊登於電氣及電子工程師學會/日本機器人學會的智慧機器人學與系統國際會議(IEEE/RSJ International Conference on Intelligent Robots and Systems),其內容視為本說明書的一部份。
接著,於步驟212,如果執行疊代最近點法(ICP)所得到結果當中的正常值(inlier或群內值)的數目小於預設值n(表示匹配品質未達到預設位準),則選擇目前備用圖框B作為參考圖框(亦即S=B);否則選擇目前關鍵圖框K作為參考圖框(亦即S=K)。換句話說,如果目前圖框C未校準(align)於目前關鍵圖框K(亦即匹配品質未達到預設位準),則使用目前備用圖框B於後續的疊代最近點法(ICP);否則繼續使用目前關鍵圖框K於後續的疊代最近點法(ICP)。
在本實施例中,如果歐幾里德(Euclidean)距離未落於匹配距離的比例當中,則匹配點組即視為正常值。正常值的數目愈大表示愈高的匹配品質。在本實施例中,暫存於儲存裝置(例如緩衝器)的前一圖框即作為目前備用圖框B。
本實施例的系統200可包含疊代最近點法(ICP)迴圈單元22,其針對(參考圖框選擇器21所輸出的)參考圖框S與目前圖框C執行疊代最近點法(ICP)。疊代最近點法(ICP)迴圈單元22因而產生目前圖框的姿勢Pc與誤差值。疊代最近點法(ICP)迴圈單元22的操作細節可參閱前述資料。
本實施例的系統200可包含關鍵圖框更新單元23,其根據目前圖框的姿勢Pc與參考圖框的姿勢Ps的差值(offset或difference)以產生新關鍵圖框K’。第四圖顯示本發明實施例的關鍵圖框更新單元23(第二圖)的流程圖。於步驟231,決定目前圖框的姿勢Pc與參考圖框的姿勢Ps的差值條件。本實施例的差值條件可表示如下: 位移(t) > η1 旋轉(Rθ) > η2 其中t代表位移(translation),θ代表旋轉(rotation)角度,R代表深度距離,且η1 、η2 為差值的預設臨界值。
如果滿足差值條件(表示目前圖框不再匹配於最近關鍵圖框K),則將目前圖框C作為新關鍵圖框K’(亦即K’=C);否則將參考圖框S作為新關鍵圖框K’(亦即K’=S)。
值得注意的是,步驟231的差值條件包含二個次條件:(1)位移次條件與(2)旋轉次條件。在一實施例中,當至少一個次條件滿足時,則滿足差值條件。在另一實施例中,當二個次條件都滿足時,則滿足差值條件。
根據本實施例的特徵之一,旋轉次條件(亦即,旋轉(Rθ) > η2 )同時考量深度距離R與旋轉角度θ。同時考量深度距離R與旋轉角度θ兩者的原因在於,具相同旋轉角度θ但不同深度距離會感覺到不同的移動。換句話說,具不同深度距離的二個點是不同的。
本實施例的系統200可包含備用圖框更新單元24,用以提供新備用圖框B’。在本實施例中,備用圖框更新單元24可包含儲存裝置(例如緩衝器),其暫存目前圖框,作為執行下一次疊代最近點法(ICP)時的新備用圖框B’。
以上所述僅為本發明之較佳實施例而已,並非用以限定本發明之申請專利範圍;凡其它未脫離發明所揭示之精神下所完成之等效改變或修飾,均應包含在下述之申請專利範圍內。
100‧‧‧視覺測距系統
11‧‧‧顯著點選擇
12‧‧‧對應搜尋
13‧‧‧對應組的加權
14‧‧‧遞增轉換
200‧‧‧系統
21‧‧‧參考圖框選擇器
211‧‧‧執行一次疊代最近點法
212‧‧‧正常值的數目是否小於預設值
22‧‧‧疊代最近點法迴圈單元
23‧‧‧關鍵圖框更新單元
231‧‧‧差值條件
24‧‧‧備用圖框更新單元
ICP‧‧‧疊代最近點法
C‧‧‧目前圖框
K‧‧‧關鍵圖框
K’‧‧‧新關鍵圖框
B‧‧‧備用圖框
B’‧‧‧新備用圖框
S‧‧‧參考圖框
Pc‧‧‧目前圖框的姿勢
n‧‧‧預設值
t‧‧‧位移
R‧‧‧深度距離
θ‧‧‧旋轉角度
η1‧‧‧臨界值
η1‧‧‧臨界值
第一圖顯示傳統視覺測距系統的方塊圖。 第二圖的方塊圖顯示本發明實施例的適用於疊代最近點法(ICP)以選擇關鍵圖框的系統。 第三圖顯示第二圖的參考圖框選擇器的流程圖。 第四圖顯示本發明實施例的關鍵圖框更新單元(第二圖)的流程圖。

Claims (16)

  1. 一種適用於疊代最近點法以選擇關鍵圖框的系統,包含: 一參考圖框選擇器,根據目前圖框與目前關鍵圖框以產生參考圖框; 一疊代最近點法迴圈單元,針對該參考圖框與該目前圖框執行疊代最近點法,以產生目前圖框的姿勢;及 一關鍵圖框更新單元,根據該目前圖框的姿勢與參考圖框的姿勢的差值條件,以產生新關鍵圖框。
  2. 根據申請專利範圍第1項所述適用於疊代最近點法以選擇關鍵圖框的系統,其中該參考圖框選擇器執行以下步驟: 針對該目前圖框與該目前關鍵圖框執行至少一次疊代最近點法;及 如果執行疊代最近點法所得到結果的匹配品質未達到預設位準,則選擇目前備用圖框作為該參考圖框;否則選擇該目前關鍵圖框作為該參考圖框。
  3. 根據申請專利範圍第2項所述適用於疊代最近點法以選擇關鍵圖框的系統,其中如果執行疊代最近點法所得到結果當中的正常值的數目小於預設值,即表示匹配品質未達到該預設位準。
  4. 根據申請專利範圍第2項所述適用於疊代最近點法以選擇關鍵圖框的系統,其中該目前備用圖框即為暫存的前一圖框。
  5. 根據申請專利範圍第1項所述適用於疊代最近點法以選擇關鍵圖框的系統,其中該差值條件包含該目前圖框的姿勢與該參考圖框的姿勢之間的位移、旋轉角度與深度距離。
  6. 根據申請專利範圍第5項所述適用於疊代最近點法以選擇關鍵圖框的系統,其中該差值條件包含: 位移次條件:位移(t) > η1 ; 旋轉次條件:旋轉(Rθ) > η2 ; 其中t代表位移,θ代表旋轉角度,R代表深度距離,且η1 、η2 為差值的預設臨界值。
  7. 根據申請專利範圍第6項所述適用於疊代最近點法以選擇關鍵圖框的系統,其中如果滿足至少一個次條件,則將該目前圖框作為該新關鍵圖框,否則將該參考圖框作為該新關鍵圖框。
  8. 根據申請專利範圍第1項所述適用於疊代最近點法以選擇關鍵圖框的系統,更包含一備用圖框更新單元,根據該目前圖框以提供新備用圖框。
  9. 根據申請專利範圍第8項所述適用於疊代最近點法以選擇關鍵圖框的系統,其中該備用圖框更新單元包含一儲存裝置,其暫存該目前圖框,作為執行下一次疊代最近點法時的新備用圖框。
  10. 一種適用於疊代最近點法以選擇關鍵圖框的方法,包含: 根據目前圖框與目前關鍵圖框以產生參考圖框; 針對該參考圖框與該目前圖框執行疊代最近點法,以產生目前圖框的姿勢;及 根據該目前圖框的姿勢與參考圖框的姿勢的差值條件,以產生新關鍵圖框。
  11. 根據申請專利範圍第10項所述適用於疊代最近點法以選擇關鍵圖框的方法,其中產生該參考圖框的步驟包含: 針對該目前圖框與該目前關鍵圖框執行至少一次疊代最近點法;及 如果執行疊代最近點法所得到結果的匹配品質未達到預設位準,則選擇目前備用圖框作為該參考圖框;否則選擇該目前關鍵圖框作為該參考圖框。
  12. 根據申請專利範圍第11項所述適用於疊代最近點法以選擇關鍵圖框的方法,其中如果執行疊代最近點法所得到結果當中的正常值的數目小於預設值,即表示匹配品質未達到該預設位準。
  13. 根據申請專利範圍第11項所述適用於疊代最近點法以選擇關鍵圖框的方法,其中該目前備用圖框即為暫存的前一圖框。
  14. 根據申請專利範圍第10項所述適用於疊代最近點法以選擇關鍵圖框的方法,其中該差值條件包含該目前圖框的姿勢與該參考圖框的姿勢之間的位移、旋轉角度與深度距離。
  15. 根據申請專利範圍第14項所述適用於疊代最近點法以選擇關鍵圖框的方法,其中該差值條件包含: 位移次條件:位移(t) > η1 ; 旋轉次條件:旋轉(Rθ) > η2 ; 其中t代表位移,θ代表旋轉角度,R代表深度距離,且η1 、η2 為差值的預設臨界值。
  16. 根據申請專利範圍第15項所述適用於疊代最近點法以選擇關鍵圖框的方法,其中如果滿足至少一個次條件,則將該目前圖框作為該新關鍵圖框,否則將該參考圖框作為該新關鍵圖框。
TW106131250A 2017-09-12 2017-09-12 適用於疊代最近點法以選擇關鍵圖框的系統與方法 TWI652447B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW106131250A TWI652447B (zh) 2017-09-12 2017-09-12 適用於疊代最近點法以選擇關鍵圖框的系統與方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW106131250A TWI652447B (zh) 2017-09-12 2017-09-12 適用於疊代最近點法以選擇關鍵圖框的系統與方法

Publications (2)

Publication Number Publication Date
TWI652447B TWI652447B (zh) 2019-03-01
TW201913044A true TW201913044A (zh) 2019-04-01

Family

ID=66590539

Family Applications (1)

Application Number Title Priority Date Filing Date
TW106131250A TWI652447B (zh) 2017-09-12 2017-09-12 適用於疊代最近點法以選擇關鍵圖框的系統與方法

Country Status (1)

Country Link
TW (1) TWI652447B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI714005B (zh) * 2019-03-04 2020-12-21 財團法人成大研究發展基金會 適用於疊代最近點法的可察覺移動的關鍵點選擇系統

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US9529426B2 (en) 2012-02-08 2016-12-27 Microsoft Technology Licensing, Llc Head pose tracking using a depth camera
US9183631B2 (en) 2012-06-29 2015-11-10 Mitsubishi Electric Research Laboratories, Inc. Method for registering points and planes of 3D data in multiple coordinate systems
CN105453559B (zh) 2013-04-16 2017-12-29 点积公司 手持式便携光学扫描器及其使用方法

Also Published As

Publication number Publication date
TWI652447B (zh) 2019-03-01

Similar Documents

Publication Publication Date Title
US10296798B2 (en) System and method of selecting a keyframe for iterative closest point
US10334168B2 (en) Threshold determination in a RANSAC algorithm
CN108537848B (zh) 一种面向室内场景重建的两级位姿优化估计方法
WO2022120567A1 (zh) 一种基于视觉引导的自动化标定系统
Dorfmüller Robust tracking for augmented reality using retroreflective markers
CN111462207A (zh) 一种融合直接法与特征法的rgb-d同时定位与地图创建方法
CN106780631B (zh) 一种基于深度学习的机器人闭环检测方法
Yan et al. Dense visual SLAM with probabilistic surfel map
Lowe et al. Complementary perception for handheld slam
KR101869605B1 (ko) 평면정보를 이용한 3차원 공간 모델링 및 데이터 경량화 방법
JP2020042772A (ja) 深度マップに対して画像位置合せを行って深度データを最適化することができる深度データ処理システム
CN110570474B (zh) 一种深度相机的位姿估计方法及系统
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
Mehralian et al. EKFPnP: extended Kalman filter for camera pose estimation in a sequence of images
TWI652447B (zh) 適用於疊代最近點法以選擇關鍵圖框的系統與方法
Thomas et al. Dealing with noise in multiframe structure from motion
Melbouci et al. Model based rgbd slam
US11080862B2 (en) Reliability based keyframe switching system and method adaptable to ICP
KR20220158628A (ko) 깊이 보조 시각적 관성 주행 거리 측정을 위한 방법 및 장치
Laskar et al. Robust loop closures for scene reconstruction by combining odometry and visual correspondences
CN109579794B (zh) 适用于迭代最近点法以选择关键图框的系统与方法
KR20210116161A (ko) 단일 체커보드를 이용하는 이종 센서 캘리브레이션 방법 및 장치
Agrawal et al. Robust ego-motion estimation and 3-D model refinement using surface parallax
Zhang et al. An efficient and accurate solution to camera pose estimation problem from point and line correspondences based on null space analysis
CN112907455B (zh) 几何相机校正系统及方法