TWI672207B - 機械設備之定位系統及其方法 - Google Patents

機械設備之定位系統及其方法 Download PDF

Info

Publication number
TWI672207B
TWI672207B TW106138185A TW106138185A TWI672207B TW I672207 B TWI672207 B TW I672207B TW 106138185 A TW106138185 A TW 106138185A TW 106138185 A TW106138185 A TW 106138185A TW I672207 B TWI672207 B TW I672207B
Authority
TW
Taiwan
Prior art keywords
relationship
positioning system
dimensional
depth information
algorithm
Prior art date
Application number
TW106138185A
Other languages
English (en)
Other versions
TW201918348A (zh
Inventor
施志軒
吳光俞
黎尙昆
黃甦
Original Assignee
財團法人工業技術研究院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財團法人工業技術研究院 filed Critical 財團法人工業技術研究院
Priority to TW106138185A priority Critical patent/TWI672207B/zh
Priority to CN201711280417.8A priority patent/CN109767416B/zh
Priority to US15/847,089 priority patent/US10540779B2/en
Publication of TW201918348A publication Critical patent/TW201918348A/zh
Application granted granted Critical
Publication of TWI672207B publication Critical patent/TWI672207B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Abstract

一種機械設備之定位系統,應用於機械手臂,此定位系統包括至少一影像單元,用以取得一機械設備之深度資訊或三維點雲或三維網格;以及一處理單元,用以接收該深度資訊,並以一演算法重合該深度資訊與該機械設備之三維向量資訊或三維圖形檔案或三維點雲,取得一轉換關係,再根據該轉換關係及機械手臂與影像單元的一位置關係,計算取得機械手臂與機械設備的一空間關係,最後再根據該空間關係產生機械手臂之一移動路徑。

Description

機械設備之定位系統及其方法
本發明是有關於一種定位系統及方法,尤指一種以機械手臂配合深度攝影機對各式機械設備之定位系統及其方法。
當前安排各式機械設備配合機械手臂之加工作業時,其加工或移動路徑的建立與模擬等,往往以人工方式長時間進行逐步教導,不僅需要專業知識與經驗也耗費時間,嚴重影響生產進程。即使完成了生產前置作業,但於實際執行時卻仍有缺失,例如模擬結果與實際狀況不一致或誤差過大時,或當機械設備、工件更動或磨耗後,將使得先前已規劃完成的路徑或點位完全失效。
因此如何建立快速且精確的一種系統及其方法,以達成以機械手臂對機械設備之定位作業,將屬迫切與必要。
本發明提供一種機械設備之定位系統及其方法,適用於決定一機械手臂相對於至少一機械設備之間的空間關係,該系統包括有至少一影像單元與一處理單元。影像單元裝設於該機械手臂上或其他位置,用以掃描取得機械設備之深度資訊或三維輪廓點雲。處理單元接收該深度資訊,以一演算法重合該深度資訊與該機械設備之三維圖形資訊,而取得一轉換關係,再根據轉換關係及機械手臂相對於影像單元的一位置關係,產生該空間關係;最 後再根據此空間關係,規劃或模擬產生一機械手臂之移動路徑。
10‧‧‧影像單元
11‧‧‧處理單元
110‧‧‧演算模組
111‧‧‧儲存模組
112‧‧‧路徑產生模組
20‧‧‧機械手臂
21‧‧‧機械設備
22‧‧‧末端點
S1~S4‧‧‧步驟
S1A~S1C‧‧‧步驟
第1圖為本發明之一種機械設備之定位系統之實施圖。
第2圖為本發明之一種機械設備之定位方法之流程圖。
第3圖為第1圖系統之一校正眼在手座標轉換之示意圖。
第4圖為第2圖方法之一取得眼與手位置關係之流程圖。
以下藉由特定的具體實施例說明本發明之實施方式,所屬技術領域中具有通常知識者可由本說明書所揭示之內容,輕易地瞭解本發明之其他優點與功效。
請配合參考第1圖所示,本發明之一種機械設備之定位系統,舉例適用於決定至少一機械設備21,例如是布輪拋光機,與一機械手臂20之間的一空間關係,其主要包含至少一影像單元10與一處理單元11。
影像單元10可為一深度攝影機(depth camera),影像單元10可裝設於機械手臂20之末端點22,或所在區域空間中之任一位置上,因此影像單元10與機械手臂20之間將存在一位置關係,例如是在空間中相對位置之一轉換矩陣,而影像單元10則用以掃描取得至少一機械設備21之空間深度資訊或三維輪廓點雲資訊,而此資訊可代表機械手臂20或影像單元10相對於機械設備21各部位之間的真實距離或姿態。
處理單元11訊號連接影像單元10並且控制機械手臂20進行掃描動作,再以一演算法重合所掃描之空間深度資訊與機械設備21之一向量資訊,此向量資訊為一三維輪廓設計資訊,例如具有精準三維輪廓之圖形檔案,進而取得一轉換關係,此轉換關係即是一位置轉換矩陣,再根據此轉換關係與前述的位置關係,建立機械手臂20與機械設備21之空間關係,此空間關係亦是一位置轉換矩陣,除可代表真實距離或姿態外,也代表機械設備21相對 於機械手臂20之真實輪廓與位置,最後可選擇性地再根據此空間關係產生或模擬機械手臂20之一移動路徑或一加工路徑。
處理單元11在軟體上或硬體上主要具有一演算模組110、一儲存模組111與一路徑產生模組112。演算模組110接收來自影像單元10之空間深度資訊或三維點雲,以及存放於儲存模組112之機械設備21的向量資訊或三維圖檔,經演算後取得轉換關係,及再以轉換關係與位置關係建立空間關係。路徑產生模組112則依據該空間關係而產生機械手臂20適當的移動或加工路徑。
請配合參考第2圖所示,本發明之一種機械設備之定位方法,主要是由處理單元11藉由軟硬體方式所主導實施,其步驟包含有:
步驟S1,取得影像單元10與機械手臂20之位置關係。請再配合參考第3圖與第4圖所示,該取得位置關係之細部步驟為:
步驟S1A,收集校正點雲資訊。取得機械手臂20相對於影像單元10掃描一校正樣板或一任意特定物件之多組點雲資訊,並由影像單元10進行校正。
如第1圖與第3圖所示,影像單元10裝設於機械手臂20上(眼在手配置),為了進行校正,機械手臂20必須在至少二個位置之間移動或變更姿態,並分別記錄對校正樣板或物件所掃描到的點雲資訊,因此將可得到至少一組分別由影像單元10與機械手臂20末端點22在空間位置之轉換矩陣A,B;此處A代表不同姿態下影像單元10間的轉換矩陣,B則代表不同姿態下機器手臂20末端點22之轉換矩陣。
於此步驟中,依據影像單元10放置位置可分為眼在手(eye-in-hand),即放置於機械手臂20上,與眼看手(eye-to-hand),即放置於機械手臂20以外之位置上的兩種配置方式。
以眼在手配置而言,將影像單元10放置於機械手臂20的任一位置上,並計算機械手臂20末端點22與影像單元10之間的位置關係。校正方法為透過機械手臂20於空間中移動任意兩個位置,並記錄當下機械手臂20座標系相對於機械手臂20之基底座標系(Base)之轉換矩陣,並記錄相對於一外部深度攝影機所拍攝到 校正基準面的物件座標系(Object)之轉換矩陣。
步驟S1B,是否完成收集?若未完成收集點雲資訊,則回到步驟S1A。若完成收集則至步驟S1C。
步驟S1C,計算取得位置關係。以一定義閉形式轉換矩陣方程式AX=XB求解X矩陣,此X矩陣即是機械手臂20末端點22相對於影像單元10之位置關係。
因此當建立機械手臂20與影像單元10之座標幾何關後,即可透過收集大量特定的點雲資訊與機械手臂20的姿態,以一最小化式計算機器手臂20末端點22與影像單元10的空間平移與旋轉矩陣,也即是上述之位置關係。本發明舉例利用萊文貝格-馬誇特(Levenberg-Marquardt)演算法進行空間平移與旋轉矩陣參數的推估。
步驟S2,取得機械設備之空間深度資訊。處理單元11控制機械手臂20以令影像單元10掃描機械設備21,以取得其三維輪廓點雲或三維網格之空間深度資訊;此深度資訊代表此時此處影像單元10相對於機械設備21局部之真實距離或姿態。
若更進一步論述,影像單元10隨機器手臂20對機械設備21或目標機台外表輪廓快速移動掃描,而取得機械設備21之局部三維點雲資訊,以作為重合完整同型設備之向量資訊或電腦輔助設計(以下簡稱為CAD)模型之演算法輸入資料。
於此步驟中,若無完整同型設備之CAD模型資料或向量資訊,可在此步驟中先對機械設備21進行完整且精確的深度掃描,以取得完整之三維輪廓點雲資訊,以替代作為後續演算重合與路徑規劃參考模型之依據。
步驟S3,計算轉換關係以取得空間關係。將機械設備21之完整CAD模型或向量資訊或三維點雲,以一演算法重合經掃描所得之三維點雲或網格之深度資訊,舉例使用疊代最近點演算法(Iterative Closest Point,以下簡稱ICP)進行校正對位以得出一轉換關係。
本實施例之以機械設備21之三維輪廓點雲或深度資訊,重合 完整CAD模型或向量資訊之演算法,在實施前需從影像單元10掃描取得機械設備21之三維點雲或深度資訊,隨後在處理單元11之演算模組110中進行與完整機械設備21之CAD模型相重合,重合操作需先設定完整機械設備21之CAD模型作為目標資料,實際掃描之機械設備21點雲資訊設定為來源資料,該兩群資料所形成之點集分別為P、Q,其步驟如下:
1.分別計算點集P、Q的重心(Center of mass)。
2.將點集差異轉換為交叉共變異數矩陣(Cross-covariance matrix)Σ pq
3.根據Σ pq 產生對稱矩陣(Symmetric matrix)Q pq )。
4.求解對稱矩陣Q pq )得到最大特徵值與其對應之特徵向量(w,m,n,p),此特徵向量與四元素向量對應。
5.產生三維空間之旋轉矩陣
6.計算取得平移向量,最終以疊代方式及限定次數或誤差下產生位置轉換矩陣,也即是上述之轉換關係。
7.以位置關係與轉換關係之矩陣乘積取得空間關係;其中位置關係、轉換關係與空間關係均為4乘4之位置轉換矩陣。
於另一實施例中,若影像單元10所擷取到的點雲資訊具有空間與色彩資訊,則可利用色彩資訊強化原有實際設備點雲資訊,重合完整設備CAD模型演算法,例如採用k-d tree(k-dimension tree,k-維樹)資料結構來加速鄰近點資料搜尋,使原先演算法能使用較少疊代次數即可達到收斂效果。常使用來計算色彩距離的方式舉例有歐式距離(Euclidean distance)與馬式距離(Mahalanobis distance)。
步驟S4,產生機械手臂移動路徑。舉例利用機械手臂運動模擬以進行奇異點(singularity)、各軸極限與幾何干涉檢查。並透過整合而產生實際有效之移動或加工路徑。
以上述布輪拋光機為例,透過設定相關的刀具座標轉換與補償、研磨設備的位置與研磨接觸點設定後,所產生的研磨路徑可透過模擬器進行模擬。當模擬過程中會檢查是否產生關節極限、 干涉碰撞等,若發生上述狀況系統將會發出警告訊息通知使用者,並修正研磨路徑。
本發明之本實施例以步驟S1~S3即已完成了機械設備相對於機械手臂之定位或姿態確定,而步驟S4則可為選擇性地再依據工程計畫進行安排。
綜合上述,本發明以安裝於機械手臂20上之影像單元10取得機械設備21之深度資訊或三維點雲,再與既有之機械設備21或同型機台之三維圖形檔案或向量資訊進行重合,以取得之間的轉換關係,再根據機械手臂20與影像單元10之間的位置關係,最終計算取得機械手臂20相對於機械設備21間之空間關係,使得真實但局部的設備三維點雲與精確且完整的設備三維圖形得以相重合,以完成當時彼此姿態之確定而便於調整或安排後續之加工或移動路徑。
於生產廠商方面,本發明可使生產廠商快速自動生成有效路徑,降低調機教導時間。以及因應布輪磨耗以透過掃描補償路徑。
於系統廠商方面,本發明可提供系統廠商完整系統流程,若有CAD模型資料,本發明可估測設備姿態;若無CAD模型,本發明可重建設備之三維模型。
於模擬軟體廠商方面,本發明可提供模擬軟體廠商虛實校正擴充與方法,並成為電腦輔助繪圖軟體之第三方軟體。
以上所述之具體實施例,僅用於例釋本發明之特點及功效,而非用於限定本發明之可實施範疇,於未脫離本發明上揭之精神與技術範疇下,任何運用本發明所揭示內容而完成之等效改變及修飾,均仍應為下述之申請專利範圍所涵蓋。

Claims (8)

  1. 一種機械設備之定位系統,應用於一機械手臂,該定位系統包括:至少一影像單元,用以取得一機械設備之深度資訊,該影像單元為一深度攝影機,該影像單元是裝設於該機械手臂上;該深度資訊是三維點雲或三維網格之一;以及一處理單元,用以接收該深度資訊,並以一演算法重合該深度資訊與該機械設備之一向量資訊,而取得一轉換關係,再根據該轉換關係與一位置關係,取得一空間關係,該位置關係是該影像單元與該機械手臂之一末端點之間的一位置轉換矩陣,該空間關係為該轉換關係與該位置關係之矩陣乘積;其中該向量資訊是該機械設備之三維電腦圖形檔案或三維點雲之一;該處理單元再包括一演算模組用以執行該演算法,與一儲存模組用以儲存該向量資訊。
  2. 如申請專利範圍第1項之定位系統,其中該處理單元再包括一路徑產生模組用以產生該機械手臂之一移動路徑。
  3. 如申請專利範圍第1項之定位系統,其中該轉換關係為一位置轉換矩陣。
  4. 如申請專利範圍第1項之定位系統,其中該演算法是疊代最近點(Iterative Closest Point,ICP)演算法。
  5. 一種機械設備之定位方法,應用於一機械手臂並由一處理單元所執行,該定位方法包括以下步驟:接收由一影像單元所取得一機械設備之深度資訊;該深度資訊是三維點雲或三維網格之一;根據該深度資訊與該機械設備之一向量資訊,以一演算法取得一轉換關係;該向量資訊是該機械設備之三維電腦圖形檔案或三維點雲之一;根據該轉換關係與一位置關係,再取得一空間關係;該位置關係是該影像單元與該機械手臂之一末端點之間的一位置轉換矩陣,該空間關係為該轉換關係與該位置關係之矩陣乘積。
  6. 如申請專利範圍第5項之定位系統,其中該轉換關係為一位置轉換矩陣。
  7. 如申請專利範圍第5項之定位系統,其中該演算法是疊代最近點(Iterative Closest Point,ICP)演算法。
  8. 如申請專利範圍第5項之定位方法,其中在取得該空間關係步驟之後再包括:根據該空間關係,產生該機械手臂之一移動路徑。
TW106138185A 2017-11-03 2017-11-03 機械設備之定位系統及其方法 TWI672207B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW106138185A TWI672207B (zh) 2017-11-03 2017-11-03 機械設備之定位系統及其方法
CN201711280417.8A CN109767416B (zh) 2017-11-03 2017-12-06 机械设备的定位系统及方法
US15/847,089 US10540779B2 (en) 2017-11-03 2017-12-19 Posture positioning system for machine and the method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW106138185A TWI672207B (zh) 2017-11-03 2017-11-03 機械設備之定位系統及其方法

Publications (2)

Publication Number Publication Date
TW201918348A TW201918348A (zh) 2019-05-16
TWI672207B true TWI672207B (zh) 2019-09-21

Family

ID=66327416

Family Applications (1)

Application Number Title Priority Date Filing Date
TW106138185A TWI672207B (zh) 2017-11-03 2017-11-03 機械設備之定位系統及其方法

Country Status (3)

Country Link
US (1) US10540779B2 (zh)
CN (1) CN109767416B (zh)
TW (1) TWI672207B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2571528A (en) * 2018-02-28 2019-09-04 Rolls Royce Plc Controlling a robot in an environment
US11049282B2 (en) * 2019-02-28 2021-06-29 Intelligrated Headquarters, Llc Vision calibration system for robotic carton unloading
CN110455189B (zh) * 2019-08-26 2021-04-06 广东博智林机器人有限公司 一种大尺寸物料的视觉定位方法和搬运机器人
CN113119103B (zh) 2019-12-31 2022-10-14 深圳富泰宏精密工业有限公司 确定标记物的深度标准值的方法、计算机装置
TWI756996B (zh) * 2020-03-30 2022-03-01 財團法人工業技術研究院 生物檢體自動採檢系統及其採檢方法和非揮發性電腦可讀記錄媒體
KR102525281B1 (ko) * 2020-11-12 2023-04-25 네이버랩스 주식회사 이미지 기반 측위 방법 및 시스템
CN113344769A (zh) * 2021-04-20 2021-09-03 梅卡曼德(北京)机器人科技有限公司 基于机器视觉的物品3d图像信息获取方法、装置、介质
US11717974B1 (en) * 2022-06-10 2023-08-08 Sanctuary Cognitive Systems Corporation Haptic photogrammetry in robots and methods for operating the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103302666A (zh) * 2012-03-09 2013-09-18 佳能株式会社 信息处理设备和信息处理方法
CN103959012A (zh) * 2011-12-06 2014-07-30 赫克斯冈技术中心 6自由度位置和取向确定

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5471541A (en) * 1993-11-16 1995-11-28 National Research Council Of Canada System for determining the pose of an object which utilizes range profiles and synethic profiles derived from a model
GB0130986D0 (en) * 2001-12-27 2002-02-13 Prophet Control Systems Ltd Programming robots with offline design
TW200807198A (en) 2006-07-25 2008-02-01 China Steel Corp Three-dimensional alignment method for automated material taking
TW200930523A (en) 2008-01-11 2009-07-16 Han-Pang Huang 7 degrees of freedom humanoid robot arm (including a gripper)
JP4347386B2 (ja) 2008-01-23 2009-10-21 ファナック株式会社 加工用ロボットプラグラムの作成装置
TWI438396B (zh) 2009-05-15 2014-05-21 Hon Hai Prec Ind Co Ltd 三座標測量機編程系統及方法
TWI493506B (zh) * 2009-06-09 2015-07-21 Univ Nat Taiwan 三維指標裝置及三維指標裝置定位方法
JP5627325B2 (ja) * 2010-07-23 2014-11-19 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
US9463574B2 (en) * 2012-03-01 2016-10-11 Irobot Corporation Mobile inspection robot
US9043069B1 (en) * 2012-11-07 2015-05-26 Google Inc. Methods and systems for scan matching approaches for vehicle heading estimation
US9186795B1 (en) 2013-06-24 2015-11-17 Redwood Robotics, Inc. Programming and execution of force-based tasks with torque-controlled robot arms
EP2821872B1 (en) 2013-07-01 2017-02-08 Getting Robotika S.L. Robotised cell, installation and method for deburring parts
US9283678B2 (en) * 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
CN104484522B (zh) * 2014-12-11 2017-10-27 西南科技大学 一种基于现实场景的机器人模拟演练系统的构建方法
US10173324B2 (en) * 2015-11-16 2019-01-08 Abb Schweiz Ag Facilitating robot positioning
CN105643399B (zh) 2015-12-29 2018-06-26 沈阳理工大学 基于柔顺控制的机器人复杂曲面自动研抛系统及加工方法
CN106338245B (zh) * 2016-08-15 2019-05-10 南京工业大学 一种工件非接触移动测量方法
TWM540733U (zh) 2016-10-14 2017-05-01 Leader Automation Co Ltd 應用於機械手臂之立體掃描加工系統
CN106600681B (zh) 2016-11-02 2023-07-11 上海航天设备制造总厂 一种有障碍物曲面的打磨方法
CN106671084B (zh) * 2016-12-20 2019-11-15 华南理工大学 一种基于脑机接口的机械臂自主辅助方法
CN107175660B (zh) * 2017-05-08 2019-11-29 同济大学 一种基于单目视觉的六自由度机器人运动学标定方法
US10600203B2 (en) * 2017-06-06 2020-03-24 CapSen Robotics, Inc. Three-dimensional scanner with detector pose identification

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103959012A (zh) * 2011-12-06 2014-07-30 赫克斯冈技术中心 6自由度位置和取向确定
CN103302666A (zh) * 2012-03-09 2013-09-18 佳能株式会社 信息处理设备和信息处理方法

Also Published As

Publication number Publication date
US10540779B2 (en) 2020-01-21
CN109767416B (zh) 2021-12-28
TW201918348A (zh) 2019-05-16
US20190139255A1 (en) 2019-05-09
CN109767416A (zh) 2019-05-17

Similar Documents

Publication Publication Date Title
TWI672207B (zh) 機械設備之定位系統及其方法
JP7334239B2 (ja) 拡張現実及びデジタルツインのためのロボット較正
CN110553600B (zh) 一种用于工件检测的结构光传感器仿真激光线的生成方法
CN109859275A (zh) 一种基于s-r-s结构的康复机械臂的单目视觉手眼标定方法
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
KR20160070006A (ko) 간섭 회피 방법, 제어 장치 및 프로그램
CN109397282A (zh) 机械手臂加工方法、系统及计算机可读取纪录媒体
JP7035657B2 (ja) ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法
CN111331592A (zh) 机械手臂工具中心点校正装置及其方法以及机械手臂系统
CN112862878B (zh) 一种基于3d视觉的机械臂修坯方法
Xie et al. Calibration of 6-DOF industrial robots based on line structured light
CN114310901B (zh) 用于机器人的坐标系标定方法、装置、系统以及介质
CN108942918A (zh) 一种基于线结构光的立体定位方法
TW201714695A (zh) 即時三維建模之雷射飛行打標系統及其方法
Zhang et al. Error correctable hand–eye calibration for stripe-laser vision-guided robotics
CN115284292A (zh) 基于激光相机的机械臂手眼标定方法及装置
CN110363801B (zh) 工件实物与工件三维cad模型的对应点匹配方法
JP5806105B2 (ja) パラメータ補正方法および制御システム
CN112700505B (zh) 一种基于双目三维跟踪的手眼标定方法、设备及存储介质
Guo et al. Optimization design of non-coplanar target for pose measurement with monocular vision system
Langming et al. A flexible method for multi-view point clouds alignment of small-size object
JP6515828B2 (ja) 干渉回避方法
CN115042184A (zh) 机器人手眼坐标转换方法、装置、计算机设备和存储介质
WO2020133882A1 (zh) 一种机器人应用于再现机加工的方法
CN112800582B (zh) 一种结构光视觉传感器仿真激光线生成方法