TW201027288A - Method of teaching robotic system - Google Patents
Method of teaching robotic system Download PDFInfo
- Publication number
- TW201027288A TW201027288A TW098143390A TW98143390A TW201027288A TW 201027288 A TW201027288 A TW 201027288A TW 098143390 A TW098143390 A TW 098143390A TW 98143390 A TW98143390 A TW 98143390A TW 201027288 A TW201027288 A TW 201027288A
- Authority
- TW
- Taiwan
- Prior art keywords
- virtual
- image
- physical
- dimensional image
- dimensional
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 34
- 230000007246 mechanism Effects 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 5
- 239000000463 material Substances 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000011960 computer-aided design Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 241000255925 Diptera Species 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 241000282320 Panthera leo Species 0.000 description 1
- 241000190070 Sarracenia purpurea Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 235000015170 shellfish Nutrition 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
- G05B19/4202—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine preparation of the programme medium using a drawing, a model
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
- G05B19/41865—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by job scheduling, process planning, material flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/35—Nc in input of data, input till input file format
- G05B2219/35203—Parametric modelling, variant programming, process planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36449—During teaching use standard subroutines, assemble them to macro sequences
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Engineering & Computer Science (AREA)
- Manufacturing & Machinery (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
Description
201027288 uy28521twf.doc/n 六、發明說明: 【發明所屬之技術頜域】 本發明是有關於一種機器人系統,且特別是有關於一 種教導機器人系統的方法,使得機器人系統能根據預設的 物件模型作類推,進而來操作物件。 【先前技術】 ❹ 過去十年中,智慧型機器人系統迅速發展,甚至已有 商業化的產品問市。典型的包括有iRob〇t公司出品的
R〇〇mba智慧型自走吸塵器、SONY公司設計製造的AIBO 娛樂型機器寵物、Honda公司生產的ASIMO人形機器人 等等僅為其中幾例。這些機器人系統儘管實現了數十年先 進的研究,多半仍只被視為僅具娛樂性的,,玩具,,。其主因 在於即便疋一個非常簡單的協調性動作(對人類而言),例 如從水壺倒水至水杯,對於機器人系統的,,學習,,來說,都 是十分困難。 另方面估5十有上百萬的工業機器人(industrial Robot)’包括廠房型(Fact〇ry)或服務型機器 人’在世界各地運轉著,負責需要高速、精確、高可靠度 與持久性佳的任務,在汽車工業與電子產業中尤是如此。 不同於Roomba、AIB〇、與ASIM〇這些自主式 機11人’這私錢11人在料定義及控 g 、任務中(像是在傳動帶上的零件,需要逐一精確 的擺在特定位置上,而非凌亂的堆疊在棧板上),表現優於 201027288 W7(Jimiw 28521twf.doc/n 人類。這些物件和位置即使僅發生些微異動,往往動輒需 要耗費數天、甚至數錢來錄絲(Re pn>g_ming) 或修改這些工業機器人的動作。 因此,出現了視覺導m機器wsicm Guided Industrial R0b0t)以彌補上述缺乏彈性的缺憾。視覺導引 式工業機器人系統是-種機nm主要透過—個或多 個内建影像擷取及/或雷射裝置來感測所在 产 的物件。例如FA爾公司所製造的糾2〇二二: 以高速攝影系統控制機器人雙臂,進而能在傳動帶 (Transmission Belt)上每分鐘抓取多達丨2〇個任意擺置 零件這些視覺導引式工業機器人典型的工作情境如下所 述。將機器人被程序化以對一理想的影像擷取位置放置相 機、以及調整燈光照明,隨後軟體程式即對所操取的物件 影像進行影像處理,並指示機器人去適應零件的位置與方 位視覺V引式機器人確實比’’盲眼’’機器人較具彈性,將 物件從-位置移動到另-位置也許較易程式化,、然而即使 要適應操作物件簡易的改變,這些機器人仍需要冗長的 練與整合的準備時間。根據這些觀察可知,對於機器人5系 統成為主流最顯著的障礙似乎是其只能處理好某種工作二 例如撿起與放置。當要賦予機器人系統新類型的工作時, 光是教導即會花費太多時間,使得要讓機器人系統展^見,, 新把戲’’的成本過高。即便是工業機器人,對非固定軌跡 (Non-Fixed Tmjectory )的手臂動作教導亦是十足困難的。 201027288 uv/uusmW 28521twf.d〇c/n 為了使得教導機器人系統成為較簡易的任務,本發明 相信,類推(Analogy)的概念可能是關鍵。類推在人類 決問題時扮演著舉足輕重的角色,像是決策、感知、記憶、 創作、情感、解释與溝通。類推也是執行一些基本任務\ 如辨識地點、物件和人物的基礎,包括臉孔感知(_ Mce’ption)與人臉辨識(FacialRec〇gniti〇n)。類推曾被爭
論為”人類認知的核心”。若類推功能能以某種方法與機器 人系統結合,則比起傳統上”一切從頭,,的方法, ^ 人系統可以更為迅速。 ° 【發明内容】 本發明提供-種新穎的教導機器人系統之方法,利用 類推(Analogy)以對機器人系統的訓練達到顯著地省時省 。機ϋ人祕必須至少包含財賴作硬體與計 在本發明之-實施例中,包含下列主要步驟。首先, ^物件模型資料庫(Lib卿)與操作模組資料庫。對於 ^器人純所魏理之實體物件,至少有:物件模型以定 ^ 幾何上相似於實體物件的三維形狀’或是利 的物件模型,使得其所定義的形狀組合後可 开^成至>、在聽上她时難件。每— 幾何參數以描述此三維形狀。同時,對於在 至少一對應的操作模組,而每-操作模組有多個ί定的操 201027288 0970055TW 28521twf.doc/n 作參數,用以指定至少—操作之目標,以及和 目標物件上之操作相關的額外數筆資訊。 丁 接者’對於所要處理的每一實體物株 , 捣犏此各,上 可頁骽物件,—相對應的虛 擬物件會叙義。此虛㈣件定義包含雜物件 稱、物龍型的參照(Refe職e)或是定義在物型^ 料庫中的多個物件難之組合,以及根據實體物件對^ 個)物件模所指派的幾何參數數值。 接下來,對於所要處理的實體物件之各操作,提供操 作定義。操作定義包含㈣触資料料賴作模組之參 照,與根據虛擬物件所代表的實體物件與其要執行的操 作,指派操作模組的預定操作參數。 ’、 若所要教導的機盗人系統至少具有一影像操取裝置, 於是,可選擇性地,對所定義的各虛擬物件,提供事先拍 攝虛擬物件所代表的實體物件至少一張的二維影像,並且 與虛擬物件作關連。在此步驟之後,即完成機器人系統的 任務描述。任務描述同時也包含了相對應於所要處理的實 體物件之一個或多個的虛擬物件定義,以及相對應於與所 關連的虛擬物件之一個或多實體物件的影像。 為讓本發明之上述特徵和優點能更明顯易懂,下文特 舉實施例’並配合所附圖式作詳細說明如下。 【實施方式】 本發明實施例之描述僅為示例,非用以限定本發明之 目的或應用。以下將配合圖式詳細地說明本發明之較佳實 201027288 097Q055TW 2852itwf.doc/n 施例。熟習此技藝者可依照本發明之精神,對下述實施例 稍作修飾,惟其仍屬於本發明之範圍。 本發明並不限制機器人系統之任何規格或種類。此處 之機器人系統可為雙足型、滾輪型、甚或定點型;或者, 彳是具有雙臂之人顯||人純、或是具單臂峽房用定 (Factory Stationary Robot) 〇 使用方式亦不受限’其可為用以住宅清掃之自主式居家型 ❿ 機器人(Autonom〇us Domestic Robot )、或是用於電子零件 取放(PiCk-And-Place)用途之產業機器人(Industriai Robot)。 圖la為根據本發明實施例所繪示之機器人系統1示意 圖。機器人系統1,猶如任何傳統的機器人,具有適當的 物件操作硬體以處理實體物件(Real〇bjec〇。如圖所示機 益人系統1具有機體1〇與至少一隻機臂12,以及許多(未 ^示出)可驅動機體1〇與機臂12之馬達(M〇t〇r)與致動 器(Actuator)。操作硬體之細節,對本技術領域具有通常 知識者而s,應屬十分簡易。如同任何傳統的機器人,機 恣人系統1亦具有處理器、控制器、記憶體、貯存器度等 等(未繪示出)之適當的計算硬體2〇,用來控制操作硬體。 根據本發明實施例,機器人系統丨需被教導去執行操 作一個或一個以上之實體物件,且機器人系統丨必須具備 某種光學感知(optical perception)機制用以,,觀看,,實體物 件。光學感知機制可包括,但並不限於,像是能夠拍攝二 維影像的電荷耦合元件相機(Charge coupled Device 201027288 〇y/UU551W 28521twf.doc/n
Camera,CCD Camera)之影像擷取袭置(Image 一加邮 Device),以及能鍵得實難件三料觀資料的三維雷射 掃猫器(3D Laser Scanner)。換句話說,機器人系統】至 少具有-個影豫擁取裝置或一個三維雷射掃猫器,或二者 皆具備。為簡化起見,以下假設機器人系統工至少且備了 電件相機的影像擷取裝置3〇。二影像 3裝置30可置入機器人系統1的機體1〇中,例如可置 ί ί ΐ機Ϊ人的頭部或是服務型機器人(—说) 的手#中。衫像擷取裝置3〇亦可置於機 卜透過有線或無線的通訊機制與機器人系 歸上零件輸送的服務型機方== 器人系統1的,,老師,,)會根據軟體::40:tor,,機 式化此特別任務,並且對機界人絲 ' 斤獒供的環境程 地執行此任務。也就是說,此操作者H人糸統1可成功 ,導機器人如的。值得系統Μ 在計算硬體20上運作,於是敕 軟體系統40可同 述即可直接由計算硬體2〇來處理^ /所輪出的任務描 軟體系統40亦可由另-個來= 201027288
Uy/UUSilW 28521twf.doc/n 時軟體系統40所產生的任務描述則需透過有線或 _載人,硬體2G’讓機器人系統i能據此來絲^務。 教導機β人系統1的第一步是定義機器人系統ι所要 處理的實體物件。舉例來說·,:如圖2a所示,要教導機 系統1處理第一實體物件_ (即-枝筆)以及第二實體 =1〇()(即個筆筒)。此物件定義步驟需要事先預備一 個物件模财糾觸。域lb^,物件 ❹ 是軟體系、统4。的一部分且包括至少一二庫: ^nitive Shape)的物件模型1Q1。物件湘如可儲存在 槽案、貧料庫或類似的軟體構件中。,,基本原型,,此 常用料腦_或電腦輔助設計(c〇mputer AidedDe_ (nlDM〇delmg) f ° 嶋體科基本之所以被 2 =狀:乃因為其為許多其他形狀或形體之建構 λ r寸而δ,其實报難對此詞彙下精準的定義。鈇 =3直=卜形上具備了-些相同的特徵 :們m直邊’(2)它們通f只有的簡單弧形,益反 它們通常無法再分解成其他的基本原型。根 明的主要構想即是運用類推 d c_山ty)來教導機器人系统。因此, 的”基礎(Base),,。物件模切誉偏備传以類推 即為所述之,,基礎”貝枓庫綱中的物件模型101 提供物件模型資料庫1〇〇的理由是基於以下假設:現 只活中,多數物件可近似於這些基本原型的其中之一或 9 201027288 0970055TW 28521twf.doc/n 是由兩個或更多的基本原型以簡單的二元(Binary)關係(加 法或減法等等)所構成的組合。舉例來說,如圖处所示, 對於實體物件6GG(即筆)而言,物件模型資料庫⑽包含了 一個圓柱體102的物件模型1〇1以及另一個檲錐體1〇3的 ,件模型10卜於是實體物件600可近似於圓錐體1〇3簡 單相加於圓柱體1〇2的尾端。請注意圓柱體1〇2與角錐體 103此兩個基本原型並沒有實體物件_ 的橫切面)。最重要的是’基本原型幾 件或·因崎於機②人系統1所要處理的實體物 件或貝體物件-部分,可提供一個近似的參考。 、除此之外’物件模型資料庫100也可包含一個或一個 乂上非原型、甚至元全相等於或大致相似於 體物件的物件模型而。舉例來說,如圖2c所示= 件700 (即筆筒),物件模型資料庫1〇〇包含—個管型 件模型101並且在幾何上等同於實體物件7〇〇。、 :管型並非原型,而是可表為一個圓柱體原型減::一: 型。據此’物件模型資料庫100即可 此了包括像疋可樂瓶、扳手等等具複雜幾何形狀、6入矣 現所要處理的實體物件的物件模型。 儿王衣 每-個原型或複雜形狀的物件模型⑼包含— 參數。二個物件模型101的幾何參數可能不同。比 柱體102的物件模型1〇1可以下列向量形式表示· β圓 CYLINDER ={l,d} 201027288 09700551W 28521twf.doc/n 圓錐體103的物件模 ;而筒形的物件模型 其中各為圓柱體的長度與直徑; 型101可表示成下列: CONE = {d, h} 其中4/z為圓錐體的底部直徑與高度 101可表示如下: POT = {/, d, w}
其中/,4與W各為筒形的長度、餘賴壁厚度β 請注意的是,物件模型資料庫100可以只包含 型的物件模型1G卜或是,物件模型資料庫_亦ΐ同時 包括基本原型與複雜/-般形狀。請同時注意的是,當 模型貝料賴立狀後,在有t要時,額外的物件模型⑺1 仍可在稍後增加到物件模型資料庫中。 誠如務早所提’物件料庫提供了類推的“美 礎為了達到這個作用’物件絲之步驟允許操 ς 每-件要處理的實體物件去定義―虛擬物件(vi_ 0bject)。對於每—個蚊義的虛擬物件,有此—虛擬 的獨特名稱,而此名稱會與物件模型#料庫刚中 模型101或是二個或多個物件模型1G1 ^合作 (assoda—)。以圖2a為例’兩個虛擬物件可用虛擬碼 (Pseudo Code )定義如下·· 崎
Virtual Object A: CONE + CYLINDER; B: POT; 圓柱體’ POT〜筒形); (註:CONE —圓錐體,CYLINDER ~
II 201027288 〇y /UU!)M W 28521twf.doc/n 其中,虛擬物件A被指明具有圓錐體加到圓柱體一端(以 近似為筆狀600)二者結合後的所有幾何參數;並且將筒 形所有的幾何參數指派給虛擬物件B,使得其能近似於筆 筒 700。”二 '‘ '、 、 ». ·» 請注意的是,即便上述舉例是用程式語言來陳述,缺 而相同蚊義過程可以是而事實上也較傾向是在一個如 AutoCAD®的電腦輔助設計系統(CAD System)此種有點 f操作的賴_境中來完成。對熟悉本領域之技術者而 言,在繪圖環境下以選取與結合基本原型來定義虛擬物 ❹ 件,就好比在AutoCAD、創造三維模型,是很容易理解 的。除了獨特名稱與物件模型的關連之外,軟體系統4〇 亦允許操作者根據其所相對應的實體物件去設定幾何參數 的數值。可再次使用虛擬碼表示如下:
Virtual Object A: C0NE(^=2cm, /z=2cm) + CYLINDER(/=8cm, ^=2cm); ’ B: POT(/=5cm, fiN3cm, w=0.5cm); 參 同樣的,若在一個繪圖環境中,此步驟可用拉扯盥 小基本原型,及/或手動輸入參數值來完成。,、' 總括而言,對於所要處理的每一實體物件,物件定義 步驟牽涉到,從物件模型資料庫選擇—個形狀❹個雜 之組合來定義一個虛擬物件,並且對此形狀或多個形狀之 、、且口給予獨特名稱之命名,以及根據此實體物件指派這些 开〆狀之戎何參數值。換句話說,上述例子,在物件定義的 12 201027288 uy/uu^rw 28521twf.doc/n 操作者定義了近似實體物件_與观(即 後進
作以系統1的第二步驟是去定義一個或多個操 :一=機斋人糸統該做什麼。舉例來說,根據上述例子 (即t 導機$人系統1撿起第—實體物件_ ^1,將第—實體物#_放入第二實體物件700 (即 til ’並且使得第一實體物件_的筆尖朝上。此操 需要一個事先預備的、包含多個操作模組2〇1 組貢料庫200,其為如圖lb所示的軟體系統40 如物件模型資料庫⑽的使用,_器人系 、·死1疋義别述的操作,操作者首先選擇其中一個操作模 Γ 從操作模組資料庫2GG中選擇了將—事物放入 另一事物中之rPUT_INSIDE」操作模組。 每一操作模組2(H均是設計者(例如程式工程師 =的軟體結構。從操作者的觀點,每—操作模組則亦 /、有刼作模組201設計者所預定的多個操作參數。於是再 次使用虛擬媽,此「PUT_INSIDE」操作模組可以如下表示·· PUT-INSIDE(targetl,target2, 〇p3, 〇P4, op5,) ,中 targeU、target2、〇P3、〇P4、op5 等等均為「PUWnside 操作模組之操作參數。這些操作參數的意義如下: 」 13 201027288 uv /UUDD i w 28521twf.doc/n -targetl為機器人系統丨所要撿起的一虛擬物件之參照 (Reference); 昭 -target2為targetl所要放入的另一虛擬物件之參只 -op3為將targetl撿起時要握住何處之參照; _ 〇P4為targetl之哪一尾端先置入也化技2時之參,昭;以 及 、 _叩5為從target2之哪一邊放入如§如之參照; 另有其他相關的操作參數,例如: 魯 _的軸在哪以及相對於此軸要以何角度放入 targetl ; ,'之重量(使得機器人系統"寻知需多 targetl ); 干 ~ -吨etl倾本权強度(使得㈣人纽 力以抓住targetl)。 宁$扃夕用 由上:知,這些操作參數提供了多筆資 能夠實現此「PUT-INSIDE」摔作。s 俄时人糸統1 m可有不同組的操作參數」細作因此’不同的操作模組 〇 義::之中,當操作者從操作模組資料庫 20!中所有的操作參數。這可如;派操作模組 說,在操作者選擇了操作模組後,環境。舉例來 「-_E」之操作參數,來詢=二”基, 操作參數: 輝作者去指派母一個 14 201027288 28521twf.doc/i, 者&派虛擬物件A為吨⑷(可直接輸入A名稱 ^綠_境中直接點選虛擬物件A來指派); 者ί派虛擬物件B為target2(可直接輸入b名稱或 。'、曰圖環境中直接點選虛擬物件B來指派); 者‘派虛擬物件A圓柱體艇體(請參照圖2d)中 域為。P3 (即握住targetl的部分),此可在 1圖裱境中經幾個點擊操作來執行; ❹ 尾端的陰影區域為。P4 (即 心幾個轉操作&聊2),此可在繪圖環境 11^虛=件B頂部的陰影區域為叩5 (即從 對卦“ argetl之角度。 易;=ίί者而言,其餘執行之細節編^ 所要:::摔驟”,對於機器人系統1 至少-操作模組201呆:模組資料庫_選擇 其事先所預定的操作參數',軟體=所=的操作模組加 派這些操作參數 統4〇即詢求操作者去指 的目標〇et,,步及—個或多個所要摔作 (get,即虛擬物件)與其他有關於此 15 201027288 0970055TW 28521^^0^ 多筆資訊。根據上述’操作參數的指派可以 在像疋電腦輔助設計系統中的繪圖環境來達成。 值純意的是,操作模組201有許多不同的實施方 ί 1 ’取決於操作模組201是如何實施的,機器人系, 統1如何以依據操作模組201之定義與其操作參數來 參 此一操作亦有許多不同的方法。在一個實施例中’每—操 3,201係為-軟體程序(Routine)或函數(Functi〇n; (:二操作模組資料庫實為一程式資料庫),而操作參數 p為輸出觀程序或函數的變數。當機ϋ人純1得到一 ❹ ΐίί個操作模組201以及隨著操作定義步驟所指派的摔 =數時’機ϋ人魏!的計算硬體胸卩會執行包括^ 序=數的程式碼。在另—實施例中,上述之程序或函數 係匕括商階、與硬體無關指令(Hardware Independent Insmiction) ’而這些指令必須先經能配合操作硬體與機器 人系、’,的冲算硬體2〇的編譯器來編譯成可執行的程式碼。 ★操作模'组201之轉譯或編譯,並非本發明實施例之討 論重點,同時已有一些文獻提出類似之主題探討。舉例來 說,由M_y,IV等人所提出的三篇美國專利(U,S. Patent
Nos· 6’889,118, 7,076,336, and 7,302,312)即在機器人控制 軟體與機器人操縱硬體之間提供了一硬體抽象層 (Hardware Abstracti〇n Uyer,Hal ),使得底層的硬體對^ 機器人控制軟體而言能透明化。此項優勢能讓機器人控制 軟體以「機11人無關模式」(Robot-Independent Manner) 來撰寫。因此,可以想像操作模組2〇1的細節即可以在上 16 201027288 uy./,M.W 28521twf.doc/n 述的機器人無關模式中程式化。又另 2==所有操作參數的指卿一: 1 *組201並不具有任何高階指封丄㈣! ^ \或低階可執行程式碼“.Level Exe論ble 守則是由機器人系統1決定如何依據操作模組 =些實施例中’決策如何執行的人工智慧 =lg_)是喊於操作模组本身之中,而本實施例 =疋工智慧完全内建於機器人系、統1中。由此亦可想 實施例是把部分智慧内炭於操作模组測, σΡ刀S慧内建在機器人系統1中。 實施操作模組,操作模組與其操作參數、以 機ί人系“義與其幾何參數’都該提供充分的資訊以讓 t = f 具智能地實行各操作。請比較圖2e與 m’當虛缝件a離纽物❹相當遠時, 應該能夠規劃出一條適當軌跡,因機器人系 ίΙΐΓ 件之間有足夠的距離得以讓它直 A。另一方面’如圖2f所示’當虛擬物件 一旁時,機器人系統1應該能夠規劃出 門1、二纟跡’因機11人系統1能判斷虛擬物件A與B之 Ϊ的距離’於是它必須先把虛擬物件A移離虛擬 统1能夠作有智慧的判斷以及策劃軌跡 ί蓉蓉件MB的幾何參數(例如它們的長度與高 #) ^、了所需的資訊。同樣的,操作參數亦提供相 17 201027288 0970055TW 28521twf.d〇c/n 關資訊使得機器人系統i知道從哪 如何將虛擬物件A插入虛擬物❹。請注 以及規劃軌跡並非本發明之主題, 智慧型機器人與人工智慧的獅可參考秘已有心像疋 作Sit系統1在實體物件上進行被教導的操 === 將實體物件與定義過的虛擬物件作 魯 ^人糸缔°ι "/百’機器人系統1看到一個實體物件時,機 n统丄必須要能,,辨識,,實體物件為所定義的虛擬物件 Ϊ ί一二倘若所操作的實體物件已有明顯的形狀差 不㊉要#其顏色、材f或其餘特徵來區別時,則盘虛 擬物件關連的原型與複雜形狀與其幾何參數 = 機ϊ人系'1透過機器人系m所配備的諸如三維 “或相機等光學感知機制來_龍物件。像是經由三 維雷射_器’機器人系統!即能獲得實體物件的三师 =。於是此三維轉即可與趣物件所連結的形狀與幾何 >數作比較來看哪-個虛擬物件最能夠代表該實體物件。 、即便機ϋ人⑽!只有械,上料觸仍可能達 成。當機器人系統1透過影像擷取裝置3〇看到實體物件 時康它可先利用已拍攝的—張或多張實體物件的影像來建 造實體物件的三維模型,然後再和虛擬物件所關連的形狀 與幾何參數作比較。在電腦_、影像處理等等的領域中, 已經有許多有關從—維或二維影像來建構三維模型的揭 示。舉例來說DaVidGLowe在論文(“τ“ensi〇nai object recognition from single two-dimensional images ^ 18 201027288 0970055TW 28521twf.doc/n
Artificial Intelligence,31,3 (March 1987),PP. 355—395)中 即教示了電腦視覺系統可由未知觀察點(Viewp〇int)的單 一灰階影像(Single Gray-Scale Image)來辨識三維物件。 然而,為了更進一步地強化辨識率、以及區別具有大 致類似形狀的實體物件,本發明額外提供了一個影像關連 (Image Association)步驟。在這步驟中’對於所處理的每 一實體物件,至少要提供一張實體物件之二維影像3〇1, φ 此影像拍攝的角度(PersPective)不用完全等同於機器人 系統1的影像擷取裝置30所拍攝的角度,然後將此 與對應於該實體物件的虛擬物件作關連。這些影像3〇1通 常是事先拍好並儲存在如圖lb所示的影像資料庫3〇〇中 (其為軟體系統40的一部分)。換句話說,對於每一所要 處^的貝體物件(因此’也是對每一個所定義的虛擬物件 而言)在影像資料庫300至少會有—張實體物件的影像 301。根據上述舉例’影像關連步驟可用虛擬碼如下表示: Image Association : ❹ Image 1:A;
Image2: B. 其中,如圖2g所示,Imagel是與虛擬物件A相對應 體物件600之二維影像;❼Image2 1與虛擬物件b 應的實體物件7GG之二維影像。在另—個實施财 =事實是與物件定義步驟相結合,並且可以虛擬碼
Virtual Object 19 201027288 uy/uu〇3i w 28521twf.doc/n A: CONE + CYLINDER = Image 1; B: POT = Image2; 如上所述,在操作期間,機器人系統丨會不斷試著去” 辨識”實體物件。如果沒有影像關連步驟,機器人系統,丨 就只能倚賴與虛擬物件關連的原型或複雜形狀以及其幾何 參數。而有影像關連步驟時,即可進一步地用一些影像擷 取裝置30所拍攝的影像’和事先拍攝的實體物件的影像以 一影像處理機制相比對。假使有一虛擬物件所關連的(一 張或多張)影像與實體物件所拍攝的影像最相似時,即可 ❿ 該實體物件的就會被”辨識,,為該虛擬物件。
上述影像處理機制並非本發明之標的,而且已經有許 多使用一維影像來識別三維物件的揭示。舉如Daniel P
Huttenl〇cher 等作者在論文("Recognizing Three-Dimensional objects by Comparing Two-Dimensional
Images/ cvpr, pp.878, 1996 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’96),1996)巾’即教示了 一種辨識物件的演算法, =需將所儲存的物件二維影像與一個未知角度的影像作比 較,不需要事先知道二者觀察點之間的關係。 物件模型資料庫100、操作模組資料庫2〇〇以及影 資料庫300通常都會在操作者利用軟體系統4〇產生任務描 述(請參考圖2g)以教導機器人系統【做什麼之前,即被 事先安裝在軟體系統4G 而物件模型資料庫爾與 作模組資料庫200兩者均内建有一些物件模型ι〇ι 列如 20 參 鲁 201027288 uy /υυ33 i'W 28521 twf.doc/n Ϊ^ 300 ㈣或影像關連步驟4=:=後=定義 …系統1的影像擷取裝置30 月,思除了機器人 像擷取裝置來拍攝取得。"像301也可'以由分離的影 機器人系統=二關對具有光學感知機制的 少-實趙物件進得==知如何對至 據任務描述執行任務並非本 、“際上如何根 =有报多種。例如針對實體物件的辨識執== 率。即訊來達到更高的辨識 節,已多有Γ糸統執行任務描述的詳細細 圖以3確,I人系絲成功的完成任務:^的摔作刖 程圖。如圖所示務:===的方法流 :體tr模組資料庫細。對於機器人系統1所 U〜體物件的二維形狀,或是利用 模型101’使得其所定義的形狀可形成至少在 似於實體物件的組合。每―物件模型m包含至卜個^ 21 201027288 uy/OWMvv 28521twf.doc/n =組ΐ:庫i:每二,^ 犀00亦包含至少有一操作模組201。而每 操作相關的額外多^^派此操作中有關虛擬物件與此 件,步驟51G中’對於每—所要處理的實體物 的箱裤^擬物件的定義。此虛擬物件定義包含虛擬物件 φ 模型資料】ι:件模型101的參照(Reference)或是物件 及相墟所包含的乡個物件觀之組合的參照、以 ^艮^體物件對物件模型所指派的幾何參數值。在此步 =:L1P:以用大致幾何相似於實體物件的虛擬物件, 有效地代表母一個所要處理的實體物件。 —接了來’在步驟52〇之後,對於所要處理的實體物件 ’提供_之定義。操作定義包含操作模組資 的柄作模組201之參照,與指派操作模組201 =預j作參數。在此一步驟之後,機器人系統1所執行 ❿ 即會有—被描述在操作模組201與其指派的 操作參數中。 最後’在步驟530中,對於在步驟510裡所定義的各 虛擬物件’提供事先減的、虛擬物件所絲的實體物件 的至少-張二維影像’並且與虛擬物件侧連。在此步驟 之後’即完成機器人系、統i之—任務描述。如圖2 g所示, 任務描述同時包含了減應於所魏理的實餘件之—個 或多個的虛擬物件定義、相對應於所要進行的處理之一個 22 201027288 uy/uuDDi'W 28521twf.doc/n 或多個的操作定義、以及與虛擬物件相關連之實 一個或多個影像。 卞心 圖3b是本發明另一實施例之主要步驟流程圖。复 只知例非常類,似,除、了⑴在—開始的步驟⑽G中了 先在影像資料庫300中提供二維影像3〇1 ;與(2 =步驟810之中’同時處理影像3〇1與虛擬 :二操作定義步驟820則是與前一實施例的步驟ίο ^本發明已以實施例揭露如上’财並非用以限定 3日之ί二所中具有通常知識者,在不脫離 月之保複乾圍當視後附之中請專利範圍所界定者為準。 【圖式簡單說明】 瘳 =^是根據本發明所教導之機器人系統之示意圖。 系絲意圖是根據本發明、驗教導麵人线之一軟體 件之:r '統所欲處理之二實體物 資料齡件岭發_件模型 之組合來模擬之示意圖。 資料示之第二實體物件由本發明物件模型 只T十犀之複雜形狀來模擬之示意圖。 圖Μ是本發明操作定義提供的額外資訊之示意圖。 23 201027288 uy/W33iw 28521twf.doc/n 3 /、圖疋機器人系統依據虛擬物件之幾何灸 數、以及操作模組之操作參數所規劃之軌跡之示意圖/ 圖2g是本發明所產生之任務描述之示意圖。 方法是根縣發明—實關教導圖的機11人系統的‘ 圖3b是根據本發明另一實施例教導圖 的方法流糊。 端人糸統 【主要元件符號說明】 1 :機器人系統 ίο:機體 12 :機臂 20 :計算硬體 30 :影像操取裳置 4〇 :軟體系統 100 :物件模型資料庫 101 :物件模型 102 :圓柱體原型 1〇3 :圓錐體原型 200 .操作模組資料庫 201 ·操作模紅 300 :影像資料庫 3〇1 :影像 500〜530 :本發明一實施例之教導機器人系統之 方法 ❹ 24 201027288 uy/uu^3iW 28521twf.doc/n 的各步驟 600、700 :實體物件 800-820 :本發明另一實施例之教導機器人系統之方 • …法的各步驟 … A、B :虛擬物件
25
Claims (1)
- 201027288 uy/U(J5MW 28521twf.doc/n 七、申請專利範面·· 少一實體物機=个系統,在至 驟: ,、.方法,至少包含下列步 描述-三維形狀之-型模::庫;少包含 至:包含該,狀== 標、:及:該操作有關之複以 體二義其 及該物件模型資料庫之—物件模型;該物件模型所 ❹ =件目標係以對應該實體物件之該虛 資訊係根該=;r參數之該猶 知機销狀枝,-該光學感 26 201027288 uy/uuiiiW 28521twf.doc/n 3. 如申請專利範圍第丨項所述之方法,其 知機制係一影像擷取裝置。 予感 4. 如申請專利範圍第3項所述之方法’進—步包含下 列步驟: t、 提供至少一二維影像,且該二維影像係對該機器人 統所要處理之該實體物件所預先所拍攝;以及 ’、 將該二維影像與代表該實體物件之該虛擬物件作關 連。 旬 ❹ 5. 如申請專利範圍第4項所述之方法,其中該二維影 像係於該虛擬物件被定義時與該虛擬物件作關連。〜 6. 如申請專利範圍第4項所述之方法,其中該二維影 像係由該機器人系統之該影像擷取裝置所拍攝。 7·如申請專利範圍第3項所述之方法,進—步包八 列步驟: 3卜 /提供包含至少一二維影像之一影像資料庫,該二維影 像係對該機器人系統所要處理之該實體物件所預先所^ ❹ 攝;以及 將該二維影像與代表該實體物件之該虛擬物件作關 連。 8. 如中請專利範圍第7項所述之方法,其中該二維影 像係於該虛擬物件被定義時與該虚擬物件作關連。 / 9. 如申請專利範圍第7項所述之方法,其中該二維影 像係由5亥機器人系統之該影像擷取裝置所拍攝。 27 201027288 uy/υυ^Μ w 28521twf.doc/n 10. 如申請專利範圍第1項所述之方法,其中該方法係 於一繪圖環境中進行。 11. 如申請專利範圍第10項所述之方法,其中該繪圖 環境係為該機器人系統所執行。 12. 如申請專利範圍第1項所述之方法,其中該三維形 狀係一基本原型。 13. 如申請專利範圍第1項所述之方法,進一步包含下 列步驟: 為該機器人系統所操作之一實體物件去定義一虛擬物 件,其中該虛擬物件之定義關連於一獨特名稱、以及該物 件模型資料庫之至少二物件模型;該些物件模型所描述之 該些三維形狀於結合後幾何上相似於該實體物件;以及該 些物件模型之該些幾何參數係根據該實體物件指派。 14. 如申請專利範圍第13項所述之方法,其中該些物 件模型之該些三維形狀至少其中之一係一基本原型。 28
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/350,969 US20100179689A1 (en) | 2009-01-09 | 2009-01-09 | Method of teaching robotic system |
Publications (1)
Publication Number | Publication Date |
---|---|
TW201027288A true TW201027288A (en) | 2010-07-16 |
Family
ID=42316286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW098143390A TW201027288A (en) | 2009-01-09 | 2009-12-17 | Method of teaching robotic system |
Country Status (7)
Country | Link |
---|---|
US (1) | US20100179689A1 (zh) |
EP (1) | EP2377061A1 (zh) |
JP (1) | JP2011516283A (zh) |
KR (1) | KR20110033235A (zh) |
CN (1) | CN102177478A (zh) |
TW (1) | TW201027288A (zh) |
WO (1) | WO2010079378A1 (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9539510B2 (en) * | 2010-04-30 | 2017-01-10 | Microsoft Technology Licensing, Llc | Reshapable connector with variable rigidity |
WO2013044083A1 (en) * | 2011-09-23 | 2013-03-28 | Societe Bic | Methods of forming arrays of fuel cells on a composite surface |
JP2013184257A (ja) * | 2012-03-08 | 2013-09-19 | Sony Corp | ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム |
JP5965859B2 (ja) * | 2013-03-28 | 2016-08-10 | 株式会社神戸製鋼所 | 溶接線情報設定装置、プログラム、自動教示システム、および溶接線情報設定方法 |
US9561587B2 (en) | 2014-12-16 | 2017-02-07 | Amazon Technologies, Inc. | Robotic grasping of items in inventory system |
JP6348097B2 (ja) * | 2015-11-30 | 2018-06-27 | ファナック株式会社 | ワーク位置姿勢算出装置およびハンドリングシステム |
JP6710946B2 (ja) * | 2015-12-01 | 2020-06-17 | セイコーエプソン株式会社 | 制御装置、ロボットおよびロボットシステム |
WO2017130286A1 (ja) * | 2016-01-26 | 2017-08-03 | 富士機械製造株式会社 | ジョブ作成装置および作業システム並びに作業ロボットの制御装置 |
CN105500381A (zh) * | 2016-02-05 | 2016-04-20 | 中国科学院自动化研究所 | 通用模块化双臂服务机器人平台及系统 |
TWI650626B (zh) * | 2017-08-15 | 2019-02-11 | 由田新技股份有限公司 | 基於三維影像之機械手臂加工方法及系統 |
US11025498B2 (en) * | 2017-08-23 | 2021-06-01 | Sap Se | Device model to thing model mapping |
JP6746140B2 (ja) * | 2017-08-23 | 2020-08-26 | Kyoto Robotics株式会社 | ピッキングシステム |
CN108012326B (zh) * | 2017-12-07 | 2019-06-11 | 珠海市一微半导体有限公司 | 基于栅格地图的机器人监视宠物的方法及芯片 |
US10792809B2 (en) * | 2017-12-12 | 2020-10-06 | X Development Llc | Robot grip detection using non-contact sensors |
US10682774B2 (en) | 2017-12-12 | 2020-06-16 | X Development Llc | Sensorized robotic gripping device |
US11407111B2 (en) | 2018-06-27 | 2022-08-09 | Abb Schweiz Ag | Method and system to generate a 3D model for a robot scene |
US11597394B2 (en) | 2018-12-17 | 2023-03-07 | Sri International | Explaining behavior by autonomous devices |
US11498211B2 (en) * | 2019-12-30 | 2022-11-15 | Intrinsic Innovation Llc | Composability framework for robotic control system |
JP7105281B2 (ja) * | 2020-08-28 | 2022-07-22 | 株式会社Fuji | 作業システム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0477398B1 (de) * | 1990-09-25 | 1994-12-14 | Dr. Johannes Heidenhain GmbH | Verfahren für die Bearbeitung von Werkstücken mit numerisch gesteuerten Maschinen |
JP2005515903A (ja) * | 2001-11-28 | 2005-06-02 | エヴォリューション ロボティクス インコーポレイテッド | ロボット用センサおよびアクチュエータのハードウェア抽象化層内における抽象化および集合化 |
JP2004188533A (ja) * | 2002-12-10 | 2004-07-08 | Toyota Motor Corp | 対象物の取扱い推定方法および取扱い推定装置 |
JP3738256B2 (ja) * | 2003-03-05 | 2006-01-25 | 松下電器産業株式会社 | 生活空間用の物品移動システム、及びロボット操作装置 |
JP4492036B2 (ja) * | 2003-04-28 | 2010-06-30 | ソニー株式会社 | 画像認識装置及び方法、並びにロボット装置 |
JPWO2004106009A1 (ja) * | 2003-06-02 | 2006-07-20 | 松下電器産業株式会社 | 物品取扱いシステムおよび物品取扱いサーバ |
JP2005088146A (ja) * | 2003-09-18 | 2005-04-07 | National Institute Of Advanced Industrial & Technology | 物体処理システム、物体処理方法及びロボット |
CN1984756B (zh) * | 2004-07-13 | 2011-12-07 | 松下电器产业株式会社 | 物品保持系统、机器人以及机器人控制方法 |
JP2006102881A (ja) * | 2004-10-06 | 2006-04-20 | Nagasaki Prefecture | 把持ロボット装置 |
JP4578438B2 (ja) * | 2006-05-31 | 2010-11-10 | 株式会社日立製作所 | ロボット装置 |
JP4235214B2 (ja) * | 2006-07-04 | 2009-03-11 | ファナック株式会社 | ロボットプログラムを作成するための装置、プログラム、記録媒体及び方法 |
JP2008049459A (ja) * | 2006-08-28 | 2008-03-06 | Toshiba Corp | マニピュレータ制御システム、マニピュレータ制御方法およびプログラム |
JP5142243B2 (ja) * | 2006-09-13 | 2013-02-13 | 独立行政法人産業技術総合研究所 | ロボット作業教示システムおよびロボットに対する作業教示方法 |
JP4989532B2 (ja) * | 2007-03-30 | 2012-08-01 | 成均館大学校産学協力団 | 移動サービスロボットの中央情報処理システム、移動サービスロボットの情報処理方法及び移動サービスロボットの情報処理方法を記録したコンピュータで読み取り可能な記録媒体 |
JP2008296330A (ja) * | 2007-05-31 | 2008-12-11 | Fanuc Ltd | ロボットシミュレーション装置 |
JP4835616B2 (ja) * | 2008-03-10 | 2011-12-14 | トヨタ自動車株式会社 | 動作教示システム及び動作教示方法 |
-
2009
- 2009-01-09 US US12/350,969 patent/US20100179689A1/en not_active Abandoned
- 2009-11-10 WO PCT/IB2009/007395 patent/WO2010079378A1/en active Application Filing
- 2009-11-10 CN CN2009801395392A patent/CN102177478A/zh active Pending
- 2009-11-10 EP EP09837393A patent/EP2377061A1/en not_active Withdrawn
- 2009-11-10 KR KR1020117001540A patent/KR20110033235A/ko not_active Application Discontinuation
- 2009-11-10 JP JP2011502460A patent/JP2011516283A/ja active Pending
- 2009-12-17 TW TW098143390A patent/TW201027288A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
US20100179689A1 (en) | 2010-07-15 |
CN102177478A (zh) | 2011-09-07 |
WO2010079378A1 (en) | 2010-07-15 |
KR20110033235A (ko) | 2011-03-30 |
JP2011516283A (ja) | 2011-05-26 |
EP2377061A1 (en) | 2011-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TW201027288A (en) | Method of teaching robotic system | |
Schmidt et al. | Grasping of unknown objects using deep convolutional neural networks based on depth images | |
Vezzani et al. | A grasping approach based on superquadric models | |
Bohg et al. | Data-driven grasp synthesis—a survey | |
CN110640730B (zh) | 生成用于机器人场景的三维模型的方法和系统 | |
US8843236B2 (en) | Method and system for training a robot using human-assisted task demonstration | |
US20220245849A1 (en) | Machine learning an object detection process using a robot-guided camera | |
JP2019084601A (ja) | 情報処理装置、把持システムおよび情報処理方法 | |
Huang et al. | A case study of cyber-physical system design: Autonomous pick-and-place robot | |
CN114952809A (zh) | 工件识别和位姿检测方法、系统及机械臂的抓取控制方法 | |
Park et al. | Development of robotic bin picking platform with cluttered objects using human guidance and convolutional neural network (CNN) | |
CN112775959A (zh) | 机械手的抓取位姿确定方法及系统、存储介质 | |
JP2015044257A (ja) | ロボット、ロボット制御方法、及びロボット制御プログラム | |
Tee et al. | A framework for tool cognition in robots without prior tool learning or observation | |
Kumar et al. | Design and development of an automated robotic pick & stow system for an e-commerce warehouse | |
Grün et al. | Evaluation of domain randomization techniques for transfer learning | |
Sui et al. | Transfer of robot perception module with adversarial learning | |
Mohammed et al. | Color matching based approach for robotic grasping | |
Pedrosa et al. | A skill-based architecture for pick and place manipulation tasks | |
Xu et al. | Vision‐Based Intelligent Perceiving and Planning System of a 7‐DoF Collaborative Robot | |
Memmesheimer et al. | Markerless visual robot programming by demonstration | |
TWI734237B (zh) | 自動控制方法以及自動控制裝置 | |
Stramandinoli et al. | Robot learning from human demonstration in virtual reality | |
Ahmadzadeh et al. | Visuospatial skill learning for robots | |
Ahmadzadeh et al. | Visuospatial skill learning |