TWI650626B - 基於三維影像之機械手臂加工方法及系統 - Google Patents
基於三維影像之機械手臂加工方法及系統 Download PDFInfo
- Publication number
- TWI650626B TWI650626B TW106127687A TW106127687A TWI650626B TW I650626 B TWI650626 B TW I650626B TW 106127687 A TW106127687 A TW 106127687A TW 106127687 A TW106127687 A TW 106127687A TW I650626 B TWI650626 B TW I650626B
- Authority
- TW
- Taiwan
- Prior art keywords
- robot arm
- processing
- dimensional model
- workpiece
- model information
- Prior art date
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 191
- 230000036544 posture Effects 0.000 claims abstract description 75
- 238000003754 machining Methods 0.000 claims abstract description 53
- 238000000034 method Methods 0.000 claims abstract description 18
- 238000012937 correction Methods 0.000 claims description 6
- 230000007613 environmental effect Effects 0.000 claims description 3
- 239000003292 glue Substances 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000010030 laminating Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0075—Manipulators for painting or coating
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C65/00—Joining or sealing of preformed parts, e.g. welding of plastics materials; Apparatus therefor
- B29C65/48—Joining or sealing of preformed parts, e.g. welding of plastics materials; Apparatus therefor using adhesives, i.e. using supplementary joining material; solvent bonding
- B29C65/52—Joining or sealing of preformed parts, e.g. welding of plastics materials; Apparatus therefor using adhesives, i.e. using supplementary joining material; solvent bonding characterised by the way of applying the adhesive
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C66/00—General aspects of processes or apparatus for joining preformed parts
- B29C66/80—General aspects of machine operations or constructions and parts thereof
- B29C66/84—Specific machine types or machines suitable for specific applications
- B29C66/863—Robotised, e.g. mounted on a robot arm
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C66/00—General aspects of processes or apparatus for joining preformed parts
- B29C66/90—Measuring or controlling the joining process
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B53/00—Golf clubs
- A63B53/04—Heads
- A63B53/0466—Heads wood-type
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F16—ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
- F16B—DEVICES FOR FASTENING OR SECURING CONSTRUCTIONAL ELEMENTS OR MACHINE PARTS TOGETHER, e.g. NAILS, BOLTS, CIRCLIPS, CLAMPS, CLIPS OR WEDGES; JOINTS OR JOINTING
- F16B11/00—Connecting constructional elements or machine parts by sticking or pressing them together, e.g. cold pressure welding
- F16B11/006—Connecting constructional elements or machine parts by sticking or pressing them together, e.g. cold pressure welding by gluing
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39391—Visual servoing, track end effector with camera image feedback
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40323—Modeling robot environment for sensor based robot system
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/02—Arm motion controller
- Y10S901/09—Closed loop, sensor feedback controls arm movement
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/30—End effector
- Y10S901/41—Tool
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Manipulator (AREA)
Abstract
一種基於三維影像之機械手臂加工方法及系統。加工方法包括:提供機械手臂之三維模型資訊與加工環境之三維模型資訊;獲得工件之三維模型資訊,並根據工件之三維模型資訊,產生由多個接觸點所形成的加工路徑,其中機械手臂之自由端根據加工路徑而移動,以完成加工程序;根據機械手臂之自由端對應任一個接觸點之間的關係,產生機械手臂之移動姿態候選組;自移動姿態候選組,選擇實際移動姿態;根據實際移動姿態,移動機械手臂之自由端至對應之任一個接觸點;以及根據多個實際移動姿態,機械手臂之自由端移動於加工路徑,以完成加工程序。
Description
本發明是有關於一種加工方法及系統,且特別是有關於一種基於三維影像之機械手臂加工方法及系統。
代工業中許多的加工步驟都是單一且重複施做的。目前逐漸以機械方式取代人力,利用機台執行加工有助於提升產品的產量及減少人力支出等。此外,透過程式控制加工路徑,可減輕使用人力加工時的不確定性,因而機台加工的運用成為各類產品生產過程中的較佳選擇。
在現行的機台加工時,如點膠加工設備的加工路徑,通常是由工程師設計而成。假若加工路徑單純,像是直線移動或僅是翻轉單一角度,則加工路徑程式之程式設計較為簡單。然而,複雜的加工路徑,例如不規則弧線移動或是不規則圖形移動,加工路徑程式設計比較困難。
此外,對於加工機台來說,在執行加工時,主要是通過控制機械手臂將工件移動至待加工位置,此時假若因為製造的可
容忍公差使得同一個款式的每一個單一工件可能都會有些微的差異,或者是機械手臂夾取工件所造成的工件相對於機械手臂的距離或角度的偏差,都會影響加工結果。
本發明提供一種能夠提升組裝良率的基於三維影像之機械手臂加工方法及系統。
本發明的一種基於三維影像之機械手臂加工方法,利用機械手臂於加工環境內對至少一工件進行加工程序。所述加工方法至少包括下列步驟:提供機械手臂之三維模型資訊與加工環境之三維模型資訊;獲得工件之三維模型資訊,並根據工件之三維模型資訊產生由多個接觸點所形成的加工路徑,其中機械手臂之自由端根據加工路徑而移動以完成加工程序;根據機械手臂之自由端對應任一個接觸點之間的關係,產生機械手臂之移動姿態候選組;自移動姿態候選組選擇一實際移動姿態;根據實際移動姿態移動機械手臂之自由端至對應的任一個接觸點;根據多個實際移動姿態,機械手臂之自由端移動於加工路徑,以完成加工程序。
本發明另提供一種基於三維影像之機械手臂加工系統,包括:機械手臂,於加工環境內,對至少一工件進行加工程序;資料庫,儲存工件之三維模型資訊、機械手臂之三維模型資訊、加工環境之三維模型資訊;以及處理模組,耦合於機械手臂與資料庫之間,用以控制機械手臂執行加工程序;其中處理模組根據
工件之三維模型資訊產生由多個接觸點所形成的加工路徑,控制機械手臂之自由端根據加工路徑而移動,以完成加工程序;其中處理模組根據機械手臂之自由端對應任一個接觸點之間的關係,產生機械手臂之移動姿態候選組,並自移動姿態候選組,選擇實際移動姿態;其中處理模組根據實際移動姿態,控制機械手臂之自由端移動至對應之任一個接觸點;其中處理模組根據多個實際移動姿態控制機械手臂之自由端移動於加工路徑,以完成加工程序。
基於上述,本發明所提供的基於三維影像之機械手臂加工方法及系統可以進行自動化加工程序,不僅可以達到節省人力,同時還可減免人為錯誤進而提升組裝良率。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
100‧‧‧基於三維影像之機械手臂加工系統
110‧‧‧處理模組
120‧‧‧機械手臂
130‧‧‧資料庫
140‧‧‧非接觸式的偵測裝置
190‧‧‧工件
200‧‧‧點膠加工設備
212‧‧‧夾持裝置
242‧‧‧攝像鏡頭
250‧‧‧點膠裝置
260‧‧‧貼合裝置
270‧‧‧加工環境
300、400‧‧‧殼體
200a‧‧‧備料區
200b‧‧‧置料區
192、300a‧‧‧接觸點特徵
194、300b‧‧‧接觸點
P‧‧‧輸送帶
S‧‧‧基準點
C‧‧‧比較點
S110~S160、S210~S260‧‧‧步驟
圖1A為第一實施例之基於三維影像之機械手臂加工系統的示意圖。
圖1B為第一實施例之接觸點形成的加工路徑的示意圖。
圖1C為虛擬的3D空間與真實世界坐標系的坐標轉換示意圖。
圖2為第一實施例之基於三維影像之機械手臂加工方法的流程圖。
圖3為第二實施例之點膠加工設備的示意圖。
圖4為點膠加工設備的加工方法的流程圖。
圖5為高爾夫球桿頭的殼體在虛擬3D空間中的示意圖。
圖6為點膠加工設備的另一種實施例的示意圖。
本發明提供基於三維影像之機械手臂加工方法及系統,通過將真實世界中的加工環境、加工設備等資訊輸入資料庫中以建立出虛擬的3D空間,並且將虛擬的3D空間以及真實世界進行校正,然後在獲取真實世界中待加工的工件的3D資訊後,並將真實世界中待加工的工件的3D資訊輸入資料庫中並進行計算後,與虛擬的3D空間中的加工設備及加工環境配合後產生加工路徑,而使得在真實世界中的機械手臂得以根據在虛擬3D空間中計算出來的加工路徑在真實世界中進行加工程序。
[第一實施例]
圖1A為第一實施例之基於三維影像之機械手臂加工系統的示意圖、圖1B為第一實施例之接觸點形成的加工路徑的示意圖,而圖2為第一實施例之基於三維影像之機械手臂加工方法的流程圖。請同時參考圖1A、圖1B及圖2,基於三維影像之機械手臂加工系統100包括處理模組110、機械手臂120以及資料庫130。
機械手臂120用於在加工環境內對至少一工件190進行加工程序;資料庫130用來儲存工件190的三維模型資訊、機械手臂120的三維模型資訊以及加工環境之三維模型資訊;處理模組110電性耦合於機械手臂120與資料庫130之間,用來控制機械手臂120執行加工程序。
前述的處理模組110與資料庫130可以建置在同一個電子裝置(例如,電腦的主機)中,或者資料庫130與處理模組110也可以是兩個彼此獨立的個體,例如資料庫130可以是隨身硬碟,且隨身硬碟可透過媒介以與處理模組110電性連接。
當使用前述之加工系統對工件190進行加工時,至少包含下列步驟S110~步驟S160。
如步驟S110,提供機械手臂120之三維模型資訊與加工環境之三維模型資訊。
如步驟S120,獲得工件190之三維模型資訊,其中,獲得工件190之三維模型資訊可以是處理模組110透過資料庫130獲得預設的工件190之三維模型資訊,或者也可以是透過非接觸式的偵測裝置140,偵測工件190輪廓與尺寸所產生的工件190之三維模型資訊。工件190可以是任何裝置(包含電子裝置及非電子裝置)的殼體或高爾夫球桿頭的殼體...等,只要是需要進行加工的物品,都可能做為本加工系統或加工方法中的工件,並不以本實施例所舉的例子為限。在本實施例中,工件190以電子裝置的殼體進行說明,此電子裝置的殼體呈長方形,且待加工的表面為
平面。此外,透過非接觸式的偵測裝置140偵測工件190的實施方式可能是使用深度攝影機拍攝工件190的影像,或者是利用3D雷射掃描的方式掃描工件190的輪廓,或者也可以是將深度攝影機與3D雷射掃描兩者混合使用。當然,透過非接觸式的偵測裝置140偵測工件190的實施方式也並不受本實施例的舉例而侷限,本領域人員能夠依照需求而選用適當的方法。
附帶一提,在步驟S110及步驟S120之間,可更包括步驟S112,通過處理模組110校正機械手臂120之三維模型資訊與加工環境之三維模型資訊兩者在真實世界座標系的誤差。
前述的校正是指處理模組110在機械手臂120之三維模型資訊與加工環境之三維模型資訊中,選擇至少一個校正點座標位置資訊,而處理模組110根據至少一個校正點座標位置資訊,使機械手臂120之自由端移動至真實世界坐標系上之對應座標位置,處理模組110比較至少一個校正點座標位置資訊與對應座標位置。
請參考圖1C,圖1C左邊為真實世界中的機械手臂,而圖1C右邊為虛擬的3D空間中的機械手臂。詳細而言,在真實世界的機械手臂上選取至少一基準點S,獲得該基準點S的三維資訊,並且在虛擬世界的機械手臂對應該基準點S的位置處取得比較點C,並且獲取比較點C的三維模型資訊。然後,將比較點C的三維模型資訊與基準點S的三維資訊進行比較,以獲取真實世界與虛擬的3D空間的轉換系數。通過此轉換係數,可以將三維模
型資訊轉換為真實世界的三維資訊,使虛擬的3D空間中的組件能夠與真實世界的相同的組件匹配。當然,透過轉換係數也可以將真實世界的三維資訊轉換為虛擬的3D空間中的三維資訊模型。
特別的是,更將虛擬的3D空間中的機械手臂的加工姿態及移動路徑與真實世界中的機械手臂作進一步的校正。詳細而言,操作真實世界中的機械手臂,使其自由端任意移動至真實世界中的四個基準點S1、S2、S3及S4,並將此四個基準點S1、S2、S3及S4映射至虛擬的3D空間中形成比較點C1、C2、C3及C4,並且獲得比較點C1、C2、C3及C4的三維模型資訊。在真實世界中的機械手臂的自由端移動的同時,紀錄自由端的移動姿態及路徑。接著,依照真實世界的機械手臂的自由端移動至基準點S1、S2、S3及S4的順序,使虛擬的3D空間中的機械手臂的自由端移動至比較點C1、C2、C3及C4,同時紀錄虛擬的3D空間中的機械手臂的自由端的移動姿態及路徑,並且與真實世界中的機械手臂的移動姿態及路徑相比較,找出兩者間的誤差並校正。
之後,將結果回傳至處理模組110,由處理模組110進行計算及調整,以使虛擬的3D空間中的機械手臂的加工姿態及移動路徑與真實世界中的機械手臂的加工姿態及移動路徑能夠同步。此處所指的同步主要是指在真實世界以及虛擬的3D空間中的機械手臂的自由端以相同的姿態沿著相同的路徑移動,並非侷限在相同的時間作相同的事情,也可以是在不同的時間完成相同的任務。簡單地說,即是可以透過在虛擬的3D空間中設定加工程序,
然後可以指定在預設的時間使真實世界中的加工系統才進行加工程序。
此外,在步驟S120之後,可更包括步驟S122,處理模組110根據工件之三維模型資訊偵測至少一個接觸點特徵192,以建立多個接觸點194之位置,並產生由多個接觸點194所形成的加工路徑,機械手臂120受到處理模組110的驅動之後,機械手臂120之自由端可根據加工路徑而移動,如圖1C示。附帶一提,接觸點可以相同的間隔排列,或以不同的間隔排列,依照需求而決定。
接著請繼續參考圖1A、圖1B及圖1C,如步驟S130,處理模組110根據機械手臂120之自由端與相對應的任一個接觸點194之間的關係,產生機械手臂120之移動姿態候選組。所述移動姿態候選組是指加工過程中,機械手臂120從一處移動到另一處,並且完成加工程序的所有可能路徑所對應的機械手臂姿態。
如步驟S140,自移動姿態候選組中選擇實際移動姿態。確切而言,處理模組110根據移動姿態候選組產生對應的機械手臂120之三維姿態模型候選組,且根據移動姿態候選組、三維姿態模型候選組以及加工環境之三維模型資訊,自移動姿態候選組中刪除造成機械手臂120與環境空間相互干涉的移動姿態,並且自未相互干涉的移動姿態候選組中,選擇對機械手臂120之軸角度產生最小偏移量的移動姿態。
詳細地說,在處理模組110計算出機械手臂120移動到
加工位置的多條移動路徑時,需要將機械手臂120的型態、輪廓或尺寸考量進去,也需考量在加工環境中還設置有其他組件的狀況。若無考量上述因素,機械手臂120可能在移動過程中受限於其自身的型態、輪廓與尺寸而受到加工環境中的組件的干涉,致使加工無法完成。甚至,機械手臂120與加工環境中的組件因為撞擊而導致機械手臂120或組件的損壞。
因此,在計算出多條可能的移動路徑之後,處理模組110更進一步將與機械手臂120及工件190的形狀、輪廓、尺寸及彼此間的關係等相關的三維姿態模型候選組納入考量及比較。在此同時,由於加工環境中的組件配置方式也會影響到加工程序的完成度,因此處理模組110也將加工環境的三維模型資訊一同納入考量及比較。綜合並且分析前述的移動姿態候選組、三維姿態模型候選組以及加工環境之三維模型資訊後,將可能造成干涉的移動姿態候選組刪除,然後自剩餘的、不會與環境中的組件造成干涉的移動姿態候選組中,選擇機械手臂120移動距離最少且機械手臂120的軸轉角度最小的移動姿態,不僅有利於機械手臂120以最省力的方式完成加工,更有助於提升加工程序的完成度。
如步驟S150,處理模組110根據實際移動姿態移動機械手臂120之自由端至對應之任一個接觸點194。詳細而言,在挑選出機械手臂120可以最省力的方式完成加工的移動姿態後,經由前述的轉換係數,將此移動姿態轉換為應用在真實世界座標系的實際移動姿態,然後處理模組110驅動機械手臂120根據實際移
動姿態移動至接觸點194。
如步驟S160,處理模組110根據多個實際移動姿態,機械手臂120之自由端移動於加工路徑,以完成加工程序。確切地說,由於移動姿態已經由轉換係數轉換為實際移動姿態,因此機械手臂120在真實世界中,依據處理模組110所指示的實際移動路徑而於加工路徑上移動。
此外,經由前述的同步真實世界中的機械手臂以及虛擬的3D空間中的機械手臂,可以確保真實世界中的機械手臂會依照實際移動姿態確實地完成加工程序,避免在虛擬的3D空間中所挑選出來的最佳加工路徑與真實世界中機械手臂實際移動的路徑不完全相同而導致加工程序無法完成。
特別的是,機械手臂120所夾取的同一種類的每一個工件190可能會因為公差而有外觀尺寸上的些微差異,或是起因於工件190的擺放角度導致工件190相對於機械手臂120的角度偏轉,使得在每一個工件190上建立的接觸點不完全相同,因此處理模組110針對每一個工件190所計算出來的加工路徑不完全相同。簡單地說,每一個單一的工件190會獲得其專屬的加工路徑。
通過上述的基於三維影像之機械手臂120加工方法及系統,可以進行自動化加工程序,不僅可以達到節省人力,同時還可減免人為錯誤進而提升組裝良率。
[第二實施例]
圖3為第二實施例之點膠加工設備的示意圖、圖4為點
膠加工設備對高爾夫球桿頭的殼體進行加工的流程圖,而圖5為高爾夫球桿頭的殼體在虛擬3D空間中的示意圖。
請同時參考圖3、圖4及圖5,點膠加工設備200包括處理模組110、機械手臂120、資料庫130、非接觸式的偵測裝置140以及點膠裝置250。機械手臂120用於在點膠加工設備200所提供的加工環境270內對高爾夫球桿頭的殼體300進行加工程序。資料庫130用來儲存點膠加工設備200、加工環境270以及高爾夫球桿頭的殼體300的三維模型資訊。處理模組110電性耦合於機械手臂120與資料庫130之間,用來控制機械手臂120執行加工程序。非接觸式的偵測裝置140例如是攝像鏡頭242,電性耦合於處理模組110與資料庫130,用來偵測殼體300的輪廓與尺寸,以產生殼體300的三維模型資訊。點膠裝置250的位置可以依照實際需求而設置。在本實施例中,是使點膠裝置250設置在加工環境270內的固定位置處,而機械手臂120的自由端連接夾持裝置212,且利用夾持裝置212夾持並機械手臂120沿著加工路徑移動殼體300,讓點膠裝置250對殼體300上的每一個接觸點300b進行點膠。在另一種未繪示的實施方式中,點膠裝置250可設置在機械手臂120的自由端,而固定高爾夫球桿頭的殼體300,以使用機械手臂120對加工路徑上的每一個接觸點300b進行點膠。
又,點膠加工設備200還包含貼合裝置260,此貼合裝置260位於加工環境270內,且鄰近機械手臂120設置,用以提供壓力以將高爾夫球桿頭的殼體300貼合至高爾夫球桿頭的另一個殼
體400,其中高爾夫球桿頭的兩個殼體300、400中的至少一個已經被點膠。貼合裝置260可選用氣壓缸,但並不以此為限。
此外,點膠加工設備200還包括備料區200a以及置料區200b,且機械手臂120適於在備料區200a以及置料區200b之間移動,其中備料區200a用來放置待加工的高爾夫球桿頭的殼體300,而置料區200b用來放置已經貼合在一起的高爾夫球桿頭的兩個殼體300、400。
當使用點膠加工設備200對高爾夫球桿頭的殼體300進行自動點膠程序時,如步驟S210,先於資料庫130中取得預先輸入的機械手臂120的三維模型資訊與加工環境270的三維資訊。機械手臂120的三維模型資訊包含組成機械手臂120的軸數,軸的可轉動角度,機械手臂120的移動方向及距離...等。加工環境270的三維資訊包含除了前述提到的非接觸式的偵測裝置140(攝像鏡頭242)、點膠裝置250之外的其他可能組件或裝置,這些其他組件或裝置可能是組成點膠加工設備200的組裝構件,也可能是點膠加工設備200為了要施行其他製程的裝置。
如步驟S212,通過比較三維模型資訊與真實世界座標系的誤差,找出利用三維模型資訊建置出的虛擬的3D空間與真實世界座標系之間的轉換係數。通過轉換係數讓機械手臂120之三維模型與加工環境270之三維模型資訊能夠正確地比對於真實世界的機械手臂120以及加工環境270,達到校正機械手臂120之三維模型資訊與加工環境270之三維模型資訊,兩者在真實世界座標
系的誤差。前述雖然是將機械手臂120之三維模型與加工環境270之三維模型資訊能夠正確地比對於在真實世界的機械手臂120以及加工環境270來說明,但本領域人員亦應想得到,可以通過轉換係數以將真實世界的機械手臂120及加工環境270投射到虛擬的3D空間中。簡單地說,通過轉換係數,真實世界中的座標可以吻合於虛擬的3D世界的模型資訊,而虛擬的3D空間中的模型資訊也可以適用於真實世界的座標。
此外,更進一步對真實世界的機械手臂120的移動方式與虛擬的3D世界中的機械手臂的移動方式作進一步校正,使真實世界的機械手臂120的移動方式同步於虛擬的3D世界中的機械手臂的移動方式。此處所指的同步主要是指在真實世界以及虛擬的3D空間中的機械手臂的自由端以相同的姿態沿著相同的路徑移動,但並非侷限在相同的時間作相同的事情,也可以是在不同的時間完成相同的任務。
如步驟S220,透過攝像鏡頭242獲得高爾夫球桿頭的殼體300的三維模型資訊。詳細而言,攝像鏡頭242設置在點膠加工設備200的中央區域。因此在實際操作上,機械手臂120先取得殼體300後,機械手臂120移動至鄰近攝像鏡頭242處以讓攝像鏡頭242擷取影像以獲得殼體300的三維模型資訊。
高爾夫球桿頭的殼體300的三維模型資訊包括高爾夫球桿頭的殼體300的輪廓形狀、尺寸、待加工表面為平面或曲面、或其他物理性特徵。當然,在另一種實施方式中,高爾夫球桿頭
的殼體300的三維模型資訊也可以內建在資料庫130中,而處理模組110可以直接存取內建在資料庫130中的殼體300的三維模型資訊。或是可將拍攝的殼體300影像,與資料庫內的預設殼體300三維模型影像輔助運用,以產生最終的殼體300之三維模型資訊
前述將殼體300的三維模型資訊內建在資料庫130的方式,是假設同一種類的個別單一殼體300都是完全一模一樣且沒有受到公差影響的。但是在實際製造過程,同一種類的個別單一殼體300難免會因為公差而有所不同,因此,透過攝像鏡頭242對每一個即將進入備料區200a中的殼體300進行拍攝的好處是,可以針對同一種類的單一殼體300做即時的特徵辨識,有利於加工路徑的設計最佳化。
另外,本實施例的攝像鏡頭242是設置在高爾夫球桿頭的殼體300自備料區200a移動至置料區200b的路徑上,但攝像鏡頭242也可以依照需求地設置在點膠加工設備200中的適當處,以經由機械手臂120夾持殼體300並移動至攝像鏡頭242處進行拍攝。
如步驟S222,處理模組110根據殼體300的三維模型資訊,偵測至少一個接觸點特徵300a,以建立多個接觸點300b之位置。詳細而言,此接觸點特徵300a可以是經由人工設定的單一特徵,例如殼體300的某個凹陷點、突出點或是邊緣基準點,或者也可以是將多種接觸點特徵300a內建於資料庫130中,然後經由
處理模組110亂數選取其中一種做為基準。而之後,處理模組110根據選定的接觸點特徵300a在待加工的表面上選擇多個位置作為其他接觸點300b。於其他實施例,亦可使用者自行設定複數個接觸點300,以形成預設之加工路徑。
附帶一提,雖然本實施例的是以高爾夫球桿頭的殼體300做為待加工的工件說明,但本領域人員應知悉,工件的種類並不受本實施例侷限,更可能通過攝像鏡頭242所擷取的影像搭配偵測接觸點特徵300a來確定待處理的工件的種類,進而讓處理模組110依據辨識結果從資料庫130找到相應的資訊以進行相應的加工製程。
請繼續參考圖3、圖4及圖5,機械手臂120通過連接在其自由端的夾持裝置212夾取置放在備料區200a的殼體300時,可能會因為殼體300的製作公差、擺放位置或擺放角度的不同,造成夾持裝置212夾取每一個單一殼體300的方式不完全相同。所以,如步驟S230,處理模組110可根據機械手臂120的三維模型資訊,利用機械手臂120的自由端與相對應的任一個接觸點300b之間的關係,產生機械手臂120之移動姿態候選組。
詳細地說,通過攝像鏡頭242擷取影像後,處理模組110可以計算出機械手臂120的自由端的某一端點處與相對應的接觸點300b之間是否可能會有距離偏移或角度偏轉,且更計算出偏移距離以及偏轉角度並且利用改變機械手臂120的姿勢來進行補償,此姿勢包含機械手臂120相對於某一基準點的移動距離、機
械手臂120的每一軸彼此間的所夾的角度、兩軸間的相對轉動角度、以及夾持裝置212相對於軸的夾角及轉動角度等。因此,移動姿態候選組的資訊包含對機械手臂120相對於某一基準點的距離補償、角度補償以及機械手臂120移動殼體300至點膠裝置250時的加工角度、機械手臂120從一定點移動至另一定點的所有可能的移動姿態及加工路徑...等。
如步驟S240,自移動姿態候選組中選擇實際移動姿態。簡單地說,即是從所有可能的移動姿態,選取機械手臂120移動距離最短、機械手臂120的各軸的轉動角度最小的最佳的姿態(實際移動姿態)。
確切而言,處理模組110會根據移動姿態候選組產生對應的機械手臂120之三維姿態模型候選組,其中此三維姿態模型候選組包含通過處理模組110所計算出來的殼體300相對於點膠裝置250進行點膠時的最佳化角度以及機械手臂120的最佳化姿態。此外,處理模組110同時還綜合考量移動姿態候選組、三維姿態模型候選組以及加工環境270的三維模型資訊,計算移動姿態候選組的移動路徑是否與加工環境270中的其他組件形成干涉,並且自移動姿態候選組中刪除造成機械手臂120與環境空間相互干涉的移動姿態,然後從未相互干涉的移動姿態候選組中,選擇對機械手臂120之移動距離最短、軸角度產生最小偏移量的移動姿態。
如步驟S250,處理模組110將在虛擬的3D空間中計算
並挑選出來的移動姿態通過轉換係數轉化為在真實世界中的實際移動姿態,此姿態包含機械手臂120的加工移動路徑以及軸轉角度等。
附帶一提,起因於每一個單一的殼體300的製造公差的影響、殼體300進入備料區200a後在備料區200a的位置或角度的不同,使得連接在機械手臂120的自由端上的夾持裝置212夾取殼體300時的角度也可能需要改變,因此針對每一個單一的殼體300,實際移動姿態會不同。換言之,綜觀所有的殼體300的加工製程,每一個單一的殼體300的加工路徑會有些微差異,並非完全相同。
如步驟S260,處理模組110根據實際移動姿態發出訊號驅使機械手臂120之自由端開始作動,由連接在自由端之夾持裝置212夾取殼體300後,機械手臂120之自由端根據實際移動姿態於加工路徑移動,並且以最佳角度靠近點膠裝置250以進行點膠。點膠完畢後,機械手臂120將殼體300與另一個輔助殼體400黏合在一起,然後將黏合在一起的兩個殼體300、400放置到置料區200b中。此外,可更經由設置在置料區200b的貼合裝置260對黏合在一起的兩個殼體體300、400施加壓力,以使兩個殼體體300、400緊密貼合在一起形成高爾夫球桿頭。
附帶一提,經由前述的同步真實世界中的機械手臂120以及虛擬的3D空間中的機械手臂,可以確保真實世界中的機械手臂120會依照實際移動姿態確實地完成加工程序,避免在虛擬的
3D空間中所挑選出來的最佳加工路徑與真實世界中機械手臂120實際移動的路徑不完全相同而導致加工程序無法完成。
以上,加工程序完成。之後可經由人工或是機械方式將高爾夫球桿頭從置料區200b取走。
[第三實施例]
本實施例與前述第二實施例大致相同,其不同之處僅在於:在如圖6的第三實施例中,。高爾夫球桿頭的殼體300可以透過輸送帶P運送入備料區200a中,而攝像鏡頭242可設置在輸送帶P的運送途徑且位在備料區200a之前,以在將高爾夫球桿頭的殼體300進入備料區200a之前將殼體300拍攝下來,然後透過影像處理方式將高爾夫球桿頭的殼體300處理為三維模型資訊。
而取得待加工的殼體300的三維模型資訊的其餘步驟與前述實施例相同,因此不再贅述。
雖然本實施例與第二實施例在系統的結構以及製程的施作步驟上有些微不同,但仍不超出本發明的基於三維影像之機械手臂加工方法及系統的架構之下。
綜上所述,在本發明之基於三維影像之機械手臂加工方法及系統中,利用在虛擬的3D空間進行模型的建置,通過校正以將虛擬的3D空間及真實世界進行連結,除了能夠讓處理模組進行最佳化加工路徑的計算與篩選,機械手臂還具有自動判斷及學習的功能。此外,加工過程中可不需要人力介入,因此可以節省人力。再者,通過自動學習功能,可以針對偏差的角度或是距離即
時進行校正,有利於提升工件的組裝良率。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
Claims (23)
- 一種基於三維影像之機械手臂加工方法,利用一機械手臂,於一加工環境內,對至少一工件進行一加工程序,該加工方法包括:提供該機械手臂之三維模型資訊與該加工環境之三維模型資訊;獲得該工件之三維模型資訊,並根據該工件之三維模型資訊,產生由複數個接觸點所形成的一加工路徑,其中該機械手臂之自由端根據該加工路徑而移動,以完成該加工程序;根據該機械手臂之自由端對應任一個該接觸點之間的關係,產生該機械手臂之一移動姿態候選組;自該移動姿態候選組,選擇一實際移動姿態;根據該實際移動姿態,移動該機械手臂之自由端至對應之任一個該接觸點;根據複數個該實際移動姿態,該機械手臂之自由端移動於該加工路徑,以完成該加工程序。
- 如請求項1所述的機械手臂加工方法,更包含:校正該機械手臂之三維模型資訊與該加工環境之三維模型資訊,兩者在真實世界座標系的誤差。
- 如請求項2所述的機械手臂加工方法,其中所述之校正步驟包括: 在該機械手臂之三維模型資訊與該加工環境之三維模型資訊中,選擇至少一個校正點座標位置資訊;根據該至少一個校正點座標位置資訊,使該機械手臂之自由端移動至真實世界坐標系上之一對應座標位置;以及比較該至少一個校正點座標位置資訊與該對應座標位置。
- 如請求項1所述的機械手臂加工方法,其中所述之獲得該工件之三維模型資訊包括:透過一資料庫中獲得預設的該工件之三維模型資訊,或透過一非接觸式的偵測裝置,偵測該工件輪廓與尺寸,產生該工件之三維模型資訊。
- 如請求項1所述的機械手臂加工方法,其中所述之產生由複數個接觸點所形成的該加工路徑包括:根據該工件之三維模型資訊,設定複數個該接觸點之位置,以形成該加工路徑。
- 如請求項1所述的機械手臂加工方法,其中所述之產生由複數個接觸點所形成的該加工路徑包括:根據該工件之三維模型資訊,偵測至少一個接觸點特徵,以建立複數個該接觸點之位置。
- 如請求項1所述的機械手臂加工方法,其中所述之自該移動姿態候選組,選擇該實際移動姿態包括:根據該移動姿態候選組,產生對應的該機械手臂之一三維姿態模型候選組;根據該移動姿態候選組、該三維姿態模型候選組,以及該加 工環境之三維模型資訊,自該移動姿態候選組中,刪除造成該機械手臂與該環境空間相互干涉的該移動姿態。
- 如請求項7所述的機械手臂加工方法,其中所述之自該移動姿態候選組,選擇該實際移動姿態包括:自未相互干涉的該移動姿態候選組中,選擇對該機械手臂之軸角度產生最小偏移量的該移動姿態。
- 如請求項1所述的機械手臂加工方法,其中所述之加工程序包括一點膠加工程序,其中該機械手臂之自由端連接一點膠裝置,使該機械手臂對該加工路徑上的每一個該接觸點進行點膠。
- 如請求項1所述的機械手臂加工方法,其中所述之加工程序包括一點膠加工程序,其中該機械手臂之自由端連接一夾持裝置,利用該挾持裝置夾持並移動該工件,使該機械手臂透過固定位置之一點膠裝置,對該加工路徑上的每一個該接觸點進行點膠。
- 如請求項9或10所述的機械手臂加工方法,更包含:透過一貼合裝置,將已點膠的該工件貼合至一輔助工件。
- 一種基於三維影像之機械手臂加工系統,包括:一機械手臂,於一加工環境內,對至少一工件進行一加工程序;一資料庫,儲存該工件之三維模型資訊、該機械手臂之三維模型資訊、該加工環境之三維模型資訊;以及一處理模組,耦合於該機械手臂與該資料庫之間,用以控制 該機械手臂執行該加工程序;其中該處理模組根據該工件之三維模型資訊,產生由複數個接觸點所形成的一加工路徑,控制該機械手臂之自由端根據該加工路徑而移動,以完成該加工程序;其中該處理模組根據該機械手臂之自由端與對應的任一個該接觸點之間的關係,產生該機械手臂之一移動姿態候選組,並自該移動姿態候選組,選擇一實際移動姿態;其中該處理模組根據該實際移動姿態,控制該機械手臂之自由端移動至對應之任一個該接觸點;其中該處理模組根據複數個該實際移動姿態,控制該機械手臂之自由端移動於該加工路徑,以完成該加工程序。
- 如請求項12所述的機械手臂加工系統,其中所述之處理模組校正該機械手臂之三維模型資訊與該加工環境之三維模型資訊,兩者在真實世界座標系的誤差。
- 如請求項13所述的機械手臂加工系統,其中所述之該處理模組在該機械手臂之三維模型資訊與該加工環境之三維模型資訊中,選擇至少一個校正點座標位置資訊;其中該處理模組根據該至少一個校正點座標位置資訊,使該機械手臂之自由端移動至真實世界坐標系上之一對應座標位置;其中該處理模組比較該至少一個校正點座標位置資訊與該對應座標位置。
- 如請求項12所述的機械手臂加工系統,其中所述之處 理模組透過該資料庫,獲得預設的該工件之三維模型資訊。
- 如請求項12所述的機械手臂加工系統,更包括一非接觸式的偵測裝置,耦合於該處理模組與該資料庫之間,偵測該工件輪廓與尺寸,產生該工件之三維模型資訊。
- 如請求項12所述的機械手臂加工系統,其中所述之處理模組根據該工件之三維模型資訊,設定複數個該接觸點之位置,以形成該加工路徑。
- 如請求項12所述的機械手臂加工系統,其中所述之處理模組根據該工件之三維模型資訊,偵測至少一個接觸點特徵,以建立複數個該接觸點之位置。
- 如請求項12所述的機械手臂加工系統,其中所述之處理模組根據該移動姿態候選組,產生對應的該機械手臂之一三維姿態模型候選組;其中該處理模組根據該移動姿態候選組、該三維姿態模型候選組,以及該加工環境之三維模型資訊,自該移動姿態候選組中,刪除造成該機械手臂與該環境空間相互干涉的該移動姿態。
- 如請求項19所述的機械手臂加工系統,其中所述之處理模組自未相互干涉的該移動姿態候選組中,選擇對該機械手臂之軸角度產生最小偏移量的該移動姿態。
- 如請求項12所述的機械手臂加工系統,其中所述之機械手臂之自由端連接一點膠裝置,使該機械手臂對該加工路徑上的每一個該接觸點進行點膠。
- 如請求項12所述的機械手臂加工系統,其中所述之機械手臂之自由端連接一夾持裝置,利用該夾持裝置夾持並移動該工件,使該機械手臂透過固定位置之一點膠裝置,對該加工路徑上的每一個該接觸點進行點膠。
- 如請求項21或22所述的機械手臂加工系統,更包含:一貼合裝置,位於該加工環境內,且鄰近該機械手臂,將已點膠的該工件貼合至一輔助工件。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW106127687A TWI650626B (zh) | 2017-08-15 | 2017-08-15 | 基於三維影像之機械手臂加工方法及系統 |
CN201711420259.1A CN109397282B (zh) | 2017-08-15 | 2017-12-25 | 机械手臂加工方法、系统及计算机可读取纪录媒体 |
US15/942,571 US10723020B2 (en) | 2017-08-15 | 2018-04-02 | Robotic arm processing method and system based on 3D image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW106127687A TWI650626B (zh) | 2017-08-15 | 2017-08-15 | 基於三維影像之機械手臂加工方法及系統 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI650626B true TWI650626B (zh) | 2019-02-11 |
TW201910950A TW201910950A (zh) | 2019-03-16 |
Family
ID=65360167
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW106127687A TWI650626B (zh) | 2017-08-15 | 2017-08-15 | 基於三維影像之機械手臂加工方法及系統 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10723020B2 (zh) |
CN (1) | CN109397282B (zh) |
TW (1) | TWI650626B (zh) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6469159B2 (ja) * | 2017-04-10 | 2019-02-13 | ファナック株式会社 | 接触センサによるワーク位置検出プログラム生成機能を備えたオフラインプログラミング装置及び方法 |
KR102091935B1 (ko) * | 2018-08-29 | 2020-03-20 | 주식회사 프로텍 | 3차원 스캐너를 이용한 점성 용액 디스펜싱 방법 |
TWI696529B (zh) * | 2018-11-30 | 2020-06-21 | 財團法人金屬工業研究發展中心 | 自動定位方法以及自動控制裝置 |
US11762369B2 (en) * | 2019-02-06 | 2023-09-19 | Sensory Robotics, Inc. | Robotic control via a virtual world simulation |
TWI701122B (zh) * | 2019-07-15 | 2020-08-11 | 由田新技股份有限公司 | 多軸機械手臂系統及其路徑規劃方法 |
TWI725630B (zh) * | 2019-11-21 | 2021-04-21 | 財團法人工業技術研究院 | 加工路徑生成裝置及其方法 |
EP3834998A1 (de) * | 2019-12-11 | 2021-06-16 | Siemens Aktiengesellschaft | Verfahren, computer-programm-produkt und robotersteuerung zum konfigurieren einer roboter-objekt-systemumgebung sowie roboter |
EP4074474A4 (en) * | 2019-12-13 | 2024-06-05 | Kawasaki Jukogyo Kabushiki Kaisha | ROBOT SYSTEM AND METHOD FOR PRODUCING A THREE-DIMENSIONAL MODEL OF A WORKPIECE |
TWI747151B (zh) * | 2020-02-04 | 2021-11-21 | 達奈美克股份有限公司 | 機械手臂移動補償的方法 |
CN111524184B (zh) * | 2020-04-21 | 2024-01-16 | 湖南视普瑞智能科技有限公司 | 一种基于3d视觉的智能拆垛方法及拆垛系统 |
TWI761891B (zh) * | 2020-07-22 | 2022-04-21 | 國立臺灣科技大學 | 不間斷自動化系統及其執行方法 |
CN111889900A (zh) * | 2020-08-04 | 2020-11-06 | 上海柏楚电子科技股份有限公司 | 异形管材切割的数据处理方法、装置、电子设备与介质 |
CN114101917A (zh) * | 2020-08-26 | 2022-03-01 | 复盛应用科技股份有限公司 | 雷射雕刻方法 |
US20240075618A1 (en) * | 2021-02-10 | 2024-03-07 | Abb Schweiz Ag | Method and apparatus for tuning robot path for processing workpiece |
CN113156607B (zh) * | 2021-04-14 | 2023-07-14 | 广景视睿科技(深圳)有限公司 | 组装棱镜的方法、组装棱镜的装置以及组装棱镜的设备 |
CN113288477B (zh) * | 2021-07-01 | 2022-06-03 | 吕涛 | 一种带开放辅助槽沟的正畸自锁托槽系统 |
CN113910259A (zh) * | 2021-11-03 | 2022-01-11 | 珠海格力智能装备有限公司 | 机器人喷漆系统及喷漆方法 |
CN113768640B (zh) * | 2021-11-09 | 2022-02-08 | 极限人工智能有限公司 | 一种确定机械臂工作位姿的方法和装置 |
KR20240113281A (ko) * | 2023-01-13 | 2024-07-22 | 에스케이온 주식회사 | 점성유체의 디스펜싱 방법 및 장치, 그리고 배터리모듈 조립 방법 |
CN117950323B (zh) * | 2024-03-27 | 2024-05-31 | 苏州巴奈特机械设备有限公司 | 基于机械手臂加工控制的自适应调节方法及系统 |
CN118293136B (zh) * | 2024-06-06 | 2024-08-13 | 新创碳谷集团有限公司 | 一种模块化叶片箱体部自动粘接控制方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4305130A (en) * | 1979-05-29 | 1981-12-08 | University Of Rhode Island | Apparatus and method to enable a robot with vision to acquire, orient and transport workpieces |
TW434495B (en) * | 1999-03-31 | 2001-05-16 | Lin Gu Chin | Image servo positioning and path-tracking control system |
US20080125893A1 (en) * | 2006-10-31 | 2008-05-29 | Gm Global Technology Operations, Inc. | Apparatus and Method of Automated Manufacturing |
US20110282492A1 (en) * | 2009-02-03 | 2011-11-17 | Ken Krause | Method of controlling a robotic tool |
TW201621811A (zh) * | 2014-12-09 | 2016-06-16 | 財團法人工業技術研究院 | 三維掃描器校正系統及其校正方法 |
CN106733341A (zh) * | 2015-11-20 | 2017-05-31 | 宝成工业股份有限公司 | 多轴向自动化鞋底加工设备及加工方法 |
TWI587994B (zh) * | 2016-11-18 | 2017-06-21 | Hiwin Tech Corp | Non-contact gestures teach robots |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6552722B1 (en) * | 1998-07-17 | 2003-04-22 | Sensable Technologies, Inc. | Systems and methods for sculpting virtual objects in a haptic virtual reality environment |
US6421048B1 (en) * | 1998-07-17 | 2002-07-16 | Sensable Technologies, Inc. | Systems and methods for interacting with virtual objects in a haptic virtual reality environment |
US6587752B1 (en) * | 2001-12-25 | 2003-07-01 | National Institute Of Advanced Industrial Science And Technology | Robot operation teaching method and apparatus |
US6812665B2 (en) * | 2002-04-19 | 2004-11-02 | Abb Ab | In-process relative robot workcell calibration |
US7168935B1 (en) * | 2002-08-02 | 2007-01-30 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Solid freeform fabrication apparatus and methods |
DE10305384A1 (de) * | 2003-02-11 | 2004-08-26 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen |
WO2004106009A1 (ja) * | 2003-06-02 | 2004-12-09 | Matsushita Electric Industrial Co., Ltd. | 物品操作システムおよび方法、並びに物品管理システムおよび方法 |
US6836702B1 (en) * | 2003-06-11 | 2004-12-28 | Abb Ab | Method for fine tuning of a robot program |
GB0405014D0 (en) * | 2004-03-05 | 2004-04-07 | Qinetiq Ltd | Movement control system |
JP2007015037A (ja) * | 2005-07-05 | 2007-01-25 | Sony Corp | ロボットのモーション編集装置及びモーション編集方法、コンピュータ・プログラム、並びにロボット装置 |
JP3971773B2 (ja) * | 2005-10-12 | 2007-09-05 | ファナック株式会社 | ロボットのオフライン教示装置 |
JP4961860B2 (ja) * | 2006-06-27 | 2012-06-27 | トヨタ自動車株式会社 | ロボット装置及びロボット装置の制御方法 |
JP4347386B2 (ja) * | 2008-01-23 | 2009-10-21 | ファナック株式会社 | 加工用ロボットプラグラムの作成装置 |
US10650608B2 (en) * | 2008-10-08 | 2020-05-12 | Strider Labs, Inc. | System and method for constructing a 3D scene model from an image |
US20100179689A1 (en) * | 2009-01-09 | 2010-07-15 | National Taiwan University Of Science And Technology | Method of teaching robotic system |
KR101255948B1 (ko) * | 2009-02-12 | 2013-04-23 | 고쿠리츠 다이가쿠 호진 교토 다이가쿠 | 산업용 로봇 시스템 |
US8204623B1 (en) * | 2009-02-13 | 2012-06-19 | Hrl Laboratories, Llc | Planning approach for obstacle avoidance in complex environment using articulated redundant robot arm |
US8437537B2 (en) * | 2009-03-27 | 2013-05-07 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for estimating 3D pose of specular objects |
US8747188B2 (en) * | 2011-02-24 | 2014-06-10 | Apple Inc. | Smart automation of robotic surface finishing |
US9266241B2 (en) * | 2011-03-14 | 2016-02-23 | Matthew E. Trompeter | Robotic work object cell calibration system |
US9669546B2 (en) * | 2011-03-14 | 2017-06-06 | Matthew E. Trompeter | Robotic work object cell calibration method |
CN104411248B (zh) * | 2012-06-28 | 2017-09-26 | 皇家飞利浦有限公司 | 在内窥镜外科手术中用于最佳图像采集的c型臂轨迹规划 |
US9971339B2 (en) * | 2012-09-26 | 2018-05-15 | Apple Inc. | Contact patch simulation |
US9102055B1 (en) * | 2013-03-15 | 2015-08-11 | Industrial Perception, Inc. | Detection and reconstruction of an environment to facilitate robotic interaction with the environment |
US10665128B2 (en) * | 2014-06-27 | 2020-05-26 | Illinois Tool Works Inc. | System and method of monitoring welding information |
US9272417B2 (en) * | 2014-07-16 | 2016-03-01 | Google Inc. | Real-time determination of object metrics for trajectory planning |
JP6379874B2 (ja) * | 2014-08-29 | 2018-08-29 | 株式会社安川電機 | ティーチングシステム、ロボットシステムおよびティーチング方法 |
US10518409B2 (en) * | 2014-09-02 | 2019-12-31 | Mark Oleynik | Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries |
US20160210882A1 (en) * | 2014-12-29 | 2016-07-21 | Help Me See Inc. | Surgical Simulator System and Method |
JP6088563B2 (ja) * | 2015-02-10 | 2017-03-01 | ファナック株式会社 | 位置及び姿勢の変換演算機能を備えたワーク取出しロボットシステム、及びワーク取出し方法 |
US9486921B1 (en) * | 2015-03-26 | 2016-11-08 | Google Inc. | Methods and systems for distributing remote assistance to facilitate robotic object manipulation |
US9561941B1 (en) * | 2015-03-30 | 2017-02-07 | X Development Llc | Autonomous approach and object pickup |
US9878447B2 (en) * | 2015-04-10 | 2018-01-30 | Microsoft Technology Licensing, Llc | Automated collection and labeling of object data |
US9964398B2 (en) * | 2015-05-06 | 2018-05-08 | Faro Technologies, Inc. | Three-dimensional measuring device removably coupled to robotic arm on motorized mobile platform |
WO2017103682A2 (en) * | 2015-12-16 | 2017-06-22 | Mbl Limited | Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with containers and electronic minimanipulation libraries |
US9687983B1 (en) * | 2016-05-11 | 2017-06-27 | X Development Llc | Generating a grasp pose for grasping of an object by a grasping end effector of a robot |
US10122995B2 (en) * | 2016-09-22 | 2018-11-06 | X Development Llc | Systems and methods for generating and displaying a 3D model of items in a warehouse |
US10060857B1 (en) * | 2017-11-16 | 2018-08-28 | General Electric Company | Robotic feature mapping and motion control |
-
2017
- 2017-08-15 TW TW106127687A patent/TWI650626B/zh active
- 2017-12-25 CN CN201711420259.1A patent/CN109397282B/zh active Active
-
2018
- 2018-04-02 US US15/942,571 patent/US10723020B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4305130A (en) * | 1979-05-29 | 1981-12-08 | University Of Rhode Island | Apparatus and method to enable a robot with vision to acquire, orient and transport workpieces |
TW434495B (en) * | 1999-03-31 | 2001-05-16 | Lin Gu Chin | Image servo positioning and path-tracking control system |
US20080125893A1 (en) * | 2006-10-31 | 2008-05-29 | Gm Global Technology Operations, Inc. | Apparatus and Method of Automated Manufacturing |
US20110282492A1 (en) * | 2009-02-03 | 2011-11-17 | Ken Krause | Method of controlling a robotic tool |
TW201621811A (zh) * | 2014-12-09 | 2016-06-16 | 財團法人工業技術研究院 | 三維掃描器校正系統及其校正方法 |
CN106733341A (zh) * | 2015-11-20 | 2017-05-31 | 宝成工业股份有限公司 | 多轴向自动化鞋底加工设备及加工方法 |
TWI587994B (zh) * | 2016-11-18 | 2017-06-21 | Hiwin Tech Corp | Non-contact gestures teach robots |
Also Published As
Publication number | Publication date |
---|---|
US20190054617A1 (en) | 2019-02-21 |
CN109397282A (zh) | 2019-03-01 |
US10723020B2 (en) | 2020-07-28 |
CN109397282B (zh) | 2021-12-14 |
TW201910950A (zh) | 2019-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI650626B (zh) | 基於三維影像之機械手臂加工方法及系統 | |
CN111331592B (zh) | 机械手臂工具中心点校正装置及其方法以及机械手臂系统 | |
JP7207851B2 (ja) | 制御方法、ロボットシステム、物品の製造方法、プログラム及び記録媒体 | |
EP3705239B1 (en) | Calibration system and method for robotic cells | |
CN111452040B (zh) | 在引导装配环境中将机器视觉坐标空间关联的系统和方法 | |
JP6180087B2 (ja) | 情報処理装置及び情報処理方法 | |
US10805546B2 (en) | Image processing system, image processing device, and image processing program | |
US20190184570A1 (en) | Intelligent robots | |
JP7027299B2 (ja) | ビジョンベース操作システムのキャリブレーション及びオペレーション | |
JP5977544B2 (ja) | 情報処理装置、情報処理方法 | |
JP6855492B2 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
US9519736B2 (en) | Data generation device for vision sensor and detection simulation system | |
US10540779B2 (en) | Posture positioning system for machine and the method thereof | |
JP2016099257A (ja) | 情報処理装置及び情報処理方法 | |
US20200130189A1 (en) | Reconfigurable, fixtureless manufacturing system and method assisted by learning software | |
CN111067197A (zh) | 一种基于3d扫描的机器人鞋底动态涂胶系统及方法 | |
US20210031374A1 (en) | Robot device controller for controlling position of robot | |
JP2004243215A (ja) | シーラー塗布装置のロボットティーチング方法及びシーラー塗布装置 | |
JPWO2018043524A1 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
US20230173660A1 (en) | Robot teaching by demonstration with visual servoing | |
US20240144532A1 (en) | CALIBRATION METHOD FOR CAMERA, and CAMERA CALIBRATION SYSTEM | |
CN113102882A (zh) | 几何误差补偿模型的训练方法和几何误差补偿方法 | |
TWI675000B (zh) | 物件運送方法及系統 | |
TWI799310B (zh) | 機器人及機器人手眼校正方法 | |
CN114901441B (zh) | 机器人系统的控制装置、机器人系统的控制方法、计算机控制程序及机器人系统 |