TWI654058B - 校正裝置、校正方法及控制裝置 - Google Patents
校正裝置、校正方法及控制裝置Info
- Publication number
- TWI654058B TWI654058B TW107111840A TW107111840A TWI654058B TW I654058 B TWI654058 B TW I654058B TW 107111840 A TW107111840 A TW 107111840A TW 107111840 A TW107111840 A TW 107111840A TW I654058 B TWI654058 B TW I654058B
- Authority
- TW
- Taiwan
- Prior art keywords
- force
- position information
- unit
- information
- force information
- Prior art date
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1648—Programme controls characterised by the control loop non-linear control combined or not with linear control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D5/00—Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/4155—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39024—Calibration of manipulator
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- Fuzzy Systems (AREA)
- Manufacturing & Machinery (AREA)
- Nonlinear Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Manipulator (AREA)
Abstract
包括:位置資訊取得部(101),取得表示控制對象機器的位置及姿勢的位置資訊;力資訊取得部(102),從設置於控制對象機器的力覺感測器(5)之檢知結果,取得施加於控制對象機器的力資訊;第1推定部(104),從已取得的位置資訊使用物理模型推定施加於控制對象機器之力,取得推定力資訊;第2推定部(105),基於已取得的位置資訊、已取得的力資訊、及已取得的推定力資訊,推定線性或非線性模型。
Description
本發明係關於在利用力控制的裝置中,求出該裝置的接觸力之技術。
過去,藉由力覺感測器將末端執行器安裝在3維動作的臂型機器人之臂的先端,該末端執行器係用於對工件執行各種作業的機器人。該機器人為了執行各種作業,必須要控制作用於末端執行器和工件之間的接觸力。但是,力覺感測器所檢知的力當中,除了作用於末端執行器和工件之間的接觸力之外,還包含施加在力覺感測器、末端執行器及末端執行器所抓持的工件等之重力。為了求出作用於末端執行器和工件之間的接觸力,必須從力覺感測器所檢知的結果中,扣除施加在力覺感測器、末端執行器及末端執行器所抓持的工件等的重力成分。
例如,專利文獻1中揭露一種校正裝置,使機器人臂動作為複數個姿勢,取得力覺感測器的測量值、及取得該測量值時的力覺感測器的姿勢資料,用計算裝置算出包含末端執行器的重量、重力方向向量、末端執行器重心位置向量的複數個參數,並同時校正已算出的參數。
先行技術文獻
專利文獻:
專利文獻1:日本特開2012-040634號公報
上述的專利文獻1所記載的校正裝置中,用質點模型將施加在力覺感測器、末端執行器及末端執行器所抓持的工件等的重力成分予以模型化,並推定重力成分。但是,末端執行器等有其質量分布,用質點模型推定重力成分會產生誤差。另外,對於捲附於機器人臂上的纜線等會因為機器人臂的姿勢而改變其重力成分的構件,難以正確推定其重力成分。如此,在專利文獻1所記載的技術中,具有難以用質點模型正確推定重力成分的課題。
本發明係為了解決如上述的課題,其目的在於抑制重力成分的推定誤差,得到正確的校正結果。
本發明的校正裝置,其包括:位置資訊取得部,取得表示控制對象機器的位置及姿勢的位置資訊;力資訊取得部,從設置於控制對象機器的力覺感測器之檢知結果,取得施加於控制對象機器的力資訊;第1推定部,從位置資訊取得部所取得的位置資訊使用物理模型推定施加於控制對象機器之力,取得推定力資訊;第2推定部,基於位置資訊取得部所取得的位置資訊、力資訊取得部所取得的力資訊、及第1推定部所取得的推定力資訊,推定線性或非線性模型。
依據本發明,能夠抑制重力成分的推定誤差。藉
此,能夠得到正確的校正結果,該校正手法可以適用於執行精密操作的裝置。
100、100A‧‧‧校正裝置
101‧‧‧位置資訊取得部
102‧‧‧力資訊取得部
103‧‧‧資訊記憶部
104‧‧‧第1推定部
105‧‧‧第2推定部
106‧‧‧控制量計算部
107‧‧‧轉換部
【圖1】表示實施形態1之校正裝置所適用的機器人系統之構成的圖。
【圖2】表示實施形態1之機器人系統的機器人座標系、世界座標系、重力座標系及感測器座標系的位置關係的圖。
【圖3】表示實施形態1之校正裝置的構成的方塊圖。
【圖4】實施形態1之校正裝置的第2推定部中的神經網路、及神經網路的學習則之例的圖。
【圖5】圖5A及圖5B為表示校正裝置的硬體構成例之圖。
【圖6】表示實施形態1之校正裝置的校正處理時之動作的流程圖。
【圖7】表示實施形態1之校正裝置的校正處理時之資料流的圖。
【圖8】表示機器人常規運作之情況下的實施形態1之校正裝置的動作流程圖。
【圖9】表示機器人常規運作之情況下的實施形態1之校正裝置的資料流的圖。
【圖10】圖10A到圖10F為表示實施形態1之校正裝置得到的校正結果之圖。
【圖11】表示歐拉表現的位置資訊之定義域的圖。
【圖12】表示實施形態2之校正裝置的構成的方塊圖。
【圖13】表示實施形態2之校正裝置的第2推定部中的神經網路、及神經網路的學習則之例的圖。
【圖14】表示實施形態2之校正裝置的校正處理時之動作的流程圖。
【圖15】表示機器人常規運作之情況下的實施形態2之校正裝置的動作之流程圖。
【圖16】圖16A到圖16F為表示實施形態2之校正裝置得到的校正結果之圖。
以下,為了更詳細說明本發明,依照附圖,說明用以實施本發明的形態。
再者,以下的各實施形態中,具體言之係以使用機器人的系統中執行校正處理的機器人系統作為校正裝置之例以說明之。但是,本發明之校正裝置不限定於使用機器人的情況,能夠用相同的構成對執行力控制的裝置實施校正。亦即,本發明之校正裝置,其適用範圍不限定於機器人系統。執行力控制的裝置可以為例如自動加工裝置及自動組裝裝置。
實施形態1.
圖1為表示實施形態1之校正裝置100所適用之機器人系統的構成之圖。
機器人系統具有具備機器人臂(控制對象機器)1的機器人(控制對象機器)2、安裝在機器人臂1的先端部的末端執行器(控制對象機器)3、及控制機器人2及末端執行器3的控制裝置4,以作為其基本構成。另外,執行力控制的機器人系統中,
在機器人臂1和末端執行器3之間設有力覺感測器5,作為取得力資訊的感測器。
機器人2,在任意座標系上,使機器人臂1的先端位置或安裝於機器人臂1的先端的末端執行器3的先端位置移動,進行位置控制。控制裝置4,將用以執行末端執行器3的先端位置的位置控制之控制資訊輸入機器人2。
另外,藉由使用力覺感測器5,不僅可以執行末端執行器3的先端位置的位置控制,還可以執行末端執行器3的力控制。末端執行器3的力控制,係控制末端執行器3和周邊物體、或末端執行器3和周邊環境之間的力的作用狀態,亦即接觸力。藉由執行末端執行器3的力控制,可以實施使用機器人2的研磨作業、去毛刺作業及連接器等的組裝等的在執行的同時考慮末端執行器3和工件之接觸狀態的作業。
如圖1所示,在機器人系統中,因應目的而在機器人臂1的先端安裝纜線6。例如,纜線6為,從力覺感測器5延伸的纜線、用於電源供給的纜線、及用以從控制裝置4提供控制訊號的纜線等。纜線6,為了防止其因為機器人2的動作而被捲入,多是將其張力緩和使其鬆垮地捲附,其重力成分隨著機器人臂1的姿勢而改變。該纜線6的重力成分加在力覺感測器5的力資訊中,成為誤差的要因。機器人臂1執行高精度作業時,該誤差即成為問題。
因此,校正裝置100,利用使用質點模型用推定的施加於機器人2的力、與力覺感測器5的力資訊之差分,執行進行神經網路的參數最適化的校正。
用以推定施加於機器人2的力之模型,亦可為質點模型以外的物理模型。質點模型以外的物理模型可以為例如剛體模型。
首先,說明校正裝置100執行校正處理的座標系。
圖2為表示實施形態1之機器人系統的機器人座標系、世界座標系、重力座標系及感測器座標系的位置關係的圖。
圖2中,定義作為固定在機器人系統內的機器人2的基準座標系的機器人座標系表示為Σrob、定義作為機器人系統內的機器之共通座標系的世界座標系表示為Σwld、以重力加速度方向為-Z方向的重力座標系表示為Σgrv、及定義作為力覺感測器5的基準座標系的感測器座標系表示為Σsen。
校正裝置100,亦可適用圖2中所示的任一個座標系進行處理。再者,以下的說明中,係以校正裝置100使用感測器座標系進行處理的情況為例進行說明。
圖3為表示實施形態1之校正裝置100的構成之方塊圖。
校正裝置100具備:位置資訊取得部101、力資訊取得部102、資訊記憶部103、第1推定部104、第2推定部105及控制量計算部106。另外,如圖3所示,控制裝置4及力覺感測器5連接於校正裝置100。另外,機器人2與控制裝置4及力覺感測器5連接。
首先,校正裝置100的使用時,首先,位置資訊取得部101、力資訊取得部102、資訊記憶部103、第1推定部104及第2推定部105執行神經網路之中間層的參數之最適化處理(以下記載為校正處理)。
位置資訊取得部101,從控制裝置4取得機器人2的位置資訊,並將之記憶於資訊記憶部103。位置資訊取得部101,取得表示末端執行器3部分的位置及姿勢之資訊,作為機器人2的位置資訊。位置資訊,表示例如對於歐拉表現的X軸、Y軸、Z軸的回轉3自由度的[A、B、C]。力資訊取得部102,從力覺感測器5的檢知結果取得表示施加於機器人2之力的資訊(以下記載為力資訊),並將之記憶於資訊記憶部103。
執行校正處理時,控制裝置4,設定通過機器人座標系、世界座標系、重力座標系或感測器座標系當中的任一種座標系的原點的任意回轉軸,進行控制使得機器人2的姿勢繞著已設定的回轉軸改變。使機器人2繞著已設定的回轉軸回轉時的回轉角度量,係為任意設定。控制裝置4,基於已設定的回轉軸及回轉角度量,決定用於取得位置資訊及力資訊之機器人2的姿勢,將其作為姿勢指令值輸出至機器人2。機器人2,依照從控制裝置4輸入的姿勢指令值,繞著已設定的回轉軸,回轉已設定的回轉角度量,以改變其姿勢。位置資訊取得部101及力資訊取得部102,離散地取得姿勢改變的機器人2的位置資訊及力資訊,將其記憶於資訊記憶部103。位置資訊取得部101及力資訊取得部102取得位置資訊及力資訊取得的時間點,可以適當設定。資訊記憶部103,記憶從位置資訊取得部101輸入的位置資訊、及從力資訊取得部102輸入的力資訊。
第1推定部104,使用質點模型,從資訊記憶部103所記憶的位置資訊推定施加於機器人2的力,取得推定力資訊。質點模型的參數係為,1個質點中的末端執行器3的重
量、末端執行器3的重心位置及偏差。第1推定部104,將已取得的推定力資訊輸出至第2推定部105。
第2推定部105,係以資訊記憶部103所記憶的位置資訊及力資訊、第1推定部104所取得的推定力資訊為輸入,推定線性或非線性模型。具體言之,第2推定部105,使用位置資訊、及推定力資訊和力資訊的差分構成的複數個集合,基於一般的神經網路的學習則進行學習。神經網路中有CNN(Convolutional Neural Network)或RNN(Recurrent Neural Network)等各種形態存在,該形態可以任意適用。
圖4為表示實施形態1之校正裝置100的第2推定部105中的神經網路、和神經網路的學習則之例的圖。
資訊記憶部103所記憶的位置資訊[A、B、C]被輸入到輸入層,推定力資訊和力資訊的差分(△FX,△FY,△FZ,△MA,△MB,△MC)從輸出層輸出。
第2推定部105,在神經網路的學習過程中,執行中間層之參數的最適化,以使得從已輸入的位置資訊經過中間層而得到的輸出層的輸出值,與教師訊號,亦即推定力資訊和力資訊的差分近似。
再者,圖4中,係以力覺感測器5為6軸感測器,可檢出機器人臂1的移動方向、方位及回轉的情況為例進行說明。另一方面,力覺感測器5為3軸感測器亦可,感測器的構成可以適當設定。神經網路的輸出,可以基於力覺感測器5的構成而適當設定。
繼之,實際上使用機器人2實施作業時(以下,記載
為常規動作時),校正裝置100,進行計算位置資訊取得部101、力資訊取得部102、資訊記憶部103、第1推定部104、第2推定部105及控制量計算部106對於控制裝置4之指令值的處理。
位置資訊取得部101,取得常規動作時的機器人2的位置資訊及力資訊,並將之記憶於資訊記憶部103。第1推定部104,從資訊記憶部103所記憶的位置資訊,推定施加於機器人2的力,取得推定力資訊。第1推定部104,將已取得的推定力資訊輸出至控制量計算部106。
第2推定部105,將資訊記憶部103所記憶的位置資訊輸入神經網路,推定出推定力資訊和力資訊的差分。第2推定部105,將已推定的差分輸出至控制量計算部106。控制量計算部106,從第1推定部104所輸入的推定力資訊與資訊記憶部103所記憶的力資訊之差分、減去從第2推定部105輸入的差分,計算對於控制裝置4的控制量。控制量計算部106,將已計算的控制量輸出至控制裝置4。控制裝置4的控制部4a,使用從控制量計算部106輸入的控制量,控制機器人2。再者,上述圖3中雖表示校正裝置100具備控制量計算部106的構成,但亦可為控制裝置4具備該控制量計算部106的構成。
繼之,說明校正裝置100的硬體構成例。
圖5A及圖5B為表示校正裝置100的硬體構成例之圖。
校正裝置100中的資訊記憶部103係由儲存器100a實現。另外,校正裝置100中的位置資訊取得部101、力資訊取得部102、第1推定部104、第2推定部105及控制量計算部106的各功能係由處理電路實現。亦即,校正裝置100具有用以實
現上述各功能的處理電路。該處理電路,可以如圖5A所示般,為專用硬體的處理電路100b,亦可如圖5B所示般,為執行儲存於記憶體100d的程式的處理器100c。
如圖5A所示,位置資訊取得部101、力資訊取得部102、第1推定部104、第2推定部105及控制量計算部106為專用硬體的情況下,處理電路100b為,例如:單一電路、複合電路、程式化處理器、並列程式化處理器、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、或其組合。位置資訊取得部101、力資訊取得部102、第1推定部104、第2推定部105及控制量計算部106的各部之功能各自由處理電路實現亦可,將各部的功能整合並以1個處理電路實現亦可。
如圖5B所示,位置資訊取得部101、力資訊取得部102、第1推定部104、第2推定部105及控制量計算部106為處理器100c的情況下,各部的功能由軟體、韌體、或軟體與韌體的組合實現。軟體或韌體記載為程式,並儲存於記憶體100d。處理器100c,讀取並執行記憶在記憶體100d中的程式,藉此實現位置資訊取得部101、力資訊取得部102、第1推定部104、第2推定部105及控制量計算部106的各功能。亦即,位置資訊取得部101、力資訊取得部102、第1推定部104、第2推定部105及控制量計算部106具備用以儲存當被處理器100c執行時結果執行了後述的圖6及圖8所示之各步驟的程式的記憶體100d。另外,這些程式亦可說是使電腦執行位置資訊取得部101、力資訊取得部102、第1推定部104、第2推定部105及控制量計算部106的程序或方法者。
在此,處理器100c為例如:CPU(Central Processing Unit)、處理裝置、計算裝置、處理器、微處理器、微電腦、或DSP(Digital Signal Processor)等。
記憶體100d可以為例如:RAM(Random Access Memory)、ROM(Read Only Memory)、快閃記憶體、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等的非揮發性或揮發性半導體記憶體,亦可為硬碟、軟碟等的磁碟,亦可為迷你碟、CD(Compact Disc)、DVD(Digital Versatile Disc)等的光碟。
再者,關於位置資訊取得部101、力資訊取得部102、第1推定部104、第2推定部105及控制量計算部106的各功能,其一部分用專用硬體實現、一部分用軟體或韌體實現亦可。像這樣,校正裝置100中的處理電路可以用硬體、軟體、韌體、或其組合,實現上述各功能。
繼之,說明校正裝置100的動作。
校正裝置100的動作,區分為校正處理時的動作、及常規運作時的動作來說明。首先,一邊參照圖6及圖7,一邊說明校正裝置100的校正處理時的動作。
圖6為表示實施形態1之校正裝置100的校正處理時之動作的流程圖。
圖7為表示實施形態1之校正裝置100的校正處理時之資料流的圖。
位置資訊取得部101及力資訊取得部102,取得位置資訊[A、B、C]T及力資訊FX,FY,FZ,MA,MB,MC(步驟ST1),並使資訊
記憶部103記憶已取得的位置資訊及力資訊(步驟ST2)。步驟ST1及步驟ST2的處理,係因應機器人2的姿勢改變而反覆進行。第1推定部104,從資訊記憶部103所記憶的位置資訊[A、B、C]T推定施加於機器人2的力,取得推定力資訊(步驟ST3)。第1推定部104將已取得的推定力資訊輸出至第2推定部105。
第2推定部105,算出步驟ST3中已取得的推定力資訊、與資訊記憶部103所記憶的力資訊FX,FY,FZ,MA,MB,MC之差分,取得教師訊號(步驟ST4)。第2推定部105,將資訊記憶部103所記憶的位置資訊[A、B、C]T作為神經網路的輸入,並進行學習,其係用以使神經網路的輸出與步驟ST4中已取得的教師訊號近似(步驟ST5)。具體言之,第2推定部105,進行神經網路的中間層之參數的最適化,以使得神經網路的輸出與教師訊號近似。
第2推定部105,判斷推定精度是否超過特定值(步驟ST6)。推定精度未超過特定值的情況下(步驟ST6:[否]),流程圖回到步驟ST3的處理,重複執行上述處理。另一方面,推定精度超過特定值的情況下(步驟ST6:[是]),校正裝置100結束校正處理。
繼之,一邊參照圖8及圖9,一邊說明機器人2常規運作的情況下的校正裝置100之動作。
圖8為,表示在機器人2常規運作的情況下,實施形態1之校正裝置100的動作之流程圖。
圖9為,表示在機器人2常規運作的情況下,實施形態1之校正裝置100的資料流的圖。
機器人2動作並改變姿勢時(步驟ST11),位置資訊取得部101及力資訊取得部102取得位置資訊[A、B、C]T及力資訊FX,FY,FZ,MA,MB,MC(步驟ST12)。位置資訊取得部101及力資訊取得部102使得資訊記憶部103記憶已取得的位置資訊[A、B、C]T及力資訊FX,FY,FZ,MA,MB,MC。第1推定部104,從資訊記憶部103所記憶的位置資訊[A、B、C]T推定施加於機器人2的力,取得推定力資訊(步驟ST13)。第1推定部104將已取得的推定力資訊輸出至控制量計算部106。
第2推定部105,將資訊記憶部103所記憶的位置資訊[A、B、C]T輸入到已完成學習的神經網路的輸入層,並取得差分△FX,△FY,△FZ,△MA,△MB,△MC作為輸出(步驟ST14)。第2推定部105將已取得的差分△FX,△FY,△FZ,△MA,△MB,△MC輸出至控制量計算部106。控制量計算部106,算出步驟ST13中已取得的推定力資訊與資訊記憶部103所記憶的力資訊FX,FY,FZ,MA,MB,MC之差分(步驟ST15)。控制量計算部106,從步驟ST15中已算出的差分再減去步驟ST14中已取得的差分△FX,△FY,△FZ,△MA,△MB,△MC,算出控制量(步驟ST16)。控制量計算部106,將步驟ST16中已算出的控制量輸出至控制裝置4(步驟ST17),結束處理。
一邊參照圖10,一邊說明校正裝置100得到的校正結果。
圖10為表示實施形態1之校正裝置100得到的校正結果之圖。
從圖10A到圖10F中,第1線段表示依據使用質點模型的
力資訊之推定校正後的結果、第2線段表示依據使用質點模型的力資訊的推定及神經網路校正後的結果。
另外,圖10A表示X軸方向的力資訊FX、圖10B表示Y軸方向的力資訊FY、圖10C表示Z軸方向的力資訊FZ。而且,圖10D表示繞著X軸的力矩MX、圖10E表示繞著Y軸的力矩MY、圖10F表示繞著Z軸的力矩MZ。
圖10表示,使機器人2移動時,作為將位置資訊輸入已完成學習的神經網路所得到的輸出之差分。另外,圖10表示,機器人2的末端執行器3未接觸工件等的狀態下,機器人2移動後的差分。因此,圖10中,差分的值越接近「0」,則可以判斷為得到良好的校正結果。從圖10A到圖10F中均為,相較於第1線段所示的依據使用質點模型的力資訊之推定進行校正的結果,第2線段所示的依據使用質點模型的力資訊之推定及神經網路進行校正的結果,能夠得到更良好的校正結果。
如上述,依據實施形態1,其構成為包括:取得表示控制對象機器的位置及姿勢之位置資訊的位置資訊取得部101;從設置於控制對象機器的力覺感測器5的檢知結果,取得施加於控制對象機器的力資訊的力資訊取得部102;從位置資訊取得部101所取得的位置資訊使用物理模型推定施加於控制對象機器的力,取得推定力資訊的第1推定部104;及基於位置資訊取得部101所取得的位置資訊、力資訊取得部102所取得的力資訊、及第1推定部104所取得的推定力資訊,推定線性或非線性模型的第2推定部105,因此,能夠抑制重力成分的推定誤差。藉此,能夠得到正確的校正結果,能夠將該校
正手法適用於進行精密操作的裝置。
另外,依據該實施形態1,第2推定部105構成為,以位置資訊取得部101已取得的位置資訊作為神經網路的輸入,以第1推定部104已取得的推定力資訊和力資訊取得部102已取得的力資訊之差分作為神經網路的教師訊號,進行該神經網路的學習,因此,在非線性性的物理模型化困難的情況下、或對於難以用質點模型等將之物理模型化的纜線等,能夠除去對於力資訊的影響。
實施形態2.
上述實施形態1中,位置資訊為對於歐拉表現的X軸、Y軸、Z軸之回轉3自由度的[A、B、C]。如圖11所示,歐拉表現的位置資訊為,例如表示在X軸上1回轉之位置資訊的情況下,可採取用0deg到180deg的定義域θ1表現的位置資訊、用0deg到-180deg的定義域θ2表現的位置資訊。在此情況下,在定義域θ1和定義域θ2的分界點P,亦即180deg及-180deg之處,發生數值的折返,數值不連續,為數值的不連續點。此實施形態2中表示的構成為,在歐拉表現之位置資訊的定義域中,將表示位置資訊的數值轉換,使其為不包含不連續點的表現。
圖12為表示實施形態2之校正裝置100A的構成之方塊圖。
實施形態2的校正裝置100A構成為,在圖3所示的校正裝置100中加上轉換部107。以下,對於與實施形態1之校正裝置100的構成要素相同或相當的部分,標示與實施形態1中使用的符號相同的符號,並省略或簡略化其說明。
轉換部107,對於資訊記憶部103所記憶的位置資訊[A,B,C]進行回轉行列計算,轉換為向量表現。轉換部107所進行的回轉行列計算用以下式(1)表示之。
式(1)中的(以下記載為R估計值(R hat))表示回轉行列。
再者,式(1)中,以X軸為中心的回轉角度為A、以Y軸為中心的回轉角度為B、以Z軸為中心的回轉角度為C,藉由以X軸為中心的回轉而進行座標轉換之回轉行列為R估計值(A)、藉由以Y軸為中心的回轉而進行座標轉換的回轉行列為R估計值(B)、藉由以Z軸為中心的回轉而進行座標轉換的回轉行列為R估計值(C)。
另外,回轉行列R估計值(A)、回轉行列R估計值(B)、及回轉行列R估計值(C)可用以下的式(2)到式(4)表示。
轉換部107,將上述回轉行列計算所得到的位置資訊的向量值r11,r12,r13,r21,r22,r23,r31,r32,r33輸出至第2推定部105。執行校正處理的情況下,第2推定部105,將從轉換部107
輸入的位置資訊之向量值r11,r12,r13,r21,r22,r23,r31,r32,r33作為神經網路的輸入。第2推定部105,為了使得神經網路的輸出近似於教師訊號,執行進行神經網路之中間層的參數最適化的學習。
另外,使機器人2常規動作的情況下,第2推定部105,將從轉換部107輸入的位置資訊之向量值r11,r12,r13,r21,r22,r23,r31,r32,r33作為神經網路的輸入。第2推定部105,和實施形態1一樣,取得差分(△FX,△FY,△FZ,△MA,△MB,△MC)作為神經網路的輸出。
繼之,說明校正裝置100A的硬體構成例。再者,省略與實施形態1相同構成之說明。
校正裝置100A中的轉換部107為,圖5A所示的處理電路100b、或圖5B所示之執行儲存在記憶體100d的程式之處理器100c。
圖13為表示實施形態2之校正裝置100A的第2推定部105中的神經網路、及神經網路的學習則之例的圖。
將位置資訊[A,B,C]回轉行列計算所得到的位置資訊的向量值(r11,r12,r13,r21,r22,r23,r31,r32,r33)被輸入到輸入層。從輸出層輸出差分(△FX,△FY,△FZ,△MA,△MB,△MC)。第2推定部105,在神經網路的學習過程中,進行中間層的參數之最適化,以將從已輸入的向量值經過中間層得到的輸出層的輸出值近似於教師訊號,亦即推定力資訊和力資訊的差分。
再者,圖13中,係以力覺感測器5為6軸感測器並可檢出機器人臂1的移動方向、方位及回轉的情況為例進行說明。另一方面,力覺感測器5為3軸感測器亦可,感測器的構成可
以適當設定。神經網路的輸出係基於力覺感測器5的構成而適當設定。
圖14為表示實施形態2之校正裝置100A的校正處理時之動作的流程圖。
再者,以下,對於與實施形態1之校正裝置100相同的步驟,係標示與圖6中使用的符號相同的符號,並省略或簡略化其說明。
轉換部107,使用資訊記憶部103中所記憶的位置資訊[A、B、C]T進行回轉行列計算,取得位置資訊的向量值(r11,r12,r13,r21,r22,r23,r31,r32,r33)(步驟ST21)。轉換部107,將位置資訊的向量值(r11,r12,r13,r21,r22,r23,r31,r32,r33)輸出至第2推定部105。
第2推定部105,算出步驟ST3中已取得的推定力資訊、與資訊記憶部103所記憶的力資訊FX,FY,FZ,MA,MB,MC的差分,取得教師訊號(步驟ST4)。第2推定部105,將從轉換部107輸入的位置資訊的向量值(r11,r12,r13,r21,r22,r23,r31,r32,r33)作為神經網路的輸入,執行進行中間層的參數之最適化的神經網路的學習,以使得神經網路的輸出與步驟ST4中已取得的教師訊號近似(步驟ST22)。之後,流程圖進行步驟ST6的處理。
圖15為,表示在機器人2常規運作的情況下之實施形態2之校正裝置100A的動作之流程圖。
再者,以下,對於與實施形態1之校正裝置100相同的步驟,係標示以與圖8中使用的符號相同的符號,並將說明省略
或簡略化。
轉換部107,使用資訊記憶部103中所記憶的位置資訊[A、B、C]T進行回轉行列計算,取得位置資訊的向量值(r11,r12,r13,r21,r22,r23,r31,r32,r33)(步驟ST31)。轉換部107,將已取得的位置資訊之向量值(r11,r12,r13,r21,r22,r23,r31,r32,r33)輸出至第2推定部105。
第2推定部105,將步驟ST31中已取得的位置資訊的向量值(r11,r12,r13,r21,r22,r23,r31,r32,r33)輸入到已學習的神經網路的輸入層,並取得差分△FX,△FY,△FZ,△MA,△MB,△MC作為輸出(步驟ST32)。第2推定部105,將已取得的差分△FX,△FY,△FZ,△MA,△MB,△MC輸出到控制量計算部106。之後,執行步驟ST15到步驟ST17的處理。
一邊參照圖16,一邊說明校正裝置100A得到的校正結果。
圖16為表示實施形態2之校正裝置100A得到的校正結果的圖。
從圖16A到圖16F中,第1線段表示依據使用質點模型的力資訊之推定校正後的結果、第2線段表示依據使用質點模型的力資訊之推定及神經網路校正後的結果、第3線段表示使用質點模型的力資訊之推定及回轉行列計算進行後再用神經網路校正後的結果。
另外,圖16A表示X軸方向的力資訊FX、圖16B表示Y軸方向的力資訊FY、圖16C表示Z軸方向的力資訊FZ。而且,圖16D為繞著X軸的力矩MX、圖16E為繞著Y軸的力矩MY、
圖16F為繞著Z軸的力矩MZ。
圖16,和實施形態1一樣,表示使機器人2移動時,將位置資訊輸入已完成學習的神經網路而得到的輸出之差分。另外,圖16表示在機器人2的末端執行器3未與工件接觸的狀態下,機器人2已移動之情況下的差分。因此,圖16中,差分的值越接近「0」,能夠判斷為得到良好的校正結果。圖16A到圖16F中均顯示,第3線段所示的執行使用質點模型的力資訊之推定及回轉行列計算之後,再使用神經網路,執行過校正的情況下,得到最良好的校正結果。
以上係表示,轉換部107對於位置資訊進行回轉行列計算,以轉換為向量的情況,但轉換處理並不限定於回轉行列計算。
在歐拉表現之位置資訊的定義域中,執行位置以上之數值的轉換之處理,使其成為不包含表示位置資訊的數值的不連續點的表現,可以適用於轉換部107。
例如,可運用如後處理,在歐拉表現的位置資訊之定義域中,在圖11所示的定義域θ2(0deg到-180deg)的角度加上360deg,將角度範圍從180deg轉換為360deg。藉此,圖11的例所示之位置資訊的定義域θ1和定義域θ2中,角度範圍為0deg到360deg,在定義域θ1和定義域θ2的分界點P處之數值的不連續點不存在。
如上述,依據本實施形態2,係構成為具備轉換部107,將位置資訊取得部101已取得的位置資訊轉換為不包含不連續點的連續數值表現,因此,不受到位置資訊的不連續點
的影響,能夠對於位置資訊的轉換進行連續的校正處理。
上述實施形態1及實施形態2中雖顯示具備了記憶位置資訊取得部101已取得的位置資訊、及力資訊取得部102已取得的力資訊的資訊記憶部103之構成,但亦可為不具備資訊記憶部103的構成。在此情況下可以構成為:位置資訊取得部101及力資訊取得部102對於第1推定部104、第2推定部105及轉換部107當中的應該輸出資訊的構成,直接輸出資訊。
上述實施形態1及實施形態2中顯示之構成為:執行校正處理時,位置資訊取得部101取得位置資訊,力資訊取得部102取得力資訊,並使資訊記憶部103記憶之。亦可為後述構成:校正裝置100,在取得該位置資訊及力資訊時,使機器人2以等速運動移動。藉由使機器人2等速運動,能夠取得無需考慮慣性力影響的資訊。另外,因為無需考慮慣性力的影響,所以不需要使機器人2的動作停止,就能夠取得位置資訊及力資訊。
另外,上述實施形態1及實施形態2中,校正裝置100,100A亦可具備基於機器人2的設置環境之改變及機器人2的末端執行器3等的老化等之資訊以更新神經網路的構成。例如、校正裝置100,100A取得設置機器人2的環境之溫度或濕度、末端執行器3的磨損程度等的關於控制對象機器的資訊。第2推定部105,在進行神經網路的學習時,亦參照已取得的關於控制對象機器的資訊來進行神經網路的學習。
藉此,能夠進行考慮了機器人2的設置環境及機器人2等的老化的神經網路學習,能夠執行高精度的校正處理。
除了上述以外,本發明在其發明的範圍內,可以進行各實施形態的自由組合、各實施形態的任意構成要素的變形、或各實施形態的任意構成要素的省略。
【產業上的利用可能性】
本發明之校正裝置可適用於臂型機器人、用以控制一邊控制力一邊進行作業的臂型機器人的裝置、用以控制必須高精度操作的臂型機器人的裝置。
Claims (6)
- 一種校正裝置,其包括:位置資訊取得部,取得表示控制對象機器的位置及姿勢的位置資訊;力資訊取得部,從設置於該控制對象機器的力覺感測器之檢知結果,取得施加於該控制對象機器的力資訊;第1推定部,從該位置資訊取得部已取得的位置資訊使用物理模型推定施加於該控制對象機器之力,取得推定力資訊;第2推定部,基於該位置資訊取得部已取得的位置資訊、該力資訊取得部已取得的力資訊、及該第1推定部已取得的推定力資訊,推定線性或非線性模型;該第2推定部,係以該位置資訊取得部已取得的位置資訊作為神經網路的輸入,以該第1推定部已取得的推定力資訊與該力資訊取得部已取得的力資訊之差分作為該神經網路的教師訊號,以進行該神經網路的學習。
- 如申請專利範圍第1項所記載的校正裝置,包括轉換部,將該位置資訊取得部已取得的位置資訊轉換為不含有不連續點的連續數值表現。
- 如申請專利範圍第1項所記載的校正裝置,該位置資訊取得部及該力資訊取得部取得進行等速運動的該控制對象機器之位置資訊及力資訊。
- 如申請專利範圍第1項所記載的校正裝置,該第2推定部,參照關於該控制對象機器的資訊,推定該線性或非線性模型。
- 一種校正方法,其包括:位置資訊取得部,取得表示控制對象機器的位置及姿勢的位置資訊之步驟;力資訊取得部,從設置於該控制對象機器的力覺感測器之檢知結果,取得施加於該控制對象機器的力資訊之步驟;第1推定部,從該已取得的位置資訊推定施加於該控制對象機器之力,取得推定力資訊之步驟;第2推定部,基於該已取得的位置資訊、該已取得的力資訊、及該已取得的推定力資訊,推定線性或非線性模型之步驟,該第2推定部,係以該位置資訊取得部已取得的位置資訊作為神經網路的輸入,以該第1推定部已取得的推定力資訊與該力資訊取得部已取得的力資訊之差分作為該神經網路的教師訊號,以進行該神經網路的學習。
- 一種控制裝置,其包括:控制量計算部,由申請專利範圍第1項記載的校正裝置之該第2推定部已推定的線性或非線性模型的輸出、該第1推定部已取得的推定力資訊、及該力資訊取得部已取得的力資訊,計算該控制對象機器的控制量;控制部,基於該控制量計算部已計算的控制量,控制該控制對象機器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/039765 WO2019087357A1 (ja) | 2017-11-02 | 2017-11-02 | キャリブレーション装置、キャリブレーション方法および制御装置 |
WOPCT/JP2017/039765 | 2017-11-02 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI654058B true TWI654058B (zh) | 2019-03-21 |
TW201918347A TW201918347A (zh) | 2019-05-16 |
Family
ID=65037042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW107111840A TWI654058B (zh) | 2017-11-02 | 2018-04-03 | 校正裝置、校正方法及控制裝置 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11298828B2 (zh) |
JP (1) | JP6456555B1 (zh) |
KR (1) | KR20200042952A (zh) |
CN (1) | CN111278613B (zh) |
DE (1) | DE112017008018B4 (zh) |
TW (1) | TWI654058B (zh) |
WO (1) | WO2019087357A1 (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6669713B2 (ja) * | 2017-11-28 | 2020-03-18 | ファナック株式会社 | ロボットおよびロボットシステム |
EP3807058A1 (en) * | 2018-06-15 | 2021-04-21 | Universal Robots A/S | Estimation of payload attached to a robot arm |
CN110370271B (zh) * | 2019-04-30 | 2020-09-25 | 杭州亿恒科技有限公司 | 工业串联机器人的关节传动比误差校准方法 |
KR102272840B1 (ko) | 2020-03-04 | 2021-07-06 | 성균관대학교산학협력단 | 다축 힘센서의 센서 보정을 위한 자동 다축 힘 인가 장치 |
DE102020106998B4 (de) | 2020-03-13 | 2023-05-25 | Gottfried Wilhelm Leibniz Universität Hannover | Verfahren zum Kalibrieren eines Roboters und entsprechender Roboter |
DE102020206575A1 (de) * | 2020-05-26 | 2021-12-02 | Siemens Aktiengesellschaft | Prognose eines Systemzustands eines technischen Systems |
JP7080507B2 (ja) * | 2020-07-21 | 2022-06-06 | 株式会社トキワシステムテクノロジーズ | キャリブレーション装置、キャリブレーションプログラム、キャリブレーション方法 |
CN112605997A (zh) * | 2020-12-17 | 2021-04-06 | 哈尔滨工业大学(威海) | 一种用于机械臂的主动自适应力控装置及其控制方法 |
DE102020134785A1 (de) | 2020-12-23 | 2022-06-23 | Infineon Technologies Ag | Eine Vorrichtung und ein Verfahren zum Trainieren eines Neuronalen Netzwerks zur Bestimmung eines Drehwinkels eines Objekts und eine Vorrichtung, ein System und ein Verfahren zum Bestimmen eines Drehwinkels eines Objekts |
DE102021106990A1 (de) | 2021-03-22 | 2022-09-22 | Ferrobotics Compliant Robot Technology Gmbh | Kraftgeregelte Handhabungsvorrichtung für die robotergestützte Oberflächenbearbeitung |
CN115847392B (zh) * | 2021-09-26 | 2023-10-27 | 苏州艾利特机器人有限公司 | 一种力传感器空载读数补偿方法、装置及存储介质 |
CN114523478B (zh) * | 2022-04-24 | 2022-06-28 | 季华实验室 | 机械臂结构参数的补偿模型获取方法和补偿方法 |
DE102022205011A1 (de) | 2022-05-19 | 2023-11-23 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Bestimmen eines Moments für einen Betrieb eines Roboters unter Verwendung eines Modells und Verfahren zum Einlernen des Modells |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105459135A (zh) | 2014-09-29 | 2016-04-06 | 精工爱普生株式会社 | 机器人、机器人系统、控制装置以及控制方法 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2515594B2 (ja) * | 1989-07-20 | 1996-07-10 | 三菱電機株式会社 | ロボットの力制御方法及び装置 |
JPH0683427A (ja) * | 1992-09-04 | 1994-03-25 | Japan Atom Energy Res Inst | 柔軟マニピュレータの作業点位置制御システム |
JPH06339884A (ja) * | 1993-06-02 | 1994-12-13 | Yaskawa Electric Corp | ニューラルネットワークによるマニピュレータの逆運動学モデルの学習方法 |
JPH07210207A (ja) * | 1994-01-17 | 1995-08-11 | Hitachi Ltd | 適応制御装置 |
JP3362379B2 (ja) * | 1994-05-26 | 2003-01-07 | 松下電工株式会社 | 力制御装置における力の検出方法 |
JPH07319507A (ja) * | 1994-05-26 | 1995-12-08 | Bridgestone Corp | ロボット制御装置 |
US5650704A (en) * | 1995-06-29 | 1997-07-22 | Massachusetts Institute Of Technology | Elastic actuator for precise force control |
JP3053606B2 (ja) * | 1998-02-23 | 2000-06-19 | ファナック株式会社 | ロボットに装着された力センサのキャリブレーション方法及びロボット |
DE602004012228T2 (de) * | 2004-04-16 | 2009-03-12 | Honda Research Institute Europe Gmbh | Selbstkalibrierendes Orientierungssystem für ein Handhabungsgerät |
EP1915963A1 (en) * | 2006-10-25 | 2008-04-30 | The European Atomic Energy Community (EURATOM), represented by the European Commission | Force estimation for a minimally invasive robotic surgery system |
CA2736079A1 (en) * | 2008-09-04 | 2010-03-11 | Iwalk, Inc. | Hybrid terrain-adaptive lower-extremity systems |
JP5618066B2 (ja) | 2010-08-18 | 2014-11-05 | 株式会社Ihi | 力制御ロボットのキャリブレーション装置と方法 |
JP2014006566A (ja) * | 2012-06-21 | 2014-01-16 | Institute Of National Colleges Of Technology Japan | 組み込み知能コントローラ、制御システム、制御プログラム、記録媒体、及び制御方法 |
JP6329149B2 (ja) * | 2012-08-28 | 2018-05-23 | リシンク ロボティクス インコーポレイテッド | ロボットセンサ一貫性の監視 |
JP6361207B2 (ja) * | 2014-03-24 | 2018-07-25 | セイコーエプソン株式会社 | ロボット、ロボットシステムおよびロボット制御装置 |
CN104608113B (zh) * | 2013-11-01 | 2018-07-17 | 精工爱普生株式会社 | 机器人、机器人系统以及机器人控制装置 |
US9769769B2 (en) | 2014-06-30 | 2017-09-19 | Microsoft Technology Licensing, Llc | Detecting proximity using antenna feedback |
JP6623522B2 (ja) * | 2015-01-26 | 2019-12-25 | セイコーエプソン株式会社 | ロボット、ロボットシステムおよびサーバー |
WO2016208467A1 (ja) * | 2015-06-22 | 2016-12-29 | 三菱電機株式会社 | キャリブレーション装置およびこれを用いたロボットシステム |
JP6668665B2 (ja) | 2015-10-02 | 2020-03-18 | 株式会社Ihi | ロボット装置 |
JP6575306B2 (ja) | 2015-11-04 | 2019-09-18 | 株式会社デンソー | ロボット装置 |
JP6665610B2 (ja) * | 2016-01-08 | 2020-03-13 | 株式会社ジェイテクト | モータ制御装置 |
WO2017201023A1 (en) * | 2016-05-20 | 2017-11-23 | Google Llc | Machine learning methods and apparatus related to predicting motion(s) of object(s) in a robot's environment based on image(s) capturing the object(s) and based on parameter(s) for future robot movement in the environment |
CN107884099B (zh) * | 2016-09-30 | 2020-08-11 | 通用电气公司 | 校正装置、校正方法及测量系统 |
CN106874914B (zh) * | 2017-01-12 | 2019-05-14 | 华南理工大学 | 一种基于深度卷积神经网络的工业机械臂视觉控制方法 |
JP6707485B2 (ja) * | 2017-03-22 | 2020-06-10 | 株式会社東芝 | 物体ハンドリング装置およびその較正方法 |
-
2017
- 2017-11-02 WO PCT/JP2017/039765 patent/WO2019087357A1/ja active Application Filing
- 2017-11-02 CN CN201780096277.0A patent/CN111278613B/zh active Active
- 2017-11-02 DE DE112017008018.5T patent/DE112017008018B4/de active Active
- 2017-11-02 JP JP2018518548A patent/JP6456555B1/ja active Active
- 2017-11-02 KR KR1020207010320A patent/KR20200042952A/ko not_active Application Discontinuation
-
2018
- 2018-04-03 TW TW107111840A patent/TWI654058B/zh not_active IP Right Cessation
-
2020
- 2020-04-10 US US16/846,046 patent/US11298828B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105459135A (zh) | 2014-09-29 | 2016-04-06 | 精工爱普生株式会社 | 机器人、机器人系统、控制装置以及控制方法 |
Non-Patent Citations (2)
Title |
---|
M. H. Raibert and J. J. Craig, "Hybrid position/force control of manipulators" ASME, J. Dynamic Sys. Meas., Control, Vol. 102, pp. 126-133, 1981 |
T. Fukuda and T. Shibata, "Theory and Applications of Neural Networks for Industrial Control Systems", IEEE Transactions on Industrial Electronics, Vol. 39, pp.472-489, 1992 |
Also Published As
Publication number | Publication date |
---|---|
US11298828B2 (en) | 2022-04-12 |
JPWO2019087357A1 (ja) | 2019-11-14 |
US20200238526A1 (en) | 2020-07-30 |
KR20200042952A (ko) | 2020-04-24 |
CN111278613B (zh) | 2022-10-04 |
TW201918347A (zh) | 2019-05-16 |
WO2019087357A1 (ja) | 2019-05-09 |
DE112017008018T5 (de) | 2020-07-16 |
CN111278613A (zh) | 2020-06-12 |
JP6456555B1 (ja) | 2019-01-23 |
DE112017008018B4 (de) | 2021-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI654058B (zh) | 校正裝置、校正方法及控制裝置 | |
US11235461B2 (en) | Controller and machine learning device | |
JP6430986B2 (ja) | ロボットを用いた位置決め装置 | |
JP6659096B2 (ja) | ロボット装置の制御方法、およびロボット装置 | |
US9517563B2 (en) | Robot system using visual feedback | |
CN114450131B (zh) | 机器人系统的无导数模型学习系统及设计 | |
Cheah et al. | Adaptive vision and force tracking control for robots with constraint uncertainty | |
JP5618066B2 (ja) | 力制御ロボットのキャリブレーション装置と方法 | |
JP5730614B2 (ja) | トルクセンサ校正装置、校正方法、及びプログラム | |
CN110770664A (zh) | 一种导航路径跟踪控制方法、设备、移动机器人及系统 | |
JP5593899B2 (ja) | ロボットによるバリ除去方法 | |
CN112720460A (zh) | 机器人控制方法、装置、计算机可读存储介质及机器人 | |
CN113910244B (zh) | 用于神经外科的基于力矩前馈的机械臂拖动混合控制方法 | |
Zhang et al. | Time delay compensation of a robotic arm based on multiple sensors for indirect teaching | |
Lippiello et al. | Robot interaction control using force and vision | |
Cheah et al. | Adaptive Jacobian motion and force tracking control for constrained robots with uncertainties | |
US20190054619A1 (en) | Operating a hand-guided robot | |
US20190389052A1 (en) | Control apparatus, robot, and robot system | |
Lippiello et al. | Robot force/position control with force and visual feedback | |
JP2021192944A (ja) | ロボットシステム、制御装置、及び制御方法 | |
JP7441335B2 (ja) | 動作生成装置、ロボットシステム、動作生成方法及び動作生成プログラム | |
Zhang et al. | Online robot auto-calibration using IMU with CMAC and EKF | |
US20220301209A1 (en) | Device and method for training a neural network for controlling a robot | |
Alkkiomaki et al. | Multi-modal force/vision sensor fusion in 6-DOF pose tracking | |
CN118493373A (zh) | 基于神经动力学的冗余度机械臂自适应控制方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | Annulment or lapse of patent due to non-payment of fees |