TW202233368A - 教示裝置 - Google Patents
教示裝置 Download PDFInfo
- Publication number
- TW202233368A TW202233368A TW111102938A TW111102938A TW202233368A TW 202233368 A TW202233368 A TW 202233368A TW 111102938 A TW111102938 A TW 111102938A TW 111102938 A TW111102938 A TW 111102938A TW 202233368 A TW202233368 A TW 202233368A
- Authority
- TW
- Taiwan
- Prior art keywords
- force sensor
- robot
- virtual image
- virtual
- image
- Prior art date
Links
- 238000010586 diagram Methods 0.000 description 18
- 230000003190 augmentative effect Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 6
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000000034 method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000013024 troubleshooting Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39451—Augmented reality for robot programming
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39529—Force, torque sensor in wrist, end effector
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40586—6-DOF force sensor
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
一種教示裝置(30),其具備:設定資訊記憶部(301),其記憶設定資訊,前述設定資訊定義力感測器對於設定在機器人的座標系統的位置及姿勢;及虛擬圖像重疊顯示部(304),其將虛擬的圖像重疊於真實空間或虛擬空間而顯示,以讓表示力感測器的虛擬的圖像,於包含機器人或支撐力感測器的預定物體的真實空間,或於包含機器人的模型或預定物體的模型的虛擬空間中,成為按照設定資訊的位置及姿勢。
Description
發明領域
本發明是關於一種教示裝置。
發明背景
以機器人進行精密的嵌合或齒輪的輪齒嚙合、使工件的面對齊的作業等時,經常使用力感測器。於此類作業中,藉由搭載於機器人的力感測器檢測作業中的力或力矩,並進行控制以使檢測到的力或力矩成為預定值。執行此類力控制的機器人系統的一例記載於專利文獻1。
先行技術文獻
專利文獻
專利文獻1:日本專利第5338297號公報
發明概要
發明欲解決之課題
於使用如上述的力感測器的機器人系統中,力感測器的位置資訊是作為機器人控制裝置或教示裝置的內部資料而持有,使用者或教示者有時難以確認力感測器的位置資訊(位置或姿勢)是否正確設定。又,若力感測器的位置資訊設定錯誤,力控制可能不會正確動作,機器人未正確動作時之原因調查(故障排除)是需要高等知識的困難作業。
用以解決課題之手段
本揭示的一態樣是一種教示裝置,其具備:設定資訊記憶部,其記憶設定資訊,前述設定資訊定義力感測器對於設定在機器人的座標系統的位置及姿勢;及虛擬圖像重疊顯示部,其將虛擬的圖像重疊於真實空間或虛擬空間而顯示,以讓表示前述力感測器的前述虛擬的圖像,於包含前述機器人或支撐前述力感測器的預定物體的前述真實空間,或於包含前述機器人的模型或前述預定物體的模型的前述虛擬空間中,成為按照前述設定資訊的位置及姿勢。
發明效果
若依據上述構成,從疊合於真實空間或虛擬空間而顯示的力感測器的虛擬的圖像,使用者可於力感測器的設定位置/姿勢有錯誤時,在視覺上迅速且容易地掌握該狀況。
由附圖所示之本發明的典型實施形態的詳細說明,本發明的這些目的、特徵及優點,以及其他目的、特徵及優點應可變得更明確。
用以實施發明之形態
接著,參考圖式來說明本揭示的實施形態。於參考的圖式中,對同樣的構成部分或功能部分附上同樣的參考符號。為了易於理解,適當變更這些圖式的比例尺。又,圖式所示的形態是用以實施本發明的一例,本發明不限定於圖示的形態。
第1實施形態
圖1是表示第1實施形態的包含教示裝置30的機器人系統100的機器構成的圖。機器人系統100包含機器人10、控制機器人10的機器人控制裝置50、及用以進行機器人10的教示(程式編寫)的教示裝置30。
機器人10搭載力感測器21,構成為可執行利用力控制的各種作業(嵌合、按壓、相位調整、研磨、去毛邊等)。力感測器21是例如像圖1中以圓圈標記圍起的放大圖所示一樣,透過托架15安裝於機器人10的臂前端部的凸緣11。於圖1,作為例示表示在力感測器21的前端側安裝有手部41的構成。於此構成,例如可令機器人10,執行將以手部41握持的工件W嵌入於對象工件(不圖示)的嵌合孔的嵌合作業。
由於力感測器21的輸出值(力/力矩)是作為如圖2所示之力感測器21的座標系統201之值輸出,因此於機器人控制裝置50內,為了求出力的作用點的力/力矩,必須將力感測器21的輸出值轉換成設定在機器人10的座標系統下之值。再者,設定在機器人10的座標系統可能是設定在機器人10的基部的機器人座標系統101、或設定在凸緣面的凸緣座標系統102等(參考圖2)。
為了將力感測器21的輸出值轉換成設定在機器人10的座標系統下之值,機器人系統100將定義力感測器21的座標系統201與設定在機器人10的座標系統之間的關係的設定資訊,作為內部資料而保有。定義力感測器21的座標系統201與設定在機器人10的座標系統之間的關係的設定資訊是例如像下述一樣,設定為以設定在機器人10的座標系統作為基準之力感測器21(座標系統201)的位置/姿勢。
力感測器位置資訊(設定資訊)=(x1,y1,z1,th1,th2,th3)
於此,x1、y1、z1是機器人10的座標系統中之力感測器21的X、Y、Z座標,th1、th2、th3分別是機器人10的座標系統中之繞著X軸、Y軸、Z軸的力感測器21的旋轉角度。
力感測器21的位置資訊是例如透過教示裝置30的設定值輸入用的介面來設定/輸入,並反映於機器人控制裝置50。此類力感測器21的位置資訊有錯誤時,機器人10可能無法按預期動作,但由於機器人10的動作設定極為複雜,因此使用者一般難以調查其原因(力感測器的位置資訊有錯誤)。有鑑於此,如以下所說明,本實施形態的教示裝置30根據定義力感測器的位置/姿勢的設定資訊,將表示力感測器的虛擬圖像重疊顯示於虛擬空間或真實空間,藉此可於設定資訊有錯誤時,讓使用者在視覺上迅速且容易地掌握該狀況。
圖3是表示機器人控制裝置50及教示裝置30的硬體構成例之圖。如圖3所示,機器人控制裝置50亦可具有對於處理器51透過匯流排連接記憶體52(ROM、RAM、非揮發性記憶體等)、輸出入介面53、包含各種操作開關的操作部54等之一般電腦的構成。教示裝置30亦可具有對於處理器31透過匯流排連接記憶體32(ROM、RAM、非揮發性記憶體等)、顯示部(顯示器)33、由鍵盤(或軟體鍵盤)等輸入裝置所構成的操作部34、輸出入介面35等之一般電腦的構成。本實施形態的教示裝置30亦可進一步具有照相機36及慣性感測器37。作為一例,照相機36是拍攝二維圖像的照相機,但亦可使用其他類型的照相機(立體照相機等)。慣性感測器37是用以藉由里程計(odometry)技術來進行位置推定的感測器(陀螺儀、加速度感測器等)。
教示裝置30是藉由有線或無線而與機器人控制裝置50連接。於此,教示裝置30雖是平板型終端,但作為教示裝置30可使用教示操作盤、智慧手機、個人電腦等各種資訊處理裝置。
圖4表示機器人控制裝置50及教示裝置30的功能方塊圖。如圖4所示,機器人控制裝置50具備:記憶部501,其記憶機器人的動作程式及關於座標系統的設定的其他各種設定資訊;及動作控制部502,其根據動作程式及各種設定資訊,來控制機器人的動作。動作控制部502根據力感測器21的檢測值執行力控制。又,動作控制部502因應來自教示裝置30的要求,將機器人10(機器人的控制部位)的位置/姿勢資訊、或教示裝置30執行其功能時所需要的資訊提供給教示裝置30。
教示裝置30具備:設定資訊記憶部301,其記憶力感測器的位置資訊(設定資訊);模型資料記憶部302,其記憶構成機器人系統100的各物體的3D模型或力感測器21的虛擬圖像的資料;照相機位置姿勢推定部303,其推定照相機36的位置姿勢;及虛擬圖像重疊顯示部304。設定資訊記憶部301是由非揮發性記憶體構成,或是在RAM內構成的暫時性緩衝區均可。再者,設定資訊記憶部301亦可記憶關於機器人10的設定的其他各種資訊。
虛擬圖像重疊顯示部304具有將表示力感測器21的虛擬圖像重疊於真實空間或虛擬空間而顯示,以讓表示力感測器21的虛擬圖像,於包含機器人10或支撐力感測器21的預定物體的真實空間,或於包含機器人10的模型或預定物體的模型的虛擬空間中,成為按照設定資訊的位置及姿勢的功能。因此,虛擬圖像重疊顯示部304構成為具備擴增實境圖像處理部305或虛擬實境圖像處理部306,前述擴增實境圖像處理部305具有進行擴增實境圖像的生成的功能,前述虛擬實境圖像處理部306具有進行虛擬實境圖像的生成的功能。
作為一例,照相機位置姿勢推定部303藉由如下程序,求出固定在機器人10的作業空間的座標系統(以下將該座標系統設為機器人座標系統101)中之照相機36(教示裝置30)的位置姿勢,進行固定在作業空間的座標系統(機器人座標系統101)中之照相機36(教示裝置30)的位置/姿勢的追蹤。
(A1)照相機位置姿勢推定部303從機器人控制裝置50或教示裝置30內的記憶部,取得作業空間(機器人座標系統101)中之機器人10的配置位置。
(A2)照相機位置姿勢推定部303例如以照相機36,拍攝貼附於機器人10的基部的視覺標誌(催促使用者拍攝視覺標誌)。視覺標誌是例如該領域為人所知的標誌,其具有可從拍攝到視覺標誌的二維圖像測量照相機的位置/姿勢的視覺圖案。
(A3)照相機位置姿勢推定部303藉由將拍攝到視覺標誌的圖像進行圖像處理,來掌握照相機36(教示裝置30)在機器人座標系統中的位置/姿勢,並將照相機36的位置/姿勢登錄於機器人座標系統101。
(A4)之後,照相機位置姿勢推定部303根據慣性感測器37的輸出值,藉由里程計技術來求出照相機36(教示裝置30)的移動,持續地更新機器人座標系統101中的照相機36(教示裝置30)的位置/姿勢。
擴增實境圖像處理部305具有根據從照相機位置姿勢推定部303取得的照相機36(教示裝置30)的位置/姿勢,在以照相機36拍攝到的圖像(影像)上,以按照力感測器21的位置資訊(設定資訊)的位置/姿勢,來重疊顯示力感測器21的虛擬圖像的功能。
虛擬實境圖像處理部306具有將構成機器人系統100的各物體的模型,根據實際的配置位置資訊配置於虛擬空間內,或於該虛擬空間內,以按照力感測器21的位置資訊(設定資訊)的位置/姿勢,來重疊力感測器21的虛擬圖像的功能。
於以下,以2例來說明虛擬圖像重疊顯示部304按照力感測器21的位置資訊(設定資訊),來顯示力感測器21的虛擬圖像之例。再者,於以下的顯示例,力感測器21的位置資訊(設定資訊)是作為對於凸緣座標系統102的位置資訊而設定,前述凸緣座標系統102設定在機器人10。
(顯示例1)
於顯示例1,如圖5A所示,力感測器21是以力感測器21的中心軸與凸緣11的中心軸一致的方式,透過托架15安裝於凸緣面。亦即,凸緣座標系統102的Z軸與力感測器21的座標系統的Z軸一致。此情況下,力感測器21的位置資訊(設定資訊)只要設定(0,0,dz,0,0,0)來作為機器人10的凸緣座標系統102上之值即可。
於此,假設力感測器21的位置資訊(設定資訊)誤設為(dx,dy,dz2,0,0,0),dx≠0、dy≠0、dz2≠dz。此時,機器人控制裝置50認定力感測器21位於例如如圖5B所示的位置,求出力的作用點的力或力矩。教示裝置30的虛擬圖像重疊顯示部304是如圖6所示,在以教示裝置30的照相機36拍攝了機器人10的圖像上,以按照力感測器21的位置資訊(dx,dy,dz2,0,0,0)的位置/姿勢,顯示力感測器21的虛擬圖像(3D模型)21M。此類擴增實境圖像的顯示是由擴增實境圖像處理部305負責該功能。
如此,於拍到機器人10的真實空間的圖像,力感測器21的虛擬圖像21M是以按照其設定資訊的位置/姿勢而顯示於顯示部33,藉此使用者可從顯示畫面上的機器人10與虛擬圖像21M的位置對比,或從顯示畫面上的力感測器21的實物與虛擬圖像21M的位置對比,瞬間掌握力感測器21的位置資訊(設定資訊)的錯誤。
再者,如圖6所示,除了力感測器21的虛擬圖像21M,亦可按照力感測器21的位置資訊(設定資訊)來重疊顯示表示力感測器21的座標系統201的圖像。此時,視覺上容易辨識力感測器21的位置資訊(設定資訊)的方向(姿勢),可更精準地在視覺上辨識設定資訊的錯誤。或者,亦可不重疊顯示力感測器21的虛擬圖像21M,而是將表示力感測器21的座標系統201的圖像作為力感測器21的虛擬圖像而重疊顯示。
(顯示例2)
如圖7A所示,顯示例2是透過圖中具有橫向較長的形狀的托架15A,將力感測器21安裝於凸緣11時之例。此時,力感測器21的中心軸不與凸緣11的中心軸一致,力感測器21往圖中橫向(Y軸方向)偏移而安裝於托架15A。於本例,力感測器21的位置資訊(設定資訊)只要設定(Dx,Dy,Dz,0,0,0)來作為機器人10的凸緣座標系統102上之值即可。
於此,假設力感測器21的位置資訊(設定資訊)誤設為(Dx2,Dy2,Dz2,th1,th2,th3),Dx2≠Dx、Dy2≠Dy、Dz2≠Dz、th1≠0、th2≠0、th3≠0。此時,機器人控制裝置50認定力感測器21位於例如如圖7B所示的位置,求出力的作用點的力或力矩。教示裝置30的虛擬圖像重疊顯示部304(擴增實境圖像處理部305)是如圖8所示,在以教示裝置30的照相機36拍攝了機器人10的圖像上,以按照力感測器21的位置資訊(Dx2,Dy2,Dz2,th1,th2,th3)的位置/姿勢,來顯示力感測器21的虛擬圖像(3D模型)21M。
如此,於拍到機器人10的真實空間的圖像,力感測器21的虛擬圖像21M是以按照其設定資訊的位置/姿勢而顯示於顯示部33,藉此使用者可從機器人10(或托架15A)與虛擬圖像21M的位置對比,或從力感測器21的實物與虛擬圖像21M的位置對比,瞬間掌握力感測器21的位置資訊(設定資訊)的錯誤。
再者,如圖8所示,除了力感測器21的虛擬圖像21M,亦可按照力感測器21的位置資訊(設定資訊)來重疊顯示表示力感測器21的座標系統201的圖像。此時,視覺上容易辨識力感測器21的位置資訊(設定資訊)的方向(姿勢),可更精準地在視覺上辨識設定資訊的錯誤。或者,亦可不重疊顯示力感測器21的虛擬圖像21M,而是將表示力感測器21的座標系統201的圖像作為力感測器21的虛擬圖像而重疊顯示。
上述顯示例1及顯示例2是利用將力感測器21的虛擬圖像21M重疊於真實空間的圖像而顯示的擴增實境之例,但教示裝置30亦可將如圖6或圖8所示之圖像,以利用虛擬實境的圖像來顯示。此類利用虛擬實境的顯示是由虛擬實境圖像處理部306負責該功能。此時,虛擬實境圖像處理部306生成根據實際的配置資訊將構成機器人系統100的各物體配置於虛擬空間的圖像。然後,虛擬實境圖像處理部306使力感測器21的虛擬圖像21M成為按照力感測器21的位置資訊(設定資訊)的位置/姿勢,並在虛擬空間內重疊顯示虛擬圖像21M。此時,使用者仍可從機器人10的模型(或托架的模型)與虛擬圖像21M的位置對比,瞬間掌握力感測器21的位置資訊(設定資訊)的錯誤。
再者,生成利用虛擬實境的圖像時之視點的位置可採用由照相機位置姿勢推定部303得到的照相機位置,或是視點位置亦可固定於作業空間內的任意位置。將視點位置固定於作業空間內的任意位置時,教示裝置30亦可省略照相機36、慣性感測器37、照相機位置姿勢推定部303。
第2實施形態
與上述第1實施形態比較,第2實施形態是力感測器的配置位置不同時之例。圖9是表示第2實施形態的機器人系統100A的構成的圖。於第1實施形態,力感測器22是搭載於機器人10,但於第2實施形態,力感測器22是透過台座82安裝於作業台81上。亦即,於第1實施形態,支撐力感測器21的物體是機器人10,但於第2實施形態,支撐力感測器22的物體是作業台81(或台座82)。
如圖9所示,機器人系統100A包含機器人10、機器人控制裝置50及教示裝置30。機器人控制裝置50及教示裝置30的功能與第1實施形態相同。於機器人10的臂前端部的凸緣11安裝有手部41。手部41握持工件W1。機器人10執行將工件W1嵌入於工件W2上的嵌合孔的作業,前述工件W2是透過力感測器22固定於作業台81。
透過台座82將力感測器22安裝於作業台81上時,力感測器22的位置資訊(設定資訊)是設定為例如機器人座標系統101中的座標位置/姿勢。於此,作為一例,假設力感測器22原本的位置姿勢為(x1,y1,z1,0,0,0)。於此,力感測器22的位置資訊(設定資訊)誤設為(x2,y2,z2,th1,th2,th3),x2≠x1、y2≠y1、z2≠z1、th1≠0、th2≠0、th3≠0。此時,機器人控制裝置50認定力感測器22位於例如如圖10所示的位置,求出力的作用點的力或力矩。教示裝置30的虛擬圖像重疊顯示部304(擴增實境圖像處理部305)是如圖11所示,在以教示裝置30的照相機36拍攝了機器人10的圖像上,以按照力感測器22的位置資訊(x2,y2,z2,th1,th2,th3)的位置/姿勢,來顯示力感測器22的虛擬圖像(3D模型)22M。
如此,於拍到支撐力感測器22的預定物體即作業台81(或台座82)、機器人10等之真實空間的圖像,力感測器22的虛擬圖像22M是以按照其設定資訊的位置/姿勢而重疊顯示,藉此使用者可從顯示畫面上的作業台81(或台座82)與虛擬圖像22M的位置對比,或從顯示畫面上的力感測器22的實物與虛擬圖像22M的位置對比,瞬間掌握力感測器22的位置資訊(設定資訊)的錯誤。
再者,如圖11所示,除了力感測器22的虛擬圖像22M,亦可重疊顯示表示力感測器22的座標系統201的圖像。此時,視覺上容易辨識力感測器22的位置資訊(設定資訊)的方向(姿勢),可更精準地在視覺上辨識設定資訊的錯誤。或者,亦可不重疊顯示力感測器22的虛擬圖像22M,而是將表示力感測器22的座標系統201的圖像作為力感測器22的虛擬圖像而重疊顯示。
上述顯示例是利用將力感測器21的虛擬圖像22M重疊於真實空間的圖像而顯示的擴增實境之例,但教示裝置30亦可將如圖11所示之圖像,以利用虛擬實境的圖像來顯示。此時,虛擬實境圖像處理部306生成根據實際的配置資訊將構成機器人系統100A的各物體配置於虛擬空間的圖像。然後,虛擬實境圖像處理部306使力感測器22的虛擬圖像22M成為按照力感測器22的位置資訊(設定資訊)的位置/姿勢,並在虛擬空間內重疊顯示虛擬圖像22M。此時,使用者仍可從支撐力感測器22的預定物體即作業台81的模型(或台座82的模型)與虛擬圖像22M的位置對比,瞬間掌握力感測器22的位置資訊(設定資訊)的錯誤。
如以上所說明,若依據各實施形態,從疊合於真實空間或虛擬空間而顯示的力感測器的虛擬的圖像,使用者可於力感測器的設定位置/姿勢有錯誤時,在視覺上迅速且容易地掌握該狀況。
再者,於上述第1實施形態及第2實施形態,作為力感測器的虛擬圖像例,表示了力感測器的3D模型或力感測器的座標系統,但力感測器的虛擬圖像可能有各種形態。於此,參考圖12來表示力感測器的虛擬圖像的其他例。圖12所示之力感測器的虛擬圖像23M是具有不對稱性的虛擬圖像的例示。藉由使力感測器的虛擬圖像具有不對稱性,尤其可容易辨識姿勢設定的錯誤。
具體而言,虛擬圖像23M設定為在圓筒狀的主體部24的側面,具有連接器25及連接器安裝部26的形狀。藉此,虛擬圖像23M成為圍繞Z軸亦具有旋轉不對稱性的形狀。藉由如此將力感測器的虛擬圖像23M設為圍繞Z軸亦呈旋轉不對稱的形狀,即使於力感測器的位置資訊(設定資訊)之繞著Z軸的姿勢(角度位置)有錯誤時,從力感測器的虛擬圖像23M仍可容易地辨識該狀況。
再者,於虛擬圖像23M,如圖12所示,亦可形成表示力感測器的座標系統的各軸位置的記號211、212、213。記號211表示為“X-”,其表示相對於設定在中心軸上的原點位置,記號211所在方向為X軸負側。記號212表示為“Y+”,其表示相對於原點位置,記號212所在側為Y軸正方向。記號213是將“Z-”及“Z+”排列成“Z+”配置在下側的顯示記號,中心軸線的下側表示Z軸正側。藉由此類記號211、212、213,可辨識設定在力感測器的座標系統,可更容易辨識虛擬圖像23M的姿勢錯誤。再者,於圖12,圖示了藉由記號211、212、213指定的座標系統201。
以上利用典型的實施形態說明了本發明,但若是熟悉該技藝人士,應可理解可不脫離本發明的範圍而對上述各實施形態進行變更及各種其他的變更、省略、追加。
於上述各實施形態,表示將擴增實境圖像或虛擬實境圖像,顯示於作為平板型終端的教示裝置的顯示裝置之例,但此類擴增實境圖像或虛擬實境圖像亦可顯示於例如頭部穿戴型的顯示裝置。進行利用擴增實境的虛擬圖像的重疊顯示時,亦可使用將虛擬圖像疊合於實境的風景的眼鏡型AR顯示裝置。
圖4所示之教示裝置的功能方塊可藉由教示裝置的處理器執行儲存於記憶裝置的各種軟體來實現,或者亦可藉由以ASIC(Application Specific Integrated Circuit(特殊應用積體電路))等硬體作為主體的構成來實現。
10:機器人
11:凸緣
15,15A:托架
21,22:力感測器
21M,22M,23M:虛擬圖像
24:主體部
25:連接器
26:連接器安裝部
30:教示裝置
31,51:處理器
32,52:記憶體
33:顯示部
34,54:操作部
35,53:輸出入介面
36:照相機
37:慣性感測器
41:手部
50:機器人控制裝置
81:作業台
82:台座
100,100A:機器人系統
101:機器人座標系統
102:凸緣座標系統
201:座標系統
211,212,213:記號
301:設定資訊記憶部
302:模型資料記憶部
303:照相機位置姿勢推定部
304:虛擬圖像重疊顯示部
305:擴增實境圖像處理部
306:虛擬實境圖像處理部
501:記憶部
502:動作控制部
ASIC:特殊應用積體電路
Dy,Dz:值
W,W1,W2:工件
X,Y,Z:軸
圖1是表示第1實施形態的機器人系統的機器構成的圖。
圖2是表示設定在機器人的座標系統及力感測器的座標系統的圖。
圖3是表示機器人控制裝置及教示裝置的硬體構成例的圖。
圖4是表示機器人控制裝置及教示裝置的功能方塊圖。
圖5A是表示力感測器的配置的第1例的圖。
圖5B是用以說明圖5A的力感測器的位置資訊有錯誤時之圖。
圖6是表示在圖5A的力感測器的位置資訊有錯誤時,將力感測器的虛擬圖像重疊於真實空間或虛擬空間的狀態的圖像的圖。
圖7A是表示力感測器的配置的第2例的圖。
圖7B是用以說明圖7A的力感測器的位置資訊有錯誤時之圖。
圖8是表示在圖7A的力感測器的位置資訊有錯誤時,將力感測器的虛擬圖像重疊於真實空間或虛擬空間的狀態的圖像的圖。
圖9是表示第2實施形態的機器人系統的機器構成的圖。
圖10是用以說明於圖10的機器人系統中力感測器的位置資訊有錯誤時之圖。
圖11是表示在圖10的機器人系統的力感測器的位置資訊有錯誤時,將力感測器的虛擬圖像重疊於真實空間或虛擬空間的狀態的圖像的圖。
圖12是表示具有關於力感測器的不對稱性的虛擬圖像例的圖。
10:機器人
21:力感測器
30:教示裝置
33:顯示部
36:照相機
37:慣性感測器
50:機器人控制裝置
301:設定資訊記憶部
302:模型資料記憶部
303:照相機位置姿勢推定部
304:虛擬圖像重疊顯示部
305:擴增實境圖像處理部
306:虛擬實境圖像處理部
501:記憶部
502:動作控制部
Claims (5)
- 一種教示裝置,其具備: 設定資訊記憶部,其記憶設定資訊,前述設定資訊定義力感測器對於設定在機器人的座標系統的位置及姿勢;及 虛擬圖像重疊顯示部,其將虛擬的圖像重疊於真實空間或虛擬空間而顯示,以讓表示前述力感測器的前述虛擬的圖像,於包含前述機器人或支撐前述力感測器的預定物體的前述真實空間,或於包含前述機器人的模型或前述預定物體的模型的前述虛擬空間中,成為按照前述設定資訊的位置及姿勢。
- 如請求項1之教示裝置,其中前述虛擬的圖像是前述力感測器的3D模型的圖像。
- 如請求項1或2之教示裝置,其中前述虛擬的圖像具有不對稱性。
- 如請求項3之教示裝置,其中前述虛擬的圖像是圍繞設定在前述力感測器的座標系統的預定的座標軸呈旋轉不對稱。
- 如請求項1至4中任一項之教示裝置,其中前述虛擬的圖像具有表示設定在前述力感測器的座標系統的圖像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021-024527 | 2021-02-18 | ||
JP2021024527 | 2021-02-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW202233368A true TW202233368A (zh) | 2022-09-01 |
Family
ID=82932256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111102938A TW202233368A (zh) | 2021-02-18 | 2022-01-24 | 教示裝置 |
Country Status (5)
Country | Link |
---|---|
JP (1) | JPWO2022176928A1 (zh) |
CN (1) | CN116867619A (zh) |
DE (1) | DE112022000381T5 (zh) |
TW (1) | TW202233368A (zh) |
WO (1) | WO2022176928A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024009767A1 (ja) * | 2022-07-08 | 2024-01-11 | ソニーグループ株式会社 | キャリブレーション実行装置、キャリブレーション・システム、および方法、並びにプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5338297B2 (ja) | 2008-12-19 | 2013-11-13 | 株式会社安川電機 | ロボットの制御装置 |
JP6420229B2 (ja) * | 2015-12-10 | 2018-11-07 | ファナック株式会社 | 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム |
JP7155664B2 (ja) * | 2017-10-31 | 2022-10-19 | セイコーエプソン株式会社 | シミュレーション装置、制御装置およびロボット |
JP2020123049A (ja) * | 2019-01-29 | 2020-08-13 | セイコーエプソン株式会社 | 寸法単位設定方法、情報処理装置、及びロボットシステム |
-
2022
- 2022-01-24 TW TW111102938A patent/TW202233368A/zh unknown
- 2022-02-16 CN CN202280014336.6A patent/CN116867619A/zh active Pending
- 2022-02-16 DE DE112022000381.2T patent/DE112022000381T5/de active Pending
- 2022-02-16 JP JP2023500910A patent/JPWO2022176928A1/ja active Pending
- 2022-02-16 WO PCT/JP2022/006253 patent/WO2022176928A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JPWO2022176928A1 (zh) | 2022-08-25 |
DE112022000381T5 (de) | 2023-09-28 |
WO2022176928A1 (ja) | 2022-08-25 |
CN116867619A (zh) | 2023-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11565427B2 (en) | Robot system | |
JP6420229B2 (ja) | 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム | |
CN107428009B (zh) | 用于工业机器人调试的方法、使用该方法的工业机器人系统和控制系统 | |
US11173601B2 (en) | Teaching device for performing robot teaching operations and teaching method | |
US9519736B2 (en) | Data generation device for vision sensor and detection simulation system | |
Lambrecht et al. | Spatial programming for industrial robots based on gestures and augmented reality | |
JP2020055075A (ja) | 拡張現実と複合現実を用いたロボット制御装置及び表示装置 | |
JP6445092B2 (ja) | ロボットの教示のための情報を表示するロボットシステム | |
JP2015150636A (ja) | ビジュアルフィードバックを利用したロボットシステム | |
JP2016000442A (ja) | ロボット、ロボットシステム及び制御装置 | |
JP6589604B2 (ja) | ティーチング結果表示システム | |
JP2009248214A (ja) | 画像処理装置、およびロボット制御システム | |
JP4613955B2 (ja) | 回転軸線算出方法、プログラムの作成方法、動作方法およびロボット装置 | |
JP2009269134A (ja) | 視覚検査装置のシミュレーション装置 | |
TW202233368A (zh) | 教示裝置 | |
JP2006026790A (ja) | 教示モデル生成装置 | |
JP2010112731A (ja) | ロボットの座標の結合方法 | |
JP7517803B2 (ja) | ロボット教示システム、画像生成方法、及びプログラム | |
JP6549066B2 (ja) | 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム | |
JP7439410B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
TW202218836A (zh) | 機器人控制裝置及機器人系統 | |
JP2022163836A (ja) | ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システム | |
CN110900606B (zh) | 一种基于小型机械臂手眼联动系统及其控制方法 | |
JPH1177568A (ja) | 教示支援方法及び装置 | |
JP6939003B2 (ja) | ロボットシステム |