TW202305749A - 模擬裝置 - Google Patents
模擬裝置 Download PDFInfo
- Publication number
- TW202305749A TW202305749A TW111124991A TW111124991A TW202305749A TW 202305749 A TW202305749 A TW 202305749A TW 111124991 A TW111124991 A TW 111124991A TW 111124991 A TW111124991 A TW 111124991A TW 202305749 A TW202305749 A TW 202305749A
- Authority
- TW
- Taiwan
- Prior art keywords
- sensor model
- model
- visual sensor
- measurement
- unit
- Prior art date
Links
- 238000004088 simulation Methods 0.000 title claims abstract description 53
- 230000000007 visual effect Effects 0.000 claims abstract description 234
- 238000005259 measurement Methods 0.000 claims abstract description 181
- 238000003384 imaging method Methods 0.000 claims abstract description 31
- 230000004438 eyesight Effects 0.000 claims description 44
- 238000006243 chemical reaction Methods 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 claims description 4
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 36
- 238000000034 method Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 23
- 230000004044 response Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000016776 visual perception Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40323—Modeling robot environment for sensor based robot system
Abstract
[摘要]提供一種模擬裝置,其可效率良好地進行視覺感測器模型的位置調整。模擬裝置具備:虛擬空間製作部,其製作三維地表現了作業空間的虛擬空間;計測對象物模型配置部,其將三維地表現了計測對象物的計測對象物模型配置於前述虛擬空間內;計測處指定部,其於前述計測對象物模型指定計測處;視覺感測器模型配置部,其將視覺感測器模型配置於任意的視覺感測器模型位置,前述視覺感測器模型三維地表現了拍攝前述計測對象物的視覺感測器;及位置決定部,其根據前述計測處的位置,將包含於前述視覺感測器模型的圖像尺寸內之前述視覺感測器模型位置,決定為前述視覺感測器模型的配置位置。
Description
發明領域
本發明是關於一種模擬裝置。
發明背景
以往提案一種技術,其模擬藉由機器人模型來對計測對象物模型進行作業的動作(參考例如專利文獻1)。專利文獻1所記載之模擬裝置是於三維地表現了作業空間的虛擬空間內,配置機器人的機器人模型、視覺感測器的視覺感測器模型及計測對象物的計測對象物模型,藉由視覺感測器模型計測計測對象物模型,模擬藉由機器人模型來對計測對象物模型進行作業的動作。
先行技術文獻
專利文獻
專利文獻1:日本特開2008-21092號公報
發明概要
發明欲解決之課題
在以往技術中,可於虛擬空間內,藉由視覺感測器模型計測計測對象物模型,進行機器人模型對計測對象物模型進行作業的模擬。然而,作業者必須一面觀看由視覺感測器模型拍攝計測對象物模型之圖像,一面決定視覺感測器模型的適當的位置。因此,具有視覺感測器模型的位置調整上耗費人力及時間的課題。
故,尋求可效率良好地進行視覺感測器模型之位置調整的模擬裝置。
用以解決課題之手段
本揭示之一態樣的模擬裝置具備:虛擬空間製作部,其製作三維地表現了作業空間的虛擬空間;計測對象物模型配置部,其將三維地表現了計測對象物的計測對象物模型配置於前述虛擬空間內;計測處指定部,其於前述計測對象物模型指定計測處;視覺感測器模型配置部,其將視覺感測器模型配置於任意的視覺感測器模型位置,前述視覺感測器模型三維地表現了拍攝前述計測對象物的視覺感測器;及位置決定部,其根據前述計測處的位置,將包含於前述視覺感測器模型的圖像尺寸內之前述視覺感測器模型位置,決定為前述視覺感測器模型的配置位置。
本揭示之一態樣的模擬裝置具備控制部,前述控制部執行以下功能:於三維地表現了作業空間的虛擬空間中,於三維地表現了計測對象物的計測對象物模型指定計測處,受理用以將視覺感測器模型配置於任意的視覺感測器模型位置之輸入操作,並受理用以將包含於前述視覺感測器模型的圖像尺寸內之前述視覺感測器模型位置,決定為前述視覺感測器模型的配置位置之輸入操作,前述視覺感測器模型三維地表現了拍攝前述計測對象物的視覺感測器。
發明效果
若依據本發明,可效率良好地進行視覺感測器模型的位置調整。
用以實施發明之形態
以下說明本發明的實施形態的一例。
圖1是表示本實施形態的模擬裝置1的構成的方塊圖。如圖1所示,模擬裝置1具備控制部11、記憶部12、顯示部13及操作部14。
控制部11是CPU(Central Processing Unit(中央處理器))等處理器,藉由執行記憶於記憶部12的程式來實現各種功能。
記憶部12是儲存OS(Operating System(作業系統))或應用程式等之ROM(Read Only Memory(唯讀記憶體))、RAM(Random Access Memory(隨機存取記憶體))、儲存其他各種資訊的硬碟驅動機或SSD(Solid State Drive(固態硬碟))等記憶裝置。
顯示部13是以LCD(Liquid Crystal Displa(液晶顯示器))、CRT(Cathode Ray Tube(陰極射線管))等來構成,顯示各種圖像。
操作部14是以滑鼠、鍵盤等來構成,受理各種輸入。
控制部11具備虛擬空間製作部111、計測對象物模型配置部112、機器人模型配置部113、計測處指定部114、視覺感測器模型配置部115、攝像區域指定部116、感測器姿勢指定部117、距離指定部118、位置轉換部119、位置決定部120、機器人姿勢算出部121及模擬執行部122。
虛擬空間製作部111製作三維地表現了作業空間的虛擬空間。
計測對象物模型配置部112將三維地表現了計測對象物的計測對象物模型配置於虛擬空間內。
機器人模型配置部113將三維地表現了機器人的機器人模型配置於虛擬空間內。
計測處指定部114是於計測對象物模型指定1個以上的計測處。計測處指定部114是例如按照操作部14的操作,於計測對象物模型指定1個以上之任意的計測處。
視覺感測器模型配置部115將視覺感測器模型配置於任意的視覺感測器模型位置,前述視覺感測器模型三維地表現了拍攝計測對象物的視覺感測器。視覺感測器模型配置部115可例如按照操作部14的操作,將視覺感測器模型的視覺感測器模型位置變更為任意的位置。
攝像區域指定部116是例如按照操作部14的操作,在視覺感測器模型的圖像尺寸內,指定計測處被視覺感測器模型拍攝的區域。
感測器姿勢指定部117是例如按照操作部14的操作,來指定將視覺感測器模型配置於計測處的上方時之姿勢。
距離指定部118是例如按照操作部14的操作,來指定視覺感測器模型與計測處的距離。
位置轉換部119是於視覺感測器模型位置,將計測處的三維位置,轉換成藉由視覺感測器模型拍攝計測處時之二維位置。
位置決定部120是根據測定處的位置,將包含於視覺感測器模型的圖像尺寸內之視覺感測器模型位置,決定為視覺感測器模型的配置位置。
機器人姿勢算出部121是當視覺感測器模型安裝於機器人模型時,算出在視覺感測器模型位置的機器人模型的姿勢。
模擬執行部122使用機器人模型、視覺感測器模型及計測對象物模型,根據動作程式,來執行機器人模型對計測對象物模型進行作業的模擬。
[第1實施形態]
圖2至圖10是表示第1實施形態的模擬裝置1的處理的圖。圖2是表示第1實施形態的虛擬空間內之機器人模型R1、視覺感測器模型V1及計測對象物模型W1的圖。
如圖2所示,虛擬空間製作部111製作三維地表現了作業空間的虛擬空間。然後,計測對象物模型配置部112將三維地表現了計測對象物的計測對象物模型W1配置於虛擬空間內。計測對象物模型W1亦可為例如被容置於箱體的複數個工件。基準座標系統K表示虛擬空間內之作為基準的座標系統。
又,機器人模型配置部113將三維地表現了機器人的機器人模型R1配置於虛擬空間內。機器人模型座標系統CR1表示機器人模型R1的座標系統。機器人模型R1亦可為例如多關節機器人。
圖3是表示指定計測處M1的處理的圖。如圖3所示,計測處指定部114是於計測對象物模型W1指定計測處M1。在圖3所示之例,計測處指定部114將計測對象物模型W1的上表面指定為計測處M1。
例如計測對象物模型W1為工件時,計測處指定部114藉由以長方體圍住工件全體或工件的一部分來指定計測處M1。又,計測對象物模型W1為籃子或容器(container)時,計測處指定部114藉由選擇計測對象物模型W1的上表面來指定計測處M1。
圖4是表示配置視覺感測器模型V1的處理的圖。如圖4所示,視覺感測器模型配置部115將視覺感測器模型V1,配置於計測處M1上方之1個以上的任意的視覺感測器模型位置。
又,距離指定部118指定視覺感測器模型V1與計測處M1的距離D1。例如距離指定部118按照操作部14的操作,來指定固定的距離或指定距離的範圍,藉此指定距離D1。
圖5是表示指定視覺感測器模型V1的姿勢的處理的圖。如圖5所示,感測器姿勢指定部117指定將視覺感測器模型V1配置於計測處M1的上方時之姿勢。
具體而言,感測器姿勢指定部117是以視覺感測器模型V1的光軸相對於虛擬空間的基準平面(例如虛擬空間的XY平面)呈垂直的姿勢(亦即,圖4的視覺感測器模型V1的姿勢)作為基準,來指定繞著視覺感測器模型座標系統CV1的角度θ1。再者,當無須指定視覺感測器模型V1的姿勢時,亦可省略指定視覺感測器模型V1之姿勢的處理。
圖6及圖7是表示將計測處M1的三維位置P1轉換成二維位置P11的處理的圖。如圖6及圖7所示,計測處M1的三維位置P1是於虛擬空間內的基準座標系統K中表示為座標(X1,Y1,Z1)。
然後,位置轉換部119是於視覺感測器模型V1的視覺感測器模型位置,將計測處M1的三維位置P1(X1,Y1,Z1),轉換成藉由視覺感測器模型V1拍攝計測處M1時之二維位置P11(X11,Y11)。
具體而言,位置轉換部119使用攝像條件,將計測處的三維位置P1,轉換成藉由視覺感測器模型V1拍攝計測處時之二維位置P11,前述攝像條件包含視覺感測器模型V1的視覺感測器模型位置、視覺感測器模型V1之透鏡的焦點距離、視覺感測器模型V1之攝像元件的每1像素(pixel)的長度、視覺感測器模型V1之透鏡的中心位置等。再者,攝像條件亦可包含關於視覺感測器模型V1的其他條件。
又,若藉由視覺感測器模型配置部115將視覺感測器模型V1的視覺感測器模型位置變更為任意的位置,位置轉換部119會於變更後的視覺感測器模型位置,將計測處的三維位置P1(X1,Y1,Z1)轉換成二維位置P11(X11,Y11)。
亦即,模擬裝置1因應由使用者對操作部14所進行之輸入操作,一面變更藉由視覺感測器模型配置部115所配置之視覺感測器模型位置,一面藉由位置轉換部119重複從三維位置P1往二維位置P11的轉換。
進而,如圖6及圖7所示,位置決定部120判定轉換之二維位置P11是否包含於視覺感測器模型V1的圖像尺寸A1內。於圖6所示之例,位置決定部120判定為:轉換之二維位置P11不包含於視覺感測器模型V1的圖像尺寸A1內。另,於圖7所示之例,位置決定部120判定為:轉換之二維位置P11包含於視覺感測器模型V1的圖像尺寸A1內。
圖8及圖9是表示將視覺感測器模型位置決定為視覺感測器模型V1的配置位置的處理的圖。如圖8及圖9所示,位置轉換部119是於視覺感測器模型V1的視覺感測器模型位置,將計測處M1的三維位置P1(X1,Y1,Z1)、P2(X2,Y2,Z2)及P3(X3,Y3,Z3),分別轉換成二維位置P11(X11,Y11)、P21(X21,Y21)及P31(X31,Y31)。
再者,於圖8及圖9所示之例,位置轉換部119雖將3個三維位置P1、P2及P3分別轉換成二維位置P11、P21及P31,但三維位置的數目不限定於此。
位置決定部120判定轉換之二維位置P11、P21及P31是否包含於視覺感測器模型V1的圖像尺寸A1內。於圖8所示之例,位置決定部120判定為:轉換之全部的二維位置P11、P21及P31包含於視覺感測器模型V1的圖像尺寸A1內。
然後,位置決定部120將全部的二維位置P11、P21及P31都包含於視覺感測器模型V1的圖像尺寸A1內之視覺感測器模型位置,決定為視覺感測器模型V1的配置位置。
在此,當全部的二維位置P11、P21及P31都包含於視覺感測器模型V1的圖像尺寸A1內之視覺感測器模型的位置存在有複數個時,位置決定部120將計測處M1在視覺感測器模型V1的圖像中拍起來最大的位置,決定為視覺感測器模型V1的配置位置。
又,如圖9所示,攝像區域指定部116是在視覺感測器模型V1的圖像尺寸A1內,指定計測處M1被視覺感測器模型V1拍攝的攝像區域A2。然後,當計測處M1被拍攝為包含於比視覺感測器模型V1之圖像尺寸A1狹窄的攝像區域A2時,位置決定部120將全部的二維位置P11、P21及P31都包含於視覺感測器模型V1的攝像區域A2內之視覺感測器模型位置,決定為視覺感測器模型V1的配置位置。
圖10是表示視覺感測器模型V1安裝於機器人模型R1之例的圖。如圖10所示,當視覺感測器模型V1安裝於機器人模型R1之臂的前端時,機器人姿勢算出部121算出在視覺感測器模型V1的配置位置的機器人模型R1的姿勢。
然後,模擬執行部122使用如上述之機器人模型R1、視覺感測器模型V1、計測對象物模型W1,根據動作程式,來執行機器人模型R1對計測對象物模型W1進行作業的模擬。
[第2實施形態]
圖11至圖19是表示第2實施形態的模擬裝置1的處理的圖。第2實施形態與第1實施形態的不同點是,計測對象物模型W2的計測處M2具有立體的形狀。
圖11是表示第2實施形態的虛擬空間內之機器人模型R2、視覺感測器模型V2及計測對象物模型W2的圖。如圖11所示,虛擬空間製作部111製作三維地表現了作業空間的虛擬空間。然後,計測對象物模型配置部112將三維地表現了計測對象物的計測對象物模型W2配置於虛擬空間內。計測對象物模型W2亦可為例如包含複數個長方體及圓柱等立體的形狀的工件。基準座標系統K表示虛擬空間內之作為基準的座標系統。
又,機器人模型配置部113將三維地表現了機器人的機器人模型R2配置於虛擬空間內。機器人模型座標系統CR2表示機器人模型R2的座標系統。機器人模型R2亦可為例如多關節機器人。
圖12是表示指定計測處M2的處理的圖。如圖12所示,計測處指定部114是於計測對象物模型W2指定計測處M2。在圖12所示之例,計測處指定部114將計測對象物模型W2的全部或一部分指定為計測處M2。
計測處指定部114是例如藉由以長方體圍住計測對象物模型W2的全部或一部分來指定計測處M2。
圖13是表示配置視覺感測器模型V2的處理的圖。如圖13所示,視覺感測器模型配置部115將視覺感測器模型V2,配置於計測處M2上方之1個以上的任意的視覺感測器模型位置。
又,距離指定部118指定視覺感測器模型V2與計測處M2的距離D2。例如距離指定部118按照操作部14的操作,來指定固定的距離或指定距離的範圍,藉此指定距離D2。
圖14是表示指定視覺感測器模型V2的姿勢的處理的圖。如圖14所示,感測器姿勢指定部117指定將視覺感測器模型V2配置於計測處M2的上方時之姿勢。
具體而言,感測器姿勢指定部117是以視覺感測器模型V2的光軸相對於虛擬空間的基準平面(例如虛擬空間的XY平面)呈垂直的姿勢(亦即,圖13的視覺感測器模型V2的姿勢)作為基準,來指定繞著視覺感測器模型座標系統CV2的角度θ2。再者,當無須指定視覺感測器模型V2的姿勢時,亦可省略指定視覺感測器模型V2之姿勢的處理。
圖15及圖16是表示將計測處M2的三維位置P4轉換成二維位置P41的處理的圖。如圖15及圖16所示,計測處M2的三維位置P4是於虛擬空間內的基準座標系統K中表示為座標(X4,Y4,Z4)。
然後,位置轉換部119是於視覺感測器模型V2的視覺感測器模型位置,將計測處M2的三維位置P4(X4,Y4,Z4),轉換成藉由視覺感測器模型V1拍攝計測處M1時之二維位置P41(X41,Y41)。
具體而言,位置轉換部119使用攝像條件,將計測處的三維位置P4,轉換成藉由視覺感測器模型V2拍攝計測處時之二維位置P41,前述攝像條件包含視覺感測器模型V2的視覺感測器模型位置、視覺感測器模型V2之透鏡的焦點距離、視覺感測器模型V2之攝像元件的每1像素的長度、視覺感測器模型V2之透鏡的中心位置等。再者,攝像條件亦可包含關於視覺感測器模型V2的其他條件。
又,若藉由視覺感測器模型配置部115將視覺感測器模型V2的視覺感測器模型位置變更為任意的位置,位置轉換部119會於變更後的視覺感測器模型位置,將計測處的三維位置P4(X4,Y4,Z4)轉換成二維位置P41(X41,Y41)。
亦即,模擬裝置1因應由使用者對操作部14所進行之輸入操作,一面變更藉由視覺感測器模型配置部115所配置之視覺感測器模型位置,一面藉由位置轉換部119重複從三維位置P4往二維位置P41的轉換。
進而,如圖15及圖16所示,位置決定部120判定轉換之二維位置P41是否包含於視覺感測器模型V2的圖像尺寸A3內。於圖15所示之例,位置決定部120判定為:轉換之二維位置P41不包含於視覺感測器模型V2的圖像尺寸A3內。另,於圖16所示之例,位置決定部120判定為:轉換之二維位置P41包含於視覺感測器模型V2的圖像尺寸A3內。
圖17及圖18是表示將視覺感測器模型位置決定為視覺感測器模型V2的配置位置的處理的圖。如圖17及圖18所示,位置轉換部119是於視覺感測器模型V2的視覺感測器模型位置,將計測處M2的三維位置P4(X4,Y4,Z4)、P5(X5,Y5,Z5)及P6(X6,Y6,Z6),分別轉換成二維位置P41(X41,Y41)、P51(X51,Y51)及P61(X61,Y61)。
再者,於圖17及圖18所示之例,位置轉換部119雖將3個三維位置P4、P5及P6分別轉換成二維位置P41、P51及P61,但三維位置的數目不限定於此。
位置決定部120判定轉換之二維位置P41、P51及P61是否包含於視覺感測器模型V2的圖像尺寸A3內。於圖17所示之例,位置決定部120判定為:轉換之全部的二維位置P41、P51及P61包含於視覺感測器模型V2的圖像尺寸A3內。
然後,位置決定部120將全部的二維位置P41、P51及P61都包含於視覺感測器模型V2的圖像尺寸A3內之視覺感測器模型位置,決定為視覺感測器模型V2的配置位置。
在此,當全部的二維位置P41、P51及P61都包含於視覺感測器模型V2的圖像尺寸A3內之視覺感測器模型的位置存在有複數個時,位置決定部120將計測處M2在視覺感測器模型V2的圖像中拍起來最大的位置,決定為視覺感測器模型V2的配置位置。
又,如圖18所示,攝像區域指定部116是在視覺感測器模型V2的圖像尺寸A3內,指定計測處M2被視覺感測器模型拍攝V2拍攝的攝像區域A4。
然後,當計測處M2被拍攝為包含於比視覺感測器模型V2之圖像尺寸A3狹窄的攝像區域A4時,位置決定部120將全部的二維位置P41、P51及P61都包含於視覺感測器模型V2的攝像區域A4內之視覺感測器模型位置,決定為視覺感測器模型V2的配置位置。
圖19是表示視覺感測器模型V2安裝於機器人模型R2之例的圖。如圖19所示,當視覺感測器模型V2安裝於機器人模型R2之臂的前端時,機器人姿勢算出部121算出在視覺感測器模型V2的配置位置的機器人模型R2的姿勢。
然後,模擬執行部122使用如上述之機器人模型R2、視覺感測器模型V2及計測對象物模型W2,根據動作程式,來執行機器人模型R2對計測對象物模型W2進行作業的模擬。
[處理的流程]
圖20是表示在第1實施形態及第2實施形態為共通之模擬裝置1的處理的流程的流程圖。
於步驟S1,虛擬空間製作部111製作三維地表現了作業空間的虛擬空間。
於步驟S2,計測對象物模型配置部112將三維地表現了計測對象物的計測對象物模型配置於虛擬空間內。機器人模型配置部113將三維地表現了機器人的機器人模型配置於虛擬空間內。
於步驟S3,計測處指定部114是於計測對象物模型指定1個以上的計測處。視覺感測器模型配置部115將視覺感測器模型配置於計測處上方之1個以上的任意的視覺感測器模型位置,前述視覺感測器模型三維地表現了拍攝計測對象物的視覺感測器。
於步驟S4,位置轉換部119是於視覺感測器模型位置,將計測處的三維位置,轉換成藉由視覺感測器模型拍攝計測處時之二維位置。
於步驟S5,位置決定部120將全部的二維位置都包含於視覺感測器模型的圖像尺寸內之視覺感測器模型位置,決定為視覺感測器模型的配置位置。
[其他實施形態]
又,其他實施形態的模擬裝置1亦可具備控制部11,前述控制部11按照操作者的操作來執行如下的功能。亦即,控制部11是於三維地表現了作業空間的虛擬空間中,於三維地表現了計測對象物的計測對象物模型,指定1個以上的計測處。
接著,控制部11受理用以將視覺感測器模型,配置於計測處上方之1個以上的任意的視覺感測器模型位置之輸入操作,前述視覺感測器模型三維地表現了拍攝計測對象物的視覺感測器。
進而,控制部11受理用以將包含於視覺感測器模型的圖像尺寸內之視覺感測器模型位置,決定為視覺感測器模型的配置位置之輸入操作。藉此,其他實施形態的模擬裝置1可執行上述第1實施形態及第2實施形態中所說明之處理。
若依據上述實施形態,模擬裝置1具備:虛擬空間製作部111,其製作三維地表現了作業空間的虛擬空間;計測對象物模型配置部112,其將三維地表現了計測對象物的計測對象物模型配置於虛擬空間內;計測處指定部114,其於計測對象物模型指定計測處;視覺感測器模型配置部115,其將視覺感測器模型配置於任意的視覺感測器模型位置,前述視覺感測器模型三維地表現了拍攝計測對象物的視覺感測器;及位置決定部120,其根據計測處的位置,將包含於視覺感測器模型的圖像尺寸內之前述視覺感測器模型位置,決定為視覺感測器模型的配置位置。
藉此,模擬裝置1可自動地決定視覺感測器模型的位置,可刪減視覺感測器模型的位置調整的人力及調整時間,效率良好地進行視覺感測器模型的位置調整。
又,模擬裝置1進一步具備位置轉換部119,前述位置轉換部119是於視覺感測器模型位置,將計測處的三維位置,轉換成藉由視覺感測器模型拍攝計測處時之二維位置,位置決定部120將全部的二維位置都包含於視覺感測器模型的圖像尺寸內之視覺感測器模型位置,決定為視覺感測器模型的配置位置。藉此,模擬裝置1可將能適當地拍攝計測處的視覺感測器模型位置,自動地決定為視覺感測器模型的配置位置。
又,模擬裝置1進一步具備:機器人模型配置部113,其將三維地表現了機器人的機器人模型配置於虛擬空間內;及機器人姿勢算出部121,其當視覺感測器模型安裝於機器人模型時,算出在視覺感測器模型之配置位置的機器人模型的姿勢。藉此,模擬裝置1可使用能適當地拍攝計測處的視覺感測器模型位置,來算出機器人模型的姿勢。
又,模擬裝置1進一步具備攝像區域指定部116,前述攝像區域指定部116是在視覺感測器模型的圖像尺寸內,指定計測處被視覺感測器模型拍攝的攝像區域。藉此,模擬裝置1可指定所需的攝像區域,適當地拍攝計測處。
又,模擬裝置1進一步具備感測器姿勢指定部117,前述感測器姿勢指定部117是指定將視覺感測器模型配置於計測處的上方時之姿勢。藉此,模擬裝置1可指定所需的視覺感測器模型的姿勢,適當地拍攝計測處。
又,模擬裝置1進一步具備距離指定部118,前述距離指定部118指定視覺感測器模型與計測處的距離。藉此,模擬裝置1可指定所需的視覺感測器模型與計測處的距離,適當地拍攝計測處。
又,感測器姿勢指定部117以視覺感測器模型的光軸相對於虛擬空間的基準平面呈垂直的姿勢作為基準,來指定繞著視覺感測器模型的座標系統的角度。藉此,模擬裝置1可指定所需的視覺感測器模型的角度,適當地拍攝計測處。
又,當全部的二維位置都包含於視覺感測器模型的圖像尺寸內之視覺感測器模型的位置存在有複數個時,位置決定部120將計測處在視覺感測器模型的圖像中拍起來最大的位置,決定為視覺感測器模型的配置位置。藉此,模擬裝置1可將最適當的視覺感測器模型位置,自動地決定為視覺感測器模型的配置位置。
又,位置轉換部119使用攝像條件,將計測處的三維位置,轉換成藉由視覺感測器模型拍攝計測處時之二維位置,前述攝像條件包含視覺感測器模型的視覺感測器模型位置、視覺感測器模型之透鏡的焦點距離、視覺感測器模型之攝像元件的每1像素的長度、及視覺感測器模型之透鏡的中心位置。藉此,模擬裝置1可將計測處的三維位置轉換成二維位置。
又,控制部11是於三維地表現了作業空間的虛擬空間中,於三維地表現了計測對象物的計測對象物模型,指定1個以上的計測處。接著,控制部11受理用以將視覺感測器模型,配置於計測處上方之1個以上的任意的視覺感測器模型位置之輸入操作,前述視覺感測器模型三維地表現了拍攝計測對象物的視覺感測器。進而,控制部11受理用以將包含於視覺感測器模型的圖像尺寸內之視覺感測器模型位置,決定為視覺感測器模型的配置位置之輸入操作。
藉此,模擬裝置1可自動地決定視覺感測器模型的位置,可刪減視覺感測器模型的位置調整的人力及調整時間,效率良好地進行視覺感測器模型的位置調整。
以上說明了本發明的實施形態,但上述機器人1可藉由硬體、軟體或該等的組合來實現。又,由上述機器人1所進行的控制方法亦可藉由硬體、軟體或該等的組合來實現。在此,藉由軟體來實現,是意指藉由電腦讀入並執行程式來實現。
程式可利用各種類型的非暫時性電腦可讀取媒體(non-transitory computer readable medium)來儲存並供給至電腦。非暫時性電腦可讀取媒體包含各種類型之具實體的記錄媒體(tangible storage medium)。非暫時性電腦可讀取媒體之例包含磁性記錄媒體(例如硬碟驅動器)、光磁性記錄媒體(例如磁光碟)、CD-ROM(Read Only Memory(唯讀記憶體))、CD-R、CD-R/W、半導體記憶體(例如遮罩唯讀記憶體、PROM(Programmable ROM(可程式化唯讀記憶體))、EPROM(Erasable PROM(可抹除可程式化唯讀記憶體))、快閃記憶體、RAM(random access memory(隨機存取記憶體)))。
又,上述各實施形態雖為本發明較佳的實施形態,但本發明的範圍不是僅限於上述各實施形態,能在不脫離本發明之要旨的範圍內,以施以各種變更的形態來實施。
1:模擬裝置
11:控制部
12:記憶部
13:顯示部
14:操作部
111:虛擬空間製作部
112:計測對象物模型配置部
113:機器人模型配置部
114:計測處指定部
115:視覺感測器模型配置部
116:攝像區域指定部
117:感測器姿勢指定部
118:距離指定部
119:位置轉換部
120:位置決定部
121:機器人姿勢算出部
122:模擬執行部
A1,A3:圖像尺寸
A2,A4:攝像區域
CR1,CR2:機器人模型座標系統
CV1,CV2:視覺感測器模型座標系統
D1,D2:距離
K:基準座標系統
M1,M2:計測處
P1,P2,P3,P4,P5,P6:三維位置
P11,P21,P31,P41,P51,P61:二維位置
R1,R2:機器人模型
S1~S5:步驟
V1,V2:視覺感測器模型
W1,W2:計測對象物模型
X,Y,Z:箭頭
θ1,θ2:角度
圖1是表示本實施形態的模擬裝置的構成的方塊圖。
圖2是表示第1實施形態的虛擬空間內之機器人模型、視覺感測器模型及計測對象物模型的圖。
圖3是表示指定計測處的處理的圖。
圖4是表示配置視覺感測器模型的處理的圖。
圖5是表示指定視覺感測器模型的姿勢的處理的圖。
圖6是表示將計測處的三維位置轉換成二維位置的處理的圖。
圖7是表示將計測處的三維位置轉換成二維位置的處理的圖。
圖8是表示將視覺感測器模型位置決定為視覺感測器模型的配置位置的處理的圖。
圖9是表示將視覺感測器模型位置決定為視覺感測器模型的配置位置的處理的圖。
圖10是表示視覺感測器模型安裝於機器人模型之例的圖。
圖11是表示第2實施形態的虛擬空間內之機器人模型、視覺感測器模型及計測對象物模型的圖。
圖12是表示指定計測處的處理的圖。
圖13是表示配置視覺感測器模型的處理的圖。
圖14是表示指定視覺感測器模型的姿勢的處理的圖。
圖15是表示將計測處的三維位置轉換成二維位置的處理的圖。
圖16是表示將計測處的三維位置轉換成二維位置的處理的圖。
圖17是表示將視覺感測器模型位置決定為視覺感測器模型的配置位置的處理的圖。
圖18是表示將視覺感測器模型位置決定為視覺感測器模型的配置位置的處理的圖。
圖19是表示視覺感測器模型安裝於機器人模型之例的圖。
圖20是表示本實施形態的模擬裝置的處理的流程圖。
1:模擬裝置
11:控制部
12:記憶部
13:顯示部
14:操作部
111:虛擬空間製作部
112:計測對象物模型配置部
113:機器人模型配置部
114:計測處指定部
115:視覺感測器模型配置部
116:攝像區域指定部
117:感測器姿勢指定部
118:距離指定部
119:位置轉換部
120:位置決定部
121:機器人姿勢算出部
122:模擬執行部
Claims (10)
- 一種模擬裝置,其具備: 虛擬空間製作部,其製作三維地表現了作業空間的虛擬空間; 計測對象物模型配置部,其將三維地表現了計測對象物的計測對象物模型配置於前述虛擬空間內; 計測處指定部,其於前述計測對象物模型指定計測處; 視覺感測器模型配置部,其將視覺感測器模型配置於任意的視覺感測器模型位置,前述視覺感測器模型三維地表現了拍攝前述計測對象物的視覺感測器;及 位置決定部,其根據前述計測處的位置,將包含於前述視覺感測器模型的圖像尺寸內之前述視覺感測器模型位置,決定為前述視覺感測器模型的配置位置。
- 如請求項1之模擬裝置,其中進一步具備位置轉換部,前述位置轉換部是於前述視覺感測器模型位置,將前述計測處的三維位置,轉換成藉由前述視覺感測器模型拍攝前述計測處時之二維位置, 前述位置決定部將全部的前述二維位置都包含於前述視覺感測器模型的圖像尺寸內之前述視覺感測器模型位置,決定為前述視覺感測器模型的配置位置。
- 如請求項1或2之模擬裝置,其進一步具備:機器人模型配置部,其將三維地表現了機器人的機器人模型配置於前述虛擬空間內;及 機器人姿勢算出部,其當前述視覺感測器模型安裝於前述機器人模型時,算出在前述視覺感測器模型之配置位置的前述機器人模型的姿勢。
- 如請求項1至3中任一項之模擬裝置,其進一步具備攝像區域指定部,前述攝像區域指定部是在前述視覺感測器模型的圖像尺寸內,指定前述計測處被前述視覺感測器模型拍攝的攝像區域。
- 如請求項1至4中任一項之模擬裝置,其進一步具備感測器姿勢指定部,前述感測器姿勢指定部是指定將前述視覺感測器模型配置於前述計測處的上方時之姿勢。
- 如請求項1至5中任一項之模擬裝置,其進一步具備距離指定部,前述距離指定部指定前述視覺感測器模型與前述計測處的距離。
- 如請求項5之模擬裝置,其中前述感測器姿勢指定部以前述視覺感測器模型的光軸相對於前述虛擬空間的基準平面呈垂直的姿勢作為基準,來指定繞著前述視覺感測器模型的座標系統的角度。
- 如請求項2之模擬裝置,其中當全部的前述二維位置都包含於前述視覺感測器模型的圖像尺寸內之前述視覺感測器模型的位置存在有複數個時,前述位置決定部將前述計測處在前述視覺感測器模型的圖像中拍起來最大的位置,決定為前述視覺感測器模型的配置位置。
- 如請求項2之模擬裝置,其中前述位置轉換部使用攝像條件,將前述計測處的三維位置,轉換成藉由前述視覺感測器模型拍攝計測處時之二維位置,前述攝像條件包含前述視覺感測器模型的視覺感測器模型位置、前述視覺感測器模型之透鏡的焦點距離、前述視覺感測器模型之攝像元件的每1像素的長度、及前述視覺感測器模型之透鏡的中心位置。
- 一種模擬裝置,其具備控制部,前述控制部執行以下功能: 於三維地表現了作業空間的虛擬空間中,於三維地表現了計測對象物的計測對象物模型指定計測處, 受理用以將視覺感測器模型配置於任意的視覺感測器模型位置之輸入操作,前述視覺感測器模型三維地表現了拍攝前述計測對象物的視覺感測器, 受理用以將包含於前述視覺感測器模型的圖像尺寸內之前述視覺感測器模型位置,決定為前述視覺感測器模型的配置位置之輸入操作。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/027920 WO2023007621A1 (ja) | 2021-07-28 | 2021-07-28 | シミュレーション装置 |
JPPCT/JP2021/027920 | 2021-07-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW202305749A true TW202305749A (zh) | 2023-02-01 |
Family
ID=85087661
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111124991A TW202305749A (zh) | 2021-07-28 | 2022-07-04 | 模擬裝置 |
Country Status (5)
Country | Link |
---|---|
JP (1) | JPWO2023007621A1 (zh) |
CN (1) | CN117279749A (zh) |
DE (1) | DE112021007545T5 (zh) |
TW (1) | TW202305749A (zh) |
WO (1) | WO2023007621A1 (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3732494B2 (ja) * | 2003-10-31 | 2006-01-05 | ファナック株式会社 | シミュレーション装置 |
JP2006010312A (ja) * | 2004-06-21 | 2006-01-12 | Constec Engi Co | 撮像装置 |
JP2008021092A (ja) | 2006-07-12 | 2008-01-31 | Fanuc Ltd | ロボットシステムのシミュレーション装置 |
JP5365443B2 (ja) * | 2009-09-17 | 2013-12-11 | 富士通株式会社 | シミュレーション装置,シミュレーション方法およびシミュレーションプログラム |
JP5850958B2 (ja) * | 2014-01-24 | 2016-02-03 | ファナック株式会社 | ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置 |
-
2021
- 2021-07-28 JP JP2023537821A patent/JPWO2023007621A1/ja active Pending
- 2021-07-28 WO PCT/JP2021/027920 patent/WO2023007621A1/ja active Application Filing
- 2021-07-28 DE DE112021007545.4T patent/DE112021007545T5/de active Pending
- 2021-07-28 CN CN202180098127.XA patent/CN117279749A/zh active Pending
-
2022
- 2022-07-04 TW TW111124991A patent/TW202305749A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
JPWO2023007621A1 (zh) | 2023-02-02 |
WO2023007621A1 (ja) | 2023-02-02 |
DE112021007545T5 (de) | 2024-02-22 |
CN117279749A (zh) | 2023-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6465789B2 (ja) | デプスカメラの内部パラメータを算出するプログラム、装置及び方法 | |
JP6594129B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP5897624B2 (ja) | ワークの取出工程をシミュレーションするロボットシミュレーション装置 | |
JP5257335B2 (ja) | 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ | |
JP5791976B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
US9679385B2 (en) | Three-dimensional measurement apparatus and robot system | |
JP6080407B2 (ja) | 3次元計測装置及びロボット装置 | |
JP6892286B2 (ja) | 画像処理装置、画像処理方法、及びコンピュータプログラム | |
JP6324025B2 (ja) | 情報処理装置、情報処理方法 | |
US20180290300A1 (en) | Information processing apparatus, information processing method, storage medium, system, and article manufacturing method | |
JP3944091B2 (ja) | 3次元画像データ生成方法 | |
JP6319804B2 (ja) | 投影画像生成装置、投影画像生成方法および投影画像生成プログラム | |
JP4649554B1 (ja) | ロボット制御装置 | |
TW202305749A (zh) | 模擬裝置 | |
JP2013231607A (ja) | 校正器具表示装置、校正器具表示方法、校正装置、校正方法、校正システム及びプログラム | |
JP2020123042A (ja) | 情報処理装置、情報処理方法及びシステム | |
CN111915666A (zh) | 基于移动终端的体积测量方法及装置 | |
JP2014238687A (ja) | 画像処理装置、ロボット制御システム、ロボット、画像処理方法及び画像処理プログラム | |
JP2018132847A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6073121B2 (ja) | 立体表示装置及び立体表示システム | |
JP6202875B2 (ja) | 画像測定装置及びその制御用プログラム | |
WO2022249295A1 (ja) | ロボットシミュレーション装置 | |
JP2004170277A (ja) | 3次元計測方法、3次元計測システム、画像処理装置、及びコンピュータプログラム | |
JP7436633B2 (ja) | 画像処理装置及び画像処理方法 | |
Korak et al. | Optical tracking system |