JP2018008326A - ロボットの重心表示装置、ロボット制御装置およびロボットシミュレーション装置 - Google Patents

ロボットの重心表示装置、ロボット制御装置およびロボットシミュレーション装置 Download PDF

Info

Publication number
JP2018008326A
JP2018008326A JP2016137349A JP2016137349A JP2018008326A JP 2018008326 A JP2018008326 A JP 2018008326A JP 2016137349 A JP2016137349 A JP 2016137349A JP 2016137349 A JP2016137349 A JP 2016137349A JP 2018008326 A JP2018008326 A JP 2018008326A
Authority
JP
Japan
Prior art keywords
robot
center
gravity
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016137349A
Other languages
English (en)
Other versions
JP6457441B2 (ja
Inventor
智規 新井
Tomonori Arai
智規 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2016137349A priority Critical patent/JP6457441B2/ja
Priority to US15/628,692 priority patent/US10302519B2/en
Priority to CN201710546108.4A priority patent/CN107598946B/zh
Priority to DE102017211641.2A priority patent/DE102017211641B4/de
Publication of JP2018008326A publication Critical patent/JP2018008326A/ja
Application granted granted Critical
Publication of JP6457441B2 publication Critical patent/JP6457441B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M1/00Testing static or dynamic balance of machines or structures
    • G01M1/12Static balancing; Determining position of centre of gravity
    • G01M1/122Determining position of centre of gravity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39444Display of position, of shape of robot and tool
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/14Arm movement, spatial
    • Y10S901/16Cartesian, three degrees of freedom
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/48Counterbalance

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】ユーザがロボットの重心位置を簡易に知ることを可能にする。【解決手段】ロボットの各軸の構成要素の少なくとも重量、重心位置および寸法を含む諸元を設定する諸元設定部12と、ロボットの各軸の位置情報を設定する姿勢設定部13と、設定されたロボットの各軸の位置情報と構成要素の諸元とに基づいて、各軸が位置情報に示される位置となった状態のロボットの3次元モデル画像を生成するロボット画像生成部15と、設定されたロボットの各軸の位置情報と構成要素の諸元とに基づいて、ロボット全体の重心位置を算出する重心位置算出部14と、ロボット画像生成部15により生成された3次元モデル画像の算出された重心位置にロボット全体の重心を示す表示を重畳する画像合成部17と、生成された画像を表示する表示部18とを備えるロボットの重心表示装置1を提供する。【選択図】図2

Description

本発明は、ロボットの重心表示装置、ロボット制御装置およびロボットシミュレーション装置に関するものである。
従来、力センサを用いることなく多関節ロボットのアームの先端の負荷重量および重心位置を自動算出する方法が知られている(例えば、特許文献1参照。)。
特開平10−138187号公報
しかしながら、特許文献1の方法は、各駆動軸にかかったトルクの平均値に基づいて負荷の重量および重心位置を算出するものであり、ロボットの重心位置を知ることはできない。ロボットの搬送時やロボットシステムの構築の検討時にロボットの重心位置を知ることができれば、ロボットを転倒させずに済むため便利である。
本発明は上述した事情に鑑みてなされたものであって、ユーザがロボットの重心位置を簡易に知ることができるロボットの重心表示装置、ロボット制御装置およびロボットシミュレーション装置を提供することを目的としている。
上記目的を達成するため、本発明は以下の手段を提供する。
本発明の一態様は、ロボットの各軸の構成要素の少なくとも重量、重心位置および寸法を含む諸元を設定する諸元設定部と、前記ロボットの各軸の位置情報を設定する姿勢設定部と、該姿勢設定部により設定された前記ロボットの各軸の前記位置情報と前記諸元設定部において設定された前記構成要素の諸元とに基づいて、各軸が前記位置情報に示される位置となった状態の前記ロボットの3次元モデル画像を生成するロボット画像生成部と、前記姿勢設定部により設定された前記ロボットの各軸の前記位置情報と前記諸元設定部において設定された前記構成要素の諸元とに基づいて、前記ロボット全体の重心位置を算出する重心位置算出部と、前記ロボット画像生成部により生成された前記3次元モデル画像の前記重心位置算出部により算出された前記重心位置に前記ロボット全体の重心を示す表示を重畳する画像合成部と、該画像合成部により生成された画像を表示する表示部とを備えるロボットの重心表示装置を提供する。
本態様によれば、諸元設定部によりロボットの構成要素の重量、重心位置および寸法を含む諸元が設定され、姿勢設定部によりロボットの各軸の位置情報が設定されると、ロボット画像生成部により、各軸が位置情報に示される位置に配置された状態のロボットの3次元モデル画像が生成される。そして、ロボットの各軸の位置情報と構成要素の諸元とに基づいて、ロボット全体の重心位置が重心位置算出部により算出され、画像合成部によって、生成された3次元ロボットの画像内に重心位置に、ロボット全体の重心を表す表示が重畳された画像が生成され、表示部に表示される。これにより、ロボットがどのような姿勢にあっても、表示部に表示された画像によって、ユーザがロボットの重心位置を簡易かつ直感的に知ることができる。
上記態様においては、前記重心を示す表示が、前記ロボット全体の重心位置を表す座標値を含んでいてもよい。
このようにすることで、ロボット全体の重心位置を示す座標値を表示することにより、
ユーザがロボットの重心位置をより明確に知ることができる。
また、上記態様においては、前記重心位置算出部が、各前記構成要素の重心位置を算出し、前記画像合成部が、前記3次元モデル画像の各前記構成要素の重心位置に、各前記構成要素の重心を表す表示を重畳してもよい。
このようにすることで、ユーザがロボット全体の重心位置に加えて、各構成要素の重心位置を簡易かつ直感的に知ることができる。
また、上記態様においては、前記構成要素が、前記ロボットの先端に取り付けられる負荷を含んでいてもよい。
このようにすることで、ロボットの先端に取り付けられる負荷がロボットの構成要素の一部として取り扱われ、負荷を含めたロボット全体の重心位置をユーザが簡易に知ることができる。
また、上記態様においては、前記姿勢設定部が、前記ロボットの動作プログラムに記載されている前記ロボットの各軸の複数組の前記位置情報を読み込んで時系列に設定してもよい。
このようにすることで、ロボットの動作プログラムに従ってロボットの各軸が時系列に複数の姿勢をとるように動作する場合に、異なる時刻の各軸の位置情報が姿勢設定部によって設定されることにより、各時刻におけるロボットの3次元モデル画像がロボット画像生成部により生成されるとともに、各時刻におけるロボット全体の重心位置が重心位置算出部により算出され、3次元モデル画像に重心の表示が重畳された画像が生成される。
その結果、生成された複数の画像を時系列に切り替えて表示することで、ロボットの3次元モデル画像がコマ送りあるいは動画のように動き、各姿勢における重心位置も3次元モデル画像の動作とともに移動する。これにより、ユーザは、ロボットの動作中における重心位置の変化を簡易かつ直感的に知ることができる。
また、上記態様においては、前記ロボットの各軸の前記位置情報が、前記ロボットの設置角度を含んでいてもよい。
このようにすることで、ロボットが傾斜して設置されても設置角度を含めて重心位置を算出することができる。
また、本発明の他の態様は、上記いずれかのロボットの重心表示装置を備えるロボット制御装置を提供する。
また、本発明の他の態様は、上記いずれかのロボットの重心表示装置を備えるロボットシミュレーション装置を提供する。
本発明によれば、ロボットのユーザがロボットの重心位置を簡易に知ることができるという効果を奏する。
本発明の一実施形態に係るロボットの重心表示装置を備えるロボット制御装置を示すブロック図である。 図1の重心表示装置を示す機能ブロック図である。 図2の重心表示装置の姿勢設定部における入力画面例を示す図である。 図3の負荷設定番号に対応づけて記憶されている負荷の重量および重心位置情報の一例を示す図である。 図1の重心表示装置の重心位置算出部による重心の算出方法の一例を説明するためのロボットの模式図である。 図1の重心表示装置の画像合成部により生成され表示部に表示された画像の一例を示す図である。 ロボットシミュレーション装置における重心位置の表示例を示す図である。
本発明の一実施形態に係るロボットの重心表示装置1について、図面を参照して以下に説明する。
本実施形態に係るロボット11の重心表示装置1は、ロボット制御装置100に備えられている。
ロボット制御装置100は、図1に示されるように、CPU2に接続されたバス3に、並列に接続された、ROM4、RAM5、不揮発性メモリ6、教示操作盤インタフェイス(I/F)7、軸制御回路8および重心表示制御部9を備えている。
教示操作盤インタフェイス7には、教示操作盤10が接続されている。教示操作盤10は、ディスプレイ機能付のものであり、作業者は、この教示操作盤10をマニュアル操作して、ロボット11の動作プログラムの作成、修正、登録、あるいは各種パラメータの設定の他、教示された動作プログラムの再生運転、ジョグ送り等を実行するようになっている。
ロボット11およびロボット制御装置100の基本機能を支えるシステムプログラムは、ROM4に格納されている。また、アプリケーションに応じて教示されるロボット11の動作プログラムおよび関連する設定データは、不揮発性メモリ6に格納されるようになっている。また、諸処理のためのプログラム等のデータも不揮発性メモリ6に格納されるようになっている。
本実施形態に係る重心表示装置1は、図2に示されるように、ロボット11の各軸の構成要素の重量、重心位置および寸法を含む諸元を設定する諸元設定部12と、ロボット11の各軸の位置情報を設定する姿勢設定部13と、ロボット11全体の重心位置を算出する重心位置算出部14と、ロボット11の3次元モデル画像を生成するロボット画像生成部15と、重心点の表示を生成する重心表示生成部16と、3次元モデル画像に重心点の表示を重畳する画像合成部17と、合成された画像を表示する表示部18とを備えている。
諸元設定部12は、図1の不揮発性メモリ6により構成されている。すなわち、ロボット11の各軸を構成している構成要素である各リンク部材の長さ、重量および重心位置のデータが不揮発性メモリ6に記憶されることにより設定されている。
姿勢設定部13は、図1の教示操作盤10により構成されている。すなわち、教示操作盤10を用いてユーザに各軸の角度情報を入力させることにより、各軸の位置情報を設定するようになっている。姿勢設定部13による各軸の角度情報の入力は、例えば、図3に示されるような表示を教示操作盤10のディスプレイ10aに表示し、ロボット11の設置角度、各軸の角度、負荷設定番号を入力させるようになっている。
負荷設定番号は、ロボット11の先端等に取り付けられているワーク(負荷)やハンド(構成要素)等の種別毎に設定されている番号である。図4に示されるように、負荷設定番号は、負荷の重量、重心位置等と対応づけて不揮発性メモリ6に記憶されており、ユーザが入力することにより、対応する負荷の重量と重心位置とを読み出すことができるようになっている。
重心位置算出部14、ロボット画像生成部15、重心表示生成部16および画像合成部17は、CPU2およびROM4によって構成されている。
重心表示制御部9は、教示操作盤10を介してユーザにより重心表示の指令が入力されたときに作動させられて、教示操作盤10のディスプレイ10aに図3に示される入力画面を表示してユーザに入力させ、諸元設定部12を構成している不揮発性メモリ6から構成要素の重量および重心位置のデータを読み出すようになっている。
ロボット画像生成部15は、重心表示制御部9が、入力された各軸の角度情報および読み出された構成要素の各リンク部材の長さに基づいて、ROM4に記憶されているロボット画像生成プログラムを用いて、CPU2にロボット11の3次元モデル画像を生成させるようになっている。
また、重心位置算出部14は、重心表示制御部9が、読み出された構成要素の重量および重心位置のデータおよび入力された各軸の角度情報等に基づいて、ROM4に記憶されている重心算出プログラムを用いて、CPU2にロボット11全体の重心位置を算出させるようになっている。
重心位置算出部14による重心位置算出方法の一例を、5つのユニット(構成要素)21,22,23,24,25を有し、ハンド26およびワーク27を先端に取り付けた3軸ロボット11を例に挙げて、数1および図5を参照して説明する。この場合のロボット11全体の重心位置は、数1により算出することができる。
Figure 2018008326
ここで、
:n番目のユニットの重量、
:ハンド26の重量、
:ワーク27の重量、
:ロボット11の原点のx座標xを基準としたロボット11全体の重心位置のx座標、
:ロボット11の原点のy座標yを基準としたロボット11全体の重心位置のy座標、
:ロボット11の原点のz座標zを基準としたロボット11全体の重心位置のz座標、
:ロボット11の原点のx座標xを基準としたn番目のユニットの重心位置のx座標、
:ロボット11の原点のy座標yを基準としたn番目のユニットの重心位置のy座標、
:ロボット11の原点のz座標zを基準としたn番目のユニットの重心位置のz座標、
:ロボット11の原点のx座標xを基準としたハンド26の重心位置のx座標、
:ロボット11の原点のy座標yを基準としたハンド26の重心位置のy座標、
:ロボット11の原点のz座標zを基準としたハンド26の重心位置のz座標、
:ロボット11の原点のx座標xを基準としたワーク27の重心位置のx座標、
:ロボット11の原点のy座標yを基準としたワーク27の重心位置のy座標、
:ロボット11の原点のz座標zを基準としたワーク27の重心位置のz座標、
である。
また、1番目のユニット21は地面固定で重心位置の変動はないため、ロボット11の原点(x,y,z)を基準とした1番目のユニット21の重心位置座標(x,y,z)は、ロボット11の原点を基準とした距離のx、y、z成分(L1gx,L1gy,L1gz)を用いて、
=L1gx
=L1gy
=L1gz
である。
2番目のユニット22は、1番目のユニット21によって鉛直軸回りに回転角度φで回転することから、ロボット11の原点(x,y,z)を基準とした2番目のユニット22の重心位置座標(x,y,z)は、ロボット11の原点を基準とした距離のx、y、z成分(L2gx,L2gy,L2gz)を用いて、
2=L2gxcosφ
2=L2gysinφ
2=L2gz
である。
3,4,5番目のユニット23,24,25は、
=(LJ1+LJ2gsinφ)cosφ
=(LJ1+LJ2gsinφ)sinφ
=LJ2gcosφ
=(LJ1+LJ2sinφ+LJ3gcosφ)cosφ
=(LJ1+LJ2sinφ+LJ3gcosφ)sinφ
=LJ2cosφ+LJ3gsinφ
=(LJ1+LJ2sinφ+LJ4gcosφ)cosφ
=(LJ1+LJ2sinφ+LJ4gcosφ)sinφ
=LJ2cosφ+LJ4gsinφ
である。
ここで、
J1:1番目のユニット21による回転中心から2番目のユニット22の回転中心までのオフセット量、
J2:2番目のユニット22により鉛直方向に揺動させられるリンクの長さ、
J2g:2番目のユニット22による回転中心から2番目のユニット22の重心位置までの距離、
J3g:3番目のユニット23による回転中心から3番目のユニット23の重心位置までの距離、
J4g:3番目のユニット23による回転中心から4番目の(手首)ユニット24の重心位置までの距離、
φ:2番目のユニット22による水平軸回りの回転角度、
φ:3番目のユニット23による水平軸回りの回転角度
である。
ロボット11全体の重心位置座標は、n=1,m=5として、数1により算出することができ、2番目のユニット22単体の重心位置座標は、n=m=2として、数1により算出することができる。また、2番目と3番目のユニット22,23からなる複合ユニットの重心位置座標は、n=2、m=3として数1により算出することができる。
重心位置算出部14は、例えば、図3の入力画面において、各軸の角度情報および負荷設定番号を入力した後に、変換の矢印を指定することによって算出され、ディスプレイ10a上に表示されるようになっている。図3に示すように、逆変換の矢印が設けられていてもよい。これにより、負荷設定番号および重心位置を入力した後に、逆変換の矢印を指定することにより、各軸の位置情報を逆変換により求めることにしてもよい。
重心表示生成部16は、例えば、予め記憶されている球体等の画像を重心位置算出部14によって算出されたロボット11全体の重心位置に配置した重心の表示画像を重心表示制御部9がCPU2に生成させるようになっている。
画像合成部17は、ロボット画像生成部15により生成されたロボット11の3次元モデル画像と、重心表示生成部16により生成されたロボット11全体の重心位置に配置された重心の表示画像とを、重心表示制御部9がCPU2に合成させて合成画像を生成するようになっている。
そして、CPU2により生成された合成画像が、重心表示制御部9によって教示操作盤インタフェイス7を介して教示操作盤10に送られ、図6に示されるように、教示操作盤10のディスプレイ10aに表示されるようになっている。
このように構成された本実施形態に係るロボット11の重心表示装置1によれば、ユーザは、重心位置を確認したいロボット11の姿勢を達成するための各軸の角度情報を入力し、負荷を選択するだけで、当該姿勢をとったロボット11の3次元モデル画像上に重心を表す表示が重畳された画像をディスプレイ10a上で簡易かつ直感的に確認することができる。したがって、ロボット11の搬送時やロボットシステムの構築の検討時にロボット11の重心位置を知ることができ、ロボット11の転倒等を未然に防止することができるという利点がある。
また、上述したように、ロボット11の設置角度を入力することにより、ロボット11が傾斜して設置された場合でも設置角度を考慮して重心位置を算出することができる。
なお、本実施形態においては、諸元設定部12として、不揮発性メモリ6により構成されている場合を例示したが、ユーザが教示操作盤10から入力することにしてもよい。
また、姿勢設定部13として、ユーザが教示操作盤10から入力することとしたが、これに代えて、ユーザによって指定されたロボット動作プログラムの各ステップにおける各軸の角度情報を読み込んで時系列に設定することにしてもよい。
すなわち、各ステップにおける各軸の角度情報がロボット動作プログラムから読み出される都度に、ロボット画像生成部15によるロボット11の3次元モデル画像の生成、重心位置算出部14によるロボット11全体の重心位置の算出、重心表示生成部16による重心の表示の生成および画像合成部17による画像合成が行われ表示部18に表示される。これにより、ロボット11の3次元モデル画像がコマ送りあるいは動画のように動き、各姿勢における重心位置も3次元モデル画像の動作とともに移動ので、ユーザは、ロボット11の動作中における重心位置の変化を簡易かつ直感的に知ることができるという利点がある。
また、本実施形態においては、重心表示生成部16が重心を表す球体状の表示を重心位置に生成することとしたが、表示の形状は球体状に限定されるものではなく、任意でよい。また、球体状等の重心の表示に加えて、図6に示されるように、重心の座標値を文字で表示することにしてもよい。このようにすることで、ユーザは、より正確に重心の位置を確認することができる。
また、本実施形態においては、ロボット11全体の重心を表示することとしたが、これに加えて、各軸のユニット21,22,23,24,25の重心位置P1,P2,P3を例えば、図6に示されるように表示することにしてもよい。
また、本実施形態においては、ロボット制御装置100に重心表示装置1が備えられる場合について説明したが、これに代えて、重心表示装置1がロボット11に接続されていないシミュレーション装置に備えられていてもよい。このようにすることで、図7に示されるように、準備することが困難な大きな負荷(例えば、自動車や該自動車をハンドリングするためのハンド)等を想定したロボット11の姿勢毎の重心位置P1,P2,P3を模擬的に検討する場合等に適用することができる。
1 重心表示装置
2 CPU(重心位置算出部、ロボット画像生成部、重心表示生成部、画像合成部)
4 ROM(重心位置算出部、ロボット画像生成部、重心表示生成部、画像合成部)
6 不揮発性メモリ(諸元設定部)
10 教示操作盤(姿勢設定部)
11 ロボット
12 諸元設定部
13 姿勢設定部
14 重心位置算出部
15 ロボット画像生成部
17 画像合成部
18 表示部
21,22,23,24,25 ユニット(構成要素)
26 ハンド(構成要素)
27 ワーク(構成要素、負荷)
100 ロボット制御装置

Claims (8)

  1. ロボットの各軸の構成要素の少なくとも重量、重心位置および寸法を含む諸元を設定する諸元設定部と、
    前記ロボットの各軸の位置情報を設定する姿勢設定部と、
    該姿勢設定部により設定された前記ロボットの各軸の前記位置情報と前記諸元設定部において設定された前記構成要素の諸元とに基づいて、各軸が前記位置情報に示される位置となった状態の前記ロボットの3次元モデル画像を生成するロボット画像生成部と、
    前記姿勢設定部により設定された前記ロボットの各軸の前記位置情報と前記諸元設定部において設定された前記構成要素の諸元とに基づいて、前記ロボット全体の重心位置を算出する重心位置算出部と、
    前記ロボット画像生成部により生成された前記3次元モデル画像の前記重心位置算出部により算出された前記重心位置に前記ロボット全体の重心を示す表示を重畳する画像合成部と、
    該画像合成部により生成された画像を表示する表示部とを備えるロボットの重心表示装置。
  2. 前記重心を示す表示が、前記ロボット全体の重心位置を表す座標値を含む請求項1に記載のロボットの重心表示装置。
  3. 前記重心位置算出部が、各前記構成要素の重心位置を算出し、
    前記画像合成部が、前記3次元モデル画像の各前記構成要素の重心位置に、各前記構成要素の重心を表す表示を重畳する請求項1または請求項2に記載のロボットの重心表示装置。
  4. 前記構成要素が、前記ロボットの先端に取り付けられる負荷を含む請求項1から請求項3のいずれかに記載のロボットの重心表示装置。
  5. 前記姿勢設定部が、前記ロボットの動作プログラムに記載されている前記ロボットの各軸の複数組の前記位置情報を読み込んで時系列に設定する請求項1から請求項4のいずれかに記載のロボットの重心表示装置。
  6. 前記ロボットの各軸の前記位置情報が、前記ロボットの設置角度を含む請求項1から請求項5のいずれかに記載のロボットの重心表示装置。
  7. 請求項1から請求項6のいずれかに記載のロボットの重心表示装置を備えるロボット制御装置。
  8. 請求項1から請求項6のいずれかに記載のロボットの重心表示装置を備えるロボットシミュレーション装置。
JP2016137349A 2016-07-12 2016-07-12 ロボットの重心表示装置、ロボット制御装置およびロボットシミュレーション装置 Active JP6457441B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016137349A JP6457441B2 (ja) 2016-07-12 2016-07-12 ロボットの重心表示装置、ロボット制御装置およびロボットシミュレーション装置
US15/628,692 US10302519B2 (en) 2016-07-12 2017-06-21 Robot center-of-gravity display device, robot control device, and robot simulation device
CN201710546108.4A CN107598946B (zh) 2016-07-12 2017-07-06 机器人的重心显示装置、机器人控制装置及机器人模拟装置
DE102017211641.2A DE102017211641B4 (de) 2016-07-12 2017-07-07 Roboter-Schwerpunktanzeigevorrichtung, Roboter-Steuerungsvorrichtung und Roboter-Simulationsvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016137349A JP6457441B2 (ja) 2016-07-12 2016-07-12 ロボットの重心表示装置、ロボット制御装置およびロボットシミュレーション装置

Publications (2)

Publication Number Publication Date
JP2018008326A true JP2018008326A (ja) 2018-01-18
JP6457441B2 JP6457441B2 (ja) 2019-01-23

Family

ID=60783082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016137349A Active JP6457441B2 (ja) 2016-07-12 2016-07-12 ロボットの重心表示装置、ロボット制御装置およびロボットシミュレーション装置

Country Status (4)

Country Link
US (1) US10302519B2 (ja)
JP (1) JP6457441B2 (ja)
CN (1) CN107598946B (ja)
DE (1) DE102017211641B4 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020199566A (ja) * 2019-06-07 2020-12-17 ファナック株式会社 オフラインプログラミング装置、ロボット制御装置および拡張現実システム
CN113654727A (zh) * 2021-09-10 2021-11-16 广东博智林机器人有限公司 重心位置测量方法、系统及装置、计算机设备和存储介质

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6542839B2 (ja) * 2017-06-07 2019-07-10 ファナック株式会社 制御装置及び機械学習装置
US11413748B2 (en) * 2017-08-10 2022-08-16 Robert Bosch Gmbh System and method of direct teaching a robot
JP6703020B2 (ja) * 2018-02-09 2020-06-03 ファナック株式会社 制御装置及び機械学習装置
EP3584751A1 (de) * 2018-06-20 2019-12-25 Siemens Aktiengesellschaft Verfahren zum erstellen eines digitalen zwillings
KR20190117421A (ko) * 2019-09-27 2019-10-16 엘지전자 주식회사 운송 로봇 및 그의 제어 방법
CN114427932B (zh) * 2022-04-07 2022-06-17 中国汽车技术研究中心有限公司 一种用于碰撞假人的质心测量方法及质心测量仪
CN116296070A (zh) * 2023-04-06 2023-06-23 唐山唐擎科技有限公司 一种重心测量系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6265190U (ja) * 1985-10-14 1987-04-22
JPH0430203A (ja) * 1990-05-25 1992-02-03 Fanuc Ltd ロボットの加減速時定数制御方法
JPH10138187A (ja) * 1996-11-01 1998-05-26 Nachi Fujikoshi Corp 多関節ロボットの負荷重量及び負荷重心位置の自動算出方法
JP2003196323A (ja) * 2001-12-27 2003-07-11 Toyota Motor Corp 重量・重心位置設計支援装置、重量・重心位置設計支援方法および重量・重心位置設計支援プログラム
JP2008062330A (ja) * 2006-09-06 2008-03-21 Toyota Motor Corp 脚式ロボット
JP2016049616A (ja) * 2014-09-02 2016-04-11 トヨタ自動車株式会社 走行ロボット、その動作計画方法及びプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2515594B2 (ja) * 1989-07-20 1996-07-10 三菱電機株式会社 ロボットの力制御方法及び装置
CN1067515A (zh) * 1991-06-01 1992-12-30 宗教法人金刚禅总本山少林寺 动画片制作方法
US5214749A (en) * 1991-06-12 1993-05-25 Massachusetts Institute Of Technology Dynamic control of a robot with its center of mass decoupled from an end effector by a redundant linkage
JP4518615B2 (ja) 2000-03-30 2010-08-04 ソニー株式会社 脚式移動ロボットの動作制御システム及び動作制御方法
EP1486299B1 (en) * 2002-03-15 2012-03-14 Sony Corporation Operation control device for leg-type mobile robot and operation control method, and robot device
US7873436B2 (en) * 2004-01-13 2011-01-18 Honda Motor Co., Ltd. Gait generator for mobile robot
EP1783517A1 (en) * 2005-11-04 2007-05-09 AGELLIS Group AB Multi-dimensional imaging method and apparatus
US7798264B2 (en) * 2006-11-02 2010-09-21 Hutcheson Timothy L Reconfigurable balancing robot and method for dynamically transitioning between statically stable mode and dynamically balanced mode
JP4508252B2 (ja) * 2008-03-12 2010-07-21 株式会社デンソーウェーブ ロボット教示装置
JP4569653B2 (ja) 2008-03-24 2010-10-27 ソニー株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP5618066B2 (ja) * 2010-08-18 2014-11-05 株式会社Ihi 力制御ロボットのキャリブレーション装置と方法
US8930019B2 (en) * 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
CN103328161B (zh) * 2011-01-31 2015-08-19 丰田自动车株式会社 多关节型臂机器人及其控制方法
US8805584B2 (en) * 2011-11-22 2014-08-12 Disney Enterprises, Inc Kinematic and dynamic calibration methods for legged robots with force-controlled joints
US9283674B2 (en) * 2014-01-07 2016-03-15 Irobot Corporation Remotely operating a mobile robot
US9393693B1 (en) * 2014-07-10 2016-07-19 Google Inc. Methods and systems for determining and modeling admissible gripper forces for robotic devices
JP6088583B2 (ja) * 2015-06-08 2017-03-01 ファナック株式会社 ロボットと力の表示機能を備えたロボット制御装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6265190U (ja) * 1985-10-14 1987-04-22
JPH0430203A (ja) * 1990-05-25 1992-02-03 Fanuc Ltd ロボットの加減速時定数制御方法
JPH10138187A (ja) * 1996-11-01 1998-05-26 Nachi Fujikoshi Corp 多関節ロボットの負荷重量及び負荷重心位置の自動算出方法
JP2003196323A (ja) * 2001-12-27 2003-07-11 Toyota Motor Corp 重量・重心位置設計支援装置、重量・重心位置設計支援方法および重量・重心位置設計支援プログラム
JP2008062330A (ja) * 2006-09-06 2008-03-21 Toyota Motor Corp 脚式ロボット
JP2016049616A (ja) * 2014-09-02 2016-04-11 トヨタ自動車株式会社 走行ロボット、その動作計画方法及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020199566A (ja) * 2019-06-07 2020-12-17 ファナック株式会社 オフラインプログラミング装置、ロボット制御装置および拡張現実システム
JP7260405B2 (ja) 2019-06-07 2023-04-18 ファナック株式会社 オフラインプログラミング装置、ロボット制御装置および拡張現実システム
US11673273B2 (en) 2019-06-07 2023-06-13 Fanuc Corporation Off-line programming apparatus, robot controller, and augmented reality system
CN113654727A (zh) * 2021-09-10 2021-11-16 广东博智林机器人有限公司 重心位置测量方法、系统及装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN107598946A (zh) 2018-01-19
DE102017211641B4 (de) 2019-11-07
CN107598946B (zh) 2019-09-24
DE102017211641A1 (de) 2018-01-18
US10302519B2 (en) 2019-05-28
US20180017461A1 (en) 2018-01-18
JP6457441B2 (ja) 2019-01-23

Similar Documents

Publication Publication Date Title
JP6457441B2 (ja) ロボットの重心表示装置、ロボット制御装置およびロボットシミュレーション装置
US10807240B2 (en) Robot control device for setting jog coordinate system
US9984178B2 (en) Robot simulator, robot teaching apparatus and robot teaching method
US9958862B2 (en) Intuitive motion coordinate system for controlling an industrial robot
US20150151431A1 (en) Robot simulator, robot teaching device, and robot teaching method
US11027428B2 (en) Simulation apparatus and robot control apparatus
JP2005135278A (ja) シミュレーション装置
US20180036883A1 (en) Simulation apparatus, robot control apparatus and robot
CN108349086A (zh) 机器人的直接教示方法
JP2018008347A (ja) ロボットシステムおよび動作領域表示方法
JP2016093869A (ja) 教示データの作成方法、作成装置、及び作成プログラム、並びに、教示データのデータ構造、記録媒体
KR20170016436A (ko) 작업 로봇의 교시 데이터 생성 장치 및 교시 데이터 생성 방법
US10507585B2 (en) Robot system that displays speed
JPS6179589A (ja) ロボツト運転装置
JP2009119589A5 (ja)
JP6862849B2 (ja) 演算装置、演算方法、演算プログラムおよびロボットシステム
CN110977932A (zh) 机器人示教装置、机器人示教方法和存储动作命令的方法
JP6457587B2 (ja) ワークの動画に基づいて教示点を設定するロボットの教示装置
JP7046531B2 (ja) ロボットの制御方法、ロボットの制御装置、情報処理方法、情報処理装置、教示方法、教示装置、ロボットの制御方法を用いた物品の製造方法、プログラムおよび記録媒体
JP2020175471A (ja) 情報処理装置、情報処理方法、プログラム、及び記録媒体
JPH1177568A (ja) 教示支援方法及び装置
JP6907417B2 (ja) 訓練コンテンツ作成制御装置、訓練コンテンツ作成制御方法、および訓練コンテンツ作成制御プログラム
WO2022181500A1 (ja) 視覚センサの出力から得られる3次元位置情報を用いるシミュレーション装置
JP7081284B2 (ja) 演算装置、演算方法、および演算プログラム
JPH01111208A (ja) ロボット教示装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181220

R150 Certificate of patent or registration of utility model

Ref document number: 6457441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150