JP2013240849A - ロボットシステムの動作シミュレーション装置 - Google Patents

ロボットシステムの動作シミュレーション装置 Download PDF

Info

Publication number
JP2013240849A
JP2013240849A JP2012114839A JP2012114839A JP2013240849A JP 2013240849 A JP2013240849 A JP 2013240849A JP 2012114839 A JP2012114839 A JP 2012114839A JP 2012114839 A JP2012114839 A JP 2012114839A JP 2013240849 A JP2013240849 A JP 2013240849A
Authority
JP
Japan
Prior art keywords
image
robot system
moving member
unit
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012114839A
Other languages
English (en)
Other versions
JP5426719B2 (ja
Inventor
Hiroyuki Gohira
寛之 後平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2012114839A priority Critical patent/JP5426719B2/ja
Priority to US13/790,614 priority patent/US9418394B2/en
Priority to DE102013008062.2A priority patent/DE102013008062B4/de
Priority to CN201310182355.2A priority patent/CN103425053B/zh
Publication of JP2013240849A publication Critical patent/JP2013240849A/ja
Application granted granted Critical
Publication of JP5426719B2 publication Critical patent/JP5426719B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40313Graphic motion simulation for ergonomic analysis
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40317For collision avoidance and detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】ロボットシステムの良好なシミュレーション結果を得る。
【解決手段】ロボットシステムの移動部材102に関連付けて、移動部材102と一体に移動する移動点Pを設定する設定部10と、プログラムに従いコンピュータ上でロボットシステムを動作させたときの移動点Pの時系列の位置データを取得するデータ取得部12と、プログラムに従いコンピュータ上で動作するロボットシステムの画像を生成するとともに、データ取得部12により取得された時系列の位置データに基づき、移動点Pの移動軌跡の画像を生成する画像生成部11と、画像生成部11により生成されたロボットシステム画像20と移動軌跡画像40を表示する表示部3とを備える。
【選択図】図5

Description

本発明は、ロボットを有するロボットシステムの動作をコンピュータ上でシミュレーションするロボットシステムの動作シミュレーション装置に関する。
従来より、実際にロボットを動作させる前に、ロボットの動作をコンピュータ上でシミュレーションするようにした装置が知られている(例えば特許文献1参照)。この特許文献1記載の装置では、教示データに基づいてコンピュータ上でロボットを動作させ、そのときのロボットの動きを、ロボット形状を表す3次元モデルを用いて表示装置に表示させる。
特開2009−211369号公報
しかしながら、上記特許文献1記載の装置のように、シミュレーション結果として単にロボットの動きを表示するだけでは、特定の部位がどのように動作したのかを、ユーザは容易に把握することができない。
ロボットを有するロボットシステムの動作をコンピュータ上でシミュレーションするロボットシステムの動作シミュレーション装置であって、ロボットシステムは、予め定められたプログラムに従い移動する移動部材を含み、移動部材に関連付けて、移動部材と一体に移動する移動点を設定する設定部と、プログラムに従いコンピュータ上でロボットシステムを動作させたときの移動点の時系列の位置データを取得するデータ取得部と、プログラムに従いコンピュータ上で動作するロボットシステムの画像を生成するとともに、データ取得部により取得された時系列の位置データに基づき、移動点の移動軌跡の画像を生成する画像生成部と、画像生成部により生成されたロボットシステム画像と移動軌跡画像を表示する表示部とを備えることを特徴とする。
本発明によれば、移動部材に関連付けて設定された移動点の移動軌跡の画像を生成し、表示部に表示するようにしたので、特定の部位がどのように動作するのかを、ユーザは容易に把握することができる。
本発明の第1の実施形態に係る動作シミュレーション装置が適用されるロボットシステムの概略構成を示す図。 本発明の第1の実施形態に係る動作シミュレーション装置の概略構成を示すブロック図。 図2の動作シミュレーション装置で設定される移動点の一例を示す図。 図2の動作シミュレーション装置で設定される移動点の他の例を示す図。 図2の制御部で実行される処理の一例を示すフローチャート。 図2の表示部に表示される表示画像の一例を示す図。 図2の表示部に表示される表示画像の他の例を示す図。 図2の表示部に表示される表示画像の他の例を示す図。 図5の変形例を示す図。 図6Aの変形例を示す図。 図6Bの変形例を示す図。 本発明の第2の実施形態に係る動作シミュレーション装置の表示部に表示される表示画像の一例を示す図。 本発明の第2の実施形態に係る動作シミュレーション装置の表示部に表示される表示画像の他の例を示す図。 本発明の第2の実施形態に係る動作シミュレーション装置の概略構成を示すブロック図。 図10の表示部に表示される表示画像の一例を示す図。 図10の表示部に表示される表示画像の他の例を示す図。 図11Aの変形例を示す図。 図11Bの変形例を示す図。 図11Aの他の変形例を示す図。 本発明の第4の実施形態に係る動作シミュレーション装置の概略構成を示すブロック図。 図14の表示部に表示される表示画像の一例を示す図。 図14の表示部に表示される表示画像の他の例を示す図。 本発明の第5の実施形態に係る動作シミュレーション装置の表示部に表示される表示画像の一例を示す図。 本発明の第6の実施形態に係る動作シミュレーション装置が適用されるロボットシステムの概略構成を示す図。 本発明の第6の実施形態に係る動作シミュレーション装置の概略構成を示すブロック図。 図18の表示部に表示される表示画像の一例を示す図。 図18の表示部に表示される表示画像の他の例を示す図。
−第1の実施形態−
以下、図1〜図8Bを参照して本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る動作シミュレーション装置が適用されるロボットシステムの概略構成を示す図である。図1に示すようにロボットシステムは、ロボット100と、ワークWを加工する工作機械200と、周辺機器300と、制御装置400と、ロボットシステムの動作をシミュレーションする動作シミュレーション装置1とを有し、ワーク加工用のロボットシステムとして構成している。
ロボット100は、例えば多関節型ロボットであり、回動可能なアーム101と、アーム101の先端部に設けられ、ワークWを把持するハンド102とを有する。工作機械200は、ロボット100によって受け渡されたワークWを支持するワーク支持台201と、ワークWを加工する工具202とを有する。周辺機器300は、例えばロボット100に向けてワークWを搬送するコンベア、パレット等の搬送装置である。ロボット100、工作機械200および周辺機器300は、それぞれアクチュエータ(サーボモータ等)を有し、アクチュエータの駆動により動作する。
制御装置400の記憶部および動作シミュレーション装置1の記憶部には、予め、動作プログラム、ロボットシステムを構成する各部の形状データ、およびワークの形状データ等が記憶されている。制御装置400は、予め記憶された動作プログラムに従いロボット100、工作機械200および周辺機器300の各アクチュエータに制御信号を出力して、ロボットシステムの動作を制御する。動作シミュレーション装置1は、予め記憶された動作プログラムと各部の形状データとに基づいて、動作プログラムの進行に伴い時々刻々と変化するロボットシステムの3次元モデルを作成することができる。
図2は、第1の実施形態に係る動作シミュレーション装置1の概略構成を示すブロック図である。図2に示すように、動作シミュレーション装置1は、ユーザがシミュレーションに関する各種条件を入力する入力部2と、入力部2からの信号に基づきロボットシステムの動作シミュレーションを実行する制御部10と、制御部10によるシミュレーション結果を表示する表示部3とを有する。入力部2は、例えばキーボードやマウス等によって構成され、表示部3は、例えば液晶ディスプレイ等により構成される。なお、入力部2と表示部3を例えばタッチパネルにより構成することもできる。
制御部10は、CPU,ROM,RAM,その他の周辺回路などを有する演算処理装置を含んで構成されるコンピュータ(例えばパーソナルコンピュータ)であり、制御装置400を動作させない状態(オフライン)で、ロボットシステムの動作シミュレーションを実行することができる。制御部10は、機能的構成として、表示部3に表示する各種画像を生成する画像生成部11と、動作プログラムに従いコンピュータ上でロボットシステムを動作させたときの移動点Pの位置データを取得するデータ取得部12とを有する。移動点Pとは、ユーザがロボットシステムの特定部位の移動軌跡を把握するために設定する点、すなわちユーザによって着目される(着目点)である。この移動点Pは、例えば入力部2の操作により、ロボットシステムの動作中に移動する特定の移動部材5に関連付けた任意の位置に設定される。
図3Aは、移動点Pの一例を示す図である。図3Aでは、ハンド102の先端における一対の把持爪の中心位置に移動点P1が設定され、工具202の先端位置に移動点P2が設定されている。すなわち、図3Aの特定移動部材5はハンド102および工具202であり、移動点P1,P2は、それぞれハンド102および工具202に関連付けて設定されている。移動点P1は、ハンド102の位置座標を用いて設定することができ、移動点P2は、工具202の位置座標を用いて設定することができる。
図3Bは、移動点Pの他の例を示す図である。図3Bでは、ハンド102の一方の把持爪の先端位置に移動点P3が設定され、アーム101の回動軸部に移動点P4が設定され、周辺機器300の上面の中央位置に移動点P5,P6が設定されている。すなわち、図3Bの特定移動部材5は、ハンド102、アーム101および周辺機器300であり、移動点P3〜P6は、それぞれハンド102、アーム101および周辺機器300に関連付けて設定されている。移動点P3、P4は、それぞれハンド102およびアーム101の位置座標を用いて設定することができ、移動点P5,P6は、それぞれ周辺機器300の位置座標を用いて設定することができる。以上の移動点P1〜P6は、各移動点P1〜P6に対応する特定移動部材5との位置関係を一定に保ったまま、特定移動部材5と一体に移動する。
図4は、制御部10で実行される処理の一例を示すフローチャートでる。このフローチャートに示す処理は、予め入力部2の操作により移動点Pを設定した後、例えば入力部2の操作によりシミュレーション開始指令が入力されると開始され、シミュレーションが終了するまで所定周期で繰り返される。ステップS1では、画像生成部11での処理により、予め記憶部に記憶されたロボットシステムの動作プログラム、ロボットシステムを構成する各部の形状データおよびワークWの形状データを読み込む。そして、各部の形状データに基づいて動作プログラムの進行に伴う各部の位置座標を演算し、動作プログラムの進行に伴って時々刻々と変化するロボットシステムの3次元モデルの画像(ロボットシステム画像)を生成する。ステップS1の処理は、動作プログラムを進行しながら所定周期で繰り返し実行され、動作プログラムの進行に伴いロボットシステム画像が随時更新される。ロボットシステム画像には、ワークWの3次元形状を表すワーク画像も含まれる。
ステップS2では、画像生成部11での処理により、ロボットシステム画像の生成に同期して、移動点Pを表す画像を生成する。本実施形態では、移動点Pを所定形状の指標(図5参照)によって表すようにしており、ステップS2では、移動点Pの位置に対応してこの指標画像を生成する。指標画像の位置は、ステップS2の処理が所定周期で繰り返し実行される度に更新される。
ステップS3では、データ取得部12での処理により、動作プログラムの進行に従って移動する移動点Pの位置データを取得し、取得した位置データを記憶部に記憶する。ステップS3の処理が所定周期で繰り返し実行されることにより、記憶部には、複数の移動点Pの位置データが時系列の位置データとして記憶される。
ステップS4では、画像生成部11での処理により、記憶部に記憶された時系列の位置データに基づき、移動点Pの移動軌跡の画像(移動軌跡画像)を生成する。この移動軌跡画像は、複数の移動点Pを時系列に沿って順次直線で結ぶことで生成され、ステップS4の処理が所定周期で繰り返し実行される度に、移動軌跡画像が更新される。なお、複数の移動点Pを滑らかな曲線で接続して移動軌跡画像を生成してもよく、複数の移動点Pの近似曲線を求め、これを移動軌跡として移動軌跡画像を生成してもよい。
ステップS5では、画像生成部11で生成されたロボットシステム画像、指標画像および移動軌跡画像を、表示部3に表示させる。これにより一回の処理が終了する。
図5は、表示部3に表示される表示画像の一例を示す図である。なお、図では、ロボットシステム画像20としてロボット100の画像のみを示している。移動点P1(図3A参照)は、ロボット100のハンド102の把持爪の先端に設定され、ハンド102が特定移動部材5となっている。図中、点線は、シミュレーション開始直後の第1時点t1における画像、すなわち過去に表示された画像であり、実線がシミュレーション開始から所定時間経過後(例えばシミュレーション終了時)の第2時点t2(>t1)における画像、すなわち現在表示中の画像である。図5では、ロボット100の移動方向を矢印で示しているが、この矢印は表示部3に表示されない。
図5に示すように、表示部3には、ロボット形状に対応したロボットシステム画像20が表示されるとともに、移動点Pの位置を表す指標画像30が表示されている。なお、図5では、指標画像30を丸印で示しているが、指標の形状はこれに限らない。さらに図5には、移動点Pの移動軌跡を示す移動軌跡画像40が表示されている。これにより、ユーザは、移動点P1の移動軌跡を容易に把握することができ、有用なシミュレーション情報を得ることができる。
図6A、図6Bは表示部3に表示される他の表示画像の例を示す図である。図6Aは、ロボットシステム画像20として工作機械200を示し、図6Bは、ロボット100と工作機械200と周辺機器300とを示している。なお、図6A、図6Bにおいても、点線は、第1時点t1におけるロボットシステム画像20および指標画像30であり、実線が、第2時点t2におけるロボットシステム画像20および指標画像30である。図6Aでは、工具202の先端部に移動点P2(図3A参照)が設定され、この移動点P2の移動軌跡画像40が表示部3に表示されている。一方、図6Bでは、ロボット100のハンド102の先端、アーム101の回動軸部および周辺機器300の上面中央部にそれぞれ移動点P3〜P6(図3B参照)が設定され、これら移動点P3〜P6の移動軌跡40が表示部3に表示されている。
このように第1の実施形態では、特定移動部材5(アーム101、ハンド102、工具202、周辺機器300)に関連付けて制御部10で移動点P1〜P6を設定し、動作プログラムに従いコンピュータ(制御部10)上でロボットシステムを動作させたときの移動点P1〜P6の時系列の位置データをデータ取得部12で取得するようにした。さらに、画像生成部11において、動作プログラムに従いコンピュータ上で動作するロボットシステムの画像20を生成するとともに、データ取得部12により取得された時系列の位置データに基づき、移動点P1〜P6の移動軌跡の画像40を生成し、これらロボットシステム画像20と移動軌跡画像40を表示部3に表示するようにした。これによりユーザが設定した任意の移動点P1〜P6の移動軌跡を、ユーザは表示部3の表示を通じて容易に把握することができる。したがって、ユーザがこのシミュレーション結果を考慮して動作プログラム等を見直すことで、ロボットシステムの制御を最適化することができる。
また、移動点P1〜P6は、特定移動部材5に関連付けた任意の位置に設定することができるので、幅広いユーザの要求に応えることができる。表示部3に、移動点P1〜P6の位置を表す指標画像30を併せて表示するようにしたので、ユーザは、移動軌跡画像40に対応した移動点P1〜P6の位置を容易に把握することができる。
図7は図5の変形例であり、図8A,図8Bはそれぞれ図6A,図6Bの変形例である。なお、図7,図8A,図8Bでは、第1時点t1における指標画像(点線)の図示を省略している。図7,図8A,図8Bでは、図5,図6A,図6Bと異なり、指標画像31がX軸、Y軸、Z軸の直交座標系である3次元座標系を模した形に形成されている。画像生成部11は、動作プログラムと形状データ等に基づいてロボットシステム画像20を生成する際に、特定移動部材5(ハンド102、工具202等)の姿勢を特定し、特定移動部材5の姿勢に応じて指標画像31の向きを決定する。これにより、特定移動部材5の姿勢に応じて指標画像31の向きが変化し、ユーザは、移動点Pの移動軌跡だけでなく現在表示中の特定移動部材5の姿勢を容易に把握することができる。
−第2の実施形態−
図9A,図9Bを参照して本発明の第2の実施形態について説明する。なお、以下では第1の実施形態との相違点を主に説明する。第2の実施形態が第1の実施形態と異なるのは、画像生成部11における処理である。すなわち、第1の実施形態では、画像生成部11での処理により、ロボットシステム画像20と指標画像30,31と移動軌跡画像40とを生成し、これらを表示部3に表示するようにした。これに対し、第2の実施形態では、移動点Pを定義する特定移動部材5の画像(移動部材画像)をさらに生成し、これを表示部3に表示する。
図9A、図9Bは、表示部3に表示される表示画像の一例を示す図である。図9Aでは、ハンド102の把持爪の先端位置に移動点P3が設定され、図9Bでは、工具202の先端位置に移動点P2が設定されている。画像生成部11は、データ取得部12により取得された時系列の移動点Pのうち、表示部3に表示中の第2時点t2とは異なる時点(第2時点t2よりも前の時点)における移動点Pに対応した特定移動部材5の画像を移動部材画像50として生成する。図9Aに示した例では、所定時間毎の移動点P3に対応した複数のハンド102の画像を移動部材画像50として生成し、表示部3に表示している。図9Bに示した例では、所定時間毎の移動点P2に対応した複数の工具202の画像を移動部材画像50として生成し、表示部3に表示している。なお、図9A,図9Bでは、ロボットシステム画像20に含まれる第2時点における特定移動部材5の画像(実線)と区別するために、移動部材画像50を点線で示しているが、移動部材画像50を他の表示形態(例えば異なる色)で表示してもよい。
このように第2の実施形態では、動作プログラムに従って移動する各時点の移動点Pに対応した特定移動部材5を表す複数の移動部材画像50を表示するようにしたので、移動点Pだけでなく特定移動部材5全体の移動軌跡をも、ユーザが容易に把握することができる。移動部材画像50を表示することで、移動部材の姿勢変化もユーザは容易に認識することができる。
−第3の実施形態−
図10〜図13を参照して本発明の第3の実施形態について説明する。なお、以下では第2の実施形態との相違点を主に説明する。第2の実施形態では、所定時間毎に得られる各移動点Pに対応した複数の移動部材画像50を表示するようにしたが、第3の実施形態では、所定の条件を満たす移動部材画像50のみを表示するように構成する。すなわち、第3の実施形態では、移動点Pに対応する特定移動部材5の周囲に障害物が存在する場合を想定し、障害物と干渉する移動部材画像50のみを表示部3に表示する。障害物の形状および位置(輪郭)を表す位置データは、予め動作シミュレーション装置1の記憶部に記憶され、この記憶部は、障害物の位置データを記憶する障害物記憶部として機能する。
図10は、第3の実施形態に係る動作シミュレーション装置1の概略構成を示すブロック図である。なお、図2と同一の箇所には同一の符号を付している。図10に示すように、制御部10は、障害物と特定移動部材5との干渉の有無を判定する判定部13を有する。判定部13は、例えば動作プログラムに従って特定移動部材5を移動させる度に、その特定移動部材5の輪郭を表す位置データと障害物の輪郭を表す位置データとを比較し、両位置データが重なる場合に、干渉があると判定する。画像生成部11は、ロボットシステム画像20と指標画像30,31と移動軌跡画像40とに加え、障害物の形状を表す障害物画像60(図11A,図11B)を生成する。さらに、判定部13で、特定移動部材5と障害物とがある時点で干渉すると判定されると、その時点の特定移動部材5に対応した移動部材画像50を生成する。画像生成部11で生成された各画像は、表示部3に表示される。
図11A,図11Bは、表示部3に表示される表示画像の一例を示す図である。図11Aでは、ハンド102の把持爪の先端位置に移動点P3が設定され、図11Bでは、工具202の先端位置に移動点P2が設定されている。図11A,図11Bに示すように、表示部3には、障害物と特定移動部材5とが干渉する時点における移動部材画像50のみが表示され、この移動部材画像50に障害物画像60が干渉している。
このように第3の実施形態では、動作プログラムに従った特定移動部材5の移動時における特定移動部材5と障害物との干渉の有無を判定部13により判定し、両者が干渉すると判定されたときに、その干渉する時点における移動点Pに対応した移動部材画像50を生成し、表示部3に表示するようにした。これによりユーザは、特定移動部材5と障害物との干渉の有無および干渉の状況を容易に把握することができる。
なお、特定移動部材5と障害物とが干渉しない場合には、動作プログラムに従いロボットシステムを動作させたときの特定移動部材5と障害物との距離が最小となる時点を判定部13で判定し、その判定された時点における移動点Pに対応した移動部材画像50を画像生成部11で生成するようにしてもよい。図12A、図12Bは、その場合に表示部3に表示される表示画像の一例を示す図である。図12A,図12Bにおいては、障害物に最も接近した移動部材画像50が障害物画像60とともに表示されている。このように障害物との距離が最小となる移動部材画像50を表示することで、ユーザは特定移動部材5と障害物との間にどの程度のマージンがあるのかを容易に把握することができる。
判定部13において、障害物との位置関係を判定する代わりに、特定移動部材5が3軸直交座標系の所定の軸方向または各軸方向に最大に変位する時点、つまり動作範囲の限界となる時点を判定し、画像生成部11で、その時点における移動点Pに対応した移動部材画像50を生成するようにしてもよい。図13は、この場合に表示部3に表示される表示画像の一例を示す図であり、図中の移動部材画像50は、動作範囲の限界位置または特異点に位置する移動部材に相当する。なお、動作範囲の限界位置の近傍あるいは特異点の近傍に特定移動部材5が位置する時点を判定し、その時点に対応した移動部材画像50を表示するようにしてもよい。
−第4の実施形態−
図14〜図15Bを参照して本発明の第4の実施形態について説明する。なお、以下では第3の実施形態との相違点を主に説明する。第3の実施形態では、特定移動部材5と障害物との干渉の有無を判定することで、どの時点の移動部材画像50を表示するのかを決定した。これに対し、第4の実施形態では、特定移動部材5の速度を演算し、その演算結果に応じてどの時点の移動部材画像50を表示するのかを決定する。
図14は、第4の実施形態に係る動作シミュレーション装置1の概略構成を示すブロック図である。なお、図3と同一の箇所には同一の符号を付している。図14に示すように、制御部10は、特定移動部材5の速度を演算する速度演算部14を有する。速度演算部14は、例えばデータ取得部12で移動点Pを取得する度に、動作プログラムに従って移動する特定移動部材5の単位時間当たりの移動量を演算し、各時点における特定移動部材5の速度を算出する。画像生成部11は、予め定められた所定速度以上または所定速度以下となる時点における移動点Pに対応した移動部材画像50を生成し、表示部3に表示する。
図15A、図15Bは、第4の実施形態に係る動作シミュレーション装置1による表示部3に表示される表示画像の一例を示す図である。図15Aでは、特定移動部材5としてハンド102が所定速度以上または所定速度以下で移動する時点の複数の移動部材画像50が表示され、図15Bでは、特定移動部材5として工具202が所定速度以上または所定速度以下で移動する時点の複数の移動部材画像50が表示されている。このように所定速度以上または所定速度以下で移動する時点の移動部材画像50を表示することで、ユーザは、特定移動部材5の最大速度または最小速度での移動状況を容易に把握することができる。
−第5の実施形態−
図16を参照して本発明の第5の実施形態について説明する。なお、以下では第2の実施形態との相違点を主に説明する。第5の実施形態では、工作機械200の工具202を特定移動部材5とし、ワーク画像に沿って移動部材画像50を相対移動させて移動軌跡画像40を生成する。
図16は、第5の実施形態に係る動作シミュレーション装置5の表示部3に表示される表示画像の一例を示す図である。図中、点線は、シミュレーション開始直後の第1時点t1における画像であり、実線がシミュレーション開始から所定時間経過後の第2時点t2における画像である。移動点P2は、工具202の先端位置に設定され、特定移動部材5は工具202である。ワークWは、第1時点から第2時点にかけて矢印に示すように並進運動しながら回転運動し、この移動に応じて、ワークWの基準点におけるワーク座標系を表すワーク原点32が移動(並進かつ回転)する。
このとき、画像生成部11は、ワーク画像21を含むロボットシステム画像20を生成するとともに、ワーク原点32の移動に応じてワーク表面に沿って特定移動部材5を相対移動させ、ワーク画像21を基準にして移動部材画像50を生成する。これにより図16に示すようにワーク画像21の周囲に複数の移動部材画像50が表示され、ワーク画像21の表面に移動軌跡画像40が表示される。
このように第5の実施形態では、工具202を表す移動部材画像50がワーク画像21に沿って相対移動するようにワーク画像21を基準にして移動部材画像50を生成し、表示部3に表示するようにした。これにより、工具202の位置を固定してワークWを加工する場合であっても、ワーク画像21に沿って工具経路の画像(移動軌跡画像40)を表示することができる。なお、図16では、移動部材画像50と移動軌跡画像40を表示するようにしたが、移動部材画像50の表示を省略してもよい。加工部材としての工具202はいかなるものでもよい。
−第6の実施形態−
図17〜図19Bを参照して本発明の第6の実施形態について説明する。なお、以下では第2の実施形態との相違点を主に説明する。第6の実施形態では、溶接トーチを特定移動部材5として構成し、表示部3に、溶接ビードを表すビード画像を表示する。
図17は、第6の実施形態に係るロボットシステムの概略構成を示す図である。図17に示すように、第6の実施形態のロボットシステムでは、ロボット100のアーム101の先端部には溶接トーチ103が取り付けられ、溶接トーチ103により、ワーク支持台201上に載置されたワークWの溶接を行う。溶接トーチ103は、特定移動部材5であり、溶接トーチ103の先端に移動点P7が設定されている。
図18は、第6の実施形態に係る動作シミュレーション装置1の概略構成を示すブロック図である。なお、図3と同一の箇所には同一の符号を付している。図18に示すように、制御部10は、溶接ビードの発生位置を推定するビード推定部15を有する。溶接ビードは、動作プログラムに従いロボットシステムを動作させて溶接トーチ103によりワークWを溶接したときに発生し、動作プログラムやワークWの形状データ等に応じて溶接ビードの発生位置を推定できる。
図19Aは、表示部3に表示される表示画像の一例を示す図である。画像生成部11は、ワーク画像21を含むロボットシステム画像20を生成するとともに、指標画像30および移動軌跡画像40を生成する。さらに、画像生成部11は、ビード推定部15によって推定された位置に、溶接ビードを表すビード画像70を生成する。画像生成部11によって生成されたロボットシステム画像20、指標画像30、移動軌跡画像40およびビード画像70は、図19Aに示すように表示部3に表示される。
このように第6の実施形態では、溶接ビードの発生位置を推定し、ビード画像70を表示するようにしたので、溶接トーチ103によって生じる溶接ビードをユーザは容易に把握することができる。
なお、ビード推定部15で、溶接ビードの発生位置を推定するだけでなく、溶接ビード形状(溶接ビードの幅や厚さ)を推定するようにしてもよい。この場合、ビード推定部15は、例えば溶接速度、溶接トーチ103の姿勢、溶接トーチ103の進行方向、ワークWの姿勢、重力の方向、および溶接電流の少なくともいずれかを含む溶接条件に応じて溶接ビード形状を決定すればよい。画像生成部11は、ビード推定部15で推定された溶接ビード形状に応じてビード画像70を推定し、表示部3に表示させる。
図19Bは、この場合の表示部3に表示される表示画像の一例を示す図である。図19Bに示すように、表示部3には、互いに異なる溶接条件によって発生した、互いに異なる形状の溶接ビードを表すビード画像71,72が表示されている。これによりユーザは、溶接ビード形状を容易かつ詳細に把握することができる。
以上の実施形態では、入力部2の操作により特定移動部材5に関連付けて、制御部10に移動点Pを設定するようにしたが、設定部の構成はいかなるものでもよい。移動点Pに対応した移動部材、すなわち特定移動部材5の構成は、上述したものに限らない。上記実施形態(例えば図5)では、ロボットシステム画像20と指標画像30と移動軌跡画像40を表示するようにしたが、指標画像30の表示を省略してもよい。すなわち、少なくともロボットシステム画像20と移動軌跡画像40を表示するのであれば、シミュレーショ結果の表示形態はいかなるものでもよい。
上記実施形態では、ロボット100と工作機械200と周辺機器300とによりロボットシステムを構成したが、ロボット100のみによってロボットシステムを構成してもよい。ロボットシステムをワーク加工用として構成したが、ロボットシステムは他の用途に用いられるものであってもよく、ロボットシステムの構成は上述したものに限らない。上記実施形態では、制御装置400とは別に動作シミュレーション装置1を設けたが(図1)、制御装置400内に動作シミュレーション装置1を組み込むようにしてもよい。
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態および変形例の構成要素には、発明の同一性を維持しつつ置換可能かつ置換自明なものが含まれる。すなわち、本発明の技術的思想の範囲内で考えられる他の形態についても、本発明の範囲内に含まれる。また、上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能である。
1 動作シミュレーション装置
2 入力部
3 表示部
5 特定移動部材
10 制御部
11 画像生成部
12 データ取得部
13 判定部
14 速度演算部
15 ビード推定部
20 ロボットシステム画像
21 ワーク画像
30,31 指標画像
40 移動軌跡画像
50 移動部材画像
60 障害物画像
70,71,72 ビード画像
100 ロボット
103 溶接トーチ
200 工作機械
300 周辺機器
400 制御装置
P 移動点
W ワーク

Claims (11)

  1. ロボットを有するロボットシステムの動作をコンピュータ上でシミュレーションするロボットシステムの動作シミュレーション装置であって、
    前記ロボットシステムは、予め定められたプログラムに従い移動する移動部材を含み、
    前記移動部材に関連付けて、該移動部材と一体に移動する移動点を設定する設定部と、
    前記プログラムに従いコンピュータ上で前記ロボットシステムを動作させたときの前記移動点の時系列の位置データを取得するデータ取得部と、
    前記プログラムに従いコンピュータ上で動作する前記ロボットシステムの画像を生成するとともに、前記データ取得部により取得された前記時系列の位置データに基づき、前記移動点の移動軌跡の画像を生成する画像生成部と、
    前記画像生成部により生成されたロボットシステム画像と移動軌跡画像を表示する表示部とを備えることを特徴とするロボットシステムの動作シミュレーション装置。
  2. 請求項1に記載のロボットシステムの動作シミュレーション装置において、
    前記画像生成部は、前記移動点の位置、または前記移動点の位置と前記移動部材の姿勢とを表す指標の画像をさらに生成し、
    前記表示部は、さらに、前記画像生成部により生成された指標画像を表示することを特徴とするロボットシステムの動作シミュレーション装置。
  3. 請求項2に記載のロボットシステムの動作シミュレーション装置において、
    前記指標画像は、前記移動部材の姿勢を表す3次元座標系を模した画像であることを特徴とするロボットシステムの動作シミュレーション装置。
  4. 請求項1〜3のいずれか1項に記載のロボットシステムの動作シミュレーション装置において、
    前記画像生成部は、前記データ取得部により取得された移動点のうち、前記表示部に表示中の時点とは異なる時点における移動点に対応した前記移動部材の画像をさらに生成し、
    前記表示部は、前記画像生成部により生成された移動部材画像をさらに表示することを特徴とするロボットシステムの動作シミュレーション装置。
  5. 請求項4に記載のロボットシステムの動作シミュレーション装置において、
    前記移動部材の周囲に存在する障害物の位置データが記憶された障害物記憶部と、
    前記障害物記憶部に記憶された位置データに基づき、前記プログラムに従いコンピュータ上で前記ロボットシステムを動作させたときの前記移動部材と前記障害物との干渉の有無を判定する判定部とをさらに有し、
    前記画像生成部は、前記判定部により前記移動部材と前記障害物とが干渉すると判定されたとき、その干渉する時点における移動点に対応した前記移動部材画像を生成することを特徴とするロボットシステムの動作シミュレーション装置。
  6. 請求項4に記載のロボットシステムの動作シミュレーション装置において、
    前記移動部材の周囲に存在する障害物の位置データが記憶された障害物記憶部と、
    前記障害物記憶部に記憶された位置データに基づき、前記プログラムに従いコンピュータ上で前記ロボットシステムを動作させたときの前記移動部材と前記障害物との距離が最小となる時点を判定する判定部とをさらに有し、
    前記画像生成部は、前記判定部により判定された前記時点における移動点に対応した前記移動部材画像を生成することを特徴とするロボットシステムの動作シミュレーション装置。
  7. 請求項4に記載のロボットシステムの動作シミュレーション装置において、
    前記プログラムに従いコンピュータ上で前記ロボットシステムを動作させたときに前記移動部材が最大に変位する時点または前記移動部材が特異点に位置する時点を判定する判定部をさらに有し、
    前記画像生成部は、前記判定部により判定された前記時点における移動点に対応した前記移動部材画像を生成することを特徴とするロボットシステムの動作シミュレーション装置。
  8. 請求項4に記載のロボットシステムの動作シミュレーション装置において、
    前記プログラムに従いコンピュータ上で前記ロボットシステムを動作させたときの前記移動部材の速度を演算する速度演算部をさらに有し、
    前記画像生成部は、前記速度演算部により演算された速度が所定速度以上または所定速度以下となる時点における移動点に対応した前記移動部材画像を生成することを特徴とするロボットシステムの動作シミュレーション装置。
  9. 請求項4に記載のロボットシステムの動作シミュレーション装置において、
    前記移動部材画像は、ワークを加工する加工部材を表す画像であり、
    前記ロボットシステム画像は、前記ワークを表すワーク画像を含み、
    前記画像生成部は、前記ワーク画像に沿って前記移動部材画像が相対移動するように前記ワーク画像を基準にして前記移動部材画像を生成することを特徴とするロボットシステムの動作シミュレーション装置。
  10. 請求項1〜8のいずれか1項に記載のロボットシステムの動作シミュレーション装置において、
    前記移動部材は、ワークを溶接する溶接トーチであり、
    前記ロボットシステム画像は、前記ワークを表すワーク画像を含み、
    前記プログラムに従いコンピュータ上で前記ロボットシステムを動作させて前記溶接トーチにより前記ワークを溶接したときの溶接ビードの発生位置を推定するビード推定部を有し、
    前記画像生成部は、前記ビード推定部により推定された発生位置に、溶接ビードを表すビード画像をさらに生成し、
    前記表示部は、前記画像生成部により生成された前記ビード画像をさらに表示することを特徴とするロボットシステムの動作シミュレーション装置。
  11. 請求項10に記載のロボットシステムの動作シミュレーション装置において、
    前記ビード推定部は、溶接速度、前記溶接トーチの姿勢、前記溶接トーチの進行方向、前記ワークの姿勢、重力の方向、および溶接電流の少なくともいずれかを含む溶接条件に応じて、前記溶接ビードの形状を決定し、
    前記画像生成部は、前記ビード推定部で決定された溶接ビードの形状に応じて前記ビード画像を生成することを特徴とするロボットシステムの動作シミュレーション装置。
JP2012114839A 2012-05-18 2012-05-18 ロボットシステムの動作シミュレーション装置 Active JP5426719B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012114839A JP5426719B2 (ja) 2012-05-18 2012-05-18 ロボットシステムの動作シミュレーション装置
US13/790,614 US9418394B2 (en) 2012-05-18 2013-03-08 Operation simulation system of robot system
DE102013008062.2A DE102013008062B4 (de) 2012-05-18 2013-05-10 Betriebssimulationssystem für ein Robotersystem
CN201310182355.2A CN103425053B (zh) 2012-05-18 2013-05-16 机器人系统的动作仿真装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012114839A JP5426719B2 (ja) 2012-05-18 2012-05-18 ロボットシステムの動作シミュレーション装置

Publications (2)

Publication Number Publication Date
JP2013240849A true JP2013240849A (ja) 2013-12-05
JP5426719B2 JP5426719B2 (ja) 2014-02-26

Family

ID=49511048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012114839A Active JP5426719B2 (ja) 2012-05-18 2012-05-18 ロボットシステムの動作シミュレーション装置

Country Status (4)

Country Link
US (1) US9418394B2 (ja)
JP (1) JP5426719B2 (ja)
CN (1) CN103425053B (ja)
DE (1) DE102013008062B4 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017100234A (ja) * 2015-12-01 2017-06-08 株式会社デンソーウェーブ ティーチング結果表示システム
JP2018015863A (ja) * 2016-07-29 2018-02-01 川崎重工業株式会社 ロボットシステム、教示データ生成システム及び教示データ生成方法
CN110058570A (zh) * 2018-01-18 2019-07-26 佳能株式会社 信息处理装置和显示装置的控制方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6411964B2 (ja) * 2015-07-27 2018-10-24 ファナック株式会社 工作機械とロボットのリアルタイム干渉確認システム
CN105182792B (zh) * 2015-08-10 2017-10-03 西南科技大学 一种核辐射环境下机器人作业仿真系统及方法
JP6601155B2 (ja) * 2015-10-28 2019-11-06 株式会社デンソーウェーブ ロボット制御システム
US11425866B2 (en) * 2015-11-03 2022-08-30 Keith Charles Burden Automated pruning or harvesting system for complex morphology foliage
JP6711591B2 (ja) * 2015-11-06 2020-06-17 キヤノン株式会社 ロボット制御装置およびロボット制御方法
JP6458713B2 (ja) 2015-11-18 2019-01-30 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
CN107346107A (zh) * 2016-05-04 2017-11-14 深圳光启合众科技有限公司 多样化运动控制方法和系统及具有该系统的机器人
US20190235473A1 (en) * 2016-09-08 2019-08-01 Mitsubishi Electric Corporation Machining simulation display apparatus and machining simulation display method
JP6444957B2 (ja) * 2016-10-27 2018-12-26 ファナック株式会社 ロボットシステムの動作のシミュレーションを行うシミュレーション装置、シミュレーション方法、およびコンピュータプログラムを記録する記録媒体
JP6457587B2 (ja) * 2017-06-07 2019-01-23 ファナック株式会社 ワークの動画に基づいて教示点を設定するロボットの教示装置
JP7087316B2 (ja) * 2017-09-27 2022-06-21 オムロン株式会社 情報処理装置、情報処理方法およびプログラム
US11458626B2 (en) * 2018-02-05 2022-10-04 Canon Kabushiki Kaisha Trajectory generating method, and trajectory generating apparatus
CN109940642B (zh) * 2019-03-19 2022-03-04 贵州航天特种车有限责任公司 一种机械臂运行轨迹二维动态仿真显示的方法
JP7048539B2 (ja) * 2019-04-26 2022-04-05 ファナック株式会社 振動表示装置、動作プログラム作成装置、およびシステム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06126453A (ja) * 1992-10-16 1994-05-10 Mitsubishi Heavy Ind Ltd 溶接条件自動選定方法
JPH0778017A (ja) * 1993-06-30 1995-03-20 Kobe Steel Ltd 動作物体間の干渉チェック方法及びその装置
JPH07214317A (ja) * 1993-12-10 1995-08-15 Mitsubishi Heavy Ind Ltd 溶接作業シミュレータ装置
JPH10128684A (ja) * 1996-10-30 1998-05-19 Asahi Sanac Kk ロボットの動作プログラム作成方法及びその作成装置
JP2004243516A (ja) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置
JP2007242054A (ja) * 1995-09-19 2007-09-20 Yaskawa Electric Corp ロボット言語処理装置
JP2009211369A (ja) * 2008-03-04 2009-09-17 Jtekt Corp 数値制御機械の動作シミュレータ
JP2009274148A (ja) * 2008-05-12 2009-11-26 Kanto Auto Works Ltd シミュレーション装置
JP2011045937A (ja) * 2009-08-25 2011-03-10 Denso Wave Inc ロボットシステム
WO2011080882A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP2011161549A (ja) * 2010-02-08 2011-08-25 Denso Wave Inc ロボットの動作軌跡表示装置
JP2011526208A (ja) * 2008-07-04 2011-10-06 フロニウス・インテルナツィオナール・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング 溶接プロセスをシミュレートするための装置および方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06126483A (ja) 1992-10-19 1994-05-10 Tokai Rika Co Ltd Sn−Pb系はんだ
EP0864401B1 (en) 1996-07-24 2006-02-15 Fanuc Ltd Jog feeding method for robots
JPH11134017A (ja) 1997-10-27 1999-05-21 Honda Motor Co Ltd オフラインティーチング方法
JP2000343466A (ja) 1999-06-04 2000-12-12 Matsushita Electric Ind Co Ltd 産業用ロボットの教示方法、産業用ロボットおよびシミュレーション装置
JP3673725B2 (ja) * 2001-04-05 2005-07-20 ファナック株式会社 ロボット用情報処理システム
JP3785349B2 (ja) 2001-11-09 2006-06-14 ファナック株式会社 シミュレーション装置
JP2004082313A (ja) 2002-08-29 2004-03-18 Nachi Fujikoshi Corp ロボットの動作シミュレーションモデルの作成装置
JP4441409B2 (ja) 2003-03-25 2010-03-31 ローツェ株式会社 ロボットシミュレーション装置、および、シミュレーションプログラム
WO2005046942A1 (ja) 2003-11-13 2005-05-26 Japan Science And Technology Agency ロボットの駆動方法
JP4168002B2 (ja) * 2004-04-07 2008-10-22 ファナック株式会社 オフラインプログラミング装置
JP4153528B2 (ja) * 2006-03-10 2008-09-24 ファナック株式会社 ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
JP2007286976A (ja) 2006-04-18 2007-11-01 Fanuc Ltd ロボットシミュレーション装置
JP4238256B2 (ja) * 2006-06-06 2009-03-18 ファナック株式会社 ロボットシミュレーション装置
JP2008022590A (ja) * 2006-07-10 2008-01-31 Nachi Fujikoshi Corp サーボモータ監視装置
JP5113666B2 (ja) * 2008-08-11 2013-01-09 ファナック株式会社 ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法
KR20100073438A (ko) * 2008-12-23 2010-07-01 삼성전자주식회사 로봇 및 그 제어방법
JP5418322B2 (ja) 2010-03-15 2014-02-19 オムロン株式会社 表示装置、表示制御方法、プログラム、およびコンピュータ読み取り可能な記録媒体

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06126453A (ja) * 1992-10-16 1994-05-10 Mitsubishi Heavy Ind Ltd 溶接条件自動選定方法
JPH0778017A (ja) * 1993-06-30 1995-03-20 Kobe Steel Ltd 動作物体間の干渉チェック方法及びその装置
JPH07214317A (ja) * 1993-12-10 1995-08-15 Mitsubishi Heavy Ind Ltd 溶接作業シミュレータ装置
JP2007242054A (ja) * 1995-09-19 2007-09-20 Yaskawa Electric Corp ロボット言語処理装置
JPH10128684A (ja) * 1996-10-30 1998-05-19 Asahi Sanac Kk ロボットの動作プログラム作成方法及びその作成装置
JP2004243516A (ja) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置
JP2009211369A (ja) * 2008-03-04 2009-09-17 Jtekt Corp 数値制御機械の動作シミュレータ
JP2009274148A (ja) * 2008-05-12 2009-11-26 Kanto Auto Works Ltd シミュレーション装置
JP2011526208A (ja) * 2008-07-04 2011-10-06 フロニウス・インテルナツィオナール・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング 溶接プロセスをシミュレートするための装置および方法
JP2011045937A (ja) * 2009-08-25 2011-03-10 Denso Wave Inc ロボットシステム
WO2011080882A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP2011161549A (ja) * 2010-02-08 2011-08-25 Denso Wave Inc ロボットの動作軌跡表示装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017100234A (ja) * 2015-12-01 2017-06-08 株式会社デンソーウェーブ ティーチング結果表示システム
JP2018015863A (ja) * 2016-07-29 2018-02-01 川崎重工業株式会社 ロボットシステム、教示データ生成システム及び教示データ生成方法
CN110058570A (zh) * 2018-01-18 2019-07-26 佳能株式会社 信息处理装置和显示装置的控制方法
CN110058570B (zh) * 2018-01-18 2022-12-27 佳能株式会社 信息处理装置以及信息处理装置的控制方法

Also Published As

Publication number Publication date
CN103425053B (zh) 2016-01-20
DE102013008062A1 (de) 2013-11-21
DE102013008062B4 (de) 2015-07-16
JP5426719B2 (ja) 2014-02-26
US9418394B2 (en) 2016-08-16
CN103425053A (zh) 2013-12-04
US20130311154A1 (en) 2013-11-21

Similar Documents

Publication Publication Date Title
JP5426719B2 (ja) ロボットシステムの動作シミュレーション装置
US9984178B2 (en) Robot simulator, robot teaching apparatus and robot teaching method
JP4137909B2 (ja) ロボットプログラム補正装置
CN109079802B (zh) 修正机器人的轨道的机器人的示教装置
JP5374616B1 (ja) 工作機械の工具ベクトルを表示する工具軌跡表示装置
JP6683671B2 (ja) ジョグ座標系を設定するロボットの制御装置
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
JP6444908B2 (ja) 掃引空間を算出するロボットのシミュレーション装置
JP6469159B2 (ja) 接触センサによるワーク位置検出プログラム生成機能を備えたオフラインプログラミング装置及び方法
JP6883392B2 (ja) ロボットシステム
JP2006039781A (ja) アーク溶接用装置
JP2012091304A (ja) ティーチングデータ作成方法およびティーチングデータ作成装置
JP2007000954A (ja) ロボット教示装置及び方法
JP5813931B2 (ja) 教示データの修正システム
JP2014065098A (ja) ロボット装置及び多関節ロボットの軌道シミュレーション装置並びに軌道生成方法
JP2009274180A (ja) ロボット動作計画方法及び装置
JP2012106316A (ja) 干渉検出方法及び干渉検出装置
JP6457587B2 (ja) ワークの動画に基づいて教示点を設定するロボットの教示装置
JP4745921B2 (ja) 溶接ロボットの制御方法
JP2015100874A (ja) ロボットシステム
JP2018118330A (ja) 演算装置、演算方法、演算プログラムおよびロボットシステム
JP4794937B2 (ja) アーク溶接用プログラミング装置
JP2015058493A (ja) 制御装置、ロボットシステム、ロボット、ロボット動作情報生成方法及びプログラム
JP7232704B2 (ja) ロボットプログラム評価装置、ロボットプログラム評価方法及びロボットプログラム評価プログラム
JP7469457B2 (ja) ロボットプログラミング装置及びロボットプログラミング方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131128

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5426719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150