JP2007061983A - ロボット監視システム - Google Patents

ロボット監視システム Download PDF

Info

Publication number
JP2007061983A
JP2007061983A JP2005253902A JP2005253902A JP2007061983A JP 2007061983 A JP2007061983 A JP 2007061983A JP 2005253902 A JP2005253902 A JP 2005253902A JP 2005253902 A JP2005253902 A JP 2005253902A JP 2007061983 A JP2007061983 A JP 2007061983A
Authority
JP
Japan
Prior art keywords
robot
display condition
monitoring system
format
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005253902A
Other languages
English (en)
Inventor
Yoshiharu Nagatsuka
嘉治 長塚
Hirohiko Kobayashi
博彦 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2005253902A priority Critical patent/JP2007061983A/ja
Priority to CNA2006101264587A priority patent/CN1923470A/zh
Priority to EP06018252A priority patent/EP1759817A2/en
Priority to US11/513,187 priority patent/US20070050091A1/en
Publication of JP2007061983A publication Critical patent/JP2007061983A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】 3次元モデルを用いたロボット監視システムにおいて、ロボットの実動作中に生じる動作上の問題を、その発生時期に関わらず正確かつ迅速に観察できるようにする。
【解決手段】 ロボット監視システム10は、ロボット12を制御するロボット制御装置14と、ロボット制御装置14から得たロボット制御関連情報Dに基づき、ロボット12及び作業環境16の3次元モデル画像12M、16Mを、ロボット12の実動作に対応する動画として生成する画像生成装置18とを備える。画像生成装置18は、3次元モデル画像12M、16Mの動画を表わす視線及び描画形式の少なくとも一方を含む表示条件Cを、ロボット12の実動作に対応して変更可能に設定する表示条件設定部20と、表示条件設定部20が設定した表示条件Cの、ロボット12の実動作に対応した変更に従い、3次元モデル画像12M、16Mの動画を切り換えて生成する動画生成部22とを備える。
【選択図】 図1

Description

本発明は、ロボット監視システムに関し、特に、ロボットの3次元モデル画像を用いたロボット監視システムに関する。
ロボット、特に産業用ロボットは、特定の作業プログラム(すなわちタスクプログラム)に従って動作する。ロボットに装着したツール(すなわちエンドエフェクタ)の種類、作業対象のワークの種類、作業の内容等に対応した様々な種類の作業プログラムを、適宜選択してロボットに与えることで、1台のロボットが多種多様な作業を遂行することができる。この種のロボットを用いた生産システムにおいて、ロボットを制御する作業プログラム等のロボット制御関連情報に基づき、ロボット及びロボットの作業環境のモデル画像を、ロボットの実動作に対応する動画として表示装置に表示することにより、ロボットの動作状態のシミュレーションやモニタリングを可能にするシステムが提案されている。
例えば特許文献1は、ロボットを含む複数の作動装置を、個々の作動装置から入手した動作プログラムに基づいてアニメーション表示することにより、各作動装置の動作状態をシミュレーションするシステムを開示する。また、特許文献2は、通信手段を介してロボット制御装置に接続される計算機が、ロボット制御装置から転送されたロボット動作制御指令に基づき、ロボットの動作状態をシミュレーションする構成を開示する。この構成では、ロボット制御装置から逐次データを計算機に転送することにより、ロボットの各軸に掛かる負荷等のモニタリングを行なうこともできる。また、特許文献3は、ロボット及びロボットの作業環境の3次元モデル画像を、ロボットに教示した動作プログラムに基づいて画面上にアニメーション表示することで、ロボットの動作状態のシミュレーションを可能にするシステムにおいて、ロボット及びその周辺機器の3次元モデルの作成を容易にする構成を開示する。
特開平2−176906号公報 特開2001−150373号公報 特開2001−105359号公報
上記した従来のロボット動作シミュレーションシステムでは、作業プログラム等のロボット制御関連情報に基づいて生成される3次元モデル画像は、視線や描画形式等に関する一定の(すなわち変化しない)表示条件の下で、表示装置の画面に表示されている。したがって、モデル画像の動作中に発生する2部材間の位置ずれや干渉等の諸問題が、その発生時の表示条件(視線や描画形式)に起因して、観察可能な画像としては表示されない場合がある。そのような場合には、特に、ロボットの実動作を可及的速やかに観察することで諸問題に対処しようとするモニタリングにおいて、問題発生の検出及びその原因の解明に時間を要し、適切な対策を迅速に施すことが困難になる恐れがある。
本発明の目的は、ロボット制御関連情報に基づきロボット及びロボットの作業環境の3次元モデル画像をロボットの実動作に対応する動画として生成することにより、ロボットの動作状態のモニタリングを可能にするロボット監視システムにおいて、ロボットの実動作中に生じる動作上の諸問題を、その発生時期に関わらず正確かつ迅速に観察でき、以って、適切な対策を迅速に施すことを可能にするロボット監視システムを提供することにある。
上記目的を達成するために、請求項1に記載の発明は、ロボットを制御するロボット制御装置と、ロボット制御装置から得たロボット制御関連情報に基づき、ロボット及びロボットの作業環境の3次元モデル画像を、ロボットの実動作に対応する動画として生成する画像生成装置とを具備するロボット監視システムにおいて、画像生成装置は、3次元モデル画像の動画を表わす視線及び描画形式の少なくとも一方を含む表示条件を、ロボットの実動作に対応して変更可能に設定する表示条件設定部と、表示条件設定部が設定した表示条件の、ロボットの実動作に対応した変更に従い、動画を切り換えて生成する動画生成部と、を備えることを特徴とするロボット監視システムを提供する。
請求項2に記載の発明は、請求項1に記載のロボット監視システムにおいて、表示条件設定部が設定する表示条件は、視線を定める視点及び監視対象点の各々の、ロボットの実動作に対応して移動する位置を含み、動画生成部は、視点及び監視対象点の各々の位置の移動によって変化する視線に基づいて、動画を生成する、ロボット監視システムを提供する。
請求項3に記載の発明は、請求項2に記載のロボット監視システムにおいて、複数の異なる視線のそれぞれに関し、視点の位置の設定値と監視対象点の位置の設定値とを互いに関連付けて、かつ位置を表す指標を付して記憶する記憶部をさらに具備し、記憶部が、ロボット制御装置と画像生成装置とのいずれか一方に設けられる、ロボット監視システムを提供する。
請求項4に記載の発明は、請求項1〜3のいずれか1項に記載のロボット監視システムにおいて、表示条件設定部が設定する表示条件は、描画形式としてのワイヤフレーム形式及びソリッド形式を含み、動画生成部は、ロボットの実動作に対応してワイヤフレーム形式とソリッド形式との間で変更される描画形式に基づいて、動画を生成する、ロボット監視システムを提供する。
請求項5に記載の発明は、請求項4に記載のロボット監視システムにおいて、3次元モデル画像に含まれる複数の物体のそれぞれに関し、ロボットの実動作に対応してワイヤフレーム形式とソリッド形式との間で変更される描画形式を、実動作の内容を表す指標を付して記憶する記憶部をさらに具備し、記憶部が、ロボット制御装置と画像生成装置とのいずれか一方に設けられる、ロボット監視システムを提供する。
請求項6に記載の発明は、請求項1に記載のロボット監視システムにおいて、表示条件設定部が設定する表示条件は、実動作に伴って移動するロボットのツール中心点の位置と、ツール中心点を監視対象点としたときの、視線を定める視点と監視対象点との一定の相対位置関係とを含み、動画生成部は、相対位置関係の下での視点及び監視対象点の移動によって変化する視線に基づいて、動画を生成する、ロボット監視システムを提供する。
請求項7に記載の発明は、請求項1又は6に記載のロボット監視システムにおいて、表示条件設定部が設定する表示条件は、実動作に伴って移動するロボットのツール中心点の位置と、描画形式としてのワイヤフレーム形式及びソリッド形式とを含み、動画生成部は、ツール中心点の移動に対応してワイヤフレーム形式とソリッド形式との間で変更される描画形式に基づいて、動画を生成する、ロボット監視システムを提供する。
請求項8に記載の発明は、請求項6又は7に記載のロボット監視システムにおいて、表示条件設定部は、ロボット制御装置からツール中心点の位置情報を得る、ロボット監視システムを提供する。
請求項9に記載の発明は、請求項1〜8のいずれか1項に記載のロボット監視システムにおいて、画像生成装置がロボット制御装置から得るロボット制御関連情報は、ロボットに特定作業を指令する作業プログラムを含み、作業プログラムに、表示条件の変更に関する指令が記述される、ロボット監視システムを提供する。
請求項10に記載の発明は、請求項1〜9のいずれか1項に記載のロボット監視システムにおいて、ロボット制御装置と画像生成装置とが、通信ネットワークを介して互いに接続される、ロボット監視システムを提供する。
請求項1に記載の発明によれば、画像生成装置は、ロボットを制御する作業プログラム自体や当該作業プログラムに記述された指令値等のロボット制御関連情報に基づいて、ロボット及び作業環境の3次元モデル画像の動画を、ロボットの実動作に対応して変更可能な表示条件の下で生成する。そこで、ロボットが作業プログラムに従って遂行する実動作の間に、例えば2部材間の位置ずれや干渉等の問題が生じ易い1箇所以上の重点監視領域を予め設定し、そのような重点監視領域を表示する際の表示条件を、問題を顕現させるに最適な内容(視線や描画形式)に適宜変更して設定することで、問題の発生を、3次元モデル画像の動画上で観察可能な画像として確実に表示することが可能になる。したがって、ロボットの実動作中に生じる動作上の諸問題を、その発生時期に関わらず正確かつ迅速に観察でき、以って、問題発生の検出及びその原因の解明を短時間で行って、適切な対策を迅速に施すことが可能になる。
請求項2に記載の発明によれば、画像生成装置は、ロボットの実動作に対応して、視点及び監視対象点を予め設定することにより、ロボット及び作業環境の3次元画像を、所望領域(例えば重点監視領域)を明確に表示可能な最適な視線に、設定通りに切り換えて動画表示することができる。
請求項3に記載の発明によれば、記憶部に記憶した指標を用いて、画像生成装置に視線の設定、変更を容易に指令することができる。
請求項4に記載の発明によれば、画像生成装置は、ロボットの実動作に対応して、ワイヤフレーム形式及びソリッド形式のいずれかを選択して予め設定することにより、ロボット及び作業環境の3次元画像を、所望領域(例えば重点監視領域)を明確に表示可能な最適な描画形式に、設定通りに切り換えて動画表示することができる。
請求項5に記載の発明によれば、記憶部に記憶した指標を用いて、画像生成装置に描画形式の設定、変更を容易に指令することができる。
請求項6に記載の発明によれば、画像生成装置は、ロボットの実動作に対応して、ロボット及び作業環境の3次元画像を、ツール中心点の周辺領域を明確に表示可能な最適な視線に、自動的に切り換えて動画表示することができる。
請求項7に記載の発明によれば、画像生成装置は、ロボットの実動作に対応して、ロボット及び作業環境の3次元画像を、ツール中心点の周辺領域を明確に表示可能な最適な描画形式に、自動的に切り換えて動画表示することができる。
請求項8に記載の発明によれば、ロボットの実動作におけるツール中心点の移動状況を正確に得ることができる。
請求項9に記載の発明によれば、ロボット制御装置が作業プログラムを実行してロボットを制御する行為に並行して、同じ作業プログラムに従い、画像生成装置が、ロボット及び作業環境の3次元画像を、最適表示条件に適宜切り換えて動画表示することができる。したがって、システム全体の制御構成が容易になる。
請求項10に記載の発明によれば、ロボット制御装置と画像生成装置とを、多様な生産システムに容易に組み込むことができる。
以下、添付図面を参照して、本発明の実施の形態を詳細に説明する。全図面に渡り、対応する構成要素には共通の参照符号を付す。
図面を参照すると、図1は、本発明に係るロボット監視システム10の基本構成を機能ブロック図で示す。ロボット監視システム10は、ロボット12を制御するロボット制御装置14と、ロボット制御装置14から得たロボット制御関連情報Dに基づき、ロボット12及びロボット12の作業環境16の3次元モデル画像12M、16Mを、ロボット12の実動作に対応する動画として生成する画像生成装置18とを備える。画像生成装置18は、3次元モデル画像12M、16Mの動画を表わす視線及び描画形式の少なくとも一方を含む表示条件Cを、ロボット12の実動作に対応して変更可能に設定する表示条件設定部20と、表示条件設定部20が設定した表示条件Cの、ロボット12の実動作に対応した変更に従い、3次元モデル画像12M、16Mの動画を切り換えて生成する動画生成部22とを備える。
上記構成を有するロボット監視システム10では、画像生成装置18は、ロボット12を制御する作業プログラム自体や当該作業プログラムに記述された指令値等のロボット制御関連情報Dに基づいて、ロボット12及び作業環境16の3次元モデル画像12M、16Mの動画を、ロボット12の実動作に対応して変更可能な表示条件Cの下で生成する。そこで、ロボット12が作業プログラムに従って遂行する実動作の間に、例えば2部材間の位置ずれや干渉等の問題が生じ易い1箇所以上の重点監視領域を予め設定し、そのような重点監視領域を表示する際の表示条件Cを、問題を顕現させるに最適な内容(視線や描画形式)に適宜変更して設定することで、問題の発生を、3次元モデル画像12M、16Mの動画上で観察可能な画像として確実に表示することが可能になる。したがって、ロボット監視システム10によれば、ロボット12の実動作中に生じる動作上の諸問題を、その発生時期に関わらず正確かつ迅速に観察でき、以って、問題発生の検出及びその原因の解明を短時間で行って、適切な対策を迅速に施すことが可能になる。
図2は、本発明の一実施形態によるロボット監視システム30を模式図的に示す。ロボット監視システム30は、図1のロボット監視システム10で説明した基本構成を有するものであるから、対応する構成要素には共通の符号を付してその説明を省略する。
ロボット監視システム30では、ロボット制御装置14と画像生成装置18とが、イーサネット(登録商標)等の通信ネットワーク32を介して互いに接続される。ロボット制御装置14は、作業プログラム34に従ってロボット12に特定の作業を指令する処理部(CPU)36と、内蔵又は外付けの記憶部38とを備える。ここで、画像生成装置18がロボット制御装置14から得るロボット制御関連情報Dは、主として作業プログラム34の記述内容によるものである。そして、作業プログラム34に、表示条件C(図1)の変更に関する指令Eが記述される。したがって、画像生成装置18は、ロボット制御装置14から得たロボット制御関連情報D及び指令Eに従って、ロボット12及び作業環境16の3次元モデル画像12M、16Mの動画を生成するとともに、動画生成に必要な表示条件C(図1)を適宜変更する。
画像生成装置18は、表示条件設定部20(図1)及び動画生成部22(図1)の機能を有する処理部(CPU)40と、内蔵又は外付けの記憶部42と、表示画面44とを備える。処理部40は、ロボット制御関連情報D及び指令Eに従い、ロボット12及び作業環境16の3次元モデル画像12M、16Mの動画を生成して表示画面44に表示させる。処理部40で設定された表示条件C(図1)は、記憶部42に記憶される。なお、表示条件C(図1)を、ロボット制御装置14の記憶部38に記憶することもできる。
上記構成を有するロボット監視システム30において、画像生成装置18の処理部40(表示条件設定部20及び動画生成部22)が実行する表示条件設定処理及び動画生成処理の一例を、図3及び図4を参照して以下に説明する。この具体例では、図3に示すように、ロボット12がワーク(図示せず)をハンドリングして、加工機46のチャック(図示せず)に対し着脱する作業を、画像生成装置18でモニタリングするものとする。
処理部40による表示条件設定処理及び動画生成処理の第1実施例として、表示条件設定部20(図1)が設定する表示条件Cは、表示画面44に表示される動画の視線Fを定める視点VP及び監視対象点OPの各々の、ロボット12の実動作に対応して移動する位置(座標)を含むことができる。この場合、動画生成部22(図1)は、視点VP及び監視対象点OPの各々の位置の移動によって変化する視線Fに基づいて、動画を生成する。図3では、第1〜第3の視点VP1〜VP3(○で図示)と、それぞれに対応する第1〜第3の監視対象点OP1〜OP3(△で図示)と、それらによって決まる第1〜第3の視線F1〜F3(二点鎖線で図示)とが例示されている。
図示の例では、オペレータが、例えば前述した重点監視領域の代表点として監視対象点OP1〜OP3を設定するとともに、それら監視対象点OP1〜OP3を明確に表示するための視線F1〜F3を得る視点VP1〜VP3を設定する。この設定は、オペレータが画像生成装置18に対し、各視点VP及び各監視対象点OPの位置(座標)を入力することにより、行なうことができる。この場合、オペレータは、マウス等の入力装置を操作して、ロボット12及び加工機46を表示している表示画面44上で所望の視点VP及び監視対象点OPに対応する点を指示することにより、各点の位置(座標)を入力することができる。
各点の設定が完了すると、例えばオペレータの指示入力により、処理部40は、記憶部42(又はロボット制御装置14の記憶部38)に、複数の異なる視線F1〜F3のそれぞれに関し、視点VP1〜VP3の位置の設定値(座標値)と監視対象点OP1〜OP3の位置の設定値(座標値)とを互いに関連付けて、かつ位置を表す指標を付して記憶させる。そのような設定の一例を、下記の表1に示す。
Figure 2007061983
上記の例では、視線F1を規定する視点VP1及び監視対象点OP1の設定位置が、機械座標系(図3)の座標値として、No.「1」及び名前「ロボット左」という指標を付して記憶されている。同様に、視線F2を規定する視点VP2及び監視対象点OP2の設定位置(座標値)が、No.「2」及び名前「ロボット右」という指標を付して記憶され、また視線F3を規定する視点VP3及び監視対象点OP3の設定位置(座標値)が、No.「3」及び名前「加工機上」という指標を付して記憶されている。この構成によれば、作業プログラム34にNo.及び名前のいずれかの指標を記述することにより、ロボット制御装置14から画像生成装置18に視線Fの指定及び変更を指令することができる。
処理部40による表示条件設定処理及び動画生成処理の第2実施例として、表示条件設定部20(図1)が設定する表示条件Cは、表示画面44に表示される動画の描画形式としてのワイヤフレーム形式及びソリッド形式を含むことができる。この場合、動画生成部22(図1)は、ロボット12の実動作に対応してワイヤフレーム形式とソリッド形式との間で変更される描画形式に基づいて、動画を生成する。図4に例として、ワイヤフレーム形式で描画した加工機46のハウジング48と、ソリッド形式で描画した加工機46のチャック50とを示す。
図示の例では、オペレータが、表示画面44に表示される3次元モデル画像に含まれる複数の物体のそれぞれに関し、例えば前述した重点監視領域を明確に表示するための描画形式を、ロボット12の実動作の状況に対応して適宜選択して設定する。この設定は、オペレータが画像生成装置18に対し、ロボット12及び作業環境16(加工機46)の描画形式を指定入力することにより、行なうことができる。この場合、オペレータは、マウス等の入力装置を操作して、表示画面44を見ながら、ロボット12や加工機46の各種構成部分の描画形式を入力することができる。
描画形式の設定が完了すると、例えばオペレータの指示入力により、処理部40は、記憶部42(又はロボット制御装置14の記憶部38)に、ロボット12や加工機46の各種構成部分のそれぞれに関し、ロボットの実動作に対応してワイヤフレーム形式とソリッド形式との間で変更される描画形式を、実動作の内容を表す指標を付して記憶させる。そのような設定の一例を、下記の表2に示す。
Figure 2007061983
上記の例では、加工機46による加工作業の開始前の段階でのハウジング48及びチャック50の描画形式が、いずれもソリッド形式として、No.「1」及び名前「加工前」という指標を付して記憶されている。同様に、加工作業実行中のハウジング48及びチャック50の描画形式が、前者をワイヤフレーム形式かつ後者をソリッド形式として、No.「2」及び名前「加工中」という指標を付して記憶され、また加工作業完了後のハウジング48及びチャック50の描画形式が、いずれもソリッド形式として、No.「3」及び名前「加工後」という指標を付して記憶されている。この構成によれば、作業プログラム34にNo.及び名前のいずれかの指標を記述することにより、ロボット制御装置14から画像生成装置18に描画形式の指定及び変更を指令することができる。
なお、処理部40による表示条件設定処理及び動画生成処理の上記第1及び第2実施例は、いずれか一方を単独で採用することもできるし、両者を組み合わせて採用することもできる。
上記したオペレータによる表示条件C(図1)の設定入力に対応して、作業プログラム34(図2)は、例えば以下のように作成することができる(左端は行番号を表わす)。
1:モニタ視線変更 ロボット右
2:モニタ描画形式変更 加工前
3:MOVE J P[1]
4:MOVE L P[2]
5:モニタ視線変更 加工機上
6:モニタ描画形式変更 加工中
(6´:モニタ描画形式変更 加工機外枠=ワイヤフレーム)
7:MOVE L P[3]
8:MOVE L P[4]
9:MOVE L P[5]
10:モニタ視線変更 ロボット左
11:モニタ描画形式変更 加工後
12:MOVE L P[6]
13:MOVE L P[7]
14:MOVE L P[8]
15:MOVE L P[9]
16:MOVE J P[1]
上記作業プログラムを説明すると、行1では、画像処理装置18で、視点位置及び監視対象点位置を「ロボット右」に設定する。行2では、画像処理装置18で、描画形式を「加工前」に設定する。行3では、ロボット12の各軸動作でアームを位置P[1]へ移動する。行4では、ロボット12の直線経路制御でアームを位置P[2]へ移動する。これらのアーム動作は、画像処理装置18において、視線F2によるソリッド形式で動画表示される。
行5では、画像処理装置18で、視点位置及び監視対象点位置を「加工機上」に変更する。行6では、画像処理装置18で、描画形式を「加工中」に変更する。行7では、ロボット12の直線経路制御でアームを位置P[3]へ移動する。行8では、ロボット12の直線経路制御でアームを位置P[4]へ移動する。行9では、ロボット12の直線経路制御でアームを位置P[5]へ移動する。これらのアーム動作は、画像処理装置18において、視線F3によるワイヤフレーム形式(ハウジング48)及びソリッド形式(チャック50)で動画表示される。
行10では、画像処理装置18で、視点位置及び監視対象点位置を「ロボット左」に変更する。行11では、画像処理装置18で、描画形式を「加工後」に変更する。行12では、ロボット12の直線経路制御でアームを位置P[6]へ移動する。行13では、ロボット12の直線経路制御でアームを位置P[7]へ移動する。行14では、ロボット12の直線経路制御でアームを位置P[8]へ移動する。行15では、ロボット12の直線経路制御でアームを位置P[9]へ移動する。行16では、ロボット12の各軸動作でアームを位置P[1]へ移動する。これらのアーム動作は、画像処理装置18において、視線F1によるソリッド形式で動画表示される。
上記した作業プログラム34において、視線変更指令の行1、5、10には、指標として名前の代わりにNo.を記述することもできる。或いは、他の引数を用いて、位置の設定値(座標値)を直接記述することもできる。同様に、描画形式変更指令の行2、6、11には、指標として名前の代わりにNo.を記述することもできる。或いは、他の引数を用いて、物体名とその描画形式を直接記述することもできる(行6´参照)。
上記した作業プログラム34をロボット制御装置14が実行すると、ロボット12がその制御下で動作するとともに、それに並行して(好ましくは実時間で)、画像生成装置18が、ロボット12及び作業環境16(加工機46)の3次元画像を、予め定めた重点監視領域(加工機46の内部も含む)を明確に表示可能な最適表示条件に適宜切り換えて動画表示する。したがって、ロボット12が加工機46の内部に進入して作業を行う場合も含めて、ロボット12の動作状況に適合するように動画表示を能動的に変化させ、ロボット12及び作業環境16の現況を常に観察し易い状態で監視することができる。その結果、例えば加工機内部の作業でロボット12の動作に関する問題が発生した際にも、ロボット12及び加工機46の内部の現況を即座に観察できるので、問題発生の原因を迅速に解明することができる。
処理部40による表示条件設定処理及び動画生成処理の第3実施例として、表示条件設定部20(図1)が設定する表示条件Cは、実動作に伴って移動するロボット12のツール中心点TCP(図3)の位置と、ツール中心点TCPを監視対象点OPとしたときの、表示画面44に表示される動画の視線Fを定める視点VPと監視対象点OPとの一定の相対位置関係Rとを含むことができる。この場合、動画生成部22(図1)は、この相対位置関係Rの下での視点VP及び監視対象点OPの移動によって変化する視線Fに基づいて、動画を生成する。図3では、ツール中心点TCPからなる監視対象点OP4と、監視対象点OP4に対して相対位置関係Rの下に置かれる視点VP4と、それらによって決まる視線F4とが例示されている。
上記構成において、表示条件設定部20は、ロボット制御装置14から、制御基準点としてのツール中心点TCPの位置情報を得ることができる。また、視点VPと監視対象点OPとの一定の相対位置関係Rは、予めオペレータが設定入力して、記憶部42(又はロボット制御装置14の記憶部38)に記憶することができる。処理部40は、ロボット制御装置14から適当な周期(例えば補間周期)でツール中心点TCPの位置情報を継続的に入手し、予め設定した相対位置関係Rから、ツール中心点TCPに追従して移動する視点VPの位置を求め、視線Fを決定する。これにより、ロボット12のツール中心点TCPの周辺領域の動作状況が、常時、画像生成装置18の表示画面44に動画表示されることになる。
また、処理部40による表示条件設定処理及び動画生成処理の第4実施例として、表示条件設定部20(図1)が設定する表示条件Cは、実動作に伴って移動するロボット12のツール中心点TCP(図3)の位置と、表示画面44に表示される動画の描画形式としてのワイヤフレーム形式及びソリッド形式とを含むことができる。この場合、動画生成部22(図1)は、ツール中心点TCPの移動に対応してワイヤフレーム形式とソリッド形式との間で変更される描画形式に基づいて、動画を生成する(図4参照)。
上記構成において、表示条件設定部20は、ロボット制御装置14からツール中心点TCPの位置情報を得ることができる。また、ロボット12及び作業環境16(加工機46)の各構成部分に関して、ワイヤフレーム形式とソリッド形式との間で描画形式の変更が必要となるツール中心点TCPの移動範囲を、予めオペレータが設定入力して、記憶部42(又はロボット制御装置14の記憶部38)に記憶することができる。処理部40は、ロボット制御装置14から適当な周期(例えば補間周期)でツール中心点TCPの位置情報を継続的に入手し、予め設定したツール中心点TCPの移動範囲から、各構成部分の描画形式を決定する。これにより、例えばロボット12が加工機46の内部で作業している間であっても、ツール中心点TCPの周辺領域の動作状況が、常時、画像生成装置18の表示画面44に動画表示されることになる。
なお、処理部40による表示条件設定処理及び動画生成処理の上記第3及び第4実施例は、いずれか一方を単独で採用することもできるし、両者を組み合わせて採用することもできる。
上記したオペレータによる表示条件C(図1)の設定入力に対応して、作業プログラム34(図2)は、例えば以下のように作成することができる(左端は行番号を表わす)。
1:MOVE J P[1]
2:モニタ追従開始
3:MOVE L P[2]
4:MOVE L P[3]
5:MOVE L P[4]
6:MOVE L P[5]
7:モニタ追従終了
8:MOVE L P[6]
9:MOVE L P[7]
10:MOVE J P[1]
上記作業プログラムを説明すると、行1では、ロボット12の各軸動作でアームを位置P[1]へ移動する。行2では、画像処理装置18で、ツール中心点TCPの移動に追従して視点VPを移動させる動画表示を開始する。行3では、ロボット12の直線経路制御でアームを位置P[2]へ移動する。行4では、ロボット12の直線経路制御でアームを位置P[3]へ移動する。行5では、ロボット12の直線経路制御でアームを位置P[4]へ移動する。行6では、ロボット12の各軸動作でアームを位置P[5]へ移動する。これらのアーム動作は、画像処理装置18において、ツール中心点TCPの周辺部品の動画として表示される。
行7では、画像処理装置18で、ツール中心点TCPの移動に追従して視点VPを移動させる動画表示を終了する。行8では、ロボット12の直線経路制御でアームを位置P[6]へ移動する。行9では、ロボット12の直線経路制御でアームを位置P[4]へ移動する。行10では、ロボット12の各軸動作でアームを位置P[8]へ移動する。これらのアーム動作は、画像処理装置18において、ツール中心点TCPの移動とは無関係の動画として表示される。
上記した作業プログラム34において、追従開始指令の行2には、任意の引数を用いて、ツール中心点TCPと視点VPとの予め設定した相対位置関係Rを記述して、画像生成装置18に指令するように構成することもできる。
上記した作業プログラム34をロボット制御装置14が実行すると、ロボット12がその制御下で動作するとともに、それに並行して(好ましくは実時間で)、画像生成装置18が、ロボット12及び作業環境16(加工機46)の3次元画像を、ツール中心点TCPの移動に対応して変化する最適表示条件(視線や描画形式)によって、予め定めた重点監視領域(加工機46の内部も含む)を明確に動画表示する。このような構成によっても、前述した実施例1及び2による作用効果と同等の作用効果が奏される。
本発明に係るロボット監視システムの基本構成を示す機能ブロック図である。 図1の基本構成を有する本発明の一実施形態によるロボット監視システムを模式図的に示す図である。 図3のロボット監視システムにおける表示条件変更手順を模式図的に示す図である。 図3のロボット監視システムにおける描画形式の一例を示す図である。
符号の説明
10、30 ロボット監視システム
12 ロボット
14 ロボット制御装置
16 作業環境
18 画像生成装置
20 表示条件設定部
22 動画生成部
32 通信ネットワーク
34 作業プログラム
36、40 処理部
38、42 記憶部
44 表示画面
46 加工機

Claims (10)

  1. ロボットを制御するロボット制御装置と、該ロボット制御装置から得たロボット制御関連情報に基づき、該ロボット及び該ロボットの作業環境の3次元モデル画像を、該ロボットの実動作に対応する動画として生成する画像生成装置とを具備するロボット監視システムにおいて、
    前記画像生成装置は、
    前記3次元モデル画像の前記動画を表わす視線及び描画形式の少なくとも一方を含む表示条件を、前記ロボットの前記実動作に対応して変更可能に設定する表示条件設定部と、
    前記表示条件設定部が設定した前記表示条件の、前記ロボットの前記実動作に対応した変更に従い、前記動画を切り換えて生成する動画生成部と、
    を備えることを特徴とするロボット監視システム。
  2. 前記表示条件設定部が設定する前記表示条件は、前記視線を定める視点及び監視対象点の各々の、前記ロボットの前記実動作に対応して移動する位置を含み、前記動画生成部は、該視点及び該監視対象点の各々の該位置の移動によって変化する該視線に基づいて、前記動画を生成する、請求項1に記載のロボット監視システム。
  3. 複数の異なる前記視線のそれぞれに関し、前記視点の前記位置の設定値と前記監視対象点の前記位置の設定値とを互いに関連付けて、かつ該位置を表す指標を付して記憶する記憶部をさらに具備し、該記憶部が、前記ロボット制御装置と前記画像生成装置とのいずれか一方に設けられる、請求項2に記載のロボット監視システム。
  4. 前記表示条件設定部が設定する前記表示条件は、前記描画形式としてのワイヤフレーム形式及びソリッド形式を含み、前記動画生成部は、前記ロボットの前記実動作に対応して該ワイヤフレーム形式と該ソリッド形式との間で変更される該描画形式に基づいて、前記動画を生成する、請求項1〜3のいずれか1項に記載のロボット監視システム。
  5. 前記3次元モデル画像に含まれる複数の物体のそれぞれに関し、前記ロボットの前記実動作に対応して前記ワイヤフレーム形式と前記ソリッド形式との間で変更される前記描画形式を、該実動作の内容を表す指標を付して記憶する記憶部をさらに具備し、該記憶部が、前記ロボット制御装置と前記画像生成装置とのいずれか一方に設けられる、請求項4に記載のロボット監視システム。
  6. 前記表示条件設定部が設定する前記表示条件は、前記実動作に伴って移動する前記ロボットのツール中心点の位置と、該ツール中心点を監視対象点としたときの、前記視線を定める視点と該監視対象点との一定の相対位置関係とを含み、前記動画生成部は、該相対位置関係の下での該視点及び該監視対象点の移動によって変化する該視線に基づいて、前記動画を生成する、請求項1に記載のロボット監視システム。
  7. 前記表示条件設定部が設定する前記表示条件は、前記実動作に伴って移動する前記ロボットのツール中心点の位置と、前記描画形式としてのワイヤフレーム形式及びソリッド形式とを含み、前記動画生成部は、該ツール中心点の移動に対応して該ワイヤフレーム形式と該ソリッド形式との間で変更される該描画形式に基づいて、前記動画を生成する、請求項1又は6に記載のロボット監視システム。
  8. 前記表示条件設定部は、前記ロボット制御装置から前記ツール中心点の位置情報を得る、請求項6又は7に記載のロボット監視システム。
  9. 前記画像生成装置が前記ロボット制御装置から得る前記ロボット制御関連情報は、ロボットに特定作業を指令する作業プログラムを含み、該作業プログラムに、前記表示条件の変更に関する指令が記述される、請求項1〜8のいずれか1項に記載のロボット監視システム。
  10. 前記ロボット制御装置と前記画像生成装置とが、通信ネットワークを介して互いに接続される、請求項1〜9のいずれか1項に記載のロボット監視システム。
JP2005253902A 2005-09-01 2005-09-01 ロボット監視システム Pending JP2007061983A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005253902A JP2007061983A (ja) 2005-09-01 2005-09-01 ロボット監視システム
CNA2006101264587A CN1923470A (zh) 2005-09-01 2006-08-31 机器人监控系统
EP06018252A EP1759817A2 (en) 2005-09-01 2006-08-31 Robot monitoring system
US11/513,187 US20070050091A1 (en) 2005-09-01 2006-08-31 Robot monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005253902A JP2007061983A (ja) 2005-09-01 2005-09-01 ロボット監視システム

Publications (1)

Publication Number Publication Date
JP2007061983A true JP2007061983A (ja) 2007-03-15

Family

ID=37529417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005253902A Pending JP2007061983A (ja) 2005-09-01 2005-09-01 ロボット監視システム

Country Status (4)

Country Link
US (1) US20070050091A1 (ja)
EP (1) EP1759817A2 (ja)
JP (1) JP2007061983A (ja)
CN (1) CN1923470A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010042466A (ja) * 2008-08-11 2010-02-25 Fanuc Ltd ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法
JP2011201002A (ja) * 2010-03-26 2011-10-13 Sony Corp ロボット装置、ロボット装置の遠隔制御方法及びプログラム
JP2016059980A (ja) * 2014-09-16 2016-04-25 ファナック株式会社 ロボットの動作監視領域を設定するロボットシステム
JP2016120567A (ja) * 2014-12-25 2016-07-07 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
JP2016120566A (ja) * 2014-12-25 2016-07-07 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3819883B2 (ja) * 2003-08-27 2006-09-13 ファナック株式会社 ロボットプログラム位置修正装置
JP2006224279A (ja) * 2005-02-21 2006-08-31 Fanuc Ltd ロボット撮像装置
JP4233583B2 (ja) * 2007-04-03 2009-03-04 ファナック株式会社 複数系統のプログラムの編集機能を有する数値制御装置
JP4256440B2 (ja) * 2007-08-10 2009-04-22 ファナック株式会社 ロボットプログラム調整装置
US8666533B2 (en) * 2009-10-09 2014-03-04 Siemens Product Lifecycle Management Software Inc. System, method, and interface for virtual commissioning of press lines
US20130079905A1 (en) * 2010-06-03 2013-03-28 Hitachi, Ltd. Human-Operated Working Machine System
KR101337650B1 (ko) * 2011-11-02 2013-12-05 삼성중공업 주식회사 실시간 위빙 모션 제어 장치 및 그 방법
US9412110B2 (en) * 2013-11-12 2016-08-09 Globalfoundries Inc. Mobile image acquisition
EP3112965A1 (en) * 2015-07-02 2017-01-04 Accenture Global Services Limited Robotic process automation
JP6432494B2 (ja) * 2015-11-30 2018-12-05 オムロン株式会社 監視装置、監視システム、監視プログラムおよび記録媒体
CN105364915B (zh) * 2015-12-11 2017-06-30 齐鲁工业大学 基于三维机器视觉的智能家庭服务机器人
JP6392839B2 (ja) 2016-12-21 2018-09-19 ファナック株式会社 画像表示装置
JP6457587B2 (ja) * 2017-06-07 2019-01-23 ファナック株式会社 ワークの動画に基づいて教示点を設定するロボットの教示装置
JP6806757B2 (ja) * 2018-11-16 2021-01-06 ファナック株式会社 動作プログラム作成装置
EP3914421A4 (en) * 2019-01-21 2022-08-17 ABB Schweiz AG ROBOTIC SYSTEM MONITORING METHOD AND APPARATUS
CN111080750B (zh) * 2019-12-30 2023-08-18 北京金山安全软件有限公司 一种机器人动画配置方法、装置及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10312207A (ja) * 1997-05-12 1998-11-24 Kawasaki Heavy Ind Ltd 3次元コンピュータグラフィック表示方法および装置
JPH11104984A (ja) * 1997-10-06 1999-04-20 Fujitsu Ltd 実環境情報表示装置及び実環境情報表示処理を実行するプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004151976A (ja) * 2002-10-30 2004-05-27 Honda Motor Co Ltd シミュレーション装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3708083B2 (ja) * 2003-02-28 2005-10-19 ファナック株式会社 ロボット教示装置
JP3953998B2 (ja) * 2003-09-30 2007-08-08 ファナック株式会社 画像処理装置
JP3708097B2 (ja) * 2003-10-08 2005-10-19 ファナック株式会社 ロボットの手動送り装置
JP3971773B2 (ja) * 2005-10-12 2007-09-05 ファナック株式会社 ロボットのオフライン教示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10312207A (ja) * 1997-05-12 1998-11-24 Kawasaki Heavy Ind Ltd 3次元コンピュータグラフィック表示方法および装置
JPH11104984A (ja) * 1997-10-06 1999-04-20 Fujitsu Ltd 実環境情報表示装置及び実環境情報表示処理を実行するプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004151976A (ja) * 2002-10-30 2004-05-27 Honda Motor Co Ltd シミュレーション装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010042466A (ja) * 2008-08-11 2010-02-25 Fanuc Ltd ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法
JP2011201002A (ja) * 2010-03-26 2011-10-13 Sony Corp ロボット装置、ロボット装置の遠隔制御方法及びプログラム
US10105843B2 (en) 2010-03-26 2018-10-23 Sony Corporation Robot device, remote control method of robot device, and program
JP2016059980A (ja) * 2014-09-16 2016-04-25 ファナック株式会社 ロボットの動作監視領域を設定するロボットシステム
US9610690B2 (en) 2014-09-16 2017-04-04 Fanuc Corporation Robot system for setting motion monitoring range of robot
JP2016120567A (ja) * 2014-12-25 2016-07-07 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
JP2016120566A (ja) * 2014-12-25 2016-07-07 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム

Also Published As

Publication number Publication date
US20070050091A1 (en) 2007-03-01
CN1923470A (zh) 2007-03-07
EP1759817A2 (en) 2007-03-07

Similar Documents

Publication Publication Date Title
JP2007061983A (ja) ロボット監視システム
US11007646B2 (en) Programming assistance apparatus, robot system, and method for generating program
JP6343353B2 (ja) ロボットの動作プログラム生成方法及びロボットの動作プログラム生成装置
CN110394780B (zh) 机器人的仿真装置
CN107921642B (zh) 远程操作机械手系统及其运转方法
US20190051049A1 (en) Information processing apparatus, information processing method, and non-transitory storage medium
JP7041492B2 (ja) ロボットシステム
CN108349085B (zh) 机器人教学装置、计算机程序和机器人教学方法
JP2007523757A (ja) 複数のロボットアームの追従及び鏡映ジョグ
JP6863927B2 (ja) ロボットのシミュレーション装置
JP2019061523A (ja) 情報処理装置、情報処理方法およびプログラム
US10315305B2 (en) Robot control apparatus which displays operation program including state of additional axis
WO2021246416A1 (ja) プログラミング装置
WO2019026790A1 (ja) ロボットシステム及びその運転方法
JPS59229619A (ja) ロボツトの作業教示システムおよびその使用方法
JP5272447B2 (ja) 数値制御機械の動作シミュレータ
JP2010240782A (ja) ロボット制御システム、制御装置および制御方法
JP5749594B2 (ja) 工作機械用制御装置
JP2019081204A (ja) ロボット制御方法、制御端末、およびロボットシステム
JP2021128709A (ja) 処理装置、及び処理方法
CN112975120A (zh) 扫描仪控制器和扫描仪控制系统
JP2021194747A (ja) ロボット減速機寿命推定シミュレーション装置
JP2001042907A (ja) シーケンス制御装置
JP7436796B2 (ja) ロボットのプログラム作成支援装置
WO2024134902A1 (ja) ロボットの姿勢を調整する装置、方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20070731

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20070824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071025

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080121

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080125

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20080215