JP2010094777A - 遠隔操作支援装置 - Google Patents
遠隔操作支援装置 Download PDFInfo
- Publication number
- JP2010094777A JP2010094777A JP2008267816A JP2008267816A JP2010094777A JP 2010094777 A JP2010094777 A JP 2010094777A JP 2008267816 A JP2008267816 A JP 2008267816A JP 2008267816 A JP2008267816 A JP 2008267816A JP 2010094777 A JP2010094777 A JP 2010094777A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- unit
- operation sequence
- dimensional
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【解決手段】三次元測定機で測定した点群データに基づいて対象物を三次元認識し、当該対象物の形状と位置と姿勢と4を特定する三次元認識部と、特定した対象物の位置と形状と姿勢とが反映された対象物モデル表現を生成する対象物モデル表現部と、生成した対象物モデル表現を表示する表示部と、外部からの指示情報に基づいて、前記表示部で表示されている対象物モデルからロボットで操作する操作対象モデルを特定し、さらに当該操作対象モデルのロボットによる動作シーケンスを生成するロボット動作シーケンス指示部と、指示した動作シーケンスに基づいて前記ロボットの最適な動作シーケンスを決定し、決定した動作シーケンスを前記表示部に出力するロボット動作シーケンス決定部を備えている。
【選択図】図1
Description
一方、原子力発電所等の人間が立ち入ることができない環境では、形状や大きさの異なる部品の組立作業等を行うために、熟練者が、複数のカメラ映像を利用して、部品の位置及び姿勢を把握しながら、ロボットを遠隔操作しているのが現状である。
そこで、本発明は上記従来例の未解決の課題に着目してなされたものであり、対象物の位置や姿勢が事前に判らない場合においても、対象物の動作シーケンスを指示して、最適な動作シーケンスを決定することが可能な遠隔操作支援装置を提供することを目的としている。
また、請求項3に係る遠隔操作支援装置は、請求項1又は2に係る発明において、ロボットの各軸の状態に基づいて前記ロボットの動作状態が反映されたロボットモデル表現を生成するロボットモデル表現部と、三次元空間の指定された視点から見た前記対象物モデル表現および前記ロボットモデル表現を前記表示部の同一画面上に三次元的に表示させる三次元画像生成部とを備えることを特徴としている。
図1は、本発明の第1実施形態に係る遠隔操作支援装置の概略構成を示すシステム構成図である。
図1において、保守や点検などの作業が行われる三次元空間の作業エリアには、対象物11を操作するロボット12およびロボット12にて操作される対象物11が配置されている。なお、対象物11およびロボット12が配置されている作業エリアは、放射線環境下や宇宙環境下などの人間が容易に立ち入ることができない場所に設置することができる。また、ロボット12とは、マニュピュレータなどを含めた遠隔操作で使用される機械装置全般を言う。
なお、作業環境に設定される三次元座標系を基準座標系、ロボットに設定されるロボット基準の三次元座標系をロボット座標系、それぞれの対象物に設定される対象物基準の三次元座標系を対象物座標系として、以下説明する。
具体的には、ロボットモデル表現を生成するために必要なアームなどのロボット12の構成要素の寸法を遠隔操作支援装置21に予め登録しておき、ロボット12の各軸の状態を状態検出部19で取得し、ロボット12の各軸1、2、・・・ごとに各軸座標系の変換行列を求め、ロボット変換行列格納部27に格納する。さらに、ロボット12の移動しない台座等の3点以上の三次元座標をレーザスキャナ13で計測し、その計測点の基準座標系における三次元座標とロボット座標系における三次元座標とを用いて座標変換行列を算出し、ロボット座標系と基準座標系との変換行列もロボット変換行列格納部27に格納する。なお、ロボット12の各軸の状態検出部19としては、ロボット12の各軸の角度を用いることができ、定期的にロボット12の各軸の現在の軸角度を読み出し、各軸座標系の変換行列(軸1の変換行列、軸2の変換行列、・・・、先端の変換行列)に変換して保存することができる。そして、ロボット12の状態検出部19の状態検出データおよびロボット12の構成要素寸法に基づいて、ロボット12の実際の動きが反映されたロボット12と同様な形状を構築することにより、ロボット12の動作状態が反映されたロボット座標系におけるロボットモデル表現と基準座標系におけるロボットモデル表現とを生成する。
図3において、ロボット12の三次元座標系は、ロボット12の各軸1、2、・・・ごとに設けることができる。例えば、ロボット12の基準座標系であるロボット座標系はX0・Y0・Z0座標系、軸1の座標系はX1・Y1・Z1座標系、軸2の座標系はX2・Y2・Z2座標系、・・・、先端の座標系はX5・Y5・Z5座標系とすることができる。そして、ロボット12の各軸間の距離d1、d2、・・・を設定することができる。なお、ロボットモデル表現には、例えば、コンピュータグラフィクスにて一般的に使用されるサーフィスモデルなどを用いることができる。
図4は、ロボット動作シーケンス指示部21dの動作シーケンス指示処理のフローチャートである。この動作シーケンス指示処理は、先ず、ステップS11で、対象物モデル表現部21bで生成した対象物モデル表現の表示情報を後述する三次元画像生成手段21iにて表示装置22に出力して、三次元認識された全ての対象物モデル表現を表示装置22に表示する。
このステップS13の判定結果が、操作対象モデル表現が特定されていない場合にはステップS12に戻り、操作対象モデル表現が特定されている場合にはステップS14に移行して、操作対象物モデル表現の移動位置が入力されたか否かを判定する。この判定は、例えばマウスによってドラッグ操作された操作対象物モデル表現がドロップ操作された場合には、操作対象物モデル表現の移動位置が入力されたと判定する。
ロボット動作シーケンス決定部21eは、ロボット動作シーケンス指示部21dで指示された操作対象モデルの動作シーケンスに基づいて操作対象モデルを障害物の回避動作を行いながら移動させる最適な動作シーケンスを決定する。
次いで、ステップS24に移行して、読み込んだ移動軌跡の始点位置を最初のチェック位置に設定し、次いでステップS25に移行して、後述する近接状態判定部21hの判定結果が、チェック位置において対象物が近接状態であるか否かを判定し、近接状態であるときには、ステップS26に移行して、現在チェック位置の下方向に障害物が存在するか否かを判定し、下方向に障害物が存在する場合にはステップS27に移行して、作業環境の最高高さ位置に到達しているか否かを判定し、最高高さ位置に達していないときにはステップS28に移行して、現在チェック位置より上側に仮チェック位置を設定してから後述するステップS43に移行する。
さらに、前記ステップS25の判定結果が、近接状態ではないときには、ステップS35に移行し、現在のチェック位置が実移動軌跡上であるか否かを判定し、実移動軌跡上ではないときにはステップS36に移行する。このステップS36では、現在チェック位置の下方向に障害物が存在するか否かを判定し、下方向に障害物が存在する場合にはステップS37に移行して、現在チェック位置から実移動軌跡と平行な直線上の終点側に仮チェック位置を設定してから後述するステップS43に移行する。
このステップS39では、現在チェック位置の右方向に障害物が存在するか否かを判定し、右方向に障害物が存在する場合には前記ステップS37に移行し、右方向に障害物が存在しない場合にはステップS40に移行する。
ステップS43では、ステップS28、S31、S33、S34、S37、S41及びS42で設定した仮チェック位置をチェック位置に設定してからステップS44に移行し、設定されたチェック位置が終点位置であるか否かを判定し、終点位置ではないときには前記ステップS25に戻り、終点位置であるときにはステップS45に移行して、設定されたチェック位置を結んで動作シーケンスを決定してRAM等のメモリに記憶し、決定された動作シーケンスの表示情報を操作画面の画像情報に書込んで表示装置22に表示してから動作シーケンス決定処理を終了する。
[点cの基準座標系の三次元座標]=(ロボット12のロボット座標系の変換行列)×(軸1の座標系の変換行列)×(軸1上の点cの座標) ・・・(1)
また、例えば、軸2の座標系の点bは、以下の(2)式にて基準座標系の三次元座標に変換することができる。
・・・(2)
また、例えば、先端の座標系の点aは、以下の(3)式にて基準座標系の三次元座標に変換することができる。
近接状態判定部21hは、対象物11の基準座標系における三次元座標およびロボット12の基準座標系における三次元座標に基づいて、対象物11とロボット12との近接状態を判定することができる。
この判定結果が、Ls>Lthであるときには、ロボット12が対象物11に近接していないと判断し(ステップS58)、Ls≦Lthであるときには、最短対象物11上の座標点との間で最小の距離となるロボット12上の座標点が先端に位置するかどうかを判断する(ステップS59)。
三次元画像生成部21iは、対象物モデル表現部21bにて基準座標系における対象物モデル表現およびロボットモデル表現部21cにて基準座標系におけるロボットモデル表現が生成されると、三次元空間の指定された視点から見た対象物モデル表現およびロボットモデル表現を三次元的に示す二次元画像を生成し、表示装置22の同一画面上に重ねて表示させる。なお、対象物モデル表現およびロボットモデル表現を表示装置22に表示させる場合、OpenGLなどのグラフィックスソフトウェアを利用することで、任意の視点から見た対象物モデル表現およびロボットモデル表現を同一画面上に重ねて表示させることができる。
また、ロボット制御部21jは、図8に示すロボット制御処理を実行する。このロボット実行処理は、先ずステップS71で、前述した動作シーケンス決定処理で決定された動作シーケンスの基準座標系における三次元座標値をロボット12のロボット座標系の座標値に変換するための変換行列を生成する。この変換行列は、予め算出されたロボット12のロボット座標系を基準座標系に位置合わせするための変換行列の逆行列である。この逆行列を算出することで、基準座標系の座標値をロボット12のロボット座標系に位置合わせする変換行列を生成できる。
なお、三次元認識部21a、対象物モデル表現部21b、ロボットモデル表現部21c、ロボット動作シーケンス指定部21d、ロボット動作シーケンス決定部21e、対象物座標変換部21f、ロボット座標変換部21g、近接状態判定部21h、三次元画像生成手段21iおよびロボット制御部21jは、これらで実行される処理を遂行させる命令が記述されたプログラムをコンピュータに実行させることにより実現することができる。
先ず、オペレータは、遠隔操作支援装置21の電源を投入することにより、三次元認識部21aで、レーザスキャナ13を作動させて、レーザ光で対象物11を走査することにより、対象物11上の点群データを読込み、この点群データを三次元計測処理して対象物三次元環境データを生成し、生成した三次元環境データを環境データ格納部23に格納するとともに、生成した三次元環境データと三次元認識データベース16に格納された対象物情報を参照して、対象物11の形状、位置および姿勢を特定する。
一方、ロボットモデル表現部21cでは、ロボット12の状態検出部19の状態検出データに基づいて、ロボット12の実際の動きが反映されたロボット12と同様な形状を構築することにより、ロボット12の動作状態が反映されたロボットモデル表現が生成される。
このため、表示装置22には、三次元画像生成部21iによって、図9〜図12に示す環境画像を表示する。
図9において、図1のレーザスキャナ13にて計測された環境データ17が遠隔操作支援装置21にて取得され、その環境データが表示装置22に表示される。
図10は本発明の一実施形態に係る環境データおよび対象物のモデル表現の表示例を示す図である。
図11は、本発明の一実施形態に係る環境データ17、対象物のモデル表現18およびロボットのモデル表現20の表示例を示す図である。
図12は、本発明の一実施形態に係るグリッパを視点とした対象物のモデル表現の表示例を示す図である。
また、ロボット12の動作シーケンスを指示したい場合には、ロボット動作シーケンス指示部21dを起動して、図4に示す動作シーケンス指示処理を実行する。この動作シーケンス指示処理では、図13に示すように、例えばロボット操作環境に配置された複数の対象物11すなわち棒状部材11aとこの棒状部材11aの右側に配置された円筒部材11bとこの円筒部材11bの右側に配置された棒状部材11aを装着する穴部11cを有する棒状部材被装着部材11dとが、三次元画像生成部21iによって表示装置22に、操作画面として表示される(ステップS11)。
この状態で、先ず、移動軌跡の始点位置を最初のチェック位置に設定し(ステップS24)、次いで近接状態判定部21hの判定結果が近接状態であるか否かを判定する(ステップS25)。このとき、円筒部材11bに達する迄の間では、対象物が存在しないので、近接状態判定部21hで算出されるロボット12の座標点と対象物11の座標点間の最小距離Lsが近接判定閾値Lthより大きな値となることにより、図6の近接状態判定処理で、ステップS57からステップS58に移行して、ロボット12が対象物に近接していないと判断される。
この障害物回避処理では、先ず、棒状部材11aを把持したロボット12のチェック位置が実移動軌跡17上を移動していたので、棒状部材11aを把持したロボット12が障害物となる円筒部材11bに近接したときに、上下方向には障害物が存在せず、しかも左右方向にも障害物が存在しないので、ステップS26、ステップS29及びステップS32を経てステップS34に移行し、現在のチック位置の左側に所定距離離れた仮チック位置を設定する。そして、仮チェック位置がチェック位置に更新される(ステップS43)。
このため、図5の動作シーケンス決定処理では、ステップS25からステップS35に移行し、実移動軌跡17から外れているので、ステップS36に移行し、下方向には障害物が存在しないので、ステップS38に移行し、上方向にも障害物が存在しないので、ステップS39に移行し、前回の処理で右方向に円筒部材11bが存在するので、ステップS37に移行して、現在のチェック位置から実移動軌跡17に平行な直線上の終点側に仮チェック位置を設定する。
なお、図5の動作シーケンス決定処理で、棒状部材11aを把持したロボット12が下側の障害物に近接する状態となった場合には、現在のチェック位置より上方側に所定距離離れた位置に仮チェック位置が設定され、同様に、上側の障害物に近接する状態となった場合には、現在のチェック位置より下方側に所定距離離れた位置に仮チェック位置が設定される。このため、下方又は上方に障害物が存在する場合には、その逆方向すなわち上方又は下方にチェック位置が移動する障害物回避処理が行なわれ、最高高さ位置又は最低高さ位置に到達した場合には、左右方向の回避処理が行なわれる。
このロボット制御処理では、動作シーケンス決定処理で決定された各チェック位置の位置座標を読込み、これにロボット12の三次元座標系の座標値に変換するための逆行列を乗算することにより、ロボット12の三次元座標値に変換し、変換した各チェック位置の三次元座標値に基づいてロボット12を駆動制御することにより、棒状部材11aを円筒部材11bを避けながら棒状部材被装着部材11dの穴部11cに装着することができる。
これにより、対象物11およびロボット12の現在の状態がそれぞれ反映された三次元的な対象物モデル表現およびロボットモデル表現を生成し、その対象物モデル表現18およびロボットモデル表現20を同一画面上に三次元的に表示させることが可能となる。このため、対象物11の位置や姿勢が変化する場合においても、対象物11およびロボット12の現在の状態を精度よく表示させることが可能となるとともに、対象物11およびロボット12を三次元的にモデル化することにより、複数のカメラを設置することなく、任意の視点からの画像に切り替えることが可能となり、人間が容易に立ち入ることができない放射線環境下や宇宙環境下などであっても、ロボット12による対象物11の遠隔操作を円滑に行うことが可能となる。
12 ロボット
13 レーザスキャナ
15 移動軌跡
16 三次元認識データベース
17 実移動軌跡
18 対象物のモデル表現
19 各軸の状態検出部
20 ロボットのモデル表現
21、35 遠隔操作支援装置
21a 三次元認識部
21b 対象物モデル表現部
21c ロボットモデル表現部
21d ロボット動作シーケンス指示部
21e ロボット動作シーケンス決定部
21f 対象物座標変換部
21g ロボット座標変換部
21h 近接状態判定部
21i 三次元画像生成部
21j ロボット制御部
22 表示装置
23 環境データ格納部
24 対象物座標格納部
25 ロボット座標格納部
26 対象物変換行列格納部
27 ロボット変換行列格納部
Claims (4)
- 三次元測定機で測定した点群データに基づいて対象物を三次元認識し、当該対象物の形状と位置と姿勢とを特定する三次元認識部と、
該三次元認識部で特定した対象物の形状と位置と姿勢とが反映された対象物モデル表現を生成する対象物モデル表現部と、
該対象物モデル表現部で生成した対象物モデル表現を表示する表示部と、
外部からの指示情報に基づいて、前記表示部で表示されている対象物モデルからロボットで操作する操作対象モデルを特定し、さらに当該操作対象モデルのロボットによる動作シーケンスを生成するロボット動作シーケンス指示部と、
該ロボット動作シーケンス指示部で指示した動作シーケンスに基づいて障害物を回避する前記ロボットの動作シーケンスを決定し、決定した動作シーケンスを前記表示部に出力するロボット動作シーケンス決定部とを備えたことを特徴とする遠隔操作支援装置。 - 前記ロボット動作シーケンス決定部は、前記三次元認識部で認識した対象物の形状と位置と姿勢とに基づいて前記生成された動作シーケンスの移動軌跡上の障害物を探索し、探索した障害物を回避する動作シーケンスを決定するように構成されていることを特徴とする請求項1に記載の遠隔操作支援装置。
- ロボットの各軸の状態に基づいて前記ロボットの動作状態が反映されたロボットモデル表現を生成するロボットモデル表現部と、
三次元空間の指定された視点から見た前記対象物モデル表現および前記ロボットモデル表現を前記表示部の同一画面上に三次元的に表示させる三次元画像生成部とを備えることを特徴とする請求項1又は2に記載の遠隔操作支援装置。 - 前記三次元認識部で認識された前記対象物モデル表現上の対象物座標系における点を、基準座標系の三次元座標に変換する対象物座標変換部と、
前記ロボットの各軸の状態を観測することにより得られた前記ロボットモデル表現上のロボット座標系における点を、前記基準座標系の三次元座標に変換するロボット座標変換部と、
基準座標系における前記対象物モデル表現上の点の三次元座標および前記ロボットモデル表現上の点の三次元座標に基づいて、前記対象物と前記ロボットとの近接状態を判定する近接状態判定部とを備え、
ロボット動作シーケンス決定部は、前記近接状態判定部の判定結果に基づき障害物を回避する動作シーケンスを決定することを特徴とする請求項1乃至3のいずれか1項に記載の遠隔操作支援装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008267816A JP2010094777A (ja) | 2008-10-16 | 2008-10-16 | 遠隔操作支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008267816A JP2010094777A (ja) | 2008-10-16 | 2008-10-16 | 遠隔操作支援装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010094777A true JP2010094777A (ja) | 2010-04-30 |
Family
ID=42256833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008267816A Pending JP2010094777A (ja) | 2008-10-16 | 2008-10-16 | 遠隔操作支援装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010094777A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015520040A (ja) * | 2012-06-21 | 2015-07-16 | リシンク ロボティクス インコーポレイテッド | 産業用ロボットを訓練および動作させること |
CN106997175A (zh) * | 2016-10-21 | 2017-08-01 | 遨博(北京)智能科技有限公司 | 一种机器人仿真控制方法及装置 |
JP2017164902A (ja) * | 2010-11-19 | 2017-09-21 | ファナック アメリカ コーポレイション | 3次元ロボットワークセルデータの表示システム、表示方法及び表示装置 |
CN113906358A (zh) * | 2020-08-28 | 2022-01-07 | 深圳市大疆创新科技有限公司 | 可移动平台的控制方法、装置及控制系统 |
JPWO2022124398A1 (ja) * | 2020-12-10 | 2022-06-16 | ||
WO2022138724A1 (ja) * | 2020-12-24 | 2022-06-30 | 川崎重工業株式会社 | ロボットシステム及びロボット作業方法 |
US11628567B2 (en) | 2019-06-07 | 2023-04-18 | Fanuc Corporation | Obstacle search device of robot system |
IT202200003365A1 (it) * | 2022-02-23 | 2023-08-23 | Comau Spa | "Procedimento per ispezionare e/o manipolare un componente tramite un braccio robotico, relativo sistema e prodotto informatico" |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03113512A (ja) * | 1989-09-27 | 1991-05-14 | Komatsu Ltd | 産業用ロボットの教示方法 |
JPH06134684A (ja) * | 1992-09-22 | 1994-05-17 | Nippon Telegr & Teleph Corp <Ntt> | ロボット軌道を教示するための方法 |
JPH0857784A (ja) * | 1994-03-29 | 1996-03-05 | General Electric Co <Ge> | ロボット式アームを用いる遠隔保守システム |
JPH0976063A (ja) * | 1995-09-16 | 1997-03-25 | Sanshiyuuzen Kogyo Kk | 溶接装置 |
JP2003311661A (ja) * | 2002-04-24 | 2003-11-05 | Hitachi Ltd | 遠隔操作制御装置 |
JP2005297097A (ja) * | 2004-04-07 | 2005-10-27 | Fanuc Ltd | オフラインプログラミング装置 |
JP2007025991A (ja) * | 2005-07-14 | 2007-02-01 | Komatsu Engineering Corp | ワークの自動加工方法およびワークの自動加工システム |
WO2007083039A2 (fr) * | 2006-01-23 | 2007-07-26 | Grosbois Jerome | Procede et systeme permettant la prehension automatisee de piece(s) |
JP2008049459A (ja) * | 2006-08-28 | 2008-03-06 | Toshiba Corp | マニピュレータ制御システム、マニピュレータ制御方法およびプログラム |
-
2008
- 2008-10-16 JP JP2008267816A patent/JP2010094777A/ja active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03113512A (ja) * | 1989-09-27 | 1991-05-14 | Komatsu Ltd | 産業用ロボットの教示方法 |
JPH06134684A (ja) * | 1992-09-22 | 1994-05-17 | Nippon Telegr & Teleph Corp <Ntt> | ロボット軌道を教示するための方法 |
JPH0857784A (ja) * | 1994-03-29 | 1996-03-05 | General Electric Co <Ge> | ロボット式アームを用いる遠隔保守システム |
JPH0976063A (ja) * | 1995-09-16 | 1997-03-25 | Sanshiyuuzen Kogyo Kk | 溶接装置 |
JP2003311661A (ja) * | 2002-04-24 | 2003-11-05 | Hitachi Ltd | 遠隔操作制御装置 |
JP2005297097A (ja) * | 2004-04-07 | 2005-10-27 | Fanuc Ltd | オフラインプログラミング装置 |
JP2007025991A (ja) * | 2005-07-14 | 2007-02-01 | Komatsu Engineering Corp | ワークの自動加工方法およびワークの自動加工システム |
WO2007083039A2 (fr) * | 2006-01-23 | 2007-07-26 | Grosbois Jerome | Procede et systeme permettant la prehension automatisee de piece(s) |
JP2008049459A (ja) * | 2006-08-28 | 2008-03-06 | Toshiba Corp | マニピュレータ制御システム、マニピュレータ制御方法およびプログラム |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017164902A (ja) * | 2010-11-19 | 2017-09-21 | ファナック アメリカ コーポレイション | 3次元ロボットワークセルデータの表示システム、表示方法及び表示装置 |
JP2019177477A (ja) * | 2010-11-19 | 2019-10-17 | ファナック アメリカ コーポレイション | 3次元ロボットワークセルデータの表示システム、表示方法及び表示装置 |
JP2015520040A (ja) * | 2012-06-21 | 2015-07-16 | リシンク ロボティクス インコーポレイテッド | 産業用ロボットを訓練および動作させること |
CN106997175A (zh) * | 2016-10-21 | 2017-08-01 | 遨博(北京)智能科技有限公司 | 一种机器人仿真控制方法及装置 |
US11628567B2 (en) | 2019-06-07 | 2023-04-18 | Fanuc Corporation | Obstacle search device of robot system |
WO2022041112A1 (zh) * | 2020-08-28 | 2022-03-03 | 深圳市大疆创新科技有限公司 | 可移动平台的控制方法、装置及控制系统 |
CN113906358A (zh) * | 2020-08-28 | 2022-01-07 | 深圳市大疆创新科技有限公司 | 可移动平台的控制方法、装置及控制系统 |
US11983821B2 (en) | 2020-08-28 | 2024-05-14 | SZ DJI Technology Co., Ltd. | Control method and apparatus for movable platform, and control system thereof |
JPWO2022124398A1 (ja) * | 2020-12-10 | 2022-06-16 | ||
JP7224559B2 (ja) | 2020-12-10 | 2023-02-17 | 三菱電機株式会社 | 遠隔制御マニピュレータシステムおよび遠隔制御支援システム |
US11926064B2 (en) | 2020-12-10 | 2024-03-12 | Mitsubishi Electric Corporation | Remote control manipulator system and remote control assistance system |
WO2022138724A1 (ja) * | 2020-12-24 | 2022-06-30 | 川崎重工業株式会社 | ロボットシステム及びロボット作業方法 |
JP7503660B2 (ja) | 2020-12-24 | 2024-06-20 | 川崎重工業株式会社 | ロボットシステム及びロボット作業方法 |
IT202200003365A1 (it) * | 2022-02-23 | 2023-08-23 | Comau Spa | "Procedimento per ispezionare e/o manipolare un componente tramite un braccio robotico, relativo sistema e prodotto informatico" |
WO2023161801A1 (en) * | 2022-02-23 | 2023-08-31 | Comau S.P.A. | Method for inspecting and/or handling a component via a robotic arm, and corresponding system and computer-program product |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010094777A (ja) | 遠隔操作支援装置 | |
JP2009006410A (ja) | 遠隔操作支援装置および遠隔操作支援プログラム | |
CN112839764B (zh) | 用于焊接路径生成的系统和方法 | |
JP2009012106A (ja) | 遠隔操作支援装置および遠隔操作支援プログラム | |
JP2012011498A (ja) | ロボットアーム操作システムおよびその操作方法 | |
CN111014995A (zh) | 非标非结构化作业环境的机器人焊接方法及系统 | |
WO2015186508A1 (ja) | 作業ロボットの教示データ生成装置及び教示データ生成方法 | |
Solyman et al. | Perceptive augmented reality-based interface for robot task planning and visualization | |
JP2016159406A (ja) | ロボット制御装置、ロボット制御方法及びロボットシステム | |
JPH10124130A (ja) | 組立装置 | |
JP6573504B2 (ja) | 作業装置の作業支援システムおよび作業支援方法 | |
EP4177015B1 (en) | Robot teaching system | |
JP5201341B2 (ja) | 遠隔操作支援装置 | |
US20230330764A1 (en) | Autonomous assembly robots | |
US20220241980A1 (en) | Object-Based Robot Control | |
JP2010172969A (ja) | ロボットシステムおよびロボットの制御方法 | |
US11926064B2 (en) | Remote control manipulator system and remote control assistance system | |
WO2022107684A1 (ja) | パラメータを調整する装置、ロボットシステム、方法、及びコンピュータプログラム | |
JP7376318B2 (ja) | アノテーション装置 | |
KR20220110546A (ko) | 로봇을 프로그래밍하기 위한 방법 및 시스템 | |
CN115916480A (zh) | 机器人示教方法和机器人作业方法 | |
WO2017032407A1 (en) | An industrial robot system and a method for programming an industrial robot | |
Motta | An investigation of singularities in robot kinematic chains aiming at building robot calibration models for off-line programming | |
JP7177239B1 (ja) | マーカ検出装置及びロボット教示システム | |
US20230226688A1 (en) | Robot programming |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20110422 |
|
A621 | Written request for application examination |
Effective date: 20110913 Free format text: JAPANESE INTERMEDIATE CODE: A621 |
|
A977 | Report on retrieval |
Effective date: 20121122 Free format text: JAPANESE INTERMEDIATE CODE: A971007 |
|
A131 | Notification of reasons for refusal |
Effective date: 20121127 Free format text: JAPANESE INTERMEDIATE CODE: A131 |
|
A02 | Decision of refusal |
Effective date: 20130319 Free format text: JAPANESE INTERMEDIATE CODE: A02 |