JP4680516B2 - ロボットの情報を現実環境の画像へとフェードインするための方法、およびロボットの情報を現実環境の画像に視覚化するための装置 - Google Patents

ロボットの情報を現実環境の画像へとフェードインするための方法、およびロボットの情報を現実環境の画像に視覚化するための装置 Download PDF

Info

Publication number
JP4680516B2
JP4680516B2 JP2004033927A JP2004033927A JP4680516B2 JP 4680516 B2 JP4680516 B2 JP 4680516B2 JP 2004033927 A JP2004033927 A JP 2004033927A JP 2004033927 A JP2004033927 A JP 2004033927A JP 4680516 B2 JP4680516 B2 JP 4680516B2
Authority
JP
Japan
Prior art keywords
robot
information
image
visual device
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004033927A
Other languages
English (en)
Other versions
JP2004243516A (ja
Inventor
アーリフ・カーヅィ
ライナー・ビショフ
バハーディル・キューペリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KUKA Deutschland GmbH
Original Assignee
KUKA Roboter GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=32668007&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP4680516(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by KUKA Roboter GmbH filed Critical KUKA Roboter GmbH
Publication of JP2004243516A publication Critical patent/JP2004243516A/ja
Application granted granted Critical
Publication of JP4680516B2 publication Critical patent/JP4680516B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35422Unit freely movable in space, detect its position, orientation by triangulation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35506Camera images overlayed with graphics, model
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36167Use camera of handheld device, pda, pendant, head mounted display
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39443Portable, adapted to handpalm, with joystick, function keys, display
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)
  • Processing Or Creating Images (AREA)

Description

発明の分野
この発明は、コンピュータによって生成された情報を視覚化するための方法および装置に関する。
発明の背景
WO 00/52536は、技術部品に関するデータバンクおよび状態情報などのコンピュータによって生成された情報を対応する技術部品の実像とともに特にテキストの形でディスプレイに表示することを開示している。実像とコンピュータによって生成された情報とをともに表示することを、強化現実(augmented reality;AR)と呼ぶ。
以前の産業ロボットは大抵、稼動時に一度だけプログラムされ、何の変更もなく長年同じ作業を行なっていた。より柔軟な自動化の枠組み内では、再プログラミングは時間およびコストの面で重要である。
ロボットを予め定められた位置または邪魔にならないところへと動かすためには、ロボットは、動きのキーを使用してユーザによって手動で動かすこともできるし、または6Dのマウスによって制御することもできる。ロボットの動きの方向は、選択される基準座標系に依存する。ユーザには、どの基準座標系が選択されているかまたはどのようにこれが空間において方向付けられているかが常にすぐにわかるわけではない。実際には、慎重な試行錯誤が何度も行なわれてロボットが所望の方向に動いているかが規定される。誤りは深刻な損傷または人間の負傷につながり得る。
ある程度、このことはロボットに関する経験の少ないユーザにも当てはまる。なぜなら、問題がある場合の基準座標系の概念は、ロボットシステムを効率的に動作できるようにするためにロボットユーザが持つべき知識を前提としているためである。しかしながら、このことを「ロボット初心者」に理解できるようにするのは難しい。なぜなら、一般に彼らには対応する数学的な資質に欠けているためである。
今日、産業ロボット上のツール中央点(TCP)の測定は、通常、手動で行なわれる。したがって、たとえば、ツール中央を使用して、事前に設定された点を異なる方向からある回数まで動かし、対応するロボットの位置を記憶し、これらからロボットハンドフランジに関するツール中央の位置および任意で方向付けを判定する。工作物の測定、すなわち、基本基準系の規定は類似の態様で行なわれる。
ロボットシステムの意図される用途(ツールの本質−溶接、切断、接着および類似のツールならびに工作物に関する方向付け)の関数として、ロボットユーザは具体的な測定方法を選択しなければならない。たとえば、測定されるべき工作物座標系のゼロ点がロボットの動作領域外にある場合、測定は空間における既知の点を使用して間接的に行なわなければならない。機械加工される工作物がロボットフランジに固定されるグリップに案内される場合、異なる測定方法を選ばなくてはならない。すべての用途の事例を網羅するために、18より多くの異なる測定方法が知られている。幅広いトレーニングの後でも、ロボットユーザには一般に、具体的な事例においてどの測定方法を使用すべきかはよくわからない。経験のあるユーザであっても、他の「ツール」および/または「工作物」などの新しい構成の場合には知識不足に陥る。なぜなら、測定が行なわれるのは稀であるからである。
測定の手順は非常に複雑になることがあり、かなりの時間がかかる。工作物がロボットによって案内され、ツールが静止している頻繁に起こる事例では、たとえば、位置の測定を3回行なって、次に方向付けの判定を行なう必要がある。不正確な位置付けは、測定方法の結果が得られなかったりまたは信頼性のない結果につながるため、慎重な手順が必要である。測定結果の視認性の欠如も良好な結果が存在するかまたは方法の誤り、不正確な入力等によって誤ったものになっているかどうかがはっきりしないことにつながる。
今日、ロボットプログラムは、ロボットが動きのターゲットの位置へと手動で動かされ、対応する経路点が記憶されることで、教示によって作られることが多い。シミュレーションによってオフラインで作られたプログラムの経路点は、後にその本来の場所で教示されなければならないことが多い。なぜなら、シミュレーションモデルの幾何学的構造と実際のロボットの使用環境とが正確にある程度一致することは稀であるからである。欠陥のあるロボット機構を別のそのような機構と置換えるときでも、ロボットプログラムの経路点を再教示しなければならないことが多い。なぜなら、新しい機構は製造の許容差の結果としてわずかに異なる幾何学的構造を有するためである。
人間が近くにいる場合、ロボットは非常にゆっくりとしか動くことができず、ターゲット位置まで正確に動かされなければならないため、教示または事後教示は非常に時間がかかる。さらに、ゆっくりとした動きにかかわらず、常に物の損傷や人間の負傷といった危険が伴う。この危険は、特に新たに製造された(たとえば、シミュレーションによってオフラインで製造された)ロボットプログラムの場合に存在する。これをプログラム機はテストのためにロボット上で作動させなければならない。
動作において問題または失敗が起こると、ロボットはプログラムされた経路に沿って戻されることが多い。そのような状況またはその他の複雑な状況では、ロボットシステムの挙動はユーザによって直接的に予測することはできない。ここでも物の損傷または人間の負傷が起こり得る。
衝突を排除するため、ロボットシステムに対して動作領域が固定され、これはロボットツールまたはロボット全体によって貫通されてはならないかまたはロボットツールまたはロボットはそれを離れてはならない。いくつかの「協働」ロボットシステムおよび/またはその他の装備の構成要素および/または人間によってその他の動作領域が共同で使用されるため、それらの使用を管理しなければならない。
そのような施設における動作領域の固定は複雑な測定を前提とする。工場内での固定された動作領域の監視または適合も非常に複雑である。なぜなら、視覚的な表現または表示が存在しないためである。工場内ではロボットシステムの到達可能な動作領域が重なっているかまたはどのゾーンで重なっているかがはっきりしないため、衝突の危険が存在する。
ロボットシステムが手動で案内される動作の場合(知能支援装置または「コボット(cobot)」としてのロボット)、ロボットの動きの自由度はユーザの活動を容易にするために人工的に制限されていることが多い。仮想の固定によって、ロボットのエフェクタは、たとえば、常に1つの平面内で制御されて案内され、方向付けは常に地面等に平行に保たれる。
仮想の固定はロボットシステムの動作領域を制限する特別な事例である。動作領域は、ロボットシステムまたはその一部が離れることのない、またはそれによって貫通されてはならない体積である。ロボットがツールに対してユーザによって案内される特別な適用例では、ソフトウェアベースでグリップの方向付けを固定し、空間でのグリップの位置はユーザによって常に自由に変化させることができるのが適切な場合がある。1つの適用例は、組立における接合支援としてのロボットの使用である。ロボットは重くかさばる可能性のある構成要素を運び、ユーザは力の消費量を制限してそれを動かすことができる。構成要素は最初から組立てられるべき位置にある。別の適用例は、たとえば、面の塗装であり、ロボットは塗装される面から予め定められた距離にツール(すなわち、塗料吹付け銃)を保持し、ユーザは面の上で銃を案内する。動きの可能性に対するそのようなソフトウェアベースの計画された制限は仮想の固定と称される。なぜなら、ロボットのグリップの機械的な強制的案内に類似した態様で作用するためである。
動作領域または仮想の固定に関する情報はロボット制御における概略的な数学的情報として提示される。
仮想の固定は現在の作業の関数として動的に変化させることができる。プログラミング中の仮想の固定または動作領域の固定または修正は、多くのユーザの必要な概念能力を超えるため、ロボットの経路および/または回転運動、もしくはより正確にはそのツール中央点またはTCPがどの方向で可能かまたは阻止されるかは、ユーザにはすぐにわからない。ロボットシステムの挙動を予測できないため、ユーザは確信が持てない。不正確な操作の結果、たとえば、1つの方向に大きな力を作用させると、仮想の固定によって阻止され、ロボットシステムが損傷することがある。
現在の製造工場では、多数のロボットが隣接して置かれていることが多い。これらロボットの各々は、それ自身の手動のプログラム機を有する。手動のプログラム機とロボットとの間の関連付けが存在することは原則的にその二者の間に任意で存在する接続ケーブルで明らかである。この状態では、ロボットシステムの稼動中およびプログラミング中ならびに後続の動作中に、関連付けられるロボット接続ケーブルを備えた1つの具体的な手動プログラム機を後に追跡することは多大な努力と時間を要するため、実際には試行錯誤の方法が一般に使用される。この場合、手動のプログラム機は慎重に動作され、所望のロボットが動いているかがチェックされ、そうでなければ、別の手動プログラム機が試される。ケーブルが存在せず、その代わりに手動プログラム機とロボット制御との間の通信が無線の形で行なわれる場合もこれが当てはまる。
この発明の課題は、セットアップ、プログラミング、1つまたは複数のロボットによって行なわれる動きのシーケンスの教示等のために、1つまたは複数のロボットの動作を簡略化する方法および装置を提供することである。
発明の概要
上述の種類の方法では、この発明の課題は、画像受取装置の位置および方向付けまたはポーズについての判定が行なわれ、この判定に対応するロボット特有の情報が視覚装置上の現実環境の画像に重ねられることで解決される。
装置に関して、課題は、コンピュータによって生成された情報を現実環境の画像へと視覚的にフェードインするための装置によって解決され、この装置には画像受取装置のポーズを判定するための手段および判定に対応するロボット特有の情報を視覚装置上の現実環境の画像に重ねるための手段がある。
この発明の範囲内では、ロボット特有の情報という言葉は、ロボットの動作に関する情報、たとえば、具体的には実際のロボット上の動作およびプログラムデータに関する情報、ロボットによって操作される工作物、および装備、部品など近くにある障害物に関する情報など、ポーズおよび動きに関する情報を含む。この情報は、視覚装置上に図形的にフェードインされる。
再プログラミングが容易なため、この発明によって、ロボットによる動作シーケンスの自動化の柔軟性を高めることが可能になる。
この発明は、ロボットの稼動、プログラミングおよび動作をより単純かつ効率的にする。具体的には、この発明は、運搬設備などの付加的なロボット構成要素を有する複雑な設備のロボットのグループに関する。
この発明の第1の好ましい展開例によると、少なくとも1つのロボット特有の基準の座標系がフェードインされ、特にハンドフランジに固定された座標系がフェードインされる。ロボットハンドフランジ座標系およびハンドに固定されたツールの視覚化は、この座標系の原点がTCP(TCP座標系)上に再現されるように行なわれるのが好ましい。静止した「世界座標系」または静止した、工作物に固定された基本の座標系などの他の基準の座標系を視覚化することも可能であり、後者は静止したロボットベースの対称中心にあることが好ましい。
所与の要件の関数としての静止した基本の座標系(世界、ベース)の場合、さらにまたはこれに代えて、TCPへと移動されかつ空間におけるその方向付けが静止した基準の座標系の方向付けに一致するがロボットフランジとともに動く座標系をフェードインすることが可能である。
別の好ましい展開例によると、ロボットの軸がフェードインされる。仮想のロボットの軸は、ロボットの実像の上に重ね合わされ、それらはロボットの個々の部品(ベース、ロッカー、ロボットアームおよびロボットハンド)の軸に対応するかまたはそれらに一致し、このようにしてそれらが表現される。
座標方向はロボットシステム上に、たとえば、そのツール中央点上にフェードインされ、任意で指定される(デカルト法の場合、たとえば、x、y、zと指定され、軸特定方法の場合、たとえば、軸1、軸2、軸3と指定される)。アクティブな座標方向または軸を図形的に、たとえば、色または動画によって強調することが適切な場合がある。
基準の座標系を直接操作できるようにするために、選択された種類の座標系が予め定められた位置に自動的に生成され、視覚化される。座標系は、所望の位置および方向付けまたはポーズが得られるまで視覚的な制御の下でユーザによって移動および回転させることができる。
この発明は強化現実(AR)によって現実のロボットシステム上に選択された基準の座標系またはロボットの軸を視覚化するが、これによってユーザは特にロボットシステム置換キーによる手動の置換を容易に予測することができる。
この発明によって可能になる基準の座標系の操作性によって、ユーザは面倒で複雑な測定方法を学び、実行する必要がなくなる。増補された仮想の対象物の操作は、直感的にわかりやすく、時間および費用を節約し、ユーザ側に要求される資質を低減する。
この発明のさらに別の好ましい展開例は、少なくとも2次元で可動のロボット手動プログラム機の制御要素の画像がフェードインされ、特に関連する制御要素およびロボットハンドフランジの方向付けの画像がフェードインされることを特徴とする。ユーザにはわかりやすく、たとえば、手動プログラム機上の実際の制御要素が動作された場合に、ロボットおよびそのハンドがそこに固定されたツールとともにどのような動きを行なうかについての概念が容易になる。制御要素をロボットシステムTCP上にフェードインしかつそれとともに動かしてもよく、または入力要素を予め定められた位置でディスプレイに重ねてもよいし、または空間に固定してもよい。
対称の構造を有する制御要素の場合、フェードインされた入力要素での座標系の位置がユーザには直接的に検出できないことがある。そのような場合、フェードインされた入力要素にさらにマーキング(たとえば、図形記号)を行なうのが適切な場合がある。この意味で、制御要素上でのユーザの手の通常の位置をフェードインしてもよい。6自由度の制御要素(たとえば、6Dマウス)では、制御要素なしにユーザの手をフェードインすれば十分な場合がある。
座標系またはロボット軸などの仮想の要素、または手動プログラム機上の制御要素などの仮想の形の現実の要素を実際のロボットの画像とともに視覚化することとは別に、非常に好ましい展開例によると、ロボットおよびその動きのシーケンスを現実環境に視覚化して現実の工作物をそこに存在させることも可能である。これによって物の損傷や人の負傷の危険が低減される。増補されたロボットは、人がすぐ近くにいても無作為なスピードで動くことができるため、タイム露出が低減される。
経路点を教示するため、シミュレーションされるロボットはユーザによって動かされ、所望のターゲット位置に達した際に経路点が記憶される。プログラムをテストするとき、シミュレーションされるロボットは現実のシステムの代わりにプログラムされた経路をたどる。これはプログラムされたスピードまたは他の無作為なスピードで行なってもよい。経路の追従は現実に近いようにシミュレーションする必要はない。連続的にターゲットのポーズをフェードインして(すなわち、経路点から経路点へのジャンプ)、それらをチェックし、任意で適合するだけでよいので有利である。
さらに別の展開例によると、動作中にロボットが通るロボット経路、およびツール中央点の経路を付加的な情報とともに、好ましくはロボットと関連付けて、より正確には現実のハンドフランジまたはツールのTCPの画像と関連させてフェードインすることができる。プロセスのプログラミングまたは操作は手動プログラム機上でオペレータによって行なわれるが、これによって、ロボットに関連して表示されるハンドフランジまたはツールのTCPを通って延在する視覚化されたロボット経路の表示に空間において変更が行なわれる。具体的には、これは、経路点がフェードインされ、空間での経路点の位置が可変であり、すべての経路点の位置に対応するロボット経路の湾曲がフェードインされることで行なわれる。
空間的な経路パターンに加え、付加的な動きのパラメータ(たとえば、スピード、加速度等)または空間的な関数(たとえば、経路切換関数、入出力の設定/読取、加工プロセスの開始/停止等)を視覚化してもよい。この情報はテキストの形で視覚化してもよいし、図形または動画によって視覚化してもよい。
定められた現実の工作物の位置にロボット経路を適合するためのさらに別の実施例によると、工作物の仮想の画像がそれに適合されたロボット経路とともにフェードインされるため、仮想の工作物の画像およびロボットの経路点を現実の工作物の画像と重ね合わせることによって、実行されるロボット経路を現実の工作物の位置に適合することが可能になる。
この発明の別の好ましい展開例によると、ロボットによって到達可能な総動作領域および/または許可される動作領域および/または許可されない動作領域がディスプレイに視覚化され、および/またはロボットツール、ロボットハンドおよび/またはさらに別のロボット要素の動きの通路がディスプレイに視覚化される。「総動作領域」は、TCPによって仮定することのできるすべてのポーズの総数を示す。「動作領域」はプログラム機によって無作為に固定することができる。
たとえば、ある施設内で相互に作用する複数のロボットの場合、少なくとも1つのロボットの少なくとも1つの手動のプログラム機の永久的および/または瞬間的な関連付けを視覚化することもできる。
ロボットシステムと手動プログラム機との間の関連付けに類似の態様で、ARを介してロボットシステムの現在の状態を視覚化し、必要であれば修正することも可能である。視覚化される状態の例は、選択された動作モード、ドライブの状態(オンまたはオフ)等である。
上述の好ましい実施例のすべてに共通するのは、コンピュータによって生成された情報がユーザに対して常に視覚化されるか、またはユーザによって要求されたときに(たとえば、許可キーが押されない場合の置換キーの操作の場合における手動の置換とともに)視覚化されることである。別の代替例によると、情報は予め定められた時間に自動的にフェードインされる(たとえば、現実のロボットシステムが動きを開始する直前)。
上述の4つの使用分野において、ARシステムは、連続する画像シーケンスまたはオペレータによって開始される個々の「スナップショット」を供給することができる。対応して、情報は画像シーケンスにオンラインでフェードインされるか、またはオフラインで記録された個々の画像にフェードインされる。
視覚化はオフに切換えることもできる。連続する画像シーケンスの場合、任意で画像を静止させることもできる。
生成された対象物の視覚化の、現実との近さの程度は無作為であってもよい。視覚化は、工場のユーザの視覚を損なわないために半透過的な態様またはエッジモデルとして行なってもよい。
この発明のさらに別の利点および特徴は、特許請求の範囲、以下のこの発明の実施例の説明ならびに添付の図面から理解できるであろう。
発明の詳細な説明
図1aおよび図1bは、コンピュータによって生成された情報をディスプレイ上で現実環境の画像へとフェードインするためのこの発明の装置1の第1の実施例である。
この発明による装置1は、ロボットの動作シーケンスを快適にプログラムすることのできるロボットのための手動プログラム機2を有する。このため、手動プログラム機2には、6つの置換キー2.1および6Dマウス2.2の形の制御または動作要素が設けられ、これによってロボットの6軸の動きをキー2.1によるのと同じように制御することができる。そのような手動プログラム機は、EP 840 910(US 6,134,102に対応する)またはEP 840 909(US 6,362,813に対応する)から知られており、そのような手動プログラム機の開示に関してそれらを参照する。手動プログラム2はスクリーン2.3も有し、ロボットの動きのための動きのシーケンスに関するさまざまなパラメータなどの情報および制御プログラムのデータが表示される。たとえば、図示されない物理的なキーによって入力することが可能であり、またはスクリーン2.3をタッチスクリーンとして構成し、入力キーをスクリーン2.3に重ねることも可能である。
図1aおよび図1bによる実施例では、スクリーン2.3とは別に、この発明の装置は付加的な視覚装置1.1を有するが、これは物理的に手動プログラム機2に接続され、たとえば、そこに装着されて旋回可能であってもよい。図示の実施例では、視覚装置1.1の後ろにカメラの形の画像受取装置1.2が設けられ、現実環境を記録することができる。この記録の結果として、たとえば、空間に位置付けられるマーキングによって、画像受取装置1.2のポーズと称される、空間における位置および方向付けを数学的に判定することができる。またはこれに代えて、画像受取装置1.2のポーズは、それによって記録された実際の画像を記憶された基準の画像と比較することによって、または付加的なセンサシステムを使用することによって得られる。
たとえば、図7から17の装置1.1の図に示されるように、視覚装置1.1には、一方で、カメラ1.2によって記録された現実環境の画像が示される。他方で、ロボット特有のコンピュータによって生成された情報も前記画像にフェードインされる。
従来の表示可能なスクリーンの形の視覚装置1.1の代わりに、前記装置は透明なスクリーンであってもよく、任意で画像化光学機器によって現実環境の画像を光電子工学的な変換なしに前記視覚装置1.1に示し、目に見えるようにすることができる。そのような場合、ポーズの判定は、たとえば、空間に無線マーキングを設け、これらに対して、少なくとも視覚装置1.1に接続されるレシーバによってポーズを判定できるようにして、技術的に行なってもよい。
視覚装置1.1は、図3による空間的な構成の場合のように、手動プログラム機2から空間的に離れていてもよい。
たとえば、図1aおよび図1bの場合の視覚装置1.1としての別個のスクリーンの代わりに、現実環境の画像をロボット特有のコンピュータによって生成された情報とともに示す視覚装置1.1は、図2aおよび図2bの場合のように、たとえば、手動プログラム機2のスクリーンディスプレイ2.3内にあるスクリーンウィンドウとして手動プログラム機2に組込んでもよい。
そのような場合、現実環境を記録するためのカメラ1.2は、特に図2から明らかであるように、手動プログラム機2に直接位置付けられる。それは、特に適切な記録場所にユーザがアクセスできないかまたは容易にアクセスできない場合、視覚装置1.1から完全に離してもよい。
それ以外は、図2aおよび図2bの構成は、特に手動プログラム機2に関して、図1aおよび図1bの構成に対応する。
図3は、眼鏡の形の視覚装置1.1を備えたこの発明による装置を示し、ユーザ4はレンズ1.3(シースルーの眼鏡)を通して現実環境を直接見ることができ、レンズ1.3はロボット特有のコンピュータによって生成された情報を重ねることができる透明なスクリーンとして構成されている。このため、視覚装置1.1はケーブル1.4によって手動プログラム機2に接続されているが、これはワイヤレス伝送、特に無線伝送によって置換えることができ、赤外線伝送によっても置換えることができる。視覚装置1.1にはカメラ1.2が設けられ、空間における対応する光学的なマーキングを使用しかつカメラによって視覚装置1.1のポーズを規定することができる。これに加えてまたはこれに代えて、視覚装置1.1または画像受取装置1.2のポーズは、カメラ画像を記憶された画像と比較することによって得られる。根本的に、電磁気的、光学的または聴覚的なセンサシステムを設けることも可能であり、これらによって空間内の対応するマーキングトランスミッタに対する画像受取装置または視覚装置のポーズを上述の態様で規定することができる。
この発明によって、ロボット自身、経路パターン、工作物等の仮想のまたは増補されたロボット特有の空間対象物を操作することでロボット特有のデータを操作することが可能なる。これは図4aから図4eに関して説明する。
空間で動かされている現実のロボットシステムのTCPと同様に、置換キー/6Dマウスなどの手動プログラム機上の既知の制御要素は、ユーザの手4.1による操作によって、移動された空間対象物のポーズを示す、選択され増補された空間対象物AR′を移動および回転させるために使用することができる。純粋なAR視覚化と比較して、関与する時間は制限される。
空間での入力要素の位置は、静止した受取システム3.1およびたとえば、ポインタの形の入力要素3.2を備えたセンサシステム3によって判定することができる。ユーザが入力要素3.2を動かすと、この動きは、選択され増補された対象物AR(または、任意でこれらのいくつか)に伝送される。
人間工学的な面を改善するため、動きは、ユーザによって予め設定された倍率に対応する大きな倍率または小さな倍率で、選択された空間対象物へと伝送することができる。入力要素の空間的な動きおよび増補された空間対象物の「結合」の生成は、ユーザ側の対応する入力を通じて行なわれる(たとえば、ユーザが入力要素上のボタンを押圧している間)。「結合」および「切り離し」を変更することで、入力要素を長い距離にわたって動かすことなく、増補された空間対象物をかなりの距離にわたって置換させることが可能である。このため「インデックス付け」が行なわれる。
上述の意味での入力要素は、たとえば、ポインタ、ハンドル、データグローブまたは実際の手動プログラム機である。センサシステムは、電磁気的(たとえば、無線)、光学的(たとえば、赤外線)または聴覚的な(たとえば、超音波)追跡に基づいてもよい。手動プログラム機が入力要素として使用される場合、空間的なポーズを判定するために既にそこに存在する上述のシステムを空間対象物を操作するために使用してもよい。
またはこれに代えて、地面の代わりに携帯手動プログラム機に対して入力要素(たとえば、ポインタ)のポーズを測定し、評価することができる。上述の可能性に加え、入力要素のポーズは、接合角度集積化センサを備えた多重接合キネマティックスなどの、入力要素と手動プログラム機との間の機械的な測定システムを通じて使用することができる。
空間対象物は、入力要素3.1(たとえば、ポインタ、ハンドル、データグローブまたは完全な手動プログラム機)を使用して直接的に予め設定することができ、空間におけるそのポーズは対応するシステムで検出される。
図4bおよび図4cによる操作性の本質的な利点は、入力要素の空間的な位置付けを介して空間対象物を操作することで時間が節約され、たとえば、動きのキーまたは6Dマウスを使用するときなどの、スピードが制御された置換および回転を使用するときよりもユーザに直感的にわかりやすいことである。
上述の操作性は、上述のARの使用状況(ツールおよび工作物座標系の測定中の基準座標系の移動、ロボット経路の支持点の置換、動作領域の角の点または側壁の置換等)であればどのような状況でも画像化することができる。
図5に示されるロボット経路のARに支援された修正のためのシーケンスは、まず、機械加工が完了したか否かを規定するために機械加工の状態についての呼掛け信号を用いた再プログラム選択を伴う(ステップA)。答が否定であれば、経路セクションを修正するかの質問が行なわれる(ステップB)。これが当てはまらない場合、ジャンプして戻る。経路セクションが修正される場合、プログラム内で選択された経路セクションに関する判定または計算が行われ、これはツール中央点の経路全体を含み得る(ステップC)。選択された経路セクションまたは経路全体が視覚装置上の現実環境の画像へと重ねられる(ステップD)。これに続いて、置換命令またはいくつかのそのような命令を修正するかを規定するために質問が行なわれる。これが当てはまらない場合、視覚化は終了され(ステップD′)、経路セクションはフェードアウトされ(ステップD″)、質問Bへ戻る。
置換命令またはこれらのいくつかを修正する際、任意で関連付けられる経路が判定される(ステップF)。選択された置換の動きのターゲットおよび任意でツール中央点の関連付けられる経路はAR表示に示されて強調される(ステップG)。後に図14に関して説明するように、座標系をフェードインすることで、任意で方向付けも適切に視覚化される。
図4aから図4cに関して説明した、空間内で経路および任意でターゲットを移動させることによりユーザ側で予め設定された詳細に基づいて、修正されたターゲットおよび任意で経路が判定され(ステップH)、ARディスプレイに視覚化されるため(ステップI)、ターゲットの位置および任意でARディスプレイ内での経路をチェックすることができる。任意で、ロボット制御のソフトウェアはターゲットにロボットが到達し得るかをチェックし、任意で警告メッセージを生成する。
ステップHおよびステップIに従って所望のターゲットおよび任意で経路を計算しかつ表示した後、所望のターゲットおよび任意で所望の経路パターンに到達しているかについての質問が行なわれる(ステップJ)。これが当てはまらない場合、別のターゲットおよび任意で経路パターンの判定および視覚化が繰返され、ステップHおよびステップIが繰返される。所望のターゲットに到達している場合、ターゲットおよび関連付けられる動きの命令の固定が行なわれる(ステップK)。
次に、別の置換命令を修正すべきかについての質問Eに戻る。これが当てはまる場合、その別の置換命令についてステップFからKが再び行なわれ、これが当てはまらない場合、ステップE′、E″に関して説明したように、さらに別の経路セクションを修正すべきかについての質問に戻る(ステップB)。これが当てはまらない場合、既に説明したように、機械加工の状態についての質問に戻り、さらに機械加工が行なわれない場合、プログラムの選択が解除され、プログラムが終了する(ステップL)。
置換の動きのさらに別のターゲットの挿入が対応して行なわれ、入力されるかまたはプログラムの部分上の開始位置は自動的に提案され、先行する動きのターゲット位置がそこに存在してもよい。
表現されるプログラムのシーケンスは、たとえば、プログラムを開いた後にロボットの経路を自動的に直接フェードインし、および/またはあり得るロボット経路の選択を自動的に視覚化することで、さらに自動化および簡略化することができる。ユーザは、手動プログラム機のプログラム調査の中でプログラムにマーキングする際にプレビューの種類の強化現実で対応するロボットの経路を任意で観察することができる。
図6から図6bは、ロボット特有のコンピュータによって生成された情報を現実環境の画像へとフェードインするためのこの発明の装置の構造を示し、この発明によるシーケンスはここから容易に理解できる。
この発明の装置1は、ロボット特有のコンピュータによって生成された情報を視覚装置1.1に表示するために処理するための処理ユニット5を有する。図4の破線で示されるように、処理ユニット5にはカメラ1.2を接続してもよく、これは現実環境の画像を記憶し、処理ユニット5に供給する。処理ユニット5内には、画像生成ユニット5.1があり、カメラ1.2に従って視覚装置1.2のポーズを評価し、カメラ画像をロボット特有のコンピュータによって生成された情報と混合するため、現実画像と表示されるべき情報とが視覚装置1.1上にともに表示される。
このため、処理ユニット5は操作ユニット5.2を有し、ロボット制御6は、少なくとも1つのロボットを制御しかつそこからロボット特有の情報を入手するためのデータインターフェイスを有し、ロボット特有の情報は現実環境の画像とともに視覚装置1.1上に表示される。処理ユニット5は、たとえば、ロボットのための手動プログラム機などの、人間のユーザによってロボット特有の情報を空間的に操作できるようにする入力装置のためのインターフェイスを組込んでもよい。この発明による装置によって、ロボット特有の情報は、任意でユーザの入力を考慮しつつ強化現実モデルで使用することができ、強化現実モデルは画像生成ユニット5.1によってさらに処理して視覚装置1.1上に増補された画像を表示する。任意のユーザの入力によるロボットデータの変更は、モデル操作ユニット5.2によってロボット制御6へと戻すことができる。ARデータの空間的操作のためのユーザ入力は5.3と表わされる。
処理ユニット5は、視覚装置1.1、手動プログラム機2またはロボット制御6に組込んでもよい。それは根本的にそれ自身の物理的なユニットを形成してもよい。処理ユニット5は、たとえば、画像生成ユニット5.1が視覚装置1.1または手動プログラム機2にあり、モデル操作ユニット5.2をロボット制御6に収納できるようにして、空間的にさらに分割してもよい。処理ユニット5またはその部分は、異なるロボットのための中央システムに組合わせてもよく、任意で通信経路はインターネットを経由してもよい。
図6は基本的な事例を示し、図6aおよび図6bの携帯型または眼鏡状の視覚装置の特別な事例はそこから派生したものである。一般的なアーキテクチャは、後に説明する2つの具体的なアーキテクチャの共通点を表わす。
図6aによる構成では、視覚装置1.1は、図1a、1b、2aおよび2bによる手動プログラム機2に接続されるか、または組込まれる。それには、カメラ1.2および入力要素2.1、2.2(キー、6Dマウス)が設けられる。カメラ1.2は上述の態様でその位置を判定することができ、したがって、視覚装置1.1の位置を判定することができ、入力要素2.1、2.2によってロボットデータを操作するための入力を人間のユーザによって入力することができる。これ以外は、図5による構成は図4の構成に対応する。
図6は、図2のこの発明の装置に関するブロック図である。視覚装置1.1は強化現実眼鏡に組込まれ、これはカメラ1.2を備えてもよい。眼鏡は、カメラ画像を経由してではなく現実世界を直接認識することができ、かつコンピュータによって生成された情報のみがフェードインされるシースルーの種類のものであってもよい。たとえば、入力キー2.1および/または6Dマウス2.2を備えた手動プログラム機2などの空間的入力要素とは別に、空間的視覚装置1.1が物理的に離れた形で設けられる。これ以外は、図6のブロック図は図4に対応する。
手動プログラム機2の形の入力装置は、それが視覚装置1.1として働く程度で、異なる構成、たとえば、異なる入力装置として設けてもよく、異なる視覚装置を設けてもよい。特に後者についてはこれに関して既に説明した。
図7aから図7cは、現実環境の領域とともに視覚装置1.1上のあり得る表現を示し、たとえば、ロボット7またはそれによって機械加工される工作物8などの現実環境の領域およびロボット特有のコンピュータによって生成された情報が現実環境のこの画像にフェードインされ、そこに接続される。溶接トングなどのツール7.1を備えた現実のロボット7の画像を用いて、それに関連付けられる座標系、たとえば、座標X+、Y+、Z+を備え静止した世界座標系K1などを生成することが可能である。座標系K+は、置換された座標X′+、Y′+、X′+を備えたTCPへと平行に置換された世界座標系である。世界座標系K1の原点は、ロボット7のベース7aの対称軸と背景との交点にあり、座標系K2の原点はハンドフランジの中央にあり、またはツールが存在するときは、ツール中央点へと置換される。座標系を表現することによって、特にプログラム機上の置換キーによって手動でロボットにデカルトの動きをさせる際の支援が得られる(図7a)。
図7aの黒の矢印Vは、ロボットの動く準備ができていない限り、動く準備ができた場合の動きの方向およびスピードをその方向および長さで視覚化する。ロボットが動くと、矢印Vはロボットシステムの実際の動きの方向およびスピードを視覚化する。
ロボットプログラムの準備、適合またはテストを容易にするため、機械加工される工作物8を現実のロボット7の画像と関連付けてコンピュータによって生成された態様で視覚化してもよい。シミュレーションされる構成要素8′は、ロボットプログラムの準備、適合およびテスト中に基準を形成する。シミュレーションされる構成要素8′の使用は、現実の構成要素8が嵩張るかまたは工場内でのユーザ4の自由な動きを妨げる場合にも有利である(図7b)。
図7cは、手動でのデカルトの動きにおけるAR支援としての、座標X3+、Y3+、Z3+を備えたツール座標系K3のフェードインの図である。
ツールまたは工作物は基準座標系を操作することによって測定可能である。シーケンスは、図5に関して説明したように経路の動きのターゲットの操作と類似である。基準座標系は、工作物に対して(基本座標系を測定するとき)またはツールに対して(ツール座標系を測定するとき)所望の位置になるまでユーザの視覚的な制御の下で空間内で移動され、回転される。
ロボット経路がプログラムされるかまたは修正される場合でかつ実際の工作物が利用できない場合、この発明によると、この代わりに増補された工作物を用いて動作することが可能である。ユーザは、実際の工作物ではなく、増補された工作物上でロボットを手動で動かすことで点を教示する。工作物が存在するときと同じ態様で、存在しない工場の構成要素を増補し、たとえば、ロボット経路を固定して前記工場の構成要素の設置後に衝突が起きないようにすることが可能である。ほぼ増補された対象物のみがフェードインされる空間での手動によるロボットの動きは単純である。なぜなら、現実の対象物とのロボットの衝突を考慮する必要がなく、ユーザは空間内で妨げられることなく動くことができるためである。ここでの増補された対象物は静的な性質のものである。
現実の工作物が存在しない場合、ARによる工作物の視覚化は、ロボットのどの動きの命令がある特定の機械加工プロセスに属するかについての価値のある付加的な情報をユーザに与えられる可能性がある(おそらく非常に複雑なロボット経路が視覚化され、調査が困難である)。
増補された工作物の視覚化によって、ユーザには、ロボットが開始しようとしている工作物が明らかになる。ロボットが異なるプログラムを用いていくつかの工作物を機械加工する場合、現実の工作物と増補された工作物とを比較することによって、ユーザは正しい機械加工プログラムの選択を単純に検証することができる(これに関しては、図13の説明を参照)。
増補された工作物は、ロボットがどの点に工作物があると仮定しているかをユーザに示す。ロボットプログラム経路が現実の工作物の位置に対応しない場合(たとえば、位置的な許容差のため)、ユーザは、現実の工作物と一致するまで増補された工作物を関連付けられるロボットプログラム経路点とともに移動および回転させて、ロボットプログラムを訂正することができる。操作は上述の態様で行なうことができる。
記載される最後の3つの適用例では、ARによる工作物の視覚化は、ロボットプログラムの増補された経路パターンに対する付加的な情報を提示する。工作物の増補はロボット経路に依存する(その位置は、たとえば、対応する工作物の座標系の移動によって変化する)。結果として、これは動的な、操作可能なロボット特有の情報を提示する。
特にプログラム機上の動きのキーを用いた手動によるロボットの軸に特有の動きの支援に対して、さらに座標系の代わりにロボットの軸A1からA6を表示することができる。すなわち、それらは画像内の実際の軸に一致するように現実のロボット7の画像にフェードインされる。さらに、対応する軸のまわりの正および負の回転の方向を表示してもよい(図8)。軸の視覚化は、単一接合構成の近くにいるユーザに対して1つまたは複数の軸がそれらの最大の加速度またはスピードの限界に達することを示すことで手動でのデカルトの動きに役立つ可能性がある。
さらに、特に3Dマウス2.2による手動の動きは、これをロボット7のハンドフランジ7bまたはTCPの直接上流に仮想的な3Dマウス2.2′としてその画像にフェードインすることで容易にすることができる。さらに、ユーザの仮想の手4.1aをフェードインすることも可能である(図9)。
図10は、コンピュータによって生成されたさらに別の位置7′および異なる位置にあるロッカー、ロボットアームおよびロボットハンドなどのロボットの部品とともに現実のロボット7の画像を示し、総動作領域等が示され、これによって、ロボットの動作シーケンスのプログラミングが容易になり得る。なぜなら、経路点の教示およびロボットのプログラムされた経路のチェックのために動く必要がなく、時間が節約され、負傷および損傷の危険が低減されるためである。
現実のロボット7の画像およびその通過するハンドフランジ7bまたはTCPとともに、コンピュータによって生成されたロボットの動作経路をフェードインすることも可能であり、任意で具体的に英数字で示された経路の点P1からP6、および、たとえば、2点間の領域などのある領域での経路のスピード、ならびに経路点P4およびP5でのグリップの開放および閉鎖(開放されたグリップ、閉鎖されたグリップ)などの英数字の機能的な詳細とともにフェードインすることも可能である(図11)。
英数字の情報に加え、記号または特定の経路点でのツールの方向付けを視覚化することも可能である。
既存のロボットプログラムの適合のために、経路点は、図12に示される態様で、直接的に、個々にまたはグループで置換および回転させることができる。図5に関して説明したように、新しい経路点または完全な新しいプログラムもしくは経路シーケンスの設置を直接的に視覚化することも可能である。
さらに別の展開例によると、現実の構成要素8の画像とともにコンピュータによって生成された構成要素8′を視覚化することも可能である(図13)。構成要素の位置に相違がある場合、増補された工作物8′が現実の工作物8と一致するようにするまで増補された工作物8′をそれに関係するロボットの経路点または経路とともに置換および回転させることで、ロボットプログラム内の経路点のグループの位置を訂正することができる。
いくつかのロボットを含む現実の工場の動作領域を視覚化しかつ双方向に適合することも可能である。図14は、コンピュータによって生成された総動作領域7.1′、7.2′、7.3′とともに3つの協働するロボット7.1、7.2、7.3の現実の画像を示す。ロボットシステムの到達可能な総動作領域を視覚化することは、非常に隣接して配置されたロボットシステムの衝突の可能性のあるゾーンを検出するのに有利であり得る。ロボット経路の直接的な適用または適合は、到達可能な動作領域の視覚化によって結果的に効率よく支援される。
ロボットが貫通してはならないかまたは離れてはならない領域を視覚化および適合することも可能である。これらはいくつかのロボットシステムまたはその他の工場の構成要素によって共同で使用される動作領域であり得るため、それらの使用を管理してもよい。ロボットシステムを手動による案内で動作する場合に使用される仮想の固定は、容易に固定し、視覚化しかつ適合することができる。動作領域の種類は、プログラム機によって定義するか、または対応するソフトウェアによって自動的に固定することができる。規定された動作領域は、ロボット構造の規定された点に関係し、ロボットまたはその部分のTCPまたはこれに代えて外形に関係することが好ましい。
動作領域の視覚化は、たとえば、その動作領域に対応する同じサイズおよび幾何学的構造のボディをフェードインすることによって行なうことができる(図15)。仮想の固定または案内通路の視覚化も類似の態様で行なうことができ、図16に示されるように、3次元、2次元または1次元のボディを使用することができる。またはこれに代えて、ガイドレール、接合機構等の視覚化など、対応する動きの可能性の制限を組込んだ相当する機械的構造を視覚化することも有利である。
視覚化された動作領域を適合するために、空間において角または補助的な点を個々に訂正することができる。またはこれに代えて、図4aから図4cに関して説明したように、動作領域の横方向の面を個々に置換および回転させて動作領域を適合することも可能である。
動作領域および仮想の固定のこの発明によるAR視覚化は、図15および16に示されるように、たとえば、許可された動作体積および許可されない動作体積をフェードインすることによって、ユーザが動作領域および仮想の固定を固定するのを支援する。プログラミング中、たとえば、手動プログラム機上の入力要素を用いて角の点を「移動させる」ことによって、動作領域または仮想の固定を操作することができる。
1つの手動プログラム機を用いていくつかのロボットを連続してプログラムする場合、たとえば、矢印等の図形要素によって、プログラム機の関連付けられるロボットに印を付けることができる(図17)。異なるロボットが手動プログラム機によって連続してまたは同時に制御される場合も、これが当てはまる。ここでも、現在手動プログラム機に関連付けられているロボットがユーザに視覚的に明示されて有利である。さらに、ユーザがフェードインされた仮想の入力要素に接触することで、ロボットシステムの選択および選択の解除をすることができる。または、プログラム機は対応するロボットを用いて方向付けられる。ロボットの基本的な選択性またはその使用性の欠如は、たとえば、ある所与の手動プログラム機によって制御することのできるロボットのグループにそのロボットが属していない場合、対応するマーキングまたは名称によって現実のロボットの画像上でユーザに対して直接的に示すことができる。選択された動作モード、ドライブの状態(オン、オフ)等のロボットシステムの実際の状態を視覚化し、必要であれば修正することも可能である。
コンピュータによって生成された情報を現実環境の画像へとフェードインするための装置の第1の実施例の平面図である。 コンピュータによって生成された情報を現実環境の画像へとフェードインするための装置の第1の実施例の側面図である。 この発明の装置の別の実施例の平面図である。 この発明の装置の別の実施例の側面図である。 この発明の装置の別の実施例の図である。 この発明によって可能となる増補された空間的な対象物の操作の図である。 この発明によって可能となる増補された空間的な対象物の操作の図である。 この発明によって可能となる増補された空間的な対象物の操作の図である。 例示的な態様でのロボット経路のARに支援された修正のフロー図である。 この発明による装置のブロック図である。 図2aの実施例に対応するこの発明による装置のブロック図である。 図3の実施例に対応するこの発明による装置のブロック図である。 手動のデカルトの動きに対する選択可能な座標系および置換の指標の図である。 手動のデカルトの動きに対する選択可能な座標系および置換の指標の図である。 手動のデカルトの動きに対する選択可能な座標系および置換の指標の図である。 現実環境の領域とロボット特有のコンピュータによって生成された情報とを組み合わせた強化現実表示としてのこの発明による生成可能な表現の図である。 現実環境の領域とロボット特有のコンピュータによって生成された情報とを組み合わせた強化現実表示としてのこの発明による生成可能な表現の図である。 現実環境の領域とロボット特有のコンピュータによって生成された情報とを組み合わせた強化現実表示としてのこの発明による生成可能な表現の図である。 現実環境の領域とロボット特有のコンピュータによって生成された情報とを組み合わせた強化現実表示としてのこの発明による生成可能な表現の図である。 現実環境の領域とロボット特有のコンピュータによって生成された情報とを組み合わせた強化現実表示としてのこの発明による生成可能な表現の図である。 現実環境の領域とロボット特有のコンピュータによって生成された情報とを組み合わせた強化現実表示としてのこの発明による生成可能な表現の図である。 現実環境の領域とロボット特有のコンピュータによって生成された情報とを組み合わせた強化現実表示としてのこの発明による生成可能な表現の図である。 現実環境の領域とロボット特有のコンピュータによって生成された情報とを組み合わせた強化現実表示としてのこの発明による生成可能な表現の図である。 現実環境の領域とロボット特有のコンピュータによって生成された情報とを組み合わせた強化現実表示としてのこの発明による生成可能な表現の図である。 現実環境の領域とロボット特有のコンピュータによって生成された情報とを組み合わせた強化現実表示としてのこの発明による生成可能な表現の図である。
1 装置、1.1 視覚装置、1.2 カメラ、1.3 眼鏡のレンズ、1.4 ケーブル、2 手動プログラム機、2.1 動きのキー、2.2 6Dマウス、2.3 スクリーン、3 センサシステム、3.1 静止した受取システム、3.2 入力要素、4 ユーザ、4.1,4.1′ 手、4.1a 仮想の手、5 処理ユニット、5.1 画像生成ユニット、5.2 操作ユニット、6 ロボット制御、7 ロボット、7′ さらに別の位置、7.1〜7.3 協働ロボット、7.1′〜7.3′ 動作領域、7a ベース、7b ハンドフランジ、8 工作物、8′ シミュレーションされる工作物、P1〜P6 経路点、AO,AO′ 増補された空間対象物。

Claims (12)

  1. ロボットの情報を視覚装置上にある画像受取装置によって検出される現実環境の画像へとフェードインするための方法であって、前記画像受取装置の位置および方向付けについて判定が行なわれ、前記画像受取装置の位置および方向付けに応じて、前記ロボットの情報が前記視覚装置上の前記現実環境の画像に重ねられ、前記画像受取装置は、現実のロボットの画像を前記視覚装置上に表示するためにとらえるカメラであり、セットアップ、プログラミング、教示のうちの少なくともいずれか一つのためのアクティブな座標方向と、前記ロボットの軸とのうちの少なくともいずれか一つが、前記視覚装置上で、図形的に強調される、方法。
  2. 前記アクティブな座標方向と前記ロボットの軸とのうちの少なくともいずれか一つは、前記視覚装置上で、色によって強調される、請求項1に記載の方法。
  3. 前記アクティブな座標方向と前記ロボットの軸とのうちの少なくともいずれか一つは、前記視覚装置上で、動画によって強調される、請求項1に記載の方法。
  4. 前記ロボットの軸が、前記ロボット情報として重ね合わされる、請求項1に記載の方法。
  5. 前記ロボットの軸は、前記現実のロボットの個々の部品の軸である請求項1に記載の方法。
  6. 少なくとも1つのロボット特有の座標系が、前記ロボットの情報として重ね合わされる、請求項1に記載の方法。
  7. ロボットによって到達可能な作業領域および許可される動作領域のうちの少なくともいずれか一つが、前記ロボットの情報として前記視覚装置上に視覚化される、請求項1に記載の方法。
  8. 画像受取装置および視覚装置を有する、ロボットの情報を現実環境の画像に視覚化するための装置であって、前記画像受取装置の位置および方向付けを判定するための手段、および前記画像受取装置の位置および方向付けに応じて、前記ロボットの情報を前記視覚装置上の現実環境の前記画像に重ねるための手段をさらに含み、前記装置は、前記ロボットの情報を処理するための処理ユニットを有し、前記処理ユニット内には、前記画像受取装置、および画像受取装置としてのカメラのうちの少なくともいずれか一つの位置および方向付けを評価する画像生成ユニットが設けられ、前記画像受取装置および前記カメラのうちの少なくともいずれか一つの画像ととともに視覚化される、前記ロボットの情報は、前記現実環境の画像と視覚化される情報とが前記視覚装置上で共に視覚化されるように、前記画像受取装置および前記カメラのうちの少なくともいずれか一つの画像と混合され、前記処理ユニットは、前記ロボットの手動プログラム機と接続可能な視覚装置上で前記現実環境の画像とともに視覚化されるロボットの情報を、少なくとも一つのロボットのロボット制御のデータインターフェイス上で描く操作ユニットを有し、セットアップ、プログラミング、教示のうちの少なくともいずれか一つのためのアクティブな座標方向と、前記ロボットの軸とが、前記視覚装置上で、図形的に強調される、コンピュータによって生成された情報を現実環境の画像に視覚化するための装置。
  9. 少なくとも1つのロボットに特有の座標系が、前記ロボットの情報として、前記視覚装置上で視覚化される、請求項に記載の装置。
  10. ロボットの軸が、前記ロボットの情報として、前記視覚装置上で視覚化される、請求項に記載の装置。
  11. ロボットによって到達可能な動作領域が、前記ロボットの情報として、前記視覚装置上で視覚化される、請求項に記載の装置。
  12. 許可される動作領域が、前記ロボットの情報として、前記視覚装置上で視覚化される、請求項に記載の装置。
JP2004033927A 2003-02-11 2004-02-10 ロボットの情報を現実環境の画像へとフェードインするための方法、およびロボットの情報を現実環境の画像に視覚化するための装置 Expired - Fee Related JP4680516B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10305384A DE10305384A1 (de) 2003-02-11 2003-02-11 Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen

Publications (2)

Publication Number Publication Date
JP2004243516A JP2004243516A (ja) 2004-09-02
JP4680516B2 true JP4680516B2 (ja) 2011-05-11

Family

ID=32668007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004033927A Expired - Fee Related JP4680516B2 (ja) 2003-02-11 2004-02-10 ロボットの情報を現実環境の画像へとフェードインするための方法、およびロボットの情報を現実環境の画像に視覚化するための装置

Country Status (4)

Country Link
US (1) US7298385B2 (ja)
EP (1) EP1447770B1 (ja)
JP (1) JP4680516B2 (ja)
DE (1) DE10305384A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210069899A1 (en) * 2017-12-14 2021-03-11 Wittmann Kunststoffgeräte Gmbh Method for validating programmed execution sequences or teaching programs for a robot in a working cell, and robot and/or robot controller for said method

Families Citing this family (173)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2853983A1 (fr) * 2003-04-17 2004-10-22 Philippe Bellanger Procede et dispositif d'interaction pour l'assistance au geste "metier-matiere"
DE10345743A1 (de) 2003-10-01 2005-05-04 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
WO2005045729A1 (de) * 2003-11-10 2005-05-19 Siemens Aktiengesellschaft System und verfahren zur durchführung und visualisierung von simulationen in einer erweiterten realität
US8160205B2 (en) 2004-04-06 2012-04-17 Accuray Incorporated Robotic arm for patient positioning assembly
US7860550B2 (en) * 2004-04-06 2010-12-28 Accuray, Inc. Patient positioning assembly
US8230358B1 (en) * 2004-06-22 2012-07-24 Apple Inc. Defining motion in a computer system with a graphical user interface
JP4917252B2 (ja) * 2004-07-23 2012-04-18 ファナック株式会社 アーク溶接用装置
US7698010B2 (en) * 2004-09-29 2010-04-13 Haeger, Inc. Methods, systems and computer program products for altering video images to aid an operator of a fastener insertion machine
DE102005009437A1 (de) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
DE602005006531D1 (de) * 2005-04-19 2008-06-19 Comau Spa Verfahren zur Steuerung von industriellen Robotern und entsprechend gesteuerte Roboter, Robotersysteme und Computerprogramme
JP2007030060A (ja) * 2005-07-22 2007-02-08 Honda Motor Co Ltd 移動ロボットの制御装置
KR101019569B1 (ko) 2005-08-29 2011-03-08 에브릭스 테크놀로지스, 인코포레이티드 모바일 이미지 인식을 통한 상호작용
DE102005045855A1 (de) 2005-09-26 2007-03-29 Siemens Ag Verfahren und Vorrichtung zur Erleichterung der Einstellung von Systemen, bei welchen Objekten bewegt werden
JP4056542B2 (ja) 2005-09-28 2008-03-05 ファナック株式会社 ロボットのオフライン教示装置
EP1996376B1 (en) * 2006-03-03 2016-05-11 Universal Robots A/S Programmable robot and user interface
US7839416B2 (en) * 2006-03-10 2010-11-23 University Of Northern Iowa Research Foundation Virtual coatings application system
DE602007002099D1 (de) 2006-03-27 2009-10-08 Gen Electric Prüfvorrichtung zum Prüfen von Gegenständen
US8368749B2 (en) * 2006-03-27 2013-02-05 Ge Inspection Technologies Lp Article inspection apparatus
DE102006022483A1 (de) 2006-05-13 2007-11-29 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Anzeigen einer Roboterbahn zur Unterstützung einer Ortsänderung eines Stützpunktes
KR20080029548A (ko) * 2006-09-29 2008-04-03 삼성전자주식회사 실사기반 이동기기 제어 방법 및 장치
DE502006009264D1 (de) * 2006-09-30 2011-05-19 Abb Technology Ag Verfahren und System zur Auslegung und Überprüfung von Sicherheitsbereichen eines Roboters
US7974737B2 (en) * 2006-10-31 2011-07-05 GM Global Technology Operations LLC Apparatus and method of automated manufacturing
DE102007014497B4 (de) * 2007-03-27 2008-12-24 Kuka Roboter Gmbh Roboter-Programmierhandgerät
JP4941068B2 (ja) * 2007-04-16 2012-05-30 トヨタ自動車株式会社 経路作成方法及び経路作成装置
DE102007033486B4 (de) * 2007-07-18 2010-06-17 Metaio Gmbh Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
DE102007062108A1 (de) * 2007-12-21 2009-07-02 Kuka Roboter Gmbh Industrieroboter und Verfahren zum Programmieren eines Industrieroboters
FR2926240B1 (fr) * 2008-01-15 2010-04-30 Blm Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede.
DE102008012122B4 (de) * 2008-03-01 2014-09-11 Rittal Gmbh & Co. Kg Prüfeinrichtung für Schaltschränke oder Racks
US20100017026A1 (en) * 2008-07-21 2010-01-21 Honeywell International Inc. Robotic system with simulation and mission partitions
US20100198876A1 (en) 2009-02-02 2010-08-05 Honeywell International, Inc. Apparatus and method of embedding meta-data in a captured image
US8457791B2 (en) * 2009-03-10 2013-06-04 GM Global Technology Operations LLC Method for dynamically controlling a robotic arm
WO2010130289A1 (en) * 2009-05-13 2010-11-18 Abb Research Ltd. A teach pendant unit for an industrial robot and a service system
US9519814B2 (en) 2009-06-12 2016-12-13 Hand Held Products, Inc. Portable data terminal
US8386080B2 (en) * 2009-09-15 2013-02-26 Harris Corporation Robotic apparatus implementing collision avoidance scheme and associated methods
KR100968944B1 (ko) * 2009-12-14 2010-07-14 (주) 아이알로봇 로봇 동기화 장치 및 그 방법
JP4850984B2 (ja) * 2009-12-28 2012-01-11 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
US8972056B2 (en) * 2010-01-14 2015-03-03 Syddansk Universitet Method of finding feasible joint trajectories for an n-dof robot with rotation invariant process (n>5)
ITBO20100117A1 (it) * 2010-03-01 2011-09-01 Alma Mater Studiorum Creazione automatica di ambienti intelligenti
DE102010017857B4 (de) * 2010-04-22 2019-08-08 Sick Ag 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine
WO2012063397A1 (ja) * 2010-11-12 2012-05-18 パナソニック株式会社 移動経路探索装置および移動経路探索方法
EP2453325A1 (en) 2010-11-16 2012-05-16 Universal Robots ApS Method and means for controlling a robot
DE102011011542B4 (de) * 2011-02-17 2016-05-25 Convergent Information Technologies Gmbh Verfahren zur automatisierten Programmierung und Optimierung von robotischen Arbeitsabläufen
KR101349885B1 (ko) 2011-04-28 2014-01-13 삼성중공업 주식회사 작업 로봇을 사용한 도장 방법
US9026242B2 (en) 2011-05-19 2015-05-05 Taktia Llc Automatically guided tools
CN102909728B (zh) * 2011-08-05 2015-11-25 鸿富锦精密工业(深圳)有限公司 机器人工具中心点的视觉校正方法
AT12208U3 (de) * 2011-09-06 2013-07-15 Keba Ag Verfahren, steuerungssystem und bewegungsvorgabemittel zum programmieren oder vorgeben von bewegungen oder abläufen eines industrieroboters
US9037297B2 (en) 2011-09-15 2015-05-19 Persimmon Technologies Corporation System and method for operation of a robot
KR102050895B1 (ko) 2011-09-28 2020-01-08 유니버셜 로보츠 에이/에스 로봇의 캘리브레이션 및 프로그래밍
EP2602681B1 (de) 2011-12-05 2017-01-11 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Steuern eines Telemanipulations-Roboters
DE102012206350A1 (de) * 2012-04-18 2013-10-24 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Betreiben eines Roboters
WO2013163588A1 (en) 2012-04-26 2013-10-31 Alec Rothmyer Rivers Systems and methods for performing a task on a material, or locating the position of a device relative to the surface of the material
USD716815S1 (en) * 2012-05-01 2014-11-04 Optelec Development B.V. Optical transmission-conversion device for producing a magnified image
JP5426719B2 (ja) * 2012-05-18 2014-02-26 ファナック株式会社 ロボットシステムの動作シミュレーション装置
CN104470687A (zh) * 2012-07-20 2015-03-25 株式会社安川电机 机器人模拟器、机器人示教装置以及机器人示教方法
ITTV20120139A1 (it) * 2012-07-25 2014-01-26 Isis S R L Metodo per il controllo e l'attivazione di una interfaccia utente contestuale e dispositivo e impianto con tale metodo e interfaccia
DE102012015437A1 (de) * 2012-08-02 2014-05-15 Kuka Roboter Gmbh Verfahren und Programmiermittel zur Modifikation einer Roboterbahn
JP5670416B2 (ja) * 2012-12-28 2015-02-18 ファナック株式会社 ロボットシステム表示装置
NZ710129A (en) 2013-01-22 2017-12-22 Gorbel Inc Medical rehab lift system and method with horizontal and vertical force sensing and motion control
US10478371B2 (en) 2013-01-22 2019-11-19 Gorbel, Inc. Medical rehab body weight support system and method with horizontal and vertical force sensing and motion control
JP5716769B2 (ja) * 2013-02-21 2015-05-13 株式会社安川電機 ロボットシミュレータ、ロボット教示装置およびロボット教示方法
US9649765B2 (en) 2013-03-11 2017-05-16 Siemens Aktiengesellschaft Reducing energy consumption of industrial robots by using new methods for motion path programming
JP5742862B2 (ja) * 2013-03-18 2015-07-01 株式会社安川電機 ロボット装置及び被加工物の製造方法
JP5673716B2 (ja) * 2013-03-19 2015-02-18 株式会社安川電機 ロボットシステム及び被加工物の製造方法
WO2015051815A1 (en) * 2013-10-07 2015-04-16 Abb Technology Ltd A method and a device for verifying one or more safety volumes for a movable mechanical unit
WO2015058277A1 (en) 2013-10-25 2015-04-30 Transformix Engineering Inc. Flexible feeding and closing machine for hinged caps
EP3083160A4 (en) 2013-12-17 2017-08-23 Syddansk Universitet Device for dynamic switching of robot control points
KR102386763B1 (ko) 2014-03-04 2022-04-14 유니버셜 로보츠 에이/에스 산업용 로봇을 위한 안전 시스템
US20150277398A1 (en) * 2014-03-26 2015-10-01 Siemens Industry Software Ltd. Object manipulation driven robot offline programming for multiple robot system
US9922144B2 (en) 2014-03-26 2018-03-20 Siemens Industry Software Ltd. Energy and cycle time efficiency based method for robot positioning
US9701018B2 (en) 2014-04-01 2017-07-11 Bot & Dolly, Llc Software interface for authoring robotic manufacturing process
US9841749B2 (en) 2014-04-01 2017-12-12 Bot & Dolly, Llc Runtime controller for robotic manufacturing system
CN106462140B (zh) * 2014-04-30 2019-04-26 Abb瑞士股份有限公司 用于标定工业机器人系统的工具中心点的方法
US9701011B2 (en) * 2014-05-08 2017-07-11 Siemens Industry Software Ltd. Method for robotic energy saving tool search
US9555545B2 (en) 2014-05-21 2017-01-31 Bot & Dolly, Llc Systems and methods for time-based parallel robotic operation
US9278449B1 (en) 2014-05-21 2016-03-08 Bot & Dolly, Llc Closed-loop control system for robotic operation
US9308647B2 (en) 2014-06-03 2016-04-12 Bot & Dolly, Llc Systems and methods for instructing robotic operation
DE102014213021A1 (de) * 2014-07-04 2016-01-07 Bayerische Motoren Werke Aktiengesellschaft Lokalisierung eines HMD im Fahrzeug
US9283678B2 (en) * 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
DE102014010638A1 (de) * 2014-07-17 2016-01-21 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Steuern eines Roboters
US9469029B2 (en) 2014-07-31 2016-10-18 Siemens Industry Software Ltd. Method and apparatus for saving energy and reducing cycle time by optimal ordering of the industrial robotic path
US9815201B2 (en) 2014-07-31 2017-11-14 Siemens Industry Software Limited Method and apparatus for industrial robotic energy saving optimization using fly-by
US9457469B2 (en) 2014-08-14 2016-10-04 Siemens Industry Software Ltd. Method and apparatus for automatic and efficient location generation for cooperative motion
DE102014012185A1 (de) * 2014-08-20 2016-02-25 Sig Technology Ag Bedienterminal für Verarbeitungsanlagen
US20160062571A1 (en) 2014-09-02 2016-03-03 Apple Inc. Reduced size user interface
JP5911933B2 (ja) 2014-09-16 2016-04-27 ファナック株式会社 ロボットの動作監視領域を設定するロボットシステム
US10195746B2 (en) 2014-09-26 2019-02-05 Teradyne, Inc. Grasping gripper
USD749226S1 (en) 2014-11-06 2016-02-09 Gorbel, Inc. Medical rehab lift actuator
JP6006277B2 (ja) * 2014-11-06 2016-10-12 ファナック株式会社 産業用ロボットのプログラム修正装置及びプログラム修正方法
JP2016107379A (ja) 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
US9828128B1 (en) 2014-12-17 2017-11-28 X Development Llc On-demand protective structures for packaging items in a container
US9840347B1 (en) 2014-12-17 2017-12-12 X Development LLX Adhering modular elements for packaging structures
JP6068429B2 (ja) 2014-12-25 2017-01-25 ファナック株式会社 ロボット識別システム
US10365807B2 (en) 2015-03-02 2019-07-30 Apple Inc. Control of system zoom magnification using a rotatable input mechanism
US9643314B2 (en) 2015-03-04 2017-05-09 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
DE102015002994A1 (de) * 2015-03-09 2016-09-15 Kuka Roboter Gmbh Verändern einer initial vorgegebenen Roboterbahn
JP2016194843A (ja) * 2015-04-01 2016-11-17 ファナック株式会社 複数画像を用いたプログラム表示機能を有する数値制御装置
JP6723738B2 (ja) * 2015-04-03 2020-07-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10076840B2 (en) * 2015-04-03 2018-09-18 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
CN107530878B (zh) 2015-05-13 2021-01-08 整形工具股份有限公司 用于被引导工具的系统、方法和设备
DE102015209899B4 (de) * 2015-05-29 2019-06-19 Kuka Roboter Gmbh Auswahl eines Gerätes oder eines Objektes mit Hilfe einer Kamera
DE102015209896B3 (de) * 2015-05-29 2016-08-18 Kuka Roboter Gmbh Ermittlung der Roboterachswinkel und Auswahl eines Roboters mit Hilfe einer Kamera
US10398618B2 (en) 2015-06-19 2019-09-03 Gorbel, Inc. Body harness
US9862099B1 (en) 2015-06-22 2018-01-09 X Development Llc Haptic controller with touch-sensitive control knob
US9833907B1 (en) 2015-06-22 2017-12-05 X Development Llc Proximity-based binding
EP3319761A4 (en) 2015-07-08 2019-03-06 Universal Robots A/S METHOD FOR EXTENDING END USER PROGRAMMING OF AN INDUSTRIAL ROBOT WITH THIRD PARTY CONTRIBUTIONS
US9916506B1 (en) 2015-07-25 2018-03-13 X Development Llc Invisible fiducial markers on a robot to visualize the robot in augmented reality
US9919427B1 (en) * 2015-07-25 2018-03-20 X Development Llc Visualizing robot trajectory points in augmented reality
US10806534B2 (en) * 2015-08-25 2020-10-20 Kawasaki Jukogyo Kabushiki Kaisha Information sharing system and method of sharing information between a plurality of robot systems
US10620778B2 (en) * 2015-08-31 2020-04-14 Rockwell Automation Technologies, Inc. Augmentable and spatially manipulable 3D modeling
JP6126183B2 (ja) 2015-10-05 2017-05-10 ファナック株式会社 ターゲットマークを撮像するカメラを備えたロボットシステム
WO2017072979A1 (ja) * 2015-10-30 2017-05-04 株式会社安川電機 ロボット教示装置、コンピュータプログラム及びロボット教示方法
JP6114361B1 (ja) * 2015-11-02 2017-04-12 ファナック株式会社 オフラインのロボットプログラミング装置
JP6631203B2 (ja) * 2015-11-30 2020-01-15 株式会社デンソーウェーブ バーチャルフェンス表示システム
JP6645142B2 (ja) * 2015-11-30 2020-02-12 株式会社デンソーウェーブ ロボット安全システム
JP6657858B2 (ja) * 2015-11-30 2020-03-04 株式会社デンソーウェーブ ロボット操作システム
JP6657859B2 (ja) * 2015-11-30 2020-03-04 株式会社デンソーウェーブ ロボット安全システム
JP6420229B2 (ja) 2015-12-10 2018-11-07 ファナック株式会社 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
DE102015225844A1 (de) * 2015-12-18 2017-06-22 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben einer Datenbrille sowie Datenbrille
US9757859B1 (en) * 2016-01-21 2017-09-12 X Development Llc Tooltip stabilization
US9744665B1 (en) 2016-01-27 2017-08-29 X Development Llc Optimization of observer robot locations
US10059003B1 (en) 2016-01-28 2018-08-28 X Development Llc Multi-resolution localization system
TWI805545B (zh) 2016-04-12 2023-06-21 丹麥商環球機器人公司 用於藉由示範來程式化機器人之方法和電腦程式產品
JP2018008347A (ja) * 2016-07-13 2018-01-18 東芝機械株式会社 ロボットシステムおよび動作領域表示方法
JP6883392B2 (ja) * 2016-07-29 2021-06-09 川崎重工業株式会社 ロボットシステム
US11537099B2 (en) 2016-08-19 2022-12-27 Sharper Tools, Inc. Systems, methods and apparatus for sharing tool fabrication and design data
KR102544737B1 (ko) * 2016-08-30 2023-06-16 엘지전자 주식회사 로봇 청소기 및 로봇 청소기를 포함하는 시스템
US10684480B2 (en) * 2017-03-16 2020-06-16 Denso Wave Incorporated Information display system
US10671240B2 (en) * 2017-06-05 2020-06-02 Kindred Systems Inc. Systems, devices, articles, and methods for creating and using trained robots with augmented reality
JP6538760B2 (ja) * 2017-06-22 2019-07-03 ファナック株式会社 複合現実シミュレーション装置及び複合現実シミュレーションプログラム
TWI650626B (zh) * 2017-08-15 2019-02-11 由田新技股份有限公司 基於三維影像之機械手臂加工方法及系統
JP2019063953A (ja) * 2017-10-02 2019-04-25 株式会社オカムラ 作業システム、作業システムの制御方法及びプログラム
JP6385627B1 (ja) * 2017-11-07 2018-09-05 三菱電機株式会社 表示制御装置、表示制御方法および表示制御プログラム
JP1606242S (ja) * 2017-11-22 2018-06-11
US10676022B2 (en) 2017-12-27 2020-06-09 X Development Llc Visually indicating vehicle caution regions
DE102018201589A1 (de) * 2018-02-01 2019-08-01 KORIS Vision & Force GmbH Verfahren zur Programmierung der Steuerung eines Industrieroboters, Verfahren zum Betreiben eines Industrieroboters, Programmiervorrichtung sowie Industrierobotersystem mit einer solchen Programmiervorrichtung
DE102018109463C5 (de) 2018-04-19 2023-10-05 Voraus Robotik Gmbh Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
JP6863927B2 (ja) * 2018-04-25 2021-04-21 ファナック株式会社 ロボットのシミュレーション装置
JP6810093B2 (ja) 2018-04-25 2021-01-06 ファナック株式会社 ロボットのシミュレーション装置
JP7225560B2 (ja) * 2018-04-26 2023-02-21 セイコーエプソン株式会社 制御装置、ロボットシステム、及び表示制御方法
US11850755B2 (en) 2018-06-26 2023-12-26 Fanuc America Corporation Visualization and modification of operational bounding zones using augmented reality
US11285607B2 (en) * 2018-07-13 2022-03-29 Massachusetts Institute Of Technology Systems and methods for distributed training and management of AI-powered robots using teleoperation via virtual spaces
JP6856583B2 (ja) 2018-07-25 2021-04-07 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
JP7161334B2 (ja) * 2018-07-31 2022-10-26 川崎重工業株式会社 ロボットシステム
JP6823018B2 (ja) * 2018-08-03 2021-01-27 ファナック株式会社 協調動作支援装置
JP6856590B2 (ja) 2018-08-31 2021-04-07 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム
JP7414810B2 (ja) * 2018-09-10 2024-01-16 ファナック アメリカ コーポレイション ロボット連続経路のゼロティーチ
DE102018218828A1 (de) * 2018-11-05 2020-05-07 Kuka Systems Gmbh Verfahren und System zum Modifizieren eines Arbeitsprozesses in einer Maschinenanlage und/oder eines virtuellen 3D-Modells der Maschinenanlage
JP6806757B2 (ja) 2018-11-16 2021-01-06 ファナック株式会社 動作プログラム作成装置
US11429762B2 (en) 2018-11-27 2022-08-30 Amazon Technologies, Inc. Simulation orchestration for training reinforcement learning models
US11836577B2 (en) 2018-11-27 2023-12-05 Amazon Technologies, Inc. Reinforcement learning model training through simulation
US11455234B2 (en) * 2018-11-21 2022-09-27 Amazon Technologies, Inc. Robotics application development architecture
USD900900S1 (en) * 2019-02-18 2020-11-03 Mtm Robotics, Llc Hand-held sensor
USD900902S1 (en) * 2019-02-18 2020-11-03 Mtm Robotics, Llc Hand-held sensor housing
USD900901S1 (en) * 2019-02-18 2020-11-03 Mtm Robotics, Llc Hand-held sensor target locator
KR102184935B1 (ko) * 2019-02-20 2020-12-01 한국기술교육대학교 산학협력단 증강현실을 이용한 로봇팔의 움직임 확인 방법
WO2020192882A1 (en) * 2019-03-25 2020-10-01 Abb Schweiz Ag Method and control arrangement for determining a relation between a robot coordinate system and a movable apparatus coordinate system
JP7331462B2 (ja) * 2019-05-24 2023-08-23 京セラドキュメントソリューションズ株式会社 ロボットシステム、ロボット制御方法及び電子装置
CN110660101B (zh) * 2019-08-19 2022-06-07 浙江理工大学 基于rgb图像和坐标系变换的物体6d姿势预测方法
US11478936B2 (en) * 2019-10-09 2022-10-25 Canon Kabushiki Kaisha Image processing apparatus that processes image picked up by image pickup apparatus attached to robot, control method therefor, and storage medium storing control program therefor
JP7359633B2 (ja) * 2019-10-17 2023-10-11 ファナック株式会社 ロボットシステム
JP7396872B2 (ja) 2019-11-22 2023-12-12 ファナック株式会社 拡張現実を用いたシミュレーション装置及びロボットシステム
EP4069472A4 (en) * 2019-12-05 2024-03-20 MAGNA Powertrain GmbH & Co KG METHOD AND CONFIGURATION IN THE CONTEXT OF BARRIER-FREE ROBOTICS
US11529737B2 (en) 2020-01-30 2022-12-20 Raytheon Company System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment
EP4190513A4 (en) * 2020-08-03 2024-01-24 Mitsubishi Electric Corporation REMOTE CONTROL DEVICE
DE102020006304B3 (de) 2020-10-14 2022-01-13 Kuka Systems Gmbh Verfahren zum Einblenden von virtuellen Roboterdatenobjekten und Computerprogrammprodukt
DE102020129823B4 (de) 2020-11-12 2022-07-07 Sick Ag Visualisieren eines Schutzfeldes
JP2022088884A (ja) * 2020-12-03 2022-06-15 セイコーエプソン株式会社 コンピュータープログラム、及び、ロボットの教示方法
TW202234184A (zh) * 2021-02-25 2022-09-01 日商發那科股份有限公司 使用從視覺感測器的輸出得到之三維位置資訊的模擬裝置
WO2022224449A1 (ja) * 2021-04-23 2022-10-27 日本電気株式会社 制御装置、制御方法及び記憶媒体
EP4373570A1 (en) * 2021-07-20 2024-05-29 Mevion Medical Systems, Inc. Gantry having a retractable cover
JP2023049895A (ja) * 2021-09-29 2023-04-10 株式会社日立製作所 放射線治療システム、および、放射線治療システムの運転方法
JP7327550B1 (ja) 2022-03-08 2023-08-16 株式会社安川電機 ロボットコントローラ、及び制御方法
WO2024102726A1 (en) * 2022-11-07 2024-05-16 Noland Samantha Systems and methods to configure a robotic welding system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09131681A (ja) * 1995-11-10 1997-05-20 Nippon Telegr & Teleph Corp <Ntt> 教示装置
JPH11338532A (ja) * 1998-05-22 1999-12-10 Hitachi Ltd 教示装置
JP2002247602A (ja) * 2001-02-15 2002-08-30 Mixed Reality Systems Laboratory Inc 画像生成装置及びその制御方法並びにそのコンピュータプログラム
JP2004209641A (ja) * 2002-12-30 2004-07-29 Abb Res Ltd 工業ロボットをプログラミングするための方法およびシステム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5625765A (en) * 1993-09-03 1997-04-29 Criticom Corp. Vision systems including devices and methods for combining images for extended magnification schemes
US5876325A (en) * 1993-11-02 1999-03-02 Olympus Optical Co., Ltd. Surgical manipulation system
US5835693A (en) * 1994-07-22 1998-11-10 Lynch; James D. Interactive system for simulation and display of multi-body systems in three dimensions
EP0840909B1 (de) * 1995-07-22 1999-03-31 KUKA Roboter GmbH Steuer- und programmiereinrichtung
US6044308A (en) * 1997-06-13 2000-03-28 Huissoon; Jan Paul Method and device for robot tool frame calibration
US6157873A (en) * 1998-04-09 2000-12-05 Motoman, Inc. Robot programming system and method
DE50007901D1 (de) * 1999-03-02 2004-10-28 Siemens Ag Nutzung von augmented reality-basistechnologien zur situationsgerechten unterstützung des facharbeiters durch entfernte experten
DE50002092D1 (de) * 1999-06-26 2003-06-12 Kuka Schweissanlagen Gmbh Verfahren und vorrichtung zum kalibrieren von robotermessstationen, manipulatoren und mitgeführten optischen messeinrichtungen
US6845297B2 (en) * 2000-05-01 2005-01-18 Irobot Corporation Method and system for remote control of mobile robot
DE10127396A1 (de) * 2000-06-13 2001-12-20 Volkswagen Ag Verfahren zum Verwerten eines Altfahrzeugs
JP2004538538A (ja) * 2000-10-05 2004-12-24 シーメンス コーポレイト リサーチ インコーポレイテツド 強化現実可視化付きの、手術中にイメージガイドされる神経外科手術法及び手術用装置
JP2002172575A (ja) 2000-12-07 2002-06-18 Fanuc Ltd 教示装置
US20030012410A1 (en) * 2001-07-10 2003-01-16 Nassir Navab Tracking and pose estimation for augmented reality using real features
US6587752B1 (en) * 2001-12-25 2003-07-01 National Institute Of Advanced Industrial Science And Technology Robot operation teaching method and apparatus
EP1472052A2 (en) * 2002-01-31 2004-11-03 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
NO317898B1 (no) * 2002-05-24 2004-12-27 Abb Research Ltd Fremgangsmate og system for a programmere en industrirobot
JP3950805B2 (ja) * 2003-02-27 2007-08-01 ファナック株式会社 教示位置修正装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09131681A (ja) * 1995-11-10 1997-05-20 Nippon Telegr & Teleph Corp <Ntt> 教示装置
JPH11338532A (ja) * 1998-05-22 1999-12-10 Hitachi Ltd 教示装置
JP2002247602A (ja) * 2001-02-15 2002-08-30 Mixed Reality Systems Laboratory Inc 画像生成装置及びその制御方法並びにそのコンピュータプログラム
JP2004209641A (ja) * 2002-12-30 2004-07-29 Abb Res Ltd 工業ロボットをプログラミングするための方法およびシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210069899A1 (en) * 2017-12-14 2021-03-11 Wittmann Kunststoffgeräte Gmbh Method for validating programmed execution sequences or teaching programs for a robot in a working cell, and robot and/or robot controller for said method

Also Published As

Publication number Publication date
DE10305384A1 (de) 2004-08-26
US7298385B2 (en) 2007-11-20
JP2004243516A (ja) 2004-09-02
EP1447770B1 (de) 2013-10-09
US20040189631A1 (en) 2004-09-30
EP1447770A3 (de) 2006-02-01
EP1447770A2 (de) 2004-08-18

Similar Documents

Publication Publication Date Title
JP4680516B2 (ja) ロボットの情報を現実環境の画像へとフェードインするための方法、およびロボットの情報を現実環境の画像に視覚化するための装置
CN110977931B (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
JP3708083B2 (ja) ロボット教示装置
Ong et al. Augmented reality-assisted robot programming system for industrial applications
US10737396B2 (en) Method and apparatus for robot path teaching
JP4817603B2 (ja) 工業ロボットをプログラミングするための方法およびシステム
JP6810093B2 (ja) ロボットのシミュレーション装置
EP3875230A1 (en) External input device, robot system, control method for robot system, control program, and recording medium
US7236854B2 (en) Method and a system for programming an industrial robot
CN110238831A (zh) 基于rgb-d图像及示教器的机器人示教系统及方法
EP2055446A1 (en) A portable robot control apparatus and a method for controlling a movement of a robot
US20140195054A1 (en) Robot system, robot control device and method for controlling robot
EP2954987A1 (en) Teaching system, robot system, and teaching method
US20160346921A1 (en) Portable apparatus for controlling robot and method thereof
KR20150044812A (ko) 티칭 시스템 및 티칭 방법
KR20170024769A (ko) 로봇 제어 장치
Frank et al. Towards teleoperation-based interactive learning of robot kinematics using a mobile augmented reality interface on a tablet
JP2007511839A (ja) 産業ロボットをプログラミングするための装置と方法
KR102403021B1 (ko) 로봇 교시 장치 및 이를 이용한 로봇 교시 방법
KR102403568B1 (ko) 로봇 교시 장치 및 이를 이용한 로봇 교시 방법
JP2792842B2 (ja) ロボット作業教示方法および装置
JP7068416B2 (ja) 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法
Matour et al. Towards Intuitive Extended Reality-Based Robot Control and Path Planning: Comparison of Augmented Reality and Mixed Reality-Based Approaches
Freund et al. Projective Virtual Reality in space applications: A telerobotic ground station for a space mission
WO2024134902A1 (ja) ロボットの姿勢を調整する装置、方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100305

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100310

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110203

R150 Certificate of patent or registration of utility model

Ref document number: 4680516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees