JP4817603B2 - 工業ロボットをプログラミングするための方法およびシステム - Google Patents

工業ロボットをプログラミングするための方法およびシステム Download PDF

Info

Publication number
JP4817603B2
JP4817603B2 JP2004000707A JP2004000707A JP4817603B2 JP 4817603 B2 JP4817603 B2 JP 4817603B2 JP 2004000707 A JP2004000707 A JP 2004000707A JP 2004000707 A JP2004000707 A JP 2004000707A JP 4817603 B2 JP4817603 B2 JP 4817603B2
Authority
JP
Japan
Prior art keywords
robot
information
operator
processing
waypoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004000707A
Other languages
English (en)
Other versions
JP2004209641A (ja
Inventor
プレットラヴ ジョン
スコウルプ シャルロッテ
ペテルセン トーマス
Original Assignee
エービービー リサーチ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エービービー リサーチ リミテッド filed Critical エービービー リサーチ リミテッド
Publication of JP2004209641A publication Critical patent/JP2004209641A/ja
Application granted granted Critical
Publication of JP4817603B2 publication Critical patent/JP4817603B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/4202Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine preparation of the programme medium using a drawing, a model
    • G05B19/4207Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine preparation of the programme medium using a drawing, a model in which a model is traced or scanned and corresponding data recorded
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36452Touch points with handheld probe, camera detects position and orientation probe
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36453Handheld tool like probe
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36492Record position and orientation, posture of probe, tool
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36495Recording position and other parameters, current, tool diameter, voltage
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40515Integration of simulation and planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45013Spraying, coating, painting
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45065Sealing, painting robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

本発明は、工業ロボットのプログラミングに関連する方法であって、ロボットの処理対象物上またはその周辺に位置する複数のウェイポイントからなるパスをロボットに教示する方法に関するものである。対象物への処理は、例えば塗装、グレージング、サンディング、研磨、研削、溶接、採集、ピックアンドプレイス、組立等の工業ロボットによって通常行われる任意の表面処理作業である。
本発明は、さらに、コンピュータの内蔵メモリに直接ロードすることができるコンピュータプログラム製品であって、該製品がコンピュータ上で実行されると、本発明による方法の各過程を行うためのソフトウェアコード部を含むコンピュータプログラム製品に関するものである。
本発明は、さらに、プログラムを記録したコンピュータで読取可能な媒体であって、該プログラムがコンピュータ上で実行されると、コンピュータに本発明による方法の各過程を行わせるコンピュータで読取可能な媒体に関するものである。
本発明は、さらに、本発明による方法の塗装作業への使用に関するものである。
本発明は、さらに、工業ロボットのプログラミングに関連して使用されるシステムであって、対象物に対するパスのウェイポイントに関する情報を取得するための情報取得手段と、取得された情報を格納するための記憶装置と、図形表現を生成するための図形生成装置と、対象物とともに図形生成装置によって生成された図形表現を含むビューを表示するための表示装置とを具備するシステムに関するものである。
対象物の表面を処理するためにロボットが使用されることが多い。現行の技術では、ロボットに一連のウェイポイントを教えることによってロボットのプログラミングを行う。ウェイポイントは、対象物を処理する際にロボットが辿るべきパスを形成している。ウェイポイントには、3次元位置情報と3次元向き情報が含まれる。ロボットは、プログラミングの際に望ましい動作パスに沿って複数のウェイポイントを通過するように導かれることによってタスクの実行方法を学習する。このウェイポイントは、ロボット制御ユニットのメモリ内に、指令として保存される。ロボットが作動中にプログラムの指令を実行することによって、ロボットが望むように動く。
一般的に、ロボットは、人間の操作者が移動プログラミングユニット、いわゆるティーチペンダントを使用してロボットをパス上の所望の位置に連れて周ることによってタスクの実行方法がプログラミングされるのである。工業ロボットは、通常、例えば溶接工具または塗装工具等の処理を行うための工具を有するエンドエフェクタを搭載している。パスをプログラミングする際に、操作者はパス上の各ウェイポイントにおいてエンドエフェクタの位置および向きを決定する必要がある。あるいは、対象物の3次元CADモデルが存在する場合、コンピュータ分野の熟練者が、いわゆるオフラインプログラミングによって、ロボットシミュレーションシステム内でウェイポイントを教示することも可能である。CAD方式に基づく既存の方法として、完全に仮想の世界、すなわち現実世界と対象物を表す擬似表現内の視覚フィードバックを用いたものもある。
いずれであれ、教示作業は時間が掛かり、煩わしく、間違い易く、ほとんどの場合では許容できるプログラムが得られるまで幾度も繰返し行う必要がある。CAD方式は高価であり、対象物の3次元CADモデルが必要であり、必ずしも使い勝手がよいわけではない。CADシステムは複雑であるため、ロボットをプログラミングする操作者がコンピュータの分野に熟知している必要がある。しかし、そのような人材は、作業側の知識を有しないことが多い。手動の教示方法については、作業の制御を最適化することが難しいが、操作者の有する作業に関する潜在知識を間接的に利用することが可能になるといった利点がある。手動の教示方法のさらなる欠点として、操作者が、プログラミングの結果を視覚的に示した視覚的フィードバックを使用できない。操作者は、許容できるプログラムが得られるまで試行錯誤を繰返すことになる。例えば、ロボットに対象物の塗装処理を教えたいとき、対象物の表面全体をある色で覆いたい場合、操作者は、その後にプログラムを実行してみなければ表面の一部が塗装されていないままであることが分からない。従って、ここでは塗装処理である作業の品質が満足できる程度になるまで何度も繰返す必要がある。
特許文献1に、工業ロボットを教示するための改善された方法が記載されている。この方法は、ロボットが作動する前に、その作業による結果を操作者への視覚的フィードバックで示す過程を含む。視覚的フィードバックは、実際の対象物とともに示される。この方法によると、ロボットとその周囲の状況をCCDカメラで検出し、操作者がティーチペンダントによってロボット操作情報を入力し、入力情報に基づいてロボットの操作後の結果を推定し、推定された操作を画像として表示される情報に変換し、カメラに関連する情報と推定情報とに基づいてロボットの応答に関する画像情報を生成し、CCDカメラによって検出された画像情報とロボットの応答に関する画像に基づいて推定応答を合成し、ロボットとその周囲とともにロボットの推定応答を含むビューを表示する。従って、この方法は、ロボットによって実行される次の作業を示すが、操作者のプログラミングに関する視覚的フィードバックを提供するものではない。
特開平10−11122号公報
本発明の目的は、教示処理のために必要な教示時間を軽減し、処理結果の品質を向上する新規の工業ロボットプログラミング方式を提供することにある。
本発明の一側面によると、この目的は、上述の方法であって、該対象物に対するウェイポイントの相対位置に関する情報を取得し、該ウェイポイントの相対位置に関する情報を保存し、該ウェイポイントに関して受取った情報と、該ロボットのモデルに基づいてロボットパスのシミュレーションを行い、該シミュレーションによるロボットパスに基づいて該ロボットパスを表す図形表現を生成し、対象物とともに、該対象物上に投影された状態で該ロボットパスの図形表現を含むビューを表示する過程を有する方法によって果たすことができる。この方法は、現実の処理対象物に相対してロボットパスを視覚化することで教示処理を改善する。
勿論、ロボットが、操作者によって指定されたウェイポイント間を単に直線で結んだパスに従って工具を移動させると効率が悪い。効率の良いロボットプログラムを実現するためには、工具が指定されたウェイポイントを適切な速度と方向で通過するようなロボットパスを作成する必要がある。ロボットパスは、指定されたウェイポイントとロボットのモデルに基づいてロボットパスのシミュレーションを行うパスシミュレータによって生成される。このように生成されたロボットパスを表すコンピュータ生成情報は、現実の対象物上また現実の対象物の画像上に投影された状態で表示される。従って、操作者が特定の対象物に対して新しいロボットプログラムを作成したいとき、拡張された視覚的フィードバックを利用することができる。プログラミングの結果を確認するためにロボットプログラムを実際に実行する必要がない。よって、試運転の繰返し回数が少なくなり、教示時間が短縮される。この方法は、特にオフラインプログラミングに適している。この方法のさらなる利点として、生成された図形が現実の対象物上または現実の対象物の画像上に投影されるため、対象物の3次元CADモデルを準備する必要がない。従来の方法に比べて、操作者が初回の運転から高品質のロボットプログラムを得ることができるため、プログラミング時間を大幅に短縮することができる。
本発明のさらなる実施形態によると、方法は、前記対象物に対する表示部材の位置に関する情報を取得し、該対象物に対する該表示部材の相対位置に従って前記ビューを表示する過程をさらに有するものである。好ましくは、表示部材の向きも取得し、該ビューは該対象物に対する該表示部材の相対位置および向きに従って表示される。従って、表示部材に表示されるビューは、対象物に対するその相対位置および向きによるものである。よって、操作者は、現実の対象物の周囲を移動しながら、異なる視点から現実の対象物上で教示内容による結果を確認することができる。
本発明のさらなる実施形態によると、方法は、ウェイポイント上の工具の向きに関する情報を取得し、ウェイポイント上の工具の向きの図形表現を生成する過程をさらに有する。ロボットのプログラミング中、操作者はロボットに工具の向きを教示する必要がある。操作者がウェイポイントにおける工具の向きを確認できると、プログラミングがさらに楽になる。
本発明のさらなる実施形態によると、方法は、前記ロボットパス上で前記ロボットが行うべき処理に関する情報を取得し、前記ウェイポイントに関する情報、前記処理に関する情報および処理のモデルに基づいて処理の結果のシミュレーションを行い、該シミュレーションによる処理の結果を表す図形表現を生成し、該シミュレーションによる処理の結果の図形表現を、該対象物上に投影された状態で示すビューを表示する過程をさらに有する。取得される情報は、例えば塗装処理の場合は使用すべきブラシ等の工具の設定に関する情報である。従って、操作者が、選択された工具の設定によって望ましい結果が得られるか予想することができる。ロボットによって行われる処理の最終結果は、実際の作業環境内で操作者に提示される。塗装処理の例では、対象物の表面上に塗装処理の結果が表示される。この方法によって、ロボットプログラムを実行したり、処理を開始したりすることなく、操作者がプログラミング処理の結果を確認することができる。操作者が、ロボットパス、処理の結果または同時にロボットパスと処理の結果を見るかを選択できることが好ましい。
ロボットパスおよび/または処理結果を、操作者が新しいロボットプログラムを教示している際中に表示しても、ロボットパスおよび/または処理結果を、操作者が教示作業を終了した後で時間を関数として表示してもよいが、これはロボットプログラムが生成され、ロボット制御装置にダウンロードされる前に表示してもよい。いずれの場合であっても、操作者は、新しいロボットプログラムを実際に実行せずにシミュレーションによるロボットプログラムの結果を確認することができる。
時間の関数としてロボットの処理を表示する場合、その方法は、シミュレーションの停止、一時停止、再生および逆再生機能を有する。
本発明のさらなる実施形態によると、方法は、前記処理を行うために使用すべき工具と、ウェイポイント上での該工具の向きに関する情報を取得し、該工具によって行われる処理のシミュレーションを行い、ウェイポイントの位置と、該工具の向きに関する情報に基づいて、該工具が該ロボットパスに沿って処理を行っている様子を表す図形表現を生成し、該工具によって行われる処理を表す図形表現に基づいて、該工具が該ロボットパスに沿って処理を行っている様子を示すビューを表示する過程を有する。処理が例えば塗装処理である場合、ロボットパスに沿って移動し、塗装処理を行っている仮想の塗料スプレーヤとともに、対象物に塗布されている塗料が表示される。このように処理を行っている工具を表示することによって、操作者が教示されたロボットプログラムを確認することができる。
本発明のさらなる実施形態によると、ロボットパスおよび/または処理結果のビューを、時間の関数として、リアルタイムに比例した速度で示すものである。リアルタイムとは、処理を行う際にロボットがパス上を移動するために必要な実際の時間である。好ましい実施形態によると、方法は、前記ビューの望ましい表示速度に関する情報を受取り、該望ましい表示速度に従って該ビューを表示する過程をさらに有する。速度は、リアルタイムに従って変更されることが好ましい。操作者にとって、リアルタイムの速度が速すぎて、速度を落としたい場合もある。本発明のこの実施形態によって、操作者は表示速度を変更することが可能である。
本発明のさらなる実施形態によると、方法は、処理が対象物に対してその前面か裏面から表示されるかによって異なる図形表現を生成する過程を有する。従って、操作者が簡単に前面と裏面を識別することができる。例えば、レンダリングされた塗料のストロークは、表側と裏側を識別して表示され、裏側には透明な図形が使用される。その結果、例えば塗装のストロークの裏側が見えるとき、塗料のストロークの生成等の図形処理情報をオフに設定することが可能になる。
本発明のさらなる実施形態によると、方法は、1つまたは複数の所定の品質パラメータおよび処理のモデルに基づいて処理の結果の品質のシミュレーションを行い、該シミュレーションによる処理の結果の品質を表す図形表現を生成し、該シミュレーションによる処理の結果の品質の図形表現に基づいてビューを表示する過程を有する。方法は、好ましくは、前記処理の結果の品質のシミュレーションに基づいて、結果の品質が1つまたは複数の品質条件を満たすか否かを推定し、該処理の品質が該品質条件を満たさないと推定された場合に、前記図形表現を、操作者に対する視覚的な警告を組込んだ状態で生成する過程をさらに有する。塗料処理において、品質パラメータは、例えば、塗料ストローク間の重複度、塗料が塗装されていない対象物の部分、塗料の厚さ、塗料の幅および塗料のたれ性等である。従って、塗料が垂れていなかったり、対象物を完全に覆っていない場合、その様子は生成された図形によって確認することができる。この実施形態によると、操作者は、実際の処理を行わずに、高品質のロボットプログラムを作成することができる。
本発明のさらなる実施形態によると、方法は、ロボットパス上のポイントが、ロボットの動作範囲内にあるか否かを求め、そのポイントがロボットの動作範囲外に位置する場合に操作者に知らせる過程を有する。そのポイントがロボットの動作範囲内か動作範囲外に位置するかはロボットのモデルに基づいて決定される。操作者が新しいウェイポイントを特定したり、保存されたウェイポイントを編集したりするとき、そのウェイポイントがロボットの動作範囲内にあることが重要である。指定されたウェイポイントが動作範囲外にある場合、操作者に知らされる。また、シミュレータによって生成されたロボットパスの一部が動作範囲外であるかを確認することも可能である。あるポイントがロボットの特異点に相当する場合、それは動作範囲外にあることになる。
本発明のさらなる実施形態によると、方法は、前記対象物を表す画像を取得し、該対象物の画像に対して前記図形表現を登録することで合成強化現実画像を生成し、該合成強化現実画像に基づいて前記ビューを表示する過程をさらに有する。対象物の画像はカメラによって取得されるものであることが好ましい。強化現実システムとは、コンピュータによって生成された物体を、現実世界における利用者の空間と合成するシステムである。本実施形態によると、ウェイポイントおよびパスを示すコンピュータ生成図形が、現実の対象物の画像と合成される。あるいは、ウェイポイントおよびパスを示すコンピュータ生成図形は、操作者が装着するシースルー眼鏡上に表示される。生成された図形は、操作者がウェイポイントおよびパスを現実世界および対象物上に投影された状態で見えるように眼鏡に投影される。適切な図形の登録を行うために、表示装置の投射面の対象物座標系におけるポーズを得るために追随システムが使用される。
本発明のさらなる実施形態によると、方法は、該対象物上またはその周辺のポイントを指示する指示部材の位置に関する情報を取得し、該情報に基づいて該対象物の座標系に相対する該ポイントの相対位置を求め、記録信号を受取ると、該指示部材が現在指示しているポイントの相対位置に関する情報を保存する過程を有する。従って、操作者は、対象物の周囲を移動しながら、支持部材を使用してウェイポイントを指示することができる。操作者は、コンピュータに関する専門知識を必要とせず、ロボットの教示作業には、処理に関する知識および経験を使用する。
本発明のさらなる側面によると、本発明の目的を、コンピュータの内蔵メモリに直接ロードすることができるコンピュータプログラム製品であって、該プログラムがコンピュータ上で実行されたとき、本発明の方法を実行するためのソフトウェアコードを含むコンピュータプログラム製品によって果たすことができる。コンピュータプログラム製品は、コンピュータで読取可能な媒体上であるいはインターネット等のネットワークを介して提供することができる。
本発明のさらなる側面によると、本発明の目的を、コンピュータによって読取可能な媒体であって、コンピュータ上で実行されたとき、該コンピュータに本発明の方法を実行させるプログラムを記録した媒体によって果たすことができる。
本発明のさらなる側面によると、本発明の目的を、上述のシステムであって、さらに、該ウェイポイントに関する情報と、該ロボットのモデルに基づいてロボットパスのシミュレーションを行うためのシミュレーション装置を具備し、該図形生成装置が好ましくは処理に関する情報とともに、該シミュレーションによるロボットパスの図形表現を生成し、該表示部材が該対象物とともに該対象物上に投影された状態で該ロボットパスの図形表現を含むビューを表示することを特徴とするシステムによって果たすことができる。
本発明のさらなる実施形態によると、システムは、該表示部材とカメラとを有する携帯表示装置を具備する。携帯表示装置は、利用者がその表示画面を介して直接その反対側へと覗き込んでいるように見える構造を有することが好ましい。携帯表示装置は、利用者がコンピュータで生成された情報を頻繁に確認する必要がある場合に有用である。
図1には、本発明による工業ロボットをプログラミングするために使用されるシステムが示してある。システムは、ロボットに対象物3の処理方法を教示するために人間の操作者2が使用するポインティング部材1を有する。ポインティング部材は、処理工具自体であっても、対象物の処理を教示する目的に特別に生成された装置であってもよい。教示内容は、特定の順序に示される、対象物3上またはその近傍に位置する複数のウェイポイントを教示するものである。各ウェイポイントは、対象物3上またはその周辺にあるポイントの位置と、塗装用のブラシ等の処理工具のそのポイントにおける向きと、処理に関するデータとを含む。
操作者は、指示部材1を手に持ち、パスに含ませたいポイントを指し、そのポイントにおける処理工具の望ましい向きに指示部材を向ける。操作者が作動部材を作動すると、記録信号が発生し、ポイントが記録される。システムが記録信号を受信すると、そのポイントをウェイポイントとして保存する。指示部材1には、指示マーカと呼ばれる少なくとも1つのマーカ5が設けてある。指示マーカ5は、対象物に対する指示部材1の位置と向きを求めるために使用される。また、指示装置は、固定座標系に対する指示装置の位置と向きを得ることができる慣性センサ、ジャイロ、磁気追随装置、レーザ追随システムおよび超音波追随装置等によって、様々な方法で位置と向きを求めることができる。
システムは画像認識に基づき、対象物に対する位置が固定された基準マーカ6を少なくとも1つ必要とする。基準マーカ6の役目は、画像認識アルゴリズムのための基準点を形成することであり、この基準点を元にコンピュータ上で画像が生成される。システムは、さらに、カメラユニット8を含む。カメラユニット8は、光学カメラと、リアルタイムの画像データをシステムに供給する画像取込部とを具備する。カメラは、空間的に固定されていても、移動可能のものであってもよい。例えば、カメラを操作者の頭部または身体のその他の個所に取り付けることができる。この実施形態では、カメラは操作者が装着する眼鏡に取り付けられる。あらゆる種類のカメラが使用可能であるが、位置と向きの精度によってカメラの種類が決定される。例えば、ウェブカメラ、ビデオカメラまたはCCDカメラを使用することができる。他の実施形態では、複数のカメラを使用することができる。例えば、2つのカメラを使用して、ステレオカメラとして立体画像が得られるように配置することができる。
カメラは、プロセッサを含むコンピュータ10に転送されるアナログまたはディジタルビデオ信号を供給する。コンピュータ10のプロセッサは、対象物に対する指示部材1の位置と向きを求めるための画像認識アルゴリズムを実行し、操作者によって示されたウェイポイントの図形表現を生成するためのアルゴリズムを実行し、ウェイポイントの図形をカメラによる画像と合成して合成強化現実画像を生成し、ロボットパスとプロセスの結果のシミュレーションを実行するために使用される。
システムは、さらに、操作者に対してコンピュータによって生成された図形が表示される図形表示部材12を具備する。図形表示部材12は、カメラのビューをコンピュータ生成画像と合成して視覚化する。この実施形態では、操作者は、カメラが取り付けられた頭部装着グラフィックディスプレイ12を含む頭部装着ユニットを着けている。頭部装着ユニットは、操作者の室内の位置に対してコンピュータ生成情報が投影された装着可能な眼鏡である。表示される視点は、表示部材の対象物に対する位置によって決定する。ディスプレイの対象物に対する位置は、ディスプレイ上に搭載されたカメラの画像と対象物に設けられたマーカ(図示せず)、あるいは、慣性センサ、ジャイロ、磁気追随装置、レーザ追随システム、超音波追随装置または視覚特徴追随装置等のその他の追随システムに基づく画像認識によって得られる。また、頭部装着ディスプレイを使用することができる。この実施形態では、カメラが表示装置に搭載されており、操作者と視点が同じである。コンピュータによって生成された情報は、操作者に表示される前にカメラ画像とともに登録される。さらなる実施形態によると、表示部材は、例えば、携帯情報端末(PDA)のスクリーンやノートパソコンのスクリーン等の携帯スクリーンである。PDAの場合、操作者はプログラミングを行う間にもPDAを持っており、プログラミングの結果がPDAスクリーンに表示される。表示部材は、単一の画像あるいは立体画像を表示する。
指示部材1は、操作者とシステムとの間のインタラクション用に設計されたプッシュボタン等の複数のインタラクション手段を有する。1つのインタラクション手段は、作動するとポイントをウェイポイントとして記録するための記録信号を発生する作動部材を有する。また、ウェイポイント間の処理のオン/オフを示すために第2のインタラクション部材が使用される。例えば、処理が塗装である場合、インタラクション手段は塗装処理のオン/オフを示す。さらに、システムに処理に関する情報を入力するための第3のインタラクション手段が設けてある。例えば、塗装作業の場合、ロボット制御部に記憶されたブラシに関する1つまたは複数のオプションを選択することができる。例えば研磨処理等の他の作業において、オプションは研磨ブラシの配置に関するものである。
指示部材1の先端4の位置と向きを求めるために、マーカ5と先端4の相対位置を知る必要がある。画像認識アルゴリズムは指示マーカ5を認識する。基準マーカ座標系における指示部材の先端の位置と指示部材の本体の向きは、マーカ5、6を認識することで求められる。この認識は、画像認識アルゴリズムによって学習される既知のパターンに対するマーカ上のパターンの寸法と角度に基づいている。位置は、3次元座標系で[x、y、z]として表される。向きは、例えば、3次元座標系における回転行列[3×3の行列]として表される。
ロボットを教育するとき、操作者は対象物の処理中に通過すべきウェイポイントを記録し、さらにインタラクション手段を使用してウェイポイントに対する処理関連情報を記録する。指示部材の位置とともに、その向きも記録され、記録された向きはロボットの工具の向きに相当する。従って、記録された一連のウェイポイントは、ロボットプログラムにおけるロボットバスの基礎となる。
図2は、本発明の実施形態によるシステムを示すブロック図である。システムは、操作者によって教示されたウェイポイントの位置および向きを求める追随システム14を有する。追随ユニットは、固定対象座標系に対してポーズ情報(3DOF位置および3DOF向き)を指定することを可能にする。この実施形態において、位置および向きは、画像認識によって求められる。他の追随ユニットの例として、超音波追随システム、磁気追随システム、加速度計およびジャイロを使用する慣性航法に基づく追随システム、機械アーム、視覚や光学に基づくシステムおよび上述の技術を組合わせたハイブリッドシステム等がある。この実施形態において、追随ユニット14への入力データはカメラユニット8からのビデオ信号と、記録信号や処理関連情報等の指示部材1の作動部材の情報である。あるいは、ウェイポイントは例えばCADアプリケーションやウェイポイントおよび処理情報が保存されたデータベース等の外部システムからシステム内にロードされるものであってもよい。
システムは、さらに、追随システムによって指定されたウェイポイントに基づいて処理関連情報が付随する一連のポイントをロボットパス上に生成するポイント生成部15を有する。塗装処理の場合、ポイントデータは、通常、ブラシの位置および向き、ファンに関する記述、塗料の色、塗装のオン/オフ等を含む。ポイント生成部は、ブラシの数や設定パラメータ等の処理関連情報によって、操作者が指定したウェイポイントを変更する。ポイント生成部の入力は、ウェイポイントとともに追随ユニット14から供給されるそれに付随する処理情報である。ポイント生成部15からの出力は、処理に特有の情報を有する一連の変更ウェイポイントである。ポイント生成部は、さらに、操作者によって既に指定されたウェイポイントに新しいウェイポイントも加える。ポイント生成部が生成する一連のウェイポイントは、システム情報を保存するためにも使用される記憶ユニット16に保存される。
ロボットパスシミュレータ18は、ポイント生成部15が生成するウェイポイントおよび処理情報のリストに基づいて実際のロボットパスのシミュレーションを行う。ロボットパスシミュレータは、ロボットおよびロボットの制御システムのモデルを含んでいる。ロボットパスシミュレータは、ウェイポイント、処理情報およびロボットとロボット制御システムのモデルに基づいて実際のロボットパスを生成する。生成されたロボットパスは、リアルタイムで、すなわち時間の関数として、ロボットの行動を視覚化し、実際のロボットパスを追跡して視覚化するために使用される。ロボットパスシミュレータへの入力は、ポイント生成部およびロボット設定データからの一連のウェイポイントである。ロボットパスシミュレータの出力は、工具の位置および向きを含む実際のロボットパスである。
到達性ユニット20は、ロボットのエンドエフェクタがポイントに届くか否かを確認する。到達性ユニット20は、ポイントがロボットの動作範囲内にあるかとともにポイントが特異点であるかを確認する。操作者が新しいウェイポイントを指定したり保存されたウェイポイントを編集するとき、ウェイポイントとともにウェイポイント間のパスに到達可能であることが重要である。到達不可能なウェイポイントまたはパスを指定すると、不可能なポイントまたはパスを専用の色、パターンまたはアニメーションで示すなどして操作者に視覚的なメッセージを送る。システムのある実施形態によると、操作者によって指定されたウェイポイントの到達性が確認される。システムの他の実施形態によると、パスシミュレータ18が生成する実際のロボットパスの到達性が確認される。これは、指定されたウェイポイント自体が到達可能でありながら、ウェイポイント間のパスが、例えば特異点や到達性の制限等によって不可能であることが考えられるため、有益である。到達性は、ロボットパスシミュレータ18によって使用されるものと同一のロボットおよびロボット制御部のモデルに基づいて計算される。この計算は、対象物座標系に対するロボットの位置に関する知識があるから可能である。特異点は、ロボット制御部のモデルによって検出することができる。
処理シミュレータ22はウェイポイント、ポイント生成部15の処理情報、実際のロボットパスおよび処理のモデルに基づいて処理の結果のシミュレーションを行う。従って、シミュレーションはシミュレーションが行われる処理に依存する。処理シミュレータは、シミュレーションを行う処理のモデルを使用する。処理シミュレータは複数種の処理モデルを含むことも可能である。例えば、塗装処理のモデルと、粉砕処理のモデルと、溶接処理のモデルを含むものであってもよい。例えば、塗装処理のモデルは、塗装処理のシミュレーションを行う数学モデルと対象物の表面における塗装結果のシミュレーションを行うニューラルネットワークモデルとを含むものである。例えば、シミュレーションによるブラシのストロークの幅は、ブラシの数と工具の中央点(TCP)から対象物までの距離によって計算される。TCPから対象物までの距離は固定されおり、指示部材によって指定される。
処理シミュレータ22は、さらに、1つまたは複数の所定の品質パラメータに基づいて処理の品質を計算する。塗装処理における重要な品質パラメータの例として、ストロークの重複、対象物の塗料が塗布されていない部分、塗料の厚さ、塗料の幅および塗料の滴下等がある。品質シミュレーションは、上述の処理のモデルに基づくものである。塗装作業において、塗装処理のモデルは、ブラシや塗料の種類、湿度および温度等の様々なシステムおよび環境パラメータ下で得られた複数のサンプルからパラメータ化されたものであってもよい。このデータに基づいて、処理のモデルが生成され、塗料の厚さおよび/またはストローク幅が計算される。これらの特性を計算するために、対象物のモデルが必要となる可能性がある。このような対象物モデルは、様々な方法で得られる。例えば、CADモデルの使用や、自動検査で対象物の3次元モデルを作成する光学システムや、対象物上のポイントを特定する追随ユニットを使用し、対象物の簡素化3次元モデルを生成することによって実現できる。塗装のストロークが重複する場合、処理の結果を考慮すべきである。対象物の3次元モデルが存在する場合、塗装のストローク幅が、実際の対象物上と同様に表示される。
処理の品質のシミュレーションに基づいて、結果の品質が1つまたは複数の所定の品質条件を満たすか否かの予想が行われる。品質条件とは、例えば、塗料の厚さの最低および最高値や2つの塗装ストローク間の重複の間隔等である。予想によって、処理品質が品質条件を満たしていない場合、操作者への視覚的警告を含む画像が生成される。塗装処理において、塗装処理は、例えば処理結果が品質条件を満たすか否かによって、異なる色や異なるパターンで塗料の厚さを示したり、シミュレーションによる塗料の厚さは色、色の強さまたは色の飽和レベル等の画像特徴によて塗装のストロークに沿って連続的に示すことができる。
図形生成部23はロボットパスシミュレータによるロボットパスに関する情報と処理シミュレータ22による処理に関する情報に基づいて表示すべき仮想情報の3次元図形表現を生成する。図形生成部23はシミュレーションされたロボットパスの図形表現とともに処理の結果のシミュレーションの図形表現を生成する。さらに、図形生成部23は、シミュレーションされたロボットパスに沿って処理を行う工具の図形表現を生成する。図形表現は、対象物座標系に対して指定された3次元図形要素を示すものである。システムは、さらに、生成された図形表現をカメラユニット8から受取った対象物の画像に登録し、複合強化現実画像を生成する登録ユニット25を含む。登録ユニット25への入力は、図形生成部23からの図形表現、カメラユニット8からのビデオ信号および対象物追随ユニット24からの表示装置の位置である。登録ユニット25の出力は、表示部材12に表示される合成強化現実画像である。
図形生成部23、登録ユニット25およびカメラユニット8は図形レンダリングシステムを形成し、取り込まれた現実世界の画像をコンピュータ生成画像と合成したビデオシースルーディスプレイを形成するように構築された図形レンダリングシステムを構成する。あるいは、図形レンダリングシステムは、コンピュータ生成画像のみがレンダリングされる光学シースルーディスプレイ用に構築されていてもよい。さらに、図形レンダリングシステムは、単一カメラシステム用に構成されていてもよいが、若干異なった位置から現実世界の画像を取り込む2つのカメラを有するステレオスコープカメラシステムであれば、現実世界の3次元表現が得られる。図形レンダリングシステムによってレンダリングされた図形は、グラフィックディスプレイ12上に操作者に対して表示される。従って、このシステムは、特定の処理をシミュレーションするコンピュータ由来の情報を処理すべき実際の対象物に直接および/または間接的に投影する。この情報は、操作者によって教示されたロボットパスおよび処理関連情報を表すものである。
システムは、さらに、対象物とディスプレイ部材12との間の位置関係を示す情報を供給する対象物追随ユニット24を含むものであってもよい。この情報は、登録ユニット25に入力される。対象物の追随処理は、好ましくは、ウェイポイント追随ユニットと同じ追随方法に基づくものであり、同様の追随装置を使用する。この実施形態において、対象物の追随処理は、カメラユニット8による画像の画像認識に基づくものである。対象物追随ユニットは、さらに、上述の追随システムのいずれの例によるものであってもよい。対象物追随ユニットは、携帯ディスプレイ部材や操作者が装着するディスプレイ部材等、表示されるビューが対象物に対する操作者の位置に依存する場合に必要になる。これによって、操作者が実際の対象物の周囲を自由に移動し、教示した結果を実際の対象物上で直接確認することが可能になる。
次に、塗装処理に関連して操作者に提示される情報の例を挙げる。処理のシミュレーションの結果を示す図形表現が、パスに沿った工具の指示方向に対して垂直に、すなわちTCPに対して垂直に表示される。例えば、塗装のストロークは、ブラシのパスに沿った方向に対して垂直にレンダリングされるべきである。
異物や対象物自体によって隠れている図形は、例えば異なる色や透明な図形を使用するなどして異なる方法でレンダリングされるべきである。あるいは、その図形をレンダリングしないようにしてもよい。本発明による方法は、生成された図形の一部が隠れているかを求め、隠れているか否かを考慮して図形表現を生成する過程を含む。コンピュータ生成画像の要素が対象物または操作者の手や指示部材等のその他の物体によって隠されているとき、操作者が図形内の関係が把握できるようにそれに重なる画像をレンダリングしないか、異なる方法でレンダリングされる。
図形生成部は、処理の結果が対象物の前面から表示されているか裏面から表示されているかによって異なった図形表現を生成するように構成されている。例えば、レンダリングされた塗装ストロークは、操作者が前と後を識別できるように前面と裏面を有することが好ましい。利用者は、塗装のストロークを、実際のシミュレーションによる塗装幅で表すか、単色の線分として表すかを選択することができる。例えば、パスの幅が、塗料が塗装されるときの塗装ストロークを表す。
操作者によって指定された各ウェイポイントに対して、特定のブラシ数が表示される。ブラシのリストは、プログラミング処理の前に決定されており、互いに適合された3つまたは4つのパラメータからなる。通常のパラメータとして、ファンの幅、塗料の流量、噴霧処理の空気の流量、形状空気流量、高電圧レベル、塗料の種類および塗料の色等である。最終的な目的は、所定の塗装速度で最大値と最小値との間の均一な塗料の厚さが得られる特定幅のブラシを使用することである。少なくとも1つの特定のブラシを、塗料流量、ファン幅および空気流量が「0」であり、あるいは塗料流量が「0」であり、その他のブラシパラメータが「0」であるものとし、「塗料オフ」として定義することが好ましい。
本発明のある実施形態によると、該当する工具の図形表現を、リアルタイムで生成されたロボットパス上を移動するように示すことができる。プログラム内に指定されている場合、操作者がリアルタイムでロボットプログラムの結果を確認できるように、必要な処理情報をロボットパス上に重ねて表示することができる。表示の速度は、図形の設定内に規定されており、実際の表示の際に変更することができる。操作者は、リアルタイムに対して、シミュレーションが行われるべき速度を指定することができる。例えば、操作者は、シミュレーションをスローで表示することを選択することができる。また、シミュレーションの表示の停止、一時停止、逆再生および再生が可能である。
図形表示部材上に図形がどのように表示されるかを設定することも可能である。例えば、操作者は、1つまたはは複数の図形記述を選択したり、選択解除することができる。
図3は、ディスプレイに示されるビューの例である。このビューは、対象物3と、対象物上に投影された記録されたウェイポイント30、32とウェイポイント間のパスの図形表現と、パス情報を含む。操作者によって教示される各ウェイポイント30、32は点として表示される。各点には、例えばブラシ数等、そのウェイポイントに関する処理情報が設けてある。表示されるブラシ数が「0」である場合、塗装処理がオフである。シミュレーションによるロボットパス34はウェイポイント30、32間の線として表示されている。生成されたパスが、ウェイポイントを結ぶ直線ではないことに注意されたい。ロボットパスシミュレータは、工具が好ましい速度と方向でウェイポイントを通過するようにロボットパスを生成し、その場合、角を有するパスより滑らかな曲線が好ましい。
操作者によって指定される各ウェイポイントに対して、工具の向きに関する情報が表示される。これは、x、yおよびz方向を示す小さな八角形座標系で示される。各方向が特定の色で表現されることが好ましい。図形生成部は、さらに、表示されたロボットパスに矢印を追加することによってロボットの移動方向を示す図形も生成する。2つの連続するウェイポイント32、36との間で塗装処理がオンである場合、2つのウェイポイント間の塗装ストロークが見えるように表示される。このビューは、ロボットパスとそれによって得られる塗装結果のシミュレーションを示す。
図4aおよび4bは、本発明の実施形態による方法およびコンピュータプログラム製品を示すフロー図である。フロー図の各ブロックが、コンピュータプログラムによる指令で実行され得ることが理解されるであろう。システムには、プログラミングモード、シミュレーションモードおよび編集モードの3つの動作モードがある。システムの動作モードは、操作者によって選択される。このプログラミングモードで、利用者はウェイポイントを指定し、処理に関する情報を入力する。シミュレーションモードにおいて、ロボットパスおよび/または処理のシミュレーションが行われ、操作者に対して表示される。ウェイポイントが操作者によって指定された後、あるいはロボットプログラムが記憶装置からコンピュータのメモリ内にロードされた後、利用者はシステムを編集モードに設定することができる。編集モードでは、保存されたウェイポイントを削除し、保存されたウェイポイントの位置を変更し、保存されたウェイポイントの向きを変更し、保存されたウェイポイントのブラシ数等の処理関連データを変更することができる。
図4aには、システムがプログラミングモードに設定されたときの方法を示す。ブロック30において、カメラユニット8からビデオ信号の連続ストリームが受信される。得られた画像は対象物とマーカを含む。ブロック32において、システムが操作者から記録信号を受信し、画像認識処理用の画像が取り込まれる。操作者によって指定された処理情報が受信され、保存される。ブロック34において、画像認識処理によってマーカが認識され、対象物の位置に対する指部材の位置および向きが計算され、その結果が保存される。ブロック36において、操作者がウェイポイントを記録したら、ポイント生成部がパス上のポイントのリストを生成する。ブロック38において、リスト内のポイントが到達可能であるか否か、すなわちロボットの動作範囲内にあり、特異点ではないことを確認する。ブロック40において、ポイントが動作範囲外に位置するか、特異点である場合、ブロック42においてそれを操作者に知らせる。操作者がウェイポイントを記録し終わると、シミュレーションモードに切り換えることができる。
図4bには、シミュレーションモードにおける方法が示してある。シミュレーションを開始する前、操作者はシミュレーションの対象を指定する。ロボットパスのみをシミュレーションするのか、ロボットパスと処理を両方ともシミュレーションするかを選択することができる。ブロック50において、プログラミングモードで決定したウェイポイントのリストとそれに関連する処理情報と、ロボットのモデル、ロボット制御部のモデルおよび処理のモデルに基づいてシミュレーションが行われる。シミュレーションは、操作者が確認したい内容に関する選択に依存する。ブロック52において、ロボットパスおよび/またはシミュレーションに基づく処理の結果を示す図形表現が生成される。ブロック54に示すように、対象物の画像に生成された図形表現を登録して、受信されたビデオ信号を生成された図形と組合わせることで、合成強化現実画像を生成する。ブロック56において、このように合成されたビデオ信号および図形が表示される。生成された図形は、例えば、処理のオン/オフ等を示す。ディスプレイは、カメラのビューを生成された図形と合成して表示する。
本発明による方法を実施するために使用されるソフトウェアは、部分的には当業者に周知のソフトウェアを元にしたものである。例えば、位置と向きは、基準マーカに対する指示マーカの位置および向きに基づいてARToolKitで生成されるものであってもよい。ARToolKitは、ワシントン大学と広島大学で開発された、精確なコンピュータ上の視覚に基づいた追随方法を使用して構築された強化現実アプリケーションを可能にしたオープンソースソフトウェアライブラリーである。アプリケーションのインタフェースとして、OpenGL等のソフトウェアを使用することができる。OpenGLは、モデリング修正、色、照明および陰影機能を含む2次元および3次元機能のライブラリーを提供するものである。MicrosoftVisionSDKは、コンピュータ上での画像処理や分析を行うプログラムを書くためのライブラリーである。強化現実ソフトウェアは、点や線等の図形を描き、位置や向きを異なる座標系間で変換し、位置および向きのシーケンスを抽出/生成し、処理関連情報を取り込み、色分けされた点や異なる幅や向きを有する塗装のストロークを表す線等の高度の図形を描くためのアルゴリズムを含むものである。
本発明による方法は、オフラインプログラミング方法であり、ロボットおよびロボット制御部以外でも使用することができる。
本発明は、ここに開示された実施形態に限定されるわけではなく、上述の請求の範囲内で様々な変形や変更が可能である。例えば、本発明は、合成ビデオ画像を使用する強化現実システムに制限されるものではなく、使用者に対してコンピュータで生成された図形のみが提示され、この図形を背景にして現実世界が見える透明なレンズ上に投影されるシースルー強化現実システムに用いることもできる。2つのシステムの唯一の相違点は、カメラ画像と使用者の実際の現実世界への視点との間の差に対する修正としてカメラの座標を眼の座標に変換するところにある。いずれの場合にも、コンピュータ上で生成された図形が現実世界の対象物に登録される。シースルー方式の場合、コンピュータ生成画像が、ビデオ画像内で合成されるのではなく、使用者が現実世界における対象物と組合わせて見るのである。
また、ウェイポイントは、例えばCADアプリケーション等の外部システムからシステム内にロードされるか、保存されたウェイポイントおよび処理情報のデータベースからロードされ得る。
ある実施形態において、システムは携帯強化現実表示装置を含むものである。操作者は、コンピュータ生成画像を現実世界上に重ね合わせて表示する携帯表示装置を携帯する。コンピュータ生成画像は、例えば、プログラミングされたロボットパス、処理特有情報、目標点およびイベント等の処理関連情報を示すものであってもよい。システムに対して処理関連情報を示すために、操作者の手の動きを読取るジェスチャ認識システムやポイントアンドインタラクト装置等を使用することができる。
コンピュータで生成された情報は、ロボットのプログラミング用の操作者入力を表す。操作者は、新しいロボットプログラムを設計中にその結果を見るために携帯ARディスプレイを使用する。携帯ティスプレイは、ディスプレイの視野に統一されたカメラを有する。カメラは、現実世界を示す現行のビデオを取り込む。システムは、このビデオを操作者の入力を表すコンピュータ生成画像と同期化して合成し、携帯ARディスプレイに表示する。操作者は、環境内で携帯ARディスプレイを自由に移動させることができ、これによって操作者は、コンピュータ生成画像を重ね合わせた状態で異なる観点から対象物を含む現場を見ることができる。操作者は、設計されたロボットプログラムを実際の対象物とともに見るために、携帯ARディスプレイの中を「覗き込む」のである。
図5には、この実施形態によるシステムが示してある。システムは、世界座標系60に対する位置および向きを求めるための追随システムを有する携帯インタラクション/指示装置1を具備する。また、システムは、世界座標系に対して手または指の位置および向きを認識し、決定するための認識システムを含むジェスチャ認識システムを有するものであってもよい。システムは、さらに、例えば超小型PCまたはPDA(携帯情報端末)等の携帯表示装置62を含む。この表示装置は、表示部材64と、表示装置64に搭載または統一された環境を示す画像のストリームを取り込むためのカメラ8を具備する。カメラ8は、表示装置64に対して固定された位置に搭載される。表示装置は、カメラのビュー軸に沿って、カメラの写真面上に位置する。
システムは、さらに、表示装置の位置および向きを求めるための追随システム66を具備する。追随システムは、好ましくは、表示装置上に搭載されている。また、システムは、さらに、現実世界の表現に重ね合わせたコンピュータ生成画像情報による強化現実表現を生成するためのシステムを有する。操作者2の動きは、ディスプレイ追随システム66を介して検出される。
装着可能なコンピュータ68は、カメラ8からのビデオストリームとコンピュータ生成画像とに基づいて強化現実環境を生成するために必要なソフトウェアを搭載している。装着可能コンピュータ68は、さらに、例えばロボットプログラムを設計し、到達性の確認を行うなど、所望のタスクまたは処理を実行するために必要なソフトウェアを有する。さらに、装着可能コンピュータは強化現実ビューを得るための図形を生成する。最後に、装着可能コンピュータは情報を保存したり、以前に保存された情報を再生するための記憶媒体を有する。インタラクション/指示装置1から装着可能コンピュータ68への情報の通信は、有線または無線のリンクによって行われる。操作者は、環境の強化現実ビューを表示する表示装置62を携帯する。表示装置は、ビデオシースルー形式のものである。
ビデオシースルーは、携帯AR表示装置上に強化現実世界を生成し、表示するために使用される。表示装置に統合されたカメラによって、現実世界の現行のビデオストリームが取り込まれる。カメラは、表示に対して、利用者が表示装置を「覗き込んだ」場合と同じビューを提供するように表示に対して位置する。この現行のビデオストリームは、コンピュータ生成画像と合成することによって、表示装置でリアルタイムで表示される。さらなる機能として、実際のカメラの焦点距離による出力のカメラのズームを有する。これにより、システムは、ズームした場合にコンピュータ生成画像を適切に表示することができる。カメラは、さらに、追随システムとして視覚に基づく追随処理を行う場合、視覚追随処理に使用することもできる。
図1は、本発明の実施形態による工業ロボットをプログラミングするためのシステムを示す斜視図である。 図2は、本発明の実施形態によるシステムを示すブロック図である。 図3は、実際の対象物に投影したロボットパスとパス情報を示す図形表現を含む強化現実ビューの例を示す斜視図である。 図4aおよび4bは、本発明の実施形態による、工業ロボットにパスを教示するための方法を示すフロー図である。 図5は、携帯表示装置を含む本発明の実施形態を示す斜視図である。
符号の説明
1 指示部材
2 操作者
3 対象物
4 指示部材の先端
5 指示マーカ
6 基準マーカ
8 カメラ
10 コンピュータ
12 図形表示部材
30 ウェイポイント
32 ウェイポイント
34 ロボットパス
36 ウェイポイント
60 世界座標系
62 携帯表示装置
64 表示部材
66 追随システム
68 装着可能コンピュータ

Claims (18)

  1. 工業ロボットが処理すべき対象物(3)上またはその周辺に位置する複数のウェイポイントを有するパスを該ロボットに教示するように、該ロボットをプログラミングするための方法であって、
    −該対象物の画像を、操作者が装着するカメラ(8)により取得し、
    −該対象物上またはその周辺のポイントを指示する、指示部材(1)の位置に関する情報を取得し、
    −該対象物に対するウェイポイントの相対位置に関する情報、ウェイポイント上でロボットが行うべき処理に関する情報、該処理を行うために使用すべき工具及び該工具の向きに関する情報の各情報を取得し、
    −前記各情報と、該ロボットのモデルに基づいて、ロボットパス及び前記ロボットが行うべき処理内容のシミュレーションを行い、
    −該シミュレーション結果を表す図形表現を生成し、
    合成強化現実画像を生成するために、前記対象物の画像に前記図形表現を登録し、
    前記合成強化現実画像を、操作者が装着する表示部材(12、64)に表示する過程を有することを特徴とする方法。
  2. −1つまたは複数の所定の品質パラメータおよび前記処理のモデルに基づいて処理の結果の品質のシミュレーションを行い、
    −該シミュレーションによる処理の結果の品質を表す図形表現を生成し、
    −該シミュレーションによる処理の結果の品質の図形表現に基づいてビューを表示する過程をさらに有する請求項1に記載の方法。
  3. −前記処理の結果の品質のシミュレーションに基づいて、結果の品質が1つまたは複数の品質条件を満たすか否かを推定し、
    −該処理の品質が該品質条件を満たさないと推定された場合に、前記図形表現を、操作者に対する視覚的な警告を組込んだ状態で生成する過程をさらに有する請求項2に記載の方法。
  4. 前記ビューが、時間の関数として表示され、ロボットの動作をリアルタイムに比例した速度で示すものである請求項1ないし3のうちいずれか1項に記載の方法。
  5. −前記ビューの望ましい表示速度に関する情報を受取り、
    −該望ましい表示速度に従って該ビューを表示する過程をさらに有する請求項4に記載の方法。
  6. ロボットパス上のポイントが、ロボットの動作範囲内にあるか否かを求め、そのポイントがロボットの動作範囲外に位置する場合に操作者に知らせる過程をさらに有する請求項1ないし5のうちいずれか1項に記載の方法。
  7. 前記対象物に対するウェイポイントの相対位置に関する情報を取得し、保存する過程が、
    −該対象物上またはその周辺のポイントを指示する指示部材(1)の位置に関する情報を取得し、
    −該情報に基づいて該対象物に相対する該ポイントの相対位置を求め、
    −記録信号を受取ると、該指示部材が現在指示しているポイントをウェイポイントとして保存する過程を有する請求項1ないし6のうちいずれか1項に記載の方法。
  8. 前記対象物に対する表示部材の位置に関する情報を取得し、該対象物に対する該表示部材の相対位置に従って前記ビューを表示する過程をさらに有する請求項1ないし7のうちいずれか1項に記載の方法。
  9. コンピュータの内蔵メモリに直接ロードすることができるコンピュータプログラム製品であって、該製品がコンピュータ上で実行されたとき、請求項1ないし8のうちいずれか1項に記載の方法を実行するためのソフトウェアコード部分を含むことを特徴とするコンピュータプログラム製品。
  10. コンピュータによって読取可能な媒体であって、コンピュータ上で実行されたとき、該コンピュータに請求項1ないし8のうちいずれか1項に記載の方法を実行させるプログラムを記録した媒体。
  11. 工業ロボットが処理すべき対象物(3)上またはその周辺に位置する複数のウェイポイントを有するパスを該ロボットに教示するように、該ロボットをプログラミングするためのシステムであって、
    −該対象物に対するパス上のウェイポイントに関する情報、ウェイポイント上でロボットが行うべき処理に関する情報、該処理を行うために使用すべき工具及び該工具の向きに関する情報の各情報を取得するための情報取得手段(10)、
    −該対象物の画像を取得するための操作者が装着するカメラ(8)、
    −該対象物上またはその周辺のポイントを指示する指示部材(1)、
    −取得した前記各情報を保存するための記憶装置(16)、
    −図形表現を生成するための図形生成装置(23)、
    −合成強化現実画像を作成するために、前記対象物の画像に対して前記生成された図形表現を登録する登録装置(25)、および
    −該対象物とともに、該図形生成装置によって生成された図形表現を含むビューを表示するための、操作者により装着される表示部材(12、64)を具備し、
    さらに、該ウェイポイントに関する情報、ウェイポイント上でロボットが行うべき処理に関する情報、該処理を行うために使用すべき工具及び該工具の向きに関する情報の各情報と、該ロボットのモデルに基づいて、ロボットパス及び前記ロボットが行うべき処理内容のシミュレーションを行うためのシミュレーション装置(18、22)を具備し、
    前記図形生成装置(23)が該シミュレーション結果を表す図形表現を生成し、
    操作者が装着する前記表示部材(12、64)が、前記対象物の画像と、前記ロボットパスの図形表現を含むビューを表示することを特徴とするシステム。
  12. 前記ロボットのモデルに基づいて、ウェイポイントが前記ロボットの動作範囲内にあるか否かを求め、ウェイポイントが指定された動作範囲外にある場合に操作者に知らせる到達性装置(20)を具備することを特徴とする請求項11によるシステム。
  13. 前記対象物上またはその周辺のポイントを指示する支持部材(1)、該対象物に対する該ポイントの相対位置を求める位置決定手段(14)、および、作動されるとそのポイントをウェイポイントとして保存する作動部材をさらに具備することを特徴とする請求項11又は12に記載のシステム。
  14. 前記表示部材(12)が、前記ビューを、時間の関数として、前記ロボットがパス上を移動する時の実際の時間に比例した速度で表示することを特徴とする請求項11ないし13のうちいずれか1項に記載のシステム。
  15. 前記システムが、前記ロボットがパス上を移動する時の実際の時間に従ったビューの望ましい表示速度に関する情報を受取り、表示部材(12)が、該望ましい速度に従ってビューを表示することを特徴とする請求項14によるシステム。
  16. 前記システムが、前記対象物(3)に対する前記表示部材(12)の相対位置に関する情報を供給するための対象物追随装置(24)を具備し、該対象物(3)に対する該表示部材の相対位置に従って前記ビューを表示することを特徴とする請求項11ないし15のうちいずれか1項に記載のシステム。
  17. 前記表示部材(64)および前記カメラ(8)を含む携帯表示装置(62)を具備することを特徴とする請求項11に記載のシステム。
  18. 前記携帯表示装置が、利用者がその表示画面を介して直接その反対側を覗き込んでいるように見える構造を有することを特徴とする請求項17に記載のシステム。
JP2004000707A 2002-12-30 2004-01-05 工業ロボットをプログラミングするための方法およびシステム Expired - Fee Related JP4817603B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
SE0203909A SE531104C2 (sv) 2002-12-30 2002-12-30 Metod och system för programmering av en industrirobot
SE0203909-7 2002-12-30

Publications (2)

Publication Number Publication Date
JP2004209641A JP2004209641A (ja) 2004-07-29
JP4817603B2 true JP4817603B2 (ja) 2011-11-16

Family

ID=20290054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004000707A Expired - Fee Related JP4817603B2 (ja) 2002-12-30 2004-01-05 工業ロボットをプログラミングするための方法およびシステム

Country Status (5)

Country Link
EP (1) EP1435280B1 (ja)
JP (1) JP4817603B2 (ja)
AT (1) ATE405387T1 (ja)
DE (1) DE60323043D1 (ja)
SE (1) SE531104C2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9104981B2 (en) 2013-01-16 2015-08-11 Kabushiki Kaisha Yaskawa Denki Robot teaching system and method using imaging based on training position

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10305384A1 (de) * 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
SE526119C2 (sv) * 2003-11-24 2005-07-05 Abb Research Ltd Metod och system för programmering av en industrirobot
JP2009279699A (ja) * 2008-05-21 2009-12-03 Nagaoka Univ Of Technology 位置・力再現方法および位置・力再現装置
GB0917309D0 (en) * 2009-10-02 2009-11-18 Twi Ltd Method and system of programming a robot
JP2011104759A (ja) * 2009-11-20 2011-06-02 Idec Corp ロボット制御システムの教示用補助具、その教示用補助具を用いた教示方法、およびその教示方法によって教示を行うロボット制御システム
CN102448681B (zh) * 2009-12-28 2014-09-10 松下电器产业株式会社 动作空间提示装置、动作空间提示方法以及程序
AT509927B1 (de) * 2010-06-08 2015-05-15 Keba Ag Verfahren zum programmieren oder vorgeben von bewegungen oder abläufen eines industrieroboters
JP5573537B2 (ja) * 2010-09-17 2014-08-20 株式会社デンソーウェーブ ロボットのティーチングシステム
EP2882574A1 (en) * 2012-08-08 2015-06-17 ABB Technology AG System and method for determining an optimal trajectory for material dispensing robots
EP2835249B1 (en) * 2013-08-08 2019-03-06 ABB Schweiz AG Printing system for three-dimensional objects
US10888998B2 (en) 2013-10-07 2021-01-12 Abb Schweiz Ag Method and device for verifying one or more safety volumes for a movable mechanical unit
DE102014213262A1 (de) * 2014-07-08 2016-01-14 Kuka Roboter Gmbh Maschine und Verfahren zum Betreiben einer Maschine
US9916506B1 (en) 2015-07-25 2018-03-13 X Development Llc Invisible fiducial markers on a robot to visualize the robot in augmented reality
US9919427B1 (en) 2015-07-25 2018-03-20 X Development Llc Visualizing robot trajectory points in augmented reality
KR101876845B1 (ko) * 2015-08-26 2018-07-11 주식회사 뉴로메카 로봇 제어 장치
JP6660962B2 (ja) * 2015-11-18 2020-03-11 株式会社Fuji ティーチング装置及び制御情報の生成方法
US10296675B2 (en) 2015-12-30 2019-05-21 Abb Schweiz Ag System and method for determining dynamic motion data in robot trajectory
US10031654B2 (en) * 2016-04-12 2018-07-24 Honeywell International Inc. Apparatus and method for generating industrial process graphics
WO2018001472A1 (en) 2016-06-29 2018-01-04 Abb Schweiz Ag An industrial robot system comprising a dual arm robot
JP6883392B2 (ja) * 2016-07-29 2021-06-09 川崎重工業株式会社 ロボットシステム
IL247360B (en) 2016-08-18 2021-09-30 Veeride Ltd A device and method for augmented reality
CN106945036A (zh) * 2017-03-21 2017-07-14 深圳泰坦创新科技有限公司 机器人动作生成方法和装置
WO2019064916A1 (ja) * 2017-09-26 2019-04-04 日本電産株式会社 ロボットシミュレータ
WO2019064917A1 (ja) * 2017-09-26 2019-04-04 日本電産株式会社 ロボットシミュレータ
JP6495989B1 (ja) * 2017-10-02 2019-04-03 株式会社アマダホールディングス プログラム作成装置、溶接システム、及びプログラム作成方法
JP7035555B2 (ja) * 2018-01-23 2022-03-15 セイコーエプソン株式会社 教示装置、及びシステム
DE102018201589A1 (de) * 2018-02-01 2019-08-01 KORIS Vision & Force GmbH Verfahren zur Programmierung der Steuerung eines Industrieroboters, Verfahren zum Betreiben eines Industrieroboters, Programmiervorrichtung sowie Industrierobotersystem mit einer solchen Programmiervorrichtung
EP3537412A1 (en) * 2018-03-07 2019-09-11 Seabery North America, S.L. Systems and methods to simulate robotic joining operations
JP6787966B2 (ja) 2018-10-02 2020-11-18 ファナック株式会社 拡張現実と複合現実を用いたロボット制御装置及び表示装置
DE102019105820A1 (de) * 2019-03-07 2020-09-10 Matheus Service GmbH Verfahren, System sowie nichtflüchtiges Speichermedium
CN110076752A (zh) * 2019-04-01 2019-08-02 安徽师范大学 仿真六自由度机器人与实体六自由度机器人同步运动装置
JP7409848B2 (ja) * 2019-12-04 2024-01-09 ファナック株式会社 表示装置及び表示プログラム
DE102020103885A1 (de) 2020-02-14 2021-08-19 " SWMS Systemtechnik Ingenieurgesellschaft mbH " Verfahren zur Steuerung mindestens einer Bearbeitungsvorrichtung durch einen Nutzer
JP7366264B2 (ja) * 2020-06-23 2023-10-20 川崎重工業株式会社 ロボット教示方法及びロボット作業方法
CN118401346A (zh) * 2021-10-11 2024-07-26 Abb瑞士股份有限公司 用于对工业机器人进行编程的响应式示教接口
CN114129263B (zh) * 2021-11-29 2023-07-25 武汉联影智融医疗科技有限公司 手术机器人路径规划方法、系统、设备及存储介质
JP2023157679A (ja) * 2022-04-15 2023-10-26 川崎重工業株式会社 遠隔操作システム及び遠隔操作方法
IT202200012955A1 (it) * 2022-06-20 2023-12-20 Comau Spa "Procedimento per eseguire operazioni di lavorazione industriale all'interno di un ambiente di lavoro, e relativo sistema"
CN115922688A (zh) * 2022-06-21 2023-04-07 北京小米移动软件有限公司 机械手的操作方法、装置及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS53136263A (en) * 1977-04-30 1978-11-28 Tokico Ltd Industrial robot
JP3448951B2 (ja) * 1993-08-25 2003-09-22 マツダ株式会社 塗装における塗装タレの評価方法及び塗装制御装置
DE19626459C2 (de) * 1996-07-02 1999-09-02 Kuka Schweissanlagen Gmbh Verfahren und Vorrichtung zum Teachen eines programmgesteuerten Roboters
US6256597B1 (en) * 1998-07-10 2001-07-03 General Electric Company Three dimensional spray coating method and simulation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9104981B2 (en) 2013-01-16 2015-08-11 Kabushiki Kaisha Yaskawa Denki Robot teaching system and method using imaging based on training position

Also Published As

Publication number Publication date
ATE405387T1 (de) 2008-09-15
SE0203909D0 (sv) 2002-12-30
SE0203909L (sv) 2004-08-28
EP1435280B1 (en) 2008-08-20
EP1435280A2 (en) 2004-07-07
JP2004209641A (ja) 2004-07-29
EP1435280A3 (en) 2007-04-18
SE531104C2 (sv) 2008-12-16
DE60323043D1 (de) 2008-10-02

Similar Documents

Publication Publication Date Title
JP4817603B2 (ja) 工業ロボットをプログラミングするための方法およびシステム
US7236854B2 (en) Method and a system for programming an industrial robot
US7353081B2 (en) Method and a system for programming an industrial robot
Eswaran et al. Augmented reality-based guidance in product assembly and maintenance/repair perspective: A state of the art review on challenges and opportunities
CN110238831B (zh) 基于rgb-d图像及示教器的机器人示教系统及方法
US7353082B2 (en) Method and a system for programming an industrial robot
CN110394780B (zh) 机器人的仿真装置
JP4680516B2 (ja) ロボットの情報を現実環境の画像へとフェードインするための方法、およびロボットの情報を現実環境の画像に視覚化するための装置
JP6853280B2 (ja) 拡張現実ロボットシステムの可視化
Chong et al. Robot programming using augmented reality: An interactive method for planning collision-free paths
Zaeh et al. Interactive laser-projection for programming industrial robots
Pan et al. Augmented reality-based robot teleoperation system using RGB-D imaging and attitude teaching device
JP5113666B2 (ja) ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法
JP2020055075A (ja) 拡張現実と複合現実を用いたロボット制御装置及び表示装置
US20040189675A1 (en) Augmented reality system and method
JP2005106825A (ja) 受像装置の位置および方向づけの決定方法および装置
WO2019013204A1 (ja) 情報を提示する情報処理装置、情報処理方法及びプログラム
CN111487946A (zh) 机器人系统
CN210361314U (zh) 一种基于增强现实技术的机器人示教装置
Gregg-Smith et al. Investigating spatial guidance for a cooperative handheld robot
Makita et al. Offline direct teaching for a robotic manipulator in the computational space
CN115481489A (zh) 基于增强现实的白车身与生产线适配性验证系统及方法
US20220410394A1 (en) Method and system for programming a robot
JP2023530209A (ja) 多関節システムによって保持されたツールを用いて対象物に対する操作を自動で行うための方法
Freund et al. Projective Virtual Reality in space applications: A telerobotic ground station for a space mission

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090828

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090928

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20091204

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100927

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100930

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20101028

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110513

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4817603

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S631 Written request for registration of reclamation of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313631

S633 Written request for registration of reclamation of name

Free format text: JAPANESE INTERMEDIATE CODE: R313633

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees