JPWO2010092981A1 - 産業用ロボットシステム - Google Patents
産業用ロボットシステム Download PDFInfo
- Publication number
- JPWO2010092981A1 JPWO2010092981A1 JP2010550536A JP2010550536A JPWO2010092981A1 JP WO2010092981 A1 JPWO2010092981 A1 JP WO2010092981A1 JP 2010550536 A JP2010550536 A JP 2010550536A JP 2010550536 A JP2010550536 A JP 2010550536A JP WO2010092981 A1 JPWO2010092981 A1 JP WO2010092981A1
- Authority
- JP
- Japan
- Prior art keywords
- work
- unit
- error
- teaching
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23P—METAL-WORKING NOT OTHERWISE PROVIDED FOR; COMBINED OPERATIONS; UNIVERSAL MACHINE TOOLS
- B23P19/00—Machines for simply fitting together or separating metal parts or objects, or metal and non-metal parts, whether or not involving some deformation; Tools or devices therefor so far as not provided for in other classes
- B23P19/04—Machines for simply fitting together or separating metal parts or objects, or metal and non-metal parts, whether or not involving some deformation; Tools or devices therefor so far as not provided for in other classes for assembling or disassembling parts
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/4093—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36404—Adapt teached position as function of deviation 3-D, 2-D position workpiece
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39527—Workpiece detector, sensor mounted in, near hand, gripper
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40111—For assembly
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40613—Camera, laser scanner on end effector, hand eye manipulator, local
Abstract
Description
同様に、生産ラインの故障を復帰させるために、制御シーケンスプログラムをあらかじめブロック単位で構成し、ブロックごとに故障の検知、復帰用プログラムの起動を行う技術も提案されている(たとえば、特許文献3参照)。
図1はこの発明の実施例1に係る産業用ロボットシステムを示すブロック構成図である。
図1において、産業用ロボットシステムは、あらかじめ作成準備された3次元CADによる製品設計データおよび生産設備データ1(部品連結情報、幾何学的形状データ、設備レイアウトデータなどを含む)と、あらかじめ作成準備された特定作業仕様2と、生産ラインに設置されたロボットシステム3とを備えている。
また、マニピュレータ31には、マニピュレーションデバイス群34が設けられており、マニピュレーションデバイス群34は、ユニバーサルハンドなどを含む。
特定作業ライブラリ9は、特定作業仕様2に基づき最適作業動作生成部11から入力される特定作業動作系列を格納する。
エラーリカバリライブラリ10は、教示作業部6からのエラー発生原因および作業者の操作履歴に基づき、エラーリカバリ作業教示部12で生成された、エラー状態に応じた復帰作業パスを格納する。
また、チョコ停対応行動計画部4は、エラー誘発作業抑制部5と相互に関連しており、エラー誘発作業抑制部5に対して作業順序の候補を入力するとともに、エラー誘発作業抑制部5からエラー発生確率情報を取り込む。
また、エラー誘発作業抑制部5は、ロボットシステム3のコントローラ30からの動作モニタ情報に基づいて、エラー発生確率情報およびエラー発生原因を生成する。
コントローラ30は、習熟前および習熟後の各ロボットプログラムと、フィンガーアイカメラ計測部32および3次元認識部33からの動作モニタ情報とに基づいて、マニピュレータ31およびマニピュレーションデバイス群34を駆動制御する。
フィンガーアイカメラ計測部32および3次元認識部33は、マニピュレータ31およびマニピュレーションデバイス群34の動作をモニタし、動作モニタ情報をコントローラ30および教示作業部6に入力する。
一般的に、設計者による製品の設計手順としては、前述のように、最初に、製造したい製品の構造設計と、それを製造するためのセルのレイアウト設計とが行われる。
これにより、製品を構成する部品の結合順序関係を表す部品連結情報(部品構成ツリー図)と、部品の幾何学的形状データなどの製品設計データと、セル内の設備レイアウトデータと、ロボットの仕様などの生産設備データとが得られる。
以下、生産設備の立上げ時における、この発明の実施例1によるシステム動作について説明する。
これにより、チョコ停対応行動計画部4においては、部品連結情報に基づき、製品製造作業を細かい作業の系列に分解し、セル内各設備への各作業の割付、作業順序の生成が行われる。このとき、作業を分解して作業順序を決定する際に、エラー誘発作業抑制部5に対して作業順序の候補を与えると、その作業に対するエラー発生確率情報が返されるので、チョコ停リスクの低い作業順序が選択される。なお、エラー発生確率は、生産実行時の動作モニタ情報で随時更新される。
すなわち、「2点間移動」、「経由点への移動」、「エンドエフェクタデバイスによる作用をともなう作業」、「部品を把持する直前直後のアプローチ移動、またはあらかじめ最適化された作業動作といったセンサフィードバック制御による作業」、「チョコ停からの復帰シーケンス中」などである。なお、ひとつの作業パスに対して複数のラベルが付けられる場合もある。
なお、作業パスの中身とは、パス両端および経由点(必要に応じて、複数の経由点が追加される)の位置姿勢座標と、座標間移動方法(制御則、補間方法など)の指定である。
また、あらかじめ最適化された作業動作とは、作業ミスを抑制して、すばやく、かつしなやかに作業するコツを含んでいる。
これにより、過去に発生したチョコ停誘発作業の再発を抑制する。
たとえば、生産セル内に部品置場および作業台があったと仮定して、部品置場から作業台に部品を運ぶ作業について、部品を運ぶ具体的な軌道に関する作業パスを考えると、ロボットが周辺の物体と干渉する可能性があるので、最終的には、各作業パスの実現値を精密な値に設定する必要がある。
ただし、この場合、各作業パスは約5cm程度の精度で生成されるので、物体を把持する基準姿勢(部品とハンドとの相対姿勢)は、後段の教示作業部6において、教示作業入力手段を用いて作業者による教示で決定される。
教示作業部6においては、概略座標付き作業パスに対して、把持点など動作要所の最終的な位置合わせのみを教示作業入力手段を用いて教示作業者が行うことにより、絶対座標が指定された精密化された作業パスが決定される。
こうして取得された画像は、視野の隠蔽の起きにくい広範囲なものとなっているので、作業者は、手動操作時にロボットの手先の状態を観測し易くなる。
力覚センサとは、センサにかかる力とトルクとの両方を計測するセンサであり、ロボットの手先とは、ロボットハンドのフィンガー部分、またはロボットハンドとロボットとの接続部などを指す。なお、マニピュレータの関節各軸にトルクセンサを配置し、それら複数のトルクセンサから得られたデータを用いて、ロボット手先の任意の位置にかかっている力とトルクとの両方を推定演算することでも同等の効果が得られる。
これにより、作業者は、手動操作時にロボットの手先の状態を観測し易くなる。
なお、この場合も、エラー誘発作業抑制部5が活用され、作業ミスを誘発する動作を教示した場合には、警告が発報する。
これにより、負担を減らしながら、把持位置・姿勢を決定する機能を備えることができる。
以上のように、チョコ停対応行動計画部4、エラー誘発作業抑制部5、教示作業部6および動作習熟部7は、各設計データ1、特定作業仕様2、各ライブラリ8〜10、最適作業動作生成部11およびエラーリカバリ作業教示部12と関連して、ロボットシステム3に対するロボットプログラムを生成する。
すなわち、製品設計・生産設備データ1から、チョコ停発生時の復帰シーケンスを含むコントローラ30で実行可能なロボットプログラムが、従来に比べて大幅に少ない教示作業者の負荷で得られる。
製品を生産する場合のロボット動作順序は、以下の(1)〜(6)のようになる。
(1)通常は、ロボットプログラム中に記された作業パスを順番に実行する。
このとき、部品寸法公差、位置決めばらつきを吸収して安定な動作を実現するために、フィンガーアイカメラ計測部32および3次元認識部33を用いて、対象物体に対する距離・姿勢の誤差をリアルタイムで計測し、センサフィードバック制御により作業を遂行する。
また、フィンガーアイカメラ計測部32により、部品把持中において、部品の把持位置姿勢を計測することができるので、部品を把持する際に発生する位置姿勢誤差の補正、または握り直しによる正確な位置決め作業が可能となり、位置ずれに起因するチョコ停が抑制される。
(3)チェックポイントにおいては検定が行われ、異常が無ければ(1)に戻る。
(4)もし、チェックポイントでの検定に通らなければ、復帰動作が行われる。
(5)復帰動作において、チェックポイント間の任意の位置から、あらかじめ与えられた復帰パスにしたがって、復帰ポイントまで戻り、そのポイントから(1)に戻って通常モードで動作を再開する。
作業者による復帰動作の教示方法は、エラーリカバリ作業教示部12に記録され、知識として次回のロボットプログラム作成時に活用される。
現物合わせによる意思決定が求められるような、ロボットに対する教示作業において、自動化困難な部分については、人間作業者がその遂行を担当する。
そこで、教示作業部6においては、その作業遂行を効果的なユーザインタフェースの提供によって支援する。
特に、各種の変動要因に対して、ロバスト(Robust:頑健)なロボットの作業パスを実現するには、部品の把持や組付といった、ハンドを含む異なる物体同士の物理的接触が発生する動作フェーズの教示が最大の問題となる。
また、部品の寸法や形状には、公差の範囲内でばらつきが存在するので、教示作業時に用いたサンプルやその固定の状態が、連続稼働中の部品のばらつき具合をうまく代表するものである必要がある。もしそうでないと、教示された作業パスで想定されていない不確実性が、ミスの発生確率を大幅に押し上げることになる。
これにより、正確な位置・姿勢の判断を、より単純かつ容易なものに変更し、教示作業の効率化を図ることができる。
なお、多数の数値データを2次元の画面に提示する際には、作業者が的確な作業状況を直感的に理解できるように、教示作業に適う形態や配置によって統合する必要がある。これについては、「エコロジカル・インタフェース設計」(Ecological Interface Design:EID)の理論をベースにすることができる。
図2において、マニピュレータ31のユニバーサルハンド34aと組立部品Wとの相互関係は、各種センサデータとして取り込まれ、組立部品Wに関する情報が可視化されて提示される。
したがって、教示作業部6は、特定作業ライブラリ9を介して特定作業動作系列を参照し、作業パス精密化のために作業者が利用できるようにする。
なお、想定される代表的なセンサ情報としては、画像センサ、距離センサ、力覚センサの例を示したが、作業用途によって、さらに別のセンサ情報を必要とする場合には、これに対応したシステム機能を追加することができる。
すなわち、入力情報は、エラー復帰シーケンス付き作業シーケンス図、概略座標付き作業パス、各種センサデータ、組立部品情報である。
また、出力情報は、精密化された作業パスであり、作業パスの始点座標、終点座標、複数の経由点座標の値域と刻み幅を含む。
垂直多関節型ロボットの作業動作計画は、機構の自由度の高さに起因した複雑さがある。たとえば、単に始点と終点とを結ぶ軌道を導出する場合にも、2点境界値問題を解く必要があり、これを解析的にも数値的にも解くことは難しい。また、始点と終点とを結ぶ軌道に加えて、複数の経由点を含む軌道を最適化する場合は、さらに困難になる。
これにより、作業環境の変化や複雑化に対して、柔軟に対応可能な汎用性が期待することができる。この結果、同一動作を繰り返したときに、タクトタイムの短縮を実現することができる。
図4において、(a)は、1つの経由点(0,J2,J3,0,0,0)を含んで、始点(−60,30,80,0,0,0)から終点(60,30,80,0,0,0)に至るロボット(マニピュレータ31)の作業パスの一例を示している。
図4(a)内の経由点(0,J2,J3,0,0,0)は、図4(b)内の障害物Dを回避できるように設定される。
図4(a)内の経由点を様々に変化させると、経由点ごとのタクトタイムが観測され、図4(c)に示すような曲面が得られる。
具体的には、能動学習理論(Active Learning in Computational Learning Theory)の枠組みを応用する。つまり、探索試行を次々に繰り返していく際に、これまでに試行した結果のデータを用いて、次に試行することが最も好ましい試行を最適化する。
実際に、ある候補を用いて試行が行われた際には、得られた結果を、それまでに得られている結果と合わせておく。つまり、最適化を行う際に構築するモデルは、試行を繰り返すたびに、徐々に精確なものとなる。
これにより、全体として試行数が少なくなり、たとえば、図4(c)内の「太線矢印」で示すような、「試行回数の少ない探索パスPS1」が実現される。
このような振動の発生は、ハンド・アームの慣性力と、ハーモニックドライブなどの減速機構、伝達機構のバネ効果による復元力とに起因するが、作業パスの選定も重要な検討項目と言える。
実際、従来システムの教示では、作業ポイントやチェックポイントを離散的に指示する方法が一般的であり、ポイント間の移動経路や作業パス内の軌跡の選定において、振動抑制を意識した軌跡の選択は行われていないので、加減速ごとに不要な振動が励起される状況にある。
このことは、目標位置を振り子の最大変位位置に設定できれば、停止時のワークの振動を回避可能なことを意味している。
すなわち、入力情報は、作業パスの始点座標、終点座標、複数の経由点座標の値域と刻み幅、作業環境情報、ロボット情報である。
また、出力情報は、作業パスの始点座標、終点座標、複数の経由点座標と、始点、終点、経由座標点間の軌跡および加減速指令と、である。
セル生産ロボットシステムの設計においては、製品組立作業の詳細な要素作業への分解と、それら要素作業の各設備へ割当てと、作業順序および作業パスなどの具体的な策定とが行われる。
また、ロボットの動作を詳細にシミュレーションする商用ソフトは、多数開発されてはいるものの、そのシミュレーションモデルの構築には多大な労力が必要であり、多様な事項の同時的な検討が必要な初期設計段階での利用には不向きである。
チョコ停対応行動計画部4は、後述するエラー誘発作業抑制部5および最適作業動作生成部11の各機能構成部と連携をとりながら、ロボット作業の概要を決定する。
まず、製品構造設計および生産設備設計の結果(製品設計データおよび生産設備データ1)から、部品連結情報と幾何学的形状データと設備レイアウトデータとの3次元の幾何情報を得る。また、これらの情報から、幾何学的な部品の把持可能な面の特定と、製品の一連の組立作業の要素作業への分解を行う。さらに、これらの処理結果に基づいて、作業手順の候補を生成し、各要素作業を割り当てる設備を決定する。
以下、図6に示すように、エラー発生確率情報を利用して、作業手順の計画の段階で、ロボットハンドの交換やチョコ停発生時の復帰動作などの補助作業を含めた組立作業全体の分析を行い、チョコ停の発生に対してロバストな作業手順を策定する。
図6において、上流側の作業t1、t2は、チョコ停発生などのエラー判断に基づく復帰作業c3、c4に応じて行われる。
作業t2に続いて、作業t3が行われた後、検査c1に進み、チョコ停発生の有無がチェックされる。
この結果、エラー発生確率情報に基づき、統計学的な評価によるハンド交換のタイミングやチョコ停からの復帰などの、補助作業を含めた作業順序が編成される。
また、図6の作業順序の編成時に、最適作業動作生成部11からの入力情報として、作業パスのテンプレートを、要素作業の種類に応じて獲得する場合がある。この情報を、パッケージ化された、熟練した技を持つ作業動作のライブラリとして利用することにより、作業順序の編成において、より正確な作業時間の見積りが可能となる。
この際、エラー発生時の作業t1、t2への復帰ポイントと、他の設備との同期ポイントと、定められた作業の成否を検査(c1)するポイントと、を同時に決定出力する。
すなわち、全体シーケンスのうち、作業者が特に確認したい一部分のシーケンスのみを実際にロボットに実行させて、ロボット動作を確認する作業を躊躇なく行うことができるというメリットがある。
なぜなら、エラー復帰シーケンスを援用することによって、以前では作業者が慎重に(間違わないように)時間をかけて行う必要があった後始末(ロボットまたは周辺装置の物理的な位置を初期位置に戻すこと、および、制御装置の変数を一定の初期値に戻すことなど)が自動化されるからである。
すなわち、入力情報は、製品の部品連結情報と幾何学的形状データと設備レイアウトデータとの3次元の幾何情報と、作業順序の候補に対するエラー発生確率情報と、作業パスのテンプレートと、である。
また、出力情報は、補助作業を含めた作業順序と、概略作業パスと、教示作業が必要なポイントと、エラー発生時の復帰手順、復帰ポイントおよび同期ポイントと、ロボットが把持可能な部品面と、である。
エラー誘発作業抑制部5は、ロボット作業におけるエラー発生のリスクを分析して、エラー低減のために必要な情報を提供し、作業設計時または作業者による教示作業時に、エラーを誘発するロボット動作の設定(または、教示)を抑制する。
同時に、エラー発生に関する知識をデータベース化して、今後のエラー対策の検討を支援する。
両方向の分析が一貫して行えるように、システムリスク分析で用いられているシステム工学的方法を参考にすることができる。
さらに、ロボットに実行させる作業の設計の初期段階と教示段階とでは、用いる設計情報の詳細度が異なるので、段階に応じた階層的な分析方法により、定性的情報から、より詳細な定量的情報による分析が一貫して行えるようにする。
る。
また、各要因1〜要因Nは、エラーiに関するn個の発生条件1〜発生条件niに対して、それぞれ因果関係を有し、エラーiの発生へとつながっている。
逆に、エラー発生の原因を同定する場合には、エラーの発生(図中の上段側)から作業(図中の下段側)へと原因の同定処理が行われる。
すなわち、入力情報は、作業順序が示された作業シーケンス図と、エラー復帰シーケンス付き作業シーケンス図と、設備やロボットに関する基本設計仕様などの情報と、作業者の教示データと、である。
また、出力情報は、作業順序に基づくエラー発生確率の推移情報と、エラー発生可能性の予測結果・警告と、エラー発生原因・対策に関連する情報と、である。
ロボットによる組立作業の中で、ハンドが把持している部品と、その部品を組み付ける対象側のワークとが物理的に接触し得る「部品組付」のフェーズは、チョコ停などにつながるトラブルが最も生じ易いフェーズの1つである。
この理由は、ロボットによる組立作業であっても、「部品組付」のフェーズを単純かつロバストに実現する「熟練の技」が存在し、熟練の技を反映した作業パスではトラブルが生じにくくなるからである、とも解釈することができる。
これにより、教示作業部6においては、最適作業パスのテンプレートを参照することによって、熟練技術者の経験に依存することなく、ロバストな作業パスを容易に教示できるようになる。
さらに、この「作業パステンプレート構成アルゴリズム」で得られた作業パステンプレートに、近傍探索するロジックを付加することにより、作業パスはさらに改善される。
なお、この挿入工程は、さらに部品の形状などによって性格が異なるため、最初のステップでは、最も一般的な、いわゆるペグインホール工程を対象とし、徐々に複雑な形状のものに拡張していく。
すなわち、入力情報は、特定作業の種類(ペグインホールなど)と、部品・ワークの設計情報(寸法、形状など)と、考慮すべき主な誤差とそれらの分布と、部品の把持姿勢(一般には、複数の候補が与えられる)と、ロボット情報(可能な要素動作、制御則など)と、利用可能なセンサ情報と、である。
また、出力情報は、条件分岐のある作業パスのテンプレート(把持姿勢の候補が複数ある場合は、それぞれに対して出力される)と、作業パステンプレート上の経由点および要素作業系列への意味付けと、である。
チョコ停を含むエラー状態から復帰するためのロボットの動作は、作業者が与えているのが現状であるが、作業者は、エラー状態によりリカバリ操作の戦術を切り替えており、個々の操作は、リカバリの効果を経験して学習的に習得している。
すなわち、エラー状態をもたらした制御対象の局面を場合分けし、場合ごとのローカルな復帰のための制御則を、エラー状態に至った状態遷移をさかのぼることで、エラーの直接・間接の原因を同定し、エラーの原因に応じた対応をできるだけ一般的な制御則として学習している。
この学習手法は、与えられた単一の教示事例(すなわち、デモンストレーションとして教示されたエラーリカバリ)のための復帰動作系列の入力に対して、それが何故にお手本となるような事例たり得るのかについての説明を、システムが生成する。
当該訓練事例のどの部分に教示ノウハウが活かされているかを選択的に抽出し、これをその知識の適用可能性の基準を定める表現形式(操作性規範)で一般化した知識(すなわち、普遍的な制御則)として生成する。
付加された新たな事例(=分類したいエラー状態)を、候補となる類型クラスに仮に帰属させ、そのクラス内の属性値分布を更新した上でカテゴリ有用度を算出する。
図11において、教示学習システムは、エラーの類似化学習ブロックと、復帰動作の制御則学習ブロックとを備えている。
エラーの類似化学習ブロックは、エラーのレパートリーから分岐されたN個の類型クラス1〜Nを含む。
さらに、エラーの類似化学習ブロックは、一般則の学習結果に基づく事例追加に応答して再構築される。
したがって、この制御則を適用することにより、教示者が介入することなく、同じ類型化されたエラー状態からの復帰動作は、自動的に実行される。この結果、従来の教示作業の頻度と教示時間が大幅に短縮されることが期待できる。
すなわち、入力情報は、個別のエラー発生原因と、個別のエラー発生時のロボット操作系列と、作業者の個別のエラーに対する復帰操作履歴と、である。
また、出力情報は、類型化されたエラー状態に対する汎用的な復帰作業パスならびに復帰操作系列である。
従来から、マニピュレータ31のアーム先端に近い位置に設置されるハンドアイカメラは存在するが、従来のカメラは、ハンド手先および対象物体を含む周辺部を見るというよりも、アームの自由度を生かした視点移動効果を目的としており、対象をある程度離れて観測することを想定している。したがって、従来のカメラは、教示やチョコ停からの復旧動作において重要な、ハンド手先部と対象物体や周囲環境との近接・接触状態、または、把持中の物体状態、を十分に把握するための構造を有しておらず、たとえば、アーム自身や周囲環境に起因した隠蔽が生じる可能性があった。
図13において、フィンガーアイカメラは、高速カメラ32aと、全方位ミラー32bとにより構成されており、全方位ミラー32bの反射像を高速カメラ32aで撮像するように構成されている。
高速カメラ32aは、マニピュレータ31の先端部に位置するロボットハンド34bのフィンガーごとに設けられており、全方位ミラー32bは、フィンガーおよび高速カメラ32aに対向するように配置されている。
高速カメラ32aから得られた画像情報は、オペレータの手動操作による教示動作と、チョコ停復旧動作とを助けるのみでなく、コントローラ30において、センサフィードバック制御用の画像入力として用いられる。
フィンガーアイカメラを用いることにより、マニピュレータ31の手先状態を観測し易くなるとともに、手先方向の対象物体が隠蔽によって直接観測できない場合においても、側方の画像情報を適応的に選択してセンサフィードバック用の画像として用いることが可能である。
なお、上記フィンガーアイカメラ以外にも、環境側に配置したカメラと連動しても、同等の効果が得られる。
従来、画像を用いたフィードバック(ビジュアルフィードバック)においては、単一カメラから得られる単一画像平面内での残差に対するフィードバック制御を行うことが基本であり、距離情報としては、一定条件か、または、対象サイズに基づいた簡易的な距離計測情報が用いられてきた。
そこで、この発明の実施例1では、処理レートが高速な2次元画像フィードバックと、処理レートがやや遅い距離・姿勢データフィードバックとを用いた、画像・距離ハイブリッド型フィードバックなどにより、これを解決する。
さらに、この発明の実施例1においては、把持状態における対象部品の把持位置姿勢を認識するために、フィンガーアイカメラから得られる画像情報に基づいた把持位置姿勢計測用部である。
これにより、把持作業時に部品姿勢が変化したような場合においても、位置姿勢精度を確保することが可能となる。
すなわち、入力情報は、カメラ画像と、近接距離データと、参照モデルデータと、終点モデルデータと、キャリブレーションデータ(内部、外部)と、であり、出力情報は、目標偏差データである。
すなわち、入力情報は、カメラ画像と、参照モデルデータと、キャリブレーションデータ(内部、外部)と、であり、出力情報は、対象物体の位置姿勢データである。
一般に、アクティブ3次元計測手法では、パターン光を投光することで密な距離分布データが得られるので、対象物体自体に切欠き特徴などの明確な特徴は必ずしも必要ではなく、より汎用的な位置姿勢認識が可能である。
これまでに、発明者の所属会社においても、図16に示すような、3次元距離分布モデルに基づく位置姿勢認識アルゴリズム(3次元モデル照合手法)が試作されている。
図16において、たとえば配管の一部からなる計測対象物体40は、レーザ装置および3次元カメラを有する小型の3次元センサ41により計測される。
まず、3次元センサ41は、計測対象物体40に対してレーザ光をスキャンしながら照射し、計測対象物体40までの距離を計測しながら、計測対象物体40を3次元カメラで撮像する。
最後に、3次元センサ41は、計測対象物体40の位置姿勢の認識処理を行い、計測データ(暗領域)上に、モデルの当てはめ結果(明領域)を重ね合わせて、計測対象物体40の3次元モデル43を取得する。図16では、複数の計測対象物体の認識結果を取得した例を示している。
さらに、計測データの欠損などが生じた場合には、計測された部分の情報のみを用いて、位置姿勢認識に関して一部のあいまい性を残したまま認識処理を行い、ピッキング作業後に把持状態の対象部品を再計測して、把持位置姿勢を確定することにより、ロバストなパーツピッキング機能をシステム的に実現する。
すなわち、入力情報は、距離分布データと、カメラ画像と、参照モデルデータと、キャリブレーションデータ(内部、外部)と、であり、出力情報は、対象物体の位置姿勢データである。
すなわち、入力情報は、表面特性データ、対象物立体形状データ、カメラ画像およびキャリブレーションデータ(内部、外部)であり、出力情報は、認識可否およびアルゴリズム設計プランである。
上述した各機能構成部の有効性は、実際の物理世界に作用してこそ発揮されるが、通常の作業動作のみならず、エラーリカバリ動作の実現においても当てはまる。
すなわち、通常時およびエラー時の動作戦略が設計されても、それを実現する物理手段を備えていなければ無意味である。また、物理的な作用要素の形態が分かっていなければ、正しい行動計画自体を立案することもできない。
このような従来の専用ハンド方式では、動作戦略は単純であるものの、設計・製作時間が長く、高コストになるうえ、多品種対応のために必要なハンド数が膨大となる、などの課題があった。
ただし、すべての組立作業をこなせる万能な単一ユニバーサルハンドの開発は現実的ではなく、対象作業に応じて、必要以上に複雑にならないハンドを設計すべきである。
また、多自由度となるユニバーサルハンドは、その機構を設計するのみでは不十分であり、ワークを把持するまでの把持戦略なども考える必要がある。
図19において、ハンドライブラリ8は、組立作業およびキッティングを含むターゲットタスクに対して、ユニバーサルハンドの把持戦略ソフトウェアを対応付けて、ライブラリ化している。
なお、把持位置決定や把持戦略については、Form ClosureやForce Closureなどの観点から決定することが考えられる。
ハンドライブラリ8においては、与えられた部品形状その他の条件によって、把持点位置の情報がライブラリ化されているので、実際の教示作業の際に、ハンドの動作をティーチングする必要がない。また、部品の初期位置姿勢に所定範囲の誤差が含まれていたとしても、最終的に規定の位置姿勢になるようなロバスト把持戦略もライブラリ化しておくことにより、ティーチングに要する時間を大幅に削減することが可能となる。
また、チョコ停対応行動計画部4、教示作業部6および動作習熟部7は、生産システムおよび製造対象物の構成情報から、ロボットの教示に必要な第3の作業パスを含むプログラム情報を生成する。
なお、上記実施例1(図1)では、各機能構成部4〜12の大半がいわゆるパーソナルコンピュータ上のソフトウェアとして実装される通例を示したが、実際のファクトリーオートメーションの世界では、生産設備の制御装置に種々のパソコンOSや、各種リアルタイムOS、OSレスのものが混在しており、例えばRT(ロボットテクノロジ)プラットフォームのようなパソコン上のソフトウェアとして実装される知能モジュールソフトウェアと各種制御装置の分散環境では、何らかのglueとなるS/Wを用いてデータ変換、データ通信、データ交換、またはメディア変換をすることが必要なので、図20のように、マッシュアップ部51、52を設けてもよい。
図20において、ネットワーク50には、マッシュアップ部51、52と、上位情報系53と、PLC(Programmable Logic Controller:プログラマブルロジックコントローラ)54、55とが接続されており、PLC54、55には、それぞれ、操作盤56、57が接続されている。また、PLC54、55は、それぞれ、RC(Robot Controller:ロボットコントローラ)58、59を備えている。
マッシュアップ部51、52は、それぞれ、コンフィギュレーション設定機能(A1)と、PLC/RC変換機能(A2)と、実行カーネル部(A3)と、安全機能(A4)とにより構成される。
また、PLC/RC変換機能(A2)は、各制御装置間で動作の同期を取るプログラブ部分についても、具体的な物理的接点番号または論理的変数番号を割り当てた上で配布を行う。
安全機能(A4)は、パソコン上の機能構成要素と、ハードウェアで構成されるいわゆる安全システムとの間で、インターロック信号の交換を行うための橋渡しをする機能を有する。
なお、上記実施例1(図1)では、特に言及しなかったが、図21〜図24のように、作業エラーを検知するためのエラー検知機能を有するとともに、エラー誘発作業抑制部5およびハンドライブラリ8の機能を含むオフライン教示部を設けてもよい。
作業エラーを検知するためのエラー検知機能、および、エラー発生を抑制するエラー抑制機能は有効なので、この発明の実施例3では、上記機能を有するオフライン教示部を備えている。
オフライン教示部のエラー検知機能は、各種センサ情報(ロボット位置、タイムリミット、関節トルク、力覚センサ出力値、画像センサ出力値)から、作業エラー検知ロジック構築を支援する。なお、緊急停止が必要な重篤なエラーは、センサ出力値に直接のリミット値を設けることで検知する。
なお、分析に用いられるエラー情報としては、エラーリカバリ時に記録したセンサ情報、および、エラー内容の記録結果も用いられる。
すなわち、入力情報は、部品形状であり、出力情報は、把持可能・不能および把持位置・姿勢値である。
すなわち、入力情報は、各種センサ情報(ロボット位置、タイムリミット、関節トルク、力覚センサ出力値、画像センサ出力値)であり、出力情報は、作業エラー検知ロジックである。
すなわち、入力情報は、作業順序が示された作業シーケンス図であり、出力情報は、エラーリカバリ時に利用するエラーレベルの決定および復帰用チェックポイントの埋め込み済み作業シーケンス図である。
すなわち、入力情報は、作業順序が示された作業シーケンス図と、エラー復帰シーケンス付き作業シーケンス図と、設備やロボットに関する基本設計仕様などの情報と、作業者の教示データと、である。
また、出力情報は、作業順序に基づくエラー発生確率の推移情報と、エラー発生可能性の予測結果・警告と、エラー発生原因・対策に関連する情報と、である。
なお、上記実施例1(図1)では、特に言及しなかったが、教示作業部6に、視覚I/Fおよびテレオペレーション機能を設けてもよい。
教示時においては、ティーチングペンダントの直感的操作を実現することで作業時間を短縮し、機種切り替えを迅速に行うために、テレオペレーション部を用いることが有効である。
センサ情報を用いた教示動作の洗練化機能は、オペレータが行う教示動作時に、力覚センサや画像センサの計測値を記録しておき、複数回の操作履歴を統計的に処理して、平均値の取得やエラー値の排除を行うことにより、洗練化された教示パスを生成する。
自律制御/マニュアルオペレーションのハイブリッド協調教示機能は、設計された自律制御則を特定移動方向のみに適用して、別方向移動にはマニュアルオペレーションを有効化することにより、教示支援機能を実現する。
なお、上記実施例1(図1)では、特に言及しなかったが、図25〜図27のように、チョコ停対応行動計画部4、教示作業部6、エラーリカバリ作業教示部12およびエラーリカバリライブラリ10と協働するエラーリカバリ部を設け、エラーリカバリ部に、行動制御機能と、教示作業部強化機能と、テレオペレーション機能とを付加してもよい。
オペレータ復帰動作(テレオペレーション)モード(M2)は、エラー停止信号を発生してオペレータを呼び出し、オペレータはテレオペレーション操作でエラーリカバリ動作を行う。なお、隣接しないチェックポイントへの復帰が必要な場合には、各ロボットおよび各生産設備の同期を取りながらの復帰をシステム側が支援する。
すなわち、入力情報は、作業シーケンス図およびエラーの重篤度であり、出力情報は、エラーリカバリ動作モードである。
すなわち、入力情報は、各種センサ情報(ロボット位置、タイムリミット、関節トルク、力覚センサ出力値、画像センサ出力値)と、作業パスと、作業者の操作量と、であり、出力情報は、複合情報表示画像である。
すなわち、入力情報は、作業者の操作量であり、出力情報は、簡易的知覚フィードバック制御操作量である。
なお、上記実施例1では、特に言及しなかったが、図28〜図31のように、教示作業部6、動作習熟部7、フィンガーアイカメラ計測部32および3次元認識部33と協働する認識部を設け、認識部に、部品ピッキング用物体認識機能と、ハイブリッド視覚補正機能と、エラー検知用視覚機能と、認識アプリケーション構築支援機能とを付加してもよい。
画像関連では、手先カメラ、環境側固定カメラの使用(ステレオカメラ構成を含む)を前提とし、必要な場合には、3次元レンジファインダなどのアクティブ3次元センサの利用を想定する。
すなわち、入力情報は、センサ出力データ、パラメータおよびモデル情報であり、出力情報は、部品箱からの物体ピッキング用認識結果と、干渉チェック結果と、把持物体の位置補正値と、である。
すなわち、入力情報は、センサ出力データと、2次元画像中での相対位置あわせ指示と、3次元位置姿勢値と、であり、出力情報は、作業ポイントへの移動軌道および移動量である。
すなわち、入力情報は、手先カメラから得られる画像と、複数個の部品形状データと、であり、出力情報は、エラー検知出力である。
すなわち、入力情報は、モデル情報、パラメータ情報およびキャリブレーションデータである。
また、出力情報は、認識処理パラメータと、認識対象物体モデルデータと、認識処理シーケンスを表すデータと、である。
なお、上記実施例1〜6の構成は、任意に組み合わせて適用することができ、これにより重複した作用効果が得られることは言うまでもない。
さらに、前述の実施例1(図1)では、動作習得部7および各種ライブラリ8〜10を設けるとともに、ロボットシステム3内にフィンガーアイカメラ計測部32および3次元認識部33を設けたが、これらを省略して、図32のように構成してもよい。
図32はこの発明の実施例7に係る産業用ロボットシステムを示すブロック構成図であり、前述(図1参照)と同様のものについては、前述と同一符号が付されるか、または符号の後に「A」が付されている。
また、チョコ停対応行動計画部4Aは、エラー誘発作業抑制部5Aと相互に関連しており、エラー誘発作業抑制部5Aに対して作業順序の候補を入力するとともに、エラー誘発作業抑制部5Aからエラー発生確率情報を取り込む。
コントローラ30Aは、ロボットプログラムと、マニピュレータ31Aからの動作モニタ情報とに基づいて、マニピュレータ31Aを駆動制御する。
一般的に、設計者による製品の設計手順としては、前述のように、最初に、製造したい製品の構造設計と、それを製造するためのセルのレイアウト設計とが行われる。
これにより、製品を構成する部品の結合順序関係を表す部品連結情報(部品構成ツリー図)と、部品の幾何学的形状データなどの製品設計データと、セル内の設備レイアウトデータと、ロボットの仕様などの生産設備データとが得られる。
以下、生産設備の立上げ時における、この発明の実施例7によるシステム動作について説明する。
これにより、チョコ停対応行動計画部4Aにおいては、部品連結情報に基づき、製品製造作業を細かい作業の系列に分解し、セル内各設備への各作業の割付、作業順序の生成が行われる。このとき、作業を分解して作業順序を決定する際に、エラー誘発作業抑制部5Aに対して作業順序の候補を与えると、その作業に対するエラー発生確率情報が返されるので、チョコ停リスクの低い作業順序が選択される。なお、エラー発生確率は、生産実行時の動作モニタ情報で随時更新される。
すなわち、「2点間移動」、「経由点への移動」、「エンドエフェクタデバイスによる作用をともなう作業」、「部品を把持する直前直後のアプローチ移動、またはあらかじめ最適化された作業動作といったセンサフィードバック制御による作業」、「チョコ停からの復帰シーケンス中」などである。なお、ひとつの作業パスに対して複数のラベルが付けられる場合もある。
なお、作業パスの中身とは、パス両端および経由点(必要に応じて、複数の経由点が追加される)の位置姿勢座標と、座標間移動方法(制御則、補間方法など)の指定である。
また、あらかじめ最適化された作業動作とは、作業ミスを抑制して、すばやく、かつしなやかに作業するコツを含んでいる。
たとえば、生産セル内に部品置場および作業台があったと仮定して、部品置場から作業台に部品を運ぶ作業について、部品を運ぶ具体的な軌道に関する作業パスを考えると、ロボットが周辺の物体と干渉する可能性があるので、最終的には、各作業パスの実現値を精密な値に設定する必要がある。
ただし、この場合、各作業パスは約5cm程度の精度で生成されるので、物体を把持する基準姿勢(部品とハンドとの相対姿勢)は、後段の教示作業部6Aにおいて、教示作業入力手段を用いて作業者による教示で決定される。
教示作業部6Aにおいては、概略座標付き作業パスに対して、把持点など動作要所の最終的な位置合わせのみを教示作業入力手段を用いて教示作業者が行うことにより、絶対座標が指定された精密化された作業パスが決定される。
すなわち、この発明の実施例7(図32)の構成においても、製品設計・生産設備データ1から、チョコ停発生時の復帰シーケンスを含むコントローラ30Aで実行可能なロボットプログラムが、従来に比べて大幅に少ない教示作業者の負荷で得られる。
Claims (7)
- マニピュレータおよびハンドを有するロボットを含み、製造対象物となる製品を組み立てるための生産システムに用いられる産業用ロボットシステムであって、
生産ラインの立上げ・調整時の教示作業および無人連続操業の障害となるチョコ停に対応するための作業情報および第1の作業パスを生成するチョコ停対応行動計画部と、
前記作業情報に基づいて、エラーを誘発する作業を抑制するためのエラー情報を生成するエラー誘発作業抑制部と、
前記第1の作業パスおよび前記エラー情報に基づいて第2の作業パスを生成する教示作業部と、
前記第2の作業パスに基づいて、前記ロボットに対する最適化された第3の作業パスを生成する動作習熟部と、
前記ロボットの組立作業と制御ソフトウェアとを対応付けてライブラリ化したハンドライブラリと、
特定作業動作系列を生成する最適作業動作生成部と、
前記特定作業動作系列を格納する特定作業ライブラリと、
前記教示作業部における操作履歴に基づいて、エラー状態に応じたエラーリカバリ作業を教示するためのエラーリカバリ作業教示部と、
前記エラーリカバリ作業を格納するエラーリカバリライブラリと、
前記ロボットの動作モニタ情報を生成して、前記エラー誘発作業抑制部、前記教示作業部および前記動作習熟部に入力するフィンガーアイカメラ計測部および3次元認識部と、
前記第2および第3の作業パスと前記動作モニタ情報とに基づいて前記ロボットを制御するコントローラと、を備え、
前記チョコ停対応行動計画部は、
前記生産システムおよび前記製造対象物の構成情報と、
前記ハンドライブラリ、前記特定作業ライブラリおよび前記エラーリカバリライブラリの各格納情報と、
前記エラー誘発作業抑制部からのエラー情報と
に基づいて、前記第1の作業パスを生成し、
前記エラーリカバリ作業教示部は、前記教示作業部からのエラー発生原因および操作履歴に基づいて、前記ロボットを含む構成要素についてのエラー復帰情報を算出し、
前記チョコ停対応行動計画部、前記教示作業部および前記動作習熟部は、前記生産システムおよび前記製造対象物の構成情報から、前記ロボットの教示に必要な前記第3の作業パスを含むプログラム情報を生成することを特徴とする産業用ロボットシステム。 - 前記チョコ停対応行動計画部と、前記エラー誘発作業抑制部と、前記教示作業部と、前記動作習熟部と、前記ハンドライブラリと、前記最適作業動作生成部と、前記特定作業ライブラリと、前記エラーリカバリ作業教示部と、前記エラーリカバリライブラリと、前記コントローラとの連携を実現するためのマッシュアップ部を備えたことを特徴とする請求項1に記載の産業用ロボットシステム。
- エラー検知機能を有するオフライン教示部を備え、
前記オフライン教示部は、前記エラー誘発作業抑制部および前記ハンドライブラリの機能を含むことを特徴とする請求項1または請求項2に記載の産業用ロボットシステム。 - 前記教示作業部は、視覚I/Fおよびテレオペレーション機能を含むことを特徴とする請求項1から請求項3までのいずれか1項に記載の産業用ロボットシステム。
- 前記チョコ停対応行動計画部、前記教示作業部、前記エラーリカバリ作業教示部および前記エラーリカバリライブラリと協働するエラーリカバリ部を備え、
前記エラーリカバリ部は、行動制御機能と、教示作業部強化機能と、テレオペレーション機能とを含むことを特徴とする請求項1から請求項4までのいずれか1項に記載の産業用ロボットシステム。 - 前記教示作業部、前記動作習熟部、前記フィンガーアイカメラ計測部および前記3次元認識部と協働する認識部を備え、
前記認識部は、部品ピッキング用物体認識機能と、ハイブリッド視覚補正機能と、エラー検知用視覚機能と、認識アプリケーション構築支援機能とを含むことを特徴とする請求項1から請求項5までのいずれか1項に記載の産業用ロボットシステム。 - マニピュレータを有するロボットを含み、製造対象物となる製品を組み立てるための生産システムに用いられる産業用ロボットシステムであって、
生産ラインの立上げ・調整時の教示作業および無人連続操業の障害となるチョコ停に対応するための作業情報および第1の作業パスを生成するチョコ停対応行動計画部と、
前記作業情報に基づいて、エラーを誘発する作業を抑制するためのエラー情報を生成するエラー誘発作業抑制部と、
前記第1の作業パスおよび前記エラー情報に基づいて第2の作業パスを生成する教示作業部と、
前記第2の作業パスに基づいて前記ロボットを制御するコントローラと、を備え、
前記チョコ停対応行動計画部は、前記生産システムおよび前記製造対象物の構成情報と、前記エラー誘発作業抑制部からのエラー情報とに基づいて、前記第1の作業パスを生成し、
前記チョコ停対応行動計画部および前記教示作業部は、前記生産システムおよび前記製造対象物の構成情報から、前記ロボットの教示に必要な前記第2の作業パスを含むプログラム情報を生成することを特徴とする産業用ロボットシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010550536A JP5436460B2 (ja) | 2009-02-12 | 2010-02-10 | 産業用ロボットシステム |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009029374 | 2009-02-12 | ||
JP2009029374 | 2009-02-12 | ||
PCT/JP2010/051962 WO2010092981A1 (ja) | 2009-02-12 | 2010-02-10 | 産業用ロボットシステム |
JP2010550536A JP5436460B2 (ja) | 2009-02-12 | 2010-02-10 | 産業用ロボットシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2010092981A1 true JPWO2010092981A1 (ja) | 2012-08-16 |
JP5436460B2 JP5436460B2 (ja) | 2014-03-05 |
Family
ID=42561822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010550536A Active JP5436460B2 (ja) | 2009-02-12 | 2010-02-10 | 産業用ロボットシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US9393691B2 (ja) |
JP (1) | JP5436460B2 (ja) |
KR (1) | KR101255948B1 (ja) |
CN (1) | CN102317044B (ja) |
DE (1) | DE112010000775B4 (ja) |
WO (1) | WO2010092981A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019500226A (ja) * | 2015-12-30 | 2019-01-10 | フランカ エミカ ゲーエムベーハーFRANKA EMIKA GmbH | ロボットおよびロボット操作方法 |
Families Citing this family (113)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130080892A1 (en) * | 2010-05-28 | 2013-03-28 | Nec Corporation | Information processing device, gui manipulation assistance method, and computer-readable recording medium |
US20130079905A1 (en) * | 2010-06-03 | 2013-03-28 | Hitachi, Ltd. | Human-Operated Working Machine System |
US20120095575A1 (en) * | 2010-10-14 | 2012-04-19 | Cedes Safety & Automation Ag | Time of flight (tof) human machine interface (hmi) |
KR101530235B1 (ko) * | 2010-11-08 | 2015-06-23 | 에이비비 테크놀로지 리미티드 | 배터리 검사 및 분류 시스템과 그에 관한 방법 |
DE102010053668A1 (de) * | 2010-12-07 | 2012-06-14 | Klaus-Dieter Becker | Vorrichtung und Verfahren zur Erstellung eines Programms für computergesteuerte Maschinen |
JP2012206219A (ja) * | 2011-03-30 | 2012-10-25 | Seiko Epson Corp | ロボット制御装置及びロボットシステム |
US9031697B2 (en) * | 2011-04-15 | 2015-05-12 | Irobot Corporation | Auto-reach method for a remote vehicle |
US9025827B2 (en) | 2011-10-19 | 2015-05-05 | Crown Equipment Corporation | Controlling truck forks based on identifying and tracking multiple objects in an image scene |
JP5915214B2 (ja) | 2012-02-01 | 2016-05-11 | セイコーエプソン株式会社 | ロボット装置、組立て方法、及び組立てプログラム |
CN102581445B (zh) * | 2012-02-08 | 2014-08-13 | 中国科学院自动化研究所 | 机器人的视觉实时纠偏系统和纠偏方法 |
US9477936B2 (en) | 2012-02-09 | 2016-10-25 | Rockwell Automation Technologies, Inc. | Cloud-based operator interface for industrial automation |
KR101330049B1 (ko) * | 2012-03-06 | 2013-11-18 | 한국기계연구원 | 3차원 특징점 기반 직접 교시 궤적 후보정 방법 |
DE102012008073A1 (de) | 2012-04-24 | 2013-10-24 | Kuka Roboter Gmbh | Verfahren und Mittel zum Vorgeben und/oder Steuern eines Manipulatorprozesses |
EP2685403A3 (en) | 2012-07-09 | 2017-03-01 | Technion Research & Development Foundation Limited | Natural machine interface system |
JP2014024162A (ja) * | 2012-07-27 | 2014-02-06 | Seiko Epson Corp | ロボットシステム、ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
US10081109B2 (en) * | 2012-09-06 | 2018-09-25 | Fanuc America Corporation | Haptic teach pendant |
CN104812535A (zh) * | 2012-10-11 | 2015-07-29 | Abb技术有限公司 | 自动产生用于将机器人从停止位置返回预设重启位置的无碰撞返回程序的方法和设备 |
JP5582427B2 (ja) * | 2012-12-18 | 2014-09-03 | 株式会社安川電機 | 教示データ作成装置、ロボットシステム、及び教示データ作成方法 |
KR101956073B1 (ko) * | 2012-12-20 | 2019-03-08 | 삼성전자주식회사 | 시각적 인디케이터를 이용하여 사용자 인터페이스를 제공하는 3차원 입체 영상 표시 장치 및 그 장치를 이용한 방법 |
EP2749974A2 (en) * | 2012-12-28 | 2014-07-02 | Kabushiki Kaisha Yaskawa Denki | Robot teaching system, robot teaching assistant device, and robot teaching method |
US9393695B2 (en) | 2013-02-27 | 2016-07-19 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with person and object discrimination |
US9498885B2 (en) * | 2013-02-27 | 2016-11-22 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with confidence-based decision support |
US9804576B2 (en) | 2013-02-27 | 2017-10-31 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with position and derivative decision reference |
US9798302B2 (en) | 2013-02-27 | 2017-10-24 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with redundant system input support |
US9956687B2 (en) | 2013-03-04 | 2018-05-01 | Microsoft Technology Licensing, Llc | Adapting robot behavior based upon human-robot interaction |
JP6022394B2 (ja) * | 2013-03-28 | 2016-11-09 | 株式会社神戸製鋼所 | 作業経路情報設定装置、プログラム、および作業経路情報設定方法 |
US9786197B2 (en) * | 2013-05-09 | 2017-10-10 | Rockwell Automation Technologies, Inc. | Using cloud-based data to facilitate enhancing performance in connection with an industrial automation system |
US9989958B2 (en) | 2013-05-09 | 2018-06-05 | Rockwell Automation Technologies, Inc. | Using cloud-based data for virtualization of an industrial automation environment |
US9703902B2 (en) | 2013-05-09 | 2017-07-11 | Rockwell Automation Technologies, Inc. | Using cloud-based data for industrial simulation |
US9162357B2 (en) * | 2013-06-26 | 2015-10-20 | Canon Kabushiki Kaisha | Control method for robot system and robot system |
JP5850003B2 (ja) | 2013-07-26 | 2016-02-03 | 株式会社安川電機 | ロボットシステム、ロボットシステムのロボット管理コンピュータ及びロボットシステムの管理方法 |
JP5939213B2 (ja) * | 2013-08-09 | 2016-06-22 | 株式会社安川電機 | ロボット制御装置及びロボット制御方法 |
JP6309220B2 (ja) * | 2013-08-12 | 2018-04-11 | 株式会社ダイヘン | 搬送システム |
EP2845696B1 (de) * | 2013-09-10 | 2017-05-17 | Siemens Aktiengesellschaft | Bearbeitungsmaschine mit redundanten Achsen und Auflösung der Redundanz in Echtzeit |
US9841749B2 (en) * | 2014-04-01 | 2017-12-12 | Bot & Dolly, Llc | Runtime controller for robotic manufacturing system |
US9958862B2 (en) * | 2014-05-08 | 2018-05-01 | Yaskawa America, Inc. | Intuitive motion coordinate system for controlling an industrial robot |
JP6418782B2 (ja) * | 2014-05-16 | 2018-11-07 | キヤノン株式会社 | ロボットシステムの制御方法、プログラム、記録媒体、ロボットシステム、及び診断装置 |
DE102014213262A1 (de) * | 2014-07-08 | 2016-01-14 | Kuka Roboter Gmbh | Maschine und Verfahren zum Betreiben einer Maschine |
JP6660102B2 (ja) * | 2014-08-27 | 2020-03-04 | キヤノン株式会社 | ロボット教示装置およびその制御方法、ロボットシステム、プログラム |
US11042131B2 (en) | 2015-03-16 | 2021-06-22 | Rockwell Automation Technologies, Inc. | Backup of an industrial automation plant in the cloud |
US11513477B2 (en) | 2015-03-16 | 2022-11-29 | Rockwell Automation Technologies, Inc. | Cloud-based industrial controller |
US11243505B2 (en) | 2015-03-16 | 2022-02-08 | Rockwell Automation Technologies, Inc. | Cloud-based analytics for industrial automation |
US10496061B2 (en) | 2015-03-16 | 2019-12-03 | Rockwell Automation Technologies, Inc. | Modeling of an industrial automation environment in the cloud |
US9939800B2 (en) * | 2015-04-30 | 2018-04-10 | Bae Systems Plc | Path following machining method and apparatus |
US9707680B1 (en) | 2015-05-28 | 2017-07-18 | X Development Llc | Suggesting, selecting, and applying task-level movement parameters to implementation of robot motion primitives |
US9895809B1 (en) | 2015-08-20 | 2018-02-20 | X Development Llc | Visual annotations in robot control interfaces |
CN107921634B (zh) * | 2015-08-25 | 2021-04-02 | 川崎重工业株式会社 | 机器人系统 |
CN108450015B (zh) * | 2015-08-31 | 2021-07-02 | 株式会社幸福日本 | Ic测试系统 |
KR20180015774A (ko) * | 2015-09-25 | 2018-02-14 | 두산로보틱스 주식회사 | 로봇 제어 방법 및 장치 |
DE102015222168B4 (de) * | 2015-11-11 | 2024-02-22 | Kuka Roboter Gmbh | Verfahren und computerprogramm zur korrektur von fehlern eines manipulatorsystems |
DE102015222164A1 (de) | 2015-11-11 | 2017-05-11 | Kuka Roboter Gmbh | Verfahren und Computerprogramm zur Erzeugung einer grafischen Benutzerschnittstelle eines Manipulatorprogramms |
US9902071B2 (en) * | 2015-12-18 | 2018-02-27 | General Electric Company | Control system and method for brake bleeding |
CN105459136B (zh) * | 2015-12-29 | 2017-07-14 | 上海帆声图像科技有限公司 | 机器人视觉抓取方法 |
JP6333868B2 (ja) | 2016-01-21 | 2018-05-30 | ファナック株式会社 | セル制御装置、及び製造セルにおける複数の製造機械の稼働状況を管理する生産システム |
JP2017146805A (ja) * | 2016-02-17 | 2017-08-24 | 株式会社入曽精密 | 切削加工装置、撮像方法、およびプログラム、並びに撮像装置 |
JP6114421B1 (ja) * | 2016-02-19 | 2017-04-12 | ファナック株式会社 | 複数の産業機械の作業分担を学習する機械学習装置,産業機械セル,製造システムおよび機械学習方法 |
KR101865691B1 (ko) * | 2016-04-05 | 2018-06-11 | 한국과학기술원 | 인간 로봇 상호작용 기반의 작업 수행 로봇 및 방법 |
TWI805545B (zh) * | 2016-04-12 | 2023-06-21 | 丹麥商環球機器人公司 | 用於藉由示範來程式化機器人之方法和電腦程式產品 |
CN105690395B (zh) * | 2016-04-23 | 2017-09-19 | 宁波市智能制造产业研究院 | 工业机器人及其控制方法 |
CN105835058B (zh) * | 2016-04-23 | 2017-10-27 | 福州环亚众志计算机有限公司 | 一种程序生成系统 |
US9990535B2 (en) | 2016-04-27 | 2018-06-05 | Crown Equipment Corporation | Pallet detection using units of physical length |
JP6360105B2 (ja) * | 2016-06-13 | 2018-07-18 | ファナック株式会社 | ロボットシステム |
US10220511B2 (en) * | 2016-07-28 | 2019-03-05 | X Development Llc | Customized robotic installation based on measurements collected on site |
US20180029235A1 (en) * | 2016-07-28 | 2018-02-01 | X Development Llc | Error Accrual and Mitigation During Robotic Process |
JP6392817B2 (ja) * | 2016-08-04 | 2018-09-19 | ファナック株式会社 | シミュレーション装置 |
JP6858521B2 (ja) * | 2016-09-29 | 2021-04-14 | 川崎重工業株式会社 | ロボット復旧支援装置及びそれを備えるロボットシステム |
US10642244B2 (en) * | 2016-12-19 | 2020-05-05 | Autodesk, Inc. | Robotic augmentation of creative tasks |
JP2018126797A (ja) * | 2017-02-06 | 2018-08-16 | セイコーエプソン株式会社 | 制御装置、ロボットおよびロボットシステム |
DE102017201949A1 (de) * | 2017-02-08 | 2018-08-09 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | System zur Steuerung mindestens eines Betriebsmittels zur Herstellung und/oder Montage von Werkstücken |
JP6708581B2 (ja) * | 2017-04-07 | 2020-06-10 | ライフロボティクス株式会社 | 教示装置、表示装置、教示プログラム及び表示プログラム |
JP6457587B2 (ja) * | 2017-06-07 | 2019-01-23 | ファナック株式会社 | ワークの動画に基づいて教示点を設定するロボットの教示装置 |
CN107127381A (zh) * | 2017-07-04 | 2017-09-05 | 四川普什宁江机床有限公司 | 连杆油孔孔口曲面倒角加工设备及方法 |
TWI650626B (zh) * | 2017-08-15 | 2019-02-11 | 由田新技股份有限公司 | 基於三維影像之機械手臂加工方法及系統 |
JP6931585B2 (ja) * | 2017-10-02 | 2021-09-08 | 株式会社オカムラ | 作業システム、作業システムの制御方法及びプログラム |
WO2019069361A1 (ja) * | 2017-10-03 | 2019-04-11 | 三菱電機株式会社 | 把持位置姿勢教示装置、把持位置姿勢教示方法及びロボットシステム |
EP3476549A1 (en) * | 2017-10-27 | 2019-05-01 | Creaholic SA | Hardware module, robotic system, and method for operating the robotic system |
EP3718706A4 (en) * | 2017-11-28 | 2021-10-06 | Kawasaki Jukogyo Kabushiki Kaisha | SKILLS TRANSFER MACHINE |
EP3722053A4 (en) * | 2017-12-08 | 2020-12-02 | Fuji Corporation | CONTROL DEVICE, WORKPIECE OPERATING DEVICE, WORKPIECE OPERATING SYSTEM AND CONTROL METHOD |
US11830131B2 (en) * | 2018-02-06 | 2023-11-28 | Veo Robotics, Inc. | Workpiece sensing for process management and orchestration |
JP6810087B2 (ja) * | 2018-03-29 | 2021-01-06 | ファナック株式会社 | 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法 |
JP7091777B2 (ja) * | 2018-03-30 | 2022-06-28 | 株式会社安川電機 | ロボットシステム及び制御方法 |
CN108469824A (zh) * | 2018-04-08 | 2018-08-31 | 浙江国自机器人技术有限公司 | 一种洗地机器人示教式工程实施系统及其方法 |
CN108501004B (zh) * | 2018-04-13 | 2020-05-05 | 宁波德深机械设备有限公司 | 工业机器人的示教系统 |
US10824142B2 (en) | 2018-05-01 | 2020-11-03 | Dexterity, Inc. | Autonomous robot with on demand teleoperation |
WO2020005164A1 (en) * | 2018-06-29 | 2020-01-02 | Senserbot Pte. Ltd. | Task management method and system thereof |
WO2020031718A1 (ja) * | 2018-08-08 | 2020-02-13 | ソニー株式会社 | 制御装置、制御方法、およびプログラム |
JP7337495B2 (ja) * | 2018-11-26 | 2023-09-04 | キヤノン株式会社 | 画像処理装置およびその制御方法、プログラム |
JP7078174B2 (ja) * | 2019-03-15 | 2022-05-31 | オムロン株式会社 | ロボット制御装置、方法、及びプログラム |
EP3831547A4 (en) * | 2019-03-15 | 2022-03-23 | OMRON Corporation | PARAMETER HOLDER, PARAMETER HOLDER METHOD, AND PROGRAM |
JP7314824B2 (ja) * | 2019-05-17 | 2023-07-26 | 株式会社安川電機 | ロボットシステム、復帰プログラム生成装置、制御支援装置、制御装置、プログラム、復帰プログラムの生成方法及び復帰プログラムの出力方法 |
JP6658985B1 (ja) * | 2019-05-17 | 2020-03-04 | 株式会社安川電機 | ロボットシステム、復帰プログラム生成装置、制御支援装置、制御装置、プログラム、復帰プログラムの生成方法及び復帰プログラムの出力方法 |
CN112230647A (zh) * | 2019-06-28 | 2021-01-15 | 鲁班嫡系机器人(深圳)有限公司 | 用于轨迹规划的智能动力系统行为模型、训练方法及装置 |
DE112019007691T5 (de) * | 2019-09-05 | 2022-06-15 | Mitsubishi Electric Corporation | System zum planen von roboterhandlungen, robotersystem, roboteraufgabenverifizierungssystem und verfahren zum planen von roboterhandlungen |
WO2021086327A1 (en) * | 2019-10-29 | 2021-05-06 | Abb Schweiz Ag | System and method for robotic evaluation |
DE102019129417B4 (de) * | 2019-10-31 | 2022-03-24 | Sick Ag | Verfahren zum automatischen Handhaben von Objekten |
JP7047830B2 (ja) * | 2019-12-05 | 2022-04-05 | オムロン株式会社 | 自律走行システム、自律走行方法、及び自律走行プログラム |
KR102272294B1 (ko) | 2019-12-23 | 2021-07-02 | 주식회사 코아로봇 | 가상축 인터페이스를 갖는 로봇제어장치 및 그 장치의 구동방법 |
JP2021102240A (ja) * | 2019-12-25 | 2021-07-15 | セイコーエプソン株式会社 | プログラム作成システム、プログラム作成装置およびロボットシステム |
DE102020103852B4 (de) * | 2020-02-14 | 2022-06-15 | Franka Emika Gmbh | Erzeugen und Optimieren eines Steuerprogramms für einen Robotermanipulator |
DE102020103854B4 (de) | 2020-02-14 | 2022-06-15 | Franka Emika Gmbh | Maschinelles Lernen einer erfolgreich abgeschlossenen Roboteranwendung |
US20210323158A1 (en) * | 2020-04-17 | 2021-10-21 | Abb Schweiz Ag | Recovery system and method using multiple sensor inputs |
CN111860605B (zh) * | 2020-06-24 | 2022-12-13 | 广州明珞汽车装备有限公司 | 一种工艺节拍处理方法、系统、装置及存储介质 |
DE102020211648A1 (de) | 2020-09-17 | 2022-03-17 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und Verfahren zum Steuern einer Robotervorrichtung |
JP2022063707A (ja) * | 2020-10-12 | 2022-04-22 | 東京ロボティクス株式会社 | ロボットシステム、その制御方法及びプログラム並びにシステム |
CN113031591B (zh) * | 2021-02-24 | 2023-04-07 | 丰疆智能(深圳)有限公司 | 推料机器人的异常处理方法、装置、服务器及存储介质 |
CN112975386B (zh) * | 2021-03-09 | 2022-09-06 | 重庆机器人有限公司 | 一种冰箱自动装配工艺 |
JPWO2023013784A1 (ja) * | 2021-08-05 | 2023-02-09 | ||
CN113459108B (zh) * | 2021-09-02 | 2021-11-12 | 杭州灵西机器人智能科技有限公司 | 基于插值补偿的手眼标定方法、系统、装置和介质 |
WO2023047588A1 (ja) * | 2021-09-27 | 2023-03-30 | ファナック株式会社 | ロボットシステム |
US11755003B2 (en) * | 2021-09-30 | 2023-09-12 | Hitachi, Ltd. | Autonomous task management industrial robot |
DE102022103020A1 (de) | 2022-02-09 | 2023-08-10 | Schaeffler Technologies AG & Co. KG | Verfahren zum Betrieb eines Antriebsmoduls zum Bewegen eines Gelenkarms eines Industrieroboters und Antriebsmodul |
JP7327550B1 (ja) | 2022-03-08 | 2023-08-16 | 株式会社安川電機 | ロボットコントローラ、及び制御方法 |
CN115860431B (zh) * | 2023-02-07 | 2023-05-26 | 广东技术师范大学 | 基于异构感知的多机器人智能调度方法、系统、机器人及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03116304A (ja) * | 1989-09-29 | 1991-05-17 | Mazda Motor Corp | 生産ライン故障復帰装置 |
JPH0577142A (ja) * | 1991-09-18 | 1993-03-30 | Mazda Motor Corp | 生産設備の復帰方法およびその装置 |
JPH06190692A (ja) * | 1992-12-28 | 1994-07-12 | Mazda Motor Corp | 生産設備の復帰装置 |
JPH0847880A (ja) * | 1994-08-02 | 1996-02-20 | Komatsu Ltd | 異常復帰装置 |
JP2006012074A (ja) * | 2004-06-29 | 2006-01-12 | Fanuc Ltd | ロボットの待機位置復帰プログラム作成装置 |
JP2007515305A (ja) * | 2003-12-22 | 2007-06-14 | エービービー・エーエス | ロボット設備のためのコントロール方法、デバイス及びシステム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69012865T2 (de) | 1989-03-25 | 1995-03-16 | Mazda Motor | Verfahren und System zur Wiederinbetriebnahme einer folgegesteuerten Anlage, installiert in einer Fertigungsstrasse. |
KR940007722B1 (ko) * | 1989-09-29 | 1994-08-24 | 마쯔다 가부시기가이샤 | 생산라인고장시의 복귀방법 및 그 방법을 달성하기 위한 장치 |
US6445964B1 (en) * | 1997-08-04 | 2002-09-03 | Harris Corporation | Virtual reality simulation-based training of telekinegenesis system for training sequential kinematic behavior of automated kinematic machine |
US6430472B1 (en) * | 1999-12-20 | 2002-08-06 | Servo-Robot Inc. | Robot feature tracking devices and methods |
JP3733364B2 (ja) * | 2003-11-18 | 2006-01-11 | ファナック株式会社 | 教示位置修正方法 |
JP4960589B2 (ja) * | 2004-12-08 | 2012-06-27 | 川崎重工業株式会社 | ロボット制御装置およびロボット制御方法 |
JP2006289531A (ja) * | 2005-04-07 | 2006-10-26 | Seiko Epson Corp | ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム |
JP4171488B2 (ja) * | 2005-12-16 | 2008-10-22 | ファナック株式会社 | オフラインプログラミング装置 |
-
2010
- 2010-02-10 JP JP2010550536A patent/JP5436460B2/ja active Active
- 2010-02-10 DE DE112010000775.6T patent/DE112010000775B4/de not_active Expired - Fee Related
- 2010-02-10 KR KR1020117018727A patent/KR101255948B1/ko active IP Right Grant
- 2010-02-10 CN CN201080007473.4A patent/CN102317044B/zh not_active Expired - Fee Related
- 2010-02-10 US US13/147,415 patent/US9393691B2/en active Active
- 2010-02-10 WO PCT/JP2010/051962 patent/WO2010092981A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03116304A (ja) * | 1989-09-29 | 1991-05-17 | Mazda Motor Corp | 生産ライン故障復帰装置 |
JPH0577142A (ja) * | 1991-09-18 | 1993-03-30 | Mazda Motor Corp | 生産設備の復帰方法およびその装置 |
JPH06190692A (ja) * | 1992-12-28 | 1994-07-12 | Mazda Motor Corp | 生産設備の復帰装置 |
JPH0847880A (ja) * | 1994-08-02 | 1996-02-20 | Komatsu Ltd | 異常復帰装置 |
JP2007515305A (ja) * | 2003-12-22 | 2007-06-14 | エービービー・エーエス | ロボット設備のためのコントロール方法、デバイス及びシステム |
JP2006012074A (ja) * | 2004-06-29 | 2006-01-12 | Fanuc Ltd | ロボットの待機位置復帰プログラム作成装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019500226A (ja) * | 2015-12-30 | 2019-01-10 | フランカ エミカ ゲーエムベーハーFRANKA EMIKA GmbH | ロボットおよびロボット操作方法 |
Also Published As
Publication number | Publication date |
---|---|
JP5436460B2 (ja) | 2014-03-05 |
CN102317044A (zh) | 2012-01-11 |
US9393691B2 (en) | 2016-07-19 |
DE112010000775T5 (de) | 2013-03-28 |
DE112010000775B4 (de) | 2016-03-17 |
KR101255948B1 (ko) | 2013-04-23 |
CN102317044B (zh) | 2014-03-26 |
US20110288667A1 (en) | 2011-11-24 |
WO2010092981A1 (ja) | 2010-08-19 |
KR20110114651A (ko) | 2011-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5436460B2 (ja) | 産業用ロボットシステム | |
US9387589B2 (en) | Visual debugging of robotic tasks | |
Ostanin et al. | Human-robot interaction for robotic manipulator programming in Mixed Reality | |
Pichler et al. | Towards shared autonomy for robotic tasks in manufacturing | |
Li et al. | A flexible manufacturing assembly system with deep reinforcement learning | |
JP7460366B2 (ja) | 訓練データ選別装置、ロボットシステム及び訓練データ選別方法 | |
US11826913B2 (en) | Control system, robot system and control method | |
Pedersen et al. | Gesture-based extraction of robot skill parameters for intuitive robot programming | |
Rückert et al. | Augmented Reality for teaching collaborative robots based on a physical simulation | |
Kato et al. | Predicting positioning error and finding features for large industrial robots based on Deep Learning | |
Chryssolouris et al. | Artificial intelligence in manufacturing equipment, automation, and robots | |
Wang et al. | Automatic high-level motion sequencing methods for enabling multi-tasking construction robots | |
WO2021049028A1 (ja) | 数値制御装置、および機械学習装置 | |
Weng et al. | Quantitative assessment at task-level for performance of robotic configurations and task plans | |
Luczak et al. | Development of error-compensating UI for autonomous production cells | |
Anagnostakis et al. | A virtual cmm inspection tool for capturing planning strategies | |
Khalil et al. | Robotic interaction with deformable objects under vision and tactile guidance-a review | |
Protic et al. | Development of a novel control approach for collaborative robotics in i4 intelligent flexible assembling cells | |
RU2813444C1 (ru) | Система взаимодействия человек-робот на основе смешанной реальности | |
Kirkpatrick | Digital Twins in Advanced Manufacturing to Enhance Manufacturing Efficiency | |
Vergara et al. | Expediting the Deployment of Industrial Robotic Applications by Learning from Operators Part 1: Generating reactive approach motions using generalized trajectories from demonstrations | |
Verma | Design and Control of Advanced Robotic Systems for Manufacturing and Assembly | |
Deiterding et al. | Automatic adaptation of sensor-based robots | |
Delledonne et al. | Optimizing parameters of robotic task-oriented programming via a multiphysics simulation | |
Zia et al. | Formal Modeling and Verification of Industrial Robotic Arm-A Case Study |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121127 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130716 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5436460 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |