JP2020529932A - 少なくとも1つの作業ステップを実行するためのハンドリング装置を有するハンドリングアセンブリ、方法及びコンピュータプログラム - Google Patents

少なくとも1つの作業ステップを実行するためのハンドリング装置を有するハンドリングアセンブリ、方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2020529932A
JP2020529932A JP2020506798A JP2020506798A JP2020529932A JP 2020529932 A JP2020529932 A JP 2020529932A JP 2020506798 A JP2020506798 A JP 2020506798A JP 2020506798 A JP2020506798 A JP 2020506798A JP 2020529932 A JP2020529932 A JP 2020529932A
Authority
JP
Japan
Prior art keywords
station
module
handling
handling assembly
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020506798A
Other languages
English (en)
Inventor
シュライヒ ペーター
シュライヒ ペーター
クンツ ディーター
クンツ ディーター
ホーフェレ イェンス
ホーフェレ イェンス
プファイファー−シェーア コリンナ
プファイファー−シェーア コリンナ
クノル クリスティアン
クノル クリスティアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2020529932A publication Critical patent/JP2020529932A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39441Voice command, camera detects object, grasp, move
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40097Select stations with mouse to create process steps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40099Graphical user interface for robotics, visual robot user interface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40323Modeling robot environment for sensor based robot system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40392Programming, visual robot programming language
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global

Abstract

ハンドリングアセンブリ(1)であって、前記ハンドリングアセンブリ(1)は、ハンドリング装置(2)を有し、前記ハンドリング装置(2)は、当該ハンドリング装置(2)の作業領域(3)内の被加工物(6)に関する及び/又は被加工物(6)における少なくとも1つの作業ステップを実行するために使用され、前記作業領域(3)内には、ステーション(5,5a〜5f)が配置されており、前記ハンドリングアセンブリ(1)は、前記作業領域(3)を光学的に監視して、監視データとして提供するための少なくとも1つの監視センサ(7)を有し、前記ハンドリングアセンブリ(1)は、位置特定モジュール(9)を有し、当該位置特定モジュール(9)は、ステーション(5,5a〜5f)を識別し、前記ステーション(5,5a〜5f)に対してそれぞれ1つのステーション位置(11)を特定するように構成されている。

Description

ハンドリングアセンブリであって、当該ハンドリングアセンブリは、ハンドリング装置を有し、ハンドリング装置は、当該ハンドリング装置の作業領域内の被加工物に関する及び/又は被加工物における少なくとも1つの作業ステップを実行するために使用され、作業領域内には、ステーションが配置されており、当該ハンドリングアセンブリは、作業領域を光学的に監視して、監視データとして提供するための少なくとも1つの監視センサを有する、ハンドリングアセンブリが提案される。さらに、方法と、対応するコンピュータプログラムとが提案される。
産業的な製造の際には、例えば産業用ロボットのようなハンドリング装置がしばしば使用される。産業用ロボットのプログラムは、ロボットが時間的及び/又は論理的なシーケンスで巡回する空間点の空間的な姿勢及び方向性を設定する。複数のスイッチング信号を位置に依存して連鎖させることにより、例えばグリッパ、溶接バーナ、ディスペンサなどのツールが制御され、このようにして、ロボットを用いた種々の用途を提示することができる。
ハンドリング装置のための現在公知の学習方法は、特にオンラインプログラミングと、オフラインプログラミングとに大まかに分類することができる。
オンラインプログラミングは、ハンドリング装置が手動操作機器によって手動で目標位置へと移動され、到達後にこの目標位置が制御装置に保存されることを特徴としている。これに代わる形態においては、一部のロボット運動学は、アームを無力に切り替えて、このアームを直接的に誘導することにより空間点を学習するという手段を提供する。フローシーケンスの設定は、特にソースコードのプログラミングによって実施される。
オフラインプログラミングは、ハンドリング装置の構造モデル、例えばCADモデルと、製造環境全体の構造モデル、例えばCADモデルが格納されていることを特徴としている。オンラインプログラミングと同様に、シミュレーション環境において、オンラインプログラミングのメカニズムが仮想的に実行され、又は、移動点がCADモデルから直接的に導出される。
おそらく最も近い従来技術である独国特許出願公開第102016002781号明細書は、少なくとも1つのロボットによって少なくとも1つの作業工程を実行するための作業ステーションに関するものであり、このロボットは、相互に相対的に可動である関節式に相互接続された複数のロボット軸を有し、床接触要素と、少なくとも1つの作業プレートとを有する運搬車が設けられており、運搬車は、床接触要素を介して床に沿って移動可能であり、作業プレートは、複数の固定要素を有し、これらの固定要素によってロボットを、作業プレートの種々異なる位置に固定可能となっている。
独国特許出願公開第102016002781号明細書
発明の開示
本発明の枠内においては、請求項1の特徴を有する、少なくとも1つの作業ステップを実行するためのハンドリング装置を有するハンドリングアセンブリが提案される。さらに、請求項14の特徴を有する、作業ステップを実行するための方法と、請求項15の特徴を有する、方法を実施するためのコンピュータプログラムとが提案される。本発明の好ましい実施形態及び/又は有利な実施形態は、従属請求項、以下の説明及び添付の図面から明らかになる。
本発明によれば、ハンドリングアセンブリであって、前記ハンドリングアセンブリは、ハンドリング装置を有し、前記ハンドリング装置は、当該ハンドリング装置の作業領域内の被加工物に関する及び/又は被加工物における少なくとも1つの作業ステップを実行するために使用される、ハンドリングアセンブリが提案される。前記ハンドリングアセンブリは、少なくとも1つ又は複数のハンドリング装置を含む。特に、ハンドリング装置は、作業領域内に静止して配置されているが、これに代わる形態においては、ハンドリング装置は、作業領域内で可搬的に移動可能である。ハンドリング装置は、特にロボットである。ハンドリング装置は、特にマルチアームロボット、例えば2アームロボット又は3アームロボットである。ハンドリング装置が、多軸ロボットであることが特に好ましく、多軸ロボットは、好ましくは少なくとも3つの軸を有し、及び/又は、これらの軸を中心にして回転可能及び/又は移動可能である。任意選択的に、ハンドリング装置は、例えば協調ロボット及び/又は協働ロボットである。ハンドリング装置は、例えば、作業ステップを実行するための他の、特に同種のハンドリング装置と協働するように構成されており、及び/又は、作業ステップを実行するために人と協働するように構成されている。
ハンドリング装置は、特に、作業領域内において作業ステップを実行するように構成されている。作業領域は、例えば製造現場又は生産区域である。作業領域は、好ましくは3次元の空間領域である。ハンドリング装置が、作業領域内に配置されていることが特に好ましい。
被加工物は、例えば、加工されるべき構成部材及び/又は部品である。ハンドリング装置は、例えば、特にハンドリング装置及び/又はステーションの加工要素によって被加工物を把持及び/又は加工するように構成されている。例えば、ハンドリング装置は、被加工物を把持、加工、例えば穿孔、研削、溶接、及び/又は、載置するように構成されている。代替的及び/又は追加的に、ハンドリング装置は、複数の被加工物を、加工、組立及び/又は搬送するように構成されている。
ハンドリング装置の作業領域内には、少なくとも1つのステーションが配置されている。ステーションは、作業領域内に静止して配置されているが、これに代わる形態においては、ステーションは、作業領域内で可搬的に配置されている。ステーションは、特に、ハンドリング装置の作業領域の平面的及び/又は空間的な区域である。ステーションは、特にプロセスステーションであり、例えば被加工物を加工することができるステーションである。代替的及び/又は追加的に、ステーションは、被加工物が提供される場所、例えば未加工品を有するパレットであり、及び/又は、ステーションは、完成した被加工物を載置することができるステーション、例えばパレットである。例えば、ステーションは、被加工物ソースと被加工物シンクとに区別される。
ハンドリングアセンブリは、少なくとも1つの監視センサを含む。監視センサは、好ましくは静止して配置されているが、これに代わる形態においては、監視センサは、手で誘導されるか、ロボットによって誘導されるか、又は、そうでなければ、作業領域内で移動可能に配置されている。監視センサは、作業領域を光学的に監視するように構成されており、光学的な監視は、監視データとして提供される。監視センサは、好ましくは3Dセンサ、例えばステレオカメラである。監視センサは、好ましくは監視カメラ、例えばビデオカメラ又はスチールカメラである。監視カメラは、例えば白黒カメラ又はカラーカメラであり、特にCCDカメラ又はCMOSカメラである。監視データは、特に作業領域の光学的な監視の画像を含む。画像は、特に監視画像とも呼ばれる。ハンドリングアセンブリはさらに、複数の監視センサを有することが可能であり、これらの監視センサは、同一の区域を部分的に重なり合うように撮像するように配置及び構成されており、従って、複数の異なる監視センサの光学的な監視を組み合わせて、作業領域の1つの大域的な監視にすることが可能である。
ハンドリングアセンブリは、位置特定モジュールを含む。位置特定モジュールは、例えば、プロセッサモジュール、マイクロコントローラ又はコンピュータユニットである。特に、位置特定モジュールは、監視センサにデータ技術的に接続されており、位置特定モジュールに、監視データが提供されている。位置特定モジュールは、監視データをデータ技術的に評価及び/又は分析するように構成されている。
位置特定モジュールは、ステーションを識別するように構成されており、特に監視データに基づいて又は監視データ内において、ステーションを識別するように構成されている。特に、位置特定モジュールは、監視データ内において、例えば監視領域の監視画像内においてステーションを識別し、及び/又は、作業領域内におけるステーションが位置する場所に対応付けることができる。位置特定モジュールはさらに、監視データに基づいて、識別されたステーションに対してステーションの位置をステーション位置として特定するように構成されている。位置特定モジュールはさらに、ステーション内の被加工物の有無及び/又は位置も特定するように構成され得る。例えば、位置特定モジュールによって、ステーション内、特にパレット内又はネステナ内の被加工物の有無がチェックされ、ハンドリング装置は、好ましくは、被加工物が完全に充填されたものだけをハンドリングする。代替的及び/又は追加的に、位置特定モジュールは、ステーション内の被加工物の絶対位置及び/又は絶対姿勢を特定するように構成され得る。特に、ステーション位置の特定は、1ミリメートルよりも良好な精度での特定である。位置特定モジュールは、特に、ステーションを恒常的及び/又は周期的に識別するように構成されており、及び/又は、ステーション位置を恒常的及び/又は周期的に特定するように構成されている。例えば、位置特定モジュールは、作業ステップの間にステーション位置を少なくとも5回は特定するように構成されている。
本発明の着想は、ハンドリング装置、特にマルチアームロボットを省時間で学習させ及び/又は初期化し、特に専門家を省略することができるような、ハンドリング装置を有するハンドリングアセンブリを提供することである。特に、本発明の着想は、4つ以上の軸を有する多軸ロボットの迅速な初期化を可能にするハンドリングアセンブリを提供することである。特に、3Dセンサを使用して作業領域内のステーションをほぼ自動的に識別することができ、それをハンドリング装置が実行することができるようにすることによって、このことが可能となる。
本発明の可能な1つの実施形態においては、位置特定モジュールは、トレーニングデータを有する学習モジュールを含む。特に、トレーニングデータは、学習モジュールに提供可能であり及び/又は学習モジュールに格納可能である。トレーニングデータは、好ましくは画像データである。トレーニングデータは、例えば、通常の幾何形状、形態及び/又は寸法を有するステーションを認識することができる画像である。学習モジュールは、トレーニングデータに基づいて、ステーションを検出するための識別特徴を決定するように構成されている。例えば、識別特徴は、ステーションの幾何形状、寸法、形態、構造、コントラスト、及び/又は、他の特性である。ステーション識別データは、識別特徴を含む。ステーション識別データは、特に、作業領域の監視データ及び/又は光学的な監視においてどのようにしてステーションを発見及び/又は検出することができるかに関する情報を含む。位置特定モジュールは、ステーション識別データに基づいて、ステーションを識別するように構成されている。識別特徴は、監視データ内における、即ち、作業領域の画像及び/又は作業領域のモデルにおけるそれぞれの要素を分類するために、特に有用である。
学習モジュールは、好ましくは、機械学習に基づいて識別特徴を特定するように構成されている。例えば、学習モジュールは、ニューラルネットワークとして構成されている。代替的及び/又は追加的に、学習モジュールは、教師あり学習によって、部分的教師あり学習によって、教師なし学習によって、及び/又は、強化学習によって、トレーニングデータから識別特徴を抽出するように構成されている。この実施形態は、種々異なる作業領域内においてステーションを識別する、全般的に使用可能なハンドリングアセンブリを提供するという着想に基づいている。
任意選択的に、ハンドリングアセンブリは、モデル生成モジュールを含む。モデル生成モジュールは、作業領域のモデルを生成するように構成されている。作業領域のモデルは、特に3Dモデルである。作業領域のモデルは、好ましくはCADモデルである。特に、モデルは、センサによって生成されたモデルであり、及び/又は、監視データに基づいたモデルである。作業領域のモデルは、特に作業領域内のステーションの位置及び/又はハンドリング装置の位置を含む。
ハンドリングアセンブリは、モデルを表示するための表示ユニットを含む。表示ユニットは、例えばモニタ、特にタッチスクリーンモニタであり、これによってユーザは、データを入力すること、及び/又は、物事を選択することが可能である。表示ユニットは、モデルを図表的及び/又は画像的に、2次元又は3次元で表示するように構成されている。
任意選択的に、ユーザにより、表示されたモデルにおいて追加的な識別特徴として区域を選択可能である。例えば、ユーザは、モデルにおいて自身がステーションとして識別及び/又は認識している領域及び/又は区域を選択することができる。選択された追加特徴は、プロセス識別データに含まれている。特に、ユーザは、例えば、識別されたステーションが完全には検出及び/又は識別されていない場合に、この識別されたステーションを拡張することもできる。この実施形態は、追加情報及び/又は未識別のステーションを、ユーザによってハンドリングアセンブリに通知する及び/又は学習させるという着想に基づいている。
本発明の実施形態によれば、ハンドリングアセンブリは、制御モジュールを含む。制御モジュールは、特に、コンピュータユニット、プロセッサ又はマイクロコントローラである。制御モジュールは、1つ又は複数のステーション位置に基づいて作業ステップを実行するように、ハンドリング装置を制御するように構成されている。特に、制御モジュールは、ステーション位置に基づいて厳密に1つの作業ステップ及び/又は複数の作業ステップを実行するように、ハンドリング装置を制御するように構成されている。例えば、制御モジュールは、被加工物を第1のステーション位置から第2のステーション位置に移動及び/又は搬送するように、ハンドリング装置を制御するように構成されている。特に、作業ステップは、第1のステーション位置を有する第1のステーションにおいて開始され、第2のステーション位置を有する第2のステーションにおいて終了するプロセスである。さらに、第1のステーションと第2のステーションとの間に、さらなるステーション位置を有するさらなるステーションを立ち上げること及び/又は組み込むことも可能であろう。この実施形態は、プロセスを独立して計画することができるハンドリングアセンブリを提供するという着想に基づいており、なお、この計画は、位置特定モジュールによって特定されたステーション位置に基づいている。
ハンドリングアセンブリは、好ましくはタスク定義モジュールを含む。タスク定義モジュールは、コンピュータユニット、プロセッサ又はマイクロコントローラである。特に、タスク定義モジュールを、制御モジュールの一部とすることができる。タスク定義モジュールは、ユーザによって作業ステップを選択及び/又は定義することができるように構成されており、作業ステップを、特に意味論的に、定義及び/又は選択することができるように構成されている。代替的及び/又は追加的に、所定及び/又は上記の表示ユニット上における視覚的表現を用いて作業ステップを選択及び/又は定義することが可能である。特に、第1のステーションを定義して、第2のステーションを定義及び/又は設定するなどのように、開始状態及び目標状態を記述及び/又は設定することによって、作業ステップの定義及び/又は選択が実施される。例えば、作業ステップのこの定義は、被加工物ソース及び被加工物シンクを選択することによって実施され、この場合、被加工物ソースにはある1つのステーションが対応付けられ、被加工物シンクにはまた他のステーションが対応付けられる。ユーザによる選択及び/又は定義は、特に、例えば、「全ての被加工物をパレットAからパレットBにセットする」などの純粋なテキスト形式により実施することができる。好ましくは、第1のステーションを、表示ユニット上において視覚的に選択することができ、特に、第2のステーションも、表示ユニット上において選択することができる。この実施形態は、プロセス及び/又は作業ステップを設定するためにソフトウェアの専門家が必要とされないハンドリングアセンブリを提供するという着想に基づいている。
作業ステップが、定義されるべき少なくとも2つのパラメータを有することが特に好ましい。特に、作業ステップは、定義されるべき厳密に2つのパラメータを有するが、これに代わる形態においては、作業ステップは、定義されるべき複数のパラメータを有する。定義されるべき2つのパラメータは、開始位置及び終了位置を含む。特に、ユーザにより、表示されたモデルにおいてステーションのうちの1つを開始位置として選択可能であり、表示されたモデルにおいて他のステーション及び/又は同一のステーションを終了位置として選択可能である。特に、作業ステップは、定義されるべき2つのパラメータによって開始位置において開始され、終了位置において終了する。
任意選択的に、作業ステップの完了後、被加工物は、終了姿勢にある。特に、終了姿勢は、3次元空間内の所定の点として定義されており、この点における被加工物に、特に例えばオイラー角を用いて角度姿勢を対応付けることが可能である。特に、終了姿勢は、ユーザによってタスク定義モジュールを用いて選択可能である。例えばユーザは、タスク定義モジュールにおいて座標及び角度姿勢の形態で、特に視覚的に、姿勢を設定及び/又は選択することができる。好ましくは、タスク計画モジュールは、被加工物の載置場所を、監視データに基づいて、例えばフィッティングアルゴリズムに基づいて決定するように構成されている。特に、フィッティングアルゴリズムが、複数の載置場所の可能性を特定した場合には、ユーザが、優先すべき載置場所を選択することができる。
ハンドリングアセンブリが、セキュリティモジュールを含むことが特に好ましい。セキュリティモジュールは、好ましくは、コンピュータユニット、プロセッサ又はマイクロチップである。セキュリティモジュールは、作業ステップ中に監視データを引き継ぐために監視センサにデータ技術的に接続されている。特に、セキュリティモジュールは、監視センサの監視データを周期的に、例えば1秒ごとに又は10秒ごとに受信する。セキュリティモジュールは、監視領域内での変化に基づいてハンドリング装置を制御するように構成されている。例えば、セキュリティモジュールは、ハンドリング装置の作業領域内のステーションの配置が変化した場合にこれに応答するように構成されており、例えば、このためにセキュリティモジュールは、ステーション位置を新たに特定するように、位置特定モジュールを制御する。
代替的及び/又は追加的に、セキュリティモジュールは、ハンドリング装置の作業領域内に人がいることを識別するように構成されており、特に、セキュリティモジュールは、人に対する負傷の危険性が存在するかどうかを識別し、人が検出された場合、及び/又は、人に対する負傷の危険性が存在する場合に、ハンドリング装置を停止するように構成されている。さらに、セキュリティモジュールは、ハンドリング装置の作業領域から人が離れたときに作業ステップを再開及び/又は継続するように、ハンドリング装置を制御するように構成され得る。この実施形態は、特に安全なハンドリングアセンブリを提供するという着想に基づいている。
本発明の1つの実施形態においては、ハンドリングアセンブリは、経路計画モジュールを含む。経路計画モジュールは、コンピュータユニット、プロセッサ又はマイクロチップである。経路計画モジュールは、ハンドリング装置及び/又は被加工物の軌道を決定するように構成されており、なお、軌道とは、作業ステップの実行時における被加工物の空間時間的な経路である。特に、経路計画モジュールは、ハンドリング装置及び/又は被加工物の軌道を、衝突がないように決定するように構成されており、なお、衝突がないようにとは、特にハンドリング装置の作業領域内のハンドリング装置及び/又は物体と被加工物との衝突を回避することに関する。代替的及び/又は追加的に、経路計画モジュールは、ハンドリング装置の第1のアームと第2のアームとの間の衝突を防止するように構成される。特に、ハンドリング装置の軌道は、ステーション位置に基づいて、及び/又は、監視センサの監視データに基づいて、経路計画モジュールによって決定される。
ハンドリングアセンブリが、テストモジュールを含むことが特に好ましい。テストモジュールは、特にルールを有する。ルールは、特にユーザによって設定可能であり、及び/又は、テストモジュールに格納可能である。ルールは、例えば被加工物及び/又はステーションの特性を含む。例えば、ある1つのルールは、「被加工物をこの位置又はその位置で傾けない」であり得る。ルールのさらなる例は、例えば「被加工物が水平でない場合には下へ置かない」又は「被加工物の蓋を取り外して初めて被加工物を加工する」である。テストモジュールは、ルールの充足に基づいて作業ステップを実行及び/又は中止するように、ハンドリング装置を制御するように構成されている。例えば、テストモジュールは、ルールが充足されていない場合に作業ステップ及び/又はハンドリング装置を停止するように構成されている。
本発明の特に好ましい実施形態によれば、ハンドリングアセンブリは、作業領域の1つの区域又は全体を高解像するための追加的なセンサを含む。追加的なセンサは、例えば、検知器、カメラ又はレーザスキャナである。追加的なセンサを、作業領域内に空間的に固定して配置することができるが、これに代わる形態においては、追加的なセンサは、ハンドリング装置に共に搭載される追加的なセンサである。特に、追加的なセンサは、高解像度データを提供するように構成されており、高解像度データは、追加的なセンサによる区域の高解像を含む。ハンドリングアセンブリは、ステーション位置、高解像度データ、ステーション識別データ、及び/又は、センサデータに基づいて、ステーションの位置をより精確に特定するための高精度位置特定モジュールを含む。例えば、追加的なセンサは、ハンドリング装置に共に搭載される追加的なセンサであり、追加的なセンサによる高解像のために、ハンドリング装置によって対応する領域内が巡回され、追加的なセンサによってこの領域が記録及び/又は測定され、高精度位置特定モジュールによってこの領域がより精確に解像される。この実施形態は、ハンドリングアセンブリにおいて区域をより精確に定義するための省データの手段を提供するという着想に基づいている。
本発明のさらなる対象を提供するのは、ハンドリング装置によって少なくとも1つの作業ステップを実行するための方法である。監視センサによって、ハンドリング装置の作業領域が光学的に監視される。監視センサは、監視データとして光学的な監視を提供する。監視データと、格納されているステーション識別データとに基づいて、作業領域内のステーションが検出及び/又は識別され、識別されたステーションに対して位置がステーション位置として特定される。
本発明のさらなる対象を提供するのは、コンピュータ及び/又はハンドリングアセンブリにおいてプログラムが実行されると、本方法の全てのステップを実行するための、プログラムコード手段を有するコンピュータプログラムである。
本発明のさらなる特徴、利点及び効果は、本発明の好ましい実施例の以下の説明から明らかになる。
ハンドリングアセンブリの1つの実施例の概略図である。 図2a及び2bは、図1のハンドリングアセンブリの表示ユニットの概略図である。 ハンドリングアセンブリによって作業ステップを実行するための方法の1つの実施例に関するフローチャートである。
図1は、ハンドリングアセンブリ1の概略図を示す。ハンドリングアセンブリ1は、ハンドリング装置2を含む。ハンドリング装置2は、作業領域3内に配置されている。ハンドリング装置2は、多軸ロボットとして構成されており、特に、少なくとも3つの軸を中心にして移動可能及び/又は旋回可能である。ハンドリング装置2は、グリッパ4を有する。グリッパ4は、ハンドリング装置2によって作業領域3内で移動可能である。特に、グリッパ4は、作業領域3内で3次元的に移動可能である。作業領域3は、例えば、製造工場、生産区域、及び/又は、工場ホール区域である。
作業領域3内には、複数のステーション5が配置されている。ステーション5は、例えば被加工物6のための載置場所である。例えば、ある1つのステーション5を、被加工物ソースとして捉えることができ、また他のステーション5を、被加工物シンクとして捉えることができる。ある1つのステーション5は、例えばパレットであり、このパレットの上に被加工物が配置されており、及び/又は、このパレットの上に被加工物を配置可能である。ステーション5は、好ましくは作業領域3内の固定された場所に配置されているが、これに代わる形態においては、ステーション5は、ハンドリング装置2の作業領域3内で変位可能及び/又は移動可動である。
ハンドリング装置2は、所定の作業ステップを実行するように構成されている。作業ステップは、例えば「グリッパ4によって第1のステーション5内の被加工物6を把持し、この被加工物6を他のステーション5に搬送して、そこに載置する」ことであり得る。ハンドリング装置2はさらに、例えば、グリッパ4によって被加工物6を把持する、例えばドリルによって被加工物6を加工するなどの、多数の作業ステップを実行することができる。
ハンドリングアセンブリ1は、2つの監視センサ7を含む。監視センサ7は、監視カメラとして構成されている。監視センサ7は、作業領域3を光学的に監視するように構成されている。このために監視センサ7は、作業領域3を監視画像の形態で記録する。監視センサ7は、監視データを提供するように構成されており、監視データは、特に監視画像を含む。特に、監視センサ7は、複数の監視画像が1つの重なり合い領域を有するように配置されており、この重なり合い領域は、作業領域3の1つの共通領域を示すものである。監視センサ7がステレオカメラであり、これらのステレオカメラが作業領域3の1つの3次元画像を作成することが特に好ましい。監視データは、中央評価ユニット8に提供されている。
中央評価ユニット8は、例えばコンピュータユニットとして構成されている。中央評価ユニット8を、例えばサーバルームに分散して配置することができるが、これに代わる形態においては、評価ユニット8は、例えばハンドリング装置2に組み込まれた中央評価ユニット8である。
中央評価ユニット8は、位置特定モジュール9を含む。位置特定モジュール9には、監視データが提供されている。位置特定モジュール9は、ステーション識別データ10を含む。ステーション識別データ10は、特に、監視データ内及び/又は監視画像内においてステーションを推定することができるようにする情報及び/又は特徴を含む。例えば、ステーション識別データ10は、監視データ内及び/又は監視画像内におけるステーション5の幾何形状、輪郭、コントラスト及び/又は構造に関する情報を有する。位置特定モジュール9は、監視データと、ステーション識別データ10とに基づいてステーションを識別し、これに基づいて、識別されたステーションに対してステーション位置11を特定するように構成されている。ステーション位置11は、特に3次元空間内の座標であり、作業領域3内及び/又は監視画像内におけるステーション5の位置を表している。ステーション位置11はさらに、姿勢に関する情報、例えば角度姿勢に関する情報も有することができる。
中央評価ユニット8は、モデル生成モジュール12を含む。モデル生成モジュール12は、提供されたステーション位置11と監視データとを受信する。モデル生成モジュール12は、監視データとステーション位置11とに基づいて、ステーション5とハンドリング装置2とが含まれた作業領域3のモデル13を生成するように構成されている。モデル13は、3次元モデルである。好ましくは、モデル13は、ステーション5とハンドリング装置2とが含まれた作業領域3のCADモデルである。モデル13においてステーション5及び/又はハンドリング装置2の姿勢及び/又は位置を記述するために、モデル生成モジュール12は、補助座標系14を含むことができる。
中央評価ユニット8は、タスク定義モジュール15を有する。タスク定義モジュール15は、作業領域3内のハンドリング装置2によって被加工物6に対して実行すべき作業ステップを定義及び/又は選択するように構成されている。特に、タスク定義モジュール15は、ユーザがタスク及び/又は作業ステップを意味論に基づいてより詳細に定義及び/又は選択することが可能となるように構成されている。例えば、このためにタスク定義モジュール15は、例えば、「把持する」、「持ち上げる」又は「搬送する」などの意味論的フレーズ16を含む。ユーザは、ステーション位置11を設定及び/又は入力することにより、これらの意味論的フレーズ16を定義及び/又は連結することができる。ユーザはさらに、終了姿勢17を決定することにより、タスク及び/又は意味論的フレーズ16を完全なものにすることもできる。終了姿勢17は、載置位置を決定するために座標に加えて、空間内での姿勢に関する情報、例えば3つのオイラー角に関する情報も含む。これに代わる形態においては、タスク定義モジュール15によってユーザが、視覚的な選択肢及び/又は視覚的なマーキングを用いてタスク及び/又は作業ステップを定義及び/又は選択することが可能となるようにすることができる。
中央評価ユニット8は、経路計画モジュール18を含む。経路計画モジュール18は、タスク、作業ステップ及び/又はステーション位置11に基づいて軌道X(t)を計画するように構成されており、なお、この軌道X(t)は、作業ステップ中における被加工物6の経路−時間の推移を記述したものである。経路計画モジュール18はさらに、軌道X(t)同士が衝突しないように、即ち、被加工物6とハンドリング装置2との衝突及び/又は被加工物6と作業領域3内の物体との衝突が発生しないように、軌道X(t)を決定するように構成されている。
中央評価ユニット8はさらに、制御モジュールを含み、制御モジュールは、作業ステップを実行するように、ハンドリング装置2を制御するように構成されている。例えば、制御モジュールは、ハンドリング装置2がグリッパ4によって被加工物6を把持して、軌道X(t)に沿って搬送するように、ハンドリング装置2を制御する。
図2aは、表示ユニットの概観図を示し、ここには作業領域3のモデル13が表示される。モデル13は、4つのステーション5a,5b,5c及び5dを含む。ステーション5a,5c及び5dは、被加工物シンクを形成しており、ステーション5bは、被加工物ソースを形成している。このモデルを使用して定義及び/又は選択される作業ステップは、被加工物をベースにした作業ステップである。作業ステップは、3つのプロセス19a,19b及び19cを含む。プロセス19a,19b及び19cは、ハンドリング装置2の単一のアームによって実行可能なプロセスを表している。プロセス19aは、例えば、「ステーション5bから被加工物6を把持して、ステーション5aに載置する」として定義されている。プロセス19bは、例えば、「ステーション5bにおいてオブジェクト6を把持し、ステーション5bへと搬送して、そこに載置する」として定義されている。プロセス19cは、例えば、「被加工物6を把持して、ステーション5cに載置する」として定義されている。例えば、ユーザがある1つのステーション5の被加工物6を他のステーション5へとドラッグすることによって、作業ステップを定義可能であり、この場合には、この作業ステップは、第1のステーションから第2のステーションへの被加工物の搬送に相当する。
図2bも、作業領域3のモデル13を示し、このモデル13は、被加工物ソースとしてステーション5a,5b及び5eを含む。モデル13は、被加工物シンクとしてステーション5c,5d及び5fを含む。このモデルによって定義及び/又は選択された作業ステップは、パレットをベースにした作業ステップである。このことはつまり、特にこのステップが、被加工物6を搬送及び/又は加工するのではなく、被加工物パレット全体を搬送及び/又は加工するということを意味している。特に、作業ステップを実行するためのプロセス19a,19b及び19cは、ハンドリング装置2の2つのアームによって実行されるべきプロセスである。例えば、プロセス19aは、被加工物6のパレットをステーション5aからステーション5cに搬送するように構成されている。例えば、プロセス19bは、パレットをステーション5bからステーション5fに搬送するように定義されている。プロセス19cは、被加工物6のパレットをステーション5dからステーション5eに搬送するように構成されている。特に、このモデル13は、複数のステーションがそれぞれ異なる形状及び/又は寸法を有する可能性があることも示しており、ここでは、ステーション5dは、正方形であり、長方形のステーション5aよりも格段に小さい。
図3は、ハンドリング装置2によって作業ステップを実行するための方法のフローチャートを示す。学習ステップ100においては、ハンドリングアセンブリ1及び/又は位置特定モジュール9に多数のトレーニングデータが提供される。トレーニングデータは、例えば、複数のステーション5が含まれた作業領域3を示す画像を含む。位置特定モジュール9は、学習モジュールを含み、学習ステップ100においては、学習モジュールによって、監視データ内においてステーションを検出するための識別特徴が、トレーニングデータから抽出される。これらの識別特徴は、ステーション識別データ10に提供される。特に、このステップにおいては、ステーションを識別するための分類及び/又は構造が取得される。このステップは、例えばニューラルネットワークによって実施することができる。学習ステップ100の後には、位置特定ステップ200が後続する。位置特定ステップ200においては、監視データに基づいて1つ及び/又は複数のステーション5のステーション位置11が定義される。この際には、例えば監視データ及び/又は監視画像が、ステーション5を示唆する構造及び/又は特徴について検査される。発見されたステーション5に基づいて、ステーション5の位置及び/又は姿勢がステーション位置11として特定される。
タスク定義ステップ300においては、人によってタスクが定義される。特に、タスクは、意味論的及び/又は視覚的な選択肢に基づいて人によって定義及び/又は選択される。例えば、このためにユーザは、既成のタスクの集合から、例えば「被加工物を搬送して、穿孔する」を選択することができる。これらの選択されたタスクは、特にステーション位置11を用いてより詳細に、例えば、「ステーション位置11にあるステーション5の被加工物を把持して、この被加工物6を穿孔する」などと定義することができる。
計画ステップ400においては、定義されたタスクとステーション位置とに基づいて、作業ステップが計画されると共に、軌道X(t)が決定される。なお、この軌道は、作業領域3内における被加工物と物体との衝突が発生しない軌道である。ハンドリング装置2は、この軌道X(t)に基づいて、作業ステップを実行するように制御される。

Claims (15)

  1. ハンドリングアセンブリ(1)であって、
    前記ハンドリングアセンブリ(1)は、ハンドリング装置(2)を備えており、前記ハンドリング装置(2)は、当該ハンドリング装置(2)の作業領域(3)内の被加工物(6)に関する及び/又は被加工物(6)における少なくとも1つの作業ステップを実行するために使用され、
    前記作業領域(3)内には、ステーション(5,5a〜5f)が配置されており、
    前記ハンドリングアセンブリ(1)は、前記作業領域(3)を光学的に監視して、監視データとして提供するための少なくとも1つの監視センサ(7)を備えている、
    ハンドリングアセンブリ(1)において、
    位置特定モジュール(9)が設けられており、
    前記位置特定モジュール(9)は、前記ステーション(5,5a〜5f)を識別し、前記ステーション(5,5a〜5f)に対してそれぞれ1つのステーション位置(11)を特定するように構成されている
    ことを特徴とするハンドリングアセンブリ(1)。
  2. 前記位置特定モジュールは、トレーニングデータを有する学習モジュールを含み、
    前記学習モジュールは、前記トレーニングデータに基づいて、前記ステーション(5,5a〜5f)を検出するためのステーション識別データ(10)として識別特徴を決定するように構成されており、
    前記位置特定モジュール(9)は、前記ステーション識別データ(10)に基づいて、前記ステーション(5,5a〜5f)を識別するように構成されている、
    請求項1に記載のハンドリングアセンブリ(1)。
  3. 前記作業領域(3)のモデル(13)を生成するためのモデル生成モジュール(12)が設けられている、
    請求項1又は2に記載のハンドリングアセンブリ(1)。
  4. 前記モデル(13)を表示するための表示ユニットが設けられており、
    ユーザにより、表示された前記モデル(13)において追加的な識別特徴として区域を選択可能であり、前記ステーション識別データ(10)は、前記追加的な識別特徴を含む、
    請求項3に記載のハンドリングアセンブリ(1)。
  5. 制御モジュールが設けられており、
    前記制御モジュールは、前記ステーション位置(11)に基づいて前記作業ステップを実行するように、前記ハンドリング装置(2)を制御するように構成されている、
    請求項1乃至4のいずれか一項に記載のハンドリングアセンブリ(1)。
  6. タスク定義モジュール(15)が設けられており、
    前記タスク定義モジュール(15)は、前記作業ステップを、特に意味論的に、選択及び/又は定義するために使用される、
    請求項1乃至5のいずれか一項に記載のハンドリングアセンブリ(1)。
  7. 前記作業ステップは、定義されるべき少なくとも2つのパラメータを有し、
    前記2つのパラメータは、開始位置及び終了位置を含み、
    前記ユーザのために、表示された前記モデル(13)において前記ステーション(5,5a〜5f)のうちの1つを前記開始位置として選択可能であり、表示された前記モデル(13)において前記ステーション(5,5a〜5f)のうちの1つを前記終了位置として選択可能及び/又は設定可能である、
    請求項6に記載のハンドリングアセンブリ(1)。
  8. 前記作業ステップの完了後、前記被加工物(6)は、終了姿勢にあり、
    前記終了姿勢は、前記ユーザによって前記タスク定義モジュール(15)を用いて選択可能であり、及び/又は、前記監視データに基づいて決定されている、
    請求項6又は7に記載のハンドリングアセンブリ(1)。
  9. 経路計画モジュール(18)が設けられており、
    前記経路計画モジュール(18)は、前記作業ステップの実行時に、前記ハンドリング装置(2)及び/又は前記被加工物(6)の軌道(X(t))を決定するために使用される、
    請求項1乃至8のいずれか一項に記載のハンドリングアセンブリ(1)。
  10. セキュリティモジュールが設けられており、
    前記セキュリティモジュールは、前記作業ステップ中に前記監視データを引き継ぐために前記監視センサ(7)にデータ技術的に接続されており、前記作業領域(3)内での変化に基づいて前記ハンドリング装置を制御するように構成されている、
    請求項1乃至9のいずれか一項に記載のハンドリングアセンブリ(1)。
  11. テストモジュールが設けられており、
    前記テストモジュールは、ルールを有し、前記ルールの充足に基づいて前記作業ステップを実行及び/又は中止するように、前記ハンドリング装置(2)を制御するように構成されている、
    請求項1乃至10のいずれか一項に記載のハンドリングアセンブリ(1)。
  12. 前記作業領域の1つの区域を高解像して高解像度データとして提供するための追加的なセンサが設けられており、
    前記ステーション位置(11)、前記高解像度データ、前記ステーション識別データ(10)及び/又は前記センサデータに基づいて、前記ステーション(5,5a〜5f)の位置をより精確に特定するための高精度位置特定モジュールが設けられている、
    請求項1乃至11のいずれか一項に記載のハンドリングアセンブリ(1)。
  13. 前記追加的なセンサは、前記ハンドリング装置(2)に搭載されている、
    請求項12に記載のハンドリングアセンブリ(1)。
  14. 特に請求項1乃至13のいずれか一項に記載のハンドリングアセンブリによってハンドリング装置(2)を動作させるための方法において、
    監視センサ(7)によって、前記ハンドリング装置(2)の作業領域(3)を光学的に監視し、
    前記監視センサ(7)は、前記作業領域(3)の監視データを提供し、
    前記監視データに基づいて、前記作業領域(3)内のステーション(5,5a〜5f)を検出及び/又は識別し、
    識別されたステーション(5,5a〜5f)に対してステーション位置(11)を特定する
    ことを特徴とする方法。
  15. プログラムコード手段を有するコンピュータプログラムにおいて、
    コンピュータ及び/又は請求項1乃至13のいずれか一項に記載のハンドリングアセンブリ(1)において当該プログラムが実行されると、請求項14に記載の方法の全てのステップが実行される
    ことを特徴とするコンピュータプログラム。
JP2020506798A 2017-08-07 2018-06-18 少なくとも1つの作業ステップを実行するためのハンドリング装置を有するハンドリングアセンブリ、方法及びコンピュータプログラム Pending JP2020529932A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102017213658.8A DE102017213658A1 (de) 2017-08-07 2017-08-07 Handhabungsanordnung mit einer Handhabungseinrichtung zur Durchführung mindestens eines Arbeitsschritts sowie Verfahren und Computerprogramm
DE102017213658.8 2017-08-07
PCT/EP2018/066083 WO2019029878A1 (de) 2017-08-07 2018-06-18 Handhabungsanordnung mit einer handhabungseinrichtung zur durchführung mindestens eines arbeitsschritts sowie verfahren und computerprogramm

Publications (1)

Publication Number Publication Date
JP2020529932A true JP2020529932A (ja) 2020-10-15

Family

ID=62683217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020506798A Pending JP2020529932A (ja) 2017-08-07 2018-06-18 少なくとも1つの作業ステップを実行するためのハンドリング装置を有するハンドリングアセンブリ、方法及びコンピュータプログラム

Country Status (6)

Country Link
US (1) US11478932B2 (ja)
EP (1) EP3664973A1 (ja)
JP (1) JP2020529932A (ja)
CN (1) CN110914021A (ja)
DE (1) DE102017213658A1 (ja)
WO (1) WO2019029878A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6810087B2 (ja) 2018-03-29 2021-01-06 ファナック株式会社 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
EP3930964A1 (en) * 2019-02-27 2022-01-05 ABB Schweiz AG Method and system for robotic assembly
IT202100024368A1 (it) * 2021-09-22 2023-03-22 Bond Factory S R L Procedimento automatizzato per realizzare un manufatto complesso.

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63306894A (ja) * 1987-06-02 1988-12-14 トヨタ自動車株式会社 安全監視方法
JPH11226889A (ja) * 1998-02-16 1999-08-24 Shinko Electric Co Ltd 作業装置
JP2003222295A (ja) * 2001-10-24 2003-08-08 Sick Ag 機械の保安関連機能を制御する方法及び装置
JP2004243427A (ja) * 2003-02-12 2004-09-02 Yaskawa Electric Corp ロボット制御装置およびロボット制御方法
JP2010208002A (ja) * 2009-03-12 2010-09-24 Ihi Corp ロボット装置の制御装置及びロボット装置の制御方法
JP2011125975A (ja) * 2009-12-18 2011-06-30 Denso Wave Inc ロボットの干渉回避装置
JP2012030320A (ja) * 2010-07-30 2012-02-16 Dainippon Screen Mfg Co Ltd 作業システム、作業ロボット制御装置および作業プログラム
JP2014180707A (ja) * 2013-03-18 2014-09-29 Yaskawa Electric Corp ロボット装置及び被加工物の製造方法
JP2014180724A (ja) * 2013-03-19 2014-09-29 Yaskawa Electric Corp ロボットシステム及び被加工物の製造方法
JP2014188645A (ja) * 2013-03-28 2014-10-06 Seiko Epson Corp ロボット群システム
JP2017030135A (ja) * 2015-07-31 2017-02-09 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
JP2017102755A (ja) * 2015-12-02 2017-06-08 池上通信機株式会社 機械学習支援装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004351533A (ja) 2003-05-27 2004-12-16 Fanuc Ltd ロボットシステム
DE102004032996A1 (de) 2004-07-08 2006-02-16 Abb Research Ltd. Einfache Roboterprogrammierung
WO2006043873A1 (en) * 2004-10-20 2006-04-27 Abb Research Ltd A system and a method for programming an in¬ dustrial robot
SE0402891D0 (sv) 2004-11-26 2004-11-26 Abb Ab A system and a method for controlling movements of an industrial robot
AT509927B1 (de) * 2010-06-08 2015-05-15 Keba Ag Verfahren zum programmieren oder vorgeben von bewegungen oder abläufen eines industrieroboters
DE102010063214A1 (de) * 2010-12-16 2012-06-21 Robert Bosch Gmbh Sicherungseinrichtung für eine Handhabungsvorrichtung, insbesondere einen Industrieroboter, sowie Verfahren zum Betreiben der Sicherungseinrichtung
US20120290130A1 (en) * 2011-05-10 2012-11-15 Agile Planet, Inc. Method to Model and Program a Robotic Workcell
WO2014008929A1 (de) 2012-07-10 2014-01-16 Siemens Aktiengesellschaft Roboteranordnung und verfahren zum steuern eines roboters
US9844881B2 (en) * 2015-06-22 2017-12-19 GM Global Technology Operations LLC Robotic device including machine vision
US11192251B2 (en) * 2015-11-26 2021-12-07 Institut De Recherche Technologique Jules Verne Method and device for controlling a robot during co-activity
WO2017098713A1 (ja) 2015-12-07 2017-06-15 川崎重工業株式会社 ロボットシステム及びその運転方法
DE102016002781A1 (de) 2016-03-08 2016-08-18 Daimler Ag Arbeitsstation zum Durchführen wenigstens eines Arbeitsvorgangs
US10296602B1 (en) * 2017-04-18 2019-05-21 X Development Llc Determining real-time timestamps for robotic sensor data

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63306894A (ja) * 1987-06-02 1988-12-14 トヨタ自動車株式会社 安全監視方法
JPH11226889A (ja) * 1998-02-16 1999-08-24 Shinko Electric Co Ltd 作業装置
JP2003222295A (ja) * 2001-10-24 2003-08-08 Sick Ag 機械の保安関連機能を制御する方法及び装置
JP2004243427A (ja) * 2003-02-12 2004-09-02 Yaskawa Electric Corp ロボット制御装置およびロボット制御方法
JP2010208002A (ja) * 2009-03-12 2010-09-24 Ihi Corp ロボット装置の制御装置及びロボット装置の制御方法
JP2011125975A (ja) * 2009-12-18 2011-06-30 Denso Wave Inc ロボットの干渉回避装置
JP2012030320A (ja) * 2010-07-30 2012-02-16 Dainippon Screen Mfg Co Ltd 作業システム、作業ロボット制御装置および作業プログラム
JP2014180707A (ja) * 2013-03-18 2014-09-29 Yaskawa Electric Corp ロボット装置及び被加工物の製造方法
JP2014180724A (ja) * 2013-03-19 2014-09-29 Yaskawa Electric Corp ロボットシステム及び被加工物の製造方法
JP2014188645A (ja) * 2013-03-28 2014-10-06 Seiko Epson Corp ロボット群システム
JP2017030135A (ja) * 2015-07-31 2017-02-09 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
JP2017102755A (ja) * 2015-12-02 2017-06-08 池上通信機株式会社 機械学習支援装置

Also Published As

Publication number Publication date
EP3664973A1 (de) 2020-06-17
CN110914021A (zh) 2020-03-24
WO2019029878A1 (de) 2019-02-14
DE102017213658A1 (de) 2019-02-07
US20200246974A1 (en) 2020-08-06
US11478932B2 (en) 2022-10-25

Similar Documents

Publication Publication Date Title
Makhal et al. Reuleaux: Robot base placement by reachability analysis
US10759051B2 (en) Architecture and methods for robotic mobile manipulation system
KR102159847B1 (ko) 로봇을 이용한, 물체와 관련된 파지 공간의 결정
Yang et al. Collaborative mobile industrial manipulator: a review of system architecture and applications
US20190202058A1 (en) Method of programming an industrial robot
US11833697B2 (en) Method of programming an industrial robot
JP2020529932A (ja) 少なくとも1つの作業ステップを実行するためのハンドリング装置を有するハンドリングアセンブリ、方法及びコンピュータプログラム
Bogh et al. Integration and assessment of multiple mobile manipulators in a real-world industrial production facility
Burrell et al. Towards a cooperative robotic system for autonomous pipe cutting in nuclear decommissioning
Al-Hussaini et al. Human-supervised semi-autonomous mobile manipulators for safely and efficiently executing machine tending tasks
Marturi et al. Towards advanced robotic manipulations for nuclear decommissioning
JP7179971B2 (ja) ロボット装置のための制御装置、ロボット装置、方法、コンピュータプログラム及び機械可読記憶媒体
KR20180017074A (ko) 카메라를 이용한 로봇 축각도들의 검출 및 로봇의 선택
Aliev et al. Analysis of cooperative industrial task execution by mobile and manipulator robots
West et al. A vision-based positioning system with inverse dead-zone control for dual-hydraulic manipulators
Ali et al. Arm grasping for mobile robot transportation using Kinect sensor and kinematic analysis
Ortenzi et al. Vision-guided state estimation and control of robotic manipulators which lack proprioceptive sensors
Marvel et al. Tools for robotics in sme workcells: challenges and approaches for calibration and registration
Lunenburg et al. Tech united eindhoven team description 2012
CN111899629B (zh) 柔性机器人教学系统和方法
Wu et al. Application of visual servoing for grasping and placing operation in slaughterhouse
Hamel et al. Elements of telerobotics necessary for waste clean up automation
Tan et al. An integrated robotic system for transporting surgical tools in hospitals
Chandan et al. Intelligent Robotic Arm for Industry Applications
Lengenfelder et al. A cooperative hci assembly station with dynamic projections

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220812

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221018