JPWO2010092981A1 - 産業用ロボットシステム - Google Patents

産業用ロボットシステム Download PDF

Info

Publication number
JPWO2010092981A1
JPWO2010092981A1 JP2010550536A JP2010550536A JPWO2010092981A1 JP WO2010092981 A1 JPWO2010092981 A1 JP WO2010092981A1 JP 2010550536 A JP2010550536 A JP 2010550536A JP 2010550536 A JP2010550536 A JP 2010550536A JP WO2010092981 A1 JPWO2010092981 A1 JP WO2010092981A1
Authority
JP
Japan
Prior art keywords
work
unit
error
teaching
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010550536A
Other languages
English (en)
Other versions
JP5436460B2 (ja
Inventor
哲男 野田
哲男 野田
奥田 晴久
晴久 奥田
田中 健一
健一 田中
哲夫 椹木
哲夫 椹木
寛 松久
寛 松久
横小路 泰義
泰義 横小路
宇津野 秀夫
秀夫 宇津野
雅晴 小森
雅晴 小森
元 水山
元 水山
弘明 中西
弘明 中西
由貴男 堀口
由貴男 堀口
武久 幸田
武久 幸田
一浩 泉井
一浩 泉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto University
Mitsubishi Electric Corp
Original Assignee
Kyoto University
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyoto University, Mitsubishi Electric Corp filed Critical Kyoto University
Priority to JP2010550536A priority Critical patent/JP5436460B2/ja
Publication of JPWO2010092981A1 publication Critical patent/JPWO2010092981A1/ja
Application granted granted Critical
Publication of JP5436460B2 publication Critical patent/JP5436460B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23PMETAL-WORKING NOT OTHERWISE PROVIDED FOR; COMBINED OPERATIONS; UNIVERSAL MACHINE TOOLS
    • B23P19/00Machines for simply fitting together or separating metal parts or objects, or metal and non-metal parts, whether or not involving some deformation; Tools or devices therefor so far as not provided for in other classes
    • B23P19/04Machines for simply fitting together or separating metal parts or objects, or metal and non-metal parts, whether or not involving some deformation; Tools or devices therefor so far as not provided for in other classes for assembling or disassembling parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4093Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36404Adapt teached position as function of deviation 3-D, 2-D position workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39527Workpiece detector, sensor mounted in, near hand, gripper
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40111For assembly
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local

Abstract

課題:据付調整時間の短縮、運用開始後のエラー無し連続操業時間の拡大が可能な産業用ロボットシステムを得る。解決手段:チョコ停対応行動計画部(4)と、エラー誘発作業抑制部(5)と、教示作業部(6)と、動作習熟部(7)と、ハンドライブラリ(8)と、最適作業動作生成部(11)と、特定作業ライブラリ(9)と、エラーリカバリ作業教示部(12)と、エラーリカバリライブラリ(10)と、フィンガーアイカメラ計測部(32)と、3次元認識部(33)と、コントローラ(30)と、マニピュレータ(31)と、マニピュレーションデバイス群(34)に含まれるユニバーサルハンドとを備えており、チョコ停対応行動計画部(4)は、生産システムおよび製造対象物の構成情報と、エラー誘発作業抑制部(5)からのエラー情報に基づいて、チョコ停に対応するためのエラー復帰シーケンス付き作業シーケンス図と概略座標付き作業パスとを生成する。

Description

この発明は、製造対象物の製品組立を実行するための生産システムに用いられる産業用ロボットシステムに関するものである。
従来から、生産ラインへのロボットの導入時に生じる重要な課題として、チョコ停(一時的なトラブルのために設備が停止したり、空転したりする状態)を防止することがあげられる。チョコ停は、生産ラインの立上げ・調整時の教示時間短縮の障害となるうえ、無人連続操業時の障害となっている。
一般的に、製品の設計手順としては、まず、製造したい製品の構造設計と、製品を無人運転で製造するためのセルのレイアウト設計とが行われる。これにより、製品を構成する部品の結合順序関係を表す部品連結情報(部品構成ツリー図)や、部品の幾何学的形状データなどの製品設計データと、セル内の設備レイアウトデータやロボットの仕様などの生産設備データとが得られる。その後、生産システムにおけるロボットなど、各設備を動作させるプログラミング、据付調整、教示作業などが開始される。
従来の産業用ロボットシステムとして、生産設備を復帰させるために、動作状態が2値状態(ON/OFFなど)で表現可能な場合について、エラー発生の検知および復帰シーケンスの生成を行う技術が提案されている(たとえば、特許文献1、特許文献2参照)。
同様に、生産ラインの故障を復帰させるために、制御シーケンスプログラムをあらかじめブロック単位で構成し、ブロックごとに故障の検知、復帰用プログラムの起動を行う技術も提案されている(たとえば、特許文献3参照)。
特許第3195000号公報 特開平6−190692号公報 特開平3−116304号公報
従来の産業用ロボットシステムでは、生産システムの構成情報から、生産システムの各構成要素の2値状態のみについて、事前にエラー復帰方法を算出するための処理動作が行われるので、複雑な多値(3値以上)の状態値を取り得るロボットを含む生産システムで発生する故障を解決することができないという課題があった。
この発明は、上記のような課題を解決するためのなされたものであり、産業用ロボットを用いた生産システム(生産ライン)の立上げ・調整時における教示時間(据付調整時間)を短縮するとともに、運用開始後のエラー無し状態での連続操業時間を拡大した産業用ロボットシステムを得ることを目的とする。
この発明による産業用ロボットシステムは、マニピュレータおよびハンドを有するロボットを含み、製造対象物となる製品を組み立てるための生産システムに用いられる産業用ロボットシステムであって、生産ラインの立上げ・調整時の教示作業および無人連続操業の障害となるチョコ停に対応するための作業情報および第1の作業パスを生成するチョコ停対応行動計画部と、作業情報に基づいて、エラーを誘発する作業を抑制するためのエラー情報を生成するエラー誘発作業抑制部と、第1の作業パスおよびエラー情報に基づいて第2の作業パスを生成する教示作業部と、第2の作業パスに基づいて、ロボットに対する最適化された第3の作業パスを生成する動作習熟部と、ロボットの組立作業と制御ソフトウェアとを対応付けてライブラリ化したハンドライブラリと、特定作業動作系列を生成する最適作業動作生成部と、特定作業動作系列を格納する特定作業ライブラリと、教示作業部における操作履歴に基づいて、エラー状態に応じたエラーリカバリ作業を教示するためのエラーリカバリ作業教示部と、エラーリカバリ作業を格納するエラーリカバリライブラリと、ロボットの動作モニタ情報を生成して、エラー誘発作業抑制部、教示作業部および動作習熟部に入力するフィンガーアイカメラ計測部および3次元認識部と、第2および第3の作業パスと動作モニタ情報とに基づいてロボットを制御するコントローラと、を備え、チョコ停対応行動計画部は、生産システムおよび製造対象物の構成情報と、ハンドライブラリ、特定作業ライブラリおよびエラーリカバリライブラリの各格納情報と、エラー誘発作業抑制部からのエラー情報とに基づいて、第1の作業パスを生成し、エラーリカバリ作業教示部は、教示作業部からのエラー発生原因および操作履歴に基づいて、ロボットを含む構成要素についてのエラー復帰情報を算出し、チョコ停対応行動計画部、教示作業部および動作習熟部は、生産システムおよび製造対象物の構成情報から、ロボットの教示に必要な第3の作業パスを含むプログラム情報を生成するものである。
この発明によれば、産業用ロボットを含む生産ラインの据付調整時間の短縮と、運用開始後のエラー無し連続操業時間の拡大とを実現することができる。
この発明の実施例1に係る産業用ロボットシステムを示すブロック構成図である。(実施例1) この発明の実施例1に用いられるエコロジカル・インタフェースの実装イメージの一例を示す説明図である。(実施例1) この発明の実施例1による教示作業部の入出力情報を示す説明図である。(実施例1) この発明の実施例1による動作習熟部における最適タクトタイム探索の概要を示す説明図である。(実施例1) この発明の実施例1による動作習熟部の入出力情報を示す説明図である。(実施例1) この発明の実施例1によるチョコ停復帰などの補助作業を考慮した作業分析を示すフローチャートである。(実施例1) この発明の実施例1によるチョコ停対応公道計画部の入出力情報を示す説明図である。(実施例1) この発明の実施例1によるエラー発生リスク分析方法の枠組みを示す説明図である。(実施例1) この発明の実施例1によるエラー誘発作業抑制部の入出力情報を示す説明図である。(実施例1) この発明の実施例1による最適作業動作生成部の入出力情報を示す説明図である。(実施例1) この発明の実施例1による知識の演繹学習に基づく教示学習システムの構成例を示すブロック図である。(実施例1) この発明の実施例1によるエラーリカバリ作業教示部の入出力情報を示す説明図である。(実施例1) この発明の実施例1に用いられるフィンガーアイカメラ計測部の構成を概念的に示す説明図である。(実施例1) この発明の実施例1によるフィンガーアイカメラ計測部に基づくセンサフィードバック機能の入出力情報を示す説明図である。(実施例1) この発明の実施例1によるフィンガーアイカメラ計測部に基づくセンサフィードバック機能の入出力情報を示す説明図である。(実施例1) この発明の実施例1による3次元計測・認識処理の例をブロック図とともに示す説明図である。(実施例1) この発明の実施例1による3次元認識部の入出力情報を示す説明図である。(実施例1) この発明の実施例1によるアルゴリズム設計支援部の入出力情報を示す説明図である。(実施例1) この発明の実施例1によるハンドライブラリの概念を図式的に示す説明図である。(実施例1) この発明の実施例2に係る産業用ロボットシステムを概念的に示す説明図である。(実施例2) この発明の実施例3によるオフライン教示部のハンドライブラリ機能の入出力情報を示す説明図である。(実施例3) この発明の実施例3によるオフライン教示部のエラー検知機能の入出力情報を示す説明図である。(実施例3) この発明の実施例3によるオフライン教示部のエラーリカバリレベル決定機能の入出力情報を示す説明図である。(実施例3) この発明の実施例3によるオフライン教示部のエラー発生リスク分析機能の入出力情報を示す説明図である。(実施例3) この発明の実施例5によるエラーリカバリ部の行動制御機能の入出力情報を示す説明図である。(実施例5) この発明の実施例5によるエラーリカバリ部の教示作業部強化機能の入出力情報を示す説明図である。(実施例5) この発明の実施例5によるエラーリカバリ部のテレオペレーション操作機能の入出力情報を示す説明図である。(実施例5) この発明の実施例6による認識部の部品ピッキング用物体認識機能の入出力情報を示す説明図である。(実施例6) この発明の実施例6による認識部のハイブリッド視覚補正機能の入出力情報を示す説明図である。(実施例6) この発明の実施例6による認識部のエラー検知用視覚機能の入出力情報を示す説明図である。(実施例6) この発明の実施例6による認識部の認識アプリケーション構築支援機能の入出力情報を示す説明図である。(実施例6) この発明の実施例7に係る産業用ロボットシステムを示すブロック構成図である。(実施例7)
(実施例1)
図1はこの発明の実施例1に係る産業用ロボットシステムを示すブロック構成図である。
図1において、産業用ロボットシステムは、あらかじめ作成準備された3次元CADによる製品設計データおよび生産設備データ1(部品連結情報、幾何学的形状データ、設備レイアウトデータなどを含む)と、あらかじめ作成準備された特定作業仕様2と、生産ラインに設置されたロボットシステム3とを備えている。
また、製品設計データおよび生産設備データ1、特定作業仕様2およびロボットシステム3と関連した構成として、チョコ停対応行動計画部4と、エラー誘発作業抑制部5と、教示作業部6と、動作習熟部7と、ハンドライブラリ8と、特定作業ライブラリ9と、エラーリカバリライブラリ10と、最適作業動作生成部11と、エラーリカバリ作業教示部12と、コントローラ30と、マニピュレータ31と、フィンガーアイカメラ計測部32と、3次元認識部33と、マニピュレーションデバイス群34とを備えている。
コントローラ30、マニピュレータ31、フィンガーアイカメラ計測部32および3次元認識部33は、ロボットシステム3内に設けられている。フィンガーアイカメラ計測部32および3次元認識部33は、画像計測・認識部を構成している。
また、マニピュレータ31には、マニピュレーションデバイス群34が設けられており、マニピュレーションデバイス群34は、ユニバーサルハンドなどを含む。
ハンドライブラリ8は、マニピュレーションデバイス群34から入力される把持作業動作系列を格納する。
特定作業ライブラリ9は、特定作業仕様2に基づき最適作業動作生成部11から入力される特定作業動作系列を格納する。
エラーリカバリライブラリ10は、教示作業部6からのエラー発生原因および作業者の操作履歴に基づき、エラーリカバリ作業教示部12で生成された、エラー状態に応じた復帰作業パスを格納する。
チョコ停対応行動計画部4は、製品設計データおよび生産設備データ1から部品連結情報、幾何学的形状データ、設備レイアウトデータと、各ライブラリ8〜10内の格納情報とに基づいて、エラー復帰シーケンス付き作業シーケンス図と、概略座標付き作業パスとを作成し、教示作業部6に入力する。
また、チョコ停対応行動計画部4は、エラー誘発作業抑制部5と相互に関連しており、エラー誘発作業抑制部5に対して作業順序の候補を入力するとともに、エラー誘発作業抑制部5からエラー発生確率情報を取り込む。
エラー誘発作業抑制部5は、教示作業部6と相互に関連しており、教示作業部6に対してエラー発生確率情報およびエラー発生原因を入力するとともに、教示作業部6から教示パスを取り込む。
また、エラー誘発作業抑制部5は、ロボットシステム3のコントローラ30からの動作モニタ情報に基づいて、エラー発生確率情報およびエラー発生原因を生成する。
教示作業部6は、チョコ停対応行動計画部4からの作業シーケンス図(エラー復帰シーケンス付き)および作業パス(概略座標付き)と、エラー誘発作業抑制部5からのエラー発生確率情報およびエラー発生原因と、ロボットシステム3(フィンガーアイカメラ計測部32および3次元認識部33)からの動作モニタ情報とに基づいて、エラー発生原因および作業者の操作履歴を生成するとともに、精密化された作業パス(習熟前のロボットプログラム)を生成して動作習熟部7およびコントローラ30に入力する。
動作習熟部7は、教示作業部6からの作業パスと、ロボットシステム3からの動作モニタ情報とに基づいて、最適化された作業パス(習熟後のロボットプログラム)を生成してコントローラ30に入力する。
コントローラ30は、習熟前および習熟後の各ロボットプログラムと、フィンガーアイカメラ計測部32および3次元認識部33からの動作モニタ情報とに基づいて、マニピュレータ31およびマニピュレーションデバイス群34を駆動制御する。
フィンガーアイカメラ計測部32および3次元認識部33は、マニピュレータ31およびマニピュレーションデバイス群34の動作をモニタし、動作モニタ情報をコントローラ30および教示作業部6に入力する。
次に、図1に示したこの発明の実施例1による動作について説明する。
一般的に、設計者による製品の設計手順としては、前述のように、最初に、製造したい製品の構造設計と、それを製造するためのセルのレイアウト設計とが行われる。
これにより、製品を構成する部品の結合順序関係を表す部品連結情報(部品構成ツリー図)と、部品の幾何学的形状データなどの製品設計データと、セル内の設備レイアウトデータと、ロボットの仕様などの生産設備データとが得られる。
これらの設計者による設計作業の結果が得られている状態から、この発明の実施例1によるシステム動作が開始されるものとする。
以下、生産設備の立上げ時における、この発明の実施例1によるシステム動作について説明する。
最初のフェーズでは、製品設計データおよび生産設備データ1が、チョコ停対応行動計画部4に対して入力される。
これにより、チョコ停対応行動計画部4においては、部品連結情報に基づき、製品製造作業を細かい作業の系列に分解し、セル内各設備への各作業の割付、作業順序の生成が行われる。このとき、作業を分解して作業順序を決定する際に、エラー誘発作業抑制部5に対して作業順序の候補を与えると、その作業に対するエラー発生確率情報が返されるので、チョコ停リスクの低い作業順序が選択される。なお、エラー発生確率は、生産実行時の動作モニタ情報で随時更新される。
なお、チョコ停とは、自動化設備において、作業対象物(原材料、ワーク、加工工具など)に対する搬送、加工、組立、検査計測などの自動・半自動作業を行う際、作業対象物または設備部位などにおいて異常状態が起き、設備の持つ作業機能が一時的に停止する状態のことをいい、重篤でない一時的な停止のことをいう。
また、チョコ停対応行動計画部4においては、各作業と作業順序とを決定するとともに、作業中のチョコ停を検定するチェックポイントと、チェックポイント不通過時にどこまで戻れば作業を再開できるかという復帰ポイントと、復帰ポイントに戻るための復帰パスと、障害物を回避するための経由ポイントと、各ポイントをつなぐ作業パスと、各作業パスの実行順序を記述したシーケンスと、他のロボットや装置を待たせておく同期ポイントを含む「エラー復帰シーケンス付き作業シーケンス図」が生成される。
また、各作業パスに対しては、以下のような属性ラベルが付与される。
すなわち、「2点間移動」、「経由点への移動」、「エンドエフェクタデバイスによる作用をともなう作業」、「部品を把持する直前直後のアプローチ移動、またはあらかじめ最適化された作業動作といったセンサフィードバック制御による作業」、「チョコ停からの復帰シーケンス中」などである。なお、ひとつの作業パスに対して複数のラベルが付けられる場合もある。
この段階における作業シーケンス図には、ラベル付き作業パスおよび各ポイントのみが含まれ、各作業パスの中身はまだ含まれない。
なお、作業パスの中身とは、パス両端および経由点(必要に応じて、複数の経由点が追加される)の位置姿勢座標と、座標間移動方法(制御則、補間方法など)の指定である。
また、あらかじめ最適化された作業動作とは、作業ミスを抑制して、すばやく、かつしなやかに作業するコツを含んでいる。
さらに、チョコ停対応行動計画部4においては、部品の把持姿勢に基づき最適化されたハンドの構造から得られる把持戦略(ハンドライブラリ8)と、ペグインホール(人間型柔軟指の使用)などの生産工程で頻繁に用いられる特定作業(最適作業動作生成部11および特定作業ライブラリ9)と、エラー状態に応じて復帰ポイントへ戻るための復帰パス(エラーリカバリ作業教示部12およびエラーリカバリライブラリ10)とを含む作業動作、すなわち、これまでのロボット作業の教示・実行の結果から知識として得られている作業動作が、作業パス候補の生成時に用いられる。
これにより、過去に発生したチョコ停誘発作業の再発を抑制する。
次のフェーズとして、チョコ停対応行動計画部4においては、セル内の設備配置データおよび作業順序データを用いて、各作業に対する大まかな作業パスの中身が生成される。
たとえば、生産セル内に部品置場および作業台があったと仮定して、部品置場から作業台に部品を運ぶ作業について、部品を運ぶ具体的な軌道に関する作業パスを考えると、ロボットが周辺の物体と干渉する可能性があるので、最終的には、各作業パスの実現値を精密な値に設定する必要がある。
ただし、この場合、各作業パスは約5cm程度の精度で生成されるので、物体を把持する基準姿勢(部品とハンドとの相対姿勢)は、後段の教示作業部6において、教示作業入力手段を用いて作業者による教示で決定される。
上記操作は、すべての作業パスについて繰り返され、ここまでのフェーズで、チョコ停対応行動計画部4からの出力情報として、「エラー復帰シーケンス付き作業シーケンス図+概略座標付き作業パス」からなるデータが得られる。
次に、教示作業部6の動作が開始する。
教示作業部6においては、概略座標付き作業パスに対して、把持点など動作要所の最終的な位置合わせのみを教示作業入力手段を用いて教示作業者が行うことにより、絶対座標が指定された精密化された作業パスが決定される。
このとき、教示作業用パソコンまたはティーチングペンダントに表示されるエコロジカル・インタフェース理論に基づくユーザインタフェースにより、動作要所および作業状況が提示され、作業者は提示状況を見て、位置姿勢の精密化作業を行い、必要に応じて作業パスを教示作業入力手段で追加する。
なお、作業状況の取得は、フィンガーアイカメラ計測部32において、ロボット(マニピュレータ31)の手先(マニピュレーションデバイス群34)に配置された全方位視野のカメラを用いて行われる。
こうして取得された画像は、視野の隠蔽の起きにくい広範囲なものとなっているので、作業者は、手動操作時にロボットの手先の状態を観測し易くなる。
または、作業状況の取得は、ロボット(マニピュレータ31)の手先(マニピュレーションデバイス群34)に配置された力覚センサ(図示せず)を用いて行われる。
力覚センサとは、センサにかかる力とトルクとの両方を計測するセンサであり、ロボットの手先とは、ロボットハンドのフィンガー部分、またはロボットハンドとロボットとの接続部などを指す。なお、マニピュレータの関節各軸にトルクセンサを配置し、それら複数のトルクセンサから得られたデータを用いて、ロボット手先の任意の位置にかかっている力とトルクとの両方を推定演算することでも同等の効果が得られる。
力覚センサにより取得されたデータは、ロボット手先が、作業対象物と接触した状態になったとき、前記カメラでは区別がつかない程度に小さなロボット手先位置の変位を識別できるので、作業者は、手動操作時にロボットの手先の状態を観測し易くなる。つまりロボット手先位置の微調整が可能になる。
すなわち、力覚センサにより取得されたデータを、あらかじめ用意したロボット手先で発生する現象を抽象化したモデルと照合すること、または、数式で表されたモデルに、センサにより取得されたデータを代入して演算すること、によって得られる情報は、手先で発生している現象として画像上に表示される。
これにより、作業者は、手動操作時にロボットの手先の状態を観測し易くなる。
また、取得された画像情報をフィンガーアイカメラ計測部32で処理し、対象物体の把持面の法線方向情報を得ることにより、対象物体に対して一定の姿勢を自律的に保ったまま、他の軸については一定方向への移動指令を与えるか、または、オペレータの指令を反映するなどの半自律モードを実現することができ、教示作業の負担削減に寄与する。
力覚センサでロボット手先の状態を観測している場合も、同様に、対象物体とロボット手先の接触面の法線方向情報を得ることにより、対象物体に対して一定の姿勢を自律的に保ったまま、他の軸については一定方向への移動指令を与えるか、または、オペレータの指令を反映するなどの半自律モードを実現することができ、教示作業の負担削減に寄与する。
なお、この場合も、エラー誘発作業抑制部5が活用され、作業ミスを誘発する動作を教示した場合には、警告が発報する。
また、教示作業部6においては、たとえば把持位置・姿勢を決定する必要があるので、作業者が位置姿勢の「6自由度」のすべてを同時操作するのではなく、システム側が多自由度の複雑な同時制御を肩代わりし、作業者が少数の自由度のみを操作する。
これにより、負担を減らしながら、把持位置・姿勢を決定する機能を備えることができる。
次に、動作習熟部7においては、精密化された作業パスに対して最適化を行い、作業動作が滑らかでタクトタイムの短い作業パス(習熟後)を得る。
以上のように、チョコ停対応行動計画部4、エラー誘発作業抑制部5、教示作業部6および動作習熟部7は、各設計データ1、特定作業仕様2、各ライブラリ8〜10、最適作業動作生成部11およびエラーリカバリ作業教示部12と関連して、ロボットシステム3に対するロボットプログラムを生成する。
すなわち、製品設計・生産設備データ1から、チョコ停発生時の復帰シーケンスを含むコントローラ30で実行可能なロボットプログラムが、従来に比べて大幅に少ない教示作業者の負荷で得られる。
次に、この発明の実施例1による生産実行時のシステム動作について説明する。
製品を生産する場合のロボット動作順序は、以下の(1)〜(6)のようになる。
(1)通常は、ロボットプログラム中に記された作業パスを順番に実行する。
このとき、部品寸法公差、位置決めばらつきを吸収して安定な動作を実現するために、フィンガーアイカメラ計測部32および3次元認識部33を用いて、対象物体に対する距離・姿勢の誤差をリアルタイムで計測し、センサフィードバック制御により作業を遂行する。
また、処理レートが高速な2次元画像フィードバックと、処理レートがやや遅い3次元の距離・姿勢データフィードバックと、を用いた画像・距離ハイブリッド型フィードバックなどにより、高速・高精度なロボット動作を実現する。
また、フィンガーアイカメラ計測部32により、部品把持中において、部品の把持位置姿勢を計測することができるので、部品を把持する際に発生する位置姿勢誤差の補正、または握り直しによる正確な位置決め作業が可能となり、位置ずれに起因するチョコ停が抑制される。
(2)同期ポイントで、複数のロボットまたは装置の間で、同期が行われる。
(3)チェックポイントにおいては検定が行われ、異常が無ければ(1)に戻る。
(4)もし、チェックポイントでの検定に通らなければ、復帰動作が行われる。
(5)復帰動作において、チェックポイント間の任意の位置から、あらかじめ与えられた復帰パスにしたがって、復帰ポイントまで戻り、そのポイントから(1)に戻って通常モードで動作を再開する。
(6)以上の復帰動作を一定回数以上実行しても、復帰ポイントに到達できない場合には、作業者が呼ばれる。
作業者による復帰動作の教示方法は、エラーリカバリ作業教示部12に記録され、知識として次回のロボットプログラム作成時に活用される。
以下、教示作業部6、動作習熟部7、チョコ停対応行動計画部4、エラー誘発作業抑制部5、最適作業動作生成部11、エラーリカバリ作業教示部12、フィンガーアイカメラ計測部32、コントローラ30(画像処理部)、3次元認識部33、マニピュレーションデバイス群34(ユニバーサルハンド)、ハンドライブラリ8について、背景技術と関連させながら、順に詳述する。
まず、図1内の教示作業部6について詳述する。
現物合わせによる意思決定が求められるような、ロボットに対する教示作業において、自動化困難な部分については、人間作業者がその遂行を担当する。
そこで、教示作業部6においては、その作業遂行を効果的なユーザインタフェースの提供によって支援する。
前述のように、チョコ停対応行動計画部4の処理によって、「エラー復帰シーケンス付き作業シーケンス図」と「概略座標付き作業パス」とが、システムの中間出力として得られるが、それらをロボットプログラムとして完成させるためには、作業パスの具体的な形状と経由点の精密な位置データを、設備や組立部品(ワーク)の現物に合わせて追加・修正する必要がある。
したがって、ロボット作業パスの精密化作業においては、タクトタイムの短縮や、他の物体との干渉の回避、または、ミスを誘発する可能性の高い作業フェーズへの対策など、という多様な要求事項に配慮することが求められる。
特に、各種の変動要因に対して、ロバスト(Robust:頑健)なロボットの作業パスを実現するには、部品の把持や組付といった、ハンドを含む異なる物体同士の物理的接触が発生する動作フェーズの教示が最大の問題となる。
部品の正しい把持や組付を教示するためには、ロボットを適切な位置・姿勢に正確に誘導する必要があるが、その判断は、作業者の視認に専ら依存して下されており、作業者の技量が反映されるポイントである。
また、部品の寸法や形状には、公差の範囲内でばらつきが存在するので、教示作業時に用いたサンプルやその固定の状態が、連続稼働中の部品のばらつき具合をうまく代表するものである必要がある。もしそうでないと、教示された作業パスで想定されていない不確実性が、ミスの発生確率を大幅に押し上げることになる。
教示作業部6においては、以上にまとめた教示作業に係る課題への対策として、ロバスト認識知能部を構成する各種センサ類(フィンガーアイカメラ計測部32、3次元認識部33、図示されない力覚センサ)を、ロボット作業パスの教示のための情報源として活用し、センサから得られる計測データ(動作モニタ情報)を適切な形態で可視化する。
これにより、正確な位置・姿勢の判断を、より単純かつ容易なものに変更し、教示作業の効率化を図ることができる。
また、教示作業部6においては、組立部品の寸法や形状のばらつきについての情報を、同様に可視化することにより、組立作業における変動要因に対する教示作業段階での対策を実現する。
なお、多数の数値データを2次元の画面に提示する際には、作業者が的確な作業状況を直感的に理解できるように、教示作業に適う形態や配置によって統合する必要がある。これについては、「エコロジカル・インタフェース設計」(Ecological Interface Design:EID)の理論をベースにすることができる。
図2はエコロジカル・インタフェースの実装イメージの一例を示す説明図である。
図2において、マニピュレータ31のユニバーサルハンド34aと組立部品Wとの相互関係は、各種センサデータとして取り込まれ、組立部品Wに関する情報が可視化されて提示される。
なお、ペグインホールなどのような、事前に最適化可能な特定作業動作系列を、ロボット作業パスの精密化のためのテンプレートとして利用することは、教示作業の手間の削減に非常に有効である。
したがって、教示作業部6は、特定作業ライブラリ9を介して特定作業動作系列を参照し、作業パス精密化のために作業者が利用できるようにする。
また、教示作業部6は、エラー誘発作業抑制部5と通信して、ミスを誘発する可能性のある作業動作の教示を常にチェックし、該当する教示がなされた場合には、作業者に対して警告し、効率的な教示作業の遂行を支援する。
ロボットの教示作業では、いずれも作業対象物体と周囲環境との相対的な関係に基づいた行動生成が行われる。この際、ある自由度を、自律的にセンサフィードバックをかけておき、他の自由度については、オペレータの操作にしたがうといった、半自律モードも有効となる場面も多いと考えられる。
なお、想定される代表的なセンサ情報としては、画像センサ、距離センサ、力覚センサの例を示したが、作業用途によって、さらに別のセンサ情報を必要とする場合には、これに対応したシステム機能を追加することができる。
教示作業部6の入出力情報は、図3の説明図に示した通りである。
すなわち、入力情報は、エラー復帰シーケンス付き作業シーケンス図、概略座標付き作業パス、各種センサデータ、組立部品情報である。
また、出力情報は、精密化された作業パスであり、作業パスの始点座標、終点座標、複数の経由点座標の値域と刻み幅を含む。
次に、図1内の動作習熟部7について詳述する。
垂直多関節型ロボットの作業動作計画は、機構の自由度の高さに起因した複雑さがある。たとえば、単に始点と終点とを結ぶ軌道を導出する場合にも、2点境界値問題を解く必要があり、これを解析的にも数値的にも解くことは難しい。また、始点と終点とを結ぶ軌道に加えて、複数の経由点を含む軌道を最適化する場合は、さらに困難になる。
そこで、この発明の実施例1では、垂直多関節型ロボットの経由点を含む最適軌道探索手法を用いる。実ロボットを動作させて得られる動作応答の観測信号から、準最適解を探索するという手法である。
これにより、作業環境の変化や複雑化に対して、柔軟に対応可能な汎用性が期待することができる。この結果、同一動作を繰り返したときに、タクトタイムの短縮を実現することができる。
図4は動作習熟部7における最適タクトタイム探索の概要を示す説明図である。
図4において、(a)は、1つの経由点(0,J2,J3,0,0,0)を含んで、始点(−60,30,80,0,0,0)から終点(60,30,80,0,0,0)に至るロボット(マニピュレータ31)の作業パスの一例を示している。
また、図4(b)は、ロボット(マニピュレータ31)に対する障害物Dの位置を3面図(平面図、側面図、正面図)で示している。
図4(a)内の経由点(0,J2,J3,0,0,0)は、図4(b)内の障害物Dを回避できるように設定される。
さらに、図4(c)は、最適タクトタイム探索の概念を3次元的な斜視図で示しており、各軸は、経由点の座標に含まれる「J2」の関節角と、「J3」の関節角と、タクトタイムとに対応している。
図4(a)内の経由点を様々に変化させると、経由点ごとのタクトタイムが観測され、図4(c)に示すような曲面が得られる。
図4(c)において、障害物Dと干渉する作業パスは、タクトタイム「0」としている。このとき、タクトタイム最短は、曲面内に白抜きで示した領域Z1に現れる。なお、図4(c)では、表記を簡略化するために、2つの関節のみが動く経由点が1つのみの場合について説明しているが、実際には、多関節が同時に変化する複数の経由点が作業パスを構成するので、多自由度空間内を探索して、白抜きの領域Z1を探す必要がある。また、試行回数の少ない探索パスPS1と、試行回数の多い探索パスPS2、PS3とが、太線矢印で示されている。
この発明の実施例1によれば、このような探索を高速化するシステム機能とすることができる。
具体的には、能動学習理論(Active Learning in Computational Learning Theory)の枠組みを応用する。つまり、探索試行を次々に繰り返していく際に、これまでに試行した結果のデータを用いて、次に試行することが最も好ましい試行を最適化する。
すなわち、次回に試行可能な複数の候補について、その候補を試行することで得られると見なされる結果を数値化して比較し、次回以降に試行する候補の順番を決めるという操作を行う。結果の数値化については、これまで試行して得られているデータを用いて、ある候補による試行が行われたときに得られる結果を推定するモデル構築した上で、このモデルを用いて、各候補すべてについて、その候補により得られると見なされる候補を数値化する。
なお、得られた数値を用いて、この候補の最適化は、試行を行うごとに実行してもよいし、複数回の試行ごとに実行してもよい。ただし、毎回実行することにより、試行回数が少なくなる効果が高くなることが分かっている。
実際に、ある候補を用いて試行が行われた際には、得られた結果を、それまでに得られている結果と合わせておく。つまり、最適化を行う際に構築するモデルは、試行を繰り返すたびに、徐々に精確なものとなる。
これにより、全体として試行数が少なくなり、たとえば、図4(c)内の「太線矢印」で示すような、「試行回数の少ない探索パスPS1」が実現される。
また、ロボットアームの振動が大きい場合には、振動が減衰するまで、次の動作を開始することができない場合がある。この待ち時間が長くなるとタクトタイムは長くなるので、振動を減少させることは、タクトタイム短縮のための検討課題の1つと考えられる。
このような振動の発生は、ハンド・アームの慣性力と、ハーモニックドライブなどの減速機構、伝達機構のバネ効果による復元力とに起因するが、作業パスの選定も重要な検討項目と言える。
実際、従来システムの教示では、作業ポイントやチェックポイントを離散的に指示する方法が一般的であり、ポイント間の移動経路や作業パス内の軌跡の選定において、振動抑制を意識した軌跡の選択は行われていないので、加減速ごとに不要な振動が励起される状況にある。
従来から、実際に行われている振動抑制手法の1つとして、アーム最伸展時の固有振動数に固定したノッチフィルタに、モータ制御信号を通すことが行われている。しかし、固有振動数は、ワークの重量変化やアームの姿勢などによって変化するので、フィルタ効果が充分とは言えない状況にある。また、デジタルフィルタ特有の時間遅れも、作業時間短縮に相反する状況にある。
たとえば、熟練したクレーンのオペレータは、ワークを吊上げてから目標位置に移動するまでのワークの振動を、可能な限り抑制するように、クレーン先端位置を操作する。具体的には、加減速によって、ワークが振り子の最大変位位置に到達して速度がゼロとなった瞬間に、クレーン先端位置をワークの垂線上に移すことで実現される。
このことは、目標位置を振り子の最大変位位置に設定できれば、停止時のワークの振動を回避可能なことを意味している。
この発明の実施例1に係る産業用ロボットシステムの場合、ハンドおよびアームを質量とし、ハーモニックドライブをバネ要素とし、モータを内蔵したシステムであることから、上記クレーンの例とは異なるが、目標位置(停止位置)でハンドが振動しない条件を、導出し、ロボットの動作軌跡および加減速運転パターンを変化させる方式を用いている。さらに、ロボットの先端には、ハンドが取り付けられている。このハンドを動吸振器、またはアクティブ動吸振器として働かすことで、アームの制振に利用する方法も合わせて用いることで、振動を抑制するのに要する時間をさらに短くする効果がある。
すなわち、動作習熟部7においては、上記の2つのタスクを交互に実行することにより、タクトタイムが短い作業パスを得ることができる。また、ロボットアームの振動抑制は、位置決め精度の低下防止や、チョコ停抑制にも寄与する。
動作習熟部7の入出力データは、図5の説明図に示した通りである。
すなわち、入力情報は、作業パスの始点座標、終点座標、複数の経由点座標の値域と刻み幅、作業環境情報、ロボット情報である。
また、出力情報は、作業パスの始点座標、終点座標、複数の経由点座標と、始点、終点、経由座標点間の軌跡および加減速指令と、である。
次に、図1内のチョコ停対応行動計画部4について詳述する。
セル生産ロボットシステムの設計においては、製品組立作業の詳細な要素作業への分解と、それら要素作業の各設備へ割当てと、作業順序および作業パスなどの具体的な策定とが行われる。
この設計の結果は、ロボットによる各要素作業の効率のみでなく、要素作業のロボットへの教示およびエラーリカバリプロセスの難易度に大きな影響を及ぼす。しかしながら、セル生産ロボットシステムを設計するためには、ロボットが行う各要素作業の効率化という微視的観点から、生産システム全体の物流的観点まで、多岐にわたる事項についての検討が必要である。
したがって、総合的に最適なシステムを設計することは、非常に困難であるのが現状である。特に、ロボットハンドの交換やチョコ停発生時の処理のような補助的作業は、セル生産ロボットシステム全体の効率に非常に大きな影響を与えるにもかかわらず、初期設計段階でこれらの影響を検討するためのツールは、現在のところ存在しない。
また、ロボットの動作を詳細にシミュレーションする商用ソフトは、多数開発されてはいるものの、そのシミュレーションモデルの構築には多大な労力が必要であり、多様な事項の同時的な検討が必要な初期設計段階での利用には不向きである。
そこで、この発明の実施例1では、初期設計段階において、ハンド交換やエラー処理のような補助的工程を含む、セル生産ロボットシステムの総合的な評価を迅速に行うためのチョコ停対応行動計画部4を用いている。
チョコ停対応行動計画部4は、後述するエラー誘発作業抑制部5および最適作業動作生成部11の各機能構成部と連携をとりながら、ロボット作業の概要を決定する。
チョコ停対応行動計画部4の具体的な機能構成は、以下の通りである。
まず、製品構造設計および生産設備設計の結果(製品設計データおよび生産設備データ1)から、部品連結情報と幾何学的形状データと設備レイアウトデータとの3次元の幾何情報を得る。また、これらの情報から、幾何学的な部品の把持可能な面の特定と、製品の一連の組立作業の要素作業への分解を行う。さらに、これらの処理結果に基づいて、作業手順の候補を生成し、各要素作業を割り当てる設備を決定する。
ここで、チョコ停対応行動計画部4は、エラー誘発作業抑制部5および最適作業動作生成部11に対して、作業順序の候補案を入力し、エラー誘発作業抑制部5からは、作業順序の候補に対するエラー発生確率情報を取り込む。
以下、図6に示すように、エラー発生確率情報を利用して、作業手順の計画の段階で、ロボットハンドの交換やチョコ停発生時の復帰動作などの補助作業を含めた組立作業全体の分析を行い、チョコ停の発生に対してロバストな作業手順を策定する。
図6はチョコ停復帰などの補助作業を考慮した作業分析を示すフローチャートである。
図6において、上流側の作業t1、t2は、チョコ停発生などのエラー判断に基づく復帰作業c3、c4に応じて行われる。
作業t2に続いて、作業t3が行われた後、検査c1に進み、チョコ停発生の有無がチェックされる。
検査において、チョコ停発生の場合には、エラー判断されて、復帰作業c3、c4に進む。一方、チョコ停が発生せずに正常であれば、作業t4に進み、さらにハンド交換c2後に、作業t5が行われる。
この結果、エラー発生確率情報に基づき、統計学的な評価によるハンド交換のタイミングやチョコ停からの復帰などの、補助作業を含めた作業順序が編成される。
エラー誘発作業抑制部5との連携は、設計時にリアルタイムに行うことが望まれる。
また、図6の作業順序の編成時に、最適作業動作生成部11からの入力情報として、作業パスのテンプレートを、要素作業の種類に応じて獲得する場合がある。この情報を、パッケージ化された、熟練した技を持つ作業動作のライブラリとして利用することにより、作業順序の編成において、より正確な作業時間の見積りが可能となる。
以上のように策定された作業手順に基づき、ロボットの最適な概略作業パスを、5cm程度の精度で自動的に生成する。この概略作業パスは、ロボットへの教示などの詳細設計段階への出力となる。
この際、エラー発生時の作業t1、t2への復帰ポイントと、他の設備との同期ポイントと、定められた作業の成否を検査(c1)するポイントと、を同時に決定出力する。
これにより、従来のセル生産ロボットシステムでは、設計の後工程で逐次的に行わざるを得なかった検討(チョコ停への対応方法など)を、フロントローディングし、初期設計段階において適切な意思決定を行うことにより、セル生産ロボットシステムの設計・実装プロセス全体の生産性を大幅に向上させることができる。
また、教示作業に対する寄与として、以下の点を追記することができる。
すなわち、全体シーケンスのうち、作業者が特に確認したい一部分のシーケンスのみを実際にロボットに実行させて、ロボット動作を確認する作業を躊躇なく行うことができるというメリットがある。
なぜなら、エラー復帰シーケンスを援用することによって、以前では作業者が慎重に(間違わないように)時間をかけて行う必要があった後始末(ロボットまたは周辺装置の物理的な位置を初期位置に戻すこと、および、制御装置の変数を一定の初期値に戻すことなど)が自動化されるからである。
なお、チョコ停対応行動計画部4の入出力情報は、図7の説明図に示した通りである。
すなわち、入力情報は、製品の部品連結情報と幾何学的形状データと設備レイアウトデータとの3次元の幾何情報と、作業順序の候補に対するエラー発生確率情報と、作業パスのテンプレートと、である。
また、出力情報は、補助作業を含めた作業順序と、概略作業パスと、教示作業が必要なポイントと、エラー発生時の復帰手順、復帰ポイントおよび同期ポイントと、ロボットが把持可能な部品面と、である。
次に、図1内のエラー誘発作業抑制部5について詳述する。
エラー誘発作業抑制部5は、ロボット作業におけるエラー発生のリスクを分析して、エラー低減のために必要な情報を提供し、作業設計時または作業者による教示作業時に、エラーを誘発するロボット動作の設定(または、教示)を抑制する。
すなわち、作業設計時には、設定された作業手順において起こり得るエラーのリスク(エラーの影響の大きさと発生し易さ)を推定して、エラー発生を検出するための作業サブゴール達成のチェックポイントの設定や、エラーを誘発しにくい作業方法(たとえば、上から組み立てるか、下から組み立てるか)の選択を、チョコ停対応行動計画部4や最適作業動作生成部11に対して支援する。
また、チェックポイントで検出された運用時のエラー事例の原因を究明して、エラーリカバリ方法における復帰ポイントや復帰方法の改善を支援する。
同時に、エラー発生に関する知識をデータベース化して、今後のエラー対策の検討を支援する。
また、作業者による教示作業時には、次にロボットに指示しようとする動作は、好ましくない現象を発生するリスクが高いことや、ロボットによる作業が進展するにつれて、リスクの高い作業群の入り口(または、真っ只中)にいることを教示作業部6に警告して、エラーを誘発し易い作業設定を抑制する。
上記機能を達成するために、まず、ロボットを用いたセル生産システムで回避すべき「システムエラー」の発生過程を同定するための「エラー発生分析方法」がある。これは、結果であるシステムエラーから、その発生原因を求める逆方向分析である。
一方、エラー発生リスク推定は、作業条件からシステムエラー発生を予測する順方向分析であり、作業進展にともなって、エラー発生リスクが逐次どのように変化するかを推定する。
両方向の分析が一貫して行えるように、システムリスク分析で用いられているシステム工学的方法を参考にすることができる。
作業の特徴とエラー発生可能性の依存関係とを、ベイジアンネットワークを用いて考察しながら、作業の進展と共に追加入力される作業情報に基づいて、エラーの発生リスクを逐次更新する。
さらに、ロボットに実行させる作業の設計の初期段階と教示段階とでは、用いる設計情報の詳細度が異なるので、段階に応じた階層的な分析方法により、定性的情報から、より詳細な定量的情報による分析が一貫して行えるようにする。
また、システム構成要素に関する基本的なエラー関連情報は、エラーリカバリ方法の検討など、他の機能構成部で再利用できるように、故障モード影響度解析のような情報源として蓄積する。
図8はエラー発生リスク分析方法の枠組み(エラー発生のリスク分析結果)を示す説明図であり、エラー発生と要因との因果関係をベイジアンネットワーク(Bayesian Network)で示している。
る。
図8において、M段階の作業1〜作業Mは、作業1→作業2→・・・→作業Mの順に進展するものとし、N個の要因1〜要因Nに対して、それぞれ影響関係(点線矢印参照)を有している。
また、各要因1〜要因Nは、エラーiに関するn個の発生条件1〜発生条件niに対して、それぞれ因果関係を有し、エラーiの発生へとつながっている。
エラー発生のリスクを推定する場合には、作業(図中の下段側)からエラーの発生(図中の上段側)へと推定処理が行われる。
逆に、エラー発生の原因を同定する場合には、エラーの発生(図中の上段側)から作業(図中の下段側)へと原因の同定処理が行われる。
なお、エラー誘発作業抑制部5の入出力情報は、図9の説明図に示した通りである。
すなわち、入力情報は、作業順序が示された作業シーケンス図と、エラー復帰シーケンス付き作業シーケンス図と、設備やロボットに関する基本設計仕様などの情報と、作業者の教示データと、である。
また、出力情報は、作業順序に基づくエラー発生確率の推移情報と、エラー発生可能性の予測結果・警告と、エラー発生原因・対策に関連する情報と、である。
次に、図1内の最適作業動作生成部11について詳述する。
ロボットによる組立作業の中で、ハンドが把持している部品と、その部品を組み付ける対象側のワークとが物理的に接触し得る「部品組付」のフェーズは、チョコ停などにつながるトラブルが最も生じ易いフェーズの1つである。
また、全く同じ部品およびワークであっても、熟練した技術者が教示した作業パスと、非熟練者が教示した作業パスとでは、「部品組付」のフェーズでトラブルが生じる頻度に、しばしば大きな差が生じることが知られている。
この理由は、ロボットによる組立作業であっても、「部品組付」のフェーズを単純かつロバストに実現する「熟練の技」が存在し、熟練の技を反映した作業パスではトラブルが生じにくくなるからである、とも解釈することができる。
最適作業動作生成部11は、いくつかの典型的な組付工程のパターン(以下、組付工程の各パターンを「特定作業」と呼ぶ)に対して、「熟練の技」を反映したと言えるような最適作業パスのテンプレートを出力するものである。
これにより、教示作業部6においては、最適作業パスのテンプレートを参照することによって、熟練技術者の経験に依存することなく、ロバストな作業パスを容易に教示できるようになる。
この発明の実施例1は、上記教示の実現に向けて、特定作業ごとに、上述の最適作業パスのテンプレートを、部品の把持姿勢に応じて、オフラインで生成する手法である。
ロボットによる組立作業には、マニピュレータ31がハンドを操作する際の作業誤差・教示誤差、ハンドと部品との相対的な位置・姿勢誤差、部品・ワークの寸法・形状誤差、ワークの位置・姿勢誤差などの、様々な誤差が存在し、これら誤差の確率変数としての性質が、作業結果の不確実性を生んでいると考えられる。
この発明の実施例1の基本的なアイデアは、上述の「熟練の技」とは、「そうした誤差の不確実性に対する対応の巧みさ」である、と考える点にある。その上で、誤差によって生じている不確実性を定量的に評価するための尺度(エントロピ)を導入し、作業パスの過程でそれがどのように変化していくかに基づいて、異なる作業パス同士で、不確実性への対応の巧みさを比較できるようにする。
また、不確実性を巧みに処理できる作業パスを構成(または、探索)していくアプローチを展開することにより、ロボットが、入力情報に応じて不確実性を巧みに処理できる作業パステンプレートを構成するアルゴリズムが得られる。
さらに、この「作業パステンプレート構成アルゴリズム」で得られた作業パステンプレートに、近傍探索するロジックを付加することにより、作業パスはさらに改善される。
具体的な進め方としては、まず、現実の製造現場で最もよく見られる組付工程のパターンとして、「部品をワークの穴や溝に挿入する工程」を、特定作業として取り上げる。
なお、この挿入工程は、さらに部品の形状などによって性格が異なるため、最初のステップでは、最も一般的な、いわゆるペグインホール工程を対象とし、徐々に複雑な形状のものに拡張していく。
最適作業動作生成部11の入出力情報は、図10の説明図に示した通りである。
すなわち、入力情報は、特定作業の種類(ペグインホールなど)と、部品・ワークの設計情報(寸法、形状など)と、考慮すべき主な誤差とそれらの分布と、部品の把持姿勢(一般には、複数の候補が与えられる)と、ロボット情報(可能な要素動作、制御則など)と、利用可能なセンサ情報と、である。
また、出力情報は、条件分岐のある作業パスのテンプレート(把持姿勢の候補が複数ある場合は、それぞれに対して出力される)と、作業パステンプレート上の経由点および要素作業系列への意味付けと、である。
次に、図1内のエラーリカバリ作業教示部12について詳述する。
チョコ停を含むエラー状態から復帰するためのロボットの動作は、作業者が与えているのが現状であるが、作業者は、エラー状態によりリカバリ操作の戦術を切り替えており、個々の操作は、リカバリの効果を経験して学習的に習得している。
すなわち、エラー状態をもたらした制御対象の局面を場合分けし、場合ごとのローカルな復帰のための制御則を、エラー状態に至った状態遷移をさかのぼることで、エラーの直接・間接の原因を同定し、エラーの原因に応じた対応をできるだけ一般的な制御則として学習している。
ここでの学習は、大きく2つのフェーズに分けられ、一方は、多様なエラー状態の類型化であり、他方は、各類型化されたエラー状態のもとでの復帰のための普遍的な制御則の獲得である。これら2つの学習フェーズは、分離できるものではなく、各々のフェーズでの学習に合わせて「共進化的」に学習が進行する。
この発明の実施例1では、演繹(えんえき)学習の代表的手法である、説明に基づく学習(EBL)を用いた「単一事例からの学習手法」を適用する。
この学習手法は、与えられた単一の教示事例(すなわち、デモンストレーションとして教示されたエラーリカバリ)のための復帰動作系列の入力に対して、それが何故にお手本となるような事例たり得るのかについての説明を、システムが生成する。
当該訓練事例のどの部分に教示ノウハウが活かされているかを選択的に抽出し、これをその知識の適用可能性の基準を定める表現形式(操作性規範)で一般化した知識(すなわち、普遍的な制御則)として生成する。
一方、エラー状態の類型化については、教示例として与えられるエラー復帰動作の系列から、逐次的に最も的確な類型クラスへの割当てを決めながら実行される。このときの割当を決める際に用いられるのが、カテゴリ有用度の尺度である。
付加された新たな事例(=分類したいエラー状態)を、候補となる類型クラスに仮に帰属させ、そのクラス内の属性値分布を更新した上でカテゴリ有用度を算出する。
類型化クラス生成の手順は、単一のエラー状態の事例からなるクラスから開始し、これに対して随時に新たな事例が付加される度に、類型化クラスの再編成を、以下のような4つのクラス操作の適用をしながらカテゴリ有用度の評価基準に基づいて決定し実行する。すなわち、既成クラスの付加、新たな単一事例クラスの生成、複数の既成クラスの統合、既成クラスの解体、の4つの操作で、各々の操作を実行した場合のカテゴリ有用度を算出し、これが最大となる操作を実行する。これにより、エラー状態の分類・同定識別のための逐次最適化が可能になる。
図11は上記知識の演繹学習に基づく教示学習システムの構成例を示すブロック図である。
図11において、教示学習システムは、エラーの類似化学習ブロックと、復帰動作の制御則学習ブロックとを備えている。
エラーの類似化学習ブロックは、エラーのレパートリーから分岐されたN個の類型クラス1〜Nを含む。
また、復帰動作の制御則学習ブロックは、各類型クラス1〜Nに対応して作業員が復帰動作を教示する段階と、復帰動作の系列を入力する段階と、説明に基づく学習EBLを用いて1つの修正事例から一般則の学習を行う段階と、一般則の各学習結果からなるN個の制御則1〜Nと、一般則の学習結果に基づく説明生成用の背景知識(データベース)とを含む。
さらに、エラーの類似化学習ブロックは、一般則の学習結果に基づく事例追加に応答して再構築される。
図11の教示学習システムが獲得した知識は、操作性規範を満たす表現形式で得られていることから、デモンストレーションとして教示された以外の「エラー状態」との間で直接的な照合操作をとることが可能になる。
したがって、この制御則を適用することにより、教示者が介入することなく、同じ類型化されたエラー状態からの復帰動作は、自動的に実行される。この結果、従来の教示作業の頻度と教示時間が大幅に短縮されることが期待できる。
なお、エラーリカバリ作業教示部12の入出力情報は、図12の説明図に示した通りである。
すなわち、入力情報は、個別のエラー発生原因と、個別のエラー発生時のロボット操作系列と、作業者の個別のエラーに対する復帰操作履歴と、である。
また、出力情報は、類型化されたエラー状態に対する汎用的な復帰作業パスならびに復帰操作系列である。
次に、図1内の画像計測・認識部のフィンガーアイカメラ計測部32について詳述する。
従来から、マニピュレータ31のアーム先端に近い位置に設置されるハンドアイカメラは存在するが、従来のカメラは、ハンド手先および対象物体を含む周辺部を見るというよりも、アームの自由度を生かした視点移動効果を目的としており、対象をある程度離れて観測することを想定している。したがって、従来のカメラは、教示やチョコ停からの復旧動作において重要な、ハンド手先部と対象物体や周囲環境との近接・接触状態、または、把持中の物体状態、を十分に把握するための構造を有しておらず、たとえば、アーム自身や周囲環境に起因した隠蔽が生じる可能性があった。
そこで、この発明の実施例1では、マニピュレータ31のハンド手先部に比較的近い位置に配置可能で、かつ周囲環境も含めた広範囲な画像情報を観測可能な、超小型光学系を持つフィンガーアイカメラ(手先・周囲同時計測カメラ)である。
図13はフィンガーアイカメラ計測部32の構成を概念的に示す説明図である。
図13において、フィンガーアイカメラは、高速カメラ32aと、全方位ミラー32bとにより構成されており、全方位ミラー32bの反射像を高速カメラ32aで撮像するように構成されている。
高速カメラ32aは、マニピュレータ31の先端部に位置するロボットハンド34bのフィンガーごとに設けられており、全方位ミラー32bは、フィンガーおよび高速カメラ32aに対向するように配置されている。
高速カメラ32aは、撮像したロボットハンド34bの画像を、動作モニタ情報として教示作業部6およびコントローラ30に入力するとともに、コントローラ30を介して、エラー誘発作業抑制部5および動作習熟部7に入力する。
高速カメラ32aから得られた画像情報は、オペレータの手動操作による教示動作と、チョコ停復旧動作とを助けるのみでなく、コントローラ30において、センサフィードバック制御用の画像入力として用いられる。
このように、各種作業の自律化または半自律化に画像情報を使用することができる。
フィンガーアイカメラを用いることにより、マニピュレータ31の手先状態を観測し易くなるとともに、手先方向の対象物体が隠蔽によって直接観測できない場合においても、側方の画像情報を適応的に選択してセンサフィードバック用の画像として用いることが可能である。
また、近接距離計測機能を持たせることにより、マニピュレータ31の手先周辺の距離分布を正確に計測することも可能となる。
なお、上記フィンガーアイカメラ以外にも、環境側に配置したカメラと連動しても、同等の効果が得られる。
次に、センサフィードバック制御による経路誘導のための、図1内のコントローラ30内の画像処理部について詳述する。
従来、画像を用いたフィードバック(ビジュアルフィードバック)においては、単一カメラから得られる単一画像平面内での残差に対するフィードバック制御を行うことが基本であり、距離情報としては、一定条件か、または、対象サイズに基づいた簡易的な距離計測情報が用いられてきた。
しかし、これらの手法では、3次元空間内における高精度なフィードバック制御は困難である。
そこで、この発明の実施例1では、処理レートが高速な2次元画像フィードバックと、処理レートがやや遅い距離・姿勢データフィードバックとを用いた、画像・距離ハイブリッド型フィードバックなどにより、これを解決する。
また、距離の法線方向情報などを用いることにより、対象物体に対して一定の姿勢を自律的に保ったまま、他の軸については一定方向への移動指令を与えるか、または、オペレータの指令を反映するなどの、半自律モードを実現することができる。
さらに、この発明の実施例1においては、把持状態における対象部品の把持位置姿勢を認識するために、フィンガーアイカメラから得られる画像情報に基づいた把持位置姿勢計測用部である。
一般に、部品が把持されている状態では、一定の姿勢拘束が生じるので、コントローラ30内の画像処理部においては、エッジ処理を用いた探索指定限定の3次元マッチング処理など、比較的簡素な画像処理によっても、物体の位置姿勢認識が可能であることを利用する。
これにより、把持作業時に部品姿勢が変化したような場合においても、位置姿勢精度を確保することが可能となる。
画像計測・認識部のフィンガーアイカメラ計測部32に基づくセンサフィードバック機能(コントローラ30)の入出力情報は、図14の説明図に示した通りである。
すなわち、入力情報は、カメラ画像と、近接距離データと、参照モデルデータと、終点モデルデータと、キャリブレーションデータ(内部、外部)と、であり、出力情報は、目標偏差データである。
一方、フィンガーアイカメラ計測部32に基づく把持位置姿勢計測機能(コントローラ30)の入出力情報は、図15の説明図に示した通りである。
すなわち、入力情報は、カメラ画像と、参照モデルデータと、キャリブレーションデータ(内部、外部)と、であり、出力情報は、対象物体の位置姿勢データである。
次に、図1内の画像計測・認識部の3次元認識部33について詳述する。
一般に、アクティブ3次元計測手法では、パターン光を投光することで密な距離分布データが得られるので、対象物体自体に切欠き特徴などの明確な特徴は必ずしも必要ではなく、より汎用的な位置姿勢認識が可能である。
しかし、大量の3次元データを効率よく処理する必要があり、現在開発されている3次元位置姿勢認識アルゴリズムでは、処理時間をはじめとして、実用性能面で十分であるとは言えない。
これまでに、発明者の所属会社においても、図16に示すような、3次元距離分布モデルに基づく位置姿勢認識アルゴリズム(3次元モデル照合手法)が試作されている。
図16は3次元計測・認識処理の例をブロック図とともに示す説明図である。
図16において、たとえば配管の一部からなる計測対象物体40は、レーザ装置および3次元カメラを有する小型の3次元センサ41により計測される。
まず、3次元センサ41は、計測対象物体40に対してレーザ光をスキャンしながら照射し、計測対象物体40までの距離を計測しながら、計測対象物体40を3次元カメラで撮像する。
続いて、3次元センサ41は、計測対象物体40の距離分布を計算し、画像データに距離値を濃淡で表示して、計測対象物体40の3次元計測結果42を取得する。
最後に、3次元センサ41は、計測対象物体40の位置姿勢の認識処理を行い、計測データ(暗領域)上に、モデルの当てはめ結果(明領域)を重ね合わせて、計測対象物体40の3次元モデル43を取得する。図16では、複数の計測対象物体の認識結果を取得した例を示している。
しかしながら、この発明の実施例1において、段積みされた部品供給箱(トレイ)ならびにキッティング状態からのパーツピッキング作業に適用するためには、高速性およびロバスト性といった面での実用性能をさらに高めることが望ましい。
このため、この発明の実施例1では、3次元姿勢認識処理において、姿勢仮説の探索ツリーをオフライン解析することによる効率化や、計算機上での高速計算アーキテクチャを活用した処理時間向上などを行う。
さらに、計測データの欠損などが生じた場合には、計測された部分の情報のみを用いて、位置姿勢認識に関して一部のあいまい性を残したまま認識処理を行い、ピッキング作業後に把持状態の対象部品を再計測して、把持位置姿勢を確定することにより、ロバストなパーツピッキング機能をシステム的に実現する。
従来システムにおいては、画像処理アルゴリズムを設計する際に、オペレータが画像処理に関する豊富な知識を有する必要であった。また、3次元認識の場合には、2次元処理と3次元処理とを組合せることにより効率的な処理が可能となるが、設計に関する知識はさらに要求されることになる。
そこで、この発明の実施例1では、対象物体の形状やテクスチャ特性に合せて、2次元処理と3次元処理とを組み合わせた適切な画像処理アルゴリズム設計が行われるように、チョコ停対応に関する各機能構成部群との間で双方向に連携を行い、オペレータの設計作業を支援する。
なお、この発明の実施例1で用いる3次元データとしては、発明者の所属会社で開発されている小型3次元レンジファインダや、前述のフィンガーアイカメラから得られる3次元データなど、必要なスペックを有する3次元センサからのデータ利用を想定する。
画像計測・認識部の3次元認識部33の入出力情報は、図17の説明図に示した通りである。
すなわち、入力情報は、距離分布データと、カメラ画像と、参照モデルデータと、キャリブレーションデータ(内部、外部)と、であり、出力情報は、対象物体の位置姿勢データである。
また、画像計測・認識部:アルゴリズム設計支援部の入出力情報は、図18の説明図に示した通りである。
すなわち、入力情報は、表面特性データ、対象物立体形状データ、カメラ画像およびキャリブレーションデータ(内部、外部)であり、出力情報は、認識可否およびアルゴリズム設計プランである。
次に、マニピュレーションデバイス群34内のユニバーサルハンドと、マニピュレーションデバイス群34からの把持作業動作系列を格納するハンドライブラリ8と、について詳述する。
上述した各機能構成部の有効性は、実際の物理世界に作用してこそ発揮されるが、通常の作業動作のみならず、エラーリカバリ動作の実現においても当てはまる。
すなわち、通常時およびエラー時の動作戦略が設計されても、それを実現する物理手段を備えていなければ無意味である。また、物理的な作用要素の形態が分かっていなければ、正しい行動計画自体を立案することもできない。
以上のことから、ハンドに代表されるエンドエフェクタと、その駆動技術(マニピュレーション技術)とは、要素技術として不可欠であり、前節までに述べたチョコ停対応に関する各機能構成部群に対して、双方向的に大きな影響を及ぼしている。
従来の生産ロボットのエンドエフェクタは、空気圧駆動の単純な開閉式グリッパを用いることが多く、把持するワークの形状に応じて、それぞれ専用ハンドを用意していた。
このような従来の専用ハンド方式では、動作戦略は単純であるものの、設計・製作時間が長く、高コストになるうえ、多品種対応のために必要なハンド数が膨大となる、などの課題があった。
これに対して、この発明の実施例1では、上記専用ハンドに代わる解決策として、セル生産ロボットシステムのためのユニバーサルハンドとすることができる。
ただし、すべての組立作業をこなせる万能な単一ユニバーサルハンドの開発は現実的ではなく、対象作業に応じて、必要以上に複雑にならないハンドを設計すべきである。
また、多自由度となるユニバーサルハンドは、その機構を設計するのみでは不十分であり、ワークを把持するまでの把持戦略なども考える必要がある。
そこで、ユニバーサルハンドが対象とする部品の形状と、その部品を把持するのに適したユニバーサルハンドの指先位置と、ワークの位置に多少の変動があっても確実に決められた姿勢でワークを把持するための把持戦略と、ユニバーサルハンドの指先位置と動作を実現するための具体的なハンド機構とをライブラリ化したハンドライブラリ8とを作成し、対象とする組立作業の情報を入力することにより、その組立作業に適したユニバーサルハンド機構を提示することのできる枠組みである。
図19はハンドライブラリ8の概念を図式的に示す説明図である。
図19において、ハンドライブラリ8は、組立作業およびキッティングを含むターゲットタスクに対して、ユニバーサルハンドの把持戦略ソフトウェアを対応付けて、ライブラリ化している。
なお、把持位置決定や把持戦略については、Form ClosureやForce Closureなどの観点から決定することが考えられる。
ハンドライブラリ8は、単に機構設計時のみでなく、チョコ停対応に関する各機能構成部群と連携して、行動計画や教示作業にも役立てることができる。
ハンドライブラリ8においては、与えられた部品形状その他の条件によって、把持点位置の情報がライブラリ化されているので、実際の教示作業の際に、ハンドの動作をティーチングする必要がない。また、部品の初期位置姿勢に所定範囲の誤差が含まれていたとしても、最終的に規定の位置姿勢になるようなロバスト把持戦略もライブラリ化しておくことにより、ティーチングに要する時間を大幅に削減することが可能となる。
以上のように、この発明の実施例1に係る産業用ロボットシステムは、マニピュレータ31およびハンド(マニピュレーションデバイス群34)を有するロボット(ロボットシステム3)を含み、製造対象物となる製品を組み立てるための生産システムに用いられる産業用ロボットシステムであって、生産ラインの立上げ・調整時の教示作業および無人連続操業の障害となるチョコ停に対応するための作業情報および第1の作業パス(概略座標付き作業パス)を生成するチョコ停対応行動計画部4と、作業情報に基づいて、エラーを誘発する作業を抑制するためのエラー情報(エラー発生確率情報、エラー発生原因)を生成するエラー誘発作業抑制部5とを備えている。
また、この発明の実施例1に係る産業用ロボットシステムは、第1の作業パスおよびエラー情報に基づいて第2の作業パス(精密化された作業パス)を生成する教示作業部6と、第2の作業パスに基づいて、ロボットに対する最適化された第3の作業パス(最適化された作業パス)を生成する動作習熟部7とを備えている。
また、この発明の実施例1に係る産業用ロボットシステムは、ロボットの組立作業と制御ソフトウェアとを対応付けてライブラリ化したハンドライブラリ8と、特定作業動作系列を生成する最適作業動作生成部11と、特定作業動作系列を格納する特定作業ライブラリ9と、教示作業部6における操作履歴に基づいて、エラー状態に応じたエラーリカバリ作業を教示するためのエラーリカバリ作業教示部12と、エラーリカバリ作業を格納するエラーリカバリライブラリ10とを備えている。
さらに、この発明の実施例1に係る産業用ロボットシステムは、ロボットの動作モニタ情報を生成して、エラー誘発作業抑制部2、教示作業部6および動作習熟部7に入力するフィンガーアイカメラ計測部32および3次元認識部33と、第2および第3の作業パスと動作モニタ情報とに基づいてロボットを制御するコントローラ30とを備えている。
チョコ停対応行動計画部4は、生産システムおよび製造対象物の構成情報(製品設計データおよび生産設備データ1)と、ハンドライブラリ8、特定作業ライブラリ9およびエラーリカバリライブラリ10の各格納情報と、エラー誘発作業抑制部5からのエラー情報とに基づいて、第1の作業パスを生成する。
エラーリカバリ作業教示部12は、教示作業部6からのエラー発生原因および操作履歴に基づいて、ロボットを含む構成要素についてのエラー復帰情報を事前に算出する。
また、チョコ停対応行動計画部4、教示作業部6および動作習熟部7は、生産システムおよび製造対象物の構成情報から、ロボットの教示に必要な第3の作業パスを含むプログラム情報を生成する。
このように、生産システムおよび製造対象物の構成情報から、多値状態を取り得るロボットを含む各構成要素について、エラー復帰方法を事前に算出するとともに、生産システムおよび製造対象物の構成情報から、ロボットの教示に必要な情報を生成することにより、産業用ロボットを用いた生産システムの据付調整時間の短縮と、運用開始後のエラー無し連続操業時間の拡大とを実現することができる。
(実施例2)
なお、上記実施例1(図1)では、各機能構成部4〜12の大半がいわゆるパーソナルコンピュータ上のソフトウェアとして実装される通例を示したが、実際のファクトリーオートメーションの世界では、生産設備の制御装置に種々のパソコンOSや、各種リアルタイムOS、OSレスのものが混在しており、例えばRT(ロボットテクノロジ)プラットフォームのようなパソコン上のソフトウェアとして実装される知能モジュールソフトウェアと各種制御装置の分散環境では、何らかのglueとなるS/Wを用いてデータ変換、データ通信、データ交換、またはメディア変換をすることが必要なので、図20のように、マッシュアップ部51、52を設けてもよい。
図20はこの発明の実施例2に係る産業用ロボットシステムを概念的に示す説明図であり、実際のファクトリーオートメーションの生産システム内における、各機能構成要素の連携を実現するためのマッシュアップ部51の位置関係を示している。
図20において、ネットワーク50には、マッシュアップ部51、52と、上位情報系53と、PLC(Programmable Logic Controller:プログラマブルロジックコントローラ)54、55とが接続されており、PLC54、55には、それぞれ、操作盤56、57が接続されている。また、PLC54、55は、それぞれ、RC(Robot Controller:ロボットコントローラ)58、59を備えている。
マッシュアップ部51、52は、パソコン上の機能構成部であり、一方のマッシュアップ部51は、システム立上げ時に使用され、他方のマッシュアップ部52は、システム実行時に使用される。
マッシュアップ部51、52は、それぞれ、コンフィギュレーション設定機能(A1)と、PLC/RC変換機能(A2)と、実行カーネル部(A3)と、安全機能(A4)とにより構成される。
コンフィギュレーション設定機能(A1)は、設定ツールであり、GUIを備えた構成からなり、FA用の専用コントローラの配置、デバイスの構成に関するデータを収集しておき、各機能構成部(A2)〜(A4)の実行時に収集データを参照する機能を有する。
PLC/RC変換機能(A2)は、パソコン上の機能構成部を用いてロボットを含む生産設備のコントローラのプログラムを開発した後、コンフィギュレーション設定機能(A1)で指定されたそれぞれのFAコントローラ群に、それら用のプログラムを分配する機能を有し、PLC54、55に対してはシーケンス言語を配布し、RC58、59に対してはロボット言語に変換して配布する。
また、PLC/RC変換機能(A2)は、各制御装置間で動作の同期を取るプログラブ部分についても、具体的な物理的接点番号または論理的変数番号を割り当てた上で配布を行う。
実行カーネル部(A3)は、パソコン上の実行時用に用いる機能構成要素群の動作をマーシャリングし、動作実行全体を司る機能を有し、各コントローラやパソコン上の機能構成要素が、OSの違いなどの理由により直接的に通信接続し得ない場合のインタフェースを司る。
安全機能(A4)は、パソコン上の機能構成要素と、ハードウェアで構成されるいわゆる安全システムとの間で、インターロック信号の交換を行うための橋渡しをする機能を有する。
以上のように、この発明の実施例2によれば、チョコ停対応行動計画部4と、エラー誘発作業抑制部5と、教示作業部6と、動作習熟部7と、ハンドライブラリ8と、最適作業動作生成部11と、特定作業ライブラリ9と、エラーリカバリ作業教示部12と、エラーリカバリライブラリ10と、コントローラ30との連携を実現するためのマッシュアップ部51、52を備えているので、産業用ロボットが、汎用的なパソコンおよび専用のFAコントローラ群や安全システムにより構築された場合であっても、産業用ロボットを用いた生産システムの据付調整時間の短縮と、運用開始後のエラー無し連続操業時間の拡大とを実現することができる。
(実施例3)
なお、上記実施例1(図1)では、特に言及しなかったが、図21〜図24のように、作業エラーを検知するためのエラー検知機能を有するとともに、エラー誘発作業抑制部5およびハンドライブラリ8の機能を含むオフライン教示部を設けてもよい。
作業エラーを検知するためのエラー検知機能、および、エラー発生を抑制するエラー抑制機能は有効なので、この発明の実施例3では、上記機能を有するオフライン教示部を備えている。
オフライン教示部は、エラー検知機能、エラー抑制機能およびハンドライブラリ機能に加えて、エラーリカバリレベル決定機能と、エラー発生リスク分析機能とを備えている。
オフライン教示部のエラー検知機能は、各種センサ情報(ロボット位置、タイムリミット、関節トルク、力覚センサ出力値、画像センサ出力値)から、作業エラー検知ロジック構築を支援する。なお、緊急停止が必要な重篤なエラーは、センサ出力値に直接のリミット値を設けることで検知する。
オフライン教示部のエラーリカバリレベル決定機能は、センサ情報に基づいた条件分岐により、エラーリカバリ時に利用するエラーレベルの決定および復帰用チェックポイントの埋め込みを支援する。
オフライン教示部のエラー発生リスク分析機能は、起きてほしくないことが発生するリスクを分析する機能であり、ここでは、ロボットの作業エラーを抑制する目的で利用される。つまり、ロボットの作業シーケンスおよび作業姿勢の候補が複数存在した場合に、それぞれの候補について、各種エラーの発生するリスクを、過去のエラー情報を統計処理することによって確率的に算出し、この算出値を比較した上で、作業を選択することにより、エラー発生の抑制がフロントローディング可能となる。
なお、分析に用いられるエラー情報としては、エラーリカバリ時に記録したセンサ情報、および、エラー内容の記録結果も用いられる。
オフライン教示部のハンドライブラリ機能の入出力情報は、図21の説明図に示した通りである。
すなわち、入力情報は、部品形状であり、出力情報は、把持可能・不能および把持位置・姿勢値である。
オフライン教示部のエラー検知機能の入出力情報は、図22の説明図に示した通りである。
すなわち、入力情報は、各種センサ情報(ロボット位置、タイムリミット、関節トルク、力覚センサ出力値、画像センサ出力値)であり、出力情報は、作業エラー検知ロジックである。
オフライン教示部のエラーリカバリレベル決定機能の入出力情報は、図23の説明図に示した通りである。
すなわち、入力情報は、作業順序が示された作業シーケンス図であり、出力情報は、エラーリカバリ時に利用するエラーレベルの決定および復帰用チェックポイントの埋め込み済み作業シーケンス図である。
オフライン教示部のエラー発生リスク分析機能の入出力情報は、図24の説明図に示した通りである。
すなわち、入力情報は、作業順序が示された作業シーケンス図と、エラー復帰シーケンス付き作業シーケンス図と、設備やロボットに関する基本設計仕様などの情報と、作業者の教示データと、である。
また、出力情報は、作業順序に基づくエラー発生確率の推移情報と、エラー発生可能性の予測結果・警告と、エラー発生原因・対策に関連する情報と、である。
以上のように、この発明の実施例3によれば、エラー検知機能を有するオフライン教示部を備え、オフライン教示部は、エラー誘発作業抑制部5およびハンドライブラリ8の機能を含むので、産業用ロボットを用いた生産システムの据付調整時間の短縮と、運用開始後のエラー無し連続操業時間の拡大とを実現することができる。
(実施例4)
なお、上記実施例1(図1)では、特に言及しなかったが、教示作業部6に、視覚I/Fおよびテレオペレーション機能を設けてもよい。
教示時においては、ティーチングペンダントの直感的操作を実現することで作業時間を短縮し、機種切り替えを迅速に行うために、テレオペレーション部を用いることが有効である。
この発明の実施例4に係るテレオペレーション部は、視覚I/Fとしては教示作業部6を利用しており、簡易的知覚フィードバック機能と、センサ情報を用いた教示動作の洗練化機能と、センサ情報履歴を利用した自律制御則設計支援機能と、自律制御/マニュアルオペレーションのハイブリッド協調教示機能と、を備えている。
簡易的知覚フィードバック機能は、ジョグ動作時に、センサ情報により接触を検知した場合、バイブレータ振動を返すなどの簡易的知覚フィードバックを実現する。
センサ情報を用いた教示動作の洗練化機能は、オペレータが行う教示動作時に、力覚センサや画像センサの計測値を記録しておき、複数回の操作履歴を統計的に処理して、平均値の取得やエラー値の排除を行うことにより、洗練化された教示パスを生成する。
センサ情報履歴を利用した自律制御則設計支援機能は、自律制御則を設計する際の支援機能として、オペレータ操作時のセンサ情報履歴を統計処理した結果を提供する。
自律制御/マニュアルオペレーションのハイブリッド協調教示機能は、設計された自律制御則を特定移動方向のみに適用して、別方向移動にはマニュアルオペレーションを有効化することにより、教示支援機能を実現する。
以上のように、この発明の実施例3によれば、教示作業部6は、視覚I/Fおよびテレオペレーション機能を有するので、産業用ロボットを用いた生産システムの据付調整時間の短縮と、運用開始後のエラー無し連続操業時間の拡大とを実現するとともに、作業時間をさらに短縮し、機種切り替えを迅速に行うことができる。
(実施例5)
なお、上記実施例1(図1)では、特に言及しなかったが、図25〜図27のように、チョコ停対応行動計画部4、教示作業部6、エラーリカバリ作業教示部12およびエラーリカバリライブラリ10と協働するエラーリカバリ部を設け、エラーリカバリ部に、行動制御機能と、教示作業部強化機能と、テレオペレーション機能とを付加してもよい。
チョコ停対応行動計画部4においては、チョコ停対応行動計画部4が出力するロボットの動作シーケンスに対して、エラーの発生を検知するためのチェックポイント機能が埋め込まれるので、このチェックポイント機能を用いて、検知されたエラー状態からの復帰行動制御を可能にすることにより、長時間の安定稼動、障害時での迅速復帰による高生産性を実現することができる。
具体的には、この発明の実施例5によれば、各種センサ情報(ロボット位置、タイムリミット、関節トルク、力覚センサ、画像センサ)から、エラー状態が把握され、エラー重篤度に応じて行動制御が行われる。なお、緊急停止が必要なエラーは、センサ出力値に直接のリミット値を設けることで即停止が行われる。
この発明の実施例5に係る産業用ロボットシステムは、上記動作を確実に行うために、行動制御機能(B1)、教示作業部強化機能(B2)およびテレオペレーション機能(B3)を有するエラーリカバリ部を備えている。
エラーリカバリ部の行動制御機能(B1)は、エラーの重篤度に応じて、以下の3段階(M1)〜(M3)のエラーリカバリ動作モードを切り替えるとともに、各モード(M1)〜(M3)でエラー状態から復旧させた後、任意の停止位置から各ロボットおよび各生産設備の同期を取るなど、生産再開のための手順を補助する。
巻き戻し的自動復帰モード(M1)は、エラーを検知した現在位置から、隣接する前チェックポイントまで、巻き戻し的に自動復帰を行う。
オペレータ復帰動作(テレオペレーション)モード(M2)は、エラー停止信号を発生してオペレータを呼び出し、オペレータはテレオペレーション操作でエラーリカバリ動作を行う。なお、隣接しないチェックポイントへの復帰が必要な場合には、各ロボットおよび各生産設備の同期を取りながらの復帰をシステム側が支援する。
オペレータ復帰動作(マニュアル操作)モード(M3)は、エラー停止信号を発生してオペレータを呼び出し、オペレータは作業箇所からエラーを起こしたワークを直接除去するなどの措置を講じる。なお、隣接しないチェックポイントへの復帰が必要な場合には、各ロボットおよび各生産設備の同期を取りながらの復帰を、システム側が支援する。
エラーリカバリ部の教示作業部強化機能(B2)は、力覚センサ、カメラ画像からなる複合情報の直感的表示を行い、手先カメラ画像上に力覚センサ情報を可視化表示し、直感的操作を支援する。また、ディスプレイ表示される手先カメラ画像の視認性向上を実現するとともに、デジタルズーム、エッジ強調画像生成、コントラスト改善などを行う。
エラーリカバリ部のテレオペレーション機能(B3)は、視覚I/Fとして教示作業部6を利用し、簡易的知覚フィードバックを行う。すなわち、ジョグ動作時、センサ情報により接触を検知した場合に、バイブレータ振動を返すなどの簡易的知覚フィードバックを実現する。
エラーリカバリ部の行動制御機能の入出力情報は、図25の説明図に示した通りである。
すなわち、入力情報は、作業シーケンス図およびエラーの重篤度であり、出力情報は、エラーリカバリ動作モードである。
エラーリカバリ部の教示作業部強化機能の入出力情報は、図26の説明図に示した通りである。
すなわち、入力情報は、各種センサ情報(ロボット位置、タイムリミット、関節トルク、力覚センサ出力値、画像センサ出力値)と、作業パスと、作業者の操作量と、であり、出力情報は、複合情報表示画像である。
エラーリカバリ部のテレオペレーション操作機能の入出力情報は、図27の説明図に示した通りである。
すなわち、入力情報は、作業者の操作量であり、出力情報は、簡易的知覚フィードバック制御操作量である。
以上のように、この発明の実施例5によれば、チョコ停対応行動計画部4、教示作業部6、エラーリカバリ作業教示部12およびエラーリカバリライブラリ10と協働するエラーリカバリ部を備え、エラーリカバリ部は、行動制御機能と、教示作業部強化機能と、テレオペレーション機能とを含むので、産業用ロボットを用いた生産システムの据付調整時間の短縮と、運用開始後のエラー無し連続操業時間の拡大とを実現するとともに、長時間の安定稼動、障害時での迅速復帰による高生産性を実現することができる。
(実施例6)
なお、上記実施例1では、特に言及しなかったが、図28〜図31のように、教示作業部6、動作習熟部7、フィンガーアイカメラ計測部32および3次元認識部33と協働する認識部を設け、認識部に、部品ピッキング用物体認識機能と、ハイブリッド視覚補正機能と、エラー検知用視覚機能と、認識アプリケーション構築支援機能とを付加してもよい。
この発明の実施例6においては、教示、実行動作、エラー検知時に必要とされる認識部を設けることにより、迅速な機種切り替えおよび高生産性を実現する。
画像関連では、手先カメラ、環境側固定カメラの使用(ステレオカメラ構成を含む)を前提とし、必要な場合には、3次元レンジファインダなどのアクティブ3次元センサの利用を想定する。
この発明の実施例6に係る認識部は、部品ピッキング用物体認識機能(C1)と、ハイブリッド視覚補正機能(C2)と、エラー検知用視覚機能(C3)と、認識アプリケーション構築支援機能(C4)とを備えている。
認識部の部品ピッキング用物体認識機能(C1)は、3次元認識部33を用いて、部品箱からの物体ピッキング用認識機能を構成し、取り出し時に発生する干渉のチェックと、部品把持状態における把持物体の位置補正機能とを含む。
認識部のハイブリッド視覚補正機能(C2)は、3次元認識部33を利用して、2次元、3次元ハイブリッド視覚補正機能を実現する。また、画像中での相対位置あわせ指示を受けて、3次元認識部33を用いて得られる3次元位置姿勢出力に基づいた作業ポイントへの移動機能を実現するとともに、拘束面に対して一定の相対姿勢・相対距離を保ちつつ移動することにより、マニュアル移動指示とあわせた半自律移動機能を実現する。
認識部のエラー検知用視覚機能(C3)は、市販など、一般的に入手可能な画像認識モジュールを利用し、手先カメラから得られる画像を用いて、部品形状のチェック機能を提供する。この際のチェックにおいては、複数個の部品形状データに基づく統計処理を施した結果に基づきエラー検知を行う。
認識部の認識アプリケーション構築支援機能(C4)は、上記各機能構成部(C1)〜(C3)を用いたピッキング作業、視覚補正作業、エラー検知、の実行機能を構築する際に、モデル登録、パラメータ設定、キャリブレーションなど、ユーザーによる容易なアプリケーション構築支援機能を提供する。
認識部の部品ピッキング用物体認識機能(C1)(認識モジュール)の入出力情報は、図28の説明図に示した通りである。
すなわち、入力情報は、センサ出力データ、パラメータおよびモデル情報であり、出力情報は、部品箱からの物体ピッキング用認識結果と、干渉チェック結果と、把持物体の位置補正値と、である。
認識部のハイブリッド視覚補正機能(C2)(補正モジュール)の入出力情報は、図29の説明図に示した通りである。
すなわち、入力情報は、センサ出力データと、2次元画像中での相対位置あわせ指示と、3次元位置姿勢値と、であり、出力情報は、作業ポイントへの移動軌道および移動量である。
認識部のエラー検知用視覚機能(C3)(視覚モジュール)の入出力情報は、図30の説明図に示した通りである。
すなわち、入力情報は、手先カメラから得られる画像と、複数個の部品形状データと、であり、出力情報は、エラー検知出力である。
認識部の認識アプリケーション構築支援機能(C4)(構築支援モジュール)の入出力情報は、図31の説明図に示した通りである。
すなわち、入力情報は、モデル情報、パラメータ情報およびキャリブレーションデータである。
また、出力情報は、認識処理パラメータと、認識対象物体モデルデータと、認識処理シーケンスを表すデータと、である。
以上のように、この発明の実施例6によれば、教示作業部6、動作習熟部7、フィンガーアイカメラ計測部32および3次元認識部33と協働する認識部を備え、認識部は、部品ピッキング用物体認識機能と、ハイブリッド視覚補正機能と、エラー検知用視覚機能と、認識アプリケーション構築支援機能とを含むので、産業用ロボットを用いた生産システムの据付調整時間の短縮と、運用開始後のエラー無し連続操業時間の拡大とを実現するとともに、迅速な機種切り替えおよび高生産性を実現することができる。
なお、上記実施例1〜6の構成は、任意に組み合わせて適用することができ、これにより重複した作用効果が得られることは言うまでもない。
(実施例7)
さらに、前述の実施例1(図1)では、動作習得部7および各種ライブラリ8〜10を設けるとともに、ロボットシステム3内にフィンガーアイカメラ計測部32および3次元認識部33を設けたが、これらを省略して、図32のように構成してもよい。
図32はこの発明の実施例7に係る産業用ロボットシステムを示すブロック構成図であり、前述(図1参照)と同様のものについては、前述と同一符号が付されるか、または符号の後に「A」が付されている。
図32において、産業用ロボットシステムは、あらかじめ作成準備された3次元CADによる製品設計データおよび生産設備データ1(部品連結情報、幾何学的形状データ、設備レイアウトデータなどを含む)と、生産ラインに設置されたロボットシステム3Aとを備えている。
また、製品設計データおよび生産設備データ1およびロボットシステム3Aと関連した構成として、チョコ停対応行動計画部4Aと、エラー誘発作業抑制部5Aと、教示作業部6Aと、コントローラ30Aと、マニピュレータ31Aと、を備えている。コントローラ30A、マニピュレータ31Aは、ロボットシステム3A内に設けられている。
チョコ停対応行動計画部4Aは、製品設計データおよび生産設備データ1から部品連結情報、幾何学的形状データ、設備レイアウトデータに基づいて、エラー復帰シーケンス付き作業シーケンス図と、概略座標付き作業パスとを作成し、教示作業部6Aに入力する。
また、チョコ停対応行動計画部4Aは、エラー誘発作業抑制部5Aと相互に関連しており、エラー誘発作業抑制部5Aに対して作業順序の候補を入力するとともに、エラー誘発作業抑制部5Aからエラー発生確率情報を取り込む。
教示作業部6Aは、チョコ停対応行動計画部4Aからの作業シーケンス図(エラー復帰シーケンス付き)および作業パス(概略座標付き)と、ロボットシステム3Aからの動作モニタ情報とに基づいて、精密化された作業パス(習熟前のロボットプログラム)を生成してコントローラ30Aに入力する。
コントローラ30Aは、ロボットプログラムと、マニピュレータ31Aからの動作モニタ情報とに基づいて、マニピュレータ31Aを駆動制御する。
次に、図32に示したこの発明の実施例7による動作について説明する。
一般的に、設計者による製品の設計手順としては、前述のように、最初に、製造したい製品の構造設計と、それを製造するためのセルのレイアウト設計とが行われる。
これにより、製品を構成する部品の結合順序関係を表す部品連結情報(部品構成ツリー図)と、部品の幾何学的形状データなどの製品設計データと、セル内の設備レイアウトデータと、ロボットの仕様などの生産設備データとが得られる。
これらの設計者による設計作業の結果が得られている状態から、この発明の実施例7によるシステム動作が開始されるものとする。
以下、生産設備の立上げ時における、この発明の実施例7によるシステム動作について説明する。
最初のフェーズでは、製品設計データおよび生産設備データ1が、チョコ停対応行動計画部4Aに対して入力される。
これにより、チョコ停対応行動計画部4Aにおいては、部品連結情報に基づき、製品製造作業を細かい作業の系列に分解し、セル内各設備への各作業の割付、作業順序の生成が行われる。このとき、作業を分解して作業順序を決定する際に、エラー誘発作業抑制部5Aに対して作業順序の候補を与えると、その作業に対するエラー発生確率情報が返されるので、チョコ停リスクの低い作業順序が選択される。なお、エラー発生確率は、生産実行時の動作モニタ情報で随時更新される。
また、チョコ停対応行動計画部4Aにおいては、各作業と作業順序とを決定するとともに、作業中のチョコ停を検定するチェックポイントと、チェックポイント不通過時にどこまで戻れば作業を再開できるかという復帰ポイントと、復帰ポイントに戻るための復帰パスと、障害物を回避するための経由ポイントと、各ポイントをつなぐ作業パスと、各作業パスの実行順序を記述したシーケンスと、他のロボットや装置を待たせておく同期ポイントを含む「エラー復帰シーケンス付き作業シーケンス図」が生成される。
また、各作業パスに対しては、以下のような属性ラベルが付与される。
すなわち、「2点間移動」、「経由点への移動」、「エンドエフェクタデバイスによる作用をともなう作業」、「部品を把持する直前直後のアプローチ移動、またはあらかじめ最適化された作業動作といったセンサフィードバック制御による作業」、「チョコ停からの復帰シーケンス中」などである。なお、ひとつの作業パスに対して複数のラベルが付けられる場合もある。
この段階における作業シーケンス図には、ラベル付き作業パスおよび各ポイントのみが含まれ、各作業パスの中身はまだ含まれない。
なお、作業パスの中身とは、パス両端および経由点(必要に応じて、複数の経由点が追加される)の位置姿勢座標と、座標間移動方法(制御則、補間方法など)の指定である。
また、あらかじめ最適化された作業動作とは、作業ミスを抑制して、すばやく、かつしなやかに作業するコツを含んでいる。
次のフェーズとして、チョコ停対応行動計画部4Aにおいては、セル内の設備配置データおよび作業順序データを用いて、各作業に対する大まかな作業パスの中身が生成される。
たとえば、生産セル内に部品置場および作業台があったと仮定して、部品置場から作業台に部品を運ぶ作業について、部品を運ぶ具体的な軌道に関する作業パスを考えると、ロボットが周辺の物体と干渉する可能性があるので、最終的には、各作業パスの実現値を精密な値に設定する必要がある。
ただし、この場合、各作業パスは約5cm程度の精度で生成されるので、物体を把持する基準姿勢(部品とハンドとの相対姿勢)は、後段の教示作業部6Aにおいて、教示作業入力手段を用いて作業者による教示で決定される。
上記操作は、すべての作業パスについて繰り返され、ここまでのフェーズで、チョコ停対応行動計画部4Aからの出力情報として、「エラー復帰シーケンス付き作業シーケンス図+概略座標付き作業パス」からなるデータが得られる。
次に、教示作業部6Aの動作が開始する。
教示作業部6Aにおいては、概略座標付き作業パスに対して、把持点など動作要所の最終的な位置合わせのみを教示作業入力手段を用いて教示作業者が行うことにより、絶対座標が指定された精密化された作業パスが決定される。
このとき、教示作業用パソコンまたはティーチングペンダントに表示されるエコロジカル・インタフェース理論に基づくユーザインタフェースにより、動作要所および作業状況が提示され、作業者は提示状況を見て、位置姿勢の精密化作業を行い、必要に応じて作業パスを教示作業入力手段で追加する。
以上のように、チョコ停対応行動計画部4A、エラー誘発作業抑制部5A、教示作業部6Aは、各設計データ1は、連携して、ロボットシステム3Aに対するロボットプログラムを生成する。
すなわち、この発明の実施例7(図32)の構成においても、製品設計・生産設備データ1から、チョコ停発生時の復帰シーケンスを含むコントローラ30Aで実行可能なロボットプログラムが、従来に比べて大幅に少ない教示作業者の負荷で得られる。
1 製品設計データ・生産設備データ、2 特定作業仕様、3、3A ロボットシステム、4、4A チョコ停対応行動計画部、5、5A エラー誘発作業抑制部、6、6A 教示作業部、7 動作習熟部、8 ハンドライブラリ、9 特定作業ライブラリ、10 エラーリカバリライブラリ、11 最適作業動作生成部、12 エラーリカバリ作業教示部、30、30A コントローラ、31、31A マニピュレータ、32 フィンガーアイカメラ計測部、3次元認識部、34 マニピュレーションデバイス群、34a ユニバーサルハンド、34b ロボットハンド、32a 高速カメラ、32b 全方位ミラー、40 計測対象物体、41 3次元センサ、50 ネットワーク、51 マッシュアップ部、W 組立部品。
この発明による産業用ロボットシステムは、マニピュレータおよびハンドを有するロボットを含み、製造対象物となる製品を組み立てるための生産システムに用いられる産業用ロボットシステムであって、生産ラインの立上げ・調整時の教示作業および無人連続操業の障害となるチョコ停に対応するための作業情報および第1の作業パスを生成するチョコ停対応行動計画部と、作業情報に基づいて、エラーを誘発する作業を抑制するためのエラー情報を生成するエラー誘発作業抑制部と、第1の作業パスおよびエラー情報に基づいて絶対座標を指定する第2の作業パスを生成する教示作業部と、第2の作業パスに基づいて、ロボットに対する最適化された第3の作業パスを生成する動作習熟部と、ロボットの組立作業と制御ソフトウェアとを対応付けてライブラリ化したハンドライブラリと、特定作業動作系列を生成する最適作業動作生成部と、特定作業動作系列を格納する特定作業ライブラリと、教示作業部における操作履歴に基づいて、エラー状態に応じたエラーリカバリ作業を教示するためのエラーリカバリ作業教示部と、エラーリカバリ作業を格納するエラーリカバリライブラリと、ロボットの動作モニタ情報を生成して、エラー誘発作業抑制部、教示作業部および動作習熟部に入力するフィンガーアイカメラ計測部および3次元認識部と、第2および第3の作業パスと動作モニタ情報とに基づいてロボットを制御するコントローラと、を備え、チョコ停対応行動計画部は、少なくとも部品連結情報、幾何学的形状データ、設備レイアウトデータを含む生産システムおよび製造対象物の構成情報と、ハンドライブラリ、特定作業ライブラリおよびエラーリカバリライブラリの各格納情報と、エラー誘発作業抑制部からのエラー情報とに基づいて、第1の作業パスを生成し、作業情報は、少なくとも作業中のチョコ停を検定するチェックポイントと、チェックポイントを不通過時にどこまで戻れば作業を再開できるかという復帰ポイントと、復帰ポイントに戻るための復帰パスと、各ポイントをつなぐ作業パスと、各作業パスの実行順序を記述したシーケンスと、同期ポイントとを含み、教示作業部は、教示作業入力手段を用いて入力作業を行う作業者の入力に基づいて第2の作業パスを生成する際に、ミスを誘発する作業動作については作業者に警告を発報するものである。

Claims (7)

  1. マニピュレータおよびハンドを有するロボットを含み、製造対象物となる製品を組み立てるための生産システムに用いられる産業用ロボットシステムであって、
    生産ラインの立上げ・調整時の教示作業および無人連続操業の障害となるチョコ停に対応するための作業情報および第1の作業パスを生成するチョコ停対応行動計画部と、
    前記作業情報に基づいて、エラーを誘発する作業を抑制するためのエラー情報を生成するエラー誘発作業抑制部と、
    前記第1の作業パスおよび前記エラー情報に基づいて第2の作業パスを生成する教示作業部と、
    前記第2の作業パスに基づいて、前記ロボットに対する最適化された第3の作業パスを生成する動作習熟部と、
    前記ロボットの組立作業と制御ソフトウェアとを対応付けてライブラリ化したハンドライブラリと、
    特定作業動作系列を生成する最適作業動作生成部と、
    前記特定作業動作系列を格納する特定作業ライブラリと、
    前記教示作業部における操作履歴に基づいて、エラー状態に応じたエラーリカバリ作業を教示するためのエラーリカバリ作業教示部と、
    前記エラーリカバリ作業を格納するエラーリカバリライブラリと、
    前記ロボットの動作モニタ情報を生成して、前記エラー誘発作業抑制部、前記教示作業部および前記動作習熟部に入力するフィンガーアイカメラ計測部および3次元認識部と、
    前記第2および第3の作業パスと前記動作モニタ情報とに基づいて前記ロボットを制御するコントローラと、を備え、
    前記チョコ停対応行動計画部は、
    前記生産システムおよび前記製造対象物の構成情報と、
    前記ハンドライブラリ、前記特定作業ライブラリおよび前記エラーリカバリライブラリの各格納情報と、
    前記エラー誘発作業抑制部からのエラー情報と
    に基づいて、前記第1の作業パスを生成し、
    前記エラーリカバリ作業教示部は、前記教示作業部からのエラー発生原因および操作履歴に基づいて、前記ロボットを含む構成要素についてのエラー復帰情報を算出し、
    前記チョコ停対応行動計画部、前記教示作業部および前記動作習熟部は、前記生産システムおよび前記製造対象物の構成情報から、前記ロボットの教示に必要な前記第3の作業パスを含むプログラム情報を生成することを特徴とする産業用ロボットシステム。
  2. 前記チョコ停対応行動計画部と、前記エラー誘発作業抑制部と、前記教示作業部と、前記動作習熟部と、前記ハンドライブラリと、前記最適作業動作生成部と、前記特定作業ライブラリと、前記エラーリカバリ作業教示部と、前記エラーリカバリライブラリと、前記コントローラとの連携を実現するためのマッシュアップ部を備えたことを特徴とする請求項1に記載の産業用ロボットシステム。
  3. エラー検知機能を有するオフライン教示部を備え、
    前記オフライン教示部は、前記エラー誘発作業抑制部および前記ハンドライブラリの機能を含むことを特徴とする請求項1または請求項2に記載の産業用ロボットシステム。
  4. 前記教示作業部は、視覚I/Fおよびテレオペレーション機能を含むことを特徴とする請求項1から請求項3までのいずれか1項に記載の産業用ロボットシステム。
  5. 前記チョコ停対応行動計画部、前記教示作業部、前記エラーリカバリ作業教示部および前記エラーリカバリライブラリと協働するエラーリカバリ部を備え、
    前記エラーリカバリ部は、行動制御機能と、教示作業部強化機能と、テレオペレーション機能とを含むことを特徴とする請求項1から請求項4までのいずれか1項に記載の産業用ロボットシステム。
  6. 前記教示作業部、前記動作習熟部、前記フィンガーアイカメラ計測部および前記3次元認識部と協働する認識部を備え、
    前記認識部は、部品ピッキング用物体認識機能と、ハイブリッド視覚補正機能と、エラー検知用視覚機能と、認識アプリケーション構築支援機能とを含むことを特徴とする請求項1から請求項5までのいずれか1項に記載の産業用ロボットシステム。
  7. マニピュレータを有するロボットを含み、製造対象物となる製品を組み立てるための生産システムに用いられる産業用ロボットシステムであって、
    生産ラインの立上げ・調整時の教示作業および無人連続操業の障害となるチョコ停に対応するための作業情報および第1の作業パスを生成するチョコ停対応行動計画部と、
    前記作業情報に基づいて、エラーを誘発する作業を抑制するためのエラー情報を生成するエラー誘発作業抑制部と、
    前記第1の作業パスおよび前記エラー情報に基づいて第2の作業パスを生成する教示作業部と、
    前記第2の作業パスに基づいて前記ロボットを制御するコントローラと、を備え、
    前記チョコ停対応行動計画部は、前記生産システムおよび前記製造対象物の構成情報と、前記エラー誘発作業抑制部からのエラー情報とに基づいて、前記第1の作業パスを生成し、
    前記チョコ停対応行動計画部および前記教示作業部は、前記生産システムおよび前記製造対象物の構成情報から、前記ロボットの教示に必要な前記第2の作業パスを含むプログラム情報を生成することを特徴とする産業用ロボットシステム。
JP2010550536A 2009-02-12 2010-02-10 産業用ロボットシステム Active JP5436460B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010550536A JP5436460B2 (ja) 2009-02-12 2010-02-10 産業用ロボットシステム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009029374 2009-02-12
JP2009029374 2009-02-12
PCT/JP2010/051962 WO2010092981A1 (ja) 2009-02-12 2010-02-10 産業用ロボットシステム
JP2010550536A JP5436460B2 (ja) 2009-02-12 2010-02-10 産業用ロボットシステム

Publications (2)

Publication Number Publication Date
JPWO2010092981A1 true JPWO2010092981A1 (ja) 2012-08-16
JP5436460B2 JP5436460B2 (ja) 2014-03-05

Family

ID=42561822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010550536A Active JP5436460B2 (ja) 2009-02-12 2010-02-10 産業用ロボットシステム

Country Status (6)

Country Link
US (1) US9393691B2 (ja)
JP (1) JP5436460B2 (ja)
KR (1) KR101255948B1 (ja)
CN (1) CN102317044B (ja)
DE (1) DE112010000775B4 (ja)
WO (1) WO2010092981A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019500226A (ja) * 2015-12-30 2019-01-10 フランカ エミカ ゲーエムベーハーFRANKA EMIKA GmbH ロボットおよびロボット操作方法

Families Citing this family (113)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130080892A1 (en) * 2010-05-28 2013-03-28 Nec Corporation Information processing device, gui manipulation assistance method, and computer-readable recording medium
US20130079905A1 (en) * 2010-06-03 2013-03-28 Hitachi, Ltd. Human-Operated Working Machine System
US20120095575A1 (en) * 2010-10-14 2012-04-19 Cedes Safety & Automation Ag Time of flight (tof) human machine interface (hmi)
KR101530235B1 (ko) * 2010-11-08 2015-06-23 에이비비 테크놀로지 리미티드 배터리 검사 및 분류 시스템과 그에 관한 방법
DE102010053668A1 (de) * 2010-12-07 2012-06-14 Klaus-Dieter Becker Vorrichtung und Verfahren zur Erstellung eines Programms für computergesteuerte Maschinen
JP2012206219A (ja) * 2011-03-30 2012-10-25 Seiko Epson Corp ロボット制御装置及びロボットシステム
US9031697B2 (en) * 2011-04-15 2015-05-12 Irobot Corporation Auto-reach method for a remote vehicle
US9025827B2 (en) 2011-10-19 2015-05-05 Crown Equipment Corporation Controlling truck forks based on identifying and tracking multiple objects in an image scene
JP5915214B2 (ja) 2012-02-01 2016-05-11 セイコーエプソン株式会社 ロボット装置、組立て方法、及び組立てプログラム
CN102581445B (zh) * 2012-02-08 2014-08-13 中国科学院自动化研究所 机器人的视觉实时纠偏系统和纠偏方法
US9477936B2 (en) 2012-02-09 2016-10-25 Rockwell Automation Technologies, Inc. Cloud-based operator interface for industrial automation
KR101330049B1 (ko) * 2012-03-06 2013-11-18 한국기계연구원 3차원 특징점 기반 직접 교시 궤적 후보정 방법
DE102012008073A1 (de) 2012-04-24 2013-10-24 Kuka Roboter Gmbh Verfahren und Mittel zum Vorgeben und/oder Steuern eines Manipulatorprozesses
EP2685403A3 (en) 2012-07-09 2017-03-01 Technion Research & Development Foundation Limited Natural machine interface system
JP2014024162A (ja) * 2012-07-27 2014-02-06 Seiko Epson Corp ロボットシステム、ロボット制御装置、ロボット制御方法及びロボット制御プログラム
US10081109B2 (en) * 2012-09-06 2018-09-25 Fanuc America Corporation Haptic teach pendant
CN104812535A (zh) * 2012-10-11 2015-07-29 Abb技术有限公司 自动产生用于将机器人从停止位置返回预设重启位置的无碰撞返回程序的方法和设备
JP5582427B2 (ja) * 2012-12-18 2014-09-03 株式会社安川電機 教示データ作成装置、ロボットシステム、及び教示データ作成方法
KR101956073B1 (ko) * 2012-12-20 2019-03-08 삼성전자주식회사 시각적 인디케이터를 이용하여 사용자 인터페이스를 제공하는 3차원 입체 영상 표시 장치 및 그 장치를 이용한 방법
EP2749974A2 (en) * 2012-12-28 2014-07-02 Kabushiki Kaisha Yaskawa Denki Robot teaching system, robot teaching assistant device, and robot teaching method
US9393695B2 (en) 2013-02-27 2016-07-19 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
US9498885B2 (en) * 2013-02-27 2016-11-22 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with confidence-based decision support
US9804576B2 (en) 2013-02-27 2017-10-31 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with position and derivative decision reference
US9798302B2 (en) 2013-02-27 2017-10-24 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with redundant system input support
US9956687B2 (en) 2013-03-04 2018-05-01 Microsoft Technology Licensing, Llc Adapting robot behavior based upon human-robot interaction
JP6022394B2 (ja) * 2013-03-28 2016-11-09 株式会社神戸製鋼所 作業経路情報設定装置、プログラム、および作業経路情報設定方法
US9786197B2 (en) * 2013-05-09 2017-10-10 Rockwell Automation Technologies, Inc. Using cloud-based data to facilitate enhancing performance in connection with an industrial automation system
US9989958B2 (en) 2013-05-09 2018-06-05 Rockwell Automation Technologies, Inc. Using cloud-based data for virtualization of an industrial automation environment
US9703902B2 (en) 2013-05-09 2017-07-11 Rockwell Automation Technologies, Inc. Using cloud-based data for industrial simulation
US9162357B2 (en) * 2013-06-26 2015-10-20 Canon Kabushiki Kaisha Control method for robot system and robot system
JP5850003B2 (ja) 2013-07-26 2016-02-03 株式会社安川電機 ロボットシステム、ロボットシステムのロボット管理コンピュータ及びロボットシステムの管理方法
JP5939213B2 (ja) * 2013-08-09 2016-06-22 株式会社安川電機 ロボット制御装置及びロボット制御方法
JP6309220B2 (ja) * 2013-08-12 2018-04-11 株式会社ダイヘン 搬送システム
EP2845696B1 (de) * 2013-09-10 2017-05-17 Siemens Aktiengesellschaft Bearbeitungsmaschine mit redundanten Achsen und Auflösung der Redundanz in Echtzeit
US9841749B2 (en) * 2014-04-01 2017-12-12 Bot & Dolly, Llc Runtime controller for robotic manufacturing system
US9958862B2 (en) * 2014-05-08 2018-05-01 Yaskawa America, Inc. Intuitive motion coordinate system for controlling an industrial robot
JP6418782B2 (ja) * 2014-05-16 2018-11-07 キヤノン株式会社 ロボットシステムの制御方法、プログラム、記録媒体、ロボットシステム、及び診断装置
DE102014213262A1 (de) * 2014-07-08 2016-01-14 Kuka Roboter Gmbh Maschine und Verfahren zum Betreiben einer Maschine
JP6660102B2 (ja) * 2014-08-27 2020-03-04 キヤノン株式会社 ロボット教示装置およびその制御方法、ロボットシステム、プログラム
US11042131B2 (en) 2015-03-16 2021-06-22 Rockwell Automation Technologies, Inc. Backup of an industrial automation plant in the cloud
US11513477B2 (en) 2015-03-16 2022-11-29 Rockwell Automation Technologies, Inc. Cloud-based industrial controller
US11243505B2 (en) 2015-03-16 2022-02-08 Rockwell Automation Technologies, Inc. Cloud-based analytics for industrial automation
US10496061B2 (en) 2015-03-16 2019-12-03 Rockwell Automation Technologies, Inc. Modeling of an industrial automation environment in the cloud
US9939800B2 (en) * 2015-04-30 2018-04-10 Bae Systems Plc Path following machining method and apparatus
US9707680B1 (en) 2015-05-28 2017-07-18 X Development Llc Suggesting, selecting, and applying task-level movement parameters to implementation of robot motion primitives
US9895809B1 (en) 2015-08-20 2018-02-20 X Development Llc Visual annotations in robot control interfaces
CN107921634B (zh) * 2015-08-25 2021-04-02 川崎重工业株式会社 机器人系统
CN108450015B (zh) * 2015-08-31 2021-07-02 株式会社幸福日本 Ic测试系统
KR20180015774A (ko) * 2015-09-25 2018-02-14 두산로보틱스 주식회사 로봇 제어 방법 및 장치
DE102015222168B4 (de) * 2015-11-11 2024-02-22 Kuka Roboter Gmbh Verfahren und computerprogramm zur korrektur von fehlern eines manipulatorsystems
DE102015222164A1 (de) 2015-11-11 2017-05-11 Kuka Roboter Gmbh Verfahren und Computerprogramm zur Erzeugung einer grafischen Benutzerschnittstelle eines Manipulatorprogramms
US9902071B2 (en) * 2015-12-18 2018-02-27 General Electric Company Control system and method for brake bleeding
CN105459136B (zh) * 2015-12-29 2017-07-14 上海帆声图像科技有限公司 机器人视觉抓取方法
JP6333868B2 (ja) 2016-01-21 2018-05-30 ファナック株式会社 セル制御装置、及び製造セルにおける複数の製造機械の稼働状況を管理する生産システム
JP2017146805A (ja) * 2016-02-17 2017-08-24 株式会社入曽精密 切削加工装置、撮像方法、およびプログラム、並びに撮像装置
JP6114421B1 (ja) * 2016-02-19 2017-04-12 ファナック株式会社 複数の産業機械の作業分担を学習する機械学習装置,産業機械セル,製造システムおよび機械学習方法
KR101865691B1 (ko) * 2016-04-05 2018-06-11 한국과학기술원 인간 로봇 상호작용 기반의 작업 수행 로봇 및 방법
TWI805545B (zh) * 2016-04-12 2023-06-21 丹麥商環球機器人公司 用於藉由示範來程式化機器人之方法和電腦程式產品
CN105690395B (zh) * 2016-04-23 2017-09-19 宁波市智能制造产业研究院 工业机器人及其控制方法
CN105835058B (zh) * 2016-04-23 2017-10-27 福州环亚众志计算机有限公司 一种程序生成系统
US9990535B2 (en) 2016-04-27 2018-06-05 Crown Equipment Corporation Pallet detection using units of physical length
JP6360105B2 (ja) * 2016-06-13 2018-07-18 ファナック株式会社 ロボットシステム
US10220511B2 (en) * 2016-07-28 2019-03-05 X Development Llc Customized robotic installation based on measurements collected on site
US20180029235A1 (en) * 2016-07-28 2018-02-01 X Development Llc Error Accrual and Mitigation During Robotic Process
JP6392817B2 (ja) * 2016-08-04 2018-09-19 ファナック株式会社 シミュレーション装置
JP6858521B2 (ja) * 2016-09-29 2021-04-14 川崎重工業株式会社 ロボット復旧支援装置及びそれを備えるロボットシステム
US10642244B2 (en) * 2016-12-19 2020-05-05 Autodesk, Inc. Robotic augmentation of creative tasks
JP2018126797A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
DE102017201949A1 (de) * 2017-02-08 2018-08-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System zur Steuerung mindestens eines Betriebsmittels zur Herstellung und/oder Montage von Werkstücken
JP6708581B2 (ja) * 2017-04-07 2020-06-10 ライフロボティクス株式会社 教示装置、表示装置、教示プログラム及び表示プログラム
JP6457587B2 (ja) * 2017-06-07 2019-01-23 ファナック株式会社 ワークの動画に基づいて教示点を設定するロボットの教示装置
CN107127381A (zh) * 2017-07-04 2017-09-05 四川普什宁江机床有限公司 连杆油孔孔口曲面倒角加工设备及方法
TWI650626B (zh) * 2017-08-15 2019-02-11 由田新技股份有限公司 基於三維影像之機械手臂加工方法及系統
JP6931585B2 (ja) * 2017-10-02 2021-09-08 株式会社オカムラ 作業システム、作業システムの制御方法及びプログラム
WO2019069361A1 (ja) * 2017-10-03 2019-04-11 三菱電機株式会社 把持位置姿勢教示装置、把持位置姿勢教示方法及びロボットシステム
EP3476549A1 (en) * 2017-10-27 2019-05-01 Creaholic SA Hardware module, robotic system, and method for operating the robotic system
EP3718706A4 (en) * 2017-11-28 2021-10-06 Kawasaki Jukogyo Kabushiki Kaisha SKILLS TRANSFER MACHINE
EP3722053A4 (en) * 2017-12-08 2020-12-02 Fuji Corporation CONTROL DEVICE, WORKPIECE OPERATING DEVICE, WORKPIECE OPERATING SYSTEM AND CONTROL METHOD
US11830131B2 (en) * 2018-02-06 2023-11-28 Veo Robotics, Inc. Workpiece sensing for process management and orchestration
JP6810087B2 (ja) * 2018-03-29 2021-01-06 ファナック株式会社 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
JP7091777B2 (ja) * 2018-03-30 2022-06-28 株式会社安川電機 ロボットシステム及び制御方法
CN108469824A (zh) * 2018-04-08 2018-08-31 浙江国自机器人技术有限公司 一种洗地机器人示教式工程实施系统及其方法
CN108501004B (zh) * 2018-04-13 2020-05-05 宁波德深机械设备有限公司 工业机器人的示教系统
US10824142B2 (en) 2018-05-01 2020-11-03 Dexterity, Inc. Autonomous robot with on demand teleoperation
WO2020005164A1 (en) * 2018-06-29 2020-01-02 Senserbot Pte. Ltd. Task management method and system thereof
WO2020031718A1 (ja) * 2018-08-08 2020-02-13 ソニー株式会社 制御装置、制御方法、およびプログラム
JP7337495B2 (ja) * 2018-11-26 2023-09-04 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
JP7078174B2 (ja) * 2019-03-15 2022-05-31 オムロン株式会社 ロボット制御装置、方法、及びプログラム
EP3831547A4 (en) * 2019-03-15 2022-03-23 OMRON Corporation PARAMETER HOLDER, PARAMETER HOLDER METHOD, AND PROGRAM
JP7314824B2 (ja) * 2019-05-17 2023-07-26 株式会社安川電機 ロボットシステム、復帰プログラム生成装置、制御支援装置、制御装置、プログラム、復帰プログラムの生成方法及び復帰プログラムの出力方法
JP6658985B1 (ja) * 2019-05-17 2020-03-04 株式会社安川電機 ロボットシステム、復帰プログラム生成装置、制御支援装置、制御装置、プログラム、復帰プログラムの生成方法及び復帰プログラムの出力方法
CN112230647A (zh) * 2019-06-28 2021-01-15 鲁班嫡系机器人(深圳)有限公司 用于轨迹规划的智能动力系统行为模型、训练方法及装置
DE112019007691T5 (de) * 2019-09-05 2022-06-15 Mitsubishi Electric Corporation System zum planen von roboterhandlungen, robotersystem, roboteraufgabenverifizierungssystem und verfahren zum planen von roboterhandlungen
WO2021086327A1 (en) * 2019-10-29 2021-05-06 Abb Schweiz Ag System and method for robotic evaluation
DE102019129417B4 (de) * 2019-10-31 2022-03-24 Sick Ag Verfahren zum automatischen Handhaben von Objekten
JP7047830B2 (ja) * 2019-12-05 2022-04-05 オムロン株式会社 自律走行システム、自律走行方法、及び自律走行プログラム
KR102272294B1 (ko) 2019-12-23 2021-07-02 주식회사 코아로봇 가상축 인터페이스를 갖는 로봇제어장치 및 그 장치의 구동방법
JP2021102240A (ja) * 2019-12-25 2021-07-15 セイコーエプソン株式会社 プログラム作成システム、プログラム作成装置およびロボットシステム
DE102020103852B4 (de) * 2020-02-14 2022-06-15 Franka Emika Gmbh Erzeugen und Optimieren eines Steuerprogramms für einen Robotermanipulator
DE102020103854B4 (de) 2020-02-14 2022-06-15 Franka Emika Gmbh Maschinelles Lernen einer erfolgreich abgeschlossenen Roboteranwendung
US20210323158A1 (en) * 2020-04-17 2021-10-21 Abb Schweiz Ag Recovery system and method using multiple sensor inputs
CN111860605B (zh) * 2020-06-24 2022-12-13 广州明珞汽车装备有限公司 一种工艺节拍处理方法、系统、装置及存储介质
DE102020211648A1 (de) 2020-09-17 2022-03-17 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Steuern einer Robotervorrichtung
JP2022063707A (ja) * 2020-10-12 2022-04-22 東京ロボティクス株式会社 ロボットシステム、その制御方法及びプログラム並びにシステム
CN113031591B (zh) * 2021-02-24 2023-04-07 丰疆智能(深圳)有限公司 推料机器人的异常处理方法、装置、服务器及存储介质
CN112975386B (zh) * 2021-03-09 2022-09-06 重庆机器人有限公司 一种冰箱自动装配工艺
JPWO2023013784A1 (ja) * 2021-08-05 2023-02-09
CN113459108B (zh) * 2021-09-02 2021-11-12 杭州灵西机器人智能科技有限公司 基于插值补偿的手眼标定方法、系统、装置和介质
WO2023047588A1 (ja) * 2021-09-27 2023-03-30 ファナック株式会社 ロボットシステム
US11755003B2 (en) * 2021-09-30 2023-09-12 Hitachi, Ltd. Autonomous task management industrial robot
DE102022103020A1 (de) 2022-02-09 2023-08-10 Schaeffler Technologies AG & Co. KG Verfahren zum Betrieb eines Antriebsmoduls zum Bewegen eines Gelenkarms eines Industrieroboters und Antriebsmodul
JP7327550B1 (ja) 2022-03-08 2023-08-16 株式会社安川電機 ロボットコントローラ、及び制御方法
CN115860431B (zh) * 2023-02-07 2023-05-26 广东技术师范大学 基于异构感知的多机器人智能调度方法、系统、机器人及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03116304A (ja) * 1989-09-29 1991-05-17 Mazda Motor Corp 生産ライン故障復帰装置
JPH0577142A (ja) * 1991-09-18 1993-03-30 Mazda Motor Corp 生産設備の復帰方法およびその装置
JPH06190692A (ja) * 1992-12-28 1994-07-12 Mazda Motor Corp 生産設備の復帰装置
JPH0847880A (ja) * 1994-08-02 1996-02-20 Komatsu Ltd 異常復帰装置
JP2006012074A (ja) * 2004-06-29 2006-01-12 Fanuc Ltd ロボットの待機位置復帰プログラム作成装置
JP2007515305A (ja) * 2003-12-22 2007-06-14 エービービー・エーエス ロボット設備のためのコントロール方法、デバイス及びシステム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69012865T2 (de) 1989-03-25 1995-03-16 Mazda Motor Verfahren und System zur Wiederinbetriebnahme einer folgegesteuerten Anlage, installiert in einer Fertigungsstrasse.
KR940007722B1 (ko) * 1989-09-29 1994-08-24 마쯔다 가부시기가이샤 생산라인고장시의 복귀방법 및 그 방법을 달성하기 위한 장치
US6445964B1 (en) * 1997-08-04 2002-09-03 Harris Corporation Virtual reality simulation-based training of telekinegenesis system for training sequential kinematic behavior of automated kinematic machine
US6430472B1 (en) * 1999-12-20 2002-08-06 Servo-Robot Inc. Robot feature tracking devices and methods
JP3733364B2 (ja) * 2003-11-18 2006-01-11 ファナック株式会社 教示位置修正方法
JP4960589B2 (ja) * 2004-12-08 2012-06-27 川崎重工業株式会社 ロボット制御装置およびロボット制御方法
JP2006289531A (ja) * 2005-04-07 2006-10-26 Seiko Epson Corp ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム
JP4171488B2 (ja) * 2005-12-16 2008-10-22 ファナック株式会社 オフラインプログラミング装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03116304A (ja) * 1989-09-29 1991-05-17 Mazda Motor Corp 生産ライン故障復帰装置
JPH0577142A (ja) * 1991-09-18 1993-03-30 Mazda Motor Corp 生産設備の復帰方法およびその装置
JPH06190692A (ja) * 1992-12-28 1994-07-12 Mazda Motor Corp 生産設備の復帰装置
JPH0847880A (ja) * 1994-08-02 1996-02-20 Komatsu Ltd 異常復帰装置
JP2007515305A (ja) * 2003-12-22 2007-06-14 エービービー・エーエス ロボット設備のためのコントロール方法、デバイス及びシステム
JP2006012074A (ja) * 2004-06-29 2006-01-12 Fanuc Ltd ロボットの待機位置復帰プログラム作成装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019500226A (ja) * 2015-12-30 2019-01-10 フランカ エミカ ゲーエムベーハーFRANKA EMIKA GmbH ロボットおよびロボット操作方法

Also Published As

Publication number Publication date
JP5436460B2 (ja) 2014-03-05
CN102317044A (zh) 2012-01-11
US9393691B2 (en) 2016-07-19
DE112010000775T5 (de) 2013-03-28
DE112010000775B4 (de) 2016-03-17
KR101255948B1 (ko) 2013-04-23
CN102317044B (zh) 2014-03-26
US20110288667A1 (en) 2011-11-24
WO2010092981A1 (ja) 2010-08-19
KR20110114651A (ko) 2011-10-19

Similar Documents

Publication Publication Date Title
JP5436460B2 (ja) 産業用ロボットシステム
US9387589B2 (en) Visual debugging of robotic tasks
Ostanin et al. Human-robot interaction for robotic manipulator programming in Mixed Reality
Pichler et al. Towards shared autonomy for robotic tasks in manufacturing
Li et al. A flexible manufacturing assembly system with deep reinforcement learning
JP7460366B2 (ja) 訓練データ選別装置、ロボットシステム及び訓練データ選別方法
US11826913B2 (en) Control system, robot system and control method
Pedersen et al. Gesture-based extraction of robot skill parameters for intuitive robot programming
Rückert et al. Augmented Reality for teaching collaborative robots based on a physical simulation
Kato et al. Predicting positioning error and finding features for large industrial robots based on Deep Learning
Chryssolouris et al. Artificial intelligence in manufacturing equipment, automation, and robots
Wang et al. Automatic high-level motion sequencing methods for enabling multi-tasking construction robots
WO2021049028A1 (ja) 数値制御装置、および機械学習装置
Weng et al. Quantitative assessment at task-level for performance of robotic configurations and task plans
Luczak et al. Development of error-compensating UI for autonomous production cells
Anagnostakis et al. A virtual cmm inspection tool for capturing planning strategies
Khalil et al. Robotic interaction with deformable objects under vision and tactile guidance-a review
Protic et al. Development of a novel control approach for collaborative robotics in i4 intelligent flexible assembling cells
RU2813444C1 (ru) Система взаимодействия человек-робот на основе смешанной реальности
Kirkpatrick Digital Twins in Advanced Manufacturing to Enhance Manufacturing Efficiency
Vergara et al. Expediting the Deployment of Industrial Robotic Applications by Learning from Operators Part 1: Generating reactive approach motions using generalized trajectories from demonstrations
Verma Design and Control of Advanced Robotic Systems for Manufacturing and Assembly
Deiterding et al. Automatic adaptation of sensor-based robots
Delledonne et al. Optimizing parameters of robotic task-oriented programming via a multiphysics simulation
Zia et al. Formal Modeling and Verification of Industrial Robotic Arm-A Case Study

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131210

R150 Certificate of patent or registration of utility model

Ref document number: 5436460

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250