JP7092307B2 - 作業判別装置および作業判別方法 - Google Patents

作業判別装置および作業判別方法 Download PDF

Info

Publication number
JP7092307B2
JP7092307B2 JP2019017080A JP2019017080A JP7092307B2 JP 7092307 B2 JP7092307 B2 JP 7092307B2 JP 2019017080 A JP2019017080 A JP 2019017080A JP 2019017080 A JP2019017080 A JP 2019017080A JP 7092307 B2 JP7092307 B2 JP 7092307B2
Authority
JP
Japan
Prior art keywords
work
unit
industrial machine
sensor data
discrimination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019017080A
Other languages
English (en)
Other versions
JP2020124760A (ja
Inventor
諒 松岡
清石 前川
英樹 麻生
研介 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Mitsubishi Electric Corp
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, National Institute of Advanced Industrial Science and Technology AIST filed Critical Mitsubishi Electric Corp
Priority to JP2019017080A priority Critical patent/JP7092307B2/ja
Priority to US17/299,785 priority patent/US11865721B2/en
Priority to DE112019006789.3T priority patent/DE112019006789B4/de
Priority to CN201980090472.1A priority patent/CN113365788A/zh
Priority to PCT/JP2019/049929 priority patent/WO2020158239A1/ja
Publication of JP2020124760A publication Critical patent/JP2020124760A/ja
Application granted granted Critical
Publication of JP7092307B2 publication Critical patent/JP7092307B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0259Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the response to fault detection
    • G05B23/0286Modifications to the monitored process, e.g. stopping operation or adapting control
    • G05B23/0289Reconfiguration to prevent failure, e.g. usually as a reaction to incipient failure detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0224Process history based detection method, e.g. whereby history implies the availability of large amounts of data
    • G05B23/024Quantitative history assessment, e.g. mathematical relationships between available data; Functions therefor; Principal component analysis [PCA]; Partial least square [PLS]; Statistical classifiers, e.g. Bayesian networks, linear regression or correlation analysis; Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40033Assembly, microassembly
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40224If robot gets a return signal, go to initial condition position

Description

本発明は、ロボットをはじめとする産業機械が行った作業の良否を判別する作業判別装置および作業判別方法に関する。
ロボットをはじめとする産業機械を用いた作業が行われる場合、産業機械に設置されたセンサにより取得された時系列データを用いて、作業の良否の判別が行われる。この際、作業の良否を判別する装置は、一般には、定められた時間幅毎に時系列データから振幅値などの特徴量を抽出し、特徴量を基準と比較することで作業の良否判別を行う。異常発生から判定までの時間遅れを抑制するには時間幅を短くすることが望ましいが、時間幅を短くすると判定精度が落ちる。
特許文献1には、異なる時間幅で複数の特徴量を抽出し、複数の特徴量が評価基準を満たすか否かによって作業の良否を判定することにより、異常発生から判定までの時間遅れの抑制と判定精度の両立を目指す判定装置が開示されている。
特開2018-27577号公報
しかしながら、一定期間のデータを蓄積して蓄積したデータを用いて特徴量を算出しているため、依然として異常発生から判定までの時間遅れが生じる問題がある。
本発明は、上記に鑑みてなされたものであって、作業の異常発生から判定までの時間遅れを抑制することができる作業判別装置を得ることを目的とする。
上述した課題を解決し、目的を達成するために、本発明にかかる作業判別装置は、産業機械の作業の状態を示す状態データを、産業機械の動作を制御する制御周期の整数倍の出力間隔で出力するセンサデータ出力部、を備える。また、この作業判別装置は、センサデータ出力部から出力される状態データをリカレントニューラルネットワークへの入力として、状態データの出力間隔で前記リカレントニューラルネットワークによる推論を行うことによって状態データの出力間隔で産業機械の作業の良否を判別する判別部、を備える。
本発明によれば、作業の異常発生から判定までの時間遅れを抑制することができるという効果を奏する。
本発明の実施の形態1にかかる作業判別装置を含む機械システムの構成例を示す図 実施の形態1の判別部の構成例を示す図 実施の形態1のモデル部の中間層の構成例を示す図 実施の形態1の処理回路の構成例を示す図 実施の形態2にかかる機械システムの構成例を示す図 実施の形態3にかかるセンサデータ出力部の構成例を示す図 実施の形態5にかかるセンサデータ出力部の構成例を示す図 実施の形態6にかかるセンサデータ出力部の構成例を示す図 実施の形態7にかかるセンサデータ出力部の構成例を示す図 実施の形態8の機械システムの構成例を示す図 実施の形態9の機械システムの構成例を示す図 実施の形態10にかかるセンサデータ出力部の構成例を示す図 実施の形態11の作業の良否の判別方法の一例を示すフローチャート
以下に、本発明の実施の形態にかかる作業判別装置および作業判別方法を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態1.
図1は、本発明の実施の形態1にかかる作業判別装置を含む機械システムの構成例を示す図である。図1に示すように、機械システムは、ロボット1と、ロボット1に設置されたセンサ2と、制御装置3と、学習装置4と、表示器5とを備える。
以下、本実施の形態では、産業機械の一例として、カバー組み付け、コネクタ挿入、基板挿入、軸の嵌め合いなどの組立作業を行うロボット1を例に挙げて説明する。本実施の形態は、組立作業を行うロボット1に限定されず、組立作業以外の作業を行うロボット、切断などの加工を行う機械、包装機などの産業機械に適用可能である。
センサ2は、ロボット1に設置され、ロボット1の作業の状態、ロボットの周囲の状態、ロボットの内部の状態量などを検出する。本実施の形態では、センサ2は力覚センサを含む。力覚センサは、例えば、ロボット1の手首に設置される。力覚センサは、周期的に、ロボット1の3軸方向の力(Fx,Fy,Fz)と3軸周りのモーメント(Mx,My,Mz)とを検出して検出した結果をセンサデータとして制御装置3へ出力する。センサ2がロボット1の作業の状態、ロボットの周囲の状態、ロボットの内部の状態量などを検出する周期を、以下、サンプリング周期という。
制御装置3は、センサ2から出力されるセンサデータを用いて、ロボット1の動作を制御するためのロボットプログラムにしたがってロボット1を制御する。ロボット1が作業を行う際には、制御装置3はロボットプログラムに従って定められた作業が実施されるようロボット1の動作を制御する。ロボットプログラムでは、例えば、ロボット1の手先位置などが定められる。制御装置3は、制御周期ごとに、ロボット1を動作させるための動作指令を生成してロボット1を制御する。以下では、制御周期はサンプリング周期と同一であるとして説明するが、制御周期とサンプリング周期は異なっていてもよい。
制御装置3は、実施の形態1にかかる作業判別装置としての機能を有する。制御装置3は、センサ2から出力されるセンサデータを用いて、ロボット1の作業の良否、すなわち異常の有無を判別する。具体的には、例えば、作業の良否を示す作業のクラスを判別する。作業のクラスとは、作業の良否を示す値であり作業の正常さの程度もしくは異常の種類を示す値である。作業のクラスは、良か否かの2値に限らず、良と否の中間の状態を示すものを含んでいてもよい。また異常についても1つではなく、異常の種類として2つ以上の値の組み合わせでも構わない。以下では、作業のクラスを判別することも含めて作業の良否の判別と呼ぶ。なお、本実施の形態では、ロボット1を制御する制御装置が、作業判別装置としての機能を備える例を説明するが、ロボット1を制御する制御装置とは別に作業判別装置を設けるようにしてもよい。
学習装置4は、入力される作業結果と制御装置3から出力されるセンサデータとを用いて、制御装置3において実施される作業の良否の判別のための学習を行い、学習結果を制御装置3へ出力する。なお、ここでは、学習装置4が制御装置3と別に設けられる例を説明するが、学習装置4と制御装置3とが一体であってもよい。また、ロボット1を制御する制御装置とは別に作業判別装置が設けられ、作業判別装置と学習装置4とが一体であってもよい。
表示器5は、制御装置3からの指示に基づいて、ロボット1の作業の状態などを表示する。表示器5は、液晶モニタ、ディスプレイなどであってもよいし、回転灯などの表示灯であってもよい。また、表示器5はブザーなどの音声による報知も行ってもよい。本実施の形態では、表示器5が制御装置3とは別に設けられる例を説明するが、表示器5と制御装置3とが一体であってもよい。また、表示器5と学習装置4とが一体であってもよい。
次に、制御装置3の構成について説明する。制御装置3は、図1に示すように、センサデータ出力部31、判別部32、動作修正部33および動作制御部34を備える。センサデータ出力部31は、ロボット1の作業の状態を示すデータを、ロボット1の動作を制御する制御周期の整数倍の出力間隔で出力する。本実施の形態では、出力間隔は制御周期の1倍である。詳細には、センサデータ出力部31は、力覚センサから出力される3軸方向の力(Fx,Fy,Fz)と3軸周りのモーメント(Mx,My,Mz)とを含むセンサデータをサンプリング周期ごとすなわち制御周期ごとに受け取り、制御周期ごとに、3軸方向の力(Fx,Fy,Fz)を判別部32へ出力する。すなわち、センサデータ出力部31が出力する状態データは、本実施の形態では、センサ2から出力されるセンサデータのうちの少なくとも一部であり、この例では3軸方向の力(Fx,Fy,Fz)である。
判別部32は、センサデータ出力部31から出力されるデータに基づいて、RNN(Recurrent Neural Network:リカレントニューラルネットワーク)による推論によってロボット1の作業における異常の有無を判別する。具体的には、判別部32は、学習装置4によって生成されたRNNの学習モデルを用いた推論により、ロボット1の作業の良否を判別する。例えば、判別部32は、制御周期ごとに、センサデータ出力部31から出力される3軸方向の力(Fx,Fy,Fz)を入力として学習モデルを用いてロボット1の作業の状態を示す出力データを求め、出力データをもとに、ロボット1の作業の良否すなわち作業の異常の有無を判別する。また、判別部32は、作業が異常であると判別した場合、異常の種別も判別してもよい。ここでは、異常の種別として、位置ずれと部品異常の2種類を例に挙げて説明するが、異常の種類は1種類であってもよく3種類以上であってもよい。部品異常は、部品に一部欠損があったり部品に異物が付着したりといった部品に関する異常である。また、判別結果を示すデータの形式は、上述した例に限定されない。判別部32は、判別結果を動作修正部33へ出力する。RNNは、時系列データを入力とする機械学習の一例である。判別部32の詳細については後述する。
動作修正部33は、判別部32による判別結果に基づいて、ロボット1の動作を修正させるよう制御する。動作修正部33は、判別部32から入力された判別結果が正常を示す値であった場合、特に動作はしない。動作修正部33は、判別部32から入力された判別結果が位置ずれの異常を示す値であった場合、表示器5に位置ずれの異常を表示するよう指示するとともに、位置ずれの異常用の動作を行うようロボット1の動作を修正する。具体的には、動作修正部33は、例えば、一旦ロボット1を停止して予め定められた位置までロボット1を戻すとともに探索動作を行って作業を再開するための指令を動作修正指令として生成して、動作制御部34へ出力する。探索動作では、ロボット1に取り付けた力覚センサ、触覚センサなどの値に基づいて正しい挿入作業の位置を探索する。例えばカバーのないピンへのコネクタ挿入作業の場合であれば、複数の方向からロボット1が把持したコネクタを低速で突き当ててピンの位置を導出し、導出した位置でコネクタ挿入作業を再度実施する。また、動作修正部33は、判別部32から入力された判別結果が部品異常を示す値であった場合、表示器5に部品異常を表示するよう指示するとともに、部品異常用の動作を行うようロボット1の動作を修正する。具体的には、動作修正部33は、例えば、一旦ロボット1を停止したあと定められた位置までロボット1を戻して再度停止させるための指令を動作修正指令として生成して、動作制御部34へ出力する。以上のように、動作修正部33は、判別部32によりロボット1の位置ずれの異常と判別された場合には、ロボット1を定められた位置に戻した後に再度作業を行わせるよう制御し、部品異常であると判別された場合はロボット1を停止させるよう制御する。
動作制御部34は、センサデータ出力部31から出力されるセンサデータを用いて、制御周期ごとに、ロボット1を動作させるための動作指令を生成してロボット1へ出力する。また、動作制御部34は、動作修正部33から動作修正指令を受け取った場合には、通常の動作指令の出力を停止して、動作修正部33から受け取った動作修正指令をロボット1へ出力する。
学習装置4は、例えば、パーソナルコンピュータ(PC)などのコンピュータであり、学習部41を備える。学習部41は、ロボット1が実際の生産における組立作業を開始する前に、訓練データとも呼ばれる教師データを用いた機械学習を行う。機械学習としては、上述したように例えばRNNを用いることができる。本実施の形態では、制御装置3の判別部32は、学習部41により教師データを用いて学習が行われた学習モデルを内蔵する。判別部32は、上述したように、センサデータ出力部31から出力される3軸方向の力(Fx,Fy,Fz)を入力としてこの学習モデルにより得られる結果を用いて、ロボット1の作業の良否を判別する。
次に、学習装置4の学習部41における機械学習と、制御装置3の判別部32について詳細に説明する。まず、学習部41における機械学習について説明する。学習部41は、ロボット1が実際の生産における組立作業を開始する前に、少なくとも以下の第1の状態、第2の状態および第3の状態を含むそれぞれの状態に対応する教師データを用いて、機械学習を行う。
第1の状態は、組み立て作業が正常に終了する状態である。運用者は、実際の生産における組立作業を開始する前に、ロボット1に組立作業を実施させる。学習装置4の学習部41は、この組立作業中に、センサデータ出力部31から出力される3軸方向の力(Fx,Fy,Fz)を、学習装置4に入力データとして記憶しておく。入力データは、この組立作業を行っている時間帯における時系列データとなる。運用者は、正常に組み立て作業が行われた場合、作業結果すなわち出力データの正解値として(1,0,0)を学習部41へ入力する。詳細には、運用者は、学習装置4であるコンピュータの入力手段であるキーボード、マウス、タッチパネルなどを操作することにより、学習装置4に出力データの正解値を入力する。学習装置4は、入力手段が受け付けたデータを学習部41に与える。学習部41は、記憶している入力データのうち第1の状態に対応する入力データと出力データの正解値である(1,0,0)との組を教師データとして学習する。
第2の状態は、ロボット1の位置ずれが生じ組立作業に失敗する状態である。運用者は、実際の生産における組立作業を開始する前に、わざとロボット1に位置ずれを生じさせて組立作業を失敗させる。学習装置4の学習部41は、この失敗する組立作業の作業中に、センサデータ出力部31から出力される3軸方向の力(Fx,Fy,Fz)を、学習装置4に入力データとして記憶しておく。運用者は、わざとロボット1に位置ずれを生じさせて組立作業を失敗させた場合、出力データの正解値として(0,1,0)を学習部41へ入力する。学習部41は、記憶している入力データのうち第2の状態に対応する入力データと出力データの正解値である(0,1,0)との組を教師データとして学習する。
第3の状態は、部品に一部欠損があったり部品に異物が付着したりといった部品異常により組立作業に失敗する状態である。運用者は、実際の生産における組立作業を開始する前に、わざと部品異常を生じさせて組立作業を失敗させる。学習装置4の学習部41は、この失敗する組立作業の作業中に、センサデータ出力部31から出力される3軸方向の力(Fx,Fy,Fz)を、学習装置4に入力データとして記憶しておく。運用者は、わざと部品異常を生じさせて組立作業を失敗させた場合、出力データの正解値として(0,0,1)を学習部41へ入力する。学習部41は、記憶している入力データのうち第3の状態に対応する入力データと出力データの正解値である(0,0,1)との組を教師データとして学習する。なお、第3の状態で、部品異常だけでなくさらに位置ずれも生じさせて、学習装置4に、この期間に対応するセンサデータを取得させ、対応する作業結果として出力データの正解値である(0,1,1)を入力して、学習させてもよい。
なお、学習部41の学習を行う際には、ロボット1に複数の速度で組立作業を行わせ、それぞれの速度に対応するデータを取得して学習を行う。このとき、ロボット1が動作可能な全ての速度について学習を行ってもよいし、想定される速度の範囲を代表する複数の速度で学習を行うことで、全ての速度について学習を行う場合に比べて、学習に要する時間を削減することができる。さらに最も使用される可能性の高い速度もしくは想定される速度範囲のなかで最も低い速度など、1つの速度で学習を行うことで立上調整の早期の段階から学習のためのデータを採取するとともに、学習に必要なデータの量を削減することで、学習に要する時間をさらに削減することができる。
なお、本実施の形態では、機械学習における出力データとして(1,0,0)といったように3つの要素を出力する例を説明するが、出力データの要素の数は3つに限定されない。また、ここでは、(1,0,0)が、組立作業が正常に行われたことを示し、(0,1,0)が位置ずれ異常を示し、(0,0,1)が部品異常を示す例を説明するが、出力データの具体的な値とその定義はこの例に限定されない。次元を増加し、部品の異常状態を部品の欠損と異物の付着に分けるなど、複数の異常モードに分けて学習させてもよい。本実施の形態では、各状態の時系列データであるセンサデータが入力データとなり、RNNによる機械学習が行われる。
次に、判別部32について詳細に説明する。図2は、本実施の形態の判別部32の構成例を示す図である。判別部32は、学習部41による学習済みの学習モデルを用いたデータ生成を行うモデル部321と、モデル部321により生成されたデータ、すなわち学習済みの学習モデルの出力データを用いて、作業の良否を判別する異常判別部322とを備える。なお、学習部41は、図2のモデル部321と同様の構成のモデル部を有するとともに、モデル部により得られる出力データの誤差を評価して、誤差が小さくなるようにモデル部の各重みを決定する機能を有する。誤差が小さくなるように得られたものが学習済の学習モデルとなる。
モデル部321は、図2に示すように、入力層35、中間層36および出力層37を備える。入力層35は、入力データの要素の数、すなわち入力数に応じた数のノード38を備える。図2では、一番上のノード38にのみ符号を付しているが、入力層35における符号を省略した丸もノード38である。
中間層36は、複数のノード39を備える。図2では、一番上のノード39にのみ符号を付しているが、中間層36における符号を省略した二重丸もノード39である。出力層37は、出力データの要素の数、すなわち出力数に応じた数のノード40を備える。図2では、一番上のノード40にのみ符号を付しているが、出力層37における符号を省略した丸もノード40である。
入力層35は、センサデータ出力部31から出力されるセンサデータである入力データを、制御周期ごとに、中間層36へ出力する。詳細には、各ノード38は、入力されたデータを中間層36の各ノード39へ出力する。各ノード38は、入力された値に重みを乗算してから中間層36の各ノード39へ出力してもよい。中間層36の各ノード39は、RNNの処理を行って処理結果を出力層37の各ノード40へ出力する。出力層37の各ノード40は、中間層36の各ノード39から出力されたデータを加算し、加算結果を出力する。出力層37の各ノード40は、中間層36の各ノード39から出力されたデータに重みを乗算し、重みを乗算した結果を加算してもよい。
図2では、中間層36を1層としているが、中間層36が2層以上であってもよい。また、図2では、入力数3、出力数3としているが、入力数、出力数はこれに限定されない。また、図2では、中間層36におけるノード39の数を5としているが、中間層36におけるノード39の数は5に限定されない。
図2では、時刻tにおける入力データを構成する3つの要素を、x ,x ,x としている。tは制御周期を単位として離散化された時刻である。すなわち、tは、何番目の制御周期であるかを示す整数である。h ,h ,h ,h ,h は、時刻tにおける中間層36の各ノード39の出力を示す。y ,y ,y は、時刻tにおける出力層37の各ノード40の出力を示す。
本実施の形態では、RNNを前提としている。このため、中間層36は、前回の制御周期の中間層36の出力結果を記憶しておき、前回の制御周期の出力結果と今回の制御周期で入力層35から入力された値から算出した項との重み付け和を出力層37へ出力する。RNNは、センサ出力などの時系列データの学習にしばしば用いられる。RNNでは、入力値(例えば、x ,x ,x )を要素とするベクトルをxと示し、中間層36の出力値を要素とするベクトルをhとすると、ベクトルhは以下の式(1)で表すことができる。tは、上述した通り、何番目の制御周期であるかを示す整数である。ベクトルxの次元をM、ベクトルhの次元をNとするとき、WはN×Mの次元の線形変換行列であり、RはN×Nの次元の線形変換行列であり、bは、バイアスベクトルである。g(・)は、活性化関数を示す。
Figure 0007092307000001
RNNの例としては、Elman/Jordan net、LSTM(Long Short Term Memory)、GRU(Gated Recurrent Unit)などがあり、いずれで構成してもよいが、本実施の形態ではLSTMを用いた場合を例に挙げて説明する。
図3は、本実施の形態のモデル部321の中間層36の構成例を示す図である。図3では、ノード39が1つの場合を例に記載している。図3に示した構成例では、中間層36では、以下の式(2)-(7)に示す計算が行われる。
Figure 0007092307000002
,W,W,Wは、N×Mの次元の線形変換行列であり、R,R,R,Rは、N×Nの次元の線形変換行列であり、b,b,b,bは、バイアスベクトルである。これらは、学習部41による学習により決定される。σ(・)はシグモイド関数、tanh(・)はハイパボリックタンジェント関数を示す。
なお、モデル部321における各処理は、一般的なRNNにおける処理を用いることができるため、詳細な説明は省略する。
出力層37の各ノード40から出力されるy ,y ,y は、モデル部321の出力データとして異常判別部322に入力される。本実施の形態では、y ,y ,y は以下の値であるとする。第1要素であるy は、1に近いほど正常である可能性が高いことを示す。第2要素であるy は、1に近いほどロボット1の位置ずれの異常である可能性が高いことを示す。第3要素であるy は、1に近いほど部品に一部欠損があったり部品に異物が付着したりする部品異常である可能性が高いことを示す。異常判別部322は、モデル部321の出力データに基づいて、制御周期ごとに、ロボット1の作業の良否を判別する。
本実施の形態にかかる制御装置3は、ロボット1が、生産のために、カバー組み付け、コネクタ挿入、基板挿入、軸の嵌め合いなどの組立作業を開始するとともに、判別部32による判別を開始し、ロボット1が上記組立作業を終了するとともに判別を終了する。
教師データにおいては、上述したように、出力データの正解値は(1,0,0)などの整数値で示されているが、モデル部321の出力データは、各値は整数値とは限らない。このため、作業の良否の判別は、各値が規定値と比較されることにより行われる。異常判別部322は、組立作業の開始から終了までの各制御周期で、第2要素が一度でも規定値以上となった場合に、位置ずれ異常と判別し、位置ずれ異常を示す値を判別結果として動作修正部33へ出力する。また、異常判別部322は、組立作業の開始から終了までの各制御周期で、第3要素が一度でも規定値以上となった場合に、部品異常と判断し、部品異常を示す値を判別結果として動作修正部33へ出力する。また、異常判別部322は、組立作業の開始から終了までの各制御周期で、第2要素が一度でも規定値以上となりかつ第3要素が一度でも規定値以上となった場合には、部品異常と判断し、部品異常を示す値を判別結果として動作修正部33へ出力するようにしてもよい。
また、異常判別部322は、組立作業の開始から終了までの全制御周期で、第1要素が規定値以上でありかつ第2要素と第3要素がいずれも規定値未満の場合に、正常を示す値を判別結果として動作修正部33へ出力する。または、異常判別部322は、組立作業の開始から終了までの全制御周期で、第2要素と第3要素がいずれも規定値未満の場合に、正常を示す値を判別結果として動作修正部33へ出力するようにしてもよい。第1要素と第2要素と第3要素とのそれぞれの比較で用いられる規定値は、異なっていてもよいし同一であってもよい。また、上記の例では、各値が規定値以上であるか否かにより判別を行ったが、各値が規定値を超えるか否かにより判別が行われてもよい。
次に、本実施の形態の学習装置4および制御装置3のハードウェア構成について説明する。制御装置3のセンサデータ出力部31、判別部32、動作修正部33および動作制御部34は、処理回路により実現される。処理回路は、プロセッサを備える回路であってもよいし、専用ハードウェアであってもよい。
処理回路がプロセッサを備える回路である場合、処理回路は例えば図4に示した構成の処理回路である。図4は、本実施の形態の処理回路の構成例を示す図である。図4に示す処理回路100は、プロセッサ101およびメモリ102を備える。センサデータ出力部31、判別部32、動作修正部33および動作制御部34が図4に示した処理回路100によって実現される場合、プロセッサ101が、メモリ102に格納されたプログラムを読み出して実行することにより、これらが実現される。すなわち、センサデータ出力部31、判別部32、動作修正部33および動作制御部34が図4に示した処理回路100によって実現される場合、これらの機能は、ソフトウェアであるプログラムを用いて実現される。メモリ102はプロセッサ101の作業領域としても使用される。プロセッサ101は、CPU(Central Processing Unit)等である。メモリ102は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリー等の不揮発性または揮発性の半導体メモリ、磁気ディスク等が該当する。
センサデータ出力部31、判別部32、動作修正部33および動作制御部34が専用ハードウェアである場合、処理回路は、例えば、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)である。なお、センサデータ出力部31は、プロセッサを備える処理回路および専用ハードウェアを組み合わせて実現されてもよい。センサデータ出力部31、判別部32、動作修正部33および動作制御部34は、複数の処理回路により実現されてもよい。
学習装置4は、上述したように、コンピュータである。学習装置4の学習部41は、コンピュータにおける処理回路により実現される。この処理回路は、図4に示した処理回路100と同様である。プロセッサ101が、メモリ102に格納されたプログラムを読み出して実行することにより、学習装置4が実現される。メモリ102はプロセッサ101の作業領域としても使用される。また、学習装置4を実現するコンピュータは、上述したように、キーボード、マウス、タッチパネルなどの入力手段を備えるとともに、ディスプレイ、モニタ等の表示手段を有する。学習装置4を使用する運用者は、表示手段に表示される表示画面にしたがって、上述したように、作業結果を、入力手段を用いて入力することができる。
学習装置4と制御装置3との間でデータの送受信を行うために、学習装置4および制御装置3はそれぞれ通信回路を備えていてもよい。この場合、学習装置4と制御装置3との間でデータの送受信は、これらの通信回路を介して行われる。
以上述べた例では、モデル部321における入力数を3とし、出力数を3とした例を説明したが、入力数、出力数は上述した例に限定されない。例えば、以下のように、入力数を6とし出力数を2としてもよい。入力データとして、3軸方向の力に加えて3軸のそれぞれの周りのモーメント(Mx,My,Mz)も用いる。ロボット1の生産の開始前に、運用者は、学習装置4に、正常な状態と、位置ずれおよび部品異常などの異常の状態と、の両方で3軸方向の力に加えて3軸のそれぞれの周りのモーメント(Mx,My,Mz)を取得し、正解の出力データである作業結果と対応付けて学習させておく。例えば、ロボット1の作業が正常な場合に出力データを(1,0)とし、異常の場合に出力データを(0,1)として学習させる。生産開始後のロボット1の組立作業では、異常判別部322は、第1要素、第2要素の2つの要素で構成される出力データに基づいて、作業の要否を判別する。
詳細には、異常判別部322は、第2要素が規定値以上の場合には、異常であることを示す値を判別結果として動作修正部33に出力する。異常判別部322は、第2要素が規定値未満の場合には、正常であることを示す値を判別結果として動作修正部33に出力する。動作修正部33は、判別結果として正常であることを示す値が入力された場合は、そのままなにもしない。また、動作修正部33は、判別結果として異常であることを示す値が入力された場合は、一旦ロボット1を停止したあと定められた位置までロボットを戻して再度停止するための動作指令を動作制御部34へ出力するとともに異常であることを表示器5に表示する。
また、センサ2として、力覚センサおよびロボット1の各軸のモータ位置を検出する位置検出器を備えてもよい。この場合に、センサデータ出力部31が、センサデータとして、3軸方向の力(Fx,Fy,Fz)、3軸周りのモーメント(Mx,My,Mz)および6軸の各モータ位置を判別部32に出力するため、モデル部321における入力数は12となる。また、センサ2としてさらにモータ電流を検出する電流検出器を加え、センサデータ出力部31が、さらに、センサデータとしてモータ電流を判別部32に出力するようにしてもよい。また、モータの位置指令を判別部32へ入力してもよい。センサデータの内容と項目の数は、ロボット1の状態、ロボット1の作業の状態、ロボット1の周囲の状態を示すものであればよく、上述した例に限定されない。
また、出力数異常の要因として3種類以上の異常を判別する場合には、出力数は4以上となる。なお、出力数が上述した例と異なる場合には、これらに応じた学習が、学習装置4を用いて行われる。例えば、3種類以上の異常を判別する場合には、各異常の種類に応じた教師データを用いた学習が、実際の生産における組立作業を開始する前に学習装置4により行われる。
本実施の形態にかかる制御装置3では、判別部32による判別は、上述したとおり、制御周期ごとに行われる。このため、一定期間のデータを蓄積して蓄積したデータを用いて特徴量を算出して作業の異常を判別する従来の技術に比べて、異常発生から判定までの時間遅れを抑制することができる。また本実施の形態では1つのリカレントニューラルネットワークで複数の異常モードの判別を行うため、複数の特徴量を算出して作業の良否を判別する従来に技術に比べて、作業の良否判定時の処理負荷を抑制することができる。また、本実施の形態では判別用の時間幅の設定が不要のため、作業の速度によらず同一の判別部で判別可能である。このため、作業の速度の変更による再学習が不要である。以上のとおり、本実施の形態にかかる制御装置3は、作業の良否判定時の作業の異常発生から判定までの時間遅れを抑制し、作業の良否判定時の処理負荷を抑制し、作業の速度の変更による再学習を不要とすることが可能である。
実施の形態2.
次に、本発明にかかる実施の形態2の作業判別方法について説明する。図5は、実施の形態2の機械システムの構成例を示す図である。図5に示すように、本実施の形態の機械システムは、実施の形態1の制御装置3の替わりに制御装置3aを備える以外は、実施の形態1の機械システムと同様である。制御装置3aは、実施の形態1の制御装置3に対して補正量記憶部61が追加されている。実施の形態1と同様の構成要素には同一の符号を付して説明し、実施の形態1と重複する説明を省略する。以下、実施の形態1と異なる点を中心に説明する。
実施の形態1では、モデル部321の出力データ、すなわちRNNの出力データを構成する各要素は、例えば、正常であるかどうかといったように、各要素が示す条件に当てはまるかどうかを示すフラグに相当するものであった。本実施の形態では、出力データに、フラグに相当するものだけでなく、なんらかの項目を定量的に示す値を含む例について説明する。
学習部41は、ロボット1が実際の生産における組立作業を開始する前に、少なくとも以下の第1の状態、第2の状態および第3の状態を含むそれぞれの状態に対応する教師データを用いて、機械学習を行う。すなわち、第1の状態は、位置ずれがなくかつ組立作業が正常に終了した場合であり、第2の状態は、位置ずれにより組立作業に失敗したまたは位置ずれがあったものの組立作業に成功した場合である。第3の状態は、部品に一部欠損があったり部品に異物が付着したりする部品異常により作業に失敗した場合である。
運用者は、第1の状態に対応する作業結果として、(1,0,0,0,0)を学習装置4に入力する。学習装置4は、第1の状態に対応するセンサデータと作業結果とを対応付けて学習する。本実施の形態では、センサデータは、3軸方向の力(Fx,Fy,Fz)および3軸周りのモーメント(Mx,My,Mz)の時系列データであるとする。
また、運用者は、わざと位置ずれを生じさせることにより第2の状態を生じさせる。運用者は、第2の状態に対応する作業結果として、組立作業に失敗した場合には(0,r,r,r,0)を、組立作業に成功した場合には(1,r,r,r,0)を、学習装置4に入力する。r,r,rは、それぞれx軸方向の位置、y軸方向の位置、垂直軸であるz軸まわりの回転θの、ずれ量の許容値と実際のずれ量の比を示す。r,r,rは、位置ずれの量を示す値の一例である。なお、ここでは、xy軸は水平方向の2軸であり、z軸が垂直軸方向であるとする。例えば、ロボット1のx軸方向の位置のずれ量の許容値がΔxmaxであったとする。運用者は実際のロボット1のx軸方向のずれ量を計測する。運用者が計測した計測結果をΔxとする。このとき、運用者は、r=Δx/Δxmaxとしてrを算出する。なお、rは、正負符号を含む値であるとする。例えば、実際のずれ量は正負符号を含む値として計測され、ずれ量の許容値は絶対値であるとする。同様に、運用者は、r,rを算出し、得られた算出結果をもとにした作業結果を学習装置4に入力する。学習装置4は、第2の状態に対応するセンサデータと作業結果とを対応付けて学習する。このとき、運用者は、発生させる位置ずれの量を変更し、変更したずれ量に応じた作業結果を入力することで、位置ずれ量の異なる複数のケースの学習を学習装置4にさせてもよい。
また、運用者は、わざと部品異常を生じさせることにより第3の状態を生じさせる。また、運用者は、第3の状態に対応する作業結果として、(0,r,r,r,1)を学習装置4に入力する。第3の状態では、位置ずれについては、生じさせてもよいし生じさせなくてもよい。位置ずれが生じていない場合には、r,r,rは、それぞれ0,0,0となる。学習装置4は、第3の状態に対応するセンサデータと作業結果とを対応付けて学習する。
上述した学習が行われると、学習装置4により学習済みの学習モデルが生成され、この学習モデルが判別部32のモデル部321で用いられる。そして、実施の形態1と同様に、ロボット1が、生産のために、カバー組み付け、コネクタ挿入、基板挿入、軸の嵌め合いなどの組立作業を開始するとともに、判別部32による判別を開始する。
本実施の形態では、モデル部321の入力数は6であり、出力数は5となる。モデル部321は、第1要素から第5要素までに5つの要素からなる出力データを異常判別部322へ入力する。異常判別部322は、組立作業の開始から終了までの各制御周期で、第5要素が一度でも規定値以上となった場合に、部品異常と判別し、部品異常を示す値を判別結果として動作修正部33へ出力する。
また、異常判別部322は、組立作業の開始から終了までの各制御周期で、第2要素、第3要素および第4要素のうち1つ以上が一度でも規定値以上となった場合に、位置ずれ異常と判別し、位置ずれ異常を示す値を判別結果として動作修正部33へ出力する。このとき、異常判別部322は、組立作業の開始から終了までの全制御周期で、第2要素、第3要素および第4要素が全て規定値未満であった場合、判定結果としては正常を示す値を動作修正部33へ出力するとともにr,r,rについても動作修正部33へ出力する。第1要素から第5要素までのそれぞれとの比較に用いられる規定値は、異なっていてもよいし同一であってもよい。
また、異常判別部322は、組立作業の開始から終了までの全制御周期で、第1要素が規定値以上であり、かつ第2要素、第3要素、第4要素および第5要素が0であった場合、位置ずれもなくかつ作業が正常に行われたと判別し、正常を示す値を判別結果として動作修正部33へ出力する。
動作修正部33は、判別結果として部品異常を示す値が入力された場合、一旦ロボット1を停止させ、その後に定められた位置までロボット1を戻して再度停止するための動作修正指令を生成して動作制御部34へ出力とともに、異常であることを表示器5に表示する。動作修正部33は、判別結果として位置ずれ異常を示す値が入力された場合、一旦ロボット1を停止させ、その後定められた位置までロボット1を戻すとともに、r,r,rの値に応じてロボット1の位置ずれを修正するための動作修正指令を生成して動作制御部34へ出力する。すなわち、動作修正部33は、r,r,rの値を用いて位置ずれを抑制するように産業機械の動作を修正して再度作業を行わせるよう制御する。これにより、再度、位置ずれが修正された動作修正指令に基づいて組立作業が実施される。
また、動作修正部33は、判別結果として正常が入力されたもののr,r,rが入力された場合には、そのままなにもせずに当該作業は終了させるが、次回の作業開始時までr,r,rの値を補正量記憶部61に記憶しておき、次回の作業開始時に、補正量記憶部61からr,r,rを読み出し、r,r,rの値に応じてロボット1の位置ずれを修正するための動作指令を生成して動作制御部34へ出力する。すなわち、位置ずれの量を示す値が規定値未満の場合、動作修正部33は、当該作業においてはロボット1の動作の修正は行わず、次回のロボット1の作業において位置ずれの量を示す値を用いて位置ずれを抑制するようにロボット1の動作を修正するよう制御する。これにより、次回以降の作業では、位置ずれが修正された動作修正指令に基づいて組立作業が実施されるため、位置ずれが蓄積することによるロボット1の停止を抑制することができる。以上述べた以外の本実施の形態の動作は、実施の形態1と同様である。なお、補正量記憶部61は、メモリにより実現される。
以上のように、本実施の形態では、異常判別部322は、位置ずれを判定した場合に、ロボット1の位置ずれを定量的に示す値を含む出力データを動作修正部33へ出力するようにした。これにより、本実施の形態の制御装置3は、実施の形態1と同様の効果を奏するとともに、位置ずれが生じた場合に、ロボット1の位置ずれ量を補償するようにロボット1を動作させることでロボットに作業を継続させることが可能となる。また次回以降の指令を修正することで、作業時の位置ずれ発生を抑制する効果がある。
実施の形態3.
図6は、本発明の実施の形態3にかかるセンサデータ出力部の構成例を示す図である。実施の形態3のセンサデータ出力部31bは、ハイパスフィルタ、バンドパスフィルタ、ローパスフィルタのいずれかで構成されるフィルタ311を備える。本発明にかかる制御装置3bは、センサデータ出力部31に替えてセンサデータ出力部31bを備える以外は、実施の形態1の制御装置3と同様である。本実施の形態の機械システムは、制御装置3に替えて制御装置3bを備える以外は、実施の形態1の機械システムと同様である。以下、実施の形態1と異なる部分を説明し、実施の形態1と重複する説明は省略する。
センサデータ出力部31bには、実施の形態1のセンサデータ出力部31と同様に、センサ2から出力されるセンサデータが入力される。ここでは、センサ2は力覚センサであるとし、センサデータは、ロボット1の3軸方向の力(Fx,Fy,Fz)と3軸周りのモーメント(Mx,My,Mz)とで構成される力覚センサデータであるとする。
センサデータ出力部31bのフィルタ311は、力覚センサデータから所望の周波数帯の成分を抽出し、抽出した結果を状態データとして判別部32へ出力する。このように、センサデータから所望の周波数帯の成分を抽出することにより、ノイズなどの影響を抑制することができるため、作業良否の判別精度を向上させることができる。また、作業に起因するセンサデータの変動が現れる周波数帯が分かっている場合には、当該周波数帯をフィルタ311により抽出することで、作業良否の判別精度を向上させることができる。なお、センサデータ出力部31bはセンサデータ出力部31と同様に処理回路により実現される。以上述べた以外の本実施の形態の動作は、実施の形態1と同様である。また、実施の形態2の機械システムに、本実施の形態のセンサデータ出力部31bを適用してもよい。
実施の形態4.
次に、本発明にかかる実施の形態4の作業判別方法について説明する。実施の形態4の機械システムの構成、および機械システムを構成する各装置の構成は実施の形態1と同様である。実施の形態1と同様の構成要素には同一の符号を付して説明し、実施の形態1と重複する説明を省略する。以下、実施の形態1と異なる点を中心に説明する。
実施の形態1では、判別部32による判別動作の実行周期は、動作制御部34における通常の制御周期と同一であった。これに対して、本実施の形態では、センサデータ出力部31からの出力間隔、すなわち判別部32による判別動作の実行周期を、動作制御部34における通常の制御周期の整数倍とする。Lを2以上の整数とするとき、本実施の形態では、センサデータ出力部31からの出力間隔は、制御周期のL倍であり、センサデータ出力部31は、最新のL個のセンサデータの平均値を状態データとして出力する。
例えば、判別部32による判別動作の実行周期を、動作制御部34における通常の制御周期の4倍とする。この場合、センサデータ出力部31は、直近の4サンプリング周期分のセンサデータを用いて、3軸方向の力(Fx,Fy,Fz)などのそれぞれのデータごとに4サンプリング周期分の平均値を算出する。
このように、複数のサンプリング周期分のセンサデータの平均値を用いることにより、ノイズなどの影響を抑制することができる。なお、本実施の形態では、実施の形態1より異常が生じてから異常と判別するまでの時間が長くなる可能性があるが、判別部32による判別動作の実行周期を、従来の特徴量の算出に用いられる一定期間より短くなるように設定すれば、従来に比べて、異常が生じてから異常と判別するまでの時間を抑制することができる。以上述べた以外の本実施の形態の動作は、実施の形態1と同様である。また、実施の形態2または実施の形態3の機械システムに、本実施の形態の動作を適用してもよい。
実施の形態5.
図7は、本発明の実施の形態5にかかるセンサデータ出力部の構成例を示す図である。実施の形態5のセンサデータ出力部31cは、外乱予測部312と、減算部313とを備える。本発明にかかる制御装置3cは、センサデータ出力部31に替えてセンサデータ出力部31cを備える以外は、実施の形態1の制御装置3と同様である。本実施の形態の機械システムは、制御装置3に替えて制御装置3cを備える以外は、実施の形態1の機械システムと同様である。以下、実施の形態1と異なる部分を説明し、実施の形態1と重複する説明は省略する。
実施の形態5では、センサ2には、力覚センサだけでなく、ロボット1の各軸に対応するモータの位置を検出する位置検出器が含まれる。位置検出器は、ロボット1の各軸のモータの位置を示すモータ位置データを出力する。センサデータ出力部31cには、力覚センサデータおよびモータ位置データが入力される。
外乱予測部312は、モータ位置データを用いて、力覚センサに作用する重力を計算し、計算した重力に基づいて、力覚センサの計測値に現れる、重力による外乱成分を予測し、予測結果を減算部313へ出力する。減算部313は、力覚センサデータから外乱予測部312から出力された予測結果を差し引き、差し引いた結果を判別部32へ出力する。本実施の形態では、これにより、センサデータ出力部31cは、力覚センサデータから重力による外乱成分を除去し、作業に起因する力覚センサデータの変動を用いて作業の良否の判別を行うことができる。したがって、作業良否の判別精度を向上させることができる。なお、センサデータ出力部31cはセンサデータ出力部31と同様に処理回路により実現される。以上述べた以外の本実施の形態の動作は、実施の形態1と同様である。
また、実施の形態2または実施の形態3の機械システムに、本実施の形態の動作を適用してもよい。また、本実施の形態と実施の形態4と組合せて、減算部313から出力されるデータをフィルタにより抽出するようにしてもよい。
なお、上述した例では、外乱予測部312は、重力による外乱成分を予測したが、これに限らず、慣性力、遠心力、コリオリ力などについても予測してもよい。例えば、外乱予測部312は、ロボット1の各軸のモータ位置データを用いて、各軸のモータ速度およびモータ加速度を算出する。次に、外乱予測部312は、ロボット各軸のモータ位置、速度および加速度を用いて力覚センサに作用する慣性力、遠心力、コリオリ力および重力の和により力覚センサの計測値に現れる外乱成分を予測し、予測結果を減算部313へ出力する。
実施の形態6.
図8は、本発明の実施の形態6にかかるセンサデータ出力部の構成例を示す図である。実施の形態6のセンサデータ出力部31dは、規定値通過判定部314と、移動量算出部315とを備える。本発明にかかる制御装置3dは、センサデータ出力部31に替えてセンサデータ出力部31dを備える以外は、実施の形態1の制御装置3と同様である。ただし、判別部32における判別の実行タイミングは実施の形態1と異なる。本実施の形態の機械システムは、制御装置3に替えて制御装置3dを備える以外は、実施の形態1の機械システムと同様である。以下、実施の形態1と異なる部分を説明し、実施の形態1と重複する説明は省略する。
本実施の形態では、センサデータ出力部31dの出力間隔は、出力間隔ごとのロボット1の移動量が一定となるよう決定される。移動量算出部315には、ロボット1が有する各軸のモータの位置であるモータ位置を検出する位置検出器から、モータ位置の検出結果であるモータ位置データが、制御周期ごとに入力される。移動量算出部315は、制御周期ごとに、モータ位置データに基づいてロボット1の手先位置を算出し、作業開始からの手先位置の移動量を算出する。移動量算出部315は、算出した移動量を規定値通過判定部314に出力する。
規定値通過判定部314には、制御周期ごとに、力覚センサデータが入力される。また、上述したように、規定値通過判定部314には、制御周期ごとに、移動量算出部315により算出された移動量が入力される。規定値通過判定部314は、移動量算出部315から入力された移動量が規定値未満の場合には、当該制御周期の力覚センサデータを判別部32へ出力しない。規定値通過判定部314は、移動量算出部315により算出された移動量が規定値以上となった場合に、当該制御周期の力覚センサデータを判別部32へ出力する。その後は、規定値通過判定部314は、入力された移動量が「規定値×2」未満の場合に当該制御周期の力覚センサデータを判別部32へ出力せず、入力された移動量が「規定値×2」以上となった場合に、当該制御周期の力覚センサデータを判別部32へ出力する。以降、力覚センサデータを判別部32へ出力するたびに、規定値通過判定部314は、規定値に乗ずる整数を1ずつ増加させて同様の動作を実施する。判別部32は、力覚センサデータが入力されると実施の形態1で述べたように、作業の良否の判別を実施する。
すなわち、規定値通過判定部314は、入力された移動量が「規定値×k」未満の場合に当該制御周期の力覚センサデータを判別部32へ出力せず、入力された移動量が「規定値×k」以上となった場合に、当該制御周期の力覚センサデータを判別部32へ出力する。kの初期値は0であり、規定値通過判定部314は、力覚センサデータを判別部32へ出力するたびにkの値を1増加させる。すなわち、センサデータ出力部31dは、モータ位置データに基づいて、出力間隔ごとのロボット1の移動量が一定となるよう出力間隔を決定する。このような動作を行うことにより、規定値分ロボット1の手先が移動するごとに、力覚センサデータが判別部32へ出力され、判別部32による判別が実施されることになる。なお、センサデータ出力部31dはセンサデータ出力部31と同様に処理回路により実現される。以上述べた以外の本実施の形態の動作は、実施の形態1と同様である。
ロボット1の作業中に移動量に応じて生じる現象がある場合、本実施の形態では移動量に対応した入力に基づいてため作業速度によらず入力の時系列データの同じ部分にその現象が現れるため、作業速度が学習後に変更されても判別の精度を高く維持できる効果がある。
なお、制御周期ごとに算出される移動量は規定値の整数倍になるとは限らないため、移動量が規定値×kとなる時刻は、力覚センサデータを判別部32へ出力する制御周期における各センサの出力時刻とは一致するとは限らない。このため、移動量が規定値×kとなったときのロボット1の状態は、判別部32へ出力される力覚センサデータが示している状態とは異なっていることがある。このため、規定値通過判定部314は、力覚センサデータをそのまま出力するのではなく、当該制御周期における力覚センサデータと前の制御周期における力覚センサデータとを用いて、移動量が規定値×kとなる時刻に対応する力覚センサデータを推定し、推定結果を判別部32へ出力してもよい。例えば、規定値通過判定部314が、入力された力覚センサデータおよび移動量を少なくとも次の制御周期まで保持しておく。規定値通過判定部314は、t番目の制御周期で入力された移動量dが規定値×k以上となりかつ(t-1)番目の制御周期で入力された移動量dt-1が規定値×k未満であった場合に、(規定値×k-dt-1)と(d-規定値×k)との比を求める。そして、規定値通過判定部314は、求めた比に応じて(t-1)番目の制御周期で入力された力覚センサデータとt番目の制御周期で入力された力覚センサデータとの重み付け和を算出し、算出した重み付け和を判別部32へ出力するようにしてもよい。
また、実施の形態2または実施の形態4の機械システムに、本実施の形態の構成および動作を適用してもよい。また、実施の形態3と本実施の形態を組み合わせて、例えば、規定値通過判定部314から出力されるデータを、フィルタ311を通過させて判別部32に入力させてもよい。
実施の形態7.
図9は、本発明の実施の形態7にかかるセンサデータ出力部の構成例を示す図である。実施の形態7のセンサデータ出力部31eは、力覚データ推定部316を備える。本発明にかかる制御装置3eは、センサデータ出力部31に替えてセンサデータ出力部31eを備える以外は、実施の形態1の制御装置3と同様である。本実施の形態の機械システムは、制御装置3に替えて制御装置3eを備える以外は、実施の形態1の機械システムと同様である。以下、実施の形態1と異なる部分を説明し、実施の形態1と重複する説明は省略する。
力覚データ推定部316には、センサデータとして、制御周期ごとに、モータ電流データとモータ位置データが入力される。力覚データ推定部316は、モータ位置データを用いて、モータ速度、モータ加速度を算出するとともにロボット1の運動方程式から各軸の駆動トルクを算出する。さらに、力覚データ推定部316は、モータ電流データが示すモータ電流とトルク定数から算出したトルクとの差を算出し、算出したトルクの差をモータ位置データから算出するヤコビ行列を用いて、ロボット1の手先に作用する力およびモーメントに変換する。力覚データ推定部316は、変換により得られた、ロボット1の手先に作用する力およびモーメントを、次の制御周期で、力覚推定値すなわち推定した力覚値として判別部32へ出力する。判別部32は、入力された力覚推定値を用いて実施の形態1と同様に、作業の良否の判別を実施する。センサデータ出力部31eはセンサデータ出力部31と同様に処理回路により実現される。以上述べた以外の本実施の形態の動作は、実施の形態1と同様である。
以上のように、本実施の形態では、モータ電流データとモータ位置データを用いて力覚値を推定し、推定した力覚値を用いて作業の良否の判別を実施するようにした。このため、力覚センサを用いずに、実施の形態1と同様の効果を奏することができる。
また、実施の形態2または実施の形態4の機械システムに、本実施の形態の構成および動作を適用してもよい。また、実施の形態3と本実施の形態を組み合わせて、例えば、フィルタ311を通過させたモータ電流データとモータ位置データを用いて力覚データ推定部316が処理を行ってもよい。
実施の形態8.
図10は、本発明にかかる実施の形態8の機械システムの構成例を示す図である。図10に示すように、本実施の形態の機械システムは、実施の形態2の制御装置3aの替わりに制御装置3fを備える以外は、実施の形態2の機械システムと同様である。制御装置3fは、実施の形態2の制御装置3aに対してプログラム解釈部62が追加されている。実施の形態2と同様の構成要素には同一の符号を付して説明し、実施の形態2と重複する説明を省略する。以下、実施の形態2と異なる点を中心に説明する。
本実施の形態では、ロボットを動作させるためのロボットプログラム(ロボット言語で記載されているプログラム)に作業良否の判別開始のためのコマンド、作業良否の判別終了のためのコマンドを記載しておく。すなわち、本実施の形態では、判別部32による判別の開始と終了はロボットプログラムを用いて指定される。ロボットプログラムは、機械システム内の装置または機械システム外の装置を用いて作業者が編集することが可能である。したがって、作業者は、作業良否の判別開始および判別終了を容易に指定することができる。プログラム解釈部62は、ロボットプログラムに従って、作業良否の判別開始および判別終了をセンサデータ出力部31へ指定する。具体的には、プログラム解釈部62は、ロボットプログラムに従って作業良否の判別開始のためのコマンドを処理することにより、センサデータ出力部31に判別部32へのセンサデータの出力の開始を指示する。これにより、センサデータ出力部31は、判別部32へセンサデータの出力を開始する。また、プログラム解釈部62が、作業良否の判別終了のためのコマンドを処理することにより、センサデータ出力部31に判別部32へのセンサデータの出力の終了を指示する。これにより、センサデータ出力部31は、判別部32へセンサデータの出力を終了する。判別部32は、センサデータ出力部31からのセンサデータの入力が開始されると、作業の良否の判別を開始し、センサデータ出力部31からのセンサデータの入力が終了すると、作業の良否の判別を終了する。
以上述べた以外の本実施の形態の構成及び動作は、実施の形態2と同様であるため、説明を省略する。本実施の形態では、実施の形態2と同様の効果を奏するとともに、ロボットプログラムを編集することにより作業の良否判別を行う箇所をユーザが容易に指定できる。なお、以上の説明では、実施の形態2の制御装置3aに対してプログラム解釈部62を追加する例を説明したが、これに限らず、実施の形態1、3-7と本実施の形態の構成および動作を組み合わせてもよい。
実施の形態9.
図11は、本発明にかかる実施の形態9の機械システムの構成例を示す図である。図11に示すように、本実施の形態の機械システムは、実施の形態2の制御装置3aの替わりに制御装置3gを備える以外は、実施の形態2の機械システムと同様である。制御装置3gは、実施の形態2の作業判別装置30の替わりに作業判別装置30aを備える以外は実施の形態2の作業判別装置30と同様である。作業判別装置30aは、実施の形態2の作業判別装置30に対してデータ記憶部63および判別結果記憶部64が追加されている。実施の形態2と同様の構成要素には同一の符号を付して説明し、実施の形態2と重複する説明を省略する。以下、実施の形態2と異なる点を中心に説明する。
なお、図11では、データ記憶部63および判別結果記憶部64を制御装置3g内に備える例を示しているが、これに限らず、データ記憶部63および判別結果記憶部64を、PLC(Programmable Logic Controller)といった制御装置3gの外部の制御装置、または制御装置3gの外部のパーソナルコンピュータ内に備えてもよい。
データ記憶部63は、センサデータ出力部31から出力されるセンサデータを、該センサデータの識別情報とともに、時系列データとして記憶する。識別情報は、例えばタイムスタンプであり、当該センサデータがいつ実行されたどの作業に対応するものであるかを識別するための情報である。
判別結果記憶部64は、判別部32から最終的に出力される判別結果を、該判別結果の識別情報とともに、記憶する。この識別情報は、上述した識別情報と同様に、例えばタイムスタンプであり、当該判別結果がいつ実行されたどの作業に対応するものであるかを識別するための情報である。
データ記憶部63および判別結果記憶部64に記憶されたデータは、例えば、学習装置4を実現するパーソナルコンピュータ、表示器5等に送信され、これらの装置に表示される。または、データ記憶部63および判別結果記憶部64に記憶されたデータは、他のパーソナルコンピュータまたはPLCなど、制御装置3gとネットワークを介して接続される装置に送信されてもよい。
以上述べた以外の本実施の形態の構成及び動作は、実施の形態2と同様であるため、説明を省略する。本実施の形態では、制御装置3gは、実施の形態2と同様の効果を奏することができるとともに、過去のセンサデータおよび判別結果を記憶しておくことができる。過去の判別結果を記憶しておくことで、作業者は、後日、解析を行うことができる。また、記憶された一定期間のデータをまとめて表示することができる。なお、以上の説明では、実施の形態2の制御装置3aにおいて、作業判別装置30の替わりに作業判別装置30aを備える例を説明したが、これに限らず、実施の形態1、3-8と本実施の形態の構成および動作を組み合わせてもよい。
実施の形態10.
図12は、本発明の実施の形態10にかかるセンサデータ出力部の構成例を示す図である。実施の形態10のセンサデータ出力部31fは、実施の形態3で述べたフィルタ311と、ハイパスフィルタ、バンドパスフィルタ、ローパスフィルタのいずれかで構成されるフィルタ317を備える。本発明にかかる制御装置3hは、センサデータ出力部31に替えてセンサデータ出力部31fを備える以外は、実施の形態2の制御装置3aと同様である。本実施の形態の機械システムは、制御装置3aに替えて制御装置3fを備える以外は、実施の形態2の機械システムと同様である。以下、実施の形態2と異なる部分を説明し、実施の形態2と重複する説明は省略する。
フィルタ311は、実施の形態3と同様に、力覚センサデータから所望の周波数帯の成分を抽出し、抽出した結果を状態データとして判別部32へ出力する。フィルタ317は、モータ位置データから所望の周波数帯の成分を抽出し、抽出した結果を状態データとして判別部32へ出力する。
6軸の垂直多関節ロボットの場合、ロボット各軸のモータ位置は6次元となる。本実施の形態では、力覚センサの出力(6次元)とロボット各軸のモータ位置をそれぞれフィルタ311、フィルタ317を通過させて判別部32へ入力する。これにより判別部32への入力数は12となる。
以上のように、入力数が12の場合にも、実施の形態3と同様にセンサデータをフィルタを通過させてから判別を行うことで、実施の形態3と同様の効果を奏することができる。なお、以上の説明では、実施の形態2の実施の形態2の制御装置3aのセンサデータ出力部31をセンサデータ出力部31fに替える例を説明したが、これに限らず、実施の形態1,3-6,8,9と本実施の形態の構成および動作を組み合わせてもよい。
実施の形態11.
次に、本発明にかかる実施の形態11の作業の良否の判別方法について説明する。本実施の形態の機械システムの構成は、実施の形態1と同様である。なお、実施の形態2-10のいずれかの機械システムにおいて、本実施の形態の作業の良否の判別方法を適用してもよい。
図13は、実施の形態11の作業の良否の判別方法の一例を示すフローチャートである。本実施の形態にかかる判別方法はロボット1がカバー組み付け、コネクタ挿入、基板挿入、軸の嵌め合いなどの組立作業を開始するとともに判別を開始し、該作業を終了するとともに判別を終了する。
図13に示すように、まず。センサデータ出力部31が、センサデータを出力する(ステップS1)。センサデータ出力部31は、制御周期ごとに、センサデータを出力する。センサデータは、ロボット1内部の状態量、ロボット1の手首部に取り付けた力覚センサの出力データなどである。ロボット内部の状態量はロボットの各軸のモータの位置、速度、電流、モータの位置指令などであり、力覚センサの出力データとしては3軸方向の力(Fx,Fy,Fz)と3軸周りのモーメント(Mx,My,Mz)などである。
判別部32は、センサデータ出力部31からセンサデータを受け取ると、センサデータを入力としてRNN演算を行う(ステップS2)。詳細には、判別部32の図2に示したモデル部321が、RNN演算を行う。上述したように、センサデータは制御周期ごとに出力されるため、RNN演算も制御周期ごとに行われる。RNN演算では前回の制御周期の中間層の出力を記憶しておき、前回の制御周期における出力値と今回の周期の入力側の値(入力層の出力)から算出した項との重み付和を中間層の出力としている。出力層からは三次元の値を制御周期ごとに出力する。
上述したように、実際の生産を開始する前に組立作業時の3軸方向の力(Fx,Fy,Fz)の時系列データ、その組立作業の作業結果をペアにして学習させた学習済モデルがモデル部321で用いられる。本実施の形態では、ロボット1を複数の動作速度で作業を実施し、データを採取しておく。具体的には、組立作業が正常に終了した場合は出力値(1,0,0)、位置ずれをわざと起して失敗した場合にデータの場合は出力値(0,1,0)、部品に一部欠損があったり部品に異物が付着して作業が失敗したりした場合は出力値(0,0,1)として学習させておく。なお次元を増加し、部品の異常状態を部品の欠損と異物の付着に分けるなど、複数の異常モードに分けて学習させてもよい。
ステップS2の後、判別部32の図2に示した異常判別部322は、モデル部321からの出力値の第2、3項のいずれかが規定値以上かどうか、すなわちモデル部321からの出力値の第2要素および第3要素うちの少なくともいずれか1つが規定値以上かどうかを判定する(ステップS3)。ステップS3でNoと判定されると、すなわち、第2要素および第3要素のいずれも規定値未満の場合、動作修正部33はロボット1の動作を修正せずに動作を継続させる(ステップS7)。
ステップS3でYesと判定されると、すなわちモデル部321からの出力値の第2要素および第3要素うちの少なくともいずれか1つが規定値以上の場合、異常判別部322は、第2項すなわち第2要素が、規定値以上がどうかを判定する(ステップS4)。第2要素が規定値以上の場合(ステップS4 Yes)、動作修正部33は、一旦ロボット1を停止させて予め定められた位置までロボットを戻すとともに探索動作を行って作業を再開(リトライ)する(ステップS5)。探索動作では、ロボット1に取り付けた力覚センサや触覚センサの値に基づいて正しい挿入作業の位置を探索する。例えばカバーのないピンへのコネクタ挿入作業の場合であれば、複数の方向からロボットが把持したコネクタを低速で突き当ててピンの位置を導出し、導出した位置でコネクタ挿入作業を再度実施する。
ステップS4でNoと判定されると、すなわち第3要素が規定値以上の場合、動作修正部33は、ロボット1の動作をその場で停止させる(ステップS6)。
以上の本発明にかかる作業の良否の判別方法の処理手順の一例を説明した。これにより、実施の形態1で述べた効果を奏することができる。
以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。
1 ロボット、2 センサ、3,3a,3b,3c,3d,3e,3f,3g,3h 制御装置、4 学習装置、5 表示器、30,30a 作業判別装置、31,31b,31c,31d,31e,31f センサデータ出力部、32 判別部、33 動作修正部、34 動作制御部、41 学習部、61 補正量記憶部、62 プログラム解釈部、63 データ記憶部、311,317 フィルタ、312 外乱予測部、313 減算部、314 規定値通過判定部、315 移動量算出部、316 力覚データ推定部、321 モデル部、322 異常判別部。

Claims (17)

  1. 産業機械の作業の状態を示す状態データを、前記産業機械の動作を制御する制御周期の整数倍の出力間隔で出力するセンサデータ出力部と、
    前記センサデータ出力部から出力される前記状態データをリカレントニューラルネットワークへの入力として、前記状態データの出力間隔で前記リカレントニューラルネットワークによる推論を行うことによって前記状態データの出力間隔で前記産業機械の作業の良否を判別する判別部と、
    を備えることを特徴とする作業判別装置。
  2. 前記判別部による判別結果に基づいて、前記産業機械の動作を修正させるよう制御する動作修正部、
    を備えることを特徴とする請求項1に記載の作業判別装置。
  3. 前記産業機械はロボットであり、前記作業は組立作業であり、
    前記判別部は、さらに、前記作業における異常の種別を判別し、
    前記動作修正部は、前記判別部により前記産業機械の位置ずれの異常と判別された場合には、前記産業機械を定められた位置に戻した後に再度作業を行わせるよう制御し、前記判別部により前記作業に用いる部品に関する異常であると判別された場合はロボットを停止させるよう制御することを特徴とする請求項2に記載の作業判別装置。
  4. 前記産業機械はロボットであり、前記作業は組立作業であり、
    前記判別部は、さらに、前記作業における異常の種別を判別し、前記産業機械の位置ずれの量を示す値を算出し、
    前記動作修正部は、前記判別部により前記産業機械の位置ずれの異常と判別された場合には、前記位置ずれの量を示す値を用いて位置ずれを抑制するように前記産業機械の動作を修正して再度作業を行わせるよう制御し、前記判別部により前記作業に用いる部品に関する異常であると判別された場合はロボットを停止させるよう制御することを特徴とする請求項2に記載の作業判別装置。
  5. 前記動作修正部は、前記位置ずれの量を示す値が規定値未満の場合、当該作業においては前記産業機械の動作の修正は行わず、次回の前記産業機械の作業において前記位置ずれの量を示す値を用いて位置ずれを抑制するように前記産業機械の動作を修正するよう制御することを特徴とする請求項4に記載の作業判別装置。
  6. 前記出力間隔は、前記制御周期の1倍であることを特徴とする請求項1から5のいずれか1つに記載の作業判別装置。
  7. Lを2以上の整数とし、前記出力間隔は、前記制御周期のL倍であり、
    前記センサデータ出力部には、前記産業機械の作業の状態の検出結果であるセンサデータが前記制御周期ごとに入力され、
    前記センサデータ出力部は、最新のL個のセンサデータの平均値を前記状態データとして出力することを特徴とする請求項1から5のいずれか1つに記載の作業判別装置。
  8. 前記出力間隔ごとの前記産業機械の移動量が一定となるよう前記出力間隔が決定されることを特徴とする請求項1から5のいずれか1つに記載の作業判別装置。
  9. 前記産業機械の作業の状態を示す状態データは、前記産業機械に設けられた力覚センサにより検出された検出結果である力覚センサデータを含み、
    前記センサデータ出力部は、前記産業機械が有するモータの位置の検出結果であるモータ位置データに基づいて、前記出力間隔ごとの前記産業機械の移動量が一定となるよう前記出力間隔を決定することを特徴とする請求項8に記載の作業判別装置。
  10. 前記センサデータ出力部は、前記産業機械の作業の状態を検出するセンサから出力されたセンサデータから所望の周波数帯成分を抽出し、抽出した結果を前記状態データとして出力することを特徴とする請求項1から6のいずれか1つに記載の作業判別装置。
  11. 前記センサデータ出力部には、前記産業機械が有するモータの位置の検出結果であるモータ位置データと前記産業機械に設けられた力覚センサにより検出された検出結果である力覚センサデータとが入力され、
    前記センサデータ出力部は、前記モータ位置データに基づいて、前記力覚センサによる計測値に含まれる外乱成分を推定し、前記力覚センサデータから前記外乱成分を除去した結果を前記状態データとして出力することを特徴とする請求項1から6のいずれか1つに記載の作業判別装置。
  12. 前記センサデータ出力部には、前記産業機械が有するモータの位置の検出結果であるモータ位置データと前記モータを流れるモータ電流の検出結果であるモータ電流データとが入力され、
    前記センサデータ出力部は、前記モータ位置データおよび前記モータ電流データに基づいて、前記産業機械における力覚値を推定し、推定した前記力覚値を前記状態データとして出力することを特徴とする請求項1から6のいずれか1つに記載の作業判別装置。
  13. 産業機械の作業の状態を示す状態データを、前記産業機械の動作を制御する制御周期の整数倍の出力間隔で出力するセンサデータ出力部と、
    前記センサデータ出力部から出力される前記状態データをリカレントニューラルネットワークへの入力として前記リカレントニューラルネットワークによる推論によって前記産業機械の作業の良否を判別する判別部と、
    を備え、
    前記出力間隔ごとの前記産業機械の移動量が一定となるよう前記出力間隔が決定されることを特徴とする作業判別装置。
  14. 前記産業機械の作業の状態を示す状態データは、前記産業機械に設けられた力覚センサにより検出された検出結果である力覚センサデータを含み、
    前記センサデータ出力部は、前記産業機械が有するモータの位置の検出結果であるモータ位置データに基づいて、前記出力間隔ごとの前記産業機械の移動量が一定となるよう前記出力間隔を決定することを特徴とする請求項13に記載の作業判別装置。
  15. 前記判別部による判別の開始と終了はロボットプログラムを用いて指定されることを特徴とする請求項1から14のいずれか1つに記載の作業判別装置。
  16. 前記判別部による判別結果を記憶する判別結果記憶部、
    を備えることを特徴とする請求項1から15のいずれか1つに記載の作業判別装置。
  17. 作業判別装置が産業機械の作業の良否を判別する作業判別方法であって、
    前記産業機械の作業の状態を示す状態データを、前記産業機械の動作を制御する制御周期の整数倍の出力間隔で出力するデータ出力ステップと、
    前記データ出力ステップで出力される前記状態データをリカレントニューラルネットワークへの入力として、前記状態データの出力間隔で前記リカレントニューラルネットワークによる推論を行うことによって前記状態データの出力間隔で前記産業機械の作業の良否を判別する判別ステップと、
    を含むことを特徴とする作業判別方法。
JP2019017080A 2019-02-01 2019-02-01 作業判別装置および作業判別方法 Active JP7092307B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019017080A JP7092307B2 (ja) 2019-02-01 2019-02-01 作業判別装置および作業判別方法
US17/299,785 US11865721B2 (en) 2019-02-01 2019-12-19 Work determination apparatus and work determination method
DE112019006789.3T DE112019006789B4 (de) 2019-02-01 2019-12-19 Arbeitsbestimmungsgerät und arbeitsbestimmungsverfahren
CN201980090472.1A CN113365788A (zh) 2019-02-01 2019-12-19 作业判别装置及作业判别方法
PCT/JP2019/049929 WO2020158239A1 (ja) 2019-02-01 2019-12-19 作業判別装置および作業判別方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019017080A JP7092307B2 (ja) 2019-02-01 2019-02-01 作業判別装置および作業判別方法

Publications (2)

Publication Number Publication Date
JP2020124760A JP2020124760A (ja) 2020-08-20
JP7092307B2 true JP7092307B2 (ja) 2022-06-28

Family

ID=71840026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019017080A Active JP7092307B2 (ja) 2019-02-01 2019-02-01 作業判別装置および作業判別方法

Country Status (5)

Country Link
US (1) US11865721B2 (ja)
JP (1) JP7092307B2 (ja)
CN (1) CN113365788A (ja)
DE (1) DE112019006789B4 (ja)
WO (1) WO2020158239A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT201900015491A1 (it) * 2019-09-03 2021-03-03 St Microelectronics Srl Procedimento di elaborazione dati di serie temporali, sistema di elaborazione, dispositivo e prodotto informatico corrispondenti
GB202003015D0 (en) * 2020-03-03 2020-04-15 Atlas Copco Ias Uk Ltd Riveting machine
WO2022145150A1 (ja) * 2020-12-28 2022-07-07 ソニーグループ株式会社 制御システム及び制御方法
WO2022145213A1 (ja) * 2020-12-28 2022-07-07 ソニーグループ株式会社 制御装置、制御システム及び制御方法
DE102021126188A1 (de) 2021-10-08 2023-04-13 Dürr Systems Ag Überwachungsverfahren für einen Roboter und zugehörige Roboteranlage
DE102021213918A1 (de) * 2021-12-07 2023-06-07 Kuka Deutschland Gmbh Identifikation von Fehlerursachen auf Befehlsebene in Prozessen

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011104740A (ja) 2009-11-19 2011-06-02 Mitsubishi Electric Corp 力制御装置
JP2011230231A (ja) 2010-04-28 2011-11-17 Yaskawa Electric Corp ロボットの作業成否判定装置、および方法
JP2012171071A (ja) 2011-02-23 2012-09-10 Toyama Prefecture ロボットのねじ締め作業異常検知方法
JP2016221660A (ja) 2015-06-03 2016-12-28 富士通株式会社 判定方法、判定プログラム及び判定装置
WO2016208467A1 (ja) 2015-06-22 2016-12-29 三菱電機株式会社 キャリブレーション装置およびこれを用いたロボットシステム
JP2018027577A (ja) 2016-08-15 2018-02-22 富士通株式会社 判定装置、判定方法、および判定プログラム
JP2018120399A (ja) 2017-01-25 2018-08-02 オムロン株式会社 制御装置、制御プログラムおよび制御システム
JP2018200306A (ja) 2017-05-29 2018-12-20 ローム株式会社 バッテリの残量検出回路、それを用いた電子機器、バッテリ残量の検出方法
JP2019181488A (ja) 2018-04-03 2019-10-24 株式会社ダイヘン コンピュータプログラム、溶接情報算出装置、溶接トーチ、溶接電源、溶接システム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2921330B2 (ja) * 1993-05-19 1999-07-19 関西電力株式会社 コンデンサ形計器用変圧器の内部部分放電検出方法
JPH08300280A (ja) * 1995-05-09 1996-11-19 Fanuc Ltd ロボットの動作制御方式
JPH09123078A (ja) * 1995-11-01 1997-05-13 Ricoh Co Ltd ロボット装置
JP4271249B2 (ja) * 2007-06-14 2009-06-03 ファナック株式会社 嵌合装置
JP4598849B2 (ja) * 2008-09-03 2010-12-15 ファナック株式会社 嵌合の詰まり状態を修正する嵌合装置
US20150266182A1 (en) * 2012-10-11 2015-09-24 Abb Technology Ltd Method And An Apparatus For Automatically Generating A Collision Free Return Program For Returning A Robot From A Stop Position To A Predefined Restart Position
CN105934313B (zh) * 2014-01-26 2018-02-06 Abb瑞士股份有限公司 用于将对象移动到目标位置的方法、装置和机器人系统
JP5893665B2 (ja) * 2014-04-14 2016-03-23 ファナック株式会社 作用された力に応じて移動されるロボットを制御するロボット制御装置
JP6003942B2 (ja) * 2014-04-24 2016-10-05 トヨタ自動車株式会社 動作制限装置及び動作制限方法
JP6460690B2 (ja) * 2014-09-16 2019-01-30 キヤノン株式会社 ロボット装置、ロボット制御方法、プログラム及び記録媒体
US9889566B2 (en) 2015-05-01 2018-02-13 General Electric Company Systems and methods for control of robotic manipulation
DE102016008987B4 (de) 2015-07-31 2021-09-16 Fanuc Corporation Maschinenlernverfahren und Maschinenlernvorrichtung zum Lernen von Fehlerbedingungen, und Fehlervorhersagevorrichtung und Fehlervorhersagesystem, das die Maschinenlernvorrichtung einschließt
JP6514166B2 (ja) * 2016-09-16 2019-05-15 ファナック株式会社 ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法
WO2018053430A1 (en) * 2016-09-16 2018-03-22 Carbon Robotics, Inc. System and calibration, registration, and training methods
CN106826826B (zh) * 2017-02-14 2019-09-20 上海新时达电气股份有限公司 一种机器人控制方法与装置
JP6707485B2 (ja) * 2017-03-22 2020-06-10 株式会社東芝 物体ハンドリング装置およびその較正方法
US10862175B2 (en) 2017-05-29 2020-12-08 Rohm Co., Ltd. Battery fuel gauge circuit
US11007648B2 (en) * 2017-09-05 2021-05-18 Abb Schweiz Ag Robotic system for grasping objects
US10016900B1 (en) * 2017-10-10 2018-07-10 Auris Health, Inc. Surgical robotic arm admittance control
JP6781183B2 (ja) * 2018-03-26 2020-11-04 ファナック株式会社 制御装置及び機械学習装置
JP7225563B2 (ja) * 2018-05-14 2023-02-21 セイコーエプソン株式会社 ロボット、制御装置およびロボットの制御方法
JP2020044610A (ja) * 2018-09-19 2020-03-26 株式会社デンソーウェーブ ロボットの制御方法
JP7000359B2 (ja) * 2019-01-16 2022-01-19 ファナック株式会社 判定装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011104740A (ja) 2009-11-19 2011-06-02 Mitsubishi Electric Corp 力制御装置
JP2011230231A (ja) 2010-04-28 2011-11-17 Yaskawa Electric Corp ロボットの作業成否判定装置、および方法
JP2012171071A (ja) 2011-02-23 2012-09-10 Toyama Prefecture ロボットのねじ締め作業異常検知方法
JP2016221660A (ja) 2015-06-03 2016-12-28 富士通株式会社 判定方法、判定プログラム及び判定装置
WO2016208467A1 (ja) 2015-06-22 2016-12-29 三菱電機株式会社 キャリブレーション装置およびこれを用いたロボットシステム
JP2018027577A (ja) 2016-08-15 2018-02-22 富士通株式会社 判定装置、判定方法、および判定プログラム
JP2018120399A (ja) 2017-01-25 2018-08-02 オムロン株式会社 制御装置、制御プログラムおよび制御システム
JP2018200306A (ja) 2017-05-29 2018-12-20 ローム株式会社 バッテリの残量検出回路、それを用いた電子機器、バッテリ残量の検出方法
JP2019181488A (ja) 2018-04-03 2019-10-24 株式会社ダイヘン コンピュータプログラム、溶接情報算出装置、溶接トーチ、溶接電源、溶接システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
本山瞭 ほか,力覚信号の時刻歴を用いたロボットによるピン挿入作業,第29回日本ロボット学会学術講演会予稿集DVD-ROM 2011年 The 29th Annual ,一般社団法人日本ロボット学会,2011年09月07日

Also Published As

Publication number Publication date
US20220016770A1 (en) 2022-01-20
WO2020158239A1 (ja) 2020-08-06
US11865721B2 (en) 2024-01-09
JP2020124760A (ja) 2020-08-20
DE112019006789B4 (de) 2023-09-07
DE112019006789T5 (de) 2021-10-28
CN113365788A (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
JP7092307B2 (ja) 作業判別装置および作業判別方法
JP6031202B1 (ja) 製造機械の異常の原因を発見するセル制御装置
US10478969B2 (en) Method for the improved detection of the collision of a robot with its environment, system and computer program product implementing said method
JP6506245B2 (ja) 組付動作を学習する機械学習装置および部品組付システム
CN109940622B (zh) 一种基于电机电流的机器人机械臂无传感碰撞检测方法
JP6572265B2 (ja) 制御装置及び機械学習装置
EP3900889A1 (en) Control apparatus, robot, learning apparatus, robot system, and method
JP7000359B2 (ja) 判定装置
US10345796B2 (en) Cell controller and production system for managing working situation of a plurality of manufacturing machines in manufacturing cell
Makarov et al. Adaptive filtering for robust proprioceptive robot impact detection under model uncertainties
CN111347421A (zh) 用于扭矩估计的方法和装置
KR102357168B1 (ko) 인공신경망을 이용한 로봇 매니퓰레이터의 충돌을 감지하는 방법 및 시스템
Kitagaki et al. Methods to detect contact state by force sensing in an edge mating task
Sotoudehnejad et al. Counteracting modeling errors for sensitive observer-based manipulator collision detection
KR102139229B1 (ko) 인공신경망을 이용한 로봇 매니퓰레이터의 충돌을 감지하는 방법 및 시스템
WO2020213062A1 (ja) モータ制御装置
KR101262277B1 (ko) 로봇의 충돌검지 방법
McIntyre et al. Fault detection and identification for robot manipulators
Wagner et al. Interval-arithmetic-based trajectory scaling and collision detection for robots with uncertain dynamics
JP6949284B1 (ja) 数値制御装置
Carreón-Díaz de León et al. A novel methodology of parametric identification for robots based on a CNN
Xu et al. A novel collision detection method based on current residuals for robots without joint torque sensors: A case study on UR10 robot
US20230286150A1 (en) Robot control device
Kitagaki et al. Contact state detection by force sensing for assembly tasks
Briquet-Kerestedjian et al. Quantifying the uncertainties-induced errors in robot impact detection methods

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20190213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220607

R150 Certificate of patent or registration of utility model

Ref document number: 7092307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150