JP6494331B2 - ロボット制御装置およびロボット制御方法 - Google Patents

ロボット制御装置およびロボット制御方法 Download PDF

Info

Publication number
JP6494331B2
JP6494331B2 JP2015041691A JP2015041691A JP6494331B2 JP 6494331 B2 JP6494331 B2 JP 6494331B2 JP 2015041691 A JP2015041691 A JP 2015041691A JP 2015041691 A JP2015041691 A JP 2015041691A JP 6494331 B2 JP6494331 B2 JP 6494331B2
Authority
JP
Japan
Prior art keywords
robot
worker
state
learning
learning information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015041691A
Other languages
English (en)
Other versions
JP2016159407A (ja
Inventor
伸明 ▲桑▼原
伸明 ▲桑▼原
鈴木 雅博
雅博 鈴木
小林 一彦
一彦 小林
祐介 中里
祐介 中里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015041691A priority Critical patent/JP6494331B2/ja
Priority to US15/051,893 priority patent/US20160260027A1/en
Publication of JP2016159407A publication Critical patent/JP2016159407A/ja
Application granted granted Critical
Publication of JP6494331B2 publication Critical patent/JP6494331B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39205Markov model
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40116Learn by operator observation, symbiosis, show, watch
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40201Detect contact, collision with human
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/03Teaching system

Description

本発明は、作業者とロボットが共存する空間で作業をするためのロボット制御装置およびロボット制御方法に関する。
生産や組み立ての効率化を図るために、作業者とロボットが共存する空間で作業を行うシステムが近年注目を集めている。しかし、作業者とロボットが共存する空間で作業を行う場合に、ロボットと作業者が干渉することで、作業者に危害が及ぶ可能性がある。
そこで、特許文献1に記載の手法では、境界を横切るような動作などの各種の動作の監視に用いる監視境界を2つ設ける。そして、いずれか一方の監視境界を、無効な監視境界とし、さらにその無効な監視境界を、2つの監視境界で切替え可能にする。つまり、2つの監視境界の間の領域は、作業者とロボットが排他に進入可能な領域となり、安全性を向上させつつ、ロボットと作業者が共存する空間で作業を行うことができるようにしている。
特開2008−191823号公報 特開2001−092978号公報 特開平6−59804号公報
しかしながら、特許文献1に記載の構成では、監視境界の間の領域において、ロボットと人間のどちらか一方しか作業ができないため、生産性が低下する場合がある。
本発明は前述の問題点に鑑み、監視境界などを用いて作業空間中に領域を定義することなく、ロボットと作業者が共存する空間で安全に作業をすることを可能にし、生産性を向上させることを目的とする。
本発明のロボット制御装置は、作業者とロボットの時系列の状態を検出してロボットを制御するロボット制御装置であって、作業者の状態を検出する検出手段と、ロボットおよび作業者の時系列の状態を学習した学習情報を保持する学習情報保持手段と、前記検出手段から出力された作業者の状態と、ロボットの状態と、前記学習情報保持手段から出力される学習情報に基づいて、ロボットの動作を判断する判断手段と、前記判断手段から出力される情報に基づいて、ロボットの動作を制御する制御手段とを有することを特徴とする。
本発明によれば、作業をするロボットおよび作業者の状態と、ロボットおよび作業者の状態を時系列に学習した学習情報に基づいてロボットを制御する。これにより、ロボットと作業者が共存する空間でロボットと作業者が安全に作業をすることが可能となり、生産性を向上することができる。
第1、第2及び第4の実施形態に係るロボット制御装置の全体構成を示す図である。 第1、第2及び第3の実施形態に係る事例に関する説明をした図である。 検出部で検出する作業者の状態を示した図である。 ロボットの状態を示した図である。 作業者とロボットの動作を学習するためのモデルを表した図である。 実施形態に係るモデルを学習する手順を示したフローチャートである。 第1の実施形態に係るロボット制御装置の制御手順を示すフローチャートである。 第2の実施形態に係るロボット制御装置の制御手順を示すフローチャートである。 第3の実施形態に係るロボット制御装置の全体構成を示す図である。 第3の実施形態に係るロボット制御装置の制御手順を示すフローチャートである。 第4の実施形態に係る事例に関する説明をした図である。 第4の実施形態に係るロボット制御装置の制御手順を示すフローチャートである。 作業者の時系列の状態の保持方法について説明する図である。 学習結果のモデルの保持方法について説明する図である。 学習結果のモデルを表した図である。
(第1の実施形態)
本実施形態に係るロボット制御装置は、ロボットと作業者が共存する空間で作業をする場合において、事前にロボットと作業者の作業における時系列の状態を学習した学習情報を用いる。現在作業している作業者とロボットの時系列の状態が、学習した作業者とロボットの時系列の状態である確率が高ければ、ロボットは動作を継続するように制御する。また、学習時の作業者とロボットの時系列の状態である確率が低ければ、動作を停止もしくは減速するように制御する。このように、事前に学習した情報を用いてロボットを制御することで、ロボットと作業者が共存する空間で作業をする場合においても安全性を確保しつつ、生産性を向上させるようにしたものである。
まず、図2を用いて、本実施形態におけるロボット制御装置を適用可能な作業者203とロボット103の作業の事例について説明する。
図2の事例では、ロボット103と、センサ102がロボット制御装置101に接続されている。ロボット103には、ハンド205が接続されている。また、ハンド205は作業対象206を把持している。203は作業者であり、作業者203においても作業者の手207で作業対象208を把持している状態である。また、ロボット座標系211が定義されている。
次の状態では、ロボット103は把持している作業対象206を作業台210の上に配置されている作業対象209に組み付ける。同時に、作業者203も、把持している作業対象208を作業台210の上に配置している作業対象209に組み付ける事例である。
ここで、センサ102とロボット制御装置101を用いて作業者203の時系列の状態と、ロボット103の時系列の状態を、ロボット制御装置101が、事前に学習した情報を用いて評価している。現在作業している作業者203とロボット103の時系列の状態が、学習した作業者203とロボット103の時系列の状態である確率が高ければ、ロボットは動作を継続するように制御する。また、学習した作業者203とロボット103の時系列の状態である確率が低ければ、動作を停止もしくは減速するように制御する。
このように制御することで、ロボット103は把持している作業対象206を作業台210の上に配置している作業対象209に組み付けることができる。また、同時に、作業者203も、把持している作業対象208を作業台210の上に配置している作業対象209に組み付けることができる。
図2のロボット制御装置101の構成について、図1を用いて説明する。
図1は、本実施形態におけるロボット制御装置101の構成例を示すブロック図である。102は、作業者203の状態を感知するセンサ、103はロボットである。104は、センサ102からの情報を元に作業者203の状態を検出する検出部である。105は、ロボット103の状態と作業者203の状態を時系列に学習した学習情報を保持する学習情報保持部である。106は、ロボット103、検出部104、学習情報保持部105から入力される情報に基づいてロボット103の動作を判断する判断部である。107は、判断部106から入力される情報に基づいてロボット103を制御する制御部である。
以下、ロボット制御装置101の各部位、および、センサ102とロボット103について詳細に説明する。
まず、センサ102は、作業者の状態を感知する装置である。センサ102は、検出部104が作業者の状態を認識可能な情報を出力する必要がある。ここで、作業者の状態とは、作業者の振る舞いを表現するためのパラメータである。本実施例の作業者の状態とは、図2で定義したロボット座標系211から見た作業者の手の位置である。
作業者の手の位置のデータの保持の方法について、図13の例を用いて説明する。作業者の手の位置は、XML(Extensible Markup Language)形式で保持される。1つ作業の振る舞いは、タグ<motion>で囲まれたデータで保持される。また、1つの作業は、離散的に時系列に保持される。時系列で保持するために、タグ<frame>で囲まれた要素を複数保持する。そして、タグ<frame>内には作業開始からの時間を記録したタグ<time>と、作業者の手の部位のタグ<region>で構成される。本実施例では、手の位置を保持するので、タグ<name>にはhandが指定される。さらに、タグ<position>で囲まれた部分に作業者の腕の特定の部位の位置の値、ここでは手の重心位置の値が保持される。
センサ102は、検出部104が作業者の状態を認識可能な情報を出力するために、3次元の距離画像が取得可能なカメラを用いる。
次に、検出部104は、センサ102から入力された情報から、作業者の状態を検出する部位である。2次元や3次元の画像から作業者の部位の位置姿勢を求める手法は、多く提案されており、例えば、特許文献2に記載の手法を用いてもよい。
ロボット103は、制御可能なロボットであり、ロボットの状態を出力可能なロボットであれば、どのようなロボットであってもよい。
学習情報保持部105は、事前にロボット103とセンサ102の状態の変化を学習したモデル情報が記録されている。
学習情報保持部105に記録されているモデル情報の生成方法について、図3〜図6および図14、図15を用いて説明する。
学習情報保持部105に記録されているモデル情報は、作業者とロボットが作業をする動作から生成したモデル情報である。モデル情報は、そのモデルの構造とパラメータで構成される。
まず、モデルの構造であるが、伸縮する可能性のある信号パターンに適した、隠れマルコフモデルを用いる。
具体的には、図5の(b)の501のような、状態503と状態遷移502で構成されたモデルである。
各状態s1、s2、s3は確率密度関数であり、それぞれの状態は、図5(c)の504、505、506のような正規分布の確率密度関数である。
次に、モデルの学習方法について述べる。モデルの学習には、作業者とロボットが作業をする動作を複数回行った動作のサンプルから学習する。本実施形態において、学習する作業者とロボットの状態は、作業者の手とロボットのハンドの位置とする。
モデルの学習とは、図5(b)に示した各状態の遷移確率、a11、a12、a21、a22、a31のパラメータ、および図5(c)に示した各状態の正規分布の確率密度関数のパラメータ、平均m1、m2、m3、分散v1、v2、v3を求めることである。
ここで、学習のための作業者の動作の時系列の状態の取得方法は、図3(a)に示すように、作業者203の手の位置302の情報について、センサ102を用いて得る。
また、図3(a)では作業者203の手の位置を301から302まで移動させる動作を表している。
図3(a)で示した作業者203の手の位置は、図3(b)の時間と手の位置のグラフ303のように書くことができる。
図3(b)の手の位置のグラフ303について詳細に説明する。
グラフ303は、横軸が時間、縦軸が図2記載のロボット座標系211のZ軸方向の位置である。
作業者203の手の位置は、3次元で表すことができる。しかし、ここでは、説明を簡略化するためにZ軸の座標のみを用いる。
3次元に拡張する場合は、図5(b)に示したモデル501をZ軸だけでなくXY軸についても用意すればよい。
また、図3(b)のt0の時点での手の位置は作業開始の初期位置として、あらかじめ設定されている。加えて、手の位置を計測するにあたり、図3(b)の手の位置c1、c2のように、チェックポイントが定義している。図3(b)では、c1は0.5mに設定されており、c2は、1.3mに設定されている。このc1、c2のチェックポイントにより、手の位置の時間変化を、グループに分ける。
図3(b)では、初期位置からc1の位置までをs1、c1からc2の位置までをs2、c2から最終位置をs3とする。このグループ分けを行うことで、それぞれのグループで入力される手の位置の値の傾向別に学習した結果が得られる。グループ化する理由は、グループを分けない場合に比べて、より動作の特徴を反映した、学習結果が得られるという効果があるからである。
作業者203の手の位置302がc1に達した時間をt3とし、t0からの時間をt1、t2で均等に分割する。同様にc2に達した時間をt5とし、t4で均等に分割する。
均等に分割する理由は、c1に達する時間が変わったとしても、同様の学習モデルを使用できるからである。
加えて、図3(a)で示した作業者の手の位置だけでなく、作業者203が把持している作業対象208の状態を作業者203の状態に含めて、動作を取得してもよい。作業対象208の状態を含めることで、部品の脱落や把持の失敗に対しても対応できるという効果がある。
次に、学習する動作の特徴を表した情報を取得するために、図3(b)で手の位置の情報を、図中のt1、t2、t3、t4、t5、t6、t7の手の位置を抽出する。そして、前の時点と次の時点の位置の値の差分を作業者の学習する動作の特徴とする。例えば、t1時点での手の位置からt0の手の位置の差分を求めると、0.1になる。t2時点での手の位置からt1時点の手の位置の差分を求めると0.2になる。同様に、前の時点と次の時点の位置の値の差分を求めて、左から列挙すると、図3(c)の304のような数字の列となる。
学習のためのロボット103の動作の時系列の状態の取得方法は、図4(a)のように、ロボット103の関節の角度情報をロボット103の関節に内蔵されているエンコーダーの情報を読み取ることで得る。ロボット103の関節の角度が分かれば、順運動学(forward kinematics)の計算で、ロボット103のハンドの位置が分かる。
また、図4では、ロボット103のハンドの位置を401から402まで移動させる動作を表している。
図4(a)で示したロボット103の関節の位置は、図4(b)の時間とハンドの位置のグラフ403のように書くことができる。
図4では、一つの関節の動作に着目しているが、もちろん状態を取得する関節は1つに限る必要はない。ロボット103の作業の動作を代表する部位であれば、複数用いてもよい。さらに、図4(a)のロボット103が把持している作業対象206の状態をロボット103の状態に含めて、動作を取得してもよい。作業対象206の状態を含めることで、部品の脱落や把持の失敗に対しても対応できるという効果がある。
また、学習する動作の特徴を表した情報を取得するために、図4(b)で手の位置の情報を、図中のt0、t1、t2、t3、t4、t5、t6、t7の手の位置を抽出しその値の差分をロボットの学習する動作の特徴とする。結果として、ハンドの位置の前の時点と次の時点の位置の値の差分を求めて、左から列挙すると、図4(c)の404となる。
次に、図3で説明した手順で得た複数の作業者の時系列の状態の情報から作業者のモデルのパラメータを求める方法について図5を用いて説明する。ロボットのモデルのパラメータを求める方法も同様であるため、説明は省略する。
図5(a)ように、作業者の複数の動作のサンプル304、305、306のグループ化された動作は、それぞれ507、508、509のようになる。それぞれのグループをモデル501の状態とし、各状態をs1、s2、s3とする。
次に、区切った各状態のs1、s2、s3のデータの平均と分散を求める。結果として、動作のサンプル304、305、306が学習に用いる全てのサンプルとした場合は以下のようになる。状態s1の平均はm1=0.17、分散はv1=0.0075、状態s2の平均はm2=0.4、分散は、v2=0.024、状態s3の平均はm3=-0.4、分散はv3=0.024となる。それぞれをグラフで表すと、図5(c)の504〜506のようになる。
次に、作業者の複数の動作のサンプル304、305、306から状態遷移確率を求める。サンプル304、305、306の動作サンプルの中で、s1からの状態遷移は、9回であり、s1から、s1の遷移は、6回であるため、a11の遷移確率は6/9となる。同様に、a12は3/9、a21は3/6、a22は3/6、a31は1となる。
求めたパラメータの結果を図示すると、図15の(b)の1503のようになる。
加えて、モデルのパラメータの保持方法について、図14を用いて説明する。モデルのパラメータの保持は、XML(Extensible Markup Language)形式で保持される。
1つのモデルは、タグ<model>で囲まれたデータで保持される。初期の状態の名前をタグ<startState>で保持する。1つのモデルは複数の状態を保持する。
1つの状態は、タグ<state>で囲まれたデータで保持される。状態の名前は、タグ<name>で保持される。また、状態遷移の情報はタグ<transition>で囲まれる領域で保持される。状態遷移先の状態名はタグ<next>で保持され、状態遷移確率はタグ<probability>で保持される。状態の確率密度関数は、関数はタグ<function>で保持され、関数名はタグ<distribution>で保持される。また、その関数のパラメータはタグ<parameter>で保持する。
学習されたモデル図15(b)の1503を得るまでの手順について、図6を用いて説明する。
S601において、まず作業者203に学習する対象の作業の開始を通知する。通知後、ロボット103が動作を開始し、作業者203も動作を開始する。
S602において、学習する対象の作業をする作業者203とロボット103の状態を時系列に記録する。
S603において、設定したくりかえし数に達したかどうか判断する。ここで、くりかえし数は多いほど、学習の精度は向上するが、学習に費やす時間が増加する。設定したくりかえし数に達していたら、S604に遷移し、モデルのパラメータを推定し終了する。設定したくりかえし数に達していなかったら、S601に戻る。
図1の説明に戻る。判断部106は、ロボット103から出力されるロボット103の時系列の状態、検出部104から出力される作業者203の時系列の状態、学習情報保持部105から入力されるモデルに基づいてロボット103の動作を判断する。具体的には、学習情報保持部105から判断部106に入力されるモデルをMとして、ロボット103および検出部104から判断部106に入力される時系列の状態をyとする。この時、時系列の状態を、yがモデルMから発生した確率P(y|M)は、可能性のある状態遷移をsiとすると、数1になる。
Figure 0006494331
判断部106は、数1より得た確率と事前に設定した閾値を比較し判断する。数1より得た確率が閾値を下回る確率の場合は、作業者203に危険が及ぶ可能性があるので、ロボット103の動作を停止または減速するための制御信号を制御部107に出力する。ここで、減速とは、ロボット103に設定した作業する速度よりも速度を低下させることである。
また、数1より得た確率が閾値を上回る場合は、ロボット103の動作を継続する制御信号を制御部107に出力する。判断部106で用いる閾値は、5とする。
制御部107は、図示しないCPU、ROM、RAM等からなるコンピュータシステムを有する。図6、図7、図8、図10及び図12のフローチャートの処理は、ROMに記憶されたプログラムをRAMに展開し、CPUが実行することで実現する。
もちろん、この閾値は、作業の内容が異なる場合は異なる。ここで、図15を用いて、作業中の作業者203の動作の判断について具体例を用いて説明する。
図5(a)にサンプルにより、学習したモデル図15(b)の1503に対して、作業者203の動作の時系列の状態1501および1502が入力されたとする。1501は、学習時と近い動作を行った場合の作業者203の動作の時系列の状態であり、1502は、学習時と異なる動作を行った場合の作業者203の動作の時系列の状態である。
ここで、ロボット103についての計算方法は作業者と同様であるため、説明を省略する。
ここで説明のために、数1で示した状態遷移xは一種類のみとする。つまり、図15の(a)のように、xはs1、s1、s1、s2、s2、s3、s3の順番で遷移する。
作業者203の動作の時系列の状態1501が入力された場合であるが、s1、s1、s1、s2、s2、s3、s3の順番で遷移するので、数1の右辺P(x|M)は、数2のようになる。
Figure 0006494331
続いて、数1の右辺P(y|x)は、各状態s1、s2、s3の確率密度関数に作業者203の動作の時系列の状態1501の値を代入する。結果として数3のようになる。
Figure 0006494331
従って、数1の左辺P(y|M)は数2、数3より数4のようになる。
Figure 0006494331
ここで、設定した閾値は、5であり、数4で導出された値は、閾値以上である。よって、判断部106に入力された、作業者203の動作の時系列の状態1501の場合では、ロボット103の動作を継続する制御信号を制御部107に出力する。
次に、作業者203の動作の時系列の状態1502の場合であるが、数1の右辺P(x|M)は、状態遷移が同様であるため、状態1501と同様に数2のようになる。
続いて、数1の右辺P(y|x)は、各状態s1、s2、s3の確率密度関数に、作業者203の動作の時系列の状態1502の値を代入し、数5のようになる。
Figure 0006494331
従って、数1の左辺P(y|M)は数2、数5より数6のようになる。
Figure 0006494331
ここで、設定した閾値は、5であり、数6で導出された値は、閾値より小さい。よって、判断部106に入力された、作業者の動作の時系列の状態1502の場合では、作業者203に危険が及ぶ可能性があるので、ロボット103の動作を停止または減速するための制御信号を制御部107に出力する。
制御部107は、判断部106から入力したロボット103の動作の情報に基づいて、ロボット103の動作を制御する。
次に、図7のフローチャートを用いて、本実施形態におけるロボット制御装置101の制御手順について説明する。
S701において、検出部104はセンサ102から入力した情報を元に作業者203の状態を判断部106に出力する。また、ロボット103の状態の情報をロボット103から得て、判断部106に出力する。
S702において、判断部106は、検出部104から作業者203の情報を入力する。また、ロボット103の状態の情報をロボット103から入力し、学習情報保持部105からモデルの情報を入力する。入力された情報から確率を算出し、閾値と比較し判断する。
算出した確率が閾値以上であれば、S703において、S704に遷移する。また、算出した確率画、閾値より小さい確率であるならば、S703においてS705に遷移する。
ここで、学習情報保持部105から入力されたモデルの情報が複数ある場合、例えばロボット103と作業者203でそれぞれモデルがある場合。その場合には、全てのモデルを評価する。全てのモデルの確率が閾値以上であると判断された場合に、ステップS703において、S704に遷移する。
また、一つのモデルでも閾値より小さい確率であるならば、S703において、S705に遷移する。
S704において、判断部106で算出した確率が閾値以上であることで、ロボット103および作業者203が正常な動作であると判断し、ロボット103の動作を継続するように制御部107でロボット103の動作制御を行う。
S705において、判断部106で算出した確率が閾値以下であることで、作業者203に危険が及ぶ可能性有りと判断し、ロボット103の動作を停止もしくは減速するように制御部107でロボット103の制御を行う。
S706において、制御部107は、現在の作業が完了か否かを判断し、現在の作業が完了していないならば、S701に戻り、完了していれば終了する。
以上述べた構成によれば、ロボットと作業者が共存する空間で作業する場合において、事前にロボットおよび作業者の作業の時系列の状態を学習した学習情報を用いる。現在作業している作業者とロボットの時系列の状態が、学習時の作業者とロボットの時系列の状態である確率が高ければ、ロボットは動作を継続するように制御する。また、学習時の作業者とロボットの時系列の状態である確率が低ければ、動作を停止もしくは減速するように制御する。このように、ロボットおよび作業者の作業の時系列の状態を学習した学習情報を用いてロボットを制御することで、ロボットと作業者が共存する空間で作業をする場合においても安全性を確保しつつ、生産性を向上させることができるという効果が得られる。
(第2の実施形態)
本実施形態におけるロボット制御装置は、第1の実施形態と同様に、ロボットと作業者が共存する空間で作業する場合において、事前にロボットおよび作業者の作業の時系列の状態を学習した学習情報を用いる。そして、現在作業している作業者とロボットの時系列の状態が、学習時の作業者とロボットの時系列の状態である確率が高ければ、ロボットは動作を継続するように制御する。また、学習時の作業者とロボットの時系列の状態である確率が低ければ、動作を停止もしくは減速するように制御する。
加えて、第2の実施形態では、ロボットの動作を停止もしくは減速するように制御した後に、作業者に作業の復帰を通知し、再度、作業者が作業を開始するように制御をする。このように制御することで、ロボットの稼働率を向上させ、ロボットと作業者が共存する空間で作業をする場合においても安全性を確保しつつ、生産性を向上させるようにしたものである。
第2の実施形態は、第1の実施形態で説明した、ロボット制御装置のブロック構成において、判断部106以外は同一である。よって、図1を用いて、第2の実施形態における、判断部について説明する。
判断部106は、ロボット103から出力されるロボット103の時系列の状態、検出部104から出力される作業者203の時系列の状態、学習情報保持部105から入力されるモデルに基づいてロボット103の動作を判断する。
判断部106は、ロボット103の動作を判断する際に、第1の実施形態で説明した数1より得た確率と事前に設定した閾値を比較し判断する。数1より得た確率が閾値を上回る場合は、ロボット103の動作を継続する制御信号を制御部107に出力する。
数1より得た確率が閾値を下回る確率の場合は、作業者203に危険が及ぶ可能性があるので、ロボット103の動作を停止するか、もしくは減速する制御信号を制御部107に出力する。加えて、第2の実施形態の判断部106は、ロボット103を停止もしくは減速した後に、作業の復帰を作業者203に通知する。その後、再度、ロボット103から出力されるロボット103の時系列の状態、検出部104から出力される作業者203の時系列の状態、学習情報保持部105から入力されるモデルに基づいてロボット103の動作を判断する。
次に、図8のフローチャートを用いて、本実施形態におけるロボット制御装置101の制御手順について説明する。
S801において、検出部104は、センサ102から入力した情報を元に作業者203の状態を検出して判断部106に出力する。また、ロボット103の状態の情報をロボット103から得て、判断部106に出力する。
S802において、判断部106は、検出部104から作業者の情報を入力する。また、ロボットの状態の情報をロボット103から入力し、学習情報保持部105からモデルの情報を入力する。入力された情報から確率を算出し、算出した確率と閾値とを比較して動作判断処理を実行する。
S803において、判断部106で算出した確率が閾値以上であるか否かを判断する。判断部106で算出した確率が閾値以上であれば、S804に遷移する。また、判断部106で算出した確率が閾値以下であれば、S806に遷移する。
S804において、判断部106で算出した確率が閾値以上であることにより、ロボット103および作業者203が正常な動作であると判断し、ロボット103の動作を継続するように制御部107でロボット103の動作制御を行う。
S805において、現在の作業が完了か否かを判断する。現在の作業が完了していないならば、S801に戻り、完了していれば終了する。
S806において、判断部106で算出した確率が閾値以下であるので、作業者203に危険が及ぶ可能性有りと判断し、ロボット103の動作を停止もしくは減速するように制御部107でロボットの動作制御を行う。
S807において、判断部106は、停止、減速時の状態を保持しておき、作業者に音声もしくは、ディスプレイの表示などで作業の復帰を通知する。そして、作業者に通知した後に、S801に遷移し、検出部104から出力された作業者の状態と、ロボット103の状態と、学習情報保持部105から出力される学習情報に基づいて、ロボットの動作を再度判断する。そして、動作判断処理の結果が正常動作であれば、作業者に再度作業を開始させる。
以上述べた構成によれば、ロボットと作業者が共存する空間で作業する場合において、事前にロボットおよび作業者の作業の時系列の状態を学習した学習情報を用いる。そして、現在作業している作業者とロボットの時系列の状態が、学習時の作業者とロボットの時系列の状態である確率が高ければ、ロボットは動作を継続するように制御する。
また、学習時の作業者とロボットの時系列の状態である確率が低ければ、動作を停止もしくは減速するように制御する。更に、動作を停止もしくは減速するように制御した後に、作業の復帰を通知し、再度、作業者が作業を開始する。このように制御をすることで、ロボットの稼働率を向上させることが可能となり、ロボットと作業者が共同で作業する場合においても、安全性を確保しつつ生産性を向上させる効果を得ることができる。
(第3の実施形態)
第3の実施形態におけるロボット制御装置は、第1の実施形態と同様に、ロボットと作業者が共存する空間で作業する場合において、事前にロボットおよび作業者の作業の時系列の状態を学習した学習情報を用いる。そして、現在作業している作業者とロボットの時系列の状態が、学習時の作業者とロボットの時系列の状態である確率が高ければ、ロボットは動作を継続するように制御する。また、学習時の作業者とロボットの時系列の状態である確率が低ければ、動作を停止もしくは減速するように制御する。
加えて、第3の実施形態では、現在作業している作業者とロボットの状態を用いて、作業中に学習情報を更新することで学習情報の精度を向上させる。このようにすることで、ロボットの稼働率を向上させ、ロボットと作業者が共存する空間で作業をする場合においても安全性を確保しつつ、生産性を向上させるようにしたものである。
第3の実施形態におけるロボット制御装置の構成について、図9を用いて説明する。第1の実施形態で説明した、図1のロボット制御装置101のブロック構成と比べて、第3の実施形態のロボット制御装置901は、学習情報更新部902が追加されている。学習情報更新部902以外の構成は第1の実施形態と同様である。
第3の実施形態のロボット制御装置に追加された学習情報更新部902について説明する。
学習情報更新部902は、ロボット103から出力されるロボット103の時系列の状態、検出部104から出力される作業者203の時系列の状態に基づいて、学習情報保持部105のモデルのパラメータを更新する。具体的には、パラメータの推定に用いる、サンプルの情報を追加し、再度パラメータを計算する。その結果、サンプル情報が増えることでパラメータの推定精度が向上する。
次に、図10のフローチャートを用いて、図9に記載の本実施形態におけるロボット制御装置901の制御手順について説明する。
S1001において、検出部104はセンサ102から入力した情報を元に作業者203の状態を検出し、判断部106に出力する。また、ロボット103の状態の情報をロボット103から得て、判断部106に出力する。
S1002において、判断部106は、検出部104から作業者203の情報を入力する。また、ロボット103の状態の情報をロボット103から入力し、学習情報保持部105からモデルの情報を入力する。入力された情報から確率を算出し、閾値と比較し判断する。
S1003において、判断部106で算出した確率が閾値以上であるか否かを判断する。判断部106で算出した確率が閾値以下であれば、S1007に遷移する。判断部106で算出した確率が閾値以上であれば、S1005に遷移する。加えて、S1004において、学習情報更新部902は、別タスクで、検出部104から作業者203の状態の情報と、ロボット103の状態の情報を追加し、学習情報保持部105からモデルの情報を入力する。そして、パラメータを更新し、学習情報保持部105に出力する。
S1005において、判断部106で算出した確率が閾値以上であることにより、ロボット103および作業者203が正常な動作であると判断し、ロボット103の動作を継続するように制御部107でロボットの制御を行う。
S1006において、現在の作業が完了しているか否かを判断し、現在の作業が完了していないならば、S1001に戻り、完了していれば終了する。
S1007において、判断部106で算出した確率が閾値以下であるので、作業者に危険が及ぶ可能性があると判断し、ロボット103の動作を停止、もしくは減速するように制御部107でロボット103の制御を行う。
以上述べた構成によれば、ロボットと作業者が共存する空間で作業する場合において、事前にロボットおよび作業者の作業の時系列の状態を学習した学習情報を用いる。現在作業している作業者とロボットの時系列の状態が、学習時の作業者とロボットの時系列の状態である確率が高ければ、ロボットは動作を継続するように制御する。また、学習時の作業者とロボットの時系列の状態である確率が低ければ、動作を停止もしくは減速するように制御する。
加えて、第3の実施形態においては、現在作業している作業者とロボットの状態を用いて、作業中に学習情報を更新することで学習情報の精度を向上させる。
このようにすることで、ロボットの稼働率を向上させ、ロボットと作業者が共存する空間で作業をする場合においても安全性を確保しつつ、生産性を向上させる効果を得ることができる。
(第4の実施形態)
第4の実施形態におけるロボット制御装置は、ロボットと作業者が共存する空間で作業する場合において、事前にロボットおよび作業者の作業の時系列の状態を学習した学習情報を用いる。現在作業している作業者とロボットの時系列の状態が、学習時の作業者とロボットの時系列の状態である確率が高ければ、ロボットは動作を継続するように制御する。
また、学習した作業者とロボットの時系列の状態である確率が低い場合に、作業者がロボットの動作を注視しているか否かを認識する。そして、作業者がロボットの動作を注視している場合において、ロボットは動作を継続するように制御する。学習した作業者とロボットの時系列の状態である確率が低い場合に、作業者がロボットの動作を注視していない場合は、ロボットの動作を停止もしくは減速するように制御する。
このようにすることで、作業者が学習していない動作を行った場合でも、ロボットを安全に可動させることができる。結果としてロボットの稼働率を向上させ、ロボットと作業者が共存する空間で作業をする場合においても安全性を確保しつつ、生産性を向上させるようにしたものである。
第4の実施形態は、第1の実施形態で説明した、ロボット制御装置のブロック構成において、検出部104と判断部106以外は同一である。よって、図1と図11を用いて、第4の実施形態における、検出部104と判断部106について説明する。
検出部104は、センサ102から入力された情報から、作業者203の状態を検出する部位である。作業者203の状態の中でも作業者203の注視点を抽出する。注視点の検出方法は多く提案されており、特許文献3に記載の手法を用いてもよい。
図11に、作業者203の視線1101の延長である、ハンド205に対して注視している図を示した。
第4の実施形態では、作業者203がハンド205を注視していれば、ロボット103の時系列の状態である確率が低い場合においてもロボット103の動作を継続するように制御する。なお、第4の実施形態では、注視を判定する対象は、ハンド205であるが、ロボット103の動作を表す部位であれば、ハンド205以外の部位でもよい。
判断部106は、ロボット103から出力されるロボット103の時系列の状態、検出部104から出力される作業者203の時系列の状態、学習情報保持部105から入力されるモデルに基づいてロボット103の動作を判断する。
判断部106は、第1の実施形態で説明した数1より得た確率と事前に設定した閾値を比較し判断する。数1より得た確率が閾値を上回る場合は、ロボット103の動作を継続する制御信号を制御部107に出力する。
また、数1より得た確率が閾値を下回る確率の場合は、作業者203に危険が及ぶ可能性があるので、ロボット103の動作を停止するか、もしくは減速する制御信号を制御部107に出力する。加えて、第4の実施形態の判断部106は、数1より得た確率が閾値を下回る確率の場合において、作業者203がロボット103の動作を注視している場合は、ロボット103の動作を継続する制御信号を制御部107に出力する。
次に、図12のフローチャートを用いて、本実施形態におけるロボット制御装置101の制御手順について説明する。
S1201において、検出部104は、センサ102から入力した情報を元に作業者203の状態を判断部106に出力する。また、ロボット103の状態の情報をロボット103から得て、判断部106に出力する。
S1202において、判断部106は、検出部104から作業者203の情報を入力する。また、ロボットの状態の情報をロボット103から入力し、学習情報保持部105からモデルの情報を入力する。入力された情報から確率を算出し、閾値と比較し判断する。 S1203において、判断部106で算出した確率が閾値以上であるか否かを判断する。判断部106で算出した確率が閾値以上であれば、S1204に遷移する。また、判断部106で算出した確率が閾値以下であれば、S1205に遷移する。
S1204において、判断部106は、判断部106で算出した確率が閾値以上であることにより、ロボット103および作業者203が正常な動作であると判断し、ロボット103の動作を継続するように制御部107でロボットの制御を行う。
S1205において、判断部106で作業者203がロボット103を注視しているかどうか判断し、作業者203がロボット103を注視している場合は、S1204に遷移する。作業者203がロボット103を注視していない場合は、S1207に遷移する。
S1206において、制御部107は、現在の作業が完了しているか否かを判断する。現在の作業が完了していないならば、S1201に戻り、完了していれば終了する。
S1207において、作業者がロボットを注視していないので、作業者に危険が及ぶ可能性があると判断し、ロボットの動作を停止もしくは減速するように制御部107でロボットの制御を行う。
以上述べた構成によれば、ロボットと作業者が共存する空間で作業する場合において、事前にロボットおよび作業者の作業の時系列の状態を学習した学習情報を用いる。現在作業している作業者とロボットの時系列の状態が、学習時の作業者とロボットの時系列の状態である確率が高ければ、ロボットは動作を継続するように制御する。
また、学習した作業者とロボットの時系列の状態である確率が低い場合に、作業者がロボットの動作を注視しているか否かを認識する。そして、作業者がロボットの動作を注視している場合においては、ロボットは動作を継続するように制御する。
一方、学習した作業者とロボットの時系列の状態である確率が低い場合に、作業者がロボットの動作を注視していない場合は、動作を停止もしくは減速するように制御する。
このようにすることで、作業者が学習していない動作を行った場合でも、ロボットを安全に可動させることができる。その結果として、ロボットの稼働率を向上させることが可能となり、ロボットと作業者が共存する空間で作業をする場合においても安全性を確保しつつ、生産性を向上させる効果を得ることができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 ロボット制御装置
102 センサ
103 ロボット
104 検出部
105 学習情報保持部
106 判断部
107 制御部

Claims (9)

  1. 作業者とロボットの時系列の状態を検出してロボットを制御するロボット制御装置であって、
    作業者の状態を検出する検出手段と、
    ロボットおよび作業者の時系列の状態を学習した学習情報を保持する学習情報保持手段と、
    前記検出手段から出力された作業者の状態と、ロボットの状態と、前記学習情報保持手段から出力される学習情報に基づいて、ロボットの動作を判断する判断手段と、
    前記判断手段から出力される情報に基づいて、ロボットの動作を制御する制御手段とを有することを特徴とするロボット制御装置。
  2. 前記作業者の状態は、作業者の作業対象の状態を含むことを特徴とする請求項1に記載のロボット制御装置。
  3. 前記ロボットの状態は、ロボットの作業対象の状態を含むことを特徴とする請求項1に記載のロボット制御装置。
  4. 前記検出手段から出力された作業者の状態と、ロボットの状態と、前記学習情報保持手段から出力される学習情報に基づいて学習情報を更新し、更新した学習情報を前記学習情報保持手段に出力する学習情報更新手段をさらに有することを特徴とする請求項1〜3の何れか1項に記載のロボット制御装置。
  5. 前記判断手段は、ロボットの動作を停止または減速させる情報を前記制御手段に出力することを特徴とする請求項1〜4の何れか1項に記載のロボット制御装置。
  6. 前記判断手段は、ロボットの動作を停止または減速させる情報を前記制御手段に出力した後に、再度、前記検出手段から出力された作業者の状態と、ロボットの状態と、前記学習情報保持手段から出力される学習情報に基づいて、ロボットの動作を判断することを特徴とする請求項1〜5の何れか1項に記載のロボット制御装置。
  7. 前記作業者の状態は、作業者の注視している対象を含むことを特徴とする請求項1〜6の何れか1項に記載のロボット制御装置。
  8. 作業者とロボットの時系列の状態を検出してロボットを制御するロボット制御方法であって、
    作業者の状態を検出する検出工程と、
    ロボットおよび作業者の時系列の状態を学習した学習情報を保持する学習情報保持工程と、
    前記検出工程から出力された作業者の状態と、ロボットの状態と、前記学習情報保持工程から出力される学習情報に基づいて、ロボットの動作を判断する判断工程と、
    前記判断工程から出力される情報に基づいて、ロボットの動作を制御する制御工程とを有することを特徴とするロボット制御方法。
  9. 請求項1〜7の何れか1項に記載のロボット制御装置の各手段を構成するプログラムをコンピュータに実行させるためのプログラム。
JP2015041691A 2015-03-03 2015-03-03 ロボット制御装置およびロボット制御方法 Active JP6494331B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015041691A JP6494331B2 (ja) 2015-03-03 2015-03-03 ロボット制御装置およびロボット制御方法
US15/051,893 US20160260027A1 (en) 2015-03-03 2016-02-24 Robot controlling apparatus and robot controlling method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015041691A JP6494331B2 (ja) 2015-03-03 2015-03-03 ロボット制御装置およびロボット制御方法

Publications (2)

Publication Number Publication Date
JP2016159407A JP2016159407A (ja) 2016-09-05
JP6494331B2 true JP6494331B2 (ja) 2019-04-03

Family

ID=56846006

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015041691A Active JP6494331B2 (ja) 2015-03-03 2015-03-03 ロボット制御装置およびロボット制御方法

Country Status (2)

Country Link
US (1) US20160260027A1 (ja)
JP (1) JP6494331B2 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10789543B1 (en) * 2014-10-24 2020-09-29 University Of South Florida Functional object-oriented networks for manipulation learning
EP3189947A1 (de) * 2016-01-07 2017-07-12 Sick Ag Verfahren zum konfigurieren und zum betreiben einer überwachten automatisierten arbeitszelle und konfigurationsvorrichtung
DE102016100445A1 (de) * 2016-01-12 2017-07-13 Pilz Gmbh & Co. Kg Sicherheitseinrichtung und Verfahren zum Überwachen einer Maschine
JP6688088B2 (ja) 2016-01-19 2020-04-28 キヤノン株式会社 情報処理装置およびその制御方法
US10171730B2 (en) 2016-02-15 2019-01-01 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP6740033B2 (ja) 2016-06-28 2020-08-12 キヤノン株式会社 情報処理装置、計測システム、情報処理方法及びプログラム
JP6549545B2 (ja) 2016-10-11 2019-07-24 ファナック株式会社 人の行動を学習してロボットを制御する制御装置およびロボットシステム
JP6316909B1 (ja) * 2016-11-10 2018-04-25 ファナック株式会社 協働動作領域を有するロボットシステム
JP6487489B2 (ja) 2017-05-11 2019-03-20 ファナック株式会社 ロボット制御装置及びロボット制御プログラム
JP6680730B2 (ja) * 2017-08-08 2020-04-15 ファナック株式会社 制御装置及び学習装置
JP6633584B2 (ja) * 2017-10-02 2020-01-22 ファナック株式会社 ロボットシステム
US11144786B2 (en) 2017-11-02 2021-10-12 Canon Kabushiki Kaisha Information processing apparatus, method for controlling information processing apparatus, and storage medium
WO2019097676A1 (ja) * 2017-11-17 2019-05-23 三菱電機株式会社 3次元空間監視装置、3次元空間監視方法、及び3次元空間監視プログラム
JP7167141B2 (ja) * 2018-05-25 2022-11-08 川崎重工業株式会社 ロボットシステム及び追加学習方法
JP7039389B2 (ja) * 2018-05-25 2022-03-22 川崎重工業株式会社 ロボットシステム及びロボット制御方法
CN109032052B (zh) * 2018-06-26 2020-09-22 上海常仁信息科技有限公司 基于机器人身份证的紧急状况智能控制系统
US11003939B2 (en) 2018-07-06 2021-05-11 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP7333204B2 (ja) * 2018-08-10 2023-08-24 川崎重工業株式会社 情報処理装置、ロボット操作システム、及びロボット操作方法
JP2020099019A (ja) * 2018-12-19 2020-06-25 株式会社日立製作所 機器制御装置及び機器制御システム
JP6647640B1 (ja) * 2019-04-15 2020-02-14 日本金銭機械株式会社 表示制御システム、表示制御方法、および、プログラム
JP7235596B2 (ja) * 2019-05-31 2023-03-08 ファナック株式会社 協働ロボットシステム
JP7448327B2 (ja) * 2019-09-26 2024-03-12 ファナック株式会社 作業員の作業を補助するロボットシステム、制御方法、機械学習装置、及び機械学習方法
US11472028B2 (en) * 2019-12-06 2022-10-18 Mitsubishi Electric Research Laboratories, Inc. Systems and methods automatic anomaly detection in mixed human-robot manufacturing processes
US11442429B2 (en) * 2019-12-06 2022-09-13 Mitsubishi Electric Research Laboratories, Inc. Systems and methods for advance anomaly detection in a discrete manufacturing process with a task performed by a human-robot team
EP3838505A1 (en) * 2019-12-20 2021-06-23 Robert Bosch GmbH Interacting with an unsafe physical environment
US20210362331A1 (en) 2020-05-21 2021-11-25 X Development Llc Skill templates for robotic demonstration learning
JP2022056085A (ja) 2020-09-29 2022-04-08 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム
DE102021110984A1 (de) 2020-12-29 2022-06-30 B-Horizon GmbH Verfahren zum automatischen Anpassen des Verhaltens eines mobilen Benutzerendgeräts

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3872387B2 (ja) * 2002-06-19 2007-01-24 トヨタ自動車株式会社 人間と共存するロボットの制御装置と制御方法
JP2004243427A (ja) * 2003-02-12 2004-09-02 Yaskawa Electric Corp ロボット制御装置およびロボット制御方法
JP2010120139A (ja) * 2008-11-21 2010-06-03 New Industry Research Organization 産業用ロボットの安全制御装置
JP4648486B2 (ja) * 2009-01-26 2011-03-09 ファナック株式会社 人間とロボットとの協調動作領域を有する生産システム
JP5370127B2 (ja) * 2009-12-18 2013-12-18 株式会社デンソーウェーブ ロボットの干渉回避装置

Also Published As

Publication number Publication date
JP2016159407A (ja) 2016-09-05
US20160260027A1 (en) 2016-09-08

Similar Documents

Publication Publication Date Title
JP6494331B2 (ja) ロボット制御装置およびロボット制御方法
JP6431017B2 (ja) 機械学習により外力の検出精度を向上させた人協調ロボットシステム
JP6548816B2 (ja) 物体操作装置及び物体操作方法
KR102165967B1 (ko) 3차원 공간 감시 장치, 3차원 공간 감시 방법, 및 3차원 공간 감시 프로그램
JP7146247B2 (ja) 動作認識方法及び装置
KR102433931B1 (ko) 움직임 인식 방법 및 움직임 인식 장치
JP6884312B1 (ja) ロボット障害回避処理方法、装置、ロボット
KR102416227B1 (ko) 건설 객체 실시간 모니터링 장치 및 모니터링 방법 및 이를 실행하기 위한 컴퓨터프로그램
KR102357680B1 (ko) 이벤트에 기반하여 객체의 이동을 감지하는 장치 및 방법
TW201723425A (zh) 在一環境中使用代理人的基於感測器之觀測以估計該環境中一物件之姿勢及估計該姿勢之一不確定性度量
JP6331785B2 (ja) 物体追跡装置、物体追跡方法および物体追跡プログラム
KR102046706B1 (ko) 착용가능 디바이스를 사용하여 신경망 기반의 제스처 인식을 수행하는 기법
KR102046707B1 (ko) 관성 측정 유닛을 사용하여 콘볼루션 신경망 기반의 제스처 인식을 수행하는 기법
KR20190099537A (ko) 동작 학습 장치, 기능 판별 장치 및 기능 판별 시스템
JP7031685B2 (ja) モデル学習装置、モデル学習方法及びコンピュータプログラム
US20190232487A1 (en) Method for tracking multiple target objects, device, and computer program for implementing the tracking of multiple target objects for the case of moving objects
US20170262728A1 (en) Image processing method, image processing apparatus, and recording medium
JP2007280219A (ja) 動きパターン認識装置、動きパターン認識方法及び動きパターン認識プログラム
WO2020187625A1 (en) Method for representing an environment of a mobile platform
CN111402287A (zh) 用于活动序列的标准化评估的系统和方法
Nuzzi et al. Hand gesture recognition for collaborative workstations: A smart command system prototype
RU2685996C1 (ru) Способ и система предиктивного избегания столкновения манипулятора с человеком
CN115903773A (zh) 移动体控制装置、移动体、学习装置及方法、及存储介质
Simão et al. Unsupervised gesture segmentation of a real-time data stream in matlab
JP2019202354A (ja) ロボット制御装置、ロボット制御方法及びロボット制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190305

R151 Written notification of patent or utility model registration

Ref document number: 6494331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151