JP6570742B2 - ロボット動作評価装置、ロボット動作評価方法及びロボットシステム - Google Patents

ロボット動作評価装置、ロボット動作評価方法及びロボットシステム Download PDF

Info

Publication number
JP6570742B2
JP6570742B2 JP2018518148A JP2018518148A JP6570742B2 JP 6570742 B2 JP6570742 B2 JP 6570742B2 JP 2018518148 A JP2018518148 A JP 2018518148A JP 2018518148 A JP2018518148 A JP 2018518148A JP 6570742 B2 JP6570742 B2 JP 6570742B2
Authority
JP
Japan
Prior art keywords
robot
evaluation
motion
state
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018518148A
Other languages
English (en)
Other versions
JPWO2017199619A1 (ja
Inventor
亮輔 川西
亮輔 川西
幸康 堂前
幸康 堂前
俊之 八田
俊之 八田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2017199619A1 publication Critical patent/JPWO2017199619A1/ja
Application granted granted Critical
Publication of JP6570742B2 publication Critical patent/JP6570742B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/1623Parallel manipulator, Stewart platform, links are attached to a common base and to a common platform, plate which is moved parallel to the base
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボットの動作状態を評価する情報処理技術に関し、特に、ロボットの動作状態の安全性または危険性を評価する情報処理技術に関する。
近年、産業用ロボット、医療用ロボット及び生活支援ロボットといった様々な種類のロボットが普及している。ロボットの動作範囲内で人間や動物などの生物がそのロボットと接触すると、事故が生じるおそれがある。このような事故を防止するために、ロボット(特に、産業用ロボット)が生物と接触した場合に、当該生物がロボットから過大な力を受けるのを回避する技術が求められている。たとえば、特許文献1(特開2012−40626号公報)には、人間とロボットとの間に接触が起こりうる環境でも人間が過大な力を受けることを回避することができるロボットシステムが開示されている。
特許文献1のロボットシステムは、ロボットの一部に取り付けられた力センサと、この力センサの検出値に応じてロボットの動作を制御する制御装置と、人間の作業領域を制限する安全柵(制限部)とを備えている。このロボットシステムでは、制御装置は、人間がロボットと接触したときに力センサの検出値が閾値を越えると、ロボットの動作を停止させ、あるいは、力センサの検出値が小さくなるようにロボットを動作させる。また、安全柵は、複数のロボット部位のうち、人間と接触した際に特に過大な力を与える可能性があるロボット部位との接触を防止するものである。
特開2012−40626号公報(たとえば、段落0036〜0039)
ロボットの可動部位が人間などの物体(オブジェクト)と接触したとき、当該可動部位がその物体に与える物理的影響の大きさは、ロボットの可動部位の動く方向と、その動く方向から視た当該可動部位の形状とに応じて変わりうる。たとえば、ロボットの可動部位の先端部が細い棒形状を有する場合、当該可動部位がその先端部の長手方向に動いて人間に負荷を与えたときと、当該可動部位がその長手方向と垂直な方向に動いて人間に負荷を与えたときとでは、当該可動部位が物体に与える物理的影響の大きさは全く異なる。
特許文献1のロボットシステムでは、ロボットの可動部位の動く方向とその動く方向から視た当該可動部位の形状とが考慮されていない。このため、人間などの物体に与える物理的影響の大きさの違いに関わらず、最も物体に与える物理的影響が大きい状況に合わせた、過度な安全対策を採る必要がある。過度な安全対策としては、たとえば、力センサの設置数の増加、安全柵の高さの拡大、及びロボットの可動範囲の過度な制限が挙げられる。しかしながら、このような安全対策は、コストの増大、あるいはロボットの性能制限を招くという課題がある。
上記に鑑みて本発明の目的は、過大な安全対策を必要とせずに、ロボットを運用するシステムの安全性の確保を実現可能とするロボット動作評価装置、ロボット動作評価方法、及びロボットシステムを提供することである。
本発明の一態様によるロボット動作評価装置は、ロボットの動作状態に基づき、前記ロボットの可動部位である評価部位の動作状態を算出する動作状態算出部と、当該算出された動作状態に対応する前記評価部位の動作方向を基準として前記評価部位の形状を特徴付ける単数または複数の形状特徴量を算出する形状特徴量算出部と、前記単数または複数の形状特徴量に基づき、前記動作方向に対する前記評価部位の動作状態の危険度を表す評価値を算出する評価値算出部とを備えることを特徴とする。
本発明によれば、ロボットの評価部位の動作方向を基準として算出された形状特徴量に基づき、評価部位の形状及びその動作方向に依存する危険度を表す評価値を算出することができる。よって、過大な安全対策を必要とせずに、ロボットを運用するシステムの安全性の確保を実現することができる。
本発明に係る実施の形態1のロボット動作評価装置の概略構成を示すブロック図である。 実施の形態1に係るロボットの概略構成を示す図である。 図3A及び図3Bは、それぞれロボットハンドの例を示す図である。 実施の形態1の動作危険度評価部の概略構成を示すブロック図である。 実施の形態1に係るロボット動作評価処理の手順の一例を概略的に示すフローチャートである。 図6Aは、ロボットハンドの一例を示す正面図であり、図6B〜図6Eは、ロボットハンドの動作方向に依存する形状特徴量の算出方法を説明するための図である。 図7A〜図7Cは、形状特徴量の他の算出方法を説明するための図である。 実施の形態1のロボット動作評価装置のハードウェア構成例である情報処理装置の概略構成を示すブロック図である。 実施の形態1のロボット動作評価装置の他のハードウェア構成例である情報処理装置の概略構成を示すブロック図である。 本発明に係る実施の形態2のロボット動作評価装置の概略構成を示すブロック図である。 実施の形態2の危険度評価部の概略構成を示すブロック図である。 実施の形態2に係るロボット動作評価処理の手順の一例を概略的に示すフローチャートである。 本発明に係る実施の形態3であるロボット動作評価装置の概略構成を示すブロック図である。 実施の形態3に係るロボット動作評価処理の手順の一例を概略的に示すフローチャートである。 本発明に係る実施の形態4であるロボット動作評価装置の概略構成を示すブロック図である。 実施の形態4に係るロボット動作評価処理の手順の一例を概略的に示すフローチャートである。 マップ生成処理の手順の一例を示す概略図である。 図18A,図18B及び図18Cは、危険度マップを含む重畳画像の例を説明するための概略図である。 本発明に係る実施の形態5であるロボット動作評価装置の概略構成を示すブロック図である。 実施の形態5の危険度評価部の概略構成を示すブロック図である。 実施の形態5に係るロボット動作評価処理の手順の一例を示すフローチャートである。 本発明に係る実施の形態6のロボット動作評価装置を含むロボットシステムの概略構成を示すブロック図である。 実施の形態6の危険度評価部の概略構成を示すブロック図である。 実施の形態6に係るロボット動作評価処理の手順の一例を概略的に示すフローチャートである。
以下、図面を参照しつつ、本発明に係る種々の実施の形態について詳細に説明する。なお、図面全体において同一符号を付された構成要素は、同一構成及び同一機能を有するものとする。
実施の形態1.
図1は、本発明に係る実施の形態1であるロボット動作評価装置1の概略構成を示すブロック図である。図1に示されるように、このロボット動作評価装置1は、現実空間のロボット2をモデル化したロボットモデル及びロボット2の可動部位であるロボットハンドをモデル化したハンドモデル(可動部位モデル)が記憶されているデータベース10と、このデータベース10を用いてロボットハンドの動作状態の危険度を表す評価値を算出しその算出結果を示す評価データOTを出力する危険度評価部11と、評価データOTを表す画像情報を表示部3に表示させる出力インタフェース部(出力I/F部)12と、操作入力部4からの操作入力ITを危険度評価部11に伝達する入力インタフェース部(入力I/F部)13とを備えて構成されている。
なお、本明細書において「危険度」とは、ロボット2におけるロボットハンドなどのエンドエフェクタ(end−effector)、ロボットアームまたは関節などの可動部位が人間または動物などの物体(オブジェクト)と接触した場合に、当該可動部位がその物体に与える物理的影響を表し、「危険度を表す評価値」とは、当該物理的影響の大きさを表す指標である。エンドエフェクタとは、ロボット2の本体部の先端に取り付けられるツールをいう。後述するように、危険度評価部11は、ロボット2の可動部位が物体と接触したときは、当該可動部位が物体に与える物理的影響が大きいほど、危険度が大きいと評価することができる。
本実施の形態のロボット2は、対象物を把持するロボットハンド(以下、単に「ハンド」ともいう。)を有する。このロボット2は、垂直多関節型または水平多関節型といった、複数の関節を持つロボットアームを有するロボットでもよいし、あるいは、ロボット2は、直動ステージのような1軸の駆動装置である単軸ロボットでもよい。各関節は、回転関節(Revolute Joint)または並進関節(Prismatic Joint)で構成されればよい。ロボット2が単軸ロボットである場合は、可動部位の駆動軸上の位置が回転関節の角度に対応するものとみなすことができる。
図2は、実施の形態1に係るロボットシステムの構成例を概略的に示す図である。図2に示されるようにこのロボットシステムは、ロボット動作評価装置1、ロボット2、及び、ロボット2に動作プログラムを供給するプログラム格納部2Pを備えている。ロボット2は、垂直多関節型のロボット本体(マニピュレータ)2Rと、プログラム格納部2Pから取得した動作プログラムに従ってロボット本体2Rの動作を制御するロボット制御装置2RCと、ロボット本体2Rの周辺の外部状態を検出する外部センサ群2Sとを有する。
プログラム格納部2Pは、動作プログラムを格納する半導体メモリなどの記憶装置を有する。動作プログラムは、ロボット本体2Rの動作を定める一連の動作命令(コード群)からなる。ロボット制御装置2RCは、プログラム格納部2Pから取得した動作プログラムを半導体メモリなどの内部メモリMeに一時的に記憶し、当該内部メモリMe内の動作プログラムに記述される一連の動作命令に従って制御信号群CTLを生成する。この制御信号群CTLは、ロボット本体2Rに供給される。なお、ロボット制御装置2RCは、ケーブルを介してプログラム格納部2Pと接続されてもよいし、あるいは、LAN(Local Area Network)またはWAN(Wide Area Network)などの通信ネットワークを介してプログラム格納部2Pと接続されてもよい。
図2に示されるロボット本体2Rは、ベース部30と、4本のロボットアームからなる第1〜第4アーム部31〜34と、ハンド(図2に図示せず。)とを有する。第1〜第4アーム部31〜34は、全体として、ベース部30の回転軸Φ1の回りに回転自在となるように配置されている。また、第1アーム部31の基端部は、回転軸Φ2の回りに回転自在となるように配置され、第2アーム部32の基端部は、第1アーム部31の先端部に対して回転軸Φ3の回りに回転自在となるように配置され、第3アーム部33の基端部は、第2アーム部32に対して回転軸Φ4の回りに回転自在となるように配置され、第4アーム部34の基端部は、第3アーム部33の先端部に対して回転軸Φ5の回りに回転自在となるように配置されている。また、第3アーム部33は、第2アーム部32の回転軸Φ4の軸方向に沿って伸縮自在となるように第2アーム部32に取り付けられている。第4アーム部34の先端部は、ハンドが取り付けられるフランジ部34aを構成する。このフランジ部34aは、第4アーム部34の本体に対して回転軸Φ6の回りに回転自在となるように取り付けられている。したがって、図2に示されるロボット本体2Rは、6つの回転関節と1つの並進関節とを有する多関節構造を有している。
ロボット本体2Rの内部には、第1〜第4アーム部31〜34及びフランジ部34aを個別に回転させる駆動機構(電磁モータ、減速器及び軸受などの部品)と、第3アーム部33を伸縮させる駆動機構(電磁モータ、送りネジ及びワイヤなどの部品)、及び、フランジ部34aに取り付けられたハンドを駆動する駆動機構(電磁モータ及びコンプレッサなどの部品)が組み込まれている。ロボット制御装置2RCは、これら駆動機構に制御信号CTLを供給することによってこれら駆動機構の動作を制御する。また、ロボット本体2Rの内部には、その内部状態をリアルタイムに検出する内部センサ群(図示せず。)が組み込まれている。当該内部状態としては、たとえば、第1〜第4アーム部31〜34及びフランジ部34aそれぞれの回転角度及びトルク、並びに、電磁モータを流れる電流量が挙げられる。内部センサ群は、当該内部状態をリアルタイムに検出し、当該検出された内部状態を示す状態検出信号ISをロボット制御装置2RCに供給することができる。ロボット制御装置2RCは、状態検出信号ISを用いてロボット本体2Rに対するフィードバック制御あるいはフィードフォワード制御を実行することが可能である。
また、ロボット本体2Rの周辺領域には、その周辺領域の状態すなわち外部状態をリアルタイムに検出する外部センサ群2Sが配置されている。外部センサ群2Sとしては、たとえば、ロボット本体2Rの外観及びロボット本体2Rの周辺空間を視覚的に表す撮像データを出力する撮像デバイス、ロボット本体2Rの周辺に存在する人間などの物体と当該ロボット本体2Rとの間の距離を測定するレーザ測距計などの測距センサ、超音波センサ及び圧力センサが使用可能であるが、これらに限定されるものではない。外部センサ群2Sは、当該外部状態を検出し、当該検出された外部状態を示す状態検出信号ESをロボット制御装置2RCに供給する。ロボット制御装置2RCは、状態検出信号ESを用いてロボット本体2Rに対する制御を行うことができる。たとえば、ロボット制御装置2RCは、撮像デバイスより取得された画像データを解析して3次元空間におけるロボット本体2Rの実際の姿勢を算出し、当該算出された姿勢に基づいてロボット本体2Rの姿勢を制御することができる。
なお、図2の構成例では、6本の回転軸Φ1〜Φ6を有する垂直多関節型のロボット本体2Rが採用されているが、これに限定されるものではない。垂直多関節型のロボット本体2Rに代えて、水平多関節型のロボット本体あるいは単軸ロボット本体が採用されてもよい。
フランジ部34aに取り付けられるハンドは、対象物を挟み込むまたは吸着することで当該対象物を把持することができる。図3A及び図3Bはそれぞれハンドの例を示す図である。図3Aは、対象物を挟み込む機能を有するハンド2Hの正面図であり、図3Bは、対象物を吸着する機能を有するハンド2Haの正面図である。図3Aに示されるハンド2Hは、ロボット本体2Rのフランジ部34aに取り付けられる本体部2mと、2本の爪部2a,2bとを有している。このハンド2Hは、制御信号群CTLに従い、2本の爪部を開閉させることで対象物を把持することができる。このハンド2Hに代えて、複数の関節を有する多指ハンドが使用されてもよい。一方、図3Bに示されるハンド2Haは、ロボット本体2Rのフランジ部34aに取り付けられる基端部2nと、吸着パッド部2cとを有している。吸着パッド部2cは、空気圧によって対象物を吸いつけることで当該対象物を把持する吸着ハンドである。本実施の形態では、ハンドが評価部位であるが、これに限定されるものではない。ロボット2におけるハンド以外の可動部位(たとえば、関節)を評価部位としてもよい。
図1を参照すると、危険度評価部11は、ロボット2の実際の動作状態を示す実動作データSDの供給をロボット2から受けている。ロボット動作評価装置1は、ケーブルを介してロボット2と接続されてもよいし、あるいは、LAN(Local Area Network)またはWAN(Wide Area Network)などの通信ネットワークを介してロボット2と接続されてもよい。また、危険度評価部11は、ロボット2から実動作データSDの供給を受ける代わりに、ロボット2の動作を制御する制御装置(図示せず)から実動作データSDの供給を受けてもよい。
出力I/F部12は、表示部3に接続されている。表示部3は、たとえば、液晶表示パネルまたは有機EL表示パネルなどの画像表示デバイスである。出力I/F部12は、危険度評価部11により生成された評価データOTを表示部3に表示させることが可能である。また、操作入力部4は、ユーザによる操作入力を受け付ける入力ボタン及び入力キーを有している。危険度評価部11は、入力I/F部13を介してユーザによる操作入力を受け付けることができる。
図4は、危険度評価部11の概略構成を示すブロック図である。図4に示されるように、この危険度評価部11は、実動作データSDに基づいてロボット2の動作状態を選択する動作選択部21と、この動作選択部21で選択されたロボット2の動作状態に対応するハンドの動作状態を算出する動作状態算出部22と、ハンドの動作方向に依存するハンドの形状を特徴付ける形状特徴量を算出する形状特徴量算出部23と、当該形状特徴量に基づき、ハンドの動作状態の危険度を評価する評価値を算出する評価値算出部24とを備えている。
データベース10には、ロボット2をモデル化したロボットモデルと、このロボット2のロボットアームの先端に装着されているハンドをモデル化したハンドモデル(可動部位モデル)と、これらロボットモデルとハンドモデルとの間の接続関係を示す接続関係情報とが予め記憶されている。ロボットモデルは、たとえば、ロボット本体2Rの3次元形状を示すデータ、及び、ロボット本体2Rの姿勢に対するロボット本体2Rの各部位の状態に関係するデータとを有している。ロボット本体2Rの3次元形状を示すデータとしては、たとえば、ロボット本体2Rの位置及び姿勢を示す情報、並びに、ロボット2のロボットアームを構成する各関節(回転関節または並進関節)の長さ及び太さが挙げられる。ロボット本体2Rの各部位の状態に関係するデータとしては、たとえば、ロボット本体2Rの位置及び姿勢の情報を用いて、回転関節の回転変位量(関節角)や並進関節の並進変位量を算出するための関係式を示すデータが挙げられる。
一方、ハンドモデルは、ハンドの3次元形状をモデル化したハンド形状モデルを含む。接続関係情報は、ロボットモデルの座標系(以下「ロボット座標系」ともいう。)とハンドモデルの座標系(以下「ハンド座標系」ともいう。)との間の相互変換を可能とする関係式をいう。なお、ロボットモデルの座標系は、たとえば、ロボット本体2Rのベース部30を基準として設定された座標系でもよいし、あるいは、ロボット本体2Rのフランジ部34aを基準として設定された座標系でもよい。ハンドモデルの座標系としては、たとえば、ハンドの3次元的な形状を表わす3D−CAD(Computer Aided Design System)データを基準とした座標系を利用できる。
以下、図5を参照しつつ、ロボット動作評価装置1の動作について説明する。図5は、実施の形態1に係るロボット動作評価処理の手順の一例を概略的に示すフローチャートである。
動作選択部21は、実動作データSDに基づいてロボット2の動作状態(以下「ロボット動作状態」という。)を選択する(ステップST22)。ここで、ロボット動作状態とは、ロボット本体2Rに対する各動作命令を最小単位としたときの各動作命令に対応するロボット本体2Rの動きの状態である。ロボット本体2Rに対する動作命令とは、たとえば、移動前のロボット本体2Rの3次元空間における位置姿勢の状態と、移動後のロボット本体2Rの3次元空間における位置姿勢の状態とが与えられたとき、ロボット本体2Rの位置姿勢が移動前の状態から移動後の状態に変化するようにロボット本体2Rの各関節の動作を制御する命令のことである。このとき、3次元空間における位置姿勢の状態を指定する動作命令が与えられてもよいし、あるいは、移動前後のロボット本体2Rの各関節の角度を指定する動作命令が与えられてもよい。また、ハンドが対象物を挟み込む機能を有する場合、ロボット動作状態には、ロボット本体2Rの動作速度及びハンドの開閉状態も含まれる。ステップST22では、1つのロボット動作状態が選択されてもよいし、あるいは、複数のロボット動作状態が選択されてもよい。複数のロボット動作状態が選択された場合には、これらロボット動作状態の各々について、すなわちロボット本体2Rに対する動作命令ごとに、後述する評価値を算出する処理(ステップST26)が実行される。
本実施の形態では、実動作データSDに基づいてロボット動作状態が選択されているが、これに限定されるものではない。実動作データSDに基づいてロボット動作状態が選択される代わりに、ユーザによる操作入力ITに基づいてロボット動作状態が選択されてもよいし、あるいは、予め設定されているひな型となる複数の動作状態の中から単数または複数のロボット動作状態が選択されてもよい。
上記ステップST22の後、動作状態算出部22及び形状特徴量算出部23は、それぞれ、接続関係情報CD、及びハンドモデルの形状を示す形状情報DDをデータベース10から取得する(ステップST23)。
次に、動作状態算出部22は、接続関係情報CDを用いて、ロボット動作状態をハンドの動作状態(以下「ハンド動作状態」ともいう。)に変換する(ステップST24)。接続関係情報CDは、たとえば、ロボット座標系からハンド座標系への変換行列を有している。この変換行列は、ロボット座標系とハンド座標系との間の回転移動及び並進移動を示す情報を含む4行×4列の行列として表現可能である。ロボット座標系を、この変換行列を用いてハンド座標系に変換することで、変換後のハンド座標系におけるハンド動作状態を得ることができる。
ここで、仮に、ロボット座標系におけるロボット動作状態を基準にして当該ロボット動作状態の危険度が評価されると、ロボット本体2Rに取り付けられるハンドが異なっていても、同じ評価が得られてしまう。ハンドの形状によっては、同じロボット動作状態であっても衝突が発生した際の危険性が異なるため、ハンド動作状態を基準として危険度を評価することが効果的である。ただし、評価データOTがユーザに提示される際には、ロボット座標系を基準とすることが好ましい。なぜなら、ハンド動作状態を基準として評価データOTがユーザに提示されると、具体的にどのロボット動作状態が危険であるかが分かりにくいため、ユーザは改善すべきロボット動作状態を直感的に把握することが難しいからである。よって、出力I/F部12は、ユーザが直感的に理解しやすい形で評価データOTがロボット動作状態と関連付けられるように、ロボット座標系を基準とした画像情報を生成して表示部3に表示させることが好ましい。
上記ステップST24の後、形状特徴量算出部23は、形状情報DDを用いて、当該ロボット動作状態に対応するハンドの動作方向を基準としてハンドの形状を特徴付ける形状特徴量を算出する(ステップST25)。そして、評価値算出部24は、当該形状特徴量に基づき、あるいは当該形状特徴量及びハンドの動作速度の組合せに基づき、その動作方向に対するハンド動作状態の危険度を表す評価値を算出し(ステップST26)、その評価値を示す評価データOTを出力I/F部12に出力する(ステップST27)。
たとえば、形状特徴量算出部23は、ハンドの動作方向に対して垂直な面(ハンドの断面または端面)におけるハンドの断面積または端面積を、その動作方向に依存する形状特徴量として算出することができる。図6Aは、ハンド2Hの一例を示す正面図であり、図6B〜図6Eは、ハンド2Hの動作方向D1に依存する形状特徴量の算出方法を説明するための図である。図6Aに示されるように、ハンド2Hは、本体部2mから突出する一対の爪部2a,2bを有している。ハンド2Hは、これら爪部2a,2bを開閉させることで対象物を把持することができる。図6Bに示されるように、動作方向D1に垂直な6つの面S1,S2,S3,S4,S5,S6(面S1はハンド2Hの端面;面S2〜S6はハンド2Hの断面)が考えられる。図6Cは、断面S2におけるハンド2Hの断面領域CS2を示し、図6Dは、断面S3におけるハンド2Hの断面領域CS3を示し、図6Eは、断面S6におけるハンド2Hの断面領域CS6a,CS6bを示している。端面S1及び断面S2,S3の各々における独立した面領域(端面領域または断面領域)の個数は1つである。これに対し、断面S4〜S6の各々における独立した断面領域の個数は2つである。ここで、独立した面領域(以下「セグメント」ともいう。)とは、他の面領域と連結していない面領域をいう。
評価値算出部24は、形状特徴量に応じた評価値を与える評価関数、及び、形状特徴量とハンド(評価部位)の動作速度とに応じた評価値を与える評価関数を有している。評価値算出部24は、これら評価関数のいずれかを用いて、ハンドの動作方向に対する当該ハンド(評価部位)の動作状態の危険度を表す評価値を算出することができる(ステップST26)。
具体的には、前述の断面積または端面積が小さいほど、またハンドの動作速度が大きいほど評価値が高くなるように評価関数を設計することができる。このとき、ハンドの断面積または端面積は、各断面または各端面における単数または複数の面領域全体の面積として算出されてもよい。あるいは、ハンドの断面積または端面積は、各断面または各端面における独立した面領域(セグメント)ごとに算出されてもよい。本実施の形態では、セグメントごとに、インデックスが割り当てられるものとする。
また、各断面または各端面の面領域がハンドの動作方向寄りに存在するほど、ハンドの衝突時に先に接触する可能性が高いため、その危険度を表す評価値を高くすることができる。あるいは、各断面または各端面において存在する複数のセグメント中で最も面積の小さいセグメントのみに基づいて評価値を算出してもよい。ハンドと衝突する可能性のある物体の種類や評価値の算出目的に応じて評価関数を設計することが望ましい。
評価関数の例としては、下記の式(1)が挙げられる。
Figure 0006570742
ここで、Dは、危険度を表す評価値、Hはハンドの動作速度、Si,jは、ハンド(評価部位)における当該動作方向に垂直な断面または端面のセグメントごとの面積、iは、当該断面または端面のインデックス(面番号)、jは、セグメントのインデックス(セグメント番号)である。また、min{x}は、集合{x}のうち最も小さいxの値を与える。よって、式(1)は、すべての断面及び端面に存在するセグメントの中で最も面積の小さいセグメントに基づいて評価値Dを与えるものである。また、式(1)の評価値Dは、ハンドの動作速度に比例している。この式(1)を用いた評価方法では、ハンドの鋭利な爪部2a,2bが接触する可能性のあるハンド動作状態はすべて危険度が高い状態とみなされる。
また、上式(1)に代えて、次式(2)の重み付け加算式が評価関数として使用されてもよい。
Figure 0006570742
ここで、wは、i番目の断面または端面に割り当てられた重み係数であり、次式(3)が成立する。
Figure 0006570742
この重み係数wは、断面または端面が動作方向側に配置されるほど、大きい値となるような値に設定されている。図6Bの例では、端面S1及び断面S2〜S6にそれぞれ対応する重み係数w〜wの中で、断面D6に割り当てられた重み係数wの値が最も高く、端面D1に割り当てられた重み係数wの値が最も低い。
また、評価部位の動作速度を考慮した評価関数が使用されてもよい。今、当該評価部位のi番目の断面または端面におけるj番目セグメントの動作速度をvi,j(vi,jは3次元ベクトル)で表すものとする。また、動作速度vi,jのノルム(絶対値)が大きいほど、大きくなる値を与える単調増加関数をf(vi,j)で表すものとする。単調増加関数f(vi,j)の例としては、動作速度vi,jのノルムを変数とする単項式もしくは多項式、または、動作速度vi,jのノルムを変数とする指数関数が挙げられるが、これに限定されるものではない。上式(2)と単調増加関数f(vi,j)とを用いて、次式(4A)で定義される評価関数を構成することができる。
Figure 0006570742
上式(4A)のq[i]は、i番目の断面または端面における単数または複数のセグメントの面積Si,jの集合のうちの最も小さな面積を有するセグメントのインデックスである。具体的には、q[i]は、次式(4B)で与えられる。
Figure 0006570742
あるいは、上式(1)と関数f(vi,j)とを用いて、次式(5A)で定義される評価関数を構成することもできる。
Figure 0006570742
上式(5A)中、pは、面積Si,q[i]の集合のうちの最も小さな面積を有する端面または断面のインデックスであり、qは、p番目の断面または端面における単数または複数のセグメントの面積Sp,jの集合のうちの最も小さな面積を有するセグメントのインデックスである。具体的には、p,qは、次式(5B)で与えられる。
Figure 0006570742
あるいは、形状特徴量算出部23は、ハンドの動作方向に対して逆向きの方向から視たときの当該ハンドの投影形状(たとえば、エッジまたは頂点)を特徴付ける量を、その動作方向に依存する形状特徴量として算出してもよい(ステップST25)。ここで、投影形状は、評価部位であるハンドよりも当該ハンドの動作方向の側に仮想的に配置された投影面に当該ハンドを投影することで得られる形状である。この投影面は、ハンドの動作方向と直交する。図7A〜図7Cは、形状特徴量の他の算出方法を説明するための図である。図7Aは、ハンド2Hの正面図であり、図7Cは、ハンドの第1の動作方向D1に対して逆向きの方向から視たときのハンドの投影形状を示す投影図であり、図7Bは、ハンドの第2の動作方向D2に対して逆向きの方向から視たときのハンドの投影形状を示す投影図である。形状特徴量算出部23は、ハンドの投影形状からエッジ(稜線)や頂点を抽出し、これらエッジや頂点を形状特徴量の算出に利用することができる。ここで、エッジとは、投影形状においてステップ状の段差が生じている境界部分のことである。また、頂点とは、複数のエッジの交点となる部分のことである。このようにして、ハンドの動作時に衝突する可能性のあるハンドの稜線及び頂点が抽出される。なお、衝突する可能性のあるハンドのエッジ及び頂点を検出する方法はこれに限ったものではない。ハンドの3D−CADデータが有する情報として含まれる、ハンドを構成するメッシュの法線方向と、ハンドの動作方向とを関連付けることでエッジ及び頂点を抽出する方法など、様々な方法が考えられる。
この場合、形状特徴量算出部23は、投影形状に現れるエッジを構成する2つの面のなす角度、または、投影形状に現れる頂点を構成する複数の面のうちの2つの面のなす角度を形状特徴量として算出することができる。評価関数としては、その角度が小さいほど、危険度を表す評価値を高くする関数を設計することができる。あるいは、形状特徴量算出部23は、たとえば、ハンドのエッジや頂点の位置座標及び3次元方向ベクトルを形状特徴量として算出してもよい。評価値を与える評価関数としては、たとえば、ハンドのエッジや頂点の3次元方向とハンドの動作方向とのなす角度が小さいほど、また、エッジや頂点の位置がハンドの動作方向寄りに存在するほど、その評価値を高くする関数を設計することができる。なお、ハンドの頂点の方向ベクトルは、たとえば、頂点を構成する複数のエッジの3次元方向(エッジに沿った方向)を示すベクトルの平均として算出可能である。
ここで、評価関数の設計においては、衝突の可能性のあるすべてのエッジ及び頂点が使用されてもよいし、あるいは、最もハンドの動作方向寄りに存在するエッジもしくは頂点だけが使用されてもよい。また、複数のエッジ及び頂点から危険度を算出する際には、そのエッジまたは頂点が動作方向寄りに存在するほど危険度が高くなるような重み係数が導入されてもよい。
上記した評価結果の出力(図5のステップST27)の後、評価を終了しないときは(ステップST31のNO)、動作選択部21が実動作データSDに基づいてステップST22を実行する。一方、評価を終了するときは(ステップST31のYES)、危険度評価部11は、以上のロボット動作評価処理を終了させる。
出力I/F部12は、評価データOTをユーザに提示するために、この評価データを画像情報に変換して表示部3に表示させる。画像情報の生成方法としては、たとえば、ロボット動作状態と関連付けて評価値をリスト化する方法、あるいは、シミュレータ上でロボットの動作軌跡を、算出された評価値に応じて色を変えて表示する方法がある。例として、危険度が高い場合は赤色で示し、危険度が低い場合は青色で示す画像情報を生成することができる。危険度の高低は、予め設定された閾値から決定されてもよいし、あるいは、複数のロボット動作状態についてそれぞれ算出された危険度(評価値)の相対評価によって決定されてもよい。閾値は、たとえば、衝突安全に係る規格に則って設定されてもよいし、あるいは、実験的もしくは経験的に得た値が使用されてもよい。
以上に説明したロボット動作評価装置1のハードウェア構成は、たとえば、CPU(Central Processing Unit)内蔵のコンピュータ構成を有する情報処理装置により実現可能である。あるいは、ロボット動作評価装置1のハードウェア構成は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)またはFPGA(Field−Programmable Gate Array)などのLSI(Large Scale Integrated circuit)を有する情報処理装置により実現されてもよい。
図8は、ロボット動作評価装置1のハードウェア構成例である情報処理装置1Hの概略構成を示すブロック図である。この情報処理装置1Hは、CPU50cを含むプロセッサ50、RAM(Random Access Memory)51、ROM(Read Only Memory)52、入出力インタフェース(I/F)回路53、及び記録媒体54を備えて構成されている。これらプロセッサ50、RAM51、ROM52、入出力I/F回路53及び記録媒体54は、バス回路などの信号路55を介して相互に接続されている。記録媒体54は、上記したデータベース10を格納する記憶領域として使用可能である。記録媒体54は、たとえば、HDDまたはSSD(ソリッドステートドライブ)で構成可能である。プロセッサ50は、ROM52から、ロボット評価処理用のコンピュータプログラムを読み出して実行することにより、上記した動作危険度評価部11の機能を実現することができる。入出力インタフェース回路53は、上記した出力I/F部12及び入力I/F部13の機能を実現する回路である。
また、図9は、ロボット動作評価装置1の他のハードウェア構成例である情報処理装置1Jの概略構成を示すブロック図である。この情報処理装置1Jは、信号処理回路60、入出力インタフェース(I/F)回路61及び記録媒体62を備えて構成されている。これら信号処理回路60、入出力I/F回路61及び記録媒体62は、バス回路などの信号路63を介して相互に接続されている。記録媒体62は、上記したデータベース10を格納する記憶領域として使用可能である。記録媒体62は、たとえば、HDDまたはSSDで構成可能である。信号処理回路60は、上記した動作危険度評価部11の機能を実現することができる。入出力インタフェース回路61は、上記した出力I/F部12及び入力I/F部13の機能を実現する回路である。
以上に説明したように実施の形態1のロボット動作評価装置1は、ハンドの動作方向を基準として当該ハンドの形状を特徴付ける形状特徴量を算出し、当該形状特徴量に基づき、ハンドの形状及びその動作方向に依存する危険度を表す評価値を算出することができる。よって、ロボット2の運用時に伴う危険度をロボット動作状態ごとに把握することができるため、安全柵や侵入検知センサの設置位置や要求スペックの決定が容易になり、過大な安全対策とならないように効率的なシステムを構築することが可能となる。また、危険度が高いロボット動作状態の特定及び修正が容易になる。したがって、本実施の形態のロボット動作評価装置1を使用すれば、過大な安全対策を必要とせずに、ロボット2を運用するシステムの安全性の確保を実現することができる。
ここで、従来のロボットシステムの安全対策では、ロボットの可動部位の動く方向とその動く方向から視た当該可動部位の形状とが考慮されていなかった。このため、安全性を確保するためには、最も危険な状況に合わせた、過度な安全対策を採る必要があった。最も危険な状況の例としては、ロボットハンドの先端部が鋭利な形状を有する場合に、当該先端部が人間に対してまっすぐ衝突する状況が考えられる。このような状況では、当該先端部が弱い力で人間に衝突した場合であっても、人間に大きな物理的衝撃を与える可能性がある。このような物理的衝撃を回避するために、従来のロボットシステムは、力センサがそのような弱い力を検出しただけでロボットの動作を制限するので、ロボット本体に対して非効率的な制御を実行するおそれがあった。これに対し、本実施の形態のロボット動作評価装置1を使用すれば、過度な安全対策を必要とせずに、ロボット2を運用するシステムの安全性の確保を実現しつつ、ロボット本体2に対して効率的な制御を実行することが可能となる。
実施の形態2.
次に、本発明に係る実施の形態2について説明する。図10は、本発明に係る実施の形態2であるロボット動作評価装置1Aの概略構成を示すブロック図である。図10に示されるように、このロボット動作評価装置1Aは、データベース10と、このデータベース10を用いてロボットハンドの動作状態の危険度を評価しその評価結果を示す評価データOTを出力する危険度評価部11Aと、出力I/F部12と、入力I/F部13とを備えて構成されている。
図11は、実施の形態2の危険度評価部11Aの概略構成を示すブロック図である。図11に示されるように、この危険度評価部11Aは、ロボット本体2Rの一連の動作を定める動作プログラムPDを入力とし、この動作プログラムPDからロボット2の複数の動作状態を抽出する動作抽出部20と、これら複数の動作状態の中からロボット2の動作状態を選択する動作選択部21と、この動作選択部21で選択されたロボット2の動作状態に対応するハンドの動作状態を算出する動作状態算出部22と、ハンドの動作方向に依存する形状特徴量を算出する形状特徴量算出部23と、当該形状特徴量に基づいて評価値を算出する評価値算出部24とを備えている。
動作プログラムPDは、プログラム格納部2Pから危険度評価部11Aに供給されている。危険度評価部11Aは、ケーブルを介してプログラム格納部2Pと接続されてもよいし、あるいは、LANまたはWANなどの通信ネットワークを介してプログラム格納部2Pと接続されてもよい。
本実施の形態のロボット動作評価装置1Aの構成は、図11の危険度評価部11Aが動作抽出部20を有する点と、この動作抽出部20から動作選択部21にロボット2の動作状態を示す動作データが供給される点とを除いて、上記実施の形態1のロボット動作評価装置1の構成と同じである。
以下、図12を参照しつつ、ロボット動作評価装置1Aの動作について説明する。図12は、実施の形態2に係るロボット動作評価処理の手順の一例を概略的に示すフローチャートである。
図12を参照すると、動作抽出部20は、操作入力ITの指示内容に応じて、動作プログラムPDからロボット動作状態を選択するか否かを判定する(ステップST10)。すなわち、動作プログラムPDからロボット動作状態を選択しないとの指示がある場合には、動作抽出部20は、動作プログラムPDからロボット動作状態を選択しないと判定する(ステップST10のNO)。次いで、操作入力ITによるロボット動作状態の指定が無い場合(ステップST13のNO)、以上でロボット動作評価処理は終了する。操作入力ITによるロボット動作状態の指定がある場合は(ステップST13のYES)、動作抽出部20は、その指定されたロボット動作状態を動作選択部21に与えるので、動作選択部21は、その指定されたロボット動作状態を選択する(ステップST14)。その後は、ステップST23以後の処理が実行される。
一方、動作プログラムPDからロボット動作状態を選択する場合(ステップST10のYES)、動作抽出部20は、動作プログラムPDからロボット2の複数の動作状態を抽出する(ステップST11)。具体的には、動作抽出部20は、入力された動作プログラムPDからロボット本体2Rに対する動作命令に該当する部分(コード)を検出し、動作速度を含むロボット動作状態を抽出する。次に、動作選択部21は、それら複数の動作状態の中からロボット動作状態を少なくとも1つ選択する(ステップST12)。その後は、ステップST23以後の処理が実行される。
評価結果の出力(図12のステップST27)の後、評価を終了しないときは(ステップST31のNO)、動作抽出部20がステップST10の判定処理を実行する。一方、評価を終了するときは(ステップST31のYES)、危険度評価部11は、以上のロボット動作評価処理を終了させる。
以上に説明したように実施の形態2のロボット動作評価装置1Aは、動作プログラムPDで定められているロボット動作状態に対応するハンドの動作状態の危険度を評価することができる。よって、動作プログラムPDに記述されているロボット2の一連の動作で生じる危険度を網羅的に評価することが可能である。また、実際にロボット2を動作させたときにどの動作状態が危険であるかを事前に知ることができる。更に、ユーザが、評価対象のロボット動作状態を複数設定する手間を省くこともできる。
なお、動作プログラムPD中で全く同じ動作状態が複数定められている場合には、それら動作状態のうちの1つだけを選択して評価することで、評価の計算コストを低減することが可能である。
実施の形態3.
次に、本発明に係る実施の形態3について説明する。図13は、本発明に係る実施の形態3であるロボット動作評価装置1Bの概略構成を示すブロック図である。図13に示されるように、このロボット動作評価装置1Bは、上記実施の形態2のロボット動作評価装置1Aと同様に、データベース10、危険度評価部11A、出力I/F部12及び入力I/F部13を備えるとともに、更に、危険動作検出部14及び動作修正部15を備えて構成されている。
危険動作検出部14は、ハンド(評価部位)の動作状態の評価値が閾値を超えているか否かを判定し、その判定結果を示す判定データDRを出力I/F部12及び動作修正部15に出力する。出力I/F部12は、その判定データDRを表示部3に表示させることができる。また、動作修正部15は、危険動作検出部14により評価値が閾値を超えていると判定された当該動作状態(以下「危険動作状態」ともいう。)を、評価値が小さくなるように修正することにより、修正された動作プログラムMPDを生成することができる。
ここで、閾値としては、ユーザによる操作入力ITにより予め設定された閾値が使用されればよい。あるいは、動作プログラムPDに定められている複数のロボット動作状態の危険度の相対評価によって閾値が決定されてもよい。また、閾値としては、たとえば、衝突安全に係る規格に則って設定された値を使用してもよいし、あるいは、実験的もしくは経験的に得た値を使用してもよい。相対評価によって閾値が決定される場合は、動作プログラムPDに定められている複数のロボット動作状態の中で最も危険度の高いロボット動作状態が選択されてもよいし、あるいは、危険度の高い順に指定した数だけロボット動作状態が選択されてもよい。
以下、図14を参照しつつ、ロボット動作評価装置1Bの動作について説明する。図14は、実施の形態3に係るロボット動作評価処理の手順の一例を概略的に示すフローチャートである。
図14を参照すると、危険度評価部11Aは、上記実施の形態2の場合と同様に、ステップST10〜ST14,ST23〜27を実行する。評価結果を示す評価データOTが出力されると(ステップST27)、危険動作検出部14は、危険度が高いか否か、すなわち、当該評価データOTで示される評価値があらかじめ用意された閾値を超えているか否かを判定する(ステップST28)。
ここで、危険度が高いかどうかの判定(ステップST28)においては、適宜、拘束条件が付与されてもよい。拘束条件の例として、特定の方向または領域におけるロボット動作状態に対応するハンド動作状態を危険動作状態として判定しないという条件が挙げられる。たとえば、安全柵を設置することが決まっている領域や、物理的に衝突の危険がない特定の方向においては危険度の評価が不要であることがある。その他の条件として、力覚センサや視覚センサなどのセンサによる検出結果のフィードバックを利用したロボット動作状態に対応するハンド動作状態を危険動作状態として判定しないという条件も挙げられる。その理由は、センサによる検出結果のフィードバックを利用したロボット動作状態は、動作プログラムPDの実行のたびに異なる動きを呈する可能性があるためである。
危険動作検出部14は、閾値を超えている評価値が存在しない場合は、危険度が高くないと判定し(ステップST28のNO)、ステップST31に処理を移行させる。一方、危険動作検出部14は、閾値を超えている評価値が存在する場合は、危険度が高いと判定する(ステップST28のYES)。この場合、動作修正部15は、その危険度が高いと判定された危険動作状態を修正することで、修正された動作プログラムMPDを生成し(ステップST29)、ステップST31に処理を移行させる。
ステップST29では、動作修正部15は、たとえば、評価値が低くなるように、評価部位(ハンド)の動作速度を遅くする方法、ロボット2の動作モードを直交座標系における直線補間動作と関節補間動作との間で切り替える方法、評価値が低くなるように動作の中間点(たとえば、一時的な動作停止が行われる点)を生成する方法、あるいは、低い評価値に対応するロボット動作状態を組み入れる方法を使用して動作プログラムPDを修正することができる。動作の中間点を生成する方法については、ユーザが操作入力部4を操作して中間点の設定をしてもよい。あるいは、複数の中間点が自動的に生成され、これら複数の中間点の中から最も評価値が低くなる中間点が選択されてもよい。また、これらの方法の組み合わせが採用されてもよい。
実施の形態3のロボット動作評価装置1Bは、動作プログラムPDから危険度の高いハンド動作状態を自動的に検出し、そのハンド動作状態を修正して危険度の低いロボット動作状態を作り出すことができる。そのため、安全対策を講じるためにロボット2の実機を動作させながら動作プログラムPDを試行錯誤的に修正する必要がなくなる。これにより、ロボットシステムの立ち上げ期間を短縮化することができる。
実施の形態4.
次に、本発明に係る実施の形態4について説明する。図15は、本発明に係る実施の形態4であるロボット動作評価装置1Cの概略構成を示すブロック図である。図15は、本発明に係る実施の形態4であるロボット動作評価装置1Cの概略構成を示すブロック図である。図15に示されるように、このロボット動作評価装置1Cは、上記実施の形態3のロボット動作評価装置1Bと同様に、データベース10、危険度評価部11A、出力I/F部12、入力I/F部13、危険動作検出部14及び動作修正部15を備えるとともに、更に、マップ生成部16及び危険度マップ格納部17を備えて構成されている。
図16は、実施の形態4に係るロボット動作評価処理の手順の一例を概略的に示すフローチャートである。図16のフローチャートは、ステップST31のNOの場合にステップST40のマップ生成処理が実行される点を除いて、図14のフローチャートと同じである。図17は、マップ生成処理の手順の一例を示す概略図である。
ステップST31にて評価を終了するとの判定がなされたとき(ステップST31のYES)、この判定に応じて、マップ生成部16は、評価データOTに基づき、評価値を視覚的に表す画像情報を危険度マップとして生成する(ステップST41)。この危険度マップは、危険度マップ格納部17に格納される。たとえば、マップ生成部16は、シミュレータ上のロボット本体2Rの周囲を表す画像領域に重畳すべき画像情報として、評価値に応じた3次元的なベクトルまたは色分布を表す画像情報を危険度マップとして生成することができる。
出力I/F部12は、危険度マップ格納部17から危険度マップを読み出し、シミュレータ上のロボット本体2Rを表す画像情報に当該危険度マップを重畳させて重畳画像を生成し、その重畳画像を表示部3に表示させる(ステップST42)。出力I/F部12は、俯瞰図としてシミュレータ上のロボット本体2Rの全体像を表す画像に、危険度マップを重畳させればよい。
図18A〜図18Cは、危険度マップを含む重畳画像の例を説明するための概略図である。図18Aは、ハンド2Hを有するロボット本体2Rの全体像を含む画像IMGの一例を示す図であり、図18Bは、画像IMGに対応する危険度マップRMの一例を示す図であり、図18Cは、重畳画像SPIの一例を示す図である。図18Aに示されるように、画像IMGは、ロボット本体2Rとその周辺領域とを含む作業領域を当該ロボット本体2Rの真上から視た場合の画像である。この画像IMGは、複数のグリッド領域GR,…,GRで格子状に区切られている。この例では、マップ生成部16は、ハンド2Hを含むロボット本体2Rの可動部位の動作状態について算出された評価値に基づき、各グリッド領域GRごとに危険度レベルを判定し、複数のグリッド領域GR,…,GRに対してそれぞれ危険度レベルに応じた表示色を割り当てる。そして、マップ生成部16は、図18Bに示されるように、割り当てられた表示色のグリッド画像gr,…,grの配列からなる画像を危険度マップRMとして生成する(ステップST41)。ここで、図18Aのグリッド領域GRと図18Bのグリッド画像grとは一対一で対応している。すなわち、グリッド領域GRの画像上の位置とこれに対応するグリッド画像grの画像上の位置とは同じである。その後、出力I/F部12は、画像IMGに危険度マップRMを重畳させて図18Cに示される重畳画像SPIを生成し、この重畳画像SPIを表示部3に表示させる(ステップST42)。図18Bの例では、「0」〜「4」の5段階の危険度レベルが設定されている。グリッド領域GRの表示色の濃度が高いほど、当該グリッド領域GRに現れる空間領域の危険度が高いことを意味する。ユーザは、表示部3に表示された重畳画像SPIを視ることで、危険度が高い場所、危険度が低い場所及びロボット動作状態を直感的且つ容易に理解することができる。
なお、ユーザは、図18Bの危険度マップRMからは、水平方向(ロボット本体2Rの高さ方向に直交する方向)の2次元的な危険度分布を知ることができるが、高さ方向の危険度分布を知ることが難しい。そこで、ユーザが、ロボット本体2Rの基端部(たとえば、図2のベース部30)からの複数の高さ位置をあらかじめ設定しておき、マップ生成部16が、各高さ位置ごとに危険度マップRMを生成することが望ましい。そして、出力I/F部12は、複数の高さ位置にそれぞれ対応する複数枚の危険度マップRMの各々を画像IMGに重畳させて複数の高さ位置にそれぞれ対応する複数枚の重畳画像SPIを生成し、これら重畳画像SPIを表示部3に表示させればよい(ステップST42)。これにより、ユーザは、3次元的な危険度分布を容易に知ることができる。
あるいは、出力I/F部12は、ロボット2の評価部位の断面または端面を表す画像に危険度マップを重畳させてもよい。あるいは、出力I/F部12は、高さ方向の情報を圧縮して2次元画像として危険度マップを表示部3に表示させてもよい。高さ方向の情報を圧縮する場合には、ある地点の評価値のうち最も評価値が高い情報のみを2次元画像に残してもよいし、評価値のうちの最大値と最小値の両方を2次元画像に残してもよい。このような2次元画像を利用することで、ロボットシステムの設計図との対比が容易になり、当該2次元画像を設計改善の検討材料として利用することができる。これにより、システム設計の負担軽減が可能となる。
危険度マップが表示部3に表示された(ステップST42)後は、ロボット動作評価処理が終了する。
以上に説明したように実施の形態4のロボット動作評価装置1Cは、ロボット本体2Rの周辺領域の危険度合いを可視化することができる。これにより、ユーザは直感的に危険度が高い場所及びロボット動作状態を理解することができるので、安全柵や侵入検知センサの設置位置の検討が容易になる。したがって、安全対策が施されたロボットシステムの立ち上げ期間を短縮化することができる。
実施の形態5.
次に、本発明に係る実施の形態5について説明する。図19は、本発明に係る実施の形態5であるロボット動作評価装置1Dの概略構成を示すブロック図である。図19に示されるように、このロボット動作評価装置1Dは、上記実施の形態4のロボット動作評価装置1Cと同様に、出力I/F部12、入力I/F部13、危険動作検出部14、動作修正部15、マップ生成部16及び危険度マップ格納部17を備えている。また、ロボット動作評価装置1Dは、データベース10A及び危険度評価部11Dを備えている。
データベース10Aには、上記したロボットモデルと、ロボット2の可動部位(ハンド及び関節)をモデル化した可動部位モデルと、これらロボットモデルと可動部位モデルとの間の接続関係を示す接続関係情報とが予め記憶されている。ここで、可動部位モデルをデータベース10Aに記憶する際に、ロボット2の関節の形状データだけでなく、これに付属する冶具の形状データも併せて記憶しておくことが望ましい。これにより、ロボット2の関節に冶具が設置される場合においても危険度を評価することができる。
図20は、実施の形態5の危険度評価部11Dの概略構成を示すブロック図である。この危険度評価部11Dの構成は、動作選択部21と動作状態算出部22との間に評価部位選択部21Dを有する点を沿いて、上記実施の形態2の危険度評価部11Aの構成と同じである。
図21は、実施の形態5に係るロボット動作評価処理の手順の一例を示すフローチャートである。図21のフローチャートは、ステップST14とST25の間にステップST15,ST23D,ST24Dを有する点を除いて、図16のフローチャートと同じである。
ステップST14またはステップST12の実行後、評価部位選択部21Dは、ステップST14またはST15で選択されたロボット動作状態に対応するロボットの可動部位を評価部位として選択する(ステップST15)。ここで、評価部位として、ハンドに限らず、ロボット2の関節も選択することができる。その後、動作状態算出部22及び形状特徴量算出部23は、それぞれ、接続関係情報CD、及び可動部位モデルの形状を示す形状情報DDをデータベース10から取得する(ステップST23D)。その後、動作状態算出部22は、接続関係情報CDを用いて、ロボット動作状態を当該評価部位の動作状態に変換する(ステップST24D)。次に、形状特徴量算出部23は、形状情報DDを用いて、当該ロボット動作状態に対応する評価部位の動作方向を基準として当該評価部位の形状を特徴付ける形状特徴量を算出する(ステップST25)。この形状特徴量の算出方法は、上述したとおりである。その後のステップST26以後の処理は、上述したとおりである。
以上に説明したように実施の形態5のロボット動作評価装置1Dは、ロボットハンドに限らず、ロボット2の各関節による衝突の危険度も評価することができる。したがって、ロボット全体の危険度を評価することが可能である。
実施の形態6.
次に、本発明に係る実施の形態6について説明する。図22は、本発明に係る実施の形態6のロボット動作評価装置1Eを含むロボットシステムの概略構成を示す機能ブロック図である。図22に示されるようにこのロボットシステムは、ロボット動作評価装置1E、ロボット2E、及び、ロボット2Eに動作プログラムを供給するプログラム格納部2Pを備えている。ロボット2Eは、ロボット本体(マニピュレータ)2Rと、プログラム格納部2Pから取得した動作プログラムに従ってロボット本体2Rの動作を制御するロボット制御装置2RCeと、外部センサ群2Sとを有する。ロボット2Eの構成は、実施の形態1のロボット制御装置2RCに代えて図22のロボット制御装置2RCeを有する点を除いて、上記ロボット2の構成と同じである。
ロボット制御装置2RCeは、実施の形態1のロボット制御装置2RC(図2)と同様に、内部メモリMe内の動作プログラムに記述される一連の動作命令に従って制御信号群CTLを生成する。また、ロボット制御装置2RCeは、ロボット本体2Rの内部状態を示す状態検出信号ISを用いてロボット本体2Rに対するフィードバック制御あるいはフィードフォワード制御を実行する機能を有し、ロボット本体2Rの外部状態を示す状態検出信号ESを用いてロボット本体2Rの動作を制御する機能を有する。
本実施の形態のロボット制御装置2RCeは、更に、状態検出信号IS,ESをロボット動作評価装置1Eに供給する。ロボット動作評価装置1Eは、ロボット制御装置2RCeから供給された状態検出信号IS,ESを用いて評価部位の動作状態の危険度を評価することができる。ここで、ロボット制御装置2RCeは、状態検出信号IS,ESがあらかじめ指定された数値範囲内の検出値を示す場合にのみ、当該状態検出信号IS,ESをロボット動作評価装置1Eに出力してもよい。
あるいは、ロボット制御装置2RCeは、状態検出信号IS,ESがあらかじめ指定された数値範囲内の検出値を示す場合に、当該状態検出信号IS,ESに対応する代替信号をロボット動作評価装置1Eに供給してもよい。その種の代替信号を供給するために、ロボット制御装置2RCeは入出力ユニット(I/Oユニット)を有することができる。たとえば、外部センサ群2Sが圧力センサを含む場合、I/Oユニットは、圧力センサによる圧力検出値があらかじめ指定された閾値に到達しないとき、「0」の値を示す2値信号を代替信号としてロボット動作評価装置1Eに出力し、圧力検出値が閾値に到達したときは、「1」の値を示す2値信号を代替信号としてロボット動作評価装置1Eに出力することができる。また、外部センサ群2Sが測距センサを含む場合、I/Oユニットは、測距値があらかじめ指定された条件(たとえば、特定の数値範囲内にあること)を満たしたときは、「1」の値を示す2値信号(オン信号)を代替信号としてロボット動作評価装置1Eに出力し、測距値が当該条件を満たさないときは、「0」の値を示す2値信号(オフ信号)を代替信号としてロボット動作評価装置1Eに出力することができる。
図22に示されるように、本実施の形態のロボット動作評価装置1Eは、データベース10Aを用いて評価部位の動作状態の危険度を評価する危険度評価部11Eと、ロボット2Eから状態検出信号IS,ESを受信するセンサインタフェース部(センサI/F部)18と、動作修正部15で生成された修正動作プログラムMPDをロボット2Eに送信する出力インタフェース部(出力I/F部)19とを備えている。ロボット動作評価装置1Eの構成は、実施の形態5の危険度評価部11Dに代えて図22の危険度評価部11Eを有する点と、センサI/F部18及び出力I/F部19を有する点とを除いて、実施の形態5のロボット動作評価装置1Dの構成と同じである。
センサI/F部18は、ロボット2Eから状態検出信号IS,ESを受信すると、これら状態検出信号IS,ESを示す受信信号SSを危険度評価部11Eに出力する。上記のとおり、ロボット制御装置2RCeが状態検出信号IS,ESに対応する代替信号をセンサI/F部18に供給する場合、センサI/F部18は、当該代替信号を示す受信信号SSを危険度評価部11Eに出力すればよい。一方、ロボット制御装置2RCeは、ロボット動作評価装置1Eの出力I/F部19からフィードバックされた修正動作プログラムMPDを受信すると、内部メモリMe内の動作プログラムに代えて修正動作プログラムMPDを使用し、この修正プログラムMPDに記述される動作命令に従って制御信号群CTLを生成する。
図23は、実施の形態6の危険度評価部11Eの概略構成を示すブロック図である。本実施の形態の危険度評価部11Eは、上記実施の形態5の危険度評価部11Dと同様に、動作抽出部20、動作選択部21、評価部位選択部21D、動作状態算出部22及び形状特徴量算出部23を備えている。本実施の形態の危険度評価部11Eは、入力された受信信号SSを解析してその解析結果を評価値算出部24Eに出力するデータ解析部25と、当該解析結果及び形状特徴量算出部23で算出された形状特徴量に基づいて評価部位の危険度を表す2種類の評価値(第1の評価値及び第2の評価値)を算出する評価値算出部24Eとを備えている。
以下、図24を参照しつつ、ロボット動作評価装置1Eの動作について説明する。図24は、実施の形態6に係るロボット動作評価処理の手順の一例を概略的に示すフローチャートである。
図24を参照すると、上記実施の形態5に係るロボット動作評価処理の手順(図21)と同様に、ステップST10〜ST15,ST23D,ST24D,ST25,ST26が実行される。ステップST26では、評価値算出部24は、上述したとおり、ステップST25で算出された形状特徴量に基づき、または当該形状特徴量及び評価部位の動作速度の双方に基づき、当該評価部位の動作方向に対する当該評価部位の動作状態の危険度を表す評価値を、第1の評価値として算出する。
ステップST26Aでは、データ解析部25は、入力された受信信号SSを解析してその解析結果を評価値算出部24Eに出力する(ステップST26A)。具体的には、外部センサ群2Sが撮像デバイス及び測距センサを含む場合、データ解析部25は、撮像データ及び測距値を解析することにより、ロボット本体2Rの周辺領域に存在する人間などの物体の各部位(たとえば、人間の頭部、前腕部、手または脚部などの身体部位)を認識し、当該物体の各部位の現在位置及び当該物体の各部位の速度を算出することができる。更に、データ解析部25は、当該物体の各部位の将来の位置及び速度を予測したり、その予測位置に当該物体の各部位が存在する確率を算出したりすることもできる。あるいは、外部センサ群2Sが、ロボット本体2Rの周辺領域の温度分布を測定可能な温度センサを含む場合、データ解析部25は、当該温度分布を示す測温データを解析して、当該周辺領域のうち人間などの物体にとって危険な空間領域を検出することもできる。
次に、評価値算出部24Eは、データ解析部25から得た解析結果に基づき、当該評価部位の動作方向に対する当該評価部位の動作状態の危険度を表す第2の評価値を算出する(ステップST26B)。たとえば、評価値算出部24Eは、当該解析結果に基づき、当該評価部位が、ロボット本体2Rの周辺領域に存在する人間などの物体と将来衝突する確率P及びその衝突時の物理的衝撃の大きさFを算出し、その算出結果に基づいて第2の評価値を算出することができる。たとえば、第2の評価値は、確率Pと物理的衝撃の大きさFとの積(=P×F)として算出可能である。
ここで、データ解析部25が、ロボット本体2Rに接近する物体が人間であることを識別していれば、評価値算出部24Eは、ロボット動作状態に応じて当該人間の身体部位のうちのどの部位がロボット本体2Rと衝突する可能性があるか否かを判別し、その判別結果に基づいて衝突時の物理的衝撃の大きさFを評価すればよい。評価値算出部24Eは、ロボット本体2Rと衝突する可能性のある身体部位が当該人間の頭部であれば、物理的衝撃の大きさFを比較的大きな値とし、ロボット本体2Rと衝突する可能性のある身体部位が当該人間の前腕部であれば、物理的衝撃の大きさFを比較的小さな値とすることができる。物理的衝撃の大きさFの具体的な値としては、種々の方法によってあらかじめ用意された値(たとえば、力積値)が使用されればよい。たとえば、過去の事故事例に基づいて経験的に決定された値が大きさFの具体的な値として使用されればよい。
また、評価値算出部24Eは、すべてのケースで同一の計算式を用いて第2の評価値を算出しなくてもよい。たとえば、評価値算出部24Eは、衝突時の物理的衝撃の大きさFが一定の値以上であるか否かを判定し、大きさFが一定の値以上であると判定した場合には、確率Pを100%としてもよい。あるいは、データ解析部25によって認識された物体が、評価部位と接触することが予定されている物体(たとえば、ロボットハンドにより把持されることが予定されている作業対象物)である場合、評価値算出部24Eは、危険度を表す第2の評価値を零とすればよい。
上記ステップST26,ST26A,ST26Bの後、評価値算出部24Eは、その評価値を示す評価データOTを出力I/F部12と危険動作検出部14とに出力する(ステップST27A)。危険動作検出部14は、当該評価データOTで示される第1の評価値または第2の評価値に基づいて危険度が高いか否かを判定する(ステップST28A)。たとえば、第1の評価値のみがあらかじめ用意された第1の閾値を超えた場合、第2の評価値のみがあらかじめ用意された第2の閾値を超えた場合、あるいは、第1の評価値が第1の閾値を超え、且つ第2の評価値が第2の閾値を超えた場合に、危険動作検出部14は、危険度が高いと判定することができる。
危険動作検出部14は、危険度が高いと判定した場合(ステップST28AのYES)、ステップST29Aに処理を移行させる。この場合、動作修正部15は、その危険度が高いと判定された危険動作状態を修正することで、修正動作プログラムMPDを生成し(ステップST29)、ステップST31に処理を移行させる。たとえば、ロボット本体2Rの評価部位が人間の身体部位と接触する可能性が高いために危険度が高いとの判定がなされた場合、危険動作検出部14は、動作プラグラムPDにおける当該評価部位の動作速度及び当該評価部位の移動予定位置(予定軌道)のうちの少なくとも一方を変更したり、ロボット本体2Rの動作を停止させる動作命令を組み入れたりすることで修正動作プログラムMPDを生成することができる。修正動作プログラムMPDは、出力I/F部12及び出力I/F部19に出力される。一方、危険度が高くないと判定した場合(ステップST28AのNO)、危険動作検出部14は、ステップST31に処理を移行させる。
その後、評価を終了しないとき(ステップST31のNO)、危険度評価部11Eは、ステップST10を実行する。一方、評価を終了するとの判定がなされたときは(ステップST31のYES)、この判定に応じて、マップ生成部16は、評価データOTに基づき、評価値を視覚的に表す画像情報を危険度マップとして生成する(ステップST41)。この危険度マップは、危険度マップ格納部17に格納される。出力I/F部12は、上述したとおり、危険度マップ格納部17から危険度マップを読み出し、シミュレータ上のロボット本体2Rを表す画像情報に当該危険度マップを重畳させて表示部3に表示させる(ステップST42)。以上で、ロボット動作評価処理は終了する。
以上に説明したように実施の形態6のロボット動作評価装置1Eにおいては、データ解析部25は、状態検出信号IS,ESまたは当該状態検出信号IS,ESに対応する代替信号を解析する。評価値算出部24Eは、その解析結果に基づいて、評価部位の動作状態の危険度を表す第2の評価値を算出する。危険動作検出部14は、第2の評価値に基づいて、当該評価部位の動作状態について危険度が高いか否かを判定することができる。危険度が高いとの判定がなされた場合には、動作修正部15は、動作プログラムPDに定められている当該評価部位の動作状態を変更し、当該変更された動作状態を定める修正動作プログラムMPDを生成する。ロボット制御装置2RCeは、内部メモリMe内の動作プログラムに代えて、フィードバックされた修正動作プログラムMPDを使用し、この修正プログラムMPDに記述される動作命令に従って制御信号群CTLを生成することができる。したがって、本実施の形態のロボットシステムは、状態検出信号IS,ESに応じて危険度が低減するようにロボット本体2Rの実際の動作状態をリアルタイムに変更することができる。このため、安全性の高いロボットシステムを構築することができる。
以上、図面を参照して本発明に係る種々の実施の形態について述べたが、これら実施の形態は本発明の例示であり、これら実施の形態以外の様々な形態を採用することもできる。たとえば、実施の形態2〜6のロボット動作評価装置1A〜1Eのハードウェア構成は、上記実施の形態1のロボット動作評価装置1と同様に、たとえば、CPU内蔵のコンピュータ構成を有する情報処理装置により実現可能である。あるいは、ロボット動作評価装置1A〜1Eのハードウェア構成は、DSP、ASICまたはFPGAなどのLSIを有する情報処理装置により実現されてもよい。また、実施の形態2〜6のロボット動作評価装置1A〜1Eの各々のハードウェア構成は、上記実施の形態1のロボット動作評価装置1と同様に、図8に示した情報処理装置1Hまたは図9に示した情報処理装置1Jのいずれか一方で実現可能である。
なお、本発明の範囲内において、実施の形態1〜6の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
本発明に係るロボット動作評価装置は、単関節構造または多関節構造を有するロボットのような、単数または複数の可動部位を有するロボットに使用されることに適しているので、製造業及び建設業などの産業用分野で使用される産業用ロボットのみならず、公共施設及び家庭で使用される、サービスロボットなどの非産業用ロボットに適用可能である。このようなロボット動作評価装置を含むロボットシステムも、産業用分野のみならず、非産業用分野で使用され得る。
1,1A,1B,1C,1D,1E ロボット動作評価装置、2,2E ロボット、2R ロボット本体、2S 外部センサ群、2RC,2RCe ロボット制御装置、2H,2Ha ロボットハンド、2a,2b 爪部、2m 本体部、2n 基端部、2c 吸着パッド部、2P プログラム格納部、3 表示部、4 操作入力部、10,10A データベース、11,11A,11D,11E 危険度評価部、12 出力インタフェース部(出力I/F部)、13 入力インタフェース部(入力I/F部)、14 危険動作検出部、15 動作修正部、16 マップ生成部、17 危険度マップ格納部、18 センサインタフェース部(センサI/F部)、19 出力インタフェース部(出力I/F部)、20 動作抽出部、21 動作選択部、21D 評価部位選択部、22 動作状態算出部、23 形状特徴量算出部、24,24E 評価値算出部、25 データ解析部、30 ベース部、31〜34 第1〜第4アーム部(ロボットアーム)、34a フランジ部、Φ1〜Φ6 回転軸。

Claims (19)

  1. ロボットの動作状態に基づき、前記ロボットの可動部位である評価部位の動作状態を算出する動作状態算出部と、
    当該算出された動作状態に対応する前記評価部位の動作方向を基準として前記評価部位の形状を特徴付ける単数または複数の形状特徴量を算出する形状特徴量算出部と、
    前記単数または複数の形状特徴量に基づき、前記動作方向に対する前記評価部位の動作状態の危険度を表す評価値を算出する評価値算出部と
    を備えることを特徴とするロボット動作評価装置。
  2. 請求項1記載のロボット動作評価装置であって、前記形状特徴量算出部は、前記動作方向に対して垂直な断面または端面における前記評価部位の面積を前記形状特徴量として算出することを特徴とするロボット動作評価装置。
  3. 請求項1記載のロボット動作評価装置であって、
    前記形状特徴量算出部は、各々が前記動作方向に対して垂直な断面または端面からなる複数の面における前記評価部位の複数の面積を前記複数の形状特徴量として算出し、
    前記複数の面は、前記動作方向において互いに異なる位置に存在する
    ことを特徴とするロボット動作評価装置。
  4. 請求項3記載のロボット動作評価装置であって、前記評価値算出部は、前記複数の面積のうち最も小さい面積に基づいて前記評価値を算出することを特徴とするロボット動作評価装置。
  5. 請求項3記載のロボット動作評価装置であって、
    前記評価値算出部は、前記複数の面積を複数の重み係数でそれぞれ重み付けし、当該重み付けされた面積の加算値に基づいて前記評価値を算出し、
    前記各面積を有する面領域の存在位置が前記動作方向寄りになるほど、当該各面積に割り当てられる当該重み係数の値が大きくなることを特徴とするロボット動作評価装置。
  6. 請求項1記載のロボット動作評価装置であって、前記形状特徴量算出部は、前記評価部位よりも前記動作方向の側に仮想的に配置された投影面に前記評価部位の形状を投影し、当該投影された形状に現れる稜線または頂点に基づいて前記形状特徴量を算出することを特徴とするロボット動作評価装置。
  7. 請求項6記載のロボット動作評価装置であって、前記形状特徴量算出部は、前記稜線を構成する2つの面のなす角度、または、前記頂点を構成する複数の面のうちの2つの面のなす角度を前記形状特徴量として算出することを特徴とするロボット動作評価装置。
  8. 請求項1から請求項7のうちのいずれか1項記載ロボット動作評価装置であって、
    前記動作状態算出部は、前記ロボットをモデル化したロボットモデルと前記可動部位をモデル化した可動部位モデルとの間の接続関係を定める接続関係情報を用いて、前記評価部位の当該動作方向を算出し、
    前記形状特徴量算出部は、前記可動部位モデルの形状を示す形状情報に基づいて前記形状特徴量を算出する
    ことを特徴とするロボット動作評価装置。
  9. 請求項1から請求項8のうちのいずれか1項記載ロボット動作評価装置であって、前記評価値算出部は、前記単数または複数の形状特徴量及び前記評価部位の動作速度に基づき、前記評価値を算出することを特徴とするロボット動作評価装置。
  10. 請求項1から請求項9のうちのいずれか1項記載のロボット動作評価装置であって、前記ロボットの実際の動作を示す実動作データを入力とし、前記実動作データに基づいて前記ロボットの動作状態を選択する動作選択部を更に備え、
    前記動作状態算出部は、前記動作選択部により選択された動作状態に基づき、前記評価部位の当該動作状態を算出することを特徴とするロボット動作評価装置。
  11. 請求項1から請求項9のうちのいずれか1項記載のロボット動作評価装置であって、
    前記ロボットの一連の動作を定める動作プログラムを入力とし、前記動作プログラムから前記ロボットの複数の動作状態を抽出する動作抽出部と、
    前記複数の動作状態の中から前記ロボットの動作状態を選択する動作選択部と
    を更に備え、
    前記動作状態算出部は、前記動作選択部により選択された動作状態に基づき、前記評価部位の当該動作状態を算出することを特徴とするロボット動作評価装置。
  12. 請求項11記載のロボット動作評価装置であって、前記評価値算出部により算出された評価値が閾値を超えているか否かを判定する危険動作検出部を更に備えることを特徴とするロボット動作評価装置。
  13. 請求項12記載のロボット動作評価装置であって、前記危険動作検出部により前記評価が閾値を超えていると判定された当該評価部位の当該動作状態を、前記評価値が小さくなるように修正する動作修正部を更に備えることを特徴とするロボット動作評価装置。
  14. 請求項11から請求項13のうちのいずれか1項記載のロボット動作評価装置であって、
    前記評価を視覚的に表す画像情報を危険度マップとして生成するマップ生成部と、
    前記危険度マップを表示部に表示させる出力インタフェース部と
    を更に備えることを特徴とするロボット動作評価装置。
  15. 請求項11から請求項14のうちのいずれか1項記載のロボット動作評価装置であって、前記ロボットの複数の可動部位の中から少なくとも1つの可動部位を前記評価部位として選択する評価部位選択部を更に備えることを特徴とするロボット動作評価装置。
  16. 請求項1から請求項15のうちのいずれか1項記載のロボット動作評価装置であって、前記評価部位は、ロボットハンドを含むことを特徴とすることを特徴とするロボット動作評価装置。
  17. 請求項13記載のロボット動作評価装置であって、ロボットの内部状態及び当該ロボットの外部状態のうちの少なくとも一方の状態を検出する少なくとも1つのセンサから出力された状態検出信号または当該状態検出信号に対応する代替信号を受信するセンサインタフェース部と、
    前記状態検出信号または前記代替信号を解析して解析結果を出力するデータ解析部と
    を更に備え、
    前記評価値算出部は、前記解析結果に基づいて、前記動作方向に対する前記評価部位の動作状態の危険度を表す他の評価値を算出し、
    前記危険動作検出部は、前記他の評価値に基づき、当該評価部位の動作状態について危険度が高いか否かを判定し、
    前記動作修正部は、前記危険動作検出部により危険度が高いと判定された当該評価部位の当該動作状態を、前記他の評価値が小さくなるように修正する
    ことを特徴とするロボット動作評価装置。
  18. 請求項17記載のロボット動作評価装置と、
    動作命令に従って動作するロボット本体と、
    前記ロボット本体に前記動作命令を供給するロボット制御装置と
    を備え、
    前記ロボット制御装置は、前記ロボット動作評価装置の当該動作修正部で修正された動作状態に基づいて前記動作命令を生成することを特徴とするロボットシステム。
  19. 情報処理装置において実行されるロボット動作評価方法であって、
    ロボットの動作状態に基づき、前記ロボットの可動部位である評価部位の動作状態を算出するステップと、
    当該算出された動作状態に対応する前記評価部位の動作方向を基準として前記評価部位の形状を特徴付ける単数または複数の形状特徴量を算出するステップと、
    前記単数または複数の形状特徴量に基づき、前記動作方向に対する前記評価部位の動作状態の危険度を表す評価値を算出するステップと
    を備えることを特徴とするロボット動作評価方法。
JP2018518148A 2016-05-16 2017-04-05 ロボット動作評価装置、ロボット動作評価方法及びロボットシステム Active JP6570742B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016097917 2016-05-16
JP2016097917 2016-05-16
PCT/JP2017/014216 WO2017199619A1 (ja) 2016-05-16 2017-04-05 ロボット動作評価装置、ロボット動作評価方法及びロボットシステム

Publications (2)

Publication Number Publication Date
JPWO2017199619A1 JPWO2017199619A1 (ja) 2018-08-09
JP6570742B2 true JP6570742B2 (ja) 2019-09-04

Family

ID=60324891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018518148A Active JP6570742B2 (ja) 2016-05-16 2017-04-05 ロボット動作評価装置、ロボット動作評価方法及びロボットシステム

Country Status (5)

Country Link
US (1) US11052537B2 (ja)
JP (1) JP6570742B2 (ja)
CN (1) CN109070366B (ja)
DE (1) DE112017002498B4 (ja)
WO (1) WO2017199619A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7091609B2 (ja) * 2017-04-14 2022-06-28 セイコーエプソン株式会社 シミュレーション装置、ロボット制御装置およびロボット
JP2018192556A (ja) * 2017-05-16 2018-12-06 オムロン株式会社 ロボットシステム
JP6977600B2 (ja) * 2018-02-14 2021-12-08 オムロン株式会社 制御装置、制御システム、制御方法、および、制御プログラム
JP7059673B2 (ja) * 2018-02-14 2022-04-26 オムロン株式会社 制御装置、制御システム、制御方法、および、制御プログラム
JP7275518B2 (ja) * 2018-10-02 2023-05-18 カシオ計算機株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
CN113316501B (zh) * 2019-05-31 2022-02-18 乐恩吉室株式会社 以危险度判断为基础的机器人移动控制方法及利用其的移动机器人装置
US11403437B2 (en) * 2020-03-25 2022-08-02 Ford Global Technologies, Llc Method and system for determining sensor placement for a workspace
CN111832921B (zh) * 2020-06-30 2023-09-26 佛山科学技术学院 基于机器学习的工业机器人性能指标评价设备及方法
JPWO2022157878A1 (ja) * 2021-01-21 2022-07-28
CN112936342B (zh) * 2021-02-02 2023-04-28 福建天晴数码有限公司 基于人体姿态识别算法的实体机器人动作评测系统及方法
EP4288251A1 (en) 2021-02-04 2023-12-13 Abb Schweiz Ag Method of controlling mechanical impedance of robot, control system and robot
DE102021208279B4 (de) * 2021-07-30 2023-03-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Integration einer Risikobeurteilung einer Kollision zwischen einem robotischen Gerät und einer menschlichen Bedienperson
DE102022112879B3 (de) 2022-05-23 2023-08-03 Deutsches Zentrum für Luft- und Raumfahrt e.V. Posenschätzung eines von einem Roboter-Greifer gegriffenen Objekts
CN115782681B (zh) * 2023-01-10 2023-04-21 江苏智慧优视电子科技有限公司 一种应用于新能源重卡电池箱的定位系统及方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07241790A (ja) 1994-03-08 1995-09-19 Fujitsu Ltd ロボットの衝突防止方法
JP3782679B2 (ja) * 2001-05-09 2006-06-07 ファナック株式会社 干渉回避装置
JP2004127190A (ja) * 2002-10-07 2004-04-22 Yaskawa Electric Corp ロボットの設計支援装置
DE102004043514A1 (de) * 2004-09-08 2006-03-09 Sick Ag Verfahren und Vorrichtung zum Steuern einer sicherheitsrelevanten Funktion einer Maschine
CN101432103B (zh) * 2006-07-04 2012-05-23 松下电器产业株式会社 机器人手臂的控制装置
JP5103237B2 (ja) * 2008-03-25 2012-12-19 株式会社神戸製鋼所 ロボットの動作余裕量演算表示方法及びその装置
JP2009274148A (ja) 2008-05-12 2009-11-26 Kanto Auto Works Ltd シミュレーション装置
CN101959653B (zh) 2008-07-09 2012-10-24 松下电器产业株式会社 路径危险性评价装置
CN102448681B (zh) 2009-12-28 2014-09-10 松下电器产业株式会社 动作空间提示装置、动作空间提示方法以及程序
KR101633357B1 (ko) * 2010-01-14 2016-06-28 삼성전자 주식회사 매니퓰레이터 및 그 제어방법
JP4938118B2 (ja) 2010-08-17 2012-05-23 ファナック株式会社 人間協調ロボットシステム
JP5541020B2 (ja) * 2010-09-09 2014-07-09 株式会社デンソーウェーブ ロボットの評価制御方法及びロボットの制御装置
JP5144785B2 (ja) 2011-04-18 2013-02-13 ファナック株式会社 ロボットの着目部位と周辺物との干渉を予測する方法及び装置
JP5878750B2 (ja) * 2011-12-21 2016-03-08 川崎重工業株式会社 ロボットの動作規制方法及び装置
JP2013158869A (ja) * 2012-02-03 2013-08-19 Seiko Epson Corp ロボット制御装置、ロボットシステム、ロボット制御方法
DE102013212887B4 (de) * 2012-10-08 2019-08-01 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Steuern einer Robotereinrichtung,Robotereinrichtung, Computerprogrammprodukt und Regler
CN103894807A (zh) 2012-12-28 2014-07-02 Abb技术有限公司 降低操作员潜在伤害的方法和装置
JP5668770B2 (ja) * 2013-03-15 2015-02-12 株式会社安川電機 ロボットシステム、及び、ロボットシステムの制御方法
JP2014188644A (ja) * 2013-03-28 2014-10-06 Seiko Epson Corp リスク評価装置
DE102014011012A1 (de) * 2014-07-24 2016-01-28 Kuka Roboter Gmbh Verfahren und Mittel zum Auslegen und/oder Betreiben eines Roboters
US9452530B2 (en) 2014-09-12 2016-09-27 Toyota Jidosha Kabushiki Kaisha Robot motion replanning based on user motion
JP6478771B2 (ja) * 2015-04-03 2019-03-06 三菱電機株式会社 産業用ロボットの回避軌道生成装置および回避軌道生成方法

Also Published As

Publication number Publication date
DE112017002498T5 (de) 2019-02-28
WO2017199619A1 (ja) 2017-11-23
CN109070366A (zh) 2018-12-21
JPWO2017199619A1 (ja) 2018-08-09
US11052537B2 (en) 2021-07-06
DE112017002498B4 (de) 2022-07-07
US20190126475A1 (en) 2019-05-02
CN109070366B (zh) 2021-09-28

Similar Documents

Publication Publication Date Title
JP6570742B2 (ja) ロボット動作評価装置、ロボット動作評価方法及びロボットシステム
CN110696000B (zh) 一种机械臂试探感知的避障方法
EP3410246B1 (en) Robot obstacle avoidance control system and method, robot, and storage medium
US10327849B2 (en) Robotic system and method for backdriving the same
WO2011080882A1 (ja) 動作空間提示装置、動作空間提示方法およびプログラム
US11498216B2 (en) Remote control manipulator system and control device
CN109620410B (zh) 机械臂防碰撞的方法及系统、医疗机器人
US9149931B2 (en) Robot system, robot control device and method for controlling robot
JP2012011498A (ja) ロボットアーム操作システムおよびその操作方法
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
CN110613511B (zh) 手术机器人避障方法
US11040451B2 (en) Teaching device and teaching method
Zanchettin et al. Kinematic analysis and synthesis of the human arm motion during a manipulation task
JP7111114B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
CN112043397B (zh) 手术机器人及其运动错误检测方法、检测装置
WO2008047872A1 (fr) Manipulateur
JP5108032B2 (ja) 多関節構造体教示装置
WO2015137162A1 (ja) 制御装置、ロボットシステム、および制御用データ生成方法
JP6322949B2 (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP4997419B2 (ja) ロボット用動作変換システム
JP7114521B2 (ja) 遠隔操作ロボットの作業支援システム及び作業支援方法
CN112043396B (zh) 手术机器人及其图形化控制装置、图形化显示方法
JP2015174206A (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP2001287191A (ja) マスタアームのリンク位置検出方法
US20240123627A1 (en) Robot control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190806

R150 Certificate of patent or registration of utility model

Ref document number: 6570742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250