JP2020511325A - 作業空間安全監視および機器制御 - Google Patents

作業空間安全監視および機器制御 Download PDF

Info

Publication number
JP2020511325A
JP2020511325A JP2019563335A JP2019563335A JP2020511325A JP 2020511325 A JP2020511325 A JP 2020511325A JP 2019563335 A JP2019563335 A JP 2019563335A JP 2019563335 A JP2019563335 A JP 2019563335A JP 2020511325 A JP2020511325 A JP 2020511325A
Authority
JP
Japan
Prior art keywords
workspace
machinery
sensor
robot
safety
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019563335A
Other languages
English (en)
Other versions
JP6752499B2 (ja
Inventor
クララ ヴュ,
クララ ヴュ,
スコット デネンバーグ,
スコット デネンバーグ,
パトリック ソバルヴァッロ,
パトリック ソバルヴァッロ,
パトリック バラガン,
パトリック バラガン,
アルバート モエル,
アルバート モエル,
Original Assignee
ヴェオ ロボティクス, インコーポレイテッド
ヴェオ ロボティクス, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴェオ ロボティクス, インコーポレイテッド, ヴェオ ロボティクス, インコーポレイテッド filed Critical ヴェオ ロボティクス, インコーポレイテッド
Priority to JP2020006561A priority Critical patent/JP6898012B2/ja
Publication of JP2020511325A publication Critical patent/JP2020511325A/ja
Application granted granted Critical
Publication of JP6752499B2 publication Critical patent/JP6752499B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/20Detecting, e.g. by using light barriers using multiple transmitters or receivers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40203Detect position of operator, create non material barrier to protect operator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40422Force controlled velocity motion planning, adaptive
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40577Multisensor object recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/49Protective device

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

本発明の分野は、概して、人間および機械類が相互作用する、または近接する産業環境の監視に関し、特に、監視される作業空間内の危険条件を検出するためのシステムおよび方法に関する。システムおよび方法は、作業空間を中心として分散されるセンサを使用して、安全目的のために作業空間を監視する。センサは、相互に対して位置合わせされ、本位置合わせは、経時的に監視される。遮蔽される空間および占有される空間が、識別され、本マッピングは、頻繁に更新される。

Description

(関連出願の相互参照)
本願は、2017年2月7日に出願された米国仮特許出願第62/455,828号および第62/455,834号に対する優先権およびこれらの利益を主張するものである。
本発明の分野は、概して、人間および機械類が相互作用する、または近接する産業環境の監視に関し、特に、監視される作業空間内の危険条件を検出するためのシステムおよび方法に関する。
産業用機械類は、多くの場合、人間にとって危険である。いくつかの機械類は、これが完全にシャットダウンされない限り危険である一方、他の機械類は、種々の動作状態を有し得、そのうちのいくつかは、危険であり、そのうちのいくつかは、危険ではない。ある場合には、危険度は、機械類に対する人間の場所に依存し得る。その結果、多くの「保護」アプローチが、機械類が人間への危害を引き起こすことを防止するために開発された。1つの非常に単純かつ一般的なタイプの保護は、単純に、ケージの扉の開放が電気回路に機械類をシャットダウンさせるように構成される、機械類を囲繞するケージである。これは、人間が、機械類が動作している間にこれに決して接近し得ないことを確実にする。当然ながら、これは、人間と機械との間の全ての相互作用を妨害し、作業空間の使用を極度に制約する。
より洗練されたタイプの保護は、光学センサを伴う。実施例は、任意の物体が1つ以上の光エミッタおよび検出器によって監視される領域の中に侵入したかどうかを決定するライトカーテン、およびセンサから発生する一連の光線に沿って障害物までの最小距離を検出するために能動的光学感知を使用し、したがって、事前構成された2次元(2D)区域への近接または侵入のいずれかを検出するように構成され得る2D LIDARセンサを含む。より最近では、システムは、例えば、3D飛行時間カメラ、3D LIDAR、およびステレオビジョンカメラを使用して、3D深度情報を採用し始めている。これらのセンサは、3Dにおいて産業用機械類を囲繞する面積の中への侵入を検出および位置特定する能力を提供し、これは、いくつかの利点を有する。例えば、産業用ロボットを保護する2D LIDARシステムは、侵入が人物の脚を表す場合、その人物の腕がはるかに近接し得、平面LIDARによって検出不可能であろうため、侵入がロボットから腕の長さの距離を明確に超えて検出されると、ロボットを停止する必要性があるであろう。しかしながら、3Dシステムは、人物が実際に自身の腕をロボットに向かって差し伸ばすまで、ロボットが動作し続けることを可能にすることができる。これは、機械の行動と人間の行動との間のはるかに緊密なインターロックを可能にし、これは、多くの用途を促進し、常時貴重である工場床上の空間を節約する。
人間の安全性が問題となるため、保護機器は、典型的には、厳重な業界基準を遵守しなければならない。これらの基準は、ハードウェアコンポーネントに関する故障率およびハードウェアおよびソフトウェアコンポーネントの両方に関する厳密な開発実践を規定し得る。基準準拠のシステムは、危険な条件が非常に高い確率で検出され得、システム自体の故障が検出され、システムが安全状態で制御されている機器に遷移することによって検出された故障に応答することを確実にしなければならない。保護機器の設計は、人間および機械がともに協調的に作業するタスクと関連して、特に困難になる。機械は、人間よりも強く、より速く、より精密であり、より繰り返し可能であり得るが、それらは、人間の柔軟性、器用さ、および判断力が欠如する。協調的用途の実施例は、自動車内のダッシュボードの配設であり、ダッシュボードは、重く、人間が操作することが困難であるが、これを取り付けることは、正しく取り扱う人間の能力を要求する種々のコネクタおよび締結具を要求する。単純に人間および機械を離しておくことが、したがって、人間が人間を傷つけ得る機械と能動的に協働するときに危険な条件を検出する、はるかに単純な保護タスクを表す。従来の保護システムは、そのような環境を確実に監視するために動作時に十分に粒度が細かくない。
3Dセンサシステムは、保護システムにおける改良された粒度の可能性を提供する。しかし、3Dデータシステムは、2Dセンサシステムと比較して、構成することが困難であり得る。第1に、具体的区域が、機械類によってもたらされる具体的危険、作業空間内の人間の可能性として考えられる行動、作業空間レイアウト、および各個々のセンサの場所および視野を考慮して、使用事例毎に設計および構成されなければならない。特に、床面積およびシステム処理能力を最適化しながら安全性を保全しようとするとき、1つの物体がセンサに対して遮蔽を提示し得る場合、および光レベルが異なるセンサに対して変動する場合、立入禁止区域の最適な形状を計算することは、困難であり得る。構成の誤りは、深刻な安全上の危険をもたらし、設計および試験における有意なオーバーヘッドを要求し得る。また、任意の変更が作業空間に行われる場合、本作業は全て、完全にやり直されなければならない。3Dシステムによって提示される余剰自由度は、可能性として考えられる構成および危険のはるかに多いセットをもたらす。故に、高い粒度で作業空間を監視するための改良されたコンピュータ的に従順な技法の必要性が存在する。
作業空間が精密にマッピングおよび監視され得る場合であっても、ロボットおよび人間が急速かつ不均一な方法で移動する、すなわち、位置および構成の両方を変化させ得る動的環境において安全性を維持することは、困難である。典型的な産業用ロボットは、定常であるが、それにもかかわらず、可能性として考えられる移動軌跡の広い「エンベロープ」にわたって傷害を引き起こし得る強力なアームを有する。一般に、ロボットアームは、精密に制御され得る回転ジョイントによって接続されるいくつかの機械的リンクから成り、コントローラが、具体的用途のために産業エンジニアによって決定される軌跡を達成するようにジョイントの全てを協調させる。
産業用ロボット用途は、ロボットの運動の全範囲の一部のみを使用し得る。しかしながら、ロボットの軌跡を制御するソフトウェアは、典型的には、ロボットの安全システムの一部として見なされていない、または開発されていない。したがって、ロボットは、その軌跡エンベロープのわずかな部分のみを使用し得るが、保護システム(再び、ケージ等)は、ロボットの運動の全体的範囲を包含するように構成されている。他のタイプの保護のように、そのようなデバイスは、単純な機械的解決策から電子センサおよびソフトウェア制御に発展した。近年では、ロボット製造業者はまた、いわゆる「ソフト」軸および速度限定システム、すなわち、ロボットをその運動の範囲のある部分およびある速度に制約する安全適合ソフトウェアを導入している。本制約は、次いで、安全適合ソフトウェアにおいて施行され、任意の時点でロボットがソフト軸および速度限定設定から違反していることが見出される場合、緊急停止が、アサートされる。本アプローチは、ロボットの周囲に有効安全面積を増加させ、協調的用途を可能にする。
これらのシステムは、それにもかかわらず、少なくとも2つの有意な欠点を呈する。第1に、具体的区域が、典型的には、ロボットの軌跡、作業空間内の人間の可能性として考えられる行動、作業空間レイアウト、および各個々のセンサの場所および視野を考慮して、産業エンジニアによって使用事例毎にプログラムされなければならない。区域自体の精度が特性評価および監視され得るかにかかわらず、これらの区域の最適な形状を計算することは、困難であり得る。構成の誤りは、深刻な安全上の危険をもたらし得、安全区域は、任意の変更がロボットプログラムまたは作業空間に行われる場合、再構成されなければならない。第2に、これらの区域および速度限定は、離散的であり、通常、ロボットと検出された障害物との間の精密な距離のために必要な量だけロボットを比例的に減速させるいかなる方法も存在しないため、それらは、したがって、非常に消極的でなければならない。なおも別の複雑性は、ロボットがピックアップしたワークピースを含む、または別様にロボットと関連付けられる状態になった予測される可能性として考えられるロボット軌跡を計画する必要性である。故に、新しいアプローチが、作業空間占有およびロボットタスクが進展する際に動的方式で安全区域を構成および再構成するために必要とされる。
一側面では、本発明の実施形態は、作業空間を中心として分散されるセンサを使用して、安全目的のために作業空間を監視するためのシステムおよび方法を提供する。作業空間は、人間にとって危険であり得る1台以上の数の機器、例えば、部品供給装置、レール、クランプ、または他の機械等の産業用ロボットおよび補助機器を含有し得る。センサは、相互に対して位置合わせされ、本位置合わせは、経時的に監視される。遮蔽される空間および占有される空間が、識別され、本マッピングは、頻繁に更新される。
監視される空間内の領域は、占有、非占有、または未知とマーキングされてもよく、空の空間のみが、任意の付加的安全基準、例えば、1台の制御された機械類からの最小距離が満たされるときのみ、最終的に安全と見なされることができる。一般に、各センサからの未加工データは、センサに対応するカバレッジの区域全体を通して、3Dマッピングされた空間の物体または境界が決定的に検出されたかどうかを決定するように分析される。
人物が3D空間内で移動する際、人物は、典型的には、いくつかのセンサから一部の面積を遮蔽し、一時的に未知である空間の面積をもたらすであろう。加えて、産業用ロボットアーム等の可動機械類もまた、一部の面積を一時的に遮蔽し得る。人物または機械類が異なる場所に移動すると、1つ以上のセンサは、未知の空間を再度観察することが可能であり、これを確認された空の状態、したがって、ロボットまたは機械が本空間内で動作するために安全である状態に戻すであろう。故に、いくつかの実施形態では、空間はまた、「潜在的に占有」と分類されてもよい。未知の空間は、未知の空間が占有され得る条件が生じると、潜在的に占有されると見なされる。これは、未知の空間が作業空間への進入点に隣接するとき、または未知の空間が占有される、または潜在的に占有される空間に隣接する場合に起こり得る。潜在的に占有される空間は、作業空間を通して移動する人間を表す速度で未知の空間に「伝染」する。潜在的に占有される空間は、これが空であると観察されるまで、潜在的に占有されたままである。安全目的のために、潜在的に占有される空間は、占有される空間と同一と見なされる。
アクティブ光学信号に依拠するもの等のいくつかのセンサモダリティに関して、物体または境界を決定的に検出するセンサの能力は、距離に伴って急速に低下し、すなわち、ある距離を超えると、センサは、関連付けられる照明レベルが過剰に類似するため、物体と空の空間との間を区別することが可能ではなくなり得る。そのような場所における点または領域は、関連するセンサに対して「未知」とマーキングされ、そのようにマーキングされた領域は、そのセンサによって空として確認されることができない。
別の側面では、本発明の実施形態は、安全行動が、全ての感知された関連する物体に基づいて、かつ作業空間内の機械類(例えば、ロボット)の現在の状態に基づいてリアルタイムで計算される、作業空間内の安全区域を決定するためのシステムおよび方法を提供する。これらの実施形態は、必要ではないが、下記の詳細な説明に説明される作業空間監視アプローチを利用してもよい。本発明の実施形態は、例えば、人間移動のモデルおよび他の形態の制御を使用して、ロボット幾何学形状の動的モデル化を実施し、ロボットおよび/または人間の将来の軌跡を予想する。ロボットのモデル化および予想は、いくつかの実施形態では、安全性保証を含む場合とそうではない場合があるロボットコントローラによって提供されるデータを利用してもよい。しかしながら、本発明の実施形態は、本データの独立した検証および安全適合停止機能の使用によって、いずれの場合も安全性保証を提供することができる。
本発明の実施形態は、空間内の機械類の運動および人間の可能性として考えられる運動の両方をリアルタイムで予想し、機械類が動作し、人間が作業空間内で移動する際に予想を連続的に更新してもよい。本システムが追跡および予想する際、これは、未知であり、場合によっては人間によって占有され得る、遮蔽されたボリュームまたは未知のボリュームに遭遇し得る。本システムは、そのようなボリュームを、それらが現在人間によって占有されているかのように見なす。本発明者のアプローチは、具体的区域をプログラムする必要性を克服し、動作するために離散速度限定を要求せず、作業空間内のより広い範囲の人間行動にわたってロボット運動を維持し、それによって、ロボットが動作を継続する際であっても、人間が立入禁止と指定される作業空間面積を縮小する。
なおも別の側面では、本発明の実施形態は、ワークピースの構成を決定し、これがロボット等の監視される部分の機械類によって実際に取り扱われているかどうかを決定する。これらの実施形態によって解決される問題は、その殆どがワークピースではない多くの物体が機械類に近接し得るため、特に、実世界の工場環境において困難である。故に、そのような実施形態は、機械類と関連付けられた状態になり得るワークピースとそうではないであろう作業空間内の他の物体(および人間)との間を区別し、例えば、ロボットがワークピースを運搬しているときを検出するために、意味論的な理解を利用してもよい。本事例では、ワークピースは、可能性として考えられるロボット軌跡のエンベロープを確立する目的のために、ロボットの一部と見なされる。エンベロープは、ロボットおよびワークピースが作業セル内でともに移動する際に追跡され、それに対応する占有される空間は、空ではなく、安全ではないと動的にマーキングされる。ロボット−ワークピースの組み合わせによって遮蔽される3D空間は、空の独立した検証が付加的センサから取得され得ない限り、空ではないとマーキングされる。
種々の実施形態では、本システムは、作業空間を中心として分散される複数のセンサを含む。センサはそれぞれ、センサ視野内の作業空間の一部の表現を記録するためのピクセルのグリッドを含む、またはそれと関連付けられ、作業空間部分は、集合的に作業空間全体をカバーする。コンピュータメモリが、(i)センサからの一連の画像と、(ii)ロボットおよびその許可された移動のモデルと、(iii)人間に近接するロボットの速度制限およびロボットと人間との間の最小分離距離を規定する安全性プロトコルとを記憶する。プロセッサが、記憶された画像から、作業空間の空間表現(例えば、ボクセルに対応し得るボリューム、すなわち、3Dピクセルとして)を生成するように構成される。プロセッサは、作業空間内のロボットによって占有される空間の表現を、ボリューム内のロボット領域として経時的に識別および監視する。プロセッサは、記憶されたモデルに従って、ロボットの許可された移動に及ぶエンベロープ領域をロボット領域の周囲に生成する。
プロセッサはまた、ワークピースを表すボリュームを識別および監視する。本認識は、構成プロセスの間に決定されたワークピースの物理的形状についての情報によって支援されてもよく、これは、教示フェーズの間に本システムによって学習されるCADモデル、3D走査、または3Dモデルから成り得る。これらのワークピースボリュームは、次いで、人間によって決定的に占有されていないと特性評価され、したがって、安全性プロトコルに従ってロボットが接近することが許容可能である。加えて、プロセッサは、作業空間内のロボットとワークピースとの間の相互作用を認識し、認識された相互作用に応答して、ワークピースを含むようにロボット領域を更新し、記憶されたモデルおよび更新されたロボット領域に従ってエンベロープ領域を更新する。プロセッサは、安全性プロトコルに従って、更新される際にロボット領域の周囲に安全区域を生成する。
一般に、本明細書で使用されるように、用語「実質的に」は、±10%、いくつかの実施形態では、±5%を意味する。加えて、本明細書全体を通した「一実施例」、「ある実施例」、「一実施形態」、または「ある実施形態」の言及は、実施例と関連して説明される特定の特徴、構造、または特性が、本技術の少なくとも1つの実施例に含まれることを意味する。したがって、本明細書全体を通した種々の箇所における語句「一実施例では」、「ある実施例では」、「一実施形態」、または「ある実施形態」の出現は、必ずしも全てが同一の実施例を指すわけではない。さらに、特定の特徴、構造、ルーチン、ステップ、または特性は、本技術の1つ以上の実施例において任意の好適な様式で組み合わせられてもよい。本明細書に提供される見出しは、便宜上のためだけのものであり、請求される技術の範囲または意味を限定または解釈することを意図していない。
図面では、同様の参照文字が、概して、異なる図全体を通して同一の部分を指す。また、図面は、必ずしも縮尺通りではなく、代わりに、概して、本発明の原理を図示することに重点が置かれている。以下の説明では、本発明の種々の実施形態が、以下の図面を参照して説明される。
図1は、本発明のある実施形態による、監視される作業空間の斜視図である。
図2は、本発明のある実施形態による、監視される作業空間内の領域の分類を図式的に図示する。
図3は、本発明のある実施形態による、制御システムを図式的に図示する。
図4は、本発明のある実施形態による、物体監視システムを図式的に図示する。
図5は、1台の産業用機械類に近接する漸進的安全エンベロープの定義を図式的に図示する。
以下の議論では、作業空間を監視し、安全目的のためにその中の領域を分類し、安全状態を動的に識別するための統合システムを説明する。ある場合には、後者の機能は、作業空間内のロボットの意味論分析およびこれが相互作用するワークピースの識別を伴う。しかしながら、これらの種々の要素は、別個に、または所望の組み合わせでともに実装され得、本明細書に議論される発明的側面は、説明される要素の全てを要求するわけではなく、これは、単に、提示を容易にするために、およびそれらの相互運用性を例証するためにともに記載されることを理解されたい。説明されるようなシステムは、単に、一実施形態を表す。
1.作業空間監視
最初に、102、102、102に代表的に示される複数のセンサによって監視される、代表的3D作業空間100を図示する、図1を参照する。センサ102は、理想的には、高フレームレート(例えば、30Hz〜100Hz)を伴うカメラ、例えば、3D飛行時間カメラ、ステレオビジョンカメラ、または3D LIDARセンサまたはレーダベースのセンサ等の従来の光学センサであってもよい。センサ102の動作モードは、作業空間100の3D表現がセンサ102によって取得される画像または他のデータから取得可能である限り、重要ではない。図に示されるように、センサ102は、作業空間100を集合的にカバーし、監視することができ、これは、従来のロボットコントローラ108によって制御されるロボット106を含む。ロボットは、種々のワークピースWと相互作用し、作業空間100内の人物Pは、ワークピースおよびロボット108と相互作用し得る。作業空間100はまた、補助機器110の種々のアイテムを含有し得、これは、センサからその種々の部分を遮蔽することによって作業空間の分析を複雑にし得る。実際に、センサの任意の現実的な配置は、頻繁に、アクティブな作業空間の少なくとも一部を「見る」ことができないであろう。これは、図1の簡略化された配列に図示され、人物Pの存在に起因して、ロボットコントローラ108の少なくとも一部は、全てのセンサから遮蔽され得る。人物が横断し、定常物体でさえも時々移動され得る環境では、観察不可能な領域は、偏移および変動するであろう。
図2に示されるように、本発明の実施形態は、作業空間領域を占有、非占有(または空)、または未知と分類する。図示を容易にするために、図2は、2次元における作業空間200内の2つのセンサ202、202およびそれらのカバレッジの区域205、205を示し、同様に、3D物体の2D占有面積210のみが、示される。物体境界とセンサ200との間のカバレッジ区域205の一部は、各センサが本介在空間内にいかなる障害物も肯定的に検出しないため、非占有とマーキングされる。物体境界における空間は、占有とマーキングされる。物体境界を越えたカバレッジ区域205では、全ての空間が、未知とマーキングされ、対応するセンサは、本領域内の占有を感知するように構成されるが、介在する物体210のため、そうすることができない。
図1を再び参照すると、各センサ102からのデータが、制御システム112によって受信される。典型的には立体の円錐である各センサによってカバーされる空間のボリュームは、任意の好適な様式で表されてもよく、例えば、空間は、小さい(例えば、5cm)立方体または「ボクセル」の3Dグリッドまたは他の好適な形態のボリューム表現に分割されてもよい。例えば、作業空間100は、2Dまたは3D光線追跡を使用して表されてもよく、センサ102から発生する2Dまたは3D光線の交差が、作業空間100のボリューム座標として使用される。本光線追跡は、動的に、または作業空間100内の物体が制御システム112によって先に識別および捕捉される、事前算出されたボリュームの使用を介して実施されることができる。提示の便宜のために、続く議論は、ボクセル表現を仮定し、制御システム112は、ボクセルレベルにおいて作業空間100の内部表現を維持し、ボクセルは、占有、非占有、または未知とマーキングされる。
図3は、汎用コンピュータ上で実装され得る、制御システム112の代表的実施形態をより詳細に図示する。制御システム112は、中央処理ユニット(CPU)305と、システムメモリ310と、1つ以上の不揮発性大容量記憶デバイス(1つ以上のハードディスクおよび/または光学記憶ユニット等)312とを含む。システム112はさらに、それにわたってCPU305、メモリ310、および記憶デバイス312が、相互に通信する、および、キーボードまたはマウス等の伝統的入力デバイスを含み得るディスプレイ320および周辺機器322等の内部または外部入力/出力(I/O)デバイスと通信する、双方向性システムバス315を含む。制御システム112はまた、無線送受信機325と、1つ以上のI/Oポート327とを含む。送受信機325およびI/Oポート327は、ネットワークインターフェースを提供してもよい。用語「ネットワーク」は、本明細書では、コンピュータまたは遠隔通信デバイス(有線または無線の電話、タブレット等)の有線または無線のネットワークを内包するように広く使用される。例えば、コンピュータネットワークは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)であってもよい。LANネットワーキング環境内で使用されるとき、コンピュータは、ネットワークインターフェースまたはアダプタを通してLANに接続されてもよく、例えば、監督者が、ネットワークを無線で結合するタブレットを使用して制御システム112との通信を確立してもよい。WANネットワーキング環境内で使用されるとき、コンピュータは、典型的には、モデムまたは他の通信機構を含む。モデムは、内部または外部であってもよく、ユーザ入力インターフェースまたは他の適切な機構を介してシステムバスに接続されてもよい。ネットワーク化されたコンピュータは、インターネット、イントラネット、エクストラネット、イーサネット(登録商標)、または通信を提供する任意の他のシステムを経由して接続されてもよい。いくつかの好適な通信プロトコルは、例えば、TCP/IP、UDP、またはOSIを含む。無線通信に関して、通信プロトコルは、IEEE 802.11x(「Wi−Fi」)、Bluetooth(登録商標)、ZigBee、IrDa、近距離無線通信(NFC)、または他の好適なプロトコルを含んでもよい。さらに、本システムのコンポーネントは、有線または無線の経路の組み合わせを通して通信してもよく、通信は、コンピュータおよび遠隔通信ネットワークの両方を伴ってもよい。
CPU305は、典型的には、マイクロプロセッサであるが、種々の実施形態では、マイクロコントローラ、周辺集積回路要素、CSIC(特定顧客向け集積回路)、ASIC(特定用途向け集積回路)、論理回路、デジタル信号プロセッサ、FPGA(フィールドプログラマブルゲートアレイ)、PLD(プログラマブル論理デバイス)、PLA(プログラマブル論理アレイ)、RFIDプロセッサ、グラフィックス処理ユニット(GPU)、スマートチップ等のプログラマブル論理デバイス、または本発明のプロセスのステップを実装することが可能である任意の他のデバイスまたはデバイスの配列であってもよい。
システムメモリ310は、一連のフレームバッファ335、すなわち、デジタル形態において(例えば、ピクセルまたはボクセルとして、または深度マップとして)、センサ102によって取得された画像を記憶するパーティションを含有し、データは、実際には、上記に議論されるようなI/Oポート327および/または送受信機325を介して着信し得る。システムメモリ310は、CPU305の動作および他のハードウェアコンポーネントとのその相互作用を制御する、モジュールの群として概念的に例証される命令を含有する。オペレーティングシステム340(例えば、Windows(登録商標)またはLinux(登録商標))が、メモリ割当、ファイル管理、および大容量記憶デバイス312の動作等の低レベル基本システム機能の実行を指図する。より高いレベルでは、下記により詳細に説明されるように、分析モジュール342が、フレームバッファ335内に画像を登録し、それらを分析し、監視される作業空間100の領域を分類する。分類の結果は、空間マップ345内に記憶されてもよく、これは、本明細書に説明されるように、空間マップ内に標識化された各ボクセル(または他の表現の単位)を伴う作業空間100のボリューム表現を含有する。代替として、空間マップ345は、単純に、ボクセルの3Dアレイであってもよく、ボクセル標識が、別個のデータベース内(メモリ310内または大容量記憶装置312内)に記憶される。
制御システム112はまた、350に集合的に示される従来の制御ルーチンを使用して、作業空間100内の動作または機械類を制御してもよい。下記に解説されるように、作業空間の構成、結果として、そのボクセル表現と関連付けられる分類は、人物および/または機械が動き回る際に経時的に明確に変化し得、制御ルーチン350は、高レベルの安全性を達成するために、機械類を動作させる際にこれらの変化に応答し得る。システムメモリ310内のモジュールは全て、限定ではないが、C、C++、C#、Ada、Basic、Cobra、Fortran、Java(登録商標)、Lisp、Perl、Python、Ruby等の高レベル言語または低レベルアセンブリ言語を含む、任意の好適なプログラミング言語でプログラムされてもよい。
1.1 センサ位置合わせ
典型的なマルチセンサシステムでは、全ての他のセンサに対する各センサ102の精密な場所が、設定の間に確立される。センサ位置合わせは、通常、自動的に実施され、容易な設定および再構成を可能にするために可能な限り単純であるべきである。簡易化のために、各フレームバッファ335が、特定のセンサ102からの画像(周期的にリフレッシュされ得る)を記憶すると仮定して、分析モジュール342は、各センサからの画像の全てまたは一部をフレームバッファ335内の他のセンサからの画像と比較し、従来のコンピュータビジョン技法を使用し、それらの画像内の対応を識別することによって、センサ102を位置合わせしてもよい。初期位置合わせ近似を要求しない好適な大域的位置合わせアルゴリズムは、概して、2つのカテゴリ、すなわち、特徴ベースの方法および強度ベースの方法に分類される。特徴ベースの方法は、エッジ等の画像特徴の間の対応を識別する一方、強度ベースの方法は、強度パターンの間の相関メトリックを使用する。いったんおおよその位置合わせが識別されると、反復最近接点(ICP)アルゴリズムまたはその好適な変形が、位置合わせを微調整するために使用されてもよい。
明確に異なるセンサ画像を提供するために、種々のセンサ102の視野の間に十分な重複が存在し、作業空間100内の十分な詳細が存在する場合、静的作業空間の画像を比較することが、十分であり得る。これが当てはまらない場合、3Dにおいて特色のあるシグネチャを有する「位置合わせ物体」が、これが全てのセンサによって見られ得る作業空間100内の場所に設置されることができる。代替として、位置合わせは、ある時間周期にわたって作業空間内で立っている、または作業空間全体を通して歩行している1人以上の人物の画像をセンサ102に記録させ、正確な位置合わせが達成されるまで十分な数の部分的に合致する画像を組み合わせることによって達成されることができる。
作業空間100内の機械類への位置合わせは、ある場合には、機械類がその他に対して位置合わせされた少なくとも1つのセンサに可視である限り、特に、機械類が特色のある3D形状(例えば、ロボットアーム)を有する場合、いかなる付加的器具使用も伴わずに達成されることができる。代替として、位置合わせ物体が、使用されることができる、またはディスプレイ320に示され、センサによって観察される場面を表示するユーザインターフェースが、ユーザが、画像のある部分を制御下の機械類の重要な要素として指定することを可能にしてもよい。いくつかの実施形態では、インターフェースは、構成を支援するために全てのセンサのカバレッジを示す双方向性3Dディスプレイを提供する。本システムが、機械類の危険な部分または複数の部分の場所および停止時間および/または距離等、(例えば、制御ルーチン350の目的のために)制御されている機械類についてのある程度の高レベル情報を用いて構成される場合、分析モジュール342は、センサが十分なカバレッジを提供しているかどうかに関する知的フィードバックを提供し、付加的センサの設置を示唆するように構成されてもよい。
例えば、分析モジュール342は、歩行速度の消極的推定を前提として、人物がこれ(またはこれの周囲の安全区域)に到達する時間までに機械類を停止するために、これが人物を検出しなければならない観察される機械類からの最小距離を決定するようにプログラムされることができる。(代替として、要求される検出距離は、ディスプレイ320を介して本システムに直接入力されることができる。)随意に、分析モジュール342は、次いで、空間が全ての接近を検出するために十分にカバーされているかどうかを決定するために、全てのセンサの視野を分析することができる。センサカバレッジが不十分である場合、分析モジュール342は、不足を改善するであろう、既存のセンサのための新しい場所または付加的センサのための場所を提案することができる。そうでなければ、制御システムは、デフォルトの安全状態になり、制御ルーチン350は、分析モジュール342が全ての接近が効果的に監視され得ることを検証しない限り、機械類が動作することを可能にしないであろう。機械学習および遺伝的または進化的アルゴリズムの使用が、セル内の最適なセンサ設置を決定するために使用されることができる。最適化するためのパラメータは、限定ではないが、動作の間のロボットの周囲の遮蔽の最小化およびロボットおよびワークピースの観察可能性を含む。
所望される場合、本静的分析は、「背景」減算を含んでもよい。初期始動周期の間、いかなる物体も作業空間100の中に侵入していないと安全に仮定され得るとき、分析モジュール342は、静的要素によって占有される全てのボクセルを識別する。それらの要素は、次いで、将来の測定値から減算され、潜在的な侵入物体と見なされることはできない。それにもかかわらず、連続的監視が、観察される背景画像が始動周期の間に記憶された空間マップ345と一貫することを確実にするために実施される。背景はまた、定常物体が除去される、または作業空間に追加される場合、更新されることができる。
センサ102が安全性を提供するために十分に観察することができないが、ケージ等の他の方法によって保護される一部の面積が存在し得る。この場合、ユーザインターフェースは、ユーザが、これらの面積を安全として指定することを可能にし、センサベースの安全性分析を無効にすることができる。安全適合ソフト軸および速度限定もまた、ロボットのエンベロープを限定し、本システムの性能を改良するために使用されることができる。
いったん位置合わせが達成されると、センサ102は、作業空間100が監視される間に同一の場所および配向に留まるべきである。1つ以上のセンサ102が偶発的に移動される場合、結果として生じる制御出力は、無効であり、安全上の危険をもたらし得る。分析モジュール342は、位置合わせの継続した正確度を監視するために、初期位置合わせのために使用されるアルゴリズムを拡張してもよい。例えば、初期位置合わせの間、分析モジュール342は、位置合わせプロセスの間に捕捉される作業セルの静的要素のモデルへの観察されたデータの適合の正確度を捕捉するメトリックを算出してもよい。本システムが動作する際、同一のメトリックが、再計算されることができる。任意の時点でそのメトリックが規定された閾値を超える場合、位置合わせは、無効と見なされ、エラー条件が、トリガされ、応答して、任意の機械類が動作している場合、制御ルーチン350は、これを中止する、または機械類を安全状態に遷移させてもよい。
1.2 占有される面積および潜在的に占有される面積の識別
いったんセンサが位置合わせされると、制御システム112は、作業空間100の中への全ての侵入を識別することが可能であるように、高い固定頻度で(例えば、分析サイクル毎に)空間マップ345を周期的に更新する。空間マップ345は、センサ102のうちのいくつかまたは全てからのデータの融合を反映する。しかし、3Dデータの性質を前提として、センサ102の場所および作業空間100の構成に応じて、遮蔽する物体よりも危険な機械類に近接する物体(人物または人物の一部、例えば、腕を含み得る)を含む、1つの場所における物体が他の場所におけるセンサの物体のビューを遮蔽するであろうことが、可能性として考えられる。したがって、確実に安全なシステムを提供するために、本システムは、占有される空間だけでなく、遮蔽される空間も監視する。
一実施形態では、空間マップ345は、ボクセルグリッドである。一般に、各ボクセルは、占有、非占有、または未知とマーキングされてもよく、空の空間のみが、任意の付加的安全基準、例えば、1台の制御された機械類からの最小距離が満たされるときのみ、最終的に安全と見なされることができる。各センサからの未加工データが、ボクセル毎に、3Dマッピングされた空間の物体または境界がそのボクセルに対応するボリューム内で決定的に検出されたかどうかを決定するように分析される。安全性を強化するために、分析モジュール342は、1つを上回るセンサ102によって空であると観察されるボクセルのみを空として指定してもよい。再び、空として確認されることができない全ての空間は、未知とマーキングされる。したがって、センサ102と光線に沿った検出された物体またはマッピングされた3D空間境界との間の空間のみが、空とマーキングされてもよい。
センサが所与のボクセル内で任意のものを検出する場合、そのセンサの焦点から始まり、占有されるボクセルを通過する光線上に位置し、焦点と占有されるボクセルとの間に存在する全てのボクセルは、非占有と分類される一方、その光線上の占有されるボクセルを越えて位置する全てのボクセルは、そのセンサに関して遮蔽されると分類され、全てのそのような遮蔽されるボクセルは、「未知」と見なされる。全てのセンサからの情報は、全てのセンサから遮蔽される面積を決定するために組み合わせられてもよく、これらの面積は、未知と見なされ、したがって、危険である。分析モジュール342は、最終的に、少なくとも一度(またはいくつかの実施形態では、少なくとも二度)「非占有」と予備的にマーキングされたボクセルまたは作業空間ボリュームのみを「非占有」とマーキングしてもよい。作業空間内のボクセルまたは離散ボリュームと関連付けられるマーキングに基づいて、分析モジュール342は、空間マップ345内に1つ以上の安全ボリューム区域をマッピングしてもよい。これらの安全区域は、機械類の安全区域の外側であり、非占有とマーキングされたボクセルまたは作業空間ボリュームのみを含む。
LIDARおよび飛行時間カメラ等の反射に依存する能動的光学センサの一般的故障モードは、それらが不十分に反射性である表面からいかなる信号も返さないことである、および/またはセンサと表面との間の入射角が過剰に浅いときである。これは、本信号がいかなる障害物にも遭遇しない場合に返される結果と区別不可能であり得るため、危険な故障につながり得、言い換えると、センサは、障害物の可能性として考えられる存在にもかかわらず、空のボクセルを報告するであろう。これは、例えば、2D LIDARセンサに関するISO基準が、検出されなければならない物体の最小反射率に関する仕様を有する理由であるが、しかしながら、これらの反射率基準は、ToF等のいくつかの3Dセンサモダリティにとって満たすことが困難であり得る。本故障モードを軽減するために、分析モジュール342は、一部の障害物が同一の光線に沿ったさらなる範囲で決定的に検出される場合のみ、空間を空とマーキングする。いかなる障害物も存在しない場合、光線の大部分が床に遭遇するであろうようにセンサをわずかに下向きに向けることによって、作業空間100の大部分を確証的に分析することが、可能である。しかし、所与のボクセル内の感知された光レベルが、空または境界の存在を決定的に確立するために不十分である場合、ボクセルは、未知とマーキングされる。信号および閾値は、使用されているセンサのタイプに依存し得る。強度ベースの3Dセンサ(例えば、飛行時間カメラ)の場合では、閾値は、信号強度であり得、これは、低反射率の作業空間内の物体によって減衰され得る。ステレオビジョンシステムの場合では、閾値は、視野内の個々の物体を分解する能力であり得る。他の信号および閾値の組み合わせも、使用されるセンサのタイプに応じて利用されることができる。
安全システムが、全ての未知の空間をこれが占有されているように見なすことによって作成されることができる。しかしながら、ある場合には、これは、過度に消極的であり、不良な性能をもたらし得る。したがって、これが潜在的に占有され得るかどうかに従って未知の空間をさらに分類することが、望ましい。人物が3D空間内で移動する際、人物は、典型的には、いくつかのセンサから一部の面積を遮蔽し、結果として一時的に未知である空間の面積を生じるであろう(図1参照)。加えて、産業用ロボットアーム等の可動機械類もまた、一部の面積を一時的に遮蔽し得る。人物または機械類が異なる場所に移動すると、1つ以上のセンサは、未知の空間を再度観察することが可能であり、これをロボットまたは機械が動作するために安全である確認された空の状態に戻すであろう。故に、いくつかの実施形態では、空間はまた、「潜在的に占有」と分類されてもよい。未知の空間は、未知の空間が占有され得る条件が生じると、潜在的に占有されていると見なされる。これは、未知の空間が作業空間への進入点に隣接するとき、または未知の空間が占有される、または潜在的に占有される空間に隣接する場合に起こり得る。潜在的に占有される空間は、作業空間を通して移動する人間を表す速度で未知の空間に「伝染」する。潜在的に占有される空間は、これが空であると観察されるまで、潜在的に占有されたままである。安全目的のために、潜在的に占有される空間は、占有される空間と同一と見なされる。各ボクセルの状態を決定し、本システムが、複数のサンプルからのデータを組み合わせ、結果においてより高いレベルの信頼性を提供することを可能にするために、ベイジアンフィルタリングに基づくもの等の確率的技法を使用することが、望ましくあり得る。予測される速度(例えば、腕が人物が歩行し得るよりも速く上げられ得る)を含む、人間移動の好適なモデルが、容易に利用可能である。
2.物体の分類
多くの用途に関して、上記に説明されるような作業空間内の領域の分類は、例えば、制御システム112が、通常動作の間にいかなる物体も全く存在するべきではない空間を監視している場合に十分であり得る。しかしながら、多くの場合では、1つ以上の機械および機械が作用しているワークピース等、通常動作の間に少なくともいくつかの物体が存在する面積を監視することが、望ましい。これらの場合では、分析モジュール342は、予期せぬ、または人間であり得る侵入する物体を識別するように構成されてもよい。そのような分類に対する1つの好適なアプローチは、個々の占有されるボクセルをより高いレベルで分析され得る物体にクラスタ化することである。
これを達成するために、分析モジュール342は、ユークリッドクラスタリング、K平均クラスタリング、およびギブズサンプリングクラスタリング等のいくつかの従来の周知のクラスタリング技法のうちのいずれかを実装してもよい。これらまたは類似するアルゴリズムのうちのいずれかが、3D点群データから占有されるボクセルのクラスタを識別するために使用されることができる。点群データに最良に適合するメッシュを決定し、次いで、最適なクラスタリングを決定するためにメッシュ形状を使用するメッシュ技法もまた、使用されてもよい。いったん識別されると、これらのクラスタは、種々の方法で有用であり得る。
クラスタリングが使用され得る1つの単純な方法は、小さすぎて、場合によっては人物を含有することができない、占有される、または潜在的に占有される、ボクセルの小群を排除することである。そのような小クラスタは、上記に説明されるように、占有および遮蔽分析から生じ得、そうでなければ、制御システム112に、危険を誤って識別させ得る。クラスタは、各画像フレーム内の識別されたクラスタを前のフレーム内の近傍クラスタと単純に関連付けることによって、またはより洗練された画像処理技法を使用することによって経時的に追跡されることができる。クラスタの形状、サイズ、または他の特徴は、フレーム毎に識別および追跡されることができる。そのような特徴は、フレーム毎にクラスタ間の関連付けを確認するために、またはクラスタの運動を識別するために使用されることができる。本情報は、下記に説明される分類技法のうちのいくつかを強化する、または可能にするために使用されることができる。加えて、点のクラスタの追跡は、不正確な、したがって、潜在的に危険な状況を識別するために採用されることができる。例えば、前のフレーム内に存在しておらず、視野の既知の境界に近接していないクラスタは、エラー条件を示し得る。
ある場合には、あるサイズを下回るクラスタをフィルタ処理して除去し、エラー状態を示すクラスタ遷移を識別することが、十分であり得る。しかしながら、他の場合では、物体を4つのカテゴリのうちの1つ以上のもの、すなわち、(1)システム112によって制御されている機械類の要素、(2)機械類が作用しているワークピースまたは複数のワークピース、および(3)予測不可能な方法で移動している場合があり、機械類によって害を及ぼされ得る、人物を含む他の異物にさらに分類することが、必要であり得る。人物対他の未知の異物を確証的に分類することが、必要である場合とそうではない場合がある。定義上、これらは、常時、機械類自体との「衝突」の状態にあり、したがって、検出され、適切に分類されない場合、本システムに機械類を誤って停止させるであろうため、機械類の要素をそのように決定的に識別することが、必要であり得る。同様に、機械類は、典型的には、ワークピースと接触するが、典型的には、機械類が人物と接触することは、危険である。したがって、分析モジュール342は、ワークピースと未知の異物、特に、人物との間を区別することが可能となるべきである。
機械類自体の要素は、分類目的のために、上記に説明される随意の背景減算較正ステップによって取り扱われてもよい。機械類が形状を変化させる場合では、機械類の要素は、例えば、分析モジュール342にこれらの要素についての情報(例えば、拡張可能3D表現として)を供給し、ある場合(産業用ロボットアーム等)には、機械類の状態についての瞬間的情報源を提供することによって、識別および分類されることができる。分析モジュール342は、センサ102による観察下で、孤立して、機械類、コンベヤ等を動作させることによって「訓練」され、分析モジュール342が、運動および姿勢の全レパートリの実行からもたらされるそれらの精密な動作の領域を学習することを可能にしてもよい。分析モジュール342は、占有されるような結果として生じる空間領域を分類してもよい。
従来のコンピュータビジョン技法が、分析モジュール342がワークピースと人間との間を区別することを可能にするために採用されてもよい。これらは、ディープラーニング、すなわち、データにおけるより高いレベルの抽象化を使用するように設計される機械学習の分野を含む。最も成功したこれらのディープラーニングアルゴリズムは、畳み込みニューラルネットワーク(CNN)であり、より最近では、リカレントニューラルネットワーク(RNN)であった。しかしながら、そのような技法は、概して、人間ではないとしての人間の偶発的誤認が安全上の危険を引き起こさない状況において採用される。本環境内でそのような技法を使用するために、いくつかの修正が、必要とされ得る。第1に、機械学習アルゴリズムが、概して、誤検出または未検出を優先するように調整されることができる(例えば、ロジスティック回帰分析が、高特異性および低感度のために調整されることができる)。本シナリオにおける誤検出は、安全上の危険を生じず、ロボットがワークピースを人間と間違える場合、これは、消極的に反応するであろう。加えて、異なる画像性質に基づく複数のアルゴリズムまたはニューラルネットワークが、使用され、安全適合のための十分な信頼性を達成するために重要であり得る多様性を助長することができる。1つの特に有益な多様性の源は、同一の物体の3Dおよび2D両方の画像データを提供するセンサを使用することによって取得されることができる。任意の1つの技法が物体を人間として識別する場合、物体は、人間と見なされるであろう。全てが未検出よりも誤検出を優先するように調整される、複数の技法または機械学習アルゴリズムを使用して、十分な信頼性が、達成されることができる。加えて、複数の画像が、経時的に追跡され、信頼性をさらに強化することができ、再び、全ての物体が、信頼性メトリックを達成するために十分な識別がこれを人間ではないとして特性評価するまで、人間と見なされることができる。本質的に、本多様なアルゴリズムアプローチは、人間を識別するのではなく、決定的に人間ではないものを識別する。
分類技法を組み合わせることに加えて、任意のタイプの人間分類に全く依拠しない方法でワークピースを識別することが、可能である。1つのアプローチは、ワークピースのモデルを提供することによって本システムを構成することである。例えば、システム構成における「教示」ステップが、単純に、ワークピースの画像または重要な特徴を分析モジュール342に供給してもよく、これは、空間マップ345内で合致する構成を検索する、または代わりに、空間マップ内でそのようにワークピースを自動的に分類するためのニューラルネットワークの訓練を伴ってもよい。いずれの場合も、記憶されたモデルに正確に合致する物体のみが、ワークピースと見なされる一方、全ての他の物体は、人間と見なされる。
別の好適なアプローチは、空間マップ345内で表されるように、ワークピースが進入するであろう作業空間内の特定の領域(コンベヤベルトの上部等)を規定することである。その場所における作業空間に進入する物体のみが、ワークピースとして見なすために適格である。ワークピースは、次いで、それらが作業空間に進入する時間からそれらが離れる時間までモデル化および追跡されることができる。ロボット等の監視される機械がワークピースを取り扱っている間、制御システム112は、ワークピースが、ロボットエンドエフェクタの予期される運動と一貫する様式でのみ移動することを確実にする。コンベヤベルト等の公知の機器もまた、このようにモデル化されることができる。人間は、ワークピースの様式で作業セルに進入すること、例えば、コンベヤ上に座ることを禁止され得る。
これらの技法は全て、設計要件および環境制約に応じて、別個に、または組み合わせて使用されることができる。しかしながら、全ての場合に、分析モジュール342が、識別された物体がワークピースであるかどうかを見逃す状況が存在し得る。これらの状況では、本システムは、安全状態に戻るべきである。インターロックが、次いで、人間作業者がいかなる異物も存在しないことを確認し得る作業空間の安全面積内に設置され、本システムが動作を再開することを可能にすることができる。
いくつかの状況では、異物が、作業空間に進入するが、続けて、無視される、またはワークピースと見なされるべきである。例えば、構成時間に作業空間内に存在していなかった箱のスタックが、続けて、その中に設置され得る。柔軟なシステムが固定保護に取って代わるにつれてより一般的になるであろう本タイプの状況は、人間作業者が新しい物体を将来の相互作用のために安全として指定することを可能にするユーザインターフェース(例えば、ディスプレイ320内、または制御システム112と無線通信するデバイス上に示される)を提供することによって対処されてもよい。当然ながら、分析モジュール342および制御ルーチン350は、依然として、機械類が新しい物体と衝突することを防止するように作用し得るが、新しい物体は、機械類に向かって移動し得る潜在的に人間の物体と見なされず、したがって、本システムがこれをより消極的ではない様式で取り扱うことを可能にするであろう。
3.制御出力の生成
本段階で、分析モジュール342は、安全目的のために考慮されなければならない、監視される面積100内の全ての物体を識別している。本データを前提として、種々の措置が、とられ、制御出力が、生成されることができる。静的較正の間、または人間のいないデフォルト構成における作業空間で、空間マップ345は、センサカバレッジ、展開される機械類の構成、および人間と機械との間の不要な相互作用の機会を評価するために人間にとって有用であり得る。ケージまたは固定保護を設定しなくても、全体的作業空間レイアウトは、上記に説明されるように安全区域とマーキングされる領域を通した、および不良なセンサカバレッジを伴う領域から離れるような人間移動を誘導する、または促すことによって改良されてもよい。
制御ルーチン350は、分析モジュール342に応答して、ある条件が検出されると、作業空間100内のロボット等の動作する機械類への制御信号を生成してもよい。本制御は、安全または危険条件のいずれかを示すバイナリであり得る、または安全および危険である行動のインジケーション等、より複雑であり得る。最も単純なタイプの制御信号は、占有される、または潜在的に占有されるボリュームのいずれかの侵入が特定の区域内で検出されるかどうかを示すバイナリ信号である。最も単純な場合では、単一の侵入区域が存在し、制御システム112は、侵入を示す単一の出力を提供する。本出力は、機械類の動作を停止または限定するために、例えば、I/Oポート327を介して制御される機械類上の相補的ポートに送達されることができる。より複雑なシナリオでは、複数の区域が、別個に監視され、制御ルーチン350は、I/Oポート327またはアドレス指定される送受信機325を介して、ネットワークを経由して、機械類の標的部分に(例えば、インターネットプロトコルまたは他の好適なアドレス指定スキームを使用して)デジタル出力を発行する。
監視され得る別の条件は、2D近接センサの出力に匹敵する、作業空間内の任意の物体と機械との間の距離である。これは、それを下回ると出力がアサートされるべきである近接閾値を確立することによってバイナリ出力に変換されてもよい。本システムが、機械に最も近接する物体の場所および範囲を記録し、利用可能にすることもまた、望ましくあり得る。協調的産業用ロボットのための安全システム等の他の用途では、所望される制御出力は、センサ102によってカバーされる面積内で観察される全ての物体の場所、形状、および範囲を含んでもよい。
4.安全行動制約および安全区域の動的決定
ISO 10218およびISO/TS 15066は、産業用ロボットと人間作業者との間の協調を可能にし得る安全機能として、速度および分離監視を説明している。リスク低減が、ロボット運動の周期の間に人間作業者とロボットとの間に少なくとも保護分離距離を維持することによって達成される。本保護分離距離は、ロボットおよび人間作業者の位置および移動、ロボット停止距離、測定不確定性、システム待ち時間、およびシステム制御頻度を含む情報を使用して計算される。計算された分離距離が保護分離距離を下回る値まで減少すると、ロボットシステムは、停止される。本方法論は、産業用ロボットを超えて機械類に一般化されることができる。
便宜上、以下の議論は、作業空間100内で動作するロボットの周囲に安全区域を動的に定義することに焦点を当てる。しかしながら、本明細書に説明される技法は、複数のロボットにだけではなく、過剰に密接に接近すると危険であり得、経時的に変動し得る最小安全分離距離を有し、特定の活動が機械によって行われる任意の形態の機械類にも適用されることを理解されたい。上記に説明されるように、センサアレイが、各分析サイクルにおいて、ロボットおよびロボットを囲繞する面積内の全ての関連する物体の場所および範囲を3Dにおいて特性評価するために十分な画像情報を取得する。(各分析サイクルは、画像捕捉、フレームバッファのリフレッシュ、およびコンピュータ分析を含み、故に、分析または制御サイクルの周期は、効果的な監視がリアルタイムで起こるために十分に短いが、これは、多くのコンピュータクロックサイクルを伴う。)分析モジュール342は、各サイクルにおけるロボットの現在の状態についての瞬間的情報とともに本情報を利用し、ロボットの運動に関する瞬間的な現在の安全行動制約を決定する。制約は、ロボットに、分析モジュール342によって直接、または制御ルーチン350を介してのいずれかで、送受信機325および/またはI/Oポート327を介してロボットに通信されてもよい。
本システムの動作は、図4のシステム編成および動作の概念図示を参照して最も深く理解される。上記に説明されるように、センサアレイ102は、ロボット402を含む作業空間400を監視する。ロボットの移動は、ロボット自体の一部である、またはそれと別個であり得る、従来のロボットコントローラ407によって制御され、例えば、単一のロボットコントローラが、1つを上回るロボットにコマンドを発行してもよい。ロボットの活動は、主として、ロボットアームを伴い得、その移動は、所望の移動をもたらすようにロボットアームジョイントを動作させるジョイントコマンドを使用して、ロボットコントローラ407によって指揮される。物体監視システム(OMS)410が、センサ102から物体についての情報を取得し、作業空間400内の関連する物体を識別するために本センサ情報を使用する。OMS410は、任意の好適な有線または無線のプロトコルを介してロボットコントローラ407と通信する。(産業用ロボットでは、制御電子機器は、典型的には、外部制御ボックス内に常駐する。しかしながら、内蔵コントローラを伴うロボットの場合では、OMS410は、ロボットのオンボードコントローラと直接通信する。)ロボット(典型的には、センサ102)から取得された情報を使用して、OMS410は、ロボットの現在の状態を決定する。OMS410は、それに応じて、ロボットの現在の状態および全ての識別された関連する物体を前提として、ロボット402に関する安全行動制約を決定する。最後に、OMS410は、安全行動制約をロボット407に通信する。(図3を参照して、OMS410の機能は、分析モジュール342によって、ある場合には、制御ルーチン350によって制御システム112内で実施されることを理解されたい。)
4.1 関連する物体の識別
センサ102は、上記に議論される様式で、固定頻度で物体分析モジュール415によって分析されるリアルタイム画像情報を提供し、特に、各サイクルにおいて、物体分析モジュール415は、ロボットの届く範囲内であるか、または消極的に予期される速度でロボットの届く範囲に移動し得るかのいずれかである、作業空間400内の全ての物体の精密な3D場所および範囲を識別する。関連するボリュームの全てがセンサ102の集合的視野内にあるわけではない場合、OMS410は、そのように決定し、その領域内の全ての固定物体(またはそれらの物体の消極的上位セット)の場所および範囲を示す、および/または他の保護技法が監視されていない面積へのアクセスを防止するために使用されていることを検証するように構成されてもよい。
4.2 ロボット状態の決定
ロボット状態決定モジュール(RSDM)420が、ロボットの瞬間的状態を決定するために、センサ102からのデータおよびロボット402および/またはロボットコントローラ407からの信号に応答する。特に、RSDM420は、作業空間400内のロボット402の姿勢および場所を決定し、これは、センサ102、ロボットおよび/またはそのコントローラからの信号、またはこれらの源のある組み合わせからのデータを使用して達成されてもよい。RSDM420はまた、ロボット402またはその任意の付属品の瞬間的速度を決定してもよく、加えて、ロボットの瞬間的ジョイント加速度またはトルク、または計画される将来の軌跡の知識が、下記に説明されるような後続サイクルに関する安全運動制約を決定するために必要とされてもよい。典型的には、本情報は、ロボットコントローラ407から発するが、ある場合には、下記に説明されるように、センサ102によって記録された画像から直接推測されてもよい。
例えば、これらのデータは、安全適合データへのアクセスを提供する安全適合通信プロトコルを介して、ロボット402またはロボットコントローラ407によって提供され得る。ロボットの3D姿勢は、次いで、ロボット402全体の3D形状を取得するために、提供されるジョイント位置を各連結部の静的3Dモデルと組み合わせることによって決定されてもよい。
ある場合には、ロボットは、安全適合ではないジョイント位置を取得するためのインターフェースを提供してもよく、その場合では、ジョイント位置は、(例えば、安全適合ソフトウェアを使用して)センサ102からの画像に対して検証されることができる。例えば、受信されたジョイント位置は、ロボット402全体の3Dモデルを生成するために、各連結部の静的3Dモデルと組み合わせられてもよい。本3D画像は、ロボット自体の一部である感知データ内の任意の物体を除去するために使用されることができる。ジョイント位置が正しい場合、これは、ロボット402に起因する全ての物体データを完全に排除するであろう。しかしながら、ジョイント位置が不正確である場合、ロボット402の真の位置は、モデルから逸脱し、検出されるロボットのいくつかの部分は、除去されないであろう。これらの点は、次いで、新しいサイクルにおいて異物として現れるであろう。前のサイクルでは、ジョイント位置は、そうでなければロボット402が中止されていたであろうため、正しかったと仮定されることができる。ロボットの基部ジョイントは移動しないため、逸脱する点のうちの少なくとも1つは、ロボットに近接しなければならない。ロボット402に近接する予期せぬ物体の検出が、次いで、エラー条件をトリガするために使用されることができ、これは、制御システム112(図1参照を)に、ロボット402を安全状態に遷移させるであろう。代替として、センサデータは、位置合わせの節において上記に説明されるような相関アルゴリズムを使用してロボットの位置を識別するために使用されることができ、本検出された位置は、ロボットによって報告されたジョイント位置と比較されることができる。ロボット402によって提供されたジョイント位置情報がこのように検証された場合、これは、ジョイント速度情報を検証するために使用されることができ、これは、次いで、将来のジョイント位置を予測するために使用されることができる。これらの位置が以前に検証された実際のジョイント位置と一貫しない場合、プログラムは、エラー条件を同様にトリガすることができる。これらの技法は、非安全適合インターフェースの使用が、次いで、付加的安全機能を実施するために使用され得るデータを生産することを可能にする。
最後に、RSDM420は、ロボット402またはコントローラ407によって提供されるいかなる情報も伴わず、センサ102によって提供される画像情報のみを使用してロボットのジョイント状態を決定するように構成されてもよい。ロボットにおける連結部の全てのモデルを前提として、いくつかの従来の周知のコンピュータビジョン技法のうちのいずれかが、モデルをセンサデータに位置合わせするためにRSDM420によって使用され、したがって、画像内のモデル化された物体の場所を決定することができる。例えば、ICPアルゴリズム(上記に議論される)は、2つの3D点群の間の差異を最小限にする。ICPは、多くの場合、局所的に最適なソリューションを効率的に提供し、したがって、おおよその場所が既知である場合、正確に使用されることができる。ロボット402は、それの前の位置から遠くに移動できなかったため、これは、アルゴリズムがサイクル毎に実行される場合であろう。故に、リアルタイムで実行するために十分に効率的ではない場合がある、大域的に最適な位置合わせ技法は、要求されない。カルマンフィルタまたは粒子フィルタ等のデジタルフィルタが、次いで、位置合わせアルゴリズムによって識別されたジョイント位置を前提として、瞬間的ジョイント速度を決定するために使用されることができる。
これらの画像ベースの監視技法は、多くの場合、各システムサイクルにおいて実行されること、および本システムが前のサイクルにおいて安全状態にあったという仮定に依拠する。したがって、試験が、ロボット402が始動されるときに実行されてもよく、例えば、ロボットが既知の事前構成された「ホーム」位置にあり、全てのジョイント速度がゼロであることを確認する。自動化機器が、固定間隔において、例えば、機器が始動される、またはシフト変更されるとき、オペレータによって実行される試験のセットを有することは、一般的である。信頼性のある状態分析は、典型的には、各ロボット連結部の正確なモデルを要求する。本モデルは、事前に、例えば、ロボット製造業者によって提供される、または具体的計画のために産業エンジニアによって生成される3D CADファイルから取得されることができる。しかしながら、そのようなモデルは、少なくともロボットおよびこれが有し得る可能性として考えられるアタッチメントの全てに関して入手可能ではない場合がある。
この場合、RSDM420が、例えば、センサ102を使用して、モデル自体を作成することが可能である。これは、ロボット402が、運動のセット、例えば、所与の用途において使用することが意図される運動および/またはセンサ102に各連結部の適切なビューを提供するように設計される運動のセットを通して起動する別個の訓練モードで行われてもよい。必要ではないが、各連結部の長さおよび回転軸等のロボットについてのいくつかの基本情報を事前に提供することが、可能である。本訓練モードの間、RSDM420は、全ての必要なアタッチメントを完備した各連結部の3Dモデルを生成する。本モデルは、次いで、ロボット状態を決定するために、センサ画像と併せてRSDM420によって使用されることができる。
4.3 安全行動制約の決定
伝統的な軸および速度限定用途では、産業エンジニアは、ロボットの計画される軌跡および作業空間のレイアウトを前提として、ロボットに関して安全である行動を計算し、ロボットの運動の範囲の一部の面積を完全に禁止し、他の面積内で速度を限定する。これらの限定は、固定された静的作業空間環境を仮定する。ここでは、物体および人物が行き来し、位置を変化させる動的環境に関係し、したがって、安全行動が、全ての感知される関連する物体に基づいて、かつロボット402の現在の状態に基づいて、リアルタイムで安全行動決定モジュール(SADM)425によって計算され、これらの安全行動は、サイクル毎に更新されてもよい。安全と見なされるために、行動は、ロボット402がいかなる定常物体とも衝突せず、また、ロボット402がロボットに向かって移動している場合がある人物と接触しないことを確実にするべきである。ロボット402は、ある程度の最大可能減速度を有するため、コントローラ407は、接触が行われる前にこれが完全な停止に到達し得ることを確実にするために、前もって十分にロボットを減速させ始めるように命令されるべきである。
これを達成することに対する1つのアプローチは、ロボットの最大速度(ロボット自体またはその任意の付属品の速度を意味する)をロボット上の任意の点と回避される感知された物体の関連するセットにおける任意の点との間の最小距離に比例的に変調することである。ロボットは、最近接する物体がそれを超えると衝突が懸念されないある閾値距離から遠く離れているとき、最大速度で動作することを可能にされ、ロボットは、物体がある最小距離内にある場合、完全に中止される。十分なマージンが、ある最大の現実的速度でロボットに向かう関連する物体または人間の移動を考慮するために、規定される距離に追加されることができる。これは、図5に図示される。外側エンベロープまたは3D区域502が、ロボット504の周囲にSADM425によってコンピュータ的に生成される。本区域502の外側では、人物Pの全ての移動は、動作サイクル内で、それらが危険をもたらすほど十分に人物をロボット504に近接させることができないため、安全と見なされる。区域502内にコンピュータ的に定義される、第2の3D区域508内の人物Pの身体の任意の部分の検出が、SADM425によって位置合わせされるが、ロボット504は、全速で動作し続けることを可能にされる。人物Pの任意の部分が区域508の閾値を横断するが、依然として、内部危険区域510の外側にある場合、ロボット504は、より緩慢な速度で動作するように信号伝達される。人物Pの任意の部分が危険区域510の中に横断する、または人物移動のモデルに基づいて次のサイクル内でそうすることが予測される場合、ロボット504の動作は、中止される。これらの区域は、ロボット504が環境内で移動される(または移動する)場合、更新されてもよい。
本技法の精緻化は、SADM425が、最大速度を最小距離の平方根に比例的に制御することであり、これは、一定減速度シナリオでは、速度が進行する距離の平方根に比例的に変化し、依然として等しく安全であるが、より平滑かつより効率的な結果をもたらすという事実を反映する。さらなる精緻化は、SADM425が、最大速度を衝突までの最短可能時間に比例的に変調することであり、すなわち、時間において進行するロボットの現在の状態を計画し、ロボット軌跡に向かう侵入を計画し、最近傍の潜在的衝突を識別することである。本精緻化は、ロボットがこれに向かうよりも障害物からより迅速に離れるように移動するであろう利点を有し、これは、依然として安全性を正しく保全しながら、処理能力を最大限にする。ロボットの将来の軌跡は、その現在の速度だけではなく、後続コマンドにも依存するため、SADM425は、その現在のジョイント位置および速度を前提として、ある反応時間内にロボット402によって到達可能な全ての点を考慮し、これらの状態のうちのいずれかの中の最短衝突時間に基づいて、制御信号を発行させてもよい。なおもさらなる精緻化は、SADM425が、単純に瞬間的ジョイント速度ではなく、本計算を行うときにロボットの計画される軌跡全体を考慮することである。加えて、SADM425は、その軌跡に沿った最大速度を単純に改変するのではなく、ロボットコントローラ407を介して、ロボットの軌跡を改変してもよい。軌跡の固定セットの中から潜在的衝突を低減または排除するものを選定する、またはさらにはその場で新しい軌跡を生成することが、可能である。
必ずしも安全性違反ではないが、作業空間の静的要素との衝突は、概して、望ましくない。関連する物体のセットは、壁および台等の静的背景およびワークピースおよび人間作業者等の可動物体の両方を含む、作業空間内の全ての物体を含むことができる。事前構成または実行時間検出のいずれかから、センサ102および分析モジュール342は、場合によっては移動し得る物体を推測することが可能であってもよい。この場合、上記に説明されるアルゴリズムのうちのいずれかが、不必要に処理能力を低減させないが、依然として、作業セルの静的部分との衝突の可能性を自動的に排除するように、移動し得る物体を考慮するために付加的マージンを残すが、静的であることが把握される物体のためのそれらのマージンを排除するように精緻化されることができる。
潜在的に移動する物体の最大速度を考慮するために単純にマージンを残すことの他に、感知システムによって検出される情報に基づく推定技法が、時間において進行する人間および他の物体の移動を計画するために使用され、したがって、制御ルーチン350に利用可能な制御オプションを拡大することができる。例えば、骨格追跡技法が、検出された人間の移動する肢を識別し、人体の性質および、例えば、人物全体ではなく人物の腕の推定される移動に基づいて、潜在的衝突を限定するために使用されることができる。
4.4 ロボットへの安全行動制約の通信
SADM425によって識別された安全行動制約は、ロボット通信モジュール430を介して、各サイクルでOMS410によってロボットコントローラ407に通信されてもよい。上記に説明されるように、通信モジュールは、ロボットコントローラ407上の相補的ポートへのI/Oポート327インターフェースに対応してもよい、または送受信機325に対応してもよい。殆どの産業用ロボットは、外部デバイスと併用するための種々のインターフェースを提供する。好適なインターフェースは、少なくとも本システムの制御頻度において低待ち時間で動作するべきである。インターフェースは、ロボットが通常通りプログラムされ、起動することを可能にするように構成されることができ、最大速度が、インターフェースを経由して送信される。代替として、いくつかのインターフェースは、軌跡がウェイポイントの形態で送達されることを可能にする。本タイプのインターフェースを使用して、ロボット402の意図される軌跡が、OMS410内に受信および記憶されることができ、これは、次いで、安全行動制約に応じて、ともにより近接する、またはさらに離れるウェイポイントを生成してもよい。同様に、標的ジョイントトルクの入力を可能にするインターフェースが、本明細書に従って算出される軌跡を駆動するために使用されることができる。これらのタイプのインターフェースもまた、SADM425が、安全行動制約に応じて新しい軌跡を選定する、または軌跡を修正する場合に使用されることができる。
ロボット状態を決定するために使用されるインターフェースのように、ロボット402が、関連する安全適合制御入力へのリアルタイムアクセスを提供する安全適合プロトコルをサポートする場合、これは、十分であり得る。しかしながら、安全適合プロトコルが利用可能ではない場合、本システム上の付加的安全適合ソフトウェアが、システム全体が安全なままであることを確実にするために使用されることができる。例えば、SADM425は、ロボットが通信された安全行動に従って動作している場合、ロボットの予期される速度および位置を決定してもよい。SADM425は、次いで、上記に説明されるように、ロボットの実際の状態を決定する。ロボットの行動が予期される行動に対応しない場合、SADM425は、典型的には、緊急停止信号を使用して、ロボットを安全状態に遷移させる。これは、安全適合停止機構を超えるリアルタイム安全適合インターフェースを要求することなく、リアルタイム安全適合制御スキームを効果的に実装する。
ある場合には、ハイブリッドシステムが、最適であり得、多くのロボットが、安全監視停止装置を保持するために使用され得るデジタル入力を有する。例えば、侵入する物体がロボットから比較的に遠いとき、可変速度のための通信プロトコルを使用することが、望ましいが、ロボットが完全に停止しなければならないとき、例えば、侵入する物体がロボットに近接するとき、デジタル安全監視停止装置を使用することが、望ましくあり得る。
本発明のある実施形態が、上記に説明される。しかしながら、本発明は、それらの実施形態に限定されず、むしろ、本明細書に明確に説明されるものへの追加および修正もまた、本発明の範囲内に含まれることに明確に留意されたい。
特許請求の範囲
一般に、本明細書で使用されるように、用語「実質的に」は、±10%、いくつかの実施形態では、±5%を意味する。加えて、本明細書全体を通した「一実施例」、「ある実施例」、「一実施形態」、または「ある実施形態」の言及は、実施例と関連して説明される特定の特徴、構造、または特性が、本技術の少なくとも1つの実施例に含まれることを意味する。したがって、本明細書全体を通した種々の箇所における語句「一実施例では」、「ある実施例では」、「一実施形態」、または「ある実施形態」の出現は、必ずしも全てが同一の実施例を指すわけではない。さらに、特定の特徴、構造、ルーチン、ステップ、または特性は、本技術の1つ以上の実施例において任意の好適な様式で組み合わせられてもよい。本明細書に提供される見出しは、便宜上のためだけのものであり、請求される技術の範囲または意味を限定または解釈することを意図していない。
本発明は、例えば、以下を提供する。
(項目1)
制御された機械類を含む、3次元作業空間内の安全領域を識別するための安全システムであって、前記システムは、
前記作業空間を中心として分散される複数のセンサであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドと関連付けられ、前記作業空間部分は、部分的に相互に重複する、複数のセンサと、
コントローラであって、前記コントローラは、
前記センサによって取得された前記画像が集合的に前記作業空間を表すように、相互に対して前記センサを位置合わせすることと、
前記作業空間の3次元表現を複数のボリュームとして生成することと、
閾値を上回る強度レベルを有するセンサピクセル毎に、予備的に、前記ピクセルを通る視通線光線路によってインターセプトされ、遮蔽の前記関連付けられるセンサからの推定される距離において終了するボリュームを非占有とマーキングし、前記光線路の終端に対応するボリュームを占有とマーキングし、前記光線路に沿った前記遮蔽を越える任意のボリュームを未知とマーキングすることと、
前記閾値を下回る強度レベルを有するセンサピクセル毎に、予備的に、前記ピクセルを通る視通線光線路によってインターセプトされ、前記作業空間の境界において終了する全てのボクセルを未知とマーキングすることと、
少なくとも一度非占有と予備的にマーキングされたボリュームを非占有と最終的にマーキングすることと、
前記作業空間内の1つ以上の安全ボリューム区域をマッピングすることであって、前記ボリューム区域は、前記機械類の安全区域の外側であり、非占有とマーキングされたボリュームのみを含む、ことと
を行うように構成される、コントローラと
を備える、システム。
(項目2)
点は、ボクセルである、項目1に記載の安全システム。
(項目3)
前記安全区域は、前記機械類の少なくとも一部を囲繞する3Dボリュームである、項目1に記載の安全システム。
(項目4)
前記コントローラは、前記センサによる前記作業空間のリアルタイム監視に応答し、前記センサによって検出される前記安全区域の中への侵入に応答して、前記機械類の動作を改変するように構成される、項目3に記載の安全システム。
(項目5)
前記安全区域は、前記3Dボリューム内で複数のネスト化サブ区域に分割され、前記サブ区域のそれぞれの中への検出された侵入は、前記機械類の動作の異なる改変度をもたらす、項目4に記載の安全システム。
(項目6)
前記センサは、3Dセンサである、項目1に記載の安全システム。
(項目7)
前記センサのうちの少なくともいくつかは、飛行時間カメラである、項目6に記載の安全システム。
(項目8)
前記センサのうちの少なくともいくつかは、3D LIDARセンサである、項目6に記載の安全システム。
(項目9)
前記センサのうちの少なくともいくつかは、ステレオビジョンカメラである、項目6に記載の安全システム。
(項目10)
前記コントローラは、前記機械類によって取り扱われているワークピースを認識し、前記安全区域を生成する際に前記ワークピースをその一部として見なすように構成される、項目1に記載の安全システム。
(項目11)
前記コントローラは、人間移動のモデルに従って、前記作業空間の中への前記侵入をコンピュータ的に拡張するように構成される、項目4に記載の安全システム。
(項目12)
3次元作業空間内で機械類を安全に動作させる方法であって、前記方法は、
作業空間を中心として分散される複数のセンサを用いて前記作業空間を監視するステップであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドと関連付けられ、前記作業空間部分は、部分的に相互に重複する、ステップと、
前記センサによって取得された前記画像が集合的に前記作業空間を表すように、相互に対して前記センサを位置合わせするステップと、
コンピュータメモリ内に記憶された前記作業空間の3次元表現をコンピュータ的に生成するステップと、
閾値を上回る強度レベルを有するセンサピクセル毎に、予備的に、前記コンピュータメモリ内で、前記ピクセルを通る視通線光線路によってインターセプトされ、遮蔽の前記関連付けられるセンサからの推定される距離において終了するボリュームを非占有とマーキングし、前記光線路の終端に対応するボリュームを占有とマーキングし、前記光線路に沿った前記遮蔽を越える任意のボリュームを未知とマーキングするステップと、
前記閾値を下回る強度レベルを有するセンサピクセル毎に、予備的に、前記ピクセルを通る視通線光線路によってインターセプトされ、前記作業空間の境界において終了する全てのボリュームを未知とマーキングするステップと、
少なくとも一度非占有と予備的にマーキングされたボリュームを非占有と最終的にマーキングするステップと、
前記作業空間内の1つ以上の安全ボリューム区域をコンピュータ的にマッピングするステップであって、前記ボリューム区域は、前記機械類の安全区域の外側であり、非占有とマーキングされたボリュームのみを含む、ステップと
を含む、方法。
(項目13)
点は、ボクセルである、項目12に記載の方法。
(項目14)
前記安全区域は、前記機械類の少なくとも一部を囲繞する3Dボリュームである、項目12に記載の方法。
(項目15)
応答して、前記機械類の動作を改変することによって、前記安全区域の中への検出された侵入に応答するステップをさらに含む、項目14に記載の方法。
(項目16)
前記安全区域は、前記3Dボリューム内で複数のネスト化サブ区域に分割され、前記サブ区域のそれぞれの中への検出された侵入は、前記機械類の動作の異なる改変度をもたらす、項目15に記載の方法。
(項目17)
前記機械類によって取り扱われているワークピースをコンピュータ的に認識し、前記安全区域を生成する際に前記ワークピースをその一部として見なすステップをさらに含む、項目12に記載の方法。
(項目18)
人間移動のモデルに従って、前記作業空間の中への前記侵入をコンピュータ的に拡張するステップをさらに含む、項目15に記載の方法。
(項目19)
前記コンピュータ認識ステップは、ニューラルネットワークを使用して実施される、項目17に記載の方法。
(項目20)
前記機械類に関する安全行動制約を生成し、それに従って前記機械類を制御するステップをさらに含む、項目12に記載の方法。
(項目21)
前記機械類は、少なくとも1つのロボットである、項目12に記載の方法。
(項目22)
3次元(3D)作業空間内で活動を実施する機械類の安全な動作を施行するための安全システムであって、前記システムは、
前記作業空間を中心として分散される複数のセンサであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドと関連付けられ、前記作業空間部分は、集合的に前記作業空間全体をカバーする、複数のセンサと、
コンピュータメモリであって、前記コンピュータメモリは、(i)前記センサからの複数の画像と、(ii)前記機械類および前記活動の実施の間のその許可された移動のモデルと、(iii)人間に近接する前記機械類の速度制限および前記機械類と人間との間の最小分離距離を規定する安全性プロトコルとを記憶する、コンピュータメモリと、
プロセッサであって、前記プロセッサは、
前記記憶された画像から、前記作業空間の3D空間表現をコンピュータ的に生成することと、
前記記憶されたモデルに従って、前記許可された移動に及ぶ前記機械類の周囲の3Dエンベロープによって増強される、前記作業空間内の前記機械類によって占有される空間に対応する前記作業空間の第1の3D領域を識別することと、
所定の将来の時間内の前記作業空間内の人間の予測される移動に対応する前記人間の周囲の3Dエンベロープによって増強される、前記作業空間内の前記人間によって占有される、または潜在的に占有される空間に対応する前記作業空間の第2の3D領域を識別することと、
前記第1および第2の領域の間の近接性に基づいて、前記安全性プロトコルに従って前記機械類の活動を制限することと
を行うように構成される、プロセッサと
を備える、システム。
(項目23)
前記作業空間は、複数のボクセルとしてコンピュータ的に表される、項目22に記載の安全システム。
(項目24)
前記プロセッサは、少なくとも部分的に、前記機械類によって提供される状態データに基づいて、前記機械類に対応する領域を識別するように構成される、項目22に記載の安全システム。
(項目25)
前記状態データは、安全適合であり、安全適合通信プロトコルを経由して提供される、項目24に記載の安全システム。
(項目26)
前記状態データは、安全適合ではないが、前記センサから受信された情報によって検証される、項目3に記載の安全システム。
(項目27)
前記状態データは、ロボットモデルを構築し、前記モデル内に検出された物体を除去し、任意の残りの物体が前記機械類に隣接する場合、前記機械類を停止させることによって検証される、項目24に記載の安全システム。
(項目28)
前記状態データは、前記機械類の位置を識別するようにコンピュータビジョンを使用し、これを報告された位置と比較することによって検証される、項目24に記載の安全システム。
(項目29)
前記状態データは、前記機械類へのいかなるインターフェースも伴わずに前記センサによって決定される、項目24に記載の安全システム。
(項目30)
前記第1の3D領域は、複数のネスト化された空間的に明確に異なる3Dサブ区域に分割される、項目22に記載の安全システム。
(項目31)
前記第2の3D領域と前記サブ区域のそれぞれとの間の重複は、前記機械類の動作の異なる改変度をもたらす、項目25に記載の安全システム。
(項目32)
前記プロセッサはさらに、前記機械類によって取り扱われているワークピースを認識し、前記第1の3D領域を識別する際に前記ワークピースをその一部として見なすように構成される、項目24に記載の安全システム。
(項目33)
前記プロセッサは、前記機械類が停止されるときを除いて、前記機械類と人間との間の接触を防止するように、前記機械類の最大速度を動的に制御するように構成される、項目22に記載の安全システム。
(項目34)
前記プロセッサは、前記近接性に基づいて、衝突までの最短可能時間を算出するように構成される、項目22に記載の安全システム。
(項目35)
前記プロセッサは、前記センサによる前記作業空間のリアルタイム監視に応答し、前記センサによって検出された前記作業空間の中への侵入に応答して、前記機械類の動作を改変するように構成される、項目22に記載の安全システム。
(項目36)
前記機械類は、少なくとも1つのロボットである、項目22に記載の安全システム。
(項目37)
3次元(3D)作業空間内で機械類を安全に動作させる方法であって、前記方法は、
作業空間を中心として分散される複数のセンサを用いて前記作業空間を監視するステップであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドと関連付けられ、前記作業空間部分は、部分的に相互に重複する、ステップと、
前記センサによって取得された前記画像が集合的に前記作業空間を表すように、相互に対して前記センサを位置合わせするステップと、
コンピュータメモリ内に、(i)前記センサからの複数の画像と、(ii)前記機械類および活動の実施の間のその許可された移動のモデルと、(iii)人間に近接する前記機械類の速度制限および機械と人間との間の最小分離距離を規定する安全性プロトコルとを記憶するステップと、
前記記憶された画像から、前記作業空間の3D空間表現をコンピュータ的に生成するステップと、
前記記憶されたモデルに従って、前記許可された移動に及ぶ前記機械類の周囲の3Dエンベロープによって増強される、前記作業空間内の前記機械類によって占有される空間に対応する前記作業空間の第1の3D領域をコンピュータ的に識別するステップと、
所定の将来の時間内の前記作業空間内の人間の予測される移動に対応する前記人間の周囲の3Dエンベロープによって増強される、前記作業空間内の前記人間によって占有される、または潜在的に占有される空間に対応する前記作業空間の第2の3D領域をコンピュータ的に識別するステップと、
前記第1および第2の領域の間の近接性に基づいて、前記安全性プロトコルに従って前記機械類の活動を制限するステップと
を含む、方法。
(項目38)
前記作業空間は、複数のボクセルとしてコンピュータ的に表される、項目31に記載の方法。
(項目39)
前記第1の3D領域は、複数のネスト化された空間的に明確に異なる3Dサブ区域に分割される、項目31に記載の方法。
(項目40)
前記第2の3D領域と前記サブ区域のそれぞれとの間の重複は、前記機械類の動作の異なる改変度をもたらす、項目33に記載の方法。
(項目41)
前記機械類によって取り扱われているワークピースを認識し、前記第1の3D領域をコンピュータ的に識別する際に前記ワークピースをその一部として見なすステップをさらに含む、項目31に記載の方法。
(項目42)
前記機械類の活動を制限するステップは、前記近接性の平方根に比例して前記機械類の最大速度を制御するステップを含む、項目31に記載の方法。
(項目43)
前記機械類の活動を制限するステップは、前記近接性に基づいて、衝突までの最短可能時間を算出するステップを含む、項目31に記載の方法。
(項目44)
前記センサによって検出された前記作業空間の中への侵入に応答して、前記機械類の動作を改変するステップをさらに含む、項目31に記載の方法。
(項目45)
前記機械類は、少なくとも1つのロボットである、項目31に記載の方法。
(項目46)
活動を実施する機械類を含む3次元(3D)作業空間内で安全領域を識別するための安全システムであって、前記システムは、
前記作業空間を中心として分散される複数のセンサであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドを備え、前記作業空間部分は、集合的に前記作業空間全体をカバーする、複数のセンサと、
コンピュータメモリであって、前記コンピュータメモリは、(i)前記センサからの複数の画像と、(ii)前記機械類および前記活動の実施の間のその許可された移動のモデルと、(iii)人間に近接する前記機械類の速度制限および前記機械類と人間との間の最小分離距離を規定する安全性プロトコルとを記憶する、コンピュータメモリと、
プロセッサであって、前記プロセッサは、
前記記憶された画像から、前記作業空間の3D空間表現をコンピュータ的に生成することと、
3D機械類領域として前記作業空間内の前記機械類によって占有される空間の表現を経時的に識別および監視し、前記記憶されたモデルに従って、前記機械類の許可された移動に及ぶ3Dエンベロープ領域を前記機械類領域の周囲に生成することと、
前記機械類と前記作業空間内のワークピースとの間の相互作用を認識することと、
前記認識された相互作用に応答して、前記ワークピースを含むように前記機械類領域を更新し、前記記憶されたモデルおよび前記更新された機械類領域に従って前記エンベロープ領域を更新することと、
前記安全性プロトコルに従って、更新される際に前記ロボット領域の周囲に3D安全区域をコンピュータ的に生成することと
を行うように構成される、プロセッサと
を備える、システム。
(項目47)
前記プロセッサはさらに、
前記作業空間内の人間によって占有される、または潜在的に占有される空間に対応するボリュームにおける領域を識別することと、
前記ロボット領域と前記人間占有領域との間の近接性に基づいて、前記安全性プロトコルに従って前記ロボットの活動を制限することと
を行うように構成される、項目46に記載の安全システム。
(項目48)
前記人間占有領域は、所定の将来の時間内の前記作業空間内の前記人間の予測される移動に対応する前記人間の周囲の3Dエンベロープによって増強される、項目47に記載の安全システム。
(項目49)
前記プロセッサはさらに、前記画像内で、前記ロボットおよび前記ワークピース以外の前記作業空間内のアイテムを認識するように構成され、前記プロセッサは、前記ロボットまたはワークピースの一部ではなく、別様に認識されない検出されたアイテムを人間として識別する、項目46に記載の安全システム。
(項目50)
前記プロセッサは、前記画像内で、前記作業空間内のアイテムを検出し、外部から提供されるその識別を受信するように構成され、前記プロセッサは、前記ロボットまたはワークピースの一部ではなく、いかなる外部から提供される識別も受信されなかった検出されたアイテムを人間として識別する、項目49に記載の安全システム。
(項目51)
前記作業空間は、複数のボクセルとしてコンピュータ的に表される、項目46に記載の安全システム。
(項目52)
前記機械類は、少なくとも1つのロボットである、項目46に記載の安全システム。
(項目53)
3次元(3D)作業空間内で機械類を安全に動作させる方法であって、前記方法は、
作業空間を中心として分散される複数のセンサを用いて前記作業空間を監視するステップであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドを備え、前記作業空間部分は、部分的に相互に重複する、ステップと、
前記センサによって取得された前記画像が集合的に前記作業空間を表すように、相互に対して前記センサを位置合わせするステップと、
コンピュータメモリ内に、(i)前記センサからの複数の画像と、(ii)前記機械類および活動の実施の間のその許可された移動のモデルと、(iii)人間に近接する前記機械類の速度制限および機械と人間との間の最小分離距離を規定する安全性プロトコルとを記憶するステップと、
前記記憶された画像から、前記作業空間の3D空間表現をコンピュータ的に生成するステップと、
3D機械類領域として前記作業空間内の前記機械類によって占有される空間の表現を経時的にコンピュータ的に識別および監視し、前記記憶されたモデルに従って、前記機械類の許可された移動に及ぶ3Dエンベロープ領域を前記機械類領域の周囲に生成するステップと、
前記機械類と前記作業空間内のワークピースとの間の相互作用を認識するステップと、
前記認識された相互作用に応答して、前記ワークピースを含むように前記機械類領域をコンピュータ的に更新し、前記記憶されたモデルおよび前記更新された機械類領域に従って前記エンベロープ領域をコンピュータ的に更新するステップと、
前記安全性プロトコルに従って、更新される際に前記ロボット領域の周囲に3D安全区域をコンピュータ的に生成するステップと
を含む、方法。
(項目54)
前記作業空間内の人間によって占有される空間に対応するボリュームにおける領域を識別するステップと、
前記ロボット領域と前記人間占有領域との間の近接性に基づいて、前記安全性プロトコルに従って前記ロボットの活動を制限するステップと
をさらに含む、項目53に記載の方法。
(項目55)
所定の将来の時間内の前記作業空間内の前記人間の予測される移動に対応する前記人間の周囲の3Dエンベロープによって、前記人間占有領域を増強するステップをさらに含む、項目54に記載の方法。
(項目56)
(i)前記画像内で、前記機械類および前記ワークピース以外の前記作業空間内のアイテムを認識するステップと、(ii)前記機械類またはワークピースの一部ではなく、別様に認識されない検出されたアイテムを人間として識別するステップとをさらに含む、項目53に記載の方法。
(項目57)
(i)前記画像内で、前記作業空間内のアイテムを検出し、外部から提供されるその識別を受信するステップと、(ii)前記機械類またはワークピースの一部ではなく、いかなる外部から提供される識別も受信されなかった検出されたアイテムを人間として識別するステップとをさらに含む、項目56に記載の方法。
(項目58)
前記作業空間は、複数のボクセルとしてコンピュータ的に表される、項目53に記載の方法。
(項目59)
前記機械類は、少なくとも1つのロボットである、項目53に記載の方法。

Claims (59)

  1. 制御された機械類を含む、3次元作業空間内の安全領域を識別するための安全システムであって、前記システムは、
    前記作業空間を中心として分散される複数のセンサであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドと関連付けられ、前記作業空間部分は、部分的に相互に重複する、複数のセンサと、
    コントローラであって、前記コントローラは、
    前記センサによって取得された前記画像が集合的に前記作業空間を表すように、相互に対して前記センサを位置合わせすることと、
    前記作業空間の3次元表現を複数のボリュームとして生成することと、
    閾値を上回る強度レベルを有するセンサピクセル毎に、予備的に、前記ピクセルを通る視通線光線路によってインターセプトされ、遮蔽の前記関連付けられるセンサからの推定される距離において終了するボリュームを非占有とマーキングし、前記光線路の終端に対応するボリュームを占有とマーキングし、前記光線路に沿った前記遮蔽を越える任意のボリュームを未知とマーキングすることと、
    前記閾値を下回る強度レベルを有するセンサピクセル毎に、予備的に、前記ピクセルを通る視通線光線路によってインターセプトされ、前記作業空間の境界において終了する全てのボクセルを未知とマーキングすることと、
    少なくとも一度非占有と予備的にマーキングされたボリュームを非占有と最終的にマーキングすることと、
    前記作業空間内の1つ以上の安全ボリューム区域をマッピングすることであって、前記ボリューム区域は、前記機械類の安全区域の外側であり、非占有とマーキングされたボリュームのみを含む、ことと
    を行うように構成される、コントローラと
    を備える、システム。
  2. 点は、ボクセルである、請求項1に記載の安全システム。
  3. 前記安全区域は、前記機械類の少なくとも一部を囲繞する3Dボリュームである、請求項1に記載の安全システム。
  4. 前記コントローラは、前記センサによる前記作業空間のリアルタイム監視に応答し、前記センサによって検出される前記安全区域の中への侵入に応答して、前記機械類の動作を改変するように構成される、請求項3に記載の安全システム。
  5. 前記安全区域は、前記3Dボリューム内で複数のネスト化サブ区域に分割され、前記サブ区域のそれぞれの中への検出された侵入は、前記機械類の動作の異なる改変度をもたらす、請求項4に記載の安全システム。
  6. 前記センサは、3Dセンサである、請求項1に記載の安全システム。
  7. 前記センサのうちの少なくともいくつかは、飛行時間カメラである、請求項6に記載の安全システム。
  8. 前記センサのうちの少なくともいくつかは、3D LIDARセンサである、請求項6に記載の安全システム。
  9. 前記センサのうちの少なくともいくつかは、ステレオビジョンカメラである、請求項6に記載の安全システム。
  10. 前記コントローラは、前記機械類によって取り扱われているワークピースを認識し、前記安全区域を生成する際に前記ワークピースをその一部として見なすように構成される、請求項1に記載の安全システム。
  11. 前記コントローラは、人間移動のモデルに従って、前記作業空間の中への前記侵入をコンピュータ的に拡張するように構成される、請求項4に記載の安全システム。
  12. 3次元作業空間内で機械類を安全に動作させる方法であって、前記方法は、
    作業空間を中心として分散される複数のセンサを用いて前記作業空間を監視するステップであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドと関連付けられ、前記作業空間部分は、部分的に相互に重複する、ステップと、
    前記センサによって取得された前記画像が集合的に前記作業空間を表すように、相互に対して前記センサを位置合わせするステップと、
    コンピュータメモリ内に記憶された前記作業空間の3次元表現をコンピュータ的に生成するステップと、
    閾値を上回る強度レベルを有するセンサピクセル毎に、予備的に、前記コンピュータメモリ内で、前記ピクセルを通る視通線光線路によってインターセプトされ、遮蔽の前記関連付けられるセンサからの推定される距離において終了するボリュームを非占有とマーキングし、前記光線路の終端に対応するボリュームを占有とマーキングし、前記光線路に沿った前記遮蔽を越える任意のボリュームを未知とマーキングするステップと、
    前記閾値を下回る強度レベルを有するセンサピクセル毎に、予備的に、前記ピクセルを通る視通線光線路によってインターセプトされ、前記作業空間の境界において終了する全てのボリュームを未知とマーキングするステップと、
    少なくとも一度非占有と予備的にマーキングされたボリュームを非占有と最終的にマーキングするステップと、
    前記作業空間内の1つ以上の安全ボリューム区域をコンピュータ的にマッピングするステップであって、前記ボリューム区域は、前記機械類の安全区域の外側であり、非占有とマーキングされたボリュームのみを含む、ステップと
    を含む、方法。
  13. 点は、ボクセルである、請求項12に記載の方法。
  14. 前記安全区域は、前記機械類の少なくとも一部を囲繞する3Dボリュームである、請求項12に記載の方法。
  15. 応答して、前記機械類の動作を改変することによって、前記安全区域の中への検出された侵入に応答するステップをさらに含む、請求項14に記載の方法。
  16. 前記安全区域は、前記3Dボリューム内で複数のネスト化サブ区域に分割され、前記サブ区域のそれぞれの中への検出された侵入は、前記機械類の動作の異なる改変度をもたらす、請求項15に記載の方法。
  17. 前記機械類によって取り扱われているワークピースをコンピュータ的に認識し、前記安全区域を生成する際に前記ワークピースをその一部として見なすステップをさらに含む、請求項12に記載の方法。
  18. 人間移動のモデルに従って、前記作業空間の中への前記侵入をコンピュータ的に拡張するステップをさらに含む、請求項15に記載の方法。
  19. 前記コンピュータ認識ステップは、ニューラルネットワークを使用して実施される、請求項17に記載の方法。
  20. 前記機械類に関する安全行動制約を生成し、それに従って前記機械類を制御するステップをさらに含む、請求項12に記載の方法。
  21. 前記機械類は、少なくとも1つのロボットである、請求項12に記載の方法。
  22. 3次元(3D)作業空間内で活動を実施する機械類の安全な動作を施行するための安全システムであって、前記システムは、
    前記作業空間を中心として分散される複数のセンサであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドと関連付けられ、前記作業空間部分は、集合的に前記作業空間全体をカバーする、複数のセンサと、
    コンピュータメモリであって、前記コンピュータメモリは、(i)前記センサからの複数の画像と、(ii)前記機械類および前記活動の実施の間のその許可された移動のモデルと、(iii)人間に近接する前記機械類の速度制限および前記機械類と人間との間の最小分離距離を規定する安全性プロトコルとを記憶する、コンピュータメモリと、
    プロセッサであって、前記プロセッサは、
    前記記憶された画像から、前記作業空間の3D空間表現をコンピュータ的に生成することと、
    前記記憶されたモデルに従って、前記許可された移動に及ぶ前記機械類の周囲の3Dエンベロープによって増強される、前記作業空間内の前記機械類によって占有される空間に対応する前記作業空間の第1の3D領域を識別することと、
    所定の将来の時間内の前記作業空間内の人間の予測される移動に対応する前記人間の周囲の3Dエンベロープによって増強される、前記作業空間内の前記人間によって占有される、または潜在的に占有される空間に対応する前記作業空間の第2の3D領域を識別することと、
    前記第1および第2の領域の間の近接性に基づいて、前記安全性プロトコルに従って前記機械類の活動を制限することと
    を行うように構成される、プロセッサと
    を備える、システム。
  23. 前記作業空間は、複数のボクセルとしてコンピュータ的に表される、請求項22に記載の安全システム。
  24. 前記プロセッサは、少なくとも部分的に、前記機械類によって提供される状態データに基づいて、前記機械類に対応する領域を識別するように構成される、請求項22に記載の安全システム。
  25. 前記状態データは、安全適合であり、安全適合通信プロトコルを経由して提供される、請求項24に記載の安全システム。
  26. 前記状態データは、安全適合ではないが、前記センサから受信された情報によって検証される、請求項3に記載の安全システム。
  27. 前記状態データは、ロボットモデルを構築し、前記モデル内に検出された物体を除去し、任意の残りの物体が前記機械類に隣接する場合、前記機械類を停止させることによって検証される、請求項24に記載の安全システム。
  28. 前記状態データは、前記機械類の位置を識別するようにコンピュータビジョンを使用し、これを報告された位置と比較することによって検証される、請求項24に記載の安全システム。
  29. 前記状態データは、前記機械類へのいかなるインターフェースも伴わずに前記センサによって決定される、請求項24に記載の安全システム。
  30. 前記第1の3D領域は、複数のネスト化された空間的に明確に異なる3Dサブ区域に分割される、請求項22に記載の安全システム。
  31. 前記第2の3D領域と前記サブ区域のそれぞれとの間の重複は、前記機械類の動作の異なる改変度をもたらす、請求項25に記載の安全システム。
  32. 前記プロセッサはさらに、前記機械類によって取り扱われているワークピースを認識し、前記第1の3D領域を識別する際に前記ワークピースをその一部として見なすように構成される、請求項24に記載の安全システム。
  33. 前記プロセッサは、前記機械類が停止されるときを除いて、前記機械類と人間との間の接触を防止するように、前記機械類の最大速度を動的に制御するように構成される、請求項22に記載の安全システム。
  34. 前記プロセッサは、前記近接性に基づいて、衝突までの最短可能時間を算出するように構成される、請求項22に記載の安全システム。
  35. 前記プロセッサは、前記センサによる前記作業空間のリアルタイム監視に応答し、前記センサによって検出された前記作業空間の中への侵入に応答して、前記機械類の動作を改変するように構成される、請求項22に記載の安全システム。
  36. 前記機械類は、少なくとも1つのロボットである、請求項22に記載の安全システム。
  37. 3次元(3D)作業空間内で機械類を安全に動作させる方法であって、前記方法は、
    作業空間を中心として分散される複数のセンサを用いて前記作業空間を監視するステップであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドと関連付けられ、前記作業空間部分は、部分的に相互に重複する、ステップと、
    前記センサによって取得された前記画像が集合的に前記作業空間を表すように、相互に対して前記センサを位置合わせするステップと、
    コンピュータメモリ内に、(i)前記センサからの複数の画像と、(ii)前記機械類および活動の実施の間のその許可された移動のモデルと、(iii)人間に近接する前記機械類の速度制限および機械と人間との間の最小分離距離を規定する安全性プロトコルとを記憶するステップと、
    前記記憶された画像から、前記作業空間の3D空間表現をコンピュータ的に生成するステップと、
    前記記憶されたモデルに従って、前記許可された移動に及ぶ前記機械類の周囲の3Dエンベロープによって増強される、前記作業空間内の前記機械類によって占有される空間に対応する前記作業空間の第1の3D領域をコンピュータ的に識別するステップと、
    所定の将来の時間内の前記作業空間内の人間の予測される移動に対応する前記人間の周囲の3Dエンベロープによって増強される、前記作業空間内の前記人間によって占有される、または潜在的に占有される空間に対応する前記作業空間の第2の3D領域をコンピュータ的に識別するステップと、
    前記第1および第2の領域の間の近接性に基づいて、前記安全性プロトコルに従って前記機械類の活動を制限するステップと
    を含む、方法。
  38. 前記作業空間は、複数のボクセルとしてコンピュータ的に表される、請求項31に記載の方法。
  39. 前記第1の3D領域は、複数のネスト化された空間的に明確に異なる3Dサブ区域に分割される、請求項31に記載の方法。
  40. 前記第2の3D領域と前記サブ区域のそれぞれとの間の重複は、前記機械類の動作の異なる改変度をもたらす、請求項33に記載の方法。
  41. 前記機械類によって取り扱われているワークピースを認識し、前記第1の3D領域をコンピュータ的に識別する際に前記ワークピースをその一部として見なすステップをさらに含む、請求項31に記載の方法。
  42. 前記機械類の活動を制限するステップは、前記近接性の平方根に比例して前記機械類の最大速度を制御するステップを含む、請求項31に記載の方法。
  43. 前記機械類の活動を制限するステップは、前記近接性に基づいて、衝突までの最短可能時間を算出するステップを含む、請求項31に記載の方法。
  44. 前記センサによって検出された前記作業空間の中への侵入に応答して、前記機械類の動作を改変するステップをさらに含む、請求項31に記載の方法。
  45. 前記機械類は、少なくとも1つのロボットである、請求項31に記載の方法。
  46. 活動を実施する機械類を含む3次元(3D)作業空間内で安全領域を識別するための安全システムであって、前記システムは、
    前記作業空間を中心として分散される複数のセンサであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドを備え、前記作業空間部分は、集合的に前記作業空間全体をカバーする、複数のセンサと、
    コンピュータメモリであって、前記コンピュータメモリは、(i)前記センサからの複数の画像と、(ii)前記機械類および前記活動の実施の間のその許可された移動のモデルと、(iii)人間に近接する前記機械類の速度制限および前記機械類と人間との間の最小分離距離を規定する安全性プロトコルとを記憶する、コンピュータメモリと、
    プロセッサであって、前記プロセッサは、
    前記記憶された画像から、前記作業空間の3D空間表現をコンピュータ的に生成することと、
    3D機械類領域として前記作業空間内の前記機械類によって占有される空間の表現を経時的に識別および監視し、前記記憶されたモデルに従って、前記機械類の許可された移動に及ぶ3Dエンベロープ領域を前記機械類領域の周囲に生成することと、
    前記機械類と前記作業空間内のワークピースとの間の相互作用を認識することと、
    前記認識された相互作用に応答して、前記ワークピースを含むように前記機械類領域を更新し、前記記憶されたモデルおよび前記更新された機械類領域に従って前記エンベロープ領域を更新することと、
    前記安全性プロトコルに従って、更新される際に前記ロボット領域の周囲に3D安全区域をコンピュータ的に生成することと
    を行うように構成される、プロセッサと
    を備える、システム。
  47. 前記プロセッサはさらに、
    前記作業空間内の人間によって占有される、または潜在的に占有される空間に対応するボリュームにおける領域を識別することと、
    前記ロボット領域と前記人間占有領域との間の近接性に基づいて、前記安全性プロトコルに従って前記ロボットの活動を制限することと
    を行うように構成される、請求項46に記載の安全システム。
  48. 前記人間占有領域は、所定の将来の時間内の前記作業空間内の前記人間の予測される移動に対応する前記人間の周囲の3Dエンベロープによって増強される、請求項47に記載の安全システム。
  49. 前記プロセッサはさらに、前記画像内で、前記ロボットおよび前記ワークピース以外の前記作業空間内のアイテムを認識するように構成され、前記プロセッサは、前記ロボットまたはワークピースの一部ではなく、別様に認識されない検出されたアイテムを人間として識別する、請求項46に記載の安全システム。
  50. 前記プロセッサは、前記画像内で、前記作業空間内のアイテムを検出し、外部から提供されるその識別を受信するように構成され、前記プロセッサは、前記ロボットまたはワークピースの一部ではなく、いかなる外部から提供される識別も受信されなかった検出されたアイテムを人間として識別する、請求項49に記載の安全システム。
  51. 前記作業空間は、複数のボクセルとしてコンピュータ的に表される、請求項46に記載の安全システム。
  52. 前記機械類は、少なくとも1つのロボットである、請求項46に記載の安全システム。
  53. 3次元(3D)作業空間内で機械類を安全に動作させる方法であって、前記方法は、
    作業空間を中心として分散される複数のセンサを用いて前記作業空間を監視するステップであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドを備え、前記作業空間部分は、部分的に相互に重複する、ステップと、
    前記センサによって取得された前記画像が集合的に前記作業空間を表すように、相互に対して前記センサを位置合わせするステップと、
    コンピュータメモリ内に、(i)前記センサからの複数の画像と、(ii)前記機械類および活動の実施の間のその許可された移動のモデルと、(iii)人間に近接する前記機械類の速度制限および機械と人間との間の最小分離距離を規定する安全性プロトコルとを記憶するステップと、
    前記記憶された画像から、前記作業空間の3D空間表現をコンピュータ的に生成するステップと、
    3D機械類領域として前記作業空間内の前記機械類によって占有される空間の表現を経時的にコンピュータ的に識別および監視し、前記記憶されたモデルに従って、前記機械類の許可された移動に及ぶ3Dエンベロープ領域を前記機械類領域の周囲に生成するステップと、
    前記機械類と前記作業空間内のワークピースとの間の相互作用を認識するステップと、
    前記認識された相互作用に応答して、前記ワークピースを含むように前記機械類領域をコンピュータ的に更新し、前記記憶されたモデルおよび前記更新された機械類領域に従って前記エンベロープ領域をコンピュータ的に更新するステップと、
    前記安全性プロトコルに従って、更新される際に前記ロボット領域の周囲に3D安全区域をコンピュータ的に生成するステップと
    を含む、方法。
  54. 前記作業空間内の人間によって占有される空間に対応するボリュームにおける領域を識別するステップと、
    前記ロボット領域と前記人間占有領域との間の近接性に基づいて、前記安全性プロトコルに従って前記ロボットの活動を制限するステップと
    をさらに含む、請求項53に記載の方法。
  55. 所定の将来の時間内の前記作業空間内の前記人間の予測される移動に対応する前記人間の周囲の3Dエンベロープによって、前記人間占有領域を増強するステップをさらに含む、請求項54に記載の方法。
  56. (i)前記画像内で、前記機械類および前記ワークピース以外の前記作業空間内のアイテムを認識するステップと、(ii)前記機械類またはワークピースの一部ではなく、別様に認識されない検出されたアイテムを人間として識別するステップとをさらに含む、請求項53に記載の方法。
  57. (i)前記画像内で、前記作業空間内のアイテムを検出し、外部から提供されるその識別を受信するステップと、(ii)前記機械類またはワークピースの一部ではなく、いかなる外部から提供される識別も受信されなかった検出されたアイテムを人間として識別するステップとをさらに含む、請求項56に記載の方法。
  58. 前記作業空間は、複数のボクセルとしてコンピュータ的に表される、請求項53に記載の方法。
  59. 前記機械類は、少なくとも1つのロボットである、請求項53に記載の方法。
JP2019563335A 2017-02-07 2018-02-06 制御された機械類を含む、3次元作業空間内の安全区域を識別するための安全システム、ならびに、3次元作業空間内で制御された機械類を安全に動作させる方法 Active JP6752499B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020006561A JP6898012B2 (ja) 2017-02-07 2020-01-20 作業空間安全監視および機器制御

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762455834P 2017-02-07 2017-02-07
US201762455828P 2017-02-07 2017-02-07
US62/455,828 2017-02-07
US62/455,834 2017-02-07
PCT/US2018/016991 WO2018148181A1 (en) 2017-02-07 2018-02-06 Workspace safety monitoring and equipment control

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020006561A Division JP6898012B2 (ja) 2017-02-07 2020-01-20 作業空間安全監視および機器制御

Publications (2)

Publication Number Publication Date
JP2020511325A true JP2020511325A (ja) 2020-04-16
JP6752499B2 JP6752499B2 (ja) 2020-09-09

Family

ID=63038286

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019563335A Active JP6752499B2 (ja) 2017-02-07 2018-02-06 制御された機械類を含む、3次元作業空間内の安全区域を識別するための安全システム、ならびに、3次元作業空間内で制御された機械類を安全に動作させる方法
JP2020006561A Active JP6898012B2 (ja) 2017-02-07 2020-01-20 作業空間安全監視および機器制御
JP2021093582A Active JP7122776B2 (ja) 2017-02-07 2021-06-03 作業空間安全監視および機器制御

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2020006561A Active JP6898012B2 (ja) 2017-02-07 2020-01-20 作業空間安全監視および機器制御
JP2021093582A Active JP7122776B2 (ja) 2017-02-07 2021-06-03 作業空間安全監視および機器制御

Country Status (7)

Country Link
US (6) US11040450B2 (ja)
EP (3) EP3580735B1 (ja)
JP (3) JP6752499B2 (ja)
CN (1) CN110494900A (ja)
CA (1) CA3052961A1 (ja)
ES (1) ES2927177T3 (ja)
WO (1) WO2018148181A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022190538A1 (ja) 2021-03-12 2022-09-15 オムロン株式会社 情報処理装置および情報処理方法、並びにプログラム
KR102520214B1 (ko) * 2022-12-07 2023-04-11 주식회사 유에이로보틱스 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템

Families Citing this family (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10528021B2 (en) 2015-10-30 2020-01-07 Rockwell Automation Technologies, Inc. Automated creation of industrial dashboards and widgets
US10924881B2 (en) * 2016-03-03 2021-02-16 Husqvarna Ab Device for determining construction device and worker position
US10796449B2 (en) * 2016-03-28 2020-10-06 Nec Solution Innovators, Ltd. Measurement device, measurement method, and computer readable recording medium
EP3243609A1 (en) * 2016-05-09 2017-11-15 OpiFlex Automation AB A fenceless industrial robot system
WO2017214581A1 (en) 2016-06-10 2017-12-14 Duke University Motion planning for autonomous vehicles and reconfigurable motion planning processors
US11000953B2 (en) * 2016-08-17 2021-05-11 Locus Robotics Corp. Robot gamification for improvement of operator performance
US10545492B2 (en) 2016-09-26 2020-01-28 Rockwell Automation Technologies, Inc. Selective online and offline access to searchable industrial automation data
US10298012B2 (en) 2016-09-29 2019-05-21 Enel X North America, Inc. Network operations center including automated validation, estimation, and editing configuration engine
US10461533B2 (en) 2016-09-29 2019-10-29 Enel X North America, Inc. Apparatus and method for automated validation, estimation, and editing configuration
US10566791B2 (en) 2016-09-29 2020-02-18 Enel X North America, Inc. Automated validation, estimation, and editing processor
US10423186B2 (en) 2016-09-29 2019-09-24 Enel X North America, Inc. Building control system including automated validation, estimation, and editing rules configuration engine
US10291022B2 (en) 2016-09-29 2019-05-14 Enel X North America, Inc. Apparatus and method for automated configuration of estimation rules in a network operations center
US10203714B2 (en) 2016-09-29 2019-02-12 Enel X North America, Inc. Brown out prediction system including automated validation, estimation, and editing rules configuration engine
US10170910B2 (en) * 2016-09-29 2019-01-01 Enel X North America, Inc. Energy baselining system including automated validation, estimation, and editing rules configuration engine
US10735691B2 (en) 2016-11-08 2020-08-04 Rockwell Automation Technologies, Inc. Virtual reality and augmented reality for industrial automation
US10388075B2 (en) 2016-11-08 2019-08-20 Rockwell Automation Technologies, Inc. Virtual reality and augmented reality for industrial automation
US10866631B2 (en) 2016-11-09 2020-12-15 Rockwell Automation Technologies, Inc. Methods, systems, apparatuses, and techniques for employing augmented reality and virtual reality
US11518051B2 (en) 2017-02-07 2022-12-06 Veo Robotics, Inc. Dynamic, interactive signaling of safety-related conditions in a monitored environment
US11945119B2 (en) 2017-02-07 2024-04-02 Veo Robotics, Inc. Crosstalk mitigation for multi-cell workspace monitoring
US11679504B2 (en) 2018-02-06 2023-06-20 Veo Robotics, Inc. Crosstalk mitigation for multi-cell workspace monitoring
US11097422B2 (en) 2017-02-07 2021-08-24 Veo Robotics, Inc. Safety-rated multi-cell workspace mapping and monitoring
US11541543B2 (en) 2017-02-07 2023-01-03 Veo Robotics, Inc. Dynamic, interactive signaling of safety-related conditions in a monitored environment
US11820025B2 (en) 2017-02-07 2023-11-21 Veo Robotics, Inc. Safe motion planning for machinery operation
WO2018148181A1 (en) * 2017-02-07 2018-08-16 Veo Robotics, Inc. Workspace safety monitoring and equipment control
JP6866673B2 (ja) * 2017-02-15 2021-04-28 オムロン株式会社 監視システム、監視装置、および監視方法
JP6416980B1 (ja) * 2017-05-17 2018-10-31 ファナック株式会社 監視領域を分割した空間領域を監視する監視装置
JP6514273B2 (ja) * 2017-06-19 2019-05-15 ファナック株式会社 速度を表示するロボットシステム
US11625045B2 (en) * 2017-08-31 2023-04-11 Uatc, Llc Systems and methods for controlling an autonomous vehicle with occluded sensor zones
US11072071B2 (en) * 2017-09-19 2021-07-27 Autodesk, Inc. Modifying robot dynamics in response to human presence
JP6633584B2 (ja) * 2017-10-02 2020-01-22 ファナック株式会社 ロボットシステム
US10890898B2 (en) * 2017-11-03 2021-01-12 Drishti Technologies, Inc. Traceability systems and methods
US10445944B2 (en) * 2017-11-13 2019-10-15 Rockwell Automation Technologies, Inc. Augmented reality safety automation zone system and method
CA3085768A1 (en) * 2017-12-21 2019-06-27 Magna International Inc. Safety control module for a robot assembly and method of same
WO2019139815A1 (en) 2018-01-12 2019-07-18 Duke University Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects
TWI822729B (zh) 2018-02-06 2023-11-21 美商即時機器人股份有限公司 用於儲存一離散環境於一或多個處理器之一機器人之運動規劃及其改良操作之方法及設備
ES2928250T3 (es) 2018-03-21 2022-11-16 Realtime Robotics Inc Planificación del movimiento de un robot para diversos entornos y tareas y mejora del funcionamiento del mismo
JP6737827B2 (ja) * 2018-03-29 2020-08-12 ファナック株式会社 協働ロボットの制御装置及び制御方法
US11407111B2 (en) * 2018-06-27 2022-08-09 Abb Schweiz Ag Method and system to generate a 3D model for a robot scene
JP7262847B2 (ja) * 2018-08-30 2023-04-24 ヴェオ ロボティクス, インコーポレイテッド 安全重視用途に関する産業ロボット動力学のシステム識別
CN112640447B (zh) 2018-08-30 2022-04-29 韦奥机器人股份有限公司 深度感测计算机视觉系统
JP7299642B2 (ja) * 2018-08-30 2023-06-28 ヴェオ ロボティクス, インコーポレイテッド 自動的センサ位置合わせおよび構成のためのシステムおよび方法
US10325485B1 (en) * 2018-09-11 2019-06-18 Rockwell Automation Technologies, Inc. System or process to detect, discriminate, aggregate, track, and rank safety related information in a collaborative workspace
US11258987B2 (en) 2018-09-21 2022-02-22 Microsoft Technology Licensing, Llc Anti-collision and motion control systems and methods
CN113165173A (zh) * 2018-10-01 2021-07-23 Abb瑞士股份有限公司 机器人系统的安全操作
JP6863945B2 (ja) 2018-10-24 2021-04-21 ファナック株式会社 ロボットの制御方法
DE102018008815A1 (de) 2018-11-09 2020-05-14 Focke & Co. (Gmbh & Co. Kg) Verfahren zum Erkennen und/oder Vermeiden von Kollisionen von Maschinenorganen einer Verpackungsmaschine
US11493908B2 (en) 2018-11-13 2022-11-08 Rockwell Automation Technologies, Inc. Industrial safety monitoring configuration using a digital twin
WO2020107020A1 (en) * 2018-11-23 2020-05-28 Volvo Car Corporation Lidar-based multi-person pose estimation
JP7059956B2 (ja) * 2019-02-08 2022-04-26 コベルコ建機株式会社 建設機械の障害物検出装置
JP2022522284A (ja) * 2019-02-27 2022-04-15 ヴェオ ロボティクス, インコーポレイテッド 安全定格マルチセル作業空間マッピングおよび監視
JP7378168B2 (ja) * 2019-02-27 2023-11-13 ヴェオ ロボティクス, インコーポレイテッド 安全用途のためのシステムアーキテクチャ
US11308639B2 (en) 2019-03-12 2022-04-19 Volvo Car Corporation Tool and method for annotating a human pose in 3D point cloud data
EP3941693A4 (en) * 2019-03-20 2022-11-30 Covidien LP ROBOTIC SURGICAL COLLISION DETECTION SYSTEMS
CN113661033A (zh) * 2019-04-02 2021-11-16 优傲机器人公司 具有可在运行时适配的安全限值的机器人臂安全系统
US11813758B2 (en) * 2019-04-05 2023-11-14 Dexterity, Inc. Autonomous unknown object pick and place
CN113677484B (zh) 2019-04-16 2023-03-24 Abb瑞士股份有限公司 处理安全的方法、控制系统以及工业系统
JP2020189367A (ja) * 2019-05-22 2020-11-26 セイコーエプソン株式会社 ロボットシステム
JP7226101B2 (ja) * 2019-05-28 2023-02-21 オムロン株式会社 安全監視システム、安全監視制御装置、および安全監視方法
JP7479064B2 (ja) 2019-06-03 2024-05-08 リアルタイム ロボティクス, インコーポレーテッド 動的障害物を有する環境における動作計画を容易にする装置、方法及び物品
US11815598B2 (en) 2019-06-10 2023-11-14 Microsoft Technology Licensing, Llc Anti-collision and motion monitoring, control, and alerting systems and methods
CN110334248B (zh) * 2019-06-26 2020-09-01 京东数字科技控股有限公司 一种系统配置信息处理方法和装置
CN110322464B (zh) * 2019-06-30 2021-07-02 华中科技大学 一种基于三维点云的小曲率薄壁零件边界提取方法
JP7357902B2 (ja) * 2019-07-22 2023-10-10 東京ロボティクス株式会社 ロボット制御システム、装置、方法及びプログラム
US11919173B2 (en) * 2019-08-23 2024-03-05 Veo Robotics, Inc. Motion planning and task execution using potential occupancy envelopes
US20210379762A1 (en) * 2019-08-23 2021-12-09 Scott Denenberg Motion planning and task execution using potential occupancy envelopes
US20220234209A1 (en) 2019-08-23 2022-07-28 Ilya A. Kriveshko Safe operation of machinery using potential occupancy envelopes
EP4052866A1 (en) 2019-08-23 2022-09-07 Veo Robotics, Inc. Safe operation of machinery using potential occupancy envelopes
EP3993963A4 (en) 2019-08-23 2022-08-24 Realtime Robotics, Inc. MOTION PLANNING FOR ROBOTS TO OPTIMIZE SPEED WHILE RESPECTING ACCELERATION AND JERK LIMITS
US11756326B2 (en) * 2019-10-02 2023-09-12 Lantern Holdings, LLC Keepout zone detection and active safety system
US20230001587A1 (en) * 2019-12-05 2023-01-05 Alexander Zak Method and setup for fenceless robotics
EP3838504A1 (de) * 2019-12-19 2021-06-23 FRONIUS INTERNATIONAL GmbH Verfahren und vorrichtung zur überwachung eines bearbeitungsprozesses und bearbeitungsmaschine mit einer solchen vorrichtung
TW202146189A (zh) 2020-01-22 2021-12-16 美商即時機器人股份有限公司 於多機器人操作環境中之機器人之建置
US11514684B2 (en) 2020-02-07 2022-11-29 Infineon Technologies Austria Ag Dual use of safety-capable vehicle scanner for collaborative vehicle assembly and driving surveillance
EP3869240A1 (de) * 2020-02-18 2021-08-25 Leuze electronic GmbH + Co. KG Sensoranordnung und verfahren zum betrieb einer sensoranordnung
US11453127B2 (en) * 2020-03-03 2022-09-27 Shenzhen Fugui Precision Ind. Co., Ltd. Method for providing power-off command to an automatic apparatus within proximity of a human and control apparatus employing the method
JP2023518071A (ja) * 2020-03-18 2023-04-27 リアルタイム ロボティクス, インコーポレーテッド ロボットの動作計画に有用なロボット操作環境のデジタル表現
DE102020001961A1 (de) * 2020-03-27 2021-09-30 Herbert Kannegiesser Gmbh Verfahren zum Ergreifen textiler Gegenstände
US11919175B2 (en) 2020-04-15 2024-03-05 Mujin, Inc. Robotic system with collision avoidance mechanism and method of operation thereof
US11577726B2 (en) 2020-05-26 2023-02-14 Ford Global Technologies, Llc Vehicle assist feature control
US11648673B2 (en) * 2020-05-26 2023-05-16 Intrinsic Innovation Llc Automated safety procedures for human intervention in robot systems
US20210370503A1 (en) * 2020-05-29 2021-12-02 Wipro Limited Method and system for providing dynamic cross-domain learning
US20220004162A1 (en) 2020-07-06 2022-01-06 Ilya A. Kriveshko Continuous monitoring of a workcell safety system
CN114078325B (zh) * 2020-08-19 2023-09-05 北京万集科技股份有限公司 多感知系统配准方法、装置、计算机设备和存储介质
DE102020211920A1 (de) 2020-09-23 2022-03-24 Robert Bosch Gesellschaft mit beschränkter Haftung Überwachungsvorrichtung und Verfahren zur Überwachung einer Produktionsanlage
US20230302650A1 (en) * 2020-10-15 2023-09-28 Intuitive Surgical Operations, Inc. Detection and mitigation of predicted collisions of objects with user control system
US20220171396A1 (en) 2020-11-30 2022-06-02 Yandex Self Driving Group Llc Systems and methods for controlling a robotic vehicle
US20210140793A1 (en) * 2020-12-18 2021-05-13 Intel Corporation Map representation system and method for operating an autonomous agent
JP2022138211A (ja) * 2021-03-10 2022-09-26 オムロン株式会社 物体検出システム、制御装置
US11675329B2 (en) * 2021-06-21 2023-06-13 Rockwell Automation Technologies, Inc. Functional safety system using three dimensional sensing and dynamic digital twin
US11909662B2 (en) 2021-07-29 2024-02-20 Zoom Video Communications, Inc. Reservation-based resource configuration for dynamic workspaces
US11922347B2 (en) 2021-07-29 2024-03-05 Zoom Video Communications, Inc. Future presence signaling for dynamic workspaces
WO2023027421A1 (ko) * 2021-08-26 2023-03-02 (주)서울로보틱스 작업 공간에서의 관심 영역을 모니터링하는 방법 및 센싱 장치
US11953908B2 (en) 2021-10-12 2024-04-09 Google Llc Deployable safety fence for mobile robots
CN114022612A (zh) * 2021-11-02 2022-02-08 武汉联影智融医疗科技有限公司 模型构建方法、装置、计算机设备和存储介质
US11663895B1 (en) 2021-12-13 2023-05-30 Kyndryl, Inc. Virtual three-dimensional holographic safety gate
CN114281044B (zh) * 2021-12-24 2023-06-06 工业云制造(四川)创新中心有限公司 一种基于云制造的工业机器人远程监控方法及系统
US20230202037A1 (en) * 2021-12-29 2023-06-29 Datalogic Ip Tech S.R.L. System and method for determining allowable robot speed in a collaborative workspace
US20240012383A1 (en) * 2022-07-07 2024-01-11 Datalogic Ip Tech S.R.L. Clustering and detection system and method for safety monitoring in a collaborative workspace
WO2024074184A1 (en) * 2022-10-02 2024-04-11 Abb Schweiz Ag Method and system for identifying hazards in a robot application

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134234A (ja) * 2009-12-25 2011-07-07 Honda Motor Co Ltd 移動可能領域抽出装置、移動可能領域抽出システム、移動可能領域抽出方法、およびプログラム
WO2012014409A1 (ja) * 2010-07-27 2012-02-02 パナソニック株式会社 移動経路探索装置および移動経路探索方法
JP2012056026A (ja) * 2010-09-09 2012-03-22 Denso Wave Inc ロボットの評価制御方法及びロボットの制御装置
JP2016524544A (ja) * 2013-04-26 2016-08-18 ピルツ ゲーエムベーハー アンド コー.カーゲー 自動的に作動する機械を保護するための装置および方法
US9434069B1 (en) * 2014-11-10 2016-09-06 Google Inc. Motion heat map

Family Cites Families (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0324874B1 (de) 1988-01-20 1992-09-30 LITEF GmbH Verfahren zur Verbesserung und Stützung von Luftdaten eines Fluggeräts
US5323470A (en) * 1992-05-08 1994-06-21 Atsushi Kara Method and apparatus for automatically tracking an object
JP3560670B2 (ja) * 1995-02-06 2004-09-02 富士通株式会社 適応的認識システム
JPH103308A (ja) 1996-06-18 1998-01-06 Fanuc Ltd 産業用ロボットの干渉回避方法
US6297844B1 (en) 1999-11-24 2001-10-02 Cognex Corporation Video safety curtain
CA2369845A1 (en) 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
AU2003216199A1 (en) * 2002-02-07 2003-09-02 Accu-Sport International, Inc. Determining parameters of a golf shot by image analysis
US7729511B2 (en) 2002-09-24 2010-06-01 Pilz Gmbh & Co. Kg Method and device for safeguarding a hazardous area
JP2005081445A (ja) * 2003-09-04 2005-03-31 Fanuc Ltd ロボットの干渉領域確認装置
US7355508B2 (en) * 2004-05-21 2008-04-08 International Electronic Machines Corp. System and method for monitoring an area
CA2573728A1 (en) 2004-07-14 2006-02-23 Braintech Canada, Inc. Method and apparatus for machine-vision
DE102004041821A1 (de) 2004-08-27 2006-03-16 Abb Research Ltd. Vorrichtung und Verfahren zur Sicherung eines maschinell gesteuerten Handhabungsgerätes
JP2009500042A (ja) 2005-07-07 2009-01-08 インジーニアス・ターゲティング・ラボラトリー・インコーポレーテッド ターゲットの運動行動の3dのモニタリング及び分析のためのシステム
DE102005063217C5 (de) 2005-12-22 2022-08-18 Pilz Gmbh & Co. Kg Verfahren zum Konfigurieren einer Überwachungseinrichtung zum Überwachen eines Raumbereichsund entsprechende Überwachungseinrichtung
US8556999B2 (en) 2007-07-27 2013-10-15 Swift Fuels, Llc Renewable engine fuel and method of producing same
DE102006048163B4 (de) * 2006-07-31 2013-06-06 Pilz Gmbh & Co. Kg Kamerabasierte Überwachung bewegter Maschinen und/oder beweglicher Maschinenelemente zur Kollisionsverhinderung
DE102006048166A1 (de) 2006-08-02 2008-02-07 Daimler Ag Verfahren zur Beobachtung einer Person in einem industriellen Umfeld
US9084622B2 (en) * 2006-08-02 2015-07-21 Omnitek Partners Llc Automated laser-treatment system with real-time integrated 3D vision system for laser debridement and the like
WO2008036354A1 (en) 2006-09-19 2008-03-27 Braintech Canada, Inc. System and method of determining object pose
JP5294673B2 (ja) * 2007-04-02 2013-09-18 花王株式会社 改変微生物
US8559699B2 (en) 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
DE102009051148A1 (de) 2008-10-29 2010-05-12 Sms Siemag Ag Roboterinteraktionssystem
WO2010063319A1 (en) 2008-12-03 2010-06-10 Abb Research Ltd. A robot safety system and a method
JP4648486B2 (ja) * 2009-01-26 2011-03-09 ファナック株式会社 人間とロボットとの協調動作領域を有する生産システム
JP5343641B2 (ja) * 2009-03-12 2013-11-13 株式会社Ihi ロボット装置の制御装置及びロボット装置の制御方法
WO2011009108A2 (en) * 2009-07-17 2011-01-20 Universal Robotics, Inc. System and method for automatic calibration of stereo images
US8253792B2 (en) 2009-08-28 2012-08-28 GM Global Technology Operations LLC Vision system for monitoring humans in dynamic environments
WO2011128117A2 (de) 2010-04-16 2011-10-20 Fraunhofer-Gesellschaft Zur Förderung Der Angewandten Forschung E.V. . Einrichtung zur überwachung mindestens eines dreidimensionalen sicherheitsbereichs
JP5803043B2 (ja) 2010-05-20 2015-11-04 アイロボット コーポレイション 移動式ロボットシステム及び移動式ロボットを作動させる方法
US8855812B2 (en) 2010-07-23 2014-10-07 Chetan Kapoor System and method for robot safety and collision avoidance
US8587583B2 (en) * 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
EP2695027B1 (en) * 2011-04-06 2015-08-12 Koninklijke Philips N.V. Safety in dynamic 3d healthcare environment
US8811719B2 (en) * 2011-04-29 2014-08-19 Microsoft Corporation Inferring spatial object descriptions from spatial gestures
US8934017B2 (en) * 2011-06-01 2015-01-13 Honeywell International Inc. System and method for automatic camera placement
WO2012170898A2 (en) 2011-06-09 2012-12-13 Utah State University Research Foundation Systems and methods for sensing occupancy
US9070216B2 (en) * 2011-12-14 2015-06-30 The Board Of Trustees Of The University Of Illinois Four-dimensional augmented reality models for interactive visualization and automated construction progress monitoring
US9310482B2 (en) * 2012-02-10 2016-04-12 Ascent Ventures, Llc Methods for locating and sensing the position, orientation, and contour of a work object in a robotic system
DE102012102236A1 (de) 2012-03-16 2013-09-19 Pilz Gmbh & Co. Kg Verfahren und Vorrichtung zum Absichern eines gefährlichen Arbeitsbereichs einer automatisiert arbeitenden Maschine
US9043025B2 (en) 2012-08-31 2015-05-26 Rethink Robotics, Inc. Systems and methods for safe robot operation
EP2926543B1 (en) * 2012-11-29 2017-11-22 Csir A method of calibrating a camera and a system therefor
JP5670416B2 (ja) * 2012-12-28 2015-02-18 ファナック株式会社 ロボットシステム表示装置
US20140267264A1 (en) * 2013-03-14 2014-09-18 Nvidia Corporation Generating anti-aliased voxel data
US20140267266A1 (en) * 2013-03-14 2014-09-18 Nvidia Corporation Generating anti-aliased voxel data
JP2014180720A (ja) * 2013-03-19 2014-09-29 Yaskawa Electric Corp ロボットシステム及びキャリブレーション方法
TWI547355B (zh) * 2013-11-11 2016-09-01 財團法人工業技術研究院 人機共生安全監控系統及其方法
US9240070B2 (en) 2013-12-09 2016-01-19 Google Inc. Methods and systems for viewing dynamic high-resolution 3D imagery over a network
CN103680060B (zh) * 2013-12-25 2016-06-22 中国电建集团成都勘测设计研究院有限公司 振捣台车运行过程中现场安全性监测预警系统
US9452531B2 (en) 2014-02-04 2016-09-27 Microsoft Technology Licensing, Llc Controlling a robot in the presence of a moving object
CA2940490C (en) 2014-03-04 2022-07-12 Universal Robots A/S Safety system for industrial robot
US20150294496A1 (en) * 2014-04-14 2015-10-15 GM Global Technology Operations LLC Probabilistic person-tracking using multi-view fusion
CN104933392A (zh) * 2014-03-19 2015-09-23 通用汽车环球科技运作有限责任公司 使用多视图融合的概率性人追踪
US9524426B2 (en) 2014-03-19 2016-12-20 GM Global Technology Operations LLC Multi-view human detection using semi-exhaustive search
JP2015199155A (ja) * 2014-04-07 2015-11-12 キヤノン株式会社 情報処理装置および情報処理方法、プログラム
US20150293600A1 (en) 2014-04-11 2015-10-15 Visual Exploration LLC Depth-based analysis of physical workspaces
ES2675363T3 (es) * 2014-06-05 2018-07-10 Softbank Robotics Europe Procedimiento de construcción de un mapa de probabilidad entre la ausencia y la presencia de obstáculos para un robot autónomo
US9692251B2 (en) 2014-07-03 2017-06-27 Intel Corporation Apparatus, system and method of wireless power transfer
US9283678B2 (en) 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
CN107111739B (zh) 2014-08-08 2020-12-04 机器人视觉科技股份有限公司 物品特征的检测与跟踪
WO2016022155A1 (en) 2014-08-08 2016-02-11 Robotic Vision Technologies, LLC Sensor-based safety features for robotic equipment
US10664705B2 (en) * 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
JP5931167B1 (ja) * 2014-12-11 2016-06-08 ファナック株式会社 人間協調型ロボットシステム
US20160188977A1 (en) * 2014-12-24 2016-06-30 Irobot Corporation Mobile Security Robot
EP3250347B1 (en) 2015-01-26 2023-11-08 Duke University Specialized robot motion planning hardware and methods of making and using same
JP6034895B2 (ja) 2015-02-20 2016-11-30 ファナック株式会社 外力に応じてロボットを退避動作させる人間協調ロボットシステム
US9643314B2 (en) * 2015-03-04 2017-05-09 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
US9574883B2 (en) 2015-03-24 2017-02-21 X Development Llc Associating semantic location data with automated environment mapping
JP2016193473A (ja) 2015-04-01 2016-11-17 富士電機株式会社 駆動制御装置および安全制御システム
US9691151B1 (en) 2015-08-25 2017-06-27 X Development Llc Using observations from one or more robots to generate a spatio-temporal model that defines pose values for a plurality of objects in an environment
US9771225B2 (en) * 2015-10-08 2017-09-26 Rite-Hite Holding Corporation Methods and apparatus for monitoring a loading dock
US9682481B2 (en) * 2015-10-26 2017-06-20 X Development Llc Communication of information regarding a robot using an optical identifier
US9855664B2 (en) * 2015-11-25 2018-01-02 Denso Wave Incorporated Robot safety system
US10363667B2 (en) 2015-11-30 2019-07-30 Autodesk, Inc. Optical measurement of object location in three dimensions
JP6363587B2 (ja) * 2015-12-14 2018-07-25 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および警告提示方法
US10471595B2 (en) 2016-05-31 2019-11-12 Ge Global Sourcing Llc Systems and methods for control of robotic manipulation
US10371512B2 (en) * 2016-04-08 2019-08-06 Otis Elevator Company Method and system for multiple 3D sensor calibration
US10262222B2 (en) 2016-04-13 2019-04-16 Sick Inc. Method and system for measuring dimensions of a target object
US10078333B1 (en) * 2016-04-17 2018-09-18 X Development Llc Efficient mapping of robot environment
EP3243609A1 (en) 2016-05-09 2017-11-15 OpiFlex Automation AB A fenceless industrial robot system
ITUA20163520A1 (it) 2016-05-17 2017-11-17 Comau Spa "Dispositivo automatizzato con una struttura mobile, particolarmente un robot"
EP3458919B1 (en) 2016-05-19 2022-08-24 Deep Learning Robotics Ltd. Robot assisted object learning vision system
JP2019516568A (ja) 2016-05-20 2019-06-20 グーグル エルエルシー 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置
JP6738555B2 (ja) 2016-05-23 2020-08-12 富士ゼロックス株式会社 ロボット制御システム
DE112017002639T5 (de) 2016-05-26 2019-03-28 Mitsubishi Electric Corporation Robotersteuerungsvorrichtung
DE102016212694A1 (de) 2016-05-31 2017-11-30 Siemens Aktiengesellschaft Verfahren zur Orientierung eines Industrieroboters und Industrieroboter
JP6360105B2 (ja) 2016-06-13 2018-07-18 ファナック株式会社 ロボットシステム
CN106097648A (zh) * 2016-08-04 2016-11-09 中国南方电网有限责任公司超高压输电公司贵阳局 变电站运检作业空间三维安全监测方法
JP6822069B2 (ja) * 2016-11-01 2021-01-27 オムロン株式会社 監視システム、監視装置、および監視方法
WO2018148181A1 (en) * 2017-02-07 2018-08-16 Veo Robotics, Inc. Workspace safety monitoring and equipment control
US10406645B2 (en) * 2017-05-24 2019-09-10 Trimble Inc. Calibration approach for camera placement
WO2019021058A2 (en) * 2017-07-25 2019-01-31 Mbl Limited SYSTEMS AND METHODS FOR OPERATING A ROBOTIC SYSTEM AND EXECUTING ROBOTIC INTERACTIONS
US10445944B2 (en) 2017-11-13 2019-10-15 Rockwell Automation Technologies, Inc. Augmented reality safety automation zone system and method
US11833696B2 (en) * 2018-01-15 2023-12-05 Technische Universität München Vision-based sensor system and control method for robot arms

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134234A (ja) * 2009-12-25 2011-07-07 Honda Motor Co Ltd 移動可能領域抽出装置、移動可能領域抽出システム、移動可能領域抽出方法、およびプログラム
WO2012014409A1 (ja) * 2010-07-27 2012-02-02 パナソニック株式会社 移動経路探索装置および移動経路探索方法
JP2012056026A (ja) * 2010-09-09 2012-03-22 Denso Wave Inc ロボットの評価制御方法及びロボットの制御装置
JP2016524544A (ja) * 2013-04-26 2016-08-18 ピルツ ゲーエムベーハー アンド コー.カーゲー 自動的に作動する機械を保護するための装置および方法
US9434069B1 (en) * 2014-11-10 2016-09-06 Google Inc. Motion heat map

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022190538A1 (ja) 2021-03-12 2022-09-15 オムロン株式会社 情報処理装置および情報処理方法、並びにプログラム
KR102520214B1 (ko) * 2022-12-07 2023-04-11 주식회사 유에이로보틱스 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템

Also Published As

Publication number Publication date
EP3580735A4 (en) 2020-12-09
JP7122776B2 (ja) 2022-08-22
US20190061158A1 (en) 2019-02-28
US20210069907A1 (en) 2021-03-11
US10899007B2 (en) 2021-01-26
US11279039B2 (en) 2022-03-22
US20180222052A1 (en) 2018-08-09
JP2020059121A (ja) 2020-04-16
ES2927177T3 (es) 2022-11-03
US11376741B2 (en) 2022-07-05
US10099372B2 (en) 2018-10-16
US20180222051A1 (en) 2018-08-09
US20210069906A1 (en) 2021-03-11
WO2018148181A1 (en) 2018-08-16
JP2021126767A (ja) 2021-09-02
EP4088890A1 (en) 2022-11-16
EP4088891A1 (en) 2022-11-16
US10882185B2 (en) 2021-01-05
US20180222050A1 (en) 2018-08-09
EP3580735B1 (en) 2022-08-17
EP3580735A1 (en) 2019-12-18
CA3052961A1 (en) 2018-08-16
CN110494900A (zh) 2019-11-22
US11040450B2 (en) 2021-06-22
JP6898012B2 (ja) 2021-07-07
JP6752499B2 (ja) 2020-09-09

Similar Documents

Publication Publication Date Title
JP7122776B2 (ja) 作業空間安全監視および機器制御
US11541543B2 (en) Dynamic, interactive signaling of safety-related conditions in a monitored environment
US11613017B2 (en) Safety-rated multi-cell workspace mapping and monitoring
US11623356B2 (en) Dynamic, interactive signaling of safety-related conditions in a monitored environment
US11820025B2 (en) Safe motion planning for machinery operation
US11636648B2 (en) Workpiece sensing for process management and orchestration
US20220088787A1 (en) Workplace monitoring and semantic entity identification for safe machine operation
JP7299642B2 (ja) 自動的センサ位置合わせおよび構成のためのシステムおよび方法
US20210205995A1 (en) Robot end-effector sensing and identification
JP2022522284A (ja) 安全定格マルチセル作業空間マッピングおよび監視
US20230191635A1 (en) Dynamic, interactive signaling of safety-related conditions in a monitored environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200120

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200120

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200814

R150 Certificate of patent or registration of utility model

Ref document number: 6752499

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250