JP2020511325A - 作業空間安全監視および機器制御 - Google Patents
作業空間安全監視および機器制御 Download PDFInfo
- Publication number
- JP2020511325A JP2020511325A JP2019563335A JP2019563335A JP2020511325A JP 2020511325 A JP2020511325 A JP 2020511325A JP 2019563335 A JP2019563335 A JP 2019563335A JP 2019563335 A JP2019563335 A JP 2019563335A JP 2020511325 A JP2020511325 A JP 2020511325A
- Authority
- JP
- Japan
- Prior art keywords
- workspace
- machinery
- sensor
- robot
- safety
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/04—Systems determining the presence of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V8/00—Prospecting or detecting by optical means
- G01V8/10—Detecting, e.g. by using light barriers
- G01V8/20—Detecting, e.g. by using light barriers using multiple transmitters or receivers
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40202—Human robot coexistence
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40203—Detect position of operator, create non material barrier to protect operator
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40422—Force controlled velocity motion planning, adaptive
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40577—Multisensor object recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/49—Protective device
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Theoretical Computer Science (AREA)
- Manipulator (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Geophysics (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本願は、2017年2月7日に出願された米国仮特許出願第62/455,828号および第62/455,834号に対する優先権およびこれらの利益を主張するものである。
最初に、1021、1022、1023に代表的に示される複数のセンサによって監視される、代表的3D作業空間100を図示する、図1を参照する。センサ102は、理想的には、高フレームレート(例えば、30Hz〜100Hz)を伴うカメラ、例えば、3D飛行時間カメラ、ステレオビジョンカメラ、または3D LIDARセンサまたはレーダベースのセンサ等の従来の光学センサであってもよい。センサ102の動作モードは、作業空間100の3D表現がセンサ102によって取得される画像または他のデータから取得可能である限り、重要ではない。図に示されるように、センサ102は、作業空間100を集合的にカバーし、監視することができ、これは、従来のロボットコントローラ108によって制御されるロボット106を含む。ロボットは、種々のワークピースWと相互作用し、作業空間100内の人物Pは、ワークピースおよびロボット108と相互作用し得る。作業空間100はまた、補助機器110の種々のアイテムを含有し得、これは、センサからその種々の部分を遮蔽することによって作業空間の分析を複雑にし得る。実際に、センサの任意の現実的な配置は、頻繁に、アクティブな作業空間の少なくとも一部を「見る」ことができないであろう。これは、図1の簡略化された配列に図示され、人物Pの存在に起因して、ロボットコントローラ108の少なくとも一部は、全てのセンサから遮蔽され得る。人物が横断し、定常物体でさえも時々移動され得る環境では、観察不可能な領域は、偏移および変動するであろう。
典型的なマルチセンサシステムでは、全ての他のセンサに対する各センサ102の精密な場所が、設定の間に確立される。センサ位置合わせは、通常、自動的に実施され、容易な設定および再構成を可能にするために可能な限り単純であるべきである。簡易化のために、各フレームバッファ335が、特定のセンサ102からの画像(周期的にリフレッシュされ得る)を記憶すると仮定して、分析モジュール342は、各センサからの画像の全てまたは一部をフレームバッファ335内の他のセンサからの画像と比較し、従来のコンピュータビジョン技法を使用し、それらの画像内の対応を識別することによって、センサ102を位置合わせしてもよい。初期位置合わせ近似を要求しない好適な大域的位置合わせアルゴリズムは、概して、2つのカテゴリ、すなわち、特徴ベースの方法および強度ベースの方法に分類される。特徴ベースの方法は、エッジ等の画像特徴の間の対応を識別する一方、強度ベースの方法は、強度パターンの間の相関メトリックを使用する。いったんおおよその位置合わせが識別されると、反復最近接点(ICP)アルゴリズムまたはその好適な変形が、位置合わせを微調整するために使用されてもよい。
いったんセンサが位置合わせされると、制御システム112は、作業空間100の中への全ての侵入を識別することが可能であるように、高い固定頻度で(例えば、分析サイクル毎に)空間マップ345を周期的に更新する。空間マップ345は、センサ102のうちのいくつかまたは全てからのデータの融合を反映する。しかし、3Dデータの性質を前提として、センサ102の場所および作業空間100の構成に応じて、遮蔽する物体よりも危険な機械類に近接する物体(人物または人物の一部、例えば、腕を含み得る)を含む、1つの場所における物体が他の場所におけるセンサの物体のビューを遮蔽するであろうことが、可能性として考えられる。したがって、確実に安全なシステムを提供するために、本システムは、占有される空間だけでなく、遮蔽される空間も監視する。
安全システムが、全ての未知の空間をこれが占有されているように見なすことによって作成されることができる。しかしながら、ある場合には、これは、過度に消極的であり、不良な性能をもたらし得る。したがって、これが潜在的に占有され得るかどうかに従って未知の空間をさらに分類することが、望ましい。人物が3D空間内で移動する際、人物は、典型的には、いくつかのセンサから一部の面積を遮蔽し、結果として一時的に未知である空間の面積を生じるであろう(図1参照)。加えて、産業用ロボットアーム等の可動機械類もまた、一部の面積を一時的に遮蔽し得る。人物または機械類が異なる場所に移動すると、1つ以上のセンサは、未知の空間を再度観察することが可能であり、これをロボットまたは機械が動作するために安全である確認された空の状態に戻すであろう。故に、いくつかの実施形態では、空間はまた、「潜在的に占有」と分類されてもよい。未知の空間は、未知の空間が占有され得る条件が生じると、潜在的に占有されていると見なされる。これは、未知の空間が作業空間への進入点に隣接するとき、または未知の空間が占有される、または潜在的に占有される空間に隣接する場合に起こり得る。潜在的に占有される空間は、作業空間を通して移動する人間を表す速度で未知の空間に「伝染」する。潜在的に占有される空間は、これが空であると観察されるまで、潜在的に占有されたままである。安全目的のために、潜在的に占有される空間は、占有される空間と同一と見なされる。各ボクセルの状態を決定し、本システムが、複数のサンプルからのデータを組み合わせ、結果においてより高いレベルの信頼性を提供することを可能にするために、ベイジアンフィルタリングに基づくもの等の確率的技法を使用することが、望ましくあり得る。予測される速度(例えば、腕が人物が歩行し得るよりも速く上げられ得る)を含む、人間移動の好適なモデルが、容易に利用可能である。
多くの用途に関して、上記に説明されるような作業空間内の領域の分類は、例えば、制御システム112が、通常動作の間にいかなる物体も全く存在するべきではない空間を監視している場合に十分であり得る。しかしながら、多くの場合では、1つ以上の機械および機械が作用しているワークピース等、通常動作の間に少なくともいくつかの物体が存在する面積を監視することが、望ましい。これらの場合では、分析モジュール342は、予期せぬ、または人間であり得る侵入する物体を識別するように構成されてもよい。そのような分類に対する1つの好適なアプローチは、個々の占有されるボクセルをより高いレベルで分析され得る物体にクラスタ化することである。
本段階で、分析モジュール342は、安全目的のために考慮されなければならない、監視される面積100内の全ての物体を識別している。本データを前提として、種々の措置が、とられ、制御出力が、生成されることができる。静的較正の間、または人間のいないデフォルト構成における作業空間で、空間マップ345は、センサカバレッジ、展開される機械類の構成、および人間と機械との間の不要な相互作用の機会を評価するために人間にとって有用であり得る。ケージまたは固定保護を設定しなくても、全体的作業空間レイアウトは、上記に説明されるように安全区域とマーキングされる領域を通した、および不良なセンサカバレッジを伴う領域から離れるような人間移動を誘導する、または促すことによって改良されてもよい。
4.安全行動制約および安全区域の動的決定
センサ102は、上記に議論される様式で、固定頻度で物体分析モジュール415によって分析されるリアルタイム画像情報を提供し、特に、各サイクルにおいて、物体分析モジュール415は、ロボットの届く範囲内であるか、または消極的に予期される速度でロボットの届く範囲に移動し得るかのいずれかである、作業空間400内の全ての物体の精密な3D場所および範囲を識別する。関連するボリュームの全てがセンサ102の集合的視野内にあるわけではない場合、OMS410は、そのように決定し、その領域内の全ての固定物体(またはそれらの物体の消極的上位セット)の場所および範囲を示す、および/または他の保護技法が監視されていない面積へのアクセスを防止するために使用されていることを検証するように構成されてもよい。
ロボット状態決定モジュール(RSDM)420が、ロボットの瞬間的状態を決定するために、センサ102からのデータおよびロボット402および/またはロボットコントローラ407からの信号に応答する。特に、RSDM420は、作業空間400内のロボット402の姿勢および場所を決定し、これは、センサ102、ロボットおよび/またはそのコントローラからの信号、またはこれらの源のある組み合わせからのデータを使用して達成されてもよい。RSDM420はまた、ロボット402またはその任意の付属品の瞬間的速度を決定してもよく、加えて、ロボットの瞬間的ジョイント加速度またはトルク、または計画される将来の軌跡の知識が、下記に説明されるような後続サイクルに関する安全運動制約を決定するために必要とされてもよい。典型的には、本情報は、ロボットコントローラ407から発するが、ある場合には、下記に説明されるように、センサ102によって記録された画像から直接推測されてもよい。
伝統的な軸および速度限定用途では、産業エンジニアは、ロボットの計画される軌跡および作業空間のレイアウトを前提として、ロボットに関して安全である行動を計算し、ロボットの運動の範囲の一部の面積を完全に禁止し、他の面積内で速度を限定する。これらの限定は、固定された静的作業空間環境を仮定する。ここでは、物体および人物が行き来し、位置を変化させる動的環境に関係し、したがって、安全行動が、全ての感知される関連する物体に基づいて、かつロボット402の現在の状態に基づいて、リアルタイムで安全行動決定モジュール(SADM)425によって計算され、これらの安全行動は、サイクル毎に更新されてもよい。安全と見なされるために、行動は、ロボット402がいかなる定常物体とも衝突せず、また、ロボット402がロボットに向かって移動している場合がある人物と接触しないことを確実にするべきである。ロボット402は、ある程度の最大可能減速度を有するため、コントローラ407は、接触が行われる前にこれが完全な停止に到達し得ることを確実にするために、前もって十分にロボットを減速させ始めるように命令されるべきである。
4.4 ロボットへの安全行動制約の通信
本発明は、例えば、以下を提供する。
(項目1)
制御された機械類を含む、3次元作業空間内の安全領域を識別するための安全システムであって、前記システムは、
前記作業空間を中心として分散される複数のセンサであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドと関連付けられ、前記作業空間部分は、部分的に相互に重複する、複数のセンサと、
コントローラであって、前記コントローラは、
前記センサによって取得された前記画像が集合的に前記作業空間を表すように、相互に対して前記センサを位置合わせすることと、
前記作業空間の3次元表現を複数のボリュームとして生成することと、
閾値を上回る強度レベルを有するセンサピクセル毎に、予備的に、前記ピクセルを通る視通線光線路によってインターセプトされ、遮蔽の前記関連付けられるセンサからの推定される距離において終了するボリュームを非占有とマーキングし、前記光線路の終端に対応するボリュームを占有とマーキングし、前記光線路に沿った前記遮蔽を越える任意のボリュームを未知とマーキングすることと、
前記閾値を下回る強度レベルを有するセンサピクセル毎に、予備的に、前記ピクセルを通る視通線光線路によってインターセプトされ、前記作業空間の境界において終了する全てのボクセルを未知とマーキングすることと、
少なくとも一度非占有と予備的にマーキングされたボリュームを非占有と最終的にマーキングすることと、
前記作業空間内の1つ以上の安全ボリューム区域をマッピングすることであって、前記ボリューム区域は、前記機械類の安全区域の外側であり、非占有とマーキングされたボリュームのみを含む、ことと
を行うように構成される、コントローラと
を備える、システム。
(項目2)
点は、ボクセルである、項目1に記載の安全システム。
(項目3)
前記安全区域は、前記機械類の少なくとも一部を囲繞する3Dボリュームである、項目1に記載の安全システム。
(項目4)
前記コントローラは、前記センサによる前記作業空間のリアルタイム監視に応答し、前記センサによって検出される前記安全区域の中への侵入に応答して、前記機械類の動作を改変するように構成される、項目3に記載の安全システム。
(項目5)
前記安全区域は、前記3Dボリューム内で複数のネスト化サブ区域に分割され、前記サブ区域のそれぞれの中への検出された侵入は、前記機械類の動作の異なる改変度をもたらす、項目4に記載の安全システム。
(項目6)
前記センサは、3Dセンサである、項目1に記載の安全システム。
(項目7)
前記センサのうちの少なくともいくつかは、飛行時間カメラである、項目6に記載の安全システム。
(項目8)
前記センサのうちの少なくともいくつかは、3D LIDARセンサである、項目6に記載の安全システム。
(項目9)
前記センサのうちの少なくともいくつかは、ステレオビジョンカメラである、項目6に記載の安全システム。
(項目10)
前記コントローラは、前記機械類によって取り扱われているワークピースを認識し、前記安全区域を生成する際に前記ワークピースをその一部として見なすように構成される、項目1に記載の安全システム。
(項目11)
前記コントローラは、人間移動のモデルに従って、前記作業空間の中への前記侵入をコンピュータ的に拡張するように構成される、項目4に記載の安全システム。
(項目12)
3次元作業空間内で機械類を安全に動作させる方法であって、前記方法は、
作業空間を中心として分散される複数のセンサを用いて前記作業空間を監視するステップであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドと関連付けられ、前記作業空間部分は、部分的に相互に重複する、ステップと、
前記センサによって取得された前記画像が集合的に前記作業空間を表すように、相互に対して前記センサを位置合わせするステップと、
コンピュータメモリ内に記憶された前記作業空間の3次元表現をコンピュータ的に生成するステップと、
閾値を上回る強度レベルを有するセンサピクセル毎に、予備的に、前記コンピュータメモリ内で、前記ピクセルを通る視通線光線路によってインターセプトされ、遮蔽の前記関連付けられるセンサからの推定される距離において終了するボリュームを非占有とマーキングし、前記光線路の終端に対応するボリュームを占有とマーキングし、前記光線路に沿った前記遮蔽を越える任意のボリュームを未知とマーキングするステップと、
前記閾値を下回る強度レベルを有するセンサピクセル毎に、予備的に、前記ピクセルを通る視通線光線路によってインターセプトされ、前記作業空間の境界において終了する全てのボリュームを未知とマーキングするステップと、
少なくとも一度非占有と予備的にマーキングされたボリュームを非占有と最終的にマーキングするステップと、
前記作業空間内の1つ以上の安全ボリューム区域をコンピュータ的にマッピングするステップであって、前記ボリューム区域は、前記機械類の安全区域の外側であり、非占有とマーキングされたボリュームのみを含む、ステップと
を含む、方法。
(項目13)
点は、ボクセルである、項目12に記載の方法。
(項目14)
前記安全区域は、前記機械類の少なくとも一部を囲繞する3Dボリュームである、項目12に記載の方法。
(項目15)
応答して、前記機械類の動作を改変することによって、前記安全区域の中への検出された侵入に応答するステップをさらに含む、項目14に記載の方法。
(項目16)
前記安全区域は、前記3Dボリューム内で複数のネスト化サブ区域に分割され、前記サブ区域のそれぞれの中への検出された侵入は、前記機械類の動作の異なる改変度をもたらす、項目15に記載の方法。
(項目17)
前記機械類によって取り扱われているワークピースをコンピュータ的に認識し、前記安全区域を生成する際に前記ワークピースをその一部として見なすステップをさらに含む、項目12に記載の方法。
(項目18)
人間移動のモデルに従って、前記作業空間の中への前記侵入をコンピュータ的に拡張するステップをさらに含む、項目15に記載の方法。
(項目19)
前記コンピュータ認識ステップは、ニューラルネットワークを使用して実施される、項目17に記載の方法。
(項目20)
前記機械類に関する安全行動制約を生成し、それに従って前記機械類を制御するステップをさらに含む、項目12に記載の方法。
(項目21)
前記機械類は、少なくとも1つのロボットである、項目12に記載の方法。
(項目22)
3次元(3D)作業空間内で活動を実施する機械類の安全な動作を施行するための安全システムであって、前記システムは、
前記作業空間を中心として分散される複数のセンサであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドと関連付けられ、前記作業空間部分は、集合的に前記作業空間全体をカバーする、複数のセンサと、
コンピュータメモリであって、前記コンピュータメモリは、(i)前記センサからの複数の画像と、(ii)前記機械類および前記活動の実施の間のその許可された移動のモデルと、(iii)人間に近接する前記機械類の速度制限および前記機械類と人間との間の最小分離距離を規定する安全性プロトコルとを記憶する、コンピュータメモリと、
プロセッサであって、前記プロセッサは、
前記記憶された画像から、前記作業空間の3D空間表現をコンピュータ的に生成することと、
前記記憶されたモデルに従って、前記許可された移動に及ぶ前記機械類の周囲の3Dエンベロープによって増強される、前記作業空間内の前記機械類によって占有される空間に対応する前記作業空間の第1の3D領域を識別することと、
所定の将来の時間内の前記作業空間内の人間の予測される移動に対応する前記人間の周囲の3Dエンベロープによって増強される、前記作業空間内の前記人間によって占有される、または潜在的に占有される空間に対応する前記作業空間の第2の3D領域を識別することと、
前記第1および第2の領域の間の近接性に基づいて、前記安全性プロトコルに従って前記機械類の活動を制限することと
を行うように構成される、プロセッサと
を備える、システム。
(項目23)
前記作業空間は、複数のボクセルとしてコンピュータ的に表される、項目22に記載の安全システム。
(項目24)
前記プロセッサは、少なくとも部分的に、前記機械類によって提供される状態データに基づいて、前記機械類に対応する領域を識別するように構成される、項目22に記載の安全システム。
(項目25)
前記状態データは、安全適合であり、安全適合通信プロトコルを経由して提供される、項目24に記載の安全システム。
(項目26)
前記状態データは、安全適合ではないが、前記センサから受信された情報によって検証される、項目3に記載の安全システム。
(項目27)
前記状態データは、ロボットモデルを構築し、前記モデル内に検出された物体を除去し、任意の残りの物体が前記機械類に隣接する場合、前記機械類を停止させることによって検証される、項目24に記載の安全システム。
(項目28)
前記状態データは、前記機械類の位置を識別するようにコンピュータビジョンを使用し、これを報告された位置と比較することによって検証される、項目24に記載の安全システム。
(項目29)
前記状態データは、前記機械類へのいかなるインターフェースも伴わずに前記センサによって決定される、項目24に記載の安全システム。
(項目30)
前記第1の3D領域は、複数のネスト化された空間的に明確に異なる3Dサブ区域に分割される、項目22に記載の安全システム。
(項目31)
前記第2の3D領域と前記サブ区域のそれぞれとの間の重複は、前記機械類の動作の異なる改変度をもたらす、項目25に記載の安全システム。
(項目32)
前記プロセッサはさらに、前記機械類によって取り扱われているワークピースを認識し、前記第1の3D領域を識別する際に前記ワークピースをその一部として見なすように構成される、項目24に記載の安全システム。
(項目33)
前記プロセッサは、前記機械類が停止されるときを除いて、前記機械類と人間との間の接触を防止するように、前記機械類の最大速度を動的に制御するように構成される、項目22に記載の安全システム。
(項目34)
前記プロセッサは、前記近接性に基づいて、衝突までの最短可能時間を算出するように構成される、項目22に記載の安全システム。
(項目35)
前記プロセッサは、前記センサによる前記作業空間のリアルタイム監視に応答し、前記センサによって検出された前記作業空間の中への侵入に応答して、前記機械類の動作を改変するように構成される、項目22に記載の安全システム。
(項目36)
前記機械類は、少なくとも1つのロボットである、項目22に記載の安全システム。
(項目37)
3次元(3D)作業空間内で機械類を安全に動作させる方法であって、前記方法は、
作業空間を中心として分散される複数のセンサを用いて前記作業空間を監視するステップであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドと関連付けられ、前記作業空間部分は、部分的に相互に重複する、ステップと、
前記センサによって取得された前記画像が集合的に前記作業空間を表すように、相互に対して前記センサを位置合わせするステップと、
コンピュータメモリ内に、(i)前記センサからの複数の画像と、(ii)前記機械類および活動の実施の間のその許可された移動のモデルと、(iii)人間に近接する前記機械類の速度制限および機械と人間との間の最小分離距離を規定する安全性プロトコルとを記憶するステップと、
前記記憶された画像から、前記作業空間の3D空間表現をコンピュータ的に生成するステップと、
前記記憶されたモデルに従って、前記許可された移動に及ぶ前記機械類の周囲の3Dエンベロープによって増強される、前記作業空間内の前記機械類によって占有される空間に対応する前記作業空間の第1の3D領域をコンピュータ的に識別するステップと、
所定の将来の時間内の前記作業空間内の人間の予測される移動に対応する前記人間の周囲の3Dエンベロープによって増強される、前記作業空間内の前記人間によって占有される、または潜在的に占有される空間に対応する前記作業空間の第2の3D領域をコンピュータ的に識別するステップと、
前記第1および第2の領域の間の近接性に基づいて、前記安全性プロトコルに従って前記機械類の活動を制限するステップと
を含む、方法。
(項目38)
前記作業空間は、複数のボクセルとしてコンピュータ的に表される、項目31に記載の方法。
(項目39)
前記第1の3D領域は、複数のネスト化された空間的に明確に異なる3Dサブ区域に分割される、項目31に記載の方法。
(項目40)
前記第2の3D領域と前記サブ区域のそれぞれとの間の重複は、前記機械類の動作の異なる改変度をもたらす、項目33に記載の方法。
(項目41)
前記機械類によって取り扱われているワークピースを認識し、前記第1の3D領域をコンピュータ的に識別する際に前記ワークピースをその一部として見なすステップをさらに含む、項目31に記載の方法。
(項目42)
前記機械類の活動を制限するステップは、前記近接性の平方根に比例して前記機械類の最大速度を制御するステップを含む、項目31に記載の方法。
(項目43)
前記機械類の活動を制限するステップは、前記近接性に基づいて、衝突までの最短可能時間を算出するステップを含む、項目31に記載の方法。
(項目44)
前記センサによって検出された前記作業空間の中への侵入に応答して、前記機械類の動作を改変するステップをさらに含む、項目31に記載の方法。
(項目45)
前記機械類は、少なくとも1つのロボットである、項目31に記載の方法。
(項目46)
活動を実施する機械類を含む3次元(3D)作業空間内で安全領域を識別するための安全システムであって、前記システムは、
前記作業空間を中心として分散される複数のセンサであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドを備え、前記作業空間部分は、集合的に前記作業空間全体をカバーする、複数のセンサと、
コンピュータメモリであって、前記コンピュータメモリは、(i)前記センサからの複数の画像と、(ii)前記機械類および前記活動の実施の間のその許可された移動のモデルと、(iii)人間に近接する前記機械類の速度制限および前記機械類と人間との間の最小分離距離を規定する安全性プロトコルとを記憶する、コンピュータメモリと、
プロセッサであって、前記プロセッサは、
前記記憶された画像から、前記作業空間の3D空間表現をコンピュータ的に生成することと、
3D機械類領域として前記作業空間内の前記機械類によって占有される空間の表現を経時的に識別および監視し、前記記憶されたモデルに従って、前記機械類の許可された移動に及ぶ3Dエンベロープ領域を前記機械類領域の周囲に生成することと、
前記機械類と前記作業空間内のワークピースとの間の相互作用を認識することと、
前記認識された相互作用に応答して、前記ワークピースを含むように前記機械類領域を更新し、前記記憶されたモデルおよび前記更新された機械類領域に従って前記エンベロープ領域を更新することと、
前記安全性プロトコルに従って、更新される際に前記ロボット領域の周囲に3D安全区域をコンピュータ的に生成することと
を行うように構成される、プロセッサと
を備える、システム。
(項目47)
前記プロセッサはさらに、
前記作業空間内の人間によって占有される、または潜在的に占有される空間に対応するボリュームにおける領域を識別することと、
前記ロボット領域と前記人間占有領域との間の近接性に基づいて、前記安全性プロトコルに従って前記ロボットの活動を制限することと
を行うように構成される、項目46に記載の安全システム。
(項目48)
前記人間占有領域は、所定の将来の時間内の前記作業空間内の前記人間の予測される移動に対応する前記人間の周囲の3Dエンベロープによって増強される、項目47に記載の安全システム。
(項目49)
前記プロセッサはさらに、前記画像内で、前記ロボットおよび前記ワークピース以外の前記作業空間内のアイテムを認識するように構成され、前記プロセッサは、前記ロボットまたはワークピースの一部ではなく、別様に認識されない検出されたアイテムを人間として識別する、項目46に記載の安全システム。
(項目50)
前記プロセッサは、前記画像内で、前記作業空間内のアイテムを検出し、外部から提供されるその識別を受信するように構成され、前記プロセッサは、前記ロボットまたはワークピースの一部ではなく、いかなる外部から提供される識別も受信されなかった検出されたアイテムを人間として識別する、項目49に記載の安全システム。
(項目51)
前記作業空間は、複数のボクセルとしてコンピュータ的に表される、項目46に記載の安全システム。
(項目52)
前記機械類は、少なくとも1つのロボットである、項目46に記載の安全システム。
(項目53)
3次元(3D)作業空間内で機械類を安全に動作させる方法であって、前記方法は、
作業空間を中心として分散される複数のセンサを用いて前記作業空間を監視するステップであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドを備え、前記作業空間部分は、部分的に相互に重複する、ステップと、
前記センサによって取得された前記画像が集合的に前記作業空間を表すように、相互に対して前記センサを位置合わせするステップと、
コンピュータメモリ内に、(i)前記センサからの複数の画像と、(ii)前記機械類および活動の実施の間のその許可された移動のモデルと、(iii)人間に近接する前記機械類の速度制限および機械と人間との間の最小分離距離を規定する安全性プロトコルとを記憶するステップと、
前記記憶された画像から、前記作業空間の3D空間表現をコンピュータ的に生成するステップと、
3D機械類領域として前記作業空間内の前記機械類によって占有される空間の表現を経時的にコンピュータ的に識別および監視し、前記記憶されたモデルに従って、前記機械類の許可された移動に及ぶ3Dエンベロープ領域を前記機械類領域の周囲に生成するステップと、
前記機械類と前記作業空間内のワークピースとの間の相互作用を認識するステップと、
前記認識された相互作用に応答して、前記ワークピースを含むように前記機械類領域をコンピュータ的に更新し、前記記憶されたモデルおよび前記更新された機械類領域に従って前記エンベロープ領域をコンピュータ的に更新するステップと、
前記安全性プロトコルに従って、更新される際に前記ロボット領域の周囲に3D安全区域をコンピュータ的に生成するステップと
を含む、方法。
(項目54)
前記作業空間内の人間によって占有される空間に対応するボリュームにおける領域を識別するステップと、
前記ロボット領域と前記人間占有領域との間の近接性に基づいて、前記安全性プロトコルに従って前記ロボットの活動を制限するステップと
をさらに含む、項目53に記載の方法。
(項目55)
所定の将来の時間内の前記作業空間内の前記人間の予測される移動に対応する前記人間の周囲の3Dエンベロープによって、前記人間占有領域を増強するステップをさらに含む、項目54に記載の方法。
(項目56)
(i)前記画像内で、前記機械類および前記ワークピース以外の前記作業空間内のアイテムを認識するステップと、(ii)前記機械類またはワークピースの一部ではなく、別様に認識されない検出されたアイテムを人間として識別するステップとをさらに含む、項目53に記載の方法。
(項目57)
(i)前記画像内で、前記作業空間内のアイテムを検出し、外部から提供されるその識別を受信するステップと、(ii)前記機械類またはワークピースの一部ではなく、いかなる外部から提供される識別も受信されなかった検出されたアイテムを人間として識別するステップとをさらに含む、項目56に記載の方法。
(項目58)
前記作業空間は、複数のボクセルとしてコンピュータ的に表される、項目53に記載の方法。
(項目59)
前記機械類は、少なくとも1つのロボットである、項目53に記載の方法。
Claims (59)
- 制御された機械類を含む、3次元作業空間内の安全領域を識別するための安全システムであって、前記システムは、
前記作業空間を中心として分散される複数のセンサであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドと関連付けられ、前記作業空間部分は、部分的に相互に重複する、複数のセンサと、
コントローラであって、前記コントローラは、
前記センサによって取得された前記画像が集合的に前記作業空間を表すように、相互に対して前記センサを位置合わせすることと、
前記作業空間の3次元表現を複数のボリュームとして生成することと、
閾値を上回る強度レベルを有するセンサピクセル毎に、予備的に、前記ピクセルを通る視通線光線路によってインターセプトされ、遮蔽の前記関連付けられるセンサからの推定される距離において終了するボリュームを非占有とマーキングし、前記光線路の終端に対応するボリュームを占有とマーキングし、前記光線路に沿った前記遮蔽を越える任意のボリュームを未知とマーキングすることと、
前記閾値を下回る強度レベルを有するセンサピクセル毎に、予備的に、前記ピクセルを通る視通線光線路によってインターセプトされ、前記作業空間の境界において終了する全てのボクセルを未知とマーキングすることと、
少なくとも一度非占有と予備的にマーキングされたボリュームを非占有と最終的にマーキングすることと、
前記作業空間内の1つ以上の安全ボリューム区域をマッピングすることであって、前記ボリューム区域は、前記機械類の安全区域の外側であり、非占有とマーキングされたボリュームのみを含む、ことと
を行うように構成される、コントローラと
を備える、システム。 - 点は、ボクセルである、請求項1に記載の安全システム。
- 前記安全区域は、前記機械類の少なくとも一部を囲繞する3Dボリュームである、請求項1に記載の安全システム。
- 前記コントローラは、前記センサによる前記作業空間のリアルタイム監視に応答し、前記センサによって検出される前記安全区域の中への侵入に応答して、前記機械類の動作を改変するように構成される、請求項3に記載の安全システム。
- 前記安全区域は、前記3Dボリューム内で複数のネスト化サブ区域に分割され、前記サブ区域のそれぞれの中への検出された侵入は、前記機械類の動作の異なる改変度をもたらす、請求項4に記載の安全システム。
- 前記センサは、3Dセンサである、請求項1に記載の安全システム。
- 前記センサのうちの少なくともいくつかは、飛行時間カメラである、請求項6に記載の安全システム。
- 前記センサのうちの少なくともいくつかは、3D LIDARセンサである、請求項6に記載の安全システム。
- 前記センサのうちの少なくともいくつかは、ステレオビジョンカメラである、請求項6に記載の安全システム。
- 前記コントローラは、前記機械類によって取り扱われているワークピースを認識し、前記安全区域を生成する際に前記ワークピースをその一部として見なすように構成される、請求項1に記載の安全システム。
- 前記コントローラは、人間移動のモデルに従って、前記作業空間の中への前記侵入をコンピュータ的に拡張するように構成される、請求項4に記載の安全システム。
- 3次元作業空間内で機械類を安全に動作させる方法であって、前記方法は、
作業空間を中心として分散される複数のセンサを用いて前記作業空間を監視するステップであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドと関連付けられ、前記作業空間部分は、部分的に相互に重複する、ステップと、
前記センサによって取得された前記画像が集合的に前記作業空間を表すように、相互に対して前記センサを位置合わせするステップと、
コンピュータメモリ内に記憶された前記作業空間の3次元表現をコンピュータ的に生成するステップと、
閾値を上回る強度レベルを有するセンサピクセル毎に、予備的に、前記コンピュータメモリ内で、前記ピクセルを通る視通線光線路によってインターセプトされ、遮蔽の前記関連付けられるセンサからの推定される距離において終了するボリュームを非占有とマーキングし、前記光線路の終端に対応するボリュームを占有とマーキングし、前記光線路に沿った前記遮蔽を越える任意のボリュームを未知とマーキングするステップと、
前記閾値を下回る強度レベルを有するセンサピクセル毎に、予備的に、前記ピクセルを通る視通線光線路によってインターセプトされ、前記作業空間の境界において終了する全てのボリュームを未知とマーキングするステップと、
少なくとも一度非占有と予備的にマーキングされたボリュームを非占有と最終的にマーキングするステップと、
前記作業空間内の1つ以上の安全ボリューム区域をコンピュータ的にマッピングするステップであって、前記ボリューム区域は、前記機械類の安全区域の外側であり、非占有とマーキングされたボリュームのみを含む、ステップと
を含む、方法。 - 点は、ボクセルである、請求項12に記載の方法。
- 前記安全区域は、前記機械類の少なくとも一部を囲繞する3Dボリュームである、請求項12に記載の方法。
- 応答して、前記機械類の動作を改変することによって、前記安全区域の中への検出された侵入に応答するステップをさらに含む、請求項14に記載の方法。
- 前記安全区域は、前記3Dボリューム内で複数のネスト化サブ区域に分割され、前記サブ区域のそれぞれの中への検出された侵入は、前記機械類の動作の異なる改変度をもたらす、請求項15に記載の方法。
- 前記機械類によって取り扱われているワークピースをコンピュータ的に認識し、前記安全区域を生成する際に前記ワークピースをその一部として見なすステップをさらに含む、請求項12に記載の方法。
- 人間移動のモデルに従って、前記作業空間の中への前記侵入をコンピュータ的に拡張するステップをさらに含む、請求項15に記載の方法。
- 前記コンピュータ認識ステップは、ニューラルネットワークを使用して実施される、請求項17に記載の方法。
- 前記機械類に関する安全行動制約を生成し、それに従って前記機械類を制御するステップをさらに含む、請求項12に記載の方法。
- 前記機械類は、少なくとも1つのロボットである、請求項12に記載の方法。
- 3次元(3D)作業空間内で活動を実施する機械類の安全な動作を施行するための安全システムであって、前記システムは、
前記作業空間を中心として分散される複数のセンサであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドと関連付けられ、前記作業空間部分は、集合的に前記作業空間全体をカバーする、複数のセンサと、
コンピュータメモリであって、前記コンピュータメモリは、(i)前記センサからの複数の画像と、(ii)前記機械類および前記活動の実施の間のその許可された移動のモデルと、(iii)人間に近接する前記機械類の速度制限および前記機械類と人間との間の最小分離距離を規定する安全性プロトコルとを記憶する、コンピュータメモリと、
プロセッサであって、前記プロセッサは、
前記記憶された画像から、前記作業空間の3D空間表現をコンピュータ的に生成することと、
前記記憶されたモデルに従って、前記許可された移動に及ぶ前記機械類の周囲の3Dエンベロープによって増強される、前記作業空間内の前記機械類によって占有される空間に対応する前記作業空間の第1の3D領域を識別することと、
所定の将来の時間内の前記作業空間内の人間の予測される移動に対応する前記人間の周囲の3Dエンベロープによって増強される、前記作業空間内の前記人間によって占有される、または潜在的に占有される空間に対応する前記作業空間の第2の3D領域を識別することと、
前記第1および第2の領域の間の近接性に基づいて、前記安全性プロトコルに従って前記機械類の活動を制限することと
を行うように構成される、プロセッサと
を備える、システム。 - 前記作業空間は、複数のボクセルとしてコンピュータ的に表される、請求項22に記載の安全システム。
- 前記プロセッサは、少なくとも部分的に、前記機械類によって提供される状態データに基づいて、前記機械類に対応する領域を識別するように構成される、請求項22に記載の安全システム。
- 前記状態データは、安全適合であり、安全適合通信プロトコルを経由して提供される、請求項24に記載の安全システム。
- 前記状態データは、安全適合ではないが、前記センサから受信された情報によって検証される、請求項3に記載の安全システム。
- 前記状態データは、ロボットモデルを構築し、前記モデル内に検出された物体を除去し、任意の残りの物体が前記機械類に隣接する場合、前記機械類を停止させることによって検証される、請求項24に記載の安全システム。
- 前記状態データは、前記機械類の位置を識別するようにコンピュータビジョンを使用し、これを報告された位置と比較することによって検証される、請求項24に記載の安全システム。
- 前記状態データは、前記機械類へのいかなるインターフェースも伴わずに前記センサによって決定される、請求項24に記載の安全システム。
- 前記第1の3D領域は、複数のネスト化された空間的に明確に異なる3Dサブ区域に分割される、請求項22に記載の安全システム。
- 前記第2の3D領域と前記サブ区域のそれぞれとの間の重複は、前記機械類の動作の異なる改変度をもたらす、請求項25に記載の安全システム。
- 前記プロセッサはさらに、前記機械類によって取り扱われているワークピースを認識し、前記第1の3D領域を識別する際に前記ワークピースをその一部として見なすように構成される、請求項24に記載の安全システム。
- 前記プロセッサは、前記機械類が停止されるときを除いて、前記機械類と人間との間の接触を防止するように、前記機械類の最大速度を動的に制御するように構成される、請求項22に記載の安全システム。
- 前記プロセッサは、前記近接性に基づいて、衝突までの最短可能時間を算出するように構成される、請求項22に記載の安全システム。
- 前記プロセッサは、前記センサによる前記作業空間のリアルタイム監視に応答し、前記センサによって検出された前記作業空間の中への侵入に応答して、前記機械類の動作を改変するように構成される、請求項22に記載の安全システム。
- 前記機械類は、少なくとも1つのロボットである、請求項22に記載の安全システム。
- 3次元(3D)作業空間内で機械類を安全に動作させる方法であって、前記方法は、
作業空間を中心として分散される複数のセンサを用いて前記作業空間を監視するステップであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドと関連付けられ、前記作業空間部分は、部分的に相互に重複する、ステップと、
前記センサによって取得された前記画像が集合的に前記作業空間を表すように、相互に対して前記センサを位置合わせするステップと、
コンピュータメモリ内に、(i)前記センサからの複数の画像と、(ii)前記機械類および活動の実施の間のその許可された移動のモデルと、(iii)人間に近接する前記機械類の速度制限および機械と人間との間の最小分離距離を規定する安全性プロトコルとを記憶するステップと、
前記記憶された画像から、前記作業空間の3D空間表現をコンピュータ的に生成するステップと、
前記記憶されたモデルに従って、前記許可された移動に及ぶ前記機械類の周囲の3Dエンベロープによって増強される、前記作業空間内の前記機械類によって占有される空間に対応する前記作業空間の第1の3D領域をコンピュータ的に識別するステップと、
所定の将来の時間内の前記作業空間内の人間の予測される移動に対応する前記人間の周囲の3Dエンベロープによって増強される、前記作業空間内の前記人間によって占有される、または潜在的に占有される空間に対応する前記作業空間の第2の3D領域をコンピュータ的に識別するステップと、
前記第1および第2の領域の間の近接性に基づいて、前記安全性プロトコルに従って前記機械類の活動を制限するステップと
を含む、方法。 - 前記作業空間は、複数のボクセルとしてコンピュータ的に表される、請求項31に記載の方法。
- 前記第1の3D領域は、複数のネスト化された空間的に明確に異なる3Dサブ区域に分割される、請求項31に記載の方法。
- 前記第2の3D領域と前記サブ区域のそれぞれとの間の重複は、前記機械類の動作の異なる改変度をもたらす、請求項33に記載の方法。
- 前記機械類によって取り扱われているワークピースを認識し、前記第1の3D領域をコンピュータ的に識別する際に前記ワークピースをその一部として見なすステップをさらに含む、請求項31に記載の方法。
- 前記機械類の活動を制限するステップは、前記近接性の平方根に比例して前記機械類の最大速度を制御するステップを含む、請求項31に記載の方法。
- 前記機械類の活動を制限するステップは、前記近接性に基づいて、衝突までの最短可能時間を算出するステップを含む、請求項31に記載の方法。
- 前記センサによって検出された前記作業空間の中への侵入に応答して、前記機械類の動作を改変するステップをさらに含む、請求項31に記載の方法。
- 前記機械類は、少なくとも1つのロボットである、請求項31に記載の方法。
- 活動を実施する機械類を含む3次元(3D)作業空間内で安全領域を識別するための安全システムであって、前記システムは、
前記作業空間を中心として分散される複数のセンサであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドを備え、前記作業空間部分は、集合的に前記作業空間全体をカバーする、複数のセンサと、
コンピュータメモリであって、前記コンピュータメモリは、(i)前記センサからの複数の画像と、(ii)前記機械類および前記活動の実施の間のその許可された移動のモデルと、(iii)人間に近接する前記機械類の速度制限および前記機械類と人間との間の最小分離距離を規定する安全性プロトコルとを記憶する、コンピュータメモリと、
プロセッサであって、前記プロセッサは、
前記記憶された画像から、前記作業空間の3D空間表現をコンピュータ的に生成することと、
3D機械類領域として前記作業空間内の前記機械類によって占有される空間の表現を経時的に識別および監視し、前記記憶されたモデルに従って、前記機械類の許可された移動に及ぶ3Dエンベロープ領域を前記機械類領域の周囲に生成することと、
前記機械類と前記作業空間内のワークピースとの間の相互作用を認識することと、
前記認識された相互作用に応答して、前記ワークピースを含むように前記機械類領域を更新し、前記記憶されたモデルおよび前記更新された機械類領域に従って前記エンベロープ領域を更新することと、
前記安全性プロトコルに従って、更新される際に前記ロボット領域の周囲に3D安全区域をコンピュータ的に生成することと
を行うように構成される、プロセッサと
を備える、システム。 - 前記プロセッサはさらに、
前記作業空間内の人間によって占有される、または潜在的に占有される空間に対応するボリュームにおける領域を識別することと、
前記ロボット領域と前記人間占有領域との間の近接性に基づいて、前記安全性プロトコルに従って前記ロボットの活動を制限することと
を行うように構成される、請求項46に記載の安全システム。 - 前記人間占有領域は、所定の将来の時間内の前記作業空間内の前記人間の予測される移動に対応する前記人間の周囲の3Dエンベロープによって増強される、請求項47に記載の安全システム。
- 前記プロセッサはさらに、前記画像内で、前記ロボットおよび前記ワークピース以外の前記作業空間内のアイテムを認識するように構成され、前記プロセッサは、前記ロボットまたはワークピースの一部ではなく、別様に認識されない検出されたアイテムを人間として識別する、請求項46に記載の安全システム。
- 前記プロセッサは、前記画像内で、前記作業空間内のアイテムを検出し、外部から提供されるその識別を受信するように構成され、前記プロセッサは、前記ロボットまたはワークピースの一部ではなく、いかなる外部から提供される識別も受信されなかった検出されたアイテムを人間として識別する、請求項49に記載の安全システム。
- 前記作業空間は、複数のボクセルとしてコンピュータ的に表される、請求項46に記載の安全システム。
- 前記機械類は、少なくとも1つのロボットである、請求項46に記載の安全システム。
- 3次元(3D)作業空間内で機械類を安全に動作させる方法であって、前記方法は、
作業空間を中心として分散される複数のセンサを用いて前記作業空間を監視するステップであって、前記センサはそれぞれ、センサ視野内の前記作業空間の一部の画像を記録するためのピクセルのグリッドを備え、前記作業空間部分は、部分的に相互に重複する、ステップと、
前記センサによって取得された前記画像が集合的に前記作業空間を表すように、相互に対して前記センサを位置合わせするステップと、
コンピュータメモリ内に、(i)前記センサからの複数の画像と、(ii)前記機械類および活動の実施の間のその許可された移動のモデルと、(iii)人間に近接する前記機械類の速度制限および機械と人間との間の最小分離距離を規定する安全性プロトコルとを記憶するステップと、
前記記憶された画像から、前記作業空間の3D空間表現をコンピュータ的に生成するステップと、
3D機械類領域として前記作業空間内の前記機械類によって占有される空間の表現を経時的にコンピュータ的に識別および監視し、前記記憶されたモデルに従って、前記機械類の許可された移動に及ぶ3Dエンベロープ領域を前記機械類領域の周囲に生成するステップと、
前記機械類と前記作業空間内のワークピースとの間の相互作用を認識するステップと、
前記認識された相互作用に応答して、前記ワークピースを含むように前記機械類領域をコンピュータ的に更新し、前記記憶されたモデルおよび前記更新された機械類領域に従って前記エンベロープ領域をコンピュータ的に更新するステップと、
前記安全性プロトコルに従って、更新される際に前記ロボット領域の周囲に3D安全区域をコンピュータ的に生成するステップと
を含む、方法。 - 前記作業空間内の人間によって占有される空間に対応するボリュームにおける領域を識別するステップと、
前記ロボット領域と前記人間占有領域との間の近接性に基づいて、前記安全性プロトコルに従って前記ロボットの活動を制限するステップと
をさらに含む、請求項53に記載の方法。 - 所定の将来の時間内の前記作業空間内の前記人間の予測される移動に対応する前記人間の周囲の3Dエンベロープによって、前記人間占有領域を増強するステップをさらに含む、請求項54に記載の方法。
- (i)前記画像内で、前記機械類および前記ワークピース以外の前記作業空間内のアイテムを認識するステップと、(ii)前記機械類またはワークピースの一部ではなく、別様に認識されない検出されたアイテムを人間として識別するステップとをさらに含む、請求項53に記載の方法。
- (i)前記画像内で、前記作業空間内のアイテムを検出し、外部から提供されるその識別を受信するステップと、(ii)前記機械類またはワークピースの一部ではなく、いかなる外部から提供される識別も受信されなかった検出されたアイテムを人間として識別するステップとをさらに含む、請求項56に記載の方法。
- 前記作業空間は、複数のボクセルとしてコンピュータ的に表される、請求項53に記載の方法。
- 前記機械類は、少なくとも1つのロボットである、請求項53に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020006561A JP6898012B2 (ja) | 2017-02-07 | 2020-01-20 | 作業空間安全監視および機器制御 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762455834P | 2017-02-07 | 2017-02-07 | |
US201762455828P | 2017-02-07 | 2017-02-07 | |
US62/455,828 | 2017-02-07 | ||
US62/455,834 | 2017-02-07 | ||
PCT/US2018/016991 WO2018148181A1 (en) | 2017-02-07 | 2018-02-06 | Workspace safety monitoring and equipment control |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020006561A Division JP6898012B2 (ja) | 2017-02-07 | 2020-01-20 | 作業空間安全監視および機器制御 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020511325A true JP2020511325A (ja) | 2020-04-16 |
JP6752499B2 JP6752499B2 (ja) | 2020-09-09 |
Family
ID=63038286
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019563335A Active JP6752499B2 (ja) | 2017-02-07 | 2018-02-06 | 制御された機械類を含む、3次元作業空間内の安全区域を識別するための安全システム、ならびに、3次元作業空間内で制御された機械類を安全に動作させる方法 |
JP2020006561A Active JP6898012B2 (ja) | 2017-02-07 | 2020-01-20 | 作業空間安全監視および機器制御 |
JP2021093582A Active JP7122776B2 (ja) | 2017-02-07 | 2021-06-03 | 作業空間安全監視および機器制御 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020006561A Active JP6898012B2 (ja) | 2017-02-07 | 2020-01-20 | 作業空間安全監視および機器制御 |
JP2021093582A Active JP7122776B2 (ja) | 2017-02-07 | 2021-06-03 | 作業空間安全監視および機器制御 |
Country Status (7)
Country | Link |
---|---|
US (6) | US11040450B2 (ja) |
EP (3) | EP3580735B1 (ja) |
JP (3) | JP6752499B2 (ja) |
CN (1) | CN110494900A (ja) |
CA (1) | CA3052961A1 (ja) |
ES (1) | ES2927177T3 (ja) |
WO (1) | WO2018148181A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022190538A1 (ja) | 2021-03-12 | 2022-09-15 | オムロン株式会社 | 情報処理装置および情報処理方法、並びにプログラム |
KR102520214B1 (ko) * | 2022-12-07 | 2023-04-11 | 주식회사 유에이로보틱스 | 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 |
Families Citing this family (99)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10528021B2 (en) | 2015-10-30 | 2020-01-07 | Rockwell Automation Technologies, Inc. | Automated creation of industrial dashboards and widgets |
US10924881B2 (en) * | 2016-03-03 | 2021-02-16 | Husqvarna Ab | Device for determining construction device and worker position |
US10796449B2 (en) * | 2016-03-28 | 2020-10-06 | Nec Solution Innovators, Ltd. | Measurement device, measurement method, and computer readable recording medium |
EP3243609A1 (en) * | 2016-05-09 | 2017-11-15 | OpiFlex Automation AB | A fenceless industrial robot system |
WO2017214581A1 (en) | 2016-06-10 | 2017-12-14 | Duke University | Motion planning for autonomous vehicles and reconfigurable motion planning processors |
US11000953B2 (en) * | 2016-08-17 | 2021-05-11 | Locus Robotics Corp. | Robot gamification for improvement of operator performance |
US10545492B2 (en) | 2016-09-26 | 2020-01-28 | Rockwell Automation Technologies, Inc. | Selective online and offline access to searchable industrial automation data |
US10298012B2 (en) | 2016-09-29 | 2019-05-21 | Enel X North America, Inc. | Network operations center including automated validation, estimation, and editing configuration engine |
US10461533B2 (en) | 2016-09-29 | 2019-10-29 | Enel X North America, Inc. | Apparatus and method for automated validation, estimation, and editing configuration |
US10566791B2 (en) | 2016-09-29 | 2020-02-18 | Enel X North America, Inc. | Automated validation, estimation, and editing processor |
US10423186B2 (en) | 2016-09-29 | 2019-09-24 | Enel X North America, Inc. | Building control system including automated validation, estimation, and editing rules configuration engine |
US10291022B2 (en) | 2016-09-29 | 2019-05-14 | Enel X North America, Inc. | Apparatus and method for automated configuration of estimation rules in a network operations center |
US10203714B2 (en) | 2016-09-29 | 2019-02-12 | Enel X North America, Inc. | Brown out prediction system including automated validation, estimation, and editing rules configuration engine |
US10170910B2 (en) * | 2016-09-29 | 2019-01-01 | Enel X North America, Inc. | Energy baselining system including automated validation, estimation, and editing rules configuration engine |
US10735691B2 (en) | 2016-11-08 | 2020-08-04 | Rockwell Automation Technologies, Inc. | Virtual reality and augmented reality for industrial automation |
US10388075B2 (en) | 2016-11-08 | 2019-08-20 | Rockwell Automation Technologies, Inc. | Virtual reality and augmented reality for industrial automation |
US10866631B2 (en) | 2016-11-09 | 2020-12-15 | Rockwell Automation Technologies, Inc. | Methods, systems, apparatuses, and techniques for employing augmented reality and virtual reality |
US11518051B2 (en) | 2017-02-07 | 2022-12-06 | Veo Robotics, Inc. | Dynamic, interactive signaling of safety-related conditions in a monitored environment |
US11945119B2 (en) | 2017-02-07 | 2024-04-02 | Veo Robotics, Inc. | Crosstalk mitigation for multi-cell workspace monitoring |
US11679504B2 (en) | 2018-02-06 | 2023-06-20 | Veo Robotics, Inc. | Crosstalk mitigation for multi-cell workspace monitoring |
US11097422B2 (en) | 2017-02-07 | 2021-08-24 | Veo Robotics, Inc. | Safety-rated multi-cell workspace mapping and monitoring |
US11541543B2 (en) | 2017-02-07 | 2023-01-03 | Veo Robotics, Inc. | Dynamic, interactive signaling of safety-related conditions in a monitored environment |
US11820025B2 (en) | 2017-02-07 | 2023-11-21 | Veo Robotics, Inc. | Safe motion planning for machinery operation |
WO2018148181A1 (en) * | 2017-02-07 | 2018-08-16 | Veo Robotics, Inc. | Workspace safety monitoring and equipment control |
JP6866673B2 (ja) * | 2017-02-15 | 2021-04-28 | オムロン株式会社 | 監視システム、監視装置、および監視方法 |
JP6416980B1 (ja) * | 2017-05-17 | 2018-10-31 | ファナック株式会社 | 監視領域を分割した空間領域を監視する監視装置 |
JP6514273B2 (ja) * | 2017-06-19 | 2019-05-15 | ファナック株式会社 | 速度を表示するロボットシステム |
US11625045B2 (en) * | 2017-08-31 | 2023-04-11 | Uatc, Llc | Systems and methods for controlling an autonomous vehicle with occluded sensor zones |
US11072071B2 (en) * | 2017-09-19 | 2021-07-27 | Autodesk, Inc. | Modifying robot dynamics in response to human presence |
JP6633584B2 (ja) * | 2017-10-02 | 2020-01-22 | ファナック株式会社 | ロボットシステム |
US10890898B2 (en) * | 2017-11-03 | 2021-01-12 | Drishti Technologies, Inc. | Traceability systems and methods |
US10445944B2 (en) * | 2017-11-13 | 2019-10-15 | Rockwell Automation Technologies, Inc. | Augmented reality safety automation zone system and method |
CA3085768A1 (en) * | 2017-12-21 | 2019-06-27 | Magna International Inc. | Safety control module for a robot assembly and method of same |
WO2019139815A1 (en) | 2018-01-12 | 2019-07-18 | Duke University | Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects |
TWI822729B (zh) | 2018-02-06 | 2023-11-21 | 美商即時機器人股份有限公司 | 用於儲存一離散環境於一或多個處理器之一機器人之運動規劃及其改良操作之方法及設備 |
ES2928250T3 (es) | 2018-03-21 | 2022-11-16 | Realtime Robotics Inc | Planificación del movimiento de un robot para diversos entornos y tareas y mejora del funcionamiento del mismo |
JP6737827B2 (ja) * | 2018-03-29 | 2020-08-12 | ファナック株式会社 | 協働ロボットの制御装置及び制御方法 |
US11407111B2 (en) * | 2018-06-27 | 2022-08-09 | Abb Schweiz Ag | Method and system to generate a 3D model for a robot scene |
JP7262847B2 (ja) * | 2018-08-30 | 2023-04-24 | ヴェオ ロボティクス, インコーポレイテッド | 安全重視用途に関する産業ロボット動力学のシステム識別 |
CN112640447B (zh) | 2018-08-30 | 2022-04-29 | 韦奥机器人股份有限公司 | 深度感测计算机视觉系统 |
JP7299642B2 (ja) * | 2018-08-30 | 2023-06-28 | ヴェオ ロボティクス, インコーポレイテッド | 自動的センサ位置合わせおよび構成のためのシステムおよび方法 |
US10325485B1 (en) * | 2018-09-11 | 2019-06-18 | Rockwell Automation Technologies, Inc. | System or process to detect, discriminate, aggregate, track, and rank safety related information in a collaborative workspace |
US11258987B2 (en) | 2018-09-21 | 2022-02-22 | Microsoft Technology Licensing, Llc | Anti-collision and motion control systems and methods |
CN113165173A (zh) * | 2018-10-01 | 2021-07-23 | Abb瑞士股份有限公司 | 机器人系统的安全操作 |
JP6863945B2 (ja) | 2018-10-24 | 2021-04-21 | ファナック株式会社 | ロボットの制御方法 |
DE102018008815A1 (de) | 2018-11-09 | 2020-05-14 | Focke & Co. (Gmbh & Co. Kg) | Verfahren zum Erkennen und/oder Vermeiden von Kollisionen von Maschinenorganen einer Verpackungsmaschine |
US11493908B2 (en) | 2018-11-13 | 2022-11-08 | Rockwell Automation Technologies, Inc. | Industrial safety monitoring configuration using a digital twin |
WO2020107020A1 (en) * | 2018-11-23 | 2020-05-28 | Volvo Car Corporation | Lidar-based multi-person pose estimation |
JP7059956B2 (ja) * | 2019-02-08 | 2022-04-26 | コベルコ建機株式会社 | 建設機械の障害物検出装置 |
JP2022522284A (ja) * | 2019-02-27 | 2022-04-15 | ヴェオ ロボティクス, インコーポレイテッド | 安全定格マルチセル作業空間マッピングおよび監視 |
JP7378168B2 (ja) * | 2019-02-27 | 2023-11-13 | ヴェオ ロボティクス, インコーポレイテッド | 安全用途のためのシステムアーキテクチャ |
US11308639B2 (en) | 2019-03-12 | 2022-04-19 | Volvo Car Corporation | Tool and method for annotating a human pose in 3D point cloud data |
EP3941693A4 (en) * | 2019-03-20 | 2022-11-30 | Covidien LP | ROBOTIC SURGICAL COLLISION DETECTION SYSTEMS |
CN113661033A (zh) * | 2019-04-02 | 2021-11-16 | 优傲机器人公司 | 具有可在运行时适配的安全限值的机器人臂安全系统 |
US11813758B2 (en) * | 2019-04-05 | 2023-11-14 | Dexterity, Inc. | Autonomous unknown object pick and place |
CN113677484B (zh) | 2019-04-16 | 2023-03-24 | Abb瑞士股份有限公司 | 处理安全的方法、控制系统以及工业系统 |
JP2020189367A (ja) * | 2019-05-22 | 2020-11-26 | セイコーエプソン株式会社 | ロボットシステム |
JP7226101B2 (ja) * | 2019-05-28 | 2023-02-21 | オムロン株式会社 | 安全監視システム、安全監視制御装置、および安全監視方法 |
JP7479064B2 (ja) | 2019-06-03 | 2024-05-08 | リアルタイム ロボティクス, インコーポレーテッド | 動的障害物を有する環境における動作計画を容易にする装置、方法及び物品 |
US11815598B2 (en) | 2019-06-10 | 2023-11-14 | Microsoft Technology Licensing, Llc | Anti-collision and motion monitoring, control, and alerting systems and methods |
CN110334248B (zh) * | 2019-06-26 | 2020-09-01 | 京东数字科技控股有限公司 | 一种系统配置信息处理方法和装置 |
CN110322464B (zh) * | 2019-06-30 | 2021-07-02 | 华中科技大学 | 一种基于三维点云的小曲率薄壁零件边界提取方法 |
JP7357902B2 (ja) * | 2019-07-22 | 2023-10-10 | 東京ロボティクス株式会社 | ロボット制御システム、装置、方法及びプログラム |
US11919173B2 (en) * | 2019-08-23 | 2024-03-05 | Veo Robotics, Inc. | Motion planning and task execution using potential occupancy envelopes |
US20210379762A1 (en) * | 2019-08-23 | 2021-12-09 | Scott Denenberg | Motion planning and task execution using potential occupancy envelopes |
US20220234209A1 (en) | 2019-08-23 | 2022-07-28 | Ilya A. Kriveshko | Safe operation of machinery using potential occupancy envelopes |
EP4052866A1 (en) | 2019-08-23 | 2022-09-07 | Veo Robotics, Inc. | Safe operation of machinery using potential occupancy envelopes |
EP3993963A4 (en) | 2019-08-23 | 2022-08-24 | Realtime Robotics, Inc. | MOTION PLANNING FOR ROBOTS TO OPTIMIZE SPEED WHILE RESPECTING ACCELERATION AND JERK LIMITS |
US11756326B2 (en) * | 2019-10-02 | 2023-09-12 | Lantern Holdings, LLC | Keepout zone detection and active safety system |
US20230001587A1 (en) * | 2019-12-05 | 2023-01-05 | Alexander Zak | Method and setup for fenceless robotics |
EP3838504A1 (de) * | 2019-12-19 | 2021-06-23 | FRONIUS INTERNATIONAL GmbH | Verfahren und vorrichtung zur überwachung eines bearbeitungsprozesses und bearbeitungsmaschine mit einer solchen vorrichtung |
TW202146189A (zh) | 2020-01-22 | 2021-12-16 | 美商即時機器人股份有限公司 | 於多機器人操作環境中之機器人之建置 |
US11514684B2 (en) | 2020-02-07 | 2022-11-29 | Infineon Technologies Austria Ag | Dual use of safety-capable vehicle scanner for collaborative vehicle assembly and driving surveillance |
EP3869240A1 (de) * | 2020-02-18 | 2021-08-25 | Leuze electronic GmbH + Co. KG | Sensoranordnung und verfahren zum betrieb einer sensoranordnung |
US11453127B2 (en) * | 2020-03-03 | 2022-09-27 | Shenzhen Fugui Precision Ind. Co., Ltd. | Method for providing power-off command to an automatic apparatus within proximity of a human and control apparatus employing the method |
JP2023518071A (ja) * | 2020-03-18 | 2023-04-27 | リアルタイム ロボティクス, インコーポレーテッド | ロボットの動作計画に有用なロボット操作環境のデジタル表現 |
DE102020001961A1 (de) * | 2020-03-27 | 2021-09-30 | Herbert Kannegiesser Gmbh | Verfahren zum Ergreifen textiler Gegenstände |
US11919175B2 (en) | 2020-04-15 | 2024-03-05 | Mujin, Inc. | Robotic system with collision avoidance mechanism and method of operation thereof |
US11577726B2 (en) | 2020-05-26 | 2023-02-14 | Ford Global Technologies, Llc | Vehicle assist feature control |
US11648673B2 (en) * | 2020-05-26 | 2023-05-16 | Intrinsic Innovation Llc | Automated safety procedures for human intervention in robot systems |
US20210370503A1 (en) * | 2020-05-29 | 2021-12-02 | Wipro Limited | Method and system for providing dynamic cross-domain learning |
US20220004162A1 (en) | 2020-07-06 | 2022-01-06 | Ilya A. Kriveshko | Continuous monitoring of a workcell safety system |
CN114078325B (zh) * | 2020-08-19 | 2023-09-05 | 北京万集科技股份有限公司 | 多感知系统配准方法、装置、计算机设备和存储介质 |
DE102020211920A1 (de) | 2020-09-23 | 2022-03-24 | Robert Bosch Gesellschaft mit beschränkter Haftung | Überwachungsvorrichtung und Verfahren zur Überwachung einer Produktionsanlage |
US20230302650A1 (en) * | 2020-10-15 | 2023-09-28 | Intuitive Surgical Operations, Inc. | Detection and mitigation of predicted collisions of objects with user control system |
US20220171396A1 (en) | 2020-11-30 | 2022-06-02 | Yandex Self Driving Group Llc | Systems and methods for controlling a robotic vehicle |
US20210140793A1 (en) * | 2020-12-18 | 2021-05-13 | Intel Corporation | Map representation system and method for operating an autonomous agent |
JP2022138211A (ja) * | 2021-03-10 | 2022-09-26 | オムロン株式会社 | 物体検出システム、制御装置 |
US11675329B2 (en) * | 2021-06-21 | 2023-06-13 | Rockwell Automation Technologies, Inc. | Functional safety system using three dimensional sensing and dynamic digital twin |
US11909662B2 (en) | 2021-07-29 | 2024-02-20 | Zoom Video Communications, Inc. | Reservation-based resource configuration for dynamic workspaces |
US11922347B2 (en) | 2021-07-29 | 2024-03-05 | Zoom Video Communications, Inc. | Future presence signaling for dynamic workspaces |
WO2023027421A1 (ko) * | 2021-08-26 | 2023-03-02 | (주)서울로보틱스 | 작업 공간에서의 관심 영역을 모니터링하는 방법 및 센싱 장치 |
US11953908B2 (en) | 2021-10-12 | 2024-04-09 | Google Llc | Deployable safety fence for mobile robots |
CN114022612A (zh) * | 2021-11-02 | 2022-02-08 | 武汉联影智融医疗科技有限公司 | 模型构建方法、装置、计算机设备和存储介质 |
US11663895B1 (en) | 2021-12-13 | 2023-05-30 | Kyndryl, Inc. | Virtual three-dimensional holographic safety gate |
CN114281044B (zh) * | 2021-12-24 | 2023-06-06 | 工业云制造(四川)创新中心有限公司 | 一种基于云制造的工业机器人远程监控方法及系统 |
US20230202037A1 (en) * | 2021-12-29 | 2023-06-29 | Datalogic Ip Tech S.R.L. | System and method for determining allowable robot speed in a collaborative workspace |
US20240012383A1 (en) * | 2022-07-07 | 2024-01-11 | Datalogic Ip Tech S.R.L. | Clustering and detection system and method for safety monitoring in a collaborative workspace |
WO2024074184A1 (en) * | 2022-10-02 | 2024-04-11 | Abb Schweiz Ag | Method and system for identifying hazards in a robot application |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011134234A (ja) * | 2009-12-25 | 2011-07-07 | Honda Motor Co Ltd | 移動可能領域抽出装置、移動可能領域抽出システム、移動可能領域抽出方法、およびプログラム |
WO2012014409A1 (ja) * | 2010-07-27 | 2012-02-02 | パナソニック株式会社 | 移動経路探索装置および移動経路探索方法 |
JP2012056026A (ja) * | 2010-09-09 | 2012-03-22 | Denso Wave Inc | ロボットの評価制御方法及びロボットの制御装置 |
JP2016524544A (ja) * | 2013-04-26 | 2016-08-18 | ピルツ ゲーエムベーハー アンド コー.カーゲー | 自動的に作動する機械を保護するための装置および方法 |
US9434069B1 (en) * | 2014-11-10 | 2016-09-06 | Google Inc. | Motion heat map |
Family Cites Families (92)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0324874B1 (de) | 1988-01-20 | 1992-09-30 | LITEF GmbH | Verfahren zur Verbesserung und Stützung von Luftdaten eines Fluggeräts |
US5323470A (en) * | 1992-05-08 | 1994-06-21 | Atsushi Kara | Method and apparatus for automatically tracking an object |
JP3560670B2 (ja) * | 1995-02-06 | 2004-09-02 | 富士通株式会社 | 適応的認識システム |
JPH103308A (ja) | 1996-06-18 | 1998-01-06 | Fanuc Ltd | 産業用ロボットの干渉回避方法 |
US6297844B1 (en) | 1999-11-24 | 2001-10-02 | Cognex Corporation | Video safety curtain |
CA2369845A1 (en) | 2002-01-31 | 2003-07-31 | Braintech, Inc. | Method and apparatus for single camera 3d vision guided robotics |
AU2003216199A1 (en) * | 2002-02-07 | 2003-09-02 | Accu-Sport International, Inc. | Determining parameters of a golf shot by image analysis |
US7729511B2 (en) | 2002-09-24 | 2010-06-01 | Pilz Gmbh & Co. Kg | Method and device for safeguarding a hazardous area |
JP2005081445A (ja) * | 2003-09-04 | 2005-03-31 | Fanuc Ltd | ロボットの干渉領域確認装置 |
US7355508B2 (en) * | 2004-05-21 | 2008-04-08 | International Electronic Machines Corp. | System and method for monitoring an area |
CA2573728A1 (en) | 2004-07-14 | 2006-02-23 | Braintech Canada, Inc. | Method and apparatus for machine-vision |
DE102004041821A1 (de) | 2004-08-27 | 2006-03-16 | Abb Research Ltd. | Vorrichtung und Verfahren zur Sicherung eines maschinell gesteuerten Handhabungsgerätes |
JP2009500042A (ja) | 2005-07-07 | 2009-01-08 | インジーニアス・ターゲティング・ラボラトリー・インコーポレーテッド | ターゲットの運動行動の3dのモニタリング及び分析のためのシステム |
DE102005063217C5 (de) | 2005-12-22 | 2022-08-18 | Pilz Gmbh & Co. Kg | Verfahren zum Konfigurieren einer Überwachungseinrichtung zum Überwachen eines Raumbereichsund entsprechende Überwachungseinrichtung |
US8556999B2 (en) | 2007-07-27 | 2013-10-15 | Swift Fuels, Llc | Renewable engine fuel and method of producing same |
DE102006048163B4 (de) * | 2006-07-31 | 2013-06-06 | Pilz Gmbh & Co. Kg | Kamerabasierte Überwachung bewegter Maschinen und/oder beweglicher Maschinenelemente zur Kollisionsverhinderung |
DE102006048166A1 (de) | 2006-08-02 | 2008-02-07 | Daimler Ag | Verfahren zur Beobachtung einer Person in einem industriellen Umfeld |
US9084622B2 (en) * | 2006-08-02 | 2015-07-21 | Omnitek Partners Llc | Automated laser-treatment system with real-time integrated 3D vision system for laser debridement and the like |
WO2008036354A1 (en) | 2006-09-19 | 2008-03-27 | Braintech Canada, Inc. | System and method of determining object pose |
JP5294673B2 (ja) * | 2007-04-02 | 2013-09-18 | 花王株式会社 | 改変微生物 |
US8559699B2 (en) | 2008-10-10 | 2013-10-15 | Roboticvisiontech Llc | Methods and apparatus to facilitate operations in image based systems |
DE102009051148A1 (de) | 2008-10-29 | 2010-05-12 | Sms Siemag Ag | Roboterinteraktionssystem |
WO2010063319A1 (en) | 2008-12-03 | 2010-06-10 | Abb Research Ltd. | A robot safety system and a method |
JP4648486B2 (ja) * | 2009-01-26 | 2011-03-09 | ファナック株式会社 | 人間とロボットとの協調動作領域を有する生産システム |
JP5343641B2 (ja) * | 2009-03-12 | 2013-11-13 | 株式会社Ihi | ロボット装置の制御装置及びロボット装置の制御方法 |
WO2011009108A2 (en) * | 2009-07-17 | 2011-01-20 | Universal Robotics, Inc. | System and method for automatic calibration of stereo images |
US8253792B2 (en) | 2009-08-28 | 2012-08-28 | GM Global Technology Operations LLC | Vision system for monitoring humans in dynamic environments |
WO2011128117A2 (de) | 2010-04-16 | 2011-10-20 | Fraunhofer-Gesellschaft Zur Förderung Der Angewandten Forschung E.V. . | Einrichtung zur überwachung mindestens eines dreidimensionalen sicherheitsbereichs |
JP5803043B2 (ja) | 2010-05-20 | 2015-11-04 | アイロボット コーポレイション | 移動式ロボットシステム及び移動式ロボットを作動させる方法 |
US8855812B2 (en) | 2010-07-23 | 2014-10-07 | Chetan Kapoor | System and method for robot safety and collision avoidance |
US8587583B2 (en) * | 2011-01-31 | 2013-11-19 | Microsoft Corporation | Three-dimensional environment reconstruction |
EP2695027B1 (en) * | 2011-04-06 | 2015-08-12 | Koninklijke Philips N.V. | Safety in dynamic 3d healthcare environment |
US8811719B2 (en) * | 2011-04-29 | 2014-08-19 | Microsoft Corporation | Inferring spatial object descriptions from spatial gestures |
US8934017B2 (en) * | 2011-06-01 | 2015-01-13 | Honeywell International Inc. | System and method for automatic camera placement |
WO2012170898A2 (en) | 2011-06-09 | 2012-12-13 | Utah State University Research Foundation | Systems and methods for sensing occupancy |
US9070216B2 (en) * | 2011-12-14 | 2015-06-30 | The Board Of Trustees Of The University Of Illinois | Four-dimensional augmented reality models for interactive visualization and automated construction progress monitoring |
US9310482B2 (en) * | 2012-02-10 | 2016-04-12 | Ascent Ventures, Llc | Methods for locating and sensing the position, orientation, and contour of a work object in a robotic system |
DE102012102236A1 (de) | 2012-03-16 | 2013-09-19 | Pilz Gmbh & Co. Kg | Verfahren und Vorrichtung zum Absichern eines gefährlichen Arbeitsbereichs einer automatisiert arbeitenden Maschine |
US9043025B2 (en) | 2012-08-31 | 2015-05-26 | Rethink Robotics, Inc. | Systems and methods for safe robot operation |
EP2926543B1 (en) * | 2012-11-29 | 2017-11-22 | Csir | A method of calibrating a camera and a system therefor |
JP5670416B2 (ja) * | 2012-12-28 | 2015-02-18 | ファナック株式会社 | ロボットシステム表示装置 |
US20140267264A1 (en) * | 2013-03-14 | 2014-09-18 | Nvidia Corporation | Generating anti-aliased voxel data |
US20140267266A1 (en) * | 2013-03-14 | 2014-09-18 | Nvidia Corporation | Generating anti-aliased voxel data |
JP2014180720A (ja) * | 2013-03-19 | 2014-09-29 | Yaskawa Electric Corp | ロボットシステム及びキャリブレーション方法 |
TWI547355B (zh) * | 2013-11-11 | 2016-09-01 | 財團法人工業技術研究院 | 人機共生安全監控系統及其方法 |
US9240070B2 (en) | 2013-12-09 | 2016-01-19 | Google Inc. | Methods and systems for viewing dynamic high-resolution 3D imagery over a network |
CN103680060B (zh) * | 2013-12-25 | 2016-06-22 | 中国电建集团成都勘测设计研究院有限公司 | 振捣台车运行过程中现场安全性监测预警系统 |
US9452531B2 (en) | 2014-02-04 | 2016-09-27 | Microsoft Technology Licensing, Llc | Controlling a robot in the presence of a moving object |
CA2940490C (en) | 2014-03-04 | 2022-07-12 | Universal Robots A/S | Safety system for industrial robot |
US20150294496A1 (en) * | 2014-04-14 | 2015-10-15 | GM Global Technology Operations LLC | Probabilistic person-tracking using multi-view fusion |
CN104933392A (zh) * | 2014-03-19 | 2015-09-23 | 通用汽车环球科技运作有限责任公司 | 使用多视图融合的概率性人追踪 |
US9524426B2 (en) | 2014-03-19 | 2016-12-20 | GM Global Technology Operations LLC | Multi-view human detection using semi-exhaustive search |
JP2015199155A (ja) * | 2014-04-07 | 2015-11-12 | キヤノン株式会社 | 情報処理装置および情報処理方法、プログラム |
US20150293600A1 (en) | 2014-04-11 | 2015-10-15 | Visual Exploration LLC | Depth-based analysis of physical workspaces |
ES2675363T3 (es) * | 2014-06-05 | 2018-07-10 | Softbank Robotics Europe | Procedimiento de construcción de un mapa de probabilidad entre la ausencia y la presencia de obstáculos para un robot autónomo |
US9692251B2 (en) | 2014-07-03 | 2017-06-27 | Intel Corporation | Apparatus, system and method of wireless power transfer |
US9283678B2 (en) | 2014-07-16 | 2016-03-15 | Google Inc. | Virtual safety cages for robotic devices |
CN107111739B (zh) | 2014-08-08 | 2020-12-04 | 机器人视觉科技股份有限公司 | 物品特征的检测与跟踪 |
WO2016022155A1 (en) | 2014-08-08 | 2016-02-11 | Robotic Vision Technologies, LLC | Sensor-based safety features for robotic equipment |
US10664705B2 (en) * | 2014-09-26 | 2020-05-26 | Nec Corporation | Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium |
JP5931167B1 (ja) * | 2014-12-11 | 2016-06-08 | ファナック株式会社 | 人間協調型ロボットシステム |
US20160188977A1 (en) * | 2014-12-24 | 2016-06-30 | Irobot Corporation | Mobile Security Robot |
EP3250347B1 (en) | 2015-01-26 | 2023-11-08 | Duke University | Specialized robot motion planning hardware and methods of making and using same |
JP6034895B2 (ja) | 2015-02-20 | 2016-11-30 | ファナック株式会社 | 外力に応じてロボットを退避動作させる人間協調ロボットシステム |
US9643314B2 (en) * | 2015-03-04 | 2017-05-09 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
US9574883B2 (en) | 2015-03-24 | 2017-02-21 | X Development Llc | Associating semantic location data with automated environment mapping |
JP2016193473A (ja) | 2015-04-01 | 2016-11-17 | 富士電機株式会社 | 駆動制御装置および安全制御システム |
US9691151B1 (en) | 2015-08-25 | 2017-06-27 | X Development Llc | Using observations from one or more robots to generate a spatio-temporal model that defines pose values for a plurality of objects in an environment |
US9771225B2 (en) * | 2015-10-08 | 2017-09-26 | Rite-Hite Holding Corporation | Methods and apparatus for monitoring a loading dock |
US9682481B2 (en) * | 2015-10-26 | 2017-06-20 | X Development Llc | Communication of information regarding a robot using an optical identifier |
US9855664B2 (en) * | 2015-11-25 | 2018-01-02 | Denso Wave Incorporated | Robot safety system |
US10363667B2 (en) | 2015-11-30 | 2019-07-30 | Autodesk, Inc. | Optical measurement of object location in three dimensions |
JP6363587B2 (ja) * | 2015-12-14 | 2018-07-25 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および警告提示方法 |
US10471595B2 (en) | 2016-05-31 | 2019-11-12 | Ge Global Sourcing Llc | Systems and methods for control of robotic manipulation |
US10371512B2 (en) * | 2016-04-08 | 2019-08-06 | Otis Elevator Company | Method and system for multiple 3D sensor calibration |
US10262222B2 (en) | 2016-04-13 | 2019-04-16 | Sick Inc. | Method and system for measuring dimensions of a target object |
US10078333B1 (en) * | 2016-04-17 | 2018-09-18 | X Development Llc | Efficient mapping of robot environment |
EP3243609A1 (en) | 2016-05-09 | 2017-11-15 | OpiFlex Automation AB | A fenceless industrial robot system |
ITUA20163520A1 (it) | 2016-05-17 | 2017-11-17 | Comau Spa | "Dispositivo automatizzato con una struttura mobile, particolarmente un robot" |
EP3458919B1 (en) | 2016-05-19 | 2022-08-24 | Deep Learning Robotics Ltd. | Robot assisted object learning vision system |
JP2019516568A (ja) | 2016-05-20 | 2019-06-20 | グーグル エルエルシー | 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置 |
JP6738555B2 (ja) | 2016-05-23 | 2020-08-12 | 富士ゼロックス株式会社 | ロボット制御システム |
DE112017002639T5 (de) | 2016-05-26 | 2019-03-28 | Mitsubishi Electric Corporation | Robotersteuerungsvorrichtung |
DE102016212694A1 (de) | 2016-05-31 | 2017-11-30 | Siemens Aktiengesellschaft | Verfahren zur Orientierung eines Industrieroboters und Industrieroboter |
JP6360105B2 (ja) | 2016-06-13 | 2018-07-18 | ファナック株式会社 | ロボットシステム |
CN106097648A (zh) * | 2016-08-04 | 2016-11-09 | 中国南方电网有限责任公司超高压输电公司贵阳局 | 变电站运检作业空间三维安全监测方法 |
JP6822069B2 (ja) * | 2016-11-01 | 2021-01-27 | オムロン株式会社 | 監視システム、監視装置、および監視方法 |
WO2018148181A1 (en) * | 2017-02-07 | 2018-08-16 | Veo Robotics, Inc. | Workspace safety monitoring and equipment control |
US10406645B2 (en) * | 2017-05-24 | 2019-09-10 | Trimble Inc. | Calibration approach for camera placement |
WO2019021058A2 (en) * | 2017-07-25 | 2019-01-31 | Mbl Limited | SYSTEMS AND METHODS FOR OPERATING A ROBOTIC SYSTEM AND EXECUTING ROBOTIC INTERACTIONS |
US10445944B2 (en) | 2017-11-13 | 2019-10-15 | Rockwell Automation Technologies, Inc. | Augmented reality safety automation zone system and method |
US11833696B2 (en) * | 2018-01-15 | 2023-12-05 | Technische Universität München | Vision-based sensor system and control method for robot arms |
-
2018
- 2018-02-06 WO PCT/US2018/016991 patent/WO2018148181A1/en unknown
- 2018-02-06 US US15/889,524 patent/US11040450B2/en active Active
- 2018-02-06 CN CN201880023605.9A patent/CN110494900A/zh active Pending
- 2018-02-06 EP EP18751554.9A patent/EP3580735B1/en active Active
- 2018-02-06 EP EP22182665.4A patent/EP4088891A1/en active Pending
- 2018-02-06 JP JP2019563335A patent/JP6752499B2/ja active Active
- 2018-02-06 EP EP22182640.7A patent/EP4088890A1/en active Pending
- 2018-02-06 ES ES18751554T patent/ES2927177T3/es active Active
- 2018-02-06 US US15/889,767 patent/US10882185B2/en active Active
- 2018-02-06 CA CA3052961A patent/CA3052961A1/en active Pending
- 2018-02-06 US US15/889,523 patent/US10099372B2/en active Active
- 2018-09-13 US US16/129,999 patent/US10899007B2/en active Active
-
2020
- 2020-01-20 JP JP2020006561A patent/JP6898012B2/ja active Active
- 2020-11-23 US US17/101,792 patent/US11376741B2/en active Active
- 2020-11-23 US US17/101,622 patent/US11279039B2/en active Active
-
2021
- 2021-06-03 JP JP2021093582A patent/JP7122776B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011134234A (ja) * | 2009-12-25 | 2011-07-07 | Honda Motor Co Ltd | 移動可能領域抽出装置、移動可能領域抽出システム、移動可能領域抽出方法、およびプログラム |
WO2012014409A1 (ja) * | 2010-07-27 | 2012-02-02 | パナソニック株式会社 | 移動経路探索装置および移動経路探索方法 |
JP2012056026A (ja) * | 2010-09-09 | 2012-03-22 | Denso Wave Inc | ロボットの評価制御方法及びロボットの制御装置 |
JP2016524544A (ja) * | 2013-04-26 | 2016-08-18 | ピルツ ゲーエムベーハー アンド コー.カーゲー | 自動的に作動する機械を保護するための装置および方法 |
US9434069B1 (en) * | 2014-11-10 | 2016-09-06 | Google Inc. | Motion heat map |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022190538A1 (ja) | 2021-03-12 | 2022-09-15 | オムロン株式会社 | 情報処理装置および情報処理方法、並びにプログラム |
KR102520214B1 (ko) * | 2022-12-07 | 2023-04-11 | 주식회사 유에이로보틱스 | 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 |
Also Published As
Publication number | Publication date |
---|---|
EP3580735A4 (en) | 2020-12-09 |
JP7122776B2 (ja) | 2022-08-22 |
US20190061158A1 (en) | 2019-02-28 |
US20210069907A1 (en) | 2021-03-11 |
US10899007B2 (en) | 2021-01-26 |
US11279039B2 (en) | 2022-03-22 |
US20180222052A1 (en) | 2018-08-09 |
JP2020059121A (ja) | 2020-04-16 |
ES2927177T3 (es) | 2022-11-03 |
US11376741B2 (en) | 2022-07-05 |
US10099372B2 (en) | 2018-10-16 |
US20180222051A1 (en) | 2018-08-09 |
US20210069906A1 (en) | 2021-03-11 |
WO2018148181A1 (en) | 2018-08-16 |
JP2021126767A (ja) | 2021-09-02 |
EP4088890A1 (en) | 2022-11-16 |
EP4088891A1 (en) | 2022-11-16 |
US10882185B2 (en) | 2021-01-05 |
US20180222050A1 (en) | 2018-08-09 |
EP3580735B1 (en) | 2022-08-17 |
EP3580735A1 (en) | 2019-12-18 |
CA3052961A1 (en) | 2018-08-16 |
CN110494900A (zh) | 2019-11-22 |
US11040450B2 (en) | 2021-06-22 |
JP6898012B2 (ja) | 2021-07-07 |
JP6752499B2 (ja) | 2020-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7122776B2 (ja) | 作業空間安全監視および機器制御 | |
US11541543B2 (en) | Dynamic, interactive signaling of safety-related conditions in a monitored environment | |
US11613017B2 (en) | Safety-rated multi-cell workspace mapping and monitoring | |
US11623356B2 (en) | Dynamic, interactive signaling of safety-related conditions in a monitored environment | |
US11820025B2 (en) | Safe motion planning for machinery operation | |
US11636648B2 (en) | Workpiece sensing for process management and orchestration | |
US20220088787A1 (en) | Workplace monitoring and semantic entity identification for safe machine operation | |
JP7299642B2 (ja) | 自動的センサ位置合わせおよび構成のためのシステムおよび方法 | |
US20210205995A1 (en) | Robot end-effector sensing and identification | |
JP2022522284A (ja) | 安全定格マルチセル作業空間マッピングおよび監視 | |
US20230191635A1 (en) | Dynamic, interactive signaling of safety-related conditions in a monitored environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191001 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200120 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200120 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200805 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200814 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6752499 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |