JP7299642B2 - 自動的センサ位置合わせおよび構成のためのシステムおよび方法 - Google Patents
自動的センサ位置合わせおよび構成のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7299642B2 JP7299642B2 JP2021510699A JP2021510699A JP7299642B2 JP 7299642 B2 JP7299642 B2 JP 7299642B2 JP 2021510699 A JP2021510699 A JP 2021510699A JP 2021510699 A JP2021510699 A JP 2021510699A JP 7299642 B2 JP7299642 B2 JP 7299642B2
- Authority
- JP
- Japan
- Prior art keywords
- workcell
- images
- industrial machinery
- image
- image sensors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 93
- 238000004458 analytical method Methods 0.000 claims description 20
- 238000005457 optimization Methods 0.000 claims description 11
- 238000012795 verification Methods 0.000 claims description 10
- 230000003190 augmentative effect Effects 0.000 claims description 8
- 238000013506 data mapping Methods 0.000 claims description 8
- 230000001131 transforming effect Effects 0.000 claims description 8
- 238000012544 monitoring process Methods 0.000 claims description 7
- 238000009434 installation Methods 0.000 claims description 6
- 230000001172 regenerating effect Effects 0.000 claims description 6
- 238000013459 approach Methods 0.000 description 26
- 238000011960 computer-aided design Methods 0.000 description 18
- 230000009466 transformation Effects 0.000 description 11
- 241000282412 Homo Species 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 230000001681 protective effect Effects 0.000 description 8
- 239000000872 buffer Substances 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 231100001261 hazardous Toxicity 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- ZLIBICFPKPWGIZ-UHFFFAOYSA-N pyrimethanil Chemical compound CC1=CC(C)=NC(NC=2C=CC=CC=2)=N1 ZLIBICFPKPWGIZ-UHFFFAOYSA-N 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/402—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for positioning, e.g. centring a tool relative to a hole in the workpiece, additional detection means to correct position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/04—Systems determining the presence of a target
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/406—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
- G05B19/4061—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/32—Operator till task planning
- G05B2219/32014—Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37555—Camera detects orientation, position workpiece, points of workpiece
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40476—Collision, planning for collision free path
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40557—Tracking a tool, compute 3-D position relative to camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Quality & Reliability (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本願は、その全開示が、参照することによって本明細書に組み込まれる、2018年8月30日に出願された、米国仮特許出願第62/724,945号の利益および優先権を主張する。
本明細書は、例えば、以下の項目も提供する。
(項目1)
作業セル内の産業機械類の安全動作を確実にする方法であって、
a.前記作業セルの近位に複数の画像センサを配置し、前記画像センサのうちの少なくともいくつかを用いて、前記作業セルの第1の複数の画像を入手するステップと、
b.少なくとも部分的に、前記第1の複数の画像に基づいて、前記センサを相互に位置合わせし、少なくとも部分的に、前記位置合わせに基づいて、前記第1の複数の画像を前記センサの共通基準フレームに変換するステップと、
c.前記センサの共通基準フレームを前記作業セルのグローバルフレームに変換するための変換行列を決定するステップと、
d.前記複数のセンサを前記産業機械類に位置合わせするステップと、
e.前記産業機械類の動作の間に第2の複数の画像を入手するステップと、
f.少なくとも部分的に、前記入手された第2の複数の画像、変換、および前記産業機械類への前記センサの位置合わせに基づいて、その動作の間に前記産業機械類を監視するステップと
を含む、方法。
(項目2)
前記第1の複数の画像をコンピュータ的に分析し、その間に十分な重複および十分な区別が存在することを検証するステップをさらに含む、項目1に記載の方法。
(項目3)
前記産業機械類は、少なくともロボットアームを備える、項目1に記載の方法。
(項目4)
前記作業セル内に際立った3Dシグネチャを有する少なくとも1つの実体を提供するステップをさらに含み、前記第1の複数の画像は、前記少なくとも1つの実体の画像を備える、項目1に記載の方法。
(項目5)
前記センサのそれぞれを前記実体に別個に位置合わせするステップと、
少なくとも部分的に、前記実体への各センサの別個の位置合わせに基づいて、前記センサを相互に位置合わせするステップと
をさらに含む、項目4に記載の方法。
(項目6)
前記センサのうちの少なくとも1つは、前記実体に可視であり、前記方法はさらに、
前記少なくとも1つのセンサを前記実体に位置合わせするステップと、
少なくとも部分的に、前記可視センサの前記実体への位置合わせ、前記センサの相互への位置合わせ、および前記産業機械類に対する前記実体の関連する姿勢に基づいて、前記複数のセンサを前記産業機械類に位置合わせするステップと
を含む、項目4に記載の方法。
(項目7)
前記少なくとも1つの実体の状態を識別するための外部入力を受信するステップをさらに含む、項目4に記載の方法。
(項目8)
前記外部入力は、ユーザ入力または前記少なくとも1つの実体を制御するコントローラから伝送される入力のうちの少なくとも1つを備える、項目7に記載の方法。
(項目9)
前記作業セル内のシーンの画像を提供するステップと、
前記シーンの画像上の離散特徴の1つ以上の対を決定するステップと、
少なくとも部分的に、前記離散特徴の1つ以上の対に基づいて、前記複数のセンサを前記産業機械類に位置合わせするステップと
をさらに含む、項目1に記載の方法。
(項目10)
前記シーンの画像は、前記第1の複数の画像のうちの少なくとも1つを備える、項目9に記載の方法。
(項目11)
前記シーンの画像は、前記作業セルをマッピングする3D点群データを備える、項目9に記載の方法。
(項目12)
前記シーンの画像は、前記産業機械類または前記作業セルのうちの少なくとも1つの2Dまたは3D CADモデルを備える、項目9に記載の方法。
(項目13)
前記産業機械類または前記作業セルに対して2Dまたは3D走査を実施するステップをさらに含み、前記シーンの画像は、少なくとも部分的に、前記2Dまたは3D走査に基づいて構築される前記産業機械類または前記作業セルのモデルを備える、項目9に記載の方法。
(項目14)
ステップ(d)に先立って、それぞれ、少なくとも1つの構成パラメータと関連付けられる、前記産業機械類の複数の画像を備える、位置合わせライブラリを確立するステップと、
前記位置合わせライブラリ内の前記複数の画像内の前記産業機械類の状態に対して前記シーンの画像内の前記産業機械類の状態をコンピュータ的に比較するステップと、
前記シーンの画像内の前記産業機械類の状態に最良に合致する前記産業機械類の状態を提供する、前記位置合わせライブラリ内の前記複数の画像のうちの1つを識別するステップと、
少なくとも部分的に、前記位置合わせライブラリ内の前記識別された画像に対応する前記構成パラメータに基づいて、前記複数のセンサを前記産業機械類に位置合わせするステップと
をさらに含む、項目9に記載の方法。
(項目15)
前記構成パラメータは、前記産業機械類への前記センサの位置合わせを微調整するための反復回数、メッシュあたりの3D点群データの数、または収束基準のうちの少なくとも1つを備える、項目14に記載の方法。
(項目16)
前記第1の複数の画像を分析し、前記センサの視野によって網羅される前記作業セル内の面積を決定するステップと、
前記分析に基づいて、前記決定された面積、前記センサの視野によって網羅されない面積、最適なシーン網羅範囲を達成するための前記センサのうちの少なくとも1つに関する姿勢、または付加的センサのための設置場所のうちの少なくとも1つを識別するステップと
をさらに含む、項目1に記載の方法。
(項目17)
前記識別された姿勢に基づいて、前記対応するセンサの姿勢を調節させるステップをさらに含む、項目16に記載の方法。
(項目18)
前記センサの視野によって網羅される前記面積の輪郭を描く信号または1つ以上の光ビームを前記作業セルの中に投影するステップをさらに含む、項目16に記載の方法。
(項目19)
前記作業セルの画像および前記センサの視野によって網羅される前記面積の輪郭を拡張現実または仮想現実デバイス上に投影するステップをさらに含む、項目18に記載の方法。
(項目20)
g.前記産業機械類への前記複数のセンサの位置合わせの正確度レベルを示す初期正確度メトリックを発生させるステップと、
h.ステップ(g)に続いて、前記産業機械類の動作の間、前記位置合わせの正確度レベルを示す後続正確度メトリックが、閾値量を上回って前記初期正確度メトリックから逸脱するかどうかを決定し、該当する場合、前記産業機械類の動作を改変するステップと
をさらに含む、項目1に記載の方法。
(項目21)
ステップ(h)は、前記産業機械類の動作の間に入手される前記第2の複数の画像を周期的に分析し、(i)前記正確度メトリックを再発生させ、(ii)前記再発生された正確度メトリックを前記初期正確度メトリックと比較し、それらの間の逸脱を決定し、(iii)前記逸脱が、閾値を超える場合、前記機械類の動作を改変するステップを含む、項目20に記載の方法。
(項目22)
前記メトリックは、位置合わせ検証またはリアルタイムロボット追跡のうちの少なくとも1つを含む、項目20に記載の方法。
(項目23)
グローバル最適化アルゴリズムを実装し、(i)前記複数のセンサを相互に位置合わせし、(ii)前記複数のセンサを前記産業機械類に位置合わせするステップをさらに含む、項目1に記載の方法。
(項目24)
作業セル内の産業機械類の安全動作を確実にするための制御システムであって、
前記作業セルの近位の複数の画像センサと、
コントローラであって、
前記画像センサのうちの少なくともいくつかを用いて、前記作業セルの第1の複数の画像を入手することと、
少なくとも部分的に、前記第1の複数の画像に基づいて、前記センサを相互に位置合わせし、少なくとも部分的に、前記位置合わせに基づいて、前記第1の複数の画像を前記センサの共通基準フレームに変換することと、
前記センサの共通基準フレームを前記作業セルのグローバルフレームに変換するための変換行列を決定することと、
前記複数のセンサを前記産業機械類に位置合わせすることと、
前記産業機械類の動作の間に第2の複数の画像を入手することと、
少なくとも部分的に、前記入手された第2の複数の画像、変換、および前記産業機械類への前記センサの位置合わせに基づいて、その動作の間に前記産業機械類を監視することと
を行うように構成される、コントローラと
を備える、システム。
(項目25)
前記コントローラはさらに、前記第1の複数の画像をコンピュータ的に分析し、その間に十分な重複および十分な区別が存在することを検証するように構成される、項目24に記載の制御システム。
(項目26)
前記産業機械類は、少なくともロボットアームを備える、項目24に記載の制御システム。
(項目27)
前記作業セル内に際立った3Dシグネチャを有する少なくとも1つの実体をさらに備え、前記第1の複数の画像は、前記少なくとも1つの実体の画像を備える、項目24に記載の制御システム。
(項目28)
前記コントローラはさらに、
前記センサのそれぞれを前記実体に別個に位置合わせすることと、
少なくとも部分的に、前記実体への各センサの別個の位置合わせに基づいて、前記センサを相互に位置合わせすることと
を行うように構成される、項目27に記載の制御システム。
(項目29)
前記センサのうちの少なくとも1つは、前記実体に可視であり、前記コントローラはさらに、
前記少なくとも1つのセンサを前記実体に位置合わせすることと、
少なくとも部分的に、前記可視センサの前記実体への位置合わせ、前記センサの相互への位置合わせ、および前記産業機械類に対する前記実体の関連する姿勢に基づいて、前記複数のセンサを前記産業機械類に位置合わせすることと
を行うように構成される、項目27に記載の制御システム。
(項目30)
前記少なくとも1つの実体の状態を識別するための外部入力を受信するための入力モジュールをさらに備える、項目27に記載の制御システム。
(項目31)
前記少なくとも1つの実体を制御する第2のコントローラをさらに備え、前記外部入力は、ユーザ入力または前記第2のコントローラから伝送される入力のうちの少なくとも1つを備える、項目28に記載の制御システム。
(項目32)
コントローラはさらに、
前記作業セル内のシーンの画像を提供することと、
前記シーンの画像上の離散特徴の1つ以上の対を決定することと、
少なくとも部分的に、前記離散特徴の1つ以上の対に基づいて、前記複数のセンサを前記産業機械類に位置合わせすることと
を行うように構成される、項目24に記載の制御システム。
(項目33)
前記シーンの画像は、前記第1の複数の画像のうちの少なくとも1つを備える、項目32に記載の制御システム。
(項目34)
前記シーンの画像は、前記作業セルをマッピングする3D点群データを備える、項目32に記載の制御システム。
(項目35)
前記シーンの画像は、前記産業機械類または前記作業セルのうちの少なくとも1つの2Dまたは3D CADモデルを備える、項目32に記載の制御システム。
(項目36)
前記コントローラはさらに、前記産業機械類または前記作業セルに対する2Dまたは3D走査を引き起こすように構成され、前記シーンの画像は、少なくとも部分的に、前記2Dまたは3D走査に基づいて構築される前記産業機械類または前記作業セルのモデルを備える、項目32に記載の制御システム。
(項目37)
前記コントローラはさらに、
ステップ(d)に先立って、それぞれ、少なくとも1つの構成パラメータと関連付けられる、前記産業機械類の複数の画像を備える、位置合わせライブラリを確立することと、
前記位置合わせライブラリ内の前記複数の画像内の前記産業機械類の状態に対して前記シーンの画像内の前記産業機械類の状態をコンピュータ的に比較することと、
前記シーンの画像内の前記産業機械類の状態に最良に合致する前記産業機械類の状態を提供する前記位置合わせライブラリ内の前記複数の画像のうちの1つを識別することと、
少なくとも部分的に、前記位置合わせライブラリ内の前記識別された画像に対応する前記構成パラメータに基づいて、前記複数のセンサを前記産業機械類に位置合わせすることと
を行うように構成される、項目32に記載の制御システム。
(項目38)
前記構成パラメータは、前記産業機械類への前記センサの位置合わせを微調整するための反復回数、メッシュあたりの3D点群データの数、または収束基準のうちの少なくとも1つを備える、項目37に記載の制御システム。
(項目39)
前記コントローラはさらに、
前記第1の複数の画像を分析し、前記センサの視野によって網羅される前記作業セル内の面積を決定することと、
前記分析に基づいて、前記決定された面積、前記センサの視野によって網羅されない面積、最適なシーン網羅範囲を達成するための前記センサのうちの少なくとも1つに関する姿勢、または付加的センサのための設置場所のうちの少なくとも1つを識別することと
を行うように構成される、項目24に記載の制御システム。
(項目40)
前記コントローラはさらに、前記識別された姿勢に基づいて、前記対応するセンサの姿勢を調節させるように構成される、項目39に記載の制御システム。
(項目41)
前記コントローラはさらに、前記センサの視野によって網羅される前記面積の輪郭を描く信号または1つ以上の光ビームを前記作業セルの中に投影するように構成される、項目39に記載の制御システム。
(項目42)
前記コントローラはさらに、前記作業セルの画像および前記センサの視野によって網羅される前記面積の輪郭を拡張現実または仮想現実デバイス上に投影するように構成される、項目41に記載の制御システム。
(項目43)
前記コントローラはさらに、
g.前記産業機械類への前記複数のセンサの位置合わせの正確度レベルを示す初期正確度メトリックを発生させることと、
h.ステップ(g)に続いて、前記産業機械類の動作の間、前記位置合わせの正確度レベルを示す後続正確度メトリックが、閾値量を上回って前記初期正確度メトリックから逸脱するかどうかを決定し、該当する場合、前記産業機械類の動作を改変することと
を行うように構成される、項目24に記載の制御システム。
(項目44)
前記コントローラはさらに、前記産業機械類の動作の間に入手される前記第2の複数の画像を周期的に分析し、(i)前記正確度メトリックを再発生させ、(ii)前記再発生された正確度メトリックを前記初期正確度メトリックと比較し、それらの間の逸脱を決定し、(iii)前記逸脱が、閾値を超える場合、前記機械類の動作を改変するように構成される、項目43に記載の制御システム。
(項目45)
前記メトリックは、位置合わせ検証またはリアルタイムロボット追跡のうちの少なくとも1つを含む、項目43に記載の制御システム。
(項目46)
前記コントローラはさらに、グローバル最適化アルゴリズムを実装し、(i)前記複数のセンサを相互に位置合わせし、(ii)前記複数のセンサを前記産業機械類に位置合わせするように構成される、項目24に記載の制御システム。
最初に、1021、1022、1023において代表的に示される1つ以上のセンサを含むセンサシステム101によって監視される、代表的3D作業空間100を図示する、図1を参照する。センサ1021-3は、カメラ、例えば、理想的には、高フレームレート(例えば、30Hz~100Hz)を伴う、3D飛行時間カメラ、ステレオビジョンカメラ、または3D LIDARセンサまたはレーダベースのセンサ等の従来の光学センサであってもよい。センサ1021-3の動作モードは、作業空間100の3D表現が、センサ1021-3によって取得される画像または他のデータから取得可能である限り、重要ではない。図に示されるように、センサ1021-3は、集合的に網羅してもよく、従来のロボットコントローラ108によって制御されるロボット106を含む、作業空間100を監視することができる。ロボット106は、種々のワークピースWと相互作用し、作業空間100内の人間オペレータHが、タスクを実施するためにワークピースWおよびロボット106と相互作用し得る。作業空間100はまた、補助機器110の種々のアイテムを含有してもよい。本明細書に使用されるように、ロボット106および補助機器110は、作業空間100内の機械類として表される。
センサシステム101は、作業空間100を監視するために実装され、防護対策機構は、概して、センサ1021-3と対照的に、危険な機械類(例えば、ロボット106)に対して構成される。マルチセンサシステムでは、各センサ102の精密な場所を全ての他のセンサに対して相関させる、センサ1021-3間の位置合わせは、典型的には、設定の間および/または機械類の動作の間に確立される。一実施形態では、センサ位置合わせは、手動で実施される。例えば、人間オペレータHは、センサの焦点と3次元内で制御されている機械類との間の距離を測定し、作業空間100内に最適な網羅面積を提供するように、それに基づいて、センサ1021-3の姿勢(例えば、位置および/または配向)を手動で操作してもよい。加えて、または代替として、ディスプレイ220に示されるユーザインターフェースが、例えば、センサ1021-3の整合点および信号品質および信頼性を最大限にするために最適なセンサ位置付けを示すための信号を提供し、位置合わせ信頼性および安全信号に関するメトリックを決定および表示し、ユーザフィードバックを提供してもよい。オペレータHは、次いで、ユーザフィードバックに基づいて、センサ1021-3の姿勢を調節してもよい。センサ位置合わせは、手動で達成されることが可能であるが、これは、単一のセンサに関してでさえ負担となり、複数のセンサからの情報を組み合わせるために十分に正確な測定値を提供するために非現実的であり得る。したがって、種々の実施形態では、センサ位置合わせは、好適なコンピュータビジョン技法を使用して自動的に実施される。下記にさらに説明されるように、作業空間100内の複数のセンサ1021-3を位置合わせするためのアプローチは、容易な設定および再構成を可能にするように、十分に単純である。
単純にするために、各フレームバッファ235が、特定のセンサ102から(周期的にリフレッシュされ得る)画像を記憶すると仮定して、位置合わせモジュール239は、各センサからの画像の全てまたは一部をフレームバッファ235内の他のセンサからの画像と比較し、それらの画像における対応を識別するために従来のコンピュータビジョン技法(例えば、グローバル位置合わせアルゴリズム)を使用することによって、センサ1021-3間の位置合わせを実施してもよい。初期位置合わせ近似を要求しない、好適なグローバル位置合わせアルゴリズムは、概して、2つのカテゴリ、すなわち、特徴ベースの方法および強度ベースの方法に分類される。ランダムサンプルコンセンサス(RANSAC)等の特徴ベースの方法は、画像内の特徴(例えば、エッジ)を抽出し、次いで、抽出された画像特徴に基づいて、対応を識別し得、強度ベースの方法は、画像内の画像強度を決定し、次いで、強度パターンを比較するために相関メトリックを使用し得る。いったん近似または大まかな位置合わせが、実施されると、微細位置合わせアプローチ(例えば、反復最近接点(ICP)アルゴリズムまたはその好適な変形)が、位置合わせを微調整し、それら自体の間のセンサ位置合わせを完了するために実施されてもよい。その後、センサ1021-3によって入手されたデータは、位置合わせに基づいて、共通基準フレーム内(例えば、同一の座標系内)で処理されることができる。
作業空間100内の制御下の機械類へのセンサ1021-3の位置合わせは、ある場合には、特に、機械類が、際立った3Dシグネチャ(例えば、ロボットアーム)を有するとき、および/または機械類が、上記に説明されるように他のセンサに対して位置合わせされる少なくとも1つのセンサ102に可視であるとき、いかなる付加的器具類も伴わずに達成されることができる。それに機械類が可視であるセンサ102は、最初に、機械類に位置合わせしてもよく、本位置合わせおよびセンサ1021-3間の位置合わせに基づいて、それに機械類が不可視である他のセンサが、次いで、機械類に位置合わせしてもよい。代替として、作業空間100内の位置合わせ標的(例えば、際立った3Dシグネチャを有する位置合わせ物体120)が、センサ1021-3を機械類に位置合わせするために利用されてもよい。概して、位置合わせ標的は、これが、人間オペレータHが機械類に対する位置合わせ標的の姿勢を決定するために簡単であるように、特別に設計される。再び、センサ1021-3は、次いで、位置合わせ標的へのセンサ1021-3の位置合わせおよび機械類に対する位置合わせ標的の姿勢を介して、機械類に位置合わせされてもよい。
作業空間100内の面積の網羅範囲を最良に提供するための3Dセンサ1021-3の適切な設定を決定するために、センサ1021-3に対して物体によって引き起こされるオクルージョン等の種々の考慮事項が、考慮されなければならない。種々の実施形態では、ディスプレイ220上に示されるユーザインターフェースは、構成を支援するために、全てのセンサ1021-3の網羅範囲を示す、双方向3Dディスプレイを提供する。本システムが、機械類の危険な部分または複数の部分の場所および停止時間および/または距離等の制御されている機械類についての十分な高レベル情報とともに構成される場合、制御システム112(例えば、分析モジュール237)は、センサ1021-3の構成が、十分な網羅範囲を提供する、および/または付加的センサに関する設置を示唆するかどうかに関して知的フィードバックを提供するように構成されてもよい。
いったんセンサ1021-3間およびセンサ1021-3と機械類との間の位置合わせが、達成されると、センサ1021-3が、作業空間100内の機械類の動作の間、同一の場所および配向に留まることが重要である。一実施形態では、センサの初期位置合わせ状態は、本システムが、動作の間に位置合わせされない、および/または作業セルが、新しい物理的場所に移動される場合に、これが、後で読み出され得るように、メモリ210内に記憶されることができる。1つ以上のセンサ1021-3が、その位置合わせされた位置から偶発的に移動される、またはドリフトすると、センサは、相互および/または機械類に対して不整合され得、その結果、センサ1021-3の網羅面積は、所定の面積外に変動し得、制御出力は、無効になり、安全上の問題をもたらすであろう。種々の実施形態では、上記に説明されるセンサ1021-3間およびセンサ1021-3と機械類との間の初期位置合わせのために使用される同一のアプローチは、(i)動作の間のセンサ1021-3間およびセンサ1021-3と機械類との間の位置合わせの継続的正確度および(ii)センサ1021-3の網羅面積を監視するために拡大されることができる。例えば、上記に説明される初期位置合わせの間、制御システム112(例えば、位置合わせモジュール239)は、位置合わせプロセスの間に作成される作業空間内の静的要素のモデルへの観察されるデータの適合正確度を捕捉するメトリックのセットを算出してもよい。これらのメトリックは、例えば、位置合わせ検証、リアルタイムロボット追跡等を含んでもよい。本システムが、動作する際、同一のメトリックは、リアルタイムで再計算される。メトリックまたは初期メトリック値(すなわち、初期位置合わせの間に取得される)からのメトリックの逸脱が、規定された閾値を超える場合、および/または網羅面積が、観察されることが予期されるものの境界外である場合、システム動作の間の位置合わせは、無効であると見なされてもよく、エラー条件が、トリガされてもよい。続けて、ロボット106および/または機械類は、ロボット/機械類が低減された速度で動作される、または非アクティブ化される、安全状態に遷移されてもよい。加えて、機械類の動作の間、センサ1021-3が、定位置に留まるが、視野が、不明瞭にされる、または遮断される、および/または測定されたセンサ信号が、(例えば、本システムのある故障を通して、または人間のアクションを通して)劣化する場合、制御システム112は、出力が無効であると決定し、次いで、機械類を安全状態に遷移させてもよい。
Claims (38)
- 作業セル内の産業機械類を監視する方法であって、前記方法は、
a.前記作業セルの近位に複数の画像センサを配置し、前記複数の画像センサのうちの少なくともいくつかを用いて、前記作業セルの第1の複数の画像を入手するステップと、
b.少なくとも部分的に、前記作業セルの前記第1の複数の画像に基づいて、相互に対する前記複数の画像センサの相対的姿勢を推定し、少なくとも部分的に、前記推定に基づいて、前記作業セルの前記第1の複数の画像を前記複数の画像センサの同一の座標系に変換するステップと、
c.前記作業セルの画像を提供するステップと、
d.前記産業機械類の複数の画像を備える位置合わせライブラリを確立するステップであって、それぞれ、少なくとも1つの構成パラメータと関連付けられる、ステップと、
e.前記位置合わせライブラリ内の前記複数の画像内の前記産業機械類の姿勢に対して前記作業セルの前記画像内の前記産業機械類の姿勢を比較するステップと、
f.前記作業セルの前記画像内の前記産業機械類の姿勢に最良に合致する前記産業機械類の姿勢を提供する前記位置合わせライブラリ内の前記複数の画像のうちの1つを識別するステップと、
g.少なくとも部分的に、前記位置合わせライブラリ内の前記識別された画像に対応する前記構成パラメータに基づいて、前記産業機械類に対する前記複数の画像センサの相対的姿勢を推定するステップと、
h.前記産業機械類の動作の間に第2の複数の画像を入手するステップと、
i.少なくとも部分的に、前記入手された第2の複数の画像に基づいて、前記産業機械類の動作の間に前記産業機械類を監視するステップと
を含み、
前記少なくとも1つの構成パラメータは、
前記産業機械類に対する前記複数の画像センサの相対的姿勢を推定する反復回数、または、
3D点群密度であって、ステップ(c)において提供された前記作業セルの前記画像は、前記作業セルをマッピングする3D点群データを含む、3D点群密度
のうちの少なくとも1つを含む、方法。 - 前記作業セルの前記第1の複数の画像を分析し、前記作業セルの前記第1の複数の画像の間の重複および前記作業セルの前記第1の複数の画像の間の区別が存在することを検証するステップをさらに含む、請求項1に記載の方法。
- 前記産業機械類は、少なくともロボットアームを備える、請求項1に記載の方法。
- 前記作業セル内に際立った3Dシグネチャを有する少なくとも1つの位置合わせ物体を提供するステップをさらに含み、前記作業セルの前記第1の複数の画像は、前記少なくとも1つの位置合わせ物体の画像を備える、請求項1に記載の方法。
- 前記少なくとも1つの位置合わせ物体に対する前記複数の画像センサのそれぞれの相対的姿勢を別個に推定するステップと、
少なくとも部分的に、前記少なくとも1つの位置合わせ物体に対する前記複数の画像センサのそれぞれの相対的姿勢の別個の推定に基づいて、相互に対する前記複数の画像センサの相対的姿勢を推定するステップと
をさらに含む、請求項4に記載の方法。 - 前記少なくとも1つの位置合わせ物体は、前記複数の画像センサのうちの少なくとも1つの画像センサに可視であり、前記方法はさらに、
前記少なくとも1つの位置合わせ物体に対する前記複数の画像センサのうちの前記少なくとも1つの画像センサの相対的姿勢を推定するステップと、
少なくとも部分的に、前記少なくとも1つの位置合わせ物体に対する前記複数の画像センサのうちの前記少なくとも1つの画像センサの相対的姿勢の推定、相互に対する前記複数の画像センサの相対的姿勢の推定、および前記産業機械類に対する前記少なくとも1つの位置合わせ物体の姿勢に基づいて、前記産業機械類に対する前記複数の画像センサの相対的姿勢を推定するステップと
を含む、請求項4に記載の方法。 - 前記少なくとも1つの位置合わせ物体の姿勢を識別するための外部入力を受信するステップをさらに含む、請求項4に記載の方法。
- 前記外部入力は、ユーザ入力または前記少なくとも1つの位置合わせ物体を制御するコントローラから伝送される入力のうちの少なくとも1つを備える、請求項7に記載の方法。
- ステップ(c)において提供された前記作業セルの前記画像は、前記作業セルの前記第1の複数の画像のうちの少なくとも1つを備える、請求項1に記載の方法。
- ステップ(c)において提供された前記作業セルの前記画像は、前記産業機械類または前記作業セルのうちの少なくとも1つの2Dまたは3D CADモデルを備える、請求項1に記載の方法。
- 前記産業機械類または前記作業セルに対して2Dまたは3D走査を実施するステップをさらに含み、前記作業セルの前記画像は、少なくとも部分的に、前記2Dまたは3D走査に基づいて構築される前記産業機械類または前記作業セルのモデルを備える、請求項1に記載の方法。
- 前記作業セルの前記第1の複数の画像を分析し、前記複数の画像センサの視野によって網羅される前記作業セル内の面積を決定するステップと、
前記分析に基づいて、前記決定された面積、前記複数の画像センサの視野によって網羅されない面積、最適なシーン網羅範囲を達成するための前記複数の画像センサのうちの少なくとも1つの画像センサに関する姿勢、または前記複数の画像センサのうちの付加的画像センサのための設置場所のうちの少なくとも1つを識別するステップと
をさらに含む、請求項1に記載の方法。 - 前記識別された姿勢に基づいて、前記複数の画像センサのうちの前記少なくとも1つの画像センサの姿勢を調節させるステップをさらに含む、請求項12に記載の方法。
- 前記複数の画像センサの視野によって網羅される前記面積の輪郭を描く1つ以上の光ビームを前記作業セルの中に投影するステップをさらに含む、請求項12に記載の方法。
- 前記作業セルの画像および前記複数の画像センサの視野によって網羅される前記面積の輪郭を拡張現実または仮想現実デバイス上に投影するステップをさらに含む、請求項14に記載の方法。
- j.前記作業セル内の前記産業機械類のモデルへの前記作業セルの前記第1の複数の画像の適合の正確度を示す初期正確度メトリックを発生させるステップと、
k.ステップ(j)に続いて、前記産業機械類の動作の間、前記作業セル内の前記産業機械類の前記モデルへの前記作業セルの前記第2の複数の画像の適合の正確度を示す後続正確度メトリックを発生させ、前記後続正確度メトリックが、閾値量を上回って前記初期正確度メトリックから逸脱するかどうかを決定し、前記後続正確度メトリックが、前記閾値量を上回って前記初期正確度メトリックから逸脱する場合、前記産業機械類の動作を改変するステップと
をさらに含む、請求項1に記載の方法。 - ステップ(k)は、前記産業機械類の動作の間に入手される前記第2の複数の画像を周期的に分析し、(i)前記後続正確度メトリックを再発生させ、(ii)前記後続正確度メトリックを前記初期正確度メトリックと比較し、それらの間の逸脱を決定し、(iii)前記逸脱が、閾値を超える場合、前記産業機械類の動作を改変するステップを含む、請求項16に記載の方法。
- 前記初期正確度メトリックは、位置合わせ検証またはリアルタイムロボット追跡のうちの少なくとも1つを含む、請求項16に記載の方法。
- グローバル最適化アルゴリズムを実装し、(i)相互に対する前記複数の画像センサの相対的姿勢、および、(ii)前記産業機械類に対する前記複数の画像センサの相対的姿勢を推定するステップをさらに含み、
前記グローバル最適化アルゴリズムは、
画像内の特徴を抽出し、次いで、前記抽出された特徴に基づいて対応を識別する特徴ベースの方法、および/または、
画像内の画像強度を決定し、次いで、強度パターンを比較するために相関メトリックを使用する強度ベースの方法
を含む、請求項1に記載の方法。 - 作業セル内の産業機械類を監視するための制御システムであって、前記制御システムは、
前記作業セルの近位の複数の画像センサと、
コントローラであって、
前記複数の画像センサのうちの少なくともいくつかを用いて、前記作業セルの第1の複数の画像を入手することと、
少なくとも部分的に、前記作業セルの前記第1の複数の画像に基づいて、相互に対する前記複数の画像センサの相対的姿勢を推定し、少なくとも部分的に、前記推定に基づいて、前記作業セルの前記第1の複数の画像を前記複数の画像センサの同一の座標系に変換することと、
前記作業セルの画像を提供することと、
前記産業機械類の複数の画像を備える位置合わせライブラリを確立することであって、それぞれ、少なくとも1つの構成パラメータと関連付けられる、ことと、
前記位置合わせライブラリ内の前記複数の画像内の前記産業機械類の姿勢に対して前記作業セルの前記画像内の前記産業機械類の姿勢を比較することと、
前記作業セルの前記画像内の前記産業機械類の姿勢に最良に合致する前記産業機械類の姿勢を提供する前記位置合わせライブラリ内の前記複数の画像のうちの1つを識別することと、
少なくとも部分的に、前記位置合わせライブラリ内の前記識別された画像に対応する前記構成パラメータに基づいて、前記産業機械類に対する前記複数の画像センサの相対的姿勢を推定することと、
前記産業機械類の動作の間に第2の複数の画像を入手することと、
少なくとも部分的に、前記入手された第2の複数の画像に基づいて、前記産業機械類の動作の間に前記産業機械類を監視することと
を行うように構成される、コントローラと
を備え、
前記少なくとも1つの構成パラメータは、
前記産業機械類に対する前記複数の画像センサの相対的姿勢を推定する反復回数、または、
3D点群密度であって、提供された前記作業セルの前記画像は、前記作業セルをマッピングする3D点群データを含む、3D点群密度
のうちの少なくとも1つを含む、制御システム。 - 前記コントローラはさらに、前記作業セルの前記第1の複数の画像を分析し、前記作業セルの前記第1の複数の画像の間の重複および前記作業セルの前記第1の複数の画像の間の区別が存在することを検証するように構成される、請求項20に記載の制御システム。
- 前記産業機械類は、少なくともロボットアームを備える、請求項20に記載の制御システム。
- 前記作業セル内に際立った3Dシグネチャを有する少なくとも1つの位置合わせ物体をさらに備え、前記作業セルの前記第1の複数の画像は、前記少なくとも1つの位置合わせ物体の画像を備える、請求項20に記載の制御システム。
- 前記コントローラはさらに、
前記少なくとも1つの位置合わせ物体に対する前記複数の画像センサのそれぞれの相対的姿勢を別個に推定することと、
少なくとも部分的に、前記少なくとも1つの位置合わせ物体に対する前記複数の画像センサのそれぞれの相対的姿勢の別個の推定に基づいて、相互に対する前記複数の画像センサの相対的姿勢を推定することと
を行うように構成される、請求項23に記載の制御システム。 - 前記少なくとも1つの位置合わせ物体は、前記複数の画像センサのうちの少なくとも1つの画像センサに可視であり、前記コントローラはさらに、
前記少なくとも1つの位置合わせ物体に対する前記複数の画像センサのうちの前記少なくとも1つの画像センサの相対的姿勢を推定することと、
少なくとも部分的に、前記少なくとも1つの位置合わせ物体に対する前記複数の画像センサのうちの前記少なくとも1つの画像センサの相対的姿勢の推定、相互に対する前記複数の画像センサの相対的姿勢の推定、および前記産業機械類に対する前記少なくとも1つの位置合わせ物体の姿勢に基づいて、前記産業機械類に対する前記複数の画像センサの相対的姿勢を推定することと
を行うように構成される、請求項23に記載の制御システム。 - 前記少なくとも1つの位置合わせ物体の姿勢を識別するための外部入力を受信するための入力モジュールをさらに備える、請求項23に記載の制御システム。
- 前記少なくとも1つの位置合わせ物体を制御する第2のコントローラをさらに備え、前記外部入力は、ユーザ入力または前記第2のコントローラから伝送される入力のうちの少なくとも1つを備える、請求項26に記載の制御システム。
- 提供された前記作業セルの前記画像は、前記作業セルの前記第1の複数の画像のうちの少なくとも1つを備える、請求項20に記載の制御システム。
- 提供された前記作業セルの前記画像は、前記産業機械類または前記作業セルのうちの少なくとも1つの2Dまたは3D CADモデルを備える、請求項20に記載の制御システム。
- 前記コントローラはさらに、前記産業機械類または前記作業セルに対する2Dまたは3D走査を引き起こすように構成され、前記作業セルの前記画像は、少なくとも部分的に、前記2Dまたは3D走査に基づいて構築される前記産業機械類または前記作業セルのモデルを備える、請求項20に記載の制御システム。
- 前記コントローラはさらに、
前記作業セルの前記第1の複数の画像を分析し、前記複数の画像センサの視野によって網羅される前記作業セル内の面積を決定することと、
前記分析に基づいて、前記決定された面積、前記複数の画像センサの視野によって網羅されない面積、最適なシーン網羅範囲を達成するための前記複数の画像センサのうちの少なくとも1つの画像センサに関する姿勢、または前記複数の画像センサのうちの付加的画像センサのための設置場所のうちの少なくとも1つを識別することと
を行うように構成される、請求項20に記載の制御システム。 - 前記コントローラはさらに、前記識別された姿勢に基づいて、前記複数の画像センサのうちの前記少なくとも1つの画像センサの姿勢を調節させるように構成される、請求項31に記載の制御システム。
- 前記コントローラはさらに、前記複数の画像センサの視野によって網羅される前記面積の輪郭を描く1つ以上の光ビームを前記作業セルの中に投影するように構成される、請求項31に記載の制御システム。
- 前記コントローラはさらに、前記作業セルの画像および前記複数の画像センサの視野によって網羅される前記面積の輪郭を拡張現実または仮想現実デバイス上に投影するように構成される、請求項33に記載の制御システム。
- 前記コントローラはさらに、
前記作業セル内の前記産業機械類のモデルへの前記作業セルの前記第1の複数の画像の適合の正確度を示す初期正確度メトリックを発生させることと、
前記産業機械類の動作の間、前記作業セル内の前記産業機械類の前記モデルへの前記作業セルの前記第2の複数の画像の適合の正確度を示す後続正確度メトリックを発生させ、前記後続正確度メトリックが、閾値量を上回って前記初期正確度メトリックから逸脱するかどうかを決定し、前記後続正確度メトリックが、前記閾値量を上回って前記初期正確度メトリックから逸脱する場合、前記産業機械類の動作を改変することと
を行うように構成される、請求項20に記載の制御システム。 - 前記コントローラはさらに、前記産業機械類の動作の間に入手される前記第2の複数の画像を周期的に分析し、(i)前記後続正確度メトリックを再発生させ、(ii)前記後続正確度メトリックを前記初期正確度メトリックと比較し、それらの間の逸脱を決定し、(iii)前記逸脱が、閾値を超える場合、前記産業機械類の動作を改変するように構成される、請求項35に記載の制御システム。
- 前記初期正確度メトリックは、位置合わせ検証またはリアルタイムロボット追跡のうちの少なくとも1つを含む、請求項35に記載の制御システム。
- 前記コントローラはさらに、グローバル最適化アルゴリズムを実装し、(i)相互に対する前記複数の画像センサの相対的姿勢、および、(ii)前記産業機械類に対する前記複数の画像センサの相対的姿勢を推定するように構成され、
前記グローバル最適化アルゴリズムは、
画像内の特徴を抽出し、次いで、前記抽出された特徴に基づいて対応を識別する特徴ベースの方法、および/または、
画像内の画像強度を決定し、次いで、強度パターンを比較するために相関メトリックを使用する強度ベースの方法
を含む、請求項20に記載の制御システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862724945P | 2018-08-30 | 2018-08-30 | |
US62/724,945 | 2018-08-30 | ||
PCT/US2019/048520 WO2020047064A1 (en) | 2018-08-30 | 2019-08-28 | Systems and methods for automatic sensor registration and configuration |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021534990A JP2021534990A (ja) | 2021-12-16 |
JP7299642B2 true JP7299642B2 (ja) | 2023-06-28 |
Family
ID=69641245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021510699A Active JP7299642B2 (ja) | 2018-08-30 | 2019-08-28 | 自動的センサ位置合わせおよび構成のためのシステムおよび方法 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11156981B2 (ja) |
EP (1) | EP3844432A4 (ja) |
JP (1) | JP7299642B2 (ja) |
WO (1) | WO2020047064A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10078908B2 (en) * | 2016-08-12 | 2018-09-18 | Elite Robotics | Determination of relative positions |
US20180308379A1 (en) * | 2017-04-21 | 2018-10-25 | Accenture Global Solutions Limited | Digital double platform |
US11830131B2 (en) * | 2018-02-06 | 2023-11-28 | Veo Robotics, Inc. | Workpiece sensing for process management and orchestration |
WO2020056353A1 (en) * | 2018-09-13 | 2020-03-19 | The Charles Stark Draper Laboratory, Inc. | Food-safe, washable, thermally-conductive robot cover |
US12066810B2 (en) * | 2020-07-06 | 2024-08-20 | Veo Robotics, Inc. | Continuous monitoring of a workcell safety system |
US12053875B2 (en) * | 2021-01-07 | 2024-08-06 | Ford Global Technologies, Llc | Method and system for determining sensor placement for a workspace based on robot pose scenarios |
US20220278892A1 (en) * | 2021-03-01 | 2022-09-01 | Lenovo (Singapore) Pte. Ltd. | Device and method for controlling communication of information |
US12090665B2 (en) * | 2021-04-15 | 2024-09-17 | Ford Global Technologies, Llc | Method and system for positioning sensors within a workspace |
US20230196495A1 (en) * | 2021-12-22 | 2023-06-22 | Datalogic Ip Tech S.R.L. | System and method for verifying positional and spatial information using depth sensors |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004508954A (ja) | 2000-09-13 | 2004-03-25 | ビ−エイイ− システムズ パブリック リミテッド カンパニ− | 位置決め装置およびシステム |
JP2004163200A (ja) | 2002-11-12 | 2004-06-10 | Hitachi Eng Co Ltd | 三次元形状計測装置 |
JP2009121053A (ja) | 2007-11-12 | 2009-06-04 | Clarion Co Ltd | 建設・土木作業車両の作業安全監視システム |
JP2012057960A (ja) | 2010-09-06 | 2012-03-22 | Topcon Corp | 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム |
US20130201292A1 (en) | 2010-04-16 | 2013-08-08 | Otto-Von Guericke-Universitat Magdeburg | Device For Monitoring At Least One Three-Dimensional Safety Area |
JP2014509417A (ja) | 2010-12-30 | 2014-04-17 | アイロボット コーポレイション | 可動式ヒューマンインターフェースロボット |
JP2014140920A (ja) | 2013-01-23 | 2014-08-07 | Denso Wave Inc | ロボット周辺への物体の侵入を監視する監視システムおよび監視方法 |
WO2018148181A1 (en) | 2017-02-07 | 2018-08-16 | Veo Robotics, Inc. | Workspace safety monitoring and equipment control |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0790494B2 (ja) | 1987-08-22 | 1995-10-04 | ファナック株式会社 | 視覚センサのキャリブレ−ション方法 |
JPH06270083A (ja) * | 1993-03-19 | 1994-09-27 | Tokico Ltd | ワーク位置検知装置 |
JPH06278064A (ja) * | 1993-03-31 | 1994-10-04 | Citizen Watch Co Ltd | 視覚センサの座標変換方法 |
JPH08328624A (ja) * | 1995-06-06 | 1996-12-13 | Fanuc Ltd | センサとロボットとの結合方法及びロボットシステム |
KR20020054243A (ko) * | 2000-12-27 | 2002-07-06 | 오길록 | 다중 영상을 이용한 대화형 모델 생성 장치 및 그 방법 |
US7522066B2 (en) * | 2006-02-23 | 2009-04-21 | Rockwell Automation Technologies, Inc. | Systems and methods that evaluate distance to potential hazards utilizing overlapping sensing zones |
JP5381871B2 (ja) | 2010-03-31 | 2014-01-08 | 日立工機株式会社 | 2サイクルエンジンおよびそれを備えたエンジン作業機 |
JP5755038B2 (ja) | 2010-06-28 | 2015-07-29 | キヤノン株式会社 | 組立装置及び生産システム |
US9188973B2 (en) * | 2011-07-08 | 2015-11-17 | Restoration Robotics, Inc. | Calibration and transformation of a camera system's coordinate system |
KR102211010B1 (ko) * | 2013-03-15 | 2021-02-02 | 카네기 멜론 유니버시티 | 복잡한 표면을 관찰하고 처리하기 위한 관리 자동 로봇 장치 |
US9452531B2 (en) | 2014-02-04 | 2016-09-27 | Microsoft Technology Licensing, Llc | Controlling a robot in the presence of a moving object |
US9251598B2 (en) * | 2014-04-10 | 2016-02-02 | GM Global Technology Operations LLC | Vision-based multi-camera factory monitoring with dynamic integrity scoring |
US9524426B2 (en) * | 2014-03-19 | 2016-12-20 | GM Global Technology Operations LLC | Multi-view human detection using semi-exhaustive search |
JP6122065B2 (ja) * | 2015-05-29 | 2017-04-26 | ファナック株式会社 | 搬送物を吊り下げて搬送するロボットシステム |
EP3397921A1 (en) * | 2015-12-30 | 2018-11-07 | Faro Technologies, Inc. | Registration of three-dimensional coordinates measured on interior and exterior portions of an object |
US10262222B2 (en) | 2016-04-13 | 2019-04-16 | Sick Inc. | Method and system for measuring dimensions of a target object |
US10078908B2 (en) * | 2016-08-12 | 2018-09-18 | Elite Robotics | Determination of relative positions |
US20210030199A1 (en) * | 2017-03-06 | 2021-02-04 | Miso Robotics, Inc. | Augmented reality-enhanced food preparation system and related methods |
EP3437804A1 (en) | 2017-08-02 | 2019-02-06 | ABB Schweiz AG | Robot control method |
US11263707B2 (en) * | 2017-08-08 | 2022-03-01 | Indigo Ag, Inc. | Machine learning in agricultural planting, growing, and harvesting contexts |
US11014240B2 (en) | 2017-09-05 | 2021-05-25 | Abb Schweiz Ag | Robot having dynamic safety zones |
US10445944B2 (en) | 2017-11-13 | 2019-10-15 | Rockwell Automation Technologies, Inc. | Augmented reality safety automation zone system and method |
JP6818708B2 (ja) | 2018-02-28 | 2021-01-20 | 株式会社東芝 | マニピュレータシステム、制御装置、制御方法、およびプログラム |
US11158084B2 (en) * | 2018-11-07 | 2021-10-26 | K2R2 Llc | Determination of relative position of an apparatus |
-
2019
- 2019-08-28 EP EP19855654.0A patent/EP3844432A4/en active Pending
- 2019-08-28 US US16/553,738 patent/US11156981B2/en active Active
- 2019-08-28 WO PCT/US2019/048520 patent/WO2020047064A1/en unknown
- 2019-08-28 JP JP2021510699A patent/JP7299642B2/ja active Active
-
2021
- 2021-08-26 US US17/412,912 patent/US11543796B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004508954A (ja) | 2000-09-13 | 2004-03-25 | ビ−エイイ− システムズ パブリック リミテッド カンパニ− | 位置決め装置およびシステム |
JP2004163200A (ja) | 2002-11-12 | 2004-06-10 | Hitachi Eng Co Ltd | 三次元形状計測装置 |
JP2009121053A (ja) | 2007-11-12 | 2009-06-04 | Clarion Co Ltd | 建設・土木作業車両の作業安全監視システム |
US20130201292A1 (en) | 2010-04-16 | 2013-08-08 | Otto-Von Guericke-Universitat Magdeburg | Device For Monitoring At Least One Three-Dimensional Safety Area |
JP2012057960A (ja) | 2010-09-06 | 2012-03-22 | Topcon Corp | 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム |
JP2014509417A (ja) | 2010-12-30 | 2014-04-17 | アイロボット コーポレイション | 可動式ヒューマンインターフェースロボット |
JP2014140920A (ja) | 2013-01-23 | 2014-08-07 | Denso Wave Inc | ロボット周辺への物体の侵入を監視する監視システムおよび監視方法 |
WO2018148181A1 (en) | 2017-02-07 | 2018-08-16 | Veo Robotics, Inc. | Workspace safety monitoring and equipment control |
Also Published As
Publication number | Publication date |
---|---|
US20200073358A1 (en) | 2020-03-05 |
EP3844432A4 (en) | 2022-06-15 |
US11156981B2 (en) | 2021-10-26 |
US11543796B2 (en) | 2023-01-03 |
US20210389745A1 (en) | 2021-12-16 |
JP2021534990A (ja) | 2021-12-16 |
EP3844432A1 (en) | 2021-07-07 |
WO2020047064A1 (en) | 2020-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7299642B2 (ja) | 自動的センサ位置合わせおよび構成のためのシステムおよび方法 | |
JP6898012B2 (ja) | 作業空間安全監視および機器制御 | |
EP3654125B1 (en) | Industrial safety monitoring configuration using a digital twin | |
EP3410246B1 (en) | Robot obstacle avoidance control system and method, robot, and storage medium | |
US7336814B2 (en) | Method and apparatus for machine-vision | |
Rusu et al. | Laser-based perception for door and handle identification | |
US11969893B2 (en) | Automated personalized feedback for interactive learning applications | |
TW202012955A (zh) | 具有球形視野的三維感測器的擋板 | |
EP3936754B1 (en) | Continuous monitoring of a workcell safety system | |
US20230359162A1 (en) | Systems and methods for sensor registration based on floor alignment | |
Araiza-lllan et al. | Dynamic regions to enhance safety in human-robot interactions | |
US20230196495A1 (en) | System and method for verifying positional and spatial information using depth sensors | |
US20230099717A1 (en) | Systems and methods for information-assisted sensor registration | |
Sachtler et al. | Combined Visual and Touch-based Sensing for the Autonomous Registration of Objects with Circular Features | |
Shi et al. | Tracking and proximity detection for robotic operations by multiple depth cameras | |
Chang et al. | Simultaneous localization and mapping of a mobile robot with surveillance and flying cameras | |
Yang et al. | Visual Servoing Control of Robot Manipulator | |
Nair et al. | 3D Position based multiple human servoing by low-level-control of 6 DOF industrial robot | |
Mezouar | Optimal Camera Trajectory under visibility constraint in visual servoing: a variational approach | |
Andersson et al. | Camera Based Concept for Enhancement of IRB Accuracy Using Fixed Features and SLAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210423 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210423 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220622 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230609 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7299642 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |