JP2021022383A - エッジ及び多次元コーナーに基づく検出後の精緻化 - Google Patents
エッジ及び多次元コーナーに基づく検出後の精緻化 Download PDFInfo
- Publication number
- JP2021022383A JP2021022383A JP2020132160A JP2020132160A JP2021022383A JP 2021022383 A JP2021022383 A JP 2021022383A JP 2020132160 A JP2020132160 A JP 2020132160A JP 2020132160 A JP2020132160 A JP 2020132160A JP 2021022383 A JP2021022383 A JP 2021022383A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- detected
- image
- edges
- location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 50
- 238000000034 method Methods 0.000 claims description 52
- 238000003384 imaging method Methods 0.000 claims description 27
- 238000011156 evaluation Methods 0.000 claims description 23
- 238000004458 analytical method Methods 0.000 claims description 18
- 238000003708 edge detection Methods 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 8
- 230000015654 memory Effects 0.000 claims description 7
- 238000000926 separation method Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 7
- 238000009795 derivation Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 24
- 238000005516 engineering process Methods 0.000 description 17
- 238000012546 transfer Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 238000003860 storage Methods 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 8
- 238000012795 verification Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 7
- 238000013461 design Methods 0.000 description 6
- 230000004438 eyesight Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000000704 physical effect Effects 0.000 description 4
- 230000032258 transport Effects 0.000 description 4
- 239000012636 effector Substances 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000004806 packaging method and process Methods 0.000 description 3
- 238000007670 refining Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G61/00—Use of pick-up or transfer devices or of manipulators for stacking or de-stacking articles not otherwise provided for
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/457—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G2201/00—Indexing codes relating to handling devices, e.g. conveyors, characterised by the type of product or load being conveyed or handled
- B65G2201/02—Articles
- B65G2201/0235—Containers
- B65G2201/025—Boxes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G2203/00—Indexing code relating to control or detection of the articles or the load carriers during conveying
- B65G2203/02—Control or detection
- B65G2203/0208—Control or detection relating to the transported articles
- B65G2203/0233—Position of the article
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G2203/00—Indexing code relating to control or detection of the articles or the load carriers during conveying
- B65G2203/04—Detection means
- B65G2203/041—Camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G57/00—Stacking of articles
- B65G57/02—Stacking of articles by adding to the top of the stack
- B65G57/03—Stacking of articles by adding to the top of the stack from above
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40006—Placing, palletize, un palletize, paper roll placing, box stacking
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45056—Handling cases, boxes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
Description
本出願は、2019年5月24日に出願された米国仮特許出願第62/852,963号の利益を主張するものであり、その全体が参照により本明細書に組み込まれる。本出願は、2019年3月1日に出願された米国特許出願第16/290,741号、現在の米国特許第10,369,701号にも関連しており、その全体が参照により組み込まれる。
適切な環境
物体検出及び検出後の精緻化のための例示的なデバイス構成
物体のエッジ検出
物体の検出された平行エッジセットは、検出されたエッジの一連の交点(又は「3Dコーナー」)を識別する際に使用され得る。識別された交点は、検出されたエッジに従って物体を検出するために使用することができる。図5は、本技術のいくつかの実施形態による、エッジに基づいた物体検出の図である。図5に示すように、シーン500(例えば、図2の第1の撮像センサ212からの2D撮像出力)は、第1の物体(A)に対応する第1の検出されたエッジセット502及び第2の物体(B)に対応する第2の検出されたエッジセット504を示すことができる。
検出されたエッジ、検出された平行エッジペア、及び/又はエッジ交点の正確度/精度を定量化するための測定基準を提供するエッジ評価を導出し得る。エッジ評価は、検出されたエッジの正確度の決定、及び検出後の精緻化及び検証(例えば、初期物体推定の更新/検証)に使用することができる。エッジ評価には、物体の検出された特徴の正確度を表す動的/累積値を含めることができる。場合によっては、エッジ評価は、初期物体推定に含まれる候補物体に対する検出された物体の正確度を示すことができる。
図6は、本技術のいくつかの実施形態による、破線によって描写されるような検出されたエッジ602a及び602b、ならびに実線によって描写されるような初期物体推定604a及び604bを有するシーン600の図である。検出されたエッジ602aは、第1の物体(例えば、図3の物体302)に対応することができ、検出されたエッジ602bは、第2の物体(例えば、図3の物体304)に対応することができる。同様に、初期物体推定604aは、第1の物体に対応することができ、初期物体推定604bは、第2の物体に対応することができる。
図9は、本明細書で説明される少なくともいくつかの動作を実装できる処理システム900の実施例を示すブロック図である。図9に示すように、処理システム900は、1つ又は複数の中央処理装置(「プロセッサ」)902、メインメモリ906、不揮発性メモリ910、ネットワークアダプタ912(例えば、ネットワークインターフェイス)、ビデオディスプレイ918、入力/出力デバイス920、制御デバイス922(例えば、キーボード及びポインティングデバイス)、記憶媒体926を含むドライブユニット924、及びバス916に通信可能に接続されている信号生成デバイス930を含み得る。バス916は、適切なブリッジ、アダプタ、又はコントローラによって接続された任意の1つ又は複数の別個の物理バス、ポイントツーポイント接続、又はその両方を表す抽象概念として示されている。したがって、バス916は、例えば、システムバス、ペリフェラルコンポーネントインターコネクト(PCI)バス又はPCI−Expressバス、ハイパートランスポート又は業界標準アーキテクチャ(ISA)バス、小型コンピュータシステムインターフェイス(SCSI)バス、ユニバーサルシリアルバス(USB)、IIC(I2C)バス、又はIEEE(Institute of Electrical and Electronics Engineers)標準1394バス(「ファイアワイア」とも呼ばれる)を含むことができる。
Claims (20)
- ロボットシステムを操作するための方法であって、
環境を表す二次元(2D)画像及び三次元(3D)画像を取得することと、
前記2D画像内に描写された1つ又は複数の視覚的特徴に基づいて、前記環境内に位置する物体の推定される識別及び/又は場所を表す初期物体推定を生成することと、
前記2D画像の分析に基づいて、エッジを検出することと、
前記検出されたエッジの少なくとも2つのグループ化を含むエッジクラスタを導出することと、
前記エッジクラスタに基づいて、平行配向を有する検出されたエッジのペアを含む平行エッジセットを検出することと、
第2の平行ペアの少なくとも1つのエッジと交差する第1の平行ペアの少なくとも1つのエッジを有する検出されたエッジの前記第1の平行ペア及び前記第2の平行ペアを含む物体エッジセットを識別することと、
前記物体エッジセットを前記3D画像の領域に投影することと、
前記投影された物体エッジセットに基づいて、前記投影された物体エッジセットに対応する前記3D画像のコーナーの場所又は3Dエッジの場所を表す3D特徴場所を識別することと、
前記3D特徴場所と前記初期物体推定の対応する場所との間のオフセットを計算することと、
前記初期物体推定及び前記オフセットに基づいて、物体検出結果を生成することと、
を含む方法。 - 前記検出されたエッジのエッジ配向を決定することを更に含み、
前記エッジクラスタを導出することが、前記検出されたエッジをエッジ配向に従ってグループ化することを含み、
前記各グループ化が、一致するエッジ配向を有する、又は互いに角度閾値内の前記エッジ配向を有する前記検出されたエッジの平行インスタンスを含む、
請求項1に記載の方法。 - 前記検出されたエッジをグループ化することが、
前記検出された各エッジのベクトルを計算することと、
第1の検出されたエッジを表す第1のベクトル、及び、第2の検出されたエッジを表す第2のベクトルの内積の角度を計算することと、
前記内積の前記角度を角度閾値と比較することと、
前記内積の前記角度が前記角度閾値未満である場合に、前記第1の検出されたエッジ及び前記第2の検出されたエッジをグループ化することと、を含む、
請求項2に記載の方法。 - 前記エッジクラスタを導出することが、
前記2D画像内の分析部分を決定することと、
前記分析部分内にある前記検出されたエッジを識別することと、を含む、
請求項1に記載の方法。 - 前記分析部分が、前記初期物体推定の少なくとも一部を含む、
請求項4に記載の方法。 - 前記初期物体推定を生成することが、
前記1つ又は複数の視覚的特徴を含む前記2D画像の少なくとも一部を、登録された物体の表面の表現を含むマスタデータと比較することと、
前記2D画像の前記1つ又は複数の視覚的特徴が前記マスタデータ内の前記画像の1つと一致するときに、前記一致する画像に関連付けられた登録された物体を表す推定される識別を決定することと、
前記1つ又は複数の視覚的特徴及び前記マスタデータ内の前記一致する画像に基づいて推定される物体の場所を決定することと、を含む、
請求項4に記載の方法。 - 前記平行エッジセットを検出することが、
各前記エッジクラスタ内の前記検出されたエッジの各ペア間の検出可能なエッジ距離を計算することと、
結果として得られる検出可能なエッジ距離を、前記初期物体推定に関連付けられて登録された物体を表すマスタデータ内の寸法と比較することと、
前記マスタデータ内の前記寸法の1つと一致する前記検出可能なエッジ距離に対応する、平行エッジセットのエッジのペアを選択することと、を含む、
請求項1に記載の方法。 - 検出された各エッジのエッジ評価を生成することを更に含み、
前記物体エッジセット内の前記検出されたエッジが、エッジ検出閾値を超える前記エッジ評価を有する、
請求項1に記載の方法。 - 前記エッジ評価を生成することが、(1)前記エッジ評価によって表されるエッジの連続性の尺度、(2)前記表されるエッジの配向、(3)前記表されるエッジと前記物体エッジセット内の他のエッジとの間の類似性、(4)前記表されるエッジと前記3D画像内で表される前記3Dエッジとの間の重なりの尺度の何れかに基づいて前記エッジ評価を計算することを含む、
請求項8に記載の方法。 - 前記エッジ評価を生成することが、前記検出された平行エッジペアの間のアラインメント、並びに、前記3D画像内の検出されたコーナー及び3Dコーナーのアラインメントに基づいて前記エッジ評価を計算することを含む、
請求項8に記載の方法。 - 前記エッジを検出することが、前記エッジ検出閾値を下回る前記エッジ評価を有する検出可能なエッジを却下することを含む、
請求項8に記載の方法。 - 前記物体検出結果を生成することが、前記オフセットが閾値分離距離を超えたときに前記初期物体推定を更新することを含む、
請求項1に記載の方法。 - 前記初期物体推定を更新することが、前記オフセットに従って前記初期物体推定の推定される物体の場所を移動することを含む、
請求項12に記載の方法。 - 前記物体検出結果を生成することが、前記オフセットが閾値分離距離未満である場合に、前記初期物体推定を検証することを含む、
請求項1に記載の方法。 - プロセッサによって実行されるときに前記プロセッサに方法を実行させる命令が格納された有形の非一時的コンピュータ可読媒体であって、前記方法が、
環境を表す画像を取得することと、
初期物体推定が、前記環境内に位置する物体の推定される識別及び/又は推定される場所を表す、前記画像に基づいて前記初期物体推定を生成することと、
前記画像内のエッジを検出することと、
前記初期物体推定に対応する前記検出されたエッジの1つ又は複数のセットを検出することと、
前記検出されたエッジの前記セットを、前記環境を表す3D空間に投影することに基づいて、前記検出されたエッジの前記1つ又は複数のセット内のエッジ又はその一部の三次元(3D)場所を識別することと、
前記初期物体推定及び前記3D場所に基づいて物体検出結果を生成することと、を含む、
有形の非一時的コンピュータ可読媒体。 - 前記方法が、
検出された各エッジのエッジ配向を決定することと、
平行なエッジ配向を有する少なくとも2つの前記検出されたエッジを含む、1つ又は複数のエッジクラスタを導出するために、前記検出されたエッジを前記エッジ配向に従ってグループ化することと、を更に含み、
前記検出されたエッジの1つ又は複数のセットのそれぞれを検出することが、適格条件に従って、前記エッジクラスタの1つの中で検出されたエッジのセットを選択することを含む、
請求項15に記載の有形の非一時的コンピュータ可読媒体。 - 前記方法が、前記初期物体推定に従って前記2D画像内の分析部分を決定することを更に含み、
前記検出されたエッジの前記1つ又は複数のセットを検出することが、前記分析部分の外側の前記2D画像の部分を無視しながら、前記分析部分内の前記検出されたエッジを分析することを含む、
請求項15に記載の有形の非一時的コンピュータ可読媒体。 - 前記画像を取得することが、前記環境の二次元(2D)表現及び3D表現を取得することを含み、
前記エッジを検出することが、前記2D表現内に描写された前記エッジを検出することを含み、
前記物体検出結果が、前記2D表現及び前記3D表現内の対応する特徴間のオフセットに基づいて生成され、
前記方法が、
前記検出されたエッジの前記1つ又は複数のセット内の前記エッジ又はその前記一部に対応する3Dエッジ若しくはその一部を識別することと、
前記2D表現から導出された前記3D場所と前記3D表現内に描写された前記3Dエッジの場所との間の前記オフセットを計算することと、を更に含む、
請求項15に記載の有形の非一時的コンピュータ可読媒体。 - 前記物体検出結果を生成することが、前記オフセットが閾値分離距離を超えたときに、前記オフセットに従って前記推定される場所を移動することを含む、
請求項18に記載の有形の非一時的なコンピュータ可読媒体。 - 二次元(2D)撮像センサと1つ又は複数のロボットユニットとの間でコンピュータ可読データを交換するように構成される通信回路と、
前記通信回路に結合された少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに結合され、前記プロセッサに、
2D画像が環境を表す、前記2D画像を前記2D画像センサから取得させ、
前記環境内に位置する物体の推定される識別及び/又は場所を表す前記2D画像に基づいて初期物体推定を生成させ、
前記2D画像内のエッジを検出させ、
平行なエッジ配向を有し、前記初期物体推定に対応する検出されたエッジの1つ又は複数のペアリングを検出させ、
検出されたエッジの前記1つ又は複数のエッジペアリングを3D空間に投影することによって三次元(3D)場所を識別させ、
前記初期物体推定の前記3D場所とコーナー場所との間のオフセットを計算させ、
前記初期物体推定及び前記オフセットに基づいて前記物体の場所を含む物体検出結果を生成させ、
前記環境内に位置する前記物体を操作するために前記1つ又は複数のロボットユニットを操作するための前記物体検出結果に従って計画を導出及び実装させる、命令が格納された、少なくとも1つのメモリと、を含む、
ロボットシステム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962879359P | 2019-07-26 | 2019-07-26 | |
US62/879,359 | 2019-07-26 | ||
US16/824,680 US11389965B2 (en) | 2019-07-26 | 2020-03-19 | Post-detection refinement based on edges and multi-dimensional corners |
US16/824,680 | 2020-03-19 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020077289A Division JP6749034B1 (ja) | 2019-07-26 | 2020-04-24 | エッジ及び多次元コーナーに基づく検出後の精緻化 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021022383A true JP2021022383A (ja) | 2021-02-18 |
JP2021022383A5 JP2021022383A5 (ja) | 2023-07-05 |
Family
ID=72276712
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020077289A Active JP6749034B1 (ja) | 2019-07-26 | 2020-04-24 | エッジ及び多次元コーナーに基づく検出後の精緻化 |
JP2020132160A Pending JP2021022383A (ja) | 2019-07-26 | 2020-08-04 | エッジ及び多次元コーナーに基づく検出後の精緻化 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020077289A Active JP6749034B1 (ja) | 2019-07-26 | 2020-04-24 | エッジ及び多次元コーナーに基づく検出後の精緻化 |
Country Status (4)
Country | Link |
---|---|
US (3) | US11389965B2 (ja) |
JP (2) | JP6749034B1 (ja) |
CN (1) | CN112307870A (ja) |
DE (1) | DE102020111139A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4044333A1 (en) | 2021-02-16 | 2022-08-17 | Prime Planet Energy & Solutions, Inc. | Battery |
JP2022177833A (ja) * | 2021-05-18 | 2022-12-01 | 株式会社Mujin | 物体サイズ検出のためのロボットシステム |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9227323B1 (en) * | 2013-03-15 | 2016-01-05 | Google Inc. | Methods and systems for recognizing machine-readable information on three-dimensional objects |
US11389965B2 (en) * | 2019-07-26 | 2022-07-19 | Mujin, Inc. | Post-detection refinement based on edges and multi-dimensional corners |
JP7314871B2 (ja) * | 2020-07-09 | 2023-07-26 | 新東工業株式会社 | 強度計測装置及び強度計測方法 |
CN112935703B (zh) * | 2021-03-19 | 2022-09-27 | 山东大学 | 识别动态托盘终端的移动机器人位姿校正方法及系统 |
DE102021202340A1 (de) | 2021-03-10 | 2022-09-15 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum steuern eines roboters zum aufnehmen und inspizieren eines objekts und robotersteuereinrichtung |
CN115375912A (zh) | 2021-05-04 | 2022-11-22 | 牧今科技 | 用于执行物体检测的方法和计算系统 |
US20230027984A1 (en) | 2021-07-21 | 2023-01-26 | Mujin, Inc. | Robotic system with depth-based processing mechanism and methods for operating the same |
US20230191608A1 (en) * | 2021-12-22 | 2023-06-22 | AMP Robotics Corporation | Using machine learning to recognize variant objects |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3525896B2 (ja) | 1999-03-19 | 2004-05-10 | 松下電工株式会社 | 3次元物体認識方法および同方法を使用したビンピッキングシステム |
US7065242B2 (en) | 2000-03-28 | 2006-06-20 | Viewpoint Corporation | System and method of three-dimensional image capture and modeling |
JP3482938B2 (ja) | 2000-05-02 | 2004-01-06 | 株式会社ダイフク | 物品位置認識装置 |
JP3849514B2 (ja) | 2001-12-10 | 2006-11-22 | 株式会社ダイフク | 物品位置認識装置 |
US7522163B2 (en) * | 2004-08-28 | 2009-04-21 | David Holmes | Method and apparatus for determining offsets of a part from a digital image |
US20090091566A1 (en) * | 2007-10-05 | 2009-04-09 | Turney Stephen G | System and methods for thick specimen imaging using a microscope based tissue sectioning device |
CN102128589B (zh) | 2010-01-20 | 2013-03-13 | 中国科学院自动化研究所 | 一种在轴孔装配中零件内孔方位误差的校正方法 |
JP5746477B2 (ja) * | 2010-02-26 | 2015-07-08 | キヤノン株式会社 | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム |
CN101907459B (zh) | 2010-07-12 | 2012-01-04 | 清华大学 | 基于单目视频的实时三维刚体目标姿态估计与测距方法 |
JP5820366B2 (ja) | 2010-10-08 | 2015-11-24 | パナソニック株式会社 | 姿勢推定装置及び姿勢推定方法 |
JP5839929B2 (ja) | 2010-11-19 | 2016-01-06 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
CN102890823B (zh) | 2011-07-19 | 2016-04-27 | 株式会社东芝 | 运动对象轮廓提取及左心室图像分割方法和装置 |
JP2013101045A (ja) | 2011-11-08 | 2013-05-23 | Fanuc Ltd | 物品の3次元位置姿勢の認識装置及び認識方法 |
US9030470B2 (en) | 2012-08-14 | 2015-05-12 | Hong Kong Applied Science and Technology Research Institute Company Limited | Method and system for rapid three-dimensional shape measurement |
US9227323B1 (en) * | 2013-03-15 | 2016-01-05 | Google Inc. | Methods and systems for recognizing machine-readable information on three-dimensional objects |
US9424461B1 (en) * | 2013-06-27 | 2016-08-23 | Amazon Technologies, Inc. | Object recognition for three-dimensional bodies |
CN104424475B (zh) | 2013-09-10 | 2018-05-01 | 阿里巴巴集团控股有限公司 | 图像中的条纹区域的识别方法及装置 |
US9233469B2 (en) | 2014-02-13 | 2016-01-12 | GM Global Technology Operations LLC | Robotic system with 3D box location functionality |
US9476730B2 (en) * | 2014-03-18 | 2016-10-25 | Sri International | Real-time system for multi-modal 3D geospatial mapping, object recognition, scene annotation and analytics |
CN104075659B (zh) | 2014-06-24 | 2016-08-17 | 华南理工大学 | 一种基于rgb结构光源的三维成像识别方法 |
US9734401B2 (en) * | 2014-08-08 | 2017-08-15 | Roboticvisiontech, Inc. | Detection and tracking of item features |
JP6075888B2 (ja) * | 2014-10-16 | 2017-02-08 | キヤノン株式会社 | 画像処理方法、ロボットの制御方法 |
JP6573354B2 (ja) | 2014-11-28 | 2019-09-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
CN104841593B (zh) | 2015-05-29 | 2017-04-19 | 希美埃(芜湖)机器人技术有限公司 | 一种机器人自动喷涂系统的控制方法 |
CN105654465B (zh) | 2015-12-21 | 2018-06-26 | 宁波大学 | 一种采用视差补偿视点间滤波的立体图像质量评价方法 |
EP3408848A4 (en) * | 2016-01-29 | 2019-08-28 | Pointivo Inc. | SYSTEMS AND METHOD FOR EXTRACTING INFORMATION ON OBJECTS FROM SCENE INFORMATION |
CN106056598A (zh) | 2016-05-27 | 2016-10-26 | 哈尔滨工业大学 | 基于线段检测和图像分割融合的卫星高分图像建筑物轮廓提取方法 |
CN107729893B (zh) | 2017-10-12 | 2020-06-30 | 清华大学 | 一种合模机的视觉定位方法、系统和存储介质 |
EP3474230B1 (en) | 2017-10-18 | 2020-07-22 | Tata Consultancy Services Limited | Systems and methods for edge points based monocular visual slam |
US11504853B2 (en) * | 2017-11-16 | 2022-11-22 | General Electric Company | Robotic system architecture and control processes |
CN108920996A (zh) | 2018-04-10 | 2018-11-30 | 泰州职业技术学院 | 一种基于机器人视觉的小目标检测方法 |
CN108724190A (zh) | 2018-06-27 | 2018-11-02 | 西安交通大学 | 一种工业机器人数字孪生系统仿真方法及装置 |
JP7031540B2 (ja) * | 2018-09-07 | 2022-03-08 | オムロン株式会社 | 対象物認識装置、マニピュレータ、および移動ロボット |
US10369701B1 (en) * | 2018-10-30 | 2019-08-06 | Mujin, Inc. | Automated package registration systems, devices, and methods |
DE112019000125B4 (de) * | 2018-10-30 | 2021-07-01 | Mujin, Inc. | Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung |
CN109559324B (zh) | 2018-11-22 | 2020-06-05 | 北京理工大学 | 一种线阵图像中的目标轮廓检测方法 |
US11023763B2 (en) * | 2019-03-19 | 2021-06-01 | Boston Dynamics, Inc. | Detecting boxes |
CN110243308A (zh) | 2019-05-31 | 2019-09-17 | 湖北大学 | 基于区域定位的实时相位测量轮廓术 |
US11389965B2 (en) * | 2019-07-26 | 2022-07-19 | Mujin, Inc. | Post-detection refinement based on edges and multi-dimensional corners |
-
2020
- 2020-03-19 US US16/824,680 patent/US11389965B2/en active Active
- 2020-04-23 DE DE102020111139.8A patent/DE102020111139A1/de active Pending
- 2020-04-24 JP JP2020077289A patent/JP6749034B1/ja active Active
- 2020-05-15 CN CN202010417604.1A patent/CN112307870A/zh active Pending
- 2020-08-04 JP JP2020132160A patent/JP2021022383A/ja active Pending
-
2022
- 2022-06-10 US US17/806,379 patent/US11850760B2/en active Active
-
2023
- 2023-11-15 US US18/510,521 patent/US20240157566A1/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4044333A1 (en) | 2021-02-16 | 2022-08-17 | Prime Planet Energy & Solutions, Inc. | Battery |
JP2022177833A (ja) * | 2021-05-18 | 2022-12-01 | 株式会社Mujin | 物体サイズ検出のためのロボットシステム |
JP7189586B2 (ja) | 2021-05-18 | 2022-12-14 | 株式会社Mujin | 物体サイズ検出のためのロボットシステム |
Also Published As
Publication number | Publication date |
---|---|
DE102020111139A1 (de) | 2021-01-28 |
US11389965B2 (en) | 2022-07-19 |
JP6749034B1 (ja) | 2020-09-02 |
US11850760B2 (en) | 2023-12-26 |
US20240157566A1 (en) | 2024-05-16 |
US20210023717A1 (en) | 2021-01-28 |
JP2021022364A (ja) | 2021-02-18 |
US20220297305A1 (en) | 2022-09-22 |
CN112307870A (zh) | 2021-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6749034B1 (ja) | エッジ及び多次元コーナーに基づく検出後の精緻化 | |
JP6820044B1 (ja) | 自動パッケージ登録機構および最小実行可能領域検出を備えたロボットシステム | |
CN110116406B (zh) | 具有增强的扫描机制的机器人系统 | |
JP6782046B1 (ja) | 画像データに基づく物体検出システム及び方法 | |
CN111783529B (zh) | 基于边缘和多维拐角的检测后改善 | |
JP7398662B2 (ja) | ロボット多面グリッパアセンブリ及びその操作方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230419 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230626 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240301 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240430 |