JP6843458B1 - 物体認識のために画像分類を行う方法およびシステム - Google Patents
物体認識のために画像分類を行う方法およびシステム Download PDFInfo
- Publication number
- JP6843458B1 JP6843458B1 JP2020180428A JP2020180428A JP6843458B1 JP 6843458 B1 JP6843458 B1 JP 6843458B1 JP 2020180428 A JP2020180428 A JP 2020180428A JP 2020180428 A JP2020180428 A JP 2020180428A JP 6843458 B1 JP6843458 B1 JP 6843458B1
- Authority
- JP
- Japan
- Prior art keywords
- bitmap
- image
- image portion
- texture
- textured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G61/00—Use of pick-up or transfer devices or of manipulators for stacking or de-stacking articles not otherwise provided for
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
Description
本出願は、「物体検出を備えたロボットシステム」と題する2020年1月10日付け出願の米国仮特許出願第62/959,182号の利益を請求し、その全体の内容は参照により本明細書に組み込まれる。
Claims (22)
- 計算システムによって画像を受信することであって、
前記計算システムは、画像取り込み装置と通信するように構成され、前記画像は、前記画像取り込み装置によって生成され、かつ、前記画像取り込み装置の視野の中にある一つ以上の物体を表すためのものであることと、
前記計算システムによって、前記画像の少なくとも一つの画像部分に基づいて、複数のビットマップを生成することであって、
前記複数のビットマップおよび前記少なくとも一つの画像部分は、前記一つ以上の物体のうちの第一の物体に関連付けられ、前記複数のビットマップは、(i)第一の特徴タイプの一つ以上の視覚的特徴が前記少なくとも一つの画像部分の中に存在するかどうかを記述する第一のビットマップと、(ii)第二の特徴タイプの一つ以上の視覚的特徴が前記少なくとも一つの画像部分の中に存在するかどうかを記述する第二のビットマップと、を含むことと、
前記計算システムによって、前記複数のビットマップに基づいて、前記少なくとも一つの画像部分を、テクスチャありの分類を有するものまたはテクスチャなしの分類を有するもののどちらに分類するかを決定することであって、
前記テクスチャありの分類は、前記少なくとも一つの画像部分が、前記少なくとも一つの画像部分が閾値量の視覚テクスチャを有することと関連した、少なくとも一つの定義された基準を満たすことを指し、前記テクスチャなしの分類は、前記少なくとも一つの画像部分が、前記少なくとも一つの定義された基準を満たさないことを指すことと、
前記少なくとも一つの画像部分が、前記テクスチャありの分類を有するものまたは前記テクスチャなしの分類を有するもののどちらに分類されるかに基づいて、前記一つ以上の物体について物体認識を行うことと、
を含む、画像分類の方法。 - 前記少なくとも一つの画像部分を、前記テクスチャありの分類を有するものまたは前記テクスチャなしの分類を有するもののどちらに分類するかを決定することは、前記複数のビットマップを組み合わせた融合ビットマップを生成することを含み、
前記少なくとも一つの画像部分は、前記融合ビットマップに基づいて、前記テクスチャありの分類を有するものまたは前記テクスチャなしの分類を有するものに分類される、請求項1に記載の方法。 - 前記第一のビットマップは、
前記少なくとも一つの画像部分から検出された一つ以上のそれぞれの視覚特徴記述子を含む、前記少なくとも一つの画像部分のうちの一つ以上の領域を識別するための、または、
視覚特徴記述子が前記少なくとも一つの画像部分の中で検出されないと示すための、記述子ビットマップであり、
前記第二のビットマップは、
前記少なくとも一つの画像部分から検出された一つ以上のそれぞれのエッジを含む、前記少なくとも一つの画像部分のうちの一つ以上の領域を識別するための、または、
エッジが前記少なくとも一つの画像部分の中で検出されないと示すための、エッジビットマップである、請求項2に記載の方法。 - 前記複数のビットマップは、第三のビットマップを有し、
前記第三のビットマップは、前記少なくとも一つの画像部分の各ピクセルについて、前記ピクセルの周りのピクセル強度値間の標準偏差を示すための標準偏差ビットマップであり、
前記ピクセル強度値は、前記画像取り込み装置によって感知される光の強度を示す、請求項3に記載の方法。 - 前記少なくとも一つの画像部分を、前記テクスチャありの分類を有するものまたは前記テクスチャなしの分類を有するもののどちらに分類するかを決定することは、前記計算システムによって、前記融合ビットマップをテクスチャビットマップに変換することを含み、
前記テクスチャビットマップは、前記少なくとも一つの画像部分の一つ以上のテクスチャあり領域を識別するため、または前記少なくとも一つの画像部分にはテクスチャあり領域がないことを示すためのものであり、
前記テクスチャビットマップは、前記少なくとも一つの画像部分の一つ以上のテクスチャなし領域をさらに識別するため、または前記少なくとも一つの画像部分にはテクスチャなし領域がないことを示すためのものであり、
前記一つ以上のテクスチャあり領域は、少なくとも、定義されたテクスチャレベルを有する、前記少なくとも一つの画像部分のうちの一つ以上の領域であり、前記一つ以上のテクスチャなし領域は、前記定義されたテクスチャレベルよりも低い、前記少なくとも一つの画像部分のうちの一つ以上の領域であり、
前記少なくとも一つの画像部分を、前記テクスチャありの分類を有するものまたは前記テクスチャなしの分類を有するもののどちらに分類するかを決定することは、前記テクスチャビットマップに基づく、請求項3に記載の方法。 - 前記少なくとも一つの画像部分を、前記テクスチャありの分類を有するものまたは前記テクスチャなしの分類を有するもののどちらに分類するかを前記決定することは、前記テクスチャビットマップによって示されるテクスチャあり総面積のうちの少なくとも一つに基づき、
前記テクスチャあり総面積は、
前記一つ以上のテクスチャあり領域の総面積であるか、または
前記テクスチャビットマップが前記少なくとも一つの画像部分にはテクスチャあり領域が全くないと示す場合、ゼロである、請求項5に記載の方法。 - 前記少なくとも一つの画像部分を、前記テクスチャありの分類を有するものまたは前記テクスチャなしの分類を有するもののどちらに分類するかを決定することは、前記融合ビットマップに渡るピクセル強度値の変動の有無に基づくか、または前記融合ビットマップに渡るピクセル強度値の変動量に基づく、請求項5に記載の方法。
- 前記少なくとも一つの画像部分を、前記テクスチャありの分類を有するものまたは前記テクスチャなしの分類を有するもののどちらに分類するかを決定することは、
a)前記記述子ビットマップによって識別される視覚特徴記述子の数が、定義された記述子の数量閾値よりも大きい場合、前記少なくとも一つの画像部分を前記テクスチャありの分類を有するものと分類すること、
b)第一の割合と第二の割合との比率が、定義されたテクスチャとテクスチャなしとの比較閾値を超える場合、前記少なくとも一つの画像部分を前記テクスチャありの分類を有するものと分類することであって、前記第一の割合は、前記一つ以上のテクスチャあり領域によって占められる、前記少なくとも一つの画像部分の割合であるか、もしくは前記少なくとも一つの画像部分にテクスチャあり領域がない場合にはゼロであり、前記第二の割合は、前記一つ以上のテクスチャなし領域によって占められる、前記少なくとも一つの画像部分の割合であること、
c)前記第一の割合と前記少なくとも一つの画像部分のサイズとの比率が、定義されたテクスチャと画像サイズとの比較閾値よりも大きい場合、もしくは前記第二の割合と前記少なくとも一つの画像部分の前記サイズとの比率が、定義されたテクスチャなしと画像サイズとの比較閾値よりも小さい場合、前記少なくとも一つの画像部分を前記テクスチャありの分類を有するものと分類すること、または
d)前記融合ビットマップのそれぞれのピクセルの局所領域に対する標準偏差の最大値もしくは最小値が、定義された標準偏差閾値よりも大きい場合、前記少なくとも一つの画像部分を前記テクスチャありの分類を有するものと分類すること、
のうちの少なくとも一つを含む、請求項5に記載の方法。 - 追加ビットマップを生成することをさらに含み、
前記追加ビットマップは、前記画像が生成された照明状態から、前記少なくとも一つの画像部分への影響を記述する、請求項2に記載の方法。 - 前記追加ビットマップは、
前記照明状態の結果として、定義された輝度閾値を超える一つ以上の領域を、前記少なくとも一つの画像部分の中で識別する、ハイライトビットマップ、または
前記少なくとも一つの画像部分で、影の中にある一つ以上の領域を識別する、シャドウビットマップ、のうちの少なくとも一つを含む、請求項9に記載の方法。 - 前記融合ビットマップを生成することは、
前記第一のビットマップおよび前記第二のビットマップに少なくとも基づいて、前記少なくとも一つの画像部分に渡るテクスチャレベルを記述するビットマップピクセル値を決定することと、
前記ハイライトビットマップまたは前記シャドウビットマップに基づいて、前記決定されたビットマップピクセル値のサブセットを減少させることと、を含み、
前記減少されるビットマップピクセル値の前記サブセットは、
前記定義された輝度閾値を超えると前記ハイライトビットマップによって識別されるか、または
影の中にあると前記シャドウビットマップによって識別される、
前記少なくとも一つの画像部分のうちの一つ以上の領域に対応する、請求項10に記載の方法。 - 前記融合ビットマップを生成することは、少なくとも前記第一のビットマップおよび前記第二のビットマップの加重和、ならびに前記ハイライトビットマップおよび前記シャドウビットマップの加重和に基づいている、請求項10に記載の方法。
- 前記計算システムによって受信される前記画像は、複数の色成分を含むカラー画像であり、
前記第一のビットマップおよび前記第二のビットマップは、前記複数の色成分のうちの第一の色成分に関連付けられる、ビットマップの第一のセットに属し、
前記方法は、前記複数の色成分のうちの第二の色成分に関連付けられる、ビットマップの第二のセットを生成することを含み、
前記融合ビットマップは、少なくとも前記ビットマップの第一のセットおよび前記ビットマップの第二のセットに基づいて生成される、請求項2に記載の方法。 - 前記ビットマップの第一のセットを組み合わせた、前記第一の色成分に関連付けられる第一の中間融合ビットマップを生成することと、
前記ビットマップの第二のセットを組み合わせた、前記第二の色成分に関連付けられる第二の中間融合ビットマップを生成することと、をさらに含み、
前記融合ビットマップは、少なくとも前記第一の中間融合ビットマップおよび前記第二の中間融合ビットマップを組み合わせることによって生成される、請求項13に記載の方法。 - 前記複数のビットマップが生成される前に、前記画像にスムージング操作を適用して、更新画像を生み出すことをさらに含み、
前記複数のビットマップが生成された前記少なくとも一つの画像は、前記更新画像から抽出される、請求項1に記載の方法。 - 非一時的コンピュータ可読媒体と、
少なくとも一つの処理回路と、を備え、
前記少なくとも一つの処理回路は、前記非一時的コンピュータ可読媒体が、画像取り込み装置の視野の中にある一つ以上の物体を表す、前記画像取り込み装置によって生成された画像を記憶したときに、
前記画像を受信することと、
前記画像の少なくとも一つの画像部分に基づいて、複数のビットマップを生成することであって、前記複数のビットマップおよび前記少なくとも一つの画像部分は、前記一つ以上の物体のうちの第一の物体に関連付けられ、前記複数のビットマップは、(i)第一の特徴タイプの一つ以上の視覚的特徴が前記少なくとも一つの画像部分の中に存在するかどうかを記述する第一のビットマップと、(ii)第二の特徴タイプの一つ以上の視覚的特徴が前記少なくとも一つの画像部分の中に存在するかどうかを記述する第二のビットマップと、を含むことと、
前記複数のビットマップに基づいて、前記少なくとも一つの画像部分を、テクスチャありの分類を有するものまたはテクスチャなしの分類を有するもののどちらに分類するかを決定することであって、前記テクスチャありの分類は、前記少なくとも一つの画像部分が、前記少なくとも一つの画像部分が閾値量の視覚テクスチャを有することと関連した、少なくとも一つの定義された基準を満たすことを指し、前記テクスチャなしの分類は、前記少なくとも一つの画像部分が、前記少なくとも一つの定義された基準を満たさないことを指すことと、
前記少なくとも一つの画像部分が、前記テクスチャありの分類を有するものまたは前記テクスチャなしの分類を有するもののどちらに分類されるかに基づいて、前記一つ以上の物体について物体認識を行うことと、
を行うように構成される、画像分類のための計算システム。 - 前記少なくとも一つの処理回路は、前記複数のビットマップを組み合わせた融合ビットマップを生成することによって、前記少なくとも一つの画像部分を、前記テクスチャありの分類を有するものまたは前記テクスチャなしの分類を有するもののどちらに分類するかを決定するように構成され、
前記少なくとも一つの画像部分は、前記融合ビットマップに基づいて、前記テクスチャありの分類を有するものまたは前記テクスチャなしの分類を有するものに分類される、請求項16に記載の計算システム。 - 命令を記憶する非一時的コンピュータ可読媒体であって、
前記命令は、計算システムの少なくとも一つの処理回路によって実行されるとき、前記少なくとも一つの処理回路に、
画像を受信することであって、前記計算システムは、画像取り込み装置と通信するように構成され、前記画像は、前記画像取り込み装置によって生成され、かつ、前記画像取り込み装置の視野の中にある一つ以上の物体を表すためのものであることと、
前記画像の少なくとも一つの画像部分に基づいて、複数のビットマップを生成することであって、前記複数のビットマップおよび前記少なくとも一つの画像部分は、前記一つ以上の物体のうちの第一の物体に関連付けられ、前記複数のビットマップは、(i)第一の特徴タイプの一つ以上の視覚的特徴が前記少なくとも一つの画像部分の中に存在するかどうかを記述する第一のビットマップと、(ii)第二の特徴タイプの一つ以上の視覚的特徴が前記少なくとも一つの画像部分の中に存在するかどうかを記述する第二のビットマップと、を含むことと、
前記複数のビットマップに基づいて、前記少なくとも一つの画像部分を、テクスチャありの分類を有するものまたはテクスチャなしの分類を有するもののどちらに分類するかを決定することであって、前記テクスチャありの分類は、前記少なくとも一つの画像部分が、前記少なくとも一つの画像部分が閾値量の視覚テクスチャを有することと関連した、少なくとも一つの定義された基準を満たすことを指し、前記テクスチャなしの分類は、前記少なくとも一つの画像部分が、前記少なくとも一つの定義された基準を満たさないことを指すことと、
前記少なくとも一つの画像部分が、前記テクスチャありの分類を有するものまたは前記テクスチャなしの分類を有するもののどちらに分類されるかに基づいて、前記一つ以上の物体について物体認識を行うことと、
を行わせる、非一時的コンピュータ可読媒体。 - 非一時的コンピュータ可読媒体と、
少なくとも一つの処理回路と、を備え、
前記少なくとも一つの処理回路は、前記非一時的コンピュータ可読媒体が、画像取り込み装置の視野の中にある一つ以上の物体を表す、前記画像取り込み装置によって生成された画像を記憶したときに、
前記画像を受信することと、
前記画像の少なくとも一つの画像部分に基づいて、第一のビットマップ及び第二のビットマップを含む複数のビットマップを生成することであって、(i)前記第一のビットマップは、(a)前記少なくとも一つの画像部分から検出された一つ以上のそれぞれの視覚特徴記述子を含む、前記少なくとも一つの画像部分のうちの一つ以上の領域を識別するための、または、(b)視覚特徴記述子が前記少なくとも一つの画像部分の中で検出されないと示すための、記述子ビットマップであり、(ii)前記第二のビットマップは、(a)前記少なくとも一つの画像部分から検出された一つ以上のそれぞれのエッジを含む、前記少なくとも一つの画像部分のうちの一つ以上の領域を識別するための、または、(b)エッジが前記少なくとも一つの画像部分の中で検出されないと示すための、エッジビットマップであることと、
前記複数のビットマップを組み合わせた融合ビットマップを生成することと、
前記融合ビットマップをテクスチャビットマップに変換することであって、前記テクスチャビットマップは、前記少なくとも一つの画像部分の一つ以上のテクスチャあり領域を識別するため、または前記少なくとも一つの画像部分にはテクスチャあり領域がないことを示すためのものであり、前記一つ以上のテクスチャあり領域は、少なくとも、定義されたテクスチャレベルを有する、前記少なくとも一つの画像部分のうちの一つ以上の領域であることと、
前記テクスチャビットマップに基づいて、テクスチャあり総面積及び第一の割合の少なくとも一つを決定することであって、(i)前記テクスチャあり総面積は、(a)前記一つ以上のテクスチャあり領域の総面積であるか、または、(b)前記テクスチャビットマップが前記少なくとも一つの画像部分にはテクスチャあり領域が全くないと示す場合、ゼロであり、(ii)前記第一の割合は、(a)前記一つ以上のテクスチャあり領域によって占められる、前記少なくとも一つの画像部分の割合であるか、または、(b)前記少なくとも一つの画像部分にテクスチャあり領域がない場合にはゼロであることと、
前記少なくとも一つの画像部分を、テクスチャありの分類を有するものまたはテクスチャなしの分類を有するもののどちらに分類するかを決定することであって、前記テクスチャありの分類は、前記テクスチャあり総面積または前記第一の割合が、定義された基準を満たすことを指し、前記テクスチャなしの分類は、前記テクスチャあり総面積または前記第一の割合が、前記定義された基準を満たさないことを指すことと、
前記少なくとも一つの画像部分が、前記テクスチャありの分類を有するものまたは前記テクスチャなしの分類を有するもののどちらに分類されるかに基づいて、前記一つ以上の物体について物体認識を行うことと、
を行うように構成される、画像分類のための計算システム。 - 前記少なくとも一つの処理回路は、
前記テクスチャあり総面積が、定義された面積の閾値に等しいか、または当該閾値よりも大きいという決定に応答して、前記少なくとも一つの画像部分を前記テクスチャありの分類を有するものに分類することを決定すると共に、
前記テクスチャあり総面積が、前記定義された面積の閾値よりも小さいという決定に応答して、前記少なくとも一つの画像部分を前記テクスチャなしの分類を有するものに分類することを決定する、
ように構成される、請求項19に記載の計算システム。 - 命令を記憶する非一時的コンピュータ可読媒体であって、
前記命令は、計算システムの少なくとも一つの処理回路によって実行されるとき、前記少なくとも一つの処理回路に、
画像を受信することであって、前記計算システムは、画像取り込み装置と通信するように構成され、前記画像は、前記画像取り込み装置によって生成され、かつ、前記画像取り込み装置の視野の中にある一つ以上の物体を表すためのものであることと、
前記画像の少なくとも一つの画像部分に基づいて、第一のビットマップ及び第二のビットマップを含む複数のビットマップを生成することであって、(i)前記第一のビットマップは、(a)前記少なくとも一つの画像部分から検出された一つ以上のそれぞれの視覚特徴記述子を含む、前記少なくとも一つの画像部分のうちの一つ以上の領域を識別するための、または、(b)視覚特徴記述子が前記少なくとも一つの画像部分の中で検出されないと示すための、記述子ビットマップであり、(ii)前記第二のビットマップは、(a)前記少なくとも一つの画像部分から検出された一つ以上のそれぞれのエッジを含む、前記少なくとも一つの画像部分のうちの一つ以上の領域を識別するための、または、(b)エッジが前記少なくとも一つの画像部分の中で検出されないと示すための、エッジビットマップであることと、
前記複数のビットマップを組み合わせた融合ビットマップを生成することと、
前記融合ビットマップをテクスチャビットマップに変換することであって、前記テクスチャビットマップは、前記少なくとも一つの画像部分の一つ以上のテクスチャあり領域を識別するため、または前記少なくとも一つの画像部分にはテクスチャあり領域がないことを示すためのものであり、前記一つ以上のテクスチャあり領域は、少なくとも、定義されたテクスチャレベルを有する、前記少なくとも一つの画像部分のうちの一つ以上の領域であることと、
前記テクスチャビットマップに基づいて、テクスチャあり総面積及び第一の割合の少なくとも一つを決定することであって、(i)前記テクスチャあり総面積は、(a)前記一つ以上のテクスチャあり領域の総面積であるか、または、(b)前記テクスチャビットマップが前記少なくとも一つの画像部分にはテクスチャあり領域が全くないと示す場合、ゼロであり、(ii)前記第一の割合は、(a)前記一つ以上のテクスチャあり領域によって占められる、前記少なくとも一つの画像部分の割合であるか、または、(b)前記少なくとも一つの画像部分にテクスチャあり領域がない場合にはゼロであることと、
前記少なくとも一つの画像部分を、テクスチャありの分類を有するものまたはテクスチャなしの分類を有するもののどちらに分類するかを決定することであって、前記テクスチャありの分類は、前記テクスチャあり総面積または前記第一の割合が、定義された基準を満たすことを指し、前記テクスチャなしの分類は、前記テクスチャあり総面積または前記第一の割合が、前記定義された基準を満たさないことを指すことと、
前記少なくとも一つの画像部分が、前記テクスチャありの分類を有するものまたは前記テクスチャなしの分類を有するもののどちらに分類されるかに基づいて、前記一つ以上の物体について物体認識を行うことと、
を行わせる、非一時的コンピュータ可読媒体。 - 計算システムによって画像を受信することであって、
前記計算システムは、画像取り込み装置と通信するように構成され、前記画像は、前記画像取り込み装置によって生成され、かつ、前記画像取り込み装置の視野の中にある一つ以上の物体を表すためのものであることと、
前記計算システムによって、前記画像の少なくとも一つの画像部分に基づいて、第一のビットマップ及び第二のビットマップを含む複数のビットマップを生成することであって、
(i)前記第一のビットマップは、(a)前記少なくとも一つの画像部分から検出された一つ以上のそれぞれの視覚特徴記述子を含む、前記少なくとも一つの画像部分のうちの一つ以上の領域を識別するための、または、(b)視覚特徴記述子が前記少なくとも一つの画像部分の中で検出されないと示すための、記述子ビットマップであり、(ii)前記第二のビットマップは、(a)前記少なくとも一つの画像部分から検出された一つ以上のそれぞれのエッジを含む、前記少なくとも一つの画像部分のうちの一つ以上の領域を識別するための、または、(b)エッジが前記少なくとも一つの画像部分の中で検出されないと示すための、エッジビットマップであることと、
前記計算システムによって、前記複数のビットマップを組み合わせた融合ビットマップを生成することと、
前記計算システムによって、前記融合ビットマップをテクスチャビットマップに変換することであって、
前記テクスチャビットマップは、前記少なくとも一つの画像部分の一つ以上のテクスチャあり領域を識別するため、または前記少なくとも一つの画像部分にはテクスチャあり領域がないことを示すためのものであり、前記一つ以上のテクスチャあり領域は、少なくとも、定義されたテクスチャレベルを有する、前記少なくとも一つの画像部分のうちの一つ以上の領域であることと、
前記テクスチャビットマップに基づいて、テクスチャあり総面積及び第一の割合の少なくとも一つを決定することであって、
(i)前記テクスチャあり総面積は、(a)前記一つ以上のテクスチャあり領域の総面積であるか、または、(b)前記テクスチャビットマップが前記少なくとも一つの画像部分にはテクスチャあり領域が全くないと示す場合、ゼロであり、
(ii)前記第一の割合は、(a)前記一つ以上のテクスチャあり領域によって占められる、前記少なくとも一つの画像部分の割合であるか、または、(b)前記少なくとも一つの画像部分にテクスチャあり領域がない場合にはゼロであることと、
前記計算システムによって、前記少なくとも一つの画像部分を、テクスチャありの分類を有するものまたはテクスチャなしの分類を有するもののどちらに分類するかを決定することであって、
前記テクスチャありの分類は、前記テクスチャあり総面積または前記第一の割合が、定義された基準を満たすことを指し、前記テクスチャなしの分類は、前記テクスチャあり総面積または前記第一の割合が、前記定義された基準を満たさないことを指すことと、
前記少なくとも一つの画像部分が、前記テクスチャありの分類を有するものまたは前記テクスチャなしの分類を有するもののどちらに分類されるかに基づいて、前記計算システムによって、前記一つ以上の物体について物体認識を行うことと、
を含む、画像分類の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021022439A JP2021111424A (ja) | 2020-01-10 | 2021-02-16 | 物体認識のために画像分類を行う方法およびシステム |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062959182P | 2020-01-10 | 2020-01-10 | |
US62/959,182 | 2020-01-10 | ||
US16/991,510 | 2020-08-12 | ||
US16/991,510 US11538238B2 (en) | 2020-01-10 | 2020-08-12 | Method and system for performing image classification for object recognition |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021022439A Division JP2021111424A (ja) | 2020-01-10 | 2021-02-16 | 物体認識のために画像分類を行う方法およびシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6843458B1 true JP6843458B1 (ja) | 2021-03-17 |
JP2021111353A JP2021111353A (ja) | 2021-08-02 |
Family
ID=74860753
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020180428A Active JP6843458B1 (ja) | 2020-01-10 | 2020-10-28 | 物体認識のために画像分類を行う方法およびシステム |
JP2021022439A Pending JP2021111424A (ja) | 2020-01-10 | 2021-02-16 | 物体認識のために画像分類を行う方法およびシステム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021022439A Pending JP2021111424A (ja) | 2020-01-10 | 2021-02-16 | 物体認識のために画像分類を行う方法およびシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US12080006B2 (ja) |
JP (2) | JP6843458B1 (ja) |
CN (1) | CN113111900A (ja) |
DE (1) | DE102020213564A1 (ja) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US770012A (en) | 1904-05-20 | 1904-09-13 | Christian Kramer | Fire-escape. |
JPS6317735A (ja) * | 1986-07-07 | 1988-01-25 | Okura Yusoki Co Ltd | ピツキング装置 |
JP3346679B2 (ja) * | 1994-06-14 | 2002-11-18 | 日本電信電話株式会社 | 画像検査/認識方法、これに用いる参照データ作成方法およびこれらの装置 |
US8831329B1 (en) * | 2013-06-28 | 2014-09-09 | Google Inc. | Extracting card data with card models |
CN103679195B (zh) | 2013-12-02 | 2016-08-17 | 北京工商大学 | 基于局部边缘模式的纹理图像分类方法及系统 |
JP2019063984A (ja) * | 2017-10-02 | 2019-04-25 | キヤノン株式会社 | 情報処理装置、方法及びロボットシステム |
JP7040147B2 (ja) * | 2018-03-09 | 2022-03-23 | セイコーエプソン株式会社 | 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法 |
CN109214420A (zh) | 2018-07-27 | 2019-01-15 | 北京工商大学 | 基于视觉显著性检测的高纹理图像分类方法及系统 |
US10456915B1 (en) | 2019-01-25 | 2019-10-29 | Mujin, Inc. | Robotic system with enhanced scanning mechanism |
-
2020
- 2020-10-28 DE DE102020213564.9A patent/DE102020213564A1/de active Pending
- 2020-10-28 JP JP2020180428A patent/JP6843458B1/ja active Active
- 2020-10-28 CN CN202011170640.9A patent/CN113111900A/zh active Pending
-
2021
- 2021-02-16 JP JP2021022439A patent/JP2021111424A/ja active Pending
-
2022
- 2022-12-22 US US18/145,512 patent/US12080006B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2021111424A (ja) | 2021-08-02 |
US12080006B2 (en) | 2024-09-03 |
CN113111900A (zh) | 2021-07-13 |
DE102020213564A1 (de) | 2021-07-15 |
JP2021111353A (ja) | 2021-08-02 |
US20230128352A1 (en) | 2023-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11538238B2 (en) | Method and system for performing image classification for object recognition | |
US11763459B2 (en) | Method and computing system for object identification | |
JP6730762B1 (ja) | 候補エッジを処理するための方法及び計算システム | |
JP2014041476A (ja) | 画像処理装置、画像処理方法及びプログラム | |
US20220072712A1 (en) | Mix-size depalletizing | |
US20230381971A1 (en) | Method and computing system for object registration based on image classification | |
CN106952232A (zh) | 一种基于蚁群算法的图文碎片恢复方法 | |
CN112734783B (zh) | 用于处理候选边缘的方法和计算系统 | |
CN111191083B (zh) | 用于对象标识的方法和计算系统 | |
JP6843458B1 (ja) | 物体認識のために画像分類を行う方法およびシステム | |
CN111079575B (zh) | 一种基于包装图像特征的物料识别方法及系统 | |
JP4967045B2 (ja) | 背景判別装置、方法及びプログラム | |
CN112288038B (zh) | 基于图像分类的物体识别或物体注册的方法及计算系统 | |
CN112288040B (zh) | 执行用于物体识别的图像分类的方法和系统 | |
Milecki et al. | The application of a vision system to detect trajectory points for soldering robot programming | |
JP7191352B2 (ja) | 物体検出を実施するための方法および計算システム | |
US20240257505A1 (en) | Method for neural network adaptation | |
CN116188568A (zh) | 用于确定吊钩位置的方法、装置、存储介质及处理器 | |
CN116612375A (zh) | 物品识别方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201106 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201106 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20201119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6843458 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |