JP2022045905A - 混合サイズデパレタイジング - Google Patents

混合サイズデパレタイジング Download PDF

Info

Publication number
JP2022045905A
JP2022045905A JP2021136172A JP2021136172A JP2022045905A JP 2022045905 A JP2022045905 A JP 2022045905A JP 2021136172 A JP2021136172 A JP 2021136172A JP 2021136172 A JP2021136172 A JP 2021136172A JP 2022045905 A JP2022045905 A JP 2022045905A
Authority
JP
Japan
Prior art keywords
box
image
boxes
segmentation
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021136172A
Other languages
English (en)
Inventor
タン トー
Te Tang
哲朗 加藤
Tetsuro Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of JP2022045905A publication Critical patent/JP2022045905A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40006Placing, palletize, un palletize, paper roll placing, box stacking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

【課題】箱の積み重ねからロボットによって取出すべき箱を特定する方法及びシステムを提供する。【解決手段】箱をパレットから取出すロボットシステムのコントローラの一部である混合サイズデパレタイジングシステム30における方法は、三次元カメラを使用して箱の二次元赤緑青カラー(RGB)画像32と、箱の二次元深度マップ画像34と、を取得する。深度マップ画像のピクセルは、カメラから箱までの距離を特定する値を割当てられる。方法はさらに、セグメンテーションモジュール36が、RGB画像と深度マップ画像とから特徴を抽出し、画像内の抽出された特徴を結合し、セグメンテーション画像内の各箱が同一のラベルを有するように特徴画像内のピクセルにラベルを割当てる画像セグメンテーション処理を実行することによって箱のセグメンテーション画像を生成し、位置モジュール64が、セグメンテーション画像を使用して箱を取出す位置を特定する。【選択図】図2

Description

本開示は、概して、箱の積み重ねからロボットによって取出すべき箱を特定するためのシステム及び方法に関し、より具体的には、箱の積み重ねからロボットによって取出すべき箱を特定するためのシステム及び方法であって、積み重ねの画像内の全ピクセルにラベルを割当てる画像セグメンテーション処理を採用したシステム及び方法に関する。
ロボットはピックアンドプレース動作を含む多数の商用タスクを実行する。ピックアンドプレース動作では、ロボットが対象物を取出して、ある位置から別の位置に移動する。例えば、ロボットはパレットから箱を取出し、箱をコンベヤベルト上に載置する。ここで、ロボットは箱を保持するために吸着カップを備えたエンドエフェクタを採用することが多い。ロボットが箱を効果的に取出すために、ロボットは、取出す箱の幅、長さ及び高さを認識する必要がある。幅、長さ及び高さはピックアンドプレース動作の前にロボットコントローラに入力される。しかし、多くの場合、同じパレット上の箱の大きさが異なるため、ピックアンドプレース動作中に箱の大きさをロボットに入力するのは非効率的である。箱はこのほか、同じ高さに隣り合って配置できる。この場合、箱が別々の箱であるか、単一の大きな箱であるかを区別するのは困難である。現在、リアルタイムで取出す箱の大きさを決定できるロボットシステムはない。
ある既知のロボットピックアンドプレースシステムでは、ロボットが取出す箱の幅、長さ及び高さが最初にシステムに入力される。三次元カメラが、箱の積み重ねの上面(top down)画像を取得し、箱の二次元赤緑青カラー(RGB)画像と箱の二次元グレースケール深度マップ画像を生成する。ここで、深度マップ画像の各ピクセルは、カメラから特定の箱までの距離を規定する値を有する。即ち、ピクセルが対象物に近いほど、その値は低くなる。ロボットコントローラは、箱の幅と長さに基づいて一連の投影テンプレートを提供する。各テンプレートは、カメラと箱の間の特定の距離に対応する大きさを有する。深度マップ画像によって提供される箱の距離のためのテンプレートは検索処理にてカラー画像内を移動し、テンプレートがカラー画像の箱と一致するか整列すると、ロボットコントローラは箱の位置を認識し、その位置を用いて箱の中心を規定し、ロボットが箱を取出すように制御する。
以下の考察は、箱の積み重ねからロボットによって取出すべき箱を特定するためのシステム及び方法を開示して説明する。この方法は、三次元カメラを使用して、箱の二次元赤緑青カラー(RGB)画像と、箱の二次元深度マップ画像とを取得することを含む。ここで、深度マップ画像のピクセルは、カメラから箱までの距離を特定する値を割当てられる。この方法は、RGB画像と深度マップ画像とから特徴を抽出し、画像内の抽出された特徴を結合し、セグメンテーション画像の各箱が同一のラベルを有するように特徴画像内のピクセルにラベルを割当てる、画像セグメンテーション処理を実行することによって箱のセグメンテーション画像を生成する。次に、この方法はセグメンテーション画像を使用して箱を取出す位置を特定する。
本開示の追加の特徴が、添付の図面と併せて、以下の説明及び添付の特許請求の範囲から明らかになるであろう。
パレットから箱を取出し、コンベヤベルト上に箱を載置するロボットを含むロボットシステムの図である。 図1に示すロボットシステムの一部である混合サイズデパレタイジングシステムの概略ブロック図である。 図2に示すシステムから分離されたセグメンテーションモジュールの概略ブロック図である。 3層の箱の積み重ねの上面RGB画像を示す図である。 図4に示す箱の積み重ねの上面深度マップ画像である。 横軸に深さ、縦軸に度数を有するヒストグラムであり、積み重ねの中の箱の度数ピークを示す。 図4に示す積み重ねの最上層の切取り上面RGB画像である。 図4に示す積み重ねの中間層の切取り上面RGB画像である。
本開示の実施形態に関する以下の考察は、箱の積み重ねからロボットによって取出すべき箱を特定するためのシステム及び方法を対象とし、この方法は積み重ねの画像内の全ピクセルにラベルを割当てる画像セグメンテーション処理を採用する。本質的に単なる例示であり、本発明又はその用途又は使用を制限することを全く意図していない。例えば、このシステム及び方法はロボットによって取出すべき箱を特定する用途を有する。しかし、このシステム及び方法は他の用途を有することもある。
図1は、パレット20上に位置決めされた箱16の積み重ね18から箱16を取出し、コンベヤベルト22上に載置するように構成されたエンドエフェクタ14を有するロボット12を含むロボットシステム10の図である。システム10は本書の考察から利益を得ることができる任意のタイプのロボットシステムを表すよう意図され、ロボット12はその目的に適した任意のロボットでよい。三次元カメラ24は、箱16の積み重ね18の上面二次元RBG画像及び深度マップ画像を取得するために位置決めされ、ロボット12の動作を制御するロボットコントローラ26に画像を提供する。箱16は、パレット20上で異なる方向を有する場合があり、パレット20上で複数の層に積み重ねられる場合があり、異なる大きさ有する場合がある。
以下で詳細に考察するように、ロボットコントローラ26は、箱16の長さ、幅及び高さを事前にコントローラ26に入力することなく、箱16の投影テンプレートを生成することを必要とせずに、ロボット12が取出そうとする箱16のそれぞれのサイズを決定するアルゴリズムを採用する。より具体的には、アルゴリズムは、同一のラベルを有するピクセルが特定の特性を共有するように、画像内の全ピクセルにラベルを割当てる画像セグメンテーション処理を実行する。このため、セグメンテーション処理はどのピクセルがどの箱16に属するかを予測する。ここで、異なる特徴が異なる箱16を表す。
最新の画像セグメンテーション技術は、深層学習技術を採用する場合がある。深層学習は、特定の実世界の環境を、増大する複雑な概念の階層として表すことによってより優れた学習性能を提供する特定のタイプの機械学習である。深層学習は、典型的には、非線形処理を実行するニューラルネットワークの複数の層を含むソフトウェア構成を採用する。ここで、連続する各層は前の層からの出力を受取る。一般に、層は、センサからの生データを受取る入力層と、データから抽象的な特徴を抽出する幾つかの隠れ層と、隠れ層からの特徴抽出に基づいて特定の事柄を特定する出力層と、を含む。ニューラルネットワークは、ある事柄が正しいかどうかの可能性(probability)を得るためにノードへの入力が乗算される「重み」をそれぞれ有するニューロン又はノードを含む。より具体的には、ノードのそれぞれは、入力の幾らかの比率であるそのノードの出力を生成するためにノードへの入力が乗算される浮動小数点数である重みを有する。重みは、ニューラルネットワークに教師あり処理の下で一組の既知のデータを分析させることによって、及び、ネットワークが正しい出力の最高の可能性(probability)を得られるようにコスト関数を最小化することを通じて、最初に「訓練される」か、又は設定される。深層学習ニューラルネットワークは、画像内の対象物の視覚的検出と分類のための画像特徴抽出及び変換を提供するために採用されることが多い。ここで、動画又は画像のストリームは、対象物を特定及び分類し、対象物をより良く認識する処理を通じて学習するネットワークによって分析され得る。このため、このようなタイプのネットワークでは、システムは、同じ処理構成を使用して、特定の対象物を検出し、アルゴリズムが対象物を認識するために学習した方法に基づいて対象物を別々に分類できる。
図2は、箱16をパレット20から取出すように動作するロボットシステム10におけるコントローラ26の一部である混合サイズデパレタイジングシステム30の概略ブロック図である。システム30は、カメラ24から、パレット20上に位置決めされた箱16の上面図の二次元RGB画像32と、箱16の上面図の二次元深度マップ画像34と、を受取る。画像32及び34は、画像セグメンテーション処理を実行するセグメンテーションモジュール36に提供される。ここで、各ピクセルは特定のラベルを割当てられ、同じ箱16に関連付けられたピクセルは同一のラベルを有する。
図3は、システム30から分離されたモジュール36の概略ブロック図である。RGB画像32は、特徴抽出モジュール40に提供され、深度マップ画像34は、画像32及び34から特徴を抽出するフィルタリング処理を実行する特徴抽出モジュール42に提供される。例えば、モジュール40及び42は、勾配、エッジ、輪郭、基本形状等を画像32及び34から抽出する学習ベースのニューラルネットワークを含み、既知の方法で、RGB画像32の抽出された特徴画像44と、深度マップ画像34の抽出された特徴画像46とを提供してもよい。画像44及び46は、三次元拡大行列を提供するために、特徴積み重ね画像48として位置合わせされる。特徴積み重ね画像48は、画像48内の箱16の位置を決定するために、RGB画像32及び深度マップ画像34にて特定された特徴を、ニューラルネットワークを使用して分析する領域提案モジュール50に提供される。特に、モジュール50は、異なるサイズの50個から100個のボックス等の幾つかのバウンディングボックス、即ち、箱16が画像48内の特定の位置に存在する可能性(probability)を特定するために使用される種々の長さと幅を有するボックスを提供する、訓練されたニューラルネットワークを含む。領域提案モジュール50は、当業者によく知られているスライド検索ウィンドウテンプレートを採用する。ここで、全てのバウンディングボックスを含む検索ウィンドウが、箱16のうちの1つの存在の可能性を特定する特徴を探索するために、特徴積み重ね画像48上を、例えば、画像48の左上から画像48の右下へ移動する。
スライドウィンドウ検索は、画像48内の予測された対象物をそれぞれ取囲む幾つかのバウンディングボックス52を含むバウンディングボックス画像54を生成する。ここで、画像54内のバウンディングボックス52の数は、ロボット12が積み重ね18から箱16のうちの1つを取除くたびに減少する可能性がある。モジュール50は、各ボックス52の中心位置(x、y)、幅(w)及び高さ(h)をパラメータ化し、箱がボックス52の中に存在することの0%から100%の間の予測信頼値を提供する。画像54は、ピクセルがバウンディングボックス52のそれぞれの中の箱16に属するかどうかを、ニューラルネットワークを使用して推定して、対象物16の一部ではないボックス52の中の背景ピクセルを除去する、バイナリセグメンテーションモジュール56に提供される。ボックス52のそれぞれの中の画像54内の残りのピクセルは、特定の箱16の値を割当てられ、その結果、色等の異なる特徴によって箱16を特定する二次元セグメンテーション画像58が生成される。説明した画像セグメンテーション処理は、深層学習マスクR-CNN(畳み込みニューラルネットワーク)の修正された形態である。
次に、二次元セグメンテーション画像58は、画像58の中のどの区分けされた箱が箱であるための最大信頼値を有するかを決定し、選択された箱16の中心ピクセルのxy座標を提供する、中心ピクセルモジュール60に提供される。選択された箱16の特定された中心ピクセルは、深度マップ画像34と共に、その箱16の中心ピクセルのxyzデカルト座標を計算するデカルト座標モジュール62に提供される。ここで、深度マップ画像34は、現実世界の各ピクセル位置を認識する。次に、その箱16の中心ピクセルのxyz座標は、エンドエフェクタ14を位置決めするための取出(grasp)位置モジュール64においてxyz取出位置を特定するために使用される。エンドエフェクタ14の取出位置と、方向モジュール66からの箱16の既知の垂直方向とが、取出姿勢モジュール68のエンドエフェクタ14の取出姿勢又は方向を決定する。ここで、取出姿勢は、エンドエフェクタ14のxyz座標と、ヨー、ピッチ及びロールとを含み、エンドエフェクタ14の箱16への接近方向を提供する。ここで、垂直方向の代わりに、箱16の他の方向、例えば箱表面の法線方向等を提供できる。ロボット動作は、箱16を取出すために取出モジュール70にて実行される。次に、ロボット12は、カメラ24に信号を送信して、以前にピックアップされた箱16が積み重ね18から取除かれた、新たなRGB画像と深度マップ画像を提供する。この処理は、全ての箱16が取出されるまで継続される。
箱16がロボット12によって積み重ね18から取除かれると、積み重ね18の下層の箱16が、カメラ24に部分的に露出され、セグメンテーションモジュール36によって区分けされることがある。図4は、これを示す箱84の積み重ね82の上面RGB画像80である。ここで、最上層88の箱86が、中間層92の箱90と最下層96の箱94を部分的に覆い、箱90及び94は、セグメンテーションモジュール36によって区分けされる場合があり、ロボット12は、箱86が取除かれる前に箱90及び94を取出そうとする場合がある。部分的に区分けされた箱は、カメラ24にとって完全な箱のように見えるかもしれないが、それらの箱の一部が遮蔽されているため、箱の適切な中心を決定できず、エンドエフェクタ14の方向はそれらの箱を取出すために適切な位置に配置されない場合がある。
以下で詳細に考察するように、この問題は、積み重ね18の深度マップ画像を使用して箱84の最上層を切取り、最上層のそれらの箱を、ロボット12によって積み重ね82から取除くまで区分けすることのみによって対処される。図5は、積み重ね82の深度マップ画像98である。ここで、層88、92及び96のうちの特定の1つにて箱84は同じ陰影を有する。
図6は、横軸に深さを有し、縦軸に度数を有するヒストグラムである。ここで、別個の「バー」が、例えば、カメラ24からの深さ1センチメートルごとに定義される。深度マップ画像98の各ピクセルは、カメラ24からの距離に応じて値が割当てられ、深度マップ画像98の各ピクセルは度数であり、各度数は、その値に応じてバーに割当てられる。このため、特定の層の箱84のピクセルは、同じバー又は周辺のバーに割当てられることになる。ヒストグラムは、深さ70cmでの最上層88の度数のピーク100と、深さ90cmでの中間層92の度数のピーク102と、深さ105cmの最下層96の度数のピーク104とを示す。ここで、カメラ24から0cmのピーク106は、測定できずに却下されるピクセルによる度数を含み、カメラ24から120cmのピーク108は地面であり、これも却下される。
コントローラ26は、最も近いピークを箱84の最上層として特定し、これはピーク100であり、図7に示すように、そのピーク値又は周辺の値に関連する全ての箱を画像から切取る。ここで、他の箱で覆われている箱は切取り画像に存在せず、セグメンテーション処理は上記で考察された方法で切取り画像に対して実行できる。切取り画像において全ての箱84が取出されると、コントローラ26は別のヒストグラムを生成する。ここで、最も近いピークは、図8に示すように切取られた箱84の中間層のピーク102である。
当業者によって充分に理解されるように、本開示を説明するために本書で考察された幾つかの種々のステップ及び処理は、電気的現象を使用してデータを操作したり、及び/又は変換したりする、コンピュータ、プロセッサ又は他の電子計算装置によって実行される動作を指す場合がある。それらのコンピュータ及び電子装置は、コンピュータ又はプロセッサによって実行できる種々のコード又は実行可能命令を含む実行可能プログラムが記憶された非一時的なコンピュータ可読媒体を含む種々の揮発性メモリ及び/又は不揮発性メモリを採用する場合がある。ここで、メモリ及び/又はコンピュータ可読媒体は、あらゆる形態及びタイプのメモリ及び他のコンピュータ可読媒体を含んでもよい。
前述の考察は、本開示の単なる例示的な実施形態を開示し説明する。当業者は、そのような考察及び添付の図面及び特許請求の範囲から、以下の特許請求の範囲で規定される開示の精神及び範囲から逸脱することなく、種々の変更、修正及び変形を施すことができることを容易に認識するであろう。

Claims (20)

  1. 一群の箱から対象箱を取出すための方法であって、前記方法は、
    三次元カメラを使用して前記箱の二次元赤緑青カラー(RGB)画像を取得することと、
    前記三次元カメラを使用して前記箱の二次元深度マップ画像を取得することであって、前記深度マップ画像のピクセルは、前記カメラから前記箱までの距離を特定する値を割当てられる、ことと、
    前記RGB画像と前記深度マップ画像とから特徴を抽出し、これら画像内の前記抽出された特徴を結合し、セグメンテーション画像内の各箱が同一のラベルを有するように前記セグメンテーション画像内のピクセルにラベルを割当てる、画像セグメンテーション処理を実行することにより、前記箱のセグメンテーション画像を生成することと、
    前記セグメンテーション画像を使用して前記箱を取出す位置を特定することと、
    を含む、方法。
  2. セグメンテーション画像を生成することは、深層学習マスクR-CNN(畳み込みニューラルネットワーク)を使用することを含む、請求項1に記載の方法。
  3. セグメンテーション画像を生成することは、複数のバウンディングボックスを提供することと、前記バウンディングボックスを前記抽出された特徴に位置合わせすることと、前記対象箱を取囲むバウンディングボックスを含むバウンディングボックス画像を提供することと、を含む、請求項1に記載の方法。
  4. セグメンテーション画像を生成することは、対象箱が各バウンディングボックスに存在する可能性を決定することを含む、請求項3に記載の方法。
  5. セグメンテーション画像を生成することは、前記バウンディングボックス画像内の各バウンディングボックスから、対象箱に関連付けられていないピクセルを除去することを含む、請求項3に記載の方法。
  6. セグメンテーション画像を生成することは、前記セグメンテーション画像内の各箱が同一のラベルを有するように、前記セグメンテーション画像内のピクセルにラベルを割当てることを含む、請求項1に記載の方法。
  7. 前記箱の前記セグメンテーション画像を生成する前に、前記一群の箱の中の他の箱の上に積み重ねられた前記箱の最上層を前記カラー画像から分離することをさらに含み、前記箱のセグメンテーション画像を生成することは、前記箱の前記最上層のセグメンテーション画像を生成することを含む、請求項1に記載の方法。
  8. 箱が前記一群の箱から取出されると、前記箱の前記積み重ねの下層が前記箱の前記最上層になる、請求項7に記載の方法。
  9. 最上層を分離することは、類似の深度値を有する前記深度マップ画像内のピクセルを計数することと、ピクセルがカメラに最も近いことを示す深度値を有する一群のピクセルによって前記最上層を特定することとを含む、請求項7に記載の方法。
  10. 類似の深度値を有する前記一群のピクセルはヒストグラムによって特定される、請求項9に記載の方法。
  11. セグメンテーション画像を生成することは、前記バウンディングボックス内の各対象物の中心ピクセルを特定することを含み、前記対象物を取出すための位置を特定することは、前記セグメンテーション画像内の前記対象物のうちの1つの中心ピクセルを特定することと、前記中心ピクセルの前記位置と前記深度マップ画像とを使用して前記中心ピクセルのxyz座標を計算することとを含む、請求項1に記載の方法。
  12. 前記箱を取出す位置を特定することは、前記xyz座標と、ピッチ、ヨー及びロール位置とを使用して前記箱を取出すための取出姿勢を決定することを含む、請求項11に記載の方法。
  13. 前記箱はロボットによって取出され、前記取出姿勢がロボットエンドエフェクタの姿勢を決定する、請求項12に記載の方法。
  14. ロボットを使用して一群の箱から対象箱を取出すための方法であって、前記方法は、
    三次元カメラを使用して前記箱の二次元赤緑青カラー(RGB)画像を取得することと、
    前記三次元カメラを使用して前記箱の二次元深度マップ画像を取得することであって、前記深度マップ画像のピクセルは、前記カメラから前記箱までの距離を特定する値を割当てられる、ことと、
    前記RGB画像と前記深度マップ画像とから特徴を抽出し、これら画像内の前記抽出された特徴を結合し、セグメンテーション画像の各箱が同一のラベルを有するように前記セグメンテーション画像内のピクセルにラベルを割当てる、深層学習畳み込みニューラルネットワークを使用して画像セグメンテーション処理を実行することにより、前記箱のセグメンテーション画像を生成することと、
    前記セグメンテーション画像を使用して前記箱を取出す位置を特定することであって、カラー画像を取得することと、深度マップ画像を取得することと、セグメンテーション画像を生成することと、前記箱を取出す位置を特定することとが、前記ロボットによって前記一群の箱から箱を取出す度に実行される、ことと、
    を含む、方法。
  15. セグメンテーション画像を生成することは、複数のバウンディングボックスを提供することと、前記バウンディングボックスを前記抽出された特徴に位置合わせすることと、前記対象箱を取囲むバウンディングボックスを含むバウンディングボックス画像を提供することと、対象箱が各バウンディングボックスに存在する可能性を決定することと、前記バウンディングボックス画像の各バウンディングボックスから、対象箱に関連付けられていないピクセルを除去することと、を含む、請求項14に記載の方法。
  16. 類似の深度値を有する前記深度マップ画像のピクセルを計数することと、前記カメラに最も近いことを示す深度値を有する一群のピクセルによって最上層を特定することとによって前記箱のセグメンテーション画像を生成する前に前記一群の箱の中の他の箱の上に積み重ねられた前記箱の最上層を前記カラー画像から分離することをさらに含み、類似の深度値を有する前記一群のピクセルはヒストグラムによって特定され、前記箱のセグメンテーション画像を生成することは前記箱の前記最上層のセグメンテーション画像を生成することを含む、請求項14に記載の方法。
  17. 箱が前記一群の箱から取出されると、前記箱の前記積み重ねの下層が前記箱の前記最上層になる、請求項16に記載の方法。
  18. ロボットを使用して一群の箱から対象箱を取出すためのロボットシステムであって、前記システムは、
    前記箱の二次元赤緑青カラー(RGB)画像と二次元深度マップ画像を提供する三次元カメラと、
    前記RGB画像と前記深度マップ画像とから特徴を抽出し、これら画像内の前記抽出された特徴を結合し、セグメンテーション画像の各箱が同一のラベルを有するように前記セグメンテーション画像内のピクセルにラベルを割当てる、画像セグメンテーション処理を実行することによって、前記箱のセグメンテーション画像を生成する深層学習畳み込みニューラルネットワークと、
    前記セグメンテーション画像を使用して前記箱を取出す位置を特定するための手段であって、カラー画像を取得することと、深度マップ画像を取得することと、セグメンテーション画像を生成することと、前記箱を取出す位置を特定することとが、前記ロボットによって前記一群の箱から箱を取出す度に実行される、手段と、
    を備える、システム。
  19. 前記画像セグメンテーション処理は、複数のバウンディングボックスを提供し、前記バウンディングボックスを前記抽出された特徴に位置合わせし、前記対象箱を取囲むバウンディングボックスを含むバウンディングボックス画像を提供し、対象箱が各バウンディングボックスに存在する可能性を決定し、前記バウンディングボックス画像内の各バウンディングボックスから、対象箱に関連付けられていないピクセルを除去する、請求項18に記載のシステム。
  20. 類似の深度値を有する前記深度マップ画像内のピクセルを計数することと、前記カメラに最も近いことを示す深度値を有する一群のピクセルによって最上層を特定することとによって前記箱の前記セグメンテーション画像を生成する前に前記一群の箱の中の他の箱の上に積み重ねられた前記箱の最上層を前記カラー画像から分離するための手段をさらに備え、
    類似の深度値を有する前記一群のピクセルはヒストグラムによって特定され、前記箱のセグメンテーション画像を生成することは前記箱の前記最上層のセグメンテーション画像を生成することを含む、請求項18に記載のシステム。
JP2021136172A 2020-09-09 2021-08-24 混合サイズデパレタイジング Pending JP2022045905A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/015,817 US12017368B2 (en) 2020-09-09 2020-09-09 Mix-size depalletizing
US17/015,817 2020-09-09

Publications (1)

Publication Number Publication Date
JP2022045905A true JP2022045905A (ja) 2022-03-22

Family

ID=80266942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021136172A Pending JP2022045905A (ja) 2020-09-09 2021-08-24 混合サイズデパレタイジング

Country Status (4)

Country Link
US (1) US12017368B2 (ja)
JP (1) JP2022045905A (ja)
CN (1) CN114241037A (ja)
DE (1) DE102021121612A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220405506A1 (en) * 2021-06-22 2022-12-22 Intrinsic Innovation Llc Systems and methods for a vision guided end effector
US12014508B2 (en) * 2021-10-18 2024-06-18 Ford Global Technologies, Llc Distance determination from image data

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8073243B2 (en) * 2008-05-30 2011-12-06 General Instrument Corporation Replacing image information in a captured image
AU2013273831B2 (en) * 2013-12-23 2016-02-25 Canon Kabushiki Kaisha A method for improving tracking using dynamic background compensation with centroid compensation
US11312020B2 (en) * 2018-11-20 2022-04-26 Beijing Jingdong Shangke Information Technology Co System and method for fast object detection in robot picking
CN109658413B (zh) * 2018-12-12 2022-08-09 达闼机器人股份有限公司 一种机器人目标物体抓取位置检测的方法
GB2581808B (en) * 2019-02-26 2022-08-10 Imperial College Innovations Ltd Scene representation using image processing
US20220152825A1 (en) * 2020-11-13 2022-05-19 Armstrong Robotics, Inc. Automated manipulation of objects using a vision-based method for determining collision-free motion planning

Also Published As

Publication number Publication date
US20220072712A1 (en) 2022-03-10
DE102021121612A1 (de) 2022-03-10
US12017368B2 (en) 2024-06-25
CN114241037A (zh) 2022-03-25

Similar Documents

Publication Publication Date Title
US9044858B2 (en) Target object gripping apparatus, method for controlling the same and storage medium
US20210187741A1 (en) System and method for height-map-based grasp execution
US11475589B2 (en) 3D pose estimation by a 2D camera
JP2022045905A (ja) 混合サイズデパレタイジング
US20220084238A1 (en) Multiple transparent objects 3d detection
CN113420746B (zh) 机器人视觉分拣方法、装置、电子设备和存储介质
CN115384971A (zh) 透明对象料箱拾取
US11554496B2 (en) Feature detection by deep learning and vector field estimation
CN113496526A (zh) 通过多个2d相机的3d姿态检测
US11875528B2 (en) Object bin picking with rotation compensation
JP6041710B2 (ja) 画像認識方法
CN113524172B (zh) 机器人及其物品抓取方法、计算机可读存储介质
KR102436943B1 (ko) Rgb-d 영상에서의 기계학습 기반 물류박스 자동인식 방법
US20230009925A1 (en) Object detection method and object detection device
US20230169675A1 (en) Algorithm for mix-size depalletizing
Bhuyan et al. Structure‐aware multiple salient region detection and localization for autonomous robotic manipulation
US20230245293A1 (en) Failure detection and failure recovery for ai depalletizing
JP2020087155A (ja) 情報処理装置、情報処理方法及びプログラム
US20230169324A1 (en) Use synthetic dataset to train robotic depalletizing
CN117103245A (zh) 物体抓取方法、装置、机器人、可读存储介质和芯片
CN116630226A (zh) 一种包裹抓取方法、装置及设备
CN118081758A (zh) 一种杂乱场景下机器人自主拾取与放置位姿获取方法