JP7395451B2 - ハンドリング装置、処理装置、コントローラ及びプログラム - Google Patents

ハンドリング装置、処理装置、コントローラ及びプログラム Download PDF

Info

Publication number
JP7395451B2
JP7395451B2 JP2020155714A JP2020155714A JP7395451B2 JP 7395451 B2 JP7395451 B2 JP 7395451B2 JP 2020155714 A JP2020155714 A JP 2020155714A JP 2020155714 A JP2020155714 A JP 2020155714A JP 7395451 B2 JP7395451 B2 JP 7395451B2
Authority
JP
Japan
Prior art keywords
suction pads
kernel
hand
gripping
handling tool
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020155714A
Other languages
English (en)
Other versions
JP2022049486A (ja
Inventor
平 姜
義之 石原
昭人 小川
淳 菅原
征司 十倉
春菜 衛藤
和馬 古茂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2020155714A priority Critical patent/JP7395451B2/ja
Priority to US17/191,447 priority patent/US11691275B2/en
Priority to EP21160433.5A priority patent/EP3970923A1/en
Publication of JP2022049486A publication Critical patent/JP2022049486A/ja
Application granted granted Critical
Publication of JP7395451B2 publication Critical patent/JP7395451B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/06Gripping heads and other end effectors with vacuum or magnetic holding means
    • B25J15/0616Gripping heads and other end effectors with vacuum or magnetic holding means with vacuum
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40563Object detection

Description

本発明の実施形態はハンドリング装置及びプログラムに関する。
物流倉庫でバラ積みされた荷物などを扱うピッキング自動化システムなど、物体ハンドリング作業を自動化するロボットシステムが従来から知られている。このようなロボットシステムは、画像情報等のセンサデータを基に、物体の把持位置や姿勢、投入先の箱詰め位置や姿勢を自動的に算出し、吸着パッドを備えた把持機構を持つロボットが実際に把持や箱詰めを実行する。近年では、機械学習技術の発展により、学習によって、ロボットの適切な動作を実現する技術が利用されている。
特開2019-162685号公報 特許第6036662号公報
Zeng,A.et al.(2019)‘Robotic pick-and-place of novel objects in clutter with multi-affordance grasping and cross-domain image matching’,The International Journal of Robotics Research Matsumura,R.et al.(2019).Learning Based Robotic Bin-picking for Potentially Tangled Objects.IROS 2019
しかしながら従来の技術では、吸着パッドの個数又は位置が変更された場合には、把持容易さを学習するための教師データを改めて用いた再学習をしなければ、適切なハンドリング動作を決定できなかった。
実施形態のハンドリング装置は、マニピュレータと法線グリッド生成部とハンドカーネル生成部と計算部と制御部とを備える。マニピュレータは、複数の吸着パッドを備えるハンドリングツールと、アームとを備える。法線グリッド生成部は、1以上の把持対象物を含むDepth画像を点群に変換し、前記点群から、複数のグリッドに分割された前記把持対象物を含む空間データを生成し、前記グリッドに含まれる前記点群の法線ベクトルを、球面座標を用いて算出する。ハンドカーネル生成部は、それぞれの前記吸着パッドのハンドカーネルを、それぞれの前記吸着パッドの前記ハンドリングツールにおける位置、及び、前記ハンドリングツールの姿勢に基づいて生成する。計算部は、前記空間データを含むグリッドと前記ハンドカーネルとを用いた3Dコンボリューション計算に基づいて、前記複数の吸着パッドによる前記把持対象物の把持容易さを算出する。制御部は、前記複数の吸着パッドによる前記把持対象物の把持容易さに基づいて、前記マニピュレータの把持動作を制御する。前記ハンドカーネル生成部は、それぞれの前記吸着パッドの前記ハンドリングツールにおける位置、及び、前記ハンドリングツールの姿勢に基づいて、それぞれの前記吸着パッドのハンドカーネルを生成する。前記計算部は、前記空間データを含むグリッドと、それぞれの前記吸着パッドのハンドカーネルとを用いた3Dコンボリューション計算の値との差に基づいて、前記複数の吸着パッドによる前記把持対象物の把持容易さを算出する。
実施形態のハンドリング装置の構成の例を示す概略図。 実施形態のハンドリングツールについて説明するための図。 実施形態の吸着パッドについて説明するための図。 実施形態のコントローラの機能構成の例を示す図。 実施形態の計画部の機能構成の例を示す図。 実施形態の評価部の処理の例を説明するための図。 実施形態の法線グリッド生成部の機能構成の例を示す図。 実施形態の法線の定義について説明するための図。 実施形態のハンドリングツールの姿勢の例1を示す図。 実施形態のハンドリングツールの姿勢の例2を示す図。 実施形態のハンドリングツールの姿勢の例3を示す図。 実施形態のTCPの位置及びハンドカーネルの例を示す図。 実施形態の3Dコンボリューションについて説明するための図。 実施形態のコンボリューションの計算例について説明するための図。 実施形態のハンドリング方法の例を示すフローチャート。 実施形態のコントローラのハードウェア構成の例を示す図。
以下に添付図面を参照して、ハンドリング装置及びプログラムの実施形態を詳細に説明する。
[装置構成の例]
図1は実施形態のハンドリング装置100の構成の例を示す概略図である。実施形態のハンドリング装置100は、アーム1、ハンドリングツール2、コントローラ3、カメラ4及びセンサ5を備える。アーム1は、複数のサーボモータで駆動される多関節ロボットである。ハンドリングツール2は、1個または複数個の吸着パッドを備える。吸着パッドは、把持対象の把持対象物102を吸着把持する。吸着パッドについては、図2A及び2Bを参照して後述する。
アーム1及びハンドリングツール2は、マニピュレータ(ロボットアーム)として動作する。カメラ4は、ハンドリングツール2につけられ、物品コンテナ101にある把持対象物102のDepth画像を撮影する。なお、物品コンテナ101にある把持対象物102の個数及び形状は任意でよい。センサ5は、アーム1の関節の角度及び関節力などの情報を計測する。
[ハンドリングツールの例]
図2Aは実施形態のハンドリングツール2について説明するための図である。図2Aに示すように、ハンドリングツール2は、ツール回転軸103による回転の自由度を有する。また、実施形態のハンドリングツール2は、吸着パッド6a及び6bを備える。なお、ハンドリングツール2が備える吸着パッドの数は、2個に限られず任意でよい。
図2Bは実施形態の吸着パッド6a及び6bについて説明するための図である。吸着パッド6a及び6bの直径はDである。吸着パッド6aの中心と、吸着パッド6bの中心との距離はdである。実施形態の吸着パッド6a及び6bの大きさ及び形状は同じなので、以下、吸着パッド6a及び6bを区別しない場合は、単に吸着パッド6という。
[コントローラの機能構成の例]
図3は実施形態のコントローラ3の機能構成の例を示す図である。実施形態のコントローラ3は、処理部31、計画部32及び制御部33を備える。
処理部31は、カメラ4及びセンサ5により取得されたデータの処理を行う。例えば、処理部31は、カメラ4で撮像されたDepth画像のノイズ除去処理を行う。また例えば、処理部31は、Depth画像から把持対象物102以外(例えば物品コンテナ101及び地面など)のDepth情報を除外する背景除外処理を行う。また例えば、処理部31は、Depth画像のサイズを、計画部32に入力されるDepth画像のサイズにリサイズする画像リサイズ処理を行う。
計画部32は、深層学習により、画像のピクセル座標ごとに1個の吸着パッド6による把持の容易さを示すヒートマップを算出する。なお、計画部32は、吸着パッド6a及び6bが同じ種類でない場合(大きさ及び形状等が同じでない場合)は、吸着パッド6aによる把持の容易さを示すヒートマップと、吸着パッド6bによる把持の容易さを示すヒートマップとを算出する。
次に、計画部32は、1個の吸着パッド6による把持の容易さを示すヒートマップに基づいて、3Dコンボリューションにより、複数の吸着パッド6による把持の容易さを示すヒートマップを算出する。実施形態の例では、吸着パッド6a及び6bの両方を用いた把持の容易さを示すヒートマップを算出する。更に、計画部32は、把持の容易さをランキングし、把持対象物102を一番把持しやすい最適把持姿勢を制御部33に入力する。
制御部33は、計画部32で生成されたハンドリングツール2の最適把持姿勢に従って、把持対象物102を把持するマニピュレータ(アーム1及びハンドリングツール2)の行動を制御する。
[計画部の機能構成の例]
図4は実施形態の計画部の機能構成の例を示す図である。実施形態の計画部32は、評価部321、法線グリッド生成部322、ハンドカーネル生成部323、計算部324及び調整部325を備える。
評価部321は、Depth画像に基づいて、1つの吸着パッド6による把持対象物102の把持容易さを示す評価値を算出する。例えば、評価部321は、Depth画像に基づいて、把持対象物102の各点の評価値をヒートマップによって算出する。
法線グリッド生成部322は、Depth画像、及び、1個の吸着パッド6での把持容易さを示すヒートマップとDepth画像から変換された点群情報に基づいて、法線グリッドを生成する。法線グリッドの生成方法の詳細は、図6及び図7を参照して後述する。
ハンドカーネル生成部323は、各吸着パッド6のハンドカーネルを生成する。ハンドカーネルの詳細は、図9を参照して後述する。
計算部324は、法線グリッドと、各吸着パッド6のハンドカーネルとの3Dコンボリューション計算を行い、吸着可能なハンド姿勢とそれに対する吸着パッド6の位置を求める。そして、前記1個の吸着パッド6での把持容易さを示すヒートマップにより、複数の吸着パッド6での把持容易さを示すヒートマップ(第1のヒートマップ)を算出する。
調整部325は、第1のヒートマップに基づいて、ハンドリングツール2の姿勢と、ハンドリングツール2によって把持対象物102が把持される位置とを調整する。調整部325は、把持容易さをランキングし、一番把持しやすい点の位置と、法線を用いて表されるマニュピレータ(アーム1及びハンドリングツール2)の把持姿勢を算出する。
[評価部の処理の例]
図5は実施形態の評価部321の処理の例を説明するための図である。評価部321は、1以上の把持対象物102を含むDepth画像に基づいて、1個の吸着パッドによる把持対象物102の把持容易さを示す評価値を算出する。評価値は、吸着可能な領域の中心までの距離と、吸着可能な領域の平面度と、吸着可能な領域の傾きとが複合的考慮された値である。具体的には、評価部321は、Depth画像の入力を受け付ける入力層と、中間層と、ヒートマップ(第2のヒートマップ)を出力する出力層とを有するニューラルネットワークを用いて、評価値を算出する。実施形態では、ヒートマップの各ピクセルが、ピクセル位置の世界座標系に対する位置で把持する際の姿勢と、評価値(把持容易性を示すスコア)とを示す。
[法線グリッド生成部の機能構成の例]
図6は実施形態の法線グリッド生成部322の機能構成の例を示す図である。実施形態の法線グリッド生成部322は、変換部331、フィルター部332及び生成部333を備える。
変換部331は、処理部31からDepth画像を受け付ける。変換部331は、カメラ行列を利用して、カメラ4で撮影された2.5次元のDepth画像を点群(3次元点群データ)に変換する。
フィルター部332は、評価部321から出力されたヒートマップを用いて、評価値が閾値より低い(すなわち把持し難い)ピクセルに対する点を点群から除外することによって、把持対象点群データを生成する。
生成部333は、フィルター部332から入力された把持対象点群データから法線グリッドを生成する。具体的には、生成部333は、カメラ4が撮影可能な空間を、l×l×l[m]の立方体(グリッド)で分割する。生成部333は、グリッドにある点の球面座標で表現される法線の方向を示す法線ベクトルの平均値を各グリッドに格納して、法線グリッドを生成する。把持対象物102を含む空間データを含む各グリッドが、把持対象物102の把持容易さを算出するための3Dコンボリューション計算に用いられる。
[法線の定義例]
図7は実施形態の法線の定義について説明するための図である。実施形態の法線は、球面座標で定義される。一般的には、法線ベクトルnは[n,n,n]と定義されている。法線ベクトルnのノルムρは、(n +n +n 1/2である。nは単位ベクトルであるため、ρ=1である。法線ベクトルnを、図7に示す球面座標(φ,θ)に変換することにより、法線ベクトルnを2次元ベクトルで表す。これにより法線ベクトルnが用いられる計算の計算量を減らすことができる。
球面座標(φ,θ)を用いると、[n,n,n]は、下記式(1)により表される。
Figure 0007395451000001
[ハンドリングツールの姿勢の表現例]
実施形態のハンドリングツール2の姿勢は、上述の法線の定義と同様に球面座標の角度を用いて、Hφ及びHθにより表現される。
図8Aは実施形態のハンドリングツール2の姿勢の例1を示す図である。図8Aは、Hφ=90、Hθ=0である場合を示す。TCPは、ツールセンターポイントを示す。図8Aは、ハンドリングツール2に傾きが生じていない場合を示す。
図8Bは実施形態のハンドリングツール2の姿勢の例2を示す図である。図8Bは、Hφ=90、Hθ=45である場合を示す。図8Bは、ハンドリングツール2に、xy平面内の角度θ(図7参照)で45度の傾きが生じている場合を示す。
図8Cは実施形態のハンドリングツール2の姿勢の例3を示す図である。図8Cは、Hφ=45、Hθ=0である場合を示す。図8Cは、ハンドリングツール2に、yz平面内の角度φ(図7参照)で45度の傾きが生じている場合を示す。
φ及びHθの任意の組み合わせによって、吸着パッド6a及び6bを備えるハンドリングツール2の任意の姿勢を表現できる。
[ハンドカーネルの例]
図9は実施形態のTCPの位置及びハンドカーネルの例を示す図である。ハンドカーネル生成部323は、吸着パッド6a及び6bのハンドカーネルを生成する。ハンドカーネル生成部323は、ハンドリングツール2の姿勢を、球面座標を用いたHφ及びHθにより表現し、それぞれの吸着パッド6について、Hφ及びHθに応じたハンドカーネルを生成する。
具体的には、まずハンドカーネル生成部323は、中心間の距離がdであるため、ハンドリングツール2の姿勢を表す空間を前記法線グリッド生成時と同じく、l×l×lのグリッドに分割して、ハンドカーネルを作る。図9に示しているように、ハンドカーネルの中心はTCPの位置である。
次に、ハンドカーネル生成部323は、ハンドリングツール2の姿勢(Hφ及びHθ)が決まったら、吸着パッド6の位置及び姿勢を表現するハンドカーネル内のIndex(X,Y,Z)を、ハンドリングツール2の姿勢に対する相対位置及び相対姿勢により算出する。例えば、実施形態のように、ハンドリングツール2が2個の吸着パッド6a及び6bを備える場合、右の吸着パッド6bのIndex(X,Y,Z)は下記式(2)により、右のハンドカーネルとして算出され、左の吸着パッド6aのIndex(X,Y,Z)は下記式(3)により、左のハンドカーネルとして算出される。
Figure 0007395451000002
Figure 0007395451000003
ここで、int()は、()内の値を整数値で近似する関数を示す。
図9は、ハンドリングツール2の姿勢が、Hφ=90、Hθ=0である場合(図8A参照)の左及び右のハンドカーネルの例を示す。左のハンドカーネルの位置201は、Index(X,Y,Z)によって表される。左のハンドカーネルの値は、Index(X,Y,Z)の位置が1.0であり、それ以外の位置は、空(nan)である。同様に、右のハンドカーネルの位置202は、Index(X,Y,Z)によって表される。右のハンドカーネルの値は、Index(X,Y,Z)の位置が1.0であり、それ以外の位置は、空(nan)である。
また、Index(X,Y,Z)とIndex(X,Y,Z)との距離は、||Index(X,Y,Z)-Index(X,Y,Z)||≒dである。
[計算部の処理の例]
図10は実施形態の3Dコンボリューションについて説明するための図である。実施形態の計算部324は、左のハンドカーネルと、法線グリッドとの3Dコンボリューション計算、及び、右のハンドカーネルと、法線グリッドとの3Dコンボリューション計算とを行う。
把持対象物102を複数の吸着パッド6で吸着できる把持姿勢を算出する問題は、1個の吸着パッド6で吸着できる把持点のうち、2点(当該把持点と、もう一方の吸着パッド6の把持点)の距離がdであり、当該2点の法線が平行するという2条件を満たす点を算出することと考えられる。この2点を、一般的なユークリッド距離の計算式と、ベクトル平行判別式とで求めると計算量が膨大となる。
そのため、計算部324は、各ハンドカーネルの3Dコンボリューション計算結果の差分によって、高速に上記2条件を満たす点の近似解を求める。ハンドカーネルと法線グリッドとの3Dコンボリューション計算結果は、法線グリッドと同じサイズのグリッドにおいて、その吸着パッド6で吸着可能な位置と当該位置の法線とを含む。
計算部324は、左の吸着パッド6aの3Dコンボリューション計算結果S(X,Y,Z)と、右の吸着パッド6bの3Dコンボリューション計算結果S(X,Y,Z)との差分を下記式(4)に基づいて判定する。
Figure 0007395451000004
ここで、εは、法線の差分を判定する閾値を示す。計算部324は、上記式(4)に基づいて、1個で吸着把持できる場合、2個で吸着把持できる場合、または、吸着把持が不可能である場合を判定する。
[コンボリューションの計算例]
図11は実施形態のコンボリューションの計算例について説明するための図である。理解しやすくするために、図11の例では、把持対象物102が平置きの箱である場合のコンボリューション計算の例を示す。この場合は、3Dコンボリューションの特殊例であり、2Dコンボリューションの結果と同じである。
箱を平置きしているため、箱の把持面の法線は全部上向きで、法線は(φ,θ)=(1,0)で表現される。
左のハンドカーネルと法線グリッドとのコンボリューション計算結果211aから、左の吸着パッド6aで吸着可能なハンドリングツール2のTCPの位置が特定される。具体的には、図11の例では、当該TCPの位置は、法線が(φ,θ)=(1,0)である位置により特定される。
同様に、右のハンドカーネルと法線グリッドとのコンボリューション計算結果211bから、右の吸着パッド6bで吸着可能なハンドリングツール2のTCPの位置が特定される。具体的には、図11の例では、当該TCPの位置は、法線が(φ,θ)=(1,0)である位置により特定される。
計算部324は、コンボリューション計算結果211a及び211bの差を取ることにより、左の吸着パッド6aで吸着可能なハンドリングツール2のTCPの位置の法線と、右の吸着パッド6bで吸着可能なハンドリングツール2のTCPの位置の法線と、が平行であるか否かを判定する。
図11の例では、差分を取った結果が(0,0)の位置は、2個の吸着パッド6a及び6bで吸着可能な位置である。差分を取った結果が(1,0)の位置は、左の吸着パッド6aで吸着可能な位置である。差分を取った結果が(-1,0)の位置は、右の吸着パッド6bで吸着可能な位置である。差分を取った結果が空(nan)の位置は、把持不可能な位置である。
左の吸着パッド6aと右の吸着パッド6bの吸着可能な位置が分かれば、前記評価部321によって出力される前記1個の吸着パッド6での把持容易さを示すヒートマップにより、左の吸着パッド6aと右の吸着パッド6の吸着可能な位置の把持容易さの評価値を求められる。それの平均値を計算し、2個パッドの把持容易さの評価値を算出できる。そして、その評価値を基の画像へ投影し、前記複数の吸着パッド6でのヒートマップを生成できる。
[ハンドリング方法の例]
図12は実施形態のハンドリング方法の例を示すフローチャートである。はじめに、法線グリッド生成部322が、1以上の把持対象物102を含むDepth画像を点群に変換し、当該点群から、複数のグリッドに分割された把持対象物102を含む空間データを生成し、グリッドに含まれる当該点群の法線ベクトルを、球面座標を用いて算出する(ステップS1)。
次に、ハンドカーネル生成部323が、それぞれの吸着パッド6のハンドカーネルを、それぞれの吸着パッド6のハンドリングツール2における位置、及び、ハンドリングツール2の姿勢に基づいて生成する(ステップS2)。
次に、計算部324が、ステップS1の処理により算出された空間データを含むグリッドと、ステップS2の処理により生成されたハンドカーネルとを用いた3Dコンボリューション計算に基づいて、複数の吸着パッド6による把持対象物102の把持容易さを算出する(ステップS3)。
次に、制御部33が、複数の吸着パッド6による把持対象物102の把持容易さに基づいて、マニピュレータ(アーム1及びハンドリングツール2)の把持動作を制御する(ステップS4)。
以上、説明したように、実施形態のハンドリング装置100では、上述の3Dコンボリューション計算に基づいて、複数の吸着パッド6による把持対象物102の把持容易さを算出する。これにより実施形態のハンドリング装置100によれば、吸着パッド6の個数又は位置が変更されても、把持容易さを学習するための教師データを改めて用いた再学習をせずに、適切なハンドリング動作を決定することができる。
例えば、物流現場では、大きな把持対象物102は、複数の吸着パッド6で吸着し、複数の小さな把持対象物102は、複数の吸着パッド6で同時に吸着すると、ピンキング自動作業の効率を向上させることができる。実施形態のハンドリング装置100は、このような物流現場等で利用することができる。
最後に、実施形態のコントローラ3のハードウェア構成の例を示す図の例について説明する。
[ハードウェア構成の例]
図13は実施形態のコントローラ3のハードウェア構成の例を示す図のハードウェア構成の例を示す図である。コントローラ3は、制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306を備える。制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306は、バス310を介して接続されている。
なお、表示装置304、入力装置305及び通信装置306は備えていなくてもよい。例えば、コントローラ3が他の装置と接続される場合、当該他の装置の表示機能、入力機能及び通信機能を利用してもよい。
制御装置301は補助記憶装置303から主記憶装置302に読み出されたプログラムを実行する。制御装置301は、例えばCPU等の1以上のプロセッサである。主記憶装置302はROM(Read Only Memory)、及び、RAM等のメモリである。補助記憶装置303はメモリカード、及び、HDD(Hard Disk Drive)等である。
表示装置304は情報を表示する。表示装置304は、例えば液晶ディスプレイである。入力装置305は、情報の入力を受け付ける。入力装置305は、例えばハードウェアキー等である。なお表示装置304及び入力装置305は、表示機能と入力機能とを兼ねる液晶タッチパネル等でもよい。通信装置306は他の装置と通信する。
コントローラ3で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、メモリカード、CD-R、及び、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータ・プログラム・プロダクトとして提供される。
またコントローラ3で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。またコントローラ3が実行するプログラムを、ダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
またコントローラ3で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
コントローラ3で実行されるプログラムは、コントローラ3の機能のうち、プログラムにより実現可能な機能を含むモジュール構成となっている。
プログラムにより実現される機能は、制御装置301が補助記憶装置303等の記憶媒体からプログラムを読み出して実行することにより、主記憶装置302にロードされる。すなわちプログラムにより実現される機能は、主記憶装置302上に生成される。
なおコントローラ3の機能の一部を、IC等のハードウェアにより実現してもよい。ICは、例えば専用の処理を実行するプロセッサである。
また複数のプロセッサを用いて各機能を実現する場合、各プロセッサは、各機能のうち1つを実現してもよいし、各機能のうち2つ以上を実現してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 アーム
2 ハンドリングツール
3 コントローラ
4 カメラ
5 センサ
6 吸着パッド
31 処理部
32 計画部
33 制御部
100 ハンドリング装置
101 物品コンテナ
102 把持対象物
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信装置
310 バス
321 評価部
322 法線グリッド生成部
323 ハンドカーネル生成部
324 計算部
325 調整部
331 変換部
332 フィルター部
333 生成部

Claims (10)

  1. 複数の吸着パッドを備えるハンドリングツールと、アームとを備えるマニピュレータと、
    1以上の把持対象物を含むDepth画像を点群に変換し、前記点群から、複数のグリッドに分割された前記把持対象物を含む空間データを生成し、前記グリッドに含まれる前記点群の法線ベクトルを、球面座標を用いて算出する法線グリッド生成部と、
    それぞれの前記吸着パッドのハンドカーネルを、それぞれの前記吸着パッドの前記ハンドリングツールにおける位置、及び、前記ハンドリングツールの姿勢に基づいて生成するハンドカーネル生成部と、
    前記空間データを含むグリッドと前記ハンドカーネルとを用いた3Dコンボリューション計算に基づいて、前記複数の吸着パッドによる前記把持対象物の把持容易さを算出する計算部と、
    前記複数の吸着パッドによる前記把持対象物の把持容易さに基づいて、前記マニピュレータの把持動作を制御する制御部と、を備え、
    前記ハンドカーネル生成部は、それぞれの前記吸着パッドの前記ハンドリングツールにおける位置、及び、前記ハンドリングツールの姿勢に基づいて、それぞれの前記吸着パッドのハンドカーネルを生成し、
    前記計算部は、前記空間データを含むグリッドと、それぞれの前記吸着パッドのハンドカーネルとを用いた3Dコンボリューション計算の値との差に基づいて、前記複数の吸着パッドによる前記把持対象物の把持容易さを算出する、
    ハンドリング装置。
  2. 複数の吸着パッドを備えるハンドリングツールと、アームとを備えるマニピュレータと、
    1以上の把持対象物を含むDepth画像に基づいて、1つの吸着パッドによる前記把持対象物の把持容易さを示す評価値を算出する評価部と、
    前記Depth画像を点群に変換し、前記点群から、複数のグリッドに分割された前記把持対象物を含む空間データを生成し、前記グリッドに含まれる前記点群の法線ベクトルを、球面座標を用いて算出する法線グリッド生成部と、
    それぞれの前記吸着パッドのハンドカーネルを、それぞれの前記吸着パッドの前記ハンドリングツールにおける位置、及び、前記ハンドリングツールの姿勢に基づいて生成するハンドカーネル生成部と、
    前記空間データを含むグリッドと前記ハンドカーネルとを用いた3Dコンボリューション計算に基づいて、前記複数の吸着パッドによる前記把持対象物の把持容易さを算出する計算部と、
    前記複数の吸着パッドによる前記把持対象物の把持容易さに基づいて、前記マニピュレータの把持動作を制御する制御部と、を備え、
    前記法線グリッド生成部は、
    前記Depth画像を3次元点群データに変換する変換部と、
    前記3次元点群データから、前記評価値が閾値より小さい点を削除して、把持対象点群データを生成するフィルター部と、
    前記把持対象点群データから前記空間データを生成する生成部と、
    を備えるハンドリング装置。
  3. 前記ハンドカーネル生成部は、前記ハンドリングツールの姿勢を球面座標の第1の角度と第2の角度とにより表現し、それぞれの前記吸着パッドについて、前記第1及び第2の角度に応じた前記ハンドカーネルを生成する、
    請求項1又は2に記載のハンドリング装置。
  4. 前記計算部は、前記複数の吸着パッドによる前記把持対象物の把持容易さを、第1のヒートマップによって表現し、
    前記第1のヒートマップに基づいて、前記ハンドリングツールの姿勢と、前記ハンドリングツールによって前記把持対象物が把持される位置とを調整する調整部、
    を更に備える請求項1乃至3のいずれか1項に記載のハンドリング装置。
  5. 前記評価部は、前記Depth画像の入力を受け付けると入力層と、前記評価値を示す第2のヒートマップを出力層とを有するニューラルネットワークを用いて、前記評価値を算出し、
    前記フィルター部は、前記第2のヒートマップから前記閾値より小さい点を特定し、前記3次元点群データから前記閾値より小さい点を削除して、前記把持対象点群データを生成する、
    請求項に記載のハンドリング装置。
  6. 複数の吸着パッドを備えるハンドリングツールと、アームとを備えるマニピュレータの制御に用いるものであって、
    1以上の把持対象物を含むDepth画像を点群に変換し、前記点群から、複数のグリッドに分割された前記把持対象物を含む空間データを生成し、前記グリッドに含まれる前記点群の法線ベクトルを、球面座標を用いて算出する法線グリッド生成部と、
    それぞれの前記吸着パッドのハンドカーネルを、それぞれの前記吸着パッドの前記ハンドリングツールにおける位置、及び、前記ハンドリングツールの姿勢に基づいて生成するハンドカーネル生成部と、
    前記空間データを含むグリッドと前記ハンドカーネルとを用いた3Dコンボリューション計算に基づいて、前記複数の吸着パッドによる前記把持対象物の把持容易さを算出する計算部と、を備え、
    前記ハンドカーネル生成部は、それぞれの前記吸着パッドの前記ハンドリングツールにおける位置、及び、前記ハンドリングツールの姿勢に基づいて、それぞれの前記吸着パッドのハンドカーネルを生成し、
    前記計算部は、前記空間データを含むグリッドと、それぞれの前記吸着パッドのハンドカーネルとを用いた3Dコンボリューション計算の値との差に基づいて、前記複数の吸着パッドによる前記把持対象物の把持容易さを算出する、
    処理装置。
  7. 複数の吸着パッドを備えるハンドリングツールと、アームとを備えるマニピュレータの制御に用いるものであって、
    1以上の把持対象物を含むDepth画像に基づいて、1つの吸着パッドによる前記把持対象物の把持容易さを示す評価値を算出する評価部と、
    前記Depth画像を点群に変換し、前記点群から、複数のグリッドに分割された前記把持対象物を含む空間データを生成し、前記グリッドに含まれる前記点群の法線ベクトルを、球面座標を用いて算出する法線グリッド生成部と、
    それぞれの前記吸着パッドのハンドカーネルを、それぞれの前記吸着パッドの前記ハンドリングツールにおける位置、及び、前記ハンドリングツールの姿勢に基づいて生成するハンドカーネル生成部と、
    前記空間データを含むグリッドと前記ハンドカーネルとを用いた3Dコンボリューション計算に基づいて、前記複数の吸着パッドによる前記把持対象物の把持容易さを算出する計算部と、を備え、
    前記法線グリッド生成部は、
    前記Depth画像を3次元点群データに変換する変換部と、
    前記3次元点群データから、前記評価値が閾値より小さい点を削除して、把持対象点群データを生成するフィルター部と、
    前記把持対象点群データから前記空間データを生成する生成部、
    を備える処理装置。
  8. 請求項6または7に記載の処理装置を用いて、前記複数の吸着パッドを備えるハンドリングツールと、前記アームとを備えるマニピュレータを制御するコントローラ。
  9. 複数の吸着パッドを備えるハンドリングツールと、アームとを備えるマニピュレータを制御するコンピュータを、
    1以上の把持対象物を含むDepth画像を点群に変換し、前記点群から、複数のグリッドに分割された前記把持対象物を含む空間データを生成し、前記グリッドに含まれる前記点群の法線ベクトルを、球面座標を用いて算出する法線グリッド生成部と、
    それぞれの前記吸着パッドのハンドカーネルを、それぞれの前記吸着パッドの前記ハンドリングツールにおける位置、及び、前記ハンドリングツールの姿勢に基づいて生成するハンドカーネル生成部と、
    前記空間データを含むグリッドと前記ハンドカーネルとを用いた3Dコンボリューション計算に基づいて、前記複数の吸着パッドによる前記把持対象物の把持容易さを算出する計算部と、
    前記複数の吸着パッドによる前記把持対象物の把持容易さに基づいて、前記マニピュレータの把持動作を制御する制御部、として機能させ、
    前記ハンドカーネル生成部は、それぞれの前記吸着パッドの前記ハンドリングツールにおける位置、及び、前記ハンドリングツールの姿勢に基づいて、それぞれの前記吸着パッドのハンドカーネルを生成し、
    前記計算部は、前記空間データを含むグリッドと、それぞれの前記吸着パッドのハンドカーネルとを用いた3Dコンボリューション計算の値との差に基づいて、前記複数の吸着パッドによる前記把持対象物の把持容易さを算出する、
    プログラム。
  10. 複数の吸着パッドを備えるハンドリングツールと、アームとを備えるマニピュレータを制御するコンピュータを、
    1以上の把持対象物を含むDepth画像に基づいて、1つの吸着パッドによる前記把持対象物の把持容易さを示す評価値を算出する評価部と、
    前記Depth画像を点群に変換し、前記点群から、複数のグリッドに分割された前記把持対象物を含む空間データを生成し、前記グリッドに含まれる前記点群の法線ベクトルを、球面座標を用いて算出する法線グリッド生成部と、
    それぞれの前記吸着パッドのハンドカーネルを、それぞれの前記吸着パッドの前記ハンドリングツールにおける位置、及び、前記ハンドリングツールの姿勢に基づいて生成するハンドカーネル生成部と、
    前記空間データを含むグリッドと前記ハンドカーネルとを用いた3Dコンボリューション計算に基づいて、前記複数の吸着パッドによる前記把持対象物の把持容易さを算出する計算部と、
    前記複数の吸着パッドによる前記把持対象物の把持容易さに基づいて、前記マニピュレータの把持動作を制御する制御部、として機能させ、
    前記法線グリッド生成部は、
    前記Depth画像を3次元点群データに変換する変換部と、
    前記3次元点群データから、前記評価値が閾値より小さい点を削除して、把持対象点群データを生成するフィルター部と、
    前記把持対象点群データから前記空間データを生成する生成部、
    として機能させるプログラム。
JP2020155714A 2020-09-16 2020-09-16 ハンドリング装置、処理装置、コントローラ及びプログラム Active JP7395451B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020155714A JP7395451B2 (ja) 2020-09-16 2020-09-16 ハンドリング装置、処理装置、コントローラ及びプログラム
US17/191,447 US11691275B2 (en) 2020-09-16 2021-03-03 Handling device and computer program product
EP21160433.5A EP3970923A1 (en) 2020-09-16 2021-03-03 Handling device and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020155714A JP7395451B2 (ja) 2020-09-16 2020-09-16 ハンドリング装置、処理装置、コントローラ及びプログラム

Publications (2)

Publication Number Publication Date
JP2022049486A JP2022049486A (ja) 2022-03-29
JP7395451B2 true JP7395451B2 (ja) 2023-12-11

Family

ID=74856745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020155714A Active JP7395451B2 (ja) 2020-09-16 2020-09-16 ハンドリング装置、処理装置、コントローラ及びプログラム

Country Status (3)

Country Link
US (1) US11691275B2 (ja)
EP (1) EP3970923A1 (ja)
JP (1) JP7395451B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4292772A1 (en) * 2022-06-15 2023-12-20 Siemens Aktiengesellschaft Heuristic-based robotic grasps

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019162684A (ja) 2018-03-19 2019-09-26 株式会社東芝 把持制御装置、把持システム、およびプログラム
WO2021001882A1 (ja) 2019-07-01 2021-01-07 オムロン株式会社 情報処理装置及び情報処理方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5854815B2 (ja) * 2011-12-20 2016-02-09 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP5977544B2 (ja) * 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP5975685B2 (ja) * 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法
WO2014036549A2 (en) * 2012-08-31 2014-03-06 Rethink Robotics, Inc. Systems and methods for safe robot operation
US9272421B2 (en) * 2013-01-07 2016-03-01 Milos Misha Subotincic Visually controlled end effector
MX361792B (es) * 2013-01-20 2018-12-17 Wynright Corp Descargador automatizado de camión para descargar/desempacar producto de tráileres y contenedores.
US9785911B2 (en) * 2013-07-25 2017-10-10 I AM Robotics, LLC System and method for piece-picking or put-away with a mobile manipulation robot
JP6036662B2 (ja) 2013-11-22 2016-11-30 三菱電機株式会社 ロボットシミュレーション装置、プログラム、記録媒体及び方法
CN106573381B (zh) * 2014-06-04 2019-12-03 因特利格兰特总部有限责任公司 卡车卸载机可视化
US9205558B1 (en) * 2014-07-16 2015-12-08 Google Inc. Multiple suction cup control
US9498887B1 (en) * 2014-07-24 2016-11-22 X Development Llc Two-faced linearly actuated gripper
US9457477B1 (en) * 2014-08-25 2016-10-04 Google Inc. Variable stiffness suction gripper
EP3426015A4 (en) * 2016-03-07 2019-12-04 Queensland University Of Technology ROBOTIC RENOVATION MACHINE
US11365068B2 (en) * 2017-09-05 2022-06-21 Abb Schweiz Ag Robotic systems and methods for operating a robot
US10780578B2 (en) * 2018-02-22 2020-09-22 Boston Dynamics, Inc. Reaching mobile robots
JP7000213B2 (ja) 2018-03-19 2022-01-19 株式会社東芝 保持装置、搬送システム、コントローラ、および保持方法
CN112930547A (zh) * 2018-10-25 2021-06-08 伯克希尔格雷股份有限公司 用于学习外推最佳物体运送和搬运参数的系统和方法
DE112019000125B4 (de) * 2018-10-30 2021-07-01 Mujin, Inc. Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung
US11738447B2 (en) * 2019-07-29 2023-08-29 Nimble Robotics, Inc. Storage systems and methods for robotic picking
US11745337B2 (en) 2019-08-29 2023-09-05 Kabushiki Kaisha Toshiba Handling device, control device, and computer program product
JP7021160B2 (ja) 2019-09-18 2022-02-16 株式会社東芝 ハンドリング装置、ハンドリング方法及びプログラム
US11772262B2 (en) * 2019-10-25 2023-10-03 Dexterity, Inc. Detecting slippage from robotic grasp
US11020854B2 (en) * 2019-11-05 2021-06-01 Mujin, Inc. Robotic system with wall-based packing mechanism and methods of operating same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019162684A (ja) 2018-03-19 2019-09-26 株式会社東芝 把持制御装置、把持システム、およびプログラム
WO2021001882A1 (ja) 2019-07-01 2021-01-07 オムロン株式会社 情報処理装置及び情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Mu, Tian、Yuan, Bo、Yu, Haibin、Kang, Yu,"A Robotic Grasping Algorithm based on Simplified Image and Deep Convolutional Neural Network",2018 IEEE 4th Information Technology and Mechatronics Engineering Conference (ITOEC),2018年12月,p.849-855,DOI: 10.1109/ITOEC.2018.8740429

Also Published As

Publication number Publication date
JP2022049486A (ja) 2022-03-29
EP3970923A1 (en) 2022-03-23
US20220080590A1 (en) 2022-03-17
US11691275B2 (en) 2023-07-04

Similar Documents

Publication Publication Date Title
US10124489B2 (en) Locating, separating, and picking boxes with a sensor-guided robot
US11065762B2 (en) Robot work system and method of controlling robot work system
JP5977544B2 (ja) 情報処理装置、情報処理方法
JP6807949B2 (ja) 干渉回避装置
JP5835926B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP7304961B2 (ja) ボックスの検出
JP7022076B2 (ja) 産業機器用の画像認識プロセッサ及びコントローラ
US10102629B1 (en) Defining and/or applying a planar model for object detection and/or pose estimation
US20230321821A1 (en) Method and system for object grasping
JPWO2009028489A1 (ja) 物体検出方法と物体検出装置およびロボットシステム
JP7377627B2 (ja) 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム
Suzuki et al. Grasping of unknown objects on a planar surface using a single depth image
JP7395451B2 (ja) ハンドリング装置、処理装置、コントローラ及びプログラム
JP2022187983A (ja) 高次元のロボット作業を学習するためのネットワークモジュール化
Stoyanov et al. Grasp envelopes: Extracting constraints on gripper postures from online reconstructed 3d models
US20240033907A1 (en) Pixelwise predictions for grasp generation
Costanzo et al. Enhanced 6d pose estimation for robotic fruit picking
JP2022187984A (ja) モジュール化ニューラルネットワークを用いた把持学習
Ivanov et al. Bin Picking Pneumatic-Mechanical Gripper for Industrial Manipulators
Kmich et al. Image-Based Visual Servoing Techniques for Robot Control
JP2021061014A (ja) 学習装置、学習方法、学習モデル、検出装置及び把持システム
Hanh et al. Planar object recognition for bin picking application
WO2023171687A1 (ja) ロボット制御装置及びロボット制御方法
CN116197888B (zh) 物品位置确定方法、装置、电子设备和存储介质
WO2023092519A1 (zh) 抓取控制方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231129

R151 Written notification of patent or utility model registration

Ref document number: 7395451

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151