JP2024019852A - ハンドリング装置、ハンドリング方法及びプログラム - Google Patents

ハンドリング装置、ハンドリング方法及びプログラム Download PDF

Info

Publication number
JP2024019852A
JP2024019852A JP2022122589A JP2022122589A JP2024019852A JP 2024019852 A JP2024019852 A JP 2024019852A JP 2022122589 A JP2022122589 A JP 2022122589A JP 2022122589 A JP2022122589 A JP 2022122589A JP 2024019852 A JP2024019852 A JP 2024019852A
Authority
JP
Japan
Prior art keywords
image
calculation unit
parameter
calculates
handling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022122589A
Other languages
English (en)
Inventor
平 姜
Ping Jiang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2022122589A priority Critical patent/JP2024019852A/ja
Priority to US18/176,337 priority patent/US20240033905A1/en
Priority to EP23159001.9A priority patent/EP4316742A1/en
Publication of JP2024019852A publication Critical patent/JP2024019852A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37425Distance, range
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40532Ann for vision processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

【課題】ニューラルネットワークにより得られる中間特徴をより有効に活用し、より少ない計算量でハンドリング装置の動作をより適切に制御できるようにする。【解決手段】実施形態のハンドリング装置は、特徴算出部と領域算出部とGC算出部とを備える。特徴算出部は、把持対象物を含む画像センサ情報に基づき、画像の特徴を示す特徴マップを算出する。領域算出部は、前記特徴マップに基づき、前記把持対象物を把持可能なハンドリングツールの位置及び姿勢を、前記画像内の円形アンカー上の第1パラメータで算出する。GC算出部は、前記第1パラメータにより表された位置及び姿勢を、前記画像上の前記ハンドリングツールの位置及び姿勢を示す第2パラメータに変換することによって、前記ハンドリングツールのGC(Grasp configuration)を算出する。【選択図】図5

Description

本発明の実施形態はハンドリング装置、ハンドリング方法及びプログラムに関する。
物流倉庫でバラ積みされた荷物などを扱うピッキング自動化システムなど、物体ハンドリング作業を自動化するロボットシステムが従来から知られている。このようなロボットシステムは、画像情報等のセンサデータを基に、物体の把持位置や姿勢、投入先の箱詰め位置や姿勢を自動的に算出し、把持機構を持つロボットが実際に把持や箱詰めを実行する。近年では、機械学習技術の発展により、学習によって、ロボットの適切な動作を実現する技術が利用されている。
特開2017-30135号公報 特開2018-202550号公報 特開2021-61014号公報 特開2020-77231号公報 特許第7021160号公報
しかしながら、従来の技術では、ニューラルネットワークにより得られる中間特徴をより有効に活用し、より少ない計算量でハンドリング装置の動作をより適切に制御することができなかった。
実施形態のハンドリング装置は、特徴算出部と領域算出部とGC算出部とを備える。特徴算出部は、把持対象物を含む画像センサ情報に基づき、画像の特徴を示す特徴マップを算出する。領域算出部は、前記特徴マップに基づき、前記把持対象物を把持可能なハンドリングツールの位置及び姿勢を、前記画像内の円形アンカー上の第1パラメータで算出する。GC算出部は、前記第1パラメータにより表された位置及び姿勢を、前記画像上の前記ハンドリングツールの位置及び姿勢を示す第2パラメータに変換することによって、前記ハンドリングツールのGC(Grasp configuration)を算出する。
実施形態のハンドリングシステム100の構成の例を示す概略図。 実施形態のコントローラの機能構成の例を示す図。 実施形態の計画部の機能構成の例を示す図。 実施形態のGCの例を示す図。 実施形態のGC候補算出部の機能構成の例を示す図。 実施形態の特徴算出部の処理の例を示す図。 実施形態のGC領域算出部の処理の例を示す図。 実施形態のハンドリング方法の例を示すフローチャート。 実施形態のコントローラのハードウェア構成の例を示す図。
以下に添付図面を参照して、ハンドリング装置、ハンドリング方法及びプログラムの実施形態を詳細に説明する。
(第1実施形態)
はじめに、物体ハンドリングロボットの一例であるハンドリング装置(ピッキングロボット)とロボット統合管理システムとを備えるハンドリングシステムの概要について説明する。
[全体概要]
図1は、実施形態のハンドリングシステム100の構成の例を示す概略図である。実施形態のハンドリングシステム100は、ハンドリング装置(マニピュレータ1、筐体2及びコントローラ3)、センサ支持部4、物品コンテナ用センサ5、把持物品計測用センサ6、集荷コンテナ用センサ7、一時置場用センサ8、物品コンテナ引き込み部9、物品コンテナ用重量計10、集荷コンテナ引き込み部11及び集荷用重量計12を備える。
センサ支持部4は、センサ類(物品コンテナ用センサ5、把持物品計測用センサ6、集荷コンテナ用センサ7及び一時置場用センサ8)を支持する。
物品コンテナ用センサ5は、物品コンテナ101の内部の状態を計測する。物品コンテナ用センサ5は、例えば物品コンテナ引き込み部9の上部に設置された画像センサである。
把持物品計測用センサ6は、物品コンテナ用センサ5の付近に設置され、マニピュレータ1が把持した物体を計測する。
集荷コンテナ用センサ7は、集荷用コンテナの内部の状態を計測する。集荷コンテナ用センサ7は、例えば集荷コンテナ引き込み部11の上部に設置された画像センサである。
一時置場用センサ8は、一時置場103に置かれた物品を計測する。
物品コンテナ引き込み部9は、ハンドリング対象の物品が保管された物品コンテナ101を引き込む。
物品コンテナ用重量計10は、物品コンテナ101の重量を計測する。
集荷コンテナ引き込み部11は、マニピュレータ1により取り出された物品を収める集荷コンテナ102を引き込む。
集荷コンテナ用重量計12は、集荷コンテナ102の重量を計測する。
なお、物品コンテナ用センサ5、把持物品計測用センサ6、集荷コンテナ用センサ7及び一時置場用センサ8は、任意のセンサでよい。例えば、RGB画像カメラ、距離画像カメラ、レーザーレンジファインダ、及び、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)など、画像情報及び3次元情報等が取得可能なセンサが用いられる。
なお、図1の概略図では、図示されていないが、上記以外にも、実施形態のハンドリングシステム100は、各種センサ、各種駆動部を動作させるための電源部、圧縮空気をためるボンベ、コンプレッサー、真空ポンプ、コントローラ及びUI(User Interface)等の外部インターフェース、並びに、ライトカーテンや衝突検知器などの安全機構を備える。
マニピュレータ1は、アーム部とハンドリング(ピッキング)ツール部14とで構成される。
アーム部は、複数のサーボモータで駆動される多関節ロボットである。これは、図1に示すような6軸(軸13a~13f)の垂直多関節ロボットを代表例として、多軸の垂直多関節ロボット、スカラロボット及び直動ロボット等の組み合わせで構成される。
ハンドリングツール部14は、力センサ及び挟持機構を備え、把持対象物を把持する。
ロボット統合管理システム15は、ハンドリングシステム100を管理するシステムである。ハンドリングツール部14は、ハンドリングツールチェンジャーを用いることで、把持対象物を把持するアーム部が着脱可能となる。ハンドリングツール部14は、ロボット統合管理システム15からの指示に従って、任意のハンドリングツール部14に交換することが可能である。
図2は実施形態のコントローラ3の機能構成の例を示す図である。実施形態のコントローラ3は、処理部31、計画部32及び制御部33を備える。
処理部31は、カメラで撮像された画像センサ情報のノイズ除去処理と、物体以外の情報(例えば物品コンテナと地面など)の背景除外処理と、計画部32に入力される画像を生成するための画像リサイズと、正規化処理とを行う。例えば、処理部31は、処理された画像センサ情報として、RGB-D画像を計画部32に入力する。
計画部32は、深層学習により、画像座標系におけるハンドリングツール部14の把持対象物を把持する可能性が高いgrasp configuration(GC)の候補群を算出する。そして、計画部32は、各候補を6Dの把持姿勢に変換する。6Dの把持姿勢は、位置を示す3次元座標と、姿勢を示す3次元座標とを含む。計画部32は、各6Dの把持候補姿勢の把持容易さを評価し、容易さのスコアの上位の候補群または一番高い候補を算出する。さらに、計画部32は、マニピュレータ1の初期姿勢から、上位の候補群または最適な把持姿勢までの軌道を生成し、制御部33へ送信する。
制御部33は、計画部32から受信された軌道に基づき、マニピュレータ1の各関節の位置、速度及び加速度の時系列を生成し、マニピュレータ1に把持対象物体を把持させる行動を制御する。また、制御部33は、把持動作の成功または動作実行回数の上限までコントローラ3を繰り返して機能させる。
図3は実施形態の計画部32の機能構成の例を示す図である。実施形態の計画部32は、GC候補算出部321、姿勢算出部322、評価部323及び生成部324を備える。
GC候補算出部321は、深層学習によるGCの候補群を算出する。
図4は実施形態のGCの例を示す図である。図4の例は、真上から把持対象物104を把持する際に、ハンドリングツール部14の把持姿勢を画像へ投影した場合のGCを示す。例えば、GCは画像上でrotated bounding box[x,y,w,h,θ]により表現される。X及びyはハンドリングツール部14の中心、wはハンドリングツール部14の開き幅、hはハンドリングツール部14の指の幅、θはGCの開き幅wが画像水平軸とのなす角度である。
図1に戻り、姿勢算出部322は、GC候補算出部321で算出されたGC([x,y,w,h,θ])をハンドリングツール部14の6Dのワールド姿勢([X,Y,Z,roll,pitch,yaw])に変換する。GC及び6D姿勢の関係は、Depth画像(IDepth)と、カメラ行列(IC)と、カメラのワールド座標系における位置姿勢(Tcam world)の情報とに基づき、下記式(1)乃至(4)で表現される。なお、行列Tcam worldに含まれる行列Rotcam worldは、3×3サイズのカメラの回転行列であり、Transcam worldは、カメラの位置を示す3行1列のベクトルである。
Figure 2024019852000002
Figure 2024019852000003
Figure 2024019852000004
Figure 2024019852000005
上記式(1)乃至(4)によって、GCと6D姿勢とのお互いの変換が可能となる。D挿入量はハンドリングツール部14で把持する際の挿入量であり、固定値または把持対象物104の形状及び大きさなどによって決められる。
また、姿勢に加え、ハンドリングツール部14のワールド座標系における開き幅Wも、開き幅Wの画像上の投影wの線分の端点を式(3)によるワールド座標に変換し、端点間の距離を計算すれば簡単に求められる。
評価部323はハンドリングツール部14の姿勢で把持対象物104を把持する際の容易さを評価する。把持しやすさのスコアは、例えば把持の可能性、安定性及び安全性を複合的に考慮したヒューリスティック的な評価式によって算出される。また、把持しやすさのスコアは直接に深層学習用いても求められる(例えば特許文献5参照)。評価部323は、容易さのスコアを高さ順でソーティングし、上位の候補群または一番高い候補を算出する。
生成部324は、経路計画のプランナー、例えば、MoveIt(非特許文献5)を用い、マニピュレータ1が初期姿勢から、上述の上位または最適なハンドリングツール部14の姿勢までの軌道を生成し、軌道と容易さのスコアとを制御部33へ送信する。
図5は実施形態のGC候補算出部321の機能構成の例を示す図である。実施形態のGC候補算出部321は、特徴算出部3211、位置ヒートマップ算出部3212、領域算出部3213、GC領域算出部3214及びGC算出部3215を備える。
特徴算出部3211は、処理部31からRGB-D画像の入力を受け付けると、当該画像の特徴マップを算出する。具体的には、特徴算出部3211は、ラストの特徴だけでなく中間特徴も融合(フュージョン)するニューラルネットワークを用いることによって、特徴学習の精度を向上させる。なお、従来の技術では、ニューラルネットワークで算出された画像(例えば、複数のセンサ情報のラスト特徴マップ)を直接にフュージョンすることによって特徴が算出されるので、学習結果の精度への中間特徴の役割が考慮されていなかった。
特徴算出部3211は、複数の画像センサ情報の入力を受け付け、複数の画像センサ情報から複数の特徴抽出器により抽出された複数の中間特徴を統合し、畳み込み計算によって、複数の中間特徴を含む複数の画像センサ情報の特徴を融合させることによって、特徴マップを算出する。例えば、複数の画像センサ情報は、画像の色彩を示すカラー画像と、画像に含まれる被写体の距離を示す距離画像とを含む。例えば、複数の特徴抽出器は、Encoder-Decoderモデル構造を持つニューラルネットワークにより実現される。
図6は実施形態の特徴算出部3211の処理の例を示す図である。図6の例は、特徴算出部3211がEncoder-Decoderモデル構造を持つニューラルネットワークを用いる場合を示す。具体的には、図6上部にある三角形のネットワークは、左半分が、カラー画像IRGBの特徴を抽出するエンコーダの処理を示す構造を持ち、右半分が、カラー画像IRGBを復元するデコーダの処理を示す構造を持っている。同様に、図6下部にある三角形のネットワークは、左半分が距離画像IDepthの特徴を抽出するエンコーダの処理を示す構造を持ち、右半分が、距離画像IDepthを復元するデコーダの処理を示す構造を持っている。
実施形態では、下記式(5)によって、エンコーダで得られた中間特徴(XRGB i,j及びX i,j;i,j={(0,0),(0,1),(0,2),(1,0),(1,1),(2,0),(2,1),(3,0),(4,0)})をフュージョンし、畳み込み計算(Conv)による特徴マップを算出する。
Figure 2024019852000006
図5に戻り、領域算出部3213は上記特徴マップに基づき、GCの円形アンカー(anchor)上の表現をニューラルネットワークで算出する。なお、従来の技術では、ボックス形状のアンカーが、画像全体に対して所定の間隔で生成され、当該アンカーに対する相対位置と相対回転角度とが学習される。この場合、画像全体に対するアンカーが生成されるので計算量が多くなる。また、複数の大きさかつ複数の回転角度のボックスを生成する必要があり、パラメータの数も多くなる。
そこで、本実施形態のGC候補算出部321では、位置ヒートマップ算出部3212が、画像全体のかわりに、把持対象物104の位置を示す位置ヒートマップを算出する。実施形態の領域算出部3213は、位置ヒートマップに基づき、特徴マップ上の円形アンカーを検出し、検出された円形アンカー上で第1パラメータを算出するニューラルネットワークにより実現される。領域算出部3213が、位置ヒートマップのスコアが高い領域(閾値より大きい領域)に円形アンカーを生成することにより、円形アンカーが生成される領域を絞られ、計算量を減らせる。また、図5に示すように、大きさの異なる複数のアンカーが用いられることによって、大きさの異なる把持対象物104に対応することができる。
位置ヒートマップ算出部3212は、画像を入力とするニューラルネットワーク(例えば、Fully connected neural network(FCN)、及び、U-Net)によって、位置ヒートマップを算出する。位置ヒートマップのグラウンドトルース(ground truth)はGCのx及びyから求められる。例えば、位置ヒートマップ内各点の値は、各点の位置からx及びyまでのgaussian距離で評価される。
また、本実施形態では円形形状のアンカーを用いる。円形形状の場合は、ボックス形状の場合とは異なり、角度は考慮しなくてよく、複数の大きさの円だけ生成すれば良いので、パラメータの数を減らすことができる。これにより、学習の効率を向上させることができる。
一方で、本実施形態では、回転角度の単位はピクセルではなく、境界のところは不連続による不正確な損失関数の値が生じる可能性があるため、角度の学習は難しくなる。そこで、領域算出部3213は角度のかわりに、GCの外接円の中心(Cx,Cy)及び半径(R)と、GCの短辺の中点(例えばhの中心)の当該円中心に対する座標(dRx,dRy)を学習することによって、学習の性能を向上させる。
図7は実施形態のGC領域算出部3214の処理の例を示す図である。領域算出部3213は、学習で求められた上述のGCの円形アンカー上の表現を、下記式(6)でGCの大まかな領域([x’,y’,w’,h’,θ’])に変換する。
Figure 2024019852000007
図5に戻り、GC算出部3215は、GC領域算出部3214によってGCの大まかな領域が算出されると、特徴マップからGCの大まかな領域内の特徴を抽出し、Rotated ROI(Region Of Interest) alignによる特徴のプーリング(pooling)及びアライン(align)を行う。そして、GC算出部3215は、プーリング及びアラインが行われた特徴を、fully connected layer(図5の例では、fc1及びfc2)に入力し、GCの値([x,y,w,h,θ])と、把持可能の確率pと、把持不可能の確率pとを算出する。
図8は実施形態のハンドリング方法の例を示すフローチャートである。はじめに、特徴算出部3211が、把持対象物104を含む画像センサ情報に基づき、画像の特徴を示す特徴マップを算出する(ステップS1)。
次に、領域算出部3213が、ステップS1で算出された特徴マップに基づき、把持対象物104を把持可能なハンドリングツール部14の位置及び姿勢を、画像内の円形アンカー上の第1パラメータで算出する(ステップS2)。上述の図7の例では、第1パラメータは、円形アンカーの中心を示すパラメータC及びCと、円形アンカーの半径を示すパラメータRとを含む。
次に、GC算出部3215が、ステップS2で算出された第1パラメータで表された位置及び姿勢を、画像上のハンドリングツール部14の位置及び姿勢を示す第2パラメータに変換することによって、ハンドリングツール部14のGCを算出する(ステップS3)。具体的には、GC算出部3215は、円形アンカーを外接円とするGCの辺の中点を示すパラメータ(図7の例では、dR及びdR)と、円形アンカーの中心を示すパラメータ(図7の例では、C及びC)と、円形アンカーの半径を示すパラメータ(図7の例では、R)とから、第2パラメータ(上述の式(6)の[x,y,w,h,θ])を算出する。
なお、上述の実施形態のハンドリング方法は、挟持型ハンドリングツールだけではなく、画像上で回転のbounding box[x,y,w,h,θ]で表現できる任意のハンドリングツールに適用できる。
以上、説明したように、実施形態のハンドリング装置(マニピュレータ1、筐体2及びコントローラ3)によれば、ニューラルネットワークにより得られる中間特徴(例えば図6参照)をより有効に活用し、より少ない計算量でハンドリング装置の動作をより適切に制御することができる。
従来の技術では、ハンドリングツールの姿勢の画像上の表現となるboxの回転角度を学習する必要があった。回転角度を学習するために、多数の回転されている候補boxを生成したり、または回転角度をクラス化(角度から高次元のone-hotベクトルに変換する)したりする必要があるので、計算量が膨大である。一方、回転角度を学習する際に、boxの対称性により、同じ回転boxに対して二つの回転角度(例えば、回転角度0度のboxは回転角度180度のboxと画像上の表現が同じとなる)が存在しているため、学習が難しかった。
最後に、実施形態のコントローラ3のハードウェア構成の例を示す図の例について説明する。
[ハードウェア構成の例]
図9は実施形態のコントローラ3のハードウェア構成の例を示す図のハードウェア構成の例を示す図である。実施形態のコントローラ3は、制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306を備える。制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306は、バス310を介して接続されている。
なお、表示装置304、入力装置305及び通信装置306は備えていなくてもよい。例えば、コントローラ3が他の装置と接続される場合、当該他の装置の表示機能、入力機能及び通信機能を利用してもよい。
制御装置301は補助記憶装置303から主記憶装置302に読み出されたプログラムを実行する。制御装置301は、例えばCPU等の1以上のプロセッサである。主記憶装置302はROM(Read Only Memory)、及び、RAM等のメモリである。補助記憶装置303はメモリカード、及び、HDD(Hard Disk Drive)等である。
表示装置304は情報を表示する。表示装置304は、例えば液晶ディスプレイである。入力装置305は、情報の入力を受け付ける。入力装置305は、例えばハードウェアキー等である。なお表示装置304及び入力装置305は、表示機能と入力機能とを兼ねる液晶タッチパネル等でもよい。通信装置306は他の装置と通信する。
コントローラ3で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、メモリカード、CD-R、及び、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータ・プログラム・プロダクトとして提供される。
またコントローラ3で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。またコントローラ3が実行するプログラムを、ダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
またコントローラ3で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
コントローラ3で実行されるプログラムは、コントローラ3の機能のうち、プログラムにより実現可能な機能を含むモジュール構成となっている。
プログラムにより実現される機能は、制御装置301が補助記憶装置303等の記憶媒体からプログラムを読み出して実行することにより、主記憶装置302にロードされる。すなわちプログラムにより実現される機能は、主記憶装置302上に生成される。
なおコントローラ3の機能の一部を、IC(Integrated Circuit)等のハードウェアにより実現してもよい。ICは、例えば専用の処理を実行するプロセッサである。
また複数のプロセッサを用いて各機能を実現する場合、各プロセッサは、各機能のうち1つを実現してもよいし、各機能のうち2つ以上を実現してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 マニピュレータ
2 筐体
3 コントローラ
4 センサ支持部
5 物品コンテナ用センサ
6 把持物品計測用センサ
7 集荷コンテナ用センサ
8 一時置場用センサ
9 物品コンテナ引き込み部
10 物品コンテナ用重量計
11 集荷コンテナ引き込み部
12 集荷用重量計
13 軸
14 ハンドリングツール部
15 ロボット統合管理システム
31 処理部
32 計画部
33 制御部
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信装置
310 バス
321 GC候補算出部
322 姿勢算出部
323 評価部
324 生成部
3211 特徴算出部
3212 位置ヒートマップ算出部
3213 領域算出部
3214 GC領域算出部
3215 GC算出部

Claims (7)

  1. 把持対象物を含む画像センサ情報に基づき、画像の特徴を示す特徴マップを算出する特徴算出部と、
    前記特徴マップに基づき、前記把持対象物を把持可能なハンドリングツールの位置及び姿勢を、前記画像内の円形アンカー上の第1パラメータで算出する領域算出部と、
    前記第1パラメータにより表された位置及び姿勢を、前記画像上の前記ハンドリングツールの位置及び姿勢を示す第2パラメータに変換することによって、前記ハンドリングツールのGC(Grasp configuration)を算出するGC算出部と、
    を備えるハンドリング装置。
  2. 前記特徴算出部は、複数の画像センサ情報の入力を受け付け、前記複数の画像センサ情報から複数の特徴抽出器により抽出された複数の中間特徴を統合し、畳み込み計算によって、前記複数の中間特徴を含む前記複数の画像センサ情報の特徴を融合させることによって、前記特徴マップを算出する、
    請求項1に記載のハンドリング装置。
  3. 前記複数の画像センサ情報は、前記画像の色彩を示すカラー画像と、前記画像に含まれる被写体の距離を示す距離画像とを含み、
    前記複数の特徴抽出器は、Encoder-Decoderモデル構造を持つニューラルネットワークにより実現される、
    請求項2に記載のハンドリング装置。
  4. 前記持対象物の位置を示す位置ヒートマップを算出する位置ヒートマップ算出部を更に備え、
    前記領域算出部は、前記位置ヒートマップに基づき、前記特徴マップ上の前記円形アンカーを検出し、前記検出された円形アンカー上で第1パラメータを算出するニューラルネットワークにより実現される、
    請求項1乃至3のいずれか1項に記載のハンドリング装置。
  5. 前記第1パラメータは、前記円形アンカーの中心を示すパラメータと、前記円形アンカーの半径を示すパラメータとを含み、
    前記GC算出部は、前記円形アンカーを外接円とする前記GCの辺の中点を示すパラメータと、前記円形アンカーの中心を示すパラメータと、前記円形アンカーの半径を示すパラメータとから、前記第2パラメータを算出する、
    請求項1乃至3のいずれか1項に記載のハンドリング装置。
  6. ハンドリング装置が、把持対象物を含む画像センサ情報に基づき、画像の特徴を示す特徴マップを算出するステップと、
    前記ハンドリング装置が、前記特徴マップに基づき、前記把持対象物を把持可能なハンドリングツールの位置及び姿勢を、前記画像内の円形アンカー上の第1パラメータで算出するステップと、
    前記ハンドリング装置が、前記第1パラメータにより表された位置及び姿勢を、前記画像上の前記ハンドリングツールの位置及び姿勢を示す第2パラメータに変換することによって、前記ハンドリングツールのGC(Grasp configuration)を算出するステップと、
    を含むハンドリング方法。
  7. コンピュータを、
    把持対象物を含む画像センサ情報に基づき、画像の特徴を示す特徴マップを算出する特徴算出部と、
    前記特徴マップに基づき、前記把持対象物を把持可能なハンドリングツールの位置及び姿勢を、前記画像内の円形アンカー上の第1パラメータで算出する領域算出部と、
    前記第1パラメータにより表された位置及び姿勢を、前記画像上の前記ハンドリングツールの位置及び姿勢を示す第2パラメータに変換することによって、前記ハンドリングツールのGC(Grasp configuration)を算出するGC算出部、
    として機能させるためのプログラム。
JP2022122589A 2022-08-01 2022-08-01 ハンドリング装置、ハンドリング方法及びプログラム Pending JP2024019852A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022122589A JP2024019852A (ja) 2022-08-01 2022-08-01 ハンドリング装置、ハンドリング方法及びプログラム
US18/176,337 US20240033905A1 (en) 2022-08-01 2023-02-28 Object manipulation apparatus, handling method, and program product
EP23159001.9A EP4316742A1 (en) 2022-08-01 2023-02-28 Object manipulation apparatus, handling method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022122589A JP2024019852A (ja) 2022-08-01 2022-08-01 ハンドリング装置、ハンドリング方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2024019852A true JP2024019852A (ja) 2024-02-14

Family

ID=85410132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022122589A Pending JP2024019852A (ja) 2022-08-01 2022-08-01 ハンドリング装置、ハンドリング方法及びプログラム

Country Status (3)

Country Link
US (1) US20240033905A1 (ja)
EP (1) EP4316742A1 (ja)
JP (1) JP2024019852A (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5106526A (en) 1990-06-06 1992-04-21 Allied-Signal Inc. Azeotrope-like compositions of dichloropentafluoropropane, methanol and a hydrocarbon containing six carbon atoms
JP6546618B2 (ja) * 2017-05-31 2019-07-17 株式会社Preferred Networks 学習装置、学習方法、学習モデル、検出装置及び把持システム

Also Published As

Publication number Publication date
US20240033905A1 (en) 2024-02-01
EP4316742A1 (en) 2024-02-07

Similar Documents

Publication Publication Date Title
Breyer et al. Volumetric grasping network: Real-time 6 dof grasp detection in clutter
Schwarz et al. Fast object learning and dual-arm coordination for cluttered stowing, picking, and packing
US11216971B2 (en) Three-dimensional bounding box from two-dimensional image and point cloud data
EP4137992B1 (en) A material handling method, apparatus, and system for identification of a region-of-interest
JP7304961B2 (ja) ボックスの検出
US9630320B1 (en) Detection and reconstruction of an environment to facilitate robotic interaction with the environment
US9327406B1 (en) Object segmentation based on detected object-specific visual cues
JP5328979B2 (ja) 物体認識方法、物体認識装置、自律移動ロボット
US9616568B1 (en) Generating a grasp affordance for an object based on a thermal image of the object that is captured following human manipulation of the object
US11541534B2 (en) Method and system for object grasping
US11794343B2 (en) System and method for height-map-based grasp execution
JP2019188580A (ja) 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体
JPWO2009028489A1 (ja) 物体検出方法と物体検出装置およびロボットシステム
JP2011133273A (ja) 推定装置及びその制御方法、プログラム
EP2610783A2 (en) Object recognition method and descriptor for object recognition
JP2020197978A (ja) 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム
Breyer et al. Closed-loop next-best-view planning for target-driven grasping
Lakshan et al. Identifying Objects with Related Angles Using Vision-Based System Integrated with Service Robots
JP6922605B2 (ja) 3次元物体検出装置、ロボット、及びプログラム
JP2024019852A (ja) ハンドリング装置、ハンドリング方法及びプログラム
Brucker et al. Sequential scene parsing using range and intensity information
JP7395451B2 (ja) ハンドリング装置、処理装置、コントローラ及びプログラム
Nakano Stereo vision based single-shot 6d object pose estimation for bin-picking by a robot manipulator
RU2745380C1 (ru) Способ и система захвата объектов с помощью роботизированного устройства
JP2003141511A (ja) 3次元形状認識方法、装置およびプログラム