JP2021045811A - ハンドリング装置、ハンドリング方法及びプログラム - Google Patents

ハンドリング装置、ハンドリング方法及びプログラム Download PDF

Info

Publication number
JP2021045811A
JP2021045811A JP2019169019A JP2019169019A JP2021045811A JP 2021045811 A JP2021045811 A JP 2021045811A JP 2019169019 A JP2019169019 A JP 2019169019A JP 2019169019 A JP2019169019 A JP 2019169019A JP 2021045811 A JP2021045811 A JP 2021045811A
Authority
JP
Japan
Prior art keywords
gripping
unit
evaluation
image
action method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019169019A
Other languages
English (en)
Other versions
JP7021160B2 (ja
Inventor
平 姜
Ping Jiang
平 姜
征司 十倉
Seiji Tokura
征司 十倉
義之 石原
Yoshiyuki Ishihara
義之 石原
小川 昭人
Akito Ogawa
昭人 小川
菅原 淳
Atsushi Sugawara
淳 菅原
春菜 衛藤
Haruna Eto
春菜 衛藤
和馬 古茂田
Kazuma Komoda
和馬 古茂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2019169019A priority Critical patent/JP7021160B2/ja
Priority to US16/803,536 priority patent/US11565408B2/en
Publication of JP2021045811A publication Critical patent/JP2021045811A/ja
Application granted granted Critical
Publication of JP7021160B2 publication Critical patent/JP7021160B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/06Gripping heads and other end effectors with vacuum or magnetic holding means
    • B25J15/0616Gripping heads and other end effectors with vacuum or magnetic holding means with vacuum
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/91Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers
    • B65G47/917Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers control arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39505Control of gripping, grasping, contacting force, force distribution
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Fuzzy Systems (AREA)
  • Manipulator (AREA)

Abstract

【課題】効率的なピッキング作業を実現する。【解決手段】実施形態のハンドリング装置は、評価部と行動方式生成部と制御部とを備える。評価部は、1以上の把持対象物を含む画像に基づいて、前記把持対象物を把持する第1行動方式の評価値を算出する。行動方式生成部は、前記画像と、複数の前記第1行動方式の評価値とに基づいて、第2行動方式を生成する。制御部は、前記第2行動方式に従って、前記把持対象物を把持する動作を制御する。【選択図】図6

Description

本発明の実施形態はハンドリング装置、ハンドリング方法及びプログラムに関する。
物流倉庫でバラ積みされた荷物などを扱うピッキング自動化システムなど、物体ハンドリング作業を自動化するロボットシステムが従来から知られている。このようなロボットシステムは、画像情報等のセンサデータを基に、物体の把持位置や姿勢、投入先の箱詰め位置や姿勢を自動的に算出し、把持機構を持つロボットが実際に把持や箱詰めを実行する。近年では、機械学習技術の発展により、学習によって、ロボットの適切な動作を実現する技術が利用されている。
特開2018−202550号公報
しかしながら、従来の技術では、効率的なピッキング作業を実現することが難しかった。具体的には、効率的なピッキング作業を実現するためには、例えば多数の対象のどれを先に取るか、またはその対象物のどの部分を把持するかをロボット毎、作業毎に適切に決定する必要がある。ロボットの機械的な制約、対象を把持する際の安定性、及び、ロボットハンドの対象物への到達の可能性などを複合的に判断して、効率的なピッキング作業を実現することが困難であった。
実施形態のハンドリング装置は、評価部と行動方式生成部と制御部とを備える。評価部は、1以上の把持対象物を含む画像に基づいて、前記把持対象物を把持する第1行動方式の評価値を算出する。行動方式生成部は、前記画像と、複数の前記第1行動方式の評価値とに基づいて、第2行動方式を生成する。制御部は、前記第2行動方式に従って、前記把持対象物を把持する動作を制御する。
実施形態のハンドリングシステム100の構成の例を示す図。 実施形態のピッキングツール部の例1を示す図。 実施形態のピッキングツール部の例2を示す図。 実施形態のピッキングツール部の例3を示す図。 実施形態のピッキングツール部の例4を示す図。 実施形態のピッキングツール情報の例を示す図。 実施形態のコントローラの機能構成の例を示す図。 実施形態の処理部による画像処理の例を示す図。 実施形態の計画部の機能構成及び動作例を示す図。 実施形態の評価部の処理例を示す図。 実施形態の評価方式更新部の機能構成及び動作例を示す図。 実施形態の学習データセットの例を示す図。 実施形態の行動方式生成部の処理例を示す図。 実施形態の行動方式更新部の機能構成及び動作例を示す図。 実施形態のハンドリング方法の例を示すフローチャート。 実施形態のコントローラのハードウェア構成の例を示す図。
以下に添付図面を参照して、ハンドリング装置、ハンドリング方法及びプログラムの実施形態を詳細に説明する。
はじめに、物体ハンドリングロボットの一例であるハンドリング装置(ピッキングロボット)とロボット統合管理システムとを備えるハンドリングシステムの概要について説明する。
[全体概要]
図1は、実施形態のハンドリングシステム100の構成の概略図である。実施形態のハンドリングシステム100は、ハンドリング装置(マニピュレータ1、筐体2及びコントローラ3)、センサ支持部4、物品コンテナ用センサ5、把持物品計測用センサ6、集荷コンテナ用センサ7、一時置場用センサ8、物品コンテナ引き込み部9、物品コンテナ用重量計10、集荷コンテナ引き込み部11及び集荷用重量計12を備える。
センサ支持部4は、センサ類(物品コンテナ用センサ5、把持物品計測用センサ6、集荷コンテナ用センサ7及び一時置場用センサ8)を支持する。
物品コンテナ用センサ5は、物品コンテナ101の内部の状態を計測する。物品コンテナ用センサ5は、例えば物品コンテナ引き込み部9の上部に設置された画像センサである。
把持物品計測用センサ6は、物品コンテナ用センサ5の付近に設置され、マニピュレータ1が把持した物体を計測する。
集荷コンテナ用センサ7は、集荷用コンテナの内部の状態を計測する。集荷コンテナ用センサ7は、例えば集荷コンテナ引き込み部11の上部に設置された画像センサである。
一時置場用センサ8は、一時置場103に置かれた物品を計測する。
物品コンテナ引き込み部9は、ハンドリング対象の物品が保管された物品コンテナ101を引き込む。
物品コンテナ用重量計10は、物品コンテナ101の重量を計測する。
集荷コンテナ引き込み部11は、マニュピレータ1により取り出された物品を収める集荷用コンテナ102を引き込む。
集荷コンテナ用重量計12は、集荷コンテナ102の重量を計測する。
なお、物品コンテナ用センサ5、把持物品計測用センサ6、集荷コンテナ用センサ7及び一時置場用センサ8は、任意のセンサでよい。例えば、RGB画像カメラ、距離画像カメラ、レーザーレンジファインダ、及び、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)など、画像情報及び3次元情報等が取得可能なセンサが用いられる。
なお、図1の概略図では、図示されていないが、上記以外にも、実施形態のハンドリングシステム100は、各種センサ、各種駆動部を動作させるための電源部、圧縮空気をためるボンベ、コンプレッサー、真空ポンプ、コントローラ及びUI(User Interface)等の外部インターフェース、並びに、ライトカーテンや衝突検知器などの安全機構を備える。
マニピュレータ1は、アーム部とピッキングツール部14とで構成される。
アーム部は、複数のサーボモータで駆動される多関節ロボットである。これは、図1に示すような6軸(軸13a〜13f)の垂直多関節ロボットを代表例として、多軸の垂直多関節ロボット、スカラロボット及び直動ロボット等の組み合わせで構成される。
ピッキングツール部14は、吸着、ジャミング、挟み込み及び多指機構により対象物の把持を実現する機構である。
図2A〜2Dは実施形態のピッキングツール部14の例1〜4を示す図である。図2に示すように、ハンドリング装置のエンドエフェクタとして、屈曲や回転といった駆動部や各種センサを配置してもよい。
図2Aの例では、ピッキングツール部14は、力センサ21、屈曲軸22及び吸着パッド23を備える。図2B及び2Cの例では、ピッキングツール部14は、力センサ21及び吸着パッド23を備える。図2Dの例では、ピッキングツール部14は、力センサ21及び挟持機構24を備える。
ピッキングツール部14は、図2A乃至Cに示すように、吸着式であっても配置するパッドの数や形状、位置が異なる。またピッキングツール部14は、図2Dに示すように、吸着式以外にも挟み込みや多指機構でもよい。
図3は実施形態のピッキングツール情報の例を示す図である。実施形態のピッキングツール情報は、ピッキングツール番号、タイプ、関節情報、吸着パッド数、吸着パッド情報、挟持指数、挟持指情報、外形情報及び特性情報を含む。
ピッキングツール番号は、ピッキングツール部14を識別する番号である。タイプは、ピッキングツール部14の種類を示す。関節情報は、ピッキングツール部14が備える関節の情報である。吸着パッド数は、ピッキングツール部14が備える吸着パッドの数である。吸着パッド情報は、ピッキングツール部14が備える吸着パッドの情報である。挟持指数は、ピッキングツール部14が備える挟持機構の指の数である。挟持指情報は、ピッキングツール部14が備える挟持機構の指の情報である。外形情報は、ピッキングツール部14の外形を示す情報である。特性情報は、ピッキングツール部14の特性を示す情報である。
図1に戻り、ロボット統合管理システム15は、ハンドリングシステム100を管理するシステムである。図3のピッキングツール情報は、ロボット統合管理システムのデータベースに保存される。ピッキングツール部14は、ピッキングツールチェンジャーを用いることで、アーム部に対して、着脱可能となる。ピッキングツール部14は、ロボット統合管理システム15からの指示に従って、任意のピッキングツール部14に交換することが可能である。
図4は実施形態のコントローラ3の機能構成の例を示す図である。実施形態のコントローラ4は、処理部31、計画部32及び制御部33を備える。
処理部31は、各種センサによって取得された画像及びセンサ情報を処理し、計画部3に入力されるRGB−D画像等の入力画像を生成する。
計画部32は、処理部31から入力された入力画像に基づき、ピッキング動作の行動方式(第2行動方式)を生成する。行動方式は、例えばピッキングツールを識別する識別情報と、ピッキングツールによる把持位置姿勢とを含む。
制御部33は、計画部32で生成された行動方式(第2行動方式)に従って、マニピュレータ1を含むハンドリング装置が、把持対象物を把持する動作を制御する。具体的には、制御部33は、行動方式に含まれる識別情報により識別されるピッキングツールを使用して、行動方式に含まれる把持位置姿勢に従って、把持対象物を把持する動作を制御する。
図5は実施形態の処理部31による画像処理の例を示す図である。処理部31は、画像やセンサ情報を、計画部31で使用される画像形式に変換する処理を行う。例えば、処理部31は、除去処理、調整処理、及び、カメラパラメータ行列に合わせる処理を行う。除去処理は、物体群を収納するビンとビンを支える作業台とコンベヤーとを示す画像部分を、画像から除去する処理である。調整処理は、計画部31に入力される入力画像のサイズ及びスケールに調整する処理である。カメラパラメータ行列に合わせる処理は、評価部321で使用される画像を取ったカメラのパラメータ行列に合わせ、入力画像を再生成する処理である。
図6は実施形態の計画部32の機能構成及び動作例を示す図である。実施形態の計画部32は、評価部321、評価方式更新部322、生成部323及び行動方式更新部324を備える。
処理部31は、t回目で把持対象物をピッキングする際に、ビン(物品コンテナ101)内の把持対象物群の配置Sの情報を含むRGB−D画像、評価部321で使用される画像形式に変換する。
評価部321は、1以上の把持対象物を含む画像に基づいて、把持対象物を把持する行動方式(第1行動方式)の評価値を算出する。評価値は、例えば把持対象物の把持容易性を示すスコアである。具体的には、評価部321は、処理部31から入力されたRGB−D画像に基づき、各把持対象物の物体領域、及び、各ピッキング方式(各ツール)の把持容易性の評価値(把持しやすさのヒートマップ)を算出する。実施形態では、ヒートマップの各ピクセルが、ピクセル位置の世界座標系に対する位置で把持する際の姿勢と、把持しやすさ(把持容易性を示すスコア)とを示す。
評価方式更新部322は、評価値の正確さを高めるために、評価方式を更新する。例えば評価部321が、CNN(Convolutional Neural Network)を用いて評価値を算出する場合、評価方式更新部322は、CNNの損失関数の値がより小さくなるようにして、CNNのパラメータを更新することにより、評価値の評価方式を更新する。
生成部323は、上述のRGB−D画像と、上述のヒートマップとに基づき、把持対象物の現在の配置に対して、より大きな累積報酬を獲得できる行動を示す行動方式を生成する。累積報酬は、例えば同時にピッキング可能な対象物の個数、ピッキングに掛かる時間、及び、ピッキングの成功率等のうち、少なくとも1つ以上が考慮された報酬の累積である。
制御部33は、計画部32で生成された行動方式に従って、マニピュレータ1を制御する。
行動方式更新部324は、より大きな累積報酬を獲得できるように、行動方式を決定するパラメータの更新を行う。
図7は実施形態の評価部321の処理例を示す図である。評価部321には、例えばCNN200が用いられる。図7の例では、評価部321は、処理部31からRGB−D画像(640×480ピクセル)を受け付けると、CNN200を用いて物体領域201a及び201bと、当該物体領域201a及び201bのヒートマップ(評価値)を、ピッキングツール−1〜ピッキングツール−n毎に算出する。以下、物体領域201a及び201bを区別しない場合は、単に物体領域201という。
ヒートマップの各ピクセルは、ピクセル位置に対応する世界座標系の位置でピッキングする際の姿勢(Rot,Rot,Rot)(世界座標系におけるrow角度、pitch角度とyaw角度)と、把持しやすさとを示す。ここでは、Rot,Rot及びRotは、それぞれ世界座標系のXYZ軸に対する回転量を示す。また、把持しやすさは、ロボット物理制約、周囲物体との干渉条項、及び、ピッキング安全性などのいずれかまたは複合的に考慮される。
図8は実施形態の評価方式更新部322の機能構成及び動作例を示す図である。実施形態の評価方式更新部322は、教師データ生成部330、記憶制御部340、学習DB(Database)350及び訓練部360を備える。教師データ生成部330は、算出部331、候補生成部332及び候補評価部333を備える。訓練部360は、学習部361、損失関数評価部362及びパラメータ更新部363を備える。
評価方式の更新時には、算出部331が、処理部31から画像情報(RGB−D画像)を受け付ける。算出部331は、例えば画像認識技術により、RGB−D画像から物体領域201を算出する。物体領域201は、例えば長方形等によって示される。なお、算出部331は、ユーザから物体領域201の指定を受け付けてもよい。
次に、候補生成部332は、算出部331によって算出された物体領域201によって示された把持対象物を把持する姿勢の候補を、物体領域201のピクセル毎にサンプリングする。姿勢は、例えば上述の世界座標系の姿勢(Rot,Rot,Rot)により表される。
次に、候補評価部333は、候補生成部332によってサンプリングされた姿勢の候補で把持対象物を把持した場合の把持し易さを示すスコアを、ピッキングツール毎に算出する。把持しやすさのスコアは、例えば把持の可能性、安定性及び安全性を考慮した評価項目(下記式(1))によって算出される。
Figure 2021045811
ここでは、dcpチルダは、正規化された把持点から当該把持点を含む面の中心の距離である。denvチルダは、ピッキングツールから周囲干渉物までの正規化された最近傍距離である。dcpチルダが小さいほど、物体の中心に近いので、把持の安定性が高くなる。また、denvチルダが大きいほど、ピッキングツールが壁などの障害物から遠くなるので、把持の安全性が高くなる。
Fは把持時の把持力のスコアである。例えば、大きな面を吸着する際に、複数吸着パットのほうが単一吸着パッドよりも吸着力が大きいので(Fスコアが高い)、より安定的に把持対象物を持てる。一方、吸着パッドが吸着可能な面積より小さな面(例えば細長い物体)を把持する際には、吸着パッドの吸着力は弱くなる(Fスコアが低い)。この場合、二指または多指ピンチングハンドの方が、吸着パッドよりも高い挟持力(Fスコアが高い)を有し、把持対象物をより安定的に挟むことができる。
挟持によって把持する場合には、把持の可能性、安定性及び安全性を考慮した評価項目以外にも、把持対象物に対する挟持ツールの挿入量を、評価項目に用いても良い。把持対象物に対して、より深い位置で挟み込みを行った方が、安定して物体を把持することが出来る。
記憶制御部330は、姿勢の候補から評価値がより大きくなる姿勢を選択し、選択された姿勢と選択された姿勢の評価値とを物体領域201の各ピクセルにより示すヒートマップとを教師データとして生成し、教師データとRGB−D画像とが関連付けられた学習データセットを学習DB350(記憶部)に記憶する。
図9は実施形態の学習データセットの例を示す図である。実施形態の学習データセットは、RGB−D画像と教師データとを含む。RGB−D画像は、様々な位置に配置された把持対象物を撮像することにより得られる。教師データは、ピッキングツール毎に算出された上述のヒートマップである。
図8に戻り、学習部361は、学習データセットを用いて、CNNによって物体領域201とヒートマップとを算出する。具体的には、学習部361は、学習DB350からRGB−D画像を読み出し、当該RGB−D画像に含まれる各把持対象物の物体領域201、及び、各ピッキング方式(各ツール)の把持容易性の評価値を示すヒートマップを算出し、当該ヒートマップを損失関数評価部362に入力する。
損失関数評価部362は、学習DB350から、RGB−D画像に関連付けられた教師データを読み出し、学習部361からヒートマップを受け付ける。損失関数評価部362は、教師データと、学習部361から受け付けたヒートマップに対し、損失関数を用いることで、学習部361の出力を評価する。
パラメータ更新部363は、損失関数の値がより小さくなるようにCNNのパラメータを更新する。損失関数は、例えば下記式(2)により定義される。
Figure 2021045811
rotは、姿勢の評価項目、Lobjは、物体領域201の評価項目、Lgraspabilityは把持しやすさの評価項目である。
評価方式の更新処理は、例えば新しいRGB−D画像が計画部32に入力されるたびに実施してもよい。また例えば、事前に複数(大量)のRGB−D画像を学習DB350に記憶し、複数のRGB−D画像を用いて、評価方式を更新しても良い。
また例えば、通常のピッキング実施時には、RGB−D画像の保存のみ行い、評価方針の更新処理は実施しなくてもよい。具体的には、通常のピッキング実施時(オンライン時)には、評価方式の更新処理を実施せず、評価方式の更新処理はオフライン時に行ってもよい。これによりピッキングの効率向上と高速な処理とを両立することが可能となる。
なお、評価方式の更新処理に用いられる画像は、上述のRGB−D画像に限られず任意でよい。例えば、評価方式の更新処理に用いられる画像は、実際のピッキングの現場環境で得られた画像データでも良いし、シミュレータで構築した環境から得られた画像データでも良い。シミュレータで画像データを取得する場合には、把持対象物を収納するビンのモデルに把持対象物モデル群を乱雑に置き、バラ積みの配置状態を生成する。ビンの上方から、無作為に対象物をビンに投入することで、バラ積みの配置状態を生成することが出来る。
図10は実施形態の行動方式生成部323の処理例を示す図である。行動方式生成部323は、画像と、複数の行動方式(第1行動方式)の評価値とに基づいて、行動方式(第2行動方式)を生成する。具体的には、行動方式生成部323は、上述のRGB−D画像とヒートマップとに基づき、ピッキング動作の行動方式を生成する。行動方式の生成に使用されるアルゴリズムは、複数の行動の順序の評価、及び、複数の行動の累積的な評価が可能な強化学習、機械学習及び最適化のようなアルゴリズムであれば良い。図10の例は、DQN(Deep Q−Network)300を用いて最適な行動方式を生成する場合を示す。行動方式生成部323は、RGB−D画像と、各ツール−1〜nのヒートマップとをDQN300に入力し、より大きい累積報酬を獲得できる行動方式を出力する。累積報酬は、例えばDQN300により行動を生成し、複数回の把持動作によって、把持できる把持対象物の個数の和である。図10の例では、DQN300から出力される行動方式を示す情報は、把持時のツールを選択する情報(図10ではツール1)、並びに、把持位置及び把持姿勢の情報を有する領域202を含む。
図11は実施形態の行動方式更新部324の機能構成及び動作例を示す図である。実施形態の行動方式更新部324は、報酬算出部371、価値算出部372及び更新部373を備える。
まず、行動方式生成部323が、把持対象物の現在の配置状態Sに対して、現在の観測状態yに基づき、後述のπθによって行動方式(第2行動方式)を生成し、マニピュレータ1を含むロボット(ハンドリング装置)に把持動作をさせる。
次に、報酬算出部371が、報酬を算出し、価値評価部372が、累積報酬(価値)を算出し、更新部373が、価値を最大化する行動方式のパラメータを更新する。
以下、数式(3)〜(7)を用いて、行動方式更新部324(報酬算出部371、価値算出部372及び更新部373)の処理について具体的に説明する。
現在の配置状態S(S=t)は、マニュピレータ1が、t回目の把持行動をする際のビン(物品コンテナ101)内の把持対象物の配置情報を示す。把持対象物の配置情報は、例えば把持対象物の形状等の幾何的な情報、把持対象物の位置及び姿勢を含む。
現在の観測状態yは、下記式(3)により表される。
Figure 2021045811
ここで、MRGB−Dは、上述のRGB−D画像の行列である。MHiはi番目のピッキングツールのヒートマップの行列である。
行動方式uは、下記式(4)により表される。
Figure 2021045811
ここで、iは、ピッキングツールを識別するツール番号を示す。Posは、i番目のピッキングツールで把持する際の目標位置を示す。Rotは、i番目のピッキングツールで把持する際の姿勢を示す。πθは、把持の行動方式(DQNとみなす)を示す。θは、DQNのパラメータを示す。
報酬Rは、下記式(5)により表される。
Figure 2021045811
行動方式uによる把持動作が成功すれば、報酬Rは1となり、行動方式uによる把持動作が失敗すれば、報酬Rは0となる。把持動作の成功及び失敗は、例えば実機のセンサ情報からの成功又は失敗を示すフィードバック、または、シミュレータ内の動作シミュレーションの結果により判断される。
行動方式生成部323は、現在の観測状態yに基づき、πθによる行動方式uを生成する。報酬算出部371は、報酬Rを算出する。価値算出部372は、配置状態Sから配置状態ST−1までの累積報酬の期待値Vを、下記式(6)により算出する。
Figure 2021045811
更新部373は、累積報酬の期待値Vをより大きくするために、DQNのパラメータθを、下記式(7)を目標関数として更新することにより、行動方式(第2行動方式)を更新する。
Figure 2021045811
ここで、θはDQNのパラメータ空間を示す。
図12は実施形態のハンドリング方法の例を示すフローチャートである。はじめに、計画部32が、評価方式及び行動方式の更新が必要か否かを判定する(ステップS1)。更新が必要な場合は、例えばハンドリング装置(マニピュレータ1、筐体2及びコントローラ3)の出荷前である。また例えば、更新が必要な場合は、目的とするハンドリング作業の入れ替えなどが行われる場合、及び、これまでのハンドリング作業の性能が不十分だった場合などである。
更新が必要な場合(ステップS1,Yes)、評価方式更新部322が、評価方式を更新する(ステップS2)。具体的には、まず、処理部31が、実際のピッキングの現場である環境またはシミュレータで構築した環境から得られたRGB−D画像の形式を、評価方式更新部322で使用される形式に変換する。教師データ生成部330が、RGB−D画像から、上述の教師データを生成し、RGB−D画像と教師データとを学習DB350に記憶する。そして、学習部361が、学習DB350のRGB−D画像を読み出し、現在の行動方式により、物体領域201の位置と、各ピッキング方式の把持しやすさのヒートマップとを算出する。パラメータ更新部363が、学習部361の出力と教師データの真値との差を評価する損失関数の値がより小さくなるように、CNNのパラメータを更新する。
次に、行動方式更新部324が、行動方式を更新する(ステップS3)。具体的には、行動方式生成部323が、RGB−D画像と、ピッキングツール毎のヒートマップとに基づき、現在のアイテム配置状態に対して、現在の行動方式による把持動作を生成する。制御部33が、マニピュレータ1を含むピッキング装置にピッキング動作をさせた後(又はシミュレータ内の動作シミュレーションをさせた後)、報酬算出部371が、報酬を算出する。価値評価部372は、把持動作の生成を複数回行った後、累積報酬の期待値を算出する。そして、更新部373が、累積報酬の期待値がより大きくなるように、行動方式のパラメータを更新する。
次に、制御部33が、RGB−D画像と、ピッキングツール毎のヒートマップとに基づき、現在のアイテム配置状態に対して、現在の行動方式による、より大きい累積報酬を獲得できるような把持動作を生成し、マニピュレータ1を含むピッキング装置を制御する(ステップS4)。
次に、計画部32が、ハンドリング処理が完了しているか否かを判定する(ステップS5)。ハンドリング処理を完了していない場合には(ステップS5,No)、ステップS1の処理に戻り、ハンドリング処理を完了している場合には(ステップS5,Yes)、処理を終了する。
以上、説明したように、実施形態のハンドリング装置(マニピュレータ1、筐体2及びコントローラ3)では、評価部321が、1以上の把持対象物を含む画像に基づいて、把持対象物を把持する第1行動方式の評価値を算出する。行動方式生成部323が、画像と、複数の第1行動方式の評価値とに基づいて、第2行動方式を生成する。そして、制御部33が、第2行動方式に従って、把持対象物を把持する動作を制御する。
これにより実施形態によれば、効率的なピッキング作業を実現することができる。例えば、多数の把持対象物のどれを先に取るか、その把持対象物のどの部分を、どのピッキングツールを用いて把持するかを適切に決定しながら、把持動作を制御できる。
(変形例)
次に、実施形態の変形例について説明する。上述の実施形態では、行動が把持である場合について説明を行ったが、把持以外にも箱詰め等の動作に上述のコントローラ3を適用してもよい。例えば、箱詰め動作の際には、評価部321は、RGB−D画像に基づき、各対象物の物体領域、及び、各把持方式(各ツール)の箱詰め容易性の評価値(箱詰めのしやすさのヒートマップ)を算出する。ここでは、ヒートマップの各ピクセルは、ピクセル位置の世界座標系に対する位置で箱詰めする際の姿勢と把持しやすさの情報を含む。
行動方式生成部323は、RGB−D画像と各ツールの箱詰めしやすさを示すヒートマップとに基づき、現在のアイテム配置に対して、より大きな累積報酬を獲得できる行動方式を生成する。ここでは、より大きな累積報酬は将来的に箱詰めできる物体の個数の和、箱詰め時間、及び、箱詰め成功率などのいずれかまたは複合的に考慮した報酬である。行動方式更新部324は、より大きな累積報酬を獲得できるように、行動方式のパラメータを更新する。
なお、把持、及び、箱詰め以外にも、組み立てのしやすさや複数の物体の組み立ての成功や時間を評価することで、組み立て動作等に、上述のコントローラ3を適用してもよい。また、評価部321は、把持と箱詰めをと統合した指標で評価を行ってもよいし、把持と箱詰めの間の搬送動作を更に考慮した指標で評価を行ってもよい。
最後に、実施形態のコントローラ3のハードウェア構成の例を示す図の例について説明する。
[ハードウェア構成の例]
図13は実施形態のコントローラ3のハードウェア構成の例を示す図のハードウェア構成の例を示す図である。コントローラ3は、制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306を備える。制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306は、バス310を介して接続されている。
なお、表示装置304、入力装置305及び通信装置306は備えていなくてもよい。例えば、コントローラ3が他の装置と接続される場合、当該他の装置の表示機能、入力機能及び通信機能を利用してもよい。
制御装置301は補助記憶装置303から主記憶装置302に読み出されたプログラムを実行する。制御装置301は、例えばCPU等の1以上のプロセッサである。主記憶装置302はROM(Read Only Memory)、及び、RAM等のメモリである。補助記憶装置303はメモリカード、及び、HDD(Hard Disk Drive)等である。
表示装置304は情報を表示する。表示装置304は、例えば液晶ディスプレイである。入力装置305は、情報の入力を受け付ける。入力装置305は、例えばハードウェアキー等である。なお表示装置304及び入力装置305は、表示機能と入力機能とを兼ねる液晶タッチパネル等でもよい。通信装置306は他の装置と通信する。
コントローラ3で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R、及び、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータ・プログラム・プロダクトとして提供される。
またコントローラ3で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。またコントローラ3が実行するプログラムを、ダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
またコントローラ3で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
コントローラ3で実行されるプログラムは、コントローラ3の機能のうち、プログラムにより実現可能な機能を含むモジュール構成となっている。
プログラムにより実現される機能は、制御装置301が補助記憶装置303等の記憶媒体からプログラムを読み出して実行することにより、主記憶装置302にロードされる。すなわちプログラムにより実現される機能は、主記憶装置302上に生成される。
なおコントローラ3の機能の一部を、IC等のハードウェアにより実現してもよい。ICは、例えば専用の処理を実行するプロセッサである。
また複数のプロセッサを用いて各機能を実現する場合、各プロセッサは、各機能のうち1つを実現してもよいし、各機能のうち2つ以上を実現してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 マニュピレータ
2 筐体
3 コントローラ
4 センサ支持部
5 物品コンテナ用センサ
6 把持物品計測用センサ
7 集荷コンテナ用センサ
8 一時置場用センサ
9 物品コンテナ引き込み部
10 物品コンテナ用重量計
11 集荷コンテナ引き込み部
12 集荷用重量計
13 軸
14 ピッキングツール部
15 ロボット統合管理システム
21 力センサ
22 屈曲軸
23 吸着パッド
24 挟持機構
31 処理部
32 計画部
33 制御部
200 CNN
300 DQN
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信装置
310 バス
321 評価部
322 評価方式更新部
323 行動方式生成部
324 行動方式更新部
330 教師データ生成部
331 算出部
332 候補生成部
333 候補評価部
340 記憶制御部
350 学習DB
360 訓練部
361 学習部
362 損失関数評価部
363 パラメータ更新部
371 報酬算出部
372 価値評価部
373 更新部

Claims (10)

  1. 1以上の把持対象物を含む画像に基づいて、前記把持対象物を把持する第1行動方式の評価値を算出する評価部と、
    前記画像と、複数の前記第1行動方式の評価値とに基づいて、第2行動方式を生成する行動方式生成部と、
    前記第2行動方式に従って、前記把持対象物を把持する動作を制御する制御部と、
    を備えるハンドリング装置。
  2. 前記評価部は、前記画像から前記把持対象物の物体領域を算出し、前記物体領域によって示された前記把持対象物の把持容易性を示すスコアにより、前記評価値を算出する、
    を備える請求項1に記載のハンドリング装置。
  3. 前記画像を取得するセンサと、
    前記画像の画像形式を、前記評価部で使用される画像形式に変換する処理部と、
    を更に備える請求項1に記載のハンドリング装置。
  4. 前記第2行動方式は、ピッキングツールを識別する識別情報と、前記ピッキングツールによる把持位置姿勢とを含み、
    前記制御部は、前記識別情報により識別される前記ピッキングツールを使用して、前記把持位置姿勢に従って、前記把持対象物を把持する動作を制御する、
    請求項1に記載のハンドリング装置。
  5. 前記評価部は、CNN(Convolutional Neural Network)を用いて前記評価値を算出し、
    前記CNNの損失関数の値がより小さくなるようにして、前記CNNのパラメータを更新することにより、前記評価値の評価方式を更新する評価方式更新部、
    を更に備える請求項4に記載のハンドリング装置。
  6. 前記評価方式更新部は、
    前記画像から前記把持対象物の物体領域を算出する算出部と、
    前記物体領域によって示された前記把持対象物を把持する姿勢の候補を、前記物体領域のピクセル毎にサンプリングする候補生成部と、
    前記姿勢の候補による把持容易性を示すスコアを前記ピッキングツール毎に算出する候補評価部と、を備え、
    前記姿勢の候補から前記評価値がより大きくなる姿勢を選択し、選択された姿勢と前記選択された姿勢の評価値とを前記物体領域の各ピクセルにより示すヒートマップとを教師データとして生成し、前記教師データと前記画像とが関連付けられた学習データセットを記憶部に記憶する記憶制御部とを更に備える、
    請求項5に記載のハンドリング装置。
  7. 前記評価方式更新部は、
    前記学習データセットを用いて、前記CNNによって前記物体領域と前記ヒートマップとを算出する学習部と、
    前記CNNの損失関数の値がより小さくなるようにして、前記CNNのパラメータを更新するパラメータ更新部を更に備える、
    請求項6に記載のハンドリング装置。
  8. 前記行動方式生成部は、前記画像と、前記複数の第1行動方式の評価値とに基づいて定まる現在の観測状態から、DQN(Deep Q−Network)を用いて、より大きい累積報酬の期待値を得られる行動方式を、前記第2行動方式として生成し、
    前記累積報酬の期待値がより大きくなるようにして、前記DQNのパラメータを更新することにより、前記第2行動方式を更新する行動方式更新部、
    を更に備える請求項1に記載のハンドリング装置。
  9. 1以上の把持対象物を含む画像に基づいて、前記把持対象物を把持する第1行動方式の評価値を算出するステップと、
    前記画像と、複数の前記第1行動方式の評価値とに基づいて、第2行動方式を生成するステップと、
    前記第2行動方式に従って、前記把持対象物を把持する動作を制御するステップと、
    を含むハンドリング方法。
  10. コンピュータを、
    1以上の把持対象物を含む画像に基づいて、前記把持対象物を把持する第1行動方式の評価値を算出する評価部と、
    前記画像と、複数の前記第1行動方式の評価値とに基づいて、第2行動方式を生成する行動方式生成部と、
    前記第2行動方式に従って、前記把持対象物を把持する動作を制御する制御部、
    として機能させるためのプログラム。
JP2019169019A 2019-09-18 2019-09-18 ハンドリング装置、ハンドリング方法及びプログラム Active JP7021160B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019169019A JP7021160B2 (ja) 2019-09-18 2019-09-18 ハンドリング装置、ハンドリング方法及びプログラム
US16/803,536 US11565408B2 (en) 2019-09-18 2020-02-27 Object manipulation apparatus, handling method, and program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019169019A JP7021160B2 (ja) 2019-09-18 2019-09-18 ハンドリング装置、ハンドリング方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021045811A true JP2021045811A (ja) 2021-03-25
JP7021160B2 JP7021160B2 (ja) 2022-02-16

Family

ID=74869268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019169019A Active JP7021160B2 (ja) 2019-09-18 2019-09-18 ハンドリング装置、ハンドリング方法及びプログラム

Country Status (2)

Country Link
US (1) US11565408B2 (ja)
JP (1) JP7021160B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022179118A (ja) * 2021-05-21 2022-12-02 株式会社Preferred Networks 把持推定装置、モデル生成方法、モデル学習装置、及びグリッパ
US11691275B2 (en) 2020-09-16 2023-07-04 Kabushiki Kalsha Toshiba Handling device and computer program product

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11645498B2 (en) * 2019-09-25 2023-05-09 International Business Machines Corporation Semi-supervised reinforcement learning
TWI790408B (zh) * 2019-11-19 2023-01-21 財團法人工業技術研究院 抓取裝置及抓取方法
US20220152824A1 (en) * 2020-11-13 2022-05-19 Armstrong Robotics, Inc. System for automated manipulation of objects using a vision-based collision-free motion plan
CN112938557A (zh) * 2021-04-23 2021-06-11 青岛前丰国际帽艺股份有限公司 一种用于制帽自动化产线设备上的取料机构
EP4396111A2 (en) * 2021-08-30 2024-07-10 Photoneo S.R.O System and method for warehouse operation and automatic order fulfillment
CN114986486B (zh) * 2022-06-15 2023-07-04 中迪机器人(盐城)有限公司 一种夹取机器人的自动化夹取控制系统及方法
EP4401049A1 (en) * 2023-01-12 2024-07-17 Siemens Aktiengesellschaft Runtime assessment of suction grasp feasibility
CN116616045B (zh) * 2023-06-07 2023-11-24 山东农业工程学院 一种基于植物生长的采摘方法及采摘系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014180704A (ja) * 2013-03-18 2014-09-29 Yaskawa Electric Corp ロボットピッキングシステム及び被加工物の製造方法
JP2018190241A (ja) * 2017-05-09 2018-11-29 オムロン株式会社 タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法
JP2019048365A (ja) * 2017-09-12 2019-03-28 ファナック株式会社 機械学習装置、ロボットシステム及び機械学習方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6823502B2 (ja) * 2017-03-03 2021-02-03 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6889574B2 (ja) * 2017-03-03 2021-06-18 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
EP3612985A4 (en) * 2017-04-20 2020-12-23 HRL Laboratories, LLC MACHINE VIEWING SYSTEM FOR DIFFERENT LOCATION OF OBJECTS
JP7045139B2 (ja) 2017-06-05 2022-03-31 株式会社日立製作所 機械学習装置、機械学習方法、および機械学習プログラム
US20200019864A1 (en) * 2018-07-11 2020-01-16 Deepbrain Chain, Inc. Systems and methods for artificial-intelligence-based automated object identification and manipulation
JP6806746B2 (ja) * 2018-09-21 2021-01-06 ファナック株式会社 モータ制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014180704A (ja) * 2013-03-18 2014-09-29 Yaskawa Electric Corp ロボットピッキングシステム及び被加工物の製造方法
JP2018190241A (ja) * 2017-05-09 2018-11-29 オムロン株式会社 タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法
JP2019048365A (ja) * 2017-09-12 2019-03-28 ファナック株式会社 機械学習装置、ロボットシステム及び機械学習方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11691275B2 (en) 2020-09-16 2023-07-04 Kabushiki Kalsha Toshiba Handling device and computer program product
JP2022179118A (ja) * 2021-05-21 2022-12-02 株式会社Preferred Networks 把持推定装置、モデル生成方法、モデル学習装置、及びグリッパ
JP7512231B2 (ja) 2021-05-21 2024-07-08 株式会社Preferred Networks 装置、モデル生成方法、モデル学習装置、プログラム、方法、およびシステム

Also Published As

Publication number Publication date
US11565408B2 (en) 2023-01-31
JP7021160B2 (ja) 2022-02-16
US20210078170A1 (en) 2021-03-18

Similar Documents

Publication Publication Date Title
JP7021160B2 (ja) ハンドリング装置、ハンドリング方法及びプログラム
CN110370279B (zh) 具有物体识别和处理机制的机器人系统及其操作方法
JP6807949B2 (ja) 干渉回避装置
US11905116B2 (en) Controller and control method for robot system
US11446816B2 (en) Robotic systems and methods for robustly grasping and targeting objects
US20190270200A1 (en) Robot Work System and Method of Controlling Robot Work System
JP6057862B2 (ja) 部品供給装置および部品供給装置のプログラム生成方法
JP2022145915A (ja) 推論方法、推論プログラム、推論装置、学習方法、学習プログラム、学習装置およびモデル生成方法
US20210260762A1 (en) Controller and control method for robotic system
US20200139545A1 (en) Route Outputting Method, Route Outputting System and Route Outputting Program
US10828778B2 (en) Method for operating a robot
JP2019188580A (ja) 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体
US20210129319A1 (en) Controller, control method, and computer program product
WO2020012712A1 (ja) 把持姿勢評価装置及び把持姿勢評価プログラム
EP3925910A1 (en) Handling system and control method
JP2024072129A (ja) 計算機システム及びロボットの制御方法
US20240227190A9 (en) Robotic system
JP2024019852A (ja) ハンドリング装置、ハンドリング方法及びプログラム
JP2022049486A (ja) ハンドリング装置及びプログラム
US20220324099A1 (en) Control device, control method, and robot system
Leitner et al. Designing Cartman: a cartesian manipulator for the Amazon Robotics Challenge 2017
JP2024120216A (ja) ハンドリング装置、ハンドリング方法及びプログラム
US20240198526A1 (en) Auto-generation of path constraints for grasp stability
US20220388787A1 (en) Handling system, transport system, control device, storage medium, and handling method
Yusuke et al. Adjusting Weight of Action Decision in Exploration for Logistics Warehouse Picking Learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210309

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220203

R151 Written notification of patent or utility model registration

Ref document number: 7021160

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151