JP2023072410A - ピッキングシステム、制御装置、ピッキング方法、プログラム、及び記憶媒体 - Google Patents
ピッキングシステム、制御装置、ピッキング方法、プログラム、及び記憶媒体 Download PDFInfo
- Publication number
- JP2023072410A JP2023072410A JP2021184953A JP2021184953A JP2023072410A JP 2023072410 A JP2023072410 A JP 2023072410A JP 2021184953 A JP2021184953 A JP 2021184953A JP 2021184953 A JP2021184953 A JP 2021184953A JP 2023072410 A JP2023072410 A JP 2023072410A
- Authority
- JP
- Japan
- Prior art keywords
- measurement result
- space
- picking
- shape
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37283—Photoelectric sensor
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39107—Pick up article, object, measure, test it during motion path, place it
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40014—Gripping workpiece to place it in another place
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40607—Fixed camera to observe workspace, object, workpiece, global
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
Abstract
【課題】ピッキング作業の時間を短縮可能な、ピッキングシステム、制御装置、ピッキング方法、プログラム、及び記憶媒体を提供する。【解決手段】実施形態に係るピッキングシステムは、ピッキングロボットと、制御装置と、を備える。ピッキングロボットは、ロボットハンドを用いて、第1空間から第2空間へ物体を移載する。制御装置は、ピッキングロボットを制御する。制御装置は、第1空間の物体の第1方向における形状に関する第1計測結果を取得すると、第1計測結果に基づいて第2空間に物体を配置する際の位置候補を算出する第1計算を実行する。さらに、制御装置は、物体へのロボットハンドの作用中に、第1方向と交差する第2方向における物体の形状に関する第2計測結果を取得すると、第2計測結果及び位置候補に基づき、第2空間に物体を配置する際のロボットハンドの位置を算出する第2計算を実行する。【選択図】図1
Description
本発明の実施形態は、ピッキングシステム、制御装置、ピッキング方法、プログラム、及び記憶媒体に関する。
物体を移載するピッキングシステムがある。ピッキングシステムについて、ピッキング作業に要する時間を短縮できる技術が求められている。
本発明が解決しようとする課題は、ピッキング作業の時間を短縮可能な、ピッキングシステム、制御装置、ピッキング方法、プログラム、及び記憶媒体を提供することである。
実施形態に係るピッキングシステムは、ピッキングロボットと、制御装置と、を備える。前記ピッキングロボットは、ロボットハンドを用いて、第1空間から第2空間へ物体を移載する。前記制御装置は、前記ピッキングロボットを制御する。前記制御装置は、前記第1空間の物体の第1方向における形状に関する第1計測結果を取得すると、前記第1計測結果に基づいて前記第2空間に前記物体を配置する際の位置候補を算出する第1計算を実行する。さらに、前記制御装置は、前記物体への前記ロボットハンドの作用中に、前記第1方向と交差する第2方向における前記物体の形状に関する第2計測結果を取得すると、前記第2計測結果及び前記位置候補に基づき、前記第2空間に前記物体を配置する際の前記ロボットハンドの位置を算出する第2計算を実行する。
以下に、本発明の各実施形態について図面を参照しつつ説明する。
図面は模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。
本願明細書と各図において、既に説明したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
図面は模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。
本願明細書と各図において、既に説明したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
図1は、実施例に係るピッキングシステムを示す模式図である。
実施例に係るピッキングシステム1は、図1に示すように、ピッキングロボット10、第1計測器21、第2計測器22、第3計測器23、及び制御装置30を備える。
実施例に係るピッキングシステム1は、図1に示すように、ピッキングロボット10、第1計測器21、第2計測器22、第3計測器23、及び制御装置30を備える。
ここでは、実施形態の説明のために、X方向、Y方向(第2方向)、及びZ方向(第1方向)を用いる。X方向及びY方向は、互いに交差する。Z方向は、X-Y平面(第1平面)と交差する。例えば、X方向及びY方向は、水平面に平行である。Z方向は、鉛直方向に平行である。
ピッキングロボット10は、第1容器41内の第1空間SP1に配置された物体を、第2容器42内の第2空間SP2へ移載する。より具体的には、第1容器41は、Z方向に面した第1開口OP1を有する。第2容器42は、Z方向に面した第2開口OP2を有する。ピッキングロボット10は、第1開口OP1を通して物体を第1容器41から取り出し、第2開口OP2を通して物体を第2容器42へ運び入れる。ピッキングロボット10は、ロボットハンド11、ロボットアーム12、及び筐体13を含む。
ロボットハンド11は、物体を保持(安定的に把持)する。例えば、ロボットハンド11は、吸着、挟持、又はジャミングのいずれかにより、物体を保持する。図1の例では、ロボットハンド11は、複数の指11aを含む。複数の指11aで物体を挟持することにより、物体が保持される。ロボットハンド11は、ロボットアーム12に取り付けられる。
ロボットアーム12は、ロボットハンド11を移動させる。図1に示す例では、ロボットアーム12は6自由度を有する垂直多関節ロボットであり、ロボットアーム12の先端にロボットハンド11が取り付けられている。ロボットアーム12は、水平多関節ロボット、直動ロボット、直交ロボット、又はパラレルリンクロボットであっても良い。ロボットアーム12は、垂直多関節ロボット、水平多関節ロボット、直動ロボット、直交ロボット、及びパラレルリンクロボットから選択される2つ以上の組み合わせを含んでも良い。ロボットアーム12は、筐体13に取り付けられる。
筐体13は、ロボットアーム12を支持し、床面に固定される。筐体13内には、モータのような電動アクチュエータを駆動させるための電源装置、流体アクチュエータを駆動させるためのボンベ、タンク、及びコンプレッサー、各種安全機構などが収容されても良い。制御装置30が、筐体13内に収容されても良い。
第1計測器21は、Z方向において、第1空間SP1に配置された物体の形状を計測する。例えば、第1計測器21は、撮影部21aを含む。撮影部21aは、イメージセンサ及び測距センサから選択される1つ又は2つを含むカメラである。撮影部21aは、Z方向において、第1空間SP1の物体を撮影し、画像(静止画)を取得する。撮影部21aが動画を取得し、動画から静止画が切り出されても良い。撮影部21aは、画像を制御装置30へ送信する。
制御装置30は、画像から、物体のZ方向と交差する第1面(上面)の形状を計測する。ピッキングシステム1では、撮影部21a及び制御装置30が、第1計測器21として機能する。第1計測器21による計測結果(第1計測結果)は、各物体の第1面の形状に関する第1形状情報を含む。制御装置30とは別の画像処理装置が撮影部21aに組み込まれ、第1計測器21として用いられても良い。
第2計測器22は、Y方向において、ピッキングロボット10による作用中の物体の形状を計測する。例えば、第2計測器22は、ライトカーテン22aを含む。ライトカーテン22aは、投光部22a1及び受光部22a2を含む。ライトカーテン22aは、Z方向において第1開口OP1と対向するセンシング領域SRを有する。センシング領域SRは、投光部22a1から発せられた光が通過する領域である。ライトカーテン22aは、物体のセンシング領域SRの通過を検出する。ライトカーテン22aは、検出結果を制御装置30へ送信する。
制御装置30は、ライトカーテン22aのZ方向における位置、物体がセンシング領域SRを通過した時刻、当該時刻におけるロボットハンド11のZ方向における位置などから、物体のY方向と交差する第2面(側面)の形状を計測する。ピッキングシステム1では、ライトカーテン22a及び制御装置30が、第2計測器22として機能する。第2計測器22による計測結果(第2計測結果)は、第2面の形状に関する第2形状情報を含む。制御装置30とは別の演算装置がライトカーテン22aと共に設けられ、第2計測器22として用いられても良い。
第2計測器22は、ライトカーテン22aに代えて、レーザレンジファインダなどの測距センサ、又は撮影部を含んでも良い。制御装置30は、測距センサによる測定結果又は画像に基づき、物体のZ方向における長さを計測する。
第3計測器23は、Z方向において、第2空間SP2に配置された物体の形状を計測する。例えば、第3計測器23は、撮影部23aを含む。撮影部23aは、イメージセンサ及び測距センサから選択される1つ又は2つを含むカメラである。撮影部23aは、Z方向において、第2空間SP2を撮影し、画像(静止画)を取得する。撮影部23aが動画を取得し、動画から静止画が切り出されても良い。撮影部23aは、画像を制御装置30へ送信する。
制御装置30は、画像から、第2空間SP2に配置された物体の形状を計測する。ピッキングシステム1では、撮影部23a及び制御装置30が、第3計測器23として機能する。第3計測器23による計測結果(第3計測結果)は、第2空間SP2に配置された物体の三次元形状に関する障害物情報を含む。制御装置30とは別の画像処理装置が撮影部23aに組み込まれ、第3計測器23として用いられても良い。
制御装置30は、上述した計算の他、ピッキングロボット10を制御する。例えば、制御装置30は、ロボットアーム12の各駆動軸を動作させることで、ロボットハンド11を移動させたり、ロボットハンド11の姿勢を調整したりする。また、制御装置30は、ロボットハンド11に物体を保持させたり、物体を解放させたりする。
図2は、制御装置の機能構成を模式的に示すブロック図である。
制御装置30は、統合部31、計測情報処理部32、保持計画生成部33、配置計画生成部34、動作計画生成部35、及びロボット制御装置36を含む。
制御装置30は、統合部31、計測情報処理部32、保持計画生成部33、配置計画生成部34、動作計画生成部35、及びロボット制御装置36を含む。
統合部31は、及び外部インタフェース(I/F)37からのユーザーによる入力情報、上位システムからのピッキング指示の入力、ピッキングシステム1の状態などに基づいて、ピッキングシステム1による作業計画の生成、運用、及び管理を実行する。
計測情報処理部32は、撮影部21a、ライトカーテン22a、及び撮影部23aを制御する。計測情報処理部32は、撮影部21a、ライトカーテン22a、及び撮影部23aから得られた情報を処理し、動作計画や、動作制御、エラー検出等に必要な情報を生成する。計測情報処理部32は、第1計測器21~第3計測器23としての機能の一部を担う。
例えば、計測情報処理部32は、撮影部21aによって撮影された画像をセグメンテーションし、その結果を用いて第1形状情報を生成する。セグメンテーションでは、画像に写る各物品を識別し、画像を1つ以上の領域に分割する。各領域は、物体にそれぞれ対応する。第1形状情報は、第1容器41内の各物体の第1面の形状に関し、第1面のセグメンテーション結果、各物体の第1面のX方向における長さ及びY方向における長さ、X-Y平面における物体の第1面の位置などを含む。長さや位置は、セグメンテーション結果に基づいて算出される。例えば、撮影部21aと各物体との間の距離と、画像中の物体のX方向又はY方向の長さ(画素数)と、に基づき、実際の物体の長さが算出される。同様に、撮影部21aと各物体との間の距離と、画像中の第1面の位置と、に基づいて、X-Y平面における物体の第1面の位置が算出される。
計測情報処理部32は、ライトカーテン22aによる検出結果から、第2形状情報を生成する。第2形状情報は、保持された物体の第2面の少なくとも一部の形状に関する。具体的には、第2形状情報は、第2面の当該少なくとも一部のZ方向における長さ(高さ)を含む。
図3(a)~図3(c)は、第2計測器による計測方法を説明するための模式図である。
図3(a)及び図3(b)を参照して、物体のZ方向における長さの計測方法を説明する。制御装置30は、ロボットアーム12の各関節の角度を所定間隔で記録している。また、ライトカーテン22aは、投光部22a1と受光部22a2との間における遮蔽物の有無を、所定間隔で検出する。
図3(a)及び図3(b)を参照して、物体のZ方向における長さの計測方法を説明する。制御装置30は、ロボットアーム12の各関節の角度を所定間隔で記録している。また、ライトカーテン22aは、投光部22a1と受光部22a2との間における遮蔽物の有無を、所定間隔で検出する。
図3(a)に示すように、ピッキングロボット10が物体を保持する際、投光部22a1から発せられた光Lの少なくとも一部は、ロボットハンド11又はロボットアーム12に遮られ、受光部22a2に入射しない。ピッキングロボット10が物体を上昇させると、図3(b)及び図3(c)に示すように、物体のZ方向における一端(下端)がセンシング領域SRを通過したとき、光Lが受光部22a2に入射するようになる。
ライトカーテン22aは、光Lが遮られていた後に初めて受光部22a2で検出された第2時刻t2を記録する。制御装置30は、第2時刻t2の直前の第1時刻t1におけるロボットアーム12の各関節の角度から、第1時刻におけるロボットハンド11のZ方向における第1位置z1を算出する。例えば、ロボットハンド11の位置として、ロボットハンド11のツールセンターポイント(TCP)の位置が算出される。制御装置30は、第2時刻t2におけるロボットアーム12の各関節の角度から、第2時刻におけるロボットハンド11のZ方向における第2位置z2を算出する。制御装置30は、(z2+z1)/2を、物体がライトカーテン22aのセンシング領域SRを通過したときのロボットハンド11の位置zHとして推定する。制御装置30は、ライトカーテン22aが設けられたZ方向における位置zLを参照する。ライトカーテン22aの位置zLは、予め登録される。制御装置30は、zH-zLを、物体の高さSZとして算出する。
図3(c)に示すように、第2計測器22によって計測される範囲は、物体の第2面の全てでなくても良い。第2計測器22は、TCPと物体の下端との間の長さ(距離)を計測できれば良い。当該長さは、換言すると、ロボットハンド11の先端からの物体の突出量である。当該長さは、TCP以外を基準に算出されても良い。例えば、制御点が、ロボットアーム12の先端に設定される場合、長さは、当該制御点を基準に算出される。ロボットアーム12の一部に対して機械的に固定された点であれば、その点を基準に長さを計測可能である。また、ロボットハンド11の構成によっては、第2計測器22によって計測される突出量は、物体の実際のZ方向における長さと等しくなりうる。例えば、ロボットハンド11が吸着により物体の上面のみを保持する場合には、物体全体のZ方向における長さが、突出量として算出されうる。
計測情報処理部32は、撮影部23aによって撮影された画像から、障害物情報を生成する。障害物情報は、第2空間SP2における各物体のX-Y平面における位置、各物体の上面のZ方向における位置などを含む。
保持計画生成部33は、保持計画を生成する。保持計画は、物体の保持方法、物体を保持するときのロボットアーム12の保持位置、保持姿勢、保持位置に到達するまでの経由点などを含む。
配置計画生成部34は、配置計画を生成する。配置計画は、保持された物体を第2容器42で解放するときのロボットアーム12の配置位置及び配置姿勢、配置位置に到達するまでの経由点などを含む。
動作計画生成部35は、ロボットアーム12の動作情報を生成する。動作情報は、保持動作、搬送動作、及び配置動作に関する情報を含む。保持動作は、ロボットアーム12の先端が保持位置の上方から保持位置および保持姿勢に至るまでの動作である。搬送動作は、ロボットアーム12の先端が保持位置の上方から配置位置の上方までに至る動作である。配置動作は、ロボットアーム12の先端が配置位置の上方から配置位置および配置姿勢に至るまでの動作である。
ロボット制御装置36は、保持計画生成部33、配置計画生成部34、又は動作計画生成部35で生成された情報、統合部31からの各動作切り替え指示等に従って、ピッキングロボット10を含むピッキングシステム1を制御する。
外部I/F37は、統合部31(制御装置30)と外部機器(不図示)との間のデータの入力及び出力を実行する。
図4は、実施形態に係るピッキングシステムによる処理手順を示す模式図である。
統合部31は、外部I/F37よりピッキング指示を受信する(ステップS0)。ピッキング指示は、例えば、上位のホストコンピュータから送信される。統合部31は、計測情報処理部32に、第1容器41の撮影を指示する。計測情報処理部32は、撮影部21aに第1容器41の内部を撮影させ(ステップS1)、第1形状情報を生成する。第1容器41の撮影後、保持計画生成部33は、保持計画を生成する(ステップS2)。並行して、計測情報処理部32は、撮影部23aに第2容器42の内部を撮影させ(ステップS3)、障害物情報を生成する。
統合部31は、外部I/F37よりピッキング指示を受信する(ステップS0)。ピッキング指示は、例えば、上位のホストコンピュータから送信される。統合部31は、計測情報処理部32に、第1容器41の撮影を指示する。計測情報処理部32は、撮影部21aに第1容器41の内部を撮影させ(ステップS1)、第1形状情報を生成する。第1容器41の撮影後、保持計画生成部33は、保持計画を生成する(ステップS2)。並行して、計測情報処理部32は、撮影部23aに第2容器42の内部を撮影させ(ステップS3)、障害物情報を生成する。
保持計画生成部33による保持計画の生成が完了した後、ロボット制御装置36は、生成された保持計画に基づき、保持動作を実行する(ステップS4)。並行して、配置計画生成部34は、保持計画と第2容器42の撮影結果を基に、移載される物体が第2空間SP2に配置される際の位置候補を算出する(ステップS5)。配置計画生成部34は、位置候補の優先度を算出する(ステップS6)。配置計画生成部34は、算出された位置候補及び優先度を保存する。ロボット制御装置36は、保持動作の完了後、搬送動作を実行する(ステップS7)。搬送動作では、保持された物体が持ち上げられ、第2容器42まで搬送される。計測情報処理部32は、搬送動作中に、保持された物体をライトカーテン22aに検出させ(ステップS8)、第2形状情報を生成する。
配置計画生成部34は、第2形状情報及び位置候補を基に、物体を第2容器42内に配置する際のロボットハンド11の位置を算出する(ステップS9)。以降では、物体を第2容器42内に配置する際のロボットハンド11の位置を、「ハンド位置」と呼ぶ。ハンド位置の算出後、ロボット制御装置36は、配置動作を実行する(ステップS10)。配置動作の完了後、指示された数量の物体が移載されたか判断される(ステップS11)。指示された数量の物体が移載されるまで、ステップS1~S10が繰り返される。
図5は、配置計画生成部による処理を示すフローチャートである。
配置計画生成部34は、位置候補算出部34aとハンド位置算出部34bを含む。位置候補算出部34aは、保持計画の生成が完了すると、処理を開始する。位置候補算出部34aは、第1形状情報、障害物情報、及び保持計画に基づき、物体の第2容器42内での位置候補を算出する(ステップS5)。位置候補は、移載される物体が第2容器42内に配置されるときの位置の候補である。続いて、位置候補算出部34aは、それぞれの位置候補の優先度を算出する(ステップS6)。位置候補算出部34aは、位置候補及び優先度を配置計画生成部34内部に保存する。
配置計画生成部34は、位置候補算出部34aとハンド位置算出部34bを含む。位置候補算出部34aは、保持計画の生成が完了すると、処理を開始する。位置候補算出部34aは、第1形状情報、障害物情報、及び保持計画に基づき、物体の第2容器42内での位置候補を算出する(ステップS5)。位置候補は、移載される物体が第2容器42内に配置されるときの位置の候補である。続いて、位置候補算出部34aは、それぞれの位置候補の優先度を算出する(ステップS6)。位置候補算出部34aは、位置候補及び優先度を配置計画生成部34内部に保存する。
ハンド位置算出部34bは、第2計測器22による物体の計測が完了すると、処理を開始する。ハンド位置算出部34bは、位置候補算出部34aによって算出された位置候補と、第2計測器22によって得られた第2形状情報と、を用いて物体のハンド位置を算出する(ステップS9)。また、ハンド位置の算出時、そのハンド位置に対応するロボットハンド11の位置が算出される。その後、動作計画生成部35は、算出されたロボットハンド11の位置に基づき、動作情報を生成する。動作情報に基づく配置動作が実行される。
図6は、位置候補算出部による計算処理を示すフローチャートである。
図6を参照して、位置候補を算出するための位置候補算出部34aによる計算処理(第1計算)を説明する。まず、移載される物体の第1形状情報が取得される(ステップS51)。より具体的には、第1形状情報に含まれる、X-Y平面におけるサイズ及びセグメンテーション結果が取得される。セグメンテーション結果を用いて、平面メッシュデータが生成される(ステップS52)。メッシュデータは、セグメンテーションによって分割された画像の一部を、格子状に区切ることで生成される。生成された平面メッシュデータは、「MESH_OBJ」として保存される。平面メッシュデータは、移載される物体の第1面のX-Y平面における形状を示す。
図6を参照して、位置候補を算出するための位置候補算出部34aによる計算処理(第1計算)を説明する。まず、移載される物体の第1形状情報が取得される(ステップS51)。より具体的には、第1形状情報に含まれる、X-Y平面におけるサイズ及びセグメンテーション結果が取得される。セグメンテーション結果を用いて、平面メッシュデータが生成される(ステップS52)。メッシュデータは、セグメンテーションによって分割された画像の一部を、格子状に区切ることで生成される。生成された平面メッシュデータは、「MESH_OBJ」として保存される。平面メッシュデータは、移載される物体の第1面のX-Y平面における形状を示す。
障害物情報が取得される(ステップS53)。障害物情報を用いて、第2空間SP2における障害物の形状を示す三次元メッシュデータが生成される(ステップS54)。生成された三次元メッシュデータは、「MESH_TOTE」として保存される。
平面メッシュデータ及び三次元メッシュデータを用いて、保持された物体が配置される位置の候補が探索される(ステップS56)。探索方法として、例えば、グリッドサーチ、二分探索木、又はMonte Carlo Tree Search(MCTS)が用いられる。第2容器42に多くの物体が配置されている又は第2容器42が過度に小さいなどでなければ、通常、複数の位置候補が得られる。好ましくは、配置されうる全ての位置が、位置候補として算出される。位置候補の計算時間の短縮のために、算出される位置候補の数が予め規定されても良い。その場合、位置候補算出部34aは、規定数の位置候補が算出されると、探索を終了する。
それぞれの位置候補の優先度が算出される(ステップS6)。位置候補算出部34aは、位置候補及び優先度を保存する。
図7は、位置候補算出部による位置候補の探索方法を示すフローチャートである。
図7において、X0は、X方向における第2容器42の原点座標を示す。Y0は、Y方向における第2容器42の原点座標を示す。Z0は、Z方向における第2容器42の原点座標を示す。例えば、第2容器42の底面のZ方向における位置が、Z0として設定される。例えば、第2容器42の四隅のいずれかが、X-Y平面における原点位置に設定される。第2容器42の底面が、Z方向における原点位置に設定される。SXは、X方向における第2容器42の長さである。SYは、Y方向における第2容器42の長さである。SZは、Z方向における第2容器42の長さである。SX、SY、及びSZは、予め設定される。
図7において、X0は、X方向における第2容器42の原点座標を示す。Y0は、Y方向における第2容器42の原点座標を示す。Z0は、Z方向における第2容器42の原点座標を示す。例えば、第2容器42の底面のZ方向における位置が、Z0として設定される。例えば、第2容器42の四隅のいずれかが、X-Y平面における原点位置に設定される。第2容器42の底面が、Z方向における原点位置に設定される。SXは、X方向における第2容器42の長さである。SYは、Y方向における第2容器42の長さである。SZは、Z方向における第2容器42の長さである。SX、SY、及びSZは、予め設定される。
まず、X0が、変数Xに代入される(ステップS56a)。変数Xが、X0+SXを超えないか判断される(ステップS56b)。すなわち、探索されるX座標が、第2容器42の外に位置していないか判断される。変数XがX0+SXを超える場合、探索は終了する。変数XがX0+SXを超えない場合、Y0が、変数Yに代入される(ステップS56c)。変数Yが、Y0+SYを超えないか判断される(ステップS56d)。すなわち、探索されるY座標が、第2容器42の外に位置していないか判断される。変数YがY0+SYを超える場合、現在の変数XにΔXが加算された値が、変数Xに代入される(ステップS56e)。ステップS56bが再度実行される。すなわち、探索されるX座標が、X方向に僅かにシフトされる。
ステップS56dにおいて、変数YがY0+SYを超えない場合、Z0+SZが、変数Zに代入される(ステップS56f)。ステップS56f完了時点の変数X、変数Y、及び変数Zが、MESH_OBJの座標(X,Y,Z)として設定される(ステップS56g)。MESH_OBJは、移載される物体の平面メッシュデータである。MESH_OBJの座標(X,Y,Z)が、MESH_TOTEと交差するか判断される(ステップS56h)。MESH_TOTEは、第2容器42内の三次元メッシュデータである。ステップS56hでは、座標(X,Y,Z)に物体を配置したときに、物体の底面が、障害物(別の物体又は第2容器42の底面又は側面)と接触するか判断される。
座標(X,Y,Z)がMESH_TOTEと交差しない場合、現在の変数ZにΔZを減算した値が、変数Zに代入される(ステップS56i)。ステップS56gが再度実行される。すなわち、配置される物体の底面が、障害物と接触するまで、Z方向における位置の下降が繰り返される。座標(X,Y,Z)がMESH_TOTEと交差する場合、その座標(X,Y,Z)が、位置候補として保存される(ステップS56j)。保存された位置候補の優先度が算出される(ステップS6)。優先度が算出されると、現在の変数YにΔYが加算された値が、変数Yに代入される(ステップS56k)。その後、ステップS56dが再度実行される。
優先度の算出方法は、重視する配置の基準に応じて任意に設定可能である。一例として、物体は、第2容器42の隅又は底面から優先的に配置される。この場合、優先度を示すスコアScは、以下の数式1により算出される。当該式において、a、b、及びcは、重み係数である。X、Y、及びZは、それぞれ、X方向、Y方向、及びZ方向における位置候補の座標である。X0及びY0は、優先的に配置したい隅のX-Y平面における座標である。X1及びY1は、座標(X0,Y0)の隅と対角に位置する隅のX-Y平面における座標である。スコアScが大きいほど、優先度が高いことを示す。
図7に示す例では、位置候補が算出されるたびに、優先度が算出される例を説明した。優先度は、複数の位置候補が算出された後に、それぞれの位置候補について算出されても良い。
図8は、ハンド位置算出部による処理の概略を示すフローチャートである。
図8を参照して、ハンド位置を算出するためのハンド位置算出部34bによる計算処理(第2計算)を説明する。まず、第2形状情報が取得され、物体のZ方向における突出量(SZ_OBJ)が設定される(ステップS90)。第2容器42内の障害物情報を示す三次元メッシュデータ「MESH_TOTE」が取得される(ステップS91)。MESH_TOTEとして、位置候補算出部34aによって生成された三次元メッシュデータが利用されても良いし、新たに三次元メッシュデータが生成されても良い。
図8を参照して、ハンド位置を算出するためのハンド位置算出部34bによる計算処理(第2計算)を説明する。まず、第2形状情報が取得され、物体のZ方向における突出量(SZ_OBJ)が設定される(ステップS90)。第2容器42内の障害物情報を示す三次元メッシュデータ「MESH_TOTE」が取得される(ステップS91)。MESH_TOTEとして、位置候補算出部34aによって生成された三次元メッシュデータが利用されても良いし、新たに三次元メッシュデータが生成されても良い。
ロボットハンド11による物体の実際の保持位置を保持結果から取得する(ステップS92)。ハンドの形状をメッシュデータ「MESH_HAND」で取得する(ステップS93)。取得したメッシュデータは、ロボットハンド11による物体の実際の保持位置を基準に配置される。例えば、メッシュデータ「MESH_HAND」は、予め用意される。メッシュデータ「MESH_HAND」は、撮影部21aにより取得された画像に基づいて生成されても良い。位置候補算出部34aにより算出された位置候補、SZ_OBJ、三次元メッシュデータ「MESH_TOTE」、及びメッシュデータ「MESH_HAND」を用いて、ハンド位置が決定される(ステップS94)。
図9は、ハンド位置算出部による処理を示すフローチャートである。
図9を参照して、図8に示すフローチャートにおけるステップS94の詳細を説明する。まず、位置候補算出部34aによって算出された1つ以上の位置候補から、1つの位置候補が抽出される(ステップS94a)。ステップS94aでは、優先度の高い位置候補から順番に抽出される。抽出された位置候補が、移載される物体の底面の座標(X_OBJ、Y_OBJ、及びZ_OBJ)として設定される(ステップS94b)。
図9を参照して、図8に示すフローチャートにおけるステップS94の詳細を説明する。まず、位置候補算出部34aによって算出された1つ以上の位置候補から、1つの位置候補が抽出される(ステップS94a)。ステップS94aでは、優先度の高い位置候補から順番に抽出される。抽出された位置候補が、移載される物体の底面の座標(X_OBJ、Y_OBJ、及びZ_OBJ)として設定される(ステップS94b)。
座標(X_OBJ、Y_OBJ、及びZ_OBJ)の具体的な設定方法の一例を説明する。ステップS92で取得された、X-Y平面内におけるロボットハンド11の実際の保持位置を、(X_GTCP,Y_GTCP)とする。第1容器41での物体の座標を(X_GOBJ,Y_GOBJ)とする。この場合、ロボットハンド11の保持位置と物体の位置との相対位置は、(X_REL,Y_REL)=(X_GOBJ-X_GTCP,Y_GOBJ-Y_GTCP)となる。物体の位置候補が(X_C,Y_C,Z_C)のとき、相対位置を考慮した物体の座標は、配置時のハンド位置候補は、(X_OBJ,Y_OBJ,Z_OBJ)=(X_C-X_REL,Y_C-Y_REL,Z_C)となる。
底面のZ座標Z_OBJに、物体のZ方向における突出量SZ_OBJを足し合わせた値を、「Z_TCP」として設定する(ステップS94c)。Z_TCPは、ロボットハンド11のTCPのZ方向における位置を示す。座標(X_OBJ、Y_OBJ、及びZ_TCP)の上にMESH_HANDを配置した場合に、MESH_HANDがMESH_TOTEと交差するか判断される(ステップS94d)。
MESH_HANDがMESH_TOTEと交差する場合、Z_TCPにΔZが加算された値が、新たなZ_TCPとして設定される(ステップS94e)。ステップS94cで設定されたZ_TCPに対する新たなZ_TCPの上昇量が、閾値を超えるか判断される(ステップS94f)。ΔZの加算が繰り返されるほど、物体は、より高い位置から落下されることになる。閾値として、物体を落下させても損傷しない高さが設定される。上昇量が閾値を超えない場合、新たなZ_TCPを用いて、ステップS94dが再度実行される。
ステップS94dにおいて、MESH_HANDがMESH_TOTEと交差しない場合、Z_TCPに対応するロボットアーム12の各関節の角度が、逆運動学により算出される(ステップS94g)。各関節の角度が可動範囲内か判断される(ステップS94h)。各関節の角度が可動範囲内である場合、(X_OBJ、Y_OBJ、及びZ_TCP)をハンド位置として決定し(ステップS94i)、選択処理は終了する。
ステップS94fにおいて上昇量が閾値を超える場合、又はステップS94hにおいて各関節の角度が可動範囲外である場合、未だ抽出されていない位置候補が有るか判断される(ステップS94j)。未だ抽出されていない位置候補が有る場合、別の位置候補について処理が再度実行される。別の位置候補が存在しない場合、ハンド位置の算出処理は終了する。この場合、第2容器42に物体を配置できないことを意味する。
実施形態の利点を説明する。
ロボットによるピッキング作業について、物体が損傷しないように、移載時の衝撃を低減することが求められている。移載時の衝撃低減のためには、X方向、Y方向、及びZ方向のそれぞれにおける物体のサイズ(三次元形状)が取得されることが好ましい。取得された三次元形状に基づき、周囲の障害物と衝突させずに、移載先の第2空間SP2に物体を配置できる。特に、物体のZ方向におけるサイズを正確に取得することで、物体を移載する際の障害物への接触又は物体を解放する際の落下を防ぎ、物体への衝撃を低減できる。
ロボットによるピッキング作業について、物体が損傷しないように、移載時の衝撃を低減することが求められている。移載時の衝撃低減のためには、X方向、Y方向、及びZ方向のそれぞれにおける物体のサイズ(三次元形状)が取得されることが好ましい。取得された三次元形状に基づき、周囲の障害物と衝突させずに、移載先の第2空間SP2に物体を配置できる。特に、物体のZ方向におけるサイズを正確に取得することで、物体を移載する際の障害物への接触又は物体を解放する際の落下を防ぎ、物体への衝撃を低減できる。
移載元の第1容器41に複数の物体が配置されている場合、第1計測器21による計測結果からは、正確な三次元形状の取得が困難である。例えば、ある物体の一部が別の物体によって隠れている場合は、物体のZ方向における長さを計測できない。移載される物体の三次元形状を取得する方法として、ロボットハンド11を物体に作用させた後に、物体を計測する方法が考えられる。ロボットハンド11の作用により物体の隠れた部分を露出させることで、物体の三次元形状を取得できる。一方、三次元形状を用いたハンド位置の計算では、計算量が多く、時間を要する。ロボットハンド11の物体への作用後における計算時間が長いと、計算結果が得られるまでピッキングロボット10を停止させる必要がある。このため、ピッキング作業の時間が長くなり、作業効率が低下する。
実施形態に係るピッキングシステム1では、第1計測器21による第1計測結果が得られると、移載される物体の位置候補を算出する第1計算が実行される。位置候補は、第1計測器21からの第1計測結果に基づいて算出され、第2空間SP2での物体の位置の候補である。上述した通り、第1計測器21では、移載される物体のZ方向における長さの正確な計測は困難である。しかし、第1計測結果が有れば、最終的な物体の配置位置を算出できなくても、物体の配置可能な位置の候補を算出できる。すなわち、第1計算は、第2計測器22からの第2計測結果の取得前に開始できる。続いて、ピッキングシステム1では、第2計測結果が得られると、第2計測結果及び位置候補に基づき、第2空間SP2に物体を配置する際のロボットハンド11の位置が算出される。すなわち、第2計算は、第1計算の後且つ第2計測結果の取得後に開始される。第2計算では、既に算出された位置候補が用いられるため、より短い時間でハンド位置を算出できる。
ピッキングシステム1によれば、三次元形状が得られた後に物体の配置位置及びハンド位置の計算を始める場合に比べて、ハンド位置をより早いタイミングで算出できる。このため、ハンド位置の算出のためにピッキングロボット10が停止する時間を短縮できる。例えば、ピッキングロボット10を停止させずに、ハンド位置を算出できる。この結果、ピッキング作業の時間を短縮し、作業効率を向上させることができる。物体の三次元形状に基づいてハンド位置を算出できるため、移載時における物体の障害物への接触又は解放時の物体の落下を防ぎ、物体への衝撃を低減できる。また、物体の三次元形状は、第1計測器21及び第2計測器22により計測されるため、物体の三次元モデル等を予め用意する必要は無い。
実施形態によれば、移載時の物体への衝撃を低減しつつ、ピッキング作業の時間を短縮可能である。
以上では、Z方向が鉛直方向に平行であり、X方向及びY方向が水平面に平行である例について説明した。実施形態はこの例に限定されない。例えば、Y方向が鉛直方向に平行であり、X方向及びZ方向が水平面に平行であっても良い。いずれの場合においても、第1計測器21及び第2計測器22によって、異なる方向から物体の形状が計測される。第1計測器21による計測後であって第2計測器22による計測前に第1計算が実行され、第2計測器22による計測後に、第2計算が実行される。これにより、移載時の物体への衝撃を低減しつつ、ピッキング作業の時間を短縮である。
図10は、ハードウェア構成を示す模式図である。
制御装置30は、例えば図10に示すハードウェア構成を含む。図10に示す処理装置90は、CPU91、ROM92、RAM93、記憶装置94、入力インタフェース95、出力インタフェース96、及び通信インタフェース97を含む。
制御装置30は、例えば図10に示すハードウェア構成を含む。図10に示す処理装置90は、CPU91、ROM92、RAM93、記憶装置94、入力インタフェース95、出力インタフェース96、及び通信インタフェース97を含む。
ROM92は、コンピュータの動作を制御するプログラムを格納している。ROM92には、上述した各処理をコンピュータに実現させるために必要なプログラムが格納されている。RAM93は、ROM92に格納されたプログラムが展開される記憶領域として機能する。
CPU91は、処理回路を含む。CPU91は、RAM93をワークメモリとして、ROM92又は記憶装置94の少なくともいずれかに記憶されたプログラムを実行する。プログラムの実行中、CPU91は、システムバス98を介して各構成を制御し、種々の処理を実行する。
記憶装置94は、プログラムの実行に必要なデータや、プログラムの実行によって得られたデータを記憶する。
入力インタフェース(I/F)95は、処理装置90と入力装置95aとを接続する。入力I/F95は、例えば、USB等のシリアルバスインタフェースである。CPU91は、入力I/F95を介して、入力装置95aから各種データを読み込むことができる。
出力インタフェース(I/F)96は、処理装置90と出力装置96aとを接続する。出力I/F96は、例えば、Digital Visual Interface(DVI)やHigh-Definition Multimedia Interface(HDMI(登録商標))等の映像出力インタフェースである。CPU91は、出力I/F96を介して、出力装置96aにデータを送信し、出力装置96aに画像を表示させることができる。
通信インタフェース(I/F)97は、処理装置90外部のサーバ97aと、処理装置90と、を接続する。通信I/F97は、例えば、LANカード等のネットワークカードである。CPU91は、通信I/F97を介して、サーバ97aから各種データを読み込むことができる。撮影部21a及び23aによる画像及びライトカーテン22aによる検出結果は、サーバ97aに保存される。
記憶装置94は、Hard Disk Drive(HDD)及びSolid State Drive(SSD)から選択される1つ以上を含む。入力装置95aは、マウス、キーボード、マイク(音声入力)、及びタッチパッドから選択される1つ以上を含む。出力装置96aは、モニタ及びプロジェクタから選択される1つ以上を含む。タッチパネルのように、入力装置95aと出力装置96aの両方の機能を備えた機器が用いられても良い。
上述した種々のデータの処理は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク及びハードディスクなど)、光ディスク(CD-ROM、CD-R、CD-RW、DVD-ROM、DVD±R、DVD±RWなど)、半導体メモリ、又は、他の非一時的なコンピュータで読取可能な記録媒体(non-transitory computer-readable storage medium)に記録されても良い。
例えば、記録媒体に記録された情報は、コンピュータ(または組み込みシステム)により読み出されることが可能である。記録媒体において、記録形式(記憶形式)は任意である。例えば、コンピュータは、記録媒体からプログラムを読み出し、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させる。コンピュータにおいて、プログラムの取得(または読み出し)は、ネットワークを通じて行われても良い。
以上で説明した実施形態によれば、移載時の物体への衝撃を低減しつつ、ピッキング作業の時間を短縮可能な、ピッキングシステム、制御装置、ピッキング方法、プログラム、及び記憶媒体が提供される。
以上、本発明のいくつかの実施形態を例示したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更などを行うことができる。これら実施形態やその変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。また、前述の各実施形態は、相互に組み合わせて実施することができる。
1:ピッキングシステム、 10:ピッキングロボット、 11:ロボットハンド、 12:ロボットアーム、 13:筐体、 21:第1計測器、 21a:撮影部、 22:第2計測器、 22a:ライトカーテン、 22a1:投光部、 22a2:受光部、 23:第3計測器、 23a:撮影部、 30:制御装置、 31:統合部、 32:計測情報処理部、 33:保持計画生成部、 34:配置計画生成部、 34a:位置候補算出部、 34b:ハンド位置算出部、 35:動作計画生成部、 36:ロボット制御装置、 37:外部I/F、 41:第1容器、 42:第2容器、 90:処理装置、 91:CPU、 92:ROM、 93:RAM、 94:記憶装置、 95:入力インタフェース、 95a:入力装置、 96:出力インタフェース、 96a:出力装置、 97:通信インタフェース、 97a:サーバ、 98:システムバス、 OP1:第1開口、 OP2:第2開口、 SP1:第1空間、 SP2:第2空間、 SR:センシング領域
Claims (16)
- ロボットハンドを用いて、第1空間から第2空間へ物体を移載するピッキングロボットと、
前記ピッキングロボットを制御する制御装置と、を備え、
前記制御装置は、
前記第1空間の物体の第1方向における形状に関する第1計測結果を取得すると、前記第1計測結果に基づいて前記第2空間に前記物体を配置する際の位置候補を算出する第1計算と、
前記物体への前記ロボットハンドの作用中に、前記第1方向と交差する第2方向における前記物体の形状に関する第2計測結果を取得すると、前記第2計測結果及び前記位置候補に基づき、前記第2空間に前記物体を配置する際の前記ロボットハンドの位置を算出する第2計算と、
を実行する、ピッキングシステム。 - 前記第1方向において前記物体の前記形状を計測して前記第1計測結果を取得する第1計測器と、
前記第2方向において前記物体の前記形状を計測して前記第2計測結果を取得する第2計測器と、
をさらに備えた、請求項1記載のピッキングシステム。 - 前記第2計測器は、前記ピッキングロボットによる前記物体の保持中に、前記物体の前記形状を計測する、請求項2記載のピッキングシステム。
- 前記第1計測器は、前記物体の前記第1方向と交差する第1面の形状を計測する、請求項2又は3に記載のピッキングシステム。
- 前記第1計測器は、前記第1空間の画像から前記物体の領域をセグメンテーションすることにより、前記第1面の前記物体の前記形状を計測する、請求項4記載のピッキングシステム。
- 前記第2計測器は、前記ロボットハンドの先端からの前記物体の前記第1方向における突出量を計測する、請求項2~5のいずれか1つに記載のピッキングシステム。
- 前記第2計測器は、前記第1方向と交差する第1平面に沿って広がるセンシング領域を有し、
前記第2計測器は、前記ピッキングロボットによる前記物体の前記第1方向の移動中、前記物体が前記センシング領域を通過した際の時刻に基づいて、前記突出量を計測する、請求項6記載のピッキングシステム。 - 前記第2計測器は、前記センシング領域の前記第1方向における位置と、前記時刻での前記ロボットハンドの前記第1方向における位置と、に基づいて前記突出量を計測する、請求項7記載のピッキングシステム。
- 前記第2空間の形状を計測する第3計測器をさらに備え、
前記制御装置は、前記第1計算において、第1計測結果と前記第3計測器からの第3計測結果とに基づき前記位置候補を算出する、請求項1~7のいずれか1つに記載のピッキングシステム。 - 前記第3計測器は、前記第2空間における障害物の形状を計測し、
前記制御装置は、
前記第1計算において、前記物体の前記形状及び前記障害物の前記形状に基づき、前記位置候補を算出し、
前記第2計算において、前記物体の前記形状と、前記障害物の前記形状と、前記位置候補と、に基づき、前記ロボットハンドの前記位置を算出する、
請求項9記載のピッキングシステム。 - 前記制御装置は、
前記第1計算において、複数の前記位置候補を算出し、
前記第2計算において、前記複数の位置候補の1つと、前記第2計測結果が示す前記物体の前記第1方向における突出量と、を用いて前記ロボットハンドの前記位置を算出する、
請求項1~10のいずれか1つに記載のピッキングシステム。 - 前記第1方向は、鉛直方向に平行であり、
前記第2方向は、水平方向に平行である、請求項1~11のいずれか1つに記載のピッキングシステム。 - ロボットハンドを用いて第1空間から第2空間へ物体を移載するピッキングロボットを制御する制御装置であって、
前記第1空間の物体の第1方向における形状に関する第1計測結果を取得すると、前記第1計測結果に基づいて前記第2空間に前記物体を配置する際の位置候補を算出する第1計算と、
前記物体への前記ロボットハンドの作用中に、前記第1方向と交差する第2方向における前記物体の形状に関する第2計測結果を取得すると、前記第2計測結果及び前記位置候補に基づき、前記第2空間に前記物体を配置する際の前記ロボットハンドの位置を算出する第2計算と、
を実行する、制御装置。 - ロボットハンドを用いて第1空間から第2空間へ物体を移載するピッキングロボットを用いたピッキング方法であって、
前記第1空間の物体の第1方向における形状に関する第1計測結果を取得すると、前記第1計測結果に基づいて前記第2空間に前記物体を配置する際の位置候補を算出する第1計算と、
前記物体への前記ロボットハンドの作用中に、前記第1方向と交差する第2方向における前記物体の形状に関する第2計測結果を取得すると、前記第2計測結果及び前記位置候補に基づき、前記第2空間に前記物体を配置する際の前記ロボットハンドの位置を算出する第2計算と、
を実行する、ピッキング方法。 - ロボットハンドを用いて第1空間から第2空間へ物体を移載するピッキングロボットをコンピュータに制御させるプログラムであって、
前記コンピュータに、
前記第1空間の物体の第1方向における形状に関する第1計測結果が取得されると、前記第1計測結果に基づいて前記第2空間に前記物体を配置する際の位置候補を算出する第1計算と、
前記物体への前記ロボットハンドの作用中に、前記第1方向と交差する第2方向における前記物体の形状に関する第2計測結果が取得されると、前記第2計測結果及び前記位置候補に基づき、前記第2空間に前記物体を配置する際の前記ロボットハンドの位置を算出する第2計算と、
を実行させる、プログラム。 - 請求項15記載のプログラムを記憶した記憶媒体。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021184953A JP2023072410A (ja) | 2021-11-12 | 2021-11-12 | ピッキングシステム、制御装置、ピッキング方法、プログラム、及び記憶媒体 |
US18/054,227 US20230150138A1 (en) | 2021-11-12 | 2022-11-10 | Picking system, control device, picking method, and storage medium |
EP22206610.2A EP4180189A1 (en) | 2021-11-12 | 2022-11-10 | Picking system, control device, picking method, program and storage medium |
CN202211411236.5A CN116117790A (zh) | 2021-11-12 | 2022-11-11 | 拾取系统、控制装置、拾取方法及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021184953A JP2023072410A (ja) | 2021-11-12 | 2021-11-12 | ピッキングシステム、制御装置、ピッキング方法、プログラム、及び記憶媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023072410A true JP2023072410A (ja) | 2023-05-24 |
Family
ID=84330966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021184953A Pending JP2023072410A (ja) | 2021-11-12 | 2021-11-12 | ピッキングシステム、制御装置、ピッキング方法、プログラム、及び記憶媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230150138A1 (ja) |
EP (1) | EP4180189A1 (ja) |
JP (1) | JP2023072410A (ja) |
CN (1) | CN116117790A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024090436A1 (en) * | 2022-10-24 | 2024-05-02 | Yoshiki Kanemoto | Robotic systems with dynamic motion planning for transferring unregistered objects |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5501571A (en) * | 1993-01-21 | 1996-03-26 | International Business Machines Corporation | Automated palletizing system |
US10870204B2 (en) * | 2019-01-25 | 2020-12-22 | Mujin, Inc. | Robotic system control method and controller |
-
2021
- 2021-11-12 JP JP2021184953A patent/JP2023072410A/ja active Pending
-
2022
- 2022-11-10 US US18/054,227 patent/US20230150138A1/en active Pending
- 2022-11-10 EP EP22206610.2A patent/EP4180189A1/en active Pending
- 2022-11-11 CN CN202211411236.5A patent/CN116117790A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024090436A1 (en) * | 2022-10-24 | 2024-05-02 | Yoshiki Kanemoto | Robotic systems with dynamic motion planning for transferring unregistered objects |
Also Published As
Publication number | Publication date |
---|---|
EP4180189A1 (en) | 2023-05-17 |
US20230150138A1 (en) | 2023-05-18 |
CN116117790A (zh) | 2023-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10363664B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JP6879238B2 (ja) | ワークピッキング装置及びワークピッキング方法 | |
JP6271953B2 (ja) | 画像処理装置、画像処理方法 | |
US10203197B2 (en) | Range measurement apparatus and range measurement method | |
JP5383836B2 (ja) | 検索ウィンドウを自動的に調整する機能を備えた画像処理装置 | |
US10325336B2 (en) | Information processing apparatus, information processing method, and program | |
US10062004B2 (en) | Arrangement detection apparatus and pickup apparatus | |
US20130121592A1 (en) | Position and orientation measurement apparatus,position and orientation measurement method, and storage medium | |
JP2018144152A (ja) | ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 | |
US20150125034A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2018144155A (ja) | ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 | |
JP6988704B2 (ja) | センサ制御装置、物体探索システム、物体探索方法及びプログラム | |
CN109213202B (zh) | 基于光学伺服的货物摆放方法、装置、设备和存储介质 | |
US20210174538A1 (en) | Control apparatus, object detection system, object detection method and program | |
US10207409B2 (en) | Image processing method, image processing device, and robot system | |
WO2022024877A1 (ja) | 情報処理装置、及び情報処理方法 | |
JP2017146938A (ja) | 書籍検出装置、書籍検出方法及び書籍検出用コンピュータプログラム | |
US20190385329A1 (en) | Robot control device, robot control method, and robot control program | |
EP4180189A1 (en) | Picking system, control device, picking method, program and storage medium | |
JP2022160363A (ja) | ロボットシステム、制御方法、画像処理装置、画像処理方法、物品の製造方法、プログラム、及び記録媒体 | |
JP6985464B1 (ja) | 溶接ロボットの動作自動生成方法及び動作自動生成システム | |
JP6237122B2 (ja) | ロボット、画像処理方法及びロボットシステム | |
US20220318942A1 (en) | Robot system, control method, image processing apparatus, image processing method, method of manufacturing products, and recording medium | |
JP2018144153A (ja) | ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 | |
US10379620B2 (en) | Finger model verification method and information processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230616 |