JP2021062464A - ピッキング装置 - Google Patents

ピッキング装置 Download PDF

Info

Publication number
JP2021062464A
JP2021062464A JP2019189985A JP2019189985A JP2021062464A JP 2021062464 A JP2021062464 A JP 2021062464A JP 2019189985 A JP2019189985 A JP 2019189985A JP 2019189985 A JP2019189985 A JP 2019189985A JP 2021062464 A JP2021062464 A JP 2021062464A
Authority
JP
Japan
Prior art keywords
work
arm
end effector
picking
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019189985A
Other languages
English (en)
Inventor
恭嗣 原田
Yasushi Harada
恭嗣 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Micro Technica Co Ltd
Original Assignee
Micro Technica Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Micro Technica Co Ltd filed Critical Micro Technica Co Ltd
Priority to JP2019189985A priority Critical patent/JP2021062464A/ja
Publication of JP2021062464A publication Critical patent/JP2021062464A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】ピッキング作業を円滑化する。【解決手段】ピッキング装置は、対象物を認識してピッキングし、予め指定された位置まで移動させる。前記ピッキング装置は、先端にエンドエフェクタを有するアームと、前記アームに取り付けられたカメラと、制御装置とを備える。前記制御装置は、前記カメラによって生成された画像データに基づいて、前記エンドエフェクタに保持された前記対象物の位置および姿勢の少なくとも一方を認識し、認識結果に基づいて、前記アームの動作を調整する。【選択図】図6

Description

本開示は、ピッキング装置に関する。
従来、対象物を認識して把持し、これを特定の位置に移動させるピッキング装置が開発されている。例えば、ロボットハンドに取り付けられたカメラによって対象物を撮像し、撮像結果に基づいてアームの動作を制御するロボットアーム装置が開発されている。そのようなロボットアーム装置の一例が、例えば特許文献1に開示されている。
特開2011−235386号公報
従来のロボットアーム装置は、複数の物品の中から特定の対象物をピッキングし、箱などの予め定められた収納エリア内の特定の位置に当該対象物を収納する作業を円滑に行うことができなかった。例えば、対象物と箱とが干渉したり、収納位置が本来の位置からずれたりするなどの課題が生じていた。
本開示は、例えば複数の物品の中から特定の対象物をピッキングし、予め定められた収納エリア内の特定の位置に収納する作業をより円滑に行うことが可能なピッキング装置を提供する。
本開示の一態様によるピッキング装置は、対象物を認識してピッキングし、予め指定された位置まで移動させる。前記ピッキング装置は、先端にエンドエフェクタを有するアームと、前記アームに取り付けられたカメラと、制御装置とを備える。前記制御装置は、前記カメラによって生成された画像データに基づいて、前記エンドエフェクタに保持された前記対象物の位置および姿勢の少なくとも一方を認識し、認識結果に基づいて、前記アームの動作を調整する。
本開示の実施形態によれば、例えば複数の物品の中から特定の対象物をピッキングし、予め定められた収納エリア内の特定の位置に収納する作業をより円滑に行うことが可能になる。
ピッキング装置の一例であるピッキングロボット100の構成例を示す図である。 ロボット100の基本的な動作の例を説明するための図である。 ロボット100の基本的な動作の例を説明するための図である。 ワーク50が規則的に配列されている状況の例を示す図である。 従来技術の課題を示す図である。 ワーク50が第2収納箱32に衝突している状況の例を示す図である。 ワーク50同士が衝突している状況の例を示す図である。 エンドエフェクタ120のより詳細な構成例を示す図である。 本開示の実施形態のピッキングロボット100の動作を示すフローチャートである。 エンドエフェクタ120がワーク50を保持している状態を簡略化して示す図である。 実際にエンドエフェクタ120がワーク50を保持している状況の一例を示す写真である。 2つのカメラ160によってそれぞれ生成される画像の例を示す図である。 ワーク50の重心位置C0と、ピッキングポイントC1の例を示す図である。 ワーク50の姿勢が、基準の姿勢に対して、角度θ1だけずれている状態の例を示す図である。 ワーク50を第2収納箱32に投入する動作を模式的に示す図である。 4つのワーク50が所定の収納位置に配置された状態を示す図である。 座標値の補正が行われない場合の例を示す図である。 本開示の実施形態におけるエンドエフェクタ120によってワーク50が第2収納箱32の指定された位置に指定された姿勢で正確に配置されている状況の例を示す図である。 エンドエフェクタ120が第1収納箱31に衝突する場合の回避動作を説明するための図である。 エンドエフェクタ120が第1収納箱31に衝突する場合の回避動作を説明するための図である。
図1は、ピッキング装置の一例であるピッキングロボット100の構成例を示す図である。このピッキングロボット100は、ロボットハンド120(エンドエフェクタ)を先端に有するアーム110と、アーム110を制御する制御装置130とを備える。アーム110は、複数の関節部を有する。各関節部は1つ以上のモータを備え、所定の可動域内で回転することができる。各モータは、制御装置130によって制御される。
図1に示すロボットハンド120の先端には、複数の吸着パッド300が取り付けられている。吸着パッド300は、吸引パイプに接続されている。吸引パイプは、図示されていない真空発生器に接続される。真空発生器は、制御装置130によって制御される。図1に示すピッキングロボット100は、制御装置130からの指令に従い、吸着パッド300による吸着力を利用して、箱30の中の物品(以下、「ワーク」とも称する。)を保持して所定の位置に移動させるピッキング動作を行う。なお、この例では吸着を利用して物品を保持するが、他の方法で物品を保持してもよい。
このようなピッキングロボット100は、例えば物流拠点において搬送される箱の内部に配置された複数の商品から、注文内容に応じた特定の商品を順次ピッキングして、出荷用の箱に収納する作業に用いられ得る。
ワークの種類は特に限定されないが、本明細書では、主にアパレル商品(例えば、シャツ、パンツ、靴下、ベルトなど)をワークとする。ロボット100は、例えば複数の箱の中に収納された多様な商品の中から、特定の商品を認識して保持し、他の箱に移動させる動作を行うように構成され得る。
図2Aおよび図2Bは、ロボット100の基本的な動作の例を説明するための図である。このロボット100は、第1収納箱31内の特定のワーク50を、出荷用の第2収納箱32内の指定された位置に移動させる作業を行う。図2Aは、ロボット100が第1収納箱31内にある保持対象のワーク50を認識した後、そのワーク50をピッキングしようとしている状態を示している。ロボット100は、第1収納箱31の上で、保持対象のワーク50をカメラによって認識すると、図2Aに示すように、そのワーク50をピッキングするためにロボットハンド120を下降させる。この例では、吸着パッド300の先端がワーク50に接触した状態で、吸着パッド300の内部空間を真空に近付けることにより、ワーク50が吸着パッド300に吸着され、保持される。図2Bは、ロボットハンド120が対象のワーク50を保持しながら第2収納箱32に向かって移動している状態を示している。図2Bに示すように、ロボットハンド120は、ワーク50を保持しながら移動し、第2収納箱32内の指定された位置にワーク50を配置する。
このような動作を行うピッキングロボット100において、ワーク50を第2収納箱32内の所定の位置に正確に移動させることは難しい。特に、図2Aに示すように、第1収納箱31内に複数のワーク50が不規則に配置されていたり、ワーク50の形状または大きさが不定である場合には、ワーク50を予め指定された位置に配置することが困難である。これは、カメラを用いた画像認識に誤差が生じ易く、ロボットハンド120によってピッキングされるワーク50の位置(以下、「ピッキングポイント」と称する。)が、本来保持されるべき位置(例えば中心または重心)からずれやすいことに起因する。
このような問題は、一種類の物品が第1収納箱31内の予め決まった位置に配置されている一般的な状況では発生しない。図3Aは、そのような一般的な状況の例を示している。図3Aの例では、第1収納箱31内に、同一の形状および大きさのワーク50が予め決まった位置に規則正しく並べられている。このような場合には、ロボットハンドによって保持されるワーク50のピッキングポイントは常に一定で、角度のずれも殆ど生じない。このため、図3Aの右側に示すように、第2収納箱32内の予め定められた位置にワーク50を正確に配置することができる。
しかしながら、図2Aに示す例のように、第1収納箱31内のワーク50の位置や姿勢が不定で、複数のワーク50に重なりが生じるような場合には、第2収納箱32内の予め定められた位置にワーク50を正確に配置することは困難である。これは、ワーク50の認識に誤差が生じ易く、ピッキングポイントが所定の位置(例えば、中心または重心)からずれやすいためである。
図3Bは、上記の課題を説明するための図である。図3Bの例では、第1収納箱31の内部のワーク50の位置および姿勢が予め決められておらず、ランダムに配置されている。このような場合には、ピッキングロボットは、カメラ60を用いた画像認識によってワーク50のどの部分をピッキングするかを決定する。ロボットは、ワーク50をカメラ60によって認識し、認識結果に基づいてピッキングポイントを決定する。しかし、図3Bの例では、ワーク50の位置および姿勢が不定であるため、ワーク50の認識に誤差が生じ得る。例えば、図3Bにおいて実線で示す位置に存在するワーク50が、破線で示す位置に存在するものと誤って認識される可能性がある。そのような誤認識が生じると、ワーク50のピッキングポイントが本来の位置(例えば、中心または重心)からずれることになる。その場合、ロボットが第2収納箱32内の指定された座標の位置にワーク50を移動させたとしても、ピッキングポイントのずれに起因して、ワーク50の位置が本来の位置からずれることになる。その結果、図3Bの右側に示すように、第2収納箱32内の予め指定された位置にワーク50を正確に配置することができなくなる。場合によっては、ワーク50が収納箱32に衝突したり、ワーク50同士が衝突したりして、ワーク50が破損することもあり得る。
図4Aおよび図4Bは、ワーク50を指定された位置に正確に配置することができない状況の例を示している。図4Aは、ワーク50が第2収納箱32に衝突している状況の例を示している。図4Bは、ワーク50同士が衝突している状況の例を示している。これらの例のように、ワーク50のピッキングポイントが本来の位置からずれると、ワーク50を第2収納箱32内の指定された位置に正確に移動させることができなくなる。
物流処理においては、高速性、確実性、および経済性の確保が重要である。様々な製品の処理を自動化するために、上記のようなロボットを利用したランダムピッキングが利用される。しかし、製品が多種多様な場合、箱内の製品の配置などの条件が一定でないことが多い。例えば、上記のように箱内で複数の製品が不規則に重なって配置されたり、大きさおよび形状の異なる多品種の製品がランダムに配置されることがある。その場合、画像処理による物体認識において、個々の製品の所定のポイント(例えば中心または重心)を正確に認識することは困難である。その結果、製品のピッキングポイントが、本来の位置からずれやすくなる。その場合、製品が箱と干渉したり、正しい位置に配置できないなどの不具合が生じ得る。このように、不正確な認識に基づいてロボットハンドがワークの不適切な部位をピッキングした場合、ワークを置く場所の周囲に障害物があれば、製品を障害物に衝突させてしまうなどの不具合が生じる。
その対策として、ピッキングした製品を一旦仮置き台に置き、カメラで再度撮像し、製品の中心、あるいは目的とするピッキングポイントを認識して改めてピッキングする方法が考えられる。この場合、製品が他の製品から分離されるので、正確な認識が可能になり、上記の不具合は回避できる。しかし、処理時間が長くなるという問題が発生する。また、ワークを仮置きする場所を確保する必要性も生じる。
本開示の実施形態では、以上の課題を解決するために、対象物をピッキングした後、その対象物をカメラで撮像し、対象物のピッキング状態を認識する。そしてその認識結果に基づいて、対象物を把持するエンドエフェクタの動作が適切に調整される。これにより、対象物を所望の収納位置に配置することができる。
以下、本開示の実施形態の概要を説明する。
本開示の例示的な実施形態によるピッキング装置は、先端にエンドエフェクタを有するアームと、前記アームに取り付けられたカメラと、制御装置とを備える。前記制御装置は、前記カメラによって生成された画像データに基づいて、前記エンドエフェクタに保持された前記対象物の位置および姿勢の少なくとも一方を認識し、認識結果に基づいて、前記アームの動作を調整する。
上記の構成によれば、エンドエフェクタに保持された対象物の位置および姿勢の少なくとも一方が、カメラからの画像データに基づいて認識される。そして、その認識結果に基づいて、アームの動作が適切に調整される。このため、エンドエフェクタに保持された対象物の位置または姿勢が、想定された位置または姿勢からずれていたとしても、対象物を指定された位置に正確に配置することができる。
ある実施形態において、前記制御装置は、前記アームを制御することにより、第1収納エリア内にある前記対象物を前記エンドエフェクタによってピッキングし、第2収納エリア内の予め指定された位置まで移動させるように構成され得る。
「第1収納エリア」は、例えば前述の例における第1収納箱31内の領域に相当する。「第2収納エリア」は、例えば前述の例における第2収納箱32内の領域に相当する。ピッキング装置は、第1収納エリア内にある対象物を、第2収納エリア内の指定された位置に配置する作業に好適に使用される。対象物を指定された位置に正確に配置することが可能であるため、例えば第2収納箱32に対象物を衝突させる等の不具合を回避できる。
ある実施形態において、前記制御装置は、前記画像データに基づいて、前記エンドエフェクタに保持された前記対象物の位置の、基準の位置からのずれ量を計算し、前記ずれ量に応じて前記アームの動作を調整することにより、前記対象物を前記指定された位置まで移動させる。例えば、前記指定された位置を示す座標値を、前記ずれ量に応じて補正することにより、対象物を前記指定された位置に正確に配置することができる。
ある実施形態において、前記制御装置は、前記画像データに基づいて、前記エンドエフェクタに保持された前記対象物の姿勢の、基準の姿勢からのずれ量を計算し、前記ずれ量に応じて前記アームの動作を調整することにより、前記対象物を指定された姿勢で前記指定された位置に配置する。例えば、基準の姿勢に対して、保持された対象物の姿勢が、角度θだけずれている場合、その角度θのずれを補償するように、エンドエフェクタの角度を補正した上で、対象物を指定の位置に配置することができる。これにより、対象物を正確な位置および姿勢で配置することが可能になる。
以下、本開示の実施形態をより具体的に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。本明細書においては、同一または類似の構成要素には、同一の参照符号を付している。
本開示の実施形態によるピッキングロボット100は、図1に示す構成と同様の構成を有する。すなわち、ピッキングロボット100は、先端にロボットハンド120(以下、「エンドエフェクタ120」とも称する。)を有するアーム110と、アーム100を制御する制御装置130とを備える。制御装置130は、プロセッサと記録媒体とを備えるコンピュータであり、ロボット100の全体の動作を制御する。
図5は、エンドエフェクタ120のより詳細な構成例を示す図である。この例におけるピッキングロボット100は、エンドエフェクタ120に取り付けられた2つのカメラ160を備えている。これらのカメラ160は、エンドエフェクタ120の両側に対称的に配置されている。2つのカメラ160は、3Dカメラとして機能する。これらのカメラ160の各々は、イメージセンサと、1つ以上のレンズを含む光学系とを備える。各カメラ160は、制御装置130からの指示に応じて、エンドエフェクタ120によって把持される対象物(ワーク)を撮像し、画像データを生成する。制御装置130は、各カメラ160から出力された画像データに基づき、対象物の認識、およびピッキングされた対象物の位置および姿勢のずれの検出を行う。
図5に示す例では、エンドエフェクタ120は、先端部に3つの吸着パッド300を備える。各吸着パッド300は、吸引パイプに接続されている。吸引パイプは、図示されていない真空発生器に接続されている。吸着パッド300がワーク50を吸着することにより、エンドエフェクタ120はワークを保持することができる。吸着パッド300の個数および配置は、取り扱われるワークの種類に応じて決定される。吸着パッド300が多いほど、より大型で重いワークを保持することができる。小さく軽量のワークのみを取り扱う場合、吸着パッド300の個数は1個であってもよい。なお、ワークの保持は、吸着によらず、他の方法によって実現されてもよい。例えば、エンドエフェクタ120が複数の可動部を有し、複数の可動部によってワークを挟んだり掴んだりすることによって把持できる構造を有していてもよい。
図6は、本実施形態のピッキングロボット100の動作を示すフローチャートである。ピッキングロボット100は、動作開始指令を受けると、図6に示すステップS101からS111の動作を実行する。以下、各ステップの動作を説明する。
制御装置130は、まず、アーム110を移動させ、カメラ160が所定の撮像位置に到達したかを判断する(ステップS101)。撮像位置は、例えば図2Aに示す第1収納箱31の上で、第1収納箱31内のワーク50の全体が撮影可能な位置である。カメラ160が所定の撮像位置に到達すると、制御装置130は、各カメラ160に撮像指示を出す(ステップS102)。これにより、各カメラ160は、ワーク50の画像データを生成する。次に、制御装置130は、カメラ160から出力された画像データに基づいて、ピッキング対象の特定のワーク50を認識し、当該ワーク50の保持位置(ピッキングポイント)を決定する(ステップS103)。ピッキングポイントとして、例えば当該ワーク50の中心または重心が選択される。ピッキングポイントを決定すると、制御装置130は、エンドエフェクタ120に当該ワーク50を保持させ、移動を開始させるようにアーム110に指示する(ステップS104)。このとき、図2Aに示すように、エンドエフェクタ120は、特定のワーク50に向かって下降し、当該ワーク50を保持する。エンドエフェクタ120がワーク50を保持すると、制御装置130は、アーム110を制御して当該ワーク50の移動を開始する。例えば、図2Bに示すように、ワーク50を保持しながら、第2収納箱32に向かって移動させる。
本実施形態では、エンドエフェクタ120がワーク50を保持した状態で、再度2つのカメラ160によって撮像が行われる。制御装置130は、移動中、カメラ160が所定の撮像位置に到達したかを判断する(ステップS105)。この撮像位置は、エンドエフェクタ120がワーク50を保持してから第2の収納箱32の上に到達するまでの任意の位置に設定され得る。カメラ160が所定の撮像位置に到達すると、制御装置130は、各カメラ160に撮像を指示する(ステップS106)。この指示を受けて、各カメラ160は、ワーク50の画像データを生成する。次に、制御装置130は、各カメラ160から出力された画像データに基づき、ワーク50の位置ずれを計算する(ステップS107)。位置ずれは、ワーク50の実際のピッキングポイントと、本来保持されるべきポイントとのずれの量を表す。制御装置130は、出力された画像データに基づく画像認識により、位置ずれを計算する。続いて、制御装置130は、位置ずれが生じているか否かを判断する(ステップS108)。この判断は、例えば、計算した位置ずれの量が、所定の閾値よりも大きいか否かによって判断される。位置ずれの量が閾値を上回っていない場合、制御装置130は、アーム110を制御して、予め指定された座標に対応する位置にワーク50を配置する(ステップS109)。位置ずれの量が閾値を上回っている場合、制御装置130は、予め指定された座標を、位置ずれを補償するように補正する(ステップS110)。その上で、制御装置130は、アーム110を制御して、補正後の座標が示す位置にワーク50を配置する(ステップS111)。
ここで、図7Aから図7Dを参照して、ステップS107におけるワークの位置ずれを計算する方法の例をより詳細に説明する。
図7Aは、エンドエフェクタ120がワーク50を保持している状態を簡略化して示す図である。図7Bは、実際にエンドエフェクタ120がワーク50を保持している状況の一例を示す写真である。図7Aおよび図7Bに示すように、エンドエフェクタ120がワーク50を保持している状態で、2つのカメラ160がワーク50の画像データを生成する。制御装置130は、それらの画像データに基づいて、ピッキングポイントからワーク50の縁までの長さx1、x2などを検出し、その値に基づいてワーク50のずれ量を計算する。
図7Cは、2つのカメラ160によってそれぞれ生成される画像の例を示す図である。2つのカメラ160の一方は、図7Cに示す画像Im1のデータを生成し、2つのカメラ160の他方は、図7Cに示す画像Im2のデータを生成する。2つのカメラ160の位置の差に起因して、これらの画像Im1、Im2の間には視差が生じる。本実施形態では、ワーク50をピッキングした後、制御装置130は、画像Im1、Im2から、ピッキングポイントが本来ピッキングされるべき位置(例えば重心)からどの程度ずれているのかを判断する。
図7Dは、ワーク50の重心位置C0と、ピッキングポイントC1の例を示す図である。ここで、画像Im1、Im2の左右方向をx方向、上下方向をy方向としている。制御装置130は、画像Im1、Im2から、ワーク50の左右および上下のそれぞれの方向について、ピッキングポイントC1からワーク50の縁までの長さを検出する。すなわち、ピッキングポイントC1からワーク50の右側の縁までの長さx1と、ピッキングポイントC1からワーク50の左側の縁までの長さx2と、ピッキングポイントC1からワーク50の上側の縁までの長さy1と、ピッキングポイントC1からワーク50の下側の縁までの長さy2とを検出する。なお、本実施形態では3Dカメラが用いられているため、背景とワーク50とを容易に分離できる。制御装置130は、x方向の位置ずれ量Δx=(x2−x1)と、y方向の位置ずれ量Δy=(y2−y1)とを計算する。制御装置130は、ステップS108において、これらの位置ずれ量を、それぞれの閾値と比較することにより、位置ずれの有無を判断する。そして、x方向およびy方向の少なくとも一方において、位置ずれが生じていると判断した場合、そのずれを補償するように、アーム110の動作を調整する。
なお、図7Cおよび図7Dの例では、わかり易くするために、角度についてずれが生じていないものとしているが、実際には、角度についてもずれが生じ得る。その場合には、角度についてもずれを検出し、そのずれを補償する動作が行われ得る。
図7Eは、ワーク50の姿勢が、基準の姿勢に対して、角度θだけずれている状態の例を示している。このような場合、制御装置130は、画像Im1、Im2から、角度ずれ量θを検出し、この角度ずれ量θが所定の閾値よりも大きい場合には、角度のずれを補償するように、ワーク50を第2収納箱32内に配置するときのエンドエフェクタ120の角度を調整してもよい。
続いて、図8Aおよび図8Bを参照して、ステップS110における指定座標の補正処理の例をより詳細に説明する。
図8Aは、ワーク50を第2収納箱32に投入する動作を模式的に示している。図8Aに示す例では、ロボット100は、ワーク50の重心C0が第2収納箱32内の予め指定された点P0に一致するように、ワーク50を移動させる。制御装置130は、点P0を示す座標値に基づいてアーム110を制御する。図8Aに示すように、ピッキングポイントC1が重心C0からずれている場合、制御装置130は、点P0の座標値を、上記の位置ずれ量ΔxおよびΔyに応じた値だけ補正する。例えば、点P0の座標値を(X,Y)とすると、(X−Δx,Y−Δy)を補正後の座標値とする。そして、補正後の座標値が示す位置にワーク50のピッキングポイントが位置するように、アーム110を移動させる。
図8Bは、一例として、4つのワーク50がそれぞれの所定の収納位置に配置された状態を示している。図8Bに示すように、本実施形態の制御方法を適用することにより、各ワーク50の配置が適切に補正され、所定の位置にワーク50を正確に配置することができる。図8Cは、参考のため、座標値の補正が行われない場合の例を示している。この例では、補正が行われないために、図中の破線の楕円枠で示すように、ワーク50と箱32との間で干渉が生じる。その結果、ワーク50が適切に配置されないだけでなく、場合によってはワーク50の破損などの問題が生じ得る。
なお、位置ずれだけでなく、角度ずれを補償する動作を行う場合、制御装置130は、2つのカメラ160が生成した画像データに基づいて、エンドエフェクタ120に保持された対象物の姿勢の、基準の姿勢からのずれ量を計算し、当該ずれ量に応じてアーム110の動作を調整する。これにより、対象物を指定された姿勢で指定された位置に配置することができる。より具体的には、制御装置130は、指定された姿勢を示す角度指令値を、姿勢のずれ量に応じた値だけ補正し、補正後の角度指令値が示す姿勢で前記対象物が配置されるように、アーム110を制御する。そのような動作により、ピッキング時の対象物の姿勢によらず、対象物を指定された位置に適切な姿勢で配置することができる。なお、位置ずれの問題がなく、角度のみがずれる状況では、制御装置130は、位置ずれの検出および位置の補正を行わず、角度ずれの検出および角度の補正のみを行ってもよい。
図9は、本実施形態におけるエンドエフェクタ120によってワーク50が第2収納箱32の指定された位置に指定された姿勢で正確に配置されている状況の例を示している。図4Aおよび図4Bの例とは異なり、ワーク50と第2収納箱32との間、またはワーク50間で不要な衝突を生じさせることなく、ワーク50を第2収納箱32内に適切に収納することができる。したがって、例えば第1収納箱31内に多様なワークが不規則に配置されている場合であったとしても、安定的なエンケーシング作業を実現することができる。また、本実施形態によれば、ロボット100が対象物をピッキングした後、その対象物を仮置きして改めてピッキングし直す必要がない。このため、処理時間を短縮することができ、仮置き台を設置するためのスペースを確保する必要もない。
本実施形態において、エンドエフェクタ120がワーク50をピッキングするとき、認識されたワーク50の中心または重心の位置を単純にピッキングしようとすると、エンドエフェクタ120が第1収納箱31の壁に衝突する可能性がある。そのような場合には、制御装置130は、ピッキングポイントを第1収納箱31の壁から遠ざける方向にずらしてもよい。例えば、図10Aに示すように、そのままではエンドエフェクタ120が箱31の壁に衝突する場合は、図10Bに示すように、ピッキングポイントを壁から遠ざかる方向にシフトさせることによって衝突を回避してもよい。その場合、シフトさせた量が前述の位置ずれ量に反映される。このため、シフトさせた量に応じて、第2収納箱32内の投入位置が適切に補正される。エンドエフェクタ120が第1収納箱31の壁に衝突するか否かの判断は、任意の方法で実現され得る。例えばカメラ160から出力される画像データに基づいて衝突の有無を判断することができる。あるいは、衝突を検知する他のセンサが別途エンドエフェクタ120に設けられていてもよい。
以上の実施形態は例示にすぎず、本開示の技術は、上記の実施形態の構成および動作に限定されるものではない。例えば、ピッキング装置が2つのカメラを備えることは必須ではなく、カメラの数は単数であってもよい。また、上記の実施形態では、第1収納箱31内に収納された対象物を第2収納箱32内の指定された位置に移動させる作業が主に想定されているが、ピッキング装置が行う作業は、そのような作業に限定されない。例えば、箱以外の第1エリア内に位置する対象物を、箱以外の第2エリア内の指定された位置に移動させる作業にピッキング装置を適用してもよい。
本開示の技術は、ワークをピッキングして移動させる用途に利用することができる。例えば、物流拠点などの倉庫または工場におけるピッキングロボットに利用することができる。
30、31、32 箱
50 ワーク
60 カメラ
100 ピッキングロボット
110 アーム
120 ロボットハンド(エンドエフェクタ)
130 制御装置
160 カメラ
300 吸着パッド

Claims (9)

  1. 対象物を認識してピッキングし、予め指定された位置まで移動させるピッキング装置であって、
    先端にエンドエフェクタを有するアームと、
    前記アームに取り付けられたカメラと、
    前記カメラによって生成された画像データに基づいて、前記エンドエフェクタに保持された前記対象物の位置および姿勢の少なくとも一方を認識し、認識結果に基づいて、前記アームの動作を調整する制御装置と、
    を備えるピッキング装置。
  2. 前記制御装置は、前記アームを制御することにより、第1収納エリア内にある前記対象物を前記エンドエフェクタによってピッキングし、第2収納エリア内の予め指定された位置まで移動させるように構成されている、請求項1に記載のピッキング装置。
  3. 前記第1収納エリアは、第1収納箱内にあり、
    前記第2収納エリアは、第2収納箱内にある、
    請求項2に記載のピッキング装置。
  4. 前記制御装置は、前記画像データに基づいて、前記エンドエフェクタに保持された前記対象物の位置の、基準の位置からのずれ量を計算し、前記ずれ量に応じて前記アームの動作を調整することにより、前記対象物を前記指定された位置まで移動させる、請求項1から3のいずれかに記載のピッキング装置。
  5. 前記制御装置は、前記指定された位置を示す座標値を、前記位置のずれ量に応じた値だけ補正し、補正後の座標値が示す位置に前記対象物のピッキングポイントが位置するように、前記アームを制御する、請求項4に記載のピッキング装置。
  6. 前記制御装置は、前記画像データに基づいて、前記エンドエフェクタに保持された前記対象物の姿勢の、基準の姿勢からのずれ量を計算し、前記ずれ量に応じて前記アームの動作を調整することにより、前記対象物を指定された姿勢で前記指定された位置に配置する、請求項1から5のいずれかに記載のピッキング装置。
  7. 前記制御装置は、前記指定された姿勢を示す角度指令値を、前記姿勢のずれ量に応じた値だけ補正し、補正後の角度指令値が示す姿勢で前記対象物が配置されるように、前記アームを制御する、請求項6に記載のピッキング装置。
  8. 前記カメラは、3Dカメラである、請求項1から7のいずれかに記載のピッキング装置。
  9. 対象物を認識してピッキングし、予め指定された位置まで移動させるピッキング装置の制御方法であって、
    前記ピッキング装置は、
    先端にエンドエフェクタを有するアームと、
    前記アームに取り付けられたカメラと、
    を備え、
    前記方法は、
    前記カメラによって生成された画像データに基づいて、前記エンドエフェクタに保持された前記対象物の位置および姿勢の少なくとも一方を認識するステップと、
    認識結果に基づいて、前記アームの動作を調整するステップと、
    を含む方法。
JP2019189985A 2019-10-17 2019-10-17 ピッキング装置 Pending JP2021062464A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019189985A JP2021062464A (ja) 2019-10-17 2019-10-17 ピッキング装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019189985A JP2021062464A (ja) 2019-10-17 2019-10-17 ピッキング装置

Publications (1)

Publication Number Publication Date
JP2021062464A true JP2021062464A (ja) 2021-04-22

Family

ID=75487099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019189985A Pending JP2021062464A (ja) 2019-10-17 2019-10-17 ピッキング装置

Country Status (1)

Country Link
JP (1) JP2021062464A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013078825A (ja) * 2011-10-04 2013-05-02 Yaskawa Electric Corp ロボット装置、ロボットシステムおよび被加工物の製造方法
JP2017050376A (ja) * 2015-09-01 2017-03-09 富士電機株式会社 電子部品実装装置及び電子部品実装方法
JP2017087325A (ja) * 2015-11-06 2017-05-25 キヤノン株式会社 ロボット制御装置、ロボット制御方法、ロボット制御システムおよびコンピュータプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013078825A (ja) * 2011-10-04 2013-05-02 Yaskawa Electric Corp ロボット装置、ロボットシステムおよび被加工物の製造方法
JP2017050376A (ja) * 2015-09-01 2017-03-09 富士電機株式会社 電子部品実装装置及び電子部品実装方法
JP2017087325A (ja) * 2015-11-06 2017-05-25 キヤノン株式会社 ロボット制御装置、ロボット制御方法、ロボット制御システムおよびコンピュータプログラム

Similar Documents

Publication Publication Date Title
US8630737B2 (en) Taking out device having function for correcting posture of an article
US20190054617A1 (en) Robotic arm processing method and system based on 3d image
JP4938115B2 (ja) ワーク取出し装置およびワーク取出し方法
US20130085604A1 (en) Robot apparatus, robot system, and method for producing a to-be-processed material
WO2020009148A1 (ja) ワーク搬送システムおよびワーク搬送方法
JP5893695B1 (ja) 物品搬送システム
US20120197438A1 (en) Dual arm robot
WO2015079740A1 (ja) ロボットシステムおよびロボットシステムの制御方法
JP2008087074A (ja) ワーク取り出し装置
US11565422B2 (en) Controller of robot apparatus for adjusting position of member supported by robot
JP2017100214A (ja) マニピュレータシステム、撮像システム、対象物の受け渡し方法、及び、マニピュレータ制御プログラム
JP2013086184A (ja) ワーク取出システム、ロボット装置および被加工物の製造方法
Nakamoto et al. High-speed and compact depalletizing robot capable of handling packages stacked complicatedly
US20210154836A1 (en) Trajectory control device
US20210192784A1 (en) Vision system for a robotic machine
JP2020163518A (ja) 搬送装置及び受渡システム
JP2012135820A (ja) 自動ピッキング装置及び自動ピッキング方法
JPH1158273A (ja) 移動ロボット装置
CN113560942B (zh) 机床的工件取放控制装置及其控制方法
JP7455800B2 (ja) ロボットペイロード位置の決定及び補正のためのシステム及び方法
JP2021062464A (ja) ピッキング装置
EP2711143A2 (en) Robot system and article manufacturing method
JP2019016294A (ja) 情報処理装置、情報処理方法、情報処理プログラム、及びシステム
JP7436170B2 (ja) ロボットシステム
JP2013173196A (ja) ロボットのハンドリングアームの位置補正方法

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20191028

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240507