JP2023121062A - 位置検出装置、ピッキングシステム、位置検出方法、及び、位置検出装置用プログラム - Google Patents
位置検出装置、ピッキングシステム、位置検出方法、及び、位置検出装置用プログラム Download PDFInfo
- Publication number
- JP2023121062A JP2023121062A JP2022024295A JP2022024295A JP2023121062A JP 2023121062 A JP2023121062 A JP 2023121062A JP 2022024295 A JP2022024295 A JP 2022024295A JP 2022024295 A JP2022024295 A JP 2022024295A JP 2023121062 A JP2023121062 A JP 2023121062A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target article
- captured image
- bulk
- depth information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title description 12
- 238000001514 detection method Methods 0.000 claims abstract description 84
- 238000003384 imaging method Methods 0.000 claims abstract description 52
- 238000012545 processing Methods 0.000 claims abstract description 23
- 238000000605 extraction Methods 0.000 claims abstract description 20
- 240000007124 Brassica oleracea Species 0.000 claims description 82
- 235000003899 Brassica oleracea var acephala Nutrition 0.000 claims description 82
- 235000011301 Brassica oleracea var capitata Nutrition 0.000 claims description 82
- 235000001169 Brassica oleracea var oleracea Nutrition 0.000 claims description 82
- 238000012937 correction Methods 0.000 claims description 25
- 238000010801 machine learning Methods 0.000 claims description 15
- 238000007781 pre-processing Methods 0.000 claims description 11
- 230000003287 optical effect Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 240000005856 Lyophyllum decastes Species 0.000 claims description 5
- 235000013194 Lyophyllum decastes Nutrition 0.000 claims description 5
- 244000061456 Solanum tuberosum Species 0.000 claims description 4
- 235000002595 Solanum tuberosum Nutrition 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 4
- 239000013590 bulk material Substances 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 11
- 210000000078 claw Anatomy 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 230000001788 irregular Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 235000013311 vegetables Nutrition 0.000 description 3
- 230000005484 gravity Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 235000012015 potatoes Nutrition 0.000 description 1
- 235000021067 refined food Nutrition 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Abstract
【課題】不定形の対象物品からなるばら積み体から対象物品の位置を検出する位置検出装置及びピッキングシステムを提供する。【解決手段】ピッキングシステム200の位置検出装置100は、ばら積み体Wを所定の撮像位置から撮像した撮像画像と、その各画素に対応する深度情報とを取得する撮像機構1と、対象物品を単体で撮像した教師画像を入力とし、対象物品の位置を示す2次元座標を出力とする学習モデルと、ばら積み体において撮像位置から最も近い地点に基づいて設定される所定の抽出レンジ内の深度情報を有する画素を撮像画像から抽出して、各画素が撮像画像と対応する2次元座標と深度情報を有する抽出画像を生成する画像前処理部と、学習モデルに抽出画像を入力して、画像中における対象物品の位置を示す検出2次元座標を出力させるAI処理部と、検出2次元座標と対応する深度情報に基づいて対象物品の実際の位置を検出する位置検出部と、を備える。【選択図】図2
Description
本発明は、対象物品がばら積みされたばら積み体から少なくとも1つの対象物品の位置を検出する位置検出装置に関するものである。
金属加工等が行われる工場では、同一の寸法や形状を有するワーク等をロボットにピッキングさせ、各種加工装置等への搬出や搬入を自動化することが行われている。このようなワークは例えば位置や向きが整えられていないとともに、少なくとも一部のワークが積層したばら積みの状態のこともあり、ロボットによりピッキングできるようにするには、まずワークの位置を検出する必要がある。例えば多数のワークからなるばら積み体を撮像し、撮像画像中のワークの輪郭線や頂点等を抽出し、ワークのCADデータ等とパターンマッチングを行うことでピッキングの対象となるワークの実際の位置が検出される。
上記のような位置検出方法は、ワークがほぼ同じ形状をしている場合にはうまく機能することもあるが、例えば野菜、果物、調理物といった同じ種類であっても少しずつ形状や大きさが異なる不定形の対象物品がばら積みされている場合には非常に適用しにくい。
このため、特許文献1では不定形の対象物品がばら積みされている場合には、撮像されるレンジを逐次変更して、ばら積み体の頂点から底辺までが分割された各レンジで撮像を行い、多数の撮像画像によりばら積み体を断層的に解析することで対象物品の位置を検出することが提案されている。
また、ばら積み体が撮像された1枚の撮像画像中において、不定形の各対象物品の輪郭線等を自動的に検出して、位置を検出できるようにするために、AIを利用することも試みられている。
しかしながら、このようなシステムを安価に構成することは非常に難しく、例えば農産物の加工工場や、各種食品工場のように単価の低い物品を取り扱う業種の場合には、人間にピッキングをさせたほうが経済合理的であると判断されることが多い。
例えば、ばら積み体を断層的に撮像して、多数の撮像画像に基づく解析が行えるようにするには、カメラの位置決め機構や高精度のオートフォーカス機構を導入しなくてはならなくなり、ロボットピッキングの導入費用が高額になってしまう。
一方、ばら積み体を撮像した撮像画像から、それぞれ色、形状、大きさが少しずつ異なる野菜を個別に識別できるような高度なAIを構築しようとすると、高い演算能力が必要となり、まずハードウェアの構成価格が上昇してしまう。また、野菜が積層されて一部が重なっている部分等もエラーなく識別できるようにするには、例えば教師データとして、それぞれ状態の異なるばら積み体の撮像画像を大量に用意し、高度なAIを用いた機械学習により学習モデルを生成する必要がある。このようなばら積み体の教師データを集めることは自動化しにくく困難かつ煩雑であるため、ばら積み体から各個別の対象物品を識別できる学習モデルを生成するには手間と費用が大きくかかってしまう。
本発明は上述したような問題に鑑みてなされたものであり、それほど大きな演算負荷がかからず、安価なハードウェア構成であっても不定形の対象物品からなるばら積み体から対象物品の位置を1枚の撮像画像から検出することが可能な位置検出装置を提供することを目的とする。
すなわち、本発明に係る位置検出装置は、複数の不定形の対象物品がばら積みされたばら積み体から少なくとも1つの対象物品の位置を検出する位置検出装置であって、前記ばら積み体を所定の撮像位置から撮像した撮像画像と、前記撮像画像を構成する各画素に対応する深度情報とを取得する撮像機構と、前記対象物品が単体で撮像された教師画像を入力とし、前記教師画像中における前記対象物品の位置を示す2次元座標を出力とするように機械学習により生成された学習モデルと、前記ばら積み体において前記撮像位置から最も近い地点に基づいて設定される所定の抽出レンジ内の深度情報を有する画素を前記撮像画像から抽出して、各画素が前記撮像画像と対応する2次元座標と深度情報を有する抽出画像を生成する画像前処理部と、前記学習モデルに前記抽出画像を入力して、前記撮像画像中又は前記抽出画像中における前記対象物品の位置を示す検出2次元座標を出力させるAI処理部と、前記検出2次元座標と、それに対応する深度情報に基づいて前記対象物品の実際の位置を検出する位置検出部と、を備えたことを特徴とする。
また、本発明に係る位置検出方法は、複数の不定形の対象物品がばら積みされたばら積み体から少なくとも1つの対象物品の位置を検出する位置検出方法であって、前記ばら積み体を所定の撮像位置から撮像した撮像画像と、前記撮像画像を構成する各画素に対応する深度情報とを取得することと、前記対象物品が単体で撮像された教師画像を入力とし、前記教師画像中における前記対象物品の位置を示す2次元座標を出力とするように機械学習により学習モデルを生成することと、前記ばら積み体において前記撮像位置から最も近い地点に基づいて設定される所定の抽出レンジ内の深度情報を有する画素を前記撮像画像から抽出して、各画素が前記撮像画像と対応する2次元座標と深度情報を有する抽出画像を生成することと、前記学習モデルに前記抽出画像を入力して、前記撮像画像中又は前記抽出画像中における前記対象物品の位置を示す検出2次元座標を出力させることと、前記検出2次元座標と、それに対応する深度情報に基づいて前記対象物品の実際の位置を検出することと、を備えたことを特徴とする。
このようなものであれば、前記ばら積み体において前記撮像位置から最も近い地点に基づいて設定される所定の抽出レンジ内の深度情報を有する画素を前記撮像画像から抽出して、前記抽出画像を生成するので、前記抽出画像には前記対象物品が1つだけ含まれるようにして、対象物品が重なりあっている部分がほとんど存在しないようにできる。このため、前記対象物品が単体で撮像された教師画像による機械学習により生成された簡易な学習モデルであっても、エラーを生じさせることなく、画像中の対象物品の2次元座標を出力することがしやすくなる。したがって、高度なAIを構築する必要がないので、それほど演算能力の高くない安価なハードウェアを用いても、前記撮像画像に基づいてばら積み体における少なくとも1つの前記対象物品の位置を検出することができる。また、学習モデルを生成するためにそれぞれ状態の異なるばら積み体の教師画像を用意する必要もないので、学習モデルの生成に関する手間や費用も低減できる。これらのことから例えばロボットピッキングの導入費用を従来よりも大幅に低減することが可能となる。
例えば前記ばら積み体を構成する多数の前記対象物品のうちピッキングしやすい位置にあるとともに、ピッキングした後に大きな荷崩れ等が生じにくい位置にあるものの位置が優先的に検出されやすくするには、前記撮像機構が、前記ばら積み体の上方から当該ばら積み体を撮像するように構成されており、前記深度情報が、前記ばら積み体における高さ情報であり、前記抽出レンジが、前記ばら積み体において最も高い地点に基づいて設定されるものであればよい。
前記抽出画像中には前記ばら積み体から1つの前記対象物品のみが抽出されやすくするには、前記抽出レンジが、前記対象物品の最大寸法の1/2以下に設定されていればよい。
前記撮像機構を安価に構成したことにより、撮像画像中において各方向の分解能が大きく異なる場合でも、ロボットピッキングに必要となる精度で前記対象物品の実際の位置を検出できるようにするには、前記位置検出部が、基準長さ寸法と、所定の深度情報を有する画素の画素数との比率である基準分解能を記憶する分解能記憶部と、前記撮像画像中における深度情報に応じた前記基準分解能の補正値を記憶する補正値記憶部と、前記検出2次元座標、前記基準分解能、及び、前記補正値に基づいて前記対象物品の実際の座標を算出する位置算出部をさらに備えたものであればよい。
例えば撮像機構に対する前記ばら積み体の位置が厳密に定められていなくても、前記撮像画像ごとに応じた前記基準分解能と前記補正値を得て、対象物品の実際の位置を精度良く検出できるようにするには、前記撮像画像が、前記ばら積み体とともに前記基準長さ寸法を有する基準体をさらに含むように撮像されており、前記位置検出部が、前記撮像画像中における基準体の画素数、基準体の深度情報、及び、前記基準長さ寸法に基づいて、前記基準分解能及び前記補正値を算出するキャリブレーション部をさらに備えたものであればよい。
前記撮像機構が、前記撮像機構が、2次元エリアセンサ、赤外線パターン照射器、及び、赤外線カメラを備えた深度カメラであれば、安価な構成でありながら前記ばら積み体から前記対象物品の位置を検出することが可能となる前記撮像画像を得られる。
前記撮像機構が、非テレセントリック光学系として構成されていれば、安価な光学系として構成できるので、ロボットピッキングの導入費用をさらに低減できる。また、前記撮像機構が、1つの筐体で2次元エリアセンサ、赤外線パターン照射器、及び、赤外線カメラを備えた深度カメラであれば、安価な光学系として構成できるので、ロボットピッキングの導入費用をさらに低減できる。
例えば対象物品をロボットピッキングにより搬送するだけでなく、対象物品の重量に応じて分類したり、必要とされる内容量の組み合わせを実現させたりするには、前記学習モデルが、重量が既知の前記対象物品が単体で撮像された教師画像を入力とし、前記教師画像中における前記対象物品の位置を示す2次元座標と、前記対象物品の重量を出力とするように機械学習により生成されており、前記AI処理部が、前記学習モデルに前記抽出画像を入力して、前記撮像画像中又は前記抽出画像中における前記対象物品の位置を示す検出2次元座標とともに、前記対象物品の検出重量を出力させるように構成されていればよい。
形状、大きさ、色、重量等のパラメータのばらつきがあり、本発明に係る位置検出装置の検出対象として好適な例としては、前記対象物品が、キャベツ、じゃがいも、又は、唐揚げのいずれかが挙げられる。
本発明に係る位置検出装置と、前記位置検出部で検出された位置に基づいて前記ばら積み体から前記対象物品をピッキングするピッキング装置と、をさらに備えたピッキングシステムであれば、不定形の対象物品がばら積みされた状態でもロボットピッキングを安価に導入することが可能となる。
前記位置検出装置により、例えば前記ばら積み体において最も高い位置にある対象物品の実際の位置だけが検出され続けるようにして、位置検出精度を高く保てるようにするには、前記位置検出装置が、撮像位置から最も近い前記対象物品の位置だけを検出するように構成されており、前記位置検出装置による前記対象物品の位置検出と、前記ピッキング装置による前記対象物品のピッキングとが交互に行われるように構成されていればよい。
例えば既存の位置検出装置において、プログラムを更新することにより本発明に係る位置検出装置と同様の効果を享受できるようにするには、複数の不定形の対象物品がばら積みされたばら積み体を所定の撮像位置から撮像した撮像画像と、前記撮像画像を構成する各画素に対応する深度情報とを取得する撮像機構を備え、前記ばら積み体から少なくとも1つの対象物品の位置を検出する位置検出装置に用いられるプログラムであって、前記対象物品が単体で撮像された教師画像を入力とし、前記教師画像中における前記対象物品の位置を示す2次元座標を出力とするように機械学習により生成された学習モデルと、前記ばら積み体において前記撮像位置から最も近い地点に基づいて設定される所定の抽出レンジ内の深度情報を有する画素を前記撮像画像から抽出して、各画素が前記撮像画像と対応する2次元座標と深度情報を有する抽出画像を生成する画像前処理部と、前記学習モデルに前記抽出画像を入力して、前記撮像画像中又は前記抽出画像中における前記対象物品の位置を示す検出2次元座標を出力させるAI処理部と、前記検出2次元座標と、それに対応する深度情報に基づいて前記対象物品の実際の位置を検出する位置検出部としての機能をコンピュータに発揮させる位置検出装置用プログラムを用いればよい。
なお、位置検出装置用プログラムは、電子的に配信されるものであってもよいし、CD、DVD、HDD、SDD等のプログラム記録媒体に記録されているものであってもよい。
このように本発明に係る検出装置は、前記撮像画像から所定の抽出レンジの深度情報を有する画素だけを抽出した抽出画像を生成し、1つの対象物品だけが存在する可能性が高い画像にしてから、学習モデルに基づいて画像中の対象物品の位置を示す2次元画像を得ているので、ばら積み体全体から個別の対象物品を識別できる学習モデルを構築したり、そのような学習モデルを生成できる高度なAIを利用したりする必要がない。したがって、学習モデルの生成に必要となる手間や費用を大幅に低減しつつ、安価なハードウェアを利用して不定形の対象物品からなるばら積み体から1つの対象物品の位置を検出することが可能となる。このため、ロボットピッキングシステムを導入するのに必要となる初期費用を抑えることができ、例えば単価の低い製品を取り扱う工場等であってもロボットピッキングシステムを導入することが可能となる。
本発明の第1実施形態における位置検出装置100、及び、それを用いたピッキングシステム200について各図を参照しながら説明する。
第1実施形態のピッキングシステム200は、不定形の対象物品W1がばら積みされたばら積み体Wから対象物品W1の実際の位置を撮像画像P1に基づいて検出し、検出された位置に基づいてロボット4により対象物品W1をピッキングするものである。図1に示すように第1実施形態では対象物品W1は例えばキャベツであり、概略直方体形状をなすメッシュコンテナMC内にばら積みされたキャベツをロボット4で1つずつピッキングして、例えば人間や専用機械によりキャベツがカットやスライスされるベルトコンベアBCラインへと搬送される。メッシュコンテナMCの大きさは前工程の洗浄処理等に合わせて規格化されており、例えば幅Lx×奥行きLy×高さHが60×45.5×33.4cmの大きさを有するものである。このメッシュコンテナMC内にキャベツがほぼ満杯となるまでばら積みされており、従来であれば人間がメッシュコンテナMC内にあるキャベツを取り出してベルトコンベアBC上に載置していた。第1実施形態のピッキングシステム200は、この人間によるピッキングをロボット4によるピッキングに置き換えるためのものである。
ここで、本明細書における「ばら積み」とは、例えば位置の検出対象となる対象物品W1の向きや位置が予め定められておらず、対象物品W1同士を積み重ねることを許容する積み方を言う。第1実施形態ではメッシュコンテナMC内に多数のキャベツが投入されることによって、成り行きで各キャベツの向きや位置が決定される積み方となる。なお、キャベツは概略楕円球体状をなすものの、その形状、大きさには工業製品等と比較して大きなばらつきがある不定形のものであるため、多数の球体による最密充填のように一意の充填状態とはならない。第1実施形態では、メッシュコンテナMC内にキャベツを流し込むことで自然に実現される積み上げ状態をばら積みの一例としている。
第1実施形態のピッキングシステム200は、図2に示すようにメッシュコンテナMC内におけるキャベツの位置を検出する位置検出装置100と、位置検出装置100で検出されたキャベツの位置に基づいてキャベツをピッキングして、ベルトコンベアBC上に設定された移送先位置へと移送するように構成されたピッキング装置101と、を備えている。
位置検出装置100は、キャベツのばら積み体Wを上方から撮像する撮像機構1と、撮像機構1で得られた撮像画像P1に基づいてメッシュコンテナMC内のキャベツの位置を算出する位置演算器2と、を備えている。
撮像機構1は、例えばメッシュコンテナMCの直上から真下を見下ろすように設けられており、メッシュコンテナMC全体とキャベツのばら積み体Wの全体が1つの撮像画像P1内に含まれるように設定されている。撮像画像P1は各画素が色情報や輝度情報だけでなく、各画素に撮像されているメッシュコンテナMCの一部やキャベツの一部の深度情報(撮像機構1からの距離に関する情報)を含んでいる。
より具体的には、撮像機構1はいわゆる深度カメラであって、メッシュコンテナMC及びキャベツのばら積み体Wが撮像された2次元画像を生成する2次元エリアセンサ11と、撮像対象であるメッシュコンテナMC及びキャベツのばら積み体Wに例えば多数のドットからなる赤外線パターンを照射する赤外線パターン照射器12と、赤外線パターンが照射されている対象を撮像し、距離画像を出力する赤外線カメラ13と、を備えている。
2次元エリアセンサ11は、例えば受光素子と、撮像対象を受光素子上に結像させる非テレセントリック光学系を備えたものである。2次元エリアセンサ11で生成される撮像画像P1は、レンズによる歪みが生じることになる。例えば図3の撮像例に示すように直方体状をなすメッシュコンテナMCを直上から真下に向かって撮像すると、上側の各辺の内側に底面側の各辺も同時に撮像されることになる。つまり、2次元画像中においてメッシュコンテナMCの上部側に存在するものは大きく撮像され、底面側に存在するものは小さく撮像されることになる。
赤外線カメラ13で撮像される距離画像には、各点までの距離に応じてドットパターンの歪みが生じており、その歪みに基づいて2次元エリアセンサ11で撮像される撮像画像P1の各画素に撮像されている点までの距離を算出することができる。
位置演算器2は、CPU、メモリ、A/Dコンバータ、D/Aコンバータや各種入出力手段等を備えたいわゆるコンピュータであって、メモリに格納されている位置検出装置100用プログラムが実行されていることにより、図3の機能ブロック図に示すように少なくとも3次元画像生成部21、画像前処理部22、学習モデル23、AI処理部24、位置検出部2P、分解能記憶部25、補正値記憶部26、キャリブレーション部28、位置算出部27としての機能を発揮するように構成されている。ここで、第1実施形態の位置演算器2は撮像機構1で得られた撮像画像P1から最も高い位置にある1つのキャベツをAIによって抽出して、キャベツが撮像されている画素や深度情報に基づいて実際の位置を推定する。このような処理を行うためのAIエンジンとしてはインテル(登録商標)社のフリーソフトであるOpenVINO(登録商標)を使用しており、専用のアクセラレータを搭載したボードPCによって各機能が実現される。すなわち、位置演算器2を構成するハードウェア及びソフトウエアは従来と比較して非常に安価な構成となっている。
各部について説明する。
3次元画像生成部21は、2次元エリアセンサ11で生成された撮像画像P1と、赤外線カメラ13で生成された距離画像に基づいて、撮像画像P1の各画素に対応する深度情報を付加する。
学習モデル23は、対象物品W1であるキャベツが単体で撮像された教師画像を入力とし、教師画像中におけるキャベツの位置を示す2次元座標を出力とするようにディープラーニング等の機械学習により生成されたものである。ここで、学習モデル23は複数のキャベツが同時に重なりあった状態から各キャベツを抽出するようには機械学習を行っていない。したがって、撮像機構1で得られた撮像画像P1をそのまま学習モデル23に対して入力しても、各キャベツの境界をうまく認識できず、重なりあったキャベツを1つのキャベツとして誤認識してしまうこともある。すなわち、学習モデル23はそれほど高度なAIとしては構成されていない。
3次元画像生成部21は、2次元エリアセンサ11で生成された撮像画像P1と、赤外線カメラ13で生成された距離画像に基づいて、撮像画像P1の各画素に対応する深度情報を付加する。
学習モデル23は、対象物品W1であるキャベツが単体で撮像された教師画像を入力とし、教師画像中におけるキャベツの位置を示す2次元座標を出力とするようにディープラーニング等の機械学習により生成されたものである。ここで、学習モデル23は複数のキャベツが同時に重なりあった状態から各キャベツを抽出するようには機械学習を行っていない。したがって、撮像機構1で得られた撮像画像P1をそのまま学習モデル23に対して入力しても、各キャベツの境界をうまく認識できず、重なりあったキャベツを1つのキャベツとして誤認識してしまうこともある。すなわち、学習モデル23はそれほど高度なAIとしては構成されていない。
画像前処理部22は、前述したような簡易な学習モデル23であっても1つのキャベツを抽出できるように撮像画像P1の前処理を行う。すなわち、画像前処理部22は、キャベツのばら積み体Wにおいて撮像位置から最も近い地点に基づいて設定される所定の抽出レンジ内の深度情報を有する画素を撮像画像P1から抽出して、各画素が撮像画像P1と対応する2次元座標と深度情報を有する抽出画像を生成するように構成されている。第1実施形態では画像前処理部22は、図5に示すように各画素に紐付けられている深度情報に基づいて、撮像画像P1中のキャベツのばら積み体Wにおいて最も高い地点から、所定距離下方までの深度情報を有する画素を抽出して、それら以外の深度情報を有する画素についてはマスクして図6に示すような抽出画像を生成する。ここで、抽出レンジは、キャベツの代表的な最大寸法の1/2に設定されている。例えば代表的なキャベツの横幅又は高さの半分程度に抽出レンジは設定される。すなわち、抽出画像においてマスクがかけられない領域は最も高い位置にあるキャベツと同程度の高さにあるキャベツだけとなり、最も高い位置にあるキャベツから一層下側にあるキャベツについてはマスクがかけられた状態となる。このため、キャベツ同士の上下方向の重なっている部分をほぼ無くすことができ、簡易な学習モデル23であっても最も高い位置にあるキャベツだけを抽出しやすくなる。なお、図3及び図6に示すように撮像画像P1と抽出画像において対象物品W1であるキャベツの撮像されている座標は同一となるように構成されており、抽出画像中のキャベツの位置を示す2次元座標を算出できれば、撮像画像P1中における2次元座標として使用できるように構成されている。
ここで、第1実施形態の学習モデル23について詳述する。学習モデル23は、対象物品W1であるキャベツが単体で撮像された教師画像を入力とし、教師画像中における前記対象物品W1の位置を示す2次元座標を出力とするようにディープラーニング等の機械学習により生成されたものである。ここで、各教師画像に含まれるキャベツについてはその大きさ、形、色等のパラメータの少なくとも一部が異なっているものが大部分を占める。また、教師画像については第1実施形態の位置検出装置100と同じ構成の機器を使用して撮像される。学習モデル23は、例えば教師画像中のキャベツの輪郭線を抽出し、教師画像の画素の配列方向であるX方向とY方向に平行な辺を有し、輪郭線に接する正方形又は長方形をなす境界ボックスを算出する。学習モデル23は、算出された境界ボックスBLの各頂点、図心、重心等を教師画像中におけるキャベツの2次元座標として算出する。
AI処理部24は、画像前処理部22で生成された抽出画像を学習モデル23に対して入力して、撮像画像P1中又は抽出画像中における対象物品W1であるキャベツの位置を示す検出2次元座標を出力させるように構成されている。なお、この検出2次元座標は、撮像画像P1中におけるキャベツの撮像されている画素の平面座標であるため、ピッキング装置101に対してピッキング位置を指定するには、ピッキング装置101に設定されている座標系に対応する実際の位置を示す座標へ変換する必要がある。また、第1実施形態ではAI処理部24は図6に示す抽出画像についてAI処理を行い、図7に示すように最も高い位置にあるキャベツを囲う境界ボックスBLを抽出画像の元になった撮像画像P1上に重畳させる。
位置検出部2Pは、AI処理部24から出力される検出2次元座標と、それに対応する深度情報に基づいて対象物品W1であるキャベツの実際の位置を検出する。第1実施形態の位置検出部2Pは、非テレセントリック光学系を用いて撮像されたことにより撮像画像P1に歪みが存在し、撮像されているキャベツの高さによって実際の水平方向位置の検出分解能が異なっていても、正確に実際の位置を算出するように構成されている。
具体的には位置検出部2Pは、基準長さ寸法と、所定の深度情報を有する画素の画素数との比率である基準分解能を記憶する分解能記憶部25と、撮像画像P1中における深度情報に応じた基準分解能の補正値を記憶する補正値記憶部26と、検出2次元座標、基準分解能、及び、補正値に基づいて対象物品W1であるキャベツの実際の座標を算出する位置算出部27を備えている。
第1実施形態ではその形状と寸法が既知であるメッシュコンテナMCに基づいて基準長さ寸法が設定される。すなわち、撮像画像P1中におけるX方向の基準寸法はメッシュコンテナMCの幅寸法Lxであり、Y方向の基準寸法はメッシュコンテナMCの奥行き寸法Lyであり、Z方向の基準寸法はメッシュコンテナMCの高さ寸法Hである。
ところで、図3等の撮像画像P1に示されるように第1実施形態では非テレセントリック光学系で撮像されているため、直方体形状をなすメッシュコンテナMCの上辺と底辺が同時に撮像される。また、撮像画像P1中におけるメッシュコンテナMCの1つの側面部に着目すると、図8の模式図に示すように概略台形状をなしていることがわかる。すなわち、撮像画像P1中においては高さ(深度情報)に応じて、X方向又はY方向の分解能が異なる。具体的には撮像画像P1中における上辺側のメッシュコンテナMCの幅寸法(画素数)をAxとし、底辺側のメッシュコンテナMCの幅寸法(画素数)をBxとすると、それぞれの分解能はLx/Ax又はLx/Bxとなる。なお、Y方向についても同様であり、上辺側と底辺側の分解能はそれぞれLy/Ay又はLy/Byとなる。このため、撮像画像P1中におけるキャベツの座標から実際の位置を示す座標を算出するには、キャベツの高さに応じた分解能を用いて座標変換を行う必要がある。第1実施形態では、例えば撮像画像P1中におけるメッシュコンテナMCの上辺側における分解能Lx/Ax、Ly/AyをX方向及びY方向の基準分解能として分解能記憶部25は記憶している。
次に任意の高さにおける撮像画像P1中のX方向又はY方向の分解能について検討する。図8に示すように最高点である高さhでのメッシュコンテナMCの長さに相当する撮像画像P1中の長さ(画素数)は、2つの台形間の相似関係より、(h/H)*Aiとなる(以下、iはx,yを代表するものとする)。この撮像画像P1中の長さ(h/H)*Aiであっても本来のメッシュコンテナMCの幅寸法又は奥行き寸法はLiであることから、高さhにおける分解能は(H/h)Li/Aiと表すことができる。また、基準分解能はLi/Aiであることから、高さhでの分解能の補正値はメッシュコンテナMCの高さ寸法Hを撮像されている対象物品W1の高さhで割った値であるH/hであることがわかる。したがって、補正値記憶部26は、撮像画像P1中における深度情報に応じた基準分解能の補正値としてH/hを記憶している。
位置算出部27は、例えばメッシュコンテナMCの底面側における1つの頂点を原点としてキャベツの実際の位置座標を算出する。まず原点を基準として、AI処理部24から出力された撮像画像P1中における最高点にあるキャベツの位置を示す検出2次元座標から、撮像画像P1中におけるX方向及びY方向の長さΔi(画素数)を算出する。位置算出部27は、高さhにあるキャベツについて算出された各長さΔiに基準分解能Li/Ai及び補正値H/hを乗じることで実際の位置におけるX座標及びY座標を算出する。なお、Z座標については赤外線カメラ13で得られた深度情報をそのまま用いれば良い。
ここで、基準分解能及び補正値については予め記憶させた固定された値を使用してもよいが、撮像画像P1においてキャベツのばら積み体Wとともに撮像されているメッシュコンテナMCに基づいて逐次校正されるようにしてもよい。第1実施形態では位置検出部2Pは、撮像画像P1中における基準体であるメッシュコンテナMCの画素数、メッシュコンテナMCの深度情報、及び、基準長さ寸法であるメッシュコンテナMCの既知の寸法に基づいて、基準分解能及び補正値を算出するキャリブレーション部28をさらに備えている。キャリブレーション部28は、撮像画像P1中におけるメッシュコンテナMCの辺や頂点等の特徴点を抽出する。例えば撮像画像P1中におけるメッシュコンテナMCにおける上側の幅寸法Ax及び奥行寸法Ayと各辺の高さhが抽出される。ここで基準長さ寸法Lx、Lyは既知であるので、抽出された各長さから基準分解能Li/Aiや補正値H/hをキャリブレーション部28は算出する。このように、撮像画像P1中にばら積み体Wだけでなく、定形でかつその寸法が既知の基準体が含まれていればその場でキャリブレーション部28が実際の位置の算出に必要となる基準分解能及び高さに対する補正値を算出することができる。
次にピッキング装置101について説明する。
図2に示すようにピッキング装置101は、先端部にアーム先端に各種ハンド41を装着可能な多関節ロボット4と、当該ロボット4を制御するロボット制御器3と、を備えている。
図2に示すようにピッキング装置101は、先端部にアーム先端に各種ハンド41を装着可能な多関節ロボット4と、当該ロボット4を制御するロボット制御器3と、を備えている。
多関節ロボット4は、各関節に設けられたモータの回転角を検出するエンコーダを備えており、各エンコーダの出力からハンド41の位置を検出可能に構成されている。また、ロボット制御器3からの入力に応じて各モータの回転角を制御し、指定されている位置にハンド41を移動させる。
ロボット制御器3は、ロボット4のハンド41についてメッシュコンテナMC内にあるキャベツをピックアップするピックアップ位置と、ピッキングされたキャベツをベルトコンベ上の所定位置でドロップオフするドロップオフ位置との間で少なくとも移動するように制御する。ドロップオフ位置については固定されているため予めオペレータにより入力される移送先指令により指定される。一方、ピックアップ位置については、位置検出装置100により推定されるメッシュコンテナMC内において最も高い位置にある対象物品W1であるキャベツの位置が逐次入力される。なお、ロボット制御器3に指定されたピックアップ位置及びドロップオフ位置へのハンド41を移動させる制御構成については既存の制御手法を用いることができる。
このように構成されたピッキングシステム200の動作について図9のフローチャートを参照しながら説明する。
まず、位置検出装置100の撮像機構1によってメッシュコンテナMC内にばら積みされているキャベツが撮像される(ステップS1)。
3次元画像生成部21は、2次元エリアセンサ11で撮像される撮像画像P1の各画素に、赤外線カメラ13で撮像される距離画像に基づいて深度情報を付加し、3次元情報を含む撮像画像P1とする(ステップS2)。
次に画像前処理部22は、撮像画像P1の各画素に紐付けられた深度情報に基づいて、最も高い位置にあるキャベツを特定し、その最高点から所定の抽出範囲内の深度情報を有する画素だけを抽出し、その他をマスクした抽出画像を生成する(ステップS3)。ここで、抽出画像には理想的には最も高い位置にあるキャベツもしくはそのキャベツを含む層だけが残り、上層にあるキャベツと下層にあるキャベツとの重なりが大幅に低減された状態となる。
AI処理部24は、単体のキャベツが撮像された教師画像に基づいてその外縁や位置を検出するように学習行った学習モデル23に対して、抽出画像を入力して、撮像画像P1における検出2次元座標を推定する(ステップS4)。
位置検出部2Pは、AI処理部24で算出された検出2次元座標と、撮像画像P1における基準分解能と高さに応じた補正値に基づいて実際のキャベツの位置を算出し(ステップS5)、その位置を目標となるピックアップ位置としてロボット制御器3に対して入力する(ステップS6)。
ロボット制御器3及びロボット4は位置又は回転角のフィードバック制御によって、位置検出装置100によって指定されたピックアップ位置にハンド41を移動させる(ステップS7)。
次にハンド41がピックアップ位置に到着すると、ロボット制御器3は所定のピックアップ動作をハンド41に実行させる(ステップS8)。例えばハンド41がキャベツを複数の爪からなる把持ハンド41である場合には、位置検出装置100において算出された境界ボックスBLの対角上の頂点に把持用の各爪が挿入されるようにロボット制御器3はハンド41を制御する。このようにすれば、ばら積みされている各キャベツの隙間に爪を入り込む確率を高くすることができ、ハンド41がキャベツを把持するのを失敗しにくくできる。なお、ハンド41が突き刺し用の爪を備えている場合には、境界ボックスBLの重心位置に爪が突き刺さるように構成してもよい。
ハンド41による最高点にあるキャベツの把持が完了すると、ロボット制御器3は予め固定されているドロップオフ位置までハンド41を移動させて所定のドロップオフ動作をロボット4に対して実行させる(ステップS9)。
この結果、メッシュコンテナMC内からベルトコンベアBC上への1つのキャベツの移動が完了する。メッシュコンテナMC内のキャベツの全てについて搬送が完了していない場合には(ステップS10)、再びステップS1からS9までの動作がメッシュコンテナMC内から全てのキャベツがピックアップされるまで繰り返される。
すなわち、第1実施形態のピッキングシステム200では位置検出器がばら積み体Wにおいて最も高い位置にあるキャベツを検出する動作と、ピッキング装置101によるキャベツの搬送動作が交互に行われるように構成されている。
このように構成された第1実施形態の位置検出装置100、及び、ピッキングシステム200によれば、ばら積み体Wの撮像画像P1をそのまま使用してAIによって全てのキャベツの位置を一度に検出するのではなく、撮像画像P1から一番高い位置にあるキャベツが抽出された抽出画像に基づいてAIによる処理を行い1つのキャベツの位置検出を行うことができる。
抽出画像中では複数のキャベツが上下方向に対して重なり合う部分を極力減らすことができるので、高度なAIを用いなくてもその輪郭等を誤検出しにくくできる。したがって、AI処理部24で用いられる学習モデル23については、キャベツが単体で撮像された教師画像に基づいてディープラーニングを行うような簡易かつ膨大な計算資源を必要としないものにでき、AIを用いたシステムの導入費用を大幅に低減できる。
また、位置検出部2Pでは各高さにおける分解能の違いを補正してキャベツの実際の位置を算出するように構成されているので、撮像画像P1においてレンズによる歪みが発生していても構わない。このため、高価な撮像光学系を導入する必要がない。
これらのことから、AIを用いたピッキングシステム200であっても従来と比較して大幅に導入費用を抑えることができ、例えば野菜の加工工場等のように対象物品W1の単価が低い用途であっても十分に利用可能なものにできる。
第1実施形態の位置検出装置100、及び、ピッキングシステム200の変形例について説明する。第1実施形態では、撮像画像P1中にその寸法及び形状が既知の基準体としてメッシュコンテナMCが含まれるように撮像していたが、撮像画像P1中に基準体が含まれないように撮像してもよい。このような場合には、撮像環境を固定しておき、基準分解能及び深度情報に応じた補正値については別途予め実測しておいて、固定値として使用し続けるようにすればよい。
撮像機構1はばら積み体Wの直上から真下に向かって撮像するように構成されていたが、例えば斜め上方からばら積み体Wを撮像するように撮像機構1を構成してもよい。この場合、深度情報は撮像光軸に沿った離間距離に対応することになるが、第1実施形態と同様に撮像機構1から最も近い位置にある対象物品W1の位置を撮像画像P1に基づいて検出することができる。
第1実施形態ではばら積み体Wにおいて最も高い位置にあるキャベツの位置だけを推定し、搬送を行うようにしていたが、例えば抽出画像中においてマスクが施されていない領域が複数ある場合にはそれぞれの対象物品W1について並行して位置検出を行っても良い。また、最も高い位置にある対象物品W1を最優先でピックアップするのではなく、2番目や3番目に高い位置にある対象物品W1を先にピックアップしてもよい。複数の対象物品W1の位置を同時に検出できた場合には、1つの対象物品W1をピックアップした後に再度撮像画像P1を取得して、前の画像とピックアップした部分以外に変化がない場合には既に算出している他の対象物品W1の位置に基づいてピックアップ動作を繰り返しても良い。このようにすれば、位置演算の負荷を低減しつつ、ばら積み体Wが荷崩れを起こしている場合には再度位置検出を行い直して確実なピックアップを実現できる。
次に本発明の第2実施形態における位置検出装置100、及び、それを用いたピッキングシステム200について各図を参照しながら説明する。
第2実施形態では、ピッキングの対象となる不定形の対象物品W1が図10に示すように唐揚げやじゃがいもであり、ばら積みされた対象物品W1の位置だけでなくその重量を推定して、ばら積み体Wからいくつかの対象物品W1を搬送して予め定められた所定量に自動的に組み合わせるように構成されている。
第2実施形態のピッキングシステム200の基本構成は図2と同様であるが、位置演算器2における学習モデル23とAI処理部24の構成が第1実施形態と異なっている。
すなわち、学習モデル23は、重量が既知の対象物品W1が単体で撮像された教師画像を入力とし、教師画像中における前記対象物品W1の位置を示す2次元座標だけでなく、対象物品W1の重量を出力とするように機械学習により生成されている。
さらに、AI処理部24は、前述した2次元座標と重量を出力するように機械学習を行った学習モデル23に抽出画像を入力して、撮像画像P1中又は抽出画像中における対象物品W1の位置を示す検出2次元座標とともに、対象物品W1の検出重量を出力させるように構成されている。
ロボット制御器3は、撮像画像P1に基づいて推定された位置に基づいてピッキング位置を設定するとともに、推定された重量に応じてドロップオフ位置を設定する。例えば対象物品W1がパック詰めされるパックが複数用意されており、各パックに載置される対象物品W1の総重量が予め定められた所定量以上となるように逐次ピッキング位置が設定される。例えば、これまでの搬送履歴を記憶しておき、ピッキングされて搬送が完了した対象物品W1の総重量に応じてドロップオフ位置が適宜設定されるようにする。
このように第2実施形態の位置検出装置100、及び、ピックアップシステムであれば、不定形の対象物品W1について重量を加味した自動搬送が可能となり、例えばパッケージングの用途にも応用することができる。
その他の実施形態について説明する。
撮像機構1については各実施形態において説明したものに限られず、ばら積み体Wを所定の撮像位置から撮像した撮像画像P1と、撮像画像P1を構成する各画素に対応する深度情報とを取得するものであればよい。本発明はそれほど高価な撮像機構1を用いなくてもその機能を十分に実現できるものであるが、撮像機構1として様々な3Dカメラ等を用いることができる。3Dカメラとしては既存の方式のものを使用することができ、ステレオ方式や、ToF方式、構造化照明方式等様々なものを利用できる。
撮像機構1については各実施形態において説明したものに限られず、ばら積み体Wを所定の撮像位置から撮像した撮像画像P1と、撮像画像P1を構成する各画素に対応する深度情報とを取得するものであればよい。本発明はそれほど高価な撮像機構1を用いなくてもその機能を十分に実現できるものであるが、撮像機構1として様々な3Dカメラ等を用いることができる。3Dカメラとしては既存の方式のものを使用することができ、ステレオ方式や、ToF方式、構造化照明方式等様々なものを利用できる。
学習モデル23については簡易なものを用いることが好ましいが、必要に応じて高度な方式のものを使用してもよい。また、位置演算器2の物理構成については実施形態で説明したものは一例であって、例示した物以外の構成であっても構わない。
位置演算器2は、撮像画像P1に基づいて対象物品W1の位置を検出するものであればよく、重量だけでなく、その他の対象物品W1の情報を推定するようにしてもよい。例えば対象物品W1の色等に基づいて、その鮮度や糖度等を推定して、それらの情報に基づいて対象物品W1の等級等を分類するためにピッキングシステム200を用いてもよい。
抽出画像の生成方法については各実施形態において説明したように撮像画像P1において抽出レンジ外の深度情報を有する画素をマスクして生成する方法に限られない。例えば抽出レンジ内の深度情報を有する画素だけで新たな画像を形成して抽出画像としてもよい。マスクしていた部分を透明化してもよい。要するに抽出画像において学習モデル23に入力した場合に対象物品W1の推定する対象となる領域と対象とならない領域がそれぞれ区成されていればよい。
対象物品W1については、キャベツ、じゃがいも、唐揚げに限定されるものではなく、不定形のものであればよい。例えば概略球状をなす野菜や果物や唐揚げ以外の加工食品であっても本発明の適用対象となり得る。
その他、本発明の趣旨に反しない限りにおいて様々な実施形態についてそれらの一部同士の組み合わせを行っても構わない。
200 :ピッキングシステム
100 :位置検出装置
101 :ピッキング装置
1 :撮像機構
11 :2次元エリアセンサ
12 :赤外線パターン照射器
13 :赤外線カメラ
2 :位置演算器
2P :位置検出部
3 :ロボット制御器
4 :ロボット
21 :3次元画像生成部
22 :画像前処理部
23 :学習モデル
24 :AI処理部
25 :分解能記憶部
26 :補正値記憶部
27 :位置算出部
28 :キャリブレーション部
100 :位置検出装置
101 :ピッキング装置
1 :撮像機構
11 :2次元エリアセンサ
12 :赤外線パターン照射器
13 :赤外線カメラ
2 :位置演算器
2P :位置検出部
3 :ロボット制御器
4 :ロボット
21 :3次元画像生成部
22 :画像前処理部
23 :学習モデル
24 :AI処理部
25 :分解能記憶部
26 :補正値記憶部
27 :位置算出部
28 :キャリブレーション部
Claims (13)
- 複数の不定形の対象物品がばら積みされたばら積み体から少なくとも1つの対象物品の位置を検出する位置検出装置であって、
前記ばら積み体を所定の撮像位置から撮像した撮像画像と、前記撮像画像を構成する各画素に対応する深度情報とを取得する撮像機構と、
前記対象物品が単体で撮像された教師画像を入力とし、前記教師画像中における前記対象物品の位置を示す2次元座標を出力とするように機械学習により生成された学習モデルと、
前記ばら積み体において前記撮像位置から最も近い地点に基づいて設定される所定の抽出レンジ内の深度情報を有する画素を前記撮像画像から抽出して、各画素が前記撮像画像と対応する2次元座標と深度情報を有する抽出画像を生成する画像前処理部と、
前記学習モデルに前記抽出画像を入力して、前記撮像画像中又は前記抽出画像中における前記対象物品の位置を示す検出2次元座標を出力させるAI処理部と、
前記検出2次元座標と、それに対応する深度情報に基づいて前記対象物品の実際の位置を検出する位置検出部と、を備えた位置検出装置。 - 前記撮像機構が、前記ばら積み体の上方から当該ばら積み体を撮像するように構成されており、
前記深度情報が、前記ばら積み体における高さ情報であり、
前記抽出レンジが、前記ばら積み体において最も高い地点に基づいて設定される請求項1記載の位置検出装置。 - 前記抽出レンジが、前記対象物品の最大寸法の1/2以下に設定されている請求項1又は2記載の位置検出装置。
- 前記位置検出部が、
基準長さ寸法と所定の深度情報を有する画素の画素数との比率である基準分解能を記憶する分解能記憶部と、
前記撮像画像中における深度情報に応じた前記基準分解能の補正値を記憶する補正値記憶部と、
前記検出2次元座標、前記基準分解能、及び、前記補正値に基づいて前記対象物品の実際の座標を算出する位置算出部を備えた請求項1乃至3いずれかに一項に記載の位置検出装置。 - 前記撮像画像が、前記ばら積み体とともに前記基準長さ寸法を有する基準体をさらに含むように撮像されており、
前記位置検出部が、前記撮像画像中における基準体の画素数、基準体の深度情報、及び、前記基準長さ寸法に基づいて、前記基準分解能及び前記補正値を算出するキャリブレーション部をさらに備えた請求項4記載の位置検出装置。 - 前記撮像機構が、2次元エリアセンサ、赤外線パターン照射器、及び、赤外線カメラを備えた深度カメラである請求項1乃至5いずれか一項に記載の位置検出装置。
- 前記撮像機構が、非テレセントリック光学系として構成されている請求項1乃至6いずれか一項に記載の位置検出装置。
- 前記学習モデルが、重量が既知の前記対象物品が単体で撮像された教師画像を入力とし、前記教師画像中における前記対象物品の位置を示す2次元座標と、前記対象物品の重量を出力とするように機械学習により生成されており、
前記AI処理部が、前記学習モデルに前記抽出画像を入力して、前記撮像画像中又は前記抽出画像中における前記対象物品の位置を示す検出2次元座標とともに、前記対象物品の検出重量を出力させるように構成されている請求項1乃至7いずれか一項に記載の位置検出装置。 - 前記対象物品が、キャベツ、じゃがいも、又は、唐揚げのいずれか1つである請求項1乃至8いずれか一項に記載の位置検出装置。
- 請求項1乃至9いずれかに一項に記載の位置検出装置と、
前記位置検出部で検出された位置に基づいて前記ばら積み体から前記対象物品をピッキングするピッキング装置と、をさらに備えたピッキングシステム。 - 前記位置検出装置が、撮像位置から最も近い前記対象物品の位置だけを検出するように構成されており、
前記位置検出装置による前記対象物品の位置検出と、前記ピッキング装置による前記対象物品のピッキングとが交互に行われるように構成されている請求項10記載のピッキングシステム。 - 複数の不定形の対象物品がばら積みされたばら積み体から少なくとも1つの対象物品の位置を検出する位置検出方法であって、
前記ばら積み体を所定の撮像位置から撮像した撮像画像と、前記撮像画像を構成する各画素に対応する深度情報とを取得することと、
前記対象物品が単体で撮像された教師画像を入力とし、前記教師画像中における前記対象物品の位置を示す2次元座標を出力とするように機械学習により学習モデルを生成することと、
前記ばら積み体において前記撮像位置から最も近い地点に基づいて設定される所定の抽出レンジ内の深度情報を有する画素を前記撮像画像から抽出して、各画素が前記撮像画像と対応する2次元座標と深度情報を有する抽出画像を生成することと、
前記学習モデルに前記抽出画像を入力して、前記撮像画像中又は前記抽出画像中における前記対象物品の位置を示す検出2次元座標を出力させることと、
前記検出2次元座標と、それに対応する深度情報に基づいて前記対象物品の実際の位置を検出することと、を備えた位置検出方法。 - 複数の不定形の対象物品がばら積みされたばら積み体を所定の撮像位置から撮像した撮像画像と、前記撮像画像を構成する各画素に対応する深度情報とを取得する撮像機構を備え、前記ばら積み体から少なくとも1つの対象物品の位置を検出する位置検出装置に用いられるプログラムであって、
前記対象物品が単体で撮像された教師画像を入力とし、前記教師画像中における前記対象物品の位置を示す2次元座標を出力とするように機械学習により生成された学習モデルと、
前記ばら積み体において前記撮像位置から最も近い地点に基づいて設定される所定の抽出レンジ内の深度情報を有する画素を前記撮像画像から抽出して、各画素が前記撮像画像と対応する2次元座標と深度情報を有する抽出画像を生成する画像前処理部と、
前記学習モデルに前記抽出画像を入力して、前記撮像画像中又は前記抽出画像中における前記対象物品の位置を示す検出2次元座標を出力させるAI処理部と、
前記検出2次元座標と、それに対応する深度情報に基づいて前記対象物品の実際の位置を検出する位置検出部としての機能をコンピュータに発揮させる位置検出装置用プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022024295A JP2023121062A (ja) | 2022-02-18 | 2022-02-18 | 位置検出装置、ピッキングシステム、位置検出方法、及び、位置検出装置用プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022024295A JP2023121062A (ja) | 2022-02-18 | 2022-02-18 | 位置検出装置、ピッキングシステム、位置検出方法、及び、位置検出装置用プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023121062A true JP2023121062A (ja) | 2023-08-30 |
Family
ID=87797469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022024295A Pending JP2023121062A (ja) | 2022-02-18 | 2022-02-18 | 位置検出装置、ピッキングシステム、位置検出方法、及び、位置検出装置用プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023121062A (ja) |
-
2022
- 2022-02-18 JP JP2022024295A patent/JP2023121062A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10124489B2 (en) | Locating, separating, and picking boxes with a sensor-guided robot | |
JP5295828B2 (ja) | 対象物の把持システム及び同システムにおける干渉検出方法 | |
US20160089791A1 (en) | Continuous Updating of Plan for Robotic Object Manipulation Based on Received Sensor Data | |
JP2018027581A (ja) | ピッキングシステム | |
JP7065632B2 (ja) | 箱状物ピッキング装置及びその方法 | |
JP2010247959A (ja) | 箱状ワーク認識装置および方法 | |
JP2007130711A (ja) | ピッキング順序決定方法、装置及びそのプログラム、並びにピッキングシステム | |
CN112802093B (zh) | 对象抓取方法及装置 | |
CN113284178B (zh) | 物体码垛方法、装置、计算设备及计算机存储介质 | |
JP2012192490A (ja) | 荷姿認識装置 | |
JP5544464B2 (ja) | 対象物の3次元位置・姿勢認識装置及びその方法 | |
CN111311691A (zh) | 拆垛机器人拆垛方法及系统 | |
JP2023024980A (ja) | 画像ベースのサイジングメカニズムを備えたロボットシステム及びロボットシステムを操作するための方法 | |
JP2023121062A (ja) | 位置検出装置、ピッキングシステム、位置検出方法、及び、位置検出装置用プログラム | |
JP2021025853A (ja) | サイズ測定装置、サイズ測定方法、プログラム | |
JP7418743B2 (ja) | 対象ワークの識別移載装置及び識別移載方法 | |
CN112802106A (zh) | 对象抓取方法及装置 | |
CN116175542A (zh) | 抓取控制方法、装置、电子设备和存储介质 | |
Yoon et al. | Logistics box recognition in robotic industrial de-palletising procedure with systematic RGB-D image processing supported by multiple deep learning methods | |
JPS62289701A (ja) | 散積み物体の位置関係を3次元的に認識する視覚システム | |
CN116175540B (zh) | 基于位置及朝向的抓取控制方法、装置、设备和介质 | |
CN116175541B (zh) | 抓取控制方法、装置、电子设备和存储介质 | |
JP7398763B2 (ja) | 重なり処理機構を備えたロボットシステム及びその操作方法 | |
JP7408107B2 (ja) | 物体取り扱いを伴うロボットシステムのためのシステム及び方法 | |
CN116197888A (zh) | 物品位置确定方法、装置、电子设备和存储介质 |