JP2019136828A - 箱状物ピッキング装置及びその方法 - Google Patents

箱状物ピッキング装置及びその方法 Download PDF

Info

Publication number
JP2019136828A
JP2019136828A JP2018023430A JP2018023430A JP2019136828A JP 2019136828 A JP2019136828 A JP 2019136828A JP 2018023430 A JP2018023430 A JP 2018023430A JP 2018023430 A JP2018023430 A JP 2018023430A JP 2019136828 A JP2019136828 A JP 2019136828A
Authority
JP
Japan
Prior art keywords
box
shaped
picking
shaped picking
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018023430A
Other languages
English (en)
Other versions
JP7065632B2 (ja
Inventor
エドモンド 蘇
Su Edmund
エドモンド 蘇
暁明 牛
Xiaoming Niu
暁明 牛
徐 剛
Xu Gang
剛 徐
朋弘 仲道
Tomohiro Nakamichi
朋弘 仲道
克英 鈴木
Katsuhide Suzuki
克英 鈴木
三宅 淳司
Junji Miyake
淳司 三宅
勉 石田
Tsutomu Ishida
勉 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto Robotics Corp
Original Assignee
Kyoto Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyoto Robotics Corp filed Critical Kyoto Robotics Corp
Priority to JP2018023430A priority Critical patent/JP7065632B2/ja
Publication of JP2019136828A publication Critical patent/JP2019136828A/ja
Application granted granted Critical
Publication of JP7065632B2 publication Critical patent/JP7065632B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】把持対象となる箱状対象物を自動的に確認・計測できる箱状物ピッキング装置を提供すること。【解決手段】三次元点群情報と二次元画像に基づき、複数の箱状ピッキング対象物全体から平面画像を切り出す切り出し手段(ステップS2)と、切り出された平面画像を正面画像に変換する変換手段(ステップS3)と、変換された正面画像から共通のパターンを見つけ出し、箱状物の領域を決定する領域決定手段(ステップS4)と、決定された箱状物の領域に属する三次元点群情報に基づき、把持対象となる箱状ピッキング対象物の三次元位置姿勢を出力する位置姿勢出力手段(ステップS6)と、出力された三次元位置姿勢に基づき、把持対象となる箱状ピッキング対象物を把持し、移載するロボット、を備えている。【選択図】図2

Description

本発明は、箱状物ピッキング装置及びその方法に関する。
近年、物流業界において、倉庫内の仕分け、積込み、荷卸し等の作業の自動化が求められており、様々な自動化システムの導入が進められている(例えば、特許文献1参照)。
特開平06−055477号公報
しかしながら、パレット上に積まれた荷物を一つ一つ取り分ける作業、すなわち、デパレタイズ作業工程、或いは、ケース(外箱)内にパッケージ単位(或いは、小箱単位)で詰められたものを個別に移載する工程では、次のような問題があり、自動化のネックとなっていた。
(1)ほぼ同じ形状の箱状の荷物が密に積み付けられているため、自動的に個々の箱を見分けるのは困難であるという問題があった。
(2)多種類の箱状物が存在しているため、各種の箱状物のサイズや重さをデータベース内に登録するのは非常に手間がかかるといった問題があった。
(3)同じ商品であっても梱包される搬送用ケース(外箱)のサイズは変わるため、商品ごとに事前に登録したサイズを前提に把持を行うと、把持できない、或いは、移載中に箱をぶつける等の不具合が生じるといった問題があった。
(4)箱状物ごとの重さに合わせて適切な加速度で運ばなければ、箱状物を落としたり、必要以上に移載に時間がかかったり、といった問題があった。
そこで、本発明は、上記問題に鑑み、物流現場において、把持対象となる箱状ピッキング対象物を自動的に確認・計測することができる箱ピッキング装置及びその方法を提供することを目的としている。
上記本発明の目的は、以下の手段によって達成される。なお、括弧内は、後述する実施形態の参照符号を付したものであるが、本発明はこれに限定されるものではない。
請求項1の発明に係る箱状物ピッキング装置は、荷積みされた複数の箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)全体(W)の三次元点群情報を生成する第1生成手段(例えば、図1に示すカメラ4)と、
前記複数の箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)全体(W)の二次元画像を生成する第2生成手段(例えば、図1に示すカメラ4)と、
前記第1生成手段(例えば、図1に示すカメラ4)にて生成された三次元点群情報と前記第2生成手段(例えば、図1に示すカメラ4)にて生成された二次元画像に基づき、前記複数の箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)全体(W)から所定の平面画像(例えば、図4(a)に示す最上面HMの画像)を切り出す切り出し手段(例えば、図2に示すステップS2)と、
前記切り出し手段(例えば、図2に示すステップS2)にて切り出された所定の平面画像(例えば、図4(a)に示す最上面HMの画像)を正面画像(例えば、図4(b)に示す画像)に変換する変換手段(例えば、図2に示すステップS3)と、
前記変換手段(例えば、図2に示すステップS3)にて変換された正面画像(例えば、図4(b)に示す画像)から共通のパターンを見つけ出し、箱状物の領域を決定する領域決定手段(例えば、図2に示すステップS4)と、
前記領域決定手段(例えば、図2に示すステップS4)にて決定された箱状物の領域に属する前記第1生成手段(例えば、図1に示すカメラ4)にて生成された三次元点群情報に基づき、把持対象となる箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)の三次元位置姿勢を出力する位置姿勢出力手段(例えば、図2に示すステップS6)と、
前記位置姿勢出力手段(例えば、図2に示すステップS6)にて出力された三次元位置姿勢に基づき、前記把持対象となる箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)を把持し、移載するロボット(例えば、図1に示すロボット2)と、を備えてなることを特徴としている。なお、第1生成手段と、第2生成手段は、異なっても良いし、同一でも良い。
一方、請求項2の発明に係る箱状物ピッキング方法は、荷積みされた複数の箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)全体(W)の三次元点群情報を生成し(例えば、図3(a)参照)、
前記複数の箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)全体(W)の二次元画像を生成し(例えば、図3(a)参照)、
前記生成された三次元点群情報と二次元画像に基づき、前記複数の箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)全体(W)から所定の平面画像(例えば、図4(a)に示す最上面HMの画像)を切り出し(例えば、図2に示すステップS2)、
前記切り出した所定の平面画像(例えば、図4(a)に示す最上面HMの画像)を正面画像(例えば、図4(b)に示す画像)に変換し(例えば、図2に示すステップS3)、
前記変換した正面画像(例えば、図4(b)に示す画像)から共通のパターンを見つけ出し、箱状物の領域を決定し(例えば、図2に示すステップS4)、
前記決定した箱状物の領域に属する前記生成された三次元点群情報に基づき、把持対象となる箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)の三次元位置姿勢を出力し(例えば、図2に示すステップS6)、
前記出力した三次元位置姿勢に基づき、ロボット(例えば、図1に示すロボット2)を用いて、前記把持対象となる箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)を把持し、移載してなることを特徴としている。
また、請求項3の発明によれば、上記請求項2に記載の箱状物ピッキング方法において、前記把持対象となる箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)の正確なサイズを事前に入力不要であることを特徴としている。
さらに、請求項4の発明によれば、上記請求項2又は3に記載の箱状物ピッキング方法において、前記決定した箱状物の領域の長手方向の長さ(例えば、図5(d)に示す横Lのサイズ)と幅方向の長さ(例えば、図5(d)に示す縦Tのサイズ)を計測し(例えば、図2に示すステップS5)、該計測した長さ(例えば、図5(d)に示す横L、縦Tのサイズ)を持つ箱状物の領域に属する前記生成された三次元点群情報に基づき、把持対象となる箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)の三次元位置姿勢を出力し(例えば、図2に示すステップS6)てなることを特徴としている。
またさらに、請求項5の発明によれば、上記請求項2〜4の何れか1項に記載の箱状物ピッキング方法において、前記変換した正面画像(例えば、図4(b)に示す画像)に対してフーリエ変換を行い、その変換したフーリエ変換画像におけるピーク値を抽出することで、共通のパターンを見つけ出し、箱状物の領域を決定し(例えば、図2に示すステップS4)てなることを特徴としている。
一方、請求項6の発明によれば、上記請求項2〜5の何れか1項に記載の箱状物ピッキング方法において、前記出力した三次元位置姿勢に基づき、ロボット(例えば、図1に示すロボット2)を用いて、前記把持対象となる箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)を把持し、移載する際、再度、荷積みされた複数の箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)全体(W)の三次元点群情報を生成し(例えば、図6(b)参照)、
前記把持し、移載する前の荷積みされた複数の箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)全体(W)の三次元点群情報(例えば、図6(a)参照)と、前記把持し、移載する際の荷積みされた複数の箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)全体(W)の三次元点群情報(例えば、図6(a)参照)とを比較した際の差を、前記把持対象となる箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)の高さ(例えば、図6(b)に示す高さH)としてなることを特徴としている。
また、請求項7の発明によれば、上記請求項6に記載の箱状物ピッキング方法において、前記計測した長さ(例えば、図5(d)に示す横L、縦Tのサイズ)、並びに、前記把持対象となる箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)の高さ(例えば、図6(b)に示す高さH)を出力してなることを特徴としている。
一方、請求項8の発明によれば、上記請求項2〜7の何れか1項に記載の箱状物ピッキング方法において、前記出力した三次元位置姿勢に基づき、ロボット(例えば、図1に示すロボット2)を用いて、前記把持対象となる箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)を把持した際、該把持対象となる箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)の重量を計測してなることを特徴としている。
さらに、請求項9の発明によれば、上記請求項8に記載の箱状物ピッキング方法において、前記計測した把持対象となる箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)の重量に基づき、前記ロボット(例えば、図1に示すロボット2)を用いて、前記把持対象となる箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)を移載する際の加速度を制御してなることを特徴としている。
一方、請求項10の発明によれば、上記請求項4に記載の箱状物ピッキング方法において、前記計測した長さ(例えば、図5(d)に示す横L、縦Tのサイズ)に基づき、前記ロボット(例えば、図1に示すロボット2)を用いて、前記把持対象となる箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)を移載する際の経路を設定して制御してなることを特徴としている。
次に、本発明の効果について、図面の参照符号を付して説明する。なお、括弧内は、後述する実施形態の参照符号を付したものであるが、本発明はこれに限定されるものではない。
請求項1又は請求項2に係る発明によれば、物流現場において、把持対象となる箱状ピッキング対象物を自動的に確認・計測することができる。これにより、把持対象となる箱状ピッキング対象物のサイズの入力をする必要がなくなり、もって、データベースへの登録(マスター登録)の必要性がなくなる。また、請求項3に係る発明によれば、把持対象となる箱状ピッキング対象物のサイズの正確な入力をしなくとも良い。
さらに、請求項4に係る発明によれば、決定した箱状物の領域の長手方向の長さ(例えば、図5(d)に示す横Lのサイズ)と幅方向の長さ(例えば、図5(d)に示す縦Tのサイズ)を計測し(例えば、図2に示すステップS5)、該計測した長さ(例えば、図5(d)に示す横L、縦Tのサイズ)を持つ箱状物の領域に属する生成された三次元点群情報に基づき、把持対象となる箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)の三次元位置姿勢を出力し(例えば、図2に示すステップS6)ているから、正確にロボット(例えば、図1に示すロボット2)にて箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)を把持させることができる。
またさらに、請求項5に係る発明によれば、変換した正面画像(例えば、図4(b)に示す画像)に対してフーリエ変換を行い、その変換したフーリエ変換画像におけるピーク値を抽出することで、簡単容易に、共通のパターンを見つけ出し、箱状物の領域を決定する(例えば、図2に示すステップS4)ことができる。
一方、請求項6に係る発明によれば、把持し、移載する前の荷積みされた複数の箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)全体(W)の三次元点群情報(例えば、図6(a)参照)と、前記把持し、移載する際の荷積みされた複数の箱状ピッキング対象物(例えば、図1に示す箱状ピッキング対象物Wa)全体(W)の三次元点群情報(例えば、図6(a)参照)とを比較した際の差を、前記把持対象となる箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)の高さ(例えば、図6(b)に示す高さH)としているから、簡単容易に、箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)の高さを計測することができる。
また、請求項7の発明によれば、計測した長さ(例えば、図5(d)に示す横L、縦Tのサイズ)、並びに、把持対象となる箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)の高さ(例えば、図6(b)に示す高さH)を出力しているから、箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)の長さ(例えば、図5(d)に示す横L、縦Tのサイズ)、並びに、高さ(例えば、図6(b)に示す高さH)が自動で計測されることとなる。
一方、請求項8に係る発明によれば、出力した三次元位置姿勢に基づき、ロボット(例えば、図1に示すロボット2)を用いて、把持対象となる箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)を把持した際、該把持対象となる箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)の重量を計測しているから、自動で箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)の重量を計測することができる。
さらに、請求項9に係る発明によれば、計測した把持対象となる箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)の重量に基づき、ロボット(例えば、図1に示すロボット2)を用いて、把持対象となる箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)を移載する際の加速度を制御しているから、把持対象となる箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)を、所定箇所(例えば、コンベア)に移載させる途中で、落下させてしまう事態を低減させることができる。
一方、請求項10に係る発明によれば、計測した長さ(例えば、図5(d)に示す横L、縦Tのサイズ)に基づき、ロボット(例えば、図1に示すロボット2)を用いて、把持対象となる箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)を移載する際の経路を設定して制御しているから、安全に箱状ピッキング対象物(例えば、図6(b)に示す箱状ピッキング対象物Waの破線部分)を所定箇所(例えば、コンベア)に移載させることができる。
本発明の一実施形態に係る箱状物ピッキング装置の概略全体図である。 同実施形態に係る箱状物ピッキング装置の制御手順を示すフローチャート図である。 (a)は、X方向,Y方向,Z方向の三次元座標を備えた三次元点群情報が表わされた隣接して荷積された複数の箱状ピッキング対象物全体の斜視図、(b)は、(a)に示す隣接して荷積された複数の箱状ピッキング対象物全体の二次元画像を示す図である。 (a)は、図3(b)に示す二次元画像の最上面を切り出すことを説明した説明図、(b)は、(a)に示す最上面を切り出した際の二次元画像の正面図である。 (a)は、図4(a)に示す最上面を切り出した際の二次元画像の正面図、(b)は、(a)に示す二次元画像から見つけ出した共通のパターンを示す正面図、(c−1)は、基準となる基準箱を縮小して、(b)に示す二次元画像に一致させようとしていることを示す説明図、(c−2)は、基準となる基準箱を拡大して、(b)に示す二次元画像に一致させようとしていることを示す説明図、(d)は、基準となる基準箱と(b)に示す二次元画像とが一致したことを示す正面図である。 (a)は、箱状ピッキング対象物把持前のX方向,Y方向,Z方向の三次元座標を備えた三次元点群情報が表わされた隣接して荷積された複数の箱状ピッキング対象物全体の斜視図、(b)は、箱状ピッキング対象物把持後のX方向,Y方向,Z方向の三次元座標を備えた三次元点群情報が表わされた隣接して荷積された複数の箱状ピッキング対象物全体の斜視図である。
以下、本発明に係る箱状物ピッキング装置の一実施形態を、図面を参照して具体的に説明する。なお、以下の説明において、上下左右の方向を示す場合は、図示正面から見た場合の上下左右をいうものとする。
図1に示すように、箱状物ピッキング装置1は、ロボット2と、このロボット2を制御するロボット制御装置3と、カメラ4と、画像処理装置5と、で構成されている。なお、符号Wは、パレットP上に、隣接して荷積された複数の箱状ピッキング対象物Wa全体を示すものである。
ロボット2は、床や壁等の設置面に固定される土台20と、土台20に対して基端が回転可能に連結されているロボットアーム部21と、ロボットアーム部21の先端に取り付けられ、箱状ピッキング対象物Waを吸着・挟み込み・支持等によって把持することができるロボットハンド22とを備えている。なお、このロボットハンド22には、箱状ピッキング対象物Waを把持した際の当該箱状ピッキング対象物Waの重量を計測する歪ゲージ等の重量センサが設けられており、重量センサの計測情報は、ロボット制御装置3に出力される。また、重量センサに代えて、基端が回転可能に連結されているロボットアーム部21のモータ駆動に必要な電流を検出し、その検出情報から、箱状ピッキング対象物Waの重量を推定することもできる。すなわち、基端が回転可能に連結されているロボットアーム部21を同姿勢にして静止させた際の無負荷のモータのトルクと、箱状ピッキング対象物Waを把持した際のモータのトルクとの差を用いて、箱状ピッキング対象物Waの重量を推定するようにすれば良い。なお、推定された重量情報は、重量センサの計測情報同様、ロボット制御装置3に出力される。
一方、ロボット制御装置3は、画像処理装置5より出力されるデータ、又は、ロボット2より出力されるデータに基づき、ロボット2の稼動を制御するものである。
カメラ4は、パレットP上に、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報と、パレットP上に、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの二次元画像を取得できるものである。
画像処理装置5は、CPU50と、マウスやキーボード、タッチパネル等にて外部から所定データを画像処理装置5に入力することができる入力部51と、画像処理装置5外に所定データを出力することができる出力部52と、所定のプログラム等を格納した書込み可能なフラッシュROM等からなるROM53と、作業領域やバッファメモリ等として機能するRAM54と、LCD(Liquid Crystal Display)等からなる表示部55と、で構成されている。
かくして、上記のような箱状物ピッキング装置を使用するにあたっては、作業者が、図1に示す画像処理装置5の入力部51を用いて、図1に示すROM53内に格納されているプログラムの起動を指示する。これにより、画像処理装置5のCPU50(図1参照)は、図2に示すような処理を行う。以下、図2を参照して説明する。なお、図2に示すプログラムの処理内容はあくまで一例であり、これに限定されるものではない。
まず、CPU50(図1参照)は、カメラ4にて取得された隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報と、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの二次元画像を取得する(ステップS1)。より詳しく説明すると、カメラ4にて取得された隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報は、図3(a)に示すように、X方向,Y方向,Z方向の三次元座標で表される複数の三次元点群TGとして、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの全体に亘って表わされる。なお、複数の三次元点群TGは、それぞれ、X方向,Y方向,Z方向の三次元座標(X,Y,Z)(n≧1の整数)を備えている。
一方、カメラ4にて取得された隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの二次元画像は、図3(b)に示すようなものとなる。なお、CPU50(図1参照)は、取得した隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報と、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの二次元画像と、を一時的にRAM54内に記憶する。
次いで、CPU50(図1参照)は、RAM54内に記憶された隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報と、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの二次元画像と、を読みだし、図4(a)に示すように、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの二次元画像から最上面HMの画像を切り出す(ステップS2)。より具体的に説明すると、CPU50(図1参照)は、図3(a)に示す、X方向,Y方向,Z方向の三次元座標で表される複数の三次元点群TGから、X方向,Y方向,Z方向の三次元座標の変化を確認する。これより、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの奥行き(X方向、又は、Y方向)、深さ(Z方向)が分かることとなる。しかして、CPU50(図1参照)は、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wが把握できることとなる。また、図3(b)に示す隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの二次元画像から最外周のエッジ部分Eaが分かるため、CPU50(図1参照)は、把握した隣接して荷積された複数の箱状ピッキング対象物Wa全体Wと、二次元画像から抽出した最外周のエッジ部分Eaとに基づき、図4(a)に示すように、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの二次元画像から最上面HMの画像を切り出すことができる。なお、CPU50(図1参照)は、切り出した最上面HMの画像を、一時的にRAM54内に記憶する。
次いで、CPU50(図1参照)は、RAM54内に記憶された切り出した最上面HMの画像を図4(b)に示すように正面画像に変換する(ステップS3)。より具体的に説明すると、CPU50(図1参照)は、切り出した最上面HMの画像に対する視線方向(奥行方向、すなわち、X方向、Y方向)を、図3(a)に示す、X方向,Y方向,Z方向の三次元座標で表される複数の三次元点群TGを確認することによって認識することができる。そして、CPU50(図1参照)は、切り出した最上面HMの画像に対して認識した視線方向(奥行方向)のX方向,Y方向に対して、垂直な法線方向(Z方向)を検出し、その視線方向(奥行方向)のX方向,Y方向に対して、検出した垂直な法線方向(Z方向)から見た正面画像に変換する。これにより、RAM54内に記憶された切り出した最上面HMの画像は、図4(b)に示すように正面画像に変換されることとなる。なお、CPU50(図1参照)は、図4(b)に示すように変換した正面画像を、一時的にRAM54内に記憶する。
次いで、CPU50(図1参照)は、RAM54内に記憶された図4(b)に示すように変換した正面画像を読み出し、図5(a)に示す正面画像から繰り返しがある部分(共通のパターン)を抽出する。具体的には、CPU50(図1参照)は、図5(a)に示す正面画像をフーリエ変換し、そのフーリエ変換した正面画像のピーク値を抽出する。これにより、簡単容易に、図5(a)に示す正面画像から繰り返しがある部分(共通のパターン)を抽出することができ、もって、図5(b)に示すように、箱状ピッキング対象物Waの領域を決定することができる(ステップS4)。なお、フーリエ変換した正面画像のピーク値を抽出する方法以外としては、従来周知の方法、例えば、フーリエ変換を用いたテクスチャの構造解析(松山隆司他、1982年3月情報処理学会論文誌)を用いて行うようにすることもできる。
次いで、CPU50(図1参照)は、上記決定した箱状ピッキング対象物Waの領域を用いて、箱状ピッキング対象物Waの縦、横のサイズを計測する(ステップS5)。具体的に説明すると、ROM53内に予め基準となる基準箱KA(図5(c−1)参照)のサイズ(例えば、縦480mm,横370mm)を記憶、又は、ROM53内に予め基準となる基準箱KB(図5(c−2)参照)のサイズ(例えば、縦235mm,横150mm)を記憶しておく。そして、CPU50(図1参照)は、ROM53内に予め基準となる基準箱KA(図5(c−1)参照)のサイズ(例えば、縦480mm,横370mm)が記憶されていると、ROM53よりその記憶されている基準箱KA(図5(c−1)参照)を読み出し、図5(c−1)に示すように、上記ステップS4にて決定した箱状ピッキング対象物Waの領域に重ね合わせる。そして、CPU50(図1参照)は、上記ステップS4にて決定した箱状ピッキング対象物Waの領域と、基準箱KA(図5(c−1)参照)とが一致するように、図5(c−1)に示す矢印Y1方向に、基準箱KA(図5(c−1)参照)を縮小させる。これにより、図5(d)に示すように、上記ステップS4にて決定した箱状ピッキング対象物Waの領域と、基準箱KA(図5(c−1)参照)とが一致することとなるから、CPU50(図1参照)は、基準箱KA(図5(c−1)参照)のサイズが分かっているため、箱状ピッキング対象物Waの縦T、横Lのサイズを縮小率から算出することができる。
一方、CPU50(図1参照)は、ROM53内に予め基準となる基準箱KB(図5(c−2)参照)のサイズ(例えば、縦235mm,横150mm)が記憶されていると、ROM53よりその記憶されている基準箱KB(図5(c−2)参照)を読み出し、図5(c−2)に示すように、上記ステップS4にて決定した箱状ピッキング対象物Waの領域に重ね合わせる。そして、CPU50(図1参照)は、上記ステップS4にて決定した箱状ピッキング対象物Waの領域と、基準箱KB(図5(c−2)参照)とが一致するように、図5(c−2)に示す矢印Y2方向に、基準箱KB(図5(c−1)参照)を拡大させる。これにより、図5(d)に示すように、上記ステップS4にて決定した箱状ピッキング対象物Waの領域と、基準箱KB(図5(c−2)参照)とが一致することとなるから、CPU50(図1参照)は、基準箱KB(図5(c−2)参照)のサイズが分かっているため、箱状ピッキング対象物Waの縦T、横Lのサイズを拡大率から算出することができる。
しかして、このようにして、CPU50(図1参照)は、上記決定した箱状ピッキング対象物Waの領域を用いて、箱状ピッキング対象物Waの縦T、横Lのサイズを計測することができる。なお、本実施形態においては、ROM53内に予め基準となる基準箱KA(図5(c−1)参照)のサイズ(例えば、縦480mm,横370mm)を記憶、又は、ROM53内に予め基準となる基準箱KB(図5(c−2)参照)のサイズ(例えば、縦235mm,横150mm)を記憶しておく例を示したが、それに限らず、作業者が、図1に示す画像処理装置5の入力部51を用いて、基準箱の任意のサイズを入力できるようにしても良い。なお、CPU50(図1参照)は、算出した箱状ピッキング対象物Waの縦T、横Lのサイズを、一時的にRAM54内に記憶する。
次いで、CPU50(図1参照)は、上記ステップS4にて決定した箱状ピッキング対象物Waの領域に属する図3(a)に示す、X方向,Y方向,Z方向の三次元座標で表される複数の三次元点群TGからX方向,Y方向,Z方向の三次元座標の変化を確認し、箱状ピッキング対象物Waの位置姿勢を算出する。そして、CPU50(図1参照)は、その算出した位置姿勢を、出力部52(図1参照)を介してロボット制御装置3に出力する(ステップS6)。これを受けて、ロボット制御装置3は、その位置姿勢に基づいて、ロボット2(図1参照)を制御し、もって、ロボット2(図1参照)のロボットハンド22(図1参照)にて箱状ピッキング対象物Wa(図1参照)を把持させる。これにより、正確にロボット2(図1参照)のロボットハンド22(図1参照)にて箱状ピッキング対象物Wa(図1参照)を把持させることができる。なおこの際、ロボット制御装置3は、ロボット2(図1参照)にて箱状ピッキング対象物Wa(図1参照)を把持させたことを画像処理装置5(図1参照)に出力する。
次いで、CPU50(図1参照)は、ロボット制御装置3より出力されたロボット2(図1参照)にて箱状ピッキング対象物Wa(図1参照)を把持させたことを示す情報を、入力部51(図1参照)を介して受け取ると、カメラ4(図1参照)にて、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報を取得するよう出力部52(図1参照)を介してカメラ4に出力する。これを受けて、カメラ4は、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報を取得する。すなわち、ロボット2(図1参照)にて箱状ピッキング対象物Waを把持させる前は、図6(a)に示すように、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報を取得している。これは、上記ステップS1にて説明した通りである。一方、今回は、ロボット2(図1参照)にて箱状ピッキング対象物Waを把持させた後、図6(b)に示すように、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報を取得することとなる。すなわち、図6(b)に示すように、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wのうち、図示正面から見て左上隅に位置する箱状ピッキング対象物Wa(破線部分参照)が把持された際、その把持された箱状ピッキング対象物Wa(破線部分参照)部分を除く、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報を取得することとなる。なお、カメラ4にて取得された隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報は、図6(a),(b)に示すように、X方向,Y方向,Z方向の三次元座標で表される複数の三次元点群TGとして、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの全体に亘って表わされている。
しかして、CPU50(図1参照)は、カメラ4(図1参照)にて取得された、図6(b)に示す、隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報を、入力部51(図1参照)を介して受け取ると、RAM54内に記憶されている、図6(a)に示す隣接して荷積された複数の箱状ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報とを比較する。この際、図6(b)に示すように、図示正面から見て左上隅に位置する箱状ピッキング対象物Wa(破線部分参照)が存在していない分、Z方向の三次元座標が変化しているため、CPU50(図1参照)は、深さの変化を計測することができる。これにより、CPU50(図1参照)は、その計測した深さを把持された箱状ピッキング対象物Wa(図6(b)に示す破線部分参照)の高さH(図6(b)参照)として、出力部52(図1参照)を介してロボット制御装置3に出力する(ステップS7)。しかして、このようにすれば、簡単容易に、箱状ピッキング対象物Waの高さを計測することができる。なお、この際、RAM54内に記憶されている上記ステップS5にて算出した箱状ピッキング対象物Waの縦T、横Lのサイズも、出力部52(図1参照)を介してロボット制御装置3に出力される。これにより、箱状ピッキング対象物Waの縦T、横L、高さHが自動で計測されることとなる。なお、CPU50は、この高さH(図6(b)参照)を、一時的にRAM54内に記憶する。
かくして、ロボット制御装置3は、上記出力された箱状ピッキング対象物Waの縦T、横Lのサイズ並びに高さHに基づいて、ロボット2(図1参照)を制御し、もって、ロボット2(図1参照)のロボットハンド22(図1参照)にて把持させた箱状ピッキング対象物Wa(図1参照)を、所定箇所(例えば、コンベア)に移載させることとなる。より詳しく説明すると、ロボット制御装置3は、箱状ピッキング対象物Waの縦T、横Lのサイズから、所定箇所(例えば、コンベア)の長さ,幅を考慮(所定箇所(例えば、コンベア)の長さ,幅の情報は予め記憶されている)して、ロボットハンド22(図1参照)にて把持させている箱状ピッキング対象物Wa(図1参照)を移載させる際の経路設定を行う。そしてさらに、ロボット制御装置3は、箱状ピッキング対象物Waの高さHから、所定箇所(例えば、コンベア)の高さ、並びに、箱状ピッキング対象物Waを安全に載置できるためのクリアランス等を考慮(所定箇所(例えば、コンベア)の高さの情報は予め記憶されている)して、ロボットハンド22(図1参照)にて把持させている箱状ピッキング対象物Wa(図1参照)を移載させる際の経路設定を行う。しかして、このように設定した経路設定に基づいて、ロボット2(図1参照)を制御し、もって、ロボット2(図1参照)のロボットハンド22(図1参照)にて把持させた箱状ピッキング対象物Wa(図1参照)を、所定箇所(例えば、コンベア)に移載させることとなる。これにより、安全に箱状ピッキング対象物Wa(図1参照)を所定箇所(例えば、コンベア)に移載させることができる。
また、ロボットハンド22(図1参照)には、箱状ピッキング対象物Waを把持した際、当該箱状ピッキング対象物Waの重量を計測する歪ゲージ等の重量センサが設けられているから、重量センサの計測情報は、ロボット制御装置3に出力される。これにより、自動で箱状ピッキング対象物Waの重量を計測することができる。
一方、ロボット制御装置3は、これを受けて、計測された重量が予め設定しておいた重量よりも大きければ、ロボットハンド22(図1参照)にて把持させている箱状ピッキング対象物Wa(図1参照)を移載させる際の加速度を予め設定されている加速度よりも低く設定し、計測された重量が予め設定しておいた重量より小さければ、ロボットハンド22(図1参照)にて把持させている箱状ピッキング対象物Wa(図1参照)を移載させる際の加速度を予め設定されている加速度よりも高く設定し、計測された重量が予め設定しておいた重量と同一であれば、ロボットハンド22(図1参照)にて把持させている箱状ピッキング対象物Wa(図1参照)を移載させる際の加速度を予め設定されている加速度に設定する。
しかして、このように設定した加速度に基づいて、ロボット2(図1参照)を制御し、もって、ロボット2(図1参照)のロボットハンド22(図1参照)にて把持させた箱状ピッキング対象物Wa(図1参照)を、所定箇所(例えば、コンベア)に移載させることとなる。これにより、把持させた箱状ピッキング対象物Wa(図1参照)を、所定箇所(例えば、コンベア)に移載させる途中で、落下させてしまう事態を低減させることができる。なお、重量センサに代えて、基端が回転可能に連結されているロボットアーム部21のモータ駆動に必要な電流を検出し、その検出情報から箱状ピッキング対象物Waの重量を推定するようにした際も、同様の処理を行うことができる。
しかして、以上説明した本実施形態によれば、物流現場において、把持対象となる箱状ピッキング対象物を自動的に確認・計測することができることとなる。これにより、多種の箱のサイズや重量をデータベース内に事前に登録する必要がなくなる。また、多種の箱のサイズや重量をデータベース内に事前に登録しなくとも、安定して把持対象となる箱状ピッキング対象物を把持できることとなる。
すなわち、従来であれば、多種の箱のサイズをデータベース内に事前に登録する必要があるため、把持対象となる箱状ピッキング対象物のサイズを正確に登録する必要があるものの、本実施形態によれば、把持対象となる箱状ピッキング対象物を自動的に確認・計測することができるため、このような正確な登録が不要となる。また、仮に、把持対象となる箱状ピッキング対象物のサイズを入力(登録)したとしても、正確な入力(登録)は必要なく、概略(例えば、箱状ピッキング対象物の縦横高さの基準、又は、縦横高さが取りえる数値範囲、或いは、直方体,八角柱等の形状等)だけ入力(登録)するだけで良い。
なお、本実施形態にて例示した内容は、あくまで一例であり、特許請求の範囲に記載された本発明の要旨の範囲内において種々の変形・変更が可能である。
例えば、RAM54内に記憶した箱状ピッキング対象物Waの縦T、横Lのサイズ並びに高さHを図示しないデータベースに記憶し、次回以降のピッキング作業(デパレタイズ作業)に使用することができる。
また、本実施形態においては、箱状ピッキング対象物Waを上面からピッキングすることを想定して最上面HMの画像を切り出す例を示したが、それに限らず、側面(例えば、図4(a)を正面から見た際の左側面、又は、右側面)、又は、正面、或いは、背面の画像を切り出すようにしても良い。
また、本実施形態においては、箱状ピッキング対象物Waとして無地のものを例示したが、それに限らず、ガムテープが貼り付いていたり、ロゴやバーコード等が印字されていたりする箱等、どのような箱にも適用可能である。
また、本実施形態においては、箱状ピッキング対象物Waとして矩形状のものを例示したが、それに限らず、八角形状等、どのような形状の箱にも適用可能である。
また、本実施形態においては、箱状ピッキング対象物Waとして、荷積みされている箱を1箱そのままピッキングする例を示したが、それに限らず、1ケース(外箱)内に入っている缶コーヒーや缶ビールなどを1パックしたものをピッキングする際にも適用可能であり、或いは、1ケース(外箱)内に入っている複数の小箱をピッキングする際にも適用可能である。
また、本実施形態においては、箱状ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報と二次元画像をカメラ4にて取得できる例を示したが、それに限らず、カメラ4は単なる撮像機能だけにし、画像処理装置5(図1参照)のCPU50(図1参照)にて、箱状ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報を生成し、箱状ピッキング対象物Wa全体Wの二次元画像を生成するようにしても良い。またさらに、カメラ4,画像処理装置5(図1参照)のCPU50(図1参照)の何れか一方で、箱状ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報を生成し、他方のカメラ4又は画像処理装置5(図1参照)のCPU50(図1参照)にて箱状ピッキング対象物Wa全体Wの二次元画像を生成するようにしても良い。
一方、本実施形態においては、カメラ4を別に設ける例を示したが、それに限らず、カメラ4をロボット2に組み込むようにしても良い。また、ロボット制御装置3と画像処理装置5とを別々に設ける例を示したが、ロボット制御装置3と画像処理装置5を一体化しても良い。
1 箱状物ピッキング装置
2 ロボット
3 ロボット制御装置
4 カメラ(第1生成手段、第2生成手段)
5 画像処理装置
50 CPU
W (複数の箱状ピッキング対象物の)全体
Wa 箱状ピッキング対象物
HM 最上面(所定の平面画像)
L 横(決定した箱領域の長手方向)
T 縦(決定した箱領域の幅方向)

Claims (10)

  1. 荷積みされた複数の箱状ピッキング対象物全体の三次元点群情報を生成する第1生成手段と、
    前記複数の箱状ピッキング対象物全体の二次元画像を生成する第2生成手段と、
    前記第1生成手段にて生成された三次元点群情報と前記第2生成手段にて生成された二次元画像に基づき、前記複数の箱状ピッキング対象物全体から所定の平面画像を切り出す切り出し手段と、
    前記切り出し手段にて切り出された所定の平面画像を正面画像に変換する変換手段と、
    前記変換手段にて変換された正面画像から共通のパターンを見つけ出し、箱状物の領域を決定する領域決定手段と、
    前記領域決定手段にて決定された箱状物の領域に属する前記第1生成手段にて生成された三次元点群情報に基づき、把持対象となる箱状ピッキング対象物の三次元位置姿勢を出力する位置姿勢出力手段と、
    前記位置姿勢出力手段にて出力された三次元位置姿勢に基づき、前記把持対象となる箱状ピッキング対象物を把持し、移載するロボットと、を備えてなる箱状物ピッキング装置。
  2. 荷積みされた複数の箱状ピッキング対象物全体の三次元点群データを生成し、
    前記複数の箱状ピッキング対象物全体の二次元画像を生成し、
    前記生成された三次元点群情報と二次元画像に基づき、前記複数の箱状ピッキング対象物全体から所定の平面画像を切り出し、
    前記切り出した所定の平面画像を正面画像に変換し、
    前記変換した正面画像から共通のパターンを見つけ出し、箱状物の領域を決定し、
    前記決定した箱領域に属する前記生成された三次元点群情報に基づき、把持対象となる箱状ピッキング対象物の三次元位置姿勢を出力し、
    前記出力した三次元位置姿勢に基づき、ロボットを用いて、前記把持対象となる箱状ピッキング対象物を把持し、移載してなる箱状物ピッキング方法。
  3. 前記把持対象となる箱状ピッキング対象物の正確なサイズを事前に入力不要である請求項2に記載の箱状物ピッキング方法。
  4. 前記決定した箱状物の領域の長手方向の長さと幅方向の長さを計測し、該計測した長さを持つ箱状物の領域に属する前記生成された三次元点群情報に基づき、把持対象となる箱状ピッキング対象物の三次元位置姿勢を出力してなる請求項2又は3に記載の箱状物ピッキング方法。
  5. 前記変換した正面画像に対してフーリエ変換を行い、その変換したフーリエ変換画像におけるピーク値を抽出することで、共通のパターンを見つけ出し、箱状物の領域を決定してなる請求項2〜4の何れか1項に記載の箱状物ピッキング方法。
  6. 前記出力した三次元位置姿勢に基づき、ロボットを用いて、前記把持対象となる箱状ピッキング対象物を把持し、移載する際、再度、荷積みされた複数の箱状ピッキング対象物全体の三次元点群情報を生成し、
    前記把持し、移載する前の荷積みされた複数の箱状ピッキング対象物全体の三次元点群情報と、前記把持し、移載する際の荷積みされた複数の箱状ピッキング対象物全体の三次元点群情報とを比較した際の差を、前記把持対象となる箱状ピッキング対象物の高さとしてなる請求項2〜5の何れか1項に記載の箱状物ピッキング方法。
  7. 前記計測した長さ、並びに、前記把持対象となる箱状ピッキング対象物の高さを出力してなる請求項6に記載の箱状物ピッキング方法。
  8. 前記出力した三次元位置姿勢に基づき、ロボットを用いて、前記把持対象となる箱状ピッキング対象物を把持した際、該把持対象となる箱状ピッキング対象物の重量を計測してなる請求項2〜7の何れか1項に記載の箱状物ピッキング方法。
  9. 前記計測した把持対象となる箱状ピッキング対象物の重量に基づき、前記ロボットを用いて、前記把持対象となる箱状ピッキング対象物を移載する際の加速度を制御してなる請求項8に記載の箱状物ピッキング方法。
  10. 前記計測した長さに基づき、前記ロボットを用いて、前記把持対象となる箱状ピッキング対象物を移載する際の経路を設定して制御してなる請求項4に記載の箱状物ピッキング方法。
JP2018023430A 2018-02-13 2018-02-13 箱状物ピッキング装置及びその方法 Active JP7065632B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018023430A JP7065632B2 (ja) 2018-02-13 2018-02-13 箱状物ピッキング装置及びその方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018023430A JP7065632B2 (ja) 2018-02-13 2018-02-13 箱状物ピッキング装置及びその方法

Publications (2)

Publication Number Publication Date
JP2019136828A true JP2019136828A (ja) 2019-08-22
JP7065632B2 JP7065632B2 (ja) 2022-05-12

Family

ID=67692845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018023430A Active JP7065632B2 (ja) 2018-02-13 2018-02-13 箱状物ピッキング装置及びその方法

Country Status (1)

Country Link
JP (1) JP7065632B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110899147A (zh) * 2019-11-28 2020-03-24 武汉工程大学 一种基于激光扫描的传输带石头在线分拣方法
JP6723628B1 (ja) * 2020-02-13 2020-07-15 株式会社Mujin カメラの視野内の遮蔽を決定するための方法およびシステム
JP2021505980A (ja) * 2018-10-30 2021-02-18 株式会社Mujin 自動パッケージ登録機構および最小実行可能領域検出を備えたロボットシステム
JP2021036204A (ja) * 2019-08-30 2021-03-04 Kyoto Robotics株式会社 移載対象ワーク高さ計測システム
US11034025B2 (en) 2018-10-30 2021-06-15 Mujin, Inc. Automated package registration systems, devices, and methods
JP7126667B1 (ja) 2021-07-21 2022-08-29 株式会社Mujin 深さベースの処理メカニズムを伴うロボットシステム及びロボットシステムを操作するための方法
JP7175487B1 (ja) 2021-08-09 2022-11-21 株式会社Mujin 画像ベースのサイジングメカニズムを備えたロボットシステム及びロボットシステムを操作するための方法
WO2023140266A1 (ja) * 2022-01-19 2023-07-27 興和株式会社 ピッキング装置及び画像生成プログラム
JP7415538B2 (ja) 2019-12-18 2024-01-17 村田機械株式会社 移載装置
US11961042B2 (en) 2021-11-15 2024-04-16 Mujin, Inc. Robotic system with automated package registration mechanism and auto-detection pipeline

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03130808A (ja) * 1989-10-17 1991-06-04 Citizen Watch Co Ltd ロボットの制御方法およびその制御装置
JPH1031742A (ja) * 1996-07-15 1998-02-03 Mitsubishi Electric Corp 画像処理装置および物体移載装置
JP2006300929A (ja) * 2005-03-22 2006-11-02 Jfe Engineering Kk 物体の3次元位置認識装置およびデパレタイズシステム
JP2010247959A (ja) * 2009-04-16 2010-11-04 Ihi Corp 箱状ワーク認識装置および方法
JP2011070602A (ja) * 2009-09-28 2011-04-07 Canon Inc パターン検出装置、その処理方法及びプログラム
JP2015114292A (ja) * 2013-12-16 2015-06-22 川崎重工業株式会社 ワークの位置情報特定装置および方法
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
JP2016170050A (ja) * 2015-03-12 2016-09-23 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03130808A (ja) * 1989-10-17 1991-06-04 Citizen Watch Co Ltd ロボットの制御方法およびその制御装置
JPH1031742A (ja) * 1996-07-15 1998-02-03 Mitsubishi Electric Corp 画像処理装置および物体移載装置
JP2006300929A (ja) * 2005-03-22 2006-11-02 Jfe Engineering Kk 物体の3次元位置認識装置およびデパレタイズシステム
JP2010247959A (ja) * 2009-04-16 2010-11-04 Ihi Corp 箱状ワーク認識装置および方法
JP2011070602A (ja) * 2009-09-28 2011-04-07 Canon Inc パターン検出装置、その処理方法及びプログラム
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
JP2015114292A (ja) * 2013-12-16 2015-06-22 川崎重工業株式会社 ワークの位置情報特定装置および方法
JP2016170050A (ja) * 2015-03-12 2016-09-23 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11189033B2 (en) 2018-10-30 2021-11-30 Mujin, Inc. Robotic system with automated package registration mechanism and auto-detection pipeline
US11797926B2 (en) 2018-10-30 2023-10-24 Mujin, Inc. Robotic system with automated object detection mechanism and methods of operating the same
JP2021505980A (ja) * 2018-10-30 2021-02-18 株式会社Mujin 自動パッケージ登録機構および最小実行可能領域検出を備えたロボットシステム
US11780101B2 (en) 2018-10-30 2023-10-10 Mujin, Inc. Automated package registration systems, devices, and methods
US11636605B2 (en) 2018-10-30 2023-04-25 Mujin, Inc. Robotic system with automated package registration mechanism and minimum viable region detection
US11034025B2 (en) 2018-10-30 2021-06-15 Mujin, Inc. Automated package registration systems, devices, and methods
US11062457B2 (en) 2018-10-30 2021-07-13 Mujin, Inc. Robotic system with automated package registration mechanism and minimum viable region detection
US11501445B2 (en) 2018-10-30 2022-11-15 Mujin, Inc. Robotic system with automated package scan and registration mechanism and methods of operating the same
US11288810B2 (en) 2018-10-30 2022-03-29 Mujin, Inc. Robotic system with automated package registration mechanism and methods of operating the same
US11176674B2 (en) 2018-10-30 2021-11-16 Mujin, Inc. Robotic system with automated object detection mechanism and methods of operating the same
JP7280655B2 (ja) 2019-08-30 2023-05-24 株式会社日立オートメーション 移載対象ワーク高さ計測システム
JP2021036204A (ja) * 2019-08-30 2021-03-04 Kyoto Robotics株式会社 移載対象ワーク高さ計測システム
CN110899147B (zh) * 2019-11-28 2021-10-08 武汉工程大学 一种基于激光扫描的传输带石头在线分拣方法
CN110899147A (zh) * 2019-11-28 2020-03-24 武汉工程大学 一种基于激光扫描的传输带石头在线分拣方法
JP7415538B2 (ja) 2019-12-18 2024-01-17 村田機械株式会社 移載装置
US11006039B1 (en) 2020-02-13 2021-05-11 Mujin, Inc. Method and system for determining occlusion within a camera field of view
JP2021126761A (ja) * 2020-02-13 2021-09-02 株式会社Mujin カメラの視野内の遮蔽を決定するための方法およびシステム
JP6723628B1 (ja) * 2020-02-13 2020-07-15 株式会社Mujin カメラの視野内の遮蔽を決定するための方法およびシステム
US11924559B2 (en) 2020-02-13 2024-03-05 Mujin, Inc. Method and system for determining occlusion within a camera field of view
JP2023016699A (ja) * 2021-07-21 2023-02-02 株式会社Mujin 深さベースの処理メカニズムを伴うロボットシステム及びロボットシステムを操作するための方法
JP7126667B1 (ja) 2021-07-21 2022-08-29 株式会社Mujin 深さベースの処理メカニズムを伴うロボットシステム及びロボットシステムを操作するための方法
JP2023024933A (ja) * 2021-08-09 2023-02-21 株式会社Mujin 画像ベースのサイジングメカニズムを備えたロボットシステム及びロボットシステムを操作するための方法
JP7175487B1 (ja) 2021-08-09 2022-11-21 株式会社Mujin 画像ベースのサイジングメカニズムを備えたロボットシステム及びロボットシステムを操作するための方法
US11961042B2 (en) 2021-11-15 2024-04-16 Mujin, Inc. Robotic system with automated package registration mechanism and auto-detection pipeline
WO2023140266A1 (ja) * 2022-01-19 2023-07-27 興和株式会社 ピッキング装置及び画像生成プログラム

Also Published As

Publication number Publication date
JP7065632B2 (ja) 2022-05-12

Similar Documents

Publication Publication Date Title
JP7065632B2 (ja) 箱状物ピッキング装置及びその方法
US10562189B1 (en) Automated package registration systems, devices, and methods
JP6704154B2 (ja) 自動パッケージ登録システム、デバイス、および方法
CN110322457B (zh) 一种2d与3d视觉结合的拆垛方法
JP5788460B2 (ja) バラ積みされた物品をロボットで取出す装置及び方法
JP6378232B2 (ja) 複数の種類の物品を積み付けるための積み付けパターン計算装置および積み付け装置
EP1816604B1 (en) Workpiece picking device
CN111344118A (zh) 用于定位物品和为每个物品计算适当抓取点的机器人系统的控制设备和方法
EP3802014B1 (en) Control device and method for item verification
CN105858188A (zh) 具备三维传感器的搬运机器人系统
JP2004160567A (ja) 物品取出し装置
US11267138B2 (en) Package identification code, sheet or sticker sheet displaying same, and robot hand used for same
JP2012192490A (ja) 荷姿認識装置
CN115703232A (zh) 具有基于图像的尺寸确定机制的机器人系统及其操作方法
JP2016078180A (ja) 異常原因推定装置、ピッキング装置及びピッキング装置における異常原因推定方法
JP7117126B2 (ja) ピッキング装置及びその方法
JP2020049558A (ja) 物品取り出しシステム
Kirchheim et al. Automatic unloading of heavy sacks from containers
JP7232652B2 (ja) ワーク移載システム
JP2020125916A (ja) 移載対象ワーク記憶システム
WO2022264381A1 (ja) ワーク取出し個数算出装置、ハンドシステム、及び表示装置
JP2020040796A (ja) ピッキングシステム
CN110405810B (zh) 自动包裹配准系统、装置和方法
CN116175541B (zh) 抓取控制方法、装置、电子设备和存储介质
CN116197888B (zh) 物品位置确定方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220426

R150 Certificate of patent or registration of utility model

Ref document number: 7065632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350