JP2017039189A - 配置検出装置およびピッキング装置 - Google Patents
配置検出装置およびピッキング装置 Download PDFInfo
- Publication number
- JP2017039189A JP2017039189A JP2015162904A JP2015162904A JP2017039189A JP 2017039189 A JP2017039189 A JP 2017039189A JP 2015162904 A JP2015162904 A JP 2015162904A JP 2015162904 A JP2015162904 A JP 2015162904A JP 2017039189 A JP2017039189 A JP 2017039189A
- Authority
- JP
- Japan
- Prior art keywords
- model
- area
- unit
- region
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30128—Food products
Abstract
【課題】整列された物体の一部がずれている場合であっても物体の配置を個別に検出することである。【解決手段】配置検出装置は、計測部と、抽出部と、第1の計算部と、生成部と、第2の計算部とを備える。計測部は、接するように組み合わさった同一の形状の複数の多面体の表面を第1の任意の点から計測する。抽出部は、計測部が計測した表面を抽出し、表面のうちの第1の任意の点に最も近い部分を含み、且つ、最大の面積を持つ領域を抽出する。第1の計算部は、領域の重心および法線を計算する。生成部は、重心から伸ばした法線上の点から見た領域に含まれる、少なくとも一つ以上の形状を持つ多面体の所望の面のそれぞれの輪郭を示す第1のデータを生成する。第2の計算部は、第1のデータが示すそれぞれの輪郭の位置を利用して、領域に含まれる形状を持つ多面体の位置情報を計算する。【選択図】図1
Description
実施形態は、配置検出装置およびピッキング装置に関する。
商品パッケージの仕分け、箱詰め、棚入れおよび棚だしなどは、いまだに人手による作業をすることが多い。そのため、これらの作業は機械による自動化が望まれている。しかしながら、商品パッケージは、商品棚および段ボール箱の中で、雑に積まれていることが多く、崩れている部分と整列している部分とが混在している。従って、このような状態は、自動化の際に必要な複数の商品を個別に認識することを難しくしている。
配置検出装置として、物体のテンプレート画像と取得画像との差分情報を利用した二次元画像に対するマッチング手法が知られている。しかしながら、この配置検出装置は、奥行き情報を利用しないため、個別の物体を正確に検出できない恐れがある。また、同一形状の物体が隙間なく並べられた場合において、各々の物体の配置を検出する方法は知られていない。
Jukka Jylaenki, "A Thousand Ways to Pack the Bin - A Practical Approach to Two-Dimensional Rectangle Bin Packing", February 27, 2010
本発明が解決しようとする課題は、整列された物体の一部がずれている場合であっても物体の配置を個別に検出することである。
実施形態によれば、配置検出装置は、計測部と、抽出部と、第1の計算部と、生成部と、第2の計算部とを備える。計測部は、接するように組み合わさった同一の形状の複数の多面体の表面を第1の任意の点から計測する。抽出部は、計測部が計測した表面を抽出し、表面のうちの第1の任意の点に最も近い部分を含み、且つ、最大の面積を持つ領域を抽出する。第1の計算部は、領域の重心および法線を計算する。生成部は、重心から伸ばした法線上の点から見た領域に含まれる、少なくとも一つ以上の形状を持つ多面体の所望の面のそれぞれの輪郭を示す第1のデータを生成する。第2の計算部は、第1のデータが示すそれぞれの輪郭の位置を利用して、領域に含まれる形状を持つ多面体の位置情報を計算する。
以下、図面を参照しながら実施形態の説明が述べられる。尚、以降、解説済みの要素と同一または類似の要素には同一または類似の符号が付され、重複する説明は基本的に省略される。
以降の説明において、「多面体」の例として「直方体」が用いられるが、これに限らず、他の形状が用いられてもよい。また、「直方体」および「商品パッケージ」は相互に読み替えられてもよい。
(第1の実施形態)
図1に例示されるように、第1の実施形態に係る配置検出装置100は、計測部110と、画像処理部120とを含む。画像処理部120は、平面領域抽出部121と、平面領域計算部122と、レイアウトデータ生成部123と、マッチング部124と、位置情報計算部125とを含む。計測部110は、例えば三次元距離画像センサおよびRGB画像センサに相当する。画像処理部120は、例えばコンピュータに相当する。
図1に例示されるように、第1の実施形態に係る配置検出装置100は、計測部110と、画像処理部120とを含む。画像処理部120は、平面領域抽出部121と、平面領域計算部122と、レイアウトデータ生成部123と、マッチング部124と、位置情報計算部125とを含む。計測部110は、例えば三次元距離画像センサおよびRGB画像センサに相当する。画像処理部120は、例えばコンピュータに相当する。
計測部110は、接するように組み合わさった同一の形状の複数の直方体(多面体)の表面を計測点(第1の任意の点)から計測することによって、計測点側の表面上の任意の点の座標の集合を三次元データ(第2のデータ)として得る。計測点は、例えば計測部110が設置される位置を表す。三次元データは、例えば三次元座標の点群データに相当する。計測部110は、三次元データを平面領域抽出部121へと出力する。
平面領域抽出部121は、計測部110から三次元データが入力される。平面領域抽出部121は、計測部110が計測した複数の直方体の表面を抽出し、表面のうちの計測点に最も近い部分を含み、且つ、最大の面積を持つ領域を抽出する。具体的には、平面領域抽出部121は、三次元データから得られる一つ以上の平面を候補平面として抽出する。さらに、平面領域抽出部121は、抽出した候補平面のうちの計測点に最も近い部分を含み、且つ、最大の面積を持つ領域を平面領域として得る。平面領域は、例えば三次元座標の点群データに相当する。平面領域抽出部121は、平面領域を平面領域計算部122およびレイアウトデータ生成部123へと出力する。尚、平面領域抽出部121は、得られた平面領域が二つ以上の場合に、任意の一つを選択する。
平面領域計算部122(第1の計算部)は、平面領域抽出部121から平面領域が入力される。平面領域計算部122は、平面領域の重心および法線を計算する。平面領域計算部122は、平面領域の重心および法線のデータをレイアウトデータ生成部123へと出力する。
レイアウトデータ生成部123は、平面領域抽出部121から平面領域計算部122を介して平面領域が入力され、平面領域計算部122から平面領域の重心および法線のデータが入力される。レイアウトデータ生成部123は、重心から伸ばした法線上の点から見た平面領域に含まれる、少なくとも一つ以上の直方体の所望の面のそれぞれの輪郭を示すレイアウトデータ(第1のデータ)を生成する。ここで述べられた「直方体」は、「計測部110によって計測された物体を構成する直方体と同一の形状を持つ直方体」の意味であり、以降も原則としてこの意味として用いる。レイアウトデータ生成部123は、直方体の形状などの情報を予め保持している。レイアウトデータ生成部123は、レイアウトデータをマッチング部124へと出力する。
具体的には、レイアウトデータ生成部123は、直方体の所望の面の輪郭を表す面モデルを平面領域の輪郭を表す平面モデルに敷き詰め、敷き詰められていない部分の面積が最小になる場合の直方体の所望の面のそれぞれの輪郭を示すレイアウトデータを生成する。より具体的には、レイアウトデータ生成部123は、平面モデルの頂点の角度に合わせて面モデルの頂点を当てはめ、当てはめた面モデルの領域が平面モデルの領域に内包される場合に、平面モデルの領域から面モデルの領域を差し引くことによって、レイアウトデータを生成する。
マッチング部124は、レイアウトデータ生成部123からレイアウトデータが入力される。マッチング部124は、直方体の所望の面の絵柄を表すテンプレートを用いて、レイアウトデータに対応する平面領域に対してテンプレートマッチングを行う。また、マッチング部124は、直方体の所望の面の絵柄の一部をベクトル化して抽出された局所特徴量を用いて、レイアウトデータに対応する平面領域に対して局所特徴量マッチングを行ってもよい。マッチングの方法は、以上の例に限らず、種々の技法を利用してもよい。マッチング部124は、レイアウトデータに対応する平面領域と、テンプレートまたは局所特徴量とがマッチした場合に、レイアウトデータを位置情報計算部125へと出力する。尚、マッチングの具体例は後述される。
位置情報計算部125(第2の計算部)は、マッチング部124からレイアウトデータが入力される。位置情報計算部125は、レイアウトデータが示す直方体の所望の面のそれぞれの輪郭の位置を利用して、平面領域に含まれる直方体の位置情報を計算する。位置情報は、例えば直方体の重心、直方体の頂点の座標および直方体の姿勢角などを含む。
配置検出装置100は、図2Aに例示されるように動作する。例えば、配置検出装置100は、図3に示されるような、乱雑に積まれた商品パッケージの配置を検出することができる。図3は、隣接した3個の商品パッケージ301の上に商品パッケージ302が重なっている物体を示す。配置検出装置100は、観測点からの距離情報に基づいて、商品パッケージ302を最初に検出し、図4に例示される輪郭線401および法線402に基づく位置情報を出力する。
ステップS201において、計測部110は、物体(接するように組み合わさった同一の形状の複数の直方体)の表面を計測点から計測することによって、計測点側の表面上の任意の点の座標の集合を三次元データとして得る。具体的には、計測部110は、三次元距離画像センサによって検出したデプスデータを用いて点群データを取得し、RGB画像センサによって検出した色情報を点群データに付加することによって、物体の三次元データを得る。尚、三次元データは、点群データのみでもよい。
ステップS202において、平面領域抽出部121は、三次元データから得られる複数の平面を候補平面として抽出する。さらに、平面領域抽出部121は、抽出した候補平面のうちの計測点に最も近い部分を含み、且つ、最大の面積を持つ領域を平面領域として得る。このとき、平面領域抽出部121は、抽出される候補平面を絞るため、三次元データの領域を制限するフィルタを用いてもよい。また、平面領域抽出部121は、計算時間を短縮するため、点群データの密度を疎にするフィルタを用いてもよい。尚、平面領域抽出部121は、得られた平面領域が二つ以上の場合に、任意の一つを選択する。
ステップS203において、平面領域計算部122は、平面領域の重心および法線を計算する。具体的には、平面領域計算部122は、平面領域に分布している点群データに対して主成分分析をすることによって主軸を計算し、主軸の長軸(第1主成分)および主軸の短軸(第2主成分)の交わる点である重心を得る。さらに、平面領域計算部122は、主軸と、主軸から求めた法線(法線ベクトル)とを用いて、三次元姿勢行列を計算する。尚、三次元姿勢行列は、長軸の基底ベクトル(3行1列)と、短軸の基底ベクトル(3行1列)と、法線の基底ベクトル(3行1列)とを並べて形成した3行3列の行列である。
ステップS204において、平面領域計算部122は、三次元姿勢行列に基づいて、三次元の平面領域を二次元平面に変換する。ステップS204の後に、レイアウトデータ生成処理(ステップS205)が行われる。
レイアウトデータ生成処理(ステップS205)の詳細が図2Bに例示される。レイアウトデータ生成処理は、図5に例示されるような、平面領域(これは図3の隣接した3個の商品パッケージ301に相当)の輪郭を表す平面モデル501に、商品パッケージの所望の面の輪郭を表す面モデル502を敷き詰めることによって、レイアウトデータを生成する処理を行うことができる。尚、商品パッケージの形状(例えば面モデル502など)は、レイアウトデータ生成部123が予め保持している。
レイアウトデータ生成処理が開始すると、レイアウトデータ生成部123は、平面領域の輪郭線(平面モデル)を抽出し、面積を計算する(ステップA201)。例えば、レイアウトデータ生成部123は、二次元の平面領域に分布している点群データのそれぞれに円を描く処理を行うことによって平面を作成し、面積を計算してもよい。
レイアウトデータ生成部123は、面モデルを縦向きに配置する縦置きおよび面モデルを横向きに配置する横置きのそれぞれについて、ステップA202〜A207の一連の処理を行う。ここで、縦置きは、平面モデルの長辺に対して面モデルの長辺を合わせる配置とし、横置きは、平面モデルの長辺に対して面モデルの短辺を合わせる配置とする。尚、レイアウトデータ生成部123は、縦置きのレイアウトデータを作成した後に横置きのレイアウトデータを作成してもよいし、横置きのレイアウトデータを作成した後に縦置きのレイアウトデータを作成してもよい。
ステップA202において、レイアウトデータ生成部123は、平面モデルの最小外接四角形を計算する。このとき、レイアウトデータ生成部123は、最小外接四角形の輪郭を表す四角形モデルを抽出する。
ステップA203において、レイアウトデータ生成部123は、四角形モデルの頂点に面モデルを当てはめる。具体的には、レイアウトデータ生成部123は、四角形モデルの頂点の角度に合わせて面モデルの頂点を当てはめる。尚、レイアウトデータ生成部123は、当てはめる面モデルの領域が平面モデルの領域に明らかに内包されない場合は、四角形モデルに面モデルを当てはめなくてよい。
ステップA204において、レイアウトデータ生成部123は、当てはめた面モデルの領域が平面モデルの領域に内包される場合に、平面モデルの領域から面モデルの領域を差し引く。このとき、レイアウトデータ生成部123は、差し引いた面モデルの重心および頂点の座標などを図示されないメモリへと記憶する。尚、レイアウトデータ生成部123は、当てはめた面モデルの領域が平面モデルのある辺を共有する二つの頂点を含む領域に内包される場合に、ある辺を含む領域に面モデルをさらに当てはめ、ある辺を含む領域から面モデルの領域を差し引いてもよい(具体的な説明は後述される)。
ステップA205において、レイアウトデータ生成部123は、面モデルが差し引かれた後の平面モデルの領域の輪郭線を抽出し、その輪郭線に内包される面積(残留面積)を計算する。
ステップA206では、レイアウトデータ生成部123は、残留面積が面モデルの面積より大きいか否かを判定する。残留面積が面モデルの面積よりも大きい場合は、レイアウトデータ生成部123は、ステップA205で抽出された輪郭線を平面モデルに再定義し、処理はステップA202へと戻り、そうでなければ処理はステップA207へと進む。
ステップA207において、レイアウトデータ生成部123は、平面モデルに含まれる、少なくとも一つ以上の面モデルの輪郭を示すレイアウトデータを生成する。
ステップA208において、レイアウトデータ生成部123は、縦置きのレイアウトデータおよび横置きのレイアウトデータのうち、残留面積が最も小さいレイアウトデータを出力する。ここで、レイアウトデータ生成部123は、縦置きのレイアウトデータおよび横置きのレイアウトデータの残留面積が等しい場合は、両方のレイアウトデータを出力してもよい。ステップA208の後に、処理は図2AのステップS206へと進む。
ステップS206において、マッチング部124は、レイアウトデータに対応する平面領域に対してマッチングを行う。具体的には、マッチング部124は、所望の面の絵柄を表すテンプレートを用いて、レイアウトデータに対応する平面領域に対してテンプレートマッチングを行う。または、マッチング部124は、所望の面の絵柄の一部をベクトル化して抽出された局所特徴量を用いて、レイアウトデータに対応する平面領域に対して局所特徴量マッチングを行う。
ステップS207において、位置情報計算部125は、三次元姿勢行列に基づいて、レイアウトデータを三次元の平面領域に逆変換する。
ステップS208において、位置情報計算部125は、レイアウトデータが示す直方体の所望の面のそれぞれの輪郭の位置を利用して、平面領域に含まれる直方体の位置情報を計算する。
図2Bのレイアウトデータ生成処理の具体例が図6に示される。以下では、図2Bのフローチャートを参照しながら、図5に示した平面モデル501および面モデル502を用いてレイアウト生成処理の具体例を説明する。
レイアウトデータ生成部123は、平面領域の輪郭線(平面モデル501)を抽出し(ステップA201,図6(a))、平面モデル501の最小外接四角形を計算し、最小外接四角形の輪郭を表す四角形モデル601を抽出する(ステップA202,図6(b))。
次に、レイアウトデータ生成部123は、四角形モデル601の頂点に面モデル502を当てはめる(ステップA203)。具体的には、図6(c)において、レイアウトデータ生成部123は、四角形モデル601の頂点602を中心として、面モデル502の頂点603を描く。図6(d)において、レイアウトデータ生成部123は、面モデル502の頂点603のうち、平面モデル501の領域に含まれている頂点604を抽出する。図6(e)において、レイアウトデータ生成部123は、抽出された頂点604を中心として、平面モデル501に面モデル502を当てはめる。尚、レイアウトデータ生成部123は、抽出された頂点の近傍に他の抽出された頂点がある場合は、頂点をマージしてもよい。
レイアウトデータ生成部123は、当てはめた面モデル502の領域が平面モデル501の領域に内包されているので、平面モデル501の領域から面モデル502の領域を差し引く(ステップA204)。このとき、レイアウトデータ生成部123は、差し引いた各々の面モデル502の重心および頂点の座標などを図示されないメモリに記憶する。
レイアウトデータ生成部123は、面モデル502が差し引かれた後の平面モデル501の領域の輪郭線に内包される面積(残留面積)を計算する(ステップA205)。そして、レイアウトデータ生成部123は、残留面積が面モデル502の面積よりも大きくないと判定し(ステップA206)、平面モデル501に面モデル502がどのように配置されるかを表すレイアウトデータを作成する(ステップA207)。
図7において、面モデル502に対して平面モデル701が十分に大きい場合のレイアウトデータ生成処理を例示する。レイアウトデータ生成部123は、平面モデル701の最小外接四角形の輪郭を表す四角形モデル702の各頂点に面モデル502を当てはめる(図7(a))。次に、レイアウトデータ生成部123は、当てはめた面モデル502の領域が平面モデル701のある辺を共有する二つの頂点を含む領域に内包されているため、ある辺を含む領域に面モデル502をさらに当てはめる(図7(b))。さらに、レイアウトデータ生成部123は、ある辺を含む領域から面モデル502を差し引き、新たな平面モデル703を得る(図7(c))。
図8において、マッチングの具体例を示す。ここでは、図8(a)のように、右下の商品パッケージ801が、他の商品パッケージ802と比べて回転した状態で配置されている例を用いる。また、図8(b)は、図8(a)の商品パッケージから得られた平面モデル803を示している。図8(c)は、平面モデル803のレイアウトデータ804を示している。このとき、マッチング部124は、商品パッケージの絵柄を表すテンプレート805を用いて、レイアウトデータ804に対応する平面領域(ここでは図8(a)に相当)に対してテンプレートマッチングを行う。
例えば、レイアウトデータを用いずに図8(a)の平面領域に対してテンプレートマッチングを行う場合に、通常のテンプレートマッチングは、テンプレートを横方向に少しずつ走査したり、テンプレートを複数通り回転させて走査したりする必要があり、処理時間が大幅にかかる。
他方、平面モデル803のレイアウトデータ804を利用する(即ち、予め商品パッケージの配置が決められている)場合は、マッチング部124は、テンプレートを横方向に少しずつ走査する必要がなく、回転についても、決められた配置で検出した角度のみテンプレートを回転させて適用させれば良いので、処理時間を大幅に削減することができる。
同様に、局所特徴量マッチングを行う場合においても、マッチング部124は、決められた配置の領域に対してマッチングを行えばよいため、正確なマッチングを行うことができる。
配置検出装置100のレイアウトデータ生成処理は、図9に例示されるように処理されてもよい。例えば、配置検出装置100は、図10に示されるような、一部が傾いて並べられた商品パッケージについて一連の処理を行うことができる。図10は、向きが傾いている商品パッケージ1001と隣接した3個の商品パッケージ1002とが同一の平面に配置されている物体を示す。配置検出装置100は、図10の物体を計測し、図11Aに示される平面モデル1101を得る。配置検出装置100は、平面モデル1101の輪郭に対して図11Bに示されるレイアウトデータ1102を生成し、図12に例示される輪郭線1201および法線1202に基づく位置情報を出力する。尚、重複するステップの説明は省略する。
レイアウトデータ生成部123は、面モデルを縦向きに配置する縦置きおよび面モデルを横向きに配置する横置きのそれぞれについて、ステップA901〜A903,A205〜A207の一連の処理を行う。
ステップA901において、レイアウトデータ生成部123は、平面モデルの凸包を計算する。このとき、レイアウトデータ生成部123は、凸包の輪郭を表す凸包モデルを抽出する。
ステップA902において、レイアウトデータ生成部123は、凸包モデルの最も直角に近い頂点に面モデルを当てはめる。具体的には、レイアウトデータ生成部123は、凸包モデルの最も直角に近い頂点の角度に合わせて面モデルの頂点を当てはめる。このとき、レイアウトデータ生成部123は、平面モデルの直線部分と凸包の直線部分とが重なっている線分に対して、面モデルの長辺または短辺が一致するように面モデルを当てはめてもよい。
ステップA903において、レイアウトデータ生成部123は、当てはめた面モデルの領域が平面モデルの領域に内包される場合に、平面モデルの領域から面モデルの領域を差し引く。このとき、レイアウトデータ生成部123は、差し引いた面モデルの重心および頂点の座標などを図示されないメモリへと記憶する。
図9のレイアウトデータ生成処理の具体例が図13に示される。以下では、図9のフローチャートを参照しながら、図11Aに示した平面モデル1101と図5に示した面モデル502とを用いてレイアウト生成処理の具体例を説明する。
レイアウトデータ生成部123は、平面領域の輪郭線(平面モデル1101)を抽出し(ステップA201,図13(a))、平面モデル1101の凸包を計算し、凸包の輪郭を表す凸包モデル1301を抽出する(ステップA901,図13(b))。
次に、レイアウトデータ生成部123は、凸包モデル1301の最も直角に近い頂点に面モデル502を当てはめる(ステップA902)。具体的には、図13(c)において、レイアウトデータ生成部123は、凸包モデル1301の最も直角に近い頂点602を中心として、面モデル502の頂点603を描く。図13(d)において、レイアウトデータ生成部123は、面モデル502の頂点603のうち、平面モデル1101の領域に含まれている頂点604を抽出する。図13(e)において、レイアウトデータ生成部123は、抽出された頂点604を中心として、平面モデル1101に面モデル502を当てはめる。尚、レイアウトデータ生成部123は、抽出された頂点の近傍に他の抽出された頂点がある場合は、頂点をマージしてもよい。
レイアウトデータ生成部123は、当てはめた面モデル502の領域が平面モデル1101の領域に内包されているので、平面モデル1101の領域から面モデル502の領域を差し引く(ステップA903)。このとき、レイアウトデータ生成部123は、差し引いた各々の面モデル502の重心および頂点の座標などを図示されないメモリに記憶する。
レイアウトデータ生成部123は、面モデル502が差し引かれた後の平面モデルの領域の輪郭線(平面モデル1302)を抽出し、平面モデル1302に内包される面積(残留面積)を計算する(ステップA205,図13(f))。レイアウトデータ生成部123は、残留面積が面モデル502の面積よりも大きいと判定し(ステップA206)、平面モデル1302の凸包を計算し、凸包の輪郭を表す凸包モデル1303を抽出する(ステップA901,図13(g))。
以降、図13(h)および図13(i)に示されるように、レイアウトデータ生成部123は、一連の処理を繰り返し、平面モデル1302および平面モデル1304の領域からそれぞれ面モデル502の領域を差し引く。
図13(j)において、レイアウトデータ生成部123は、残った平面モデル1305に面モデル502が当てはまり、残留面積をゼロとする(ステップA205)。そして、レイアウトデータ生成部123は、残留面積が面モデル502の面積よりも大きくないと判定し(ステップA206)、平面モデル1101に面モデル502がどのように配置されるかを表すレイアウトデータを作成する(ステップA207)。
以上説明したように、第1の実施形態に係る配置検出装置は、観測点からの距離情報に基づいて、観測点から最も近い商品パッケージを検出することができる。また、この配置検出装置は、整列された物体の境界がわかりにくい場合であっても、商品パッケージの大きさに基づいて、個別の商品の配置を検出することができる。さらに、この配置検出装置は、一部が傾いて並べられた商品パッケージであっても、個別の商品の配置を検出することができる。故に、この配置検出装置は、整列された物体の一部がずれている場合であっても物体の配置を個別に検出することができる。
(第2の実施形態)
図14に例示されるように、第2の実施形態に係るピッキング装置1400は、配置検出装置1410と、取得部1420とを含む。取得部1420は、直動アクチュエータ1421と、回転アクチュエータ1422と、真空吸着盤1423とを含む。配置検出装置1410は、配置検出装置100と同一または類似であってよい。以降、図15の構成例を参照しながら説明する。
図14に例示されるように、第2の実施形態に係るピッキング装置1400は、配置検出装置1410と、取得部1420とを含む。取得部1420は、直動アクチュエータ1421と、回転アクチュエータ1422と、真空吸着盤1423とを含む。配置検出装置1410は、配置検出装置100と同一または類似であってよい。以降、図15の構成例を参照しながら説明する。
配置検出装置1410は、Z軸の原点に配置された物体を検出し、物体の平面領域を検出する。さらに、配置検出装置1410は、平面領域のレイアウトデータを生成し、平面領域に含まれる直方体の位置情報を計算する。配置検出装置1410は、位置情報を取得部1420へと出力する。尚、配置検出装置1410は、後述される直動アクチュエータ1421aに設置されているが、物体を検出できる任意の位置に設置されればよい。
取得部1420は、配置検出装置1410から位置情報が入力される。取得部1420は、位置情報に基づいて、平面領域に含まれる商品パッケージをピックアップする。尚、取得部1420は、後述される直動アクチュエータ1421aの一端が装置固定部1501に固定されているが、これに限らない。
直動アクチュエータ1421は、さらに、X軸方向に移動可能な直動アクチュエータ1421aと、Y軸方向に移動可能な直動アクチュエータ1421bと、Z軸方向に移動可能な直動アクチュエータ1421cとを含む。直動アクチュエータ1421cは、一端に回転アクチュエータ1422が接続される。直動アクチュエータ1421は、位置情報に基づいて、直動アクチュエータ1421cの延伸方向がピックアップする商品パッケージの重心に一致するように各部を駆動させる。
回転アクチュエータ1422は、さらに、Z軸回りに回転可能な回転アクチュエータ1422aと、Z軸に直交する中心軸回りに回転可能な回転アクチュエータ1422bを含む。回転アクチュエータ1422aは、一端に直動アクチュエータ1421cが接続され、他端に回転アクチュエータ1422bが接続される。回転アクチュエータ1422bは、回転アクチュエータ1422aおよび真空吸着盤1423の間に設置される。
回転アクチュエータ1422aは、ピックアップする商品パッケージの面の長辺方向に真空吸着盤1423の面の長辺方向が揃うように回転する。回転アクチュエータ1422bは、ピックアップする商品パッケージの面に真空吸着盤1423の面が平行となるように回転する。
真空吸着盤1423は、一方の面に回転アクチュエータ1422bが接続され、他方の面に商品パッケージを吸着することで固定する吸着パッドを備える。真空吸着盤1423は、アクチュエータによって商品パッケージが配置される位置まで近づき、商品パッケージのピッキングを行う。
尚、取得部1420として、直動アクチュエータ1421の代わりに多関節のロボットアームを用いてもよいし、真空吸着盤1423の代わりに物を把持するようなロボットハンドを用いてもよい。即ち、取得部1420は、商品パッケージをピックアップできるような構成であればよい。
図16において、ピッキング装置1400の動作例を示す。このピッキング装置1400は、絵柄のない商品パッケージにも適用することができる。尚、簡略化のため、配置検出装置1410と取得部1420の一部とは省略されている。
ピッキング装置1400は、最も高い位置にある(即ち、計測点から最も近い)商品パッケージ1601を最初にピックアップする(図16(a))。次に、ピッキング装置1400は、平面領域の位置情報に基づいて、商品パッケージ1602〜1604をそれぞれピックアップする(図16(b)〜(d))。尚、ピッキング装置1400は、任意の順番で商品パッケージをピックアップしてもよい。
以上説明したように、第2の実施形態に係るピッキング装置は、前述の第1の実施形態に係る配置検出装置を備える。従って、このピッキング装置によれば、整列された物体の一部がずれている場合であっても物体の配置を個別に検出し、ピックアップすることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下に配置検出方法を付記する。
(1)
接するように組み合わさった同一の形状の複数の多面体の表面を第1の任意の点から計測することと、
計測された前記表面を抽出し、前記表面のうちの前記第1の任意の点に最も近い部分を含み、且つ、最大の面積を持つ領域を抽出することと、
前記領域の重心および法線を計算することと、
前記重心から伸ばした前記法線上の点から見た前記領域に含まれる、少なくとも一つ以上の前記形状を持つ多面体の所望の面のそれぞれの輪郭を示す第1のデータを生成することと、
前記第1のデータが示す前記それぞれの輪郭の位置を利用して、前記領域に含まれる前記形状を持つ多面体の位置情報を計算することと
を具備する、配置検出方法。
接するように組み合わさった同一の形状の複数の多面体の表面を第1の任意の点から計測することと、
計測された前記表面を抽出し、前記表面のうちの前記第1の任意の点に最も近い部分を含み、且つ、最大の面積を持つ領域を抽出することと、
前記領域の重心および法線を計算することと、
前記重心から伸ばした前記法線上の点から見た前記領域に含まれる、少なくとも一つ以上の前記形状を持つ多面体の所望の面のそれぞれの輪郭を示す第1のデータを生成することと、
前記第1のデータが示す前記それぞれの輪郭の位置を利用して、前記領域に含まれる前記形状を持つ多面体の位置情報を計算することと
を具備する、配置検出方法。
(2)
前記計測することは、前記第1の任意の点側の表面上の任意の点の座標の集合を第2のデータとして得る、(1)に記載の配置検出方法。
前記計測することは、前記第1の任意の点側の表面上の任意の点の座標の集合を第2のデータとして得る、(1)に記載の配置検出方法。
(3)
前記生成することは、前記所望の面の輪郭を表す面モデルを前記領域の輪郭を表す平面モデルに敷き詰め、敷き詰められていない部分の面積が最小になる場合の前記所望の面のそれぞれの輪郭を示す第1のデータを生成する、(1)または(2)に記載の配置検出方法。
前記生成することは、前記所望の面の輪郭を表す面モデルを前記領域の輪郭を表す平面モデルに敷き詰め、敷き詰められていない部分の面積が最小になる場合の前記所望の面のそれぞれの輪郭を示す第1のデータを生成する、(1)または(2)に記載の配置検出方法。
(4)
前記生成することは、前記平面モデルの頂点の角度に合わせて前記面モデルの頂点を当てはめ、当てはめた前記面モデルの領域が前記平面モデルの領域に内包される場合に、前記平面モデルの領域から前記面モデルの領域を差し引くことによって、前記第1のデータを生成する、(3)に記載の配置検出方法。
前記生成することは、前記平面モデルの頂点の角度に合わせて前記面モデルの頂点を当てはめ、当てはめた前記面モデルの領域が前記平面モデルの領域に内包される場合に、前記平面モデルの領域から前記面モデルの領域を差し引くことによって、前記第1のデータを生成する、(3)に記載の配置検出方法。
(5)
前記生成することは、前記平面モデルの最小外接四角形を計算し、前記最小外接四角形の輪郭を表す四角形モデルを抽出し、前記四角形モデルの頂点の角度に合わせて前記面モデルの頂点を当てはめ、当てはめた前記面モデルの領域が前記平面モデルの領域に内包される場合に、前記平面モデルの領域から前記面モデルの領域を差し引くことによって、前記第1のデータを生成する、(3)に記載の配置検出方法。
前記生成することは、前記平面モデルの最小外接四角形を計算し、前記最小外接四角形の輪郭を表す四角形モデルを抽出し、前記四角形モデルの頂点の角度に合わせて前記面モデルの頂点を当てはめ、当てはめた前記面モデルの領域が前記平面モデルの領域に内包される場合に、前記平面モデルの領域から前記面モデルの領域を差し引くことによって、前記第1のデータを生成する、(3)に記載の配置検出方法。
(6)
前記生成することは、当てはめた前記面モデルの領域が前記平面モデルのある辺を共有する二つの頂点を含む領域に内包される場合に、前記辺を含む領域に前記面モデルをさらに当てはめ、前記辺を含む領域から前記面モデルの領域を差し引くことによって、前記第1のデータを生成する、(4)または(5)に記載の配置検出方法。
前記生成することは、当てはめた前記面モデルの領域が前記平面モデルのある辺を共有する二つの頂点を含む領域に内包される場合に、前記辺を含む領域に前記面モデルをさらに当てはめ、前記辺を含む領域から前記面モデルの領域を差し引くことによって、前記第1のデータを生成する、(4)または(5)に記載の配置検出方法。
(7)
前記生成することは、前記平面モデルの凸包を計算し、前記凸包の輪郭を表す凸包モデルを抽出し、前記凸包モデルの最も直角に近い頂点に対して前記面モデルの頂点を当てはめ、当てはめた前記面モデルの領域が前記平面モデルの領域に内包される場合に、前記平面モデルの領域から前記面モデルの領域を差し引くことによって、前記第1のデータを生成する、(3)に記載の配置検出方法。
前記生成することは、前記平面モデルの凸包を計算し、前記凸包の輪郭を表す凸包モデルを抽出し、前記凸包モデルの最も直角に近い頂点に対して前記面モデルの頂点を当てはめ、当てはめた前記面モデルの領域が前記平面モデルの領域に内包される場合に、前記平面モデルの領域から前記面モデルの領域を差し引くことによって、前記第1のデータを生成する、(3)に記載の配置検出方法。
(8)
前記所望の面の絵柄を表すテンプレートを用いて、前記第1のデータに対応する前記領域に対してテンプレートマッチングを行うことと
をさらに具備する、(1)乃至(7)のいずれか1項に記載の配置検出方法。
前記所望の面の絵柄を表すテンプレートを用いて、前記第1のデータに対応する前記領域に対してテンプレートマッチングを行うことと
をさらに具備する、(1)乃至(7)のいずれか1項に記載の配置検出方法。
(9)
前記所望の面の絵柄の一部をベクトル化して抽出された局所特徴量を用いて、前記第1のデータに対応する前記領域に対して局所特徴量マッチングを行うことと
をさらに具備する、(1)乃至(7)のいずれか1項に記載の配置検出方法。
前記所望の面の絵柄の一部をベクトル化して抽出された局所特徴量を用いて、前記第1のデータに対応する前記領域に対して局所特徴量マッチングを行うことと
をさらに具備する、(1)乃至(7)のいずれか1項に記載の配置検出方法。
(10)
前記抽出することは、前記領域が二つ以上の場合に、任意の一つを選択する、(1)乃至(9)のいずれか1項に記載の配置検出方法。
前記抽出することは、前記領域が二つ以上の場合に、任意の一つを選択する、(1)乃至(9)のいずれか1項に記載の配置検出方法。
100,1410・・・配置検出装置、110・・・計測部、120・・・画像処理部、121・・・平面領域抽出部、122・・・平面領域計算部、123・・・レイアウトデータ生成部、124・・・マッチング部、125・・・位置情報計算部、301,302,801,802,1001,1002,1601,1602,1603,1604・・・商品パッケージ、401,1201・・・輪郭線、402,1202・・・法線、501,701,803,1101,1302,1304,1305・・・平面モデル、502・・・面モデル、601,702・・・四角形モデル、602,603,604・・・頂点、804,1102・・・レイアウトデータ、805・・・テンプレート、1301,1303・・・凸包モデル、1400・・・ピッキング装置、1420・・・取得部、1421,1421a,1421b,1421c・・・直動アクチュエータ、1422,1422a,1422b・・・回転アクチュエータ、1423・・・真空吸着盤、1501・・・装置固定部。
Claims (11)
- 接するように組み合わさった同一の形状の複数の多面体の表面を第1の任意の点から計測する計測部と、
前記計測部が計測した前記表面を抽出し、前記表面のうちの前記第1の任意の点に最も近い部分を含み、且つ、最大の面積を持つ領域を抽出する抽出部と、
前記領域の重心および法線を計算する第1の計算部と、
前記重心から伸ばした前記法線上の点から見た前記領域に含まれる、少なくとも一つ以上の前記形状を持つ多面体の所望の面のそれぞれの輪郭を示す第1のデータを生成する生成部と、
前記第1のデータが示す前記それぞれの輪郭の位置を利用して、前記領域に含まれる前記形状を持つ多面体の位置情報を計算する第2の計算部と
を具備する、配置検出装置。 - 前記計測部は、前記第1の任意の点側の表面上の任意の点の座標の集合を第2のデータとして得る、請求項1に記載の配置検出装置。
- 前記生成部は、前記所望の面の輪郭を表す面モデルを前記領域の輪郭を表す平面モデルに敷き詰め、敷き詰められていない部分の面積が最小になる場合の前記所望の面のそれぞれの輪郭を示す第1のデータを生成する、請求項1または請求項2に記載の配置検出装置。
- 前記生成部は、前記平面モデルの頂点の角度に合わせて前記面モデルの頂点を当てはめ、当てはめた前記面モデルの領域が前記平面モデルの領域に内包される場合に、前記平面モデルの領域から前記面モデルの領域を差し引くことによって、前記第1のデータを生成する、請求項3に記載の配置検出装置。
- 前記生成部は、前記平面モデルの最小外接四角形を計算し、前記最小外接四角形の輪郭を表す四角形モデルを抽出し、前記四角形モデルの頂点の角度に合わせて前記面モデルの頂点を当てはめ、当てはめた前記面モデルの領域が前記平面モデルの領域に内包される場合に、前記平面モデルの領域から前記面モデルの領域を差し引くことによって、前記第1のデータを生成する、請求項3に記載の配置検出装置。
- 前記生成部は、当てはめた前記面モデルの領域が前記平面モデルのある辺を共有する二つの頂点を含む領域に内包される場合に、前記辺を含む領域に前記面モデルをさらに当てはめ、前記辺を含む領域から前記面モデルの領域を差し引くことによって、前記第1のデータを生成する、請求項4または5に記載の配置検出装置。
- 前記生成部は、前記平面モデルの凸包を計算し、前記凸包の輪郭を表す凸包モデルを抽出し、前記凸包モデルの最も直角に近い頂点に対して前記面モデルの頂点を当てはめ、当てはめた前記面モデルの領域が前記平面モデルの領域に内包される場合に、前記平面モデルの領域から前記面モデルの領域を差し引くことによって、前記第1のデータを生成する、請求項3に記載の配置検出装置。
- 前記所望の面の絵柄を表すテンプレートを用いて、前記第1のデータに対応する前記領域に対してテンプレートマッチングを行うマッチング部と
をさらに具備する、請求項1乃至請求項7のいずれか1項に記載の配置検出装置。 - 前記所望の面の絵柄の一部をベクトル化して抽出された局所特徴量を用いて、前記第1のデータに対応する前記領域に対して局所特徴量マッチングを行うマッチング部と
をさらに具備する、請求項1乃至請求項7のいずれか1項に記載の配置検出装置。 - 前記抽出部は、前記領域が二つ以上の場合に、任意の一つを選択する、請求項1乃至請求項9のいずれか1項に記載の配置検出装置。
- 請求項1乃至請求項10のいずれか1項に記載の配置検出装置と、
前記位置情報に基づいて、前記領域に含まれる多面体をピックアップする取得部と
を具備する、ピッキング装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015162904A JP2017039189A (ja) | 2015-08-20 | 2015-08-20 | 配置検出装置およびピッキング装置 |
US15/239,964 US10062004B2 (en) | 2015-08-20 | 2016-08-18 | Arrangement detection apparatus and pickup apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015162904A JP2017039189A (ja) | 2015-08-20 | 2015-08-20 | 配置検出装置およびピッキング装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017039189A true JP2017039189A (ja) | 2017-02-23 |
Family
ID=58157637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015162904A Pending JP2017039189A (ja) | 2015-08-20 | 2015-08-20 | 配置検出装置およびピッキング装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10062004B2 (ja) |
JP (1) | JP2017039189A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019162685A (ja) * | 2018-03-19 | 2019-09-26 | 株式会社東芝 | 保持装置、搬送システム、コントローラ、および保持方法 |
JP2019174287A (ja) * | 2018-03-28 | 2019-10-10 | 太平洋セメント株式会社 | 対象認識装置、方法およびプログラムならびに対象除去システム |
JP2020149162A (ja) * | 2019-03-11 | 2020-09-17 | 富士通株式会社 | 情報処理装置、画像処理プログラム及び画像処理方法 |
WO2021039775A1 (ja) * | 2019-08-26 | 2021-03-04 | 川崎重工業株式会社 | 画像処理装置、撮像装置、ロボット及びロボットシステム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105122353B (zh) | 2013-05-20 | 2019-07-09 | 英特尔公司 | 用于语音识别的计算装置和用于计算装置上的语音识别的方法 |
CN109145279B (zh) * | 2018-08-07 | 2021-07-20 | 燕山大学 | 一种基于重心居中的二维轮廓排样方法 |
CN110334769A (zh) * | 2019-07-09 | 2019-10-15 | 北京华捷艾米科技有限公司 | 目标识别方法及装置 |
CN111546335B (zh) * | 2020-04-28 | 2021-05-14 | 西安航天精密机电研究所 | 一种异形导管机器人自动抓取的视觉定位方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11333770A (ja) * | 1998-03-20 | 1999-12-07 | Kobe Steel Ltd | 積荷位置姿勢認識装置 |
JP2000304509A (ja) * | 1999-04-21 | 2000-11-02 | Matsushita Electric Works Ltd | 物体特定方法及び装置 |
JP2006005242A (ja) * | 2004-06-18 | 2006-01-05 | Canon Inc | 画像処理装置、画像処理方法、露光装置、およびデバイス製造方法 |
JP2010012567A (ja) * | 2008-07-04 | 2010-01-21 | Fanuc Ltd | 物品取り出し装置 |
JP2010127819A (ja) * | 2008-11-28 | 2010-06-10 | Fuji Electric Holdings Co Ltd | 多面体位置検出装置及び検出方法 |
JP2012137841A (ja) * | 2010-12-24 | 2012-07-19 | Institute Of National Colleges Of Technology Japan | ピッキングシステムおよびピッキング方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5819016A (en) * | 1993-10-05 | 1998-10-06 | Kabushiki Kaisha Toshiba | Apparatus for modeling three dimensional information |
JPH11116056A (ja) | 1997-10-14 | 1999-04-27 | Okura Yusoki Co Ltd | 積付パターン生成装置および積付装置 |
US7538764B2 (en) * | 2001-01-05 | 2009-05-26 | Interuniversitair Micro-Elektronica Centrum (Imec) | System and method to obtain surface structures of multi-dimensional objects, and to represent those surface structures for animation, transmission and display |
US6542638B2 (en) * | 2001-02-21 | 2003-04-01 | Shannon Roy Campbell | Method for matching spatial patterns |
JP4129949B2 (ja) | 2002-11-21 | 2008-08-06 | 日立ソフトウエアエンジニアリング株式会社 | ネットワーク構成管理システム |
US20050033731A1 (en) | 2003-08-05 | 2005-02-10 | Lesh Neal B. | Priority-based search for combinatorial optimization problems |
US7801328B2 (en) * | 2005-03-31 | 2010-09-21 | Honeywell International Inc. | Methods for defining, detecting, analyzing, indexing and retrieving events using video image processing |
JP2007142766A (ja) | 2005-11-17 | 2007-06-07 | Oki Data Corp | 領域分割装置 |
JP5287384B2 (ja) | 2009-03-13 | 2013-09-11 | 株式会社リコー | 画像処理方法、画像処理装置、プログラムおよび記憶媒体 |
CN102472617B (zh) * | 2009-11-10 | 2014-07-02 | 三菱重工业株式会社 | 工件测量装置、防止碰撞装置和机床 |
US8718382B2 (en) | 2012-01-31 | 2014-05-06 | Synopsys, Inc. | Scalable pattern matching between a pattern clip and a pattern library |
JP5975685B2 (ja) * | 2012-03-09 | 2016-08-23 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
CA3114789C (en) * | 2014-01-22 | 2021-12-07 | Symbotic Canada Ulc | Vision-assisted robotized depalletizer |
JP6305213B2 (ja) | 2014-05-29 | 2018-04-04 | 株式会社東芝 | 取出装置および方法 |
US11059185B2 (en) * | 2014-10-03 | 2021-07-13 | Frito-Lay North America, Inc. | Apparatus and method for transferring a pattern from a universal surface to an ultimate package |
JP6486114B2 (ja) | 2015-01-16 | 2019-03-20 | 株式会社東芝 | 荷役装置 |
US9486921B1 (en) * | 2015-03-26 | 2016-11-08 | Google Inc. | Methods and systems for distributing remote assistance to facilitate robotic object manipulation |
-
2015
- 2015-08-20 JP JP2015162904A patent/JP2017039189A/ja active Pending
-
2016
- 2016-08-18 US US15/239,964 patent/US10062004B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11333770A (ja) * | 1998-03-20 | 1999-12-07 | Kobe Steel Ltd | 積荷位置姿勢認識装置 |
JP2000304509A (ja) * | 1999-04-21 | 2000-11-02 | Matsushita Electric Works Ltd | 物体特定方法及び装置 |
JP2006005242A (ja) * | 2004-06-18 | 2006-01-05 | Canon Inc | 画像処理装置、画像処理方法、露光装置、およびデバイス製造方法 |
JP2010012567A (ja) * | 2008-07-04 | 2010-01-21 | Fanuc Ltd | 物品取り出し装置 |
JP2010127819A (ja) * | 2008-11-28 | 2010-06-10 | Fuji Electric Holdings Co Ltd | 多面体位置検出装置及び検出方法 |
JP2012137841A (ja) * | 2010-12-24 | 2012-07-19 | Institute Of National Colleges Of Technology Japan | ピッキングシステムおよびピッキング方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019162685A (ja) * | 2018-03-19 | 2019-09-26 | 株式会社東芝 | 保持装置、搬送システム、コントローラ、および保持方法 |
JP7000213B2 (ja) | 2018-03-19 | 2022-01-19 | 株式会社東芝 | 保持装置、搬送システム、コントローラ、および保持方法 |
JP2019174287A (ja) * | 2018-03-28 | 2019-10-10 | 太平洋セメント株式会社 | 対象認識装置、方法およびプログラムならびに対象除去システム |
JP7064664B2 (ja) | 2018-03-28 | 2022-05-11 | 太平洋セメント株式会社 | 対象認識装置、方法およびプログラムならびに対象除去システム |
JP2020149162A (ja) * | 2019-03-11 | 2020-09-17 | 富士通株式会社 | 情報処理装置、画像処理プログラム及び画像処理方法 |
WO2021039775A1 (ja) * | 2019-08-26 | 2021-03-04 | 川崎重工業株式会社 | 画像処理装置、撮像装置、ロボット及びロボットシステム |
JP7453762B2 (ja) | 2019-08-26 | 2024-03-21 | 川崎重工業株式会社 | 画像処理装置、撮像装置、ロボット及びロボットシステム |
Also Published As
Publication number | Publication date |
---|---|
US10062004B2 (en) | 2018-08-28 |
US20170053410A1 (en) | 2017-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017039189A (ja) | 配置検出装置およびピッキング装置 | |
JP5897624B2 (ja) | ワークの取出工程をシミュレーションするロボットシミュレーション装置 | |
JP5624394B2 (ja) | 位置姿勢計測装置、その計測処理方法及びプログラム | |
JP6746820B1 (ja) | 倉庫保管マップの高速確定方法、機器、記憶媒体及びロボット | |
JP5469216B2 (ja) | バラ積みされた物品をロボットで取出す装置 | |
JP6465789B2 (ja) | デプスカメラの内部パラメータを算出するプログラム、装置及び方法 | |
JP5977544B2 (ja) | 情報処理装置、情報処理方法 | |
JP6298035B2 (ja) | モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置 | |
JP6703812B2 (ja) | 3次元物体検査装置 | |
JP2015089589A (ja) | バラ積みされた物品をロボットで取出す装置及び方法 | |
JP2009053147A (ja) | 3次元計測方法および3次元計測装置 | |
JP2013130426A (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
US20150134303A1 (en) | Three-dimensional scanning system and method with hole-filling function for point cloud using contact probe | |
US20210023718A1 (en) | Three-dimensional data generation device and robot control system | |
KR102634535B1 (ko) | 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법 | |
US20220180552A1 (en) | Device, method, and program for detecting position and orientation of target object | |
JP2018136896A (ja) | 情報処理装置、システム、情報処理方法、および物品の製造方法 | |
CN104976950B (zh) | 物件空间信息量测装置与方法及取像路径的计算方法 | |
JP2016170050A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム | |
JP2019028022A (ja) | 寸法測定装置 | |
JP6560547B2 (ja) | 境界点抽出方法およびトータルステーションを用いた測定方法 | |
JP2015085434A (ja) | ロボット、画像処理方法及びロボットシステム | |
EP4245480A1 (en) | Measuring system, measuring device, measuring method, and measuring program | |
US11823414B2 (en) | Information processing device, information processing method, and information processing non-transitory computer readable medium | |
CN116137831A (zh) | 信息处理装置以及信息处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190123 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190820 |