JP2020093341A - 容易度判定装置及び容易度判定方法 - Google Patents

容易度判定装置及び容易度判定方法 Download PDF

Info

Publication number
JP2020093341A
JP2020093341A JP2018232608A JP2018232608A JP2020093341A JP 2020093341 A JP2020093341 A JP 2020093341A JP 2018232608 A JP2018232608 A JP 2018232608A JP 2018232608 A JP2018232608 A JP 2018232608A JP 2020093341 A JP2020093341 A JP 2020093341A
Authority
JP
Japan
Prior art keywords
ease
index
unit
easiness
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018232608A
Other languages
English (en)
Other versions
JP7296719B2 (ja
Inventor
將暢 山中
Masanobu Yamanaka
將暢 山中
田中 雅人
Masahito Tanaka
雅人 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Azbil Corp
Original Assignee
Azbil Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Azbil Corp filed Critical Azbil Corp
Priority to JP2018232608A priority Critical patent/JP7296719B2/ja
Publication of JP2020093341A publication Critical patent/JP2020093341A/ja
Application granted granted Critical
Publication of JP7296719B2 publication Critical patent/JP7296719B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】物体の把持の容易度を判定可能とする。【解決手段】画像から物体11のうちの平行グリッパ101が接触する面の面内方向である接触面内方向を推定し、推定結果から物体11の把持の容易度を評価するための指標を取得する指標取得部301と、指標取得部301により取得された指標から、物体11の把持の容易度を算出する容易度算出部302と、容易度算出部302により算出された容易度を示す情報を提示する容易度提示部303とを備えた。【選択図】図2

Description

この発明は、物体の把持の容易度を判定する容易度判定装置及び容易度判定方法に関する。
従来から、テンプレートマッチングという手法を用いて、画像から、対象である物体の位置(x、y)及び姿勢(θ)を推定する2次元位置姿勢推定装置が知られている(例えば特許文献1参照)。この2次元位置姿勢推定装置では、物体のモデル(テンプレート)を予め登録し、画像とテンプレートとの間の画像特徴の一致度を評価することで、画像上での物体の位置姿勢を推定する。
そして、ロボットピッキングシステムでは、2次元位置姿勢推定装置により推定された物体の位置及び姿勢に基づいて、コンベア等の搬送路により供給された物体のピッキングを行う。
特開2016−207147号公報
一方、複数のロボットが多品種少量の生産ラインで稼動している場合、ロボットによる把持ミスが生じると作業員がリカバリー作業を行う必要がある。しかしながら、常に把持ミスが起こるわけではない。よって、徹底的な合理化を促進するためには、物体の把持の容易度を検出し、ロボットに配置する作業員の人数を可能な限り少なくすることが望ましい。
この発明は、上記のような課題を解決するためになされたもので、物体の把持の容易度を判定可能な容易度判定装置を提供することを目的としている。
この発明に係る容易度判定装置は、画像から物体のうちの平行グリッパが接触する面の面内方向である接触面内方向を推定し、推定結果から物体の把持の容易度を評価するための指標を取得する指標取得部と、指標取得部により取得された指標から、物体の把持の容易度を算出する容易度算出部と、容易度算出部により算出された容易度を示す情報を提示する容易度提示部とを備えたことを特徴とする。
この発明によれば、上記のように構成したので、物体の把持の容易度を判定可能である。
実施の形態1に係る容易度判定装置を備えロボットピッキングシステムの構成例を示す図である。 実施の形態1に係る容易度判定装置の構成例を示す図である。 実施の形態1に係る容易度判定装置の動作例を示すフローチャートである。 実施の形態1における画像取得部により取得された画像の一例を示す図である。 図5A〜図5Cは、実施の形態1における領域抽出部による動作を説明するための図である。 図6A、図6Bは、実施の形態1における方向推定部による動作を説明するための図である。 実施の形態1における総距離算出部により算出される総距離、最大距離算出部により算出される最大距離及び実距離算出部により算出される実距離を説明するための図である。
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
図1は実施の形態1に係る容易度判定装置3を備えたロボットピッキングシステムの構成例を示す図である。
容易度判定装置3は、例えば、FA(ファクトリーオートメーション)等における物体11のピッキング動作を行うロボットピッキングシステムに設けられる。
ロボットピッキングシステムは、例えば、工場の生産ライン等に配置され、搬送路12により供給された物体11のピッキングを行う。なお、搬送路12により供給される物体11は重ならずに配置されているものとする。このロボットピッキングシステムは、図1に示すように、ロボット1、カメラ(撮像装置)2及び容易度判定装置3を備えている。
ロボット1は、アームの先端に平行グリッパ101を有し、この平行グリッパ101を用いて物体11のピッキングを行う。なお、平行の意味は略平行の意味を含み、また、複数の爪を略平行に配置して平行グリッパ101と等価な把持ができるようにしたものを含む。
カメラ2は、例えば平行グリッパ101に取付けられ、撮像領域を撮像して画像を得る。このカメラ2により得られた画像を示すデータ(画像データ)は容易度判定装置3に出力される。また、カメラ2の取付け位置は、平行グリッパ101に限られない。
なお、カメラ2により得られる画像は、撮像領域に物体11が存在する場合に、その物体11を示す領域(物体領域)とその他の領域(背景領域)とを判別可能な画像であればよく、その形式は問わない。カメラ2は、例えば2次元画像を得てもよい。この2次元画像としては、一般的にはカラー又はモノクロの可視画像が挙げられるが、これに限らず、可視画像では上記の判別が容易ではない場合には、近赤外線画像又はマルチスペクトル画像等の特殊な2次元画像を用いてもよい。また、カメラ2は、物体11にある程度の奥行きがある場合には、距離画像を得てもよい。
容易度判定装置3は、カメラ2により得られた画像から、搬送路12により供給された物体11の把持の容易度を判定する。この容易度判定装置3は、図2に示すように、指標取得部301、容易度算出部302及び容易度提示部303を備えている。なお、容易度判定装置3は、システムLSI(Large Scale Integration)等の処理回路、又はメモリ等に記憶されたプログラムを実行するCPU(Central Processing Unit)等により実現される。
指標取得部301は、カメラ2により得られた画像から物体11の接触面内方向を推定し、推定結果から物体11の把持の容易度を評価するための指標を取得する。接触面内方向は、物体11のうちの平行グリッパ101が接触する面の面内方向である。この指標取得部301は、図2に示すように、画像取得部304、領域抽出部305、方向推定部306、総距離算出部307、最大距離算出部308及び実距離算出部309を有している。
画像取得部304は、カメラ2により得られた画像を取得する。
領域抽出部305は、画像取得部304により取得された画像から、画像処理によって物体領域を抽出する。すなわち、領域抽出部305は、上記画像から、コントラストの変化の度合いに基づいて、物体領域を抽出する。領域抽出部305による物体領域の抽出手法としては、例えば閾値処理又は背景差分法等が考えられるが、物体領域と背景領域とを判別して物体領域を抽出可能な手法であれば特に制限はない。
方向推定部306は、領域抽出部305により抽出された物体領域に基づく領域から、再現性のある一意の方向に基づく物体11の姿勢を推定することで、物体11の接触面内方向を推定する。なお、領域抽出部305により抽出された物体領域に基づく領域は、当該物体領域、当該物体領域を凸包した領域、当該物体領域を幾何学形状で近似した領域、当該物体領域を幾何学形状で包含した最小の領域、又は、当該物体領域を幾何学形状で外接した最小の領域のうちの1つ以上の領域を含む。幾何学形状としては、矩形又は楕円等が挙げられる。
方向推定部306は、例えば、上記接触面内方向として上記物体領域に基づく領域の長軸方向を推定する。
総距離算出部307は、領域抽出部305により抽出された物体領域に基づく領域及び方向推定部306により推定された接触面内方向から、総距離を算出する。総距離は、上記物体領域そのものにおける上記接触面内方向に平行(略平行の意味を含む)な両辺の合計の距離である。
最大距離算出部308は、領域抽出部305により抽出された物体領域に基づく領域及び方向推定部306により推定された接触面内方向から、最大距離を算出する。最大距離は、上記両辺を上記接触面内方向に投影した際に重複する部分の距離である。
実距離算出部309は、領域抽出部305により抽出された物体領域に基づく領域及び方向推定部306により推定された接触面内方向から、実距離を算出する。実距離は、上記物体領域に基づく領域における上記接触面内方向に垂直な方向(平行グリッパ101の把持方向)の距離である。
なお、総距離算出部307、最大距離算出部308及び実距離算出部309は、「領域抽出部305により抽出された物体領域に基づく領域及び方向推定部306により推定された接触面内方向から、物体11の把持の容易度を評価するための指標を算出する指標算出部」を構成する。
また図2では、指標取得部301が、総距離算出部307、最大距離算出部308及び実距離算出部309の全てを有する場合を示した。しかしながら、これに限らず、指標取得部301は、総距離算出部307、最大距離算出部308及び実距離算出部309のうちの少なくとも1つ以上を有していればよい。
また、指標取得部301は、取得する指標として、上記各指標に加え、更に別の指標を含めてもよい。
容易度算出部302は、指標取得部301により取得された指標から、搬送路12により供給された物体11の把持の容易度を算出する。
なお、容易度算出部302は、例えば、指標取得部301により取得された指標に係数を乗じた多項式によって容易度を算出する。又は、容易度算出部302は、機械学習を行った学習済みの学習器を用いて容易度を算出する。
容易度提示部303は、容易度算出部302により算出された容易度を示す情報を、モニタ(不図示)に提示する。
次に、図2に示す容易度判定装置3の動作例について、図3を参照しながら説明する。
一般的に、物体11の姿勢を表現する場合、オイラー角(α,β,γ)及び四元数(w,x,y,z)に代表されるように、ある基準からの回転量(角度)で表現する場合が多い。この場合、物体11自体はその基準を持っていないため、ユーザは、任意に基準を設定する必要がある。また、基準の設定に関しては特に制限はない。よって、方向推定部306は、物体領域に基づく領域から再現性のある一意の方向を導出することで、基準となるテンプレートを用いずに物体11の姿勢が表現可能である。
また、画像上で物体11の姿勢を表現する場合、主にZ軸(カメラ2の光軸方向)周りの回転量で表現する場合が多い。よって、Z軸周りに回転対称な形状を有する物体11に対しては、姿勢の表現が不可能(不必要)である。このことから、画像上での姿勢推定が必要な物体11は、形状に何らかの幾何学的特徴を有するものに限定される。そして、物体11として形状に何らかの幾何学的特徴を有するものを想定した場合、その物体領域に基づく領域の長軸方向は一意に定まる。そこで、以下では、方向推定部306は物体11の接触面内方向として長軸方向を推定する。
そして、実施の形態1に係る容易度判定装置3では、物体領域及び接触面内方向を入力情報として用いることで、搬送路12により供給された物体11の把持の容易度を判定する。
この実施の形態1に係る容易度判定装置3の動作例では、図3に示すように、まず、画像取得部304は、カメラ2により得られた画像を取得する(ステップST1)。
次いで、領域抽出部305は、画像取得部304により取得された画像から、画像処理によって物体領域を抽出する(ステップST2)。ここでは、領域抽出部305は、閾値処理によって画像から物体領域を抽出するものとする。画像取得部304により例えば図4に示すような画像が取得されたとする。この画像には、物体11、搬送路12及びその他の背景が含まれている。実施の形態1に係る容易度判定装置3では、テンプレートを用意しないため、画像から物体領域を直接抽出することは容易ではない。そこで、領域抽出部305は、まず、例えば図5Aに示すように、閾値処理によって画像から搬送路12を示す領域(図5Aに示すグレーの領域)501を抽出することが望ましい。そして、領域抽出部305は、搬送路12を示す領域501と、当該領域に対してクロージング処理等で領域の穴埋めを行った領域(図5Bに示すグレーの領域)502との差分をとることで、物体領域(図5Cに示すグレーの領域)503が抽出可能である。
次いで、方向推定部306は、領域抽出部305により抽出された物体領域に基づく領域から、再現性のある一意の方向に基づく物体11の姿勢を推定することで、物体11の接触面内方向を推定する(ステップST3)。ここでは、方向推定部306は、上記領域の図心を用い、上記接触面内方向として上記領域の長軸方向を推定する。
具体的には、方向推定部306は、まず、領域抽出部305により抽出された物体領域に基づく領域の図心を導出する。ここで、上記領域を構成する点の座標が(u,v)(i,j=1,・・・,N)で表される場合、方向推定部306は、当該領域の0次モーメント及び1次モーメントを用いて、下式(1)〜(4)から、当該領域の図心を導出する。なお、Nは上記領域を構成する点の個数である。また、式(1)〜(4)において、m00は上記領域の0次モーメントを表し、(m10,m01)は当該領域の1次モーメントを表し、(u(バー),v(バー))は当該領域の図心を表す。

Figure 2020093341
そして、基準方向が画像上の水平方向である場合、方向推定部306は、上記領域の2次モーメント及び当該領域の図心に基づいて、下式(6)〜(9)から、水平方向からの回転角度を導出することで物体11の長軸方向を推定する。式(6)〜(9)において、(m20,m02,m11)は上記領域の2次モーメントを表し、θは回転角度を表す。

Figure 2020093341
例えば、領域抽出部305が図5Cに示すような物体領域503を抽出したとする。また、方向推定部306が用いる領域が、図6Aに示すように物体領域503を包含する最小の矩形領域601であるとする。この場合、方向推定部306により導出される図心602及び長軸方向603は図6Bに示すようになる。
また、方向推定部306は、例えば図5Cに示す物体領域503及び図6Aに示す矩形領域601等のように複数の領域を用いてそれぞれに対して物体11の長軸方向の推定を行い、それらの推定結果に基づいて物体11の長軸方向を推定してもよい。これにより、方向推定部306は、方向推定の精度の向上を図ることができる。
次いで、総距離算出部307は、領域抽出部305により抽出された物体領域に基づく領域及び方向推定部306により推定された接触面内方向から、総距離を算出する(ステップST4)。すなわち、総距離算出部307は、図7に示すように、上記物体領域そのものにおける長軸方向に平行な両辺(図7で符号703,704に示す辺)の合計の距離を、総距離として算出する。また図7において、符号701は図心を示し、符号702は長軸方向を示している。
物体領域に基づく領域において接触面内方向に平行な両辺が長い程、平行グリッパ101が物体11を把持する際に物体11との接触距離が長くなると考えられる。この接触距離が長いということは、平行グリッパ101が物体11を広範囲で把持できることを意味する。そして、平行グリッパ101は、把持する範囲が広い程、物体11の回転モーメントに対して頑健となり、また、静止摩擦力が働くための接触面も広くなる。よって、総距離算出部307により算出される総距離は、物体11の把持が安定し易く容易であることを評価するための因子として技術的な意義がある。
また、最大距離算出部308は、領域抽出部305により抽出された物体領域に基づく領域及び方向推定部306により推定された接触面内方向から、最大距離を算出する(ステップST5)。すなわち、最大距離算出部308は、図7に示すように、上記物体領域そのものにおける長軸方向に平行な両辺を当該長軸方向に投影した際に重複する部分の距離(図7で符号705に示す距離)を、最大距離として算出する。
一般的に、平行グリッパ101が物体11を安定的に把持するためには少なくとも3点以上で把持することが望ましい。これに対し、最大距離が長い程、3点以上で把持可能な範囲が広くなるため、把持が安定し易く容易であると評価できる。仮に、平行グリッパ101が物体11に接する部分が間欠的になることで総距離が短い場合でも、最大距離が長い場合には、平行グリッパ101は物体11を広範囲で把持可能であり、把持が容易になると評価できる。よって、最大距離算出部308により算出される最大距離は、物体11の把持が安定し易く容易であることを評価するための因子として技術的な意義がある。
また、実距離算出部309は、領域抽出部305により抽出された物体領域に基づく領域及び方向推定部306により推定された接触面内方向から、実距離を算出する(ステップST6)。すなわち、実距離算出部309は、図7に示すように、物体領域に基づく領域における短軸方向の距離(図7で符号706に示す距離)を、実距離として算出する。
平行グリッパ101は、最大ストロークを超えた大きさの物体11は把持できない。よって、実距離算出部309により算出された実距離は、物体11の把持が容易であることを評価するための因子としての技術的な意義がある。
次いで、容易度算出部302は、指標取得部301により取得された指標から、搬送路12により供給された物体11の把持の容易度を算出する(ステップST7)。
容易度は、基本的に、総距離、最大距離及び実距離のうちの何れか1つを用いれば成り立ち、また、これらと等価な技術的な意義を有する指標を用いてもよい。なお、実用性を考慮すれば、これらの指標は、指標の算出に用いた物体領域に基づく領域の総面積で正規化することで、汎用性が向上し、好適である。
なお、総距離及び最大距離は、数値が大きい程(長い程)、容易度が高くなる。また、実距離は、数値が小さい程(短い程)、容易度が高くなる。そこで、容易度算出部302は、例えば下式(10)、下式(11)、下式(12)又は下式(13)のような多項式を用いて容易度を算出してもよい。なお、式(10)〜(13)において、Xは総距離を示し、Yは最大距離を示し、Zは実距離を示し、Sは上記総面積を示している。また、A,B,Cは係数であり、A≧0.0であり、B≧0.0であり、C≧0.0である。また、A,B,Cは、オペレータの経験又は実験データに基づく統計処理(回帰分析)等により決定される。
F=AX+BY−CZ (10)
F=AX+BY−CZ(11)
F=AX/S+BY/S−CZ/S (12)
F=AX/S+BY/S−CZ/S (13)
また、容易度としては、総距離、最大距離、実距離以外にも、物体11の把持の容易度の評価因子として技術的な意義のある指標を取り込むことが可能である。この場合、回帰分析等で得られる多項式では不十分になるくらいに、容易度との関係が複雑になる可能性がある。よって、容易度算出部302は、ディープラーニング等のAI(人工知能)によって機械学習を行った学習済みの学習器を用いて容易度を算出してもよい。
次いで、容易度提示部303は、容易度算出部302により算出された容易度を示す情報をモニタに提示する(ステップST8)。
ここで、上述したように、複数のロボット1が多品種少量の生産ラインで稼動している場合、把持のミスが起こった際には作業員がリカバリー作業を行う必要がある。そこで、実施の形態1に係る容易度判定装置3で物体11の把持の容易度を判定する。これにより、生産ラインの作業員又は監督者は、把持の容易度に応じて把持ミスが生じ易いと思われるロボット1に対して優先的に作業員を配置できる。その結果、生産ラインにおいて協働する作業員を効率よく配置可能となり、また、リカバリー作業のための作業員の移動時間を合理的に削減可能となる。
以上のように、この実施の形態1によれば、容易度判定装置3は、画像から物体11のうちの平行グリッパ101が接触する面の面内方向である接触面内方向を推定し、推定結果から物体11の把持の容易度を評価するための指標を取得する指標取得部301と、指標取得部301により取得された指標から、物体11の把持の容易度を算出する容易度算出部302と、容易度算出部302により算出された容易度を示す情報を提示する容易度提示部303とを備えた。これにより、実施の形態1に係る容易度判定装置3は、物体11の把持の容易度を判定可能である。
また、実施の形態1における指標取得部301は、画像を取得する画像取得部304と、画像取得部304により取得された画像から、物体11を示す領域である物体領域を抽出する領域抽出部305と、領域抽出部305により抽出された物体領域に基づく領域から、再現性のある一意の方向に基づく物体11の姿勢を推定することで、当該物体11の接触面内方向を推定する方向推定部306と、領域抽出部305により抽出された物体領域に基づく領域及び方向推定部306により推定された接触面内方向から、物体11の把持の容易度を評価するための指標を算出する指標算出部とを有する。これにより、実施の形態1における指標取得部301は、テンプレートを用いずに多様な物体11に対して画像上での接触面内方向が検出可能となり、その接触面内方向から上記指標を算出可能となる。
なお上記では、指標取得部301は、テンプレートを用いずに物体11の接触面内方向を検出する場合を示した。しかしながら、これに限らず、指標取得部301は、テンプレートを用いて物体11の接触面内方向を検出してもよい。
なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、若しくは実施の形態の任意の構成要素の省略が可能である。
1 ロボット
2 カメラ(撮像装置)
3 容易度判定装置
11 物体
12 搬送路
101 平行グリッパ
301 指標取得部
302 容易度算出部
303 容易度提示部
304 画像取得部
305 領域抽出部
306 方向推定部
307 総距離算出部
308 最大距離算出部
309 実距離算出部

Claims (6)

  1. 画像から物体のうちの平行グリッパが接触する面の面内方向である接触面内方向を推定し、推定結果から物体の把持の容易度を評価するための指標を取得する指標取得部と、
    前記指標取得部により取得された指標から、物体の把持の容易度を算出する容易度算出部と、
    前記容易度算出部により算出された容易度を示す情報を提示する容易度提示部と
    を備えた容易度判定装置。
  2. 前記指標取得部は、
    画像を取得する画像取得部と、
    前記画像取得部により取得された画像から、物体を示す領域である物体領域を抽出する領域抽出部と、
    前記領域抽出部により抽出された物体領域に基づく領域から、再現性のある一意の方向に基づく物体の姿勢を推定することで、当該物体の接触面内方向を推定する方向推定部と、
    前記領域抽出部により抽出された物体領域に基づく領域及び前記方向推定部により推定された接触面内方向から、物体の把持の容易度を評価するための指標を算出する指標算出部とを有する
    ことを特徴とする請求項1記載の容易度判定装置。
  3. 前記指標算出部は、物体の把持の容易度を評価するための指標として、物体領域における接触面内方向に平行な両辺の合計の距離である総距離、当該両辺を当該接触面内方向に投影した際に重複する部分の距離である最大距離、及び、当該物体領域に基づく領域における当該接触面内方向に垂直な方向の距離である実距離のうちの少なくとも1つを算出する
    ことを特徴とする請求項2記載の容易度判定装置。
  4. 前記容易度算出部は、前記指標取得部により取得された指標に係数を乗じた多項式によって容易度を算出する
    ことを特徴とする請求項1から請求項3のうちの何れか1項記載の容易度判定装置。
  5. 前記容易度算出部は、機械学習を行った学習済みの学習器を用いて容易度を算出する
    ことを特徴とする請求項1から請求項3のうちの何れか1項記載の容易度判定装置。
  6. 指標取得部が、画像から物体のうちの平行グリッパが接触する面の面内方向である接触面内方向を推定し、推定結果から物体の把持の容易度を評価するための指標を取得するステップと、
    容易度算出部が、前記指標取得部により取得された指標から、物体の把持の容易度を算出するステップと、
    容易度提示部が、前記容易度算出部により算出された容易度を示す情報を提示するステップと
    を有する容易度判定方法。
JP2018232608A 2018-12-12 2018-12-12 容易度判定装置及び容易度判定方法 Active JP7296719B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018232608A JP7296719B2 (ja) 2018-12-12 2018-12-12 容易度判定装置及び容易度判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018232608A JP7296719B2 (ja) 2018-12-12 2018-12-12 容易度判定装置及び容易度判定方法

Publications (2)

Publication Number Publication Date
JP2020093341A true JP2020093341A (ja) 2020-06-18
JP7296719B2 JP7296719B2 (ja) 2023-06-23

Family

ID=71085881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018232608A Active JP7296719B2 (ja) 2018-12-12 2018-12-12 容易度判定装置及び容易度判定方法

Country Status (1)

Country Link
JP (1) JP7296719B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0639773A (ja) * 1992-07-28 1994-02-15 Fujitsu Ltd 把持装置
JP2013108933A (ja) * 2011-11-24 2013-06-06 Kddi Corp 情報端末装置
JP2015145055A (ja) * 2014-02-04 2015-08-13 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置および制御方法
JP2016203293A (ja) * 2015-04-21 2016-12-08 株式会社豊田自動織機 ピッキング装置およびピッキング方法
JP2018051704A (ja) * 2016-09-29 2018-04-05 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
JP2018144167A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス 画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0639773A (ja) * 1992-07-28 1994-02-15 Fujitsu Ltd 把持装置
JP2013108933A (ja) * 2011-11-24 2013-06-06 Kddi Corp 情報端末装置
JP2015145055A (ja) * 2014-02-04 2015-08-13 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置および制御方法
JP2016203293A (ja) * 2015-04-21 2016-12-08 株式会社豊田自動織機 ピッキング装置およびピッキング方法
JP2018051704A (ja) * 2016-09-29 2018-04-05 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
JP2018144167A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス 画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器

Also Published As

Publication number Publication date
JP7296719B2 (ja) 2023-06-23

Similar Documents

Publication Publication Date Title
JP5612916B2 (ja) 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
WO2019189661A1 (ja) 学習データセット作製方法及び装置
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP5618569B2 (ja) 位置姿勢推定装置及びその方法
CN108604393B (zh) 信息处理系统、信息处理装置、信息处理方法以及计算机可读取的存储介质
JP2019063984A (ja) 情報処理装置、方法及びロボットシステム
JP6324025B2 (ja) 情報処理装置、情報処理方法
EA038279B1 (ru) Способ и система захвата объекта с помощью роботизированного устройства
WO2018161555A1 (zh) 物体位姿的检测方法和装置
US20130114886A1 (en) Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
JP2018119833A (ja) 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体
JP2016196077A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
Lambrecht Robust few-shot pose estimation of articulated robots using monocular cameras and deep-learning-based keypoint detection
CN116249607A (zh) 用于机器人抓取三维物体的方法和装置
CN110991292A (zh) 动作识别比对方法、系统、计算机存储介质和电子装置
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
EP4261636A1 (en) Processing device, processing system, head mounted display, processing method, program, and storage medium
JP2010184300A (ja) 姿勢変更システムおよび姿勢変更方法
JP2020093341A (ja) 容易度判定装置及び容易度判定方法
JP5462662B2 (ja) 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム
JP6265784B2 (ja) 姿勢推定システム、プログラムおよび姿勢推定方法
JP7178889B2 (ja) 安定度判定装置及び安定度判定方法
JP6836628B2 (ja) ピッキングまたはデバンニング用対象物認識装置、ピッキングまたはデバンニング用対象物認識方法、ならびにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221006

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230613

R150 Certificate of patent or registration of utility model

Ref document number: 7296719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150