JP6529302B2 - 情報処理装置、情報処理方法、プログラム - Google Patents
情報処理装置、情報処理方法、プログラム Download PDFInfo
- Publication number
- JP6529302B2 JP6529302B2 JP2015061685A JP2015061685A JP6529302B2 JP 6529302 B2 JP6529302 B2 JP 6529302B2 JP 2015061685 A JP2015061685 A JP 2015061685A JP 2015061685 A JP2015061685 A JP 2015061685A JP 6529302 B2 JP6529302 B2 JP 6529302B2
- Authority
- JP
- Japan
- Prior art keywords
- interference
- holding
- target
- gripping
- positions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39484—Locate, reach and grasp, visual guided grasping
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39543—Recognize object and plan hand shapes in grasping movements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
第1の実施形態では、把持方法に対応した着目部位をワークに対してあらかじめ設定しておき、認識したワークの各着目部位の奥行き値に基づいて把持動作を決定する。これにより、把持部位が表層にあるような、干渉の発生しにくい把持動作で優先的に把持を行うため、効率よくバラ積みピッキングが可能となる。
ステップS101では、着目部位入力部10は、ワークの各把持方法に対応した、ワークの着目部位を入力する。ここでは、ワークおよびハンドの三次元形状モデルと、把持位置姿勢に基づき、着目部位を抽出して入力する方法について述べる。この場合の処理は、以下のステップS102〜S104から成る。
ステップS102では、モデル入力部11は、ワークの三次元形状モデル、および、ワークの把持を行うハンドの三次元形状モデルを入力する。
ステップS103では、把持位置姿勢入力部12は、モデル入力部11により入力されたワークおよびハンドの三次元形状モデルの各座標系に基づき、ワークの把持を行う際のワークとハンドとの相対位置姿勢を入力する。
ステップS104では、抽出部13は、ワークを把持するための各把持方法に対する着目部位を抽出する。
ステップS105では、計測部14は、ワークの位置姿勢を認識するための計測情報の取得を行う。本実施形態では、距離画像および濃淡画像を撮影するものとする。なお、前述したように、ワークの位置姿勢を認識するための情報を取得できれば、センサにはカメラを用いてもよいし、その他のセンサを用いてもよい。
ステップS106では、ワーク認識部15は、ワークの位置姿勢を認識する。具体的には、センサ座標系におけるワークの位置姿勢を表す6つのパラメータを算出する。ここで算出された6つのパラメータに基づくセンサ座標系からワーク座標系への座標変換において、姿勢を表す3つのパラメータで表現される3×3の回転行列をRWS、位置を表す3つのパラメータで表現される3列の並進ベクトルをそれぞれtWSとする。このとき、センサ座標系XS=[XS,YS,ZS]Tからワーク座標系XW=[XW,YW,ZW]Tへの変換は、4×4行列TWSを用いて以下のように表すことができる。
XW’=TwsXS’ (式1)
ここで、
XW’=[XW,YW,ZW,1]T
XS’=[XS,YS,ZS,1]T
ステップS107では、着目位置算出部16は、認識したワークに対して内掴み、外掴みでそれぞれ把持を行う各把持位置に対する着目部位の位置(着目位置)を算出する。図5に示すように、パレット内にバラ積みのワーク(ここでは5つ)が収容されているものとする。このうち、ステップS106、S107の処理により、バラ積み中から2つのワーク(A,B)を検出できたものとする。検出できたワークを実線で示し、それぞれワークA、ワークBとする。なお、検出できなかった3つのワークを破線で示す。ここで認識したワークの位置姿勢、すなわち、センサ座標系におけるワークの位置姿勢に基づき、着目部位の座標をワーク座標系からセンサ座標系に変換する。これにより、認識したワークA、Bに対して、着目部位1、着目部位2のセンサ座標系における位置(x,y,z)がそれぞれ算出される。以後、ワークAの着目部位1、着目部位2の位置をそれぞれPA1、PA2、ワークBの着目部位1、着目部位2の位置をそれぞれPB1、PB2と表現することにする。
ステップS108において、着目位置算出部16は、着目位置PA1、PA2、PB1、PB2それぞれ対応した把持位置のうち、候補として未選択の把持位置が1つ以上存在する場合には、ステップS109へ進む。もし、すべての把持位置がすでに候補として選択済みであった場合には、把持候補がこれ以上存在しないものとして処理を終了する。
ステップS109では、候補として未選択のすべての把持位置について着目位置を比較し、把持位置を1つ選択する。たとえば、図5に示したワークAの内掴み、外掴み、ワークBの内掴み、外掴みの4つの把持位置がすべて未選択であったとする。このとき、それぞれの把持位置に対応した着目位置PA1、PA2、PB1、PB2の各z値に着目し、値が最も小さいものに対応した把持位置を選択する。これにより、バラ積みの表層で把持が可能なもの、すなわち周辺物体との干渉が発生しにくい把持位置を優先的に選択する。図5の例ではPA2、PB2、PB1、PA1の順にz値が小さいため、ワークAの外掴みがはじめに候補として選択されることになる。
ステップS110では、把持位置決定部17は、ステップS109で選択された把持位置によるワークの把持が可能であるか事前判定を行う。具体的には、把持位置におけるハンドの姿勢、把持位置における周辺物体(パレット、近接ワーク)との干渉有無を判定する。ハンドの姿勢判定は、たとえば認識したワークに対して把持方法に対応した相対位置姿勢でハンド形状モデルを配置し、このときのハンド座標系Z軸とセンサ座標系Z軸とのなす角度により判定する。この角度が所定値以上である場合には姿勢に無理があるものとして把持不可、所定値未満の場合には把持可能と判定する。たとえば図4において、ワークBに対する外掴みは、パレット底面に対してほぼ水平にアプローチするような把持位置となるため、把持不可と判定する。あるいは、把持位置までロボットを制御可能か、ロボットコントローラにより判定を行ってもよい。干渉有無の判定は、たとえば、ワークの認識結果に基づいて仮想的にバラ積み状態のワークおよびパレットを含めた三次元空間を再現し、把持位置におけるハンドが周辺物体と干渉するかを判定する。ここで干渉が発生する場合には把持不可、発生しない場合には把持可能と判定する。これらの判定により、いずれも把持可能と判定された場合にはステップS111へ、把持不可と判定された場合には、ステップS108へ進む。
ステップS111では、出力部18は、ステップS110で把持可能と判定された把持位置を外部のロボットコントローラに出力する。ロボットコントローラは、ロボットハンドを制御し、決定された把持位置に基づき、ロボットハンドによる把持およびその後のハンドによる作業(搬送、設置、組み付けなど)を実施する。ステップS105へ進む。これにより、バラ積みワークに対するロボットハンドによる作業を連続して実施可能となる。
第1の実施形態では、認識したワークの各着目部位の奥行き値に基づき、把持部位が表層にあるような把持位置を、干渉の発生しにくいものとして優先的に選択を行った。これに対して、変形例では、パレットの側面付近ではパレットとの干渉が発生しやすいことを考慮して、把持部位がパレット中央領域付近であるような把持位置を優先的に選択する。なお、対象とするワークおよびハンド、把持方法は第1の実施形態と同様であるものとする。
ステップS109では、把持位置決定部17は、候補として未選択のすべての把持位置について着目位置を比較し、把持位置を1つ選択することにより把持位置を決定する。図6を用いて説明する。なお、説明簡略化のため、ここではセンサ座標系のZ軸がパレット底面の中心を貫くような配置でパレットが設置されているものとする。このとき、センサ座標系のXY平面おいて、着目位置の原点からの距離が小さいものほど、パレット中央付近に把持部位があることになる。そこで、着目部位のセンサ座標系における位置(x,y,z)に対して、センサ原点からの距離dをd=x2+y2で算出する。そして、各着目部位に対して算出した距離dをそれぞれ比較し、この値が最も小さい把持位置を選択する。
第1の実施形態では、認識したワークの各着目部位の位置のみに基づき、把持位置の選択を行った。本実施例では、複数の把持方法において周辺物体との干渉の発生確率が異なる場合に、把持方法に対する優先度もあらかじめ設定しておくことで、より干渉のしにくい把持位置を選択する方法について述べる。なお、対象とするワークおよびハンド、把持方法は第1の実施形態と同様であるものとする。ただし、本実施例では、内掴みによる把持が、外掴みに比べて干渉が発生しにくいものとし、内掴みでの把持を優先的に選択するものとする。
ステップS204では、着目位置決定部17は、ワークを把持可能な把持方法(内掴み、外掴み)のうち、候補として未選択の把持方法が1つ以上存在する場合には、ステップS205へ進む。もし、すべての把持方法がすでに候補として選択済みであった場合には、把持候補がこれ以上存在しないものとして処理を終了する。
ステップS205では、着目位置決定部17は、複数の把持方法の中から干渉の発生しにくい方法を優先的に選択する。前述したとおり、本実施形態では、内掴みによる把持が、外掴みに比べて干渉が発生しにくいものとし、内掴みでの把持をまず選択する。
ステップS206では、着目位置決定部17は、認識したワークに対して、ステップS205で選択した把持方法での把持位置に対する各着目位置を算出する。たとえば図5において、把持方法として内掴みが選択されている場合、ワークAに対する着目部位1、ワークBに対する着目部位1のセンサ座標系における位置(x,y,z)をそれぞれPA1、PB1として算出する。
また、本発明は、以下の処理を実行することによっても実現される。
Claims (11)
- 物体における着目部位を設定する設定手段と、
複数の物体の位置及び姿勢の計測データを取得する計測データ取得手段と、
前記計測された複数の物体の位置及び姿勢に基づいて、前記計測された複数の物体それぞれについて前記設定された着目部位に対応する着目位置を算出することにより、前記複数の物体における複数の着目位置を得る算出手段と、
前記複数の着目位置に基づいて、物体を保持する保持手段が物体の前記着目位置を保持する場合に保持物体以外の物との干渉の有無を判定する判定手段と、
前記判定手段の判定結果に基づいて、前記保持手段が物体を保持するための情報を出力する出力手段とを備え、
前記判定手段は、
前記複数の物体における複数の着目位置のそれぞれの位置に基づいて前記複数の物体における複数の着目位置のうち1つの着目位置を選択し、選択された着目位置に対応する着目部位を前記保持手段が保持する場合の前記干渉の有無を判定し、前記干渉が有ると判定した場合に、前記複数の物体における複数の着目位置のうち他の着目位置を選択し、前記他の着目位置に対応する着目部位を前記保持手段が保持する場合の前記干渉の有無を判定し、
前記出力手段は、
前記判定手段が前記干渉が無いと判定した前記着目部位を前記保持手段が保持するための情報を出力することを特徴とする情報処理装置。 - 前記判定手段は、前記計測データを生成するセンサからの奥行き方向の位置に基づいて前記複数の物体における複数の着目位置のうち1つの着目位置を選択し、選択された着目位置に対応する着目部位を前記保持手段が保持する場合の前記干渉の有無を判定することを特徴とする請求項1に記載の情報処理装置。
- 前記判定手段は、前記複数の着目位置のうち、前記センサに最も近い奥行きをもつ着目位置を選択し、選択された着目位置を前記保持手段が保持する場合の前記干渉の有無を判定し、前記干渉が有ると判定した場合に、前記複数の着目位置のうち次に前記センサに近い奥行きをもつ他の着目位置を選択し、前記他の着目位置を前記保持手段が保持する場合の前記干渉の有無を判定することを特徴とする請求項2に記載の情報処理装置。
- 前記判定手段は、前記複数の物体の存在する領域の中心からの距離に基づいて、前記干渉の有無を判定することを特徴とする請求項1に記載の情報処理装置。
- 前記判定手段は、前記複数の着目位置のうち、前記複数の物体の存在する領域の中心からの距離が最も小さい着目位置を選択し、選択された着目位置に対応する着目部位を前記保持手段が保持する場合の前記干渉の有無を判定することを特徴とする請求項4に記載の情報処理装置。
- 前記設定手段は、前記物体の3次元形状モデルおよび前記保持手段の3次元形状モデルに基づいて、前記着目部位を設定することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
- 前記設定手段は、更に、前記物体を保持する際の保持手段と前記物体との相対位置姿勢に基づいて、前記着目部位を設定することを特徴とする請求項6に記載の情報処理装置。
- 前記判定手段は、前記物体を把持する複数の把持方法のうち最も干渉が発生しにくい把持方法に対応する前記着目位置を選択し、選択された着目位置を前記保持手段が保持する場合の前記干渉の有無を判定し、前記干渉が有ると判定した場合に、前記複数の把持方法のうち他の把持方法に対応する着目位置を選択し、前記他の把持方法に対応する着目位置を前記保持手段が保持する場合の前記干渉の有無を判定することを特徴とする請求項1に記載の情報処理装置。
- 前記判定手段は、前記物体を把持する複数の把持方法のうち最も干渉が発生しにくい把持方法に対応する複数の着目位置のうち前記計測データを生成するセンサに最も近い奥行きをもつ着目位置を選択し、選択された着目位置を前記保持手段が保持する場合の前記干渉の有無を判定し、前記干渉が有ると判定した場合に、前記把持方法に対応する複数の着目位置のうち次に前記センサに近い奥行きをもつ位置にある他の着目位置を選択し、前記他の着目位置を前記保持手段が保持する場合の前記干渉の有無を判定し、更に、前記干渉が有ると判定した場合に、前記複数の把持方法のうち他の把持方法に対応する着目位置を選択し、前記他の把持方法に対応する着目位置を前記保持手段が保持する場合の前記干渉の有無を判定する、ことを特徴とする請求項8に記載の情報処理装置。
- 物体における着目部位を設定する設定工程と、
複数の物体の位置及び姿勢の計測データを取得する計測データ取得工程と、
前記計測された複数の物体の位置及び姿勢に基づいて、前記計測された複数の物体それぞれについて前記設定された着目部位に対応する着目位置を算出することにより、前記複数の物体における複数の着目位置を得る算出工程と、
前記複数の着目位置に基づいて、物体を保持する保持手段が物体の前記着目位置を保持する場合に保持物体以外の物との干渉の有無を判定する判定工程と、
前記判定工程の判定結果に基づいて、前記保持手段が物体を保持するための情報を出力する出力工程と、を備え、
前記判定工程において、
前記複数の物体における複数の着目位置のそれぞれの位置に基づいて前記複数の物体における複数の着目位置のうち1つの着目位置を選択し、選択された着目位置に対応する着目部位を前記保持手段が保持する場合の前記干渉の有無を判定し、前記干渉が有ると判定した場合に、前記複数の物体における複数の着目位置のうち他の着目位置を選択し、前記他の着目位置に対応する着目部位を前記保持手段が保持する場合の前記干渉の有無を判定し、
前記出力工程において、
前記判定工程において前記干渉が無いと判定された前記着目部位を前記保持手段が保持するための情報を出力することを特徴とする情報処理方法。 - 請求項10に記載の情報処理方法をコンピュータに実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015061685A JP6529302B2 (ja) | 2015-03-24 | 2015-03-24 | 情報処理装置、情報処理方法、プログラム |
US15/077,596 US10532459B2 (en) | 2015-03-24 | 2016-03-22 | Information processing apparatus, information processing method, and storage medium for grasping an object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015061685A JP6529302B2 (ja) | 2015-03-24 | 2015-03-24 | 情報処理装置、情報処理方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016181183A JP2016181183A (ja) | 2016-10-13 |
JP6529302B2 true JP6529302B2 (ja) | 2019-06-12 |
Family
ID=56974683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015061685A Active JP6529302B2 (ja) | 2015-03-24 | 2015-03-24 | 情報処理装置、情報処理方法、プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10532459B2 (ja) |
JP (1) | JP6529302B2 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9227323B1 (en) * | 2013-03-15 | 2016-01-05 | Google Inc. | Methods and systems for recognizing machine-readable information on three-dimensional objects |
JP6635690B2 (ja) * | 2015-06-23 | 2020-01-29 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6711591B2 (ja) * | 2015-11-06 | 2020-06-17 | キヤノン株式会社 | ロボット制御装置およびロボット制御方法 |
US10556305B2 (en) * | 2016-02-03 | 2020-02-11 | The Boeing Company | Aligning parts using multi-part scanning and feature based coordinate systems |
WO2018160163A1 (en) * | 2017-02-28 | 2018-09-07 | Siemens Product Lifecycle Management Software Inc. | System and method for determining grasping positions for two-handed grasps of industrial objects |
JP2018144162A (ja) * | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP6823502B2 (ja) * | 2017-03-03 | 2021-02-03 | 株式会社キーエンス | ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP6598814B2 (ja) * | 2017-04-05 | 2019-10-30 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法 |
US10792809B2 (en) * | 2017-12-12 | 2020-10-06 | X Development Llc | Robot grip detection using non-contact sensors |
SE541843C2 (en) * | 2017-12-22 | 2019-12-27 | Envac Optibag Ab | Systems and methods of gripping and emptying a bag |
JP6937995B2 (ja) * | 2018-04-05 | 2021-09-22 | オムロン株式会社 | 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法 |
JP7047726B2 (ja) * | 2018-11-27 | 2022-04-05 | トヨタ自動車株式会社 | 把持ロボットおよび把持ロボットの制御プログラム |
CN109658413B (zh) * | 2018-12-12 | 2022-08-09 | 达闼机器人股份有限公司 | 一种机器人目标物体抓取位置检测的方法 |
CN111508014B (zh) * | 2019-01-31 | 2023-06-09 | 上银科技股份有限公司 | 排除随机堆叠的多个工件的干涉的系统 |
JP7204513B2 (ja) * | 2019-02-13 | 2023-01-16 | 株式会社東芝 | 制御装置及びプログラム |
US11485015B2 (en) * | 2019-02-21 | 2022-11-01 | Hiwin Technologies Corp. | System for eliminating interference of randomly stacked workpieces |
EP3985615A4 (en) * | 2019-06-14 | 2022-08-10 | FUJIFILM Corporation | DEVICE, METHOD AND PROGRAM FOR PROCESSING POINT CLOUD DATA |
KR102528797B1 (ko) * | 2021-08-10 | 2023-05-03 | 세메스 주식회사 | 기판 이송 어셈블리 및 방법 |
WO2024047711A1 (ja) * | 2022-08-29 | 2024-03-07 | ファナック株式会社 | 取り出し機械制御装置、取り出し機械制御プログラムおよび取り出し機械システム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3654042B2 (ja) * | 1999-04-21 | 2005-06-02 | 松下電工株式会社 | 物体特定方法及び装置 |
JP3930490B2 (ja) * | 2004-04-23 | 2007-06-13 | ファナック株式会社 | 物品取出し装置 |
JP4513663B2 (ja) * | 2005-06-15 | 2010-07-28 | 富士電機ホールディングス株式会社 | 自動組立システムにおける組立機構の動作教示方法 |
JP4959520B2 (ja) * | 2007-11-26 | 2012-06-27 | 三菱電機株式会社 | 位置姿勢認識装置及び方法、並びに部品ピッキングシステム |
JP5229253B2 (ja) * | 2010-03-11 | 2013-07-03 | 株式会社安川電機 | ロボットシステム及びロボット装置並びにワーク取り出し方法 |
JP5767464B2 (ja) * | 2010-12-15 | 2015-08-19 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
JP5475698B2 (ja) * | 2011-01-26 | 2014-04-16 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置、表示制御方法、プログラム及び情報記憶媒体 |
JP5533727B2 (ja) * | 2011-02-18 | 2014-06-25 | 株式会社安川電機 | ワークピッキングシステム |
JP5879704B2 (ja) * | 2011-03-10 | 2016-03-08 | 富士電機株式会社 | ロボット制御装置、物品取り出しシステム、プログラムおよびロボットの制御方法 |
JP2013046937A (ja) * | 2011-08-29 | 2013-03-07 | Dainippon Screen Mfg Co Ltd | 対象物把持装置および対象物把持方法および対象物把持プログラム |
DE102012013030A1 (de) * | 2012-06-29 | 2014-04-24 | Liebherr-Verzahntechnik Gmbh | Vorrichtung zum automatischen Entnehmen von in einem Behälter angeordneten Werkstücken |
JP6415026B2 (ja) * | 2013-06-28 | 2018-10-31 | キヤノン株式会社 | 干渉判定装置、干渉判定方法、コンピュータプログラム |
-
2015
- 2015-03-24 JP JP2015061685A patent/JP6529302B2/ja active Active
-
2016
- 2016-03-22 US US15/077,596 patent/US10532459B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016181183A (ja) | 2016-10-13 |
US10532459B2 (en) | 2020-01-14 |
US20160279791A1 (en) | 2016-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6529302B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
EP3550470B1 (en) | Object recognition processing apparatus and method, and object picking apparatus and method | |
JP6415026B2 (ja) | 干渉判定装置、干渉判定方法、コンピュータプログラム | |
JP6117901B1 (ja) | 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム | |
EP1905548B1 (en) | Workpiece picking apparatus | |
US9044858B2 (en) | Target object gripping apparatus, method for controlling the same and storage medium | |
KR101453234B1 (ko) | 워크 취출 장치 | |
JP5458885B2 (ja) | 物体検出方法と物体検出装置およびロボットシステム | |
JP5088278B2 (ja) | 物体検出方法と物体検出装置およびロボットシステム | |
US9576363B2 (en) | Object picking system, object detecting device, object detecting method | |
US20190126471A1 (en) | Information processing apparatus, grasping system, and information processing method | |
US10434652B2 (en) | Workpiece picking system | |
JP2010207989A (ja) | 対象物の把持システム及び同システムにおける干渉検出方法 | |
JP4766269B2 (ja) | 物体検出方法、物体検出装置、及びそれを備えたロボット | |
JP2018136896A (ja) | 情報処理装置、システム、情報処理方法、および物品の製造方法 | |
JP6192088B2 (ja) | 物体検出方法および物体検出装置 | |
US9361695B2 (en) | Method of recognizing a position of a workpiece from a photographed image | |
JP2018126862A (ja) | 干渉判定装置、干渉判定方法、コンピュータプログラム | |
JP5458807B2 (ja) | 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム | |
JP2010210511A (ja) | 対象物の3次元位置・姿勢認識装置及びその方法 | |
US20240139962A1 (en) | Iterative control of robot for target object | |
CN113269112A (zh) | 一种抓取区域的识别方法、装置、电子设备及存储介质 | |
JP7066671B2 (ja) | 干渉判定装置、干渉判定方法、プログラム及びシステム | |
CN113284129B (zh) | 基于3d包围盒的压箱检测方法及装置 | |
JP6041710B2 (ja) | 画像認識方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190108 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190319 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190514 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6529302 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |