JPWO2019130429A1 - ピッキング対象物把持情報登録システム - Google Patents

ピッキング対象物把持情報登録システム Download PDF

Info

Publication number
JPWO2019130429A1
JPWO2019130429A1 JP2019561433A JP2019561433A JPWO2019130429A1 JP WO2019130429 A1 JPWO2019130429 A1 JP WO2019130429A1 JP 2019561433 A JP2019561433 A JP 2019561433A JP 2019561433 A JP2019561433 A JP 2019561433A JP WO2019130429 A1 JPWO2019130429 A1 JP WO2019130429A1
Authority
JP
Japan
Prior art keywords
see
picking object
gripping
picking
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019561433A
Other languages
English (en)
Other versions
JP6940186B2 (ja
Inventor
克英 鈴木
克英 鈴木
朋弘 仲道
朋弘 仲道
徐 剛
剛 徐
勉 石田
勉 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto Robotics Corp
Original Assignee
Kyoto Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyoto Robotics Corp filed Critical Kyoto Robotics Corp
Publication of JPWO2019130429A1 publication Critical patent/JPWO2019130429A1/ja
Application granted granted Critical
Publication of JP6940186B2 publication Critical patent/JP6940186B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

物流現場における自動化を実現することができるピッキングシステムを提供することを目的としている。カメラにて生成された三次元点群情報と二次元画像に基づき、ピッキング対象物の領域を仮説する仮説領域手段(ステップS2)と、仮説領域手段(ステップS2)にて仮説したピッキング対象物の領域に基づいて、ピッキング対象物を想定し、該想定したピッキング対象物の把持位置・把持方法を仮説する仮説把持手段(ステップS3)と、仮説把持手段(ステップS3)にて仮説した把持位置・把持方法を、ロボットを用いて検証する検証手段(ステップS4)と、検証手段(ステップS4)にて検証した結果、ピッキング対象物の把持に成功した把持位置・把持方法を登録するピッキング対象物関連情報登録データベースと、を備えている。

Description

本発明は、ピッキング対象物把持情報登録システムに関する。
従来、製造現場などで、画像処理技術を用いた様々な自動化技術が利用されている。このような技術として、たとえば、画像処理により対象物の位置情報を認識し、認識した位置情報に基づいてロボットハンドを用いて対象物を把持し移動させる技術が知られている(例えば、特許文献1)。
特開2010−69542号公報
ところで、昨今、通販等の大量の商品を扱う物流現場において、人的削減や時間短縮を目的として、上記のような技術を用いて自動化が図れないか否かの実験が行われている。
しかしながら、上記のような技術を用いるにあたって、ピッキング対象物の三次元形状を予めデータベース化しなければならないところ、物流現場においては、ピッキング対象物の種類が、数千〜数十万件という膨大な数に上り、このような膨大な数の三次元形状を予め全てデータベース化しておくことは非常に困難であるという問題があった。
そこで、上記のような技術を用いて多種の商品を扱うシステムにおいて、ピッキング対象物の形状・姿勢を自動で推定・認識するとともに、推定・認識の結果に基づいて適切な把持位置・把持方法を自動設定する方法が求められている。
しかしながら、上記のような自動設定する方法は未だ実現できておらず、もって、物流現場においては、未だ自動化が実現できていないという問題があった。
そこで、本発明は、上記問題に鑑み、物流現場における自動化を実現することができるピッキング対象物把持情報登録システムを提供することを目的としている。
上記本発明の目的は、以下の手段によって達成される。なお、括弧内は、後述する実施形態の参照符号を付したものであるが、本発明はこれに限定されるものではない。
請求項1の発明に係るピッキング対象物把持情報登録システムによれば、ピッキング対象物(例えば、図1に示すピッキング対象物2)の三次元点群情報を生成する第1生成手段(例えば、図1に示すカメラ5)と、
前記ピッキング対象物(例えば、図1に示すピッキング対象物2)の二次元画像を生成する第2生成手段(例えば、図1に示すカメラ5)と、
前記第1生成手段(例えば、図1に示すカメラ5)にて生成された三次元点群情報と前記第2生成手段(例えば、図1に示すカメラ5)にて生成された二次元画像に基づき、前記ピッキング対象物(例えば、図1に示すピッキング対象物2)の領域を仮説する仮説領域手段(例えば、図3に示すステップS2)と、
前記仮説領域手段(例えば、図3に示すステップS2)にて仮説したピッキング対象物(例えば、図1に示すピッキング対象物2)の領域に基づいて、ピッキング対象物(例えば、図1に示すピッキング対象物2)を想定し、該想定したピッキング対象物(例えば、図1に示すピッキング対象物2)の把持位置・把持方法を仮説する仮説把持手段(例えば、図3に示すステップS3)と、
前記仮説把持手段(例えば、図3に示すステップS3)にて仮説した前記把持位置・把持方法を、ロボット(例えば、図1に示すロボット3)を用いて検証する検証手段(例えば、図3に示すステップS4)と、
前記検証手段(例えば、図3に示すステップS4)にて検証した結果、前記ピッキング対象物(例えば、図1に示すピッキング対象物2)の把持に成功した前記把持位置・把持方法を記憶する記憶手段(例えば、図1に示すピッキング対象物関連情報登録データベース66)と、を備えてなることを特徴としている。なお、第1生成手段と、第2生成手段は、異なっても良いし、同一でも良い。
また、請求項2の発明によれば、上記請求項1に記載のピッキング対象物把持情報登録システムにおいて、前記検証手段(例えば、図3に示すステップS4)にて検証した結果、前記ピッキング対象物(例えば、図1に示すピッキング対象物2)の把持に成功した際、再度、前記第1生成手段(例えば、図1に示すカメラ5)にて生成された三次元点群情報と前記第2生成手段(例えば、図1に示すカメラ5)にて生成された二次元画像に基づき、前記ピッキング対象物(例えば、図1に示すピッキング対象物2)の領域を仮説領域手段(例えば、図3に示すステップS2)にて仮説させる必要があるか否かの判定を行う判定手段(例えば、図3に示すステップS8)と、をさらに備えてなることを特徴としている。
さらに、請求項3の発明によれば、上記請求項1に記載のピッキング対象物把持情報登録システムにおいて、前記記憶手段(例えば、図1に示すピッキング対象物関連情報登録データベース66)は、前記検証手段(例えば、図3に示すステップS4)にて検証した結果、前記ピッキング対象物(例えば、図1に示すピッキング対象物2)の把持に失敗した前記把持位置・把持方法も記憶してなることを特徴としている。
次に、本発明の効果について、図面の参照符号を付して説明する。なお、括弧内は、後述する実施形態の参照符号を付したものであるが、本発明はこれに限定されるものではない。
請求項1に係る発明によれば、第1生成手段(例えば、図1に示すカメラ5)にて生成された三次元点群情報と第2生成手段(例えば、図1に示すカメラ5)にて生成された二次元画像に基づき、ピッキング対象物(例えば、図1に示すピッキング対象物2)の領域を仮説領域手段(例えば、図3に示すステップS2)仮説した後、仮説したピッキング対象物(例えば、図1に示すピッキング対象物2)の領域に基づいて、ピッキング対象物(例えば、図1に示すピッキング対象物2)を想定し、該想定したピッキング対象物(例えば、図1に示すピッキング対象物2)の把持位置・把持方法を仮説把持手段(例えば、図3に示すステップS3)にて仮説し、仮説把持手段(例えば、図3に示すステップS3)にて仮説した把持位置・把持方法を、ロボット(例えば、図1に示すロボット3)を用いて検証手段(例えば、図3に示すステップS4)にて検証し、ピッキング対象物(例えば、図1に示すピッキング対象物2)の把持に成功した把持位置・把持方法を記憶手段(例えば、図1に示すピッキング対象物関連情報登録データベース66)に記憶する工程を自動で行うことが可能となるから、従来のように、全てのピッキング対象物の三次元形状を予め記憶手段(例えば、図1に示すピッキング対象物関連情報登録データベース66)に記憶しておく必要がなくなる。さらに、成功した検証結果を記憶手段(例えば、図1に示すピッキング対象物関連情報登録データベース66)に記憶しているから、実際の稼働時に、マスターデータとして使用することができる。これにより、物流現場における自動化を実現することができる。
また、請求項2に係る発明によれば、検証手段(例えば、図3に示すステップS4)にて検証した結果、ピッキング対象物(例えば、図1に示すピッキング対象物2)の把持に成功した際、再度、第1生成手段(例えば、図1に示すカメラ5)にて生成された三次元点群情報と第2生成手段(例えば、図1に示すカメラ5)にて生成された二次元画像に基づき、ピッキング対象物(例えば、図1に示すピッキング対象物2)の領域を仮説領域手段(例えば、図3に示すステップS2)にて仮説させる必要があるか否かを、判定手段(例えば、図3に示すステップS8)にて判定させているから、正確な把持位置・把持方法を、記憶手段(例えば、図1に示すピッキング対象物関連情報登録データベース66)に記憶することができる。これにより、実際の稼働時に、正確な把持位置・把持方法が、マスターデータとして使用できることとなる。
さらに、請求項3に係る発明によれば、記憶手段(例えば、図1に示すピッキング対象物関連情報登録データベース66)は、検証手段(例えば、図3に示すステップS4)にて検証した結果、ピッキング対象物(例えば、図1に示すピッキング対象物2)の把持に失敗した把持位置・把持方法も記憶しているから、失敗した把持位置・把持方法、成功した把持位置・把持方法が一定量記憶されれば、機械学習を実施することができる。
本発明の一実施形態に係るピッキング対象物把持情報登録システムの概略全体図である。 同実施形態に係るピッキング対象物関連情報登録データベースに格納されているテーブルを示す図である。 同実施形態に係るピッキング対象物関連情報登録データベースに情報を登録する際の制御手順を示すフローチャート図である。 (a)は、三次元点群情報が表わされた横長矩形状厚板のピッキング対象物の斜視図、(b)は、X方向,Y方向,Z方向の三次元座標が表わされた三次元点群情報が表わされたピッキング対象物の斜視図、(c)は、(a),(b)に示すピッキング対象物の平面二次元画像、(d)は、(c)に示す平面二次元画像が傾いている場合の平面二次元画像を示す図である。 (a)は、図4(c)に示す平面二次元画像にノイズが存在している平面二次元画像、(b)は、(a)に示す平面二次元画像を用いてピッキング対象物の領域を推定した状態を示す図である。 (a−1)は、三角錐状のピッキング対象物の斜視図、(a−2)は、三角錐状のピッキング対象物の平面二次元画像、(b−1)は、(a−2)に示す三角錐状のピッキング対象物の平面二次元画像の一部を抽出した平面二次元画像、(b−2)は、X方向,Y方向,Z方向の三次元座標が表わされた三次元点群情報が表わされたピッキング対象物の一部を抽出した斜視図、(c−1)は、(a−2)に示す三角錐状のピッキング対象物の平面二次元画像の一部を(b−1)とは異なるように抽出した平面二次元画像、(c−2)は、X方向,Y方向,Z方向の三次元座標が表わされた三次元点群情報が表わされたピッキング対象物の一部を(b−2)とは異なるように抽出した斜視図である。 (a)〜(d)は、仮説したピッキング対象物の領域に基づいて仮説した把持位置・把持方法のリストを示す図である。
以下、本発明に係るピッキング対象物把持情報登録システムの一実施形態を、図面を参照して具体的に説明する。なお、以下の説明において、上下左右の方向を示す場合は、図示正面から見た場合の上下左右をいうものとする。
図1に示すように、ピッキング対象物把持情報登録システム1は、ピッキング対象であるピッキング対象物2(図示では4本の容器を例示している)と、このピッキング対象物2をピッキングするロボット3と、このロボット3を制御するロボット制御装置4と、ピッキング対象物2の三次元座標を示す三次元点群情報とピッキング対象物2の二次元画像を取得できる複数台(図示では、3台を例示)のカメラ5と、ピッキング対象物2をピッキングする際に必要な情報が登録される登録装置6と、で構成されている。
ロボット3は、床や壁等の設置面に固定される土台30と、土台30に対して基端が回転可能に連結されているロボットアーム部31と、ロボットアーム部31の先端に取り付けられ、ピッキング対象物2を吸着・挟み込み・支持等によって把持することができるロボットハンド32とを備えている。なお、このロボットハンド32には、ピッキング対象物2を把持した否かを計測する把持センサが設けられ、ピッキング対象物2を把持した際の当該ピッキング対象物2の重量を計測する重量センサが設けられており、把持センサ及び/又は重量センサの計測情報は、登録装置6に出力される。
一方、ロボット制御装置4は、登録装置6より出力されるデータに基づきロボット3の稼動を制御するものである。
登録装置6は、CPU60と、マウスやキーボード、タッチパネル等にて外部から所定データを登録装置6に入力することができる入力部61と、登録装置6外に所定データを出力することができる出力部62と、所定のプログラム等を格納した書込み可能なフラッシュROM等からなるROM63と、作業領域やバッファメモリ等として機能するRAM64と、LCD(Liquid Crystal Display)等からなる表示部65と、ピッキング対象物2をピッキングする際に必要な情報が格納されているピッキング対象物関連情報登録データベース66と、で構成されている。
ところで、ピッキング対象物関連情報登録データベース66には、図2に示すテーブルTBLが格納されている。すなわち、テーブルTBLには、ピッキング対象物2(図1参照)の内容(TB1a参照)が格納され、さらに、そのピッキング対象物の内容それぞれの三次元点群情報(TB1b参照)が格納され、そしてさらに、そのピッキング対象物の内容それぞれの二次元画像(TB1c参照)が格納され、またさらに、そのピッキング対象物の内容それぞれの把持位置(TB1d参照),把持方法(TB1e参照)が格納され、またさらに、その把持位置(TB1d参照),把持方法(TB1e参照)それぞれの検証結果(TB1f参照)が格納されている。
ここで、より詳しくピッキング対象物関連情報登録データベース66(図1参照)に格納されているテーブルTBL(図2参照)に格納されている内容(TB1a〜TB1f参照)をテーブルTBL(図2参照)に格納する方法を、図3〜図7も参照して具体的に説明する。
上記のような方法を行うにあたっては、作業者が、図1に示す登録装置6の入力部61を用いて、図1に示すROM63内に格納されているプログラムの起動を指示する。これにより、登録装置6のCPU60(図1参照)は、図3に示すような処理を行う。以下、図3を参照して説明する。なお、図3に示すプログラムの処理内容はあくまで一例であり、これに限定されるものではない。
まず、CPU60(図1参照)は、カメラ5にて取得されたピッキング対象物2の三次元座標を示す三次元点群情報とピッキング対象物2の二次元画像を取得する(ステップS1)。より詳しく説明すると、カメラ5にて取得されたピッキング対象物2の三次元座標を示す三次元点群情報とピッキング対象物2の二次元画像がカメラ5より出力されると、その出力されたピッキング対象物2の三次元座標を示す三次元点群情報とピッキング対象物2の二次元画像は、登録装置6の入力部61(図1参照)を介して登録装置6内に入力される。これを受けて、CPU60(図1参照)は、その入力されたピッキング対象物2の三次元座標を示す三次元点群情報をピッキング対象物関連情報登録データベース66(図1参照)に格納されているテーブルTBL(図2参照)の三次元点群情報の項目(TB1b参照)に登録し、ピッキング対象物2の二次元画像をピッキング対象物関連情報登録データベース66(図1参照)に格納されているテーブルTBL(図2参照)の二次元画像の項目(TB1c参照)に登録する。すなわち、具体的に例示すると、カメラ5にて取得されたピッキング対象物(容器A)の三次元座標(Xn1,Yn1,Zn1)(n≧1の整数)がテーブルTBL(図2参照)の三次元点群情報の項目(TB1b参照)に登録され、カメラ5にて取得されたピッキング対象物(容器B)の三次元座標(Xn2,Yn2,Zn2)(n≧1の整数)がテーブルTBL(図2参照)の三次元点群情報の項目(TB1b参照)に登録されることとなる。さらに、カメラ5にて取得されたピッキング対象物(容器A)の二次元画像(二次元画像Aa,二次元画像Ab)がテーブルTBL(図2参照)の二次元画像の項目(TB1c参照)に登録され、カメラ5にて取得されたピッキング対象物(容器B)の二次元画像(二次元画像Ba,二次元画像Bb)がテーブルTBL(図2参照)の二次元画像の項目(TB1c参照)に登録されることとなる。なお、ピッキング対象物(容器A)の三次元点群情報のX方向の角度(図2では、φXn1と例示),ピッキング対象物(容器A)の三次元点群情報のY方向の角度(図2では、φYn1と例示),ピッキング対象物(容器A)の三次元点群情報のZ方向の角度(図2では、φZn1と例示)、ピッキング対象物(容器B)の三次元点群情報のX方向の角度(図2では、φXn2と例示),ピッキング対象物(容器B)の三次元点群情報のY方向の角度(図2では、φYn2と例示),ピッキング対象物(容器B)の三次元点群情報のZ方向の角度(図2では、φZn2と例示)は、この時点では、まだ、テーブルTBL(図2参照)の三次元点群情報の項目(TB1b参照)に登録されていない。なお、テーブルTBL(図2参照)のピッキング対象物(TB1a参照)に登録されている内容(図2では、容器A,容器Bと例示)は、作業者が、図1に示す登録装置6の入力部61を用いて、登録しておけばよい。
次いで、CPU60(図1参照)は、ピッキング対象物関連情報登録データベース66(図1参照)に格納されているテーブルTBL(図2参照)の三次元点群情報の項目(TB1b参照)に格納されている三次元点群情報と、テーブルTBL(図2参照)の二次元画像の項目(TB1c参照)に格納されている二次元画像とを読み出し、三次元点群情報と二次元画像とに基づいて、ピッキング対象物2(図1参照)の領域(セグメンテーション)を仮説する(ステップS2)。すなわち、具体的に例示すると、テーブルTBL(図2参照)のピッキング対象物(TB1a参照)に登録されている内容(容器A)が、図4(a)に示すような、横長矩形状厚板のピッキング対象物2Aであって、2個のピッキング対象物2Aが上下に重なり合っている場合(説明の都合上、以下では、上側のピッキング対象物2Aを上側ピッキング対象物2Aaとし、下側のピッキング対象物2Aを下側ピッキング対象物2Abとして説明する)、図4(a)に示すように、カメラ5にて取得される三次元点群TGAは、2個のピッキング対象物2A(上側ピッキング対象物2Aa,下側ピッキング対象物2Ab)の全体に亘って表わされる。そして、これら三次元点群TGAは、それぞれ、図4(b)に示すように、X方向,Y方向,Z方向で表わされる三次元座標(テーブルTBL(図2参照)の三次元点群情報の項目(TB1b参照)に登録されている三次元座標(Xn1,Yn1,Zn1)(n≧1の整数))にて表わすことができる。また、カメラ5にて取得される2個のピッキング対象物2A(上側ピッキング対象物2Aa,下側ピッキング対象物2Ab)の二次元画像(テーブルTBL(図2参照)の二次元画像(TB1c参照)に登録されている内容としては、二次元画像Aaと例示)は、図4(c)に示すように、2個のピッキング対象物2A(上側ピッキング対象物2Aa,下側ピッキング対象物2Ab)が重なり合っている状態にて表わされる。しかして、CPU60(図1参照)は、このX方向,Y方向,Z方向の三次元座標で表される三次元点群TGAによって、距離情報を算出し、そして、X方向,Y方向,Z方向の三次元座標で表される三次元点群TGAと二次元画像を用いて、2個のピッキング対象物2Aのエッジ情報を算出し、もって、これら算出した情報から、上側ピッキング対象物2Aa、下側ピッキング対象物2Abを判定する。これにより、上側ピッキング対象物2Aa、下側ピッキング対象物2Abの領域(セグメンテーション)が仮説できることとなる。
しかしながら、ピッキング対象物2(図1参照)の領域(セグメンテーション)の仮説はこのように必ずしも正しくできるとは限らない。すなわち、カメラ5にて取得される二次元画像に、図5(a)に示すように、ノイズNが存在していた場合(テーブルTBL(図2参照)の二次元画像(TB1c参照)に登録されている内容としては、二次元画像Abと例示)、CPU60(図1参照)は、このノイズN部分がエッジ部分だと判断し、もって、図5(b)に示すように、上側ピッキング対象物2Aaが第1の上側ピッキング対象物2Aa1と、第2の上側ピッキング対象物2Aa2とに分かれたものであると判定する可能性がある。これにより、本来は、図4に示すように、上側ピッキング対象物2Aa、下側ピッキング対象物2Abの領域(セグメンテーション)で仮説されるにも係らず、第1の上側ピッキング対象物2Aa1と、第2の上側ピッキング対象物2Aa2と、下側ピッキング対象物2Abとの領域(セグメンテーション)があるものとして仮説される可能性がある。
一方、テーブルTBL(図2参照)のピッキング対象物(TB1a参照)に登録されている内容(容器B)が、図6(a−1)に示すような、三角錐状のピッキング対象物2Bであって、3個のピッキング対象物2Bが横並びになっている場合(説明の都合上、以下では、左側のピッキング対象物2Bを左側ピッキング対象物2Baとし、中央側のピッキング対象物2Bを中央側ピッキング対象物2Bbとし、右側のピッキング対象物2Cを右側ピッキング対象物2Bcとして説明する)、左側ピッキング対象物2Baと中央側のピッキング対象物2Bとの間に影Kが発生し、中央側ピッキング対象物2Bbと右側ピッキング対象物2Bcとの間に影Kが発生する可能性がある。この際、CPU60(図1参照)は、影Kの影響で、左側のピッキング対象物2Bを左側ピッキング対象物2Baと、中央側ピッキング対象物2Bbと、右側ピッキング対象物2Bcとの領域(セグメンテーション)をまとめて仮説出来ない場合、図6(a−2)に示す、カメラ5にて取得される3個のピッキング対象物2B(左側ピッキング対象物2Ba、中央側ピッキング対象物2Bb、右側ピッキング対象物2Bc)の二次元画像のうち、明瞭な個所で、且つ、連続性が認められる部分で構成された、図6(b−1)に示す二次元画像(テーブルTBL(図2参照)の二次元画像(TB1c参照)に登録されている内容としては、二次元画像Baと例示)を抽出し、さらに、図6(b−2)に示す、左側ピッキング対象物2Baの全体に亘って表わされるX方向,Y方向,Z方向の三次元座標(テーブルTBL(図2参照)の三次元点群情報の項目(TB1b参照)に登録されている三次元座標(Xn2,Yn2,Zn2)(n≧1の整数))で表わされる三次元点群TGBを抽出する可能性がある。そして、CPU60(図1参照)は、この抽出した二次元画像と三次元点群TGBを用いて、左側ピッキング対象物2Baを判定する。これにより、左側ピッキング対象物2Baの領域(セグメンテーション)が仮説されることとなる。
一方、CPU60(図1参照)は、図6(a−2)に示す、カメラ5にて取得される3個のピッキング対象物2B(左側ピッキング対象物2Ba、中央側ピッキング対象物2Bb、右側ピッキング対象物2Bc)の二次元画像のうち、不連続性が強い部分を排除した構成、図6(c−1)に示す二次元画像(テーブルTBL(図2参照)の二次元画像(TB1c参照)に登録されている内容としては、二次元画像Bbと例示)を抽出し、さらに、図6(c−2)に示す、左側ピッキング対象物2Baの全体に亘って表わされるX方向,Y方向,Z方向の三次元座標(テーブルTBL(図2参照)の三次元点群情報の項目(TB1b参照)に登録されている三次元座標(Xn2,Yn2,Zn2)(n≧1の整数))で表わされる三次元点群TGBを抽出する可能性がある。そして、CPU60(図1参照)は、この抽出した二次元画像と三次元点群TGBを用いて、左側ピッキング対象物2Baを判定する。これにより、左側ピッキング対象物2Baの領域(セグメンテーション)が仮説されることとなる。
ところで、図5,図6に示すようなケースの場合、図2に示すテーブルTBLに、正しい領域(セグメンテーション)を仮説するための三次元形状を予め登録しておけば、正しい領域(セグメンテーション)を仮説することができる。しかしながら、このような三次元形状を登録しようとしても、ピッキング対象物の種類が、数千〜数十万件という膨大な数に上ることから、このような膨大な数の三次元形状を予め全てデータベース化しておくことは非常に困難であるという問題がある。
そこで、本実施形態においては、図2に示すテーブルTBLに、正しい領域(セグメンテーション)を仮説するための三次元形状を予め登録することはせず、ピッキング対象物2(図1参照)の領域(セグメンテーション)を仮説した後、その仮説の妥当性を検証している。
すなわち、CPU60(図1参照)は、上記ステップS2にて仮説したピッキング対象物2(図1参照)の領域(セグメンテーション)に基づいて、ピッキング対象物2(図1参照)を推定し、その推定したピッキング対象物2(図1参照)の把持位置・把持方法を仮説する(ステップS3)。具体的に例示すると、CPU60(図1参照)が、上記ステップS2にて、図4に示す上側ピッキング対象物2Aa、下側ピッキング対象物2Abの領域(セグメンテーション)を仮説した際、上側ピッキング対象物2Aaの形状と位置は、X方向,Y方向,Z方向の三次元座標(テーブルTBL(図2参照)の三次元点群情報の項目(TB1b参照)に登録されている三次元座標(Xn1,Yn1,Zn1)(n≧1の整数))で表わされる三次元点群TGAの値をCPU60(図1参照)にて解析することにより、推定することができる。しかして、このように上側ピッキング対象物2Aaの形状と位置を推定することができれば、上側ピッキング対象物2Aaの重心位置もCPU60(図1参照)にて推定することができる。
また、二次元画像(テーブルTBL(図2参照)の二次元画像(TB1c参照)に登録されている内容としては、二次元画像Aaと例示)を用いれば、上側ピッキング対象物2Aaの仮想形状の傾き(姿勢)をCPU60(図1参照)にて推定することができる。すなわち、図4(c)に示すような二次元画像(テーブルTBL(図2参照)の二次元画像(TB1c参照)に登録されている内容としては、二次元画像Aaと例示)の場合、カメラ5の原点Oを図示左側と仮定した際、図4(c)に示す二次元画像は、カメラ5の原点Oに対して傾いていない(この場合は、傾き0)が、図4(d)に示すように、傾いている場合、原点Oに対する傾き角ΘをCPU60(図1参照)にて推定することができる。これにより、上側ピッキング対象物2Aaの推定形状の傾きをCPU60(図1参照)にて推定できることとなる。しかるに、このように上側ピッキング対象物2Aaの推定形状の傾きを推定することができれば、その推定した傾きに基づいて、X方向,Y方向,Z方向の三次元座標(テーブルTBL(図2参照)の三次元点群情報の項目(TB1b参照)に登録されている三次元座標(Xn1,Yn1,Zn1)(n≧1の整数))で表わされる三次元点群TGA、それぞれの傾きも推定することができることとなる。すなわち、ピッキング対象物(容器A)の三次元点群情報のX方向の角度(図2では、φXn1と例示),ピッキング対象物(容器A)の三次元点群情報のY方向の角度(図2では、φYn1と例示),ピッキング対象物(容器A)の三次元点群情報のZ方向の角度(図2では、φZn1と例示)が推定できることとなる。これにより、上側ピッキング対象物2Aaの推定形状の姿勢を推定することができることとなる。なお、このように推定されたピッキング対象物(容器A)の三次元点群情報のX方向の角度(図2では、φXn1と例示),ピッキング対象物(容器A)の三次元点群情報のY方向の角度(図2では、φYn1と例示),ピッキング対象物(容器A)の三次元点群情報のZ方向の角度(図2では、φZn1と例示)は、テーブルTBL(図2参照)の三次元点群情報の項目(TB1b参照)に登録されることとなる。
しかして、このように、上側ピッキング対象物2Aaの形状・位置・重心位置・姿勢を推定することができれば、CPU60(図1参照)は、様々な把持位置・把持方法を仮説し、リストを生成する。具体的には、図7(a)に示すように、仮説番号(図示では、1・・・と例示(L1a参照))のリストを生成し、その仮説番号に対応した把持位置(図示では、図4に示す上側ピッキング対象物の重心・・・と例示(L1b参照))のリストを生成し、その仮説番号に対応した把持方法(図示では、上面法線方向から吸着・・・と例示(L1c参照))のリストを生成する。
かくして、図5(b)に示すように、第1の上側ピッキング対象物2Aa1と、第2の上側ピッキング対象物2Aa2と、下側ピッキング対象物2Abとの領域(セグメンテーション)があるものとして仮説された場合においても、上記と同様の処理を行い、第1の上側ピッキング対象物2Aa1と、第2の上側ピッキング対象物2Aa2の形状・位置・重心位置・姿勢を推定した上で、CPU60(図1参照)は、様々な把持位置・把持方法を仮説し、リストを生成する。具体的には、図7(b)に示すように、仮説番号(図示では、1,2,3・・・と例示(L2a参照))のリストを生成し、その仮説番号に対応した把持位置(図示では、図5(b)に示す上側ピッキング対象物のαの重心,図5(b)に示す上側ピッキング対象物のβの重心,図5(b)に示す上側ピッキング対象物のα+βの重心,・・・と例示(L2b参照))のリストを生成し、その仮説番号に対応した把持方法(図示では、上面法線方向から吸着,上面法線方向から吸着,上面法線方向から吸着・・・と例示(L2c参照))のリストを生成する。なお、このように推定されたピッキング対象物(容器A)の三次元点群情報のX方向の角度(図2では、φXn1と例示),ピッキング対象物(容器A)の三次元点群情報のY方向の角度(図2では、φYn1と例示),ピッキング対象物(容器A)の三次元点群情報のZ方向の角度(図2では、φZn1と例示)は、テーブルTBL(図2参照)の三次元点群情報の項目(TB1b参照)に登録されることとなる。
さらに、図6(b−2)に示すように、左側ピッキング対象物2Baの領域(セグメンテーション)が仮説された場合においても、上記と同様の処理を行い、左側ピッキング対象物2Baの形状・位置・重心位置・姿勢を推定した上で、CPU60(図1参照)は、様々な把持位置・把持方法を仮説し、リストを生成する。具体的には、図7(c)に示すように、仮説番号(図示では、1,2・・・と例示(L3a参照))のリストを生成し、その仮説番号に対応した把持位置(図示では、図6(b−2)に示す左側ピッキング対象物の重心,図6(b−2)に示す左側ピッキング対象物の重心・・・と例示(L3b参照))のリストを生成し、その仮説番号に対応した把持方法(図示では、左斜面法線方向から吸着,両側から挟みこみ・・・と例示(L3c参照))のリストを生成する。なお、このように推定されたピッキング対象物(容器B)の三次元点群情報のX方向の角度(図2では、φXn2と例示),ピッキング対象物(容器B)の三次元点群情報のY方向の角度(図2では、φYn2と例示),ピッキング対象物(容器B)の三次元点群情報のZ方向の角度(図2では、φZn2と例示)は、テーブルTBL(図2参照)の三次元点群情報の項目(TB1b参照)に登録されることとなる。
そしてさらに、図6(c−2)に示すように、左側ピッキング対象物2Baの領域(セグメンテーション)が仮説された場合においても、上記と同様の処理を行い、左側ピッキング対象物2Baの形状・位置・重心位置・姿勢を推定した上で、CPU60(図1参照)は、様々な把持位置・把持方法を仮説し、リストを生成する。具体的には、図7(d)に示すように、仮説番号(図示では、1,2・・・と例示(L4a参照))のリストを生成し、その仮説番号に対応した把持位置(図示では、図6(c−2)に示す左側ピッキング対象物の重心,図6(c−2)に示す左側ピッキング対象物の底面・・・と例示(L4b参照))のリストを生成し、その仮説番号に対応した把持方法(図示では、左斜面法線方向から吸着,底面から水平に持ち上げる・・・と例示(L4c参照))のリストを生成する。なお、このように推定されたピッキング対象物(容器B)の三次元点群情報のX方向の角度(図2では、φXn2と例示),ピッキング対象物(容器B)の三次元点群情報のY方向の角度(図2では、φYn2と例示),ピッキング対象物(容器B)の三次元点群情報のZ方向の角度(図2では、φZn2と例示)は、テーブルTBL(図2参照)の三次元点群情報の項目(TB1b参照)に登録されることとなる。
次いで、CPU60(図1参照)は、上記ステップS3にて仮説したピッキング対象物2(図1参照)の把持位置・把持方法を検証すべく、まずは、上記図7(a)〜(d)に示すように生成されたリストの最初の仮説番号に対応した仮説したピッキング対象物2(図1参照)の把持位置・把持方法を指示値(例えば、図7(b)に示すリストが生成された場合、仮説番号「1」(L2a参照)に対応した把持位置「図5に示す上側ピッキング対象物のαの重心」(L2b参照)、把持方法「上面法線方向から吸着」(L2c参照)を指示値)として、出力部62(図1参照)を介してロボット制御装置4に出力する。これにより、ロボット制御装置4は、その指示値に基づいて、ロボット3(図1参照)を制御し、もって、ロボット3(図1参照)のロボットハンド32(図1参照)にてピッキング対象物2(図1参照)を把持させる。これにより、ロボットハンド32(図1参照)に設けられている把持センサは、ピッキング対象物2(図1参照)を把持したか否かを検出し、この検出結果を登録装置6(図1参照)に出力する(ステップS4)。
次いで、CPU60(図1参照)は、把持センサから出力された検出結果が登録装置6の入力部61(図1参照)を介して登録装置6内に入力されると、その検出結果を解析し、把持に成功したか否かを確認する(ステップS5)。把持に成功していなければ(ステップS5:NO)、CPU60(図1参照)は、上記図7(a)〜(d)に示すように生成されたリストの最初の仮説番号に対応した仮説したピッキング対象物2(図1参照)の把持位置・把持方法の把持結果が「失敗」である旨を、テーブルTBL(図2参照)に登録する。すなわち、テーブルTBL(図2参照)の把持位置(TB1d)に把持位置(例えば、図7(b)に示す「図5に示す上側ピッキング対象物のαの重心」(L2b参照))を登録し、テーブルTBL(図2参照)の把持方法(TB1e)に把持方法(例えば、図7(b)に示す「上面法線方向から吸着」(L2c参照))を登録し、テーブルTBL(図2参照)の検証結果(TB1f参照)に、その把持位置・把持方法は「失敗」である旨を登録する。
次いで、CPU60(図1参照)は、図7(a)〜(d)に示すように生成されたリストに、次に検証すべき仮説番号があるか否かを確認する(ステップS6)。次に検証すべき仮説があれば(例えば、図7(b)に示すリストが生成された場合、仮説番号「1」が失敗だったため、次の仮説番号「2」)(ステップS6:YES)、その仮説を検証すべく、ステップS4の処理に戻り、その検証すべき仮説(例えば、図7(b)に示すリストが生成された場合、仮説番号「2」(L2a参照)に対応した把持位置「図5に示す上側ピッキング対象物のβの重心」(L2b参照)、把持方法「上面法線方向から吸着」(L2c参照))に基づいて、ロボット3(図1参照)のロボットハンド32(図1参照)にピッキング対象物2(図1参照)を把持させる。
しかして、このように、把持が成功する把持位置・把持方法に対応する仮説番号が見つかるまで、ステップS4〜ステップS6の処理を繰り返し行う。
かくして、このような処理を繰り返した結果、生成したリストの中に検証すべき仮説がなくなれば(ステップS6:NO)、CPU60(図1参照)は、カメラ5やロボット3等の再調整を促す警告を表示部65(図1参照)に表示させ(ステップS7)、処理を終える。
一方、把持に成功していれば(ステップS5:YES)、CPU60(図1参照)は、上記図7(a)〜(d)に示すように生成されたリストのうち成功した仮説番号に対応した仮説したピッキング対象物2(図1参照)の把持位置・把持方法の把持結果が「成功」である旨を、テーブルTBL(図2参照)に登録する。すなわち、テーブルTBL(図2参照)の把持位置(TB1d)に把持位置(例えば、図7(b)に示す「図5(b)に示す上側ピッキング対象物のα+βの重心」(L2b参照))を登録し、テーブルTBL(図2参照)の把持方法(TB1e)に把持方法(例えば、図7(b)に示す「上面法線方向から吸着」(L2c参照))を登録し、テーブルTBL(図2参照)の検証結果(TB1f参照)に、その把持位置・把持方法は「成功」である旨を登録する。なお、この「成功」で登録された把持位置・把持方法が、実際の稼働時にマスターデータとして使用されることとなる。
次いで、CPU60(図1参照)は、ピッキング対象物2(図1参照)の領域(セグメンテーション)を、再度、仮説する必要があるかの判定を行う(ステップS8)。具体的には、成功した把持位置(例えば、図2に示す「図5(b)に示す上側ピッキング対象物のα+βの重心」(TB1d参照))・把持方法(例えば、「図5(b)に示す上面法線方向から吸着」(TB1e参照))を表示部65(図1参照)に表示し、作業者にこの内容で良いか否かの選択を求める。又は、複数個のピッキング対象物2(図1参照)が把持されず、単数個のピッキング対象物2(図1参照)が把持されていることを目視確認するよう、作業者に促す。或いは、ロボットハンド32(図1参照)に設けられている重量センサにて、把持しているピッキング対象物2(図1参照)の重量を検出し、その検出した重量が登録装置6(図1参照)のROM63(図1参照)内に予め格納されているピッキング対象物2(図1参照)の重量と一致しているかを、CPU60(図1参照)にて確認を行う。
ピッキング対象物2(図1参照)の領域(セグメンテーション)を、再度、仮説する必要がなければ、すなわち、作業者がこの内容で良いと選択、又は、単数個のピッキング対象物2(図1参照)が把持されている、或いは、重量が一致していれば(ステップS8:NO)、処理を終える。
一方、ピッキング対象物2(図1参照)の領域(セグメンテーション)を、再度、仮説する必要があれば、すなわち、作業者がこの内容で良くないと選択、又は、複数個のピッキング対象物2(図1参照)が把持されている、或いは、重量が一致していなければ(ステップS8:YES)、ステップS2の処理に戻り、再度、ピッキング対象物2(図1参照)の領域(セグメンテーション)の仮説を行う。なお、ピッキング対象物2(図1参照)の領域(セグメンテーション)を、再度、仮説する必要がある場合、CPU60(図1参照)は、テーブルTBL(図2参照)の検証結果(TB1f参照)に、その把持位置・把持方法は「成功」である旨を登録した内容を、「失敗」として登録の変更を行う。
しかして、このように、例え、把持に成功したとしても、ピッキング対象物2(図1参照)の領域(セグメンテーション)を、再度、仮説する必要があるか否かの判定を行うことにより、正確な把持位置・把持方法を、テーブル(図2参照)に登録することができる。これにより、実際の稼働時に、正確な把持位置・把持方法が、マスターデータとして使用されることとなる。
かくして、上記のような処理を行うことにより、ピッキング対象物関連情報登録データベース66(図1参照)に格納されているテーブルTBL(図2参照)に、図2に示すTB1a〜TB1fに示す内容が格納されることとなる。
しかして、以上説明した本実施形態によれば、ピッキング対象物2(図1参照)の領域(セグメンテーション)を仮説した後、その仮説したピッキング対象物2(図1参照)の領域(セグメンテーション)の把持位置・把持方法を仮説し、その妥当性を検証し、その検証結果を、ピッキング対象物関連情報登録データベース66(図1参照)に登録するという工程を自動で行うことが可能となるから、従来のように、全てのピッキング対象物の三次元形状を予めピッキング対象物関連情報登録データベース66(図1参照)に登録しておく必要がなくなる。さらに、成功した検証結果をピッキング対象物関連情報登録データベース66(図1参照)に登録しているから、実際の稼働時に、マスターデータとして使用することができる。これにより、物流現場における自動化を実現することができることとなる。
なお、本実施形態においては、ピッキング対象物関連情報登録データベース66(図1参照)に格納されているテーブルTBL(図2参照)の検証結果の項目(TB1f参照)に「失敗」を登録する例を示したが、失敗した把持位置・把持方法を登録しなくとも良い。
しかしながら、失敗した把持位置・把持方法は、登録しておいた方が好ましい。ピッキング対象物関連情報登録データベース66(図1参照)に格納されているテーブルTBL(図2参照)に、失敗した把持位置・把持方法、成功した把持位置・把持方法が一定量登録されれば、機械学習を実施することができるためである。
すなわち、機械学習として、教師あり学習を用いる場合、ピッキング対象物2(図1参照)の領域(セグメンテーション)を学習するプロセスと、把持位置・把持方法を学習するプロセスに分けて機械学習を行う。ピッキング対象物2(図1参照)の領域(セグメンテーション)を学習するプロセスにおいては、ピッキング対象物関連情報登録データベース66(図1参照)に格納されているテーブルTBL(図2参照)の三次元点群情報の項目(TB1b参照)に登録されている三次元点群情報と、テーブルTBL(図2参照)の二次元画像の項目(TB1c参照)に登録されている二次元画像とを用いて、CPU60(図1参照)は、エッジ、線のつながり、輪郭、深さ方向の距離等の特徴量を算出し、その算出した特徴量を入力層に入力する。これにより、CPU60(図1参照)は、ROM63(図1参照)に記憶されている周知の教師あり学習プログラムを使用して、表示部65(図1参照)に、ピッキング対象物2(図1参照)の領域(セグメンテーション)リストを表示する。なお、教師データとしては、ピッキング対象物関連情報登録データベース66(図1参照)に格納されているテーブルTBL(図2参照)の成功事例を用いるか、又は、表示部65(図1参照)に表示されるピッキング対象物2(図1参照)の領域(セグメンテーション)リストの中から作業者が選択したものを用いればよい。
次に、把持位置・把持方法を学習するプロセスにおいては、ピッキング対象物2(図1参照)の領域(セグメンテーション)を学習するプロセスにおいて生成されたピッキング対象物2(図1参照)の領域(セグメンテーション)リストを入力層に入力する。これにより、CPU60(図1参照)は、ROM63(図1参照)に記憶されている周知の教師あり学習プログラムを使用して、表示部65(図1参照)に、ピッキング対象物2(図1参照)の把持位置・把持方法リストを表示する。なお、教師データとしては、ピッキング対象物関連情報登録データベース66(図1参照)に格納されているテーブルTBL(図2参照)の成功事例を用いるか、又は、表示部65(図1参照)に表示されるピッキング対象物2(図1参照)の把持位置・把持方法リストの中から作業者が選択したものを用いれば良い。
かくして、このようにして、教師あり学習を用いた機械学習を行うことができる。
一方、機械学習として、強化学習を用いる場合、CPU60(図1参照)は、「報酬」として、ピッキング対象物関連情報登録データベース66(図1参照)に格納されているテーブルTBL(図2参照)の検証結果の項目(TB1f参照)に登録されている「成功」に対して報酬「1」を与え、ピッキング対象物関連情報登録データベース66(図1参照)に格納されているテーブルTBL(図2参照)の検証結果の項目(TB1f参照)に登録されている「失敗」に対して報酬「0」を与える。そして、CPU60(図1参照)は、「行動」を、ピッキング対象物関連情報登録データベース66(図1参照)に格納されているテーブルTBL(図2参照)の把持位置の項目(TB1d参照)に登録されている把持位置、テーブルTBL(図2参照)の把持方法の項目(TB1e参照)に登録されている把持方法の組み合わせとする。これにより、CPU60(図1参照)は、ROM63(図1参照)に記憶されている周知の強化学習プログラムを使用して、表示部65(図1参照)に、ピッキング対象物2(図1参照)毎に、所定の評価がされた把持位置・把持方法の組み合わせを表示する。
かくして、このようにして、強化学習を用いた機械学習を行うことができる。
しかして、失敗した把持位置・把持方法、成功した把持位置・把持方法が一定量登録されれば、上記のような機械学習を実施することができることとなるため、失敗した把持位置・把持方法を登録しておいた方が好ましい。
ところで、本実施形態にて例示したピッキング対象物2は、あくまで一例であり、物流現場において取り扱う物品であればどのようなものにも適用可能である。
また、本実施形態においては、ピッキング対象物2の三次元座標を示す三次元点群情報とピッキング対象物2の二次元画像をカメラ5にて取得できる例を示したが、それに限らず、カメラ5は単なる撮像機能だけにし、登録装置6(図1参照)のCPU60(図1参照)にて、ピッキング対象物2の三次元座標を示す三次元点群情報を生成し、ピッキング対象物2の二次元画像を生成するようにしても良い。またさらに、カメラ5,登録装置6(図1参照)のCPU60(図1参照)の何れか一方で、ピッキング対象物2の三次元座標を示す三次元点群情報を生成し、他方のカメラ5又は登録装置6(図1参照)のCPU60(図1参照)にてピッキング対象物2の二次元画像を生成するようにしても良い。
一方、本実施形態においては、カメラ5を別に設ける例を示したが、それに限らず、カメラ5をロボット3に組み込むようにしても良い。また、ロボット制御装置4と登録装置6とを別々に設ける例を示したが、ロボット制御装置4と登録装置6を一体化しても良い。
なお、本実施形態にて例示した内容は、あくまで一例であり、特許請求の範囲に記載された本発明の要旨の範囲内において種々の変形・変更が可能である。
1 ピッキング対象物把持情報登録システム
2 ピッキング対象物
3 ロボット
4 ロボット制御装置
5 カメラ(第1生成手段、第2生成手段)
6 登録装置
60 CPU
66 ピッキング対象物関連情報登録データベース(記憶手段)
TBL テーブル

Claims (3)

  1. ピッキング対象物の三次元点群データを生成する第1生成手段と、
    前記ピッキング対象物の二次元画像を生成する第2生成手段と、
    前記第1生成手段にて生成された三次元点群情報と前記第2生成手段にて生成された二次元画像に基づき、前記ピッキング対象物の領域を仮説する仮説領域手段と、
    前記仮説領域手段にて仮説したピッキング対象物の領域に基づいて、ピッキング対象物を想定し、該想定したピッキング対象物の把持位置・把持方法を仮説する仮説把持手段と、
    前記仮説把持手段にて仮説した前記把持位置・把持方法を、ロボットを用いて検証する検証手段と、
    前記検証手段にて検証した結果、前記ピッキング対象物の把持に成功した前記把持位置・把持方法を記憶する記憶手段と、を備えてなるピッキング対象物把持情報登録システム。
  2. 前記検証手段にて検証した結果、前記ピッキング対象物の把持に成功した際、再度、前記第1生成手段にて生成された三次元点群情報と前記第2生成手段にて生成された二次元画像に基づき、前記ピッキング対象物の領域を仮説領域手段にて仮説させる必要があるか否かの判定を行う判定手段と、をさらに備えてなる請求項1に記載のピッキング対象物把持情報登録システム。
  3. 前記記憶手段は、前記検証手段にて検証した結果、前記ピッキング対象物の把持に失敗した前記把持位置・把持方法も記憶してなる請求項1に記載のピッキング対象物把持情報登録システム。
JP2019561433A 2017-12-26 2017-12-26 ピッキング対象物把持情報登録システム Active JP6940186B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/046661 WO2019130429A1 (ja) 2017-12-26 2017-12-26 ピッキング対象物把持情報登録システム

Publications (2)

Publication Number Publication Date
JPWO2019130429A1 true JPWO2019130429A1 (ja) 2021-04-01
JP6940186B2 JP6940186B2 (ja) 2021-09-22

Family

ID=67066775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019561433A Active JP6940186B2 (ja) 2017-12-26 2017-12-26 ピッキング対象物把持情報登録システム

Country Status (2)

Country Link
JP (1) JP6940186B2 (ja)
WO (1) WO2019130429A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023233992A1 (ja) * 2022-06-01 2023-12-07 パナソニックIpマネジメント株式会社 非定形物の画像処理方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007088735A1 (ja) * 2006-02-02 2007-08-09 Kabushiki Kaisha Yaskawa Denki ロボットシステム
WO2010090117A1 (ja) * 2009-02-09 2010-08-12 本田技研工業株式会社 把持位置計算装置及び把持位置計算方法
US20130151007A1 (en) * 2010-06-24 2013-06-13 Zenrobotics Oy Method for the selection of physical objects in a robot system
JP2014200882A (ja) * 2013-04-04 2014-10-27 トヨタ自動車株式会社 把持対象物の把持パターン検出方法およびロボット
JP2014205209A (ja) * 2013-04-11 2014-10-30 三菱電機株式会社 ロボットシステム、及びロボットシステムの制御方法
JP2015112654A (ja) * 2013-12-10 2015-06-22 セイコーエプソン株式会社 制御装置、ロボット、教示データ生成方法及びロボットシステム
JP2015145055A (ja) * 2014-02-04 2015-08-13 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置および制御方法
JP2017185578A (ja) * 2016-04-05 2017-10-12 株式会社リコー 物体把持装置及び把持制御プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007088735A1 (ja) * 2006-02-02 2007-08-09 Kabushiki Kaisha Yaskawa Denki ロボットシステム
WO2010090117A1 (ja) * 2009-02-09 2010-08-12 本田技研工業株式会社 把持位置計算装置及び把持位置計算方法
US20130151007A1 (en) * 2010-06-24 2013-06-13 Zenrobotics Oy Method for the selection of physical objects in a robot system
JP2014200882A (ja) * 2013-04-04 2014-10-27 トヨタ自動車株式会社 把持対象物の把持パターン検出方法およびロボット
JP2014205209A (ja) * 2013-04-11 2014-10-30 三菱電機株式会社 ロボットシステム、及びロボットシステムの制御方法
JP2015112654A (ja) * 2013-12-10 2015-06-22 セイコーエプソン株式会社 制御装置、ロボット、教示データ生成方法及びロボットシステム
JP2015145055A (ja) * 2014-02-04 2015-08-13 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置および制御方法
JP2017185578A (ja) * 2016-04-05 2017-10-12 株式会社リコー 物体把持装置及び把持制御プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SERGEY LEVINE, PETER PASTOR, ALEX KRIZHEVSKY, DEIRDRE QUILLEN: "Learning Hand-Eye Coodination for Robotic Grasping with Deep Learning and Large-Scale Data Collectio", INTERNATIONAL SYMPOSIUM ON EXPERIMENTAL ROBOTICS 2016, JPN7021001850, 28 August 2016 (2016-08-28), ISSN: 0004514923 *

Also Published As

Publication number Publication date
WO2019130429A1 (ja) 2019-07-04
JP6940186B2 (ja) 2021-09-22

Similar Documents

Publication Publication Date Title
EP3550470B1 (en) Object recognition processing apparatus and method, and object picking apparatus and method
JP5458885B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
JP6117901B1 (ja) 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
JP6415291B2 (ja) 情報処理装置、情報処理方法、プログラム
EP1905548B1 (en) Workpiece picking apparatus
US9415511B2 (en) Apparatus and method for picking up article randomly piled using robot
JP6298035B2 (ja) モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置
JP4004899B2 (ja) 物品の位置姿勢検出装置及び物品取出し装置
US10809739B2 (en) Method for controlling a robot and/or an autonomous driverless transport system
JP5088278B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
US11654571B2 (en) Three-dimensional data generation device and robot control system
JP2015147256A (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP2016181183A (ja) 情報処理装置、情報処理方法、プログラム
JP7134016B2 (ja) 情報処理装置、情報処理方法
JP6632656B2 (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
JP6940186B2 (ja) ピッキング対象物把持情報登録システム
JP5983506B2 (ja) 把持対象物の把持パターン検出方法およびロボット
De Gregorio et al. Robotfusion: Grasping with a robotic manipulator via multi-view reconstruction
JP5960642B2 (ja) 3次元情報取得方法及び3次元情報取得装置
JP6908908B2 (ja) ロボットアームの経路生成装置および経路生成プログラム
CN111742349B (zh) 信息处理装置、信息处理方法以及信息处理存储介质
Kotthauser et al. Vision-based autonomous robot control for pick and place operations
JP2020040780A (ja) ピッキングシステム、情報処理装置及び情報処理プログラム
US11436754B2 (en) Position posture identification device, position posture identification method and position posture identification program
WO2023243051A1 (ja) ワーク取り出しシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210826

R150 Certificate of patent or registration of utility model

Ref document number: 6940186

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350