JP6576050B2 - 物体移動方法及びシステム - Google Patents

物体移動方法及びシステム Download PDF

Info

Publication number
JP6576050B2
JP6576050B2 JP2015039404A JP2015039404A JP6576050B2 JP 6576050 B2 JP6576050 B2 JP 6576050B2 JP 2015039404 A JP2015039404 A JP 2015039404A JP 2015039404 A JP2015039404 A JP 2015039404A JP 6576050 B2 JP6576050 B2 JP 6576050B2
Authority
JP
Japan
Prior art keywords
imaging
image
place
location
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015039404A
Other languages
English (en)
Other versions
JP2016159387A (ja
Inventor
寛之 結城
寛之 結城
内山 晋二
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015039404A priority Critical patent/JP6576050B2/ja
Priority to US15/051,549 priority patent/US9916512B2/en
Priority to CN201610107874.6A priority patent/CN105922268B/zh
Publication of JP2016159387A publication Critical patent/JP2016159387A/ja
Application granted granted Critical
Publication of JP6576050B2 publication Critical patent/JP6576050B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • G06V2201/121Acquisition of 3D measurements of objects using special illumination
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)

Description

本発明は、物体移動方法及びシステムに関する。
近年、工業用製品の組立等において、整列されずにバラ置き(積み)されたワーク(物体)をパレット(箱)から1つずつ取り出す作業や、ワークを整列させる作業を、人間のかわりにロボットが行うようになりつつある。このようなロボットによるワーク移動システムでは、まず、パレット(箱)内に様々な姿勢でバラ置きされている複数のワークを撮像する(撮像工程)。そして、撮像によって得られた画像を処理する事によってワークの2次元または3次元などの情報を取得する。そして、得られた情報を用いてワークの位置及び姿勢を求めるための演算を行い、ワークの位置及び姿勢を認識する(認識工程)。そして、ロボットマニピュレータを用いて、認識されたワークをパレットから取りだしたり、整列させたりする(ピッキング工程)。
複数のワークがバラ置きされた状態から特定のワークを掴んで移動させた際、掴んだワークが他のワークに接触したり、ワークが移動されたことによる重量バランスの崩れにより、他の複数のワークのバラ置き状態が崩れ、他のワークの位置や姿勢が変化してしまう。そのため、次のワークを移動させる前に、再び撮像工程と認識工程を行わなければならず、複数のワークを掴んで移動するための総時間(タクト)が長くなってしまう。
これに対し、特許文献1には、ワークのバラ積み状態が変化したか否かを判定する判断部を設けることが開示されている。また、特許文献1には、バラ積み状態が変化していないと判断した際は撮像工程を行う事無く、過去に撮像された画像を用いてワークを検出し、次のワークの取り出しを行うことが開示されている。特許文献2には、ワークをパレットから取り出した後に、ワークを撮像して2次元画像を取得し、ワーク取り出し前に撮像した2次元画像との変化が許容範囲内であれば、レーザーによる距離測定を行うことなく、次のワークの取り出しを行うことが開示されている。
特許第4199264号公報 特許第5201411号公報
しかし、特許文献1、2に記載の発明では、バラ積みされた場所からワークを移動した後に、バラ積みが崩れてしまった場合、再度、バラ積みされたワークを撮像した後にワークの位置を認識して、ワークを移動させる工程が必要である。つまり、ワークのバラ積みが崩れる度に、ワークの撮像および認識を行わなければならない。また、バラ積みが崩れていない場合でも、バラ積み状態が変化したか否かを判定するための時間を要する。したがって、特許文献1、2に記載の発明では、複数のワークを撮像してからワークの移動が完了するまでの時間は、依然として長い。
そこで、本発明は、複数の物体を撮像してから物体の移動が完了するまでの時間を短縮するための物体移動方法及びそのためのシステムを提供することを目的とする。
上記課題を解決する本発明の一側面としての移動方法は、物体を撮像し、撮像して得られた画像を用いて物体の位置を認識し、認識された物体を移動させる処理を繰り返すことにより、複数の物体を移動させる移動方法であって、物体が配置される第1場所と第2場所を区切る区切部材の推奨する配置に関する情報を表示する表示工程と、前記区切部材で区切られた前記第1場所と前記第2場所の各々に第1状態でバラ置きされている複数の物体を撮像して、前記第1状態における画像を取得する撮像工程と、前記第1状態における画像を用いて、前記第1場所に対応する第1部分領域内の第1物体の位置を認識する第1認識工程と、前記第1状態における画像を用いて、前記第2場所に対応する第2部分領域内の第2物体の位置を認識する第2認識工程と、前記第1認識工程で認識された前記第1物体を移動させる第1移動工程と、前記第2認識工程で認識された前記第2物体を移動させる第2移動工程と、を有することを特徴とする。
本発明によれば、複数の物体を撮像してから物体の移動が完了するまでの時間を短縮するための物体移動方法及びそのためのシステムを提供することができる。
第1実施形態の物体移動システムを示す図である。 物体移動方法のフローチャートを示す図である。 撮像して得られた画像を示す図である。 物体移動方法の手順を示す図である。 仕切りの配置を示す図である。 仕切りの形状を示す図である。 第4実施形態の物体移動システムを示す図である。 第4実施形態において、撮像して得られた画像を示す図である。 複数のパレットの配置を示す図である。 複数のパレットの区切部材の形状を示す図である。
(第1実施形態)
図1に、第一実施形態の物体移動システム1を示す。物体移動システム1は、処理部(情報処理装置)100と、測距部(センサ部)200と、ロボット(移動部)300と、パレット00を有する。物体移動システム1は、パレット400内にバラ置きされたワーク(物体)600をロボット300で掴んで、パレット400から取り出したり整列させたりするなどの移動を行う。ワークは、例えば、装置の部品などである。
処理部100は、測距部200に撮像指令を出し、測距部200で撮像した画像を取得するセンサ制御部(取得部)101とを有する。さらに、測距部200により撮像して得られた画像を用いてワークの位置を認識する認識部102と、認識されたワークを移動させるようにロボットに指令するロボット指令部103を有する。
測距部200は、三角測量用の複数の光学系を有し、三角測量の原理を基にして測距を行う構成である。例えば、ステレオ方式による測距の場合では、CCDなどの撮像センサ(撮像素子)と、レンズなどの撮像光学系を有する光学系を複数構成する。また、パターン投影方式による測距の場合では、複数の光学系のうち一方は、撮像センサと撮像光学系を有する光学系であり、他方は、光源と投影パターンを生成するパターン生成部と投影光学系とを有する光学系である。
ロボット300は、例えば、ロボットハンドや制御された把持装置であり、先端にワークを掴むマニピュレータ(把持部)を有する。ロボット300には複数のロボットが含まれていてもよい。ロボット300は、ロボットを制御する制御部を含み、ワークに対する位置や姿勢に関する入力情報を基にワークの把持と移動を行うことが可能である。ただし、入力情報は位置や姿勢に関する情報に限定されず、ワークを移動させるためのマニピュレータの軌跡や角度の情報や、マニピュレータの動作タイミングなどの情報を含んでいても構わない。
パレット400には、内部の領域を区切るための仕切り(区切部材)500が設けられている。本実施形態では、パレット400内には、仕切り500で互いに区切られた2つの場所(第1場所A、第2場所B)(空間)が形成されている。ただし、区切られた場所の数は2つに限定されず、3つ以上でもよい。
次に、物体移動システム1を用いた物体移動方法を説明する。図2に、当該方法のフローチャートを示す。まず、互いに区切られた第1場所A、第2場所Bの各々に、複数のワークをバラ置きする(S201)。バラ置き状態では、複数のワークが整列されていなく、位置や姿勢がバラバラな状態で置かれている。バラ置き状態では、複数のワークが互いに重なっていなくてもよいし、重なっていてバラ積みされていてもよいし、山積みされていても良い。本実施形態では、第1場所A、第2場所Bの各々にバラ置きされているワークは、同一設計に基づいて製造された同種の物である。ただし、同種の物に限定されず、異なる種類の物であっても本実施形態を適用することができる。
次に、ワークを撮像する。具体的には、センサ制御部101が測距部200に撮像指令を出し、測距部200は、センサ制御部101からの撮像指令を受けて、第1場所A、第2場所Bの各々に第1状態でバラ置きされている複数のワークの撮像を開始する(S202、撮像工程)。パターン投影方式による測距の場合では、第1場所A及び第2場所Bの各々にバラ置きされている、第1場所A及び第2場所Bの複数のワークにパターン光を投影して、撮像センサの撮像視野内において複数のワークで反射されたパターン光を撮像する。パターン光の投影は、第1場所A及び第2場所Bの複数のワークに対して一括して行っても良いし、時間をずらして第1場所Aと第2場所Bの各々に行っても良い。ワークの撮像が終了したら、撮像視野内で撮像して得られた、第1場所A及び第2場所Bの第1状態における画像をセンサ制御部101に送信する。
センサ制御部101は、測距部200が撮像した画像を取得し、取得した、第1状態における画像を認識部102に送る。認識部102は、取得した、第1状態における画像の全体領域内において、第1場所Aと第2場所Bを区切っている仕切り500の位置に基づいて、第1場所Aに対応する第1部分領域と、第2場所Bに対応する第2部分領域と、を設定する(S203、設定工程)。第1部分領域と第2部分領域は、ワークの位置や姿勢を認識したい領域(認識対象領域)であって、第1状態における画像の全体領域内から抽出された一部の領域である。ここで、ワークはパレット400内にあるため、認識対象領域はパレット400の内部の領域に設定される。パレット400は仕切り500によって複数の場所に分割されているため、これに対応して認識対象領域も複数設定される。
図3は、認識対象領域の設定の一例を表した図である。図3の画像210は撮像して取得した画像の一例であり、パレットの像410と仕切りの像510とワークの像610とが表示されている。認識部102は、パレットの像410や仕切りの像510から得られる輪郭情報を用いて、仕切り500によって分離された複数の場所に対応して認識対象領域を複数設定する。具体的には、第1場所Aに対応して第1部分領域120と、第2場所に対応して第2部分領域121を設定する。また、輪郭情報に限定されず、例えば測距値の情報を基にパレットや仕切りの位置姿勢を算出し、算出したパレットや仕切りの位置や姿勢の情報を基に、仕切りによって隔てられたパレットの各場所に対して複数設定する方法でも構わない。また、第1場所A内における特定の一部分の領域を第1部分領域120としてもよい。第2場所Bについても同様である。また、ステップS203で、S202の撮像で得られた画像を用いて領域を設定する例を示したが、パレットや仕切りを置く位置が工具により固定出来る場合には、ユーザーが予め複数の認識対象領域をメモリに登録(記憶)する事が可能である。また、事前に登録された複数の認識対象領域からユーザーが選択する方法もとる事が出来る。具体的には、S202の撮像とは別に、設定用の画像を取得して、各領域を予め定めることができる。具体的には、例えば、複数のワークが無い状態のパレットを撮像し、パレットの仕切りを含む境界を検出して、検出した境界に基づいて各領域を予め定めておき、メモリに登録(記憶)しておく。そして、S202で撮像して得られた画像の領域内に、予め登録した各領域を重ねることにより、当該領域を設定してもよい。
本実施形態では、ステップS203は、最初の認識工程が実行される前に一回実行される構成である。これはワークの移動が完了するまでの間にパレット400や仕切り500の位置に変化が無い事を前提としたものであり、その場合は、認識対象領域を変更する必要が無いため一回実行すればよい。但しこれに限定されず、パレット400や仕切り500の位置に変化がある場合に、認識対象領域を再定義するために複数回実行されても構わない。また、例えば、すり鉢状の床面を持つパレットからワークを取り出していくと、パレット内のワークが一部分へ集まる場合も、認識対象領域を再定義するために複数回実行しても構わない。
次に、認識部102は、設定された認識対象領域の中から、登録されたワークに関する情報と、撮像により得られた測距値や輪郭等の情報と、を参照・比較する事によりワークの位置や姿勢を認識(決定)する(S204(第1認識工程)、S205(第2認識工程))。認識方法は、公知又は周知の各種方法が適用でき、認識部102が、各種方法を用いて、物体の中心位置やエッジの位置、各軸回りの回転角等の姿勢を決定し、各データを出力、記憶又は表示する。そして、ロボットにより取り出しを行うワーク又はその候補群を決定する。認識対象領域は複数設定されているため、それぞれの認識対象領域について、物体の位置や姿勢を認識して、移動させるワーク又はその候補群の決定を行う。また、これに限定されず、認識対象領域に関係なく移動させるワークの候補群を算出し、その候補群を認識対象領域を基に区分する方法であっても構わない。このように一回の撮像工程で得た情報を基にそれぞれの認識対象領域から移動させるワーク又は候補群を決定する主旨においてアルゴリズムの形態は様々に変形可能であり、それらの変形も含めた総称として、複数の認識工程、と記述する。
なお、撮像して得られた画像から測距値を算出する処理は、撮像工程の直後、設定工程の直後、又は、認識工程の直後に行っても良い。撮像工程の直後に行う場合は、撮像して得られた画像を取得した後に、取得した画像の全域について測距値の算出を行う。また、設定工程の直後に行う場合は、画像から輪郭抽出等により認識対象領域を設定した後で、設定された領域の範囲についてのみ測距値の算出を行えば計算量が少なくなり効率が良い。また、認識工程の直後に行う場合は、画像から輪郭抽出等によりワークの輪郭を認識した後で、輪郭内又は輪郭を含む限定された領域についてのみ測距値の算出を行えば計算量が少なくなり効率が良い。測距値を算出するタイミングは、測距や輪郭抽出の精度や計算器の仕様等に応じてさまざまな変更が可能である。
次に、ロボット指令部103は、認識部102から認識されたワークの位置や姿勢の情報を取得し、認識したワークを掴んで移動させるようにロボット300に指令する。そして、ロボット300は、ロボット指令部103の指令に応じて、バラ置きされたワークを掴んで移動させる(S206(第1移動工程)、S207(第2移動工程))。移動工程は、認識対象領域または認識したワークの数に応じて複数回実行される。具体的には、バラ置きされた第1場所Aから、認識された第1ワーク(第1物体)をロボット300により掴んで移動させ、さらに、バラ置きされた第2場所Bから、認識された第2ワーク(第2物体)をロボット300により掴んで移動させる。この際、第1場所Aからワークを移動させることによって、第1場所Aのバラ置き状態が変化する場合がある。しかし、その場合でも、第2場所Bは第1場所Aとは仕切り500で区切られているため、第2場所Bのバラ置き状態は崩れない。第1場所Aからワークを移動させた後でも、第2場所Bから、認識されたワークを掴んで移動させることができる。つまり、1回の撮像工程によって得られた画像に基づいて、第1場所Aと第2場所Bの各々から1つずつワークを移動させることができる。
以上の工程を、処理部100は、指定した回数が完了するか、又は、指定した数のワーク移動が完了するか、又は、全てのワークの移動が完了したか、を判定する(S208)。完了したと判定した場合には終了する。完了していないと判定した場合には、次の撮像工程として、測距部200は、センサ制御部101からの撮像指令を受けて、第1場所A、第2場所Bの各々に、第1状態とは異なる第2状態でバラ置きされている複数の物体を撮像する(S209)。第2状態では、第1場所Aから第1ワークが移動され、第2場所Bからは第2ワークが移動された状態であって、各場所でその他のワークの位置や姿勢が変化している場合がある。そして、S204(認識工程)〜S209(撮像工程)を繰り返し実行する。また、換言すれば、前の撮像工程と次の撮像工程との間に少なくとも、複数設定した認識対象領域の数に対応した複数の認識工程が含まれる。ここで、一回の撮像工程には、測距を一回行うために必要な撮像画像を取得する複数の処理を含んでおり、一枚の画像を取得する事には限定されない。例えば、測距方法としてパターン投影による角測量法を用いた場合、パターン投影では一般に空間コード化法が用いられる。そして、一回の測距を行うために周期の異なった複数のパターンを投影し、それらを撮像した複数枚の画像を用いて処理する事により精度良く測距を行っている。また、一回の測距を行う際に、撮像センサのノイズや環境のゆらぎ等によってランダムに発生する誤差を低減するために複数枚の撮像を行い、得られた複数枚の画像を平均する事によってランダム誤差を低減する方法も一般に行われている。この様に測距の方式のため複数枚の画像を取得する処理や、誤差低減のために複数枚の画像を取得する処理が、一回の撮像工程内に含まれていても構わない。
従来は、1つの場所にバラ置きされている複数のワークを撮像し、撮像によって得られた画像に基づいてワークの位置を認識し、認識したワークを移動させた後に、その場所にあるワークを撮像した後でなければ、次のワークを移動させることができなかった。つまり、1回の撮像工程によりワーク1つしか移動させることができなかった。
本実施形態によれば、パレット400は仕切り500により、複数の場所が分離されているため、一方の場所からワークを取り出しても、他方の場所のワークのバラ置き状態が変化する事がない。よって、再び撮像工程を実行しなくても、他方の場所からはワークを取り出す事が可能である。従って、認識対象領域を仕切りで分けられた各場所に設定すれば、一回の撮像工程を実行するだけで各認識対象領域からそれぞれワークを取り出す事ができるため、複数のワークを撮像してからワークの移動が完了するまでの時間(総タクト)を短くする事が出来る。
特に、従来では、同種のワークの取り出しを行う場合には、場所を仕切り等で分割して区別する事は行われず、場所の区分の無いパレットにバラ置きしていた。したがって、同種の複数のワークに対して1回の撮像工程により、1つの場所から1つのワークしか移動させることができず、1つのワークを移動させると、バラ置きが崩れてしまうことがあった。それに対して、本実施形態では、同種の部品に対しても複数の場所に区切ってバラ置きし、1回の撮像工程で、複数回のワークの移動を行うことができ、ワークの移動が完了するまでの総タクトを短くする事が出来る。
なお、本実施形態では、仕切りが一つ含まれるパレットを用いて説明したが、これに限定されず、複数の仕切りを有するパレットであっても構わない。
(第2実施形態)
図4に、各工程(各シーケンス)の実行順序の一例を表した図である。各工程を時系列で並べて表示している。ここでは、説明を簡単にするため、認識対象領域の設定工程は省略している。
第1実施形態では、手順Aのように、撮像工程の後、第1部分領域の第1ワークの位置を認識する第1認識工程と、第2部分領域の第2ワークの位置を認識する第2認識工程を行った。さらに、第2認識工程の後、第1ワークを移動させる第1移動工程と、第2移動工程とを順に行い、次の撮像工程2を行った(手順A)。この手順は、先に認識工程を認識対象領域の数だけ繰り返せる場合、特に、複数の認識工程を並列処理可能な場合に好適である。
本実施形態では、手順Bのように、1つの認識対象領域に対して認識工程を実行した後に移動工程を実行し、認識対象領域の数だけこれを繰り返す構成を示している。具体的には、第1認識工程の後に、第1移動工程を行い、第1移動工程の開始後、第2認識工程を行う。第2認識工程は、第1移動工程が終了する前に、第1移動工程と並行して処理されてもよい。そして、次の撮像工程2を行う。これは、移動工程と認識工程を並列に処理できる場合に有効であり、このように構成する事によりロボット300で移動動作を行っている最中に、次の認識対象領域の認識工程を実行する事が出来るため、総タクトをさらに短くする事が出来る。
また、手順Cのように、第1移動工程の終了後、第2移動工程の前に、第1場所Aのワークを撮像する撮像工程2Aを開始してもよい。ただし、撮像工程2Aでは、第2場所Bにおいてロボットがワークを移動させているため、第2場所Bのワークを撮像することはできない。そのため、第2移動工程の後、第2場所Bのワークを撮像する撮像工程2Bを実行する。つまり、1回目の撮像工程の後は、第1場所の撮像と第2場所の撮像を交互に繰り返す。これにより、撮像工程2Aや2Bを、認識工程や移動工程と並行処理することができ、総タクトをさらに短くすることができる。
なお、各工程の所要時間を同じように表示したが、これに限らず、互いに異なっていてもよい。例えば、認識部の処理時間は、ロボットによる移動時間よりも短い場合がある。また、認識工程や移動工程の最中など、撮像工程を常時行っていてもよい。
(第3実施形態)
本実施形態では、複数の場所を区切る区切部材の好適な配置と形状について説明する。図5(A)は、測距部200の構成の一例を表す図であり、測距部200は第一の光学部220と第二の光学部230からなり、三角測量の原理を基にして測距を行う構成である。例えば、ステレオ方式による測距の場合では、第一の光学部220と第二の光学部230の各々は撮像センサと撮像光学系を有する構成である。また、パターン投影方式による測距の場合では、第一の光学部220と第二の光学部230のどちらか一方は撮像センサと撮像光学系を有する構成であり、他方は光源と投影パターンを生成するパターン生成部と投影光学系を有する構成である。各光軸は、第一の光学部220の光軸240であり、第二の光学部230の光軸241である。
図5(B)のように、パレット400が仕切り500を有する場合、仕切り500がオクルージョンを発生させるため、これを低減する事が望ましい。オクルージョンとは、手前にある物体が背後にある物体を隠して見えないようにする状態である。オクルージョンが発生すると、物体の陰にあるワークは認識できないため、作業者又は別手段による認識またはピッキング等が必要となり、ワーク移動の総タクトを遅延させる。オクルージョンが発生する要因の一つは、第一の光学部220と第二の光学部230の隔たりにあり、光軸240と光軸241を含む面に平行な方向にオクルージョンが発生する。よって、仕切り500によるオクルージョンを低減するには、撮像画面内で見た場合における仕切り500の長手方向520を、光軸240と光軸241を含む面に沿って配置する事が好ましい。
ユーザーにとって光軸240と光軸241を含む面を認知する事は難しいため、好ましくは、仕切り500の推奨する配置に関する情報を教示する事が望ましい。教示する方法は、例えば、測距部200が有する光学部によって撮像した画像を表示する表示部に、その画像内に、場所を区切る区切部材の推奨する配置を合成した画像を表示する方法である。
また別の例では、測距部200が投影部を有する場合には、区切部材の推奨する配置に関する情報を教示するパターン光を生成して投影光学系がその配置に関するパターン光を投影する方法もある。このようにパターン光を投影して、実際のパレット配置空間に推奨配置位置の教示を行えば、ユーザーは直接に推奨配置位置を見ながらパレットや仕切りを移動できるため、より好ましい。図5(C)(D)が、パターン光投影による教示を行う構成の一例を示したものである。投影光221が仕切りの推奨配置位置を教示するパターンであり、投影光221の照射位置に仕切り500を配置する事により、仕切り500によるオクルージョンを低減する事が可能となる。また、本実施形態では仕切りの位置を教示する例を紹介したが、これに限定されず間接的に仕切りの位置が分かる情報を教示する方法でも構わない。例えば、仕切りがパレットに対して固定されている場合には、パレットの位置を教示する事によって間接的に仕切りを推奨配置位置に設置する事が可能である。
次に、仕切りの好適な形状の一例を図6を用いて説明する。図6は、仕切り500の断面形状を表す図であり、断面とは仕切り500の長手方向520に垂直な断面である。上記のように、長手方向520を光軸240と光軸241を含む面に沿って配置した場合は、光軸240と光軸241を含む面に垂直な断面である。
仕切りにより発生するオクルージョンの別の要因として、測距部200が有する光学部の開口の影響がある。仕切り500近傍の測距を行う際に使用する光束の例を表したものが光束222及び223であり、光束222及び223は測距部200が有する光学部の開口の大きさに対応して測距方向に収斂する形状を形成する。この収斂する光束を仕切りが遮る事によってオクルージョンが発生する。これを低減するために好適な仕切りの形状は、パレット400の床面401(内底)と仕切り500の側面502とが成す傾斜角530、及び、床面401(内底)と仕切り500の側面50とが成す傾斜角531が鋭角である形状である。
この様に構成する事により、仕切り500が光束222又は223を遮る事を低減し、オクルージョンを低減する事が可能となる。傾斜角530及び531のより具体的な数値は、測距部200の開口の大きさや光学系の設計値や光束の遮蔽許容値を基に決定すればよく、鋭角である条件を満たす範囲で様々に変更が可能である。また最も光束の遮蔽を低減するにはパレットの床面から測距部200を覗きみた際に、測距部200が有する光学部の有効径全域が望めるように傾斜角を設定すればよい。
以上の構成により、オクルージョンの発生を低減し、高精度にワークの位置や姿勢を認識することができる。
(第4実施形態)
次に、図7を用いて第4実施形態を説明する。図7は物体移動システム2を表す図である。本実施形態では、第1実施形態の仕切りを有するパレットの代わりに、測距部200の測距が可能な視野(測距視野)の範囲に、複数のパレットを配置する構成をとる。なお、その他の構成は第一実施形態と同じ構成である。図7では、パレット402及び403が測距視野201の範囲におかれた構成を表している。この構成を用いれば、パレット402とパレット403は独立であるため、一方のパレットからワークを取り出しても他方のパレットのバラ置き状態が変化する事がない。よって、再び撮像工程を実行しなくても他方のパレットからはワークを取り出す事が可能である。従って、認識対象領域を各パレットに設定すれば、一回の撮像工程を実行するだけで各認識対象領域からそれぞれワークを取り出す事ができるため、ワークを取り出す総タクトを短くする事が出来る。なお、本実施形態では、パレットが二つの構成を用いて説明しているが、これに限定されず、3つ以上のパレットを有する構成で有っても構わない。
図8は、撮像した画像210内に、パレット402の像412と、パレット403の像413と、ワークの像610と、が表示されていることを示す図である。ここで、点線で示す認識対象領域130及び131は、パレットの像412及び413から得られる輪郭情報を用いて、パレットの数に対応して複数設定する。また、輪郭情報に限定されず、例えば測距値の情報を基に各パレットの位置姿勢を算出し、算出した各パレットの位置姿勢情報を基に各パレットに対して認識対象領域を設定する方法でも構わない。
次に、本実施形態の複数のパレットの好適な配置および形状について図9、図10を用いて説明する。ここで、測距部200の構成は第一実施形態の図5(A)に示す構成と同じであり、第一の光学部220と第二の光学部230からなり、第一の光学部220によって光軸240が規定され、第二の光学部230によって光軸241が規定される。図9(A)のように、方向421に並ぶようにパレット402とパレット403が並べてある。パレット402とパレット403にはそれぞれ、互いに区切る内壁430及び431(区切部材)を有する。壁430及び431は、第一実施形態で説明した仕切り500と同じ効果をもたらし、オクルージョンを発生させてしまう。オクルージョンが発生すると物体の陰にあるワークは認識できないため、作業者又は別手段による認識またはピッキング等が必要となり、ワーク取り出しの総タクトを遅延させる。よって、壁430及び431によって発生するオクルージョンを低減する事が望ましい。オクルージョンの発生する要因の一つは第一の光学部220と第二の光学部230の隔たりにあり、光軸240と光軸241を含む面に平行な方向にオクルージョンが発生する。よって、仕切りによるオクルージョンを低減するにはパレットの並び方向421を光軸240と光軸241を含む面と垂直にさせる事が好ましい。
更に好ましくは、ユーザーにとって光軸240と光軸241を含む面を認知する事は難しいため、パレット配置位置の推奨配置位置を教示する事が望ましい。教示する方法は、例えば測距部200が有する光学部によって撮像した画像に、各パレットの推奨配置位置を合成した画像を表示する方法である。また別の例では、測距部200が投影部を有する場合には、各パレットの推奨配置位置を教示するパターン光を生成して投影する事が出来る。
図9(B)、(C)が投影による教示を行う構成の一例を示したものであり、投影光224が各パレットの推奨配置位置を教示するパターンである。ユーザーは投影光224の照射位置にパレット40及び40を配置する事により、壁430及び431によるオクルージョンを低減する事が可能となる。また本実施形態では各パレットの位置を教示する例を紹介したが、これに限定されずより直接的にパレット同士が相対する壁の位置を教示する方法でも構わない。これを表した例が図9(D)であり、投影光224によってパレット同士が相対する壁430及び431の推奨配置位置を教示している。
次に、壁430及び431の好適な形状の一例を図10を用いて説明する。図10は壁430と431の断面形状を表す図であり、断面とはパレットの並び方向421でみた断面である。壁430及び431が発生するオクルージョンの別の要因として、測距部200が有する光学部の開口の影響がある。壁430及び431近傍の測距を行う際に使用する光束の一例を表したものが光束225及び226であり、光束225及び226は測距部200が有する光学部の開口の大きさと対応して測距方向に収斂する形状を成している。この収斂する光束を壁430又は431が遮る事によってオクルージョンが発生する。これを低減するために好適な壁430及び431の形状は、パレット402の床面(内底)と壁430とが成す傾斜角440、及び、パレット403の床面と壁431とが成す傾斜角441を鋭角にする形状である。この様に構成する事により、壁430又は431が光束225又は226を遮る事を低減し、オクルージョンを低減する事が可能となる。傾斜角440及び441のより具体的な数値は測距部200の開口や光学系の設計値や光束の遮蔽許容値を基に決定すればよく、鋭角である条件を満たす範囲で様々に変更が可能である。また最も光束の遮蔽を低減するにはパレット402及び403の床面から測距部200を覗きみた際に、測距部200が有する光学部の有効径全域が望めるように傾斜角を設定すればよい。
(第5実施形態)
本実施形態では、ワーク認識装置3(処理システム)を独立させた形態について説明する。ワーク認識装置3は第一実施形態の測距部200と処理部100を有し、ワークの認識を可能にする装置である。この様にワーク認識装置を独立させた場合、例えば本実施形態のワーク認識装置と、市販されているロボットと、第一実施形態及び第二実施形態で説明したパレットや仕切りと、を用いてシステム設計を行う事ができる。ロボットマニピュレータは既に多種類の市販品があるため選択肢の幅が有り、ユーザーは用途によって従って選択を行う事が出来る。特に既にロボットを有するユーザーにとってみれば、本実施形態であるワーク認識装置を提供する事は有意義である。
ワーク認識装置3の構成は、測距部200と処理部100とで構成され、測距部200は第一実施形態の図5(A)に示した構成と同じであり、第一の光学部220と第二の光学部230をから成る。処理部100は、第一実施形態の図1に示した構成と同様である。
また、測距部200と処理部100が行う、ワーク移動のためのフローは第1実施形態と同様である。処理部100がワークを認識した後、次に、ワークの認識結果を出力する工程では、認識したワークの位置及び姿勢に関する情報を、ロボットの処理部やこれらを統括するシステム等に出力する。この出力を受け取ったロボットはワークに対する位置や姿勢に関する情報を基にワークの取り出しを行う事が可能となる。ただし、出力情報は位置及び姿勢に関する情報に限定されず、ワークを取り出すためのロボットマニピュレータの軌跡等の情報や、ロボットマニピュレータの動作タイミングなどの情報を含んでいても構わない。ここで、ワークの認識結果を出力する工程は認識工程の直後に行われても構わないし、次の撮像工程の直前に行われても構わず、処理を行うための計算機の演算仕様や出力仕様を鑑みて、好適なタイミングで出力を行うように変更する事が可能である。
また、撮像工程には、ロボットやそれを統括するシステムからの入力待ち工程が含まれても構わない。これは、複数の認識したワークに対して、ロボットによる取り出し作業を完了してから、次の撮像工程を実行するためである。また、これは、ロボットの動作と撮像工程のタイミング制御する外部のシステムからの入力を待つ工程である。
以上のような構成により、複数のワークを撮像してからワークの移動が完了するまでの時間を短縮するための処理システムを提供する事が可能となる。なお、処理部100(情報処理装置)を独立した構成とし、様々な種類の測距部およびロボットと組み合わせることも可能である。
また、上述した処理部100が実行する各工程を、処理部100に実行させるためのソフトウェア(プログラム)を、ネット物体又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(情報処理装置)(またはCPUやMPU等)がプログラムを読み出して実行することもできる。

Claims (14)

  1. 物体を撮像し、撮像して得られた画像を用いて物体の位置を認識し、認識された物体を移動させる処理を繰り返すことにより、複数の物体を移動させる移動方法であって、
    物体が配置される第1場所と2場所を区切る区切部材の推奨する配置に関する情報を表示する表示工程と、
    前記区切部材で区切られた前記第1場所と前記第2場所の各々に第1状態でバラ置きされている複数の物体を撮像して、前記第1状態における画像を取得する撮像工程と、
    前記第1状態における画像を用いて、前記第1場所に対応する第1部分領域内の第1物体の位置を認識する第1認識工程と、
    前記第1状態における画像を用いて、前記第2場所に対応する第2部分領域内の第2物体の位置を認識する第2認識工程と、
    前記第1認識工程で認識された前記第1物体を移動させる第1移動工程と、
    前記第2認識工程で認識された前記第2物体を移動させる第2移動工程と、
    を有することを特徴とする動方法。
  2. 物体を撮像し、撮像して得られた画像を用いて物体の位置を認識し、認識された物体を移動させる処理を繰り返すことにより、複数の物体を移動させる移動方法であって、
    物体が配置される第1場所と2場所とを区切る複数のパレットの推奨する配置に関する情報を表示する表示工程と、
    前記複数のパレットにより区切られた前記第1場所と前記第2場所の各々に第1状態でバラ置きされている複数の物体を撮像して、前記第1状態における画像を取得する撮像工程と、
    前記第1状態における画像を用いて、前記第1場所に対応する第1部分領域内の第1物体の位置を認識する第1認識工程と、
    前記第1状態における画像を用いて、前記第2場所に対応する第2部分領域内の第2物体の位置を認識する第2認識工程と、
    前記第1認識工程で認識された前記第1物体を移動させる第1移動工程と、
    前記第2認識工程で認識された前記第2物体を移動させる第2移動工程と、
    を有することを特徴とする動方法。
  3. 前記表示工程において、撮像して得られた画像を表示する表示部が、前記画像内に前記配置に関する情報を表示することを特徴とする請求項又はに記載の移動方法。
  4. 前記撮像工程において、パターン光を物体に投影する投影光学系を用いて前記パターン光を物体に投影して前記物体で反射されたパターン光を撮像し、
    前記表示工程において、前記投影光学系が、前記配置に関するパターン光を投影する、ことを特徴とする請求項又はに記載の移動方法。
  5. 前記撮像工程において、三角測量用の複数の光学系で前記物体を撮像し、
    前記撮像工程において、撮像画面内において、前記第1場所と前記第2場所を区切る区切部材の長手方向が、前記複数の光学系の各々の光軸を含む面に沿って配置されていることを特徴とする請求項に記載の移動方法。
  6. 前記撮像工程において、三角測量用の複数の光学系で、パレット内にある前記物体を撮像し、
    前記撮像工程において、前記複数の光学系の各々の光軸を含む面に対して垂直な断面において、前記第1場所と前記第2場所を区切る区切部材の側面と前記パレットの内底との成す角が鋭角となるように前記区切部材が配置されていることを特徴とする請求項に記載の移動方法。
  7. 前記区切部材の推奨する配置は、前記区切部材の推奨する方向であることを特徴とする請求項に記載の移動方法。
  8. 前記複数のパレットの推奨する配置は、前記複数のパレットの並びであることを特徴とする請求項に記載の移動方法。
  9. 撮像された物体の画像を取得する取得部と、
    前記画像を用いて物体の位置を認識する認識部と、を有するシステムであって、
    物体が配置される第1場所と第2場所を区切る区切部材の推奨する配置に関する情報を表示する表示部を有し、
    前記取得部は、
    前記区切部材によって区切られた前記第1場所と前記第2場所の各々に第1状態でバラ置きされている複数の物体を撮像することによって得られる、前記第1状態における画像を取得し、
    前記認識部は、
    前記第1状態における画像を用いて、前記第1場所に対応する第1部分領域内の第1物体および前記第2場所に対応する第2部分領域内の第2物体の位置を認識する、
    ことを特徴とするシステム。
  10. 撮像された物体の画像を取得する取得部と、
    前記画像を用いて物体の位置を認識する認識部と、を有するシステムであって、
    物体が配置される第1場所と第2場所とを区切る複数のパレットの推奨する配置に関する情報を表示する表示部を有し、
    前記取得部は、
    前記複数のパレットによって区切られた前記第1場所と前記第2場所の各々に第1状態でバラ置きされている複数の物体を撮像することによって得られる、前記第1状態における画像を取得し、
    前記認識部は、
    前記第1状態における画像を用いて、前記第1場所に対応する第1部分領域内の第1物体および前記第2場所に対応する第2部分領域内の第2物体の位置を認識する、
    ことを特徴とするシステム。
  11. 前記表示部は、撮像して得られた画像を表示し、前記画像内に前記配置に関する情報を表示することを特徴とする請求項9又は10に記載のシステム。
  12. 前記表示部は、パターン光を物体に投影する投影光学系であって、前記投影光学系が前記配置に関するパターン光を投影する、ことを特徴とする請求項9又は10に記載のシステム。
  13. 前記区切部材の推奨する配置は、前記区切部材の推奨する方向であることを特徴とする請求項9に記載のシステム。
  14. 前記複数のパレットの推奨する配置は、前記複数のパレットの並びであることを特徴とする請求項10に記載のシステム。
JP2015039404A 2015-02-27 2015-02-27 物体移動方法及びシステム Expired - Fee Related JP6576050B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015039404A JP6576050B2 (ja) 2015-02-27 2015-02-27 物体移動方法及びシステム
US15/051,549 US9916512B2 (en) 2015-02-27 2016-02-23 Information processing apparatus, processing system, object moving system, and object moving method
CN201610107874.6A CN105922268B (zh) 2015-02-27 2016-02-26 信息处理装置、处理系统、物体移动系统和物体移动方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015039404A JP6576050B2 (ja) 2015-02-27 2015-02-27 物体移動方法及びシステム

Publications (2)

Publication Number Publication Date
JP2016159387A JP2016159387A (ja) 2016-09-05
JP6576050B2 true JP6576050B2 (ja) 2019-09-18

Family

ID=56798992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015039404A Expired - Fee Related JP6576050B2 (ja) 2015-02-27 2015-02-27 物体移動方法及びシステム

Country Status (3)

Country Link
US (1) US9916512B2 (ja)
JP (1) JP6576050B2 (ja)
CN (1) CN105922268B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10252417B2 (en) * 2016-03-02 2019-04-09 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and storage medium
US10318843B2 (en) * 2016-03-30 2019-06-11 Rakuten Kobo, Inc. Method and apparatus for image processing and comparison based on spatial relationships between image features
JP2018034242A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
KR102474345B1 (ko) * 2016-12-14 2022-12-05 현대자동차 주식회사 차량용 갭 단차 측정기를 구비한 갭 단차 측정 시스템
US10360531B1 (en) * 2016-12-19 2019-07-23 Amazon Technologies, Inc. Robot implemented item manipulation
JP7233858B2 (ja) * 2018-06-13 2023-03-07 オムロン株式会社 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
JP7467041B2 (ja) * 2018-09-27 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法及びシステム
JP2020142323A (ja) * 2019-03-06 2020-09-10 オムロン株式会社 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4199264B2 (ja) * 2006-05-29 2008-12-17 ファナック株式会社 ワーク取り出し装置及び方法
JP5273146B2 (ja) * 2008-08-27 2013-08-28 村田機械株式会社 ピッキングシステムおよびピッキング方法
JP5201411B2 (ja) * 2008-11-21 2013-06-05 株式会社Ihi バラ積みピッキング装置とその制御方法
JP5685027B2 (ja) * 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
JP2013078825A (ja) * 2011-10-04 2013-05-02 Yaskawa Electric Corp ロボット装置、ロボットシステムおよび被加工物の製造方法
JP5582126B2 (ja) * 2011-10-13 2014-09-03 株式会社安川電機 ワーク取出システム、ロボット装置および被加工物の製造方法
JP2014176922A (ja) * 2013-03-14 2014-09-25 Yaskawa Electric Corp ロボットシステムおよび被加工物の製造方法

Also Published As

Publication number Publication date
CN105922268B (zh) 2019-05-03
JP2016159387A (ja) 2016-09-05
CN105922268A (zh) 2016-09-07
US20160253562A1 (en) 2016-09-01
US9916512B2 (en) 2018-03-13

Similar Documents

Publication Publication Date Title
JP6576050B2 (ja) 物体移動方法及びシステム
JP6140204B2 (ja) 3次元センサを備えた搬送ロボットシステム
US9233469B2 (en) Robotic system with 3D box location functionality
JP6879238B2 (ja) ワークピッキング装置及びワークピッキング方法
JP5582126B2 (ja) ワーク取出システム、ロボット装置および被加工物の製造方法
JP6529302B2 (ja) 情報処理装置、情報処理方法、プログラム
US9764475B2 (en) Workpiece taking out robot system having conversion-calculation function of position and orientation, and workpiece taking out method
JP6348097B2 (ja) ワーク位置姿勢算出装置およびハンドリングシステム
JP2018144144A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
CN110587592B (zh) 机器人控制装置、机器人控制方法及计算机可读记录介质
CN113386122B (zh) 测量参数的优化方法和装置以及计算机可读存储介质
JP2017124450A (ja) ピックアップ装置
US11126844B2 (en) Control apparatus, robot system, and method of detecting object
CN113284178B (zh) 物体码垛方法、装置、计算设备及计算机存储介质
JP7454132B2 (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
JP2010210511A (ja) 対象物の3次元位置・姿勢認識装置及びその方法
CN116419829A (zh) 测量系统、测量装置、测量方法以及测量程序
JP2017182113A (ja) ワーク判定装置及び方法
JP7233508B2 (ja) 形状測定装置及び形状測定方法
EP4094904B1 (en) Robot system control device, robot system control method, computer control program, and robot system
JP2020091126A (ja) 計測装置、システム、表示方法及びプログラム
JP6512852B2 (ja) 情報処理装置、情報処理方法
JP2010146357A (ja) 3次元画像処理方法および3次元画像処理装置
JP7481867B2 (ja) 制御装置及びプログラム
JP7261597B2 (ja) 移載対象ワーク記憶システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190820

R151 Written notification of patent or utility model registration

Ref document number: 6576050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees