JP2020183019A - ワーク識別方法 - Google Patents

ワーク識別方法 Download PDF

Info

Publication number
JP2020183019A
JP2020183019A JP2019088965A JP2019088965A JP2020183019A JP 2020183019 A JP2020183019 A JP 2020183019A JP 2019088965 A JP2019088965 A JP 2019088965A JP 2019088965 A JP2019088965 A JP 2019088965A JP 2020183019 A JP2020183019 A JP 2020183019A
Authority
JP
Japan
Prior art keywords
work
body portion
uppermost
determined
soft body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019088965A
Other languages
English (en)
Other versions
JP7183941B2 (ja
Inventor
亮 津久井
Akira Tsukui
亮 津久井
将樹 小池
Masaki Koike
小池  将樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019088965A priority Critical patent/JP7183941B2/ja
Priority to KR1020200045183A priority patent/KR102475773B1/ko
Priority to US16/847,963 priority patent/US20200353583A1/en
Priority to CN202010373782.9A priority patent/CN111914608B/zh
Publication of JP2020183019A publication Critical patent/JP2020183019A/ja
Priority to KR1020220122472A priority patent/KR20220139254A/ko
Application granted granted Critical
Publication of JP7183941B2 publication Critical patent/JP7183941B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/2433Detection of presence or absence
    • B23Q17/2447Detection of presence or absence of a workpiece
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/2452Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves for measuring features or for detecting a condition of machine parts, tools or workpieces
    • B23Q17/2471Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves for measuring features or for detecting a condition of machine parts, tools or workpieces of workpieces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/248Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves using special electromagnetic means or methods
    • B23Q17/249Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves using special electromagnetic means or methods using image analysis, e.g. for radar, infrared or array camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30172Centreline of tubular or elongated structure
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01RELECTRICALLY-CONDUCTIVE CONNECTIONS; STRUCTURAL ASSOCIATIONS OF A PLURALITY OF MUTUALLY-INSULATED ELECTRICAL CONNECTING ELEMENTS; COUPLING DEVICES; CURRENT COLLECTORS
    • H01R43/00Apparatus or processes specially adapted for manufacturing, assembling, maintaining, or repairing of line connectors or current collectors or for joining electric conductors

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)

Abstract

【課題】複数のワークの軟体部が交差する態様で複数のワークがワーク置き場に存在している(バラ積みされている)場合に、これらのワークの中から最も上方に位置する最上位ワークを識別することができるワーク識別方法を提供する。【解決手段】撮像によって取得した画像VDに基づいて、ワーク置き場WSにワーク80が存在するか否かを判定し、ワーク80が存在すると判定した場合に、画像VDに基づいて、ワーク置き場WSにおいて複数のワーク80の軟体部85が交差して重なる交差部CPが存在するか否かを判定し、交差部CPが存在すると判定した場合に、画像VDに基づいて、交差している複数の軟体部85のうち最も上方に位置する最上位軟体部85Tを判別し、判別した最上位軟体部85Tを有するワーク80を、最も上方に位置する最上位ワーク80Tと決定する。【選択図】図3

Description

本発明は、ワーク識別方法に関する。
特許文献1には、以下のようなワークピッキング方法が開示されている。具体的には、バラ積みされたワークを距離センサで三次元計測し、得られた計測結果とワークの三次元CADモデルとを照合することによって、個別のワークの三次元位置と姿勢を認識する。その後、ロボットハンドによって、三次元位置と姿勢を認識したワークをピッキングする。
特開2010−69542号公報
ところで、剛体部と自由線形状である軟体部とによって構成されるワークを、ピッキング対象とする場合がある。このようなワークとしては、例えば、剛体部であるコネクタと、自由線形状の軟体部であるケーブルとによって構成されるワイヤーハーネスがある。このようなワークがバラ積みされている場合は、特許文献1のピッキング方法では、適切に、個別のワークをピッキングすることができないことがあった。
具体的には、まず、剛体部と自由線形状である軟体部とによって構成されるワークでは、剛体部の三次元CADデータは存在するが、自由線形状(換言すれば、不定形)である軟体部の三次元CADデータは存在しない。このため、特許文献1のように、ワークの三次元計測データと三次元CADデータとをマッチングさせる場合は、三次元CADデータが存在する剛体部について、三次元計測データと三次元CADデータとをマッチングさせて、剛体部の三次元位置と姿勢を認識することになる。従って、三次元CADデータが存在しない軟体部については、その三次元位置と姿勢を認識することができない。このため、剛体部の三次元計測データと三次元CADデータとのマッチングによって剛体部の三次元位置と姿勢を認識した後、当該剛体部を把持するようにして、当該剛体部を有するワークをピッキングする。
しかしながら、複数のワークの軟体部が交差する態様で複数のワークが存在している(バラ積みされている)場合には、三次元位置と姿勢を認識した剛体部を有するワークの軟体部の上に、他のワークの軟体部が交差する態様で重なっている場合がある。このような場合に、ロボットハンドによって、三次元位置と姿勢を認識した剛体部を把持するようにして当該剛体部を有するワークを持ち上げると、当該ワークの軟体部の上に交差する態様で軟体部が重なっているワークも一緒に持ち上げることになる。このため、ロボットハンドによって複数のワークを同時に持ち上げることになり、ロボットハンドによって把持するワークの想定重量(許容重量)を上回ることになる。その結果、ロボットハンドによるワークの把持状態を維持することができなくなり、把持したワーク及びこれと一緒に持ち上げたワークを落下させてしまう虞がある。このため、複数のワークの軟体部が交差する態様で複数のワークがワーク置き場に存在している(バラ積みされている)場合に、これらのワークの中から最も上方に位置する最上位ワークを識別する方法が求められていた。
本発明は、かかる現状に鑑みてなされたものであって、複数のワークの軟体部が交差する態様で複数のワークがワーク置き場に存在している(バラ積みされている)場合に、これらのワークの中から最も上方に位置する最上位ワークを識別することができるワーク識別方法を提供することを目的とする。
本発明の一態様は、剛体部と自由線形状である軟体部とによって構成されるワークが複数置かれるワーク置き場を撮像し、前記撮像によって取得した画像に基づいて、前記ワーク置き場に前記ワークが存在するか否かを判定し、前記ワークが存在すると判定した場合に、前記画像に基づいて、前記ワーク置き場において前記複数のワークの前記軟体部が交差して重なる交差部が存在するか否かを判定し、前記交差部が存在すると判定した場合に、前記画像に基づいて、交差している複数の前記軟体部のうち最も上方に位置する最上位軟体部を判別し、判別した前記最上位軟体部を有する前記ワークを、最も上方に位置する最上位ワークと決定するワーク識別方法である。
上述のワーク識別方法では、剛体部と自由線形状(線状をなす自由形状)である軟体部とによって構成されるワークを識別対象とする。このワーク識別方法によれば、複数のワークの軟体部が交差する態様で複数のワークがワーク置き場に存在している(バラ積みされている)場合において、これらのワークから、最も上方に位置する最上位ワークを識別することができる。
上述のワーク識別方法は、例えば、剛体部と自由線形状(換言すれば、不定形の線形状)である軟体部とによって構成されるワークが複数置かれるワーク置き場を撮像する撮像ステップと、前記撮像ステップの撮像によって取得した画像に基づいて、前記ワーク置き場に前記ワークが存在するか否かを判定するワーク有無判定ステップと、前記ワーク有無判定ステップにおいて前記ワークが存在すると判定した場合に、前記画像に基づいて、前記ワーク置き場において前記複数のワークの前記軟体部が交差して重なる交差部が存在するか否かを判定する交差部有無判定ステップと、前記交差部有無判定ステップにおいて前記交差部が存在すると判定した場合に、前記画像に基づいて、交差している複数の前記軟体部のうち最も上方に位置する最上位軟体部を判別する最上位軟体部判別ステップと、前記最上位軟体部判別ステップにおいて判別した前記最上位軟体部を有する前記ワークを、最も上方に位置する最上位ワークと決定する最上位ワーク決定ステップと、を備えるワーク識別方法である。
さらに、前記のワーク識別方法であって、前記最上位軟体部を判別した後で、且つ、前記最上位ワークを決定する前に、前記画像に基づいて、判別した前記最上位軟体部を有する前記ワークについて、前記軟体部及び前記剛体部を認識できるか否かを判定し、前記軟体部及び前記剛体部を認識できると判定した場合に、前記最上位軟体部を有する前記ワークを前記最上位ワークと決定するワーク識別方法とすると良い。
上述のワーク識別方法では、判別した最上位軟体部を有するワークについて、軟体部及び剛体部を認識できるか否かを判定する。ここで、最上位軟体部を有するワークについて軟体部及び剛体部を認識できる場合とは、例えば、取得した画像に軟体部の全体及び剛体部の全体が現れており、取得した画像において軟体部の全体及び剛体部の全体を確認できる場合である。このように、判別した最上位軟体部を有するワークにおいて軟体部及び剛体部を認識することで、当該ワークが剛体部と軟体部とによって構成された(剛体部と軟体部とが一体となった)ワークであることを確認できる。このようにすることで、最上位ワークをより適切に識別することができる。
上述のワーク識別方法は、例えば、前記のワーク識別方法であって、前記最上位軟体部判別ステップの後であって前記最上位ワーク決定ステップの前に、前記画像に基づいて、前記最上位軟体部判別ステップにおいて判別した前記最上位軟体部を有する前記ワークについて、前記軟体部及び前記剛体部を認識できるか否かを判定するワーク認識可否判定ステップを備え、前記ワーク認識可否判定ステップにおいて前記軟体部及び前記剛体部を認識できると判定した場合に、前記最上位ワーク決定ステップにおいて、前記最上位軟体部を有する前記ワークを前記最上位ワークと決定するワーク識別方法である。
実施形態にかかる把持装置の構成図である。 ワークの平面図である。 実施形態にかかるワーク識別方法の流れを示すフローチャートである。 撮像によって取得した画像の一例である。 同画像の部分拡大図である。 実施形態にかかるワーク識別方法を説明する図である。
次に、本発明の実施形態について、図面を参照しつつ説明する。図1は、実施形態にかかる把持装置1の構成図である。把持装置1は、図1に示すように、把持ロボット10と、3Dビジョンセンサ20と、2Dビジョンセンサ30と、画像分析部40と、ロボットコントローラ50と、3Dビジョンコントローラ60と、フレーム70とを備える。
この把持装置1は、ワーク置き場WSであるワーク収容箱90の内部に置かれている(バラ積みされている)1または複数のワーク80を、1つずつ順に把持してワーク収容箱90内から取り出す装置である。なお、本実施形態のワーク80は、図2に示すように、剛体部であるコネクタ81,82と自由線形状(換言すれば、不定形の線形状)の軟体部であるケーブル85とによって構成されたワイヤーハーネスである。
把持ロボット10は、図1に示すように、ワーク80を把持する把持部11と、この把持部11に連結された多関節アーム部12とを備える。この把持ロボット10は、把持部11によって、ワーク置き場WS(ワーク収容箱90の内部)に位置するワーク80の剛体部(コネクタ81またはコネクタ82)を把持し、把持したワーク80を、ワーク置き場WS(ワーク収容箱90の内部)から取り出す。なお、本実施形態では、多関節アーム部12を、安川電機社製の多関節ロボット(YASUKAWA GP-7)により構成している。
3Dビジョンセンサ20は、公知の3D(三次元)ビジョンセンサであり、フレーム70の天井部に取り付けられている。この3Dビジョンセンサ20は、ワーク置き場WSであるワーク収容箱90の内部に位置するワーク80の三次元計測データ(三次元画像データ)を生成する。なお、本実施形態では、3Dビジョンセンサ20を、Canon社製のマシンビジョン(RV500)により構成している。
2Dビジョンセンサ30は、公知の2D(二次元)ビジョンセンサであり、把持ロボット10の先端部に取り付けられている。この2Dビジョンセンサ30は、ワーク置き場WSであるワーク収容箱90の内部を撮像して、ワーク収容箱90の内部の二次元画像VD(二次元画像データ、図4参照)を生成する。
画像分析部40は、AI(人工知能)等を構成するコンピュータであり、2Dビジョンセンサ30によって生成されたワーク80の二次元画像VD(二次元画像データ)を取得し、これを分析する。具体的には、画像分析部40は、例えば、2Dビジョンセンサ30によって生成された二次元画像VD(二次元画像データ)を取得し、取得した二次元画像VD(図4参照)に基づいて、ワーク置き場WSであるワーク収容箱90の内部にワーク80が存在するか否かを判定する。
さらに、画像分析部40は、ワーク80が存在すると判定した場合に、取得した二次元画像VDに基づいて、ワーク置き場WS(ワーク収容箱90の内部)において、複数のワーク80のケーブル85(軟体部)が交差して重なる交差部CP(図4及び図5参照)が存在するか否かを判定する。さらに、画像分析部40は、交差部CPが存在すると判定した場合に、取得した二次元画像VDに基づいて、交差している複数のケーブル85(軟体部)のうち最も上方(図4及び図5において最も紙面手前側)に位置する最上位ケーブル85T(最上位軟体部)を判別する(図5参照)。
なお、画像分析部40には、ワーク置き場WS(ワーク収容箱90の内部)に複数のワーク80が様々な位置に配置されている複数の配置パターンの画像と、それぞれの配置パターンにおける最上位ケーブル85T(最上位軟体部)との組み合わせデータを、予め記憶(教示)させて学習させてある。このような画像分析部40は、取得した二次元画像VD(図4及び図5参照)に基づいて、交差している複数のケーブル85(軟体部)から最上位ケーブル85T(最上位軟体部)を判別(識別)する処理を行うことが可能となっている。
さらに、画像分析部40は、取得した二次元画像VDに基づいて、判別した最上位ケーブル85Tを有するワーク80(図6に示す例では、図6に示す2つのワーク80のうち、剛体部であるコネクタ82が図6において上方に位置するワーク80)について、軟体部であるケーブル85及び剛体部であるコネクタ81,82を認識できるか否かを判定する。具体的には、例えば、取得した二次元画像VDに、ケーブル85(軟体部)の全体及びコネクタ81,82(剛体部)の全体が現れており、取得した二次元画像VDにおいてケーブル85(軟体部)の全体及びコネクタ81,82(剛体部)の全体を確認できる場合には、判別した最上位ケーブル85Tを有するワーク80について、軟体部であるケーブル85(最上位ケーブル85T)及び剛体部であるコネクタ81,82を認識できると判定する(図6参照)。
このように、判別した最上位ケーブル85T(最上位軟体部)を有するワーク80において、ケーブル85(軟体部)及びコネクタ81,82(剛体部)を認識することで、当該ワーク80が、剛体部であるコネクタ81,82と軟体部であるケーブル85とによって構成されたワイヤーハーネス(換言すれば、剛体部であるコネクタ81,82と軟体部であるケーブル85とが一体となったワイヤーハーネス)であることを確認できる。
さらに、画像分析部40は、軟体部であるケーブル85(最上位ケーブル85T)及び剛体部であるコネクタ81,82を認識できると判定した場合に、最上位ケーブル85Tを有するワーク80を最上位ワーク80Tと決定する。なお、本実施形態では、画像分析部40のソフトウエアとして、COGNEX社製のVisionPro ViDiを用いている。
3Dビジョンコントローラ60は、3Dビジョンセンサ20によって生成された三次元計測データ(三次元画像データ)を取得して処理する装置である。この3Dビジョンコントローラ60には、予め、ワーク80のコネクタ81,82(剛体部)の三次元CADデータを記憶させている。この3Dビジョンコントローラ60は、例えば、3Dビジョンセンサ20によって生成されたワーク置き場WS(ワーク収容箱90の内部)に位置するワーク80の三次元計測データ(三次元画像データ)を取得し、この取得した三次元計測データ(三次元画像データ)から選択した剛体部(コネクタ81またはコネクタ82)の三次元計測データと、剛体部(コネクタ81またはコネクタ82)の三次元CADデータとをマッチングさせることによって、ワーク80の剛体部(コネクタ81またはコネクタ82)の三次元位置と姿勢を認識(検出)する。
ロボットコントローラ50は、把持ロボット10の動きを制御する装置である。このロボットコントローラ50は、画像分析部40による処理結果、または、3Dビジョンコントローラ60による処理結果に基づいて、把持ロボット10の動きを制御する。具体的には、例えば、ロボットコントローラ50は、3Dビジョンコントローラ60によって認識(検出)されたワーク80の剛体部(コネクタ81またはコネクタ82)の三次元位置と姿勢に基づいて、把持ロボット10の多関節アーム部12及び把持部11の動作を制御することによって、把持部11によってワーク80の剛体部(コネクタ81またはコネクタ82)を把持させて、このワーク80をワーク置き場WS(ワーク収容箱90の内部)から取り出させる制御を行う。
次に、本実施形態のワーク識別方法について説明する。図3は、実施形態にかかるワーク識別方法の流れを示すフローチャートである。まず、ステップS1(撮像ステップ)において、2Dビジョンセンサ30によって、ワーク置き場WSであるワーク収容箱90の内部を撮像して、ワーク収容箱90の内部の二次元画像VD(二次元画像データ、図4参照)を生成する。次いで、ステップS2(ワーク有無判定ステップ)において、画像分析部40は、2Dビジョンセンサ30によって生成された二次元画像VD(二次元画像データ)を取得し、取得した二次元画像VD(図4参照)に基づいて、ワーク置き場WSであるワーク収容箱90の内部にワーク80が存在するか否かを判定する。
ステップS2において、ワーク置き場WS(ワーク収容箱90の内部)にワーク80が存在しない(NO)と判定した場合、ステップS9に進み、画像分析部40は、ワーク収容箱90の内部が空であると判定し、一連のワーク識別処理を終了する。一方、ワーク置き場WS(ワーク収容箱90の内部)にワーク80が存在すると判定した場合は、ステップS3(交差部有無判定ステップ)に進み、画像分析部40は、取得した二次元画像VDに基づいて、ワーク置き場WS(ワーク収容箱90の内部)において、複数のワーク80のケーブル85(軟体部)が交差して重なる交差部CP(図4及び図5参照)が存在するか否かを判定する。
ステップS3において、交差部CPが存在しない(NO)と判定した場合は、後述するステップS6に進む。一方、ステップS3において、交差部CPが存在する(YES)と判定した場合は、ステップS4(最上位軟体部判別ステップ)に進み、画像分析部40は、取得した二次元画像VD(図4及び図5参照)に基づいて、交差している複数のケーブル85(軟体部)のうち最も上方(図4及び図5において最も紙面手前側)に位置する最上位ケーブル85T(最上位軟体部)を判別することが可能であるか否かを判定する。
ステップS4において、画像分析部40は、最上位ケーブル85T(最上位軟体部)を判別することができない(NO)と判定した場合は、ステップS10に進み、識別不具合と判定する。その後、一連のワーク識別処理を終了する。一方、ステップS4において、最上位ケーブル85T(最上位軟体部)を判別することができる(YES)と判定した場合は、ステップS5(最上位軟体部判別ステップ)において、交差している複数のケーブル85(軟体部)のうち最も上方に位置すると判別したケーブル85を、最上位ケーブル85T(最上位軟体部)として確定する(図4及び図5参照)。
次に、ステップS6(ワーク認識可否判定ステップ)において、画像分析部40は、取得した二次元画像VDに基づいて、判別(確定)した最上位ケーブル85Tを有するワーク80について、軟体部であるケーブル85及び剛体部であるコネクタ81,82を認識できるか否かを判定する。なお、図4〜図6に示す例では、図4〜図6に示す2つのワーク80のうち、剛体部であるコネクタ82が図において上方に位置するワーク80が、最上位ケーブル85Tを有するワーク80になる。
具体的には、例えば、図6に示すように、取得した二次元画像VDに、最上位ケーブル85Tを有するワーク80(図6において二点鎖線で囲んだワーク80)について、ケーブル85(軟体部)の全体及びコネクタ81,82(剛体部)の全体が現れており、取得した二次元画像VDにおいてケーブル85(軟体部)の全体及びコネクタ81,82(剛体部)の全体を確認できる場合には、最上位ケーブル85Tを有するワーク80において、軟体部であるケーブル85(最上位ケーブル85T)及び剛体部であるコネクタ81,82を認識できると判定する。
ステップS6において、最上位ケーブル85Tを有するワーク80について、ケーブル85及びコネクタ81,82のいずれかを認識することができない(NO)と判定した場合は、ステップS10に進み、識別不具合と判定する。その後、一連のワーク識別処理を終了する。一方、ステップS6において、最上位ケーブル85Tを有するワーク80について、ケーブル85及びコネクタ81,82を認識することができる(YES)と判定した場合は、ステップS7(最上位ワーク決定ステップ)において、画像分析部40は、最上位ケーブル85Tを有するワーク80を、最上位ワーク80Tとして決定する。
以上説明したように、本実施形態のワーク識別方法によれば、複数のワーク80の軟体部(ケーブル85)が交差する態様で、複数のワーク80がワーク置き場WS(ワーク収容箱90の内部)に存在している(バラ積みされている)場合において、これらのワーク80から、最も上方に位置する最上位ワーク80Tを識別することができる。
次に、ステップS8に進み、把持ロボット10の把持部11によって、最上位ワーク80Tの剛体部(コネクタ81またはコネクタ82)を把持し、把持した最上位ワーク80Tを、ワーク置き場WS(ワーク収容箱90の内部)から取り出す。
具体的には、まず、3Dビジョンセンサ20によって、ワーク置き場WS(ワーク収容箱90の内部)に位置する最上位ワーク80Tの三次元計測データ(三次元画像データ)を生成する。その後、3Dビジョンコントローラ60が、3Dビジョンセンサ20によって生成された最上位ワーク80Tの三次元計測データを取得する。さらに、3Dビジョンコントローラ60は、取得した三次元計測データから、最上位ワーク80Tの剛体部(コネクタ81またはコネクタ82)を検出し、検出した剛体部(コネクタ81またはコネクタ82)の三次元計測データと、剛体部(コネクタ81またはコネクタ82)の三次元CADデータとをマッチングさせることによって、最上位ワーク80Tの剛体部(コネクタ81またはコネクタ82)の三次元位置と姿勢を認識(検出)する。
次に、ロボットコントローラ50が、3Dビジョンコントローラ60によって認識(検出)された最上位ワーク80Tの剛体部(コネクタ81またはコネクタ82)の三次元位置と姿勢に基づいて、把持ロボット10の多関節アーム部12及び把持部11の動作を制御して、把持部11によって、最上位ワーク80Tの剛体部(コネクタ81またはコネクタ82)を把持させる。例えば、ロボットコントローラ50は、3Dビジョンコントローラ60によって認識(検出)された最上位ワーク80Tのコネクタ82(剛体部)の三次元位置と姿勢に基づいて、把持ロボット10の多関節アーム部12及び把持部11の動作を制御して、把持部11によって、最上位ワーク80Tのコネクタ82(剛体部)を把持させる。
その後、把持部11によって把持された最上位ワーク80Tは、ロボットコントローラ50の制御によって、把持ロボット10によってワーク置き場WS(ワーク収容箱90の内部)から取り出される。
(最上位ワーク識別試験)
次に、最上位ワーク識別試験について説明する。本試験では、ワーク置き場WS(ワーク収容箱90の内部)にバラ積みするワーク80の数を、2本、3本、または4本と異ならせて、それぞれの場合について、実施形態の把持装置1によって最上位ワーク80T(ワーク置き場WSにおいて最も上方に位置するワーク80)を識別できるか否かを調査した。
具体的には、例えば、ワーク置き場WSに2本のワーク80を無作為に配置(バラ積み)した場合について、実施形態の把持装置1によって、最上位ワーク80Tを識別して把持できるか否かの試験を複数回(例えば、100回)行って、最上位ワーク80Tの識別の成功率(最上位ワーク識別率という)を調査した。なお、最上位ワーク80Tの識別に成功したか否かの判定は、把持装置1によって最上位ワーク80Tを把持したか否かによって行った。ワーク置き場WSにバラ積みするワーク80の数を、3本または4本にした場合についても、同様にして試験を行った。これらの結果を、最上位ワーク識別率(%)として、表1に示す。
また、ワーク置き場WSにおいて交差している複数のケーブル85(軟体部)から最上位ケーブル85T(最上位軟体部)を判別(識別)するために、予め画像分析部40に教示した画像の数(教示画像数とする、表1参照)は、ワーク置き場WSにバラ積みされたワーク80の数が2本である場合には10枚、3本である場合には30枚、4本である場合には50枚としている。より具体的には、ワーク置き場WSにバラ積みされたワーク80の数が2本である場合には、10通りのワーク80の配置(バラ積み)パターンの画像データ(10枚の画像)と、それぞれの配置パターンにおける最上位ケーブル85T(最上位軟体部)との組み合わせデータを、予め、画像分析部40に教示している。
ワーク置き場WSにバラ積みされたワーク80の数が3本である場合には、30通りのワーク80の配置(バラ積み)パターンの画像データ(30枚の画像)と、それぞれの配置パターンにおける最上位ケーブル85T(最上位軟体部)との組み合わせデータを、予め、画像分析部40に教示している。ワーク置き場WSにバラ積みされたワーク80の数が4本である場合には、50通りのワーク80の配置(バラ積み)パターンの画像データ(50枚の画像)と、それぞれの配置パターンにおける最上位ケーブル85T(最上位軟体部)との組み合わせデータを、予め、画像分析部40に教示している。
Figure 2020183019
表1に示すように、ワーク置き場WSにバラ積みされたワーク80の数が2本である場合には、最上位ワーク識別率が100%となった。すなわち、複数回(例えば、100回)行った全ての試験において、最上位ワーク80T(最上位ケーブル85T)の識別を誤ることなく、最上位ワーク80Tを識別して把持することができた。また、ワーク置き場WSにバラ積みするワーク80の数を3本にした場合は、最上位ワーク識別率が97%となった。また、ワーク置き場WSにバラ積みするワーク80の数を4本にした場合でも、最上位ワーク識別率が85%となり、高い識別率を得ることができた。
以上において、本発明を実施形態に即して説明したが、本発明は上記実施形態に限定されるものではなく、その要旨を逸脱しない範囲で、適宜変更して適用できることはいうまでもない。
例えば、実施形態では、識別対象となるワーク80として、剛体部であるコネクタ81,82と自由線形状の軟体部であるケーブル85とによって構成されたワイヤーハーネスを例示した。しかしながら、本発明の識別対象となるワークは、ワイヤーハーネスに限定されるものではなく、剛体部と自由線形状である軟体部とによって構成されるワークであれば、いずれのワークであっても良い。
1 把持装置
10 把持ロボット
20 3Dビジョンセンサ
30 2Dビジョンセンサ
40 画像分析部
50 ロボットコントローラ
60 3Dビジョンコントローラ
80 ワーク(ワイヤーハーネス)
80T 最上位ワーク
81,82 コネクタ(剛体部)
85 ケーブル(軟体部)
85T 最上位ケーブル(最上位軟体部)
90 ワーク収容箱
CP 交差部
VD 二次元画像
WS ワーク置き場

Claims (2)

  1. 剛体部と自由線形状である軟体部とによって構成されるワークが複数置かれるワーク置き場を撮像し、
    前記撮像によって取得した画像に基づいて、前記ワーク置き場に前記ワークが存在するか否かを判定し、
    前記ワークが存在すると判定した場合に、前記画像に基づいて、前記ワーク置き場において前記複数のワークの前記軟体部が交差して重なる交差部が存在するか否かを判定し、
    前記交差部が存在すると判定した場合に、前記画像に基づいて、交差している複数の前記軟体部のうち最も上方に位置する最上位軟体部を判別し、
    判別した前記最上位軟体部を有する前記ワークを、最も上方に位置する最上位ワークと決定する
    ワーク識別方法。
  2. 請求項1に記載のワーク識別方法であって、
    前記最上位軟体部を判別した後で、且つ、前記最上位ワークを決定する前に、前記画像に基づいて、判別した前記最上位軟体部を有する前記ワークについて、前記軟体部及び前記剛体部を認識できるか否かを判定し、
    前記軟体部及び前記剛体部を認識できると判定した場合に、前記最上位軟体部を有する前記ワークを前記最上位ワークと決定する
    ワーク識別方法。
JP2019088965A 2019-05-09 2019-05-09 ワーク識別方法 Active JP7183941B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019088965A JP7183941B2 (ja) 2019-05-09 2019-05-09 ワーク識別方法
KR1020200045183A KR102475773B1 (ko) 2019-05-09 2020-04-14 워크 식별 방법
US16/847,963 US20200353583A1 (en) 2019-05-09 2020-04-14 Workpiece identification method
CN202010373782.9A CN111914608B (zh) 2019-05-09 2020-05-06 工件识别方法
KR1020220122472A KR20220139254A (ko) 2019-05-09 2022-09-27 워크 식별 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019088965A JP7183941B2 (ja) 2019-05-09 2019-05-09 ワーク識別方法

Publications (2)

Publication Number Publication Date
JP2020183019A true JP2020183019A (ja) 2020-11-12
JP7183941B2 JP7183941B2 (ja) 2022-12-06

Family

ID=73044422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019088965A Active JP7183941B2 (ja) 2019-05-09 2019-05-09 ワーク識別方法

Country Status (3)

Country Link
US (1) US20200353583A1 (ja)
JP (1) JP7183941B2 (ja)
KR (2) KR102475773B1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6777682B2 (ja) * 2018-04-27 2020-10-28 ファナック株式会社 複数の把持部を備えるロボットハンド、及びロボットハンドを用いてワイヤハーネスをハンドリングする方法
JP7120153B2 (ja) * 2019-05-21 2022-08-17 トヨタ自動車株式会社 ワーク識別方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000304509A (ja) * 1999-04-21 2000-11-02 Matsushita Electric Works Ltd 物体特定方法及び装置
JP2010184308A (ja) * 2009-02-10 2010-08-26 Fanuc Ltd ワーク取り出し装置
JP2015150680A (ja) * 2014-02-19 2015-08-24 矢崎総業株式会社 ワイヤハーネス部品移送装置、端子圧着電線製造装置、ワイヤハーネス部品移送方法、端子圧着電線の製造方法
JP2016196077A (ja) * 2015-04-06 2016-11-24 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3768174B2 (ja) * 2002-07-24 2006-04-19 ファナック株式会社 ワーク取出し装置
JP3805302B2 (ja) * 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置
JP4087874B2 (ja) * 2006-02-01 2008-05-21 ファナック株式会社 ワーク取り出し装置
JP4226623B2 (ja) * 2006-09-29 2009-02-18 ファナック株式会社 ワーク取り出し装置
US9154773B2 (en) * 2013-03-15 2015-10-06 Seiko Epson Corporation 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations
JP6725587B2 (ja) * 2018-05-18 2020-07-22 ファナック株式会社 バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法
JP6823008B2 (ja) * 2018-05-18 2021-01-27 ファナック株式会社 バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法
JP7015265B2 (ja) * 2019-03-14 2022-02-02 ファナック株式会社 コネクタを含むワークを把持する作業ツールおよび作業ツールを備えるロボット装置
JP7120153B2 (ja) * 2019-05-21 2022-08-17 トヨタ自動車株式会社 ワーク識別方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000304509A (ja) * 1999-04-21 2000-11-02 Matsushita Electric Works Ltd 物体特定方法及び装置
JP2010184308A (ja) * 2009-02-10 2010-08-26 Fanuc Ltd ワーク取り出し装置
JP2015150680A (ja) * 2014-02-19 2015-08-24 矢崎総業株式会社 ワイヤハーネス部品移送装置、端子圧着電線製造装置、ワイヤハーネス部品移送方法、端子圧着電線の製造方法
JP2016196077A (ja) * 2015-04-06 2016-11-24 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
KR20200130110A (ko) 2020-11-18
CN111914608A (zh) 2020-11-10
JP7183941B2 (ja) 2022-12-06
KR102475773B1 (ko) 2022-12-08
KR20220139254A (ko) 2022-10-14
US20200353583A1 (en) 2020-11-12

Similar Documents

Publication Publication Date Title
JP7120153B2 (ja) ワーク識別方法
JP6983524B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7467041B2 (ja) 情報処理装置、情報処理方法及びシステム
US9008841B2 (en) Robotic picking of parts from a parts holding bin
JP5778311B1 (ja) ピッキング装置およびピッキング方法
CN105598987B (zh) 借助机器人确定关于对象的抓取空间
US20180290307A1 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
JP7191569B2 (ja) 把持装置
KR20220139254A (ko) 워크 식별 방법
KR20190073282A (ko) 파지 장치, 학습 장치, 학습 완료 모델, 파지 시스템, 판정 방법, 및 학습 방법
CN108290286A (zh) 用于教导工业机器人拾取零件的方法
US10434652B2 (en) Workpiece picking system
JP7481427B2 (ja) 取り出しシステム及び方法
CN114029243B (zh) 一种用于分拣机器手的软物抓取识别方法
CN114025928A (zh) 末端执行器的控制系统以及末端执行器的控制方法
CN111745640A (zh) 物体检测方法、物体检测装置以及机器人系统
WO2019239563A1 (ja) ロボットシステム
CN114670189B (zh) 存储介质、以及生成机器人的控制程序的方法及系统
CN113269112A (zh) 一种抓取区域的识别方法、装置、电子设备及存储介质
JP2019501033A (ja) 異なる保管領域に置かれる部品から部品のバッチを構成するための方法および設備
CN116175542B (zh) 确定夹具抓取顺序的方法、装置、电子设备和存储介质
CN111914608B (zh) 工件识别方法
CN116197885B (zh) 基于压叠检测的图像数据过滤方法、装置、设备和介质
JP2022042867A (ja) ロボット制御方法
JP2022076656A (ja) ロボットプログラム、ワーク拾い上げ方法、制御装置およびロボットシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221107

R151 Written notification of patent or utility model registration

Ref document number: 7183941

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151