JP2020189356A - ワーク識別方法 - Google Patents

ワーク識別方法 Download PDF

Info

Publication number
JP2020189356A
JP2020189356A JP2019095271A JP2019095271A JP2020189356A JP 2020189356 A JP2020189356 A JP 2020189356A JP 2019095271 A JP2019095271 A JP 2019095271A JP 2019095271 A JP2019095271 A JP 2019095271A JP 2020189356 A JP2020189356 A JP 2020189356A
Authority
JP
Japan
Prior art keywords
work
body portion
soft body
uppermost
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019095271A
Other languages
English (en)
Other versions
JP7120153B2 (ja
Inventor
亮 津久井
Akira Tsukui
亮 津久井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019095271A priority Critical patent/JP7120153B2/ja
Priority to US16/847,939 priority patent/US11213954B2/en
Priority to CN202010418703.1A priority patent/CN111985293B/zh
Publication of JP2020189356A publication Critical patent/JP2020189356A/ja
Application granted granted Critical
Publication of JP7120153B2 publication Critical patent/JP7120153B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/02Gripping heads and other end effectors servo-actuated
    • B25J15/0206Gripping heads and other end effectors servo-actuated comprising articulated grippers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0096Programme-controlled manipulators co-operating with a working support, e.g. work-table
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40543Identification and location, position of components, objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Quality & Reliability (AREA)
  • Manufacturing & Machinery (AREA)
  • Multimedia (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)

Abstract

【課題】複数のワークの軟体部が交差する態様で複数のワークがワーク置き場に存在している(バラ積みされている)場合に、これらのワークの中から最も上方に位置する最上位ワークを識別することができるワーク識別方法を提供する。【解決手段】撮像によって取得した画像VDに基づいて、ワーク置き場WSにワーク80が存在するか否かを判定し、ワーク80が存在すると判定した場合に、画像VDに基づいて、ワーク置き場WSにおいて複数のワーク80の軟体部85が交差して重なる交差部CPが存在するか否かを判定し、交差部CPが存在すると判定した場合に、画像VDに基づいて、交差している複数の軟体部85のうち最も上方に位置する最上位軟体部85Tを判別し、判別した最上位軟体部85Tを有するワーク80を、最も上方に位置する最上位ワーク80Tと決定する。【選択図】図3

Description

本発明は、ワーク識別方法に関する。
特許文献1には、以下のようなワークピッキング方法が開示されている。具体的には、バラ積みされたワークを距離センサで三次元計測し、得られた計測結果とワークの三次元CADモデルとを照合することによって、個別のワークの三次元位置と姿勢を認識する。その後、ロボットハンドによって、三次元位置と姿勢を認識したワークをピッキングする。
特開2010−69542号公報
ところで、剛体部と自由線形状である軟体部とによって構成されるワークを、ピッキング対象とする場合がある。このようなワークとしては、例えば、剛体部であるコネクタと、自由線形状の軟体部であるケーブルとによって構成されるワイヤーハーネスがある。このようなワークがバラ積みされている場合は、特許文献1のピッキング方法では、適切に、個別のワークをピッキングすることができないことがあった。
具体的には、まず、剛体部と自由線形状である軟体部とによって構成されるワークでは、剛体部の三次元CADデータは存在するが、自由線形状(換言すれば、不定形)である軟体部の三次元CADデータは存在しない。このため、特許文献1のように、ワークの三次元計測データと三次元CADデータとをマッチングさせる場合は、三次元CADデータが存在する剛体部について、三次元計測データと三次元CADデータとをマッチングさせて、剛体部の三次元位置と姿勢を認識することになる。従って、三次元CADデータが存在しない軟体部については、その三次元位置と姿勢を認識することができない。このため、剛体部の三次元計測データと三次元CADデータとのマッチングによって剛体部の三次元位置と姿勢を認識した後、当該剛体部を把持するようにして、当該剛体部を有するワークをピッキングする。
しかしながら、複数のワークの軟体部が交差する態様で複数のワークが存在している(バラ積みされている)場合には、三次元位置と姿勢を認識した剛体部を有するワークの軟体部の上に、他のワークの軟体部が交差する態様で重なっている場合がある。このような場合に、ロボットハンドによって、三次元位置と姿勢を認識した剛体部を把持するようにして当該剛体部を有するワークを持ち上げると、当該ワークの軟体部の上に交差する態様で軟体部が重なっているワークも一緒に持ち上げることになる。このため、ロボットハンドによって複数のワークを同時に持ち上げることになり、ロボットハンドによって把持するワークの想定重量(許容重量)を上回ることになる。その結果、ロボットハンドによるワークの把持状態を維持することができなくなり、把持したワーク及びこれと一緒に持ち上げたワークを落下させてしまう虞がある。このため、複数のワークの軟体部が交差する態様で複数のワークがワーク置き場に存在している(バラ積みされている)場合に、これらのワークの中から最も上方に位置する最上位ワークを識別する方法が求められていた。
本発明は、かかる現状に鑑みてなされたものであって、複数のワークの軟体部が交差する態様で複数のワークがワーク置き場に存在している(バラ積みされている)場合に、これらのワークの中から最も上方に位置する最上位ワークを識別することができるワーク識別方法を提供することを目的とする。
本発明の一態様は、自由線形状である軟体部を有するワークが複数置かれるワーク置き場を撮像し、前記撮像によって取得した画像に基づいて、前記ワーク置き場に前記ワークが存在するか否かを判定し、前記ワークが存在すると判定した場合に、前記画像に基づいて、前記ワーク置き場において複数の前記ワークの前記軟体部が交差して重なる交差部が存在するか否かを判定し、前記交差部が存在すると判定した場合に、前記画像に基づいて、交差している複数の前記軟体部のうち最も上方に位置する最上位軟体部を判別し、判別した前記最上位軟体部を有する前記ワークを、最も上方に位置する最上位ワークと決定するワーク識別方法であって、前記画像に基づいて前記最上位軟体部を判別できない場合に、1または複数の前記ワークを移動させることによって前記最上位軟体部を作り出す手順を検討し、前記検討により見いだされた前記手順にしたがって、前記最上位軟体部を作り出すために前記ワークを移動させるワーク識別方法である。
上述のワーク識別方法では、自由線形状(線状をなす自由形状)である軟体部を有するワークを識別対象とする。このワーク識別方法によれば、複数のワークの軟体部が交差する態様で複数のワークがワーク置き場に存在している(バラ積みされている)場合において、これらのワークから、最も上方に位置する最上位ワークを識別することができる。
ところで、上述のワーク識別方法では、複数のワークの軟体部が交差して重なる交差部が存在すると判定した場合に、撮像によって取得した画像に基づいて、交差している複数の軟体部のうち最も上方に位置する最上位軟体部を判別する。そして、判別した最上位軟体部を有するワークを、最も上方に位置する最上位ワークと決定する。ところが、撮像によって取得した画像に基づいて、最上位軟体部を判別できない場合がある。
具体的には、例えば、3つのワーク(第1ワークと第2ワークと第3ワークとする)に含まれる3本の軟体部(第1軟体部と第2軟体部と第3軟体部とする)が互いに交差している場合であって、各交差部における軟体部の上下の序列に基づいて、最上位軟体部を決定することが不可能な場合である。例えば、第2軟体部が第1軟体部の上方に位置する態様で第1軟体部と第2軟体部とが交差し、第3軟体部が第2軟体部の上方に位置する態様で第2軟体部と第3軟体部とが交差し、第1軟体部が第3軟体部の上方に位置する態様で第1軟体部と第3軟体部とが交差する場合である。このような場合は、3本の軟体部の中で、他の2本の軟体部のいずれよりも上方に位置する軟体部が存在しないので、最上位軟体部を判別することができない。
これに対し、上述のワーク識別方法では、撮像によって取得した画像に基づいて最上位軟体部を判別できない場合に、「ワーク置き場に存在するワークのうちの1または複数のワークを移動させることによって最上位軟体部を作り出す」手順を検討する。そして、この検討によって見いだされた(導き出された)手順にしたがって、最上位軟体部を作り出すためにワークを移動させる。
具体的には、前述した例の場合では、例えば、第2軟体部が第1軟体部の上方に重なっている状態から、第2軟体部が第1軟体部に重ならない状態になるように、第2ワークを移動させる(第2ワークを第1ワークから離間させる)ことによって、「第3軟体部が第2軟体部の上方に位置する態様で第2軟体部と第3軟体部とが交差し、第1軟体部が第3軟体部の上方に位置する態様で第1軟体部と第3軟体部とが交差し、第1軟体部と第2軟体部とが交差しない」状態にすることができる。これにより、第1軟体部を、最上位軟体部にすることができる。
このように、上述のワーク識別方法では、最上位軟体部を作り出す手順を検討し、検討によって見いだされた(導き出された)手順にしたがってワークを移動させることによって、最上位軟体部を作り出す。これにより、最上位軟体部を判別することが可能となる。
上述のワーク識別方法は、例えば、自由線形状である軟体部を有するワークが複数置かれるワーク置き場を撮像する第1撮像ステップと、前記第1撮像ステップの撮像によって取得した画像に基づいて、前記ワーク置き場に前記ワークが存在するか否かを判定するワーク有無判定ステップと、前記ワーク有無判定ステップにおいて前記ワークが存在すると判定した場合に、前記画像に基づいて、前記ワーク置き場において前記複数のワークの前記軟体部が交差して重なる交差部が存在するか否かを判定する交差部有無判定ステップと、前記交差部有無判定ステップにおいて前記交差部が存在すると判定した場合に、前記画像に基づいて、交差している複数の前記軟体部のうち最も上方に位置する最上位軟体部を判別する最上位軟体部判別ステップと、前記最上位軟体部判別ステップにおいて判別された前記最上位軟体部を有する前記ワークを、最も上方に位置する最上位ワークと決定する最上位ワーク決定ステップと、を備えるワーク識別方法であって、前記最上位軟体部判別ステップにおいて前記最上位軟体部を判別できない場合に、1または複数の前記ワークを移動させることによって最上位軟体部を作り出す手順を検討する作り出し手順検討ステップと、前記作り出し手順検討ステップにおいて見いだされた(導き出された)前記手順にしたがって、前記最上位軟体部を作り出すために前記ワークを移動させる移動ステップと、を備えるワーク識別方法である。
さらに、前記のワーク識別方法であって、前記手順にしたがって前記ワークを移動させた後、改めて前記ワーク置き場を撮像し、前記撮像によって改めて取得した画像に基づいて、前記ワーク置き場において前記交差部が存在するか否かを改めて判定し、前記交差部が存在すると判定した場合に、前記改めて取得した画像に基づいて、前記最上位軟体部を改めて判別するワーク識別方法とすると良い。
上述のワーク識別方法では、前述した最上位軟体部を作り出すための手順にしたがってワークを移動させた後、改めてワーク置き場を撮像する。その後、この撮像によって改めて取得した画像に基づいて、最上位軟体部を改めて判別する。これにより、ワークを移動させる前は、最上位軟体部を判別することができなかった場合でも、ワークを移動させた後に、最上位軟体部を判別することが可能となる。
上述のワーク識別方法は、例えば、前記のワーク識別方法であって、前記移動ステップの後、改めて前記ワーク置き場を撮像する第2撮像ステップを備え、前記第2撮像ステップの後、前記交差部有無判定ステップにおいて、前記第2撮像ステップの撮像によって改めて取得した画像に基づいて、前記ワーク置き場において前記交差部が存在するか否かを判定し、前記交差部が存在すると判定した場合に、その後、前記最上位軟体部判別ステップにおいて、前記改めて取得した画像に基づいて、前記最上位軟体部を判別するワーク識別方法である。
さらに、前記いずれかのワーク識別方法であって、前記検討により、前記最上位軟体部を作り出す手順を見いだすことができなかった場合に、前記ワーク置き場に存在する複数の前記ワークの位置関係を無作為に変更する操作を行い、その後、改めて前記ワーク置き場を撮像し、前記撮像によって改めて取得した画像に基づいて、前記ワーク置き場において前記交差部が存在するか否かを改めて判定し、前記交差部が存在すると判定した場合に、前記改めて取得した画像に基づいて、前記最上位軟体部を改めて判別するワーク識別方法とすると良い。
上述のワーク識別方法では、最上位軟体部を作り出す手順を検討した結果、最上位軟体部を作り出す手順を見いだす(導き出す)ことができなかった場合に、ワーク置き場に存在する複数のワークの位置関係を無作為に変更する操作を行う。具体的には、例えば、ワーク置き場に存在するワークを無作為に移動させて、複数のワークの位置関係を無作為に変更する。このような操作を行うことで、最上位軟体部が作り出されることがある。あるいは、最上位軟体部を作り出す手順を見いだす(導き出す)ことが可能となり得る。
上述のワーク識別方法では、上述のような操作を行った後、改めてワーク置き場を撮像し、この撮像によって改めて取得した画像に基づいて、最上位軟体部を改めて判別する。これにより、上述のような操作を行う前は、最上位軟体部を判別することができなかった場合でも、上述のような操作を行った後に、最上位軟体部を判別することが可能となり得る。あるいは、上述のような操作を行った後に、最上位軟体部を作り出す手順を見いだす(導き出す)ことが可能となり得る。最上位軟体部を作り出す手順を見いだす(導き出す)ことが可能となった場合は、見いだされた手順にしたがってワークを移動させることによって最上位軟体部を作り出すことで、最上位軟体部を判別することが可能となる。
上述のワーク識別方法は、例えば、前記のワーク識別方法であって、前記作り出し手順検討ステップにおいて、最上位軟体部を作り出す手順を見いだす(導き出す)ことができなかった場合に、前記ワーク置き場に存在する複数の前記ワークの位置関係を無作為に変更する操作を行う位置関係変更ステップを備え、前記位置関係変更ステップの後、前記第2撮像ステップにおいて改めて前記ワーク置き場を撮像し、その後、前記交差部有無判定ステップにおいて、前記第2撮像ステップの撮像によって改めて取得した画像に基づいて、前記ワーク置き場において前記交差部が存在するか否かを判定し、前記交差部が存在すると判定した場合に、その後、前記最上位軟体部判別ステップにおいて、前記改めて取得した画像に基づいて、前記最上位軟体部を判別するワーク識別方法である。
さらに、前記いずれかのワーク識別方法であって、前記ワークは、前記軟体部と剛体部とによって構成されるワークであり、前記最上位軟体部を判別した後であって前記最上位ワークを決定する前に、前記画像に基づいて、判別した前記最上位軟体部を有する前記ワークについて、前記軟体部及び前記剛体部を認識できるか否かを判定し、前記軟体部及び前記剛体部を認識できると判定した場合に、前記最上位軟体部を有する前記ワークを前記最上位ワークと決定するワーク識別方法とすると良い。
上述のワーク識別方法では、剛体部と自由線形状(線状をなす自由形状)である軟体部とによって構成されるワークを識別対象とする。このワーク識別方法では、最上位軟体部を判別した後、判別した最上位軟体部を有するワークについて、軟体部及び剛体部を認識できるか否かを判定する。ここで、最上位軟体部を有するワークについて軟体部及び剛体部を認識できる場合とは、例えば、取得した画像に軟体部の全体及び剛体部の全体が現れており、取得した画像において軟体部の全体及び剛体部の全体を確認できる場合である。このように、判別した最上位軟体部を有するワークにおいて軟体部及び剛体部を認識することで、当該ワークが剛体部と軟体部とによって構成された(剛体部と軟体部とが一体となった)ワークであることを確認できる。このようにすることで、最上位ワークをより適切に識別することができる。
上述のワーク識別方法は、例えば、前記いずれかのワーク識別方法であって、前記ワークは、前記軟体部と剛体部とによって構成されるワークであり、前記最上位軟体部判別ステップの後であって前記最上位ワーク決定ステップの前に、前記画像に基づいて、前記最上位軟体部判別ステップにおいて判別された前記最上位軟体部を有する前記ワークについて、前記軟体部及び前記剛体部を認識できるか否かを判定するワーク認識可否判定ステップを備え、前記ワーク認識可否判定ステップにおいて前記軟体部及び前記剛体部を認識できると判定した場合に、前記最上位ワーク決定ステップにおいて、前記最上位軟体部を有する前記ワークを前記最上位ワークと決定するワーク識別方法である。
さらに、前記のワーク識別方法であって、前記軟体部及び前記剛体部を認識できないと判定した場合に、前記ワーク置き場を撮像する角度を変えて、改めて前記ワーク置き場を撮像し、前記撮像によって改めて取得した画像に基づいて、前記ワーク置き場において前記交差部が存在するか否かを改めて判定し、前記交差部が存在すると判定した場合に、前記改めて取得した画像に基づいて前記最上位軟体部を改めて判別し、前記改めて判別した前記最上位軟体部を有する前記ワークについて、前記改めて取得した画像に基づいて、前記軟体部及び前記剛体部を認識できるか否かを改めて判定するワーク識別方法とすると良い。
上述のワーク識別方法では、取得している画像に基づいて、最上位軟体部を有するワークについて軟体部及び剛体部を認識できないと判定した場合、当該判定の基にした(当該判定に用いた)前記画像を撮像した角度(ワーク置き場を撮像する角度)とは異なる角度で、改めてワーク置き場を撮像する。そして、この撮像によって改めて取得した画像に基づいて、最上位軟体部を改めて判別し、改めて判別した最上位軟体部を有するワークについて、軟体部及び剛体部を認識できるか否かを改めて判定する。これにより、先に取得した画像に基づいて、最上位軟体部を有するワークについて軟体部及び剛体部を認識することができなかった場合でも、改めて取得した画像に基づいて、最上位軟体部を有するワークについて軟体部及び剛体部を認識することが可能となる。
上述のワーク識別方法は、例えば、前記のワーク識別方法であって、前記ワーク認識可否判定ステップにおいて前記軟体部及び前記剛体部を認識できないと判定した場合に、前記ワーク置き場を撮像する角度を変えて、改めて前記ワーク置き場を撮像する第3撮像ステップを備え、前記第3撮像ステップの後、前記交差部有無判定ステップにおいて、前記第3撮像ステップの撮像によって改めて取得した画像に基づいて、前記ワーク置き場において前記交差部が存在するか否かを判定し、前記交差部が存在すると判定した場合に、その後、前記最上位軟体部判別ステップにおいて、前記改めて取得した画像に基づいて前記最上位軟体部を判別し、その後、前記ワーク認識可否判定ステップにおいて、前記第3撮像ステップの撮像によって改めて取得した画像に基づいて、前記最上位軟体部判別ステップにおいて判別された前記最上位軟体部を有する前記ワークについて、改めて、前記軟体部及び前記剛体部を認識できるか否かを判定するワーク識別方法である。
実施形態にかかる把持装置の構成図である。 ワークの平面図である。 実施形態にかかるワーク識別方法の流れを示すフローチャートである。 撮像によって取得した画像の一例である。 撮像によって取得した画像の他の例である。 実施形態にかかるワーク識別方法を説明する図である。 実施形態にかかるワーク識別方法を説明する他の図である。 撮像によって取得した画像の他の例である。
次に、本発明の実施形態について、図面を参照しつつ説明する。図1は、実施形態にかかる把持装置1の構成図である。把持装置1は、図1に示すように、把持ロボット10と、3Dビジョンセンサ20と、2Dビジョンセンサ30と、画像分析部40と、ロボットコントローラ50と、3Dビジョンコントローラ60と、フレーム70とを備える。
この把持装置1は、ワーク置き場WSであるワーク収容箱90の内部に置かれている(バラ積みされている)1または複数のワーク80を、1つずつ順に把持してワーク収容箱90内から取り出す装置である。なお、本実施形態のワーク80は、自由線形状(換言すれば、不定形の線形状)である軟体部(ケーブル85)を有する。より具体的には、本実施形態のワーク80は、図2に示すように、剛体部であるコネクタ81,82と自由線形状の軟体部であるケーブル85とによって構成されたワイヤーハーネスである。
把持ロボット10は、図1に示すように、ワーク80を把持する把持部11と、この把持部11に連結された多関節アーム部12とを備える。この把持ロボット10は、把持部11によって、ワーク置き場WS(ワーク収容箱90の内部)に位置するワーク80の剛体部(コネクタ81またはコネクタ82)を把持し、把持したワーク80を、ワーク置き場WS(ワーク収容箱90の内部)から取り出す。なお、本実施形態では、多関節アーム部12を、安川電機社製の多関節ロボット(YASUKAWA GP-7)により構成している。
3Dビジョンセンサ20は、公知の3D(三次元)ビジョンセンサであり、フレーム70の天井部に取り付けられている。この3Dビジョンセンサ20は、ワーク置き場WSであるワーク収容箱90の内部に位置するワーク80の三次元計測データ(三次元画像データ)を生成する。なお、本実施形態では、3Dビジョンセンサ20を、Canon社製のマシンビジョン(RV500)により構成している。
2Dビジョンセンサ30は、公知の2D(二次元)ビジョンセンサであり、把持ロボット10の先端部に取り付けられている。この2Dビジョンセンサ30は、ワーク置き場WSであるワーク収容箱90の内部を撮像して、ワーク収容箱90の内部の二次元画像VD(二次元画像データ、図4、図5、及び図8参照)を生成する。なお、ワーク収容箱90は、上方(図4、図5、及び図8において紙面手前側)に開口する矩形状の箱である。従って、2Dビジョンセンサ30は、ワーク収容箱90の上方からワーク収容箱90の内部を撮像する。なお、図4、図5、及び図8の二次元画像VDは、2Dビジョンセンサ30によって、ワーク収容箱90の開口の真上から鉛直方向にワーク収容箱90の内部を撮像して生成された二次元画像VDである。
画像分析部40は、AI(人工知能)等を構成するコンピュータであり、2Dビジョンセンサ30によって生成されたワーク80の二次元画像VD(二次元画像データ)を取得し、これを分析する。具体的には、画像分析部40は、例えば、2Dビジョンセンサ30によって生成された二次元画像VD(二次元画像データ)を取得し、取得した二次元画像VD(図4及び図5参照)に基づいて、ワーク置き場WSであるワーク収容箱90の内部にワーク80が存在するか否かを判定する。
さらに、画像分析部40は、ワーク80が存在すると判定した場合に、取得した二次元画像VDに基づいて、ワーク置き場WS(ワーク収容箱90の内部)において、複数のワーク80のケーブル85(軟体部)が交差して重なる交差部CP(図4、図5、及び図8参照)が存在するか否かを判定する。さらに、画像分析部40は、交差部CPが存在すると判定した場合に、取得した二次元画像VDに基づいて、交差している複数のケーブル85(軟体部)のうち最も上方(図4、図5、及び図8において最も紙面手前側)に位置する最上位ケーブル85T(最上位軟体部)を判別する。
図4に示す例では、3つのワーク80(第1ワーク80Aと第2ワーク80Bと第3ワーク80Cとする)が存在するワーク置き場WS(ワーク収容箱90の内部)において、第1ワーク80Aのケーブル85(第1ケーブル85Aとする)が第3ワーク80Cのケーブル85(第3ケーブル85Cとする)の上方に位置する態様で、第1ケーブル85Aと第3ケーブル85Cとが交差する交差部CP(第1交差部CP1とする)と、第2ワーク80Bのケーブル85(第2ケーブル85Bとする)が第1ケーブル85Aの上方に位置する態様で、第1ケーブル85Aと第2ケーブル85Bとが交差する交差部CP(第2交差部CP2とする)とが存在している。この場合には、第2ワーク80Bの第2ケーブル85B(軟体部)が、最上位ケーブル85T(最上位軟体部)であると判別することができる。
また、図8に示す例では、3つのワーク80(第1ワーク80Aと第2ワーク80Bと第3ワーク80C)が存在するワーク置き場WS(ワーク収容箱90の内部)において、第1ワーク80Aの第1ケーブル85Aが第3ワーク80Cの第3ケーブル85Cの上方に位置する態様で、第1ケーブル85Aと第3ケーブル85Cとが交差する交差部CP(第1交差部CP1とする)と、第3ケーブル85Cが第2ワーク80Bの第2ケーブル85Bの上方に位置する態様で、第3ケーブル85Cと第2ケーブル85Bとが交差する交差部CP(第2交差部CP2とする)とが存在している。この場合には、第1ワーク80Aの第1ケーブル85A(軟体部)が、最上位ケーブル85T(最上位軟体部)であると判別することができる。
なお、画像分析部40には、ワーク置き場WS(ワーク収容箱90の内部)に複数のワーク80が様々な位置に配置されている複数の配置パターンの画像と、それぞれの配置パターンにおける最上位ケーブル85T(最上位軟体部)との組み合わせデータを、予め記憶(教示)させて学習させてある。このような画像分析部40は、取得した二次元画像VD(図5及び図8参照)に基づいて、交差している複数のケーブル85(軟体部)から最上位ケーブル85T(最上位軟体部)を判別(識別)する処理を行うことが可能となっている。
さらに、画像分析部40は、取得した二次元画像VDに基づいて、判別した最上位ケーブル85Tを有するワーク80(図8に示す例では、第1ワーク80A)について、軟体部であるケーブル85及び剛体部であるコネクタ81,82を認識できるか否かを判定する。具体的には、例えば、取得した二次元画像VDに、最上位ケーブル85Tを有するワーク80にかかるケーブル85(軟体部)の全体及びコネクタ81,82(剛体部)の全体が現れており、取得した二次元画像VDにおいて、最上位ケーブル85Tを有するワーク80にかかるケーブル85(軟体部)の全体及びコネクタ81,82(剛体部)の全体を確認できる場合には、判別した最上位ケーブル85Tを有するワーク80について、軟体部であるケーブル85(最上位ケーブル85T)及び剛体部であるコネクタ81,82を認識できると判定する(図6参照)。
このように、判別した最上位ケーブル85T(最上位軟体部)を有するワーク80において、ケーブル85(軟体部)及びコネクタ81,82(剛体部)を認識することで、当該ワーク80が、剛体部であるコネクタ81,82と軟体部であるケーブル85とによって構成されたワイヤーハーネス(換言すれば、剛体部であるコネクタ81,82と軟体部であるケーブル85とが一体となったワイヤーハーネス)であることを確認できる。
一方、取得した二次元画像VDに基づいて、最上位ケーブル85Tを有するワーク80について、軟体部であるケーブル85及び剛体部であるコネクタ81,82を認識できないと判定した場合、画像分析部40は、2Dビジョンセンサ30によって、当該判定の基にした(当該判定に用いた)二次元画像VDを撮像した角度(ワーク置き場WSを撮像する角度)とは異なる角度で、改めてワーク置き場WSを撮像させる。具体的には、例えば、当該判定の基にした二次元画像VDが、ワーク収容箱90の開口の真上から鉛直方向にワーク収容箱90の内部を撮像して生成された二次元画像VDであった場合は、ワーク収容箱90の開口の上方から鉛直方向に対して斜めの方向に2Dビジョンセンサ30を向けて(撮像する角度を変えて)、改めてワーク置き場WSを撮像させる。
さらに、画像分析部40は、この撮像によって改めて取得した二次元画像VDに基づいて、改めて最上位ケーブル85Tを判別し、判別した最上位ケーブル85Tを有するワーク80について、ケーブル85(軟体部)及びコネクタ81,82(剛体部)を認識できるか否かを改めて判定する。これにより、先に取得した二次元画像VDに基づいて、最上位ケーブル85Tを有するワーク80についてケーブル85(軟体部)及びコネクタ81,82(剛体部)を認識することができなかった場合でも、改めて取得した二次元画像VDに基づいて、最上位ケーブル85Tを有するワーク80についてケーブル85(軟体部)及びコネクタ81,82(剛体部)を認識することが可能となる。
さらに、画像分析部40は、軟体部であるケーブル85(最上位ケーブル85T)及び剛体部であるコネクタ81,82を認識できると判定した場合に、最上位ケーブル85Tを有するワーク80を最上位ワーク80Tと決定する。なお、本実施形態では、画像分析部40のソフトウエアとして、COGNEX社製のVisionPro ViDiを用いている。
3Dビジョンコントローラ60は、3Dビジョンセンサ20によって生成された三次元計測データ(三次元画像データ)を取得して処理する装置である。この3Dビジョンコントローラ60には、予め、ワーク80のコネクタ81,82(剛体部)の三次元CADデータを記憶させている。この3Dビジョンコントローラ60は、例えば、3Dビジョンセンサ20によって生成されたワーク置き場WS(ワーク収容箱90の内部)に位置するワーク80の三次元計測データ(三次元画像データ)を取得し、この取得した三次元計測データ(三次元画像データ)から選択した剛体部(コネクタ81またはコネクタ82)の三次元計測データと、剛体部(コネクタ81またはコネクタ82)の三次元CADデータとをマッチングさせることによって、ワーク80の剛体部(コネクタ81またはコネクタ82)の三次元位置と姿勢を認識(検出)する。
ロボットコントローラ50は、把持ロボット10の動きを制御する装置である。このロボットコントローラ50は、画像分析部40による処理結果、または、3Dビジョンコントローラ60による処理結果に基づいて、把持ロボット10の動きを制御する。具体的には、例えば、ロボットコントローラ50は、3Dビジョンコントローラ60によって認識(検出)されたワーク80の剛体部(コネクタ81またはコネクタ82)の三次元位置と姿勢に基づいて、把持ロボット10の多関節アーム部12及び把持部11の動作を制御することによって、把持部11によってワーク80の剛体部(コネクタ81またはコネクタ82)を把持させて、このワーク80をワーク置き場WS(ワーク収容箱90の内部)から取り出させる制御を行う。
ところで、前述したように、画像分析部40は、複数のワーク80のケーブル85(軟体部)が交差して重なる交差部CPが存在すると判定した場合に、撮像によって取得した二次元画像VDに基づいて、交差している複数のケーブル85(軟体部)の中で最も上方に位置する最上位ケーブル85T(最上位軟体部)を判別する処理を行う。ところが、撮像によって取得した二次元画像VDに基づいて、最上位ケーブル85T(最上位軟体部)を判別できない場合がある。
具体的には、例えば、図5に示す例のように、第2ワーク80Bの第2ケーブル85B(第2軟体部)が第1ワーク80Aの第1ケーブル85A(第1軟体部)の上方に位置する態様で、第1ケーブル85Aと第2ケーブル85Bとが交差する交差部CP(第3交差部CP3とする)と、第3ワーク80Cの第3ケーブル85C(第3軟体部)が第2ケーブル85Bの上方に位置する態様で、第2ケーブル85Bと第3ケーブル85Cとが交差する交差部CP(第2交差部CP2とする)と、第1ケーブル85Aが第3ケーブル85Cの上方に位置する態様で、第1ケーブル85Aと第3ケーブル85Cとが交差する交差部CP(第1交差部CP1とする)とが存在する場合である。このような場合は、3本のケーブル85(第1ケーブル85Aと第2ケーブル85Bと第3ケーブル85C)の中で、他の2本のケーブル85のいずれよりも上方に位置するケーブル85が存在しない(すなわち、最上位ケーブル85Tが存在しない)ので、最上位ケーブル85Tを判別することができない。
これに対し、画像分析部40は、撮像によって取得した二次元画像VDに基づいて最上位ケーブル85T(最上位軟体部)を判別できない場合、「ワーク置き場WSに存在するワーク80のうちの1または複数のワーク80を移動させることによって最上位ケーブル85T(最上位軟体部)を作り出す」ための手順を検討する。さらに、画像分析部40は、最上位ケーブル85T(最上位軟体部)を作り出すために、ロボットコントローラ50に対して、この検討によって見いだされた(導き出された)手順にしたがってワーク80を移動させる旨の信号を送信する。
この信号を受信したロボットコントローラ50は、3Dビジョンコントローラ60に対し、ワーク置き場WS(ワーク収容箱90の内部)に位置するワーク80の剛体部(コネクタ81またはコネクタ82)の三次元位置と姿勢を認識(検出)させる旨の信号を送信する。この信号を受信した3Dビジョンコントローラ60は、3Dビジョンセンサ20によって、ワーク置き場WS(ワーク収容箱90の内部)に位置するワーク80の三次元計測データ(三次元画像データ)を生成させる。
さらに、3Dビジョンコントローラ60は、3Dビジョンセンサ20によって生成されたワーク置き場WSに位置するワーク80の三次元計測データ(三次元画像データ)を取得し、この取得した三次元計測データ(三次元画像データ)から、移動させるワーク80の剛体部(コネクタ81またはコネクタ82)の三次元計測データを選択する。さらに、3Dビジョンコントローラ60は、選択した剛体部(コネクタ81またはコネクタ82)の三次元計測データと、当該剛体部(コネクタ81またはコネクタ82)の三次元CADデータとをマッチングさせることによって、移動させるワーク80の剛体部(コネクタ81またはコネクタ82)の三次元位置と姿勢を認識(検出)する。
さらに、3Dビジョンコントローラ60は、移動させるワーク80の剛体部(コネクタ81またはコネクタ82)の三次元位置と姿勢の認識(検出)結果を、ロボットコントローラ50に送信する。その後、ロボットコントローラ50は、3Dビジョンコントローラ60によって認識(検出)されたワーク80の剛体部(コネクタ81またはコネクタ82)の三次元位置と姿勢に基づいて、把持ロボット10の多関節アーム部12及び把持部11の動作を制御することによって、把持部11によって移動させるワーク80の剛体部(コネクタ81またはコネクタ82)を把持させて、画像分析部40から受信した手順にしたがって当該ワーク80を移動させる。
具体的には、図5に示す例の場合は、画像分析部40において、例えば、第2ケーブル85Bが第1ケーブル85Aの上方に位置する態様で交差している状態から、第2ケーブル85Bが第1ケーブル85Aと交差しない状態になるように、第2ワーク80Bを移動させる(第2ワーク80Bを第1ワーク80Aから離間させる)ことによって、第1ケーブル85Aを最上位ケーブル85T(最上位軟体部)にする(例えば、図8に示す状態にする)ことができることが見いだされる。従って、画像分析部40は、「第2ケーブル85Bが第1ケーブル85Aと交差しない状態になるように、第2ワーク80Bを移動させて(第2ワーク80Bを第1ワーク80Aから離間させて)、第1ケーブル85Aを最上位ケーブル85Tにする手順」を、最上位ケーブル85T(最上位軟体部)を作り出す手順として、ロボットコントローラ50に送信する。この信号を受信したロボットコントローラ50は、3Dビジョンコントローラ60に対し、ワーク置き場WS(ワーク収容箱90の内部)に位置するワーク80の剛体部(コネクタ81またはコネクタ82)の三次元位置と姿勢を認識(検出)させる旨の信号を送信する。
この信号を受信した3Dビジョンコントローラ60は、3Dビジョンセンサ20によって、ワーク置き場WS(ワーク収容箱90の内部)に位置するワーク80の三次元計測データ(三次元画像データ)を生成させる。さらに、3Dビジョンコントローラ60は、3Dビジョンセンサ20によって生成されたワーク置き場WSに位置するワーク80の三次元計測データを取得し、この取得した三次元計測データから、移動させる第2ワーク80Bの剛体部(例えば、コネクタ82)の三次元計測データを選択する。さらに、3Dビジョンコントローラ60は、選択した剛体部(例えば、コネクタ82)の三次元計測データと、当該剛体部(例えば、コネクタ82)の三次元CADデータとをマッチングさせることによって、移動させる第2ワーク80Bの剛体部(例えば、コネクタ82)の三次元位置と姿勢を認識(検出)する。
さらに、3Dビジョンコントローラ60は、移動させる第2ワーク80Bの剛体部(例えば、コネクタ82)の三次元位置と姿勢の認識(検出)結果を、ロボットコントローラ50に送信する。その後、ロボットコントローラ50は、3Dビジョンコントローラ60によって認識(検出)された第2ワーク80Bの剛体部(例えば、コネクタ82)の三次元位置と姿勢に基づいて、把持ロボット10の多関節アーム部12及び把持部11の動作を制御することによって、把持部11によって第2ワーク80Bの剛体部(例えば、コネクタ82)を把持させて、画像分析部40から受信した手順にしたがって第2ワーク80Bを移動させる(図6及び図7参照)。
なお、図6は、ワーク置き場WS(ワーク収容箱90の内部)の平面図(上面図)であり、移動させる前の第2ワーク80Bを二点鎖線で示し、移動させた後の第2ワーク80Bを実線で示している。また、図7は、第2ワーク80Bを移動させた後のワーク置き場WS(ワーク収容箱90の内部)の平面図(上面図)である。図6に矢印で示すように、画像分析部40から受信した手順にしたがって第2ワーク80Bを移動させることで、第2ケーブル85Bが第1ケーブル85Aの上方に位置する態様で交差している状態(二点鎖線で示す状態)から、第2ケーブル85Bが第1ケーブル85Aと交差しない状態(実線で示す状態)にすることができる。これにより、図7に示すように、第1ケーブル85Aを最上位ケーブル85T(最上位軟体部)にすることができるので、最上位ケーブル85T(最上位軟体部)を判別することが可能となる。
さらに、画像分析部40は、検討した手順にしたがって第2ワーク80Bを移動させた後、改めて、2Dビジョンセンサ30によってワーク置き場WS(ワーク収容箱90の内部)を撮像させて、ワーク収容箱90の内部の二次元画像VD(図8参照)を新たに生成させる。その後、画像分析部40は、新たに生成された二次元画像VD(図8参照)を取得し、この二次元画像VDに基づいて、最上位ケーブル85T(最上位軟体部)を改めて判別する。図8に示す例では、第1ケーブル85Aが、最上位ケーブル85T(最上位軟体部)として判別される。
また、画像分析部40は、最上位ケーブル85T(最上位軟体部)を作り出す手順を検討した結果、最上位ケーブル85Tを作り出す手順を見いだすことができなかった場合に、ワーク置き場WS(ワーク収容箱90の内部)に存在する複数のワーク80の位置関係を無作為に変更する操作を、把持ロボット10に行わせる。具体的には、画像分析部40は、最上位ケーブル85Tを作り出す手順を見いだすことができなかった場合、ワーク置き場WSに存在するワーク80を無作為に移動させる旨の信号をロボットコントローラ50に送信する。この信号を受信したロボットコントローラ50は、把持ロボット10の多関節アーム部12及び把持部11の動作を制御することによって、例えば、ワーク置き場WS(ワーク収容箱90の内部)に存在するワーク80を無作為に移動させる。
具体的には、例えば、把持ロボット10によってワーク収容箱90を揺れ動かすことによって、ワーク置き場WS(ワーク収容箱90の内部)に存在するワーク80を無作為に移動させる。あるいは、把持ロボット10によってワーク収容箱90の内部を掻き混ぜるようにして、ワーク置き場WS(ワーク収容箱90の内部)に存在するワーク80を無作為に移動させる。これにより、ワーク置き場WS(ワーク収容箱90の内部)に存在する複数のワーク80の位置関係を無作為に変更する。このような操作を行うことで、最上位ケーブル85T(最上位軟体部)が作り出され得る。あるいは、最上位ケーブル85Tを作り出す手順を見いだす(導き出す)ことが可能となり得る。
さらに、画像分析部40は、上述のような操作を行わせた後、2Dビジョンセンサ30によって改めてワーク置き場WSを撮像させる。さらに、画像分析部40は、この撮像によって改めて取得した二次元画像VDに基づいて、最上位ケーブル85T(最上位軟体部)を改めて判別する。これにより、上述のような操作を行う前は、最上位ケーブル85Tを判別することができなかった場合でも、上述のような操作を行った後に、最上位ケーブル85Tを判別することが可能となり得る。あるいは、上述のような操作を行った後に、最上位ケーブル85Tを作り出す手順を見いだす(導き出す)ことが可能となり得る。最上位ケーブル85Tを作り出す手順を見いだす(導き出す)ことが可能となった場合は、前述したように、見いだされた手順にしたがってワーク80を移動させることによって最上位ケーブル85Tを作り出すことで、最上位ケーブル85Tを判別することが可能となる。
次に、本実施形態のワーク識別方法について説明する。図3は、実施形態にかかるワーク識別方法の流れを示すフローチャートである。まず、ステップS1(撮像ステップ)において、2Dビジョンセンサ30によって、ワーク置き場WSであるワーク収容箱90の内部を撮像して、ワーク収容箱90の内部の二次元画像VD(二次元画像データ、図4及び図5参照)を生成する。次いで、ステップS2(ワーク有無判定ステップ)において、画像分析部40は、2Dビジョンセンサ30によって生成された二次元画像VD(二次元画像データ)を取得し、取得した二次元画像VD(図4及び図5参照)に基づいて、ワーク置き場WSであるワーク収容箱90の内部にワーク80が存在するか否かを判定する。
ステップS2において、ワーク置き場WS(ワーク収容箱90の内部)にワーク80が存在しない(NO)と判定した場合、ステップS9に進み、画像分析部40は、ワーク収容箱90の内部が空であると判定し、一連のワーク識別処理を終了する。一方、ワーク置き場WS(ワーク収容箱90の内部)にワーク80が存在すると判定した場合は、ステップS3(交差部有無判定ステップ)に進み、画像分析部40は、取得した二次元画像VDに基づいて、ワーク置き場WS(ワーク収容箱90の内部)において、複数のワーク80のケーブル85(軟体部)が交差して重なる交差部CP(図4及び図5参照)が存在するか否かを判定する。
ステップS3において、交差部CPが存在しない(NO)と判定した場合は、後述するステップS6に進む。一方、ステップS3において、交差部CPが存在する(YES)と判定した場合は、ステップS4(最上位軟体部判別ステップ)に進み、画像分析部40は、取得した二次元画像VD(図4及び図5参照)に基づいて、交差している複数のケーブル85(軟体部)のうち最も上方(図4及び図5において最も紙面手前側)に位置する最上位ケーブル85T(最上位軟体部)を判別することが可能であるか否かを判定する。
ここで、取得した二次元画像VDが図4に示す二次元画像VDである場合について、以下に説明する。図4に示す二次元画像VDでは、第2ワーク80Bの第2ケーブル85B(軟体部)が、最上位ケーブル85T(最上位軟体部)であると判別することができる。従って、ステップS4において、画像分析部40は、最上位ケーブル85T(最上位軟体部)を判別することが可能である(YES)と判定する。次いで、ステップS5(最上位軟体部判別ステップ)において、画像分析部40は、第2ケーブル85Bを、最上位ケーブル85T(最上位軟体部)として確定する。
次に、ステップS6(ワーク認識可否判定ステップ)において、画像分析部40は、取得した図4に示す二次元画像VDに基づいて、判別(確定)した最上位ケーブル85T(第2ケーブル85B)を有する第2ワーク80Bについて、軟体部である第2ケーブル85B及び剛体部であるコネクタ81,82を認識できるか否かを判定する。
具体的には、例えば、取得した図4に示す二次元画像VDに、最上位ケーブル85T(第2ケーブル85B)を有する第2ワーク80Bについて、第2ケーブル85B(軟体部)の全体及びコネクタ81,82(剛体部)の全体が現れており、取得した図4に示す二次元画像VDにおいて、第2ケーブル85B(軟体部)の全体及びコネクタ81,82(剛体部)の全体を確認できる場合には、最上位ケーブル85Tを有する第2ワーク80Bにおいて、軟体部である第2ケーブル85B(最上位ケーブル85T)及び剛体部であるコネクタ81,82を認識できる(YES)と判定する。
なお、ステップS6において、最上位ケーブル85Tを有するワーク80について、ケーブル85及びコネクタ81,82のいずれかを認識することができない(NO)と判定した場合は、ステップS10(第3撮像ステップ)に進み、画像分析部40は、2Dビジョンセンサ30によって、当該判定の基にした二次元画像VDを撮像した角度(ワーク置き場WSを撮像する角度)とは異なる角度で、改めてワーク置き場WSを撮像させる。その後、ステップS3に戻り、画像分析部40は、この撮像によって改めて取得した二次元画像VDに基づいて、ワーク置き場WSにおいて、複数のワーク80のケーブル85(軟体部)が交差して重なる交差部CPが存在するか否かを判定する。
ステップS6において、最上位ケーブル85Tを有するワーク80について、ケーブル85及びコネクタ81,82を認識することができる(YES)と判定した場合は、ステップS7(最上位ワーク決定ステップ)において、画像分析部40は、最上位ケーブル85Tを有するワーク80を、最上位ワーク80Tとして決定する。具体的には、例えば、図4に示す例では、画像分析部40は、取得した図4に示す二次元画像VDに基づいて、最上位ケーブル85Tを有する第2ワーク80Bについて、軟体部である第2ケーブル85B(最上位ケーブル85T)及び剛体部であるコネクタ81,82を認識できる(YES)と判定し、その後、ステップS7において、最上位ケーブル85T(第2ケーブル85B)を有する第2ワーク80Bを、最上位ワーク80Tとして決定する。
一方、ステップS4において、最上位ケーブル85T(最上位軟体部)を判別することができない(NO)と判定した場合、ステップS11(作り出し手順検討ステップ)に進み、「ワーク置き場WSに存在するワーク80のうちの1または複数のワーク80を移動させることによって最上位ケーブル85T(最上位軟体部)を作り出す」手順を検討する。
ここで、取得した二次元画像VDが図5に示す二次元画像VDである場合について、以下に説明する。図5に示す二次元画像VDでは、3本のケーブル85(第1ケーブル85Aと第2ケーブル85Bと第3ケーブル85C)の中で、他の2本のケーブル85のいずれよりも上方に位置するケーブル85が存在しない(すなわち、最上位ケーブル85Tが存在しない)ので、最上位ケーブル85Tを判別することができない。従って、ステップS4において、画像分析部40は、最上位ケーブル85T(最上位軟体部)を判別することができない(NO)と判定する。
ステップS4において最上位ケーブル85Tを判別することができない(NO)と判定した場合は、ステップS11に進み、画像分析部40は、「ワーク置き場WSに存在するワーク80のうちの1または複数のワーク80を移動させることによって最上位ケーブル85T(最上位軟体部)を作り出す」手順を検討する。次いで、ステップS12において、画像分析部40は、最上位ケーブル85T(最上位軟体部)を作り出すことが可能であるか否かを判定する。
ステップS11において、最上位ケーブル85Tを作り出す手順を見いだすことができた場合には、画像分析部40は、ステップS12において、最上位ケーブル85Tを作り出すことが可能である(YES)と判定する。一方、ステップS11において最上位ケーブル85Tを作り出す手順を見いだすことができなかった場合には、画像分析部40は、ステップS12において最上位ケーブル85Tを作り出すことができない(NO)と判定する。
具体的には、図5に示す二次元画像VDに基づいて、例えば、第2ケーブル85Bが第1ケーブル85Aの上方に位置する態様で交差している状態から、第2ケーブル85Bが第1ケーブル85Aと交差しない状態になるように、第2ワーク80Bを移動させる(第2ワーク80Bを第1ワーク80Aから離間させる)ことによって、第1ケーブル85Aを最上位ケーブル85T(最上位軟体部)にする(図6参照)ことを見いだすことができる。ステップS11において、このような手順を画像分析部40において見いだすことができた場合は、ステップS12において、画像分析部40は、最上位ケーブル85Tを作り出すことが可能である(YES)と判定する。
ステップS12において最上位ケーブル85Tを作り出すことが可能である(YES)と判定された場合は、ステップS13(移動ステップ)に進み、画像分析部40において見いだされた手順にしたがってワーク80を移動させる。具体的には、例えば、図5に示す状態から、第2ケーブル85Bが第1ケーブル85Aと交差しない状態になるように、第2ワーク80Bを移動させる(第2ワーク80Bを第1ワーク80Aから離間させる)ことによって、第1ケーブル85Aを最上位ケーブル85T(最上位軟体部)にする(図6参照)
より具体的には、まず、3Dビジョンセンサ20が、ワーク置き場WS(ワーク収容箱90の内部)に位置するワーク80の三次元計測データ(三次元画像データ)を生成する。その後、3Dビジョンコントローラ60が、3Dビジョンセンサ20によって生成されたワーク置き場WSに位置するワーク80の三次元計測データを取得し、この取得した三次元計測データから、移動させる第2ワーク80Bの剛体部(例えば、コネクタ82)の三次元計測データを選択する。さらに、3Dビジョンコントローラ60は、選択した剛体部(例えば、コネクタ82)の三次元計測データと、当該剛体部(例えば、コネクタ82)の三次元CADデータとをマッチングさせることによって、移動させる第2ワーク80Bの剛体部(例えば、コネクタ82)の三次元位置と姿勢を認識(検出)する。
次に、ロボットコントローラ50が、3Dビジョンコントローラ60によって認識(検出)された第2ワーク80Bの剛体部(例えば、コネクタ82)の三次元位置と姿勢に基づいて、把持ロボット10の多関節アーム部12及び把持部11の動作を制御することによって、把持部11によって第2ワーク80Bの剛体部(例えば、コネクタ82)を把持させて、画像分析部40によって検討された手順にしたがって第2ワーク80Bを移動させる(図6及び図7参照)。
次いで、ステップS14(第2撮像ステップ)に進み、2Dビジョンセンサ30は、改めて、ワーク置き場WS(ワーク収容箱90の内部)を撮像して、ワーク収容箱90の内部の二次元画像VD(図8参照)を新たに生成する。その後、ステップS3に戻り、画像分析部40は、新たに生成された二次元画像VD(図8参照)に基づいて、ワーク置き場WSにおいて、複数のワーク80のケーブル85(軟体部)が交差して重なる交差部CPが存在するか否かを判定する。その後も、新たに生成された二次元画像VD(図8参照)に基づいて、前述したステップS4〜S7の処理を行う。
図8に示す例では、第1ワーク80Aの第1ケーブル85A(軟体部)が、最上位ケーブル85T(最上位軟体部)であると判別することができるので、画像分析部40は、ステップS4において、最上位ケーブル85Tの判別が可能である(YES)と判定し、ステップS5において、第1ケーブル85A(軟体部)を最上位ケーブル85T(最上位軟体部)として確定する。その後、ステップS6において、画像分析部40は、図8に示す二次元画像VDに基づいて、最上位ケーブル85Tを有する第1ワーク80Aにおいて、軟体部である第1ケーブル85A(最上位ケーブル85T)及び剛体部であるコネクタ81,82を認識できる(YES)と判定すると、ステップS7に進み、最上位ケーブル85T(第1ケーブル85A)を有する第1ワーク80Aを、最上位ワーク80Tとして決定する(図8参照)。
なお、ステップS12において最上位ケーブル85Tを作り出すことができない(NO)と判定された場合は、ステップS15(位置関係変更ステップ)に進み、ワーク置き場WS(ワーク収容箱90の内部)に存在する複数のワーク80の位置関係を無作為に変更する操作を行う。具体的には、例えば、ロボットコントローラ50が、把持ロボット10の多関節アーム部12及び把持部11の動作を制御することによって、ワーク置き場WS(ワーク収容箱90の内部)に存在するワーク80を無作為に移動させる。
より具体的には、例えば、把持ロボット10によってワーク収容箱90を揺り動かして、ワーク収容箱90の内部(ワーク置き場WS)に存在するワーク80を無作為に移動させる。あるいは、把持ロボット10によってワーク収容箱90の内部を掻き混ぜるようにして、ワーク収容箱90の内部(ワーク置き場WS)に存在するワーク80を無作為に移動させる。これにより、ワーク置き場WS(ワーク収容箱90の内部)に存在する複数のワーク80の位置関係を無作為に変更する。このような操作を行うことで、最上位ケーブル85T(最上位軟体部)が作り出され得る。あるいは、最上位ケーブル85Tを作り出す手順を見いだす(導き出す)ことが可能となり得る。
ステップS15の処理を行った後は、ステップS14に進み、2Dビジョンセンサ30は、改めて、ワーク置き場WS(ワーク収容箱90の内部)を撮像して、ワーク収容箱90の内部の二次元画像VDを新たに生成する。その後、ステップS3に戻り、画像分析部40は、新たに生成された二次元画像VDに基づいて、ワーク置き場WSにおいて、複数のワーク80のケーブル85(軟体部)が交差して重なる交差部CPが存在するか否かを判定する。その後、前述したステップS4以降の処理を行うことで、最上位ケーブル85T及び最上位ワーク80Tを確定することができる。
以上説明したように、本実施形態のワーク識別方法によれば、複数のワーク80の軟体部(ケーブル85)が交差する態様で、複数のワーク80がワーク置き場WS(ワーク収容箱90の内部)に存在している(バラ積みされている)場合において、これらのワーク80から、最も上方に位置する最上位ワーク80Tを識別することができる。
ステップS7において最上位ワーク80Tが決定されると、ステップS8に進み、把持ロボット10の把持部11によって、最上位ワーク80Tの剛体部(コネクタ81またはコネクタ82)を把持し、把持した最上位ワーク80Tを、ワーク置き場WS(ワーク収容箱90の内部)から取り出す。
具体的には、まず、3Dビジョンセンサ20によって、ワーク置き場WS(ワーク収容箱90の内部)に位置する最上位ワーク80Tの三次元計測データ(三次元画像データ)を生成する。その後、3Dビジョンコントローラ60が、3Dビジョンセンサ20によって生成された最上位ワーク80Tの三次元計測データを取得する。さらに、3Dビジョンコントローラ60は、取得した三次元計測データから、最上位ワーク80Tの剛体部(コネクタ81またはコネクタ82)を検出し、検出した剛体部(コネクタ81またはコネクタ82)の三次元計測データと、剛体部(コネクタ81またはコネクタ82)の三次元CADデータとをマッチングさせることによって、最上位ワーク80Tの剛体部(コネクタ81またはコネクタ82)の三次元位置と姿勢を認識(検出)する。
次に、ロボットコントローラ50が、3Dビジョンコントローラ60によって認識(検出)された最上位ワーク80Tの剛体部(コネクタ81またはコネクタ82)の三次元位置と姿勢に基づいて、把持ロボット10の多関節アーム部12及び把持部11の動作を制御して、把持部11によって、最上位ワーク80Tの剛体部(コネクタ81またはコネクタ82)を把持させる。例えば、ロボットコントローラ50は、3Dビジョンコントローラ60によって認識(検出)された最上位ワーク80Tのコネクタ82(剛体部)の三次元位置と姿勢に基づいて、把持ロボット10の多関節アーム部12及び把持部11の動作を制御して、把持部11によって、最上位ワーク80Tのコネクタ82(剛体部)を把持させる。
その後、把持部11によって把持された最上位ワーク80Tは、ロボットコントローラ50の制御によって、把持ロボット10によってワーク置き場WS(ワーク収容箱90の内部)から取り出される。
(最上位ワーク識別試験)
次に、最上位ワーク識別試験について説明する。本試験では、ワーク置き場WS(ワーク収容箱90の内部)にバラ積みするワーク80の数を、2本、3本、または4本と異ならせて、それぞれの場合について、実施形態のワーク識別方法(前述した実施形態の把持装置1を用いたワーク識別方法)によって最上位ワーク80T(ワーク置き場WSにおいて最も上方に位置するワーク80)を識別する試験を行った。
具体的には、例えば、ワーク置き場WSに2本のワーク80を無作為に配置(バラ積み)した場合について、前述したステップS1〜S15の一連の処理(図3参照)によって、最上位ワーク80Tを識別して把持する試験を、複数回(例えば、100回)行った。ステップS1〜S15の一連の処理を1サイクルとして、各回の試験において、最上位ワーク80Tを識別して把持するまで(すなわち、ステップS7において最上位ワーク80Tを決定して、ステップS8において最上位ワーク80Tを把持するまで)、ステップS1〜S15のサイクル処理を行った。
そして、各回の試験において最上位ワーク80Tを識別して把持するまでに要したサイクル数を求め、各サイクル数における最上位ワーク識別率(%)を算出した。なお、各サイクル数における最上位ワーク識別率D(%)は、ステップS1〜S15の一連の処理を各サイクル数まで行った場合の、最上位ワーク80Tの識別成功率(最上位ワーク80Tの把持成功率に等しい)に相当する。また、サイクル数は、最上位ワーク80Tを識別して把持するまでにステップS3の処理を行った回数に等しい。ワーク置き場WSにバラ積みするワーク80の数を、3本または4本にした場合についても、同様にして試験を行って、各サイクル数における最上位ワーク識別率(%)を算出した。これらの結果を、表1に示す。
また、ワーク置き場WSにおいて交差している複数のケーブル85(軟体部)から最上位ケーブル85T(最上位軟体部)を判別(識別)するために、予め画像分析部40に教示した画像の数(教示画像数とする、表1参照)は、ワーク置き場WSにバラ積みされたワーク80の数が2本である場合には10枚、3本である場合には30枚、4本である場合には50枚としている。より具体的には、ワーク置き場WSにバラ積みされたワーク80の数が2本である場合には、10通りのワーク80の配置(バラ積み)パターンの画像データ(10枚の画像)と、それぞれの配置パターンにおける最上位ケーブル85T(最上位軟体部)との組み合わせデータを、予め、画像分析部40に教示している。
ワーク置き場WSにバラ積みされたワーク80の数が3本である場合には、30通りのワーク80の配置(バラ積み)パターンの画像データ(30枚の画像)と、それぞれの配置パターンにおける最上位ケーブル85T(最上位軟体部)との組み合わせデータを、予め、画像分析部40に教示している。ワーク置き場WSにバラ積みされたワーク80の数が4本である場合には、50通りのワーク80の配置(バラ積み)パターンの画像データ(50枚の画像)と、それぞれの配置パターンにおける最上位ケーブル85T(最上位軟体部)との組み合わせデータを、予め、画像分析部40に教示している。
Figure 2020189356
表1に示すように、ワーク置き場WSにバラ積みされたワーク80の数が2本である場合は、1回目のサイクルで、最上位ワーク識別率を100%にすることができた。すなわち、複数回(例えば、100回)行った全ての試験において、ステップS1〜S15の一連の処理を1サイクル行っただけで、最上位ワーク80T(最上位ケーブル85T)を識別して把持することができた。換言すれば、ステップS1〜S15の一連の処理を1サイクルだけ行うことで、100%の確率で、最上位ワーク80T(最上位ケーブル85T)を識別して把持することができた。従って、ワーク置き場WSにバラ積みされたワーク80の数が2本である場合には、1サイクルで、最上位ワーク80T(最上位ケーブル85T)を識別して把持することができるといえる。
また、ワーク置き場WSにバラ積みするワーク80の数を3本にした場合は、1回目のサイクルで、最上位ワーク識別率を97%にすることができた(表1参照)。すなわち、全試験回数に対する、「ステップS1〜S15の一連の処理を1サイクル行っただけで、最上位ワーク80T(最上位ケーブル85T)を識別して把持することができた試験回数の割合」が、97%となった。換言すれば、ステップS1〜S15の一連の処理を1サイクルだけ行うことで、97%の確率で、最上位ワーク80T(最上位ケーブル85T)を識別して把持することができた。例えば、100回の試験を行った場合において、97回の試験において、ステップS1〜S15の一連の処理を1サイクル行っただけで最上位ワーク80T(最上位ケーブル85T)を識別して把持することができた。
さらに、ワーク置き場WSにバラ積みするワーク80の数を3本にした場合、2サイクルで、最上位ワーク識別率を99%にすることができた(表1参照)。すなわち、ステップS1〜S15の一連の処理を1サイクルまたは2サイクル行うことで、99%の確率で、最上位ワーク80T(最上位ケーブル85T)を識別して把持することができた。例えば、100回の試験を行った場合において、99回の試験において、ステップS1〜S15の一連の処理を1サイクルまたは2サイクル行うだけで最上位ワーク80T(最上位ケーブル85T)を識別して把持することができた。
さらに、ワーク置き場WSにバラ積みするワーク80の数を3本にした場合、3サイクルで、最上位ワーク識別率を100%にすることができた(表1参照)。すなわち、ステップS1〜S15の一連の処理を3サイクル行うことで、100%の確率で、最上位ワーク80T(最上位ケーブル85T)を識別して把持することができた。従って、ワーク置き場WSにバラ積みされたワーク80の数が3本である場合には、3サイクル以内で、最上位ワーク80T(最上位ケーブル85T)を識別して把持することができるといえる。
また、ワーク置き場WSにバラ積みするワーク80の数を4本にした場合は、1回目のサイクルで、最上位ワーク識別率を85%にすることができた(表1参照)。さらには、2サイクルで、最上位ワーク識別率を92%にすることができた。さらには、3サイクルで、最上位ワーク識別率を99%にすることができた。さらには、4サイクルで、最上位ワーク識別率を100%にすることができた。従って、ワーク置き場WSにバラ積みされたワーク80の数が4本である場合には、4サイクル以内で、最上位ワーク80T(最上位ケーブル85T)を識別して把持することができるといえる。
本試験の結果から、本実施形態のワーク識別方法を用いることで、複数のワーク80の軟体部(ケーブル85)が交差する態様で、複数のワーク80がワーク置き場WS(ワーク収容箱90の内部)に存在している(バラ積みされている)場合において、これらのワーク80から、最も上方に位置する最上位ワーク80Tを適切に識別することができるといえる。
以上において、本発明を実施形態に即して説明したが、本発明は上記実施形態に限定されるものではなく、その要旨を逸脱しない範囲で、適宜変更して適用できることはいうまでもない。
例えば、実施形態では、識別対象となるワーク80として、剛体部であるコネクタ81,82と自由線形状の軟体部であるケーブル85とによって構成されたワイヤーハーネスを例示した。しかしながら、本発明の識別対象となるワークは、ワイヤーハーネスに限定されるものではなく、自由線形状である軟体部を有するワークであれば、いずれのワークであっても良い。
具体的には、自由線形状である軟体部のみからなるワークを、識別対象としても良い。この場合に、ステップS13において、把持ロボット10によってワークを把持して移動させる方法としては、例えば、以下のような方法を挙げることができる。例えば、軟体部のうち一定形状を有する端部の三次元CADデータを、予め3Dビジョンコントローラ60に記憶させておき、移動させるワークについて、3Dビジョンセンサ20によって生成された端部の三次元計測データと当該端部の三次元CADデータとをマッチングさせることによって、当該端部の三次元位置と姿勢を認識(検出)する。その後、認識(検出)された当該端部の三次元位置と姿勢に基づいて、把持ロボット10によって当該端部を把持して、当該端部を有するワークを移動させる。
1 把持装置
10 把持ロボット
20 3Dビジョンセンサ
30 2Dビジョンセンサ
40 画像分析部
50 ロボットコントローラ
60 3Dビジョンコントローラ
80 ワーク(ワイヤーハーネス)
80T 最上位ワーク
81,82 コネクタ(剛体部)
85 ケーブル(軟体部)
85T 最上位ケーブル(最上位軟体部)
90 ワーク収容箱
CP 交差部
VD 二次元画像
WS ワーク置き場

Claims (5)

  1. 自由線形状である軟体部を有するワークが複数置かれるワーク置き場を撮像し、
    前記撮像によって取得した画像に基づいて、前記ワーク置き場に前記ワークが存在するか否かを判定し、
    前記ワークが存在すると判定した場合に、前記画像に基づいて、前記ワーク置き場において複数の前記ワークの前記軟体部が交差して重なる交差部が存在するか否かを判定し、
    前記交差部が存在すると判定した場合に、前記画像に基づいて、交差している複数の前記軟体部のうち最も上方に位置する最上位軟体部を判別し、
    判別した前記最上位軟体部を有する前記ワークを、最も上方に位置する最上位ワークと決定する
    ワーク識別方法であって、
    前記画像に基づいて前記最上位軟体部を判別できない場合に、1または複数の前記ワークを移動させることによって前記最上位軟体部を作り出す手順を検討し、
    前記検討により見いだされた前記手順にしたがって、前記最上位軟体部を作り出すために前記ワークを移動させる
    ワーク識別方法。
  2. 請求項1に記載のワーク識別方法であって、
    前記手順にしたがって前記ワークを移動させた後、改めて前記ワーク置き場を撮像し、
    前記撮像によって改めて取得した画像に基づいて、前記ワーク置き場において前記交差部が存在するか否かを改めて判定し、
    前記交差部が存在すると判定した場合に、前記改めて取得した画像に基づいて、前記最上位軟体部を改めて判別する
    ワーク識別方法。
  3. 請求項1または請求項2に記載のワーク識別方法であって、
    前記検討により、前記最上位軟体部を作り出す手順を見いだすことができなかった場合に、前記ワーク置き場に存在する複数の前記ワークの位置関係を無作為に変更する操作を行い、
    その後、改めて前記ワーク置き場を撮像し、
    前記撮像によって改めて取得した画像に基づいて、前記ワーク置き場において前記交差部が存在するか否かを改めて判定し、
    前記交差部が存在すると判定した場合に、前記改めて取得した画像に基づいて、前記最上位軟体部を改めて判別する
    ワーク識別方法。
  4. 請求項1〜請求項3のいずれか一項に記載のワーク識別方法であって、
    前記ワークは、前記軟体部と剛体部とによって構成されるワークであり、
    前記最上位軟体部を判別した後であって前記最上位ワークを決定する前に、前記画像に基づいて、判別した前記最上位軟体部を有する前記ワークについて、前記軟体部及び前記剛体部を認識できるか否かを判定し、
    前記軟体部及び前記剛体部を認識できると判定した場合に、前記最上位軟体部を有する前記ワークを前記最上位ワークと決定する
    ワーク識別方法。
  5. 請求項4に記載のワーク識別方法であって、
    前記軟体部及び前記剛体部を認識できないと判定した場合に、前記ワーク置き場を撮像する角度を変えて、改めて前記ワーク置き場を撮像し、
    前記撮像によって改めて取得した画像に基づいて、前記ワーク置き場において前記交差部が存在するか否かを改めて判定し、
    前記交差部が存在すると判定した場合に、前記改めて取得した画像に基づいて前記最上位軟体部を改めて判別し、
    前記改めて判別した前記最上位軟体部を有する前記ワークについて、前記改めて取得した画像に基づいて、前記軟体部及び前記剛体部を認識できるか否かを改めて判定する
    ワーク識別方法。
JP2019095271A 2019-05-21 2019-05-21 ワーク識別方法 Active JP7120153B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019095271A JP7120153B2 (ja) 2019-05-21 2019-05-21 ワーク識別方法
US16/847,939 US11213954B2 (en) 2019-05-21 2020-04-14 Workpiece identification method
CN202010418703.1A CN111985293B (zh) 2019-05-21 2020-05-18 工件识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019095271A JP7120153B2 (ja) 2019-05-21 2019-05-21 ワーク識別方法

Publications (2)

Publication Number Publication Date
JP2020189356A true JP2020189356A (ja) 2020-11-26
JP7120153B2 JP7120153B2 (ja) 2022-08-17

Family

ID=73442278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019095271A Active JP7120153B2 (ja) 2019-05-21 2019-05-21 ワーク識別方法

Country Status (3)

Country Link
US (1) US11213954B2 (ja)
JP (1) JP7120153B2 (ja)
CN (1) CN111985293B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6777682B2 (ja) * 2018-04-27 2020-10-28 ファナック株式会社 複数の把持部を備えるロボットハンド、及びロボットハンドを用いてワイヤハーネスをハンドリングする方法
WO2020132372A1 (en) * 2018-12-20 2020-06-25 RightHand Robotics, Inc. Empty container detection
JP7183941B2 (ja) * 2019-05-09 2022-12-06 トヨタ自動車株式会社 ワーク識別方法
CN113459101B (zh) * 2021-03-05 2022-08-09 牧今科技 用于执行抓持区域检测的方法和计算系统
US11911919B2 (en) 2021-03-05 2024-02-27 Mujin, Inc. Method and computing system for performing grip region detection
EP4070922A3 (en) * 2021-04-06 2023-01-11 Canon Kabushiki Kaisha Robot system, control method, image processing apparatus, image processing method, method of manufacturing products, program, and recording medium
JP2022186331A (ja) * 2021-06-04 2022-12-15 株式会社東芝 ハンドリングシステム、搬送システム、制御装置、プログラム、およびハンドリング方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000094374A (ja) * 1998-09-25 2000-04-04 Matsushita Electric Works Ltd ピッキング装置
JP2000263480A (ja) * 1999-03-12 2000-09-26 Meidensha Corp ビンピッキング装置
JP2010184308A (ja) * 2009-02-10 2010-08-26 Fanuc Ltd ワーク取り出し装置
US20110223001A1 (en) * 2008-08-29 2011-09-15 Abb Research Ltd. Robotic Picking Of Parts From A Bin
JP2015030044A (ja) * 2013-07-31 2015-02-16 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
JP2018008343A (ja) * 2016-07-13 2018-01-18 富士通株式会社 部品ピックアップ方法及び部品供給装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3768174B2 (ja) * 2002-07-24 2006-04-19 ファナック株式会社 ワーク取出し装置
JP4390758B2 (ja) * 2005-09-08 2009-12-24 ファナック株式会社 ワーク取出し装置
JP5196156B2 (ja) 2008-09-16 2013-05-15 株式会社Ihi バラ積みピッキング装置におけるワークピッキング方法
JP5201411B2 (ja) * 2008-11-21 2013-06-05 株式会社Ihi バラ積みピッキング装置とその制御方法
JP4938115B2 (ja) * 2010-07-27 2012-05-23 ファナック株式会社 ワーク取出し装置およびワーク取出し方法
JP5977544B2 (ja) * 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP5480340B2 (ja) * 2012-07-26 2014-04-23 ファナック株式会社 ローラ装置を用いた取出しロボットシステム
JP6000029B2 (ja) * 2012-09-10 2016-09-28 株式会社アプライド・ビジョン・システムズ ハンドリングシステム、ハンドリング方法及びプログラム
WO2017044747A1 (en) * 2015-09-11 2017-03-16 Berkshire Grey Inc. Robotic systems and methods for identifying and processing a variety of objects
JP7047249B2 (ja) * 2017-01-10 2022-04-05 オムロン株式会社 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム
JP6450788B2 (ja) * 2017-02-21 2019-01-09 ファナック株式会社 ワーク取出システム
JP6846949B2 (ja) * 2017-03-03 2021-03-24 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6889574B2 (ja) * 2017-03-03 2021-06-18 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6487495B2 (ja) * 2017-05-19 2019-03-20 ファナック株式会社 ワーク取出しシステム
JP6499716B2 (ja) * 2017-05-26 2019-04-10 ファナック株式会社 形状認識装置、形状認識方法及びプログラム
JP6860432B2 (ja) 2017-06-09 2021-04-14 川崎重工業株式会社 ワークの認識装置及びワークを認識する方法
JP7183941B2 (ja) * 2019-05-09 2022-12-06 トヨタ自動車株式会社 ワーク識別方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000094374A (ja) * 1998-09-25 2000-04-04 Matsushita Electric Works Ltd ピッキング装置
JP2000263480A (ja) * 1999-03-12 2000-09-26 Meidensha Corp ビンピッキング装置
US20110223001A1 (en) * 2008-08-29 2011-09-15 Abb Research Ltd. Robotic Picking Of Parts From A Bin
JP2010184308A (ja) * 2009-02-10 2010-08-26 Fanuc Ltd ワーク取り出し装置
JP2015030044A (ja) * 2013-07-31 2015-02-16 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
JP2018008343A (ja) * 2016-07-13 2018-01-18 富士通株式会社 部品ピックアップ方法及び部品供給装置

Also Published As

Publication number Publication date
CN111985293B (zh) 2023-12-29
US11213954B2 (en) 2022-01-04
US20200368923A1 (en) 2020-11-26
JP7120153B2 (ja) 2022-08-17
CN111985293A (zh) 2020-11-24

Similar Documents

Publication Publication Date Title
JP2020189356A (ja) ワーク識別方法
US10894324B2 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
CN113696186B (zh) 复杂光照条件下基于视触融合的机械臂自主移动抓取方法
JP7467041B2 (ja) 情報処理装置、情報処理方法及びシステム
JP5778311B1 (ja) ピッキング装置およびピッキング方法
KR102159847B1 (ko) 로봇을 이용한, 물체와 관련된 파지 공간의 결정
US9990685B2 (en) Automated guidance system and method for a coordinated movement machine
JP7154815B2 (ja) 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体
JP7191569B2 (ja) 把持装置
KR20220139254A (ko) 워크 식별 방법
KR20190073282A (ko) 파지 장치, 학습 장치, 학습 완료 모델, 파지 시스템, 판정 방법, 및 학습 방법
JP2019084601A (ja) 情報処理装置、把持システムおよび情報処理方法
JP7481427B2 (ja) 取り出しシステム及び方法
JP2017124450A (ja) ピックアップ装置
JP2015112654A (ja) 制御装置、ロボット、教示データ生成方法及びロボットシステム
CN114025928A (zh) 末端执行器的控制系统以及末端执行器的控制方法
CN111745640A (zh) 物体检测方法、物体检测装置以及机器人系统
CN114670189B (zh) 存储介质、以及生成机器人的控制程序的方法及系统
CN113269112A (zh) 一种抓取区域的识别方法、装置、电子设备及存储介质
JP7454132B2 (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
CN116175542B (zh) 确定夹具抓取顺序的方法、装置、电子设备和存储介质
CN111914608B (zh) 工件识别方法
US20230120598A1 (en) Robot program generation method from human demonstration
CN116197888B (zh) 物品位置确定方法、装置、电子设备和存储介质
CN116197887B (zh) 生成抓取辅助图像的图像数据处理方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R151 Written notification of patent or utility model registration

Ref document number: 7120153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151