JP7328017B2 - ロボットシステム及び制御装置 - Google Patents

ロボットシステム及び制御装置 Download PDF

Info

Publication number
JP7328017B2
JP7328017B2 JP2019109031A JP2019109031A JP7328017B2 JP 7328017 B2 JP7328017 B2 JP 7328017B2 JP 2019109031 A JP2019109031 A JP 2019109031A JP 2019109031 A JP2019109031 A JP 2019109031A JP 7328017 B2 JP7328017 B2 JP 7328017B2
Authority
JP
Japan
Prior art keywords
work
workpiece
robot
imaging
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019109031A
Other languages
English (en)
Other versions
JP2020199605A (ja
Inventor
渉 遠山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2019109031A priority Critical patent/JP7328017B2/ja
Priority to US16/889,180 priority patent/US11697210B2/en
Priority to DE102020003349.0A priority patent/DE102020003349A1/de
Priority to CN202010517737.6A priority patent/CN112060073A/zh
Publication of JP2020199605A publication Critical patent/JP2020199605A/ja
Application granted granted Critical
Publication of JP7328017B2 publication Critical patent/JP7328017B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40554Object recognition to track object on conveyor
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボットシステムに関する。
ロボットシステムにおけるビジュアルトラッキングとは、搬送手段としてのコンベヤ上を流れてくる多数の対象物をカメラで見つけて、ロボットがコンベヤの流れに合わせて取出しを行うアプリケーションのことである。これにより、コンベヤを流れてくる対象物を複数のロボットが分担して取り出していくことが可能となる。
ビジュアルトラッキングを用いた装置として、第1のステレオカメラを用いた初期段階の検出操作でワークの位置及び姿勢を認識し、ワークの移動位置に追従させてロボットのハンドを移動させながら、第2のステレオカメラを繰り返し作動させて、ワークの位置及び姿勢のズレ量を求めた後、当該ズレ量を補正することにより、最終的なピッキング動作の目標位置とハンドの姿勢を制御するピッキング装置が知られている(例えば、特許文献1を参照)。
特開2004-1122号公報
しかし、特許文献1で開示されるピッキング装置は、ワークが積み重なることに対応した装置ではなかった。
ビジュアルトラッキングを用いる際、コンベヤで流れてくるワークが積み重なっていると、上に位置するワークの下に隠れているワークは撮像しても計測できないため検出されず、見逃すことになる。その解決策として、円弧コンベヤでワークを周回させる、リターン機構を用意する、1台の固定カメラで複数回の撮像・計測を行う方法が考えられるが、システムの設置にコストがかかる。
搬送されている積み重なったワークを低コストで効率的に取出し可能なロボットシステムを提供することが望まれている。
本開示の一態様は、搬送手段により搬送されているワークを撮像する第1の撮像手段と、搬送手段により搬送されている前記ワークを撮像する第2の撮像手段を備えるロボットと、前記第1の撮像手段により撮像された前記ワークに基づいて、前記ワークの位置を取得する位置取得手段と、前記第2の撮像手段により撮像された前記ワークに基づいて、前記位置取得手段によって位置を取得された前記ワークの三次元情報を取得する三次元情報取得手段と、前記三次元情報取得手段により取得された前記ワークの三次元情報に基づいて、前記ワークにおいて、露出しているワークに他のワークが隠れているか否かを判定する判定手段と、前記露出しているワークを取り出す取出し手段と、前記露出しているワークに前記他のワークが隠れていると判定された場合、前記他のワークが露出した後に、前記第2の撮像手段に前記他のワークを撮像させて前記他のワークを検出する検出手段と、前記検出手段による検出結果を、前記ロボットによる取出し動作に利用するため、前記検出手段の外部に伝達する伝達手段と、を備えるロボットシステムである。
一態様によれば、搬送されている積み重なったワークを低コストで効率的に取出し可能なロボットシステムを提供することが可能となる。
一実施形態の全体構成図である。 一実施形態における制御部の機能ブロック図である。 一実施形態の動作を示すフローチャートである。 一実施形態の動作中における各構成要素の位置関係を示す図である。 一実施形態の動作中における各構成要素の位置関係を示す図である。 一実施形態の動作中における各構成要素の位置関係を示す図である。 一実施形態の動作中における各構成要素の位置関係を示す図である。 一実施形態の動作中における各構成要素の位置関係を示す図である。
以下、本発明の実施形態について、図1~図8を参照することにより説明する。
〔1 実施形態の構成〕
図1は、本発明の実施形態に係るロボットシステム1の全体構成を示す図である。
図1に示すように、一実施形態によるロボットシステム1は、ロボット11と、コンベヤ(以降では、「搬送手段」とも呼称する)12と、固定カメラ(以降では、「第1の撮像手段」とも呼称する)13と、3Dビジョンセンサ(以降では、「第2の撮像手段」とも呼称する)14と、制御部30とを備える。
また、コンベヤ12上では、例えばワーク2Aとワーク2Bとを含む、ワーク2が、ワーク2Aがワーク2B上に積み重なった状態で、流れてくるものとする。
ロボット11は、複数の駆動軸を有し、先端部を位置決めする。ロボット11としては、典型的には図示するような垂直多関節ロボットとされるが、例えば直交座標ロボット、スカラロボット、パラレルリンクロボット等であってもよい。
とりわけ本実施形態において、ロボット11は、コンベヤ12上を上流から流れてくるワーク2をピッキングするためのロボットである。ロボット11は、アーム111とハンド(以降では、「取出し手段」とも呼称する)112とを備える。ハンド112はアーム111の先端部に設けられる。ロボット11は、アーム111を駆動することにより、ハンド112を目標物であるワーク2に近づけ、ハンド112によってワーク2をピッキングする。
コンベヤ12は、ロボット11よりも上流からロボット11よりも下流に向かって、ワーク2を搬送する装置である。コンベヤ12は、例えばベルトコンベヤであってよい。
固定カメラ13は、ロボット11よりも上流側において、コンベヤ12上を流れるワーク2を撮像する装置である。固定カメラ13は、コンベヤ12に対する相対位置が固定されていることを好適とするが、これには限定されない。また、固定カメラ13は、とりわけワーク2の二次元画像を撮像するカメラであって、一般に、後述の3Dビジョンセンサ14よりも安価であるが、これには限定されない。
とりわけ本実施形態において、固定カメラ13は、コンベヤ12上のワーク2の大まかな位置を取得するために用いられるが、その他、固定カメラ13が通常有する機能を備えることが可能である。
3Dビジョンセンサ14は、物体の三次元画像を撮像することが可能なセンサである。とりわけ本実施形態において、3Dビジョンセンサ14は、ロボット11のアーム111に固定されている。これにより、ロボット11がハンド112によりワーク2をピッキングする前後において、3Dビジョンセンサ14は、ワーク2に近接することにより、ワーク2の三次元情報を取得することが可能である。ただし、これには限定されず、3Dビジョンセンサ14は、ワーク2の三次元画像を撮像可能な位置であれば、任意の位置に設置することが可能である。
制御部30は、CPU及びメモリを含むマイクロプロセッサ(図示せず)により構成される。制御部30において、マイクロプロセッサのCPUは、メモリから読み出した所定のプログラムに従って、ロボットシステム1に係る各種の制御を実行する。以下、制御部30の機能の一部について説明する。
図2は、制御部30の機能ブロックである。制御部30は、位置取得部301と、三次元情報取得部302と、判定部303と、検出部304と、伝達部305とを備える。
位置取得部301は、固定カメラ13により撮像されたワーク2の撮像画像に基づいて、コンベヤ12上におけるワーク2の大まかな位置を取得する。
三次元情報取得部302は、3Dビジョンセンサ14により撮像されたワーク2の撮像画像に基づいて、位置取得部301によって位置が取得されたワーク2の三次元情報を取得する。ここで、三次元情報とは、とりわけワーク2の位置情報、姿勢情報、及び高さ情報を含む。とりわけ本実施形態においては、位置取得部301によって位置が取得されたワーク2に向けて、アーム111が駆動されることによりハンド112が近づいた際、三次元情報取得部302は、アーム111に設置された3Dビジョンセンサ14により、ワーク2の三次元情報を取得する。
判定部303は、三次元情報取得部302によって取得されたワーク2の三次元情報に基づいて、ワーク2において、例えば固定カメラ13から見て露出しているワーク2Aに、他のワーク2Bが隠れているか否かを判定する。
とりわけ本実施形態においては、三次元情報取得部302によって取得されたワーク2の三次元情報に含まれる高さ情報が、ワーク2A及びワーク2Bの各々の厚さよりも大きい場合に、判定部303は、露出しているワーク2Aに他のワーク2Bが隠れていると判定することが可能である。なお、他のワーク2Bが隠れる位置は、露出しているワーク2Aの下に制限されず、他のワーク2Bは完全に隠れていなくてもよい。
あるいは、判定部303は、3Dビジョンセンサ14により撮像された三次元画像において、ワーク2の画像中、他のワーク2Bが占める面積の割合を所定の閾値と比較し、当該比較結果に応じて、露出しているワーク2Aに他のワーク2Bが隠れているか否かを判定してもよい。
また、出願人は、これまでに、例えば特願2009-28968号(特開2010-184308号公報)、特願2012-188485号(特開2014-046371号公報)、及び特願2017-29853号(特開2018-134698号公報)において、複数のワークが積み重なっている場合に、これらのワークの相対的な位置や姿勢を認識し、検出する技術について出願してきた。これらの技術を本発明に転用することにより、露出しているワーク2Aに他のワーク2Bが隠れているか否かを判定することが可能である。
例えば、複数のワークから任意の2個のワークを選択し、個々のワークの位置と姿勢、及びワークの寸法情報から2個のワークが重なる重なり領域を推定し、この重なり領域に2個のワークのうちいずれかのワークの特定の形状が含まれる場合に、重なり箇所の画像の個々の画素に対する勾配情報を算出し、当該勾配情報から、2個のワークのうちいずれのワークが上側に位置するかを判断する技術を、本発明に転用してもよい。
あるいは、三次元空間にバラ積みされた複数の物品の表面位置を測定し、複数の三次元点の位置情報を取得し、取得された複数の三次元点の中から、互いに近傍にある三次元点を連結してなる連結集合を求め、連結集合に属する三次元点の位置情報に基づき、物品の位置及び姿勢を特定する技術を、本発明に転用してもよい。
あるいは、コンテナ内のワークの三次元情報として、各点が高さ位置情報を有する三次元点を取得し、三次元点群の中で、隣接する点同士が所定の条件を満たす複数の三次元点集合を作成し、複数の三次元点集合のうち、所定の大きさの基準、所定の面積の基準、及び所定の長さの基準の少なくとも一つに該当するものを除外集合として特定し、三次元点群又は複数の三次元点集合から除外集合に含まれる点を除外して得られるワーク検出用の三次元点群を求め、ワーク検出用の三次元点から、ロボットによる取出しのためのワーク検出を行う技術を、本発明に転用してもよい。
検出部304は、判定部303によって、露出しているワーク2Aに他のワーク2Bが隠れていると判定された場合、ハンド112によって露出しているワーク2Aが取り出されることにより、他のワーク2Bが露出した後に、他のワーク2Bを3Dビジョンセンサ14によって検出する。
とりわけ本実施形態においては、ハンド112によって露出しているワーク2Aが取り出された後の「退避動作」、すなわち、ハンド112がワーク2Aを把持した後、他の場所に運搬するまでの動作中に、3Dビジョンセンサ14に他のワーク2Bを撮像させて他のワーク2Bを検出することが可能である。
伝達部305は、検出部304による検出結果を、ロボット11による取出し動作に利用するため、検出部304の外部に伝達する。
とりわけ本実施形態において、伝達部305は、検出部304による検出結果を、次工程のロボット11Aによる取出し動作に利用するため、ロボット11Aの制御部に伝達することが可能である。
〔2 実施形態の動作〕
図3は、本実施形態に係るロボットシステム1の動作を示すフローチャートである。また、図4~図8は、図3に示すフローチャートの各ステップにおける、ロボットシステム1内の各構成要素の位置関係及び状態を示す図である。以下、図3~図8を参照することにより、ロボットシステム1の動作について説明する。
ステップS1において、図4に示すように、位置取得部301は、固定カメラ13によって撮像された、コンベヤ12で流れてくるワーク2(2A,2B)の撮像画像に基づいて、コンベヤ12上におけるワーク2の大まかな位置を取得する。
ステップS2において、図5に示すように、三次元情報取得部302は、3Dビジョンセンサ14により撮像されたワーク2の撮像画像に基づいて、位置取得部301によって位置が取得されたワーク2の三次元情報を取得する。
ステップS3において、図6に示すように、ハンド112によって、露出しているワーク2Aを取り出す。
ステップS4において、取り出しているワーク2Aに、隠れているワーク2Bが存在する場合(S4:YES)には、処理はステップS5に移行する。取り出しているワーク2Aに、隠れているワーク2Bが存在しない場合(S4:NO)には、処理はステップS2に移行する。
ステップS5において、図7に示すように、ワーク2Aの取出し後の退避動作中に、検出部304は隠れていたワーク2Bを検出する。
ステップS6において、図8に示すように、伝達部305は、次工程のロボット11Aの制御部に対して、検出部304による、隠れていたワーク2Bの検出結果を伝達する。これにより、次工程のロボット11Aは、隠れていたワーク2Bを取り出す。
その後、処理はステップS2に移行する。
〔3 実施形態が奏する効果〕
本実施形態に係るロボットシステム1は、コンベヤ12上により搬送されているワーク2を撮像する固定カメラ13と、コンベヤ12により搬送されているワーク2を撮像する3Dビジョンセンサ14を備えるロボット11と、固定カメラ13により撮像されたワーク2に基づいて、ワーク2の位置を取得する位置取得部301と、3Dビジョンセンサ14により撮像されたワーク2に基づいて、位置取得部301によって位置を取得されたワーク2の三次元情報を取得する三次元情報取得部302と、三次元情報取得部302により取得されたワーク2の三次元情報に基づいて、ワーク2において、露出しているワーク2Aに他のワーク2Bが隠れているか否かを判定する判定部303と、露出しているワーク2Aを取り出すハンド112と、露出しているワーク2Aに他のワーク2Bが隠れていると判定された場合、他のワーク2Bが露出した後に、3Dビジョンセンサ14に他のワーク2Bを撮像させて他のワーク2Bを検出する検出部304と、検出部304による検出結果を、ロボット11による取出し動作に利用するため、検出部304の外部に伝達する伝達部305と、を備える。
これにより、コンベヤ12上で積み重なったワーク2を効率的に取り出すことが可能となる。また、円弧コンベヤ等の別の機構を用意する必要がないため、コストを削減できる。
また、本実施形態に係るロボットシステム1において、伝達部305は、検出結果を、次工程のロボット11Aによる取出し動作に利用するため、ロボット11Aの制御部に伝達してもよい。
これにより、ロボットシステム1内におけるワーク2の取りこぼしを削減することが可能となる。
また、本実施形態に係るロボットシステム1において、固定カメラ13は、ワーク2の二次元画像を取得すると共に、コンベヤ12に対する相対位置が固定されていてもよい。
これにより、比較的安価な固定カメラ13を用いることにより、コンベヤ12におけるワーク2の大まかな位置を取得することが可能となる。
また、本実施形態に係るロボットシステム1において、3Dビジョンセンサ14は、ロボット11のアーム111に取り付けられていてもよい。
これにより、退避動作中に、3Dビジョンセンサ14で隠れていたワーク2Bを検出することが可能となる。
また、本実施形態に係るロボットシステム1において、上記の三次元情報は、ワーク2の高さ情報、位置情報、及び姿勢情報を含んでもよい。
これにより、ワーク2の高さとワーク2との厚さとを比較することにより、ワーク2において積み重なりが生じてないか否かを判定することが可能となる。
1 ロボットシステム
2、2A、2B ワーク
11 ロボット
12 コンベヤ
13 固定カメラ(第1の撮像手段)
14 3Dビジョンセンサ(第2の撮像手段)
30 制御部
111 アーム
112 ハンド(取出し手段)
301 位置取得部位置取得手段)
302 三次元情報取得部三次元情報取得手段)
303 判定部(判定手段)
304 検出部(検出手段)
305 伝達部(伝達手段)

Claims (7)

  1. 搬送手段により搬送されているワークを撮像する第1の撮像手段と、
    搬送手段により搬送されている前記ワークを撮像する第2の撮像手段を備えるロボットと、
    前記第1の撮像手段により撮像された前記ワークに基づいて、前記ワークの位置を取得する位置取得手段と、
    前記第2の撮像手段により撮像された前記ワークに基づいて、前記位置取得手段によって位置を取得された前記ワークの三次元情報を取得する三次元情報取得手段と、
    前記三次元情報取得手段により取得された前記ワークの三次元情報に基づいて、前記ワークにおいて、露出しているワークに他のワークが隠れているか否かを判定する判定手段と、
    前記露出しているワークを取り出す取出し手段と、
    前記露出しているワークに前記他のワークが隠れていると判定された場合、前記他のワークが露出した後に、前記第2の撮像手段に前記他のワークを撮像させて前記他のワークを検出する検出手段と、
    前記検出手段による検出結果を、前記ロボットによる取出し動作に利用するため、前記検出手段の外部に伝達する伝達手段と、を備えるロボットシステム。
  2. 前記第1の撮像手段は、前記ワークの二次元画像を取得すると共に、前記搬送手段に対する相対位置が固定されている、請求項1に記載のロボットシステム。
  3. 前記第2の撮像手段は前記ロボットのアームに取り付けられている、請求項1又は2に記載のロボットシステム。
  4. 前記三次元情報は、前記ワークの高さ情報、位置情報、及び姿勢情報を含む、請求項1から請求項のいずれか1項に記載のロボットシステム。
  5. 第1の撮像手段により撮像されたワークに基づいて、前記ワークの位置に関する情報を取得する位置取得手段と、
    第2の撮像手段により撮像された前記ワークに基づいて、前記ワークの三次元情報を取得する三次元情報取得手段と、
    前記ワークのうち露出しているワークに他のワークが隠れていると判定された場合、前記他のワークが露出した後に、前記第2の撮像手段に前記他のワークを撮像させて前記他のワークを検出する検出手段と、
    前記検出手段による検出結果を、ロボットによる取出し動作に利用するため、前記検出手段の外部に伝達する伝達手段と、を備える制御装置。
  6. 前記三次元情報は、前記ワークの高さ情報、位置情報、及び姿勢情報を含む、請求項5に記載の制御装置。
  7. 前記第1の撮像手段は、搬送手段により搬送されているワークを撮像し、
    前記第2の撮像手段は、前記ロボットに備えられるものであり、搬送手段により搬送されている前記ワークを撮像する、請求項5又は6に記載の制御装置。
JP2019109031A 2019-06-11 2019-06-11 ロボットシステム及び制御装置 Active JP7328017B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019109031A JP7328017B2 (ja) 2019-06-11 2019-06-11 ロボットシステム及び制御装置
US16/889,180 US11697210B2 (en) 2019-06-11 2020-06-01 Robot system
DE102020003349.0A DE102020003349A1 (de) 2019-06-11 2020-06-03 Robotersystem
CN202010517737.6A CN112060073A (zh) 2019-06-11 2020-06-09 机器人系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019109031A JP7328017B2 (ja) 2019-06-11 2019-06-11 ロボットシステム及び制御装置

Publications (2)

Publication Number Publication Date
JP2020199605A JP2020199605A (ja) 2020-12-17
JP7328017B2 true JP7328017B2 (ja) 2023-08-16

Family

ID=73546978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019109031A Active JP7328017B2 (ja) 2019-06-11 2019-06-11 ロボットシステム及び制御装置

Country Status (4)

Country Link
US (1) US11697210B2 (ja)
JP (1) JP7328017B2 (ja)
CN (1) CN112060073A (ja)
DE (1) DE102020003349A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016147330A (ja) 2015-02-10 2016-08-18 株式会社三次元メディア 物体認識に基づく制御装置
JP2018111140A (ja) 2017-01-10 2018-07-19 オムロン株式会社 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2555824B2 (ja) * 1991-10-30 1996-11-20 日本電装株式会社 山積み部品の高速ピッキング装置
JP2852646B2 (ja) * 1996-11-06 1999-02-03 セイコー精機株式会社 トラッキングシステム
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP2004001122A (ja) 2002-05-31 2004-01-08 Suzuki Motor Corp ピッキング装置
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
JP2012187651A (ja) * 2011-03-09 2012-10-04 Omron Corp 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置
JP5464176B2 (ja) * 2011-06-20 2014-04-09 株式会社安川電機 ピッキングシステム
DE102012013030A1 (de) * 2012-06-29 2014-04-24 Liebherr-Verzahntechnik Gmbh Vorrichtung zum automatischen Entnehmen von in einem Behälter angeordneten Werkstücken
JP6413648B2 (ja) * 2014-06-20 2018-10-31 株式会社リコー 計測システム、物体取出システム、計測方法およびプログラム
JP6629853B2 (ja) * 2014-10-29 2020-01-15 フィーブス イントラロジスティクス ソチエタ ペル アツィオニ コン ソチオ ウニコ 選別機械に物品を送り込むための装置と選別機械
JP6042860B2 (ja) * 2014-12-02 2016-12-14 ファナック株式会社 ロボットを用いて物品を移送する物品移送装置及び物品移送方法
JP6823502B2 (ja) * 2017-03-03 2021-02-03 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2018176334A (ja) * 2017-04-10 2018-11-15 キヤノン株式会社 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法
CA3061181C (en) * 2017-04-24 2023-10-03 Berkshire Grey, Inc. Systems and methods for providing singulation of objects for processing using object movement redistribution
JP7116901B2 (ja) * 2017-08-01 2022-08-12 オムロン株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
US11007648B2 (en) * 2017-09-05 2021-05-18 Abb Schweiz Ag Robotic system for grasping objects
JP6763914B2 (ja) * 2018-06-08 2020-09-30 ファナック株式会社 ロボットシステムおよびロボットシステムの制御方法
US20200095001A1 (en) * 2018-09-26 2020-03-26 Dexterity, Inc. Robotic kitting system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016147330A (ja) 2015-02-10 2016-08-18 株式会社三次元メディア 物体認識に基づく制御装置
JP2018111140A (ja) 2017-01-10 2018-07-19 オムロン株式会社 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム

Also Published As

Publication number Publication date
US20200391388A1 (en) 2020-12-17
DE102020003349A1 (de) 2020-12-17
JP2020199605A (ja) 2020-12-17
US11697210B2 (en) 2023-07-11
CN112060073A (zh) 2020-12-11

Similar Documents

Publication Publication Date Title
JP6687591B2 (ja) 物品搬送装置、ロボットシステムおよび物品搬送方法
CN108372503B (zh) 使用至少一个传感器的物品运送装置
US7966094B2 (en) Workpiece picking apparatus
CN107150032B (zh) 一种基于多图像获取设备的工件识别与分拣装置和方法
CN109230580B (zh) 一种基于混放物料信息采集的拆垛机器人系统及方法
EP2345515B1 (en) Method for picking up work pieces
US10442633B2 (en) Robot system
US9102063B2 (en) Robot apparatus
JP5201411B2 (ja) バラ積みピッキング装置とその制御方法
EP2783810A2 (en) Robot system and method for producing to-be-processed material
US10521871B2 (en) Robot system
JP5893695B1 (ja) 物品搬送システム
WO2009148089A1 (ja) ハンドリング装置、制御装置、制御方法およびプログラム
JP6549655B2 (ja) 物品搬送装置
US11964399B2 (en) Target object recognition device, manipulator, and mobile robot
CN108453730B (zh) 工件取出系统
CN113021341B (zh) 一种基于5g的物品识别和自动转移运输的机器人
JP7328017B2 (ja) ロボットシステム及び制御装置
JP7436170B2 (ja) ロボットシステム
JP5332873B2 (ja) 袋状ワーク認識装置および方法
JP6708142B2 (ja) ロボットの制御装置
US20230071488A1 (en) Robotic system with overlap processing mechanism and methods for operating the same
CN115676223A (zh) 具有物体更新机制的机器人系统和用于操作所述机器人系统的方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230803

R150 Certificate of patent or registration of utility model

Ref document number: 7328017

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150