JP2019198950A - バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法 - Google Patents

バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法 Download PDF

Info

Publication number
JP2019198950A
JP2019198950A JP2018096446A JP2018096446A JP2019198950A JP 2019198950 A JP2019198950 A JP 2019198950A JP 2018096446 A JP2018096446 A JP 2018096446A JP 2018096446 A JP2018096446 A JP 2018096446A JP 2019198950 A JP2019198950 A JP 2019198950A
Authority
JP
Japan
Prior art keywords
workpiece
robot
dimensional information
dimensional
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018096446A
Other languages
English (en)
Other versions
JP6725587B2 (ja
Inventor
鈴木 忠則
Tadanori Suzuki
忠則 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2018096446A priority Critical patent/JP6725587B2/ja
Priority to US16/384,923 priority patent/US11027433B2/en
Priority to DE102019003334.5A priority patent/DE102019003334B4/de
Priority to CN201910407977.8A priority patent/CN110497402B/zh
Publication of JP2019198950A publication Critical patent/JP2019198950A/ja
Application granted granted Critical
Publication of JP6725587B2 publication Critical patent/JP6725587B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/087Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0033Gripping heads and other end effectors with gripping surfaces having special shapes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/02Gripping heads and other end effectors servo-actuated
    • B25J15/0246Gripping heads and other end effectors servo-actuated actuated by an electromagnet
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/06Gripping heads and other end effectors with vacuum or magnetic holding means
    • B25J15/0608Gripping heads and other end effectors with vacuum or magnetic holding means with magnetic holding means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/023Cartesian coordinate type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/04Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type by rotating at least one arm, excluding the head movement itself, e.g. cylindrical coordinate type or polar coordinate type
    • B25J9/041Cylindrical coordinate type
    • B25J9/042Cylindrical coordinate type comprising an articulated arm
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/1005Programme-controlled manipulators characterised by positioning means for manipulator elements comprising adjusting means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40537Detect if robot has picked up more than one piece from bin; interlocked parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

【課題】バラ積みされたワークを取り出すときに、ハンドにてワークが把持されている状態を精度よく判定するロボットシステムを提供する。【解決手段】制御装置4は、3次元情報を生成する生成部58と、3次元情報に含まれる少なくとも一部の測定点の情報を削除する削除部54と、ロボット1がワークを持ち上げる動作を実施した後の状態を判定する判定部55とを備える。生成部58は、ロボット1が目標のワークを把持する動作を実施する前に第1の3次元情報を生成する。生成部58は、ロボット1が目標のワークを持ち上げる動作を実施した後に第2の3次元情報を生成する。削除部54は、第1の3次元情報から第2の3次元情報に含まれる測定点の情報を削除した第3の3次元情報を生成する。判定部55は、第3の3次元情報に含まれるワークが目標のワークと同一であるか否かを判定する。【選択図】図2

Description

本発明は、バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法に関する。
多数のワークをコンテナなどの容器に収容する場合に、ワークの間隔または向きが不規則に配置されている場合がある。すなわち、容器の内部でワークがバラ積みされている場合がある。従来の技術においては、この容器からワークを取り出すロボットを備えるロボットシステムが知られている(例えば、特開2010−69542号公報)。
バラ積みされたワークは、様々な間隔または様々な向きにて収容されている。このために、ワークの位置および姿勢を検出して、ワークを取り出すことが好ましい。従来の技術においては、ワークの位置および姿勢を検出するために、3次元センサを用いることが知られている(例えば、特開2010−120141号公報および特開2017−64817号公報)。この方法では、3次元センサにて容器に配置されたワークを撮像する。3次元センサにより取得した画像により、バラ積みされたワークの3次元点群などの情報を生成することができる。そして、ワークの位置および姿勢を検出し、ワークの位置および姿勢に基づいてロボットの位置および姿勢を制御することができる。
ワークを把持するエンドエフェクタとしては、ワークを挟むための複数の爪部を有するハンドを用いることができる。ところが、このハンドは、ワークの決められた部分しか把持することができずに、バラ積みされたワークを効率よく取出すことができない場合がある。例えば、ワークの表側の部分を把持するハンドでは、ワークが裏返っているときに、ワークの裏面の部分を把持することができない場合がある。この結果、全てのワークを取り出せない場合がある。
エンドエフェクタとしては、様々な方向に向いているワークを把持できることが好ましい。すなわち、ワークに対するハンドの相対的な向きを定めずにワークを把持することができるハンドを用いることが好ましい。従来の技術においては、半球状の先端部を有し、電磁石にてワークを吸着する磁石ハンドを用いることが知られている(例えば、特開2015−171749号公報)。
特開2010−69542号公報 特開2010−120141号公報 特開2017−64817号公報 特開2015−171749号公報
容器の内部にワークがバラ積みされた状態において、ロボットが容器からワークを取り出す動作を実施した時に、ハンドがワークの把持に失敗する場合がある。または、ロボットが所望のワークと異なるワークを取り出す場合がある。このような場合には、サイクルタイムが長くなる。例えば、ハンドがワークを把持していない状態で、ロボットが次の工程までワークを搬送する動作を実施すると、ワークを搬送する動作および元の位置まで戻る動作を行う時間が無駄になる。このために、ハンドにてワークを把持して次の工程にワークを搬送する前に、所望のワークを把持しているか否かを確認することが好ましい。すなわち、ワークが把持されている状態を確認することが好ましい。
ワークが把持されている状態を確認するためには、ロボットのリストとハンドとの間に、質量の変化を検出する装置を配置することができる(例えば、上記の特開2015−171749号公報)。ワークを把持する前のハンドの質量とワークを把持した後のハンドの質量との差を測定することにより、ワークが把持されている状態を確認することができる。または、ハンドなどに光電センサを取り付けることができる。ワークが把持されている場合には、光電センサから出力される光がワークの表面にて反射される。光電センサが反射した光を受信した場合に、ワークが把持されていると判定することができる。ところが、これらの方法では、ワークの把持されている状態を確認するために新たな装置が必要になるという問題がある。また、質量の変化を検出する装置では、可動する部分の摩擦が大きい場合には、質量が小さなワークを検出することができない場合がある。
また、ワークに対するハンドの相対的な向きを定めずにワークを把持することができるハンドを用いた場合には、ハンドに対して様々な向きにてワークが把持される。このために、光電センサではワークの検出が難しいという問題がある。
例えば、ハンドとして磁石ハンドを採用して、ワークを検出する装置として光電センサを採用することができる。ところが、ワークを把持する時のハンドに対するワークの向きは定められていない。このために、ハンドに把持されたワークの向きに依存して、光電センサが出射する光が反射されない場合がある。この場合には、ハンドにてワークが把持されているにも関わらず、ハンドにてワークが把持されていないと判定される。または、光電センサを用いた場合には、1個のワークが把持されているか、又は2個以上のワークが把持されているかを判定することができないという問題がある。
本開示の第1の態様は、容器の内部にバラ積みされたワークを取り出すロボットシステムである。ロボットシステムは、ワークを把持するハンドと、ハンドを移動するロボットと、ワークまでの距離の情報を取得する3次元センサと、ハンドおよびロボットを制御する制御装置とを備える。制御装置は、ハンドおよびロボットに動作指令を送出する動作制御部と、3次元センサの出力に基づいて、ワークに設定された測定点の位置の情報を含む3次元情報を生成する生成部とを含む。制御装置は、ワークの3次元形状データを記憶する記憶部と、ワークの3次元情報を3次元形状データと比較するモデルマッチングを行うことにより、ワークの位置および姿勢を検出する検出部とを含む。制御装置は、ワークの位置および姿勢に基づいてロボットが取り出す目標のワークを選定する選定部を含む。制御装置は、3次元情報に含まれる少なくとも一部の測定点の情報を削除する削除部と、ロボットがワークを持ち上げる動作を実施した後の状態を判定する判定部とを備える。生成部は、ロボットが目標のワークを把持する動作を実施する前にワークを撮像した3次元センサの出力に基づいて第1の3次元情報を生成する。動作制御部は、第1の3次元情報に基づいて選定された目標のワークを把持して持ち上げる動作を実施した後に停止するようにロボットを制御する。生成部は、ロボットが目標のワークを持ち上げる動作を実施した後にワークを撮像した3次元センサの出力に基づいて第2の3次元情報を生成する。削除部は、第1の3次元情報の測定点の位置と第2の3次元情報の測定点の位置とを比較する。削除部は、予め定められた距離の範囲内に第2の3次元情報の測定点が存在する第1の3次元情報の測定点を特定の測定点として検出する。削除部は、第1の3次元情報から特定の測定点の情報を削除した第3の3次元情報を生成する。検出部は、第3の3次元情報に含まれるワークの位置および姿勢を検出する。判定部は、第3の3次元情報に含まれるワークが目標のワークと同一であるか否かを判定する。動作制御部は、第3の3次元情報に含まれるワークが目標のワークと同一である場合に、ハンドにて把持したワークを予め定められた搬送位置まで搬送するようにロボットを制御する。
本開示の第2の態様は、ロボットおよびハンドを備え、容器の内部にバラ積みされたワークを取り出すロボットシステムの制御方法である。制御方法は、ロボットの位置および姿勢を変更する動作制御工程を含む。制御方法は、ワークまでの距離の情報を取得する3次元センサにてワークを撮像する撮像工程と、3次元センサの出力に基づいて、ワークに設定された測定点の位置の情報を含む3次元情報を生成する生成工程とを含む。制御方法は、ワークの3次元情報をワークの3次元形状データと比較するモデルマッチングを行うことにより、ワークの位置および姿勢を検出する検出工程を含む。制御方法は、ワークの位置および姿勢に基づいてロボットが取り出す目標のワークを選定する選定工程を含む。制御方法は、3次元情報に含まれる少なくとも一部の測定点の情報を削除する削除工程と、ロボットがワークを持ち上げる動作を実施した後の状態を判定する判定工程とを含む。生成工程は、ロボットが目標のワークを把持する動作を実施する前にワークを撮像した3次元センサの出力に基づいて第1の3次元情報を生成する工程を含む。動作制御工程は、第1の3次元情報に基づいて選定された目標のワークを把持して持ち上げる動作を実施した後に停止するようにロボットを制御する工程を含む。生成工程は、ロボットが目標のワークを持ち上げる動作を実施した後にワークを撮像した3次元センサの出力に基づいて第2の3次元情報を生成する工程を含む。削除工程は、第1の3次元情報の測定点の位置と第2の3次元情報の測定点の位置とを比較する工程を含む。削除工程は、予め定められた距離の範囲内に第2の3次元情報の測定点が存在する第1の3次元情報の測定点を特定の測定点として検出する工程を含む。削除工程は、第1の3次元情報から特定の測定点の情報を削除した第3の3次元情報を生成する工程を含む。検出工程は、第3の3次元情報に含まれるワークの位置および姿勢を検出する工程を含む。判定工程は、第3の3次元情報に含まれるワークが目標のワークと同一であるか否かを判定する工程を含む。動作制御工程は、第3の3次元情報に含まれるワークが目標のワークと同一である場合に、ハンドにて把持したワークを予め定められた搬送位置まで搬送するようにロボットを制御する工程を含む。
本開示の態様のロボットシステムおよびロボットシステムの制御方法によれば、バラ積みされたワークを取り出すときに、ハンドにてワークが把持されている状態を精度よく判定することができる。
実施の形態におけるロボットシステムの斜視図である。 実施の形態におけるロボットシステムのブロック図である。 実施の形態におけるワークが内部に配置されたコンテナの平面図を示す。 実施の形態におけるレンジセンサおよびコンテナの部分断面図である。 実施の形態におけるコンテナおよびワークの部分断面図である。 ワークの表面に設定される測定点の説明図である。 ワークを取り出す前の第1の距離画像である。 ワークを取り出した後の第2の距離画像である。 第1の距離画像から削除する特定の測定点を説明する図である。 第1の距離画像から特定の測定点の情報を削除することにより生成された第3の距離画像である。 第1の比較例のハンド、ワーク、および光電センサの第1の側面図である。 第1の比較例のハンド、ワーク、および光電センサの第2の側面図である。 第2の比較例のハンド、ワーク、および光電センサの第1の側面図である。 第2の比較例のハンド、ワーク、および光電センサの第2の側面図である。 第2の比較例のハンド、ワーク、および光電センサの第3の側面図である。 実施の形態における制御のフローチャートである。
図1から図16を参照して、実施の形態におけるロボットシステムおよびロボットシステムの制御方法について説明する。本実施の形態のロボットシステムは、容器の内部に山の様に積まれているワークを取り出して、予め定められた搬送位置までワークを搬送する作業を実施する。
図1は、本実施の形態におけるロボットシステムの斜視図である。ロボットシステム5は、ロボット1およびハンド2を備える。ロボットシステム5は、ロボット1およびハンド2を制御する制御装置4を備える。本実施の形態のロボット1は、複数の関節部を含む多関節ロボットである。ロボット1は、上部アーム11と下部アーム12とを含む。下部アーム12は、旋回ベース13に支持されている。旋回ベース13は、ベース14に支持されている。ロボット1は、上部アーム11の端部に連結されているリスト15を含む。これらのロボット1の構成部材は、予め定められた回転軸の周りに回転するように形成される。ロボットとしては、この形態に限られず、ハンドの位置および姿勢を変更可能な任意のロボットを採用することができる。
ハンド2は、ワークWを把持したり解放したりする作業ツールである。ハンド2は、磁力による吸着力を発生させる電磁石2aと、電磁石2aの磁力によってワークWを吸着する吸着部材2bとを含む。吸着部材2bは、棒状に形成されている。吸着部材2bは、先端が球状に形成されている。本実施の形態のハンド2は、ワークWに対するハンド2の相対的な位置および姿勢を定めずにワークWを把持することができる。
ワークWは、容器としてのコンテナ9の内部に配置されている。容器としては、箱、袋、または籠などのワークWを収容できる任意の部材を採用することができる。コンテナ9の内部には、ワークWがバラ積みされている。コンテナ9は、架台81に載置されている。本実施の形態のロボットシステム5は、コンテナ9からワークWを1個ずつ取り出して、予め定められた搬送位置まで搬送する。
ロボットシステム5は、ワークWの位置および姿勢を検出するための3次元センサとしてのレンジセンサ6を備える。レンジセンサ6は、ワークWまでの距離の情報を取得する。レンジセンサ6は、ワークWを撮像できる位置に配置される。本実施の形態では、レンジセンサ6は、コンテナ9の上方に配置されている。レンジセンサ6は、支持部材83により固定されている。レンジセンサ6は、制御装置4により制御されている。
本実施の形態のレンジセンサ6は、2台のカメラ61,62を含むステレオカメラである。カメラ61,62は、2次元の画像を撮像することができる2次元カメラである。カメラ61,62としては、CCD(Charge-Coupled Device)センサまたはCMOS(Complementary Metal-Oxide Semiconductor)センサなどの撮像素子を備えた任意のカメラを採用することができる。2台のカメラ61,62の相対的な位置は予め定められている。本実施の形態のレンジセンサ6は、ワークWに向かって縞模様などのパターン光を投影するプロジェクタ63を含む。
本実施の形態のロボットシステム5には、ロボット1の位置および姿勢が変化した時に不動の基準座標系37が設定されている。図1の例では、ロボット1のベース14に、基準座標系37の原点が配置される。基準座標系37はワールド座標系とも称される。基準座標系37には、座標軸として、互いに直行するX軸、Y軸、およびZ軸が設定される。例えば、基準座標系37の座標値(xb,yb,zb)を設定することができる。また、X軸の周りの座標軸としてW軸、Y軸の周りの座標軸としてP軸、および、Z軸の周りの座標軸としてR軸が設定されても構わない。この場合に、基準座標系37の座標値(xb,yb,zb,wb,pb,rb)を設定することができる。
図2に、本実施の形態におけるロボットシステムのブロック図を示す。図1および図2を参照して、ロボット1は、ロボット1の位置および姿勢を変化させるロボット駆動装置を含む。ロボット駆動装置は、アームおよびリスト等の構成部材を駆動するロボット駆動モータ22を含む。ロボット駆動モータ22が駆動することにより、それぞれの構成部材の向きが変化する。
ロボットシステム5は、ハンド2を駆動するハンド駆動装置を備える。本実施の形態のワークWは、鉄などの磁性体にて形成されている。ハンド2の電磁石2aが駆動することによりワークWが吸着部材2bに吸着される。
制御装置4は、CPU(Central Processing Unit)と、CPUにバスを介して接続されたRAM(Random Access Memory)およびROM(Read Only Memory)等を有する演算処理装置(コンピュータ)を含む。制御装置4には、ロボット1の動作を行うために予め作成された動作プログラム41が入力される。動作プログラム41は、記憶部42に記憶される。本実施の形態のロボットシステム5は、動作プログラム41に基づいてワークWを搬送する。ロボット1は、自動的に予め定められた搬送位置までワークWを搬送することができる。
動作制御部43は、動作プログラム41に基づいてロボット1を駆動するための動作指令をロボット駆動部45に送出する。ロボット駆動部45は、ロボット駆動モータ22を駆動する電気回路を含む。ロボット駆動部45は、動作指令に基づいてロボット駆動モータ22に電気を供給する。また、動作制御部43は、動作プログラム41に基づいてハンド2を駆動する動作指令をハンド駆動部44に送出する。ハンド駆動部44は、電磁石2aを駆動する電気回路を含む。ハンド駆動部44は、動作指令に基づいて電磁石2aに電気を供給する。更に、動作制御部43は、動作プログラム41に基づいて、レンジセンサ6を駆動する動作指令をレンジセンサ6に送出する。
ロボット1は、ロボット1の位置および姿勢を検出するための状態検出器を含む。本実施の形態における状態検出器は、アーム等の構成部材の駆動軸に対応するロボット駆動モータ22に取り付けられた位置検出器18を含む。位置検出器18の出力により、それぞれの駆動軸における構成部材の向きを取得することができる。例えば、位置検出器18は、ロボット駆動モータ22が駆動するときの回転角を検出する。また、位置検出器18の出力に基づいて、ハンド2の位置および姿勢が検出される。
制御装置4は、動作プログラム41に基づいてロボット1の動作を設定する動作設定部52を含む。本実施の形態の動作設定部52は、コンテナ9から取り出すワークWを選定し、ワークWをハンド2にて把持する制御を実施する。また、動作設定部52は、ハンド2にて把持されたワークWの状態を検出して、ロボット1の動作を制御する。
図3に、ワークが内部に配置されたコンテナの平面図を示す。図4に、本実施の形態におけるレンジセンサとワークとの関係を説明する部分断面図を示す。図4では、説明のためにレンジセンサ6とコンテナ9との距離が近くなるように記載している。コンテナ9の内部には、複数のワークWが配置されている。本実施の形態のワークWは、円筒状に形成されている。本実施の形態においては、コンテナ9の少なくとも1つの方向において、ワークW同士の間隔またはワークWの姿勢が同一でない状態をバラ積みされた状態と称する。本実施の形態では、複数のワークWは、ワークWの軸線の向きが互いに異なるようにコンテナ9に配置されている。すなわち、複数のワークWの向きが不規則になるようにワークWが積まれている。
レンジセンサ6は、撮像が可能な範囲である撮像範囲64を有する。カメラ61,62は、撮像範囲64の内部にコンテナ9が収容されように配置されることが好ましい。すなわち、カメラ61,62は、コンテナ9の上方から見える全てのワークWを撮像できるように配置されることが好ましい。
図5に、ワークを取り出すときのハンドおよびコンテナの部分断面図を示す。ハンド2の電磁石2aが駆動することにより、吸着部材2bにワークWが吸着する。そして、ハンド2が移動することにより、矢印91に示すようにワークWを持ち上げることができる。本実施の形態においては、ワークWは不規則な向きにてハンド2に把持される。
図2および図4を参照して、制御装置4は、レンジセンサ6の出力に基づいて、ワークWの3次元情報を生成する生成部58を含む。生成部58は、カメラ61,62にて撮像した画像を処理する。生成部58は、ステレオ法によりワークWの3次元情報を生成することができる。3次元情報には、ワークWの表面に設定された測定点の位置の情報が含まれる。
図6に、ワークの表面上に設定される測定点の説明図を示す。生成部58は、任意の方法にて、レンジセンサ6から見えるワークWの表面に複数の測定点MPを設定することができる。例えば、図4を参照して、生成部58は、プロジェクタ63の光軸63aに垂直な平面65を設定することができる。生成部58は、平面65に格子状の線を設定することができる。例えば、生成部58は、互いに直交するように、X軸方向に延びる直線およびY軸方向に延びる直線を設定することができる。生成部58は、これらの複数の直線の交点とプロジェクタ63のレンズ中心点とを結ぶ直線66を設定する。そして、生成部58は、直線66の方向において、ワークWの表面に交わる点を測定点MPに設定することができる。
生成部58は、2台のカメラ61,62にて撮像される2つの画像の視差に基づいて、レンジセンサ6から測定点MPまでの距離を算出する。生成部58は、測定点MPまでの距離および直線66の向きに基づいて、測定点MPの位置を検出することができる。例えば、生成部58は、基準座標系37における測定点MPの座標値を算出して、3次元情報を生成することができる。
3次元情報は、複数の測定点MPの位置の情報を含む。本実施の形態の3次元情報は、基準座標系37における測定点MPの座標値を含む。または、3次元情報は、レンジセンサ6から測定点MPまでの距離およびレンジセンサ6から測定点MPに向かう方向の情報を含んでいても構わない。3次元情報は、例えば、距離画像または3次元マップである。距離画像は、レンジセンサ6からの距離に応じて画像の色または画像の濃さを変化させた画像である。3次元マップは、予め定められた座標系における測定点の座標値、またはレンジセンサからの測定点までの距離および測定点の方向の情報を含む。なお、本実施の形態の生成部58は、ロボット1を制御する制御装置4に含まれているが、この形態に限られない。カメラ61,62にて取得した画像を処理する演算処理装置が制御装置4とは別に配置されていても構わない。
図2を参照して、検出部53は、ワークWの3次元情報を3次元形状データと比較するモデルマッチングを行うことにより、ワークWの位置および姿勢を検出する。本実施の形態においては、予め作成されたワークWの3次元形状データ46が記憶部42に記憶されている。3次元形状データ46としては、例えば、CAD(Computer Aided Design)装置にて生成される形状の3次元データを用いることができる。生成部58は、CAD装置により生成された3次元形状データ46に基づいて、ワークWの向きを検出することができる。
または、作業者は、予め定められた方向から撮像したときのワークの距離画像を3次元形状データ46として採用することができる。作業者は、形状が大きく異なって見える複数の方向から撮像したワークの距離画像を3次元形状データ46として採用することができる。例えば、本実施の形態のワークWは、円筒の形状を有する。このため、ワークWの軸線に垂直な方向から撮像した距離画像と、ワークWの軸線の方向から見たときの距離画像とを、3次元形状データ46に採用することができる。ワークWを見る方向が少し異なっていても、検出部53は、これらの3次元形状データ46に基づいてワークWの位置および姿勢を検出することができる。
なお、複数の種類のワークが容器に配置されている場合に、作業者は、それぞれのワークの種類ごとに3次元形状データ46を作成する。記憶部42は、複数の種類の3次元形状データ46を記憶することができる。動作設定部52は、それぞれの種類のワークごとに判定を行うことができる。
動作設定部52は、ロボット1にて取り出すための目標のワークWを選定する選定部59を含む。選定部59は、検出部53にて検出されたワークWの位置および姿勢に基づいて目標のワークWを選定する。選定部59は、任意の制御により目標のワークWを選定することができる。例えば、レンジセンサ6から最も近いワークWを目標のワークWに設定することができる。すなわち、ワークWの位置が高いものから順番にワークWを選定することができる。または、所定の条件においては、ワークWの位置が低いものを選定しても構わない。例えば、選定部59は、ハンド2にて把持可能な部分が大きく露出しており、容易に把持することができるワークWを選定しても構わない。
また、選定部59は、ハンド2によりワークWの把持が可能か否かを判定しても構わない。例えば、ワークWがコンテナ9の壁面の近くに存在する場合には、ハンド2の吸着部材2bをワークWに接触させることができない場合がある。このような場合には、選定部59は、ワークWの把持が不可能であると判定しても構わない。
そして、選定部59は、目標のワークWの位置および姿勢に応じて、ロボット1がワークWを把持できる目標位置および目標姿勢を算出する。選定部59は、動作制御部43にロボット1の目標位置および目標姿勢を送信する。ロボット1は、目標位置および目標姿勢に向かって位置および姿勢を変更する。ロボット1が目標位置および目標姿勢に到達した後に、ハンド2の吸着部材2bが励磁されることにより、ワークWを把持することができる。次に、動作制御部43は、ロボット1の位置および姿勢を変更してワークWを持ち上げる動作を実施する。
動作設定部52は、ロボット1がワークWを持ち上げた後の状態を判定する判定部55を含む。判定部55は、所望の状態にてワークWを把持しているか否かを判定する。判定部55は、ロボット1が所望の状態にてワークWを把持している場合には、搬送位置までワークを搬送する動作指令を動作制御部43に送信する。動作制御部43は、搬送位置までワークを搬送するようにロボット1を制御する。
一方で、判定部55は、ロボット1が所望の状態にてワークWを把持していない場合には、ハンド2にて把持したワークWをハンド2にて把持する前に配置されていた元の位置の近傍に戻す動作指令を動作制御部43に送信する。または、判定部55は、ハンド2がワークWを把持していないと判定した場合に、ワークの撮像から制御を実施する動作指令を送出する。
次に、判定部55にてワークWが把持されている状態を判定し、ワークWが把持されている状態に応じて、ロボット1の動作を変化させる制御について詳しく説明する。
図7に、生成部にて生成された第1の3次元情報の例を示す。図7は、ロボット1が駆動する前にレンジセンサ6にて撮像した第1の距離画像31である。ここでの例では、レンジセンサ6からの距離に応じて濃さが変化する距離画像が示されている。この距離画像では、レンジセンサ6からの距離が近いほど部品の濃さが薄くなる。第1の距離画像31には、複数のワークの画像72a,72b,72cと、コンテナの画像71が含まれている。
本実施の形態では、ロボット1が目標のワークWを把持する動作を実施する前に、レンジセンサ6にてワークWを撮像する。生成部58は、レンジセンサ6の出力に基づいて、第1の距離画像31を生成する。第1の距離画像31は、ワークWを撮像したレンジセンサ6の出力に基づいて生成された第1の3次元情報に相当する。本実施の形態の3次元情報には、測定点MPの座標値の情報が含まれている。
検出部53は、第1の距離画像31に基づいて、それぞれのワークWの位置および姿勢を検出する。選定部59は、ワークWの位置および姿勢に基づいて、ロボット1にて取り出すワークWを選定する。動作制御部43は、ロボット1が目標のワークWを把持するように制御する。動作制御部43は、目標のワークWを持ち上げる動作を実施した後に停止するようにロボット1を制御する。この時に、ロボット1は、目標のワークWをコンテナ9から取り出して、レンジセンサ6の撮像範囲64の外側に待避する。すなわち、レンジセンサ6が撮像する距離画像に、ロボット1、ハンド2、およびハンド2に把持されたワークWが写らないように、ロボット1の位置および姿勢を変更する。ロボット1は、ワークWを目標の搬送位置まで搬送せずに、コンテナ9の近傍にワークWを配置する。
ここでの例では、複数のワークの画像72a,72b,72cのうち、画像72aに対応するワークが目標のワークWであるとする。また、ロボット1は、目標のワークWのみを持ち上げている。すなわち、ロボット1は、目標のワーク以外のワークWは持ち上げていない。
次に、レンジセンサ6は、ロボット1がワークWを持ち上げる動作を実施した後に、コンテナ9に配置されたワークWを撮像する。生成部58は、レンジセンサ6の出力に基づいて、第2の3次元情報としての第2の距離画像を生成する。
図8に、目標のワークを持ち上げる動作を実施した後の距離画像の例を示す。第2の距離画像32では、図7に示す画像72aに対応するワークWがコンテナ9から取り出されることにより、画像72aが消失している。
図2を参照して、本実施の形態における動作設定部52は、3次元情報に含まれる少なくとも一部の測定点の情報を削除する削除部54を含む。削除部54は、第1の3次元情報の測定点MPの位置と第2の3次元情報の測定点MPの位置とを比較する。削除部54は、予め定められた距離の範囲内に第2の3次元情報の測定点が存在する第1の3次元情報の測定点を特定の測定点として検出する。削除部54は、第1の3次元情報から特定の測定点の情報を削除した第3の3次元情報を生成する。
図9に、ワークを把持する前に生成した第1の3次元情報の測定点と、ワークを持ち上げる動作を行った後に生成した第2の3次元情報の測定点とを説明する概略図を示す。図9に示す例では、目標のワーク以外のワークWが示されている。特に、目標のワークWを持ち上げる前の位置と目標のワークWを持ち上げた後の位置が変わらないワークWが示されている。
ロボット1が目標のワークWを持ち上げる動作を実施したときに、ワークWが動かなければ、第1の3次元情報に含まれる測定点MPaの位置と、第2の3次元情報に含まれる測定点MPbの位置とは同一になる。しかしながら、測定誤差などにより、測定点MPaの位置と測定点MPbの位置とが僅かに異なる場合がある。または、ロボット1が目標のワークWを持ち上げる動作を実施したときに、他のワークWが僅かに移動したとしても、次の工程におけるワークWの取出しに影響を与えない場合がある。
本実施の形態における削除部54は、第1の3次元情報に含まれる測定点MPaの近傍に、第2の3次元情報に含まれる測定点MPbが存在する場合に、その測定点MPaを特定の測定点に設定する。そして、削除部54は、第1の3次元情報から特定の測定点の情報を削除した第3の3次元情報を生成する。
第1の3次元情報に含まれる測定点MPaを削除するための判定範囲は、予め定められている。本実施の形態においては、基準座標系におけるX軸方向、Y軸方向、およびZ軸方向の判定範囲が定められている。図9に示す例では、X軸方向およびY軸方向について判定範囲67が示されている。第1の3次元情報に含まれる測定点MPaに対して、判定範囲67の内部に、第2の3次元情報に含まれる測定点MPbが存在する。このために、削除部54は、測定点MPaを特定の測定点として検出する。削除部54は、特定の測定点を第1の3次元情報から削除する。例えば、第1の距離画像31に含まれている測定点MPaの座標値を削除する。このように、削除部54は、特定の測定点を第1の3次元情報から削除した第3の3次元情報を生成する。
図9に示す例では、全ての第1の3次元情報の測定点MPaの近傍に、第2の3次元情報の測定点MPbが存在している。このために、削除部54は、全ての測定点MPaを特定の測定点に指定して削除している。
図10に、削除部にて生成された第3の距離画像の例を示す。図7、図8、および図10を参照して、第3の3次元情報としての第3の距離画像33には、位置および姿勢が変化しない複数のワークの画像72b,72cが第1の距離画像31から削除されている。第3の距離画像33には、ロボット1にてコンテナ9から取り出されたワークの画像72aが残存する。
検出部53は、第3の距離画像33と3次元形状データ46とを比較するモデルマッチングを行うことにより、画像72aに対応するワークWの位置および姿勢を検出する。
次に、判定部55は、検出部53にて検出されたワークWが目標のワークWと同一であるか否かを判定する。判定部55は、選定部59から目標のワークWの位置および姿勢を取得する。判定部55は、第3の距離画像33に含まれるワークWの位置および姿勢と、目標のワークWの位置および姿勢との差が、予め定められた判定範囲内であれば、第3の距離画像33に含まれるワークは、目標のワークと同一であると判定する。なお、検出部53にて複数のワークが検出され、目標のワークと異なるワークが含まれている場合に、判定部55は、第3の3次元情報に含まれるワークは目標のワークと同一でないと判定する。
図10に示す例では、判定部55は、目標のワークWが取り出されたと判定する。次に、判定部55は、ハンド2にて把持したワークWを予め定められた搬送位置まで搬送する指令を動作制御部43に送出する。動作制御部43は、ハンド2にて把持したワークWを搬送位置まで搬送するようにロボット1を制御する。
このように、本実施の形態のロボットシステム5では、ワークを持ち上げる動作を実施する前の第1の3次元情報と、ワークを持ち上げる動作を実施した後の第2の3次元情報とを比較することにより、ハンド2が目標のワークを把持しているか否かを判定することができる。
ロボット1が目標のワークWを持ち上げる動作を実施した時に、ハンド2が目標のワークWと異なる1個のワークWを把持している場合には、第3の3次元情報には、目標のワークWとは異なるワークの画像が残存する。検出部53は、目標のワークとは異なるワークの位置および姿勢を検出する。判定部55は、検出部53にて検出されたワークは目標のワークと異なると判定する。または、ハンド2が目標のワークに加えて、目標のワーク以外のワークを把持している場合がある。すなわち、ハンド2が2個以上のワークWを把持している場合がある。この場合に、第3の3次元情報には、複数のワークWの情報が含まれる。検出部53は、複数のワークWの位置および姿勢を検出する。判定部55は、検出部53にて検出された複数のワークWは、目標のワークと同一でないと判定する。
ハンド2が目標のワークとは異なるワークを把持している場合または2個以上のワークを把持している場合に、判定部55は、ハンド2にて把持したワークWを元の位置の近傍に戻す動作指令を動作制御部43に送出する。動作制御部43は、ハンド2にて把持したワークをハンド2にて把持する前に配置されていた元の位置の近傍に戻すようにロボット1を制御する。すなわち、動作制御部43は、第1の3次元情報における目標のワークの位置の近傍にワークWを戻すように制御する。
ロボット1がワークWを元の位置の近傍に戻した後には、ワークWを搬送する制御をワークWの撮像から実施する。すなわち、レンジセンサ6はコンテナ9に配置されているワークWを撮像し、検出部53はワークWの位置および姿勢を検出し、選定部59は、ロボット1が取り出す次の目標のワークWを選定する。
ワークWをコンテナ9に戻す場合に、ハンド2にて把持したワークWを元の位置とは異なる位置に戻す制御を実施することができる。しかしながら、この制御では、コンテナ9の内部において荷崩れが生じる虞がある。ハンド2にて把持したワークWを元の位置の近傍に戻す制御を実施することにより、ワークWを戻したときに荷崩れが生じることを抑制することができる。なお、ハンド2にて把持したワークWを元の位置と同一の位置に戻す制御を実施しても構わない。
また、検出部53は、第3の3次元情報において、ワークWの位置および姿勢を検出できない場合がある。すなわち、図10に示す第3の距離画像33において、第3の3次元情報と3次元形状データ46とを比較するモデルマッチングを行っても、ワークWの位置および姿勢を検出できない場合がある。例えば、ハンド2がワークWの把持に失敗して、ワークWを把持していない場合がある。更に、ロボット1が目標のワークWを持ち上げる動作を実施した時に、コンテナ9の内部のワークWに荷崩れが生じずに、全てのワークWの位置および姿勢が変化していない場合がある。または、ワークWの位置の移動量が非常に小さく、削除部54によって測定点の情報が削除されている場合がある。この場合には、第3の距離画像33には、1つもワークの画像が含まれていないために、検出部53はワークを検出することができない。
判定部55は、第1の3次元情報の測定点のうち特定の測定点以外の測定点の個数を検出することができる。判定部55は、特定の測定点以外の測定点の個数が予め定められた把持の失敗に関する判定値よりも小さい場合に、ハンド2がワークWを把持していないと判定することができる。すなわち、削除部54にて殆ど全ての測定点が削除されている場合に、判定部55は、コンテナ9に配置された全てのワークWの位置および姿勢が変化していないと判定することができる。また、判定部55は、ワークWを取り出す動作を実施した時に、ワークWの荷崩れが生じていないと判定することができる。ワークの把持の失敗に関する判定値は、小さな値を採用することができる。例えば、1つのワークに設定される測定点の個数の下限値よりも小さな値を採用することができる。
判定部55がハンド2にてワークWが把持されていないと判定した後に、制御装置4は、ワークWを搬送する制御をワークWの撮像から実施する。すなわち、レンジセンサ6はコンテナ9に配置されているワークWを撮像し、検出部53はワークWの位置および姿勢を検出し、選定部59は、ロボット1が取り出す次の目標のワークWを選定する。
また、ロボット1がワークWを取り出す動作を実施したときに、荷崩れが生じる場合がある。すなわち、ロボット1が取り出さなかったワークWの位置および姿勢が変化する場合がある。荷崩れが生じた場合に、第2の3次元情報には、第1の3次元情報に含まれる測定点とは離れた測定点が多く存在する。第1の3次元情報の測定点について、予め定められた距離の範囲内に第2の3次元情報の測定点が存在する特定の測定点の個数は少なくなる。すなわち、第1の3次元情報の測定点に含まれる特定の測定点の個数は少なくなる。
判定部55は、荷崩れの発生を判定するために、第1の3次元情報の測定点のうち特定の測定点以外の測定点の個数を検出する。判定部55は、特定の測定点以外の測定点の個数が予め定められた荷崩れに関する判定値よりも大きいか否かを判定する。判定部55は、特定の測定点以外の測定点の個数が荷崩れに関する判定値よりも大きい場合に、荷崩れが生じていると判定することができる。荷崩れに関する判定値は、例えば、1つのワークに設定される測定点の個数の上限値よりも大きな値を採用することができる。
または、判定部55は、荷崩れの発生を判定するために、第2の3次元情報の測定点について、第1の3次元情報の測定点から予め定められた距離の範囲内に存在しない測定点の個数を算出しても構わない。この測定点の個数が荷崩れに関する判定値よりも大きければ、判定部55は、第1の3次元情報の測定点のうち特定の測定点以外の測定点の個数が荷崩れに関する判定値よりも大きいと判定しても構わない。
判定部55は、第1の3次元情報の測定点のうち特定の測定点以外の測定点の個数が予め定められた荷崩れに関する判定値よりも大きいと判定した場合に、ハンド2にて把持したワークWを元の位置の近傍に戻す指令を動作制御部43に送出する。動作制御部43は、ハンド2にて把持したワークWをハンド2にて把持する前に配置されていた元の位置の近傍に戻すようにロボット1を制御する。
ロボット1がワークWを元の位置の近傍に戻した後に、制御装置4は、ワークWを取り出す制御をワークWの撮像から実施する。すなわち、レンジセンサ6はコンテナ9に配置されているワークWを撮像し、検出部53はワークWの位置および姿勢を検出し、選定部59は、ロボット1が取り出す次の目標のワークWを選定する。
本実施の形態におけるロボットシステム5は、ロボット1がワークWを持ち上げた動作を実施した時に、ワークWが把持されている状態を判別する。そして、ワークWの把持の状態に応じてロボット1を制御することができる。このために、ロボットシステム5は、ワークWを搬送するサイクルタイムを短くすることができる。例えば、ワークWが把持されていないにも関わらず、ロボット1が目標の搬送位置までワークWを搬送する動作を回避することができる。または、ハンド2が目標のワーク以外のワークWを把持していたり、目標のワークWに加えて他のワークWを把持していたりする場合に、ワークWを目標の搬送位置まで搬送することを回避できる。例えば、目標のワーク以外のワークまたは2個以上のワークを搬送した後に、ロボット1がワークを元の位置に戻す動作を排除することができる。
図11に、第1の比較例のロボットシステムのハンドの部分の第1の側面図を示す。第1の比較例においては、ハンド2がワークWCを把持しているか否かを判定するために、光電センサ85が配置されている。光電センサ85は、ハンド2に固定されている。光電センサ85は、矢印95に示すように光を発する。光電センサ85がワークWCの表面にて反射する光を検出することにより、ハンド2はワークWCを把持していると判定することができる。光電センサ85が反射光を検出しない場合には、ハンド2はワークWCを把持していないと判定することができる。
図12に、第1の比較例のロボットシステムのハンドの部分の第2の側面図を示す。比較例におけるハンド2は、電磁石ハンドである。このために、ワークWCが把持される姿勢は定まっていない。図12に示すように、ワークWCが傾いた状態で把持された場合には、光電センサ85は、反射光を受光することができない。このために、ワークWCが把持されているにも関わらず、ワークWCが把持されていないと判定される場合がある。第1の比較例においては、光電センサ85がハンド2に固定されているために、光電センサ85の向きを定めることが難しいという問題がある。または、ワークWCが把持される全ての向きに対して、ワークWCを検出できる光電センサ85の向きが存在しない場合がある。
図13に、第2の比較例のロボットシステムのハンドの部分の第1の側面図を示す。第2の比較例においては、ハンド2がワークWCを把持しているか否かを判定するために、光電センサ86が配置されている。光電センサ86は、発光素子86aと受光素子86bとを含む。発光素子86aおよび受光素子86bは、例えば支持部材などに固定することができる。発光素子86aと受光素子86bとの間にワークWCが配置されるように、ロボット1の位置および姿勢を制御することができる。発光素子86aは、矢印96に示すように光を出射する。受光素子86bにて受光されない場合に、ハンド2がワークWCを把持していると判定することができる。
図14に、第2の比較例のロボットシステムのハンドの部分の第2の側面図を示す。図14に示されているように、ワークWCの向きが所望の向きと異なる向きにてハンド2に把持される場合には、発光素子86aから出射される光は受光素子86bに到達する場合がある。このために、ワークWCが把持されているにも関わらず、ワークWCが把持されていないと判定される場合がある。
図15に、第2の比較例のロボットシステムのハンドの部分の第3の側面図を示す。図15に示すように、ハンド2は、2個以上のワークWCを把持する場合がある。この場合に、発光素子86aから出射される光は、ワークWCにて遮ることができる。しかしながら、この制御では、複数のワークWCが把持された状態を検出することはできない。第1の比較例においても同様に、複数のワークWCが把持された状態を検出することができない。
このように、光電センサを用いてワークが把持されている状態を判定する方法では、ハンドにてワークが把持されている状態を正確に判定できない場合がある。これに対して、本実施の形態におけるロボットシステム5では、ハンド2に把持されたワークWの状態を正確に判定することができる。ハンド2にて把持されるワークWの向きに関わらず、把持したワークWを検出することができる。または、2個以上のワークWを把持した状態を検出することができる。この結果、過剰なロボット1の動作を回避することができる。
なお、第2の比較例においては、ワークが把持される複数の状態を考慮して、ハンドを複数の位置および姿勢に移動してワークの検出を行うことができる。しかしながら、この制御では、サイクルタイムが長くなる問題がある。本実施の形態におけるロボットシステム5は、第1の3次元情報と第2の3次元情報とを比較することにより、ワークが把持されている状態を検出することができるために、短時間にてワークが把持されている状態を検出することができる。
更に、本実施の形態のロボットシステム5では、光電センサ等のワークの把持の状態を検出するための装置は不要である。ロボットシステム5は、ワークの位置および姿勢を検出するための3次元センサの出力を用いてワークが把持されている状態を検出することができる。このように、本実施の形態のロボットシステム5は、簡易な構成にて精度よくワークWが把持されている状態を確認することができる。
図16に、本実施の形態のロボットシステムの制御方法のフローチャートを示す。図16に示す制御は、繰り返して実施することができる。
図2および図16を参照して、ステップ100において、動作制御部43は、レンジセンサ6にてワークWを撮像する第1の撮像工程を実施する。生成部58は、レンジセンサ6の出力に基づいてワークWに測定点を設定し、測定点の座標値を含む第1の3次元情報を生成する第1の生成工程を実施する。生成部58は、ロボット1が目標のワークWを把持する動作を実施する前にワークWを撮像したレンジセンサ6の出力に基づいて第1の3次元情報を生成する。
ステップ101において、検出部53は、ワークの第1の3次元情報を予め定められたワークWの3次元形状データ46と比較するモデルマッチングを行うことにより、ワークWの位置および姿勢を検出する第1の検出工程を実施する。
ステップ102において、選定部59は、検出部53により検出されたワークWの位置および姿勢に基づいて、ロボット1が取り出す目標のワークを選定する選定工程を実施する。
ステップ103において、動作制御部43は、ロボット1の位置および姿勢を変更する動作制御工程を実施する。ここでの動作制御工程では、ロボット1は、目標のワークWを把持して持ち上げる動作を実施する。その後に、ロボット1は停止する。
ステップ104において、レンジセンサ6にてワークWを撮像する第2の撮像工程を実施する。生成部58は、ロボット1が目標のワークWを持ち上げる動作を実施した後にワークWを撮像したレンジセンサ6の出力に基づいて第2の3次元情報を生成する第2の生成工程を実施する。
ステップ105において、削除部54は、第1の3次元情報に含まれる少なくとも一部の測定点の情報を削除する削除工程を実施する。削除部54は、第1の3次元情報の測定点の位置と第2の3次元情報の測定点の位置とを比較する工程を実施する。削除部54は、第1の3次元情報の測定点に対して予め定められた距離の範囲内に第2の3次元情報の測定点が存在するか否かを判定する。削除部54は、予め定められた距離の範囲内に第2の3次元情報の測定点が存在する第1の3次元情報の測定点を特定の測定点として検出する工程を実施する。削除部54は、第1の3次元情報から特定の測定点の座標値などの情報を削除した第3の3次元情報を生成する工程を実施する。
ステップ106において、検出部53は、削除工程にて処理が行われた後の第3の3次元情報に含まれるワークの位置および姿勢を検出する第2の検出工程を実施する。検出部53は、ワークの第3の3次元情報を予め定められたワークの3次元形状データ46と比較するモデルマッチングを行う。検出部53は、第3の3次元情報に含まれる全てのワークWの位置および姿勢を検出する。
ステップ108において、判定部55は、ロボットにてワークWを持ち上げる動作を実施した後の状態を判定する判定工程を実施する。判定工程では、第2の検出工程にて検出されたワークWが目標のワークWと同一であるか否かを判定する。ここでは、判定部55は、目標のワークWのみが取り出された否かを判定する。ステップ108において、取り出されたワークWが目標のワークWと同一でない場合には、制御はステップ121に移行する。例えば、ロボット1にて持ち上げられたワークWが目標のワークWと異なる場合、または、2個以上のワークWが持ち上げられている場合に、制御はステップ121に移行する。
ステップ108において、目標のワークWのみが取り出されたと判定された場合に、制御はステップ109に移行する。ステップ109においては、動作制御工程を実施する。ここでの動作制御工程では、動作制御部43は、ハンド2にて把持したワークWを予め定められた搬送位置まで搬送するようにロボット1を制御する。
次に、ステップ110において、判定部55は、予め定められた個数のワークが取り出されたか否かを判定する。すなわち、取り出されたワークWの個数が、個数の判定値に到達しているか否かを判定する。このときの個数の判定値は作業者が予め設定することができる。例えば、作業者は、判定値として5個等の少量の個数を設定することができる。または、作業者は、判定値としてコンテナ9に収容されている全てのワークWの個数を設定しても構わない。
ステップ110において、予め定められた個数のワークWが取り出されている場合には、この制御を終了する。ステップ110において、予め定められた個数のワークWを取り出していない場合に、制御はステップ111に移行する。ステップ111において、生成部58は、現在の第2の3次元情報を第1の3次元情報に設定する。すなわち、ワークWを取り出した後の3次元情報を第1の3次元情報として設定する。この制御においては、ステップ108において目標のワークのみが検出されている。コンテナ9に残存するワークWに荷崩れが生じていないと判定することができる。このために、目標のワークWを取り出した後に生成した第2の3次元情報を、第1の3次元情報として使用することができる。
次に、制御はステップ101に移行し、ワークWを取り出す制御を実施する。ステップ101では、検出部53は第1の3次元情報に基づいてワークWの位置および姿勢を検出する。ステップ102では、選定部59は、次の目標のワークWを選定する。この制御では、ステップ100が除外される。3次元カメラにてワークを撮像して、3次元情報を取得する工程を排除することができる。このために、サイクルタイムを短縮することができる。
ステップ108において、ロボット1にて取り出されたワークWが目標のワークWと同一でない場合には、制御はステップ121に移行する。ステップ121において、判定部55は、1個のワークが検出されたか否かを判定する判定工程を実施する。判定部55は、ハンド2が目標のワークとは異なる1個のワークを把持しているか否かを判定する。また、判定部55は、第3の3次元情報に含まれるワークが2個か否かを判定する。すなわち、ハンド2が2個のワークを把持しているか否かを判定する。ステップ121において、1個または2個のワークが検出された場合に、制御はステップ124に移行する。
なお、ステップ121においては、2個のワークが検出されたか否かを判定する代わりに、2個以上のワークが検出されたか否かを判定しても構わない。
ステップ124においては、判定部55は、ハンド2にて把持したワークWをハンド2にて把持する前に配置されていた元の位置の近傍に戻す指令を動作制御部43に送出する。動作制御部43は、ワークWを元の位置の近傍に戻すようにロボット1を制御する。この後に、制御はステップ100に移行する。ロボット1がワークWを元の位置の近傍に戻した後に、撮像工程からワークを取り出す制御を実施する。ステップ100においては、レンジセンサ6にてワークWを撮像する撮像工程を実施する。ステップ102においては、ワークWの位置および姿勢を検出する検出工程を実施する。ステップ103においては、ロボット1が取り出す次の目標のワークWを選定する選定工程を実施する。そして、前述と同様の制御を実施する。
ステップ121において、1個または2個のワークが検出されなかった場合に、制御はステップ122に移行する。ステップ122において、判定部55は、荷崩れが生じているか否かを判定する判定工程を実施する。ここでの判定工程では、第1の3次元情報の測定点のうち特定の測定点以外の測定点の個数が荷崩れに関する判定値よりも大きいか否かを判定する。特定の測定点以外の測定点の個数が荷崩れに関する判定値よりも大きい場合に、判定部55は、荷崩れが生じていると判定する。この場合に、制御は、ステップ124に移行する。
ステップ122において、特定の測定点以外の測定点の個数が荷崩れに関する判定値以下の場合に、判定部55は、荷崩れが生じていないと判定することができる。この場合に、制御はステップ123に移行する。
ステップ123においては、判定部55は、ハンド2がワークWの把持に失敗したか否かの判定を行う。判定部55は、第1の3次元情報の測定点のうち特定の測定点以外の測定点の個数が把持の失敗に関する判定値よりも小さいか否かを判定する判定工程を実施する。特定の測定点以外の測定点の個数が把持の失敗に関する判定値よりも小さい場合に、判定部55は、ハンド2がワークWの把持に失敗していると判定する。この場合に、制御はステップ100に戻る。ワークWを撮像する撮像工程からワークWを取り出す制御を実施する。ステップ123において、ハンド2がワークWの把持に成功していると判定された場合には、制御は、ステップ124に移行する。
図16に示す制御では、ステップ110に示すように、予め定められた個数のワークを取り出すまで、ワークを取り出す制御を実施しているが、この形態に限られない。コンテナ9に配置されている全てのワークWを取り出した時に制御を終了しても構わない。例えば、ステップ101において、容器の内部に配置されているワークが検出されない場合には、制御を終了しても構わない。
本実施の形態の3次元センサは、2台の2次元カメラを含むが、この形態に限られない。3次元センサは、3台以上の2次元カメラを含んでいても構わない。3次元センサが3台以上のカメラを含むことにより、一部の画像がハレーション等により不鮮明であっても、他のカメラにて撮像した画像に基づいて3次元情報を生成することができる。また、本実施の形態の3次元センサはプロジェクタを備えるが、プロジェクタを備えなくても構わない。更に、3次元センサは、ワークまでの距離の情報を取得できる任意のセンサを採用することができる。例えば、3次元センサは、光飛行時間方式により距離画像を撮像するTOF(Time of Flight)カメラであっても構わない。
本実施の形態のレンジセンサ6は、支持部材83に固定されているが、この形態に限られず、ワークを撮像可能なように配置することができる。例えば、レンジセンサは、ロボットのリストと一体的に移動するように、リストに固定されていても構わない。
本実施の形態のハンド2は、磁石ハンドであるが、この形態に限られない。ハンドは、ワークを把持したり解放したりする任意の作業ツールを採用することができる。例えば、複数の爪部を有し、爪部がワークを挟むことによりワークを把持するハンド、または吸着パッドの内部の空気を吸引ことにより、吸着パッドにてワークを把持するハンド等を採用することができる。
上述のそれぞれの制御においては、機能および作用が変更されない範囲において適宜ステップの順序を変更することができる。
上記の実施の形態は、適宜組み合わせることができる。上述のそれぞれの図において、同一または相等する部分には同一の符号を付している。なお、上記の実施の形態は例示であり発明を限定するものではない。また、実施の形態においては、特許請求の範囲に示される実施の形態の変更が含まれている。
1 ロボット
2 ハンド
4 制御装置
5 ロボットシステム
6 レンジセンサ
9 コンテナ
31 第1の距離画像
32 第2の距離画像
33 第3の距離画像
37 基準座標系
42 記憶部
43 動作制御部
46 3次元形状データ
53 検出部
54 削除部
55 判定部
58 生成部
59 選定部
67 判定範囲
71 コンテナの画像
72a,72b 画像
W ワーク
MP,MPa,MPb 測定点

Claims (8)

  1. 容器の内部にバラ積みされたワークを取り出すロボットシステムであって、
    ワークを把持するハンドと、
    ハンドを移動するロボットと、
    ワークまでの距離の情報を取得する3次元センサと、
    ハンドおよびロボットを制御する制御装置と、を備え、
    前記制御装置は、ハンドおよびロボットに動作指令を送出する動作制御部と、
    3次元センサの出力に基づいて、ワークに設定された測定点の位置の情報を含む3次元情報を生成する生成部と、
    ワークの3次元形状データを記憶する記憶部と、
    ワークの3次元情報を3次元形状データと比較するモデルマッチングを行うことにより、ワークの位置および姿勢を検出する検出部と、
    ワークの位置および姿勢に基づいてロボットが取り出す目標のワークを選定する選定部と、
    3次元情報に含まれる少なくとも一部の測定点の情報を削除する削除部と、
    ロボットがワークを持ち上げる動作を実施した後の状態を判定する判定部とを備え、
    前記生成部は、ロボットが目標のワークを把持する動作を実施する前にワークを撮像した3次元センサの出力に基づいて第1の3次元情報を生成し、
    前記動作制御部は、第1の3次元情報に基づいて選定された目標のワークを把持して持ち上げる動作を実施した後に停止するようにロボットを制御し、
    前記生成部は、ロボットが目標のワークを持ち上げる動作を実施した後にワークを撮像した3次元センサの出力に基づいて第2の3次元情報を生成し、
    前記削除部は、第1の3次元情報の測定点の位置と第2の3次元情報の測定点の位置とを比較し、予め定められた距離の範囲内に第2の3次元情報の測定点が存在する第1の3次元情報の測定点を特定の測定点として検出し、第1の3次元情報から特定の測定点の情報を削除した第3の3次元情報を生成し、
    前記検出部は、第3の3次元情報に含まれるワークの位置および姿勢を検出し、
    前記判定部は、第3の3次元情報に含まれるワークが目標のワークと同一であるか否かを判定し、
    前記動作制御部は、第3の3次元情報に含まれるワークが目標のワークと同一である場合に、ハンドにて把持したワークを予め定められた搬送位置まで搬送するようにロボットを制御する、ロボットシステム。
  2. 前記判定部が、第3の3次元情報に含まれるワークが目標のワークと異なると判定した場合、または、第3の3次元情報に含まれるワークが2個以上であると判定した場合に、前記動作制御部は、ハンドにて把持したワークをハンドにて把持する前に配置されていた元の位置の近傍に戻すようにロボットを制御し、
    ロボットがワークを元の位置の近傍に戻した後に、3次元センサは、容器に配置されているワークを撮像し、前記検出部は、ワークの位置および姿勢を検出し、前記選定部は、ロボットが取り出す次の目標のワークを選定する、請求項1に記載のロボットシステム。
  3. 前記判定部は、第1の3次元情報の測定点のうち特定の測定点以外の測定点の個数が予め定められた荷崩れに関する判定値よりも大きいか否かを判定し、
    前記判定部が特定の測定点以外の測定点の個数が荷崩れに関する判定値よりも大きいと判定した場合に、前記動作制御部は、ハンドにて把持したワークをハンドにて把持する前に配置されていた元の位置の近傍に戻すようにロボットを制御し、
    ロボットがワークを元の位置の近傍に戻した後に、3次元センサは、容器に配置されているワークを撮像し、前記検出部は、ワークの位置および姿勢を検出し、前記選定部は、ロボットが取り出す次の目標のワークを選定する、請求項1または2に記載のロボットシステム。
  4. 前記判定部は、第1の3次元情報の測定点のうち特定の測定点以外の測定点の個数が予め定められた把持の失敗に関する判定値よりも小さいか否かを判定し、
    前記判定部が特定の測定点以外の測定点の個数が把持の失敗に関する判定値よりも小さいと判定した場合に、3次元センサは、容器に配置されているワークを撮像し、前記検出部は、ワークの位置および姿勢を検出し、前記選定部は、ロボットが取り出す次の目標のワークを選定する、請求項1から3のいずれか一項に記載のロボットシステム。
  5. ロボットおよびハンドを備え、容器の内部にバラ積みされたワークを取り出すロボットシステムの制御方法であって、
    ロボットの位置および姿勢を変更する動作制御工程と、
    ワークまでの距離の情報を取得する3次元センサにてワークを撮像する撮像工程と、
    3次元センサの出力に基づいて、ワークに設定された測定点の位置の情報を含む3次元情報を生成する生成工程と、
    ワークの3次元情報をワークの3次元形状データと比較するモデルマッチングを行うことにより、ワークの位置および姿勢を検出する検出工程と、
    ワークの位置および姿勢に基づいてロボットが取り出す目標のワークを選定する選定工程と、
    3次元情報に含まれる少なくとも一部の測定点の情報を削除する削除工程と、
    ロボットがワークを持ち上げる動作を実施した後の状態を判定する判定工程とを備え、
    前記生成工程は、ロボットが目標のワークを把持する動作を実施する前にワークを撮像した3次元センサの出力に基づいて第1の3次元情報を生成する工程を含み、
    前記動作制御工程は、第1の3次元情報に基づいて選定された目標のワークを把持して持ち上げる動作を実施した後に停止するようにロボットを制御する工程を含み、
    前記生成工程は、ロボットが目標のワークを持ち上げる動作を実施した後にワークを撮像した3次元センサの出力に基づいて第2の3次元情報を生成する工程を含み、
    前記削除工程は、第1の3次元情報の測定点の位置と第2の3次元情報の測定点の位置とを比較する工程と、予め定められた距離の範囲内に第2の3次元情報の測定点が存在する第1の3次元情報の測定点を特定の測定点として検出する工程と、第1の3次元情報から特定の測定点の情報を削除した第3の3次元情報を生成する工程とを含み、
    検出工程は、第3の3次元情報に含まれるワークの位置および姿勢を検出する工程を含み、
    前記判定工程は、第3の3次元情報に含まれるワークが目標のワークと同一であるか否かを判定する工程を含み、
    前記動作制御工程は、第3の3次元情報に含まれるワークが目標のワークと同一である場合に、ハンドにて把持したワークを予め定められた搬送位置まで搬送するようにロボットを制御する工程を含む、ロボットシステムの制御方法。
  6. 前記判定工程において、第3の3次元情報に含まれるワークが目標のワークと異なると判定された場合、または、第3の3次元情報に含まれるワークが2個以上であると判定された場合に、ハンドにて把持したワークをハンドにて把持する前に配置されていた元の位置の近傍に戻すようにロボットを制御し、
    ロボットがワークを元の位置の近傍に戻した後に、容器に配置されているワークを3次元センサにて撮像する撮像工程を実施し、ワークの位置および姿勢を検出する検出工程を実施し、ロボットが取り出す次の目標のワークを選定する選定工程を実施する、請求項5に記載のロボットシステムの制御方法。
  7. 前記判定工程において、第1の3次元情報の測定点のうち特定の測定点以外の測定点の個数が予め定められた荷崩れに関する判定値よりも大きいか否かを判定し、
    特定の測定点以外の測定点の個数が荷崩れに関する判定値よりも大きい場合に、ハンドにて把持したワークをハンドにて把持する前に配置されていた元の位置の近傍に戻すようにロボットを制御し、
    ロボットがワークを元の位置の近傍に戻した後に、容器に配置されているワークを3次元センサにて撮像する撮像工程を実施し、ワークの位置および姿勢を検出する検出工程を実施し、ロボットが取り出す次の目標のワークを選定する選定工程を実施する、請求項5または6に記載のロボットシステムの制御方法。
  8. 前記判定工程において、第1の3次元情報の測定点のうち特定の測定点以外の測定点の個数が予め定められた把持の失敗に関する判定値よりも小さいか否かを判定し、
    特定の測定点以外の測定点の個数が把持の失敗に関する判定値よりも小さい場合に、容器に配置されているワークを3次元センサにて撮像する撮像工程を実施し、ワークの位置および姿勢を検出する検出工程を実施し、ロボットが取り出す次の目標のワークを選定する選定工程を実施する、請求項5から7のいずれか一項に記載のロボットシステムの制御方法。
JP2018096446A 2018-05-18 2018-05-18 バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法 Active JP6725587B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018096446A JP6725587B2 (ja) 2018-05-18 2018-05-18 バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法
US16/384,923 US11027433B2 (en) 2018-05-18 2019-04-16 Robot system and control method of robot system for taking out workpieces loaded in bulk
DE102019003334.5A DE102019003334B4 (de) 2018-05-18 2019-05-10 Robotersystem und Steuerverfahren für ein Robotersystem zum Entnehmen von Werkstücken aus loser Schüttung
CN201910407977.8A CN110497402B (zh) 2018-05-18 2019-05-15 取出散装的工件的机器人系统以及机器人系统的控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018096446A JP6725587B2 (ja) 2018-05-18 2018-05-18 バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法

Publications (2)

Publication Number Publication Date
JP2019198950A true JP2019198950A (ja) 2019-11-21
JP6725587B2 JP6725587B2 (ja) 2020-07-22

Family

ID=68419282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018096446A Active JP6725587B2 (ja) 2018-05-18 2018-05-18 バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法

Country Status (4)

Country Link
US (1) US11027433B2 (ja)
JP (1) JP6725587B2 (ja)
CN (1) CN110497402B (ja)
DE (1) DE102019003334B4 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020021212A (ja) * 2018-07-31 2020-02-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
KR20220115945A (ko) 2019-12-16 2022-08-19 고쿠리츠다이가쿠호진 도호쿠다이가쿠 파지 장치, 제어 방법 및 프로그램
WO2022176800A1 (ja) * 2021-02-18 2022-08-25 ファナック株式会社 ロボットシステム及び制御装置
WO2022264381A1 (ja) * 2021-06-17 2022-12-22 ファナック株式会社 ワーク取出し個数算出装置、ハンドシステム、及び表示装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019140699A1 (en) * 2018-01-22 2019-07-25 SZ DJI Technology Co., Ltd. Methods and system for multi-target tracking
WO2019239563A1 (ja) * 2018-06-14 2019-12-19 ヤマハ発動機株式会社 ロボットシステム
US11407111B2 (en) * 2018-06-27 2022-08-09 Abb Schweiz Ag Method and system to generate a 3D model for a robot scene
JP7183941B2 (ja) * 2019-05-09 2022-12-06 トヨタ自動車株式会社 ワーク識別方法
DE102019135452B4 (de) * 2019-12-20 2022-03-31 IGZ Ingenieurgesellschaft für logistische Informationssysteme mbH Vollautomatisches Roboter-Kommissioniersystem und Kommissionierverfahren mit Sensoranordnung zum Vermessen eines entnommenen Artikels im Rahmen des Anhebevorgangs
CN112894825A (zh) * 2021-02-23 2021-06-04 中科(深圳)智慧信息科技有限公司 一种工业机器人视觉识别控制系统及方法
CN114193440B (zh) * 2022-01-04 2023-09-12 中船重工鹏力(南京)智能装备系统有限公司 基于3d视觉的机器人自动抓取系统及方法
CN115165737A (zh) * 2022-06-24 2022-10-11 群策精密金属(苏州)有限公司 一种视觉检测装置及其检测方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010120141A (ja) * 2008-11-21 2010-06-03 Ihi Corp バラ積みピッキング装置とその制御方法
JP2012024903A (ja) * 2010-07-27 2012-02-09 Fanuc Ltd ワーク取出し装置およびワーク取出し方法
US20120165986A1 (en) * 2009-08-27 2012-06-28 Abb Research Ltd. Robotic picking of parts from a parts holding bin
JP2012240166A (ja) * 2011-05-20 2012-12-10 Fanuc Ltd ビジョンセンサ及び吸引装置を備えた吸着搬送装置
JP2014210311A (ja) * 2013-04-18 2014-11-13 ファナック株式会社 ワークを搬送するロボットの制御装置
JP2016186469A (ja) * 2015-03-27 2016-10-27 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2017064817A (ja) * 2015-09-28 2017-04-06 株式会社富士通アドバンストエンジニアリング ピッキング装置及び復旧プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3930490B2 (ja) 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
JP5196156B2 (ja) 2008-09-16 2013-05-15 株式会社Ihi バラ積みピッキング装置におけるワークピッキング方法
JP5642738B2 (ja) 2012-07-26 2014-12-17 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP5670397B2 (ja) 2012-08-29 2015-02-18 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP5788460B2 (ja) 2013-11-05 2015-09-30 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP5897532B2 (ja) 2013-11-05 2016-03-30 ファナック株式会社 三次元空間に置かれた物品をロボットで取出す装置及び方法
JP5877857B2 (ja) 2014-03-10 2016-03-08 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP5877859B2 (ja) 2014-03-12 2016-03-08 ファナック株式会社 バラ積みされたワークを取り出すロボットシステム及びワークの把持状態を判定する判定方法
JP6407826B2 (ja) 2015-09-03 2018-10-17 ファナック株式会社 座標系設定方法、座標系設定装置、及び座標系設定装置を備えたロボットシステム
JP6755724B2 (ja) 2016-06-20 2020-09-16 キヤノン株式会社 制御方法、ロボットシステム、および物品の製造方法
JP2018051704A (ja) 2016-09-29 2018-04-05 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
EP3321043A3 (en) * 2016-11-10 2018-10-10 Canon Kabushiki Kaisha Method of controlling holding apparatus, holding apparatus, and robot apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010120141A (ja) * 2008-11-21 2010-06-03 Ihi Corp バラ積みピッキング装置とその制御方法
US20120165986A1 (en) * 2009-08-27 2012-06-28 Abb Research Ltd. Robotic picking of parts from a parts holding bin
JP2012024903A (ja) * 2010-07-27 2012-02-09 Fanuc Ltd ワーク取出し装置およびワーク取出し方法
JP2012240166A (ja) * 2011-05-20 2012-12-10 Fanuc Ltd ビジョンセンサ及び吸引装置を備えた吸着搬送装置
JP2014210311A (ja) * 2013-04-18 2014-11-13 ファナック株式会社 ワークを搬送するロボットの制御装置
JP2016186469A (ja) * 2015-03-27 2016-10-27 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2017064817A (ja) * 2015-09-28 2017-04-06 株式会社富士通アドバンストエンジニアリング ピッキング装置及び復旧プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020021212A (ja) * 2018-07-31 2020-02-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7171294B2 (ja) 2018-07-31 2022-11-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
KR20220115945A (ko) 2019-12-16 2022-08-19 고쿠리츠다이가쿠호진 도호쿠다이가쿠 파지 장치, 제어 방법 및 프로그램
WO2022176800A1 (ja) * 2021-02-18 2022-08-25 ファナック株式会社 ロボットシステム及び制御装置
JP7549121B2 (ja) 2021-02-18 2024-09-10 ファナック株式会社 ロボットシステム及び制御装置
WO2022264381A1 (ja) * 2021-06-17 2022-12-22 ファナック株式会社 ワーク取出し個数算出装置、ハンドシステム、及び表示装置

Also Published As

Publication number Publication date
CN110497402A (zh) 2019-11-26
CN110497402B (zh) 2021-06-29
US11027433B2 (en) 2021-06-08
DE102019003334A1 (de) 2019-11-21
US20190351557A1 (en) 2019-11-21
DE102019003334B4 (de) 2022-04-28
JP6725587B2 (ja) 2020-07-22

Similar Documents

Publication Publication Date Title
JP6725587B2 (ja) バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法
CN110497401B (zh) 取出散装的工件的机器人系统以及机器人系统的控制方法
US9132553B2 (en) Robot system and method for producing a to-be-processed material
JP6000579B2 (ja) 情報処理装置、情報処理方法
US20130085604A1 (en) Robot apparatus, robot system, and method for producing a to-be-processed material
JP5893695B1 (ja) 物品搬送システム
US20170151673A1 (en) Manipulator system, and image capturing system
CN111434470A (zh) 机器人系统的控制装置以及控制方法
JP5196156B2 (ja) バラ積みピッキング装置におけるワークピッキング方法
US10377581B2 (en) Article conveying device using at least one sensor
JP5370774B2 (ja) トレイ移載装置及び方法
JP2010247959A (ja) 箱状ワーク認識装置および方法
JP5488806B2 (ja) トレイ移載装置及び方法
WO2021053750A1 (ja) 作業ロボットおよび作業システム
JP2012030320A (ja) 作業システム、作業ロボット制御装置および作業プログラム
JPWO2020144784A1 (ja) 画像処理装置、作業ロボット、基板検査装置および検体検査装置
CN110167723A (zh) 作业机及拾取位置选择方法
JP2016147330A (ja) 物体認識に基づく制御装置
CN110980276A (zh) 一种三维视觉配合机器人实施铸件自动下料的方法
US20240003675A1 (en) Measurement system, measurement device, measurement method, and measurement program
CN112566758A (zh) 机器人控制装置、机器人控制方法及机器人控制程序
JP7568721B2 (ja) ワークの表面の3次元情報およびワークの2次元画像を取得する撮像装置および制御装置
JP7415013B2 (ja) ロボットの構成部材の干渉を検出するロボット装置
WO2022215451A1 (ja) 部品搬送システム
JP2022047822A (ja) ワークを載置する載置装置の制御装置および載置装置を備える仮置き装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191008

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200121

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200625

R150 Certificate of patent or registration of utility model

Ref document number: 6725587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150