JP2019214100A - ロボット制御装置、ロボット制御方法、及びロボット制御プログラム - Google Patents

ロボット制御装置、ロボット制御方法、及びロボット制御プログラム Download PDF

Info

Publication number
JP2019214100A
JP2019214100A JP2018112794A JP2018112794A JP2019214100A JP 2019214100 A JP2019214100 A JP 2019214100A JP 2018112794 A JP2018112794 A JP 2018112794A JP 2018112794 A JP2018112794 A JP 2018112794A JP 2019214100 A JP2019214100 A JP 2019214100A
Authority
JP
Japan
Prior art keywords
robot
space
image
work
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018112794A
Other languages
English (en)
Other versions
JP7233858B2 (ja
Inventor
春香 藤井
Haruka Fujii
春香 藤井
俊洋 森谷
Toshihiro Moriya
俊洋 森谷
岳史 小島
Takeshi Kojima
岳史 小島
徳和 殿谷
Norikazu Tonoya
徳和 殿谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2018112794A priority Critical patent/JP7233858B2/ja
Priority to US16/410,213 priority patent/US11527008B2/en
Priority to CN201910408402.8A priority patent/CN110587592B/zh
Priority to EP19175612.1A priority patent/EP3616857B1/en
Publication of JP2019214100A publication Critical patent/JP2019214100A/ja
Application granted granted Critical
Publication of JP7233858B2 publication Critical patent/JP7233858B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40515Integration of simulation and planning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)

Abstract

【課題】ロボットの作業対象であるワーク集合とロボットとが重なって撮影され得る画像取得禁止空間からロボットが退避するタイミングに合わせて、速やかに撮影画像を取得することができるロボット制御装置、方法、及びプログラムを提供する。【解決手段】ロボット制御装置10は、ロボットRBの作業対象であるワーク集合を撮影する画像センサSから撮影画像を取得する取得部30と、ロボットRBの動作をシミュレーションするシミュレーション部32と、シミュレーションにおいて、画像センサSの視野範囲である第1の空間と、ワーク集合を含むワーク領域又はワーク領域を複数に分割した分割領域を底面とした柱状の少なくとも1つの第2の空間と、の少なくとも一方に基づいて設定された空間であり、ワーク集合とロボットRBとが重なって撮影され得る少なくとも1つの画像取得禁止空間からロボットRBが退避した場合に、画像センサSによる撮影画像を取得するように制御する制御部34と、を備える。【選択図】図4

Description

本発明は、ロボット制御装置、ロボット制御方法、及びロボット制御プログラムに関する。
工場の製造ラインなどにおいて、部品や製品等のワークを搬送する装置の一つとしてピックアンドプレース装置がある(例えば特許文献1参照)。ピックアンドプレース装置は、ワークを保持して目的の場所まで搬送し、載置する。保持するワークは、画像センサでワーク集合の上方から撮影した撮影画像に基づいて決定される。また、画像センサでワーク集合を撮影する際には、ロボットアームとワーク集合とが重なった状態で撮影されないように、ロボットアームがワーク集合の上方から退避した状態で撮影する必要がある。
また、ピックアンドプレース装置では、生産性を向上するために、所定の場所でワークを保持してから目的の場所に載置するまでのサイクルタイムを短縮することが求められる。一般に、ピックアンドプレース装置のサイクルタイムを短縮するためには、ロボットアームがワーク集合の上方から退避したタイミングで速やかに画像センサの撮影を開始することが好ましい。
特開2011−131303号公報 特開2008−30136号公報
しかしながら、ロボットアームがワーク集合の上方から退避するタイミングは、保持するワークの位置及びワークの保持に要する時間に応じてばらつくため、推定することが困難である。このため、従来では、明らかにロボットアームがワークの上方に存在しないタイミング、例えばワークを保持してから数秒後といった固定のタイミングで撮影を開始していた。このため、サイクルタイムを短縮するのが困難であった。
ロボットアームがワーク集合の上方から退避するタイミングを特定するためのセンサを、ワーク集合を撮影する画像センサとは別に設けることも考えられるが、部品点数が増加し装置のコストが高くなる、という問題がある。
本発明は、上記の点に鑑みてなされたものであり、ロボットの作業対象であるワーク集合とロボットとが重なって撮影され得る画像取得禁止空間からロボットが退避するタイミングに合わせて、速やかに撮影画像を取得することができるロボット制御装置、ロボット制御方法、及びロボット制御プログラムを提供することを目的とする。
本発明に係るロボット制御装置は、ロボットの作業対象であるワーク集合を撮影する画像センサから撮影画像を取得する取得部と、前記ロボットの動作のシミュレーションを実行するシミュレーション部と、前記シミュレーションにおいて、前記画像センサの視野範囲である第1の空間と、前記ワーク集合を含むワーク領域又は前記ワーク領域を複数に分割した分割領域の各々を底面として、前記底面を前記画像センサの位置まで伸ばすことで得られる柱状の少なくとも1つの第2の空間と、の少なくとも一方に基づいて設定された空間であり、前記ワーク集合と前記ロボットとが重なって撮影され得る少なくとも1つの画像取得禁止空間から前記ロボットが退避した場合に、前記画像センサによる撮影画像を取得するように制御する制御部と、を備える。
また、前記画像取得禁止空間は、前記第1の空間及び前記第2の空間が重複する空間としてもよい。
また、前記制御部は、前記ワーク集合の外郭を含む形状を前記底面とした前記第2の空間を算出し、算出した前記第2の空間と前記第1の空間とが重複する空間を、前記画像取得禁止空間として算出するようにしてもよい。
また、前記ワーク集合の外郭を含む形状は、前記ワーク集合の外郭を示す輪郭又は前記ワーク集合の輪郭を内部に含む形状としてもよい。
また、前記ワーク集合の輪郭を内部に含む形状は、前記ワーク集合の外郭を包含する外接形状又は前記ワーク集合を収容する収容部の内縁の形状としてもよい。
また、前記画像センサは、静止画を撮影する画像センサであり、前記制御部は、前記シミュレーションにおける前記ロボットが画像取得禁止空間から退避するタイミングに合わせて、前記画像センサによる撮影を開始するように制御するようにしてもよい。
また、前記画像センサは、動画を撮影する画像センサであり、前記制御部は、前記シミュレーションにおける前記ロボットが画像取得禁止空間から退避するタイミングに合わせて、前記画像センサにより撮影された動画からフレーム画像を取得するように制御するようにしてもよい。
また、前記画像取得禁止空間は複数設定され、前記制御部は、複数の前記画像取得禁止空間のうち少なくとも1つの前記画像取得禁止空間から前記ロボットが退避した場合に、前記画像センサによる撮影画像を取得するように制御するようにしてもよい。
また、前記画像センサの撮影方向に平面視した場合に、前記複数の前記画像取得禁止空間のうち少なくとも2つの前記画像取得禁止空間の一部が重複するように設定されているようにしてもよい。
また、前記制御部は、前記ロボットのロボットアームの位置が、前記ワーク集合の配置に影響を与えない基準位置まで退避すると共に、前記分割領域の各々に対応した画像取得禁止空間のうち、ワークが存在し、且つ、前記ロボットアームが存在しない画像取得禁止空間が存在する場合に、前記画像センサによる撮影画像を取得するように制御するようにしてもよい。
本発明に係るロボット制御方法は、コンピュータが、ロボットの作業対象であるワーク集合を撮影する画像センサから撮影画像を取得する取得工程と、前記ロボットの動作のシミュレーションを実行するシミュレーション工程と、前記シミュレーションにおいて、前記画像センサの視野範囲である第1の空間と、前記ワーク集合を含むワーク領域又は前記ワーク領域を複数に分割した分割領域の各々を底面として、前記底面を前記画像センサの位置まで伸ばすことで得られる柱状の少なくとも1つの第2の空間と、の少なくとも一方に基づいて設定された空間であり、前記ワーク集合と前記ロボットとが重なって撮影され得る少なくとも1つの画像取得禁止空間から前記ロボットが退避した場合に、前記画像センサによる撮影画像を取得するように制御する制御工程と、を含む処理を実行する方法である。
本発明に係るロボット制御プログラムは、コンピュータを、ロボットの作業対象であるワーク集合を撮影する画像センサから撮影画像を取得する取得部、前記ロボットの動作のシミュレーションを実行するシミュレーション部、及び、前記シミュレーションにおいて、前記画像センサの視野範囲である第1の空間と、前記ワーク集合を含むワーク領域又は前記ワーク領域を複数に分割した分割領域の各々を底面として、前記底面を前記画像センサの位置まで伸ばすことで得られる柱状の少なくとも1つの第2の空間と、の少なくとも一方に基づいて設定された空間であり、前記ワーク集合と前記ロボットとが重なって撮影され得る少なくとも1つの画像取得禁止空間から前記ロボットが退避した場合に、前記画像センサによる撮影画像を取得するように制御する制御部、として機能させるためのプログラムである。
本発明によれば、ロボットの作業対象であるワーク集合とロボットとが重なって撮影され得る画像取得禁止空間からロボットが退避するタイミングに合わせて、速やかに撮影画像を取得することができる。
ピックアンドプレース装置の概略構成図である。 垂直多関節ロボットの一例を示す斜視図である。 ロボット制御装置のハードウェア構成の例を示す構成図である。 ロボット制御装置の機能構成の例を示すブロック図である。 ロボット制御処理の流れを示すフローチャートである。 第1の空間の一例を示す図である。 第2の空間の一例を示す図である。 画像取得禁止空間の一例を示す図である。 第2の空間の底面の一例を説明するための図である。 第2の空間の底面の一例を説明するための図である。 第2の空間の底面の一例を説明するための図である。 画像取得禁止空間からロボットアームが退避したか否かの判定について説明するための図である。 ロボット制御装置において実行される各処理のタイミングチャートである。 画像取得禁止空間を複数設定した場合の一例を示す平面図である。 画像取得禁止空間を複数設定した場合の一例を示す斜視図である。 画像取得禁止空間を複数設定した場合の撮影画像の取得タイミングの判定処理の一例を示すフローチャートである。
以下、本発明の実施形態の一例を、図面を参照しつつ説明する。なお、各図面において同一又は等価な構成要素及び部分には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されている場合があり、実際の比率とは異なる場合がある。
図1は、本実施形態に係るピックアンドプレース装置1の構成図である。図1に示すように、ピックアンドプレース装置1は、ロボットRB、画像センサS、及びロボット制御装置10を備える。
ロボットRBは、箱状の収容部20Aに収容されたワークWの集合であるワーク集合WSから選択されたワークWを保持して箱状の別の収容部20Bまで搬送し、収容部20B内に載置する。以下では、ワークWを保持する動作をピックアップ動作と称する。また、ワークWを載置する動作をプレース動作と称する。
本実施形態では一例としてロボットRBのロボットアームの先端にはエンドエフェクタとしてロボットハンドHが取り付けられており、ロボットハンドHで収容部20A内のワークWを把持することによってワークWを保持する。そして、ワークWを保持した状態で別の収容部20Bまで搬送し、ワークWの保持を解除してワークWを載置する。なお、ワークWを保持する部材は、ロボットハンドHに限らず、ワークWを吸着する吸着パッドでもよい。
画像センサSは、ワーク集合WSを含む範囲を撮影可能なワーク集合WSの上方の位置に設置されている。画像センサSは、ロボット制御装置10の指示によりワーク集合WSを静止画として撮影するカメラである。なお、画像センサSとして、対象物を複数の異なる方向から同時に撮影するステレオカメラを用いても良い。
ロボット制御装置10は、画像センサSから取得した撮影画像を画像処理し、画像処理の結果に基づいて保持すべきワークWの位置及び姿勢を認識する。そして、ロボット制御装置10は、ロボットRBが収容部20AからワークWを保持して収容部20Bに載置するまでの経路計画を生成する。ロボット制御装置10は、生成した経路計画に従ってロボットRBが動作するように動作指令値をロボットRBに出力する。
次に、ロボットRBについて説明する。本実施形態では、ロボットRBが垂直多関節ロボットである場合について説明するが、水平多関節ロボット(スカラーロボット)及びパラレルリンクロボット等にも本発明を適用可能である。
図2は、垂直多関節ロボットであるロボットRBの構成を示す図である。図2に示すように、ロボットRBは、ベースリンクBL、リンクL1〜L6、ジョイントJ1〜J6を備えた6自由度の6軸ロボットである。なお、ジョイントとは、リンク同士を接続する関節である。また、以下では、リンクL1〜L6及びリンクL6に接続されたロボットハンドHを含めてロボットアームと称する。
ベースリンクBLとリンクL1とは、図2において鉛直軸S1を中心として矢印C1方向に回転するジョイントJ1を介して接続されている。従って、リンクL1は、ベースリンクBLを支点として矢印C1方向に回転する。
リンクL1とリンクL2とは、図2において水平軸S2を中心として矢印C2方向に回転するジョイントJ2を介して接続されている。従って、リンクL2は、リンクL1を支点として矢印C2方向に回転する。
リンクL2とリンクL3とは、図2において軸S3を中心として矢印C3方向に回転するジョイントJ3を介して接続されている。従って、リンクL3は、リンクL2を支点として矢印C3方向に回転する。
リンクL3とリンクL4とは、図2において軸S4を中心として矢印C4方向に回転するジョイントJ4を介して接続されている。従って、リンクL4は、リンクL3を支点として矢印C4方向に回転する。
リンクL4とリンクL5とは、図2において軸S5を中心として矢印C5方向に回転するジョイントJ5を介して接続されている。従って、リンクL5は、リンクL4を支点として矢印C5方向に回転する。
リンクL5とリンクL6とは、図2において軸S6を中心として矢印C6方向に回転するジョイントJ6を介して接続されている。従って、リンクL6は、リンクL5を支点として矢印C6方向に回転する。なお、図2では図示は省略したが、リンクL6にロボットハンドHが取り付けられる。
ジョイントJ1〜J6は、−180度から+180度の回転角度の範囲のうち予め定めた範囲が可動域として各々設定されている。
ロボットRBの姿勢は、ジョイントJ1〜J6の各々の回転角度によって定まる。
図3は、本実施形態に係るロボット制御装置10のハードウェア構成を示すブロック図である。
図3に示すように、ロボット制御装置10は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、ストレージ14、入力部15、モニタ16、光ディスク駆動装置17、及び通信インタフェース18を有する。各構成は、バス19を介して相互に通信可能に接続されている。
本実施形態では、ROM12又はストレージ14には、ロボット制御処理を実行するロボット制御プログラムが格納されている。CPU11は、中央演算処理ユニットであり、各種プログラムを実行したり、各構成を制御したりする。すなわち、CPU11は、ROM12又はストレージ14からプログラムを読み出し、RAM13を作業領域としてプログラムを実行する。CPU11は、ROM12又はストレージ14に記録されているプログラムに従って、上記各構成の制御及び各種の演算処理を行う。
なお、CPU11は、複数の処理を並列して実行することが可能なプロセッサである。このようなプロセッサとしては、マルチコアCPUが挙げられる。また、CPU11を、マルチタスクオペレーティングシステムに基づいて複数の処理を並列して実行することが可能なプロセッサとしてもよい。
ROM12は、各種プログラム及び各種データを格納する。RAM13は、作業領域として一時的にプログラム又はデータを記憶する。ストレージ14は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。
入力部15は、キーボード151、及びマウス152等のポインティングデバイスを含み、各種の入力を行うために使用される。モニタ16は、例えば、液晶ディスプレイであり、各種の情報を表示する。モニタ16は、タッチパネル方式を採用して、入力部15として機能してもよい。光ディスク駆動装置17は、各種の記録媒体(CD−ROM又はブルーレイディスクなど)に記憶されたデータの読み込みや、記録媒体に対するデータの書き込み等を行う。
通信インタフェース18は、ロボットRB及び画像センサS等の他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI又はWi−Fi(登録商標)等の規格が用いられる。
次に、ロボット制御装置10の機能構成について説明する。
図4は、ロボット制御装置10の機能構成の例を示すブロック図である。
図4に示すように、ロボット制御装置10は、機能構成として、取得部30、シミュレーション部32、制御部34、及び記憶部36を有する。各機能構成は、CPU11がROM12又はストレージ14に記憶されたロボット制御プログラムを読み出し、RAM13に展開して実行することにより実現される。
取得部30は、ロボットRBの作業対象であるワーク集合WSを撮影する画像センサSから撮影画像を取得する。
シミュレーション部32は、ロボットRBの動作をシミュレーションする。
制御部34は、シミュレーション部32によるシミュレーションにおいて、画像センサSの視野範囲及びワーク集合WSを含む領域の形状の少なくとも一方に基づいて設定された空間であり、ワーク集合WSとロボットRBとが重なって撮影され得る画像取得禁止空間からロボットRBが退避した場合に、画像センサSによる撮影画像を取得するように制御する。
記憶部36は、ロボット制御処理プログラム、画像センサSの視野範囲に関する情報、ロボットRBのベースリンクBL及びリンクL1〜L6の形状データ、ジョイントJ1〜J6の可動域に関する情報、ロボットハンドHの形状データ、ワークWの形状データ等の各種情報を記憶する。
次に、ロボット制御装置10の作用について説明する。
図5は、ロボット制御装置10のCPU11により実行されるロボット制御処理の流れを示すフローチャートである。オペレータによってロボット制御処理の実行が指示されると、CPU11がROM12又はストレージ14からロボット制御プログラムを読み出して、RAM13に展開し実行することにより、ロボット制御処理が実行される。
CPU11は、制御部34として画像センサSに撮影を指示し、取得部30として画像センサSが撮影した撮影画像を取得する(ステップS100)。
CPU11は、制御部34として、画像センサSの視野範囲を記憶部36から読み出し、画像センサSから取得した撮影画像と、記憶部36から読み出した画像センサSの視野範囲と、に基づいて、画像取得禁止空間を算出する(ステップS102)。
ここで、画像取得禁止空間とは、ワーク集合WSとロボットRBとが重なって撮影され得る空間である。後述するように、ロボットRBがワークWを保持する際には、画像センサSが撮影した撮影画像に基づいて保持すべきワークWを選択する。この際、撮影画像にワーク集合WSとロボットRBのロボットアームとが重なって映っていると、保持すべきワークWの選択が困難となる場合がある。このため、画像取得禁止空間内にロボットRBのロボットアームが存在する場合は、画像センサSによる撮影画像の取得を禁止する。
本実施形態では、画像センサSの視野範囲である第1の空間と、ワーク集合WSを含む領域を底面として、底面を画像センサSの位置まで伸ばすことで得られる第2の空間と、が重複する空間を画像取得禁止空間とする。
例えば、第1の空間を、図6に示すような四角錐状の視野範囲を表す第1の空間40とする。また、第2の空間を、図7に示すように、ワーク集合WSの収容範囲を底面42として画像センサSの位置まで伸ばすことで得られる四角柱状の第2の空間44とする。この場合、第1の空間40及び第2の空間44が重複する画像取得禁止空間として、図8に示すような画像取得禁止空間46が得られる。なお、底面42は、本発明のワーク領域の一例である。
図7の底面42は、図9に示すように収容部20Aを画像センサSの撮影方向に平面視した場合に、収容部20Aの内縁の形状48としている。なお、図8に示す画像取得禁止空間46の形状を表すデータを予め記憶部36に記憶しておき、ステップ102の処理を省略してもよい。
底面42の形状は、図9の例に限られない。例えば、ワーク集合WSの外郭を含む形状を底面とした柱状の第2の空間を算出し、算出した第2の空間と第1の空間とが重複する空間を、画像取得禁止空間として算出してもよい。
この場合、ワーク集合WSの外郭を含む形状を、図10に示すように、ワーク集合WSの外郭を示す輪郭50としてもよい。この場合、CPU11は、制御部34として、画像センサSが取得した撮影画像に対して公知のエッジ抽出処理等の画像処理を実行し、ワーク集合WSの輪郭50を抽出する。そして、抽出した輪郭50を画像センサSの位置まで伸ばすことで柱状の第2の空間を算出する。これにより、第2の空間を必要最小限の空間とすることができる。
また、ワーク集合WSを含む領域の輪郭を、ワーク集合WSの輪郭を内部に含む形状としてもよい。例えば図11に示すように、ワーク集合WSの輪郭を内部に含む形状を、ワーク集合WSの外郭を包含する外接形状52としてもよい。図11の例では、外接形状52は矩形であるが円でもよい。また、外接形状52を、ワーク集合WSを凸包する凸包形状としてもよい。図11の例の場合、収容部20Aの内縁の形状48を底面とする場合と比較して、底面の面積を小さくすることができる。また、ワーク集合WSの外郭を示す輪郭50を底面とする場合と比較して、第2の空間を単純な柱状の形状とすることができる。
CPU11は、制御部34として、画像センサSから取得した撮影画像に基づいて、ピックアップすべきワークWの位置及び姿勢を算出する(ステップS104)。例えば撮影画像に対して公知のエッジ抽出処理及び特徴抽出処理等を施し、各ワークWの位置及び姿勢を検出する。そして、検出したワークWの中からピックアップすべきワークWを選択する。なお、ピックアップすべきワークWの選択基準としては、例えばワーク集合WSの中で最上部にあるワークWを選択する、ワーク集合WSの中央に存在するワークWを選択する、他のワークWと重ならないワークWを選択する等が挙げられるが、これらに限られるものではない。
CPU11は、制御部34として、ピックアップ動作の経路計画を生成する(ステップS106)。具体的には、ステップS104で算出したピックアップすべきワークWの位置及び姿勢に基づいて、ロボットRBの目標姿勢を決定し、ロボットRBの初期姿勢から目標姿勢に至るまでの経路計画を算出する。ここで、ロボットRBの経路計画とは、ロボットRBを初期姿勢から目標姿勢まで動作させる場合の姿勢のリスト、すなわち、ロボットRBのジョイントJ1〜J6の各々の回転角度のリストである。経路計画の算出には、初期姿勢及び目標姿勢を指定すると自動で経路計画を生成するモーションプランニングの手法を用いることができる。また、ティーチングプレイバックの手法を用いて生成された経路計画を用いてもよい。すなわち、ロボットRBを直接動かして様々なワークの位置及び姿勢に応じた経路をティーチングして記憶部36に記憶しておき、ステップS104で算出したピックアップすべきワークWの位置及び姿勢に応じた経路を記憶部36から読み出してもよい。
CPU11は、制御部34及びシミュレーション部32として、ステップS106で生成した経路計画に従ってロボットRBを動作させるための動作指令値をロボットRBに送信してロボットRBを実際に動作させると共に、ロボットRBの実際の動作と同じ動作のシミュレーションを実行する(ステップS108)。これにより、実際にロボットRBによるピックアップ動作が実行されるのに合わせて、シミュレーションにおいても仮想的なロボットRBによるピックアップ動作が実行される。すなわち、実際のロボットRBによるピックアップ動作と、シミュレーションにおける仮想的なロボットRBによるピックアップ動作と、が並列で実行される。なお、実際のロボットRBの動作の方がシミュレーションによるロボットRBの動作よりも実際にロボットRBによるピックアップ動作が実行されるのに若干先行してシミュレーションにおけるピックアップ動作が実行されるようにしてもよい。これにより、後述するステップS114で、シミュレーションにおいて、保持したワークWも含めてロボットアームが画像取得禁止空間46から退避したと判定し、ステップS116で画像センサSに撮影を指示する場合に、撮影指示のタイミングを、実際にロボットRBが画像取得禁止空間46から退避するタイミングに極力合わせることができる。
また、CPU11は、制御部34として、プレース動作の経路計画を生成する処理を、ステップS108の処理と並列に実行する(ステップS110)。
具体的には、ピックアップ動作でワークWをピックアップした際のロボットRBの姿勢を初期姿勢とし、収容部20BにワークWを載置する際の姿勢を目標姿勢として、ロボットRBの初期姿勢から目標姿勢に至るまでの経路計画を算出する。
CPU11は、制御部34及びシミュレーション部32として、ステップS110で生成した経路計画に従ってロボットRBを動作させるための動作指令値をロボットRBに送信してロボットRBを実際に動作させると共に、ロボットRBの実際の動作と同じ動作のシミュレーションを実行する(ステップS112)。これにより、実際にロボットRBによるプレース動作が実行されるのに合わせて、シミュレーションにおいても仮想的なロボットRBによるプレース動作が実行される。すなわち、実際のロボットRBによるプレース動作と、シミュレーションにおける仮想的なロボットRBによるプレース動作と、が並列で実行される。
また、CPU11は、ステップS112の処理と並列してステップS114及びS116の処理を実行する。すなわち、CPU11は、制御部34として、撮影画像の取得タイミングが到来したか否かを判定する(ステップS114)。
撮影画像の取得タイミングは、シミュレーションにおいて、保持したワークWも含めてロボットアームが画像取得禁止空間46から退避したタイミングとする。保持したワークWも含めてロボットアームが画像取得禁止空間46から退避したタイミングを算出するために、CPU11は、シミュレーションにおいて、例えばロボットと障害物との干渉を判定する公知の干渉判定技術を用いる。ここで、干渉とは、ロボットと障害物とが接触することをいう。公知の干渉判定技術としては、例えば特開2002−273675号公報に記載の技術を用いることができる。
例えば図12に示すように、ロボットRBのロボットアームが矢印A方向に移動して画像取得禁止空間46内に進入するタイミングは、画像取得禁止空間46を障害物と見なした場合には、ロボットRBのロボットアームが障害物と干渉するタイミングであると考えられる。なお、図12ではロボットハンドH及びワークWの図示を省略している。
また、ロボットRBのロボットアームが画像取得禁止空間46内に進入し、保持したワークWも含めてロボットアームが矢印B方向に移動して画像取得禁止空間46から抜け出すタイミングは、画像取得禁止空間46を障害物と見なした場合には、保持したワークWも含めてロボットアームが障害物と干渉した状態から非干渉になるタイミングであると考えられる。
このため、CPU11は、シミュレーションにおいて、画像取得禁止空間46を障害物と見なして、ロボットRBのロボットアームが障害物と干渉し、その後、保持したワークWも含めてロボットアームが障害物と非干渉になったタイミングを、ロボットRBが画像取得禁止空間46から退避したタイミングと判定する。
CPU11は、撮影画像の取得タイミングが到来していない場合(ステップS114:NO)、ステップS114の判定を繰り返す。
一方、撮影画像の取得タイミングが到来した場合(ステップS114:YES)、CPU11は、制御部34として画像カメラSに撮影を指示し、取得部30としてワーク集合WSを撮影した撮影画像を画像センサSから取得する(ステップS116)。
CPU11は、ワーク集合WSから全てのワークWを収容部20Aから収容部20Bへ搬送したか否かを判定する(ステップS118)。具体的には、例えばステップS116で取得した撮影画像に対して画像処理を施し、撮影画像中にワークWが存在するか否かを判定する。また、最初に収容部20Aに収容されていたワークの数が予め判っている場合には、ワークWを搬送した回数がワークWの数に達したか否かを判定してもよい。そして、全てのワークWを搬送した場合(ステップS118:YES)、本ルーチンを終了する。一方、全てのワークWを搬送していない場合(ステップS118:NO)、ステップS102へ移行し、全てのワークWを搬送するまでステップS102〜S118の処理を繰り返す。この場合、ステップS106でピックアップ動作の経路計画を生成する際の初期姿勢は、前回のプレース動作でワークWをプレースした際のロボットRBの姿勢とする。
図13には、撮影及び画像処理(ステップS100〜S104)、ピックアップ動作の経路計画の生成(ステップS106)、ピックアップ動作及びシミュレーション(ステップS108)、プレース動作の経路計画の生成(ステップS110)、プレース動作及びシミュレーション(ステップS112)を1つのサイクルとした場合の各動作のタイミングチャートを示した。なお、図13において、t1〜t2の期間は、ロボットRBのロボットアームが画像取得禁止空間46に存在する期間である。このように、1サイクル目のピックアップ動作の途中のt1の時点でロボットRBのロボットアームが画像取得禁止空間46に進入し、プレース動作の途中のt2の時点で、保持したワークWも含めてロボットアームが画像取得禁止空間46から退避した場合、t2の時点で先行して2サイクル目の撮影が開始されることが好ましい。
本実施形態では、ロボットRBの動作のシミュレーションを実行する。そして、シミュレーションにおいて、保持したワークWも含めてロボットアームが画像取得禁止空間46から退避した場合に、画像センサSに撮影を指示する。このため、画像取得禁止空間46からロボットRBが退避するタイミングに合わせて、速やかに撮影画像を取得することができ、1サイクルに要する時間を短縮することができる。
ロボット制御装置10は、上記の実施形態に限定されず、種々の改変が可能である。例えば、本実施形態では、画像センサSが静止画を撮影するカメラである場合について説明したが、動画を撮影するカメラを用いてもよい。この場合、図5の処理を実行中は画像センサSによる動画の撮影を継続する。そして、ステップS100、ステップS116では、画像センサSにより撮影された動画からフレーム画像を取得するように制御すればよい。
また、本実施形態では、ワークWも含めてロボットアームが画像取得禁止空間46から全て退避した場合に画像センサSに撮影を指示する場合について説明したが、保持したワークWも含めたロボットアームの一部が画像取得禁止空間46に残った状態であっても画像センサSに撮影を指示してもよい。例えば、第2の空間44の底面を、図9に示すように収容部20Aの内縁の形状48とした場合又は図11に示すようにワーク集合WSの外郭を包含する外接形状52とした場合、画像取得禁止空間46内であってもワーク集合WSと重ならない位置であれば、保持ワークWも含めたロボットアームの一部が画像取得禁止空間46内に残った状態でもワークWの選択に影響が無い場合が多い。このため、保持したワークWも含めたロボットアームの一部が画像取得禁止空間46に残った状態であってもワーク集合WSと重ならない位置の場合には、画像センサSに撮影を指示してもよい。この場合、図5のステップS104の処理において、撮影画像からロボットアームの一部を除いた画像に基づいて、ピックアップすべきワークを選択するようにしてもよい。
また、保持したワークWを除いたロボットハンドHを含むロボットアームが画像取得禁止空間46から退避したと判定した場合に画像センサSに撮影を指示してもよい。また、保持したワークW及びロボットハンドHを除いたロボットアームが画像取得禁止空間46から退避したと判定した場合に画像センサSに撮影を指示してもよい。
また、本実施形態では、第1の空間40及び第2の空間44が重複する空間を画像取得禁止空間46とした場合について説明したが、第1の空間40又は第2の空間44を画像取得禁止空間46としてもよい。第1の空間40を画像取得禁止空間46とした場合は、第1の空間40は画像センサSの視野範囲により予め定められるので、図5のステップ102の処理を省略することができる。また、第2の空間44を画像取得禁止空間46とした場合は、第1の空間40と第2の空間44とが重複する空間を算出する場合と比較して、画像取得禁止空間46の算出時間を短縮することができる。また、第1の空間40と第2の空間44との和を画像取得禁止空間46としてもよい。
また、本実施形態では、画像取得禁止空間が1つだけ設定された場合について説明したが、図5のステップS102において、画像取得禁止空間を複数設定してもよい。例えば、画像センサSの視野範囲である第1の空間と、ワーク集合WSを含むワーク領域を複数に分割した分割領域の各々を底面として、各底面を画像センサSの位置まで伸ばすことで得られる柱状の複数の第2の空間と、が各々重複する複数の画像取得禁止空間を設定してもよい。
具体的には、図14に示すように、収容部20Aを画像センサSの撮影方向に平面視した場合に、収容部20Aの内縁の形状48を底面として、当該底面を複数に分割した分割領域42A〜42Dの各々を複数の第2の空間の底面とする。図14の例では、分割領域42A〜42Dの各々の一部が互いに重複するように設定されている。すなわち、画像センサSの撮影方向に平面視した場合に、複数の画像取得禁止空間の一部が重複するように設定されている。このように、複数の画像取得禁止空間の一部を互いに重複させることにより、複数の画像取得禁止空間の一部を重複させない場合と比較して、各画像取得禁止空間において選択可能なワークWの数を増加させることができる。
なお、分割領域42A〜42Dの各々に存在するワークWの数が均等になるように、分割領域42A〜42Dを設定してもよい。この場合、撮影画像に基づいてワークWの位置及び数を算出する。そして、算出したワークWの数及び位置に基づいて分割領域42A〜42Dのサイズを設定すればよい。
図15には、分割領域42A〜42Dの各々を底面として、各底面を画像センサSの位置まで伸ばすことで得られる柱状の第2の空間44A〜44Dの一例を示した。
なお、図14の例では、分割領域42A〜42Dの各々の一部が互いに重複するように設定されているが、分割領域42A〜42Dのうち2つ又は3つの分割領域の一部が互いに重複するように設定されていてもよい。また、分割領域42A〜42Dが互いに重複しないように複数の画像取得禁止空間を設定してもよいが、この場合は複数の画像取得禁止空間にワーク集合WSが全て含まれるように分割領域42A〜42Dを設定する必要がある。
複数の画像取得禁止空間を設定した場合、図5のステップS114において、図16に示す処理を実行する。まず、CPU11は、シミュレーションにおいて、ロボットアームの位置が、ワーク集合WSの配置に影響を与えない基準位置まで退避したか否かを判定する(ステップS114A)。すなわち、ロボットアームがワークWに接触してワーク集合WSの配置が変化してしまうことがない位置まで退避したか否かを判定する。ここで、基準位置は、例えば図15に示すように、収容部20Bの上面Aから、高さ方向であるZ方向に予め定めた距離hだけ離間した位置とする。この場合、図15に示すように、ロボットアームの高さが、収容部20Bの上面AからZ方向に距離hだけ離間した位置の面B以上の高さになった場合に、ステップS114Aの判定が肯定判定となる。
なお、例えば図5のステップS100で取得した撮影画像と、ワークWの形状及びサイズと、に基づいて基準位置を設定してもよい。具体的には、撮影画像と、ワークWの形状及びサイズと、に基づいて、最も高く積み上げられたワークWの積み上げ位置を推定し、推定した積み上げ位置から、収容部20Bの底面からワーク集合WSの最も高い位置までの高さを推定する。そして、推定したワーク集合WSの最も高い位置からZ方向に予め定めた距離hだけ離間した位置を基準位置とする。また、図5のステップS116で撮影画像を取得する毎に、撮影画像と、ワークWの形状及びサイズと、に基づいて収容部20Bの底面からワーク集合WSの最も高い位置までの高さを推定し、推定した位置からZ方向に予め定めた距離hだけ離間した位置を基準位置としてもよい。
そして、シミュレーションにおいて、ロボットアームの位置が基準位置まで退避した場合(ステップS114A:YES)、すなわち、ロボットアームがワークWに接触してワーク集合WSの配置に影響を与えることがない場合には、ステップS114Bへ移行する。一方、ロボットアームの位置が基準位置まで退避していない場合(ステップS114A:NO)、すなわち、ロボットアームがワークWに接触してワーク集合WSの配置に影響を与える可能性がある場合には、ロボットアームの位置が基準位置に退避するまでステップS114Aの処理を繰り返す。
CPU11は、分割領域42A〜42Dの各々に対応した画像取得禁止空間のうち、ワークWが存在し、且つ、ロボットアームが存在しない画像取得禁止空間が存在するか否かを判定する(ステップS114B)。そして、分割領域42A〜42Dの各々に対応した画像取得禁止空間のうち、ワークWが存在し、且つ、ロボットアームが存在しない画像取得禁止空間が存在する場合(ステップS114B:YES)、図5のステップS116へ移行する。一方、分割領域42A〜42Dの各々に対応した画像取得禁止空間のうち、ワークWが存在し、且つ、ロボットアームが存在しない画像取得禁止空間が存在しない場合(ステップS114B:NO)、ステップS114Bの判定が肯定されるまでステップS114Bの処理を繰り返す。
なお、ワークWが存在するか否かの判定は、例えば以下のようにして行う。まず、図5のステップS102を最初に実行し、分割領域42A〜42D毎に画像取得禁止空間を設定した際に、撮影画像を画像処理することで分割領域42A〜42D毎にワークWの数を初期値として算出し、記憶部38に記憶しておく。次に、図5のステップS108でピックアップ動作が実行される毎に、記憶部38に記憶したワークWの数のうち、ピックアップ動作が実行された分割領域に対応するワークWの数を減らしていく。そして、記憶部38に記憶したワークWの数が零でないか否かを判定することでワークWが存在するか否かを判定する。または、図5のステップS116を実行する毎に、撮影画像を画像処理することで分割領域42A〜42D毎にワークWの数を算出し、記憶部38に記憶しておく。そして、次のステップS114Bを実行した際に、記憶部38に記憶したワークWの数が零でないか否かを判定することでワークWが存在するか否かを判定する。
このように、分割領域42A〜42Dの各々に対応した画像取得禁止空間のうち、ワークWが存在し、且つ、ロボットアームが存在しない画像取得禁止空間が存在する場合に、撮影画像の取得タイミングが到来したと判定する。例えば図14に示す分割領域42A内のワークWがピックアップされ、ロボットアームが分割領域42Aに対応する画像取得禁止空間から退避したとする。この場合において、他の分割領域42B〜42Dに対応する画像取得禁止空間の少なくとも1つの画像取得禁止空間にロボットアームの一部が残っていたとしても、分割領域42AにワークWが残っていれば、少なくとも分割領域42AからワークWを選択することが可能である。このように、複数の画像取得禁止空間のうち少なくとも1つの画像取得禁止空間からロボットアームが退避した場合に、撮影画像の取得タイミングが到来したと判定することにより、速やかに撮影画像を取得することができる。
また、本実施形態では、ロボットRBがワークWを保持するピックアップ動作に本発明を適用した場合について説明したが、ロボットRBが保持したワークWを収容部20Bに載置するプレース動作に本発明を適用してもよい。この場合、収容部20Bの上方に画像センサを設け、画像センサで撮影された撮影画像に基づいて画像取得禁止空間を算出すると共に、ワークWを載置する位置を決定する。そして、ワークWを収容部20Bに載置したロボットアームが画像取得禁止空間から退避した場合に、画像センサに撮影を指示するようにすればよい。
また、本実施形態では、シミュレーションにおいて公知の干渉判定技術を用いてロボットRBが画像取得禁止空間46から退避したタイミングを判定したが、ロボットRBの経路計画に基づいて、ロボットRBが画像取得禁止空間46から退避したタイミングを判定してもよい。具体的には、図5のS110で生成したプレース動作の経路計画に基づいて、ロボットRBがワークWを保持してから画像取得禁止空間46から退避するまでの退避時間を算出する。そして、シミュレーションにおいてロボットRBがワークWを保持してから退避時間が経過したタイミングを、画像取得禁止空間46から退避したタイミングと判定すればよい。
なお、上記各実施形態でCPUがソフトウェア(プログラム)を読み込んで実行したロボット制御処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field−Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、ロボット制御処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
また、上記各実施形態では、ロボット制御プログラムがストレージ14又はROM12に予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
1 ピックアンドプレース装置
10 ロボット制御装置
20A、20B 収容部
30 取得部
32 シミュレーション部
34 制御部
36 記憶部
40 第1の空間
42 底面
44 第2の空間
46 画像取得禁止空間
50 輪郭
52 外接形状

Claims (12)

  1. ロボットの作業対象であるワーク集合を撮影する画像センサから撮影画像を取得する取得部と、
    前記ロボットの動作のシミュレーションを実行するシミュレーション部と、
    前記シミュレーションにおいて、前記画像センサの視野範囲である第1の空間と、前記ワーク集合を含むワーク領域又は前記ワーク領域を複数に分割した分割領域の各々を底面として、前記底面を前記画像センサの位置まで伸ばすことで得られる柱状の少なくとも1つの第2の空間と、の少なくとも一方に基づいて設定された空間であり、前記ワーク集合と前記ロボットとが重なって撮影され得る少なくとも1つの画像取得禁止空間から前記ロボットが退避した場合に、前記画像センサによる撮影画像を取得するように制御する制御部と、
    を備えたロボット制御装置。
  2. 前記画像取得禁止空間は、前記第1の空間及び前記第2の空間が重複する空間である
    請求項1記載のロボット制御装置。
  3. 前記制御部は、前記ワーク集合の外郭を含む形状を前記底面とした前記第2の空間を算出し、算出した前記第2の空間と前記第1の空間とが重複する空間を、前記画像取得禁止空間として算出する
    請求項2記載のロボット制御装置。
  4. 前記ワーク集合の外郭を含む形状は、前記ワーク集合の外郭を示す輪郭又は前記ワーク集合の輪郭を内部に含む形状である
    請求項3記載のロボット制御装置。
  5. 前記ワーク集合の輪郭を内部に含む形状は、前記ワーク集合の外郭を包含する外接形状又は前記ワーク集合を収容する収容部の内縁の形状である
    請求項4記載のロボット制御装置。
  6. 前記画像センサは、静止画を撮影する画像センサであり、
    前記制御部は、前記シミュレーションにおける前記ロボットが画像取得禁止空間から退避するタイミングに合わせて、前記画像センサによる撮影を開始するように制御する
    請求項1〜5の何れか1項に記載のロボット制御装置。
  7. 前記画像センサは、動画を撮影する画像センサであり、
    前記制御部は、前記シミュレーションにおける前記ロボットが画像取得禁止空間から退避するタイミングに合わせて、前記画像センサにより撮影された動画からフレーム画像を取得するように制御する
    請求項1〜5の何れか1項に記載のロボット制御装置。
  8. 前記画像取得禁止空間は複数設定され、
    前記制御部は、複数の前記画像取得禁止空間のうち少なくとも1つの前記画像取得禁止空間から前記ロボットが退避した場合に、前記画像センサによる撮影画像を取得するように制御する
    請求項1〜7の何れか1項に記載のロボット制御装置。
  9. 前記画像センサの撮影方向に平面視した場合に、前記複数の前記画像取得禁止空間のうち少なくとも2つの前記画像取得禁止空間の一部が重複するように設定されている
    請求項8記載のロボット制御装置。
  10. 前記制御部は、前記ロボットのロボットアームの位置が、前記ワーク集合の配置に影響を与えない基準位置まで退避すると共に、前記分割領域の各々に対応した画像取得禁止空間のうち、ワークが存在し、且つ、前記ロボットアームが存在しない画像取得禁止空間が存在する場合に、前記画像センサによる撮影画像を取得するように制御する
    請求項8又は請求項9記載のロボット制御装置。
  11. コンピュータが、
    ロボットの作業対象であるワーク集合を撮影する画像センサから撮影画像を取得する取得工程と、
    前記ロボットの動作のシミュレーションを実行するシミュレーション工程と、
    前記シミュレーションにおいて、前記画像センサの視野範囲である第1の空間と、前記ワーク集合を含むワーク領域又は前記ワーク領域を複数に分割した分割領域の各々を底面として、前記底面を前記画像センサの位置まで伸ばすことで得られる柱状の少なくとも1つの第2の空間と、の少なくとも一方に基づいて設定された空間であり、前記ワーク集合と前記ロボットとが重なって撮影され得る少なくとも1つの画像取得禁止空間から前記ロボットが退避した場合に、前記画像センサによる撮影画像を取得するように制御する制御工程と、
    を含む処理を実行するロボット制御方法。
  12. コンピュータを、
    ロボットの作業対象であるワーク集合を撮影する画像センサから撮影画像を取得する取得部、
    前記ロボットの動作のシミュレーションを実行するシミュレーション部、及び、
    前記シミュレーションにおいて、前記画像センサの視野範囲である第1の空間と、前記ワーク集合を含むワーク領域又は前記ワーク領域を複数に分割した分割領域の各々を底面として、前記底面を前記画像センサの位置まで伸ばすことで得られる柱状の少なくとも1つの第2の空間と、の少なくとも一方に基づいて設定された空間であり、前記ワーク集合と前記ロボットとが重なって撮影され得る少なくとも1つの画像取得禁止空間から前記ロボットが退避した場合に、前記画像センサによる撮影画像を取得するように制御する制御部、
    として機能させるためのロボット制御プログラム。
JP2018112794A 2018-06-13 2018-06-13 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム Active JP7233858B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018112794A JP7233858B2 (ja) 2018-06-13 2018-06-13 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
US16/410,213 US11527008B2 (en) 2018-06-13 2019-05-13 Robot control device, robot control method, and robot control program
CN201910408402.8A CN110587592B (zh) 2018-06-13 2019-05-16 机器人控制装置、机器人控制方法及计算机可读记录介质
EP19175612.1A EP3616857B1 (en) 2018-06-13 2019-05-21 Robot control device, robot control method, and robot control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018112794A JP7233858B2 (ja) 2018-06-13 2018-06-13 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム

Publications (2)

Publication Number Publication Date
JP2019214100A true JP2019214100A (ja) 2019-12-19
JP7233858B2 JP7233858B2 (ja) 2023-03-07

Family

ID=66625843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018112794A Active JP7233858B2 (ja) 2018-06-13 2018-06-13 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム

Country Status (4)

Country Link
US (1) US11527008B2 (ja)
EP (1) EP3616857B1 (ja)
JP (1) JP7233858B2 (ja)
CN (1) CN110587592B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111844019A (zh) * 2020-06-10 2020-10-30 安徽鸿程光电有限公司 一种机器抓取位置确定方法、设备、电子设备和存储介质
WO2021106345A1 (ja) 2019-11-27 2021-06-03 日立Astemo株式会社 車載電池システム
CN113177932A (zh) * 2021-05-19 2021-07-27 北京明略软件系统有限公司 一种工作区的划分和跟踪方法以及装置
JP7535400B2 (ja) 2020-07-14 2024-08-16 株式会社キーエンス 画像処理装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021053750A1 (ja) * 2019-09-18 2021-03-25 株式会社Fuji 作業ロボットおよび作業システム
DE102022125564B3 (de) * 2022-10-04 2023-10-12 J.Schmalz Gmbh Verfahren zum Handhaben von Gegenständen und Handhabungsanlage

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
JP2013086184A (ja) * 2011-10-13 2013-05-13 Yaskawa Electric Corp ワーク取出システム、ロボット装置および被加工物の製造方法
JP2013132742A (ja) * 2011-12-27 2013-07-08 Canon Inc 物体把持装置、物体把持装置の制御方法、およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3639873B2 (ja) 2001-03-16 2005-04-20 川崎重工業株式会社 ロボット制御方法およびロボット制御システム
JP3768174B2 (ja) * 2002-07-24 2006-04-19 ファナック株式会社 ワーク取出し装置
JP4087841B2 (ja) * 2004-12-21 2008-05-21 ファナック株式会社 ロボット制御装置
JP2008030136A (ja) 2006-07-27 2008-02-14 Sony Corp ロボットの動作編集装置及び動作編集方法、並びにコンピュータ・プログラム
EP1972416B1 (en) 2007-03-23 2018-04-25 Honda Research Institute Europe GmbH Robots with occlusion avoidance functionality
JP5275967B2 (ja) 2009-12-22 2013-08-28 本田技研工業株式会社 干渉チェック装置
JP5382621B2 (ja) * 2010-06-03 2014-01-08 株式会社安川電機 移載装置
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5507595B2 (ja) 2012-02-17 2014-05-28 ファナック株式会社 ロボットを用いた物品組付け装置
JP2014176923A (ja) 2013-03-14 2014-09-25 Yaskawa Electric Corp ロボットシステムおよび被加工物の製造方法
JP5850958B2 (ja) 2014-01-24 2016-02-03 ファナック株式会社 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置
JP6576050B2 (ja) 2015-02-27 2019-09-18 キヤノン株式会社 物体移動方法及びシステム
JP2017042859A (ja) * 2015-08-25 2017-03-02 キヤノン株式会社 ピッキングシステム、並びに、そのための処理装置、方法及びプログラム
JP6450727B2 (ja) * 2016-10-28 2019-01-09 ファナック株式会社 ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
JP2013086184A (ja) * 2011-10-13 2013-05-13 Yaskawa Electric Corp ワーク取出システム、ロボット装置および被加工物の製造方法
JP2013132742A (ja) * 2011-12-27 2013-07-08 Canon Inc 物体把持装置、物体把持装置の制御方法、およびプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021106345A1 (ja) 2019-11-27 2021-06-03 日立Astemo株式会社 車載電池システム
CN111844019A (zh) * 2020-06-10 2020-10-30 安徽鸿程光电有限公司 一种机器抓取位置确定方法、设备、电子设备和存储介质
CN111844019B (zh) * 2020-06-10 2021-11-16 安徽鸿程光电有限公司 一种机器抓取位置确定方法、设备、电子设备和存储介质
JP7535400B2 (ja) 2020-07-14 2024-08-16 株式会社キーエンス 画像処理装置
CN113177932A (zh) * 2021-05-19 2021-07-27 北京明略软件系统有限公司 一种工作区的划分和跟踪方法以及装置
CN113177932B (zh) * 2021-05-19 2023-08-04 北京小明智铁科技有限公司 一种工作区的划分和跟踪方法以及装置

Also Published As

Publication number Publication date
JP7233858B2 (ja) 2023-03-07
US11527008B2 (en) 2022-12-13
CN110587592B (zh) 2022-07-19
EP3616857B1 (en) 2021-11-24
US20190385329A1 (en) 2019-12-19
EP3616857A1 (en) 2020-03-04
CN110587592A (zh) 2019-12-20

Similar Documents

Publication Publication Date Title
JP2019214100A (ja) ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
JP7352260B2 (ja) 自動物体検出機構を備えたロボットシステム、および、その動作方法
CN110576436B (zh) 路径计划装置、路径计划方法以及计算机可读记录介质
WO2020012710A1 (ja) マニピュレータ制御装置、マニピュレータ制御方法、及びマニピュレータ制御プログラム
JP4844453B2 (ja) ロボットの教示装置及び教示方法
JP5582126B2 (ja) ワーク取出システム、ロボット装置および被加工物の製造方法
JP2014205209A (ja) ロボットシステム、及びロボットシステムの制御方法
JP2012030320A (ja) 作業システム、作業ロボット制御装置および作業プログラム
JP7147571B2 (ja) 経路生成装置、経路生成方法、及び経路生成プログラム
JP2018144159A (ja) ロボット設定装置、ロボットシステム、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
WO2021039775A1 (ja) 画像処理装置、撮像装置、ロボット及びロボットシステム
US20210197391A1 (en) Robot control device, robot control method, and robot control non-transitory computer readable medium
TWI696529B (zh) 自動定位方法以及自動控制裝置
JP7549121B2 (ja) ロボットシステム及び制御装置
JP6750406B2 (ja) 搬入出装置の搬入出作業における失敗要因特定方法
CN117377558A (zh) 自动拾取和放置系统
JP7415013B2 (ja) ロボットの構成部材の干渉を検出するロボット装置
JP6996441B2 (ja) マニピュレータ制御装置、マニピュレータ制御方法、及びマニピュレータ制御プログラム
JP7070186B2 (ja) マニピュレータ制御装置、マニピュレータ制御方法、及びマニピュレータ制御プログラム
WO2024204418A1 (ja) 処理装置及びプログラム
TW202241662A (zh) 取物設備控制方法及系統與自動取物系統

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211008

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220214

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220214

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20220301

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220413

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220419

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220701

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220705

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220830

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230110

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230207

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230222

R150 Certificate of patent or registration of utility model

Ref document number: 7233858

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150