JP5897624B2 - ワークの取出工程をシミュレーションするロボットシミュレーション装置 - Google Patents

ワークの取出工程をシミュレーションするロボットシミュレーション装置 Download PDF

Info

Publication number
JP5897624B2
JP5897624B2 JP2014048790A JP2014048790A JP5897624B2 JP 5897624 B2 JP5897624 B2 JP 5897624B2 JP 2014048790 A JP2014048790 A JP 2014048790A JP 2014048790 A JP2014048790 A JP 2014048790A JP 5897624 B2 JP5897624 B2 JP 5897624B2
Authority
JP
Japan
Prior art keywords
model
robot
work
camera
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014048790A
Other languages
English (en)
Other versions
JP2015171745A (ja
Inventor
寛之 後平
寛之 後平
嘉治 長塚
嘉治 長塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2014048790A priority Critical patent/JP5897624B2/ja
Priority to DE102015002760.3A priority patent/DE102015002760B4/de
Priority to US14/642,961 priority patent/US9529945B2/en
Priority to CN201510105607.0A priority patent/CN104908038B/zh
Publication of JP2015171745A publication Critical patent/JP2015171745A/ja
Application granted granted Critical
Publication of JP5897624B2 publication Critical patent/JP5897624B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40006Placing, palletize, un palletize, paper roll placing, box stacking
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40323Modeling robot environment for sensor based robot system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40515Integration of simulation and planning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)

Description

本発明は、バラ積みされたワークをロボットによって順次取出す取出工程をシミュレーションするロボットシミュレーション装置に関する。
ロボットシミュレーション装置は、ロボットによるワークのハンドリングなどの所定の動作を仮想空間内でシミュレーションするために使用される。シミュレーション結果は、ロボットの制御プログラムを評価するとともに、必要に応じてプログラム又は作業空間内の物体の位置関係を変更するために利用される。
バラ積みされたワークをロボットによって順次把持して所定位置まで搬送する取出工程をシミュレーションするロボットシミュレーション装置が公知である。関連技術において、取出工程のシミュレーションは、例えばワークの位置及び姿勢を検出するカメラの三次元モデルを仮想空間に配置して実行される。
特許文献1には、視覚センサを有するロボットの動作をオフラインでシミュレーションするロボットシミュレーション装置が開示されている。このロボットシミュレーション装置は、仮想空間においてセンサモデルによってワークモデルを撮像して得られる二次元の仮想画像に基づいて、取出されるべき対象ワークモデルを特定するとともに、対象ワークモデルの位置及び姿勢を計測するように構成される。
特許文献2には、仮想空間に配置されたカメラモデルによってワークモデルの仮想画像を取得するように構成されたロボットシミュレーション装置が開示されている。このロボットシミュレーション装置において、取得された仮想画像に基づいて、ロボットモデルに対する教示点が補正される。
特許文献3には、カメラによって得られる二次元画像と、レンジセンサによって得られる三次元情報と、に基づいて、物品の位置及び姿勢を認識する認識装置が開示されている。この関連技術は、三次元情報に基づいて物品の二次元位置を検出する探索条件を設定することによって、二次元画像の画像処理に要する時間を短縮することを意図している。
特許文献4には、ワークの画像データを取得するカメラを備えたワーク姿勢検知装置が開示されている。このワーク姿勢検知装置は、予め記憶されたワークの複数の安定姿勢のうち、カメラによって取得された画像データ中のワークの姿勢に最も合致する安定姿勢を基準として、ワークの姿勢を検出するように構成されている。この関連技術は、マッチング処理に要する計算時間を短縮することを意図している。
特許文献5には、認識すべき対象の物体の三次元表面形状データと、距離センサなどを用いて得られる実際の状態をサンプリングした三次元表面形状データと、を照合することによって、物体の位置及び姿勢を認識する物体認識装置が開示されている。
特許文献6には、互いに異なる視点でワークを撮像する2つのカメラを備えていて、ワークの三次元位置を計測するように構成された三次元計測装置が開示されている。この三次元計測装置は、第1のカメラによって得られた第1の画像と、第1の画像に基づいて計算される第2のカメラの切出し範囲に従って切り出される第2のカメラの第2の画像と、に基づいて、ワークの三次元位置を計測するようになっている。
特開2007−241857号公報 特開2007−326160号公報 特開2013−101045号公報 特開2007−245283号公報 特開2009−128191号公報 特開2014−013146号公報
ワークの取出工程において、レンジセンサによってワークの三次元情報を取得することがある。そこで、仮想空間内においてバラ積みされたワークの三次元情報をレンジセンサによって取得し、それにより取出工程のシミュレーションの実行を可能にするロボットシミュレーション装置が求められている。
本願の1番目の態様によれば、2つのカメラ及びプロジェクタを備えたレンジセンサによって取得されるワークの三次元情報に基づいて、バラ積みされた複数のワークをロボットによって順次取出す取出工程を仮想空間内でシミュレーションするロボットシミュレーション装置であって、前記ロボット、前記複数のワーク、並びに前記レンジセンサの前記2つのカメラ及び前記プロジェクタを三次元で表現したロボットモデル、複数のワークモデル、2つのカメラモデル、及びプロジェクタモデルを前記仮想空間に配置するモデル配置部を備えており、前記モデル配置部は、前記複数のワークモデルをバラ積みされた状態で前記仮想空間に配置するよう構成されるとともに、前記2つのカメラモデルの視野及び前記プロジェクタモデルの投影範囲が、バラ積みされた前記ワークモデルに対して設定される計測領域を包含するように、前記2つのカメラモデル及び前記プロジェクタモデルを前記仮想空間に配置するよう構成されており、当該ロボットシミュレーション装置は、さらに、前記2つのカメラモデルの焦点を通って延在していて、前記計測領域を撮像するときの前記2つのカメラモデルの視野を等間隔で分割する第1の平面群を計算する第1の平面計算部と、前記プロジェクタモデルによって前記計測領域に縞状のパターン光を照射したときに、前記計測領域に投影される明暗の境界及び前記プロジェクタモデルを通って延在していて、前記第1の平面群と交差する第2の平面群を計算する第2の平面計算部と、前記第1の平面群と前記第2の平面群との複数の交線を計算する交線計算部と、前記複数の交線と前記ワークモデルの表面との複数の交点の配列を前記ワークモデルの三次元情報として計算する三次元情報計算部と、前記ワークモデルの三次元情報に基づいて前記ワークモデルの位置及び姿勢を計算する位置姿勢計算部と、前記位置姿勢計算部によって計算される前記ワークモデルの位置及び姿勢に基づいて、前記ロボットモデルによる前記取出工程のシミュレーションを実行するシミュレーション実行部と、を備える、ロボットシミュレーション装置が提供される。
本願の2番目の態様によれば、1番目の態様に係るロボットシミュレーション装置において、前記モデル配置部は、バラ積みされた前記ワークモデルを撮像する第2のカメラを前記仮想空間に配置するようさらに構成されており、当該ロボットシミュレーション装置は、バラ積みされた前記ワークモデルの二次元画像を前記第2のカメラから取得する二次元画像取得部をさらに備えており、前記位置姿勢計算部は、前記ワークモデルの三次元情報及び前記二次元画像に基づいて、前記ワークモデルの位置及び姿勢を計算するようさらに構成される。
これら及び他の本発明の目的、特徴及び利点は、添付図面に示される本発明の例示的な実施形態に係る詳細な説明を参照することによって、より明らかになるであろう。
上記構成を採用したロボットシミュレーション装置によれば、仮想空間において設定される第1の平面群と第2の平面群を利用して、ワークモデルの表面上の複数の点を特定する。そして、それら複数の点の三次元情報をレンジセンサモデルによって取得することによって、ワークモデルの位置及び姿勢を取得する。それにより、レンジセンサを利用したワークの取出工程をシミュレーションできるようになり、制御プログラムの評価、或いは必要な変更を容易に実行できるようになる。
一実施形態に係るロボットシミュレーション装置を含むロボットシステムの全体図である。 ロボットシミュレーション装置の表示部による表示例である。 一実施形態に係るロボットシミュレーション装置の機能ブロック図である。 一実施形態に係るロボットシミュレーション装置によって実行される取出工程のシミュレーションの工程の流れを示すフローチャートである。 プロジェクタモデルの投影範囲及びカメラモデルの視野を示す図である。 プロジェクタモデル及びカメラモデルの位置関係の例を示す上面図である。 第1の平面を示す図である。 第2の平面を示す図である。 第1の平面と第2の平面との交線を示す図である。 第1の平面群及び第2の平面群を示す上面図である。 第1の平面と第2の平面との交線と、ワークモデルの表面との交点を示す図である。 ワークモデルの表面上の交点からワークモデルの位置及び姿勢を計算する例を説明する図である。 ワークモデルの表面上の交点からワークモデルの位置及び姿勢を計算する例を説明する図である。 ワークモデルの表面上の交点からワークモデルの位置及び姿勢を計算する例を説明する図である。 別の実施形態に係るロボットシミュレーション装置の機能ブロック図である。 カメラモデルの視野を示す図である。 図12のカメラモデルによって撮像される二次元画像の例である。 二次元画像の使用例を説明するための図である。 二次元画像の使用例を説明するための図である。 二次元画像の使用例を説明するための図である。
以下、添付図面を参照して本発明の実施形態を説明する。図示される実施形態の構成要素は、本発明の理解を助けるために縮尺が適宜変更されている。また、同一又は対応する構成要素には、同一の参照符号が複数の図面にわたって使用される。
図1は、一実施形態に係るロボットシミュレーション装置10を含む、ロボットシステム50の全体図である。ロボットシミュレーション装置10は、例えばロボットプログラムを作成し、仮想空間で実行できるように構成されたオフラインで使用されるデジタルコンピュータである。
ロボットシミュレーション装置10は、図示されないものの、種々の演算処理を実行するCPUと、CPUの演算結果を記憶するRAMと、種々のプログラム、データなどを記憶するROMと、入力デバイスと、を備えている。入力デバイスは、マウス、キーボード、タッチパネルなどの公知の入力手段である。ロボットシミュレーション装置10は、液晶ディスプレイなどの表示部12をさらに備えている。
ロボットシステム50は、ロボット60を備えている。ロボット60は、ロボット制御装置70によって制御される多関節ロボットである。ロボットシミュレーション装置10とロボット制御装置70とは、互いにデータ又は信号を送受信するために、公知の構成を有する通信手段52を介して互いに接続されている。通信手段52は、例えばロボット60を制御する制御プログラムをロボット制御装置70からロボットシミュレーション装置10に送信するのに使用される。
ロボット60は、例えばワーク80を把持可能なハンド62をアームの先端の手首部に備えている。ロボット60は、容器90内にバラ積みされた、すなわち不規則に配置された多数のワーク80からワーク80を順次取出すように、ロボット制御装置70によって制御される。ロボット60は、図示された例に限定されず、任意の公知の構成を有しうる。例えば、ロボット60は、流体圧式又は磁気式の吸着部を手首部に備えたタイプのロボットであってもよい。
容器90は、例えば底壁と、底壁から概ね鉛直方向上方に延在する周壁と、を有するカゴ状の形態を有している。容器90は上方に向かって開口しており、ロボット60は、容器90内の収容空間に対して上方からアクセスできるようになっている。
図示された例では、ワーク80は直方体の形状を有しているものの、ワーク80の形状はこれには限定されない。また、容器90は、ロボット60によってワーク80にアクセス可能であれば、他の任意の形状を有していてもよい。
容器90の上方には、レンジセンサ14が図示されない架台に固定されている。レンジセンサ14は、対象物までの距離を取得できるように構成されており、このロボットシステム50においては、ワーク80の三次元情報を取得する機能を有する。レンジセンサ14は、ワーク80の三次元情報を、例えば距離画像又は三次元マップなどの形態で取得する。距離画像は、レンジセンサ14から計測領域内のワーク80までの距離を各々の画素の明暗又は色によって表現した画像である。また、三次元マップは、計測領域内のワーク80の三次元位置を、ワーク80の表面上における点の三次元座標値の集合として表現したものである。
レンジセンサ14は、プロジェクタ16と、プロジェクタ16に対して反対側に配置された2つのカメラ18と、を備えている。プロジェクタ16は、スポット光、スリット光などの所望のパターン光を対象物の表面に投影することができるように構成される。プロジェクタ16は、例えばレーザダイオード、発光ダイオードなどの公知の光源を備えている。
カメラ18は、例えばCCD、CMOSなどの撮像素子を備えた公知のデジタルカメラである。2つのカメラ18は、それらの視野が少なくとも部分的に互いに重なるように、互いに異なる方向に向けられている。プロジェクタ16の投影範囲は、各々のカメラ18の視野と少なくとも部分的に重なるように配置される。レンジセンサ14は、ロボット60の手首部に固定されていて、その位置及び姿勢が変更可能であってもよい。
レンジセンサ14は、図示されないセンサ制御装置によって制御され、ワーク80の三次元情報を検出できるように構成されている。ワーク80の三次元情報には、ワーク80の特定の部位の位置情報、例えば頂点の位置、ワーク80のうちの所定の平面の位置及び姿勢などが含まれる。レンジセンサ14によって検出されるワーク80の三次元情報は、センサ制御装置を介してロボット制御装置70に出力される。或いは、レンジセンサ14の検出情報がロボット制御装置70に直接送信されるようになっていてもよい。センサ制御装置は、レンジセンサ14のカメラ18によって取得される二次元画像を画像処理する画像処理装置を備えていてもよい。画像処理装置は、センサ制御装置とは別個に設けられていてもよい。
ロボット制御装置70は、レンジセンサ14によって取得されるワーク80の三次元情報に基づいてロボット60の位置及び姿勢を制御して、ハンド62によるワーク80の把持動作を実行する。
図2は、ロボットシミュレーション装置10の表示部12による表示例である。表示部12には、図1に示されるロボット60の作業空間を三次元で表現した仮想空間が表示される。図示されるように、表示部12の画面には、ロボット60、レンジセンサ14、ワーク80、容器90をそれぞれ三次元で表現したロボットモデル60M、レンジセンサモデル14M、ワークモデル80M、及び容器モデル90Mが表示される。図2には二次元の情報のみが表示部12に示されているものの、操作者は、入力デバイスを使って視点を変更することによって、各要素の位置関係を三次元空間において確認できるようになっている。
ロボットシミュレーション装置10は、容器モデル90M内にバラ積みされたワークモデル80Mをロボットモデル60Mによって順次取出す取出工程を仮想空間内で実行できるように構成される。操作者は、仮想空間で実行されるシミュレーションの結果に基づいて、ロボット60Mに対する制御プログラムが適切かどうかを確認でき、必要に応じてプログラムを修正できる。
図3は、ロボットシミュレーション装置10の機能ブロック図である。ロボットシミュレーション装置10は、仮想空間作成部20と、モデル作成部22と、モデル配置部24と、第1の平面計算部26と、第2の平面計算部28と、交線計算部30と、三次元情報計算部32と、位置姿勢計算部34と、シミュレーション実行部36と、を備えている。
仮想空間作成部20は、ロボット60の作業空間を三次元で表現した仮想空間を作成する機能を有する。仮想空間作成部20によって作成された仮想空間は、ロボットシミュレーション装置10の表示部12に表示される。
モデル作成部22は、ロボットモデル60M、レンジセンサモデル14M、ワークモデル80M及び容器モデル90Mを作成する機能を有する。レンジセンサモデル14Mは、プロジェクタモデル16Mと、2つのカメラモデル18Mと、から構成される(図2参照)。モデル作成部22は、ロボットシミュレーション装置10のROM又は外部記憶装置から、三次元CADソフトなどで作成された形状データを読み出すことによって、各々のモデルを作成できるように構成される。
モデル配置部24は、モデル作成部22によって作成された各々の三次元モデルを仮想空間内に配置する機能を有する。本実施形態によれば、モデル配置部24は、複数のワークモデル80Mをバラ積みされた状態で仮想空間に配置するように構成される。また、モデル配置部24は、プロジェクタモデル16Mの投影範囲及び2つのカメラモデル18Mの視野が、バラ積みされたワークモデル80Mに対して設定される計測領域を包含するように、プロジェクタモデル16M及び2つのカメラモデル18Mを仮想空間に配置するように構成される。
第1の平面計算部26は、仮想空間内において第1の平面群を計算する機能を有する。各々の第1の平面は、2つのカメラモデル18Mの焦点を通って延在していて、計測領域を撮像するときのカメラモデル18Mの視野を等間隔で分割する平面として定義される。
第2の平面計算部28は、仮想空間内において第2の平面群を計算する機能を有する。各々の第2の平面は、プロジェクタモデル16Mによって計測領域に縞状のパターン光を照射したときに、計測領域に投影される明暗の境界に沿って延在していて第1の平面と公差する平面として定義される。
交線計算部30は、第1の平面群と第2の平面群との複数の交線を計算する機能を有する。
三次元情報計算部32は、交線計算部30によって計算された複数の交線と、ワークモデル80Mの表面との複数の交点の配列、例えばそれらの距離画像又は三次元マップをワークモデル80Mの三次元情報として計算する機能を有する。
位置姿勢計算部34は、三次元情報計算部32によって計算されたワークモデル80Mの三次元情報に基づいて、ワークモデル80Mの位置及び姿勢を計算する機能を有する。例えば、位置姿勢計算部34は、ワークモデル80Mの三次元情報と、ワークモデル80Mの形状モデルとをマッチングさせることによって、ワークモデル80Mの位置及び姿勢を計算する。
シミュレーション実行部36は、位置姿勢計算部34によって計算されるワークモデル80Mの位置及び姿勢に基づいて、ロボットモデル60Mによる取出工程のシミュレーションを実行する機能を有する。取出工程のシミュレーションは、公知の任意の態様に従って実行されうるので、明細書では詳細な説明を省略する。
図4は、取出工程のシミュレーションを実行する際の工程の流れを説明するフローチャートである。なお、以降の説明において、便宜上、「先ず」、「次に」、「次いで」などの表現が使用されるものの、これらの用語によって工程の順番を限定する意図はない。むしろ、当業者は、技術的な矛盾が生じない限り、以下に述べる各々の工程の順番を適宜変更しても同様の作用効果が得られることを認識するであろう。
先ず、ステップS1において、仮想空間作成部20によってロボット60の作業空間に対応する仮想空間を作成する。次いでステップS2において、モデル作成部22によって、ロボットモデル60M、ワークモデル80M、レンジセンサモデル14M及び容器モデル90Mを作成する。本実施形態では、レンジセンサモデル14Mを構成するプロジェクタモデル16M及び2つのカメラモデル18Mを作成する。また、例えばロボットと容器との間の干渉を考慮する必要がない場合は、容器モデル90Mの作成を省略してもよい。
ステップS3では、モデル配置部24によって、ステップS2において作成された複数のワークモデル80Mをバラ積みされた状態で仮想空間に配置する(図2参照)。バラ積み状態のワークモデル80Mは、任意の公知の方法に従って作成される。例えば、乱数を用いてワークモデル80Mの位置及び姿勢を決定し、ワークモデル80Mが互いに重なり合わないように容器モデル90M内に順番に積み重ねることによってバラ積み状態を作成できる。
ステップS4では、モデル配置部24によって、図2に示されるようにプロジェクタモデル16M及び2つのカメラモデル18Mを仮想空間に配置する。図5A及び図5Bをさらに参照して、プロジェクタモデル16M及びカメラモデル18Mの配置について説明する。図5Aは、プロジェクタモデル16Mの投影範囲及びカメラモデル18Mの視野を示す図である。図5Bは、プロジェクタモデル16M及びカメラモデル18Mの位置関係の例を示す上面図である。
図5Aには、レンジセンサモデル14Mを構成するプロジェクタモデル16M及び2つのカメラモデル18Mとともに、プロジェクタモデル16Mの投影範囲PA及び各々のカメラモデル18Mの視野FVが示されている。また、図5A及び図5Bには、バラ積みされたワークモデル80Mに対して予め設定される計測領域TAが示されている。計測領域TAは、レンジセンサモデル14Mによって計測される対象範囲に応じて定まる。計測領域TAは、例えばバラ積みされたワークモデル80Mのうちの幾つか、又はすべてのワークモデル80Mが含まれるように設定される。例えば、計測領域TAは、容器モデル90Mの底面又は底面から所定の距離だけ離間した水平面として定義される。
図5Aに示されるように、プロジェクタモデル16Mの投影範囲PA及び各々のカメラモデル18Mの視野FVが、計測領域TAにそれぞれ概ね一致するようになっている。また、図5Bに示されるように、プロジェクタモデル16M及び2つのカメラモデル18Mは、互いに一直線上に配置される。しかしながら、プロジェクタモデル16M及びカメラモデル18Mの位置関係は、このような具体的な例には限定されない。例えば、投影範囲PA及び視野FVがそれぞれ計測領域TAを包含するようにプロジェクタモデル16M及びカメラモデル18Mが配置されるのであれば、投影範囲PAと視野FVが部分的にのみ重なるようになっていてもよい。
図4に戻り、続いてステップS5において、第1の平面計算部26によって、第1の平面群を計算する。図6は、第1の平面P1を示している。第1の平面P1は、2つのカメラモデル18Mの焦点を通って延在していて、計測領域TAを撮像するときのカメラモデル18Mの視野を等間隔で分割する平面である。図6には、そのような第1の平面P1群のうちの1つが示されている。図6において計測領域TA上に描かれた破線は、計測領域TAを等間隔に分割する仮想線である。なお、仮想空間内におけるカメラモデル18Mの位置、ひいてはカメラモデル18Mの焦点の位置は、予め定められる設定値である。或いは、カメラキャリブレーションの結果を利用してカメラモデル18M及びそれらの焦点の位置を計算してもよい。
次に、ステップS6において、第2の平面計算部28によって、第2の平面群を計算する。図7は、第2の平面P2を示す図である。第2の平面P2は、プロジェクタモデル16Mによって計測領域TAに縞状のパターン光を照射したときに、計測領域TAに投影される明暗の境界に沿って延在する平面である。図7には、計測領域TA上の明暗パターンがハッチングの有無によって表現されている。なお、ロボットシミュレーション装置10の表示部12の画面に、明暗パターンを実際に表示する必要はない。
ステップS7では、交線計算部30によって、ステップS5,S6において求められた第1の平面P1と第2の平面P2との交線Lを計算する。図8Aは、交線Lを示す図であり、図8Bは、第1の平面P1の群及び第2の平面P2の群を示す上面図である。図8Bにおいて、太線で示される第1の平面P1と第2の平面P2との交点を通って延在する交線Lが一例として示されている。
次に、ステップS8において、三次元情報計算部32によって、ステップS7で求められた複数の交線Lとワークモデル80Mの表面との各々の交点PTの三次元座標を計算する。図9には、例として1つの交線Lと、その交線Lがワークモデル80Mの表面に交わる交点PTと、が示している。
ステップS9では、三次元情報計算部32によって、ステップS8で計算された各々の交点PTの三次元座標をワークモデル80Mの三次元情報として出力する。三次元情報は、例えばロボットシミュレーション装置10のRAMに記憶される。
次いで、ステップS10において、位置姿勢計算部34によって、ステップS9において得られたワークモデル80Mの三次元情報に基づいて、ロボットモデル60Mによって取出されるべき対象ワークモデルを特定するとともに、対象ワークモデルの位置及び姿勢を計算する。
最後に、ステップS11において、シミュレーション実行部36によって、対象ワークモデルを把持可能な位置までロボットモデル60Mを移動させ、取出工程のシミュレーションが実行される。
次に、図10A〜図10Cを参照して、ワークモデル80Mの表面上の交点PTの三次元座標からワークモデル80Mの位置及び姿勢を計算する方法について説明する。図10A〜図10Cにおいて、各々の黒丸は、第1の平面P1と第2の平面P2との交線Lと、ワークモデル80Mとの交点PTを示している(図9参照)。
図10Aにおいて、ワークモデル80Mの交点PTのうち、最も高い位置にあるワークモデル80Mの交点PT1が白丸で示されている。一般的なワークの取出工程は、上方に位置するワークから順番に取出すように実行される。そこで、位置姿勢計算部34は、交点PT1の三次元座標から取出されるべきワークモデル80Mの頂点の位置を特定する。この場合、取出されるべきワークモデル80Mの頂点の位置に基づいて、ワークモデル80Mを把持する際のロボットモデル60Mの位置決めがなされるようになる。或いは、ロボットモデル60Mは、既知のワークモデル80Mの形状などを併せて考慮して、対象ワークモデルの頂点、すなわち交点PT1の位置から所定の位置だけ離間した位置を把持するように制御されてもよい。
図10Bにおいて、所定の範囲内に含まれる複数の交点PT2からなる点集合が白丸で示されている。この場合、位置姿勢計算部34は、それら交点PT2の三次元座標に基づいて、取出されるべき対象ワークモデルの位置及び姿勢を計算する。或いは、それら交点PT2の三次元座標と、既知のワークモデル80Mの形状と、に基づいて、取出されるべき対象ワークモデルの位置及び姿勢を計算してもよい。
図10Cにおいて、ワークモデル80Mのうちの概ね上方を向いた平面P3にハッチングが施されるとともに、それら平面P3に対する法線が矢印で示されている。平面P3、及びそれら平面P3に対する法線は、図10Bの例のように所定の範囲内に含まれる点集合を互いに連結することによって求められる。この場合、位置姿勢計算部34は、ワークモデル80Mの特定の平面の位置及び姿勢から、ワークモデル80Mの位置及び姿勢を計算する。
本実施形態に係るロボットシミュレーション装置によれば、仮想空間において設定される第1の平面群と第2の平面群を利用して、ワークモデルの表面上の複数の点を特定する。そして、それら複数の点の三次元情報をレンジセンサモデルによって取得することによって、ワークモデルの位置及び姿勢を取得する。それにより、レンジセンサを利用したワークの取出工程をシミュレーションできるようになり、制御プログラムの評価、或いは必要な変更を容易に実行できるようになる。
図11は、別の実施形態に係るロボットシミュレーション装置10の機能ブロック図である。本実施形態によれば、ロボットシミュレーション装置10は、前述した実施形態の構成に加えて、二次元画像取得部38をさらに備えている。
二次元画像取得部38は、カメラモデル18Mによって、バラ積みされたワークモデル80Mの二次元画像を取得する機能を有する。図12は、二次元画像取得部38と協働するカメラモデル18Mの視野FVを示す図である。二次元画像取得部38は、レンジセンサモデル14Mを構成する2つのカメラモデル18Mのうちの一方を使用して二次元画像を取得するように構成される。或いは、別個のカメラモデルがこの目的で使用されてもよい。
図13は、カメラモデル18Mによって撮像される二次元画像の例である。図示された例では、バラ積みされた円柱形のワークモデル80Mが撮像されている。取得された二次元画像は、画像処理装置によって画像処理され、ワークモデル80Mの位置及び姿勢を計算するのに使用される。
図14〜図16は、二次元画像取得部38によって取得される二次元画像の使用例を説明するための図である。図14において、ワークモデル80Mに描かれた線L1は、二次元画像取得部38による検出範囲の境界線である。すなわち、ワークモデル80Mのうち、図14の線L1よりも下方の部分は、例えば別のワークモデル80Mの背後に隠れている。この場合、ロボットシミュレーション装置10の位置姿勢計算部34は、取得される二次元画像を画像処理することによってワークモデル80Mの一部を特定し、特定されたワークモデル80Mの部分における三次元情報(交点PTの三次元座標)を利用する。例えば、位置姿勢計算部34は、二次元画像の検出範囲内に含まれるワークモデル80Mの三次元情報に基づいて、その部分のワークモデル80Mの重心CGの位置を計算する。この場合、ロボットモデル60Mは、ワークモデル80Mの重心CGの位置に基づいて、ワークモデル80Mを把持する際の位置決めがなされるようになる。
図15には、異なる寸法を有する2つの直方体が積層されるように組合せられた形状を有するワークモデル80Mが示されている。この場合、例えば二次元画像取得部38によって取得される二次元画像を画像処理することによって、ワークモデル80Mの平面P4を特定する。そして、特定された平面P4上の三次元情報(交点PTの三次元座標)を利用する。例えば、位置姿勢計算部34は、二次元画像の平面P4に含まれるワークモデル80Mの三次元情報に基づいて、平面P4の位置及び姿勢、或いは平面P4に対する法線の延在方向を計算する。この場合、平面P4の位置及び姿勢、或いは平面P4に対する法線の延在方向に基づいて、ワークモデル80Mを把持する際のロボットモデル60Mの位置決めがなされるようになる。
或いは、図16に示されるように、二次元画像から特定されるワークモデル80Mの平面P4とは異なる平面P5上の三次元情報(交点PTの三次元座標)に基づいて、平面P4の位置及び姿勢、或いは平面P4に対する法線方向を計算してもよい。
本実施形態によれば、カメラモデルによって取得されるワークモデルの二次元画像をさらに利用して、ワークモデルの位置及び姿勢がより正確に計算される。このような正確なワークモデルの位置及び姿勢に基づいて、ワークの取出工程のシミュレーションを実行できるので、シミュレーションの信頼性が向上する。
以上、本発明の種々の実施形態について説明したが、他の実施形態によっても本発明の意図される作用効果を奏することができることは当業者に自明である。特に、本発明の範囲を逸脱することなく前述した実施形態の構成要素を削除又は置換することが可能であるし、公知の手段をさらに付加することもできる。また、本明細書において明示的又は暗示的に開示される複数の実施形態の特徴を任意に組合せることによっても本発明を実施できることは当業者に自明である。
10 ロボットシミュレーション装置
12 表示部
14 レンジセンサ
14M レンジセンサモデル
16 プロジェクタ
16M プロジェクタモデル
18 カメラ
18M カメラモデル
20 仮想空間作成部
22 モデル作成部
24 モデル配置部
26 第1の平面計算部
28 第2の平面計算部
30 交線計算部
32 三次元情報計算部
34 位置姿勢計算部
36 シミュレーション実行部
38 二次元画像取得部
50 ロボットシステム
60 ロボット
60M ロボットモデル
70 ロボット制御装置
80 ワーク
80M ワークモデル
90 容器
90M 容器モデル
FV (カメラモデルの)視野
L 交線
PT 交点
PA 投影範囲
TA 計測領域

Claims (2)

  1. 2つのカメラ及びプロジェクタを備えたレンジセンサによって取得されるワークの三次元情報に基づいて、バラ積みされた複数のワークをロボットによって順次取出す取出工程を仮想空間内でシミュレーションするロボットシミュレーション装置であって、
    前記ロボット、前記複数のワーク、並びに前記レンジセンサの前記2つのカメラ及び前記プロジェクタを三次元で表現したロボットモデル、複数のワークモデル、2つのカメラモデル、及びプロジェクタモデルを前記仮想空間に配置するモデル配置部を備えており、
    前記モデル配置部は、
    前記複数のワークモデルをバラ積みされた状態で前記仮想空間に配置するよう構成されるとともに、
    前記2つのカメラモデルの視野及び前記プロジェクタモデルの投影範囲が、バラ積みされた前記ワークモデルに対して設定される計測領域を包含するように、前記2つのカメラモデル及び前記プロジェクタモデルを前記仮想空間に配置するよう構成されており、
    当該ロボットシミュレーション装置は、さらに、
    前記2つのカメラモデルの焦点を通って延在していて、前記計測領域を撮像するときの前記2つのカメラモデルの視野を等間隔で分割する第1の平面群を計算する第1の平面計算部と、
    前記プロジェクタモデルによって前記計測領域に縞状のパターン光を照射したときに、前記計測領域に投影される明暗の境界及び前記プロジェクタモデルを通って延在していて、前記第1の平面群と交差する第2の平面群を計算する第2の平面計算部と、
    前記第1の平面群と前記第2の平面群との複数の交線を計算する交線計算部と、
    前記複数の交線と前記ワークモデルの表面との複数の交点の配列を前記ワークモデルの三次元情報として計算する三次元情報計算部と、
    前記ワークモデルの三次元情報に基づいて前記ワークモデルの位置及び姿勢を計算する位置姿勢計算部と、
    前記位置姿勢計算部によって計算される前記ワークモデルの位置及び姿勢に基づいて、前記ロボットモデルによる前記取出工程のシミュレーションを実行するシミュレーション実行部と、
    を備える、ロボットシミュレーション装置。
  2. 前記モデル配置部は、バラ積みされた前記ワークモデルを撮像する第2のカメラを前記仮想空間に配置するようさらに構成されており、
    当該ロボットシミュレーション装置は、バラ積みされた前記ワークモデルの二次元画像を前記第2のカメラから取得する二次元画像取得部をさらに備えており、
    前記位置姿勢計算部は、前記ワークモデルの三次元情報及び前記二次元画像に基づいて、前記ワークモデルの位置及び姿勢を計算するようさらに構成される、請求項1に記載のロボットシミュレーション装置。
JP2014048790A 2014-03-12 2014-03-12 ワークの取出工程をシミュレーションするロボットシミュレーション装置 Active JP5897624B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014048790A JP5897624B2 (ja) 2014-03-12 2014-03-12 ワークの取出工程をシミュレーションするロボットシミュレーション装置
DE102015002760.3A DE102015002760B4 (de) 2014-03-12 2015-03-05 Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
US14/642,961 US9529945B2 (en) 2014-03-12 2015-03-10 Robot simulation system which simulates takeout process of workpieces
CN201510105607.0A CN104908038B (zh) 2014-03-12 2015-03-11 对工件的取出工序进行仿真的机器人仿真装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014048790A JP5897624B2 (ja) 2014-03-12 2014-03-12 ワークの取出工程をシミュレーションするロボットシミュレーション装置

Publications (2)

Publication Number Publication Date
JP2015171745A JP2015171745A (ja) 2015-10-01
JP5897624B2 true JP5897624B2 (ja) 2016-03-30

Family

ID=54010278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014048790A Active JP5897624B2 (ja) 2014-03-12 2014-03-12 ワークの取出工程をシミュレーションするロボットシミュレーション装置

Country Status (4)

Country Link
US (1) US9529945B2 (ja)
JP (1) JP5897624B2 (ja)
CN (1) CN104908038B (ja)
DE (1) DE102015002760B4 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019001038A1 (de) 2018-02-19 2019-08-22 Fanuc Corporation Simulationsvorrichtung, die den Arbeitsablauf eines Roboters simuliert

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015024453A (ja) * 2013-07-25 2015-02-05 トヨタ自動車株式会社 載置判断方法、載置方法、載置判断装置及びロボット
WO2015078992A1 (en) * 2013-11-27 2015-06-04 Engino.Net Ltd. System and method for teaching programming of devices
CN107206592B (zh) 2015-01-26 2021-03-26 杜克大学 专用机器人运动规划硬件及其制造和使用方法
JP6206560B2 (ja) * 2015-09-28 2017-10-04 株式会社リコー システム
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
CN108781251A (zh) * 2016-03-15 2018-11-09 株式会社理光 图像处理装置、图像处理方法和图像处理系统
JP2017181228A (ja) * 2016-03-30 2017-10-05 キヤノン株式会社 計測装置、計測方法及び物品の製造方法
CN109477723B (zh) 2016-06-10 2023-02-21 杜克大学 自动驾驶车辆运动规划和可重新配置的运动规划处理器
JP6392817B2 (ja) * 2016-08-04 2018-09-19 ファナック株式会社 シミュレーション装置
US10078908B2 (en) * 2016-08-12 2018-09-18 Elite Robotics Determination of relative positions
JP6450727B2 (ja) * 2016-10-28 2019-01-09 ファナック株式会社 ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体
JP6450788B2 (ja) * 2017-02-21 2019-01-09 ファナック株式会社 ワーク取出システム
JP6846949B2 (ja) * 2017-03-03 2021-03-24 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6846950B2 (ja) * 2017-03-03 2021-03-24 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2018144155A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6877192B2 (ja) * 2017-03-03 2021-05-26 株式会社キーエンス 画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6889574B2 (ja) * 2017-03-03 2021-06-18 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP7091609B2 (ja) * 2017-04-14 2022-06-28 セイコーエプソン株式会社 シミュレーション装置、ロボット制御装置およびロボット
US10343289B2 (en) * 2017-05-05 2019-07-09 The Boeing Company Verification system for manufacturing processes
CN107024163B (zh) * 2017-05-15 2019-10-11 上海电机学院 一种用于汽轮机预扭叶片的激光检测装置
JP6857101B2 (ja) * 2017-07-31 2021-04-14 株式会社キーエンス ロボットシミュレーション装置及びロボットシミュレーション方法
JP6659641B2 (ja) * 2017-09-13 2020-03-04 ファナック株式会社 3次元モデル作成装置
US11504853B2 (en) * 2017-11-16 2022-11-22 General Electric Company Robotic system architecture and control processes
KR102565444B1 (ko) * 2017-12-21 2023-08-08 삼성전자주식회사 객체를 식별하기 위한 장치 및 방법
WO2019139815A1 (en) 2018-01-12 2019-07-18 Duke University Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects
TWI822729B (zh) 2018-02-06 2023-11-21 美商即時機器人股份有限公司 用於儲存一離散環境於一或多個處理器之一機器人之運動規劃及其改良操作之方法及設備
WO2019183141A1 (en) * 2018-03-21 2019-09-26 Realtime Robotics, Inc. Motion planning of a robot for various environments and tasks and improved operation of same
JP6810093B2 (ja) * 2018-04-25 2021-01-06 ファナック株式会社 ロボットのシミュレーション装置
US11511415B2 (en) 2018-06-26 2022-11-29 Teradyne, Inc. System and method for robotic bin picking
JP7063764B2 (ja) * 2018-08-08 2022-05-09 ファナック株式会社 3次元モデル作成装置
US20220088783A1 (en) * 2019-01-21 2022-03-24 Abb Schweiz Ag Method and Apparatus for Manufacturing Line Simulation
CN113905855B (zh) 2019-04-17 2023-08-25 实时机器人有限公司 运动规划图生成用户界面、系统、方法和规则
JP7479064B2 (ja) 2019-06-03 2024-05-08 リアルタイム ロボティクス, インコーポレーテッド 動的障害物を有する環境における動作計画を容易にする装置、方法及び物品
JP7376268B2 (ja) * 2019-07-22 2023-11-08 ファナック株式会社 三次元データ生成装置及びロボット制御システム
JP7346133B2 (ja) * 2019-07-29 2023-09-19 株式会社キーエンス ロボット設定装置及びロボット設定方法
WO2021041223A1 (en) 2019-08-23 2021-03-04 Realtime Robotics, Inc. Motion planning for robots to optimize velocity while maintaining limits on acceleration and jerk
TW202146189A (zh) 2020-01-22 2021-12-16 美商即時機器人股份有限公司 於多機器人操作環境中之機器人之建置
JPWO2021199730A1 (ja) * 2020-03-31 2021-10-07
CN112157654B (zh) * 2020-09-15 2022-06-07 天津大学 一种机器人加工系统定位误差的优化方法
CN112692829A (zh) * 2020-12-22 2021-04-23 程小龙 一种基于5g网络的智慧工厂自动下料机器人
JPWO2022249295A1 (ja) 2021-05-25 2022-12-01
WO2022262917A1 (en) * 2021-06-17 2022-12-22 Vestas Wind Systems A/S Control of a tool mounted on a robotic arm
CN114677429B (zh) * 2022-05-27 2022-08-30 深圳广成创新技术有限公司 一种机械手的定位方法、装置、计算机设备和存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2692603B2 (ja) * 1994-07-13 1997-12-17 村田機械株式会社 三次元計測方法
CN1162681C (zh) * 1999-03-19 2004-08-18 松下电工株式会社 三维物体识别方法及使用该方法的零件抓取系统
US7876455B2 (en) * 2004-08-03 2011-01-25 TechnoDream21 Co., Ltd. Three-dimensional shape measuring method and apparatus for the same
JP4153528B2 (ja) * 2006-03-10 2008-09-24 ファナック株式会社 ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
JP4940715B2 (ja) 2006-03-15 2012-05-30 日産自動車株式会社 ピッキングシステム
JP2007286976A (ja) * 2006-04-18 2007-11-01 Fanuc Ltd ロボットシミュレーション装置
US8108092B2 (en) * 2006-07-14 2012-01-31 Irobot Corporation Autonomous behaviors for a remote vehicle
US8326469B2 (en) * 2006-07-14 2012-12-04 Irobot Corporation Autonomous behaviors for a remote vehicle
JP4238256B2 (ja) 2006-06-06 2009-03-18 ファナック株式会社 ロボットシミュレーション装置
JP5092711B2 (ja) 2007-11-22 2012-12-05 株式会社Ihi 物体認識装置およびロボット装置
JP5714232B2 (ja) * 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP5282717B2 (ja) * 2009-10-19 2013-09-04 株式会社安川電機 ロボットシステム
JP5471355B2 (ja) * 2009-11-24 2014-04-16 オムロン株式会社 3次元視覚センサ
JP5393531B2 (ja) * 2010-02-25 2014-01-22 キヤノン株式会社 位置姿勢推定装置、位置姿勢推定方法、プログラム、記憶媒体
JP5787642B2 (ja) * 2011-06-28 2015-09-30 キヤノン株式会社 対象物保持装置、対象物保持装置の制御方法、およびプログラム
JP5852364B2 (ja) * 2011-08-26 2016-02-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2013101045A (ja) 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP6222898B2 (ja) * 2012-07-03 2017-11-01 キヤノン株式会社 3次元計測装置及びロボット装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019001038A1 (de) 2018-02-19 2019-08-22 Fanuc Corporation Simulationsvorrichtung, die den Arbeitsablauf eines Roboters simuliert
DE102019001038B4 (de) 2018-02-19 2022-04-21 Fanuc Corporation Simulationsvorrichtung, die den Arbeitsablauf eines Roboters simuliert
US11446822B2 (en) 2018-02-19 2022-09-20 Fanuc Corporation Simulation device that simulates operation of robot

Also Published As

Publication number Publication date
CN104908038B (zh) 2016-10-12
DE102015002760B4 (de) 2021-01-28
DE102015002760A1 (de) 2015-09-17
CN104908038A (zh) 2015-09-16
US9529945B2 (en) 2016-12-27
JP2015171745A (ja) 2015-10-01
US20150261899A1 (en) 2015-09-17

Similar Documents

Publication Publication Date Title
JP5897624B2 (ja) ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP6540472B2 (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP6642968B2 (ja) 情報処理装置、情報処理方法、プログラム
JP4492654B2 (ja) 3次元計測方法および3次元計測装置
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
US11654571B2 (en) Three-dimensional data generation device and robot control system
US9199379B2 (en) Robot system display device
EP2682710B1 (en) Apparatus and method for three-dimensional measurement and robot system comprising said apparatus
JP6892286B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP6703812B2 (ja) 3次元物体検査装置
US20150003678A1 (en) Information processing apparatus, information processing method, and storage medium
CN109313417A (zh) 帮助机器人定位
JP2017118396A (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP2008296330A (ja) ロボットシミュレーション装置
US20180290300A1 (en) Information processing apparatus, information processing method, storage medium, system, and article manufacturing method
US11446822B2 (en) Simulation device that simulates operation of robot
US10724963B2 (en) Device and method for calculating area to be out of inspection target of inspection system
JP2018055246A (ja) 画像処理装置、画像処理方法および画像処理用プログラム
JP5481397B2 (ja) 3次元座標計測装置
CN113597362B (zh) 用于确定机器人坐标系与可移动装置坐标系之间的关系的方法和控制装置
JP2009216480A (ja) 三次元位置姿勢計測方法および装置
Fröhlig et al. Three-dimensional pose estimation of deformable linear object tips based on a low-cost, two-dimensional sensor setup and AI-based evaluation
WO2022249295A1 (ja) ロボットシミュレーション装置
US20220088784A1 (en) Method and Apparatus for Monitoring Robot System
WO2020008936A1 (ja) 画像処理装置、画像処理方法、システム、物品の製造方法

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150825

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160302

R150 Certificate of patent or registration of utility model

Ref document number: 5897624

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150