JP2019141943A - ロボットの動作をシミュレーションするシミュレーション装置 - Google Patents

ロボットの動作をシミュレーションするシミュレーション装置 Download PDF

Info

Publication number
JP2019141943A
JP2019141943A JP2018027331A JP2018027331A JP2019141943A JP 2019141943 A JP2019141943 A JP 2019141943A JP 2018027331 A JP2018027331 A JP 2018027331A JP 2018027331 A JP2018027331 A JP 2018027331A JP 2019141943 A JP2019141943 A JP 2019141943A
Authority
JP
Japan
Prior art keywords
model
work
set point
dimensional
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018027331A
Other languages
English (en)
Other versions
JP6693981B2 (ja
Inventor
寛之 後平
Hiroyuki Gohira
寛之 後平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2018027331A priority Critical patent/JP6693981B2/ja
Priority to US16/266,747 priority patent/US11446822B2/en
Priority to DE102019001038.8A priority patent/DE102019001038B4/de
Priority to CN201910120176.3A priority patent/CN110170982B/zh
Publication of JP2019141943A publication Critical patent/JP2019141943A/ja
Application granted granted Critical
Publication of JP6693981B2 publication Critical patent/JP6693981B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40323Modeling robot environment for sensor based robot system

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

【課題】シミュレーションの精度が向上するシミュレーション装置を提供する。【解決手段】シミュレーション装置3は、2台の2次元カメラを含むロボット装置のシミュレーションを実施する。シミュレーション装置3は、ワークモデルの表面に複数の設定点を配置する設定点配置部35と、3次元センサモデルから設定点までの距離を計算する距離計算部36とを備える。シミュレーション装置3は、設定点の位置と3次元センサモデルから設定点までの距離とを含む3次元情報を生成する3次元情報生成部37を備える。シミュレーション装置3は、カメラモデルから見えない設定点を除外する除外部38を備える。シミュレーション装置3は、3次元情報に基づいて、ロボットモデルの位置および姿勢を変更する。【選択図】図2

Description

本発明は、ロボットの動作をシミュレーションするシミュレーション装置に関する。
ロボットおよび作業ツールを備えるロボット装置は、ロボットが位置および姿勢を変更することにより、ワークの搬送などの作業を行うことができる。例えば、容器の中に積まれたワークを取り出すロボット装置が知られている(例えば、特開2017−170567号公報および特開2010−71743号公報)。このようなロボット装置においては、カメラにて撮像したワークの画像を用いてワークの位置および姿勢を検出することができる。ロボット装置は、ワークの位置および姿勢に応じてロボットの位置および姿勢を変更し、ワークに対して作業を行うことができる。
また、ワークの位置および姿勢を検出するためのカメラを備えるロボット装置において、ロボット装置が実際の作業を行う前にシミュレーションを実施するシミュレーション装置が知られている(例えば、特許第5897624号公報)。
特開2017−170567号公報 特開2010−71743号公報 特許第5897624号公報
シミュレーション装置にてロボット装置のシミュレーションを実施することにより、ロボット装置が所望の作業を行うか否かを判別することができる。または、ロボット装置を駆動する動作プログラムを実際の作業を行う前に評価することができる。作業者は、シミュレーションの結果に基づいて、作業を行う空間における装置の位置を変更したり、作業ツールを変更したり、または動作プログラムを修正したりすることができる。
ところで、従来の技術のシミュレーション装置は、ロボットに対応するロボットモデルおよびワークに対応するワークモデル等のモデルを仮想空間に配置してシミュレーションを実施することができる。このために、シミュレーション装置は、カメラから実際に見えないワークの部分まで検出してシミュレーションを実施する場合があった。この結果、シミュレーションにて得られる距離画像が実際のロボット装置にて得られる距離画像と異なり、シミュレーションの精度が低くなるという問題があった。
例えば、実際のロボット装置では、カメラにてワークの一部が撮像できなくて、ワークの位置および姿勢が検出されない場合がある。この結果、ロボット装置にてワークを搬送できない場合がある。しかしながら、シミュレーション装置では、カメラにて撮像できない部分まで計算してしまうために、ロボット装置がワークを搬送できるようにシミュレーションを実施する場合があった。
本開示の一態様のシミュレーション装置は、2台の2次元カメラを含む3次元センサによって取得されるワークの3次元情報に基づいて、ロボットがワークに対して行う作業をシミュレーションする。シミュレーション装置は、ロボットを3次元にて表現したロボットモデル、ワークを3次元にて表現したワークモデル、および2次元カメラを3次元にて表現したカメラモデルを含む3次元センサモデルを仮想空間に生成するモデル生成部を備える。シミュレーション装置は、ワークモデルの表面に複数の設定点を配置する設定点配置部と、3次元センサモデルからそれぞれの設定点までの距離を計算する距離計算部とを備える。シミュレーション装置は、設定点の位置と3次元センサモデルから設定点までの距離とを含む3次元情報を生成する3次元情報生成部を備える。シミュレーション装置は、ワークモデルの表面に配置された設定点のうち、少なくとも1つのカメラモデルから見えない設定点を除外する除外部を備える。シミュレーション装置は、3次元情報に基づいて、ワークモデルの位置および姿勢を算出するワーク位置計算部を備える。シミュレーション装置は、ワークモデルの位置および姿勢に基づいて、ロボットモデルの位置および姿勢を変更し、ワークモデルに対して行う作業のシミュレーションを実施するシミュレーション実行部を備える。
本開示の一態様によれば、ロボットの動作をシミュレーションするシミュレーション装置において、シミュレーションの精度を向上することができる。
実施の形態におけるロボット装置およびシミュレーション装置の概略図である。 実施の形態におけるシミュレーション装置のブロック図である。 実施の形態における設定点配置部のブロック図である。 実施の形態におけるシミュレーションの制御のフローチャートである。 シミュレーション装置の表示部に表示される画像の例である。 シミュレーションにおいて、設定点を算出するための第1平面を説明するモデルの斜視図である。 シミュレーションにおいて、設定点を算出するための第2平面を説明するモデルの斜視図である。 第1平面と第2平面との交線を説明する斜視図である。 計測領域と第1平面との交線および計測領域と第2平面との交線を説明する図である。 設定点配置部によりワークの表面に配置された設定点を説明するワークモデルの斜視図である。 レンジセンサモデルからワークモデルまでの距離の算出を説明する概略図である。 ワークの表面に配置される設定点を説明する第1の概略図である。 ワークの表面に配置される設定点を説明する第2の概略図である。 除外部により一部の設定点が除外された時のワークモデルの斜視図である。 シミュレーション装置によって得られる距離画像の例である。 ワークモデルの表面を検出する制御を説明するワークモデルの斜視図である。 シミュレーションを実行するときに表示部に表示される画像の例である。 除外部により設定点を除外するときの重複領域を説明する概略図である。 ワークモデルの表面に配置された設定点の距離の修正を説明する概略図である。
図1から図19を参照して、実施の形態におけるシミュレーション装置について説明する。本実施の形態では、ロボットおよびロボットに取り付けられた作業ツールを含むロボット装置が予め定められた作業を実施する。本実施の形態のシミュレーション装置は、ロボットがワークに対して行う作業をシミュレーションする。また、本実施の形態においては、ワークの搬送を行うロボット装置を例に取り上げて説明する。
図1は、本実施の形態におけるロボット装置およびシミュレーション装置の概略図である。ロボット装置9は、ワーク85を把持するハンド5と、ハンド5を移動するロボット1を含む。ロボット装置9は、ワーク85の位置および姿勢を検出するためにワーク85を撮像する3次元センサとしてのレンジセンサ6を含む。ロボット装置9は、ロボット1およびハンド5を制御する制御装置2を備える。本実施の形態の制御装置2は、レンジセンサ6も制御する。
本実施の形態のハンド5は、ワーク85を把持したり解放したりする作業ツール(エンドエフェクタ)である。ロボット1に取り付けられる作業ツールとしては、この形態に限られず、ロボット装置9が行う作業に応じた任意の作業ツールを採用することができる。例えば、ワークの溶接を実施する作業ツールまたはシール材をワークの表面に配置する作業ツール等を採用することができる。
本実施の形態のロボット1は、複数の関節部18を含む多関節ロボットである。ロボット1は、上部アーム11と下部アーム12とを含む。下部アーム12は、旋回ベース13に支持されている。旋回ベース13は、ベース14に支持されている。ロボット1は、上部アーム11の端部に連結されているリスト15を含む。それぞれのロボット1の構成部材は、予め定められた駆動軸の周りに回転するように形成される。ロボットとしては、この形態に限られず、作業ツールを移動可能な任意のロボットを採用することができる。
制御装置2は、CPU(Central Processing Unit)と、CPUにバスを介して互いに接続されたRAM(Random Access Memory)およびROM(Read Only Memory)等を有する演算処理装置(計算機)を含む。制御装置2には、ロボット装置9およびレンジセンサ6を制御するために、予め作成された動作プログラムが入力される。ロボット1は、制御装置2の動作指令に基づいて駆動する。ロボット装置9は、動作プログラムに基づいてワーク85を自動的に搬送する。
ワーク85は、架台81の表面に配置されている。レンジセンサ6は、ワーク85を撮像できる位置に配置される。本実施の形態では、レンジセンサ6は、架台81の上方に配置されている。レンジセンサ6は、支持部材83により支持されている。
本実施の形態のレンジセンサ6は、2台の2次元カメラ61,62を含む。2台の2次元カメラ61,62は、互いに離れて配置されている。2次元カメラ61,62は、2次元の画像を撮像することができるカメラである。2次元カメラ61,62としては、CCD(Charge-Coupled Device)センサまたはCMOS(Complementary Metal-Oxide Semiconductor)センサなどの撮像素子を備えた任意のカメラを採用することができる。2台の2次元カメラ61,62の相対的な位置は予め定められている。
本実施の形態のレンジセンサ6は、ワーク85に向かってパターン光を投影するプロジェクタ63を含む。プロジェクタ63は、レーザダイオードまたは発光ダイオード等の光源を有する。本実施の形態のプロジェクタ63は、縞模様のパターン光をワーク85に投影する。
本実施の形態のレンジセンサ6は、2台の2次元カメラ61,62にてワーク85の画像を撮像する。制御装置2は、2次元カメラ61,62にて撮像した画像を処理する機能を有する。制御装置2は、ステレオ法によりワーク85の3次元情報を生成することができる。制御装置2は、2台の2次元カメラ61,62にて撮像される2つの画像の視差に基づいて、ワーク85の所定の部分までの距離を算出する。なお、2次元カメラ61,62にて取得した画像を処理する演算処理装置が制御装置2とは別に配置されていても構わない。
3次元情報は、所定の点の位置とレンジセンサから所定の点までの距離とに関する情報を含む。3次元情報には、距離画像または3次元マップが含まれる。距離画像は、距離に応じて画像の画素の明るさ又は色を変化させた画像である。3次元マップは、測定点を予め定められた座標系の座標値(x,y,z)と距離との集合として表現したものである。このように、本実施の形態では、3次元センサの出力により得られるワーク85の3次元の情報を3次元情報と称する。
制御装置2は、レンジセンサ6の画像から取得される3次元情報に基づいて、ワーク85の位置および姿勢を検出する。そして、制御装置2は、ワーク85の位置および姿勢に応じて、ロボット1の位置および姿勢を変更する。この後に、ハンド5は、ワーク85を把持する。次に、制御装置2は、ロボット1の位置および姿勢を変更してワーク85を所望の位置まで搬送する。
本実施の形態のシミュレーション装置3は、CPUおよびRAM等を含む演算処理装置(計算機)を含む。シミュレーション装置3は、シミュレーションの実行中の状態または結果等を表示する表示部32を含む。表示部32は、液晶表示パネル等にて構成することができる。本実施の形態のシミュレーション装置3は、制御装置2と互いに通信できるように通信線にて接続されている。シミュレーション装置3は、制御装置2から動作プログラムを取得することができる。または、シミュレーション装置3にて修正した動作プログラムを制御装置2に送信することができる。なお、シミュレーション装置3は制御装置2と接続されていなくても構わない。本実施の形態のシミュレーション装置3は架台82に載置されている。
図2に、本実施の形態におけるシミュレーション装置のブロック図を示す。図3に、本実施の形態におけるシミュレーション装置の設定点配置部のブロック図を示す。図4に、本実施の形態におけるシミュレーションを行う制御のフローチャートを示す。
図2から図4を参照して、シミュレーション装置3は、ロボット装置9に含まれる部材のモデルおよびワーク85のモデルを生成するモデル生成部34を含む。ステップ91において、モデル生成部34は、シミュレーションの対象となる部材を配置した仮想空間を生成する。モデル生成部34は、仮想空間にシミュレーションに関連する部材のモデルを配置する。シミュレーション装置3は、この仮想空間を表示部32に表示する。また、表示部32は、シミュレーションの結果を表示する。例えば、ロボットの位置および姿勢が変化する動作は表示部32に表示される。
作業者は、ロボット装置9およびワーク85の3次元モデルを、予めシミュレーション装置3に入力する。3次元モデルとしては、例えば、CAD(Computer Aided Design)装置にて生成される3次元データを用いることができる。3次元データには、例えば、部材の形状データが含まれている。モデル生成部34は、予め入力された3次元データを用いて、それぞれの部材のモデルを生成する。
図5に、本実施の形態におけるシミュレーション装置の表示部に表示される仮想空間の画像の例を示す。モデル生成部34は、ロボット装置9を3次元にて表現したロボット装置モデル9Mを生成する。モデル生成部34は、ロボット1を3次元にて表現したロボットモデル1Mを生成する。モデル生成部34は、ハンド5を3次元にて表現した作業ツールモデルとしてのハンドモデル5Mを生成する。モデル生成部34は、レンジセンサ6を3次元にて表現した3次元センサモデルとしてレンジセンサモデル6Mを生成する。レンジセンサモデル6Mには、2次元カメラ61,62を3次元にて表現したカメラモデル61M,62Mと、プロジェクタ63を3次元にて表現したプロジェクタモデル63Mが含まれる。
モデル生成部34は、ワーク85を3次元にて表現したワークモデル85Mと、ワーク85を載置する架台81を3次元にて表現した架台モデル81Mを生成する。モデル生成部34は、これらのロボット装置モデル9Mおよびワークモデル85Mを仮想空間に配置する。ロボット装置の部材のモデルとワークモデル85Mとの相対的な位置は、実際のロボット装置9の部材とワーク85との相対的な位置に対応している。
モデル生成部34は、仮想空間に原点101を有するワールド座標系を設定する。ワールド座標系は、ロボットモデル1Mの位置および姿勢が変化しても原点101および座標軸の向きが変化しない座標系である。例えば、仮想空間におけるロボット装置モデル9Mの位置およびワークモデル85Mの位置は、ワールド座標系の座標値にて表すことができる。
なお、図5においては、表示部32は、ロボット装置モデル9Mおよびワークモデル85M等を2次元の画像にて表示しているが、この形態に限られない。表示部は、入力装置を用いて視点を変更することにより、部材のモデルの位置関係などを3次元の画像にて確認できるように形成されていても構わない。
図2から図4を参照して、シミュレーション装置3は、ワークモデル85Mの表面に複数の設定点を配置する設定点配置部35を含む。ステップ92において、設定点配置部35は、ワークモデル85Mの全ての表面に設定点を配置する。
図6に、設定点を配置するための第1平面を説明する斜視図を示す。図3および図6を参照して、設定点配置部35は、第1平面を算出する第1平面計算部45を含む。設定点配置部35は、レンジセンサモデル6Mに対して計測領域TAを設定する。計測領域TAは、例えば、2つのカメラモデル61M,62Mのレンズ中心点同士を結ぶ線に平行で、カメラモデル61M,62Mの光軸に対して垂直な平面が設定される。または、計測領域TAは、プロジェクタモデル63Mの光軸に対して垂直な平面にて生成することができる。本実施の形態では、計測領域TAは、レンジセンサモデル6Mから予め定められた距離にて離れた位置に形成される。また、計測領域TAは、予め定められた大きさにて形成されている。
本実施の形態の計測領域TAは、2つのカメラモデル61M,62Mのレンズ中心点同士を結ぶ線に平行な線にて分割される。計測領域TAは、複数の分割線にて等間隔で分割されている。本実施の形態における第1平面P1は、2つのカメラモデル61M,62Mのレンズ中心点同士を結ぶ線と分割線とを含む。第1平面計算部45は、それぞれの分割線に対応して複数の第1平面P1を生成する。
図7に、設定点を配置するための第2平面を説明する斜視図を示す。図3および図7を参照して、設定点配置部35は、第2平面を算出する第2平面計算部46を含む。本実施の形態におけるプロジェクタモデル63Mは、縞模様のパターン光を投影する。計測領域TAには、明るい部分と暗い部分との境界線が形成される。第2平面P2は、この境界線とプロジェクタモデル63Mのレンズ中心点を通る平面である。第2平面計算部46は、縞模様の境界線ごとに第2平面P2を生成する。第2平面計算部46は、複数の第2平面P2を生成する。なお、図6に示される計測領域TAの分割線は、プロジェクタモデル63Mが投影する縞模様の境界線に垂直になるように定められている。
図8に、第1平面と第2平面との交線を説明する概略図を示す。図3および図8を参照して、設定点配置部35は、第1平面P1と第2平面P2との交線を算出する交線計算部47を含む。交線計算部47は、第1平面P1と第2平面P2とが交差する線である交線L1を算出する。交線L1は、例えば、ワールド座標系に基づく式にて表すことができる。
設定点配置部35は、ワークモデル85Mと交線L1との交点を算出する交点計算部48を含む。交点計算部48は、交線L1とワークモデル85Mの表面との交点を算出する。設定点配置部35は、交点を設定点PC1,PC11に定めることができる。設定点PC1,PC11は、例えばワールド座標系における座標値にて表わすことができる。
図9に、計測領域と第1平面とが交差する線および計測領域と第2平面とが交差する線を説明する平面図を示す。本実施の形態においては、計測領域TAにおいて、第1平面P1と第2平面P2とは互いに垂直に交わるように生成されている。第1平面P1と第2平面P2との複数の交点が生成される。交線計算部47は、これらの交点を通るように複数の交線L1を算出する。そして、交点計算部48は、複数の交線L1がワークモデル85Mの表面と交わる交点を算出し、これらの交点を設定点に定めることができる。
図10に、ワークモデルの表面上に配置された設定点を説明するワークモデルの斜視図を示す。設定点配置部35は、ワークモデル85Mの全ての表面において、設定点PC1を配置する。本実施の形態では、設定点配置部35は、ワークモデル85Mの上面、側面、および底面に設定点PC1を配置する。複数のワークモデルが存在する場合には、設定点配置部35は、全てのワークモデルの表面に設定点を配置する。
図11に、レンジセンサモデルからワークモデルの設定点までの距離の計算を説明する概略図を示す。図2、図4、および図11を参照して、シミュレーション装置3は、レンジセンサモデル6Mから設定点PC1までの距離Zを算出する距離計算部36を含む。ステップ93において、距離計算部36は、それぞれの設定点PC1について、レンジセンサモデル6Mから設定点PC1までの距離Zを算出する。
仮想空間において、カメラモデル61M,62Mの位置は予め定められている。2つのカメラモデル61M,62M同士の距離Dは予め定められている。また、カメラモデル61Mの光軸LA1およびカメラモデル62Mの光軸LA2も予め定められている。このために、距離計算部36は、カメラモデル61Mから設定点PC1に向かう視線LV1と光軸LA1とがなす角度θ1を算出することができる。同様に、距離計算部36は、カメラモデル62Mから設定点PC1に向かう視線LV2と光軸LA2とのなす角度θ2を算出することができる。これらの距離D、角度θ1,θ2を用いて、次の式(1)に基づいてレンジセンサモデル6Mから設定点PC1までの距離Zを算出することができる。
図10に示すように、ワークモデル85Mの表面には複数の設定点PC1が配置されている。本実施の形態の距離計算部36は、全ての設定点PC1について距離Zを算出する。図2および図4を参照して、シミュレーション装置3は、設定点の位置とレンジセンサモデル6Mから設定点PC1までの距離とを含む3次元情報を生成する3次元情報生成部37を含む。ステップ94において、3次元情報生成部37は、設定点PC1の位置およびレンジセンサモデル6Mから設定点PC1までの距離Zに基づいて、ワークモデル85Mに関する3次元情報を生成する。
本実施の形態の設定点配置部35は、ワークモデル85Mの全ての表面に設定点PC1を配置する。仮想空間においては、ワークモデル85Mの全ての表面に設定点PC1を配置する。ところが、実際の作業空間においては、2次元カメラ61,62の少なくとも一方から見えないワーク85の部分が存在する。
本実施の形態のシミュレーション装置3は、2次元カメラ61,62の少なくとも一方から見えない部分に配置された設定点を除外する制御を実施する。図2および図4を参照して、シミュレーション装置3は、ワークモデル85Mの表面に配置された複数の設定点PC1のうち、少なくとも1つのカメラモデル61M,62Mから見えない設定点を除外する除外部38を含む。ステップ95において、除外部38は、少なくとも1つのカメラモデル61M,62から見えない設定点PC1を3次元情報から除外する。すなわち、除外部38は、実際の2次元カメラ61,62にて撮像できない部分に配置されている設定点PC1を除外する。
図12に、設定点を除外する工程を説明するためのレンジセンサモデルとワークモデルとの概略図を示す。図12に示す例においては、両方のカメラモデル61Mおよびカメラモデル62Mから設定点PC1を見ることができる。すなわち、2次元カメラ61および2次元カメラ62にてワーク85を撮像したときに、両方の画像に設定点PC1が含まれる。設定点PC11は、ワークモデル85Mの側面に配置されている。カメラモデル61Mにて設定点PC11を見ることができるが、カメラモデル62Mにて設定点PC11を見ることができない。設定点PC11は、ワークモデル85Mの上面の死角に配置されている。設定点PC11は、カメラモデル62Mに対応する実際の2次元カメラ62にて撮像した画像には写らない部分に配置されている。
除外部38は、カメラモデル62Mから見えない設定点PC11を除外する。本実施の形態においては、除外部38は、設定点PC11に関して、カメラモデル61Mから設定点PC11に向かう視線LV1およびカメラモデル62Mから設定点PC11に向かう視線LV2を算出する。除外部38は、視線LV2とワークモデル85Mの表面との交点PX11を検出することができる。除外部38は、設定点PC11とカメラモデル62Mとの間に交点PX11が存在する場合に、設定点PC11を除外することができる。
または、それぞれの視線とワークモデルの表面との交点が存在し、設定点がカメラモデルに最も近い点である場合には、除外部38は、その設定点を残すことができる。一方で、視線LV2とワークモデル85Mの表面との交点PX11が、設定点PC11よりもカメラモデル62Mに近い場合に、除外部38は、その設定点PC11を除外することができる。除外部38は、3次元情報生成部37にて生成された3次元情報から、距離Zの情報を含む設定点PC11を除外する。
図13に、設定点を除外する他の例を説明するレンジセンサモデルとワークモデルとの概略図を示す。図13に示す例においては、ワークモデル85Mの上にワークモデル86Mが積み上げられている。ワークモデル86Mは、上面が曲面である。例えば、設定点PC12は、カメラモデル62Mと設定点PC12との間に交点PX12が存在するために除外される。また、設定点PC13は、カメラモデル61Mと設定点PC13との間に交点PX13が存在するために除外される。
このように、任意の形状のワークモデルに対して、本実施の形態の制御を実施することができる。複数のワークが積み上げられている場合にも、本実施の形態の制御を実施することができる。本実施の形態の除外部38は、実際の2次元カメラ61,62にて2次元画像を撮像したときに、画像に写らない部分に配置される設定点を除外することができる。また、除外部38は、一方のカメラモデルから見えない設定点を除外する他に、両方のカメラモデルから見えない設定点を除外することができる。
図14に、除外部が一部の設定点を除外した後のワークモデルの斜視図を示す。図14は、図10に示したワークモデル85Mから一部の設定点PC1を除外した後の図である。この例では、ワークモデル85Mの側面および底面に配置された設定点PC1が削除されている。そして、ワークモデル85Mの上面に配置された設定点PC1が残存している。
図15に、除外部にて設定点が除外された後の3次元情報の例を示す。図15の例においては、ワークモデルが2段に積み上げられた距離画像67が示されている。レンジセンサモデル6Mからワークモデル85Mまでの距離Zに応じて、それぞれの画素の濃さが定められている。例えば、レンジセンサモデル6Mに近くなるほど画素を薄く設定することができる。このような画素の濃さを変化させることにより、視覚的に3次元情報を表示することができる。なお、前述の通りに、3次元情報としては距離画像に限られず、設定点の位置と距離との情報を含むテキスト形式の情報であっても構わない。
図2および図4を参照して、シミュレーション装置3は、ワークモデル85Mのそれぞれの表面を検出する表面検出部40を含む。ステップ96において、表面検出部40は、ワークモデル85Mの表面に配置された設定点PC1に基づいて、ワークモデル85Mのそれぞれの表面を検出する。
図16に、ワークの表面を検出する制御を説明するワークモデルの斜視図を示す。図16に示す例では、複数のワークモデル85Mが配置されている。表面検出部40は、複数の設定点PC1のうち互いに近接する設定点PC1の集合GPC1,GPC2,GPC3を作成する。たとえば、表面検出部40は、互いに隣り合う設定点PC1の距離が判定値未満である設定点PC1の集合を生成する。図16に示す例では、集合GPC1,GPC2,GPC3が形成されている。表面検出部40は、1つの集合をワークモデルの1つの表面として検出する。複数個のワークモデル85Mが存在する場合に、表面検出部40は、複数の集合を生成することができる。
図2および図4を参照して、シミュレーション装置3は、ワークモデル85Mの3次元情報に基づいて、ワークモデル85Mの位置および姿勢を算出するワーク位置計算部41を含む。ステップ97において、ワーク位置計算部41は、それぞれのワークモデル85Mの表面に配置された設定点PC1の集合GPC1,GPC2,GPC3に基づいて、ワークモデル85Mの位置および姿勢を算出する。ワークモデルの位置としては、例えば、ワークモデルの重心位置を採用することができる。また、ワークモデルの姿勢としては、例えば、ワークの表面の法線の方向を採用することができる。
図17に、ロボット装置モデルのシミュレーションを実行しているときの表示部の画像の例を示す。図2、図4、および図17を参照して、シミュレーション装置3は、ワークモデルに対して行う作業のシミュレーションを実施するシミュレーション実行部42を含む。ステップ98において、シミュレーション実行部42は、ロボット装置モデル9Mのシミュレーションを実行する。シミュレーション実行部42は、ワーク位置計算部41にて算出されたワークモデル85Mの位置および姿勢に基づいて、ロボットモデル1Mの位置および姿勢を変更する。ロボットモデル1Mが位置および姿勢を変化することにより、ワークモデル85Mの近傍までハンドモデル5Mが移動する。次に、ハンドモデル5Mがワークモデル85Mを把持する。この後に、ロボットモデル1Mが位置および姿勢を変更して、ワークモデル85Mを所望の位置まで搬送する。このように、ロボット装置のシミュレーションを実施することができる。
実際のロボット装置においては、2次元カメラにて撮像することができないワークの部分が存在する。従来の技術のシミュレーション装置においては、2次元カメラから見えないワークの部分についても計算を行っていたために、実際のロボット装置の作業と、シミュレーションにおけるロボット装置の作業とが異なる場合があった。これに対して、本実施の形態のシミュレーション装置は、実際のカメラにて撮像できない部分に配置される設定点を除外するために、実際のロボット装置の動作に近いシミュレーションを実施することができる。すなわち、本実施の形態のシミュレーション装置は、シミュレーションの精度を向上することができる。
上記の実施の形態において、除外部38は、それぞれのカメラモデル61M,62Mの視線LV1,LV2を計算することによりカメラにて撮像できない設定点を除外している。設定点を除外する制御としては、この形態に限られず、カメラモデルから見えない設定点を除外する任意の制御を実施することができる。また、除外部は、カメラモデルから見えない複数の設定点のうち、少なくとも一部の設定点を除外することができる。
例えば、除外部38の制御としては、図8に示すようにプロジェクタモデル63Mのレンズ中心点から延びる交線L1を用いる制御を実施することができる。除外部38は、ワークモデル85Mの表面の交点を算出する。この時に、一つの交線L1上に交点としての2つの設定点PC1,PC11が検出された場合には、プロジェクタモデル63Mに最も近い設定点PC1以外の設定点PC11を除外することができる。または、設定点PC11とプロジェクタモデル63Mとの間に別の設定点PC1が存在する場合には、除外部38は、設定点PC11を3次元情報から除外する制御を実施することができる。この制御では、少なくとも一方の2次元カメラ61,62から見えない設定点のうち、大部分の設定点を除外することができる。
本実施の形態の除外部38は、3次元情報からカメラモデルから見えない設定点を除外しているが、この形態に限られない。除外部は、3次元情報の生成前にカメラモデルから見えない設定点を除外しても構わない。例えば、ワークモデルの表面に設定点を配置した次の工程として、一部の設定点を除外しても構わない。
ところで、2次元カメラ61,62の視野の外側に配置されているワークは、撮像することができない。また、プロジェクタ63のパターンが投影されない領域に配置されているワークについては、ワークの位置および姿勢の検出を正確に行うことができない場合がある。本実施の形態の除外部38は、2つのカメラモデルの視野と、プロジェクタモデルの投影範囲とが重なり合う領域の外側に配置された設定点を除外することができる。
図18に、設定点の除外を説明するワークモデルおよびレンジモデルの概略図を示す。図18においては、架台に複数のワークモデル85M,87M,88Mが配置されている。プロジェクタモデル63Mは、投影範囲RAの内部にパターン光を投影する。投影範囲RAは、実際のプロジェクタ63がパターン光を投影する領域に対応する。また、カメラモデル61Mは、実際の2次元カメラ61の視野に対応する撮像範囲RC1を有する。カメラモデル62Mは、実際の2次元カメラ62の視野に対応する撮像範囲RC2を有する。撮像範囲RC1,RC2および投影範囲RAは、予め定められている。
除外部38は、撮像範囲RC1と、撮像範囲RC2と、投影範囲RAとが重なり合う領域である重複領域RDを算出する。ワークモデル85Mは重複領域RDの内部に配置されているために、除外部38は、ワークモデル85Mの表面に配置された設定点PC1は除外しない。ワークモデル88Mは重複領域RDの外側に配置されているために、除外部38は、ワークモデル88Mの表面に配置された設定点PC11を除外する。
ワークモデル87Mの一部は、重複領域RDの内部に配置されている。このために、除外部38は、ワークモデル87Mの表面に配置された設定点のうち、重複領域RDの内部に配置されている設定点PC2は除外しない制御を実施する。一方で、除外部38は、重複領域RDの外側に配置されている設定点PC12を除外する制御を実施する。
図4を参照して、この制御は、ステップ92のワークモデル85Mの表面に設定点を配置した後に実施することができる。例えば、ステップ95において、カメラモデル61M,62Mの少なくとも一方から見えない設定点を除外した後に実施することができる。または、この制御は、カメラモデル61M,62Mの少なくとも一方から見えない設定点を除外する前に実施することができる。または、ステップ92の次の工程として実施しても構わない。
このように、除外部38は、2次元カメラ61,62の視野とプロジェクタ63のパターン光の投影範囲を考慮して、設定点を除外することができる。このために、実際の2次元カメラ61,62にて見えない部分に配置された設定点およびパターン光が投影されない領域に配置された設定点を排除することができて、より正確なシミュレーションを実施することができる。
なお、図18に示す例においては、重複領域RDの外側に配置されるワークモデル87M,88Mが存在するが、この形態に限られない。実際のロボット装置において、重複領域RDの内部に全てのワーク85が配置されるように、十分に離れた位置にレンジセンサ6を配置することができる。または、全てのワークが重複領域の内部に配置される性能を有するカメラおよびレンジセンサが選定しても構わない。これらの場合には、重複領域の外側に配置される設定点は存在しないため、除外部は、重複領域の外側に配置される設定点を除外する制御を実施しなくても構わない。
図1を参照して、実際の2次元カメラ61,62において、撮像される画像の中央部では実際の物の形状に対応した画像を撮像することできる。しかしながら、2次元カメラ61,62の性能に依存して、画像の端の部分においては、画像が歪む場合がある。例えば、カメラのレンズの性能に依存して、画像の周辺部では実際の形状から変形した形状になる場合がある。本実施の形態のシミュレーション装置は、このような実際の画像の特徴に応じて画像を修正することができる。シミュレーション装置は、画像の中心から離れるほど大きなノイズを与える制御を実施する。例えば、距離修正部39は、撮像される画像の端部に配置される設定点において、大きな誤差を距離に与える制御を実施する。
図2を参照して、本実施の形態のシミュレーション装置3は、3次元情報に含まれる3次元センサモデルから設定点までの距離を修正する距離修正部39を含む。距離修正部39は、3次元情報に含まれる設定点PC1の距離Zを修正する。距離修正部39は、1つのカメラモデルの光軸から設定点までの長さが長くなるほど、修正量を大きくする制御を実施することができる。
図19に、距離修正部の制御を説明する概略図を示す。図19においては、2つのカメラモデル61M,62Mのうち、1つのカメラモデル61Mが示されている。距離修正部39は、3次元情報に含まれる1つの設定点PC1を選択する。距離修正部39は、カメラモデル61Mの光軸LA1と設定点PC1との間の長さDX1を算出する。そして、距離修正部39は、長さDX1に応じて、設定点PC1とレンジセンサモデル6Mとの距離Z(図11参照)を修正する。例えば、設定点PC1の距離Zに、長さDX1に応じた係数を乗算することができる。距離修正部39は、光軸LA1からの長さが長いほど、修正量(ノイズ)を大きくする制御を実施することができる。例えば、ワークモデル85Mの設定点PC2の光軸LA1からの長さDX2は、長さDX1よりも大きくなる。このために、距離修正部39は、設定点PC2の距離Zの修正量を設定点PC1の距離Zの修正量よりも大きくする。
距離修正部39による距離の修正においては、レンジセンサモデル6Mから設定点までの距離Zに係数を乗じる方法に限られず、任意の修正の制御を実施することができる。例えば、光軸LA1からの長さに応じた補正量を予め定めておくことができる。そして、設定点の距離Zに補正量を加算したり減算したりしても構わない。このような係数または補正量は、カメラの性能に応じて予め定めておくことができる。
距離修正部39は、1つの設定点について、カメラモデル61Mに関する修正およびカメラモデル62Mに関する修正を実施することができる。すなわち、距離修正部39は、距離Zの修正の制御をカメラモデル61Mとカメラモデル62Mとについて実施することができる。例えば、距離修正部39は、カメラモデル61Mについて距離Zの修正を実施した後に、カメラモデル62Mについて距離Zの修正を実施することができる。
図4に参照して、距離修正部39による距離Zの修正は、ステップ96のワークモデルの表面を検出する工程の前に実施することができる。例えば、距離Zの修正は、ステップ95の一部の設定点を除外する工程の次の工程として実施することができる。または、距離Zの修正は、ステップ93の設定点の距離Zを算出する工程の次の工程として実施しても構わない。
本実施の形態におけるプロジェクタは、縞模様のパターン光を投影するが、この形態に限られない。プロジェクタが投影する光のパターンは、ドットパターンまたはスリットパターン等の任意のパターンを採用することができる。また、本実施の形態における3次元センサはプロジェクタを備えるが、プロジェクタを備えなくても構わない。
ワークモデルの表面上に設定点を配置する制御は、前述の第1平面および第2平面の交線を用いる方法に限られず、任意の制御を採用することができる。例えば、プロジェクタが投影する光のパターンがドットパターンの場合には、計測領域に投影されるドットの位置とプロジェクタのレンズ中心点とを通る直線を算出することができる。そして、この直線とワークモデルの表面との交点を設定点に定めることができる。また、3次元センサがプロジェクタを備えない場合には、本実施の形態と同様の方法により計測領域を設定し、この計測領域上に等間隔にて通過点を定めることができる。そして、この通過点とプロジェクタモデルのレンズ中心点とを通る直線を算出する。この直線とワークモデルの表面との交点を設定点に定めることができる。
本実施の形態においては、ロボット装置が行う作業としてワークの搬送を例示しているが、この形態に限られない。ワークの位置および姿勢を取得する必要がある任意の作業に本発明を適用することができる。例えば、ワークの組み立て、またはワークの溶接などに本発明を適用することができる。
上述のそれぞれの制御においては、機能および作用が変更されない範囲において適宜スップの順序を変更することができる。
上記の実施の形態は、適宜組み合わせることができる。上述のそれぞれの図において、同一または相等する部分には同一の符号を付している。なお、上記の実施の形態は例示であり発明を限定するものではない。また、実施の形態においては、特許請求の範囲に示される実施の形態の変更が含まれている。
1 ロボット
1M ロボットモデル
3 シミュレーション装置
5 ハンド
5M ハンドモデル
6 レンジセンサ
6M レンジセンサモデル
34 モデル生成部
35 設定点配置部
36 距離計算部
37 3次元情報生成部
38 除外部
39 距離修正部
41 ワーク位置計算部
42 シミュレーション実行部
61,62 2次元カメラ
61M,62M カメラモデル
63 プロジェクタ
63M プロジェクタモデル
67 距離画像
85 ワーク
85M,86M,87M,88M ワークモデル
LA1,LA2 光軸
RA 投影範囲
RC1,RC2 撮像範囲
RD 重複領域
PC1,PC2 設定点
PC11,PC12,PC13 設定点
Z 距離
DX1,DX2 長さ

Claims (4)

  1. 2台の2次元カメラを含む3次元センサによって取得されるワークの3次元情報に基づいて、ロボットが前記ワークに対して行う作業をシミュレーションするシミュレーション装置であって、
    前記ロボットを3次元にて表現したロボットモデル、前記ワークを3次元にて表現したワークモデル、および前記2次元カメラを3次元にて表現したカメラモデルを含む3次元センサモデルを仮想空間に生成するモデル生成部と、
    前記ワークモデルの表面に複数の設定点を配置する設定点配置部と、
    前記3次元センサモデルからそれぞれの前記設定点までの距離を計算する距離計算部と、
    前記設定点の位置と前記3次元センサモデルから前記設定点までの距離とを含む3次元情報を生成する3次元情報生成部と、
    前記ワークモデルの表面に配置された前記設定点のうち、少なくとも1つの前記カメラモデルから見えない前記設定点を除外する除外部と、
    前記3次元情報に基づいて、前記ワークモデルの位置および姿勢を算出するワーク位置計算部と、
    前記ワークモデルの位置および姿勢に基づいて、前記ロボットモデルの位置および姿勢を変更し、前記ワークモデルに対して行う作業のシミュレーションを実施するシミュレーション実行部とを備える、シミュレーション装置。
  2. 前記3次元センサは、前記ワークに対してパターン光を投影するプロジェクタを含み、
    前記モデル生成部は、前記プロジェクタを3次元にて表現したプロジェクタモデルを仮想空間に生成し、
    前記除外部は、前記2次元カメラの視野に対応する前記カメラモデルの撮像範囲と、前記プロジェクタがパターン光を投影する領域に対応する前記プロジェクタモデルの投影範囲とが重なり合う領域の外側に配置された前記設定点を除外する、請求項1に記載のシミュレーション装置。
  3. 前記3次元センサモデルから前記設定点までの距離を修正する距離修正部を備え、
    前記距離修正部は、前記カメラモデルの光軸から前記設定点までの長さが長くなるほど修正量が大きくなるように距離を修正する、請求項1または2に記載のシミュレーション装置。
  4. 前記除外部は、前記カメラモデルから前記設定点に向かう視線を算出し、前記設定点と前記カメラモデルとの間に、前記ワークモデルの表面と前記視線との交点が存在する場合に、前記設定点を除外する、請求項1から3のいずれか一項に記載のシミュレーション装置。
JP2018027331A 2018-02-19 2018-02-19 ロボットの動作をシミュレーションするシミュレーション装置 Active JP6693981B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018027331A JP6693981B2 (ja) 2018-02-19 2018-02-19 ロボットの動作をシミュレーションするシミュレーション装置
US16/266,747 US11446822B2 (en) 2018-02-19 2019-02-04 Simulation device that simulates operation of robot
DE102019001038.8A DE102019001038B4 (de) 2018-02-19 2019-02-12 Simulationsvorrichtung, die den Arbeitsablauf eines Roboters simuliert
CN201910120176.3A CN110170982B (zh) 2018-02-19 2019-02-18 模拟机器人的动作的模拟装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018027331A JP6693981B2 (ja) 2018-02-19 2018-02-19 ロボットの動作をシミュレーションするシミュレーション装置

Publications (2)

Publication Number Publication Date
JP2019141943A true JP2019141943A (ja) 2019-08-29
JP6693981B2 JP6693981B2 (ja) 2020-05-13

Family

ID=67482203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018027331A Active JP6693981B2 (ja) 2018-02-19 2018-02-19 ロボットの動作をシミュレーションするシミュレーション装置

Country Status (4)

Country Link
US (1) US11446822B2 (ja)
JP (1) JP6693981B2 (ja)
CN (1) CN110170982B (ja)
DE (1) DE102019001038B4 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022180801A1 (ja) * 2021-02-26 2022-09-01 株式会社安川電機 シミュレーション装置、制御システム及びモデリング方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6693981B2 (ja) * 2018-02-19 2020-05-13 ファナック株式会社 ロボットの動作をシミュレーションするシミュレーション装置
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
JP7458741B2 (ja) * 2019-10-21 2024-04-01 キヤノン株式会社 ロボット制御装置及びその制御方法及びプログラム
JP2023505322A (ja) * 2019-12-09 2023-02-08 オーグメントゥス プライベート リミテッド ロボットをプログラムするための方法及びシステム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005004391A (ja) * 2003-06-10 2005-01-06 Mitsutoyo Corp 画像データ処理装置、画像データ補正方法、画像測定機、画像データ処理プログラムおよびこのプログラムを記録した記録媒体
JP2015171745A (ja) * 2014-03-12 2015-10-01 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP2015215259A (ja) * 2014-05-12 2015-12-03 ファナック株式会社 レンジセンサの配置位置評価装置
JP2016219935A (ja) * 2015-05-18 2016-12-22 シャープ株式会社 画像処理装置、画像処理方法、及びプログラム
JP2017100214A (ja) * 2015-11-30 2017-06-08 株式会社リコー マニピュレータシステム、撮像システム、対象物の受け渡し方法、及び、マニピュレータ制御プログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4238147A (en) * 1979-05-23 1980-12-09 Solid Photography Inc. Recording images of a three-dimensional surface by focusing on a plane of light irradiating the surface
JP2003150219A (ja) 2001-11-12 2003-05-23 Fanuc Ltd 作業機械のシミュレーション装置
CN101287626A (zh) * 2004-11-26 2008-10-15 日产自动车株式会社 摄像装置和摄像方法
JP4153528B2 (ja) 2006-03-10 2008-09-24 ファナック株式会社 ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
JP4238256B2 (ja) 2006-06-06 2009-03-18 ファナック株式会社 ロボットシミュレーション装置
JP5337636B2 (ja) * 2008-09-05 2013-11-06 株式会社森精機製作所 加工状況監視方法及び加工状況監視装置
JP5088278B2 (ja) 2008-09-17 2012-12-05 株式会社安川電機 物体検出方法と物体検出装置およびロボットシステム
JP2011185650A (ja) * 2010-03-05 2011-09-22 Omron Corp モデル作成装置およびモデル作成プログラム
EP2911116A4 (en) * 2012-10-18 2016-09-07 Konica Minolta Inc PICTURE PROCESSING DEVICE, PICTURE PROCESSING METHOD AND PICTURE PROCESSING PROGRAM
JP6576042B2 (ja) * 2015-01-14 2019-09-18 キヤノン株式会社 表示制御装置及びその方法、プログラム
US10252417B2 (en) * 2016-03-02 2019-04-09 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP6666764B2 (ja) 2016-03-24 2020-03-18 シグマ株式会社 ワーク認識方法及びランダムピッキング方法
JP6691837B2 (ja) 2016-06-27 2020-05-13 株式会社キーエンス 測定装置
CN106041937B (zh) * 2016-08-16 2018-09-14 河南埃尔森智能科技有限公司 一种基于双目立体视觉的机械手抓取控制系统的控制方法
JP6823502B2 (ja) * 2017-03-03 2021-02-03 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2018144155A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6846949B2 (ja) * 2017-03-03 2021-03-24 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
CN108965690B (zh) * 2017-05-17 2021-02-26 欧姆龙株式会社 图像处理系统、图像处理装置及计算机可读存储介质
JP6693981B2 (ja) * 2018-02-19 2020-05-13 ファナック株式会社 ロボットの動作をシミュレーションするシミュレーション装置
JP6810093B2 (ja) * 2018-04-25 2021-01-06 ファナック株式会社 ロボットのシミュレーション装置
JP6511681B1 (ja) * 2018-10-15 2019-05-15 株式会社Mujin 形状情報生成装置、制御装置、積み降ろし装置、物流システム、プログラム、及び、制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005004391A (ja) * 2003-06-10 2005-01-06 Mitsutoyo Corp 画像データ処理装置、画像データ補正方法、画像測定機、画像データ処理プログラムおよびこのプログラムを記録した記録媒体
JP2015171745A (ja) * 2014-03-12 2015-10-01 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP2015215259A (ja) * 2014-05-12 2015-12-03 ファナック株式会社 レンジセンサの配置位置評価装置
JP2016219935A (ja) * 2015-05-18 2016-12-22 シャープ株式会社 画像処理装置、画像処理方法、及びプログラム
JP2017100214A (ja) * 2015-11-30 2017-06-08 株式会社リコー マニピュレータシステム、撮像システム、対象物の受け渡し方法、及び、マニピュレータ制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022180801A1 (ja) * 2021-02-26 2022-09-01 株式会社安川電機 シミュレーション装置、制御システム及びモデリング方法

Also Published As

Publication number Publication date
CN110170982B (zh) 2023-04-18
US20190255706A1 (en) 2019-08-22
DE102019001038B4 (de) 2022-04-21
DE102019001038A1 (de) 2019-08-22
US11446822B2 (en) 2022-09-20
CN110170982A (zh) 2019-08-27
JP6693981B2 (ja) 2020-05-13

Similar Documents

Publication Publication Date Title
JP6693981B2 (ja) ロボットの動作をシミュレーションするシミュレーション装置
US10401844B2 (en) Simulator, simulation method, and simulation program
US9529945B2 (en) Robot simulation system which simulates takeout process of workpieces
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP4492654B2 (ja) 3次元計測方法および3次元計測装置
JP4844453B2 (ja) ロボットの教示装置及び教示方法
US20060025890A1 (en) Processing program generating device
CA2918478A1 (en) Inspection system for inspecting an object and inspection method for same
JP2017077614A (ja) 教示点補正方法、プログラム、記録媒体、ロボット装置、撮影点作成方法、及び撮影点作成装置
KR20140106421A (ko) 적어도 3개의 이산 평면에 따른 머신 비젼 카메라의 보정을 위한 시스템 및 방법
CN108627515B (zh) 计算成为检查系统的检查对象外的图像区域的装置及方法
KR20130075712A (ko) 레이저비전 센서 및 그 보정방법
JP5291482B2 (ja) ロボット教示プログラム修正装置
JP6545033B2 (ja) 三次元温度分布表示装置
CN110900606B (zh) 一种基于小型机械臂手眼联动系统及其控制方法
WO2022181500A1 (ja) 視覚センサの出力から得られる3次元位置情報を用いるシミュレーション装置
JP2005186193A (ja) ロボットのキャリブレーション方法および三次元位置計測方法
WO2022249295A1 (ja) ロボットシミュレーション装置
CN111372698A (zh) 作业辅助系统及作业辅助方法
WO2022163580A1 (ja) 視覚センサにて取得される3次元の位置情報から断面画像を生成する処理装置および処理方法
WO2021210540A1 (ja) 座標系設定システム及び位置姿勢計測システム
TW202333920A (zh) 取得工件位置之裝置、機器人之控制裝置、機器人系統及方法
JP2024005094A (ja) ロボット教示装置、外観検査システムおよびロボット教示方法
JP6285765B2 (ja) 情報処理装置、情報処理方法
TW202327835A (zh) 具備三維感測器的機器人裝置及機器人裝置的控制方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190710

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190913

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200416

R150 Certificate of patent or registration of utility model

Ref document number: 6693981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150