JP2007241857A - ロボットシミュレーションのための装置、プログラム、記録媒体及び方法 - Google Patents

ロボットシミュレーションのための装置、プログラム、記録媒体及び方法 Download PDF

Info

Publication number
JP2007241857A
JP2007241857A JP2006066021A JP2006066021A JP2007241857A JP 2007241857 A JP2007241857 A JP 2007241857A JP 2006066021 A JP2006066021 A JP 2006066021A JP 2006066021 A JP2006066021 A JP 2006066021A JP 2007241857 A JP2007241857 A JP 2007241857A
Authority
JP
Japan
Prior art keywords
model
work
robot
workpiece
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006066021A
Other languages
English (en)
Other versions
JP4153528B2 (ja
Inventor
Tatsuya Omi
達也 近江
Yoshiharu Nagatsuka
嘉治 長塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2006066021A priority Critical patent/JP4153528B2/ja
Priority to CN200710086060A priority patent/CN100590629C/zh
Priority to EP07004786A priority patent/EP1832947A2/en
Priority to US11/715,959 priority patent/US20070213874A1/en
Publication of JP2007241857A publication Critical patent/JP2007241857A/ja
Application granted granted Critical
Publication of JP4153528B2 publication Critical patent/JP4153528B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4061Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】ビンピッキング動作を含むロボットのワークハンドリング作業をオフラインで的確にシミュレートして、ロボットと周辺物との相互干渉を事前に確認できるようにする。
【解決手段】ロボットシミュレーション装置10は、センサモデル16M、ロボットモデル18M及びばら積み状態の複数のワークモデル20Mを仮想作業環境22に配置する作業環境モデル設定部24と、センサモデル及びロボットモデルにワーク検出動作及びビンピッキング動作を模擬的に遂行させる動作シミュレート部26とを備える。動作シミュレート部は、センサモデルにワークモデルを撮像させてその仮想画像MIを生成するワークモデル画像生成部28と、仮想画像から取出対象ワークモデルを特定してその仮想位置MPを検出するワークモデル位置検出部30と、仮想位置に基づきロボットモデルに取出対象ワークモデルをピッキングさせるロボットモデル動作制御部32とを備える。
【選択図】図1

Description

本発明は、視覚センサを有するロボットの動作をオフラインで模擬的に遂行するロボットシミュレーション装置に関する。本発明はまた、視覚センサを有するロボットの動作をオフラインで模擬的に遂行するためのプログラム及び記録媒体に関する。本発明はさらに、視覚センサを有するロボットの動作をオフラインで模擬的に遂行するロボットシミュレーション方法に関する。
ロボット、特に産業用ロボットを用いた生産システムにおいて、無作為に積み重ねられた非整列状態(すなわちばら積み状態)の物体(すなわちワーク)を、ロボットのアーム端に装着したハンドで把持して取り出すいわゆるビンピッキング動作を含むワークハンドリング作業は、従来、様々な局面で行なわれている。一般に、ビンピッキング動作を含むワークハンドリング作業では、ハンドに隣接してロボットのアーム端に設置した視覚センサが、ばら積み状態の複数のワークから取出対象ワークを特定して、3次元計測法により、取出対象ワークの位置及び姿勢を計測する。ロボットは、視覚センサが計測した取出対象ワークの位置及び姿勢データに基づき、アームに最適な運動を遂行させて、ばら積み状態のワークから取出対象ワークを取り出す。
上記したビンピッキング動作に際しては、無作為配置したワーク群から順次特定される取出対象ワークは、多様な位置及び姿勢を呈しているから、取出対象ワークが変わるに従い、要求されるロボットアームの運動が様々に変化する。したがって通常、視覚センサを有するロボット(実機)を実際に動作させて、ばら積み状態のワーク(実物)に対するビンピッキング動作を試行させることで、アームの位置及び姿勢の教示を行なっている。このような方法では、ロボット自体又はロボットが把持したワークと、その周辺物(取出対象ワーク以外のワークやワーク収納容器等)との衝突(すなわち相互干渉)を予測することが、通常は困難である。したがって、作成されたワークハンドリング作業の動作プログラムは、そのような相互干渉を考慮しないものとなる。
一般にロボットは、周辺物との相互干渉が生じたときにそれを迅速に検知して、瞬時に動作停止するように制御される。ビンピッキング動作を含むワークハンドリング作業では、この種の予期しない相互干渉が比較的生じ易いので、ロボットの動作停止が頻繁に繰返されて作業効率が低下することが懸念される。そこで従来、ロボットが周辺物との相互干渉等により動作停止したときに、その要因の分析に必要な情報をロボットの動作履歴から取得して、動作停止状況を実機ロボット又はシミュレーション装置で再現することで、ロボットの作業領域の見直し、動作プログラムの修正等を行なえるようにするシステムが提案されている(例えば特許文献1参照)。
特開2005−103681号公報
前述した特許文献1に開示される従来のロボットシステムは、例えばビンピッキング動作を含むワークハンドリング作業をロボットが実行する間に、周辺物との相互干渉等によりロボットが動作停止した場合に、その動作停止状況を再現することでシステムを改善できるようにしたものである。つまり、シミュレーションにより予めロボットの動作停止を予測するものではないから、実際に動作停止状況が生じるまでは、ロボットの動作プログラムを最適化することが困難である。特に前述したように、ビンピッキング動作を含むワークハンドリング作業では、多様な位置及び姿勢を呈する個々のワークに対し、アームの運動を様々に変化させてロボットを動作させる必要が有る。したがって、ワークハンドリング作業のサイクルタイムを最短にするような動作プログラムの最適化を図るためには、実機ロボットによるシミュレーションを繰り返し行なって、平均的なサイクルタイムを算出することが要求され、その結果、システムの立ち上げに要する時間及び費用が増大することが懸念される。
ところで、ロボットシステムを用いた生産現場の稼動率を向上させるべく、コンピュータにロボット及びその作業環境のモデルを持たせ、表示画面上でロボットモデルに所望のロボット動作を模擬的に遂行させることで、実機ロボットに教示すべき位置/姿勢データ及び動作順序データを得るオフライン教示法が知られている。このようなオフライン教示法を、上記したビンピッキング動作を含むワークハンドリング作業を実行するロボットの教示法に採用すれば、システム立ち上げに要する時間及び費用を効果的に削減できると考えられる。しかしながら、ビンピッキング動作を含むワークハンドリング作業をオフライン教示するための有効なシミュレーション技術は、未だ開発されていない。
本発明の目的は、視覚センサを有するロボットの動作をオフラインで模擬的に遂行するロボットシミュレーション装置において、ビンピッキング動作を含むワークハンドリング作業を的確にシミュレートでき、以って、ロボットと周辺物との相互干渉を予備的に確認しつつワークハンドリング作業のサイクルタイムを迅速に算出することを可能にして、最適な動作プログラムを短時間及び低コストで作成できるようにするロボットシミュレーション装置を提供することにある。
本発明の他の目的は、視覚センサを有するロボットの動作をオフラインで模擬的に遂行するためのプログラム及び記録媒体であって、ビンピッキング動作を含むワークハンドリング作業を的確にシミュレートするように、コンピュータを機能させることができるプログラム、及び同プログラムを記録したコンピュータ読み取り可能な記録媒体を提供することにある。
本発明のさらに他の目的は、視覚センサを有するロボットの動作をオフラインで模擬的に遂行するロボットシミュレーション方法であって、コンピュータを用いて、ビンピッキング動作を含むワークハンドリング作業を的確にシミュレートでき、以って、ロボットと周辺物との相互干渉を予備的に確認しつつワークハンドリング作業のサイクルタイムを迅速に算出することを可能にして、最適な動作プログラムを短時間及び低コストで作成できるようにするロボットシミュレーション方法を提供することにある。
上記目的を達成するために、請求項1に記載の発明は、視覚センサを有するロボットの動作をオフラインで模擬的に遂行するロボットシミュレーション装置において、視覚センサ、ロボット及びワークをそれぞれにモデル化したセンサモデル、ロボットモデル及びワークモデルを、複数のワークモデルが無作為に積み重ねられた状態で、仮想作業環境に配置する作業環境モデル設定部と、仮想作業環境に配置したセンサモデル及びロボットモデルに、仮想作業環境に配置した複数のワークモデルに対するワーク検出動作及びビンピッキング動作を、模擬的に遂行させる動作シミュレート部とを具備し、動作シミュレート部は、センサモデルに複数のワークモデルを模擬的に撮像させて、撮像した複数のワークモデルの仮想画像を生成するワークモデル画像生成部と、ワークモデル画像生成部が生成した複数のワークモデルの仮想画像から、取出対象ワークモデルを特定して、取出対象ワークモデルの仮想位置を検出するワークモデル位置検出部と、ワークモデル位置検出部が検出した取出対象ワークモデルの仮想位置に基づき、ロボットモデルに、取出対象ワークモデルに対するビンピッキング動作を模擬的に遂行させるロボットモデル動作制御部とを具備すること、を特徴とするロボットシミュレーション装置を提供する。
請求項2に記載の発明は、請求項1に記載のロボットシミュレーション装置において、動作シミュレート部がセンサモデル及びロボットモデルに模擬的に遂行させるワーク検出動作及びビンピッキング動作の、サイクルタイムを算出するサイクルタイム算出部をさらに具備する、ロボットシミュレーション装置を提供する。
請求項3に記載の発明は、請求項2に記載のロボットシミュレーション装置において、動作シミュレート部がセンサモデル及びロボットモデルに模擬的に遂行させるワーク検出動作及びビンピッキング動作の、それぞれの成功率を指定する成功率指定部をさらに具備し、サイクルタイム算出部は、成功率指定部で指定したワーク検出動作及びビンピッキング動作のそれぞれの成功率を考慮して、サイクルタイムを算出する、ロボットシミュレーション装置を提供する。
請求項4に記載の発明は、請求項3に記載のロボットシミュレーション装置において、ワークモデル位置検出部及びロボットモデル動作制御部は、成功率指定部で指定したワーク検出動作及びビンピッキング動作のそれぞれの成功率に基づき、ワーク検出動作及びビンピッキング動作を再試行し、サイクルタイム算出部は、ワーク検出動作及びビンピッキング動作の再試行に要する時間を加算して、サイクルタイムを算出する、ロボットシミュレーション装置を提供する。
請求項5に記載の発明は、請求項3又は4に記載のロボットシミュレーション装置において、成功率指定部は、ワーク検出動作及びビンピッキング動作のそれぞれの成功率を所望範囲で指定し、サイクルタイム算出部は、成功率指定部で指定した所望範囲の成功率に対応して、サイクルタイムを所与の範囲で算出する、ロボットシミュレーション装置を提供する。
請求項6に記載の発明は、請求項1〜5のいずれか1項に記載のロボットシミュレーション装置において、動作シミュレート部は、予め定めたロボット動作プログラムに従い、センサモデル及びロボットモデルにワーク検出動作及びビンピッキング動作をそれぞれ模擬的に遂行させる、ロボットシミュレーション装置を提供する。
請求項7に記載の発明は、請求項6に記載のロボットシミュレーション装置において、ロボットモデル動作制御部は、ワークモデル位置検出部が検出した取出対象ワークモデルの仮想位置に対応して、ロボット動作プログラムを補正するとともに、補正したロボット動作プログラムに従い、ロボットモデルにビンピッキング動作を模擬的に遂行させる、ロボットシミュレーション装置を提供する。
請求項8に記載の発明は、請求項1〜7のいずれか1項に記載のロボットシミュレーション装置において、ワークモデル画像生成部は、ワークモデルの3次元データに基づき、センサモデルが撮像した複数のワークモデルの2次元の仮想画像を生成する、ロボットシミュレーション装置を提供する。
請求項9に記載の発明は、請求項8に記載のロボットシミュレーション装置において、ワークモデル位置検出部は、ワークモデル画像生成部が生成した2次元の仮想画像から特定した取出対象ワークモデルに対し、3次元計測を模擬的に遂行する、ロボットシミュレーション装置を提供する。
請求項10に記載の発明は、視覚センサを有するロボットの動作をオフラインで模擬的に遂行するために、コンピュータを、a)視覚センサ、ロボット及びワークをそれぞれにモデル化したセンサモデル、ロボットモデル及びワークモデルを、複数のワークモデルが無作為に積み重ねられた状態で、仮想作業環境に配置する作業環境モデル設定部、並びにb)仮想作業環境に配置したセンサモデル及びロボットモデルに、仮想作業環境に配置した複数のワークモデルに対するワーク検出動作及びビンピッキング動作を、模擬的に遂行させる動作シミュレート部であって、センサモデルに複数のワークモデルを模擬的に撮像させて、撮像した複数のワークモデルの仮想画像を生成するワークモデル画像生成部と、ワークモデル画像生成部が生成した複数のワークモデルの仮想画像から、取出対象ワークモデルを特定して、取出対象ワークモデルの仮想位置を検出するワークモデル位置検出部と、ワークモデル位置検出部が検出した取出対象ワークモデルの仮想位置に基づき、ロボットモデルに、取出対象ワークモデルに対するビンピッキング動作を模擬的に遂行させるロボットモデル動作制御部とを備える動作シミュレート部、として機能させるためのロボットシミュレーションプログラムを提供する。
請求項11に記載の発明は、視覚センサを有するロボットの動作をオフラインで模擬的に遂行するために、コンピュータを、a)視覚センサ、ロボット及びワークをそれぞれにモデル化したセンサモデル、ロボットモデル及びワークモデルを、複数のワークモデルが無作為に積み重ねられた状態で、仮想作業環境に配置する作業環境モデル設定部、並びにb)仮想作業環境に配置したセンサモデル及びロボットモデルに、仮想作業環境に配置した複数のワークモデルに対するワーク検出動作及びビンピッキング動作を、模擬的に遂行させる動作シミュレート部であって、センサモデルに複数のワークモデルを模擬的に撮像させて、撮像した複数のワークモデルの仮想画像を生成するワークモデル画像生成部と、ワークモデル画像生成部が生成した複数のワークモデルの仮想画像から、取出対象ワークモデルを特定して、取出対象ワークモデルの仮想位置を検出するワークモデル位置検出部と、ワークモデル位置検出部が検出した取出対象ワークモデルの仮想位置に基づき、ロボットモデルに、取出対象ワークモデルに対するビンピッキング動作を模擬的に遂行させるロボットモデル動作制御部とを備える動作シミュレート部、として機能させるためのロボットシミュレーションプログラムを記録したコンピュータ読み取り可能な記録媒体を提供する。
請求項12に記載の発明は、視覚センサを有するロボットの動作を、コンピュータを用いてオフラインで模擬的に遂行するためのロボットシミュレーション方法において、コンピュータの作業環境モデル設定部が、視覚センサ、ロボット及びワークをそれぞれにモデル化したセンサモデル、ロボットモデル及びワークモデルを、複数のワークモデルが無作為に積み重ねられた状態で、仮想作業環境に配置する作業環境モデル設定ステップと、コンピュータの動作シミュレート部が、仮想作業環境に配置したセンサモデル及びロボットモデルに、仮想作業環境に配置した複数のワークモデルに対するワーク検出動作及びビンピッキング動作を、模擬的に遂行させる動作シミュレートステップとを具備し、動作シミュレートステップは、センサモデルに複数のワークモデルを模擬的に撮像させて、撮像した複数のワークモデルの仮想画像を生成するステップと、生成した複数のワークモデルの仮想画像から、取出対象ワークモデルを特定して、取出対象ワークモデルの仮想位置を検出するステップと、検出した取出対象ワークモデルの仮想位置に基づき、ロボットモデルに、取出対象ワークモデルに対するビンピッキング動作を模擬的に遂行させるステップとを備えること、を特徴とするロボットシミュレーション方法を提供する。
請求項1に記載の発明によれば、動作シミュレート部が、仮想作業環境に配置したセンサモデル及びロボットモデルに、仮想作業環境に配置した複数のワークモデルに対するワーク検出動作及びビンピッキング動作を模擬的に遂行させることにより、ロボットモデルがビンピッキング動作中に周辺物に対する相互干渉を生じるか否かを確認することができる。したがって、ビンピッキング動作を含むワークハンドリング作業を的確にシミュレートできるので、実際のロボットシステムにおけるロボットと周辺物との相互干渉を予備的に確認しつつワークハンドリング作業のサイクルタイムを迅速に算出することが可能になり、最適なロボット動作プログラムを短時間及び低コストで作成できるようになる。
請求項2に記載の発明によれば、ビンピッキング動作を含むワークハンドリング作業を的確にシミュレートして、実際のロボットシステムにおけるロボットと周辺物との相互干渉を考慮した上で、自ら、ワークハンドリング作業のサイクルタイムを迅速に算出することができる。
請求項3に記載の発明によれば、実際のワークハンドリング作業に一層近似したシミュレーションの結果として、実情に沿ったサイクルタイムを算出できる。
請求項4に記載の発明によれば、ワークモデル位置検出部及びロボットモデル動作制御部は、全てのワークモデルに対する動作シミュレーションにおいて、それぞれに指定した成功率に対応して、ワーク検出動作及びビンピッキング動作の失敗を模擬的に生じて再試行フローを実行する。その結果、サイクルタイム算出部は、ワーク検出動作及びビンピッキング動作の再試行時間を含むサイクルタイムを算出できる。
請求項5に記載の発明によれば、要求されるサイクルタイムを実現可能なワーク検出動作及びビンピッキング動作のそれぞれの成功率を、成功率指定部で指定した範囲の中で確定できる。
請求項6及び7のいずれかに記載の発明によれば、ロボット動作プログラムのオフラインプログラミングの自動化が促進される。
請求項8に記載の発明によれば、予めCAD(コンピュータ支援設計)等の設計機能により作成された3次元データを使用して、一般的なコンピュータグラフィクスの手法により、複数のワークモデルの2次元の仮想画像を生成することができる。
請求項9に記載の発明によれば、実際の作業環境で視覚センサが取出対象ワークの位置(又は位置及び姿勢)を検出する際の3次元計測法を実行して、取出対象ワークモデルの仮想位置を検出することができる。
請求項10〜12のいずれかに記載の発明によれば、請求項1に記載の発明と同等の作用効果が奏される。
以下、添付図面を参照して、本発明の実施の形態を詳細に説明する。全図面に渡り、対応する構成要素には共通の参照符号を付す。
図面を参照すると、図1は、本発明に係るロボットシミュレーション装置10の基本構成を示す機能ブロック図、図2は、ロボットシミュレーション装置10を取り入れたロボットシステム12の概要を例示する図、図3は、ロボットシミュレーション装置10に付設可能な表示部14の表示画面の一例を示す図である。ロボットシミュレーション装置10は、視覚センサ16を有するロボット18の動作をオフラインで模擬的に遂行するものであって、例えばパーソナルコンピュータ(PC)等のコンピュータに所要のソフトウェアをインストールすることにより構成できる。なお、ロボットシミュレーション装置10は、それ自体、オフライン教示(又はオフラインプログラミング)装置と見なすこともできる。
ロボットシミュレーション装置10は、視覚センサ16、ロボット18及びワーク20をそれぞれにモデル化したセンサモデル16M、ロボットモデル18M及びワークモデル20Mを、複数のワークモデル20Mが無作為に積み重ねられた非整列状態(すなわちばら積み状態)で、仮想作業環境22に配置する作業環境モデル設定部24と、仮想作業環境22に配置したセンサモデル16M及びロボットモデル18Mに、仮想作業環境22に配置した複数のワークモデル20Mに対するワーク検出動作及びビンピッキング動作を、模擬的に遂行させる動作シミュレート部26とを備える。
動作シミュレート部26は、センサモデル16Mに複数のワークモデル20Mを模擬的に撮像させて、撮像した複数のワークモデル20Mの仮想画像MIを生成するワークモデル画像生成部28と、ワークモデル画像生成部28が生成した複数のワークモデル20Mの仮想画像MIから、取出対象ワークモデル20Mnを特定して、取出対象ワークモデル20Mnの仮想位置MPを検出するワークモデル位置検出部30と、ワークモデル位置検出部30が検出した取出対象ワークモデル20Mnの仮想位置MPに基づき、ロボットモデル18Mに、取出対象ワークモデル20Mnに対するビンピッキング動作を模擬的に遂行させるロボットモデル動作制御部32とを備える。なお、ワークモデル位置検出部30が検出する取出対象ワークモデル20Mnの仮想位置MPとは、位置のみのデータであってもよいし、位置及び姿勢のデータであってもよい。
図2に例示するロボットシステム12では、垂直多関節型アーム構造を有するロボット18のアーム先端に、ワーク20を把持するエンドエフェクタとしてのハンド34が装着されるとともに、ハンド34に隣接して、ワーク20の3次元計測を実行可能な視覚センサ16が設置される。視覚センサ16は、例として、撮像装置(例えばCCDカメラ)とレーザ投光器(スポット光又はスリット光)とを備えたレンジファインダの構成を有する。なお、ロボット18及び視覚センサ16の構成は、上記に限定されず、他の様々な構成を採用することができる。
複数のワーク20は、籠型の収納容器36にばら積み状態で収納されて、ロボット18の作業環境38の所定位置に配置される。さらに、ロボット18及びハンド34の運動を制御するロボット制御装置(RC)40が、ロボット18に接続され、ワーク20の位置(又は位置及び姿勢)計測を制御する視覚センサ制御装置(SC)42が、視覚センサ16に接続される。ロボット制御装置40と視覚センサ制御装置42とは、データや指令の送受信のために互いに接続される。そして、ロボット制御装置40及び視覚センサ制御装置42に、LCD(液晶ディスプレイ)等の表示部(D)14を付設したロボットシミュレーション装置10が、LAN(構内通信網)等の通信回線44を介して接続される。
ロボット18は、ロボット動作プログラム46(図1)に従い、ロボット制御装置40による制御下でアーム及びハンド34を効率良く運動させて、ばら積みされた複数のワーク20を1つずつ、ハンド34に把持して収納容器36から取り出し、作業環境38の他の所定位置に移送する(ビンピッキング動作)。また、視覚センサ16は、ロボット動作プログラム46(図1)に従い、視覚センサ制御装置42による制御下で、ばら積み状態の複数のワーク20を最初に2次元計測して、取出対象ワーク20nを特定し、次いで、特定した取出対象ワーク20nを3次元計測して、取出対象ワーク20nの位置(又は位置及び姿勢)を計測する(ワーク検出動作)。ロボット18は、視覚センサ16が計測した取出対象ワーク20nの位置(又は位置及び姿勢)データに基づき、アーム及びハンド34に最適な運動を遂行させて、上記したようにばら積み状態のワーク20から取出対象ワーク20nを取り出す。なお、ロボット動作プログラム46は、ロボットシミュレーション装置10によるシミュレーションの結果として作成されるものであって、シミュレーション中にロボット(アーム)18又はハンド34の位置(又は位置及び姿勢)データが適宜補正されるものである。
上記したロボットシステム12の構成に対応して、ロボットシミュレーション装置10の作業環境モデル設定部24で設定される仮想作業環境22では、図3に表示部14の表示画面の一例として示すように、ロボットモデル18Mのアーム先端に、ワークモデル20Mを把持するハンドモデル34Mが装着されるとともに、ハンドモデル34Mに隣接して、ワークモデル20Mを3次元計測するセンサモデル16Mが設置される。また、複数のワークモデル20Mは、収納容器モデル36Mにばら積み状態で収納されて、ロボットモデル18Mの仮想作業環境22の所定位置に配置される。仮想作業環境22に設置されるこれらモデルのデータに関しては、例えばロボットシミュレーション装置10自体が任意に有するCAD(コンピュータ支援設計)等の設計機能により作成する構成としてもよいし、或いはCAD等の設計機能を有する外部装置によって作成したデータをロボットシミュレーション装置10に取り込んで使用する構成としてもよい。
上記構成を有するロボットシミュレーション装置10によれば、動作シミュレート部26が、仮想作業環境22に配置したセンサモデル16M及びロボットモデル18Mに、仮想作業環境22に配置した複数のワークモデル20Mに対するワーク検出動作及びビンピッキング動作を模擬的に遂行させることにより、ロボットモデル18Mがビンピッキング動作中に、周辺物に対する相互干渉(すなわちロボットモデル18M自体又はロボットモデル18Mが把持した取出対象ワークモデル20Mnと、取出対象ワークモデル20Mn以外のワークモデル20Mや収納容器モデル36M等との衝突)を生じるか否かを、(好ましくは表示部14の表示画面上で)確認することができる。したがって、そのような相互干渉が生じないように、ロボットモデル18M(又はハンドモデル34M)の位置(又は位置及び姿勢)データを適宜補正することで、ロボット動作プログラム46を最適化することができる。
特に、ロボットシミュレーション装置10によれば、多様な位置及び姿勢を呈する個々のワークモデル20Mに対し、ロボットモデル18M及びハンドモデル34Mの運動を様々に変化させて、ビンピッキング動作を繰り返し模擬的に遂行することが、極めて容易である。したがって、複数のワークモデル20Mに対するワークハンドリング作業に要するサイクルタイムを迅速に算出でき、サイクルタイムを最短にするようなロボット動作プログラム46の最適化を容易に実現できる。その結果、生産現場でのロボットシステム12の立ち上げに要する時間及び費用を効果的に削減することができる。
このように、ロボットシミュレーション装置10によれば、ビンピッキング動作を含むワークハンドリング作業を的確にシミュレートできるので、実際のロボットシステム12におけるロボット18と周辺物との相互干渉を予備的に確認しつつワークハンドリング作業のサイクルタイムを迅速に算出することが可能になり、最適なロボット動作プログラム46を短時間及び低コストで作成できるようになる。
上記構成において、作業環境モデル設定部24は、仮想作業環境22に複数のワークモデル20Mを、収納容器モデル36Mにばら積み状態で収納して配置するが、このようなばら積み状態を、実際の作業環境38においても予測困難なワーク配置に合致させてモデル化することは、一般に困難である。これに関し、例えばロボットシミュレーション装置10では、乱数等を用いて複数のワークモデル20Mを収納容器モデル36Mの底部から無作為に積み上げて配置し、これらワークモデル20Mに対し上記シミュレーションを行なうとともに、その結果として作成されたロボット動作プログラム46のある程度の試行錯誤を経ることで、実際の作業環境38における予測困難なワークばら積み状態をモデル化する手法を採用することができる。
図4は、本発明の一実施形態によるロボットシミュレーション装置50の構成を機能ブロック図で示す。ロボットシミュレーション装置50は、上記したワークハンドリング作業のサイクルタイムの迅速な算出を可能にするための構成を有するものであり、他の基本構成は図1のロボットシミュレーション装置10で説明したものと同じであるから、対応する構成要素には共通の符号を付してその説明を省略する。
ロボットシミュレーション装置50は、前述した基本構成に加えて、動作シミュレート部26がセンサモデル16M及びロボットモデル18Mに模擬的に遂行させるワーク検出動作及びビンピッキング動作の、全所要時間であるサイクルタイムTを算出するサイクルタイム算出部52をさらに備える。このような構成により、ロボットシミュレーション装置50は、ビンピッキング動作を含むワークハンドリング作業を的確にシミュレートして、実際のロボットシステム12におけるロボット18と周辺物との相互干渉を考慮した上で、自ら、ワークハンドリング作業のサイクルタイムTを迅速に算出することができる。
上記構成を有するロボットシミュレーション装置50によるシミュレーション手順の一例を、図5のフローチャートに従って以下に説明する。
前提として、ロボットシミュレーション装置50は、パーソナルコンピュータ(PC)に所要のソフトウェアをインストールしたものであって、図4に示す作業環境モデル設定部24及び動作シミュレート部26は、PCのCPU(中央処理装置)が構成するものとする。そして、作業環境モデル設定部24が設定する仮想作業環境22(図3)においては、ロボットモデル18Mのアーム先端に装着されたセンサモデル16Mの、撮像装置の視点及び視線方向とレーザ投光器の出射点及び照射方向とが定義され、また、ロボットモデル18Mの近傍に、複数のワークモデル20Mをばら積み状態で収納した収納容器モデル36Mが配置される。
まず、動作シミュレート部26(ロボットモデル動作制御部32(図4))が、表示部14の画面上で、ロボットモデル18Mに適当なアーム運動を生じさせて、センサモデル16Mを、収納容器モデル36Mに収納された複数のワークモデル20Mの上方に配置する。その状態で、動作シミュレート部26(ワークモデル画像生成部28(図4))が、センサモデル16Mに、複数のワークモデル20Mを模擬的に撮像させて、撮像した複数のワークモデル20Mの仮想画像MI(図6(a))を生成する(ステップQ1)。
上記ステップQ1では、ワークモデル画像生成部28は、ワークモデル20Mの3次元データ54(図1)に基づき、センサモデル16Mが撮像した複数のワークモデル20Mの2次元の仮想画像MIを生成することができる。ワークモデル20Mの3次元データ54は、予めCAD(コンピュータ支援設計)等の設計機能により作成されて、ロボットシミュレーション装置50自体又は外部記憶装置に格納されているものを使用できる。このような仮想画像MIの生成は、センサモデル16Mの撮像装置の視点及び視線方向と上記3次元データ54とに基づいて、一般的なコンピュータグラフィクスの手法により行なうことができる。
次に、ワークモデル位置検出部30(図4)が、ステップQ1で1つ以上のワークモデル20Mの仮想画像MIが生成されているか否かを判断し(ステップQ2)、1つ以上のワークモデル20Mの仮想画像MIが生成されていた場合は、仮想画像MIから取出対象ワークモデル20Mn(図3)を特定する(ステップQ3)。これらステップQ2及びQ3では、実際の作業環境38(図2)で視覚センサ16(図2)が取得した画像から取出対象ワーク20nを特定する際の、視覚センサ制御装置42(図2)による2次元計測法を実行することができる。一般には、ばら積みされた複数のワークモデル20Mの中で、最上部に位置するワークモデル20Mが、取出対象ワークモデル20Mnとなる。なお、ステップQ2で、仮想画像MIが1つも生成されていないと判断した場合は、収納容器モデル36Mにワークモデル20Mが収納されていないと見做して、後述するサイクルタイム算出ステップQ9に進む。
ステップQ3で取出対象ワークモデル20Mnが特定されると、再びロボットモデル動作制御部32が、表示部14の画面上で、ロボットモデル18Mに適当なアーム運動を生じさせて、センサモデル16Mを、取出対象ワークモデル20Mnにレーザ光を照射できる位置に配置する。その状態で、ワークモデル画像生成部28が、センサモデル16Mに複数のワークモデル20Mを模擬的に撮像させて仮想画像MIを再度生成し、この仮想画像MIを元に、センサモデル16Mのレーザ投光器からレーザ光(例えばスリット光)を模擬的に照射したときの、取出対象ワークモデル20Mnを中心とした複数のワークモデル20Mの仮想画像MI´(図6(b))を生成する。そして、ワークモデル位置検出部30が、仮想画像MI´から、レーザ光を照射した取出対象ワークモデル20Mnの画像データを抽出して、取出対象ワークモデル20Mnの仮想位置MP(位置データ又は位置及び姿勢データ)を検出する(ステップQ4)。
上記ステップQ4では、ワークモデル画像生成部28は、ワークモデル20Mの3次元データ54(図1)に基づき、レーザ光を照射したときの、取出対象ワークモデル20Mnを中心とした複数のワークモデル20Mの2次元の仮想画像MI´を生成することができる。この仮想画像MI´の生成は、センサモデル16Mの撮像装置の視点及び視線方向とレーザ投光器の出射点及び照射方向と上記3次元データ54とに基づいて、一般的なコンピュータグラフィクスの手法により行なうことができる。また、ワークモデル位置検出部30は、実際の作業環境38(図2)で視覚センサ16(図2)が取出対象ワーク20nの位置(又は位置及び姿勢)を検出する際の、視覚センサ制御装置42(図2)による3次元計測法を実行することができる。つまり、レーザ光照射前の仮想画像MIとレーザ光照射後の仮想画像MI´とをXOR演算して、ワークモデル20M上に投影されているレーザ光のみの仮想画像LI(図6(c))を抽出し、このレーザ光の仮想画像LIから、取出対象ワークモデル20Mnの仮想位置MPを検出する。
次に、ワークモデル位置検出部30は、ステップQ4で取出対象ワークモデル20Mnの仮想位置MPが検出されているか否かを判断する(ステップQ5)。取出対象ワークモデル20Mnの仮想位置MPが検出されていた場合は、ロボットモデル動作制御部32が、表示部14の表示画面上で、ロボットモデル18M及びハンドモデル34Mに適当な運動を生じさせて、取出対象ワークモデル20Mnに対するビンピッキング動作を模擬的に遂行させる(ステップQ6)。また、取出対象ワークモデル20Mnの仮想位置MPが検出されていないと判断した場合は、3次元計測の失敗と見做して、当該取出対象ワークモデル20Mnの画像データを仮想画像MIのデータから除外し(ステップQ7)、前述したステップQ3に戻って新たな取出対象ワークモデル20Mnを特定し、再び3次元計測を実行する。
次に、ロボットモデル動作制御部32は、ステップQ6で取出対象ワークモデル20Mnを適正にピッキングできたか否かを判断する(ステップQ8)。取出対象ワークモデル20Mnを適正にピッキングできていれば、前述したステップQ1に戻り、動作シミュレート部26が、残りのワークモデル20Mに対して、ステップQ1〜Q8のワーク検出動作及びビンピッキング動作を実行する。また、取出対象ワークモデル20Mnを適正にピッキングできていないと判断したときには、ビンピッキングの失敗と見做して、前述したステップQ6に戻り、当該取出対象ワークモデル20Mnに対するビンピッキング動作を再試行する。
このようにして、ステップQ2でワークモデル20Mの画像が無いと判断されるまで、ステップQ1〜Q8を繰返して実行する。ステップQ2でワークモデル20Mの画像が無いと判断されると、サイクルタイム算出部52が、複数のワークモデル20Mに対するワーク検出動作及びビンピッキング動作のサイクルタイムTを算出する(ステップQ9)。これにより、シミュレーションが終了する。
上記シミュレーションフローにおいて、動作シミュレート部26のロボットモデル動作制御部32は、予め定めた(すなわち当該運動の対象となる取出対象ワークモデル20Mnの位置検出に応じたデータ補正前の)ロボット動作プログラム46(図1)に従い、ロボットモデル18M(ハンドモデル34Mを含む)に模擬的な運動を生じさせることが有利である。この場合、ロボットモデル動作制御部32は、ワークモデル位置検出部30が検出した取出対象ワークモデル20Mnの仮想位置MPに対応して、ロボット動作プログラム46を補正するとともに、補正したロボット動作プログラム46に従い、ロボットモデル18M(ハンドモデル34Mを含む)にビンピッキング動作を模擬的に遂行させることができる。同様に、上記シミュレーションフローにおいて、動作シミュレート部26のワークモデル画像生成部28及びワークモデル位置検出部30は、予め定めた(すなわち当該運動の対象となる取出対象ワークモデル20Mnの位置検出に応じたデータ補正前の)ロボット動作プログラム46(図1)に従い、センサモデル16Mにワーク検出動作を模擬的に遂行させることが有利である。このような構成により、ロボット動作プログラム46のオフラインプログラミングの自動化が促進される。
ところで、ロボットシステム12(図2)による実際のワークハンドリング作業では、取出対象ワーク20nの位置検出ステップ及びビンピッキングステップで、レーザ光の検出ミスやワーク把持中の周辺物との干渉等に起因して、3次元計測及びピッキングの失敗を生じることが予測される。そのような場合には、通常、ロボット制御装置40(図2)は、ロボット18(図2)に、取出対象ワーク20nに対する3次元計測及びピッキングを再試行させるように構成される。その結果、ワークハンドリング作業のサイクルタイムは必然的に増加する。
これに関連して、ロボットシミュレーション装置50は、上記シミュレーションフローで説明したように、取出対象ワークモデル20Mnの仮想位置検出ステップQ4及びビンピッキングステップQ6において3次元計測及びピッキングが失敗したときにも、適当に対応してシミュレーションを進めることができるように構成されている。このとき、3次元計測及びピッキングの失敗の頻度(すなわち成功率)を予めデータ化して、成功率に対応したシミュレーションを実行するようにすれば、実際のワークハンドリング作業に一層近似したシミュレーションの結果として、実情に沿ったサイクルタイムを算出できる利点が得られる。
ロボット動作の成功率を予め定量的に考慮した上記シミュレーションを実現するために、ロボットシミュレーション装置50は、図4に補足して示すように、動作シミュレート部26がセンサモデル16M及びロボットモデル18Mに模擬的に遂行させるワーク検出動作及びビンピッキング動作の、それぞれの成功率Sを指定する成功率指定部56を、さらに備えることができる。この場合、サイクルタイム算出部52は、成功率指定部56で指定したワーク検出動作及びビンピッキング動作のそれぞれの成功率Sを考慮して、サイクルタイムTを算出する。
さらに詳述すれば、ワークモデル位置検出部30及びロボットモデル動作制御部32は、成功率指定部56で指定したワーク検出動作及びビンピッキング動作のそれぞれの成功率DS、BSに基づき、ワーク検出動作及びビンピッキング動作を再試行する(図5のステップQ5→Q7→Q3及びステップQ8→Q6)ように構成できる。そして、サイクルタイム算出部52は、ワーク検出動作及びビンピッキング動作の再試行に要する時間を加算して、サイクルタイムTを算出する。
例えば、成功率指定部56でワーク検出動作の成功率DSを90%と設定したときには、ワークモデル位置検出部30は、全てのワークモデル20Mに対する動作シミュレーション(図5)において、10%の割合で、3次元計測の失敗を模擬的に生じてステップQ5→Q7→Q3の再試行フローを実行する。同様に、成功率指定部56でビンピッキング動作の成功率BSを85%と設定したときには、ロボットモデル動作制御部32は、全てのワークモデル20Mに対する動作シミュレーション(図5)において、15%の割合で、ピッキングの失敗を模擬的に生じてステップQ8→Q6の再試行フローを実行する。その結果、サイクルタイム算出部52は、ワーク検出動作及びビンピッキング動作の再試行時間を含むサイクルタイムTを算出できる。
成功率指定部56を有するロボットシミュレーション装置50による上記したシミュレーション手順は、図7のフローチャートで表すことができる。このシミュレーションフローでは、図示のように、最初に成功率指定部56で、ワーク検出動作及びビンピッキング動作のそれぞれの成功率DS、BSを指定する(ステップR1)。続いて、動作シミュレート部26が、ステップR1で指定した成功率DS、BSを考慮しながら、前述したステップQ1〜Q9を実行する。
上記構成において、成功率指定部56は、ワーク検出動作及びビンピッキング動作のそれぞれの成功率DS、BSを所望範囲で指定できることが有利である。この場合、サイクルタイム算出部52は、成功率指定部56で指定した所望範囲の成功率DS、BSに対応して、サイクルタイムTを所与の範囲で算出する。このような構成によれば、要求されるサイクルタイムTを実現可能なワーク検出動作及びビンピッキング動作のそれぞれの成功率DS、BSを、成功率指定部56で指定した範囲の中で確定できる。特に、指定範囲の中で予めワーク検出動作の成功率DSとビンピッキング動作の成功率BSとの幾つかの組み合わせを設定しておけば、いずれの組み合わせの成功率DS、BSを採用したときにサイクルタイムTが許容値になるかを、容易に確認できる。このようにして確定した許容範囲の成功率DS、BSは、実際のロボットシステム12(図2)におけるロボット18の作業領域38の見直しやロボット動作プログラム46の修正を行なう際の、指標として利用することができる。
例えば、成功率指定部56で、ワーク検出動作及びビンピッキング動作の成功率DS、BSをいずれも90%以上100%未満と指定したときに、さらにこの範囲の成功率DS、BSを例えば1%刻みに細分することで、計100通りの成功率DS、BSの組み合わせを設定することができる。このような成功率DS、BSの細分単位も、成功率指定部56で自由に指定できるように構成することが有利である。そして、ワークモデル位置検出部30及びロボットモデル動作制御部32が、全てのワークモデル20Mに対する動作シミュレーション(図5)において、所望の組み合わせの成功率DS、BSに従う再試行フローを含むシミュレーションを実行し、サイクルタイム算出部52が、その成功率DS、BSでの再試行時間を含むサイクルタイムTを算出する。このようにして、全てのワークモデル20Mに対し、全ての組み合わせの成功率DS、BSに従う再試行フローを含むシミュレーションが完了すると、全ての組み合わせの成功率DS、BSに対応するサイクルタイムT(上記例では100通り)が算出される。そこで、算出したサイクルタイムTの中から、要求されるサイクルタイムTを特定すれば、それを実現可能なワーク検出動作及びビンピッキング動作の成功率DS、BSの組み合わせを特定できる。
許容される成功率DS、BSの組み合わせを特定する上記したシミュレーション手順は、図8のフローチャートで表すことができる。このシミュレーションフローでは、図示のように、最初に成功率指定部56で、ワーク検出動作及びビンピッキング動作のそれぞれの成功率DS、BSを所望範囲で指定するとともに、この範囲の成功率DS、BSを適当に細分して複数通りの成功率DS、BSの組み合わせを設定する(ステップR2)。そこで、動作シミュレート部26は、成功率DS、BSの組み合わせを1つ選択し(ステップR3)、続いて、ステップR3で選択した成功率DS、BSを考慮しながら、前述したステップQ1〜Q9を実行する。ステップQ9でサイクルタイムを算出した後に、動作シミュレート部26は、成功率DS、BSの組み合わせの残りが有るか否かを判断し(ステップR4)、残りが有った場合には、ステップR3に戻って次の成功率DS、BSの組み合わせを選択し、残りが無かった場合にはシミュレーションを終了する。
以上、本発明の好適な実施形態を説明したが、ロボットシミュレーション装置10をパーソナルコンピュータで構成できることから、本発明は下記のように規定することもできる。
すなわち、本発明は、視覚センサ16を有するロボット18の動作をオフラインで模擬的に遂行するために、コンピュータ10を、a)視覚センサ16、ロボット18及びワーク20をそれぞれにモデル化したセンサモデル16M、ロボットモデル18M及びワークモデル20Mを、複数のワークモデル20Mが無作為に積み重ねられた状態で、仮想作業環境22に配置する作業環境モデル設定部24、並びにb)仮想作業環境22に配置したセンサモデル16M及びロボットモデル18Mに、仮想作業環境22に配置した複数のワークモデル20Mに対するワーク検出動作及びビンピッキング動作を、模擬的に遂行させる動作シミュレート部26であって、センサモデル16Mに複数のワークモデル20Mを模擬的に撮像させて、撮像した複数のワークモデル20Mの仮想画像MIを生成するワークモデル画像生成部28と、ワークモデル画像生成部28が生成した複数のワークモデル20Mの仮想画像MIから、取出対象ワークモデル20Mnを特定して、取出対象ワークモデル20Mnの仮想位置MPを検出するワークモデル位置検出部30と、ワークモデル位置検出部30が検出した取出対象ワークモデル20Mnの仮想位置MPに基づき、ロボットモデル18Mに、取出対象ワークモデル20Mnに対するビンピッキング動作を模擬的に遂行させるロボットモデル動作制御部32とを備える動作シミュレート部26、として機能させるためのロボットシミュレーションプログラムである。
また、本発明は、視覚センサ16を有するロボット18の動作をオフラインで模擬的に遂行するために、コンピュータ10を、a)視覚センサ16、ロボット18及びワーク20をそれぞれにモデル化したセンサモデル16M、ロボットモデル18M及びワークモデル20Mを、複数のワークモデル20Mが無作為に積み重ねられた状態で、仮想作業環境22に配置する作業環境モデル設定部24、並びにb)仮想作業環境22に配置したセンサモデル16M及びロボットモデル18Mに、仮想作業環境22に配置した複数のワークモデル20Mに対するワーク検出動作及びビンピッキング動作を、模擬的に遂行させる動作シミュレート部26であって、センサモデル16Mに複数のワークモデル20Mを模擬的に撮像させて、撮像した複数のワークモデル20Mの仮想画像MIを生成するワークモデル画像生成部28と、ワークモデル画像生成部28が生成した複数のワークモデル20Mの仮想画像MIから、取出対象ワークモデル20Mnを特定して、取出対象ワークモデル20Mnの仮想位置MPを検出するワークモデル位置検出部30と、ワークモデル位置検出部30が検出した取出対象ワークモデル20Mnの仮想位置MPに基づき、ロボットモデル18Mに、取出対象ワークモデル20Mnに対するビンピッキング動作を模擬的に遂行させるロボットモデル動作制御部32とを備える動作シミュレート部26、として機能させるためのロボットシミュレーションプログラムを記録したコンピュータ読み取り可能な記録媒体である。
また、本発明は、視覚センサ16を有するロボット18の動作を、コンピュータ10を用いてオフラインで模擬的に遂行するためのロボットシミュレーション方法において、コンピュータ10の作業環境モデル設定部24が、視覚センサ16、ロボット18及びワーク20をそれぞれにモデル化したセンサモデル16M、ロボットモデル18M及びワークモデル20Mを、複数のワークモデル20Mが無作為に積み重ねられた状態で、仮想作業環境22に配置する作業環境モデル設定ステップと、コンピュータ10の動作シミュレート部26が、仮想作業環境22に配置したセンサモデル16M及びロボットモデル18Mに、仮想作業環境22に配置した複数のワークモデル20Mに対するワーク検出動作及びビンピッキング動作を、模擬的に遂行させる動作シミュレートステップとを備え、動作シミュレートステップは、センサモデル16Mに複数のワークモデル20Mを模擬的に撮像させて、撮像した複数のワークモデル20Mの仮想画像MIを生成するステップと、生成した複数のワークモデル20Mの仮想画像MIから、取出対象ワークモデル20Mnを特定して、取出対象ワークモデル20Mnの仮想位置MPを検出するステップと、検出した取出対象ワークモデル20Mnの仮想位置MPに基づき、ロボットモデル18Mに、取出対象ワークモデル20Mnに対するビンピッキング動作を模擬的に遂行させるステップとを備える、ロボットシミュレーション方法である。
本発明に係るロボットシミュレーション装置の基本構成を示す機能ブロック図である。 本発明に係るロボットシミュレーション装置を組み込んだロボットシステムの概要を例示する図である。 図1のロボットシミュレーション装置に付設可能な表示部の表示画面の一例を示す図である。 本発明の一実施形態によるロボットシミュレーション装置の構成を示す機能ブロック図である。 図4のロボットシミュレーション装置によるシミュレーション手順の一例を示すフローチャートである。 図5のシミュレーションフローにおいて生成される仮想画像の一例を示す図で、(a)複数のワークモデル、(b)レーザ光を照射したワークモデル、及び(c)レーザ光のみの、それぞれの仮想画像を示す。 図4のロボットシミュレーション装置によるシミュレーション手順の変形例を示すフローチャートである。 図4のロボットシミュレーション装置によるシミュレーション手順の他の変形例を示すフローチャートである。
符号の説明
10、50 ロボットシミュレーション装置
12 ロボットシステム
14 表示部
16 視覚センサ
16M センサモデル
18 ロボット
18M ロボットモデル
20 ワーク
20n 取出対象ワーク
20M ワークモデル
20Mn 取出対象ワークモデル
22 仮想作業環境
24 作業環境モデル設定部
26 動作シミュレート部
28 ワークモデル画像生成部
30 ワークモデル位置検出部
32 ロボットモデル動作制御部
46 ロボット動作プログラム
52 サイクルタイム算出部
54 3次元データ
56 成功率指定部

Claims (12)

  1. 視覚センサを有するロボットの動作をオフラインで模擬的に遂行するロボットシミュレーション装置において、
    視覚センサ、ロボット及びワークをそれぞれにモデル化したセンサモデル、ロボットモデル及びワークモデルを、複数の該ワークモデルが無作為に積み重ねられた状態で、仮想作業環境に配置する作業環境モデル設定部と、
    前記仮想作業環境に配置した前記センサモデル及び前記ロボットモデルに、該仮想作業環境に配置した前記複数のワークモデルに対するワーク検出動作及びビンピッキング動作を、模擬的に遂行させる動作シミュレート部とを具備し、
    前記動作シミュレート部は、
    前記センサモデルに前記複数のワークモデルを模擬的に撮像させて、撮像した該複数のワークモデルの仮想画像を生成するワークモデル画像生成部と、
    前記ワークモデル画像生成部が生成した前記複数のワークモデルの前記仮想画像から、取出対象ワークモデルを特定して、該取出対象ワークモデルの仮想位置を検出するワークモデル位置検出部と、
    前記ワークモデル位置検出部が検出した前記取出対象ワークモデルの前記仮想位置に基づき、前記ロボットモデルに、該取出対象ワークモデルに対する前記ビンピッキング動作を模擬的に遂行させるロボットモデル動作制御部とを具備すること、
    を特徴とするロボットシミュレーション装置。
  2. 前記動作シミュレート部が前記センサモデル及び前記ロボットモデルに模擬的に遂行させる前記ワーク検出動作及び前記ビンピッキング動作の、サイクルタイムを算出するサイクルタイム算出部をさらに具備する、請求項1に記載のロボットシミュレーション装置。
  3. 前記動作シミュレート部が前記センサモデル及び前記ロボットモデルに模擬的に遂行させる前記ワーク検出動作及び前記ビンピッキング動作の、それぞれの成功率を指定する成功率指定部をさらに具備し、前記サイクルタイム算出部は、該成功率指定部で指定した該ワーク検出動作及び該ビンピッキング動作のそれぞれの該成功率を考慮して、前記サイクルタイムを算出する、請求項2に記載のロボットシミュレーション装置。
  4. 前記ワークモデル位置検出部及び前記ロボットモデル動作制御部は、前記成功率指定部で指定した前記ワーク検出動作及び前記ビンピッキング動作のそれぞれの前記成功率に基づき、該ワーク検出動作及び該ビンピッキング動作を再試行し、前記サイクルタイム算出部は、該ワーク検出動作及び該ビンピッキング動作の該再試行に要する時間を加算して、前記サイクルタイムを算出する、請求項3に記載のロボットシミュレーション装置。
  5. 前記成功率指定部は、前記ワーク検出動作及び前記ビンピッキング動作のそれぞれの前記成功率を所望範囲で指定し、前記サイクルタイム算出部は、該成功率指定部で指定した該所望範囲の該成功率に対応して、前記サイクルタイムを所与の範囲で算出する、請求項3又は4に記載のロボットシミュレーション装置。
  6. 前記動作シミュレート部は、予め定めたロボット動作プログラムに従い、前記センサモデル及び前記ロボットモデルに前記ワーク検出動作及び前記ビンピッキング動作をそれぞれ模擬的に遂行させる、請求項1〜5のいずれか1項に記載のロボットシミュレーション装置。
  7. 前記ロボットモデル動作制御部は、前記ワークモデル位置検出部が検出した前記取出対象ワークモデルの前記仮想位置に対応して、前記ロボット動作プログラムを補正するとともに、補正した該ロボット動作プログラムに従い、前記ロボットモデルに前記ビンピッキング動作を模擬的に遂行させる、請求項6に記載のロボットシミュレーション装置。
  8. 前記ワークモデル画像生成部は、前記ワークモデルの3次元データに基づき、前記センサモデルが撮像した前記複数のワークモデルの2次元の前記仮想画像を生成する、請求項1〜7のいずれか1項に記載のロボットシミュレーション装置。
  9. 前記ワークモデル位置検出部は、前記ワークモデル画像生成部が生成した前記2次元の仮想画像から特定した前記取出対象ワークモデルに対し、3次元計測を模擬的に遂行する、請求項8に記載のロボットシミュレーション装置。
  10. 視覚センサを有するロボットの動作をオフラインで模擬的に遂行するために、コンピュータを、
    a)視覚センサ、ロボット及びワークをそれぞれにモデル化したセンサモデル、ロボットモデル及びワークモデルを、複数の該ワークモデルが無作為に積み重ねられた状態で、仮想作業環境に配置する作業環境モデル設定部、並びに
    b)前記仮想作業環境に配置した前記センサモデル及び前記ロボットモデルに、該仮想作業環境に配置した前記複数のワークモデルに対するワーク検出動作及びビンピッキング動作を、模擬的に遂行させる動作シミュレート部であって、
    前記センサモデルに前記複数のワークモデルを模擬的に撮像させて、撮像した該複数のワークモデルの仮想画像を生成するワークモデル画像生成部と、
    前記ワークモデル画像生成部が生成した前記複数のワークモデルの前記仮想画像から、取出対象ワークモデルを特定して、該取出対象ワークモデルの仮想位置を検出するワークモデル位置検出部と、
    前記ワークモデル位置検出部が検出した前記取出対象ワークモデルの前記仮想位置に基づき、前記ロボットモデルに、該取出対象ワークモデルに対する前記ビンピッキング動作を模擬的に遂行させるロボットモデル動作制御部とを具備する動作シミュレート部、
    として機能させるためのロボットシミュレーションプログラム。
  11. 視覚センサを有するロボットの動作をオフラインで模擬的に遂行するために、コンピュータを、
    a)視覚センサ、ロボット及びワークをそれぞれにモデル化したセンサモデル、ロボットモデル及びワークモデルを、複数の該ワークモデルが無作為に積み重ねられた状態で、仮想作業環境に配置する作業環境モデル設定部、並びに
    b)前記仮想作業環境に配置した前記センサモデル及び前記ロボットモデルに、該仮想作業環境に配置した前記複数のワークモデルに対するワーク検出動作及びビンピッキング動作を、模擬的に遂行させる動作シミュレート部であって、
    前記センサモデルに前記複数のワークモデルを模擬的に撮像させて、撮像した該複数のワークモデルの仮想画像を生成するワークモデル画像生成部と、
    前記ワークモデル画像生成部が生成した前記複数のワークモデルの前記仮想画像から、取出対象ワークモデルを特定して、該取出対象ワークモデルの仮想位置を検出するワークモデル位置検出部と、
    前記ワークモデル位置検出部が検出した前記取出対象ワークモデルの前記仮想位置に基づき、前記ロボットモデルに、該取出対象ワークモデルに対する前記ビンピッキング動作を模擬的に遂行させるロボットモデル動作制御部とを具備する動作シミュレート部、
    として機能させるためのロボットシミュレーションプログラムを記録したコンピュータ読み取り可能な記録媒体。
  12. 視覚センサを有するロボットの動作を、コンピュータを用いてオフラインで模擬的に遂行するためのロボットシミュレーション方法において、
    コンピュータの作業環境モデル設定部が、視覚センサ、ロボット及びワークをそれぞれにモデル化したセンサモデル、ロボットモデル及びワークモデルを、複数の該ワークモデルが無作為に積み重ねられた状態で、仮想作業環境に配置する作業環境モデル設定ステップと、
    コンピュータの動作シミュレート部が、前記仮想作業環境に配置した前記センサモデル及び前記ロボットモデルに、該仮想作業環境に配置した前記複数のワークモデルに対するワーク検出動作及びビンピッキング動作を、模擬的に遂行させる動作シミュレートステップとを具備し、
    前記動作シミュレートステップは、
    前記センサモデルに前記複数のワークモデルを模擬的に撮像させて、撮像した該複数のワークモデルの仮想画像を生成するステップと、
    生成した前記複数のワークモデルの前記仮想画像から、取出対象ワークモデルを特定して、該取出対象ワークモデルの仮想位置を検出するステップと、
    検出した前記取出対象ワークモデルの前記仮想位置に基づき、前記ロボットモデルに、該取出対象ワークモデルに対する前記ビンピッキング動作を模擬的に遂行させるステップとを具備すること、
    を特徴とするロボットシミュレーション方法。
JP2006066021A 2006-03-10 2006-03-10 ロボットシミュレーションのための装置、プログラム、記録媒体及び方法 Expired - Fee Related JP4153528B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2006066021A JP4153528B2 (ja) 2006-03-10 2006-03-10 ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
CN200710086060A CN100590629C (zh) 2006-03-10 2007-03-08 用于机器人仿真的装置、程序、记录介质以及方法
EP07004786A EP1832947A2 (en) 2006-03-10 2007-03-08 Device, program, recording medium and method for robot simulation
US11/715,959 US20070213874A1 (en) 2006-03-10 2007-03-09 Device, program, recording medium and method for robot simulation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006066021A JP4153528B2 (ja) 2006-03-10 2006-03-10 ロボットシミュレーションのための装置、プログラム、記録媒体及び方法

Publications (2)

Publication Number Publication Date
JP2007241857A true JP2007241857A (ja) 2007-09-20
JP4153528B2 JP4153528B2 (ja) 2008-09-24

Family

ID=38024541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006066021A Expired - Fee Related JP4153528B2 (ja) 2006-03-10 2006-03-10 ロボットシミュレーションのための装置、プログラム、記録媒体及び方法

Country Status (4)

Country Link
US (1) US20070213874A1 (ja)
EP (1) EP1832947A2 (ja)
JP (1) JP4153528B2 (ja)
CN (1) CN100590629C (ja)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009115783A (ja) * 2007-11-07 2009-05-28 Mitsubishi Electric Research Laboratories Inc シーン内の物体の3d姿勢を求める方法及びシステム
JP2010108292A (ja) * 2008-10-30 2010-05-13 Japan Society For The Promotion Of Machine Industry 工具衝突防止システム及び工具衝突防止方法
JP2011065399A (ja) * 2009-09-17 2011-03-31 Fujitsu Ltd シミュレーション装置,シミュレーション方法およびシミュレーションプログラム
JP2011083882A (ja) * 2009-10-19 2011-04-28 Yaskawa Electric Corp ロボットシステム
JP2011186928A (ja) * 2010-03-10 2011-09-22 Canon Inc 情報処理装置および情報処理装置の制御方法
JP2013536480A (ja) * 2010-05-25 2013-09-19 シーメンス プロダクト ライフサイクル マネージメント ソフトウェアー インコーポレイテッド 閉ループ制御器のプログラミングのための方法およびシステム
JP2013184279A (ja) * 2012-03-09 2013-09-19 Canon Inc 情報処理装置、情報処理方法
WO2013136930A1 (ja) * 2012-03-15 2013-09-19 オムロン株式会社 シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム
JP2014063327A (ja) * 2012-09-21 2014-04-10 Omron Corp シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP2014124735A (ja) * 2012-12-27 2014-07-07 Seiko Epson Corp ロボット制御方法、ロボット制御装置、プログラム、及びロボット
JP2014137644A (ja) * 2013-01-15 2014-07-28 Yaskawa Electric Corp 認識プログラム評価装置および認識プログラム評価方法
JP2014240110A (ja) * 2013-06-12 2014-12-25 三菱電機株式会社 ビンピッキング性能評価装置及び方法
JP2015089589A (ja) * 2013-11-05 2015-05-11 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP2015100866A (ja) * 2013-11-22 2015-06-04 三菱電機株式会社 ロボットシミュレーション装置、プログラム、記録媒体及び方法
DE102015002760A1 (de) 2014-03-12 2015-09-17 Fanuc Corporation Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
JP2015168043A (ja) * 2014-03-10 2015-09-28 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP2016042378A (ja) * 2015-11-12 2016-03-31 オムロン株式会社 シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム
JP2017107432A (ja) * 2015-12-10 2017-06-15 学校法人立命館 機械システムの生産性能評価装置及び機械システムの生産性能評価方法
JP2018501532A (ja) * 2014-10-02 2018-01-18 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft 密結合ロジックおよび物理的シミュレーションを用いた3dグラフィックエディタにおけるオートメーションのプログラミング
DE102017125190A1 (de) 2016-10-28 2018-05-03 Fanuc Corporation Vorrichtung, Verfahren, Programm und Aufzeichnungsmedium zur Simulation des durch Roboter durchgeführten Vorgangs zum Anordnen von Artikeln
JP2018144156A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2018144155A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2018144154A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2018144152A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2019028770A (ja) * 2017-07-31 2019-02-21 株式会社キーエンス ロボットシミュレーション装置及びロボットシミュレーション方法
JP2019096036A (ja) * 2017-11-22 2019-06-20 株式会社日立プラントコンストラクション 構造物撤去シミュレーション
WO2020050405A1 (ja) * 2018-09-07 2020-03-12 Ntn株式会社 作業装置

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4413891B2 (ja) * 2006-06-27 2010-02-10 株式会社東芝 シミュレーション装置およびシミュレーション方法並びにシミュレーションプログラム
JP4226623B2 (ja) * 2006-09-29 2009-02-18 ファナック株式会社 ワーク取り出し装置
JP4347386B2 (ja) * 2008-01-23 2009-10-21 ファナック株式会社 加工用ロボットプラグラムの作成装置
US20100017026A1 (en) * 2008-07-21 2010-01-21 Honeywell International Inc. Robotic system with simulation and mission partitions
JP4653836B2 (ja) * 2008-12-12 2011-03-16 ファナック株式会社 シミュレーション装置
US8457791B2 (en) * 2009-03-10 2013-06-04 GM Global Technology Operations LLC Method for dynamically controlling a robotic arm
DE102009034244A1 (de) * 2009-07-22 2011-01-27 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Vermessung eines Bauteils
US8666533B2 (en) * 2009-10-09 2014-03-04 Siemens Product Lifecycle Management Software Inc. System, method, and interface for virtual commissioning of press lines
KR100968944B1 (ko) * 2009-12-14 2010-07-14 (주) 아이알로봇 로봇 동기화 장치 및 그 방법
FI20105732A0 (fi) * 2010-06-24 2010-06-24 Zenrobotics Oy Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä
DE102010032917A1 (de) 2010-07-30 2012-04-19 Brötje-Automation GmbH Verfahren zur Offline-Programmierung eines NC-gesteuerten Manipulators
JP2012135821A (ja) * 2010-12-24 2012-07-19 Seiko Epson Corp ロボットシミュレーション装置、ロボットシミュレーション方法、及びロボットシミュレーションプログラム
JP5659787B2 (ja) * 2010-12-28 2015-01-28 トヨタ自動車株式会社 操作環境モデル構築システム、および操作環境モデル構築方法
EP2479630A1 (de) * 2011-01-25 2012-07-25 Siemens Aktiengesellschaft Verfahren zur kollisionsfreien Überführung einer Anlage aus einem Scheinausmodus in einen Betriebsmodus
US20120290130A1 (en) * 2011-05-10 2012-11-15 Agile Planet, Inc. Method to Model and Program a Robotic Workcell
JP5582126B2 (ja) * 2011-10-13 2014-09-03 株式会社安川電機 ワーク取出システム、ロボット装置および被加工物の製造方法
JP5426719B2 (ja) * 2012-05-18 2014-02-26 ファナック株式会社 ロボットシステムの動作シミュレーション装置
JP5642738B2 (ja) * 2012-07-26 2014-12-17 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP5469216B2 (ja) * 2012-07-31 2014-04-16 ファナック株式会社 バラ積みされた物品をロボットで取出す装置
JP5983442B2 (ja) * 2013-01-31 2016-08-31 富士通株式会社 プログラム、演算装置および演算方法
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
CN104112030A (zh) * 2013-04-19 2014-10-22 昱亨实业有限公司 应用影像处理于自行车车架的自动作业方法与系统
JP5929854B2 (ja) * 2013-07-31 2016-06-08 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
JP5785284B2 (ja) 2014-02-17 2015-09-24 ファナック株式会社 搬送対象物の落下事故を防止するロボットシステム
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
JP5829306B2 (ja) * 2014-05-12 2015-12-09 ファナック株式会社 レンジセンサの配置位置評価装置
US20150331415A1 (en) * 2014-05-16 2015-11-19 Microsoft Corporation Robotic task demonstration interface
DE102014214365A1 (de) * 2014-07-23 2015-07-16 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zum Auffinden fehlerhafter Messabläufe in einem Koordinatenmessgerät und Vorrichtung zur Ausführung dieses Verfahrens
US9955294B2 (en) * 2015-01-13 2018-04-24 Senaya, Inc. Aircraft container tracking device
CN104942808A (zh) * 2015-06-29 2015-09-30 广州数控设备有限公司 机器人运动路径离线编程方法及系统
JP6240689B2 (ja) 2015-07-31 2017-11-29 ファナック株式会社 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法
JP6522488B2 (ja) * 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
DE102016009030B4 (de) * 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
US10959795B2 (en) * 2015-08-25 2021-03-30 Kawasaki Jukogyo Kabushiki Kaisha Remote-control manipulator system and method of operating the same
CN105269565B (zh) * 2015-10-30 2017-04-05 福建长江工业有限公司 一种六轴磨抛工业机器人离线编程及修正方法
EP4186458A1 (en) * 2016-05-23 2023-05-31 MAKO Surgical Corp. System for tracking a physical object
JP6392817B2 (ja) * 2016-08-04 2018-09-19 ファナック株式会社 シミュレーション装置
CN106271265A (zh) * 2016-10-09 2017-01-04 安徽瑞祥工业有限公司 一种汽车生产线焊装点焊机器人离线系统
JP6497374B2 (ja) * 2016-10-27 2019-04-10 株式会社安川電機 ロボットシステム、ロボットシステムの制御方法、動作指令生成装置及びプログラム
JP6765291B2 (ja) * 2016-12-16 2020-10-07 コマツ産機株式会社 シミュレーション装置、シミュレーション方法およびシミュレーションプログラム
JP6823502B2 (ja) * 2017-03-03 2021-02-03 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6889574B2 (ja) * 2017-03-03 2021-06-18 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
WO2018183852A1 (en) 2017-03-30 2018-10-04 Soft Robotics, Inc. User-assisted robotic control systems
DE102017011897B4 (de) * 2017-12-21 2021-07-01 Kuka Deutschland Gmbh Detektion von Objekten mithilfe robotergeführter Sensoren
JP6693981B2 (ja) 2018-02-19 2020-05-13 ファナック株式会社 ロボットの動作をシミュレーションするシミュレーション装置
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
US10967507B2 (en) * 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
CN110370268B (zh) * 2018-09-11 2021-07-30 北京京东乾石科技有限公司 箱内拣选的方法、装置和系统
JP7163115B2 (ja) * 2018-09-12 2022-10-31 キヤノン株式会社 ロボットシステム、ロボットシステムの制御方法、物品の製造方法、制御装置、操作装置、撮像装置、制御プログラム及び記録媒体
DE102018126310B3 (de) * 2018-10-23 2019-11-07 Roboception Gmbh Verfahren zum Erstellen eines Objektmodells zum Greifen eines Objekts, computerlesbares Speichermedium und Robotersystem
JP7346133B2 (ja) * 2019-07-29 2023-09-19 株式会社キーエンス ロボット設定装置及びロボット設定方法
KR20210040613A (ko) 2019-10-04 2021-04-14 삼성전자주식회사 전자 장치 및 그의 제어 방법
US11554482B2 (en) 2020-07-16 2023-01-17 Hitachi, Ltd. Self-learning industrial robotic system
DE102021102128A1 (de) 2021-01-29 2022-08-04 SIM Automation GmbH Greifer, Handhabungsroboter und Verfahren zur Handhabung einer Vielzahl von Bauteilen
US11911919B2 (en) * 2021-03-05 2024-02-27 Mujin, Inc. Method and computing system for performing grip region detection
CN113524187B (zh) * 2021-07-20 2022-12-13 熵智科技(深圳)有限公司 一种工件抓取顺序的确定方法、装置、计算机设备及介质
CN113848759A (zh) * 2021-10-11 2021-12-28 江苏汇博机器人技术股份有限公司 一种机器人搬运仿真系统及其搬运方法
US11919161B2 (en) * 2021-10-15 2024-03-05 Fanuc Corporation Grasp generation for machine tending

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002331480A (ja) * 2001-05-09 2002-11-19 Fanuc Ltd 干渉回避装置
JP2004306182A (ja) * 2003-04-04 2004-11-04 Hitachi Eng Co Ltd 画像処理を用いたロボットのシミュレーションシステム
JP2005103681A (ja) * 2003-09-29 2005-04-21 Fanuc Ltd ロボットシステム
JP2005135278A (ja) * 2003-10-31 2005-05-26 Fanuc Ltd シミュレーション装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0772844B2 (ja) * 1985-10-23 1995-08-02 株式会社日立製作所 ロボット教示装置
US4998050A (en) * 1988-06-13 1991-03-05 Nissan Motor Co., Ltd. System and method for teaching robots
JP2611530B2 (ja) * 1990-10-02 1997-05-21 株式会社デンソー 産業用ロボットの制御装置及びその制御方法
US5524180A (en) * 1992-08-10 1996-06-04 Computer Motion, Inc. Automated endoscope system for optimal positioning
US5657429A (en) * 1992-08-10 1997-08-12 Computer Motion, Inc. Automated endoscope system optimal positioning
JPH11134017A (ja) * 1997-10-27 1999-05-21 Honda Motor Co Ltd オフラインティーチング方法
US6424885B1 (en) * 1999-04-07 2002-07-23 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus
JP3537362B2 (ja) * 1999-10-12 2004-06-14 ファナック株式会社 ロボットシステム用グラフィック表示装置
US20010043721A1 (en) * 2000-03-21 2001-11-22 Sarnoff Corporation Method and apparatus for performing motion analysis on an image sequence
US6587752B1 (en) * 2001-12-25 2003-07-01 National Institute Of Advanced Industrial Science And Technology Robot operation teaching method and apparatus
WO2004106009A1 (ja) * 2003-06-02 2004-12-09 Matsushita Electric Industrial Co., Ltd. 物品操作システムおよび方法、並びに物品管理システムおよび方法
JP4168002B2 (ja) * 2004-04-07 2008-10-22 ファナック株式会社 オフラインプログラミング装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002331480A (ja) * 2001-05-09 2002-11-19 Fanuc Ltd 干渉回避装置
JP2004306182A (ja) * 2003-04-04 2004-11-04 Hitachi Eng Co Ltd 画像処理を用いたロボットのシミュレーションシステム
JP2005103681A (ja) * 2003-09-29 2005-04-21 Fanuc Ltd ロボットシステム
JP2005135278A (ja) * 2003-10-31 2005-05-26 Fanuc Ltd シミュレーション装置

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009115783A (ja) * 2007-11-07 2009-05-28 Mitsubishi Electric Research Laboratories Inc シーン内の物体の3d姿勢を求める方法及びシステム
JP2010108292A (ja) * 2008-10-30 2010-05-13 Japan Society For The Promotion Of Machine Industry 工具衝突防止システム及び工具衝突防止方法
JP2011065399A (ja) * 2009-09-17 2011-03-31 Fujitsu Ltd シミュレーション装置,シミュレーション方法およびシミュレーションプログラム
JP2011083882A (ja) * 2009-10-19 2011-04-28 Yaskawa Electric Corp ロボットシステム
US9511493B2 (en) 2010-03-10 2016-12-06 Canon Kabushiki Kaisha Information processing apparatus and method for controlling the same
JP2011186928A (ja) * 2010-03-10 2011-09-22 Canon Inc 情報処理装置および情報処理装置の制御方法
JP2013536480A (ja) * 2010-05-25 2013-09-19 シーメンス プロダクト ライフサイクル マネージメント ソフトウェアー インコーポレイテッド 閉ループ制御器のプログラミングのための方法およびシステム
JP2013184279A (ja) * 2012-03-09 2013-09-19 Canon Inc 情報処理装置、情報処理方法
WO2013136930A1 (ja) * 2012-03-15 2013-09-19 オムロン株式会社 シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム
JP2013191128A (ja) * 2012-03-15 2013-09-26 Omron Corp シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム
US9679405B2 (en) 2012-03-15 2017-06-13 Omron Corporation Simulator, simulation method, and simulation program
JP2014063327A (ja) * 2012-09-21 2014-04-10 Omron Corp シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP2014124735A (ja) * 2012-12-27 2014-07-07 Seiko Epson Corp ロボット制御方法、ロボット制御装置、プログラム、及びロボット
JP2014137644A (ja) * 2013-01-15 2014-07-28 Yaskawa Electric Corp 認識プログラム評価装置および認識プログラム評価方法
JP2014240110A (ja) * 2013-06-12 2014-12-25 三菱電機株式会社 ビンピッキング性能評価装置及び方法
JP2015089589A (ja) * 2013-11-05 2015-05-11 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
US9415511B2 (en) 2013-11-05 2016-08-16 Fanuc Corporation Apparatus and method for picking up article randomly piled using robot
JP2015100866A (ja) * 2013-11-22 2015-06-04 三菱電機株式会社 ロボットシミュレーション装置、プログラム、記録媒体及び方法
JP2015168043A (ja) * 2014-03-10 2015-09-28 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
US9569568B2 (en) 2014-03-10 2017-02-14 Fanuc Corporation Robot simulation system which simulates takeout process of workpiece
DE102015002760A1 (de) 2014-03-12 2015-09-17 Fanuc Corporation Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
JP2015171745A (ja) * 2014-03-12 2015-10-01 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
DE102015002760B4 (de) * 2014-03-12 2021-01-28 Fanuc Corporation Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
US9529945B2 (en) 2014-03-12 2016-12-27 Fanuc Corporation Robot simulation system which simulates takeout process of workpieces
JP2018501532A (ja) * 2014-10-02 2018-01-18 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft 密結合ロジックおよび物理的シミュレーションを用いた3dグラフィックエディタにおけるオートメーションのプログラミング
US10620917B2 (en) 2014-10-02 2020-04-14 Siemens Aktiengesellschaft Programming automation in a 3D graphical editor with tightly coupled logic and physical simulation
JP2016042378A (ja) * 2015-11-12 2016-03-31 オムロン株式会社 シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム
JP2017107432A (ja) * 2015-12-10 2017-06-15 学校法人立命館 機械システムの生産性能評価装置及び機械システムの生産性能評価方法
DE102017125190A1 (de) 2016-10-28 2018-05-03 Fanuc Corporation Vorrichtung, Verfahren, Programm und Aufzeichnungsmedium zur Simulation des durch Roboter durchgeführten Vorgangs zum Anordnen von Artikeln
DE102017125190B4 (de) 2016-10-28 2022-02-24 Fanuc Corporation Vorrichtung, Verfahren, Programm und Aufzeichnungsmedium zur Simulation des durch Roboter durchgeführten Vorgangs zum Anordnen von Artikeln
US10857673B2 (en) 2016-10-28 2020-12-08 Fanuc Corporation Device, method, program and recording medium, for simulation of article arraying operation performed by robot
JP2018144155A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2018144152A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2018144154A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
US10974386B2 (en) 2017-03-03 2021-04-13 Keyence Corporation Robot simulation apparatus and robot simulation method
JP2018144156A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2019028770A (ja) * 2017-07-31 2019-02-21 株式会社キーエンス ロボットシミュレーション装置及びロボットシミュレーション方法
JP2019096036A (ja) * 2017-11-22 2019-06-20 株式会社日立プラントコンストラクション 構造物撤去シミュレーション
WO2020050405A1 (ja) * 2018-09-07 2020-03-12 Ntn株式会社 作業装置
JPWO2020050405A1 (ja) * 2018-09-07 2021-09-02 Ntn株式会社 作業装置

Also Published As

Publication number Publication date
EP1832947A2 (en) 2007-09-12
US20070213874A1 (en) 2007-09-13
JP4153528B2 (ja) 2008-09-24
CN100590629C (zh) 2010-02-17
CN101034418A (zh) 2007-09-12

Similar Documents

Publication Publication Date Title
JP4153528B2 (ja) ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
US10401844B2 (en) Simulator, simulation method, and simulation program
US10353383B2 (en) Simulator, simulation method, and simulation program
CN112839764B (zh) 用于焊接路径生成的系统和方法
Pan et al. Recent progress on programming methods for industrial robots
JP6601179B2 (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
US11498220B2 (en) Control system and control method
US20150239127A1 (en) Visual debugging of robotic tasks
US20070293986A1 (en) Robot simulation apparatus
JP6671694B1 (ja) 機械学習装置、機械学習システム、データ処理システム及び機械学習方法
CN108687767B (zh) 离线编程装置以及离线编程方法
JP2007326160A (ja) ロボットシミュレーション装置
JP2019018272A (ja) モーション生成方法、モーション生成装置、システム及びコンピュータプログラム
WO2017198299A1 (en) Method of simulating a robotic system
CN114599488A (zh) 机器学习数据生成装置、机器学习装置、作业系统、计算机程序、机器学习数据生成方法及作业机的制造方法
US20170197308A1 (en) Teaching data generating device and teaching data-generating method for work robot
JP4312481B2 (ja) シミュレーション装置,シミュレーション方法及びシミュレーションプログラム
JP2019171501A (ja) ロボットの干渉判定装置、ロボットの干渉判定方法、プログラム
CN115383256A (zh) 自动焊接方法、装置以及系统
US20230032261A1 (en) Program generation apparatus, program generation method, and computer-readable storage medium storing a generation program
JP5857803B2 (ja) 産業用機械の干渉判定装置、干渉判定方法、コンピュータプログラムおよび記録媒体
JP2020175471A (ja) 情報処理装置、情報処理方法、プログラム、及び記録媒体
JP7249221B2 (ja) センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法
Heidari et al. Virtual reality synthesis of robotic systems for human upper-limb and hand tasks
JP7447568B2 (ja) シミュレーション装置およびプログラム

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20071226

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20080321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080617

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080703

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4153528

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130711

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees