JP6540472B2 - シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム - Google Patents

シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム Download PDF

Info

Publication number
JP6540472B2
JP6540472B2 JP2015225785A JP2015225785A JP6540472B2 JP 6540472 B2 JP6540472 B2 JP 6540472B2 JP 2015225785 A JP2015225785 A JP 2015225785A JP 2015225785 A JP2015225785 A JP 2015225785A JP 6540472 B2 JP6540472 B2 JP 6540472B2
Authority
JP
Japan
Prior art keywords
simulation
work
image
simulation apparatus
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015225785A
Other languages
English (en)
Other versions
JP2017094407A (ja
Inventor
克重 大貫
克重 大貫
泰規 阪口
泰規 阪口
はる奈 島川
はる奈 島川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2015225785A priority Critical patent/JP6540472B2/ja
Priority to CN201610991538.2A priority patent/CN106873549B/zh
Priority to US15/366,846 priority patent/US10410339B2/en
Publication of JP2017094407A publication Critical patent/JP2017094407A/ja
Application granted granted Critical
Publication of JP6540472B2 publication Critical patent/JP6540472B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41885Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by modeling, simulation of the manufacturing system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41865Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by job scheduling, process planning, material flow
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32252Scheduling production, machining, job shop
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32357Simulation of material handling, flexible conveyor system fcs
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33286Test, simulation analysator
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Manufacturing & Machinery (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Automation & Control Theory (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、システムの挙動を推定するシミュレーション装置、シミュレーション方法、およびシミュレーションプログラムに関する。
FA(Factory Automation)分野では、視覚センサを用いた自動制御技術が広く利用されている。例えば、ワークなどの対象物を撮像し、その撮像された画像に対してパターンマッチングなどの画像計測処理を実行することで、各種の制御機器を操作するといった自動化処理が実現されている。
例えば、特開2012−187651号公報(特許文献1)は、視覚センサおよびロボットを含むコンベアトラッキングの構成を開示する。このコンベアトラッキングのシステムでは、視覚センサおよびロボットを制御するロボット制御装置とがネットワークを介して接続されている。
上述のような自動制御技術の対象となるシステムの設計または検討などの段階において、システム全体の性能などを予め評価する必要がある。このようなニーズに対して、仮想的にシステムを構築して動作をシミュレーションする技術が実現されている。例えば、特開2013−191128号公報(特許文献2)は、仮想撮像部に対応する実空間の視覚センサを含めた機械システムの統合シミュレーションを行う技術が開示されている。特許文献2に開示される技術においては、3Dシミュレータと視覚センサシミュレータとが連携することで、各タイミングにおける3D空間内のワークの撮像画像を仮想的に生成する。
特開2012−187651号公報 特開2013−191128号公報
例えば、上述の特許文献1に開示されるようなコンベアトラッキングのシステムでは、視覚センサでの計測結果に基づいて各装置への制御指令が生成されることになる。そのため、このようなシステムをシミュレーションした場合には、各装置の挙動とともに、視覚センサでの計測結果を併せて確認したいというニーズが存在する。
また、例えば、あるコンベア上のワークを別のコンベアに移動して配置するような場合には、ワークの向きを予め設定された方向に整えるような処理もなされる。そのため、このようなワークに対する処理が適切に実施されているかを確認したいというニーズも存在する。
本発明のある局面によれば、対象物に対して処理装置が処理を行うシステムの挙動を推定するシミュレーション装置が提供される。シミュレーション装置は、システムを3次元仮想空間内に仮想的に構築する構築手段と、3次元仮想空間内の所定の場所に予め設定される第1の領域に関連付けて、被写体として対象物の少なくとも一部を含む入力画像に対する画像計測処理を行う計測手段とを含む。画像計測処理は、入力画像から、予め設定された1または複数の参照情報に対応する部分を探索する処理を含む。シミュレーション装置は、計測手段による計測結果に基づいて処理装置に対する制御指令を生成する制御演算を実行する実行手段と、実行手段により出力される制御指令の時系列データ、および、計測手段による計測結果に基づいて、入力画像から探索された対象物の種別および当該対象物の向きについての情報とともに、探索された対象物の挙動をシステム上で再現する再現手段とを含む。
好ましくは、対象物の種別は、予め設定された複数の参照情報のうち、対象物との対応の度合いが最も確からしいものを示す情報を含む。
好ましくは、対象物の種別は、対象物と予め設定された参照情報との間の対応の度合いが予め設定された条件を満たしているか否かの情報を含む。
好ましくは、再現手段は、対象物の種別ごとに、色、形状、大きさの少なくとも1つを異ならせて表示する。
好ましくは、シミュレーション装置は、対象物の種別ごとの表示に用いる色、形状、大きさの少なくとも1つの設定を受付ける入力手段をさらに含む。
好ましくは、計測手段は、入力画像に含まれているいずれかの参照情報に対応する部分の回転角を計測結果として出力し、再現手段は、計測結果の回転角に基づいて、対象物の向きについての情報を生成する。
好ましくは、再現手段は、対象物の向きを示すオブジェクトを対象物に付加して表示する。
好ましくは、再現手段は、対象物の向きに対応付けて、再現する対象物の外観に特徴を付加して表示する。
好ましくは、システムは対象物を搬送するための搬送機を含み、所定の場所は、搬送機の搬送路上である。
好ましくは、再現手段は、対象物を搬送する搬送機の位置または変位を示す情報に基づいて、3次元仮想空間内の対象物の表示位置を順次更新する。
本発明の別の局面によれば、対象物に対して処理装置が処理を行うシステムの挙動を推定するコンピュータによって実行されるシミュレーション方法が提供される。シミュレーション方法は、システムを3次元仮想空間内に仮想的に構築するステップと、3次元仮想空間内の所定の場所に予め設定される第1の領域に関連付けて、被写体として対象物の少なくとも一部を含む入力画像に対する画像計測処理を行うステップとを含む。画像計測処理は、入力画像から、予め設定された1または複数の参照情報に対応する部分を探索する処理を含む。シミュレーション方法は、画像計測処理の計測結果に基づいて処理装置に対する制御指令を生成する制御演算を実行するステップと、制御指令の時系列データおよび計測結果に基づいて、入力画像から探索された対象物の種別および当該対象物の向きについての情報とともに、探索された対象物の挙動をシステム上で再現するステップとを含む。
本発明のさらに別の局面によれば、対象物に対して処理装置が処理を行うシステムの挙動を推定するシミュレーションプログラムが提供される。シミュレーションプログラムはコンピュータに、システムを3次元仮想空間内に仮想的に構築するステップと、3次元仮想空間内の所定の場所に予め設定される第1の領域に関連付けて、被写体として対象物の少なくとも一部を含む入力画像に対する画像計測処理を行うステップとを実行させる。画像計測処理は、入力画像から、予め設定された1または複数の参照情報に対応する部分を探索する処理を含む。シミュレーションプログラムはコンピュータに、画像計測処理の計測結果に基づいて処理装置に対する制御指令を生成する制御演算を実行するステップと、制御指令の時系列データおよび計測結果に基づいて、入力画像から探索された対象物の種別および当該対象物の向きについての情報とともに、探索された対象物の挙動をシステム上で再現するステップとを実行させる。
本発明によれば、制御指令に従って処理装置が処理する対象物の位置および向きの両方を確認しつつ、システムの挙動を評価できるので、システムの妥当性を一見して把握することができる。
本実施の形態に係るシミュレーション装置でのシミュレーションの対象となるシステム構成例を示す模式図である。 本実施の形態に係るシミュレーション装置を用いたシミュレーションの方法を説明するための模式図である。 本実施の形態に係るシミュレーション装置のハードウェア構成を示す模式図である。 本実施の形態に係るシミュレーション装置の機能構成を示す模式図である。 本実施の形態に係るシミュレーション装置の機能構成の別形態を示す模式図である。 本実施の形態に係るシミュレーション装置を用いたシミュレーションの処理手順を示すフローチャートである。 本実施の形態に係るシミュレーション装置での画像計測処理の一例を説明するための模式図である。 本実施の形態に係るシミュレーション装置での画像計測処理による計測結果の内容を説明するための模式図である。 本実施の形態に係るシミュレーション装置が提供するシミュレーション結果を再現するユーザインターフェイス画面の一例を示す図である。 本実施の形態に係るシミュレーション装置が提供するシミュレーション結果の表示態様に対するユーザ設定の一例を説明するための模式図である。 本実施の形態に係るシミュレーション装置が提供するシミュレーション結果の表示態様に対するユーザ設定の別の一例を説明するための模式図である。 本実施の形態に係るシミュレーション装置が提供するシミュレーション結果の表示態様に対するユーザ設定のさらに別の一例を説明するための模式図である。 本実施の形態に係るシミュレーション装置が提供するシミュレーション結果において種別の確認を支援するためのユーザインターフェイス画面の一例を示す図である。 本実施の形態に係るシミュレーション装置が提供するシミュレーション結果におけるワークの向きについての表示形態の一例を示す図である。 本実施の形態に係るシミュレーション装置が提供するシミュレーション結果におけるワークの向きについての表示形態の別の一例を示す図である。 本実施の形態に係るシミュレーション装置が提供するシミュレーション結果を再現するユーザインターフェイス画面の別の一例を示す図である。
本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。
<A.概要>
本実施の形態に係るシミュレーション装置は、システムの挙動を推定する。より具体的には、本実施の形態に係るシミュレーション装置は、任意の入力画像を用いて、仮想的に構築したシステムの挙動などを推定できる。本実施の形態においては、典型例として、搬送経路上を搬送される対象物に対して処理装置が処理を行うシステムをシミュレーション対象とした場合について説明するが、これに限られることなく、任意のシステムへの応用が可能である。
以下の説明では、搬送経路上で対象物を搬送する搬送機の一例として、1または複数のコンベアを採用するとともに、対象物に対して処理を行う処理装置の一例として1または複数のロボットを想定する。但し、搬送機および処理装置については、これらに限られることなく、対象のシステムに応じて適宜選択される。以下では、対象物を「ワーク」とも称し、ワークとしては、最終生成物あるいはその一部、または、中間生成物あるいはその一部など、視覚センサにて計測可能なものであれば、どのようなものであってもよい。
先に、本実施の形態に係るシミュレーション装置でのシミュレーションの概要について説明する。
図1は、本実施の形態に係るシミュレーション装置でのシミュレーションの対象となるシステム構成例を示す模式図である。図1を参照して、一例として、コンベアトラッキングシステム1では、コンベア230上を連続的に搬送されるワーク232が所定のトラッキングエリア231まで到達すると、トラッキングエリア231内のワーク232をロボット210で把持して、コンベア240まで搬送し、コンベア240上に配置する。このようなロボット210による把持・搬送・配置の一連の動作は、「ピック&プレース動作」とも称される。このピック&プレース動作において、ロボット210がコンベア230上のワーク232を把持した後、ワーク232を回転させて予め設定された向きに揃えるような処理がなされる場合もある。
ロボット210によるピック&プレース動作は、コンベア230の一部に設定された撮像エリア221を撮像部222にて撮像するとともに、視覚センサ220が撮像部222の撮像により取得された入力画像に対してパターンマッチングなどの画像計測処理を行うことで、ワーク232の位置、種別、向きなどの情報を含む計測結果が取得される。
制御装置200は、視覚センサ220からの計測結果に基づいて、予め設定された制御ロジックを実行することで、ワーク232の位置を順次更新(すなわち、トラッキング)するとともに、ロボット210に対する制御指令を生成する。制御装置200としては、典型的には、プログラマブルコントローラ(以下「PLC」とも称す。)を用いて実装される。
制御装置200は、ロボット210に対する制御指令を生成する際には、ロボット210の状態値、コンベア230を駆動する駆動ローラ234に結合されたエンコーダ236からのエンコーダ値(エンコーダ値1)、および、コンベア240を駆動する駆動ローラ244に結合されたエンコーダ246からのエンコーダ値(エンコーダ値1)を参照する。制御装置200および視覚センサ220は、ネットワーク202を介してデータ通信可能に接続されており、視覚センサ220からの計測結果は、ネットワーク202を介して、制御装置200へ伝送される。
図1に示すようなコンベアトラッキングシステム1を導入するにあたって、処理能力(タクトタイムなど)および処理の精度などを事前に評価したいというニーズが存在する。すなわち、コンベアトラッキングシステム1を現実に作成して、その処理能力を検討することが、コスト的または時間的な制約上、不可能な場合も多い。本実施の形態に係るシミュレーション装置は、このようなコンベアトラッキングシステム1の挙動をより簡便に推定したいというニーズに対処するものである。
より具体的には、本実施の形態に係るシミュレーション装置は、シミュレーション対象のシステムを3次元仮想空間内に仮想的に構築するとともに、当該仮想的に構築したシステムに対して、任意の入力画像を融合されることで、より効率的なシミュレーションを実現する。
図2は、本実施の形態に係るシミュレーション装置を用いたシミュレーションの方法を説明するための模式図である。図2を参照して、シミュレーション装置は、シミュレーション対象のコンベアトラッキングシステム2全体をモデル化するとともに、撮像部222での撮像を模擬するために、任意の入力画像がこのシステムモデルに与えられる。
コンベアトラッキングシステム1のシステムモデルに与えられる入力画像としては、設計上想定されている仕様(例えば、ワーク232の移動速度または時間あたりの個数など)を表現できる入力画像が利用される。典型的には、類似の製造ラインにて現実に撮像された入力画像を用いることが想定される。
シミュレーションに用いられる入力画像としては、既存のシステム(例えば、シミュレーション対象のシステムが更新後のシステムである場合の更新前のシステム)にて撮像されたものが想定されるが、これに限らず、任意のシステムおよび状況において撮像されたものを用いてもよい。すなわち、シミュレーションの対象物(典型的には、ワーク232)についての時間的変化の情報を含むものであれば、どのような入力画像を用いてもよい。
また、入力画像としては、動画像データであってもよいし、時系列に並べられた複数の静止画像データであってもよい。さらに、動画像データの再生速度、または、複数の静止画像データの更新速度を適宜調整することで、制御対象となる対象物の時間的変化(すなわち、移動速度)を調整することもできる。システムモデルに対して与える入力画像をこのように調整することで、制御対象の時間的変化の最適値などについても、シミュレーションにて決定することもできる。
さらに、複数の静止画像としては、現実に連続的に撮像した画像ではなく、異なるシーンで撮像された複数の画像を適宜並べて時間的に変化させたものとして取り扱うことで、動入力画像とみなしてもよい。この場合、生成される複数の画像間には、ワークの重なりは生じなくなるが、シミュレーションを実施する際の事実上の問題はない。
このような視覚センサを含むシステムをシミュレーションするにあたって、視覚センサによるワークの計測結果、および、当該計測結果に基づく制御装置の挙動などを評価したいというニーズがある。上述のピック&プレース動作においては、入力画像に対する画像計測処理によってワークの情報(例えば、ワークの種別など)が正しく得られているか、あるいは、ロボットのピック&プレース動作によって、ワークの向きが正しく揃えられているか、といった点を評価する必要がある。
そこで、本実施の形態に係るシミュレーション装置100は、画像計測処理によって取得されたワークの種別および当該対象物の向きについての情報とともに、ワークの挙動をシステム上で再現できるようになっている。以下、本実施の形態に係るシミュレーション装置100の詳細について説明する。
<B.シミュレーション装置のハードウェア構成>
次に、本実施の形態に係るシミュレーション装置100のハードウェア構成について説明する。本実施の形態に係るシミュレーション装置100は、典型的には、1または複数のコンピュータがプログラムを実行することで実現される。
図3は、本実施の形態に係るシミュレーション装置100のハードウェア構成を示す模式図である。図3を参照して、シミュレーション装置100は、一例として、汎用的なコンピュータアーキテクチャに準じて構成されるコンピュータからなる。シミュレーション装置100は、プロセッサ102と、主メモリ104と、入力部106と、表示部108と、ネットワークインターフェイス110と、ハードディスク(HDD:Hard Disk Drive)120と、光学ドライブ112と、通信インターフェイス116とを含む。これらのコンポーネントは、内部バス118を介して互いに通信可能に接続されている。
プロセッサ102は、ハードディスク120に格納されているプログラムを主メモリ104に展開して実行することで、後述するような機能および処理を実現する。主メモリ104は、揮発性メモリにより構成され、プロセッサ102によるプログラム実行に必要なワークメモリとして機能する。
入力部106は、典型的には、キーボード、マウス、タッチパネル、タッチパッドなどからなり、ユーザからの操作を受付ける。表示部108は、ディスプレイ、インジケータなどからなり、ユーザに対して各種情報を提示する。
ネットワークインターフェイス110は、サーバ装置などの外部機器との間でネットワークを介してデータを遣り取りする。光学ドライブ112は、光学ディスク114などから、その中に格納されている各種プログラムを読み出して、ハードディスク120にインストールする。通信インターフェイス116は、例えば、USB(Universal Serial Bus)などの通信インターフェイスからなり、補助記憶装置などの外部機器との間でローカル通信を介してデータを遣り取りする。
ハードディスク120は、OS(Operating System)122およびシミュレーションプログラム124などのシミュレーション装置として機能するために必要なプログラムを格納するとともに、シミュレーションに用いる予め取得された入力画像である画像データ群140についても格納する。
図3には、光学ドライブ112を介して必要なプログラムをシミュレーション装置100にインストールする構成例を示すが、これに限られることなく、ネットワーク上のサーバ装置などからダウンロードするようにしてもよい。
このように汎用コンピュータを用いて実現する場合には、本実施の形態に係る機能を提供するためのプログラムに加えて、コンピュータの基本的な機能を提供するためのOS(Operating System)がインストールされていてもよい。この場合には、本実施の形態に係るシミュレーションプログラムは、OSの一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の順序および/またはタイミングで呼出して処理を実行するものであってもよい。すなわち、本実施の形態に係るプログラムは、上記のようなモジュールを含んでおらず、OSと協働して処理が実行される場合もある。そのため、本実施の形態に係るプログラムとしては、このような一部のモジュールを含まない形態であってもよい。
本実施の形態に係るプログラムは、他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には、上記のような組合せられる他のプログラムに含まれるモジュールを含んでおらず、当該他のプログラムと協働して処理が実行される。すなわち、本実施の形態に係るシミュレーションプログラムとしては、このような他のプログラムに組込まれた形態であってもよい。
図3には、汎用コンピュータによってシミュレーション装置100を実現する例を示すが、これに限られることなく、その全部または一部を専用回路(例えば、ASIC(Application Specific Integrated Circuit)など)を用いて実現してもよい。さらに、一部の処理を外部装置に担わせるようにしてもよい。
図3には、本実施の形態に係るシミュレーション装置100が単一の装置によって実装される例を示すが、複数の装置が連携してシミュレーション装置100を実現してもよい。すなわち、本実施の形態に係るシミュレーション装置100は、複数の独立した装置の組み合わせによって構成されるシステムも含み得る。
<C.シミュレーション装置の機能構成>
次に、本実施の形態に係るシミュレーション装置100の機能構成について説明する。
図4は、本実施の形態に係るシミュレーション装置100の機能構成を示す模式図である。図4を参照して、シミュレーション装置100は、ソフトウェア機能として、視覚センサシミュレータ150と、コントローラシミュレータ160と、再現モジュール170と、ユーザインターフェイスモジュール180と、エンコーダエミュレータ190とを含む。これらの機能モジュール群は、典型的には、プロセッサ102がシミュレーションプログラム124(いずれも図3参照)を実行することで実現される。
ユーザインターフェイスモジュール180は、設定パラメータ152、制御プログラム162、3次元設計データ172、およびワーク表示態様設定パラメータ174についてのユーザによる設定・作成を支援するための操作画面などを提供する。また、ユーザインターフェイスモジュール180は、再現モジュール170によるシミュレーション結果の表示に際しても、必要なユーザインターフェイスを提供する。
ユーザインターフェイスモジュール180は、3次元設計データ172を扱う機能としてモデル構築モジュール182を含む。モデル構築モジュール182は、シミュレーション対象のシステムを3次元仮想空間内に仮想的に構築する。より具体的には、モデル構築モジュール182は、3次元仮想空間を表示するとともに、シミュレーション対象のシステムを当該3次元仮想空間内に構築するための設定・操作画面を提供する。
本実施の形態に係るシミュレーション装置100においては、典型的には、搬送機(典型例として、コンベア)を含むシステムが3次元仮想空間内に仮想的に構築される。そして、図2に示すように、搬送機(コンベア)に関連付けられた搬送経路上の第1の場所に視覚センサ220が仮想配置されるとともに、搬送経路上の第2の場所に制御装置200が仮想配置される。また、システムモデル内に視覚センサの撮像エリアが設定される。図1および図2に示すようなピック&プレース動作に向けられたシステムモデルにおいては、ワークを把持(ピック)するエリア(トラッキングエリア)、および、ワークを配置(プレース)するエリアが設定されてもよい。
視覚センサシミュレータ150は、視覚センサ220での処理を模擬するモジュールであり、3次元仮想空間内の搬送経路(コンベア)上に予め設定される撮像エリアに関連付けて、被写体としてワークの少なくとも一部を含む入力画像に対する画像計測処理を行う。より具体的には、視覚センサシミュレータ150は、コントローラシミュレータ160からの取込指令(典型例として、トリガー信号)に応答して、予め取得された画像データ群140のうち対象の画像データを取込んで、視覚センサ220(図1および図2参照)に対応する画像計測処理を行う。典型的には、視覚センサシミュレータ150で実行される画像計測処理は、入力画像から、予め設定された1または複数の参照情報に対応する部分を探索する処理を含む。
視覚センサシミュレータ150での画像計測処理により得られた計測結果は、コントローラシミュレータ160へ出力される。すなわち、図1および図2に示すコンベアトラッキングシステムにおける、ネットワーク202を介した、視覚センサ220から制御装置200への計測結果の伝送に相当する処理が実行される。ここで、視覚センサシミュレータ150における画像計測処理は、予め設定された設定パラメータ152に従って実行される。
コントローラシミュレータ160は、視覚センサシミュレータ150による計測結果に基づいて、処理装置の一例であるロボットに対する制御指令を生成する制御演算を実行する。コントローラシミュレータ160は、制御装置200(図1および図2参照)での処理を模擬するモジュールであり、予め作成された制御プログラム162に従って、制御演算(シーケンス命令、モーション命令、各種機能命令など)を実行する。コントローラシミュレータ160での制御演算に係る入力および出力を含むトレースデータは、トレースデータとして、再現モジュール170へ出力される。
トレースデータは、コントローラシミュレータ160による出力されるロボットに対する制御指令の時系列データ、および、視覚センサシミュレータ150による計測結果を含む。
コントローラシミュレータ160で実行される制御演算は、視覚センサシミュレータ150に対して画像データの取込指令(トリガー信号)を生成するための処理を含む。すなわち、コントローラシミュレータ160は、予め設定された条件が満たされると、トリガー信号を発生する。予め設定された条件とは、例えばコンベアが所定距離だけ移動したこと、あるいは、予め設定された周期が到来したこと、などを用いることができる。後述するように、コンベアの移動距離などは、エンコーダエミュレータ190が発生する情報などに基づいて検知される。
再現モジュール170は、コントローラシミュレータ160により出力されるトレースデータ(ロボットに対する制御指令の時系列データ、および、視覚センサシミュレータ150による計測結果を含む)に基づいて、入力画像から探索されたワークの種別および当該ワークの向きについての情報とともに、当該探索されたワークの挙動をシステム上で再現する。より具体的には、再現モジュール170は、定義ファイルである3次元設計データ172に基づいて、3次元仮想空間内に仮想的に構築されたシステムを視覚化するとともに、コントローラシミュレータ160からのトレースデータに基づいて、システムでのワークおよびロボットの時間的変化などを再現する。
再現モジュール170は、ワーク表示態様設定モジュール171を含む。ワーク表示態様設定モジュール171は、ワーク表示態様設定パラメータ174に基づいて、再現するワークの表示態様などを決定する。より具体的には、ワーク表示態様設定モジュール171は、ワーク表示態様設定パラメータ174に従って、3次元仮想空間内に表示するワークの色、形状、大きさ、向きなどを設定および変更する。再現されるワークに付与される情報の詳細については、後述する。
このように、再現モジュール170は、シミュレーション結果の時間変化をアニメーションまたは動画の状態でシミュレーション装置100の表示部108(図3)上に表現する。
図4に示す機能構成においては、コントローラシミュレータ160が、コントローラシミュレータ160による出力されるロボットに対する制御指令の時系列データ、および、視覚センサシミュレータ150による計測結果を含むトレースデータを出力するが、これに限らず、再現モジュール170がそれぞれのデータを合成して、システムの挙動を再現するようにしてもよい。
図5は、本実施の形態に係るシミュレーション装置100の機能構成の別形態を示す模式図である。図5に示すシミュレーション装置100は、ソフトウェア機能として、図4に示す機能モジュールに加えて、計測結果格納部130を含む。計測結果格納部130は、視覚センサシミュレータ150での画像計測処理により得られた計測結果をエンコーダ値と対応付けて順次格納する。なお、計測結果およびエンコーダ値に加えて、その画像計測処理の対象となった入力画像を格納するようにしてもよい。
再現モジュール170は、計測結果格納部130に格納されるそれぞれの計測結果に基づくワークを、対応するエンコーダ値に基づいて3次元仮想空間内に表示することで、システムでのワークおよびロボットの時間的変化などを再現する。
図5に示す機能構成に採用することで、例えば、ワークの挙動を再現する際に、画像計測処理に用いられた入力画像そのものを併せて表示することもできる。
上述の図4および図5には、コントローラシミュレータ160により出力されるトレースデータを用いて、再現モジュール170が構築されたシステムの挙動を再現する構成例を示すが、必ずしも、シミュレーション装置100内に再現モジュール170を実装する必要はない。例えば、コントローラシミュレータ160により出力されるトレースデータを外部装置または外部アプリケーションへ出力し、当該外部装置または外部アプリケーションがシステムの挙動を再現するようにしてもよい。あるいは、再現モジュール170は、システムの挙動を再現するための動画像データを生成して任意の記憶媒体に格納するのみであり、当該動画像データを別のアプリケーションが再生するようにしてもよい。
エンコーダエミュレータ190は、搬送機の移動に関連付けて、当該搬送機の位置または変位を示す情報を生成する。一例として、エンコーダエミュレータ190は、基準位置からの変位量を示すエンコーダ値を出力してもよいし、搬送機(コンベア)の単位時間あたりの移動量に比例するパルスを発生してもよい。すなわち、エンコーダ値は、コンベアの位置を示すことになり、単位時間あたりのパルス数は、コンベアの速度を示すことになる。
<D.処理手順>
次に、本実施の形態に係るシミュレーション装置100を用いたシミュレーションの処理手順について説明する。
図6は、本実施の形態に係るシミュレーション装置100を用いたシミュレーションの処理手順を示すフローチャートである。図6を参照して、まず、シミュレーション装置100は、システムモデルの設定を受付ける(ステップS2)。システムモデルの設定は、システムを構成する各装置の配置位置、搬送機であるコンベアの移動速度などの設定を含む。システムモデルの設定に基づいて、シミュレーション装置100(モデル構築モジュール182)は、シミュレーション対象のシステム(システムモデル)を3次元仮想空間内に仮想的に構築する。
シミュレーション装置100(ユーザインターフェイスモジュール180)は、システムモデル内に設定される視覚センサの撮像エリアを受付ける(ステップS4)。すると、構築されたシステムと設定された撮像エリアとの相対位置関係に基づいて、計測結果を制御演算の入力値に変換するための変換パラメータであるキャリブレーションパラメータが算出される。
続いて、シミュレーション装置100(ユーザインターフェイスモジュール180)は、システムモデルを制御するための制御プログラムを受付ける(ステップS6)。この制御プログラムは、システムに関連付けられたプログラムであり、コントローラシミュレータ160で実行されることになる。
シミュレーション装置100(ユーザインターフェイスモジュール180)は、視覚センサシミュレータ150で実行されるべき画像計測処理の内容設定を受付ける(ステップS8)。ここで設定される内容としては、画像計測処理の処理内容の指定、および、指定された処理内容に応じた参照情報(モデル画像、モデル画像から算出される特徴量など)を含む。
以上のような手順により、シミュレーションを行うための設定が完了する。
シミュレーションの開始が指示されると、指定された時間間隔に従って、シミュレーション装置100(エンコーダエミュレータ190)は、仮想的に配置されたコンベアの位置または移動量を示すエンコーダ値を更新する(ステップS10)。シミュレーション装置100(コントローラシミュレータ160)は、トリガー信号を発生する条件が満たされているか否かを判断する(ステップS12)。トリガー信号を発生する条件が満たされていれば(ステップS12においてYESの場合)、仮想的にトリガー信号を発生する(ステップS14)。トリガー信号を発生する条件が満たされていなければ(ステップS12においてNOの場合)、ステップS14の処理はスキップされる。
トリガー信号の発生に応答して、シミュレーション装置100(視覚センサシミュレータ150)は、予め取得された画像データ群のうち対象の画像データを取込み(ステップS100)、画像計測処理を実行する(ステップS102)。シミュレーション装置100(視覚センサシミュレータ150)は、画像計測処理の実行後、その計測結果を出力する(ステップS104)。このステップS100〜S104の処理は、コントローラシミュレータ160での処理とは独立して実行される。
続いて、シミュレーション装置100(コントローラシミュレータ160)は、画像計測処理の計測結果が更新されているか否かを判断する(ステップS16)。すなわち、視覚センサシミュレータ150から新たな計測結果を受信したか否かが判断される。画像計測処理の計測結果が更新されていれば(ステップS16においてYESの場合)、シミュレーション装置100(コントローラシミュレータ160)は、当該更新された画像計測処理の計測結果に基づいて制御演算を実行する(ステップS18)。画像計測処理の計測結果が更新されていなければ(ステップS16においてNOの場合)、ステップS18の処理はスキップされる。
シミュレーション装置100(コントローラシミュレータ160)は、この制御演算の実行によって算出されるそれぞれの値を時間情報であるエンコーダ値に関連付けて格納する(ステップS20)。
シミュレーション装置100は、予め設定されているシミュレーション期間が満了したか否かを判断する(ステップS22)。予め設定されているシミュレーション期間が満了していなければ(ステップS22においてNOの場合)、ステップS10以下の処理が繰返される。
これに対して、予め設定されているシミュレーション期間が満了していれば(ステップS22においてYESの場合)、シミュレーション装置100は、ステップS20において順次格納されたトレースデータを用いて、システムモデルの挙動を再現する(ステップS24)。
ユーザ操作に応じて、シミュレーション装置100は、システムモデルの挙動を再現する際に用いられるワークの表示態様の設定が変更されると(ステップS26においてYESの場合)、設定されたワークの表示態様に従って、システムモデルの挙動が再現される(ステップS24)。
また、シミュレーション装置100は、ユーザ操作に応じて、再現されるシステムモデルの挙動の時間間隔および更新間隔などを適宜変更することができる。
以上のような処理手順によって、システムモデルにおける処理能力(タクトタイムなど)および処理の精度などを事前に評価できる。
<E.画像計測処理>
次に、本実施の形態に係るシミュレーション装置において想定されている画像計測処理は、入力画像から、予め設定された1または複数の参照情報に対応する部分を探索する処理を含む。このような画像計測処理の一例について説明する。但し、画像計測処理としては、以下に例示するものに限らず、様々な画像計測処理が利用可能である。
図7は、本実施の形態に係るシミュレーション装置100での画像計測処理の一例を説明するための模式図である。図7(A)には、ワークの種別を判断するのに適した処理を示し、図7(B)には、ワークの良否を判断するのに適した処理を示す。
図7(A)を参照して、例えば、予め設定された参照情報として、識別したい各ワークを被写体として撮像したモデル画像を複数登録しておき、搬送経路上のワークを順次撮像した入力画像と当該予め登録された複数のモデル画像との間の対応の度合い(典型的には、相関値)を順次算出する。そして、算出されたそれぞれのモデル画像との間の相関値のうち、予め設定されたしきい値を超え、かつ、最も高いものを決定し、その決定した相関値に対応するモデル画像からワークの種別を決定する。
このように、ワークの種別は、予め設定された複数のモデル画像(参照情報)のうち、ワークとの対応の度合いが最も確からしいものを示す情報を含む。なお、参照情報としては、サンプルとなるワークを撮像して得られる入力画像そのものを用いてもよいし、入力画像から特徴量(例えば、エッジ量など)を抽出した特徴画像を用いてもよい。
このような画像計測処理を採用することで、ベルトコンベア上を複数種別のワークが混在して搬送されるシステムであっても、各ワークがいずれの種別であるかを判別できる。
図7(B)を参照して、例えば、予め設定された参照情報として、良品のワークを被写体として撮像したモデル画像を登録しておき、搬送経路上のワークを順次撮像した入力画像と当該予め登録された複数のモデル画像との間の対応の度合い(典型的には、相関値)を算出する。そして、算出されたそれぞれのモデル画像との間の相関値が予め設定されたしきい値を超えていれば、対象のワークは良品と判断でき、そうでなければ、対象のワークは不良品であると判断できる。
このように、ワークの種別は、ワークと予め設定されたモデル画像(参照情報)との間の対応の度合いが予め設定された条件を満たしているか否かの情報を含む。なお、参照情報としては、サンプルとなるワークを撮像して得られる入力画像そのものを用いてもよいし、入力画像から特徴量(例えば、エッジ量など)を抽出した特徴画像を用いてもよい。
このような画像計測処理を採用することで、ベルトコンベア上を複数のワークが搬送されるシステムにおいて、各ワークに対する良品判断を行うことができる。
図8は、本実施の形態に係るシミュレーション装置100での画像計測処理による計測結果の内容を説明するための模式図である。図8には、予め設定されたモデル画像を用いた入力画像に対するパターンマッチングの例を示す。
図8には、入力画像内のオブジェクトがモデル画像と対応したと判断されており、その計測結果として、(x,y,θ,種別/良否/相関値)が出力される。すなわち、画像計測処理の計測結果は、典型的には、(1)入力画像内の探索された部分(オブジェクト)の中心位置を示す座標値(x,y)、(2)入力画像内の探索された部分のモデル画像に対する回転角θ、(3)入力画像内でマッチングしたモデル画像の種別を含む。回転角θは、入力画像に含まれているいずれかのモデル画像(参照情報)に対応する部分の回転角に相当する。
上述したように、ワークがいずれのモデル画像と一致したのかを示す種別に代えて、特定のモデル画像との対応の度合いが予め設定された条件(しきい値)を満たしているか否か(良否)、あるいは、特定のモデル画像との対応の度合いを示す値(相関値)を含めてもよい。
制御装置200での処理を模擬するコントローラシミュレータ160(図4および図5参照)は、視覚センサ220での処理を模擬する視覚センサシミュレータ150(図4および図5参照)からの図8に示すような計測結果を、システムモデルでの座標系の座標に変換した上で制御指令を生成する。このとき、各ワークの検出された回転角に基づいて、必要な処理(例えば、各ワークの向きを揃えるための処理)を実施するための制御指令も生成する。
<F.シミュレーション結果の再現におけるワークの表示位置>
次に、本実施の形態に係るシミュレーション装置100によるシステムモデルの挙動を再現する際のワーク位置の算出処理について説明する。具体的には、シミュレーション装置100(再現モジュール170)は、ワークを搬送するコンベアの位置または変位を示す情報に基づいて、3次元仮想空間内のワークの表示位置を順次更新する。
図8を参照して説明したように、画像計測処理の計測結果は、入力画像内の探索された部分(オブジェクト)の中心位置を示す座標値(x,y)を含む。この座標値(x,y)は、画像計測処理で用いられるローカル座標系での値であり、3次元仮想空間内の座標値に変換する必要がある。
具体的には、シミュレーション装置100は、画像計測処理で用いられる入力画像に設定されるカメラ座標系の座標(x,y)を、3次元仮想空間を定義するワールド座標系の座標(X,Y)に変換する変換係数A〜Fを用いて、視覚センサシミュレータ150にて検出されたワークの座標値(x,y)からコントローラシミュレータ160に入力されたときの初期表示位置を以下のように算出できる。
ワークの初期表示位置X0=A×x+B×y+C
ワークの初期表示位置X0=D×x+E×y+F
エンコーダ値の1パルスあたりの、コンベアのX軸方向の移動量XdおよびY軸方向の移動量Ydとを用いて、エンコーダ値の変位量Etにおけるワークの表示位置は、以下のように算出できる。
ワークの表示位置(X)=Xd×Et+X0
ワークの表示位置(Y)=Yd×Et+Y0
なお、エンコーダ値の絶対値を用いる場合には、各ワークが初期表示された時点のエンコーダ値から偏差を上述の算出式に適用することもできる。
シミュレーション装置100は、このような算出式に従って、各ワークの表示位置を順次更新する。
<G.シミュレーション結果の視覚化>
次に、本実施の形態に係るシミュレーション装置100によるシステムモデルの挙動を視覚化する処理について説明する。本実施の形態においては、画像計測処理により探索されたワークの種別および当該ワークの向きについての情報とともに、当該ワークの挙動がシステムモデル上で再現される。
図9は、本実施の形態に係るシミュレーション装置100が提供するシミュレーション結果を再現するユーザインターフェイス画面の一例を示す図である。図9に示すユーザインターフェイス画面に関して、3次元仮想空間内のオブジェクトを任意の方向からレンダリングすることができる。すなわち、ユーザインターフェイス画面に描画される視点は、ユーザが任意に変更できる。
図9に示されるシステムモデルにおいて、把持(ピック)されるワークを搬送するコンベア230、および、配置(プレース)されたワークを搬送するコンベア240が並列に配置されている。そして、コンベア230およびコンベア240に対応付けて、2つのロボット311および313が配置されている。このシステムモデルでは、紙面左側から紙面右側に向けてワーク232がコンベア230により搬送される。ワーク232が予め設定されたトラッキングエリア231またはトラッキングエリア233に到着すると、それぞれロボット311またはロボット313が到着したワーク232を把持して、コンベア240にワークを配置(プレース)する。ロボット311およびロボット313は、それぞれコンベア240に関連付けて設定されたトラッキングエリア235および237にワーク232を配置する。コンベア230を搬送されるワーク232はランダムな方向を向いているが、コンベア240に配置される場合には、予め設定された向きに揃えられるとする。
また、アプリケーションの一例として、コンベア230上には、少なくとも2種類のワーク232が存在する。ロボット311は、ある特定の種別のワークをピック&プレースするように制御され、ロボット313は、別の種別のワークをピック&プレースするように制御される。ワークの形状などが種別に応じて異なっている場合もあり、このような場合には、各種別のワークにそれぞれ適したツールを装着したロボットを専用化して使用することが好ましいからである。
ワーク232の各々は、ワークの種別およびワークの向きについての情報が付与される。
図9に示すユーザインターフェイス画面においては、ワーク232の種別は、ワーク232の外観に付与される色を用いて識別可能になっている。すなわち、ロボット311がピック&プレースするワーク232の外観に付与される色と、ロボット313がピック&プレースするワーク232の外観に付与される色とは、互いに異なったものとなっている。上述したように、ワークの種別は、対象のワークがいずれのモデル画像に対応するのかといった情報の他、ワークの良否を示す場合もある。この場合においても、例えば、良品と判断されたワークと、不良品と判断されたワークとの間で、外観に付与される色を異ならせてもよい。
また、ワーク232の向きについての情報として、計測結果に含まれる回転角を示す2つの座標軸320がワーク232に付与される。座標軸320は、コンベア230の一部に設定された撮像エリア221に設定される座標原点を基準とした、画像計測処理によって計測されたワーク232の回転角を示す。すなわち、上述の図8に示す回転角θを、システムモデルを定義する座標系に変換させて表現したものであり、一種のローカル座標に相当する。
このような座標軸320を用いて、ワーク232の向きを表現することで、ユーザは、ロボットを制御する制御プログラムが正しく動いているか否かを評価することができる。また、座標軸320を用いてワーク232の向きを表現することで、360°の範囲の回転を表現できるので、例えば、立方体形状のワーク232がモデル画像の向きと一致している(回転角=0°)のか、あるいは、全く反転している(回転角=180°)であるのかを識別可能に表現することができる。
図9に示すユーザインターフェイス画面においては、2つのロボット311および313の設計情報などに基づいて、ロボット311および313自体が移動し得る移動領域312および314も併せて表示されてもよい。このような移動領域312および314が表示されることで、隣接配置されるロボットの間の間隔についても、最適な設計を事前検討することができる。
さらに、コンベア230上に設定されるトラッキングエリア231および233、ならびに、コンベア240上に設定されるトラッキングエリア235および237についても表示されるため、ロボット311および313の移動可能領域(ワークを把持および配置できる範囲)についても、視覚的に把握することができる。
図9に示すユーザインターフェイス画面においてワークの挙動を再現する場合には、視覚センサシミュレータ150にていずれかのワークが計測されたタイミング(シミュレーションにおいて用いられるコンベア230の移動量を示すエンコーダ値を用いて特定される)でワークを出現させ、そして、エンコーダ値の更新(増加)に伴って、出現させたワークの表示位置を更新する。そして、ロボットによって把持されてコンベア240に配置されたワークについては、コンベア240の移動量を示すエンコーダ値に基づいて、その表示位置が順次更新される。ワークの表示位置がコンベア240の域外を示す値になると、すなわちコンベア240の終端に到達すると、当該ワークは非表示になる。
上述の図9には、本実施の形態に係るシミュレーションを再現するユーザインターフェイス画面の一例について説明したが、ワークの種別および当該ワークの向きについての情報の表示形態については、以下に説明するように、各種の表示形態および設定方法を採用可能である。
(g1:ワークの種別の表示形態)
本実施の形態に係るシミュレーション装置100(再現モジュール170)は、ワークの種別ごとに、色、形状、大きさの少なくとも1つを異ならせて表示する。図9には、色を用いてワークの種別を識別する表示形態を採用したが、例えば、色に加えて、あるいは、色に代えて、各種別に応じた形状のオブジェクトを用いてワークを表現してもよい。
図10は、本実施の形態に係るシミュレーション装置100が提供するシミュレーション結果の表示態様に対するユーザ設定の一例を説明するための模式図である。例えば、図10(A)に示すような設定画面400を提供することで、シミュレーション結果を再現する際に用いるワークの表示態様をユーザが任意に設定できるようにしてもよい。このように、シミュレーション装置100は、ワークの種別ごとの表示に用いる色、形状、大きさの少なくとも1つの設定を受付けるユーザインターフェイスモジュール180(入力手段)を有していてもよい。
設定画面400には、ワークの種別ごとに表示態様を設定するプルダウンアイテム402が設けられており、プルダウンアイテム402の選択によって、プルダウンメニュー404が表示されるようになっている。
プルダウンメニュー404は、対象のワークを表示する際の色を選択する色選択欄406と、対象のワークを表示する際の形状を選択する形状選択欄408とを含む。ユーザは、色選択欄406にリスティングされる色候補のうち任意の候補を選択するとともに、形状選択欄408にリスティングされる形状候補のうち任意の候補を選択する。このように、ユーザは、挙動を再現したいワークの種別ごとに、表示に用いられる色および形状を任意に選択することができる。
このように色および形状が指定されることで、図10(B)に示されるような表示態様で、シミュレーション結果が再現される。
あるいは、ユーザがワークの大きさを任意に設定できるようにしてもよい。図11は、本実施の形態に係るシミュレーション装置100が提供するシミュレーション結果の表示態様に対するユーザ設定の別の一例を説明するための模式図である。図11に示す設定画面410においては、ユーザがプルダウンアイテム412を選択することで、プルダウンメニュー414が表示されるようになっている。
プルダウンメニュー414は、対象のワークを表示する際の色を選択する色選択欄416と、対象のワークの大きさ(たて幅、よこ幅、高さ)をそれぞれ設定可能な大きさ入力欄418とを含む。ユーザは、色選択欄416にリスティングされる色候補のうち任意の候補を選択するとともに、大きさ入力欄418に表示に用いるワークの大きさを設定する。
大きさ入力欄418には、現実のワークの大きさをそのまま入力できるようにすることが好ましい。この場合、3次元空間内に仮想的に構築されたシステムモデルにも現実の大きさが値付けされているため、システムモデルの大きさから算出される換算パラメータに従って、ワークについても、対応する大きさで表現されることになる。
このように、ワークの大きさを任意に設定できるので、シミュレーション対象のアプリケーションに応じて、シミュレーション結果をより現実に近い形で確認することができる。
さらに、ユーザがワークの再現に用いる画像を任意に設定できるようにしてもよい。図12は、本実施の形態に係るシミュレーション装置100が提供するシミュレーション結果の表示態様に対するユーザ設定のさらに別の一例を説明するための模式図である。図12に示す設定画面420においては、ユーザが設定ボタン422を選択することで、画像選択メニュー424が表示されるようになっている。
画像選択メニュー424は、対象のワークを表示する際に使用する画像がファイル名426とともにリスト表示されており、ユーザは、リスティングされるファイル名426のうち任意の画像ファイルを選択する。ユーザがOKボタン428を選択すると、先に選択されている画像ファイルの選択が有効化される。これによって、各種別のワークが、指定された画像ファイルに含まれる画像を用いて再現されることになる。
このように、ワークの表示に用いる画像を任意に設定できるので、シミュレーション対象のアプリケーションに応じて、シミュレーション結果をより現実に近い形で確認することができる。
なお、シミュレーション結果の再現において、各ワークに付与された種別を示す情報がいずれの種別を示すのかを一見して把握できることが好ましい。
図13は、本実施の形態に係るシミュレーション装置100が提供するシミュレーション結果において種別の確認を支援するためのユーザインターフェイス画面の一例を示す図である。
図13(A)に示すユーザインターフェイス画面においては、ワーク232に付与された色がいずれの種別を意味するのかを示す凡例340が併せて表示されるようになっている。ユーザは、凡例340に表示される内容を参照することで、ワーク232がいずれの種別であるかを一見して把握することができる。
図13(B)に示すユーザインターフェイス画面においては、各ワーク232に関連付けて、「種別1」、「種別2」といったラベル342が付与される。ユーザは、ラベル342の内容を参照することで、ワーク232がいずれの種別であるかを一見して把握することができる。
図13に示す表示例に限定されることなく、ワークの種別をユーザが一見して把握できる支援表示を採用することができる。上述した表示例のうち複数を適宜組合せるようにしてもよい。
(g2:ワークの向きの表示形態)
本実施の形態に係るシミュレーション装置100(再現モジュール170)は、計測結果に含まれる回転角に基づいて、ワークの向きについての情報を生成する。図9には、ワークの向きを示すオブジェクトとして、2つの座標軸320を用いてワークの向きを示す表示形態を採用したが、別の表示態様を採用してもよい。
図14は、本実施の形態に係るシミュレーション装置100が提供するシミュレーション結果におけるワークの向きについての表示形態の一例を示す図である。
図14(A)に示す表示例においては、基準方向を示すマーク360がワーク232に付与されている。基準方向としては、例えば、対応するモデル画像に対して回転角がゼロになる方向として定めることができる。図8を参照したように、予め設定されたモデル画像と一致する方向が基準方向として設定され、設定された基準方向に対応するワーク232中の部分にマーク360が関連付けられる。このようなマーク360によって、ユーザは、それぞれのワーク232がいずれの方向を向いているのかを一見して把握することができる。
図14(B)に示す表示例においては、座標軸320に加えて、ワーク232の回転角を示すラベル362が付与される。ラベル362の各々は、対応するワーク232が向いている方向の角度を示すことになる。図14(B)には、座標軸320とラベル362とを付加する表示例を示したが、ラベル362のみを表示するようにしてもよい。
このように、ワークの向きを示すオブジェクト(座標軸320、マーク360またはラベル362)をワークに付加して表示するようにしてもよい。
あるいは、表示に用いるワークの形状をワークの向きに関連付けてもよい。図15は、本実施の形態に係るシミュレーション装置100が提供するシミュレーション結果におけるワークの向きについての表示形態の別の一例を示す図である。
図15(A)に示す表示例においては、ワーク232の基準方向に対応する領域が他の領域とは異なる表示態様になっている。より具体的には、ワーク232の基準方向に対応する領域(図15(A)に示す表示例では、角柱の一辺)364に他の領域とは異なる色が付与されている。この領域364の表示態様によって、ユーザは、それぞれのワーク232がいずれの方向を向いているのかを一見して把握することができる。
図15(A)においては、角柱の一辺の表示態様を他の領域とは異ならせているが、これに限らず、例えば、角柱の特定の面について、表示態様を他の領域とは異ならせているようにしてもよい。
図15(B)に示す表示例においては、ワーク232の基準方向に対応する領域が他の領域とは異なる形状になっている。より具体的には、ワーク232の基準方向に対応する領域(図15(B)に示す表示例では、角柱の一隅)366が「面取り」されている。この領域366の形状によって、ユーザは、それぞれのワーク232がいずれの方向を向いているのかを一見して把握することができる。なお、面取りされた領域366の表面の色を他の領域とは異ならせるようにしてもよい。
このように、ワークの向きに対応付けて、再現するワークの外観に特徴(領域364または領域366)を付加して表示してもよい。
図14および図15に示す表示例に限定されることなく、ワークの向きをユーザが一見して把握できる任意の表示態様を採用することができる。上述した表示例のうち複数を適宜組合せるようにしてもよい。
(g3:付加的なオブジェクト)
上述の説明においては、画像計測処理によって入力画像から探索されたワークの表示態様について説明したが、ワークに加えて、付加的なオブジェクトを表示することで、より現実のアプリケーションに近いシミュレーションを行うことができる。以下では、付加的なオブジェクトとともに、シミュレーション結果を再現する一例について説明する。
例えば、ピック&プレース動作のアプリケーションとして、箱詰め作業のような、1または複数のワークをケースに配置するような処理が想定される。この場合には、ワークを箱詰めする先の箱についても、3次元仮想空間内に表示することが好ましい。さらに、このような箱についても、コンベアによって搬送されることになるので、このような挙動についても視覚化することで、コンベアおよびロボットが設計通りに動作しているか否かを、事前に評価することができる。
図16は、本実施の形態に係るシミュレーション装置100が提供するシミュレーション結果を再現するユーザインターフェイス画面の別の一例を示す図である。図16を参照して、コンベア240上には、ユーザが予め設定した間隔に沿って、複数の基準線260が表示される。表示される基準線260の間隔は、例えば、要求される仕様(タクトタイムなど)に基づいて予め設定される。この設定に基づいて、シミュレーション結果を再現する際に、コンベア240上に基準線260が重ねて表示される。
基準線260は、例えば、ピック&プレース動作においてワークの配置先を定める基準を示すものとして用いることができる。ユーザは、コンベア240上の各ワーク232が基準線260に対応付けられた位置に正しく配置されているか否かを評価することができる。
基準線260に代えて、あるいは、基準線260とともに、現実のアプリケーションで用いる箱に相当するオブジェクト250を表示するようにしてもよい。オブジェクト250の表示位置または表示間隔についても、基準線260と同様に、ユーザが予め設定することができる。さらに、オブジェクト250の形状などについても、ユーザが予め任意に設定することができる。上述の図10〜図12を参照して説明したワークの外観の設定方法と同様に、オブジェクト250についても任意の形状・色・大きさを設定することができる。さらに、オブジェクト250とワーク232との位置関係を一見して把握できるように、オブジェクト250を透明または半透明で表示してもよい。
図16に示すように、ワーク232に加えて、付加的なオブジェクト250および/または基準線260を仮想的に表示することで、ワークに対する処理が設計どおりに動作しているか否かを視覚的に評価することができる。
<H.変形例>
上述の実施の形態においては、典型例として、搬送経路上を搬送される対象物を対象にした場合について例示したが、以下のような他のシステムにも適用できる。
例えば、ワークに対して複数の工程がなされる場合には、複数のロボットが並び連携して必要な動作を行う構成、あるいは、人間とロボットとが連携して必要な動作を行う構成が採用される。このような構成において、工程間でワークを受け渡しするために、工程の上流側のロボットまたは人と、工程の下流側のロボットとの間に共有作業領域が設けられる。共有作業領域には、コンベアのような搬送機ではなく、単なるワークをバッファリングするような機能をもつことになる。このような共有作業領域に視覚センサの撮像エリアを設定したようなシステムについても、上述したような処理手順に従って、3次元仮想空間内に対象となるシステムを仮想的に構築することで、ワークに対する処理が設計どおりに動作しているか否かを視覚的に評価することができる。
<I.利点>
本実施の形態に係るシミュレーション装置100によれば、ワークを処理するようなシステムについて、制御指令に従ってロボットなどの処理装置が処理するワークの位置および向きの両方を確認しつつ、システムの全体の挙動を評価できるので、検討対象のシステムの妥当性を一見して把握することができる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1,2 コンベアトラッキングシステム、100 シミュレーション装置、102 プロセッサ、104 主メモリ、106 入力部、108 表示部、110 ネットワークインターフェイス、112 光学ドライブ、114 光学ディスク、116 通信インターフェイス、118 内部バス、120 ハードディスク、122 OS、124 シミュレーションプログラム、130 計測結果格納部、140 画像データ群、150 視覚センサシミュレータ、152 設定パラメータ、160 コントローラシミュレータ、162 制御プログラム、170 再現モジュール、171 ワーク表示態様設定モジュール、172 3次元設計データ、174 ワーク表示態様設定パラメータ、180 ユーザインターフェイスモジュール、182 モデル構築モジュール、190 エンコーダエミュレータ、200 制御装置、202 ネットワーク、210,311,313 ロボット、220 視覚センサ、221 撮像エリア、222 撮像部、230,240 コンベア、231,233,235 トラッキングエリア、232 ワーク、234,244 駆動ローラ、236,246 エンコーダ、250 オブジェクト、260 基準線、400,410,420 設定画面、402,412 プルダウンアイテム、404,414 プルダウンメニュー、406,416 色選択欄、408 形状選択欄、418 大きさ入力欄、422 設定ボタン、424 画像選択メニュー。

Claims (10)

  1. 対象物に対して処理装置が処理を行うシステムの挙動を推定するシミュレーション装置であって、
    前記システムを3次元仮想空間内に仮想的に構築する構築手段を備え、前記システムは、前記対象物を搬送するための搬送機を含み
    前記3次元仮想空間内の前記搬送機の搬送路上にある所定の場所に予め設定される第1の領域に関連付けて、被写体として対象物の少なくとも一部を含む入力画像に対する画像計測処理を行う計測手段とを備え、前記画像計測処理は、前記入力画像から、予め設定された1または複数の参照情報に対応する部分を探索する処理を含み、
    前記計測手段による計測結果に基づいて前記処理装置に対する制御指令を生成する制御演算を実行する実行手段と、
    前記実行手段により出力される前記制御指令の時系列データ、および、前記計測手段による計測結果に基づいて、前記入力画像から探索された対象物の種別および当該対象物の向きについての情報とともに、前記探索された対象物の挙動を前記システム上で再現する再現手段とを備え
    前記再現手段は、前記対象物を搬送する搬送機の位置または変位を示す情報に基づいて、前記3次元仮想空間内の前記対象物の表示位置を順次更新する、シミュレーション装置。
  2. 前記対象物の種別は、前記予め設定された複数の参照情報のうち、前記対象物との対応の度合いが最も確からしいものを示す情報を含む、請求項1に記載のシミュレーション装置。
  3. 前記対象物の種別は、前記対象物と前記予め設定された参照情報との間の対応の度合いが予め設定された条件を満たしているか否かの情報を含む、請求項1に記載のシミュレーション装置。
  4. 前記再現手段は、対象物の種別ごとに、色、形状、大きさの少なくとも1つを異ならせて表示する、請求項1〜3のいずれか1項に記載のシミュレーション装置。
  5. 対象物の種別ごとの表示に用いる色、形状、大きさの少なくとも1つの設定を受付ける入力手段をさらに備える、請求項4に記載のシミュレーション装置。
  6. 前記計測手段は、前記入力画像に含まれているいずれかの参照情報に対応する部分の回転角を前記計測結果として出力し、
    前記再現手段は、前記計測結果の回転角に基づいて、前記対象物の向きについての情報を生成する、請求項1〜5のいずれか1項に記載のシミュレーション装置。
  7. 前記再現手段は、前記対象物の向きを示すオブジェクトを前記対象物に付加して表示する、請求項1〜6のいずれか1項に記載のシミュレーション装置。
  8. 前記再現手段は、前記対象物の向きに対応付けて、再現する対象物の外観に特徴を付加して表示する、請求項1〜6のいずれか1項に記載のシミュレーション装置。
  9. 対象物に対して処理装置が処理を行うシステムの挙動を推定するコンピュータによって
    実行されるシミュレーション方法であって、
    前記システムを3次元仮想空間内に仮想的に構築するステップを備え、前記システムは、前記対象物を搬送するための搬送機を含み
    前記3次元仮想空間内の前記搬送機の搬送路上にある所定の場所に予め設定される第1の領域に関連付けて、被写体として対象物の少なくとも一部を含む入力画像に対する画像計測処理を行うステップとを実行させ、前記画像計測処理は、前記入力画像から、予め設定された1または複数の参照情報に対応する部分を探索する処理を含み、
    前記画像計測処理の計測結果に基づいて前記処理装置に対する制御指令を生成する制御演算を実行するステップと、
    前記制御指令の時系列データおよび前記計測結果に基づいて、前記入力画像から探索された対象物の種別および当該対象物の向きについての情報とともに、前記探索された対象物の挙動を前記システム上で再現するステップとを備え
    前記再現するステップは、前記対象物を搬送する搬送機の位置または変位を示す情報に基づいて、前記3次元仮想空間内の前記対象物の表示位置を順次更新するステップを含む、シミュレーション方法。
  10. 対象物に対して処理装置が処理を行うシステムの挙動を推定するシミュレーションプログラムであって、前記シミュレーションプログラムはコンピュータに
    前記システムを3次元仮想空間内に仮想的に構築するステップを備え、前記システムは、前記対象物を搬送するための搬送機を含み
    前記3次元仮想空間内の前記搬送機の搬送路上にある所定の場所に予め設定される第1の領域に関連付けて、被写体として対象物の少なくとも一部を含む入力画像に対する画像計測処理を行うステップとを備え、前記画像計測処理は、前記入力画像から、予め設定された1または複数の参照情報に対応する部分を探索する処理を含み、
    前記画像計測処理の計測結果に基づいて前記処理装置に対する制御指令を生成する制御演算を実行するステップと、
    前記制御指令の時系列データおよび前記計測結果に基づいて、前記入力画像から探索された対象物の種別および当該対象物の向きについての情報とともに、前記探索された対象物の挙動を前記システム上で再現するステップとを実行させ
    前記再現するステップは、前記対象物を搬送する搬送機の位置または変位を示す情報に基づいて、前記3次元仮想空間内の前記対象物の表示位置を順次更新するステップを含む、シミュレーションプログラム。
JP2015225785A 2015-11-18 2015-11-18 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム Active JP6540472B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015225785A JP6540472B2 (ja) 2015-11-18 2015-11-18 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
CN201610991538.2A CN106873549B (zh) 2015-11-18 2016-11-10 模拟装置以及模拟方法
US15/366,846 US10410339B2 (en) 2015-11-18 2016-12-01 Simulator, simulation method, and simulation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015225785A JP6540472B2 (ja) 2015-11-18 2015-11-18 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム

Publications (2)

Publication Number Publication Date
JP2017094407A JP2017094407A (ja) 2017-06-01
JP6540472B2 true JP6540472B2 (ja) 2019-07-10

Family

ID=58804469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015225785A Active JP6540472B2 (ja) 2015-11-18 2015-11-18 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム

Country Status (3)

Country Link
US (1) US10410339B2 (ja)
JP (1) JP6540472B2 (ja)
CN (1) CN106873549B (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10290118B2 (en) 2015-08-06 2019-05-14 Cognex Corporation System and method for tying together machine vision coordinate spaces in a guided assembly environment
JP6601179B2 (ja) * 2015-11-18 2019-11-06 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP6450727B2 (ja) * 2016-10-28 2019-01-09 ファナック株式会社 ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体
JP7116901B2 (ja) * 2017-08-01 2022-08-12 オムロン株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP7087316B2 (ja) * 2017-09-27 2022-06-21 オムロン株式会社 情報処理装置、情報処理方法およびプログラム
JP6608894B2 (ja) 2017-09-27 2019-11-20 ファナック株式会社 ロボットシステム
JP6687591B2 (ja) 2017-12-26 2020-04-22 ファナック株式会社 物品搬送装置、ロボットシステムおよび物品搬送方法
US11830131B2 (en) * 2018-02-06 2023-11-28 Veo Robotics, Inc. Workpiece sensing for process management and orchestration
JP7124509B2 (ja) 2018-07-19 2022-08-24 オムロン株式会社 シミュレーション装置、シミュレーションプログラムおよびシミュレーション方法
US10699419B2 (en) * 2018-09-10 2020-06-30 Siemens Aktiengesellschaft Tracking and traceability of parts of a product
US11836577B2 (en) 2018-11-27 2023-12-05 Amazon Technologies, Inc. Reinforcement learning model training through simulation
US12412117B2 (en) 2018-11-27 2025-09-09 Amazon Technologies, Inc. Simulation modeling exchange
JP7252332B2 (ja) * 2018-11-21 2023-04-04 アマゾン テクノロジーズ インコーポレイテッド ロボティクスアプリケーション開発のための方法及びシステム
CN109410943A (zh) * 2018-12-10 2019-03-01 珠海格力电器股份有限公司 设备的语音控制方法、系统和智能终端
JP7391571B2 (ja) * 2019-08-28 2023-12-05 キヤノン株式会社 電子機器、その制御方法、プログラム、および記憶媒体
EP4021686A1 (en) * 2019-11-19 2022-07-06 Google LLC Methods and systems for graphical user interfaces to control remotely located robots
JP7396872B2 (ja) 2019-11-22 2023-12-12 ファナック株式会社 拡張現実を用いたシミュレーション装置及びロボットシステム
JP7323057B2 (ja) * 2020-03-31 2023-08-08 日本電気株式会社 制御装置、制御方法、および、制御プログラム
WO2021261018A1 (ja) * 2020-06-23 2021-12-30 株式会社安川電機 シミュレーション装置、制御システム、シミュレーション方法及びプログラム
JP7521341B2 (ja) * 2020-09-04 2024-07-24 オムロン株式会社 制御装置、制御システムおよびプログラム
DE112021003559B4 (de) * 2020-09-15 2025-07-24 Fanuc Corporation Robotersystem und steuerverfahren
TW202235239A (zh) * 2020-11-18 2022-09-16 日商發那科股份有限公司 調整參數的裝置、機器人系統、方法及電腦程式
WO2022137358A1 (ja) * 2020-12-22 2022-06-30 三菱電機株式会社 不具合解析支援プログラム、不具合解析支援装置、不具合解析支援方法および三次元データ表示プログラム
CN112580596B (zh) * 2020-12-30 2024-02-27 杭州网易智企科技有限公司 一种数据处理的方法和装置
JP7559580B2 (ja) * 2021-01-28 2024-10-02 セイコーエプソン株式会社 ロボットシステムの制御方法およびロボットシステム
JP7742807B2 (ja) * 2022-04-28 2025-09-22 株式会社日立製作所 計算機システム及び計測シミュレーションを行うための仮想空間の環境の設定方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4238256B2 (ja) * 2006-06-06 2009-03-18 ファナック株式会社 ロボットシミュレーション装置
JP4413891B2 (ja) * 2006-06-27 2010-02-10 株式会社東芝 シミュレーション装置およびシミュレーション方法並びにシミュレーションプログラム
JP2010100421A (ja) 2008-10-27 2010-05-06 Seiko Epson Corp ワーク検知システム、ピッキング装置及びピッキング方法
JP4653836B2 (ja) * 2008-12-12 2011-03-16 ファナック株式会社 シミュレーション装置
CN101710235B (zh) * 2009-12-11 2011-06-08 重庆大学 一种数控机床在线加工工件的自动识别和监控方法
JP2012187651A (ja) 2011-03-09 2012-10-04 Omron Corp 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置
JP5810562B2 (ja) 2011-03-15 2015-11-11 オムロン株式会社 画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置
JP5838873B2 (ja) * 2012-03-15 2016-01-06 オムロン株式会社 シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム
US20130335405A1 (en) * 2012-06-18 2013-12-19 Michael J. Scavezze Virtual object generation within a virtual environment
JP6015282B2 (ja) * 2012-09-21 2016-10-26 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
KR101379211B1 (ko) * 2012-09-28 2014-04-10 전자부품연구원 이동체의 위치 판단 장치 및 위치 판단 방법
JP6115158B2 (ja) * 2013-01-31 2017-04-19 富士通株式会社 プログラム、演算装置および演算方法
JP5815761B2 (ja) 2014-01-23 2015-11-17 ファナック株式会社 視覚センサのデータ作成システム及び検出シミュレーションシステム
US9626566B2 (en) * 2014-03-19 2017-04-18 Neurala, Inc. Methods and apparatus for autonomous robotic control
US10664975B2 (en) * 2014-11-18 2020-05-26 Seiko Epson Corporation Image processing apparatus, control method for image processing apparatus, and computer program for generating a virtual image corresponding to a moving target
DE102015205220A1 (de) * 2015-03-23 2016-09-29 Osram Gmbh Tracking-System und Verfahren zum Tracken eines Trägers einer mobilen Kommunikationseinheit
JP6551184B2 (ja) * 2015-11-18 2019-07-31 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP6601179B2 (ja) * 2015-11-18 2019-11-06 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム

Also Published As

Publication number Publication date
CN106873549A (zh) 2017-06-20
US10410339B2 (en) 2019-09-10
US20170236262A1 (en) 2017-08-17
JP2017094407A (ja) 2017-06-01
CN106873549B (zh) 2019-07-16

Similar Documents

Publication Publication Date Title
JP6540472B2 (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP6458713B2 (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP6551184B2 (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP6601179B2 (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP6450727B2 (ja) ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体
US9529945B2 (en) Robot simulation system which simulates takeout process of workpieces
US11511415B2 (en) System and method for robotic bin picking
EP1864764B1 (en) Robot simulation apparatus
JP6902369B2 (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
JP2008021092A (ja) ロボットシステムのシミュレーション装置
JP2013043271A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
Manou et al. Off-line programming of an industrial robot in a virtual reality environment
Gong et al. Projection-based augmented reality interface for robot grasping tasks
Ikeda et al. An AR debugging tool for robotics programmers
EP3330813B1 (en) Simulator, simulation method, and simulation program
US20200201268A1 (en) System and method for guiding a sensor around an unknown scene
WO2021181804A1 (ja) シミュレーション装置およびプログラム
Choi et al. Multi-dimensional digital twin for cable assembly by synthetic data and reinforcement learning
WO2023148798A1 (ja) 指定装置、ロボットシステム、指定方法、および記録媒体
WO2023148804A1 (ja) 指定装置、ロボットシステム、指定方法、および記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190527

R150 Certificate of patent or registration of utility model

Ref document number: 6540472

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250