JP2020015128A - センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム - Google Patents

センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム Download PDF

Info

Publication number
JP2020015128A
JP2020015128A JP2018139198A JP2018139198A JP2020015128A JP 2020015128 A JP2020015128 A JP 2020015128A JP 2018139198 A JP2018139198 A JP 2018139198A JP 2018139198 A JP2018139198 A JP 2018139198A JP 2020015128 A JP2020015128 A JP 2020015128A
Authority
JP
Japan
Prior art keywords
augmented reality
reality image
image
control device
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018139198A
Other languages
English (en)
Other versions
JP6856583B2 (ja
Inventor
雅文 大場
Masafumi Oba
雅文 大場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2018139198A priority Critical patent/JP6856583B2/ja
Priority to US16/451,668 priority patent/US10885340B2/en
Priority to DE102019119319.2A priority patent/DE102019119319B4/de
Priority to CN201910656478.2A priority patent/CN110784708B/zh
Publication of JP2020015128A publication Critical patent/JP2020015128A/ja
Priority to US17/023,792 priority patent/US11328507B2/en
Application granted granted Critical
Publication of JP6856583B2 publication Critical patent/JP6856583B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • G05B19/0426Programming the control sequence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40577Multisensor object recognition
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45063Pick and place manipulator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】対象の検出を行うシステムの作動の成功又は失敗の原因究明の容易化、設定チェックの容易化、又は、設定の容易化、状態変化、計算結果の可視化等を図ることができるセンシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラムを提供する。【解決手段】このセンシングシステムは、対象Oの位置の検出に用いられる検出装置20と、制御装置40と、を備え、検出装置20を用いた対象Oの検出に関する設定、搬送装置10の設定、および対象Oに対して作業を行うロボット30の設定のうち少なくとも1つと、制御装置40が認識している対象Oの位置と、対象Oの検出の結果と、搬送装置10の作業予定と、ロボット30の作業予定と、制御装置40の判断結果と、対象Oに関するパラメータとのうち、少なくとも1つを示す拡張現実画像を、制御装置40が表示装置による表示又は投影装置による投影のために作成する。【選択図】図1

Description

本発明はセンシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラムに関する。
従来、搬送装置によって搬送されている対象の位置を検出するための視覚センサと、視覚センサによる検出結果に基づき対象の取出作業を行うロボットとを備えた作業システムが知られている(例えば、特許文献1参照。)。
また、ロボットの三次元モデルと、三次元座標上の作業者の視点の位置とに基づき、ロボットの教示された動作の軌跡を表示装置に表示するシステムが知られている(例えば、特許文献2参照。)。
特開2005−111607号公報 特開2017−100234号公報
搬送装置によって搬送されている対象もしくは移動している対象にロボットによって作業を行うシステムにおいて、ロボットによる対象に対する作業が成功しなかった際に、その原因を確認する必要がある。この確認のために、現在は、ロボットを制御している制御装置内の処理を全て記録し、記録された処理を読み解く必要がある。このように記録された処理はテキストデータであることが多いため、原因の調査に長時間を要する。または専用の解析ソフトを用意して解析する必要があり費用がかかってしまう。また専用の解析ソフトをもってしても直感的に現象を理解するのは困難であった。
一方、前記作業システムでは、搬送装置の座標系、ロボットの作業領域、視覚センサの位置等がロボットの制御装置において設定されるが、設定されたこれらの位置と現実空間の搬送装置、ロボット、視覚センサ等との関係を直感的に認識することができない。このため、設定の間違いに気付かずに生産が開始される場合があった。その結果、ロボットと周辺機器との干渉、ロボットによる対象の取出しの失敗等が発生していた。
また、対象に対してロボットが作業しなかった場合に、原因が各種センサの計測によるのか、対象の位置計算にあるのか、判別がつかず調整に時間を要していた。
また、教示操作盤を用いたロボットの制御装置の設定、例えば座標系の設定、ロボットの作業領域の設定等は、ロボットの操作をよく知る作業者でも長時間を要することがあり、ロボットの操作に未熟な作業者はさらに長い時間を要する。
本発明は、前述の事情に鑑みてなされている。本発明の目的の一つは、対象の検出を行うシステムの作動の成功又は失敗の原因究明の容易化、当該システムの設定チェックの容易化、又は、当該システムの設定の容易化、状態変化、計算結果の可視化を図ることができるセンシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラムの提供である。
上記課題を解決するために、本発明は以下の手段を採用する。
本発明の第1態様のセンシングシステムは、対象を移動させる移動手段によって移動している前記対象の少なくとも位置の検出に用いられる検出装置と、制御装置と、を備え、前記制御装置が認識している設定であって、前記検出装置を用いた前記対象の検出に関する設定、前記移動手段の設定、および前記対象に対して作業を行う作業機械の設定のうち少なくとも1つと、前記設定に基づいて前記制御装置が認識している前記対象の位置と、前記検出装置を用いた前記対象の検出の結果と、前記移動手段の作業予定と、前記作業機械の作業予定と、前記作業機械による前記作業の実行に関する前記制御装置の判断結果と、前記制御装置が認識している前記対象に関するパラメータとのうち、少なくとも1つを示す拡張現実画像を、前記制御装置が表示装置による表示又は投影装置による投影のために作成する。
以下、「拡張現実画像」は「AR画像」と記載される場合もある。
当該態様では、制御装置が認識している検出装置を用いた対象の検出に関する設定、移動手段の設定、対象に対して作業を行う作業機械の設定等のAR画像が表示装置による表示または投影装置による投影のために作成される。例えば、検出装置の検出領域を示すAR画像、移動手段の搬送方向を示すAR画像、作業機械の作業領域を示すAR画像等が作成される。このため、オペレータはこれらを容易に認識することができる。
また、当該態様では、前記設定に基づいて制御装置が認識している対象の位置、検出装置を用いた対象の検出の結果、移動手段の作業予定、作業機械の作業予定、作業機械による作業の実行に関する制御装置の判断結果、制御装置が認識している対象に関するパラメータ等も、オペレータが視覚的に認識することができ、これにより、制御装置内で実際に行われている処理をオペレータが容易に知ることができる。
このように制御装置内の設定、処理等を視覚的に認識することは、システムの作動の成功又は失敗の原因究明の容易化に繋がる。
上記態様において、好ましくは、前記投影装置が、前記拡張現実画像を現実空間に投影するものであり、前記表示装置が、前記拡張現実画像を、現実空間像又は現実空間と共に見えるように表示するものである。
AR画像が現実空間に投影される場合は、オペレータは現実空間において制御装置内の設定、処理等を視覚的に認識することができ、複数人でディスカッションする場合に特に適している。AR画像が現実空間像又は現実空間と共に見えるように表示装置によって表示される場合は、システムの全体を見なくても、表示装置内を見るだけでオペレータはAR画像と現実空間との関係を視覚的に認識できる。また、表示装置がAR画像を現実空間像と共に表示する場合は、現場にいない場合でも、状況を把握可能となり、システム監視に特に適している。AR画像を現実空間に付加する場合は、実際に見ながら作業する場合に特に適している。
上記態様において、好ましくは、前記制御装置が、前記制御装置が認識している前記対象の前記位置と、前記対象の前記検出の結果と、前記移動手段の前記作業予定と、前記作業機械の前記作業予定と、前記制御装置の前記判断結果と、前記対象に関する前記パラメータとのうち少なくとも1つを示す前記拡張現実画像を、前記作業機械が前記作業を行っている際に更新する。
当該態様では、表示装置による表示又は投影装置による投影のために、これらのAR画像が更新されるので、オペレータはこれらに関する制御装置の設定、処理等の動的な変化を視覚的に認識することができる。
上記態様において、好ましくは、前記制御装置が、前記作業機械を制御するものであり、所定の入力装置を用いた入力に応じて前記表示装置に表示されている前記拡張現実画像又は前記投影装置によって投影されている前記拡張現実画像の少なくとも1つを選択する選択処理と、前記所定の入力装置を用いた入力に応じて選択された、前記表示装置によって表示されている前記拡張現実画像又は前記投影装置によって投影されている前記拡張現実画像を移動する移動処理と、を行う拡張現実画像操作手段と、選択された前記拡張現実画像の移動情報に応じて、前記制御装置において前記作業機械を制御するために設定されているパラメータ又は計算されているパラメータを変更する設定調整手段と、を備える。
当該態様では、オペレータが所定の入力装置を用いてAR画像を移動させ、設定調整手段が、制御装置において設定されているパラメータ又は計算されているパラメータを変更する。このため、オペレータは直感的に作業機械を制御するための設定を変更することが可能となり、これは熟練したオペレータにとっても制御装置の設定の正確性および作業効率を向上するために有用である。
上記態様において、好ましくは、前記制御装置が複数の前記拡張現実画像を作成するものであり、前記表示装置又は前記投影装置が、所定の入力部への入力に応じて、前記複数の拡張現実画像のうち選択された前記拡張現実画像を表示又は投影するものである。
または、前記制御装置がリアルタイムで前記拡張現実画像を作成、記録するものであり、前記表示装置が、所定の入力部への入力もしくは制御装置またはセンサにおける所定の条件の成立に応じて、その時点のもしくは直近の複数の拡張現実画像のうち選択された前記拡張現実画像を表示するものである。
当該態様では、オペレータは入力部への入力や制御装置やセンサへの条件設定を用いて表示するAR画像を選ぶことができる。このため、任意の時点や事象発生時の制御装置の処理、設定等をオペレータがより容易に認識することが可能になり、システムの作動の成功又は失敗の原因究明の容易化、システムの稼働率向上を図るためにも極めて有用である。
上記態様において、好ましくは、前記制御装置によって作成された前記拡張現実画像を、対応する現実空間像と共に記憶する記憶部を備える。
当該態様では、AR画像が対応する現実空間像と共に記憶される。このため、オペレータは、記憶されたAR画像を現実空間像と共に再生することができ、これはシステムの設定チェックの容易化、システムの設定の容易化、およびシステムの作動の成功又は失敗の原因究明の容易化のために極めて有利である。
上記態様において、好ましくは、前記記憶部に記憶されている前記拡張現実画像を再生する、もしくは前記現実空間像とともに再生する再生手段を備える。
当該態様では、オペレータは再生手段によって記憶されたAR画像を現実空間像と共に任意の場所で容易に再生することができる。
または、実空間上の装置を見ながら拡張現実画像を再生することで、稼働率改善のための調整を現場で行うことができる。
本発明の第2態様のセンシングシステムは、所定の移動手段によって移動している対象の少なくとも位置の検出に用いられる検出装置と、前記対象に作業を行う作業機械を前記検出装置の検出結果を用いて制御する制御装置と、前記作業機械が前記作業を行っている際に、前記検出装置の検出結果に基づき前記制御装置が認識している前記対象の位置と、前記移動手段の作業予定と、前記作業機械の作業予定と、前記作業機械による作業の実行に関する前記制御装置の判断結果と、前記制御装置が認識している前記対象に関するパラメータとのうち、少なくとも1つを示す拡張現実画像を逐次作成する拡張現実画像作成手段と、前記拡張現実画像作成手段によって作成された前記拡張現実画像を、対応する現実空間像と共に記憶する記憶部とを備える。
当該態様では、AR画像が対応する現実空間像と共に記憶される。このため、オペレータは、記憶されたAR画像を現実空間像と共に再生することができ、これはシステムの設定チェックの容易化、システムの設定の容易化、およびシステムの作動の成功又は失敗の原因究明の容易化のために極めて有利である。
上記態様において、好ましくは、前記記憶部に記憶されている前記拡張現実画像を再生する、もしくは前記現実空間像と共に再生する再生手段を備える。
本発明の第3態様のセンシングシステムは、対象を移動させる移動手段によって移動している複数の対象の検出に用いられる検出装置と、前記検出装置によって得られる画像データに前記対象の検出のための画像処理を行う対象検出手段と、前記画像処理が行われた処理後画像内にあらわれる複数の候補のうち所定のパラメータが検出閾値以上である候補に対応する拡張現実画像を作成し、前記複数の候補のうち前記所定のパラメータが前記検出閾値未満且つ検出候補閾値以上である候補に対応する候補拡張現実画像を作成する拡張現実画像作成手段と、前記拡張現実画像および前記候補拡張現実画像を表示する表示装置と、を備える。
当該態様では、所定のパラメータが検出閾値以上である候補に対応するAR画像だけではなく、所定のパラメータが検出閾値未満であるが検出候補閾値以上である候補に対応する候補AR画像も表示装置に別の色など区別可能な様式で表示される。このため、検出閾値の変更、検出のためのライティング(照明)の変更、その他の設定の変更等によって検出される対象を増やす作業が容易となり、当該作業後の結果の確認も容易となる。
上記態様において、好ましくは、前記候補拡張現実画像が前記拡張現実画像と区別可能な態様で作成される。
当該態様により、オペレータは、候補AR画像に対応する対象の存在を容易に認識することができる。
なお、作成された前記拡張現実画像が記憶装置に保存されてもよい。
上記態様において、好ましくは、前記拡張現実画像作成手段が、前記候補拡張現実画像に付随する検出結果の拡張現実画像を作成し、前記表示装置又は前記投影装置によって、前記候補拡張現実画像と共に前記検出結果の拡張現実画像が表示又は投影される。
当該態様では、候補AR画像と共に表示される検出結果に基づき、オペレータは、検出装置に関するパラメータ設定をより容易に行うことが可能となる。
本発明の第4態様の作業システムは、前記センシングシステムと前記作業機械とを備える。
本発明の第5態様は、対象を移動させる移動手段によって移動している前記対象の検出結果に基づき制御装置が作業機械又は所定の装置を制御するシステムに用いられる拡張現実画像の表示方法であって、前記制御装置が認識している設定であって、前記対象の検出に関する設定、前記移動手段の設定、および前記作業機械の設定のうち少なくとも1つと、前記設定に基づいて前記制御装置が認識している前記対象の位置と、前記検出装置を用いた前記対象の検出の結果と、前記移動手段の作業予定と、前記作業機械の作業予定と、前記作業機械による作業の実行に関する前記制御装置の判断結果と、前記制御装置が認識している前記対象に関するパラメータとのうち、少なくとも1つを示す拡張現実画像を前記制御装置が作成するステップと、作成された前記拡張現実画像を表示装置によって表示する又は投影装置によって投影するステップと、を有する。
本発明の第6態様は、対象を移動させる移動手段によって移動している前記対象の検出結果に基づき制御装置が作業機械を制御するシステムに用いられる拡張現実画像の記憶方法であって、前記作業機械が前記作業を行っている際に、前記検出結果に基づき前記制御装置が認識している前記対象の位置と、前記移動手段の作業予定と、前記作業機械の作業予定と、前記作業機械による作業の実行に関する前記制御装置の判断結果と、前記制御装置が認識している前記対象に関するパラメータとのうち、少なくとも1つを示す拡張現実画像を逐次作成する拡張現実画像作成ステップと、前記拡張現実画像作成ステップによって作成された前記拡張現実画像を、対応する現実空間像と共に記憶する記憶ステップと、を有する。
本発明の第7態様は、対象を移動させる移動手段によって移動している複数の前記対象の検出のために画像処理を行うシステムに用いられる拡張現実画像の表示方法であって、前記画像処理が行われた処理後画像内にあらわれる複数の候補のうち所定のパラメータが検出閾値以上である候補に対応する拡張現実画像を作成し、前記複数の候補のうち前記所定のパラメータが前記検出閾値未満且つ検出候補閾値以上である候補に対応する候補拡張現実画像を作成するステップと、前記拡張現実画像および前記候補拡張現実画像を表示する表示ステップと、を有する。
本発明の第8態様は、対象を移動させる移動手段によって移動している前記対象の検出結果に基づき制御装置が作業機械又は所定の装置を制御するシステムに用いられるプログラムであって、コンピュータに、前記制御装置が認識している設定であって、前記対象の検出に関する設定、前記移動手段の設定、および前記作業機械の設定のうち少なくとも1つと、前記設定に基づいて前記制御装置が認識している前記対象の位置と、前記検出装置を用いた前記対象の検出の結果と、前記移動手段の作業予定と、前記作業機械の作業予定と、前記作業機械による作業の実行に関する前記制御装置の判断結果と、前記制御装置が認識している前記対象に関するパラメータとのうち、少なくとも1つを示す拡張現実画像を前記制御装置が作成する処理と、作成された前記拡張現実画像を表示装置によって表示する又は投影装置によって投影する処理と、を実行させる。
本発明の第9態様は、対象を移動させる移動手段によって移動している前記対象の検出結果に基づき制御装置が作業機械を制御するシステムに用いられるプログラムであって、コンピュータに、前記作業機械が前記作業を行っている際に、前記検出結果に基づき前記制御装置が認識している前記対象の位置と、前記移動手段の作業予定と、前記作業機械の作業予定と、前記作業機械による作業の実行に関する前記制御装置の判断結果と、前記制御装置が認識している前記対象に関するパラメータとのうち、少なくとも1つを示す拡張現実画像を逐次作成する拡張現実画像作成処理と、前記拡張現実画像作成処理によって作成された前記拡張現実画像を、対応する現実空間像と共に記憶する記憶処理と、を実行させる。
本発明の第10態様は、対象を移動させる移動手段によって移動している複数の前記対象の検出のために画像処理を行うシステムに用いられるプログラムであって、コンピュータに、前記画像処理が行われた処理後画像内にあらわれる複数の候補のうち所定のパラメータが検出閾値以上である候補に対応する拡張現実画像を作成し、前記複数の候補のうち前記所定のパラメータが前記検出閾値未満且つ検出候補閾値以上である候補に対応する候補拡張現実画像を作成する処理と、記拡張現実画像および前記候補拡張現実画像を表示する表示ステップと、を実行させる。
本発明によれば、対象の検出を行うシステムの作動の成功又は失敗の原因究明の容易化、当該システムの設定チェックの容易化、又は当該システムの設定の容易化、又は状態変化確認の効率化、システム調整の簡易化、を図ることができる。
本発明の一実施形態のセンシングシステムの概略構成および動作の一例を示す図である。 本実施形態のセンシングシステムの制御装置のブロック図である。 本実施形態のセンシングシステムの表示装置による表示の例を示す図である。 本実施形態のセンシングシステムの表示装置による表示の例を示す図である。 本実施形態のセンシングシステムの表示装置による表示の例を示す図である。
本発明の一実施形態に係るセンシングシステムについて、図面を用いながら以下説明する。
本実施形態のセンシングシステムは、図1に示されるように、物品である対象Oを搬送する移動手段としての搬送装置10と、搬送装置10によって搬送される対象Oの検出に用いられる検出装置20と、搬送装置10によって搬送されている対象Oに対して所定の作業を行う作業機械であるロボット30と、ロボット30を制御する制御装置40と、拡張現実装置60(図2)とを備えている。本実施形態のセンシングシステムは、センシングされた対象Oに対して作業機械であるロボット30が所定の作業を行うシステムであるから、作業システムでもある。
搬送装置10はモータ11を駆動することによって対象Oを搬送するものである。モータ11は作動位置検出装置12を備えており、作動位置検出装置12はモータ11の出力軸の回転位置および回転量を逐次検出する。作動位置検出装置12は例えばエンコーダであり、作動位置検出装置12の検出値は制御装置40に送信される。
なお、エンコーダを使わずに検出装置20によって対象Oの作動位置を検知しても良い。
対象Oは、車体、フレーム、部品、食品、医薬品等、様々な物であり得る。図1に示されている搬送装置10以外の搬送装置を用いることも可能であり、搬送装置10は対象Oを搬送することができるものであればよい。
検出装置20は、二次元カメラ、三次元カメラ、三次元距離センサ等であり、検出装置20は得られる画像データ(検出結果)もしくは三次元距離センサの検出点群(検出結果)を制御装置40に送信する。後述のように、制御装置40は、画像データや点群に基づき対象Oの位置および姿勢を検出する。
ロボット30は特定の種類のロボットに限定されないが、本実施形態のロボット30は、複数の可動部をそれぞれ駆動する複数のサーボモータ31を備えている多関節ロボットである(図2参照)。なお、複数の可動部によってロボット30のアーム30aが構成されている。各サーボモータ31はその作動位置を検出するための作動位置検出装置を有し、作動位置検出装置は一例としてエンコーダである。作動位置検出装置の検出値は制御装置40に送信される。これにより、制御装置40はロボット30の各部の位置、速度、加速度等を認識することができる。
ロボット30は、その先端部に設けられたツール50の種類に応じた所定の作業を対象Oに対して行う。ツール50はロボット用ツールであればよく、把持ツール、吸着ツール、加工ツール、清掃ツール、組立用ツール、測定ツール、各種センサ、ビジョンシステム用のカメラ等である。加工ツールは、例えば、電動ドリル等の穴あけツール、先端にタップが付いているねじ形成ツール、電動研磨ツール、塗装ガン等の塗装ツール、サーボガン等の溶接ツール等である。組立に用いるツールは、例えば、電動ドライバ、ピンを把持して穴に挿入するツール等である。測定ツールは、例えば、膜厚測定器、超音波を用いた内部検査装置、硬度測定器、非接触式の温度計、接写式のカメラ等である。なお、対象Oは物品に設けられた孔、加工対象部等でもよい。
本実施形態のツール50はハンドであり、ロボット30はツール50によって搬送装置10上の対象Oの取出しを行う。
ツール50は爪を駆動するサーボモータ51を備えている(図2参照)。サーボモータ51はその作動位置を検出するための作動位置検出装置を有し、作動位置検出装置は一例としてエンコーダである。作動位置検出装置の検出値は制御装置40に送信される。
ロボット30の座標系と搬送装置10の座標系とは対応付けられている。本実施形態では、ロボット30の先端部に設けられた設定ツールを搬送装置10上に設置されたキャリブレーション治具の複数の所定箇所に接触させることによって、ロボット30および搬送装置10の座標系として用いられる基準座標系が設定される。また、検出装置20が得る前記キャリブレーション治具の画像データに基づき、検出装置20の位置姿勢(センサ座標系)が基準座標系に関連付けられている。
制御装置40は、図2に示されるように、CPU、RAM等を有する制御部41と、制御装置40の設定、メニュー等を表示する制御装置表示部42と、不揮発性ストレージ、ROM等を有する記憶部43と、ロボット30のサーボモータ31にそれぞれ対応している複数のサーボ制御器44と、ハンド50のサーボモータ51に対応しているサーボ制御器45と、制御装置40に接続された入力部46とを備えている。入力部46は、オペレータが持ち運べる操作盤等の入力装置である。入力部46が制御装置40と無線通信を行う場合もある。
記憶部43にはシステムプログラム43aが格納されており、システムプログラム43aは制御装置40の基本機能を担っている。また、記憶部43には動作プログラム43b、対象検出プログラム43c等が格納されている。制御部41は、対象検出プログラム43cに基づき、検出装置20から送信される画像データに、物品Oの検出のために、周知の画像処理、重心位置の検出処理、パターンマッチング処理、その他の必要な処理等を行い、搬送装置10によって搬送されている対象Oの位置、姿勢等を検出する。なお、検出装置20が前記画像処理、検出処理、およびパターンマッチング処理等を行うことができる場合は、制御部41は検出装置20と重複する処理をする必要はない。
また、制御部41は、対象検出プログラム43cに基づき、搬送装置10によって搬送されている対象Oの少なくとも位置および姿勢を、対象Oが検出された直後から、作動位置検出装置12の検出結果(搬送装置10の動作の検出結果)を用いて追跡する(トラッキング)。このように、制御部41は、検出装置20から送信される画像データおよび作動位置検出装置12の検出結果に基づき、搬送装置10によって搬送されている対象Oの位置、速度、移動量等を検出できる。
拡張現実装置60はCPU、RAM等を有する制御部と、不揮発性ストレージ、ROM等を有する記憶部と、キーボード等の入力部とを有する。一例では、図2に示されるように、搬送装置10およびロボット30を撮像するために所定位置に設置されたカメラ61と、カメラ61によって撮像された現実空間像を表示する表示装置62とを備えている。表示装置62はタブレット端末、ヘッドマウントディスプレイ、AR表示機能付きメガネ等の公知の表示装置を用いることが可能である。この場合、カメラ61はタブレット端末又はヘッドマウントディスプレイ、AR表示機能付きメガネに搭載されていてもよい。カメラ61によって撮像された画像データは制御装置40に送信される。また、表示装置62は制御装置40から送信される拡張現実画像データを表示する。拡張現実画像は三次元画像であってもよく、二次元画像であってもよい。以下、「拡張現実」は「AR」と記載される場合もある。カメラ61が得る前記キャリブレーション治具やロボットに貼られたマークやロボット自身の形状の画像データに基づき、カメラ61の位置および姿勢(カメラ座標系)が基準座標系に関連付けられても良い。実空間とAR画像との位置関係を次元を変えずに関連付けるためには、カメラ61により得られる前記現実空間像は三次元カメラにより得られる三次元画像であることが好ましいが、前記現実空間像として2次元画像を取得する他の種類のカメラを用いることも可能である。
なお、基準座標系の関連付けは自動で行われても良いし、ユーザーが直接AR画像を操作して手動で座標系を合わせても良い。
また、基準座標系の関連付けを行わなくても良い。この場合は、現実とAR画像が重畳しなくなるが、現実空間上の物体の相対関係とAR画像上の物体の相対関係は一致しており、AR画像上の物体の相対関係に異常があれば実際の設定も正確でないことが分かる。
(拡張現実表示の基本処理)
制御部41は、記憶部43に格納されているAR画像作成プログラム43dに基づき、検出装置20を用いた対象Oの検出に関する設定と、搬送装置10の設定と、ロボット30の設定と、前記設定に基づいて制御部41が認識している対象Oの位置および姿勢と、検出装置20による対象Oの検出の結果と、搬送装置10の作業予定と、ロボット30の作業予定と、ロボット30による作業の実行に関する制御部41の判断結果と、制御部41が認識している対象Oに関するパラメータとのうち、少なくとも1つに関係しているAR画像データを逐次作成し、作成したAR画像データを表示装置62に送信する。AR画像の位置および姿勢はカメラ座標系又は基準座標系に基づいて調整される。これにより、表示装置62には、カメラ61から受信する現実空間像および制御装置40から受信するAR画像が表示される。
なお、制御部41からデータを取得して拡張現実装置60でAR画像を作成しても良い。
制御装置40と拡張現実装置60間の通信は有線ケーブルでつないでも良いし、無線で通信しても良い。
図1の例では、検出装置20を用いた対象Oの検出に関する設定として、検出装置20のセンサ座標系のAR画像71と、検出装置20の検出範囲のAR画像72とが表示されている。検出装置20を用いた対象Oの検出に関する設定として、検出装置20の位置および方向を示すAR画像が表示されてもよく、検出装置20のフレームレート、検出装置20の位置および方向、検出装置20の絞りや露光時間の調整値、検出装置20の使用開始後の経過時間等がインジゲータ、数値、文字等のAR画像として表示されてもよい。インジゲータは色によって程度をあらわすものであってもよい。
検出範囲のAR画像72の位置および範囲は、キャリブレーションに基づき設定され、当該設定に例えば画像データ中の搬送装置10上のマーク、模様、対象O等の位置および大きさが基準として用いられてもよい。検出範囲のAR画像72が表示される場合、オペレータは、搬送装置10上への対象Oの載置が適切か否か、検出範囲とロボット30の作業範囲との関係等を容易に確認することができる。
図1の例では、制御部41によって検出された対象Oの位置および姿勢に基づいて、制御部41が認識している対象Oの位置および姿勢を示すAR画像73が表示されている。図1は、AR画像73と現実空間像の対象Oとが搬送装置10の幅方向にずれている例を示す。本実施形態では、AR画像73は対象Oの形状に類似又は一致した形状を有するが、AR画像73は対象Oの位置、姿勢等を示す点、対象Oの移動方向、速度等を示す矢印、対象Oの抽象図、その他の代替図等であってもよい。前述および後述のその他のAR画像についても同様の表示が可能である。AR画像73の位置および姿勢は、制御部41によって検出される対象Oの位置および姿勢に応じて変化する。
また、図1の例では、ロボット30の設定である基準座標系がAR画像74として表示されている。ロボット30の設定として、ロボット30の現実の動作速度、ロボット30の最高速度、ロボット30の使用開始後の経過時間等がインジゲータ、数値、文字等のAR画像として表示されてもよい。
ロボット30の先端部、ツール50、ツール50によって把持された対象O等の速度又は加速度の計算結果がインジゲータ、数値、文字等のAR画像として表示されると、ツール50に加わる負荷、ツール50によって把持された対象Oに加わる負荷、ツール50の把持力の適否等を直感的に認識することができる。前記速度および前記加速度は、ロボット30の手首フランジの回転が加味されたものでもよい。
また、図1の例では、ロボット30の設定であるロボット30の作業範囲がAR画像75として表示されている。本実施形態では、当該作業範囲はロボット30が対象Oの取出作業を行う範囲である。当該構成によって、当該作業範囲とオペレータの行動範囲との関係、当該作業範囲と他のロボットの作業範囲との関係、作業内容に対する当該作業範囲の大きさ等をオペレータが直感的に認識することができる。
また、図1の例では、搬送装置10の設定として、搬送装置10の搬送方向のAR画像76が表示されている。搬送装置10の設定として、搬送速度、使用開始後の経過時間等がインジゲータ、数値、文字等のAR画像として表示されてもよい。
搬送装置10の搬送方向は、例えば搬送装置10によって搬送される対象Oの位置変化に基づき計算によって得られる。この場合、カメラ61は搬送装置10の上方に設けられていていることが好ましい。当該構成は、AR画像74とAR画像76のとの関係の目視確認を可能とし、基準座標系等の設定に対する搬送装置10の搬送方向が適切か否かの確認を行う上で有利である。
また、搬送装置10の設定として、搬送装置10の搬送速度を示すために、制御装置40が認識している搬送装置10のベルトのある特定の位置を指し示す指示マークのAR画像77が表示されてもよい。
また、ロボット30の動作制限領域がAR画像として表示装置62に表示されてもよい。動作制限領域は、オペレータ、周辺機器等の周囲に設定される領域であって、ロボット30の動作を停止又は制限する領域である。この場合、動作制限領域の設定範囲を直感的に認識することが可能となる。
また、検出装置20による対象Oの検出の結果として、検出装置20によって検出された画像、当該画像に前記画像処理を施すことによって得られた画像であって、対象Oの位置、姿勢、および形状をあらわす画像等が、AR画像として表示装置62に表示されてもよい。
この場合、オペレータは、検出装置20による対象Oの検出の適否を直感的に確認することができる。例えば、対象Oへのライティングの適否、対象Oへのライティングに対する検出閾値の適否、検出装置20によって検出され制御装置40が認識している対象Oの位置、姿勢、形状等の適否等を確認することができる。ライティングや検出閾値が適切でない場合、明るい部分又は暗い部分である対象Oの一部や全体が検出されない状況が発生し易くなる。また、検出装置20によって検出される対象Oの位置、姿勢、および形状を実物と比較することによって、オペレータは直感的に検出装置20の検出の適否を確認することができる。検出装置20による検出はロボット30による作業の成否、適否等に大きな影響を与えるので、当該構成は有用である。
なお、AR画像として表示装置62に表示される対象Oの位置、姿勢、および形状は対象の検出装置20の結果をもとに実際の対象の動きに合わせて逐次更新することも可能である。
また、任意の時点で、更新を停止して結果の確認を行うことが可能であると共に、記録された結果を再生することも可能である。
また、図3に示されるように、ロボット30の作業予定として、制御部41によって追跡される複数の対象Oに対しロボット30が作業を行う予定順番、作業可否、作業の難度(対象Oの属性)、対象Oの種類、重量、硬度、材質(対象Oの属性)、対象Oの検査結果等を示すインジゲータ、数値、文字等が、AR画像78として表示装置62に表示されてもよい。ここで、予定順番、作業可否、および作業の難度は、作業の実行に関する制御部41の判断結果でもあり、対象Oの種類、重量、硬度、材質、及び検査結果は制御部41が認識している対象Oに関するパラメータである。
なお、表示装置62に表示されるAR画像78を対象の検出装置20の結果をもとに実際の対象の動きに合わせて逐次更新することも可能である。また、任意の時点で、更新を停止して結果の確認を行うことが可能であると共に、記録された結果を再生することも可能である。
この場合、オペレータは、ロボット30の作業予定を直感的に認識することができる。例えば、図3に示されるように、ロボット30の作業範囲を示す一対のAR画像75の間に配置されている複数の対象Oのうち搬送方向の下流側の対象Oの予定順序が適切でない場合、そのことを容易に確認することができる。
なお、図4に示すように、複数のロボット30が対象Oに対する作業を行う場合、各ロボット30について、作業を行う予定順番をAR画像79として表示装置62に表示することができる。当該構成は、各ロボット30の作業の分担等の直感的な認識を可能とする。作業順番のAR画像79が両方のロボット30の制御装置40の各々から表示装置62に送信されてもよく、一方のロボット30の制御装置40から表示装置62に送信されてもよい。また、ロボット30に接続された上位制御装置から表示装置62に作業順番のAR画像79が送信されてもよい。ここで、予定順番は作業の実行に関する制御部41の判断結果でもある。
なお、表示装置62に表示されるAR画像79を対象の検出装置20の結果をもとに実際の対象の動きに合わせて逐次更新することも可能である。また、任意の時点で、更新を停止して結果の確認を行うことが可能であると共に、記録された結果を再生することも可能である。
また、搬送装置20の作業予定として、制御部41によって追跡されている複数の対象Oの近未来の予定位置および予定姿勢をAR画像として表示装置62に表示することも可能である。この場合、オペレータは対象Oの移動方向、移動中の姿勢等を容易に確認することができる。
なお、表示装置62に表示される当該AR画像を対象の検出装置20の結果をもとに実際の対象の動きに合わせて逐次更新することも可能である。また、任意の時点で、更新を停止して結果の確認を行うことが可能であると共に、記録された結果を再生することも可能である。
上記のようにAR画像を表示装置62に表示することによって、オペレータが、検出装置20を用いた対象Oの検出に関する設定、搬送装置10の設定、ロボット30の設定、前記設定に基づいて制御部41が認識している対象Oの位置および姿勢、検出装置20による対象Oの検出の結果、搬送装置10の作業予定、ロボット30の作業予定、ロボット30による作業の実行に関する制御部41の判断結果、又は制御部41が認識している対象Oに関するパラメータを直感的に認識することができる。これは設定、現象把握、現象の原因究明等のための作業時間の短縮、設定の改善による作業効率の向上、設定センスの向上等のために極めて有利である。
(作業対象とならない検出結果の表示)
図3および図4において、各AR画像73は、ロボット30が作業を行うことができる対象Oを作業対象として示している。これに対し、例えば対象Oの検出が不十分である時、検出された対象Oの姿勢が作業に適さない時等に、複数の対象Oのうち一部の対象Oに対してロボット30が作業を実行しない、又は実行できない場合がある。例えば、対象Oの検出パラメータがその検出閾値未満である時に、当該対象Oは作業対象として検出されない。また、対象Oの検出画像の姿勢に関するパラメータがその姿勢閾値未満である時に、対象Oの姿勢が作業に適さないと判定される。
対象Oに対するライティング、対象Oの姿勢、対象Oの形状、対象Oの素材、絞り、露光時間を含む検出装置20の設定等が、対象Oの適切な検出に影響する要因であり、作業対象として検出するか否かの判定に用いられる検出閾値の設定も影響する。検出閾値として、コントラストに関するパラメータ、モデルに対する形状の差異や類似度を示すパラメータ等を用いることが可能である。
制御部41は、前記画像処理が行われた画像データ中の各々が対象O、異物、搬送装置10上の汚れ等に対応する複数の候補のうち、所定のパラメータが検出閾値以上である候補に対応する前記AR画像73を作成し、前記所定のパラメータが検出閾値未満且つ検出候補閾値以上である候補に対応するAR画像(候補AR画像)80を作成する(図5)。ここで、検出候補閾値は検出閾値よりも小さい。AR画像80はAR画像73と区別できる表示態様で作成され、このためAR画像80はAR画像73と区別できる態様で表示装置62に表示される。
当該構成により、オペレータは、検出閾値以上で検出される対象Oを増やすための前記要因の調整、検出閾値の調整等を、比較的容易に行うことができる。
また、制御部41が、各AR画像80に付随するスコア値のAR画像81を作成してもよい。スコア値はモデルと対象の類似度、一致度を示す指標であり、図5では、スコア値が大きいほど検出閾値に達する可能性が高い。スコア値は検出結果の一例であり、検出結果のAR画像として、コントラスト値、検出位置、対象Oの種類情報、対象OのID情報、計測結果等のAR画像が作成されてもよい。 AR画像81が表示装置62に表示されることによって、オペレータは、検出閾値以上で検出される対象Oを増やすための前記要因の調整、検出閾値の調整等を、より容易に行うことができる。
なお、AR画像71〜81は時間の経過とともに逐次作成、記録される(更新される)。このため、表示装置62でもAR画像71〜81が現実空間像に合わせて逐次更新される。
または、制御装置40がリアルタイムでAR画像71〜81を作成、記録するものであり、表示装置62が、所定の入力部への入力もしくは制御装置40またはセンサにおける所定の条件の成立に応じて、その時点のもしくは直近の複数のAR画像71〜81のうち選択されたAR画像を表示するように構成されていてもよい。
(再表示処理)
制御装置40、拡張現実装置60等は、表示装置62に表示される現実空間像およびAR画像71〜81を保存する機能を有する。制御装置40が保存する場合は、記憶部43に格納されている再生プログラム43eに基づき、拡張現実装置60から逐次受信するカメラ61の画像データと、逐次作成されるAR画像データとが、記憶部43に少なくとも一時的に保存される。拡張現実装置60が保存する場合は、拡張現実装置60の記憶部に格納されている再生プログラムに基づき、カメラ61の画像データと、制御装置40から逐次受信するAR画像データとが、拡張現実装置60の記憶部に少なくとも一時的に保存される。他の装置、コンピュータ端末等において同様の保存が行われてもよい。
そして、制御装置40又は拡張現実装置60は、入力部46又は拡張現実装置60の入力部への操作に応じて、制御装置表示部42、表示装置62等において、保存されている現実空間像データおよびAR画像データを用いた再生、スロー再生、再生中の一時停止表示等を行う。このため、オペレータは、現実空間像とAR画像71〜81との重畳表示を繰返し見ることができる。
当該構成によって、オペレータは、検出装置20を用いた対象Oの検出に関する設定、搬送装置10の設定、ロボット30の設定、前記設定に基づいて制御装置40の制御部41が認識している対象Oの位置および姿勢、検出装置20による対象Oの検出の結果、搬送装置10の作業予定、又はロボット30の作業予定を、より正確に認識することができる。
なお、制御装置40、拡張現実装置60等が、保存されている現実空間像データおよびAR画像データを他の表示装置に送信することも可能である。
(選択に応じた拡張現実画像の表示)
拡張現実装置60は、選択されたAR画像のみを表示装置62に表示する機能を有する。例えば、拡張現実装置60の入力部への操作に応じて、表示装置62にAR画像71〜81のうち選択されたAR画像71だけが表示される。図4において、複数のロボット30のうち一方のロボット30に関するAR画像だけを表示装置62に表示させることも可能である。
当該構成によって、必要に応じてオペレータは表示させるAR画像を切り換えることができ、これは設定、現象把握、現象の原因究明等に関する作業時間の短縮のために有利である。
選択されたAR画像のみを制御装置40が表示装置62に送信する場合でも、前述と同様の効果が達成される。
また、拡張現実装置60が、選択された範囲のAR画像のみを表示装置62に表示する機能を持っていてもよい。例えば、拡張現実装置60の入力部への操作に応じて、選択された範囲に存在するAR画像だけが表示装置62に表示される。
この場合も、オペレータは必要に応じてAR画像を表示させる範囲を切り換えることができ、これは設定、現象把握、現象の原因究明等に関する作業時間の短縮のために有利である。
なお、表示装置62がタッチスクリーン機能を有する場合、前記の選択された範囲は、表示装置62に接触させる指、ペン等を中心とする所定範囲、指、ペン等で囲った範囲等であり得る。
なお、表示装置62がヘッドマウントディスプレイやAR機能付きメガネである場合、表示装置62が装着者の視線を検出する視線検出装置を備えていてもよい。この場合、視線検出装置を前記拡張現実装置60の入力部として機能させることが可能である。
(選択に応じた実行履歴の拡張現実画像の表示)
拡張現実装置60は、選択されたAR画像に関する実行履歴を表示装置62に表示する機能を有する。例えば、拡張現実装置60の入力部への操作に応じて、複数のAR画像73、80のうち選択された1つのAR画像73又はAR画像80に対応する対象Oの、検出装置20による撮像画像が、実行履歴として表示装置62に表示されてもよい。実行履歴の表示場所は、表示装置62においてAR画像73,80と重ならない場所であることが好ましい。
なお、検出装置20による撮像および制御部41による検出処理が行われると、対象Oであり得る複数の候補が制御部41によって認識される。制御部41は、候補のそれぞれに対応する実行履歴を記憶部43に保存することができる。
実行履歴は、センシングシステムの実行により得られた結果であればよく、測定結果、検出結果、撮像結果等であり得る。
(オブジェクトの選択および操作)
また、拡張現実装置60、制御装置40等が、所定の入力装置を用いた入力に応じて、表示装置62に表示されている各AR画像71〜81の選択処理と、選択されたAR画像の移動処理とを行ってもよい。
例えば、拡張現実装置60が、その記憶部63に格納されているAR画像操作プログラム63aに基づき、所定の入力装置を用いた入力に応じて各AR画像71〜81のうち1つ又は複数を選択状態とし、選択されたAR画像の位置および姿勢を所定の入力装置を用いた入力に応じて表示装置62内で変更する。
検出された対象OのAR画像73の位置および姿勢を変更する際に、所定の入力装置で操作されたAR画像73の位置だけを変更することも可能であり、複数のAR画像73の位置を同一の移動距離又は対応する移動距離を用いて移動することも可能である。
所定の入力装置は、例えば表示装置62に設けられたタッチスクリーンである入力装置、キーボード等を含んでいる。
また、拡張現実装置60は、入力装置への入力に基づき、AR画像71〜81の移動情報を制御装置40に送信し、制御装置40の制御部41は、記憶部43に格納されている設定調整プログラム43fに基づき、制御装置40において設定されている各種パラメータ又は計算されている各種パラメータを、受信する移動情報に応じて変更する。
例えば、AR画像71又はAR画像74の移動情報に応じて、制御装置40が認識しているセンサ座標系又は基準座標系が変更される。検出範囲を変更するためのズーム機能、光軸変更機能、姿勢変更機能等を検出装置20が有している場合は、AR画像72の移動情報に応じて、制御装置40が検出装置20のこれらの機能に関する制御を行う。
また、AR画像73又はAR画像80の移動情報に応じて、制御装置40が認識している一部又は全部の対象Oの検出位置、姿勢等が変更される。AR画像73又はAR画像80の移動情報に応じて、制御装置40が認識している各対象Oの搬送速度、移動量等が変更されてもよい。一方、AR画像77の移動情報に応じて、制御装置40が認識している各対象Oの搬送速度、移動量等が変更されてもよい。
なお記録されたAR画像に対して、各移動情報に応じて、各データを変更してもよい。
また、AR画像75の移動情報に応じて、制御装置40はロボット30の作業範囲の設定を変更する。また、AR画像76の移動情報に応じて、制御装置40が認識している搬送装置10の搬送方向が変更される。
なお、AR画像が移動される度に拡張現実装置60が移動情報を制御装置40に送信してもよいが、入力装置の入力に基づき移動情報が送信される構成の方が、制御装置40の処理量の低減、設定ミスの低減等のために有利である。
なお、制御部41が、あるAR画像の移動情報を受信し、当該AR画像と異なるAR画像に関して制御装置40内で設定されている各種パラメータ又は計算で得られた各種パラメータを変更することも可能である。例えば、設定に関するAR画像71,74,75等の移動情報を受信した時に、AR画像73,78,79,80,81のパラメータが変更される。この場合、制御部41は、AR画像作成プログラム43dに基づき、制御装置40内で変更されたパラメータに基づきAR画像データを再度作成し、作成したAR画像データを表示装置62に送信する。これにより、オペレータは、あるAR画像を移動させた時に、当該AR画像の移動に伴う制御装置40内の設定、計算等の変化をすぐに認識することができる。
なお、前記所定の入力装置として、スマートグローブと称されるウエアラブル機器を用いることも可能である。スマートグローブが用いられる場合、例えば、オペレータがスマートグローブを着用した手をカメラ61の画角内に配置すると、当該手の人差し指、親指等の位置が拡張現実装置60によって認識され、人差し指および親指でAR画像71〜81のうち何れかのAR画像を掴む動作を行うと当該AR画像が選択状態となり、人差し指および親指をその状態としながら移動すると当該AR画像が移動する。
なお、上記のAR画像71〜81は、例えばロボット30の基準座標系を基準に位置、姿勢、パラメータ等が設定されている。これに対し、AR画像71〜81の位置、姿勢、パラメータ等が、検出装置20のセンサ座標系等を基準に設定されてもよい。また、複数のロボット30がそれぞれ制御装置40を有する場合、AR画像71〜81を各制御装置40が認識している基準座標系に応じて表示装置62に表示することにより、各ロボット30の基準座標系の設定の適否の確認が容易となる。
また、表示装置62がタッチスクリーン機能、オペレータの視線を検出する視線検出機能等を有する場合、ポインティングデバイス、視線方向等によって複数のロボット30のうち1つ又は複数が指定され、指定されたロボット30の制御装置40が認識しているAR画像が表示されるように構成されてもよい。
(他の作業システム又は検査システムに適用する場合)
ロボット30が対象Oに加工、組立、検査、観察等の他の作業を行う作業システムに前述と同様の構成を適用することも可能である。対象Oは何等かの移動手段によって搬送できるものであればよく、移動手段としてロボット30とは異なるロボット等を用いることも可能である。対象Oが車の車体又はフレームである場合に、当該車体又はフレームがそこに搭載されたエンジン、モータ、車輪等によって移動する場合、エンジン、モータ、車輪等が移動手段として機能する。
対象Oが重力によって滑り落ちる、転がり落ちる、又は落下するシューターによって、対象Oを移動させてもよい。この場合、傾斜しているシューターを加振装置によって振動させ、これによりシューター上の対象Oの移動を円滑にすることも可能である。これらの場合、シューター、加振装置等が移動手段として機能する。
また、ロボットを用いない作業システム、検査システム等に前述と同様の構成を適用することが可能である。ロボットを用いない作業システムとして、複数の塗装ガン(所定の装置)が搬送装置10の上方の所定位置に配置されている自動塗装システム、洗浄ノズル(所定の装置)が搬送装置10の側方の所定位置に配置されている洗浄システム等がある。
検査システムの場合、例えば、ロボット30の代わりに検査用センサ(所定の装置)が搬送装置10の上方に配置され、制御装置40は検査用センサの検出画像を用いた画像処理および判定を行う。検査用センサのセンシング範囲を照明するための検査用照明装置が設けられてもよい。
そして、制御装置40は、画像処理の結果、判定結果、これらに関するパラメータ、パラメータに対応するスコア等のAR画像を作成し、作成されたAR画像を表示装置62に送信する。例えば、表示装置62には、画像処理後の検査対象の画像、検査対象の合否に関する判定結果、これらに関するパラメータ、スコア等のAR画像が表示される。また、表示装置62に、搬送装置10上の検査対象以外の物品、模様、汚れ等の画像処理後の画像であるノイズ画像、ノイズ画像に関するパラメータ、ノイズ画像のスコア等が表示されてもよい。当該構成によって、オペレータが制御装置40の設定、検査用照明装置の設定作業等を容易に行うことが可能となる。
このように、本実施形態によれば、制御装置40が認識している検出装置20を用いた対象Oの検出に関する設定、搬送装置10の設定、および対象Oに対して作業を行うロボット30の設定であるAR画像71,72,73,75,76,77が表示装置62による表示のために作成される。このため、オペレータはこれらを容易に認識することができる。
また、本実施形態では、前記設定に基づいて制御装置40が認識している対象Oの位置、検出装置20を用いた対象Oの検出の結果、搬送装置10の作業予定、ロボット30の作業予定、ロボット30による作業の実行に関する制御装置40の判断結果、制御装置40が認識している対象Oに関するパラメータ等も、オペレータが視覚的に認識することができ、これにより、制御装置40内で実際に行われている処理をオペレータが容易に知ることができる。
このように制御装置40内の設定、処理等を視覚的に認識するこことは、システムの作動の成功又は失敗の原因究明の容易化に繋がる。
また、本実施形態では、制御装置40が、制御装置40が認識している対象Oの位置と、対象Oの検出の結果と、制御装置40が受信又は決定する搬送装置10の作業予定と、制御装置40が決定するロボット30の作業予定と、制御装置40の判断結果と、制御装置40が認識している対象Oに関するパラメータとのうち少なくとも1つを示すAR画像73,78,79,80,81を、ロボット30が作業を行っている際に更新する。
このため、オペレータはこれらに関する制御装置40の設定、処理等の動的な変化を視覚的に認識することができる。
また、本実施形態では、制御装置40がロボット30を制御するものであり、所定の入力装置を用いた入力に応じて表示装置62に表示されているAR画像の少なくとも1つを選択する選択処理と、所定の入力装置を用いた入力に応じて選択されたAR画像を表示装置62内で移動する移動処理とが行われ、選択されたAR画像の移動情報に応じて、制御装置40においてロボット30を制御するために設定されているパラメータ又は計算されているパラメータが変更される。
このため、ロボット30を制御するための制御装置40の設定をオペレータは直感的に変更することが可能となり、これは熟練したオペレータにとっても設定の正確性および作業効率を向上するために有用である。
また、本実施形態では、制御装置40が複数のAR画像を作成するものであり、表示装置62が、所定の入力部への入力に応じて、複数のAR画像のうち選択されたAR画像を表示することができる。
これにより、オペレータは入力部への入力を用いて表示するAR画像を選ぶことができる。このため、制御装置40の処理、設定等をオペレータがより容易に認識することが可能になり、システムの作動の成功又は失敗の原因究明の容易化を図るためにも極めて有用である。
また、本実施形態では、制御装置40によって作成されたAR画像を対応する現実空間像と共に記憶する記憶部43,63を備える。
これにより、オペレータは、記憶されたAR画像を現実空間像と共に再生することができ、これはシステムの設定チェックの容易化、システムの設定の容易化、およびシステムの作動の成功又は失敗の原因究明の容易化のために極めて有利である。なお、保存されているAR画像データのみの再生、スロー再生、再生中の一時停止表示等が行われてもよい。このような構成でも、システムの設定チェックの容易化、システムの設定の容易化、およびシステムの作動の成功又は失敗の原因究明の容易化に資する。
なお、本実施形態では作業機械として多関節ロボットであるロボット30を用いている。これに対し、ドリル等のツールをエアシリンダ、油圧シリンダ等によって上下方向にのみ移動させるドリル支持装置を作業機械として用いることも可能であり、その他の作業機機械を用いることも可能である。
また、表示装置62の代わりに、オペレータの網膜にAR画像を投影する表示装置を用いることも可能である。この場合でも、オペレータの網膜には現実空間像と共にAR画像が表示される。
また、表示装置62による表示の代わりに、又は、表示装置62による表示と共に、現実空間の装置、例えば搬送装置10、検出装置20、ロボット30、および空間の少なくとも1つにAR画像を投影するプロジェクター(投影装置)を用いることも可能である。この場合でも、AR画像が現実空間に表示されるので、前述と同様の作用効果が達成され得る。
投影装置として、三次元のAR画像を現実空間に投影することも可能である。例えば作業領域に投影機でAR画像を投影することで、作業領域内の情報を表示することが可能である。
また、表示装置62であるAR機能付きメガネ、ヘッドマウントディスプレイ等が、上記と異なり、これらを装着しているオペレータが生の現実空間を見ることを許容する透光性板又は透光性フィルムを備えていてもよい。この場合、透光性板又は透光性フィルムがAR画像データを表示する機能を備えていてもよく、透光性板又は透光性フィルムにAR画像データを投影する機能をAR機能付きメガネ、ヘッドマウントディスプレイ等が備えていてもよい。当該構成を用いると、オペレータは、表示装置62を介して現実空間を見ながら、透光性板又は透光性フィルムのAR画像を見ることができるので、前述と同様の作用効果が達成され得る。
透光性板又は透光性フィルムの拡張現実画像と生の現実空間との位置決めに関しては、例えば人の立ち位置等を別センサで検知しておき人の向きに合わせたAR画像を用意して表示するという方法を取り得る。
現実空間を見ながら透光性板又は透光性フィルムのAR画像を見ることができる前記表示装置62又は前記投影装置を用いる場合でも、前述の作業対象とならない検出結果の表示、前述の選択に応じたAR画像の表示、前述のオブジェクトの選択および操作が可能であり、前述のように他の作業システム又は検査システムに適用することも可能である。
例えば、投影されたAR画像又は透光性板又は透光性フィルムに表示されたAR画像をスマートグローブの人差し指および親指で掴む動作を行うと、当該動作がカメラによって撮像された画像を用いて認識され、人差し指および親指をその状態としながら移動すると当該AR画像が移動する。
なお、拡張現実装置60のカメラ61が、搬送装置10、検出装置20、およびロボット30を俯瞰する位置に配置され、表示装置62に俯瞰状態の現実空間像およびAR画像が表示されてもよい。この場合、表示装置62にオペレータのAR画像が表示されてもよい。
なお、本実施形態では、制御装置40が前述のようにAR画像を作成するものを示したが、拡張現実装置60等に内蔵された制御装置や、他の制御装置が、制御装置40から様々な設定、演算結果、判定結果等のデータを受信し、受信したデータを用いてAR画像を作成し、作成されたAR画像を表示装置62に送信してもよい。
また、検出装置20は対象Oの位置に応じて移動するものであってもよい。例えば、検出装置20がロボット30の先端部に支持されていてもよく、この場合でも、制御装置40は、検出装置20の座標系、検出範囲等の設定データを有しており、ロボット30の動作に応じた検出装置20の位置および姿勢を計算によって求めることができる。
さらに、検出装置20が1軸ロボット、多関節ロボット等に支持されていてもよい。これらの場合でも、制御装置40は、検出装置20の座標系、検出範囲等の設定データを受信し、1軸ロボット、多関節ロボット等の動作に応じた検出装置20の位置および姿勢を計算によって求めることができる。
なお、拡張現実作成部は必ずしも制御装置内になくても良い。
10 搬送装置
11 モータ
12 作動位置検出装置
20 検出装置
30 ロボット
30a アーム
31 サーボモータ
40 制御装置
41 制御部
42 制御装置表示部
43 記憶部
43a システムプログラム
43b 動作プログラム
43c 物品検出プログラム
43d AR画像作成プログラム
43e 再生プログラム
50 ツール
51 サーボモータ
60 拡張現実装置
61 カメラ
62 表示装置
63 記憶部
63a AR画像操作プログラム
71〜81 AR画像
O 対象

Claims (19)

  1. 対象を移動させる移動手段によって移動している前記対象の少なくとも位置の検出に用いられる検出装置と、
    制御装置と、を備え、
    前記制御装置が認識している設定であって、前記検出装置を用いた前記対象の検出に関する設定、前記移動手段の設定、および前記対象に対して作業を行う作業機械の設定のうち少なくとも1つと、前記設定に基づいて前記制御装置が認識している前記対象の位置と、前記検出装置を用いた前記対象の検出の結果と、前記移動手段の作業予定と、前記作業機械の作業予定と、前記作業機械による前記作業の実行に関する前記制御装置の判断結果と、前記制御装置が認識している前記対象に関するパラメータとのうち、少なくとも1つを示す拡張現実画像を、前記制御装置が表示装置による表示又は投影装置による投影のために作成する、センシングシステム。
  2. 前記投影装置が、前記拡張現実画像を現実空間に投影するものであり、前記表示装置が、前記拡張現実画像を、現実空間像又は現実空間と共に見えるように表示するものである、請求項1に記載のセンシングシステム。
  3. 前記制御装置が、前記制御装置が認識している前記対象の前記位置と、前記対象の前記検出の結果と、前記移動手段の前記作業予定と、前記作業機械の前記作業予定と、前記制御装置の前記判断結果と、前記対象に関する前記パラメータとのうち少なくとも1つを示す前記拡張現実画像を、前記作業機械が前記作業を行っている際に更新する、請求項1又は2に記載のセンシングシステム。
  4. 前記制御装置が、前記作業機械を制御するものであり、
    所定の入力装置を用いた入力に応じて前記表示装置に表示されている前記拡張現実画像又は前記投影装置によって投影されている前記拡張現実画像の少なくとも1つを選択する選択処理と、前記所定の入力装置を用いた入力に応じて選択された、前記表示装置によって表示されている前記拡張現実画像又は前記投影装置によって投影されている前記拡張現実画像を移動する移動処理と、を行う拡張現実画像操作手段と、
    選択された前記拡張現実画像の移動情報に応じて、前記制御装置において前記作業機械を制御するために設定されているパラメータ又は計算されているパラメータを変更する設定調整手段と、を備える請求項1〜3の何れかに記載のセンシングシステム。
  5. 前記制御装置が複数の前記拡張現実画像を作成するものであり、
    前記表示装置又は前記投影装置が、所定の入力部への入力に応じて、前記複数の拡張現実画像のうち選択された前記拡張現実画像を表示又は投影するものである、請求項1〜4の何れかに記載のセンシングシステム。
  6. 前記制御装置によって作成された前記拡張現実画像を、対応する現実空間像と共に記憶する記憶部を備える、請求項1〜5の何れかに記載のセンシングシステム。
  7. 前記記憶部に記憶されている前記拡張現実画像を再生する、もしくは前記現実空間像と共に再生する再生手段を備える、請求項5に記載のセンシングシステム。
  8. 所定の移動手段によって移動している対象の少なくとも位置の検出に用いられる検出装置と、
    前記対象に作業を行う作業機械を前記検出装置の検出結果を用いて制御する制御装置と、
    前記作業機械が前記作業を行っている際に、前記検出装置の検出結果に基づき前記制御装置が認識している前記対象の位置と、前記移動手段の作業予定と、前記作業機械の作業予定と、前記作業機械による作業の実行に関する前記制御装置の判断結果と、前記制御装置が認識している前記対象に関するパラメータとのうち、少なくとも1つを示す拡張現実画像を逐次作成する拡張現実画像作成手段と、
    前記拡張現実画像作成手段によって作成された前記拡張現実画像を、対応する現実空間像と共に記憶する記憶部とを備える、センシングシステム。
  9. 前記記憶部に記憶されている前記拡張現実画像を再生する、もしくは前記現実空間像と共に再生する再生手段を備える、請求項7に記載のセンシングシステム。
  10. 所定の移動手段によって移動している複数の対象の検出に用いられる検出装置と、
    前記検出装置によって得られる画像データに前記対象の検出のための画像処理を行う対象検出手段と、
    前記画像処理が行われた処理後画像内にあらわれる複数の候補のうち所定のパラメータが検出閾値以上である候補に対応する拡張現実画像を作成し、前記複数の候補のうち前記所定のパラメータが前記検出閾値未満且つ検出候補閾値以上である候補に対応する候補拡張現実画像を作成する拡張現実画像作成手段と、
    前記拡張現実画像および前記候補拡張現実画像を表示又は投影する表示装置又は投影装置と、を備えるセンシングシステム。
  11. 前記候補拡張現実画像が前記拡張現実画像と区別可能な態様で作成される、請求項9に記載のセンシングシステム。
  12. 前記拡張現実画像作成手段が、前記候補拡張現実画像に付随する検出結果の拡張現実画像を作成し、
    前記表示装置又は前記投影装置によって、前記候補拡張現実画像と共に前記検出結果の拡張現実画像が表示又は投影される、請求項9又は10に記載のセンシングシステム。
  13. 請求項1〜12の何れかに記載のセンシングシステムと前記作業機械とを備える作業システム。
  14. 対象を移動させる移動手段によって移動している前記対象の検出結果に基づき制御装置が作業機械又は所定の装置を制御するシステムに用いられる拡張現実画像の表示方法であって、
    前記制御装置が認識している設定であって、前記対象の検出に関する設定、前記移動手段の設定、および前記作業機械の設定のうち少なくとも1つと、前記設定に基づいて前記制御装置が認識している前記対象の位置と、前記検出装置を用いた前記対象の検出の結果と、前記移動手段の作業予定と、前記作業機械の作業予定と、前記作業機械による作業の実行に関する前記制御装置の判断結果と、前記制御装置が認識している前記対象に関するパラメータとのうち、少なくとも1つを示す拡張現実画像を前記制御装置が作成するステップと、
    作成された前記拡張現実画像を表示装置によって表示する又は投影装置によって投影するステップと、を有する拡張現実画像の表示方法。
  15. 対象を移動させる移動手段によって移動している前記対象の検出結果に基づき制御装置が作業機械を制御するシステムに用いられる拡張現実画像の記憶方法であって、
    前記作業機械が前記作業を行っている際に、前記検出結果に基づき前記制御装置が認識している前記対象の位置と、前記移動手段の作業予定と、前記作業機械の作業予定と、前記作業機械による作業の実行に関する前記制御装置の判断結果と、前記制御装置が認識している前記対象に関するパラメータとのうち、少なくとも1つを示す拡張現実画像を逐次作成する拡張現実画像作成ステップと、
    前記拡張現実画像作成ステップによって作成された前記拡張現実画像を、対応する現実空間像と共に記憶する記憶ステップと、を有する拡張現実画像の記憶方法。
  16. 対象を移動させる移動手段によって移動している複数の前記対象の検出のために画像処理を行うシステムに用いられる拡張現実画像の表示方法であって、
    前記画像処理が行われた処理後画像内にあらわれる複数の候補のうち所定のパラメータが検出閾値以上である候補に対応する拡張現実画像を作成し、前記複数の候補のうち前記所定のパラメータが前記検出閾値未満且つ検出候補閾値以上である候補に対応する候補拡張現実画像を作成するステップと、
    前記拡張現実画像および前記候補拡張現実画像を表示する表示ステップと、を有する拡張現実画像の表示方法。
  17. 対象を移動させる移動手段によって移動している前記対象の検出結果に基づき制御装置が作業機械又は所定の装置を制御するシステムに用いられるプログラムであって、
    コンピュータに、
    前記制御装置が認識している設定であって、前記対象の検出に関する設定、前記移動手段の設定、および前記作業機械の設定のうち少なくとも1つと、前記設定に基づいて前記制御装置が認識している前記対象の位置と、前記検出装置を用いた前記対象の検出の結果と、前記移動手段の作業予定と、前記作業機械の作業予定と、前記作業機械による作業の実行に関する前記制御装置の判断結果と、前記制御装置が認識している前記対象に関するパラメータとのうち、少なくとも1つを示す拡張現実画像を前記制御装置が作成する処理と、
    作成された前記拡張現実画像を表示装置によって表示する又は投影装置によって投影する処理と、を実行させるプログラム。
  18. 対象を移動させる移動手段によって移動している前記対象の検出結果に基づき制御装置が作業機械を制御するシステムに用いられるプログラムであって、
    コンピュータに、
    前記作業機械が前記作業を行っている際に、前記検出結果に基づき前記制御装置が認識している前記対象の位置と、前記移動手段の作業予定と、前記作業機械の作業予定と、前記作業機械による作業の実行に関する前記制御装置の判断結果と、前記制御装置が認識している前記対象に関するパラメータとのうち、少なくとも1つを示す拡張現実画像を逐次作成する拡張現実画像作成処理と、
    前記拡張現実画像作成処理によって作成された前記拡張現実画像を、対応する現実空間像と共に記憶する記憶処理と、を実行させるプログラム。
  19. 対象を移動させる移動手段によって移動している複数の前記対象の検出のために画像処理を行うシステムに用いられるプログラムであって、
    コンピュータに、
    前記画像処理が行われた処理後画像内にあらわれる複数の候補画像のうち所定のパラメータが検出閾値以上である候補に対応する拡張現実画像を作成し、前記複数の候補のうち前記所定のパラメータが前記検出閾値未満且つ検出候補閾値以上である候補に対応する候補拡張現実画像を作成する処理と、
    記拡張現実画像および前記候補拡張現実画像を表示する表示ステップと、を実行させるプログラム。
JP2018139198A 2018-07-25 2018-07-25 センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム Active JP6856583B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018139198A JP6856583B2 (ja) 2018-07-25 2018-07-25 センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
US16/451,668 US10885340B2 (en) 2018-07-25 2019-06-25 Sensing system, work system, augmented-reality-image displaying method, augmented-reality-image storing method, and program
DE102019119319.2A DE102019119319B4 (de) 2018-07-25 2019-07-17 Abtastsystem, Arbeitssystem, Verfahren zum Anzeigen von Augmented-Reality-Bildern, Verfahren zum Speichern von Augmented-Reality-Bildern und Programme dafür
CN201910656478.2A CN110784708B (zh) 2018-07-25 2019-07-19 感测系统、作业系统、扩展现实图像的显示方法、扩展现实图像的存储方法以及程序
US17/023,792 US11328507B2 (en) 2018-07-25 2020-09-17 Sensing system, work system, augmented-reality-image displaying method, augmented-reality-image storing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018139198A JP6856583B2 (ja) 2018-07-25 2018-07-25 センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020015128A true JP2020015128A (ja) 2020-01-30
JP6856583B2 JP6856583B2 (ja) 2021-04-07

Family

ID=69149041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018139198A Active JP6856583B2 (ja) 2018-07-25 2018-07-25 センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム

Country Status (4)

Country Link
US (2) US10885340B2 (ja)
JP (1) JP6856583B2 (ja)
CN (1) CN110784708B (ja)
DE (1) DE102019119319B4 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115963749A (zh) * 2022-12-13 2023-04-14 彼合彼方机器人(天津)有限公司 一种管道补口机器人作业实时控制系统及方法
JP7481205B2 (ja) 2020-08-26 2024-05-10 川崎重工業株式会社 ロボットシステム、ロボットの制御方法、情報処理装置、コンピュータプログラム、学習装置、及び学習済みモデルの生成方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6795471B2 (ja) * 2017-08-25 2020-12-02 ファナック株式会社 ロボットシステム
CN111527463B (zh) * 2018-01-22 2024-02-23 深圳市大疆创新科技有限公司 用于多目标跟踪的方法和系统
JP7359633B2 (ja) * 2019-10-17 2023-10-11 ファナック株式会社 ロボットシステム
EP3992741A1 (en) * 2020-10-30 2022-05-04 Asco Power Technologies, L.P. Extended reality playback of events for manufacturing, installation, operation, maintenance and repair of infrastructure equipment
JP2022116606A (ja) * 2021-01-29 2022-08-10 セイコーエプソン株式会社 ロボットの制御方法およびロボットシステム
US11644890B2 (en) * 2021-02-11 2023-05-09 Qualcomm Incorporated Image capturing in extended reality environments
CN113301306A (zh) * 2021-05-24 2021-08-24 中国工商银行股份有限公司 智能巡检方法及系统
CN114739454A (zh) * 2022-03-25 2022-07-12 青岛虚拟现实研究院有限公司 一种基于增强现实的测试系统
CN116152828B (zh) * 2023-04-21 2023-06-27 福建鹿鸣教育科技有限公司 作业批改方法、系统、终端及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243516A (ja) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置
JP2005111607A (ja) * 2003-10-07 2005-04-28 Fanuc Ltd ロボット物流トラッキング装置
JP2008296330A (ja) * 2007-05-31 2008-12-11 Fanuc Ltd ロボットシミュレーション装置
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
JP2017100206A (ja) * 2015-11-30 2017-06-08 株式会社デンソーウェーブ ロボット安全システム
JP2017104944A (ja) * 2015-12-10 2017-06-15 ファナック株式会社 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP2018034233A (ja) * 2016-08-30 2018-03-08 ファナック株式会社 ワーク仕分けシステムおよび方法
JP2018069377A (ja) * 2016-10-28 2018-05-10 ファナック株式会社 ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002192486A (ja) 2000-12-25 2002-07-10 Seiko Epson Corp ロボット制御方法及び該方法を適用したロボットコントローラ
DE102005011126A1 (de) * 2005-03-10 2006-09-14 Siemens Ag Generierung virtueller Welten auf Basis einer realen Umgebung
DE102005045855A1 (de) 2005-09-26 2007-03-29 Siemens Ag Verfahren und Vorrichtung zur Erleichterung der Einstellung von Systemen, bei welchen Objekten bewegt werden
JP4507281B2 (ja) * 2006-03-30 2010-07-21 富士フイルム株式会社 画像表示装置、撮像装置および画像表示方法
CN102837318B (zh) 2011-06-20 2015-05-27 株式会社安川电机 机器人系统
JP5459269B2 (ja) 2011-06-20 2014-04-02 株式会社安川電機 ピッキングシステム
US9600933B2 (en) * 2011-07-01 2017-03-21 Intel Corporation Mobile augmented reality system
JP5892360B2 (ja) 2011-08-02 2016-03-23 ソニー株式会社 ロボット指示装置、ロボット指示方法、プログラム、及び通信システム
US20140081459A1 (en) 2012-09-20 2014-03-20 Marc Dubois Depth mapping vision system with 2d optical pattern for robotic applications
WO2014101955A1 (en) 2012-12-28 2014-07-03 Metaio Gmbh Method of and system for projecting digital information on a real object in a real environment
JP5596844B2 (ja) 2013-10-30 2014-09-24 オリンパス株式会社 画像処理装置、画像処理システム及び画像処理方法
JP5900468B2 (ja) * 2013-11-21 2016-04-06 コニカミノルタ株式会社 Ar表示装置、処理内容設定装置、処理内容設定方法およびプログラム
JP5824173B1 (ja) 2014-02-28 2015-11-25 ファナック株式会社 ロボットを用いて物品を整列させる物品整列装置及び物品整列方法、並びに物品整列装置を備えた物品移送システム
US9632313B1 (en) * 2014-03-27 2017-04-25 Amazon Technologies, Inc. Augmented reality user interface facilitating fulfillment
JP6589604B2 (ja) 2015-12-01 2019-10-16 株式会社デンソーウェーブ ティーチング結果表示システム
JP2017100244A (ja) 2015-12-02 2017-06-08 オークマ株式会社 中空ワークの位置決め方法
KR102371409B1 (ko) * 2016-01-08 2022-03-07 삼성전자주식회사 센서 관리 방법 및 장치
US10950039B2 (en) 2016-06-16 2021-03-16 Sony Interactive Entertainment Inc. Image processing apparatus
JP6834232B2 (ja) 2016-08-09 2021-02-24 オムロン株式会社 情報処理システム、情報処理装置、ワークの位置特定方法、およびワークの位置特定プログラム
JP2018034241A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
JP6801333B2 (ja) 2016-09-27 2020-12-16 株式会社デンソーウェーブ ロボット用の表示システム
JP6741538B2 (ja) 2016-09-28 2020-08-19 川崎重工業株式会社 ロボット、ロボットの制御装置、及び、ロボットの位置教示方法
JP6866646B2 (ja) 2017-01-16 2021-04-28 オムロン株式会社 センサ支援システム、端末、センサおよびセンサ支援方法
US10140773B2 (en) 2017-02-01 2018-11-27 Accenture Global Solutions Limited Rendering virtual objects in 3D environments
JP6795471B2 (ja) 2017-08-25 2020-12-02 ファナック株式会社 ロボットシステム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243516A (ja) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置
JP2005111607A (ja) * 2003-10-07 2005-04-28 Fanuc Ltd ロボット物流トラッキング装置
JP2008296330A (ja) * 2007-05-31 2008-12-11 Fanuc Ltd ロボットシミュレーション装置
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
JP2017100206A (ja) * 2015-11-30 2017-06-08 株式会社デンソーウェーブ ロボット安全システム
JP2017104944A (ja) * 2015-12-10 2017-06-15 ファナック株式会社 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP2018034233A (ja) * 2016-08-30 2018-03-08 ファナック株式会社 ワーク仕分けシステムおよび方法
JP2018069377A (ja) * 2016-10-28 2018-05-10 ファナック株式会社 ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7481205B2 (ja) 2020-08-26 2024-05-10 川崎重工業株式会社 ロボットシステム、ロボットの制御方法、情報処理装置、コンピュータプログラム、学習装置、及び学習済みモデルの生成方法
CN115963749A (zh) * 2022-12-13 2023-04-14 彼合彼方机器人(天津)有限公司 一种管道补口机器人作业实时控制系统及方法
CN115963749B (zh) * 2022-12-13 2024-05-28 彼合彼方机器人(天津)有限公司 一种管道补口机器人作业实时控制系统及方法

Also Published As

Publication number Publication date
US20200034621A1 (en) 2020-01-30
US20210004598A1 (en) 2021-01-07
JP6856583B2 (ja) 2021-04-07
CN110784708A (zh) 2020-02-11
US10885340B2 (en) 2021-01-05
CN110784708B (zh) 2022-09-13
DE102019119319B4 (de) 2022-12-22
DE102019119319A1 (de) 2020-01-30
US11328507B2 (en) 2022-05-10

Similar Documents

Publication Publication Date Title
JP6856583B2 (ja) センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
JP6856590B2 (ja) センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム
CN110977931B (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
CN110394780B (zh) 机器人的仿真装置
JP7490349B2 (ja) 入力装置、入力装置の制御方法、ロボットシステム、ロボットシステムを用いた物品の製造方法、制御プログラム及び記録媒体
US10052765B2 (en) Robot system having augmented reality-compatible display
US20080013825A1 (en) Simulation device of robot system
US20050251290A1 (en) Method and a system for programming an industrial robot
JP2005106825A (ja) 受像装置の位置および方向づけの決定方法および装置
JP4932048B1 (ja) 作業支援システム
US11534912B2 (en) Vibration display device, operation program creating device, and system
JP6902369B2 (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
JP7359633B2 (ja) ロボットシステム
JP6883392B2 (ja) ロボットシステム
JP7502003B2 (ja) 移動機械の移動軌跡のずれを取得する装置、及び方法
EP3744461B1 (en) Weld operation measurement system
JP7366264B2 (ja) ロボット教示方法及びロボット作業方法
WO2023105637A1 (ja) 産業機械の動作を検証するための装置、及び方法
JP7068416B2 (ja) 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法
JP2023156237A (ja) 処理装置、処理システム、頭部装着ディスプレイ、処理方法、プログラム、及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191209

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200325

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210318

R150 Certificate of patent or registration of utility model

Ref document number: 6856583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150