JP2021088028A - 表示装置及び表示プログラム - Google Patents

表示装置及び表示プログラム Download PDF

Info

Publication number
JP2021088028A
JP2021088028A JP2019219471A JP2019219471A JP2021088028A JP 2021088028 A JP2021088028 A JP 2021088028A JP 2019219471 A JP2019219471 A JP 2019219471A JP 2019219471 A JP2019219471 A JP 2019219471A JP 2021088028 A JP2021088028 A JP 2021088028A
Authority
JP
Japan
Prior art keywords
work
work target
augmented reality
unit
reality display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019219471A
Other languages
English (en)
Other versions
JP7409848B2 (ja
Inventor
雅文 大場
Masafumi Oba
雅文 大場
航 宮▲崎▼
Wataru Miyazaki
航 宮▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2019219471A priority Critical patent/JP7409848B2/ja
Priority to US17/090,963 priority patent/US11538201B2/en
Priority to DE102020131815.4A priority patent/DE102020131815A1/de
Priority to CN202011403926.7A priority patent/CN112894799A/zh
Publication of JP2021088028A publication Critical patent/JP2021088028A/ja
Application granted granted Critical
Publication of JP7409848B2 publication Critical patent/JP7409848B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40353Split robot into two virtual robot, origin of second equals tip of first
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels

Abstract

【課題】作業現場に実際にロボットを設置する前に、作業現場のレイアウトの確認及びロボットの作業に対する処理能力の確認を容易に行うことができるようにすること。【解決手段】表示装置は、所定のプログラムに従って動作する仮想ロボットを実空間上の物体と共に表示する拡張現実表示部と、拡張現実表示部から実空間上の作業対象までの距離を計測することによって、作業対象の位置を検出する位置検出部と、拡張現実表示部に表示される仮想ロボットを、位置検出部によって検出された作業対象の位置に基づいて動作させ、作業対象に対して所定の作業を実行させる制御部と、を備える。【選択図】図1

Description

本発明は、表示装置及び表示プログラムに関する。
従来、搬送装置によって搬送されるワークに対して所定の作業を行うシステムにおいて、例えば、繁忙期にロボットを追加で設置する場合、ロボットを設置した後の作業現場のレイアウトを事前に確認したい場合がある。また、ロボットを追加で設置することによる作業の改善効果を知るために、作業現場に設置した場合のロボットの処理能力を事前に確認したいという場合もある。
なお、特許文献1は、操作する機器の現在位置と、操作する機器を移動させる目的位置との関係を視覚的に把握可能な情報を提示することを目的として、駆動対象機器の3次元データおよび構造物の3次元データに基づいて、前記構造物の3次元データが規定する仮想空間内において、前記駆動対象機器に設定された制御点を通り第1の直線を含む照準座標軸の3次元データを生成する情報処理部と、前記駆動対象機器の3次元データ、前記構造物の3次元データおよび情報処理部が生成した前記照準座標軸の3次元データに基づいて、前記照準座標軸を出力装置に表示するための制御情報を生成する出力制御部とを備え、前記第1の直線は、前記制御点と前記構造物の表面との交点までの部分の線分である表示制御装置を開示している。
特許第6385627号公報
ロボットを追加で設置した後の作業現場のレイアウトを確認するためには、既存のシステムの図面にロボットを追加し、ロボットの作業範囲等を確認することによって、作業現場のレイアウトを再検討する必要がある。そのため、実際にロボットを作業現場に設置して作業を開始できるようになるまでの時間が多く掛かる問題がある。
また、ロボットの処理能力を事前に確認するため、従来では、オフラインソフトにおいて、ワークの流れをシミュレートしてロボットを動作させることによって、ロボットによる作業の改善効果を評価している。しかし、オフラインソフトでは、現実のワークの流れを正確に再現することは難しく、作業の改善効果を正確に評価できなかった。
したがって、作業現場に実際にロボットを設置する前に、作業現場のレイアウトの確認及びロボットの作業に対する処理能力の確認を容易に行えることが望まれている。
本開示の表示装置の一態様は、所定のプログラムに従って動作する仮想ロボットを実空間上の物体と共に表示する拡張現実表示部と、前記拡張現実表示部から実空間上の作業対象までの距離を計測することによって、前記作業対象の位置を検出する位置検出部と、前記拡張現実表示部に表示される前記仮想ロボットを、前記位置検出部によって検出された前記作業対象の位置に基づいて動作させ、前記作業対象に対して所定の作業を実行させる制御部と、を備える。
本開示の表示プログラムの一態様は、コンピュータを、所定のプログラムに従って動作する仮想ロボットを実空間上の物体と共に表示する拡張現実表示部と、前記拡張現実表示部から前記作業対象の位置を計測する位置検出部と、前記拡張現実表示部に表示される前記仮想ロボットを、前記位置検出部によって計測された前記作業対象の位置に基づいて動作させ、前記作業対象に対して所定の作業を実行させる制御部と、を備える表示装置として機能させる。
本開示の表示装置の一態様によれば、作業現場に実際にロボットを設置する前に、作業現場のレイアウトの確認及びロボットの作業に対する処理能力の確認を容易に行うことができる。
また、本開示の表示プログラムの一態様によれば、コンピュータによって、作業現場に実際にロボットを設置する前に、作業現場のレイアウトの確認及びロボットの作業に対する処理能力の確認を容易に行うことができる。
本開示の一態様に係る表示装置の使用状態を示す図である。 本開示の一態様に係る表示装置の構成を示すブロック図である。 本開示の一態様に係る表示装置において作業対象の移動速度を計測する様子を示す図である。 本開示の一態様に係る表示装置において作業対象に対する所定の作業を達成したことを示す情報を表示した状態を示す図である。 本開示の一態様に係る表示装置における表示方法を示すフローチャートである。 本開示の他の一態様に係る表示装置を示す概略図である。
以下、本開示の一態様について図面を参照して説明する。図1は、本開示の一態様に係る表示装置の使用状態を示す図である。図2は、本開示の一態様に係る表示装置の構成を示すブロック図である。
表示装置1は、例えば、工場内の作業現場100に新たにロボットの設置を検討する際に、ロボットを設置した後の作業現場100のレイアウトの確認と、ロボットの処理能力の確認とを事前に行うことができる装置である。図1に示す表示装置1は、表示部としての液晶モニタ画面を備えるタブレット型コンピュータによって構成される。
図1に示す実空間上の作業現場100(物体)には、図1中の白抜き矢印で示す一方向に複数の作業対象300(物体)を搬送する搬送装置200(物体)が設置されている。作業現場100には、搬送装置200によって搬送される作業対象300に対して作業を行う2人の作業者WK(物体)が示されている。
表示装置1は、図2に示すように、拡張現実表示部2と、位置検出部3と、制御部4と、作業対象管理部5と、を有する。
拡張現実表示部2は、図1に示すように、仮想ロボット10を実空間上の物体(本実施形態では作業現場100、搬送装置200、作業対象300及び作業者WKである。)と共に表示する。拡張現実表示部11は、一般的にはコンピュータのモニタ画面によって構成され、例えば表示装置1に設けられる撮像装置によって撮影された実空間上の上記物体を、仮想ロボット10と共に表示する。
仮想ロボット10は、表示装置1に予め記憶される所定のプログラムに従って拡張現実表示部11に表示される仮想的なオブジェクトであり、実空間上には存在していない。しかし、拡張現実表示部2は、仮想ロボット10を実空間上の物体に立体的に重畳して表示することによって、仮想ロボット10が実空間上の作業現場100にあたかも存在している(設置されている)かのような拡張現実画像を表示する。仮想ロボット10は、拡張現実表示部2上において、実空間に実際にロボットが設置された場合と同様に、作業対象300に対して作業プログラムに基づく所定の作業を行うように動作することができる。所定の作業とは、例えば、作業対象300を把持して搬送装置200上から別の場所に移送する払い出し作業、シール貼付作業等の、作業対象300に対してロボットが実行可能な全ての作業を含む。
拡張現実表示部2は、仮想ロボット10を任意の位置に配置可能に構成される。例えば、拡張現実表示部2がタッチパネルによって構成される場合、表示装置1の操作者が指又はタッチペンで仮想ロボット10をタッチし、拡張現実表示部2内の任意の位置まで移動させることによって、仮想ロボット10を任意の位置、すなわち、拡張現実表示部2に表示される実空間上においてロボットの設置を予定している任意の場所に配置させることができる。拡張現実表示部2における仮想ロボット10の表示は、後述の制御部4の機能によって実現される。
位置検出部3は、拡張現実表示部2から作業対象300の位置を検出する機能を有する。具体的には、位置検出部3は、作業対象300を撮像可能な二次元カメラ等の撮像装置、距離画像センサ等を含んで構成される。図1では、位置検出部3は、表示装置1において拡張現実表示部2が配置される面と反対側の面に設けられる距離画像センサによって構成される例を示しているが、表示装置1とは別体に設けられる撮像装置、距離画像センサ等であってもよい。二次元カメラ等の撮像装置を使用する場合は、作業対象300の見え方と位置を機械学習することによって、作業対象300の位置を検出することができる。図1に示すように距離画像センサによって構成される位置検出部3は、撮影した実空間上の上記物体を、図1に示すように拡張現実表示部2に表示させる機能を兼ねることができる。位置検出部3は、実空間上の作業対象300の画像を所定の処理プログラムに従って画像処理することによって、拡張現実表示部2から作業対象300までの距離を計測する。位置検出部3による作業対象300の位置の検出は、後述の作業対象管理部5の機能によって実現される。
制御部4は、拡張現実表示部2に表示される実空間上の物体に重畳して仮想ロボット10を立体的に表示させるとともに、拡張現実表示部2に表示される仮想ロボット10を、位置検出部3によって検出された作業対象300の位置に基づいて動作させ、作業対象300に対して所定の作業を実行させる機能を有する。
具体的には、制御部4は、CPU(Central Processing Unit)等の演算処理装置により構成される。また、制御部4は、表示装置1の各種の機能を実行するための各種のプログラムを格納したHDD(Hard Disk Drive)やSSD(Solid State Drive)等の補助記憶装置、演算処理装置がプログラムを実行する上で一時的に必要とされるデータを格納するためのRAM(Random Access Memory)といった主記憶装置を備える。制御部4においては、演算処理装置が補助記憶装置から各種のプログラムを読み込み、読み込んだ各種のプログラムを主記憶装置に展開させながら、これら各種のプログラムに基づいて演算処理を行う。制御部4は、この演算結果に基づいて、制御部4に接続される各ハードウェア(拡張現実表示部2、位置検出部3等)を制御することによって、表示装置1として機能するように構成される。
制御部4は、拡張現実表示部2に表示される仮想ロボット10の大きさを、仮想ロボット10と共に表示される実空間上の物体の尺度に合わせて調整する。あるいは、制御部4は、拡張現実表示部2に表示される実空間上の物体の大きさを、拡張現実表示部2に表示される仮想ロボット10の尺度に合わせて調整する。実空間上の物体の尺度は、位置検出部3又はその他の撮像装置等によって撮影された実空間上の物体の画像に基づいて取得される。これによって、制御部4は、拡張現実表示部2において、実空間上の物体(作業現場100、搬送装置200、作業対象300及び作業者WK)に対して実空間における相対的な位置関係が維持されるように仮想ロボット10を重畳して表示させる。
作業対象管理部5は、位置検出部3によって検出された作業対象300の位置に基づいて、作業対象300の現在位置を計測する。詳しくは、搬送装置200上の作業対象300は、搬送装置200の駆動によって一定速度で連続して又は間欠的に搬送されるため、仮想ロボット10が作業対象300に対して所定の作業を実行するためには、作業対象300の移動速度(搬送装置200の搬送速度)に基づいて、拡張現実表示部上における作業対象300の現在位置を常に把握し、作業対象300が仮想ロボット10の作業範囲内にあるかどうかを確認する必要がある。そのため、作業対象管理部5は、位置検出部3を使用して、拡張現実表示部2に表示され、搬送装置200によって搬送される複数の作業対象300において、同一対象と見做せるいずれかの作業対象300に対して、連続して少なくとも2回の位置の検出を行い、その検出結果から作業対象300の移動速度を計測する。
図3は、表示装置1において作業対象300の移動速度を計測する様子を示している。例えば、拡張現実表示部2に表示される搬送装置200上の左端の一つの作業対象300に着目した場合、その作業対象300に対して連続して2回の位置検出を行うことによって、最初の1回目で作業対象300a(図3において破線で示す。)の位置が検出され、2回目で作業対象300aの位置から所定距離移動した作業対象300b(図3において実線で示す。)の位置が検出される。作業対象管理部5は、この作業対象300aの位置から作業対象300bの位置までの移動距離を、1回目の位置検出から2回目の位置検出までの時間間隔で除することによって、作業対象300の移動速度を計測する。作業対象管理部5は、計測された作業対象300の移動速度に基づいて、拡張現実表示部2における作業対象300の現在位置を所定の制御周期で検出する。このような作業対象管理部5の全ての機能又は一部の機能は、制御部4に含まれていてもよい。
次に、表示装置1を用いた表示方法について、図5に示すフローチャートを用いて説明する。
まず、操作者は、表示装置1を起動させ、撮像装置としても機能する位置検出部3によって、図1に示すように実空間上の作業現場100を撮影する。これによって、表示装置1は、拡張現実表示部2に、撮影された実空間上の物体(作業現場100、搬送装置200、作業対象300及び作業者WK)の画像に重畳して、仮想ロボット10を表示させる(S1)。
仮想ロボット10の位置、姿勢は、位置検出部3によって得られる実空間上の物体の位置についての座標系と同一の座標系で表現される。操作者は、仮想ロボット10を指又はタッチペンによってタッチして移動させることによって、拡張現実表示部2上においてロボットを設置させたい任意の位置に仮想ロボット10を配置させる。
仮想ロボット10が、拡張現実表示部2上の任意の位置に配置された後、表示装置1は、例えば操作者による仮想ロボット10の動作開始の入力指示をトリガとして、位置検出部3を使用して拡張現実表示部2上の作業対象300の位置を検出するとともに、その位置から作業対象300の移動速度を計測し、その計測結果から、拡張現実表示部2上の各作業対象300の現在位置を継続して計測する。表示装置1は、計測された作業対象300の現在位置に基づいて、拡張現実表示部2に表示される仮想ロボット10を動作させ、作業対象300に対する所定の作業を実行させる(S2)。
表示装置1は、仮想ロボット10の動作開始後、制御部4において、作業対象300の現在位置が仮想ロボット10の作業範囲内に入ったか否かを監視する。拡張現実表示部2上の作業対象300が仮想ロボット10の作業範囲内に入った場合、作業対象300の現在位置に基づいて、作業対象300を追いかけながら作業を行うように仮想ロボット10を動作させる。これによって、仮想ロボット10は、拡張現実表示部2上の作業対象300を例えば仮想的に把持して別の場所に移送する等の動作を実行する。
仮想ロボット10の作業は、仮想ロボット10が作業対象300の現在位置に追従して移動して作業対象300を仮想的に把持する動作を行うことができた場合に、作業が達成されたと判断される。したがって、表示装置1は、作業対象300に対する仮想ロボット10の作業が達成されたかどうかを、制御部4又は作業対象管理部5において、仮想ロボット10(例えば、仮想ロボット10の先端部の位置)と作業対象300との拡張現実表示部2上の位置関係を監視することによって検出する(S3)。
上記ステップS3において、作業対象300に対する仮想ロボット10の作業が達成された場合(ステップS3;YES)、表示装置1は、図4に示すように、作業終了した作業対象300cに作業が達成したことを示す作業終了マーク20を重畳して表示する(S4)。図4に示す作業終了マーク20は、作業対象300cを取り囲む円によって表示されるが、作業が終了した作業対象300cを拡張現実表示部2上で識別可能であれば、どのようなものであってもよい。ステップS3において、作業対象300に対する仮想ロボット10の作業が達成されない場合(ステップS3;NO)は、表示装置1は、その作業対象300に対して作業終了マーク20の表示は行わず、ステップS5の処理に移行する。
仮想ロボット10の作業は、搬送装置200によって搬送される作業対象300が存在する間継続される(S5)。搬送装置200によって搬送される作業対象300が拡張現実表示部2上に存在する場合、又は、操作者によって仮想ロボット10の動作終了の入力指示がない場合(ステップS5;NO)は、ステップS3からの処理を繰り返す。搬送装置200によって搬送される作業対象300が無くなった場合、又は、操作者によって仮想ロボット10の動作終了の入力指示があった場合は、仮想ロボット10の動作は停止する。
表示装置1は、タブレット型コンピュータによって構成されるものに限定されない。表示装置1は、画像を表示可能な表示部を有するコンピュータであればよく、例えば、ノート型パソコン、その他の携帯型端末等であってもよい。また、図6に示す表示装置1Aのように、位置検出部3及び拡張現実表示部2を一体に有するヘッドマウントディスプレイであってもよい。制御部4及び作業対象管理部5は、ヘッドマウントディスプレイに内蔵されてもよいし、ヘッドマウントディスプレイとは別体に設けられ、有線又は無線によって通信可能に接続されていてもよい。
なお、表示装置1、1Aにおける拡張現実表示部2、位置検出部3、制御部4、及び作業対象管理部5のそれぞれは、ハードウェア、ソフトウェア又はこれらの組み合わせによって実現することができる。また、拡張現実表示部2、位置検出部3、制御部4、及び作業対象管理部5の協働により行われる表示方法も、ハードウェア、ソフトウェア又はこれらの組合せによって実現することができる。ここで、ソフトウェアによって実現されるとは、コンピュータがプログラムを読み込んで実行することによって実現されることを意味する。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)が用いられて格納され、コンピュータに供給される。非七次的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体には、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光時期記録媒体(例えば、光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))が含まれる。また、プログラムは、様々なタイプの一時的なコンピュータに供給されてもよい。一時的なコンピュータ可読媒体には、電気信号、光信号、及び電磁波が含まれる。一時的なコンピュータ可読媒体は、電線及び光ファイバ度の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
以上説明した本開示の表示装置1、1Aの一態様は、以下のような効果を奏する。
本開示の表示装置1、1Aは、所定のプログラムに従って動作する仮想ロボット10を実空間上の物体(作業現場100、搬送装置200、作業対象300及び作業者WK)と共に表示する拡張現実表示部2と、拡張現実表示部2から実空間上の作業対象300までの距離を計測することによって、作業対象300の位置を検出する位置検出部3と、拡張現実表示部2に表示される仮想ロボット10を、位置検出部3によって検出された作業対象300の位置に基づいて動作させ、作業対象300に対して所定の作業を実行させる制御部4と、を備える。
これによって、作業現場100にロボットを設置した際のレイアウトやロボットの動作を拡張現実表示部2上で確認することができる。そのため、ロボット設置後の作業現場のレイアウトを確認するために、既存のシステムの図面にロボットを追加したり、オフラインソフトにおいて、ワークの流れをシミュレートしてロボットを動作させる等の必要はなく、作業現場100に実際にロボットを設置する前に、作業現場100のレイアウトの確認及びロボットの作業に対する処理能力の確認を容易に行うことができる。
また、位置検出部3によって検出された作業対象300の位置に基づいて、作業対象300の現在位置を計測する作業対象管理部5を更に備える。
これによって、拡張現実表示部2上の仮想ロボット10と作業対象300との相対的な位置関係を正確に把握できるため、ロボットの作業に対する処理能力をより正確に判断することができる。
作業対象管理部5は、同一対象と見做せる作業対象300に対して位置検出部3によって少なくとも2回の位置を検出した結果から作業対象300の移動速度を計測し、その移動速度に基づいて、作業対象300の現在位置を計測する。
これによって、作業対象管理部5は、搬送装置200の搬送精度に影響されることなく、作業対象300の正確な移動速度を把握することができ、作業対象300の正確な現在位置を計測することができる。
制御部4は、作業対象管理部5によって計測された作業対象300の現在位置が仮想ロボット10の作業範囲内に入った際に、作業対象300の現在位置に基づいて、作業対象300を追いかけながら作業を行うように仮想ロボット10を動作させる。
これによって、現実のロボットの動作による作業と同様に、仮想ロボット10を作業対象300に対して動作させて作業を行わせることができる。そのため、操作者は、拡張現実表示部2上で、現実のロボットの作業対象300に対する処理能力を、より正確に把握することができる。
拡張現実表示部2は、仮想ロボット10を任意の位置に配置可能に構成される。
これによって、拡張現実表示部2に表示される実空間上の物体の配置に応じて、拡張現実表示部2上の仮想ロボット10を、現実のロボットの設置位置に合せて配置させることができる。
拡張現実表示部2は、作業対象300に対する所定の作業を達成したことを示す情報を、作業対象300に重畳して表示する。
これによって、オペレータは、拡張現実表示部2上の作業対象300に対する仮想ロボット10の作業の達成状況を容易に確認することができる。
また、本開示の表示プログラムは、コンピュータを、所定のプログラムに従って動作する仮想ロボット10を実空間上の物体(作業現場100、搬送装置200、作業対象300及び作業者WK)と共に表示する拡張現実表示部2と、拡張現実表示部2から実空間上の作業対象300までの距離を計測することによって、作業対象300の位置を検出する位置検出部3と、拡張現実表示部2に表示される仮想ロボット10を、位置検出部3によって検出された作業対象300の位置に基づいて動作させ、作業対象300に対して所定の作業を実行させる制御部4と、を備える表示装置1、1Aとして機能させる。
これによって、表示プログラムを、拡張現実表示部2、位置検出部3及び制御部4を備える表示装置1、1Aのコンピュータにおいて実行することによって、表示装置1、1Aを用いて、作業現場100に実際にロボットを設置する前に、作業現場100のレイアウトの確認及びロボットの作業に対する処理能力の確認を容易に行うことができる。
1、1A 表示装置
2 拡張現実表示部
3 位置検出部
4 制御部
5 作業対象管理部
10 仮想ロボット
20 作業対象に対する所定の作業を達成したことを示す情報
100 作業現場(物体)
200 搬送装置(物体)
300 作業対象(物体)
WK 作業者(物体)

Claims (7)

  1. 所定のプログラムに従って動作する仮想ロボットを実空間上の物体と共に表示する拡張現実表示部と、
    前記拡張現実表示部から前記作業対象の位置を検出する位置検出部と、
    前記拡張現実表示部に表示される前記仮想ロボットを、前記位置検出部によって検出された前記作業対象の位置に基づいて動作させ、前記作業対象に対して所定の作業を実行させる制御部と、
    を備える、表示装置。
  2. 前記位置検出部によって検出された前記作業対象の位置に基づいて、前記作業対象の現在位置を計測する作業対象管理部を更に備える、請求項1に記載の表示装置。
  3. 前記作業対象管理部は、同一対象と見做せる前記作業対象に対して前記位置検出部によって少なくとも2回の位置を検出した結果から前記作業対象の移動速度を計測し、その移動速度に基づいて、前記作業対象の現在位置を計測する、請求項2に記載の表示装置。
  4. 前記制御部は、前記作業対象管理部によって計測された前記作業対象の現在位置が前記仮想ロボットの作業範囲内に入った際に、前記作業対象の現在位置に基づいて、前記作業対象を追いかけながら作業を行うように前記仮想ロボットを動作させる、請求項2又は3に記載の表示装置。
  5. 前記拡張現実表示部は、前記仮想ロボットを任意の位置に配置可能に構成される、請求項1〜4のいずれか1項に記載の表示装置。
  6. 前記拡張現実表示部は、前記作業対象に対する所定の作業を達成したことを示す情報を、前記作業対象に重畳して表示する、請求項1〜5のいずれか1項に記載の表示装置。
  7. コンピュータを、
    所定のプログラムに従って動作する仮想ロボットを実空間上の物体と共に表示する拡張現実表示部と、
    前記拡張現実表示部から前記作業対象の位置を検出する位置検出部と、
    前記拡張現実表示部に表示される前記仮想ロボットを、前記位置検出部によって検出された前記作業対象の位置に基づいて動作させ、前記作業対象に対して所定の作業を実行させる制御部と、
    を備える表示装置として機能させる、表示プログラム。
JP2019219471A 2019-12-04 2019-12-04 表示装置及び表示プログラム Active JP7409848B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019219471A JP7409848B2 (ja) 2019-12-04 2019-12-04 表示装置及び表示プログラム
US17/090,963 US11538201B2 (en) 2019-12-04 2020-11-06 Display device and display program
DE102020131815.4A DE102020131815A1 (de) 2019-12-04 2020-12-01 Anzeigevorrichtung und Anzeigeprogramm
CN202011403926.7A CN112894799A (zh) 2019-12-04 2020-12-02 显示装置和显示程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019219471A JP7409848B2 (ja) 2019-12-04 2019-12-04 表示装置及び表示プログラム

Publications (2)

Publication Number Publication Date
JP2021088028A true JP2021088028A (ja) 2021-06-10
JP7409848B2 JP7409848B2 (ja) 2024-01-09

Family

ID=75962666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019219471A Active JP7409848B2 (ja) 2019-12-04 2019-12-04 表示装置及び表示プログラム

Country Status (4)

Country Link
US (1) US11538201B2 (ja)
JP (1) JP7409848B2 (ja)
CN (1) CN112894799A (ja)
DE (1) DE102020131815A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102377988B1 (ko) * 2021-09-30 2022-03-24 주식회사 아진엑스텍 로봇과의 협업 보조 방법 및 장치

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020166371A (ja) * 2019-03-28 2020-10-08 セイコーエプソン株式会社 情報処理方法、情報処理装置、物体検出装置およびロボットシステム
US20230078919A1 (en) * 2021-09-16 2023-03-16 Globus Medical, Inc. Extended reality systems for visualizing and controlling operating room equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004209641A (ja) * 2002-12-30 2004-07-29 Abb Res Ltd 工業ロボットをプログラミングするための方法およびシステム
JP2008021092A (ja) * 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置
JP2017104944A (ja) * 2015-12-10 2017-06-15 ファナック株式会社 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP2019519387A (ja) * 2016-06-27 2019-07-11 オートデスク,インコーポレイテッド 拡張現実ロボットシステムの可視化

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6944584B1 (en) * 1999-04-16 2005-09-13 Brooks Automation, Inc. System and method for control and simulation
US7236854B2 (en) * 2004-01-05 2007-06-26 Abb Research Ltd. Method and a system for programming an industrial robot
US8271132B2 (en) * 2008-03-13 2012-09-18 Battelle Energy Alliance, Llc System and method for seamless task-directed autonomy for robots
US20140125698A1 (en) * 2012-11-05 2014-05-08 Stephen Latta Mixed-reality arena
JP6385627B1 (ja) 2017-11-07 2018-09-05 三菱電機株式会社 表示制御装置、表示制御方法および表示制御プログラム
JP6787966B2 (ja) * 2018-10-02 2020-11-18 ファナック株式会社 拡張現実と複合現実を用いたロボット制御装置及び表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004209641A (ja) * 2002-12-30 2004-07-29 Abb Res Ltd 工業ロボットをプログラミングするための方法およびシステム
JP2008021092A (ja) * 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置
JP2017104944A (ja) * 2015-12-10 2017-06-15 ファナック株式会社 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP2019519387A (ja) * 2016-06-27 2019-07-11 オートデスク,インコーポレイテッド 拡張現実ロボットシステムの可視化

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102377988B1 (ko) * 2021-09-30 2022-03-24 주식회사 아진엑스텍 로봇과의 협업 보조 방법 및 장치

Also Published As

Publication number Publication date
DE102020131815A1 (de) 2021-06-10
US11538201B2 (en) 2022-12-27
JP7409848B2 (ja) 2024-01-09
CN112894799A (zh) 2021-06-04
US20210174555A1 (en) 2021-06-10

Similar Documents

Publication Publication Date Title
US11220002B2 (en) Robot simulation device
US11538201B2 (en) Display device and display program
US10571237B2 (en) CMM with object location logic
JP5897624B2 (ja) ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP6540472B2 (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
CN100475460C (zh) 机器人的离线示教装置
US20170348071A1 (en) Method for automatically moving object in simulation system and simulation system using the same
JP7097251B2 (ja) 施工管理システム
US11328507B2 (en) Sensing system, work system, augmented-reality-image displaying method, augmented-reality-image storing method, and program
US10556337B2 (en) Method of and apparatus for managing behavior of robot
US11049287B2 (en) Sensing system, work system, augmented-reality-image displaying method, and program
JP2008021092A (ja) ロボットシステムのシミュレーション装置
JP2016197393A (ja) 情報処理装置、情報処理方法及びプログラム
JP2017033429A (ja) 3次元物体検査装置
CN109116807B (zh) 复合现实模拟装置以及计算机可读介质
WO2020150868A1 (en) Method and apparatus for manufacturing line simulation
US9395169B2 (en) Multi-axis type three-dimensional measuring apparatus
JP6918599B2 (ja) 表面性状測定機、表面性状測定システム及びプログラム
US11953307B2 (en) Measuring apparatus
WO2022098489A1 (en) Optimizing calibration with constraints between different coordinate frames
US20240123611A1 (en) Robot simulation device
CN110866950B (zh) 物件定位指引系统及其方法
US20230226688A1 (en) Robot programming
KR20220029107A (ko) 충격비산혈흔의 발혈부위 및 궤도를 계산하는 전자 장치, 방법 및 컴퓨터 프로그램
JP2021008011A (ja) 加工検査装置、加工検査システム、加工検査方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231221

R150 Certificate of patent or registration of utility model

Ref document number: 7409848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150