JP7425756B2 - 拡張現実を用いた自動動的診断ガイド - Google Patents

拡張現実を用いた自動動的診断ガイド Download PDF

Info

Publication number
JP7425756B2
JP7425756B2 JP2020572740A JP2020572740A JP7425756B2 JP 7425756 B2 JP7425756 B2 JP 7425756B2 JP 2020572740 A JP2020572740 A JP 2020572740A JP 2020572740 A JP2020572740 A JP 2020572740A JP 7425756 B2 JP7425756 B2 JP 7425756B2
Authority
JP
Japan
Prior art keywords
diagnostic
data
tree
user
machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020572740A
Other languages
English (en)
Other versions
JP2021528777A (ja
Inventor
ケセルマン レオ
スン イー
チョン サイ-カイ
ツァイ ジェイソン
Original Assignee
ファナック アメリカ コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファナック アメリカ コーポレイション filed Critical ファナック アメリカ コーポレイション
Publication of JP2021528777A publication Critical patent/JP2021528777A/ja
Application granted granted Critical
Publication of JP7425756B2 publication Critical patent/JP7425756B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C3/00Registering or indicating the condition or the working of machines or other apparatus, other than vehicles
    • G07C3/005Registering or indicating the condition or the working of machines or other apparatus, other than vehicles during manufacturing process
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C3/00Registering or indicating the condition or the working of machines or other apparatus, other than vehicles
    • G07C3/08Registering or indicating the production of the machine either with or without registering working or idle time
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39412Diagnostic of robot, estimation of parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/041Abduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Hardware Design (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Manipulator (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Description

[関連出願の相互参照]
本出願は、2018年6月26日に出願された「拡張現実を用いた自動動的診断ガイド」という名称の米国仮特許出願第62/690,045号の優先日の利益を主張する。
本発明は、ロボットのトラブルシューティング及び診断の分野に関し、より詳細には、産業用ロボットの問題を迅速かつ効率的に診断するためのシステムに関する。本システムは、ロボット制御装置からデータを収集し、収集したデータに基づいて適切な診断決定ツリーを特定し、検査及びコンポーネント交換中に取るべき行動を提示するための拡張現実を含む、対話型の段階的なトラブルシューティングガイドをモバイル機器上でユーザに提供する。
産業用ロボットは非常に複雑な機械であり、多くの異なる機能を正確かつ確実に行うことができる。しかしながら、ロボットに問題が発生した場合、根本原因を決定し、問題を修正することは困難であり得る。
現在、迅速なアラーム診断の方法にはいくつかの障害があり、その中にはトラブルシューティングが十分に文書化されていないこと、既存の文書化されたトラブルシューティング情報が様々なマニュアル中に分散していること、顧客から迅速かつ容易にマニュアルにアクセス出来ないこと、多くのアラームが複数の根本原因を有する可能性があり、それらのすべてに対処することは解決策を提供することなく時間、労力及びコストを浪費する可能性があること、並びに、制御装置及びロボットハードウェアが複雑なためにトラブルシューティング指示を実行するのが困難であること等が含まれる。更に、顧客は、通常、ロボットのトラブルシューティングや修理に関する高レベルの専門知識を有していない。
他の既存の診断システムは、ユーザが問題の診断に関する指示を含むビデオを見るか、又は音声記録を聞くことを必要とする。この場合、ユーザは、最初に計算装置上のスクリーンを見てから、実際のシステムに向かう必要があり、余計な時間がかかる。更に、ビデオや音声の説明内容が、ユーザが対処しているシステムや問題と正確に一致していなかった場合、ユーザは混乱する可能性がある。
以上のような事情に鑑み、本発明は、ユーザをトラブルシューティング処理において迅速かつ効率的に誘導し、できるだけ早くロボットを作動状態に戻すことができる対話型ツールを提供することを目的とする。
本発明の教示によれば、アラームコードによって示されるロボットの問題を診断するための拡張現実システムが開示される。開示される診断ガイドシステムは、産業用ロボットの制御装置と通信し、ロボット制御装置からデータを収集する。次に、本システムは、収集されたデータに基づいて適切な診断決定ツリーを特定し、モバイル機器上でユーザに、検査及びコンポーネント交換中に取るべき行動を提示するための拡張現実を含む対話型の段階的なトラブルシューティングガイドを提供する。本システムは、データ収集、ツリー生成、及びガイド生成モジュールを含み、関連するARデータと共に、決定及び診断ステップの格納されたライブラリを使用して、決定ツリー及び診断ガイドを構築する。
本装置のさらなる特徴は、添付の図面と併せて、以下の説明及び添付の特許請求の範囲から明らかになるであろう。
本開示の一実施形態による、拡張現実を用いたロボットトラブルコードの自動誘導診断のためのシステムを示す図である。 本開示の一実施形態による、図1の自動誘導診断アプリケーションのモジュールを示すアーキテクチャ図である。 本開示の一実施形態による、図2の自動誘導診断アプリケーションアーキテクチャの診断ツリーを示すブロック図である。 図2のアプリケーションアーキテクチャの部分診断ツリーを従来の直接的部品交換アプローチと比較するブロック図である。 本開示の実施形態による、図2のアプリケーションアーキテクチャの決定ライブラリのコンポーネントを示す図である。 本開示の一実施形態による、拡張現実(AR)支援表示と共に、診断ステップ(アクション)及び決定ポイント(質問)をユーザに表示する診断ガイドアプリケーションを示す図である。 本開示の一実施形態による、図1のシステムを採用した、拡張現実を用いたロボットトラブルコードの自動誘導診断方法のフローチャート図である。
拡張現実を用いた産業用ロボットの自動トラブルシューティング及び診断のための方法及び装置を対象とする本発明の実施形態に関する以下の説明は、本質的に単なる例示であり、開示された装置及び技術、又はそれらの適用又は用途を限定することを意図するものではない。
ロボットシステムは、その複雑さや適応性のために、アラームの内容を理解し、原因を探求するのが難しい場合があることが知られている。顧客の理解不足や、マニュアルが不十分であるために、単純な問題なのに特定するのに時間がかかる例が多くある。アラーム診断を効率的かつユーザフレンドリにするシステムは、特に一般産業に重きを置いた、あらゆるロボット顧客にとって価値があるであろう。自動車などのいくつかの産業におけるロボット顧客は、ロボット専門家を雇用するための資源と、ロボットを扱う長年の経験とを有するのに対し、一般産業の顧客は、このような経験等を有さず、恐らくアラームによるトラブルシューティングに脅威を感じるであろう。対話型診断ガイドシステムは、ロボットを適用し始めたばかりのこれらの顧客にとって魅力的な技術と言えるだろう。
上述の必要性を認識し、産業用ロボットの問題の迅速かつ効率的なトラブルシューティングを提供するために、改良されたシステムが開発された。診断ガイドシステムは、ロボットの制御装置からデータを収集し、収集されたデータに基づいて適切な診断決定ツリーを特定し、モバイル機器上でユーザに、検査及びコンポーネント交換中に取るべき行動を提示するための拡張現実を含む対話型の段階的なトラブルシューティングガイドを提供する。
モバイルアプリケーション(アプリ)は、診断ガイドシステムへの顧客インターフェースとなるように設計されている。モバイルアプリを介して、顧客は診断を必要とする制御装置を選択することができ、アプリケーションは、アラームをどのように診断するかについての体系的なチュートリアルを提供する。このガイドは、図、ピクチャ、及びビデオを用いた対話型の段階的な手順の説明を含む。更に、拡張現実(AR)対応装置は関連データを重ね合わせて、現実世界のパーツを強調表示することができる。装置の性能によっては、ユーザが、マルチメディア診断ガイドのみを(ARなしで)受けることが出来るようにしてもよいし、あるいはAR機能も利用できるようにしてもよい。
図1は、本開示の一実施形態による拡張現実を用いたロボットトラブルコードの自動誘導診断のためのシステム100の説明図である。産業用ロボット110は、当技術分野で知られているように、典型的にはケーブル114を介して、ロボット制御装置112と通信する。ロボット110は、いかなるタイプの産業用ロボットであってもよく、例えば溶接ロボット、塗装ロボット、又は他の任意のタスクを実行するように構成及びプログラムされたロボットであってもよい。ロボット110は複雑であり、時には極端な環境で動作するため、時折問題が発生する。様々な種類のアラームや情報信号(視覚情報、聴覚情報、又は画面に表示されるメッセージ、及びそれらの組み合わせ)が、問題を示すためにロボット又はロボット制御装置によって提供される。これらは各々、問題を特定し、診断プロセスの基礎として使用されるトラブルコード、アラームコード、又はデータメッセージと為る。これらのアラームコードやトラブルコードは、制御装置112によって示され、即座に対処すること、もしくは近いうちに対処することを必要とするかもしれない。
アラーム又はトラブルコードが制御装置112によって示されると、診断ガイドアプリ130を実行するモバイル機器120を用いて、トラブルコードを診断し、解決してもよい。この時点で、ロボット110は、そのモーションプログラムの実行を停止し、ロボット110及び制御装置112は、診断及びトラブルシューティングを実行可能なモードとなる。制御装置のデータである「スナップショット」は、制御装置112からモバイル機器120に提供され、アプリ130によって使用される。当該データは、好ましくは無線通信接続を介して提供され、これは、例えば、制御装置112とモバイル機器120の双方がローカルエリアネットワーク(LAN)に無線通信することによって行ってもよい。制御装置のスナップショットは、診断及びトラブルシューティングに関連し得るロボット110の性能に関する全てのデータを含む。このデータは、コードが適用される問題のタイプ(例えば、関節モータの問題)を特定するアラーム又はトラブルコード識別子を含む。スナップショットデータはまた、関節負荷やトルク、モータ電流などのパラメータの時間履歴データ及び最大値データを含んでもよい。
(利用可能であれば)制御装置のスナップショットデータを使用して、診断ガイドアプリ130は、ユーザ140によって選択的に使用される拡張現実(AR)コンテンツを有する診断ガイドを作成する。ユーザ140は、質問に答えて診断ステップを実行し、診断ガイドは、ユーザ140を診断ツリーの次の質問又はステップに漸進的に誘導する。ARコンテンツ(利用可能な場合)は、ロボット110上の特定の部品をどのように識別するか、又はある特定の動作(ケーブルを抜くこと、又は部品を交換することなど)をどのように実行するかをユーザ140に明確に示すために使用される。AR機能により、ユーザ140はモバイル機器120のカメラをロボット110の一部に向けることができ、ARコンテンツ(強調表示及び他の仮想グラフィックスなど)が、現実世界ビューのカメラ画像上にオーバーレイされる。最終的に、トラブルコードを解決する行動が取られ、根本原因がアプリ130に記録され、ロボット110が再稼働される。
次いで、当該ガイドにおけるユーザのアクションや、制御装置112からダウンロードされた情報は、ウェブサーバ又は知識データベース(クラウド150として示される)を有する他のサーバに伝送することができ、これによりデータを集約・分析して、診断又は他の情報の潜在的な将来の改良に用いることできる。診断ガイドアプリ130は、クラウド150内のサーバ/データベースからアイテムをダウンロードすることによって、最新のガイド及び情報を用いて自身をアップグレードすることもできる。制御装置112はまた、当業者によって明確に理解されている通信インフラストラクチャを使用して、クラウド150内のサーバ/データベースと直接通信してもよく、例えば制御装置112は、インターネット接続機能を有するLANに接続されていてもよい。
ユーザが従う手順は、本質的に以下の通りである。診断ガイドアプリ130を使用して、リストからロボット制御装置を特定し、その制御装置の「スナップショット」データをダウンロードし、制御装置が直面しているアラーム条件を特定し(制御装置のスナップショットに基づいて自動的に実行されてもよい)、更に、ユーザガイドにおいて指示されたステップに従って、質問に答えたり、診断テストを実行したり、また必要に応じてコンポーネントを交換したりする。
診断ガイドアプリ130の出力は、アラームの根本原因を突き止めるために、どのような措置をとるべきか、またどのような情報を観察すべきかをユーザに指示するガイドである。ガイドは必要に応じて、図、写真、又はビデオを有することができ、最良の手順を決定するために、ユーザに質問をする。ガイドはまた、ライブ映像(タブレット又は電話の場合)上で、又はホログラム(ARヘッドセットの場合)として、現実世界のアイテム及び情報を強調表示するARデータを含んでもよい。
図2は、本開示の一実施形態による、図1の診断ガイドアプリケーション130のモジュールを示すアーキテクチャ図200である。上述したように、診断ガイドアプリ130は、好ましくは制御装置112から「スナップショット」を受信する。制御装置のスナップショットは、制御装置112によって記録されたデータを含み、そこにはロボット110における最近の運転条件が記されている。診断ガイドアプリ130は、制御装置のスナップショットデータなしで使用することができ、この場合、ユーザ140は、最初にどのアラーム又はトラブルコードが制御装置112によって示されたかを示し、次にアプリ130によって提示された診断ツリーに従う。しかしながら、制御装置のスナップショットデータは、ロボット110に関するデータを提供するのに役立ち、これによりトラブルシューティング及び診断を迅速に行うことができる。スナップショットデータは、通常、モバイル機器120上の診断ガイドアプリ130へダウンロード可能である。
診断ガイドアプリ130のアーキテクチャは、サポート対象の各問題を診断ツリーによって表す。(制御装置のスナップショットから得られる)診断されるべき実際のシステムの状態に関する情報、並びに質問に対するユーザの応答により、ツリーを辿り最終的な診断に至るまでのユーザの経路が決定される。アーキテクチャには、ソフトウェアモジュールとは別のデータライブラリが含まれており、この設計により、ソフトウェアモジュールの変更を必要とせずに、サポート対象の故障条件をデータライブラリ内で追加又は変更可能である。更に、アーキテクチャは、通信及びガイド表示機能をカプセル化することにより、診断ガイドアプリ130を多くの異なるタイプの装置上で実行可能にする。
決定ライブラリ210は、多くの異なる決定ポイントと、診断ツリーで使用され得る自動決定関数とを含む。診断ツリーライブラリ220は、サポート対象のアラーム又はトラブルコード毎に診断ツリーを含む。診断ステップライブラリ230は、診断ツリーにおいて使用され得る多くの異なる診断ステップを含む。ARデータライブラリ240は、診断ステップをユーザに提示する際に診断ステップ又は決定ポイントに関連し得る拡張現実(AR)データファイルを含む。ライブラリ210~240内の各アイテムは、(XMLやHTML等の)ファイルに含まれており、以下で更に説明する。
図3は、本開示の一実施形態による、図2の診断ガイドアプリケーションアーキテクチャの診断ツリーライブラリ220内の診断ツリー300を示すブロック図である。診断ツリー300は、診断ガイドアプリ130のサポート対象となる故障状態の診断ツリーの一例である。各診断ツリーは、ツリーライブラリ220内のXMLファイルに含まれる。診断ツリーは、ロボット製造業者の熟練技術者によって作成される。各診断ツリーは、それぞれが1つの親のみを有するノードから構成される。ノードには4つの異なるタイプがあり、それぞれ以下で説明する。
ルートノード302は、診断されているサポート対象の故障状態を示す。ルートノード302は、特定のアラーム又はトラブルコードに基づく診断の開始点である。診断ツリー300は、ルートノード302内で特定された特定のアラーム又はトラブルコードに対して一意的に定義される。
アクションノード(又は診断ステップ)304は、診断工程のステップの一例であり、同工程ではケーブルを抜く、コンポーネントを交換する等の、問題に関連する診断ステップを実行することがユーザに求められる。これらのアクションは、関連するガイド指示及び拡張現実データを有することができる。各アクションノード(又は診断ステップ)は、診断ステップライブラリ230内のHTML又はXMLドキュメント内に含まれ、同ドキュメントは、マルチメディア(音声及び/又はビデオ)を含んでもよく、また関連するARデータを有してもよい。診断ステップライブラリ内の各アクションは、診断ステップライブラリ230内のドキュメントを一意的に特定する記述及び経路識別子を有する。アクションノード(ノード304等)は、別のアクション・ノード(ノード306)につながってもよいし、あるいは決定ポイント(決定ノード308等)につながってもよく、これらの関係は、決定ツリー300の構造内で定義される。
診断ステップは、診断工程の一部として行われる個別のアクションである。各診断ステップは、複数の異なる診断ツリーで(すなわち、異なるアラーム又はトラブルコードに関して)再使用することができる原子ユニットである。診断ステップは、HTMLドキュメント(ウェブページ)として表され、ステップの実行方法を明確に説明する画像、アニメーション画像(gif)、ビデオ、テキストを含むことができる。
診断ツリーの特定のステップは、それらに関連付けられたARデータを有する。このARデータは本質的に、どの情報をオーバーレイするか、どの現実世界のオブジェクト(ロボット構成要素)上に固定するか、アクションを実行する必要があるロボットの特定の領域にユーザの注意を向けるためにどのような形状を描くかを特定する。
決定ノード308は、ユーザが質問に答えるように求められるか、あるいは制御装置のスナップショットのデータに基づきシステムが自動的に質問に答える診断工程におけるポイントの一例である。決定ポイントは、2つ以上の経路のうちいずれの経路をたどるのか、すなわち、特定の診断セッションにおいて診断ツリー300内でたどられる経路を決定する。各決定ノードは、決定ライブラリ210内のXMLドキュメントに含まれる。決定ノードは、はい/いいえの択一式の回答を有しても、多肢選択式の回答を有してもよく、出力経路は回答に依存する。決定ツリー300では、決定ノード308が2つの可能な回答(回答ノード310及び回答ノード312)と共に示されている。図3は、決定ノード308並びに回答ノード310及び312をそれぞれノードとして示すが、フローチャート図ではこれらは典型的には結合され、判断を表す菱形として表示される。
リーフノードは、故障状態の最終的に決定された原因を表し、子を持たないノードである。診断ツリー300において、アクションノード314、324及び328はリーフノードであり、リーフノードは夫々、ツリー300内の異なるルート又は経路を経て到達される。具体的には、決定ノード308からノード312の「はい」の回答(2)に進むとリーフノードであるアクションノード314に到達する。一方、ノード310の「いいえ」の回答(1)に進むと、アクションノード316及び318を経て、決定ノード320に進み、更にノード322の「いいえ」の回答(1)に進むとアクションリーフノード324に至り、ノード326の「はい」の回答に進むとアクションリーフノード328に到達する。
診断ガイドアプリ130によってサポートされる各アラーム又はトラブルコードは、診断ツリー300と同様の対応する診断ツリーを有する。熟練技術者又は顧客サポート担当者は、決定ライブラリ210に含まれる決定及び診断ステップライブラリ230に含まれる診断ステップ(アクション)を使用して、ツリー構造を作成する。各ツリーは、アラームを診断するために必要となり得る全てのステップを含む。ツリーのルートから最終原因に到達するまでのツリー内の進行過程は、決定ポイントに応じて変化し得る。ツリーは、制御装置のスナップショットデータを使用して、診断ガイドアプリ130においてユーザに提示される前に、可能な限り枝刈りされる。
図4は、図2のアプリケーションアーキテクチャの部分診断ツリーを、従来の直接的部品交換アプローチと比較するブロック図である。符号400で示すのは、診断ガイドアプリ130の部分診断ツリーの一例である。このアプローチを使用して、決定ポイント402及び408に対する回答は、中間アクションノード406を含み得る後続のステップを指示し、最終的にリーフアクションノード404、410又は412に至る。診断ガイドアプリ130では、対話型診断ツリーによって一連の検査及びコンポーネント交換の実施をユーザに促すことで根本原因をより迅速に特定及び訂正し、問題の原因ではないコンポーネントを交換する時間や費用を省くことができる。このアプローチでは、以前の診断ステップによって示されるように、特定のコンポーネントがアラームコードの根本原因である可能性が高い場合に、そのコンポーネントのみを交換することになる。
従来の直接的部品交換アプローチの一例を符号420で示す。従来のアプローチではボックス422、424、及び426で、問題が解決されるまでコンポーネントが一度に1つずつ交換され、その交換順序は、問題を解決する可能性が最も高いものであるか、もしくは実行するのが最も容易であるかに基づき決定され得る。診断ガイドアプリ130が利用可能になる前に使用されてきた従来のアプローチでは、結果的に診断プロセスに時間がかかり、ロボットコンポーネントが不必要に交換されることがよくある。
図5は、本開示の一実施形態による、図2のアプリケーションアーキテクチャの決定ライブラリ210における決定ライブラリの構成要素を示す。決定ポイント510は、ユーザの質問に対する回答に基づいて決定ツリーが分岐するポイントである。決定ポイント510は、3つの可能な回答を有するものとして示されており、各回答は、決定ツリー内の異なる経路に通じる。各経路は、別の決定ポイント、又はアクション(診断ステップ)につながってもよい。決定ライブラリ内の決定ポイントは一般に、2つの可能な回答(例えば、はい又はいいえ)を有し、それぞれが異なる経路につながる。
自動決定関数520は、決定ツリーに埋め込まれた関数であり、制御装置のスナップショットからのデータに基づいて自動的に評価される。自動決定関数520は、ユーザに提示されない。代わりに、診断ガイドアプリ130は、決定ツリーがユーザに提示される前(この場合、ツリーは自動決定関数520に基づいて枝刈りされる)か、若しくはユーザとアプリ130との対話中(この場合、その結果として得られる出力経路に基づいて次の決定又はアクションがユーザに提示される)に、自動決定関数520を自動的に評価する。自動決定関数は、入力診断データに応じて2つ以上の可能な出力経路を有し得る。
図6は、本開示の一実施形態による、支援拡張現実(AR)表示と共に、診断ステップ(アクション)及び決定ポイント(質問)をユーザに表示する診断ガイドアプリ130を示す。診断ガイドアプリ130は、前述したように、モバイル機器120の画面上に表示される。診断ガイドアプリ130は、分割画面形式によって右側のユーザ対話部610と左側のAR表示部620とに分割されている。画面のどの部分をユーザ対話部610及びAR表示部620に使用するかは、ユーザが選択してもよいし、アプリ130が自動的に決定してもよい。例えば、ARデータが利用可能でない場合にはユーザ対話部610が表示画面の100%を占めてもよいし、あるいはAR表示部620がユーザによって積極的に使用されている場合にはユーザ対話部610を表示画面の10%のみに縮小してもよい。モバイル機器120がヘッドセットタイプのARデバイスである状況では、ユーザ対話部610を視認される「スペース内に固定配置」した状態で、視認エリア全体を占めるAR表示部620内で実世界要素及び仮想要素を視認してもよい。
ユーザ対話部610は、診断ステップ(アクション)と決定ポイント(質問)との組み合わせを含む。図6に示すように、以前に実行された診断ステップが符号612で示され、決定ポイント(質問)は符号614で示される。ユーザ対話部610は更に、カプセル化されたビデオウィンドウ616を含み、ここにユーザが実行するよう指示されている現在のステップ(モータのプラグを抜く等)を示すビデオが表示される。ウィンドウ616は、写真、イラスト、動くイラスト(GIF)、ビデオ、その他のメディアを含んでもよい。ユーザ対話部610に表示される診断ステップ(アクション)及び決定ポイント(質問)は、前述したように図3に示す診断ツリーの一部である。質問614に対する回答に基づいて、診断ツリーは、経路に沿って適切なノードへ進み、そのノードに関連するアクション又は決定が、ユーザ対話部610に表示される。
ビデオウィンドウ616に加えて、AR表示部620が図6の診断ガイドアプリ130内に示されている。前述したように、いくつかの診断ステップ(アクション)及び決定ポイント(質問)は、関連するARデータを有する。AR表示部620は、ユーザが診断ステップを遂行するのを助ける対話型視覚化支援を提供するように設計される。AR表示部620は、動作方向又は視線方向を示す矢印である仮想特徴表示622と、ロボット上の部品の位置を示す輪郭である仮想特徴表示624とを含む。仮想特徴表示622及び624は、モバイル機器120のカメラを通して見る現実の風景(ロボットとその周辺)の画像626上に重ねて表示される。仮想特徴表示622及び624は、モバイル機器120内のプロセッサによって計算され、ロボットに対するモバイル機器120の位置及び向きに基づいて、適切なサイズ及び向きで表示される。ロボット(又はロボット作業セル)に対するモバイル機器120の位置及び向きは、作業セル内の視覚マーカの画像を分析することによって決定され、AR手法の熟練者によって理解されるように、視覚及び/又は慣性オドメトリ技術によって連続的に追跡され得る。モバイル機器120は、タブレットコンピューティングデバイス、スマートフォン、又はARヘッドセット/ゴーグル装置であってもよい。
図2のアーキテクチャ図200に戻ると、データライブラリ210~240が上述されており、それらの内容は、図3~5に示されている。データライブラリ210~240は、臨機応変に更新されてもよい。すなわち、データライブラリ210~240内の要素は、その要素の新しいバージョンが利用可能になったらいつでも追加又は更新することができる。例えば、以前にサポートされていなかったアラーム又はトラブルコードのために新しい診断ツリーを作成してもよいし、特定の診断ステップのためにARデータを追加してもよい。この新しいARデータがクラウド150内のウェブサーバ上で利用可能になると、それはモバイル機器120にダウンロードされ、アプリ130内のARデータライブラリ240に追加される。データライブラリ210-240への追加及び更新は、ソフトウェアのアップグレードを必要としない。
診断ガイドアプリ130は更に、ソフトウェアモジュール250、260、270、及び280を含む。ソフトウェアモジュール250~280は、診断ガイドアプリ130の新しいバージョンがリリースされると更新され、この場合、クラウド150内のウェブサーバからアプリ130の新しいバージョンをダウンロードしてもよい。データライブラリ210~240は、図2に示され以下に説明されるように、ソフトウェアモジュール250~280と通信する。
診断ガイドアプリ130は、ロボット制御装置112に対するデータダウンロードインターフェースとして機能する診断データ収集モジュール250を含む。データ収集モジュール250は、制御装置112との通信を確立し、制御装置のスナップショットデータを要求し、受信する。アラーム又はトラブルコードやすべての関連データを含むスナップショットデータは、モバイル機器120上のメモリに格納され、以下で説明するように、診断ガイドアプリ130によって利用可能であり、使用される。
ユーザ140は、診断が必要な制御装置112を特定することにより診断を開始する。故障した制御装置112への接続が可能な場合、アプリ130は、制御装置112から制御装置のスナップショットをダウンロードする。制御装置のスナップショットには、アラームの診断に役立ち得るデータが含まれている。これには、アラーム履歴、サーボステータス、システム変数、特殊なトレンドデータ等が含まれる。スナップショットの生成及びダウンロードは自動的に行われ、ユーザには表示されない。
診断データ収集モジュール250は、任意の適切な方法(USBドライブ、直接配線接続、共通のLANへの接続等)を使用して制御装置112と通信するが、ここで好ましい方法は無線接続である。
診断データ収集モジュール250は、サーボ診断を要求し、アラーム診断に役立ち得る任意の他のファイルを制御装置112から収集する。診断データ収集モジュール250は、スナップショットファイルから関連データを解析し、全てを診断ガイドアプリ130で利用可能且つ使用される内部診断データ構造内に入れる。
診断ガイドアプリ130は更に、ツリー生成モジュール260を含む。ツリー生成モジュール260は、特定のアラーム又はトラブルコードが利用可能である場合、診断ツリーライブラリ220から同コードに関する診断ツリーを引き出す。ツリー生成モジュール260は、診断ツリーのXMLデータを解析し、特定のトラブルコードの内部ツリー構造を作成する。ツリー生成モジュールはまた、データ収集モジュール250内の制御装置から受け取った診断データに基づいて診断ツリーを「枝刈り」する。ツリーの残りの部分をどのように構築するかを決定するために、例えば、自動決定関数が呼び出され、制御装置のスナップショットからのデータが使用されてもよく、この場合ツリーの1つ以上の分岐は、自動決定関数に基づいて枝刈りすることができる。
診断ガイドアプリ130が制御装置のスナップショットを介して診断データを取得できない場合、質問は自動的に回答されず、代わりに、診断ツリー内の各決定ポイントは、ユーザ140に対する潜在的質問となる。この場合、ユーザ140がアラーム又はトラブルコード識別子を入力するだけで、診断ガイドアプリ130は、診断ツリーライブラリ220から適切な診断ツリーを検索する。
更に、特定のアラーム又はトラブルコードについて診断ツリーが存在しないが、(トラブルコードについて異なる根本原因の統計的な比率を示す)統計的診断データが存在する場合には、問題を解決する確率が高い順に、ツリー生成モジュール260によって診断ツリーが一連のアクションとして構築される。統計的診断データが存在しないか、あるいは同データが曖昧である場合、アクションは、ステップを実行する時間に基づいて一連のアクション内で順序付けられてもよく、この場合、実行する時間が最も短いステップが最初に順序付けられる。「ツリー」が一連のアクションとして構築される場合、診断ガイドアプリ130は、依然として有用なツールとして機能し、アラームを解決するまで、ユーザに最も可能性の高いコンポーネントから順番に交換するように求める。これらのコンポーネント交換ステップは、診断ツリーがない場合であってもなお、拡張現実(AR)支援を提供することができる。
特定のアラーム又はトラブルコードに対して診断ツリーも統計的な診断データも存在しない場合には、診断ガイドアプリ130のツリー生成モジュール260は、このステータスを示すメッセージをユーザ140に返答する。そのような場合、特定のアラーム又はトラブルコードに関する診断ツリーの作成の必要性は、クラウド150内のウェブサーバ上に記録されてもよく、その結果、ロボット製造業者のサービス技術者は近い将来、そのような診断ツリーを作成し、配布することができる。また、診断ガイドアプリ130がアラームに対する診断を提供することができない場合(診断ツリーがなく、統計的診断データも利用できない場合)、ユーザ140は、アプリ130によって写真、ビデオ、及び制御装置スナップショットを提出し、熟練技術者による分析を求めることができる。ユーザ140が単にアプリ130内のボタンを押すだけで、画像及びデータがパッケージ化されたのち電子メールアドレス又はウェブサーバロケーションにそれらが送信される。送信先で顧客サービス担当者がデータをレビューし、支援を受けてユーザ140に返答する。
診断ガイドアプリ130は、ガイド生成モジュール270を更に含む。ガイド生成モジュール270は、ツリー生成モジュール260によって生成された決定ツリーを受け取る。その際、当該ツリーが診断ツリーライブラリ220から検索されたか、又はツリー生成モジュール260によって統計的な診断データに基づいて構築されたかは問わない。ガイド生成モジュール270は、診断ツリー内を探索し、(診断ステップライブラリ230から)適切な診断ステップ及び(ARデータライブラリ240から)ARデータを読み込んで、診断ツリーに基づいて完全な診断ガイドを作成する。
診断ガイドアプリ130は更に、ガイドユーザインターフェース(UI)モジュール280を含む。ガイドUIモジュール280は、ガイド生成モジュール270から完全に具体化されたガイドを受け取り、診断ガイドをモバイル機器120上でユーザに提示する。ガイドUIモジュール280はまた、質問に対するユーザの回答を受け取り、その回答をガイド生成モジュール270に提供することで、適切な後続ノードをガイドUIモジュール280によってユーザに提示することが出来る。
上述したように、以前にサポートされていなかったアラーム又はトラブルコードに対処する新しい診断ツリーを作成することが必要な場合がある。これを行うために、技術者は、特定のアラームの診断ツリーを作成することから始める。新しい診断ツリーにおいて必要とされる多くのアクションや決定ポイントは、決定ライブラリ210及び診断ステップライブラリ230に既に存在し得る。新しいアクションの場合は、新しいHTMLページが生成され、必要に応じて新しいARデータが生成される。新しい決定ポイントについては、問われる質問及び可能な回答を定義する新しいXMLが必要とされる。自動決定が可能な場合、診断データに基づいて質問にどのように答えるかを定義する新しい関数を記述しなければならない。追加の診断データが必要な場合、追加のデータを解析し、それを内部データ構造に追加するために、診断データ収集装置にソフトウェア修正が必要である。
図7は、本開示の一実施形態による、図1のシステムを採用した、拡張現実を用いたロボットトラブルコードの自動誘導診断方法のフローチャート図である。ボックス702において、診断を必要とするロボットの制御装置が特定される。通常、問題となるロボットは動作を停止し、制御装置はアラーム状態又はトラブルコードを表示する。ボックス704で、特定された制御装置と診断ガイドアプリケーションを実行するモバイル機器(好ましくはAR対応)との間で通信が確立され、制御装置データの「スナップショット」が、制御装置から診断ガイドアプリケーションを実行する機器にダウンロードされる。
ボックス706では、制御装置によって特定された特定のトラブルコードについて診断ツリーが作成される。診断ツリーの作成には、診断ツリーライブラリ内に既存の診断ツリーが存在する場合は、それを選択することが含まれ、又、診断ツリーライブラリが特定のトラブルコードの診断ツリーを含まない場合は、統計的な根本原因データに基づいて診断ツリーを構築することが含まれる。診断ツリーの作成には、ツリーの枝刈り(一部の経路の選択とそれ以外の経路の削除)も含まれ、これは制御装置スナップショットからのデータを使用して評価されるツリー内の自動決定関数に基づいて行われる。
ボックス708では診断ツリーが対話形式で辿られるが、これにはユーザが実行する診断ステップと、ユーザが回答する質問とを含む診断ガイドを表示することが含まれ、質問に対する回答によって診断ツリー内のどの経路をたどるべきかが決定される。ボックス708において診断ツリーを辿ることで、トラブルコードの根本原因が判定され、診断ステップの実行によって当該原因が解決される。診断ツリーを辿る工程は、画像、説明、及びビデオをユーザに提供することを含み、これらの形態の媒体のいずれか又はすべてを使用して、どのようなアクションをとる必要があるか、どのようにそれを行うべきか、及びロボット又は制御装置上の特定のアイテムがどこにあるかをユーザに対し説明し、示すことができる。また、他の形態の媒体に加えて、AR表示を提供してもよく、AR表示は、現実世界の風景の画像の上にポインタやハイライトマーカ等の仮想オーバーレイを提供し、ユーザが異なる視点に視線を動かす間も、仮想オーバレイアイテムを適切に映し出すことができる。
モバイル機器がタブレットコンピューティングデバイス(AR表示部とユーザ対話部に分割画面を使用できる)であるか、又はARヘッドセット装置(視聴エリア全体をAR表示部にしてもよく、その際ユーザ対話部は、ユーザの視認及び対話のための「スペース内に固定配置」される)であるかによって、多少異なるユーザ体験が提供される。
モバイル機器上の診断ガイドアプリケーションは、ウェブサーバ又は「クラウド内」の知識データベースと通信してもよく、これにより、制御装置のスナップショットを取得した後に診断ツリーをリアルタイムに作成するか、又はアプリケーション内のライブラリに格納されている利用可能な診断ツリー及びステップ、ARデータ等に対し定期的な更新を行う。
前述の説明全体を通して、ロボットの運動及びタスクを制御したり、モバイル機器上で診断ガイドアプリケーションを実行したりするための、様々な制御装置が説明され、暗示されている。これらの制御装置のソフトウェアアプリケーション及びモジュールは、不揮発性メモリ内に構成されたアルゴリズムを含む、プロセッサ及びメモリモジュールを有する1つ以上のコンピューティングデバイス上で実行されることが理解されるべきである。具体的には、これは上述したロボット制御装置112及びモバイル機器120内のプロセッサを含む。ロボット、それらの制御装置、及びモバイル機器の間の通信は、配線ネットワーク上であってもよく、あるいは携帯電話/データネットワーク、Wi-Fi、Bluetooth(登録商標)、ブロードバンドインターネット等の任意の適切な無線技術を使用してもよい。
以上の概説により開示された、拡張現実を用いた自動ロボット診断ガイドの技術は、従来技術を超えるいくつかの利点を提供する。ロボットや他の現実世界のアイテムの埋め込まれた画像、説明、ビデオ及び拡張現実ビューを用いて、ユーザが診断ステップを容易にかつ直感的に実行し、質問に答えることが可能であることは、コンポーネントを順次交換する従来の反復的な手法よりもはるかに優れている。
拡張現実を用いたロボットのアラーム自動診断のための方法及びシステムのいくつかの例示的な態様及び実施形態を説明してきたが、当業者はそれらの修正、置換、追加、及び部分的組み合わせを認識するであろう。したがって、添付の特許請求の範囲、及び今後導入される特許請求の範囲は、このような変形、置換、追加、及び部分的組み合わせをすべてそれらの真の精神及び範囲内に包含すると解釈されるものである。

Claims (23)

  1. 機械に関する問題を診断し修理するためのシステムであって、前記システムは:
    機械と通信する機械制御装置であって、プロセッサ及びメモリを含み、前記機械の動作を制御し且つ前記機械のトラブルコードを記録する機械制御ソフトウェアで構成される機械制御装置と;
    1つ又は複数のカメラと、位置追跡センサと、表示部とを有する拡張現実(AR)デバイスであって、診断ガイドソフトウェアアプリケーションを実行するように構成されるプロセッサ及びメモリを更に含む、ARデバイスと;を備え、
    前記診断ガイドソフトウェアアプリケーションが、
    前記機械に問題があることを示すデータを含む前記機械制御装置からのデータを前記ARデバイスに提供すること;
    作業セル座標系に対する前記ARデバイスの位置及び向きを確認し、連続的に追跡すること;
    診断ステップと、決定ポイントとを含む診断ツリーを作成し、該診断ツリーによって前記問題の根本原因を診断すること;及び
    前記問題の根本原因が判定され解決されるまで、前記診断ステップ及び前記決定ポイントにおいてユーザと対話することによって前記診断ツリーを辿る診断ガイドを提供すること;を含む機能を提供し、
    診断ツリーを作成する工程は、前記機械制御装置からのスナップショットのデータに基づき前記診断ツリーにおける1つ又は複数の決定ポイントにおける質問に前記診断ガイドソフトウェアアプリケーションが自動的に答えることによって前記診断ツリーを枝刈りすることを含む、システム。
  2. 前記ARデバイスは、ユーザが装着するヘッドセット装置である、請求項1に記載のシステム。
  3. 前記ユーザによって視認されるスペース内の固定位置に配置されるユーザダイアログウィンドウ内に、画像、ビデオ、及び説明を含む前記診断ツリーの一部が表示される、請求項2に記載のシステム。
  4. 前記ARデバイスは、ユーザが保持するスマートフォン又はタブレットコンピューティングデバイスであり、AR表示部及びユーザダイアログウィンドウは、分割画面モードで表示される、請求項1に記載のシステム。
  5. 前記作業セル座標系に対する前記ARデバイスの位置及び方向を確認することは、既知のデザインを有し且つ前記作業セル座標系内の既知の位置に配置された視覚マーカの画像を解析することを含む、請求項1に記載のシステム。
  6. 前記機械制御装置からデータを提供する工程は、前記ARデバイスと前記機械制御装置との間の通信を確立することと、アラーム履歴、ロボット関節負荷及びトルク、サーボモータステータス、モータ電流、並びにトレンドデータを含む前記機械に関するデータをダウンロードすることとを含む、請求項1に記載のシステム。
  7. 前記機械制御装置からデータを提供する工程は、前記機械制御装置によって2次元バーコード(QRコード(登録商標))を生成し、表示することと、前記ARデバイスによって前記QRコード(登録商標)を読み取ることとを含み、前記QRコード(登録商標)は前記トラブルコードを特定する、請求項1に記載のシステム。
  8. 診断ツリーを作成する工程は、前記問題に対して以前に作成された診断ツリーを診断ツリーライブラリから選択することと、前記問題に対する診断ツリーが前記診断ツリーライブラリ内に存在しない場合には、前記問題を解決する可能性の高い順に機械のコンポーネントを交換することを含む一連のアクションとして前記診断ツリーを構築することとを含む、請求項1に記載のシステム。
  9. 前記診断ガイドは、前記ユーザが前記診断ステップを完遂するのを支援するように設計された画像、ビデオ、説明、及びARデータを備えた前記診断ステップを提示し、前記決定ポイントのそれぞれにおいて前記ユーザに質問に回答するように求め、前記回答に基づき前記診断ツリーの枝を辿る、請求項1に記載のシステム。
  10. 前記位置追跡センサは、1つ又は複数のジャイロスコープ及び1つ又は複数の加速度計を含み、前記位置追跡センサは、前記ARデバイスの位置及び向きの変化の連続的な計算を可能にする信号を前記ARデバイス内の前記プロセッサに提供する、請求項1に記載のシステム。
  11. 前記ARデータは、前記機械のカメラ画像上に重ね合わされた仮想特徴を含み、前記仮想特徴は、前記ユーザが前記診断ステップを完遂するのを視覚的に支援するように設計され、前記仮想特徴の表示は、前記ARデバイスの位置及び向きの変化に基づき連続的に更新される、請求項9に記載のシステム。
  12. 知識データベースを含むウェブサーバを更に備え、前記ARデバイスは、前記ウェブサーバと通信し、前記知識データベースから診断ツリー及びARデータをダウンロードし、前記知識データベースに根本原因情報をアップロードする、請求項1に記載のシステム。
  13. 前記機械は、産業用ロボットである、請求項1に記載のシステム。
  14. 前記診断ツリーは、前記診断ツリーを枝刈りするために前記機械制御装置からのデータに基づいて評価される自動決定関数を含む、請求項1に記載のシステム。
  15. ロボット制御装置と通信する拡張現実(AR)デバイスを含み、産業用ロボットに関する問題を診断及び修復する装置であって、前記ARデバイスは、1つ又は複数のカメラと、慣性センサと、表示部とを有し、前記ARデバイスは更に、診断ガイドソフトウェアアプリケーションを実行するように構成されるプロセッサ及びメモリを含み、前記診断ガイドソフトウェアアプリケーションは、ロボットに問題があることを示すデータを含む前記ロボット制御装置からのデータをダウンロードし、前記問題の根本原因を診断する診断ステップ及び決定ポイントを含む診断ツリーを作成し、前記根本原因が解決されるまで、前記診断ステップ及び前記決定ポイントにおいてユーザと対話することによって、前記診断ツリーを辿る診断ガイドを提供するように構成され、
    前記診断ツリーを作成することは、前記ロボット制御装置からのスナップショットのデータに基づき前記診断ツリーにおける1つ又は複数の決定ポイントにおける質問に前記診断ガイドソフトウェアアプリケーションが自動的に答えることによって前記診断ツリーを枝刈りすることを含む、装置。
  16. 機械に関する問題を診断し修理する方法であって、前記方法は:
    機械及び前記機械と通信する機械制御装置を提供するステップ、
    1つ又は複数のカメラと、位置追跡センサと、表示部とを有する拡張現実(AR)デバイスであって、診断ガイドソフトウェアアプリケーションを実行するように構成されたプロセッサ及びメモリを更に含むARデバイスを提供するステップ;
    作業セル座標系に対する前記ARデバイスの位置及び向きを確認し、連続的に追跡するステップ;
    前記機械制御装置から前記ARデバイスに、前記機械の問題を特定するデータを含むマシン診断データを提供するステップ;
    前記マシン診断データに基づいて、前記問題の根本原因を診断する診断ステップ及び決定ポイントを含む、診断ツリーを決定するステップ;
    前記ARデバイスのユーザに、診断ツリーに従う診断ガイドを提示するステップ;及び
    前記問題の根本原因が特定・修正されるまで、前記診断ガイドに従って、ユーザが、前記診断ステップにおける検査及びコンポーネント交換動作、及び前記決定ポイントにおける質問への応答を行うステップ、を含み、
    診断ツリーを決定するステップは、、前記診断ガイドソフトウェアアプリケーションによって決定された前記診断ツリーにおける1つ又は複数の決定ポイントにおける質問に、前記診断ガイドソフトウェアアプリケーションが前記機械制御装置からのスナップショットのデータに基づいて自動的に答えることによって前記診断ツリーを枝刈りすることを含む、方法。
  17. 前記診断ガイドを前記ユーザに提示するステップは、前記ARデバイス上にARデータを提供することを含み、前記ARデータは、前記診断ツリーに含まれる少なくとも1つの検査又はコンポーネント交換作業を表現する、請求項16に記載の方法。
  18. 前記ARデバイスは、前記ユーザが装着するヘッドセット装置であり、前記ARデータは、前記機械及びその周辺のリアルタイム画像に重ね合わされ、前記ユーザによって視認されるスペース内の固定位置に配置されるユーザダイアログウィンドウ内に、画像、ビデオ、及び説明を含む前記診断ツリーの一部が表示される、請求項17に記載の方法。
  19. 前記ARデータは、前記機械の前記リアルタイム画像に重ね合わされた仮想特徴を含み、前記仮想特徴は、前記ユーザが前記診断ステップを完遂するのを視覚的に支援するように設計され、前記仮想特徴の表示は、前記ARデバイスの位置及び向きの変化に基づき連続的に更新される、請求項18に記載の方法。
  20. 診断ツリーを決定するステップは、前記問題に対して以前に作成された診断ツリーを診断ツリーライブラリから選択することと、前記問題に対する診断ツリーが前記診断ツリーライブラリ内に存在しない場合には、前記問題を解決する可能性の高い順に機械のコンポーネントを交換することを含む一連のアクションとして前記診断ツリーを構築することとを含む、請求項16に記載の方法。
  21. 前記ARデバイスによって知識データベースを含むウェブサーバと通信するステップを更に含み、当該ステップは、前記知識データベースから診断ツリー及びARデータをダウンロードし、前記知識データベースに根本原因情報をアップロードすることを含む、請求項16に記載の方法。
  22. 前記機械は、産業用ロボットである、請求項16に記載の方法。
  23. 前記機械に関する問題を特定する前記データは、アラームコード又はトラブルコードである、請求項16に記載の方法。
JP2020572740A 2018-06-26 2019-06-26 拡張現実を用いた自動動的診断ガイド Active JP7425756B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862690045P 2018-06-26 2018-06-26
US62/690,045 2018-06-26
US16/453,749 US11373372B2 (en) 2018-06-26 2019-06-26 Automatic dynamic diagnosis guide with augmented reality
US16/453,749 2019-06-26
PCT/US2019/039340 WO2020006142A1 (en) 2018-06-26 2019-06-26 Automatic dynamic diagnosis guide with augmented reality

Publications (2)

Publication Number Publication Date
JP2021528777A JP2021528777A (ja) 2021-10-21
JP7425756B2 true JP7425756B2 (ja) 2024-01-31

Family

ID=68981074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020572740A Active JP7425756B2 (ja) 2018-06-26 2019-06-26 拡張現実を用いた自動動的診断ガイド

Country Status (5)

Country Link
US (1) US11373372B2 (ja)
JP (1) JP7425756B2 (ja)
CN (1) CN112368659B (ja)
DE (1) DE112019003185T5 (ja)
WO (1) WO2020006142A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6543430B1 (ja) * 2019-03-08 2019-07-10 グレイステクノロジー株式会社 作業支援システム、作業支援サーバ、作業状況判定装置、作業者用デバイス及び作業対象機器
US11263570B2 (en) * 2019-11-18 2022-03-01 Rockwell Automation Technologies, Inc. Generating visualizations for instructional procedures
US11733667B2 (en) * 2019-11-18 2023-08-22 Rockwell Automation Technologies, Inc. Remote support via visualizations of instructional procedures
US11455300B2 (en) 2019-11-18 2022-09-27 Rockwell Automation Technologies, Inc. Interactive industrial automation remote assistance system for components
US11645933B2 (en) * 2020-03-27 2023-05-09 Snap Inc. Displaying augmented reality content with tutorial content
KR102252815B1 (ko) * 2020-12-01 2021-05-17 박광수 서보모터와 엔코더의 동기화 방법을 가이드하기 위한 방법 및 이를 구현하는 시스템
US20220362928A1 (en) * 2021-05-11 2022-11-17 Rapyuta Robotics Co., Ltd. System and method for generating and displaying targeted information related to robots in an operating environment
US11531447B1 (en) * 2021-06-15 2022-12-20 Avalara, Inc. System for assisting searches for codes corresponding to items using decision trees
CN114815779B (zh) * 2022-04-25 2023-01-10 深圳市希车智能科技有限公司 基于ar与vr的汽车远程交互诊断方法、系统及其存储介质
CN116483054A (zh) * 2023-04-19 2023-07-25 广州市阳普机电工程有限公司 一种工业机器人运行状态监测预警系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002154085A (ja) 2000-11-15 2002-05-28 Toyota Motor Corp 作業用ロボットシステムの保全支援方法及び保全支援装置
JP2014235704A (ja) 2013-06-05 2014-12-15 富士機械製造株式会社 基板生産支援システム
JP2016107379A (ja) 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
US20180165978A1 (en) 2016-12-09 2018-06-14 The Boeing Company System and method for interactive cognitive task assistance

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8418001B2 (en) 2007-11-08 2013-04-09 Siemens Aktiengesellschaft Context-related troubleshooting
EP2405402A1 (en) 2010-07-06 2012-01-11 EADS Construcciones Aeronauticas, S.A. Method and system for assembling components
US20130218783A1 (en) 2012-02-21 2013-08-22 Digital Manufacturing, Inc. Apparatus and method for real-time data capture and usage for fault repair
US10824310B2 (en) 2012-12-20 2020-11-03 Sri International Augmented reality virtual personal assistant for external representation
US20150164430A1 (en) * 2013-06-25 2015-06-18 Lark Technologies, Inc. Method for classifying user motion
US9870716B1 (en) * 2013-01-26 2018-01-16 Ip Holdings, Inc. Smart glasses and smart watches for real time connectivity and health
US9472028B2 (en) 2014-06-23 2016-10-18 GM Global Technology Operations LLC Augmented reality based interactive troubleshooting and diagnostics for a vehicle
US9922236B2 (en) * 2014-09-17 2018-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable eyeglasses for providing social and environmental awareness
WO2016057386A1 (en) 2014-10-07 2016-04-14 Diversey, Inc. Methods and apparatus for technical and customer support for industrial cleaning devices
US10142596B2 (en) 2015-02-27 2018-11-27 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus of secured interactive remote maintenance assist
US20180103917A1 (en) 2015-05-08 2018-04-19 Ngoggle Head-mounted display eeg device
US11347212B2 (en) * 2016-03-09 2022-05-31 Siemens Aktiengesellschaft Smart embedded control system for a field device of an automation system
US9861446B2 (en) 2016-03-12 2018-01-09 Philipp K. Lang Devices and methods for surgery
CN113876353A (zh) * 2016-06-20 2022-01-04 蝴蝶网络有限公司 引导超声装置的操作者定位超声装置的方法、系统和介质
CN106340217B (zh) * 2016-10-31 2019-05-03 华中科技大学 基于增强现实技术的制造装备智能系统及其实现方法
US10388075B2 (en) * 2016-11-08 2019-08-20 Rockwell Automation Technologies, Inc. Virtual reality and augmented reality for industrial automation
US10735691B2 (en) * 2016-11-08 2020-08-04 Rockwell Automation Technologies, Inc. Virtual reality and augmented reality for industrial automation
CN107656505A (zh) * 2017-08-21 2018-02-02 杭州太若科技有限公司 使用增强现实设备控制人机协作的方法、装置和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002154085A (ja) 2000-11-15 2002-05-28 Toyota Motor Corp 作業用ロボットシステムの保全支援方法及び保全支援装置
JP2014235704A (ja) 2013-06-05 2014-12-15 富士機械製造株式会社 基板生産支援システム
JP2016107379A (ja) 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
US20180165978A1 (en) 2016-12-09 2018-06-14 The Boeing Company System and method for interactive cognitive task assistance

Also Published As

Publication number Publication date
WO2020006142A1 (en) 2020-01-02
CN112368659B (zh) 2024-06-18
US20190392644A1 (en) 2019-12-26
CN112368659A (zh) 2021-02-12
JP2021528777A (ja) 2021-10-21
DE112019003185T5 (de) 2021-04-08
US11373372B2 (en) 2022-06-28

Similar Documents

Publication Publication Date Title
JP7425756B2 (ja) 拡張現実を用いた自動動的診断ガイド
Baroroh et al. Systematic literature review on augmented reality in smart manufacturing: Collaboration between human and computational intelligence
JP6886869B2 (ja) 動作予測システム及び動作予測方法
EP3875912B1 (en) User interface tool kit for mobile devices
EP1310844B1 (en) Simulation device
US11586852B2 (en) System and method to modify training content presented by a training system based on feedback data
JP7471428B2 (ja) 製造又は産業環境における協調ロボットとの相互作用のために仮想/拡張現実を使用するためのシステム、方法及びコンピュータ読み取り可能媒体
JP2023510091A (ja) アセット管理システム
Kootbally et al. Enabling robot agility in manufacturing kitting applications
Lotsaris et al. AR based robot programming using teaching by demonstration techniques
JP4731335B2 (ja) 組立性評価方法、そのシステム及びプログラム
CN104731578A (zh) 为可编程计量系统生成定制和同步参考注解的远程附件
Bellalouna Industrial use cases for augmented reality application
Ivaschenko et al. Accented visualization in digital industry applications
WO2019021045A1 (en) METHOD AND SYSTEM FOR ACTION OF AN INDUSTRIAL ROBOT BASED ON A PARAMETER
US11586946B2 (en) System and method to generate training content based on audio and image feedback data
US11500915B2 (en) System and method to index training content of a training system
Setti et al. AR Tool-Augmented Reality Platform for Machining Setup and Maintenance
JP6746003B2 (ja) 管理装置、管理方法及びプログラム
D’Onofrio et al. Augmented reality for maintenance and repair
Vahrenkamp et al. High-level robot control with ArmarX
Baldez et al. Semiotics applied to human-robot interaction in welding processes
Rasheed A Makerspace Cyber Physical System for Convergence Research
Sujanthi Augmented Reality for Industrial Maintenance Using Deep Learning Techniques–A Review
Giménez et al. Realizing real-time digital twins for industrial cobots

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240119

R150 Certificate of patent or registration of utility model

Ref document number: 7425756

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150