JP2022092599A - 方法、コンピュータプログラムおよびコンピュータシステム(拡張現実で強化された状況認識) - Google Patents

方法、コンピュータプログラムおよびコンピュータシステム(拡張現実で強化された状況認識) Download PDF

Info

Publication number
JP2022092599A
JP2022092599A JP2021198883A JP2021198883A JP2022092599A JP 2022092599 A JP2022092599 A JP 2022092599A JP 2021198883 A JP2021198883 A JP 2021198883A JP 2021198883 A JP2021198883 A JP 2021198883A JP 2022092599 A JP2022092599 A JP 2022092599A
Authority
JP
Japan
Prior art keywords
user
content
program
region
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021198883A
Other languages
English (en)
Inventor
ラグベアー プラサド ナガー
Raghuveer Prasad Nagar
サルバジット ケイ. ラクシット
K Rakshit Sarbajit
マンジット シング ソドヒ
Manjit Singh Sodhi
ラフル ジャイン
Rahul Jain
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2022092599A publication Critical patent/JP2022092599A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/487Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/489Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】領域内の問題に対するユーザの状況認識を強化する方法。【解決手段】方法は、ユーザと関連付けられたデバイスから領域に対応する視覚情報を受信する、1または複数のコンピュータを含む。方法は更に、複数の物理的要素を含む領域内の1または複数のセンサのグループからデータを受信することを含む。方法は更に、センサのグループから受信したデータの解析に基づいて、第1の問題が領域内に存在することと、第1の問題に対応する領域内の第1の物理的要素とを判定することを含む。方法は更に、領域内に存在する第1の問題に関する拡張現実(AR)コンテンツを生成することを含む。方法は更に、ユーザと関連付けられたデバイスを介して、領域に対応する視覚情報内の問題に関する、生成されたARコンテンツを表示することを含む。【選択図】図2

Description

本発明は、概して、拡張現実(AR)の分野に関し、より詳細には、モノインターネットセンサから取得された情報に基づいてARコンテンツを生成することに関する。
モノインターネット(IoT)は、様々な物理的デバイスおよび日常のオブジェクトを、インターネットを通して互いに接続することが可能であることと定義される。電子機器、インターネット接続、および他の形態のハードウェア(センサなど)が埋め込まれて、IoTデバイスは、インターネット、無線ネットワーク、および他のデバイス間通信方法を通じて、他のものと通信し対話することができ、それにより、IoTデバイスが情報を提供し、またそれをリモートで監視/制御することができる。IoTデバイスは、人・デバイス間通信を含むことができる。例えば、ユーザは、移動デバイスのアプリケーションを利用してIoTデバイスに連絡して、サービスを識別するか、または建物もしくは場所内を進むか、あるいはその両方を行う。加えて、一部のIoTデバイス(例えば、エッジデバイス)は、ある領域内で、センサからのデータを取得し、エッジコンピューティング解析を実行し、領域内の他のIoTデバイスとインタフェース接続することができる。
拡張現実(AR)は、グラフィカル情報、力覚イベント、聴覚効果、もしくは他の感覚効果、またはそれらの組み合わせなど、コンピュータ生成の感覚入力によって拡張(オーバーレイ)された要素を含む、物理的な実世界環境の表示である。概して、拡張は、ほぼリアルタイムで、また様々な環境的要素を用いて意味的なコンテキストで行われる。ARオーバーレイは、物理的世界の中の特徴と関連付けられた画像もしくはビデオストリーム内の、及び/またはそれらに関連付けられた、仮想情報(例えば、形状、色、テキスト、情報へのリンク、コンピュータ生成のグラフィックスなど)を統合することができる。例えば、スマートフォン、スマートグラス、ヘッドアップディスプレイ、タブレットコンピュータなど、様々な電子(例えば、コンピューティング)デバイスは、AR能力を含むか、もしくはARコンテンツ情報を受信するか、またはその両方を行うことができる。
本発明の一態様によれば、領域内の問題に対するユーザの状況認識を強化する、方法、コンピュータプログラム製品、もしくはシステム、またはそれらの組み合わせが存在する。
方法は、ユーザと関連付けられたデバイスから領域に対応する視覚情報を受信する、少なくとも1つのコンピュータプロセッサを含む。方法は更に、複数の物理的要素を含む領域内の1または複数のセンサのグループからデータを受信する、少なくとも1つのコンピュータプロセッサを含む。方法は更に、複数の物理的要素を更に含む領域内の1または複数のセンサのグループからデータを受信する、少なくとも1つのコンピュータプロセッサを含む。方法は、少なくとも1つのコンピュータプロセッサが、センサのグループから受信したデータの解析に基づいて、第1の問題が領域内に存在することと、第1の問題に対応する領域内の第1の物理的要素とを判定することを含む。方法は、少なくとも1つのコンピュータプロセッサが、領域内に存在する第1の問題に関する拡張現実(AR)コンテンツを生成することを含む。方法は、少なくとも1つのコンピュータプロセッサが、ユーザのデバイスを介して、領域に対応する視覚情報内の問題に関する、生成されたARコンテンツを表示することを含む。
本発明の一実施形態による、ネットワーク化されたサイト環境を示す図である。
本発明の一実施形態による、状況認識プログラムのステップを示すフローチャートである。
本発明の一実施形態による、時間可視化プログラムのステップを示すフローチャートである。
本発明の一実施形態による、コンピュータの構成要素を示すブロック図である。
本発明の実施形態は、領域内に存在する(即ち、発生している)様々な問題が軽微な課題として始まる可能性があり、個人が問題を無視するかまたはそれに取り組むのを遅らせる場合が多いことを認識する。本発明の実施形態は、無視されたまたは未解決の問題は徐々に悪化し、他のイベントもしくは危険またはその両方を生成することがあり、それが是正されなかった場合、最終的に壊滅的な状況またはイベントを作り出す可能性があることを認識する。同様に、本発明の実施形態は、ある個人が領域内の問題に対して一時的訂正のみを適用した場合、後の機会にその領域に入る異なる個人が、問題が完全に是正されていないことに気づかないで、問題と関連付けられた危険に知らずに自身を晒すか、または問題を悪化させる恐れがある動作を実行することがあることを認識する。
本発明の実施形態は、場合によっては、問題が1または複数の感覚的構成要素(例えば、視覚要素、振動要素、嗅覚要素、もしくは可聴要素、またはそれらの組み合わせ)を生じさせるので、領域内の問題が自明であることを認識する。他の場合は、問題が、オブジェクト、エンクロージャ、または機器の部品内に隠されていることにより、様々な感覚的構成要素を介して問題を検出することができないので、領域に入る個人は問題に気づかない。本発明の実施形態は、個人の観察スキルおよび能力を利用するよりも、取得したセンサデータを自動的に利用し、センサデータまたはセンサデータの解析を個人に提供して、問題を識別する方が簡単であることを認識する。
本発明の実施形態は、ユーザ(例えば、個人)が問題に気づき、当該問題と関連付けられた潜在的な危険を当該ユーザに通知し、当該問題がどのように是正されるかのログを取り、または当該問題がパッチもしくは無視されたことを判定する可能性を改善する。本発明の実施形態は、領域内の、及び/または領域内の様々な要素もしくは機器内に含まれる、センサから取得したデータを利用して、領域内の問題を自動的に検出し識別する。本発明の実施形態は、問題が存在するか否かについて、領域の要素内の、及び/または領域と関連付けられた、様々なセンサもしくはIoT使用可能デバイスまたはその両方から取得した、解析およびコンテキスト情報を利用し、ならびに/あるいは、領域内の条件に起因して、将来のある時点で問題が起こり得ることを予測する。条件は、摩耗、腐食、応力機器、進行中の工事、輸送の増加(例えば、人間、車両、もしくは材料、またはそれらの組み合わせ)などを増加させる、環境的要因を含んでもよい。
本発明の一態様は、例えば、ARヘッドセット、スマートグラス、携帯電話などの、ユーザのデバイスの拡張現実(AR)能力を利用して、ユーザ(即ち、個人)の注意または注目を、問題が存在する、危険が存在する、または問題が将来起こると予測される、領域内の特定の位置に引き付ける。本発明の実施形態は、問題のタイプを判定し、続いて、問題もしくは問題に関する危険またはその両方を表すイメージを判定する。本発明の実施形態は、ARおよびコンピュータ生成のグラフィックスを利用して、問題と関連付けられたイメージを強化及び/または拡大し、強化されたイメージをユーザの視野内に埋め込む。問題と関連付けられたイメージは、ユーザ/デバイスが問題の位置に面するまで、ユーザのデバイスの視野内を移動する。本発明の一実施形態が、ユーザの注意が問題の位置に向けられていないことを検出した場合、本発明の実施形態は更に、問題および問題の位置をより明白にするようにARコンテンツを修正し、ならびに/あるいはユーザのデバイスを介して他の動作を開始する。
本発明の別の態様は、解析プログラム一式によって利用される係数として、ユーザによって入力される時間情報、問題に関する情報、ならびに問題を軽減または一時的に是正するために実装するのにユーザが実行するかもしくは選ぶ動作を利用する。本発明の実施形態は、解析スイートの出力および予測を使用して、問題の将来の状態ならびに/あるいは問題が位置する領域を示す、投影されたイベントの予報及び/またはタイムラプスシーケンスに関する、画像、仮想現実(VR)レンダリング、もしくはアニメーションシーケンス、またはそれらの組み合わせを生成するように、自動化コンピュータグラフィックスプログラムに命令する。
本発明に関する様々なシナリオ、例、および実施例の記載を、例示の目的で提示してきたが、網羅的であるか、または開示する実施形態に限定しようとするものではない。
以下、本発明について、図を参照して詳細に記載する。図1は、本発明の実施形態による、環境100を示す機能的ブロック図である。一実施形態では、環境100は、ネットワーク140を通じて全て相互接続された、システム110と、センサ125と、ユーザデバイス130とを含む。一実施形態では、環境100は、センサ125のそれぞれの例によって監視される領域120の1または複数の例を含む。
システム110およびユーザデバイス130は、ラップトップコンピュータ、タブレットコンピュータ、パーソナルコンピュータ、デスクトップコンピュータ、または当技術分野で知られている任意のプログラマブルコンピュータシステムであってもよい。特定の実施形態では、システム110およびユーザデバイス130は、データセンタでは一般的であり、クラウドコンピューティングアプリケーションで良く見られるような、ネットワーク140を通してアクセスされるとシームレスリソースの単一のプールとして作用する、クラスタ化されたコンピュータおよび構成要素(例えば、データベースサーバコンピュータ、アプリケーションサーバコンピュータなど)を利用する、コンピュータシステムを表す。いくつかの実施形態では、ユーザデバイス130は、携帯情報端末(PDA)、スマートフォン、ウェアラブルデバイス(例えば、スマートグラス、スマートウォッチ、e-テキスタイル、ARヘッドセットなど)であることができる。一般に、システム110およびユーザデバイス130は、機械可読プログラム命令を実行し、ネットワーク140を介してセンサ125と通信することができる、任意のプログラマブル電子デバイス、またはプログラマブル電子デバイスの組み合わせを表す。システム110およびユーザデバイス130は、本発明の実施形態による、図4に関して更に詳細に図示され記載されるような、構成要素を含んでもよい。
システム110は、履歴情報112と、解析スイート113と、問題解決情報114と、メディアコンテンツのコーパス115と、コンピュータグラフィックススイート116と、時間可視化プログラム300と、複数の他のプログラムおよびデータ(図示なし)とを含む。システム110に含まれる他のプログラムおよびデータの例は、1または複数のデータベース、ウェブブラウザ、認知プログラム(例えば、自然言語処理(NLP)プログラム、画像認識プログラム、セマンティッククエリプログラム、ビデオ解析プログラム、音声認識プログラムなど)、位置マッピング/ジオフェンシングプログラム、近接性閾値、力覚イベント生成プログラム、領域120の例のマップ、修復サプライおよびツールのリスト、領域120の例の中で実行される機能もしくは動作またはその両方などを含んでもよい。
履歴情報112は、例えば、領域120内の要素に関するセンサデータおよび解析のログ、領域120と関連付けられた問題のステータスログ(例えば、解決済み、未解決、遅延、パッチ済み、もしくは部分的に訂正済みなど)、過去の問題に関する重大度の説明もしくは格付けまたはその両方、問題と関連付けられた危険、警告メッセージなど、領域120の例とそれぞれ関連付けられた複数の情報を含む。一実施形態では、履歴情報112はまた、領域120の例とそれぞれ関連付けられた、機器および機器位置のリスト、設備の概要(例えば、電気、水道設備、換気など)、センサ位置などを含む。いくつかの実施形態では、履歴情報112はまた、様々な動作条件と関連付けられた、アンペア数、温度、およびノイズレベルなど、領域120の要素と関連付けられた動作値もしくは設定またはその両方を含む。他の実施形態では、履歴情報112はまた、企業の保守安全データベースまたは規制機関など、他のネットワークアクセス可能リソースから取得した、複数の他の問題、イベント、およびそれぞれの危険に関する参照情報を含むことができる。
解析スイート113は、センサ125からのデータ、履歴情報112、もしくは問題解決情報114、またはそれらの組み合わせを利用する、複数の解析プログラムを含む。いくつかのシナリオでは、解析スイート113は、1または複数の問題が領域120内に存在すること、および関連する危険が存在し得るか否かを判定する。他のシナリオでは、解析スイート113は、様々な要因に基づいて、領域120内の問題と関連付けられた将来の状態を判定する。例えば、問題と関連付けられた将来の状態は、問題によって生成または解放された1もしくは複数の危険、別の問題を発生させる始動、問題によって影響されることになる領域120の要素、問題または危険によって影響される領域120内の領域のサイズの変化、問題を是正するコスト、問題を是正するのに必要なスキルもしくは個人用防護具(PPE)またはその両方、問題を補償するために指示される調節のスケジュールなどを含んでもよい。様々な要因は、時間フレーム、ユーザの1または複数の動作、ユーザによる動作がないこと、問題が領域120内に同時に存在するか否か、領域120と関連付けられた1つの問題が領域120内に存在する別の問題に影響(例えば、相互作用、悪化)するか否かを含んでもよい。
いくつかの実施形態では、解析スイート113はまた、現在の問題の重大度格付けを推定し、時間及び/またはユーザの1もしくは複数の動作に基づいて、問題の重大度格付けに対する変化を外挿することができる。加えて、解析スイート113は、時間及び/またはユーザの1もしくは複数の動作に基づいて、領域120内の問題と関連付けられた危険もしくは危険インタラクションまたはその両方に関する変化を判定することができる。様々な実施形態では、解析スイート113はまた、例えば、画像認識プログラム、音声解析プログラムなど、システム110もしくはユーザデバイス130またはその両方の中に含まれる他のプログラムから取得した情報を利用する。いくつかの実施形態では、解析スイート113は、履歴情報112内のデータ、およびセンサ125からのデータを利用して、領域120内で問題が将来発生する確率を予測することができる。
問題解決情報114は、領域120の例の中で識別された問題または潜在的な問題を是正することに関する情報を含む。問題解決情報114は、決定木、ソフトコピーマニュアル、履歴の問題と、過去の問題例を是正するのに利用される対応するスキル、動作、サプライ、PPE、もしくは機器、またはそれらの組み合わせ、許容可能な問題解決の遅延値などを含んでもよい。様々な実施形態では、問題解決情報114は、根本原因情報、および問題の是正、解決、または修復に利用される、対応する補正動作を含む。いくつかの実施形態では、問題解決情報114はまた、例えば、健康および安全と関連付けられた、企業の健康安全データベース、仮想エンジニア、ソフトコピーマニュアルへのリンク、規制機関から利用可能な安全および危険情報など、ネットワーク140を介してアクセス可能な他のリソースから取得される、複数の問題に関するリソース、イベントおよびそれぞれの補正動作、危険インタラクション、もしくは結果、またはそれらの組み合わせを表すことができる。
メディアコンテンツのコーパス115は、例えば、グラフィカル表現、画像、ビデオ、アニメーション画像など、問題もしくは危険またはその両方に関する、ライブラリ、データベース、もしくはメディアファイルの集合体(例えば、コンテンツ)、またはそれらの組み合わせを表す。メディアコンテンツのコーパス115はまた、例えば、金属の削れ、火のパチパチ音、アーク放電、水の流れ、構造的な材料欠陥など、様々な問題または危険の音声ファイルを含むことができる。いくつかの実施形態では、メディアコンテンツのコーパス115はまた、一般利用向けに識別されるか、または本発明の態様によって使用を許可され、インターネットなどのネットワーク140を介してアクセス可能な他のソースから取得された、メディアファイルを表すことができる。他の実施形態では、メディアコンテンツのコーパス115は、生成されたアニメーションシーケンスまたは抽出されたコンテンツなど、コンピュータグラフィックススイート116によって生成されたコンテンツを含む。
コンピュータグラフィックススイート116は、メディアコンテンツのコーパス115内の要素もしくは他のネットワークアクセス可能なソースまたはその両方からの、視覚もしくは音声またはその両方を編集、抽出、及び/または生成して、ARコンテンツもしくはVRコンテンツまたはその両方を生成及び/または修正する、自動化プログラム一式を表す。ARコンテンツもしくはVRコンテンツまたはその両方は、将来使用するために、ARコンテンツ117内に記憶することができる。一実施形態では、コンピュータグラフィックススイート116は、少なくとも状況認識プログラム200から取得した情報に基づいて、ARコンテンツを生成する。いくつかの実施形態では、コンピュータグラフィックススイート116は、状況認識プログラム200からの命令に基づいて、ARコンテンツもしくはVRコンテンツまたはその両方を修正する。
他の実施形態では、コンピュータグラフィックススイート116は、ユーザによって入力された時間情報、解析スイート113によって生成された情報、および時間可視化プログラム300からの情報もしくは命令またはその両方を利用して、時間の関数としての問題の進行に関する、あるいは問題の潜在的な将来の状態を示す、時間ベースの画像、アニメーションシーケンス、もしくは音声イベント、またはそれらの組み合わせを作成する。
一実施形態では、ARコンテンツ117は、領域120内の1または複数の問題と関連付けられた、メディアコンテンツのコーパス115および状況認識プログラム200から取得される、メディアファイルのライブラリである。別の実施形態では、ARコンテンツ117はまた、領域120内の1または複数の問題と関連付けられた、時間可視化プログラム300によってメディアコンテンツのコーパス115から取得される、メディアファイルを含む。更なる実施形態では、ARコンテンツ117は更に、時間可視化プログラム300からの命令に応答して、コンピュータグラフィックススイート116によって修正及び/または生成された、ARコンテンツもしくはVRコンテンツまたはその両方を含む。
時間可視化プログラム300は、問題に関する情報、問題を是正するユーザによる動作もしくは動作がないことと関連付けられた情報、およびユーザによって入力される1もしくは複数の時間的指示に基づいて、問題もしくは領域120またはその両方の1もしくは複数の将来の状態に関する、ARコンテンツもしくはVRコンテンツまたはその両方(例えば、メディアファイル)を生成するプログラムである。一例では、時間可視化プログラム300は、将来の固定点における問題の状態の、または冷蔵ユニットの故障に応答して食物が悪くなるなど、時間の関数として問題の変化する状態(例えば、早送り、時間的漸増など)を見る、視覚的予報(即ち、予測)をユーザが取得できるようにする。別の例では、ユーザが、例えば、部分的または一時的修復、パラメータもしくは設定またはその両方の修正など、不完全な訂正を実行することを選んだ場合、時間可視化プログラム300は、コンピュータグラフィックススイート116とインタフェース接続して、識別された問題に関する、問題の将来の状態と関連付けられたARコンテンツもしくはVRコンテンツまたはその両方を生成することができる。
様々な実施形態では、時間可視化プログラム300は、解析スイート113から取得した情報およびユーザからの入力を利用して、時間的に操作されたARコンテンツもしくはVRコンテンツまたはその両方を生成してユーザに対して表示するように、コンピュータグラフィックススイート116に命令する。更なる実施形態では、時間可視化プログラム300は、領域120内に2以上の問題が同時に(例えば、同じ時間間隔の間に)存在することの識別に応答して、相互作用を判定し、AR/VRコンテンツを生成することができる。例えば、1つの問題が少なくとも部分的に訂正されない場合、時間可視化プログラム300は、貯留水が近くに存在するときに流れる電気の問題を修復するよう試みるなど、問題間の相互作用から生じる追加の問題もしくは危険またはその両方を判定し、それにより、感電の危険のリスクもしくは重大度またはその両方が増加する(例えば、悪化する)。
領域120は、部屋などの物理的に結合された領域、場所の部屋もしくは倉庫の島などの、より大きい領域内のジオフェンスで囲まれた領域、及び/またはユーザデバイス130の位置に関してユーザに近接した(例えば、その周りの)動的に定義された領域を表してもよい。領域120は、例えば、機器、プロセスツール、コンピュータ、公共事業インフラストラクチャ(暖房、冷房、および換気システム、水道設備システム、配電システム、ならびに通信ネットワークなど)、1または複数のセーフティシステム、物理的インフラストラクチャ(廃液受けおよび汚水槽、輸送メカニズム)など、複数の要素(例えば、物理的特徴)(図示なし)を含むことができる。領域120のいくつかの要素は、IoT使用可能デバイス(図示なし)を含む。いくつかの実施形態では、領域120はまた、傷みやすい物品、または製造中のアイテムなど、輸送中の要素を含む。場合によっては、1または複数の問題(図示なし)は、ユーザが領域120内にいる間、領域120内に存在する。問題は、規格外条件で動作すること、また例えば、損傷、摩耗、構造疲労、腐食、脆化、構造の変形、生分解、漏れ、アーク放電など、領域120の1または複数の要素と関連付けられた、影響もしくは欠陥またはその両方を指してもよい。問題はまた、感電または滑りやすい表面など、危険を生成することがある。
センサ125は、領域120に関する、及び/または領域120と関連付けられた様々な要素(上記に説明)内に含まれる情報を判定する、複数のセンサ、もしくはモノインターネット(IoT)使用可能デバイスに動作可能に連結されたセンサ、またはその両方を表す。センサ125は、熱センサ、ノイズセンサ、化学センサ、人工鼻、様々な電気センサ(例えば、電圧センサ、電流センサ、サーミスタ、高調波ひずみセンサなど)、湿度センサ、環境センサ(例えば、温度、湿度、空気流など)などを含んでもよい。いくつかの実施形態では、センサ125の1または複数のセンサはまた、例えば、動作パラメータ、ビーコン信号、識別情報、機器IDまたはサブアセンブリIDなどの、センサを含む領域120の要素と関連付けられたコンテキスト情報など、センサ測定値とは異なる情報を送信することができる。様々な実施形態では、センサ125の1または複数のセンサは、本発明の実施形態による、図4に関して更に詳細に図示され記載されるような、構成要素を含んでもよい。
一実施形態では、領域120と関連付けられたセンサ125のうちいくつかのセンサは、ネットワーク140を利用して、システム110およびユーザデバイス130と通信する。他の実施形態では、センサ125の1または複数のセンサは、異常または規格外条件の判定に基づいて、データを解析し選択的に送信することができる。別の実施形態では、領域120と関連付けられ、IoT使用可能デバイス(図示なし)内に含まれる、センサ125のうち1または複数の他のセンサは、ネットワーク140を利用することなく、ユーザデバイス130と無線で通信することができる。いくつかのシナリオでは、ユーザデバイス130は、生のデータもしくは解析されたデータまたはその両方を、ネットワーク140を介して、センサ125の1または複数のセンサからシステム110に通信することができる。
加えて、領域120の例を制御及び/またはそれに関与するユーザ(例えば、所有者、管理者など)は、オプトインしており、例の領域120と関連付けられたセンサ125が領域120の例と関連付けられたデータを収集できることを認証する。更に、領域120の例を制御及び/またはそれに関与するユーザ(例えば、所有者、管理者など)は、本発明の様々な実施形態によれば、状況認識プログラム200もしくは時間可視化プログラム300またはその両方にオプトインしていて、センサ125から受信したデータを処理し、受信データを履歴データ112内もしくは他の位置またはその両方に記憶する。
一実施形態では、ユーザデバイス130は、ユーザインタフェース(UI)132と、出力デバイス134と、拡張現実(AR)プログラム135と、状況認識プログラム200と、複数のプログラムおよびデータ(図示なし)とを含む。他のプログラムおよびデータの例は、全地球測位システム(GPS)ソフトウェア、ウェブブラウザ、カメラ/ビデオアプリケーション、音声解析プログラム、画像認識ソフトウェア、認知アプリ、領域120の1または複数の例のマップ、履歴情報112の少なくとも一部分のローカルコピー、センサ125から取得したデータなどを含んでもよい。更なる実施形態では、ユーザデバイス130は、領域120内に含まれるリモートモニタリングシステム、またはユーザに影響し得る危険の検出に応答してなど、領域120の例に入るユーザとは対照的に領域120を横断することができる、ロボットモニタリングシステムを表す。
様々な実施形態では、ユーザデバイス130はまた、1もしくは複数のカメラなど、ARプログラム135及び/または状況認識プログラム200と関連付けられて利用される、複数の他のハードウェア機構(図示なし)、スピーカー、ヘッドフォン、力覚アクチュエータ、例えばLTE-M、狭帯域IoT(NB-IoT)、近距離無線通信(NFC)など、センサ125の1もしくは複数のセンサとインタフェース接続する無線通信技術およびプロトコル、ユーザの位置、向き、及び/または1もしくは複数の物理的動作を感知する、コンパス及び/または慣性モニタリングシステム、ならびに/あるいはARヘッドセット、一対のスマートグラス、ヘッドアップディスプレイなど、出力デバイス134の異なる例を含み、ならびに/あるいはそれらに動作可能に連結される。
本発明の様々な実施形態は、ユーザと関連付けられた記憶デバイスおよびコンテンツを含んでもよい、履歴データ112、問題解決情報114など、様々なアクセス可能データソースを利用することができる。例示の実施形態では、状況認識プログラム200もしくは時間可視化プログラム300またはその両方の例は、ユーザが、情報のタイプおよびカテゴリを明らかにするオプトインまたはオプトアウトするのを可能にする。状況認識プログラム200もしくは時間可視化プログラム300またはその両方の例は、位置情報など、ユーザ情報の認証された安全な取扱いができるようにし、ならびに取得されていることがある情報のタイプおよびカテゴリが維持され、及び/またはアクセス可能であることができるようにする。別の例では、ユーザはオプトインして、状況認識プログラム200が、決定またはステータス情報のログは取るが、決定のログを取るか、ステータスを更新するか、または1もしくは複数の動作を実行した、ユーザのIDは匿名化することを可能にする。ユーザに、情報のタイプおよびカテゴリの収集、ならびに収集プロセスのオプトインまたはオプトアウトの機会の通知を提供することができる。同意はいくつかの形態を取ることができる。オプトインの同意は、データが収集される前に積極的措置を取るようにユーザに課すことができる。あるいは、オプトアウトの同意は、データが収集される前のデータの収集を防ぐ積極的措置を取るようにユーザに課すことができる。
一実施形態では、UI 132は、グラフィカルユーザインタフェース(GUI)またはウェブユーザインタフェース(WUI)であってもよい。UI 132は、テキスト、ドキュメント、フォーム、ウェブブラウザウィンドウ、ユーザオプション、アプリケーションインタフェース、および動作の命令を表示し、プログラムをユーザに提示する、グラフィック、テキスト、および音声などの情報を含むことができる。様々な実施形態では、UI 132は、ユーザデバイス130と関連付けられてユーザが実行することができるアプリケーションを表す、1または複数のアイコンを表示する。一例では、UI 132は、状況認識プログラム200もしくは時間可視化プログラム300またはその両方のアプリケーションインタフェースを表す。加えて、UI 132は、状況認識プログラム200もしくは時間可視化プログラム300またはその両方と関連付けられた、動作に応答及び/またはそれを確認するのにユーザが利用する、動作のシーケンスを制御することができる。
いくつかの実施形態では、ユーザデバイス130のユーザは、GUI/WUIに対する入力、ならびに1もしくは複数の実行中ソフトウェアアプリケーションを示すアプリ及び/または画像と関連付けられた複数のアイコンを提示する出力デバイス(例えば、ディスプレイ)としての両方を実行する、タッチスクリーン(例えば、ディスプレイ)など、単一のデバイスを介してUI 132と対話することができる。様々な実施形態では、UI 132は、キーボード、触覚センサインタフェース(例えば、タッチスクリーン、タッチパッド)、仮想インタフェースデバイス、もしくはニューラルユーザインタフェース(例えば、音声制御ユニット、モーションキャプチャデバイス、視線追跡、サイバーグローブ、ヘッドアップディスプレイなど)、またはそれらの組み合わせを含むがそれらに限定されない、複数の入出力(I/O)デバイス(図示なし)からの入力を受け入れる。音声および視覚による対話に加えて、UI 132は、デバイス130が情報もしくはコマンドまたはその両方として識別する、書き言葉または話し言葉などの自然言語を利用するデバイス130のユーザに応答して、入力を受信してもよい。
一実施形態では、出力デバイス134は、ユーザデバイス130内に含まれ、ユーザデバイス130のカメラ(図示なし)から取得したAR/VRコンテンツおよび画像/ビデオを表示する。別の実施形態では、出力デバイス134は、例えばヘッドアップディスプレイ、スマートグラス、仮想網膜ディスプレイなど、ユーザデバイス130に連結されて動作可能な表示技術を表す。様々な実施形態では、出力デバイス134は、ディスプレイおよび入力デバイスの両方として動作することができる、タッチスクリーンデバイスである。いくつかの実施形態では、出力デバイス134はまた、ユーザデバイス130で実行する他のプログラムに関する、UI 132およびGUI要素を表示する。様々な実施形態では、出力デバイス134の異なる例は、異なる情報もしくはグラフィカル要素またはその両方をユーザに提示する。更なる実施形態では、出力デバイス134は、領域120の外部であり、リモートまたはロボットモニタリングシステムと関連付けられた、1または複数のディスプレイを表す。
ARプログラム135は、AR要素もしくはARコンテンツオーバーレイまたはその両方を、ユーザデバイス130と関連付けられたカメラによって取得される、キャプチャされた画像(即ち、静止画像)またはビデオフィード内に埋め込む、拡張現実プログラムである。一実施形態では、ARプログラム135は、ARコンテンツもしくはARコンテンツオーバーレイまたはその両方を、状況認識プログラム200もしくは時間可視化プログラム300またはその両方によって命令及び/または生成されたものとして、埋め込み及び/または移動させる。別の実施形態では、ARプログラム135は、コンピュータグラフィックススイート116によって生成されたVRコンテンツを表示する。いくつかの実施形態では、ARプログラム135は、例えば、ARコンテンツ要素のサイズを増加させる、視覚効果を追加する、センサイベントの持続時間を長くするなど、状況認識プログラム200からの命令に基づいて、システム110から受信したARコンテンツもしくはVRコンテンツまたはその両方を、追加及び/または修正することができる。他の実施形態では、ARプログラム135は視野の複数の例を表示する。
状況認識プログラム200は、領域120と関連付けられたセンサ125の中からのデータを利用して、問題もしくは危険またはその両方が存在するか否か、あるいは領域120内で発生する可能性を有するかを判定するプログラムである。一実施形態では、問題及び/または1もしくは複数の危険が存在する、あるいは領域120内で発生する可能性があり得るという判定に応答して、状況認識プログラム200は、ARプログラム135を利用して、問題、状況、もしくは危険、またはそれらの組み合わせに関するARコンテンツを、領域120の一部分に対応する画像またはビデオフィード内に埋め込む。様々な実施形態では、状況認識プログラム200は、ネットワーク140を利用して、システム110の複数のリソース、ファイル、およびプログラムにアクセスする。
いくつかの実施形態では、発生している問題と関連付けられる識別された位置にユーザの注意が引き付けられていないと、状況認識プログラム200が判定した場合、状況認識プログラム200は更に、ユーザの注意を引き付けるように、ARコンテンツ及び/またはARコンテンツの提示を修正(例えば、拡張、増幅など)する。様々な実施形態では、状況認識プログラム200は、2以上の問題が領域120内に存在するという判定に応答し、ユーザ入力に基づいて異なるAR/VRコンテンツを生成することができる。更なる実施形態では、状況認識プログラム200は、時間可視化プログラム300とやり取りし、部分的もしくは一時的修復などの不完全な訂正に関する様々なユーザ入力、動作設定の修正/調節など、ならびに/あるいはユーザによって入力される時間情報に基づいた領域120内の問題の将来の状態の判定に基づいて、発生している問題に関する他のARコンテンツもしくはVRコンテンツまたはその両方を取得する。
ネットワーク140は、例えば、ローカルエリアネットワーク(LAN)、電気通信ネットワーク(例えば、セルラーネットワークの一部分)、イントラネットなどの無線ローカルエリアネットワーク(WLAN)、インターネットなどのワイドエリアネットワーク(WAN)、または上記の任意の組み合わせであることができ、有線、無線、または光ファイバー接続を含むことができる。一般に、ネットワーク140は、本発明の実施形態による、システム110、センサ125、ユーザデバイス130、もしくはインターネット、またはそれらの組み合わせの間の通信をサポートする、接続およびプロトコルの任意の組み合わせであることができる。様々な実施形態では、ネットワーク140は、有線、無線、または光接続を介してローカルで動作し、接続およびプロトコルの任意の組み合わせ(例えば、パーソナルエリアネットワーク(PAN)、Bluetooth(登録商標)、近距離無線通信(NFC)、レーザー、赤外線、超音波など)であることができる。
図2は、本発明の実施形態による、領域と関連付けられた1または複数のセンサから受信した情報を解析して、問題を識別し、続いて、問題に関するARコンテンツを修正して、識別された問題にユーザの注意または注目を引き付けるプログラムである、状況認識プログラム200に関する動作ステップを示すフローチャートである。様々な実施形態では、状況認識プログラム200は、時間可視化プログラム300とインタフェース接続して、問題に応答してユーザの1または複数の選択に基づいて、AR/VRコンテンツを生成し、ならびに/あるいは1または複数の時間的指示の関数として、問題に対する潜在的な変化を示すようにAR/VRコンテンツを修正する。一実施形態では、ユーザは、状況認識プログラム200がAR/VRコンテンツをユーザに提示している間、時間可視化プログラム300によって、ARコンテンツもしくはVRコンテンツまたはその両方の生成を動的に修正することができる。
ステップ201で、状況認識プログラム200はユーザの位置を判定する。状況認識プログラム200は、ユーザデバイス130を利用して、領域120内のユーザの位置および移動を継続的に監視することができる。状況認識プログラム200は、ユーザデバイス130を利用して、ユーザが領域120に近付いていると判定し、領域120内のユーザの位置を、またはユーザが領域120を出ることを判定する。いくつかの実施形態では、状況認識プログラム200はまた、ユーザの向きを判定するのに、ユーザデバイス130を利用する。様々な実施形態では、状況認識プログラム200は、例えば、ユーザのID、ユーザデバイス130と関連付けられたID、追跡データなど、1または複数のタイプのデータにユーザがオプトインすることを指示する。例えば、ユーザは、状況認識プログラム200にオプトインして、ユーザデバイス130を追跡するが、ユーザデバイス130またはユーザデバイス130と関連付けられたユーザの識別からはオプトアウトしてもよい。
ステップ202で、状況認識プログラム200は履歴問題情報を検索する。一実施形態では、ユーザが領域120に入るかまたは領域120の近接性閾値内に近付いているとの判定に応答して、状況認識プログラム200は、履歴情報112から情報を検索して、知られている問題がアクティブ(例えば、進行中)であるか、または不完全に全体が是正されているか否かを判定する。状況認識プログラム200はまた、領域120と関連付けられる是正された問題の以前の例に関する、履歴情報112からの情報を検索してもよい。様々な実施形態では、状況認識プログラム200は、領域120の例と関連付けられた更なる情報を、例えば、動作と関連付けられた機器およびそれぞれの値のリスト、ユーティリティ図、レイアウト、センサ位置など、様々なソースから検索する。
ステップ204で、状況認識プログラム200は、センサのグループからデータを取得する。状況認識プログラム200は、ネットワーク140を介してセンサ125のセンサの中から、及び/または無線通信技術を介してユーザデバイス130に直接、データを受信してもよい。いくつかのシナリオでは、状況認識プログラム200は、センサ125をポーリングして、領域120の要素に関するデータを取得する。他のシナリオでは、状況認識プログラム200は、領域120に入る際など、ユーザデバイス130の位置に基づいて、センサ125のセンサの中からデータを自動的に取得し受信する。
別の実施形態では、状況認識プログラム200は、履歴情報112から、以前に識別された問題と関連付けられた、領域120内におけるセンサ125のセンサのグループに関するデータを取得する。更なる実施形態では、状況認識プログラム200は、ユーザデバイス130の1もしくは複数の特徴もしくはプログラムまたはその両方に基づいて、領域120と関連付けられた他のデータを判定する。
ステップ206で、状況認識プログラム200はセンサデータを解析する。状況認識プログラム200は、センサデータを解析して、1もしくは複数の問題が領域120内に存在するか否か、または領域120内で将来発生し得るかを判定する。問題が領域120内に存在しないと解析が示した場合、状況認識プログラム200は終了する。一実施形態では、状況認識プログラム200は、センサ125から取得したデータと、履歴情報112内に含まれるセンサデータもしくは機器動作規格またはその両方と比較して、その比較が領域120内に問題が存在することを示すか否かを判定する。状況認識プログラム200はまた、様々な解析の中でユーザデバイス130の1または複数の特徴から取得したデータを含んでもよい。加えて、状況認識プログラム200は、問題と関連付けられた領域120内の1または複数の要素を識別することができる。
別の実施形態では、状況認識プログラム200は、問題が領域120内に存在するか否かを示す結果を、センサを含む1または複数のIoT使用可能デバイス(図示なし)から受信し、インシチュー解析を実行することができる。いくつかの実施形態では、状況認識プログラム200は、解析スイート113もしくは認知プログラムまたはその両方を利用して、例えば、問題に関する重大度格付けの判定、問題が生成し得る将来のインパクトまたはイベントの判定など、より複雑な解析を実行する。
ステップ208で、状況認識プログラム200は、問題と関連付けられたコンテキスト情報を判定する。状況認識プログラム200は、領域120の一部分内で実行された動作などの、システム110内に記憶された履歴情報112もしくは他の情報など、1または複数のリソース内に含まれる情報に基づいて、コンテキスト情報を判定する。問題と関連付けられたコンテキスト情報は、煙、火花、水などの、問題が解放または生成する1もしくは複数の危険、問題が発生している領域120内の位置、「配電パネル内」もしくは「機器ID X2Bのサブアセンブリ325内に埋め込み」などの、問題の説明などを含んでもよい。更なる実施形態では、状況認識プログラム200はまた、音声の識別および音声の方向の判定など、ユーザデバイス130の特徴もしくはプログラムまたはその両方に基づいて、領域120と関連付けられたコンテキスト情報を判定する。
いくつかの実施形態では、問題が危険を解放または生成しているという判定に応答して、状況認識プログラム200は、ネットワーク140を利用して他のリソース(図示なし)にアクセスして、危険がユーザもしくは領域120の他の要素またはその両方にとって脅威であるか否かを判定する。別の実施形態では、状況認識プログラム200はまた、問題解決情報114にアクセスして、問題を是正または一時的に訂正する1もしくは複数の動作を識別する。
ステップ210で、状況認識プログラム200はARコンテンツを生成する。一実施形態では、状況認識プログラム200は、問題もしくは問題に関する危険またはその両方と関連付けられた情報を利用して、メディアコンテンツのコーパス115またはARコンテンツ117の中から、問題もしくは問題に関する危険またはその両方を表す、少なくとも1つのメディアファイルを選択する。一例では、低速の漏れに関するARコンテンツは、短い線を有するパイプおよび2つの液滴によって表すことができ、一方でより重大な漏れは、大きい亀裂を有するパイプおよび液体の流れによって表すことができる。別の例では、電気的問題に関するARコンテンツは、一対の稲妻によって示されてもよい。アーク放電も存在する場合、状況認識プログラム200は、音声コンテンツをメディアコンテンツのコーパス115からダウンロードするか、またはコンピュータグラフィックススイート116を利用して、メディアファイル内の稲妻にストロボ効果を適用してもよい。
様々な実施形態では、状況認識プログラム200は、問題に関する情報に基づいてARコンテンツを修正するように、ARプログラム135に命令する。一例では、状況認識プログラム200は、問題が明らかにされるか封じられるかに基づいて、ARコンテンツの周りに異なる視覚効果を適用し、問題が領域120の表示部分の別の要素の後方にある場合は、別の視覚効果を適用し、問題の位置が出力デバイス134内に表示される領域120の部分の外部にある場合は、矢印などの方向指示を追加するように、ARプログラム135に命令する。別の例では、状況認識プログラム200は、問題の重大度格付けに基づいて、ARコンテンツの明るさを変化させるか、またはARコンテンツの周りの色などの視覚効果を修正するように、ARプログラム135に命令する。更なる実施形態では、状況認識プログラム200が、メディアコンテンツのコーパス115または他のネットワークアクセス可能リソース内の問題に適用可能なARコンテンツを識別できない場合、状況認識プログラム200は、認知プログラムおよびコンピュータグラフィックススイート116を利用して、問題の1または複数の態様に関するイメージから、ARコンテンツを抽出し生成する。
引き続きステップ210を参照すると、いくつかの実施形態では、状況認識プログラム200はまた、問題、問題に関連する危険、もしくは他の関連情報、またはそれらの組み合わせと関連付けられたコンテキスト情報を含む、ARコンテンツオーバーレイを生成する。例えば、状況認識プログラム200は、機器ID、問題の重大度格付け、警告メッセージ、ステータス情報などを含むホバーオーバー要素である、ARコンテンツオーバーレイを生成する。更なる実施形態では、状況認識プログラム200が問題または関連する危険の表現を識別できない場合、状況認識プログラム200は、コンピュータグラフィックススイート116とインタフェース接続して、メディアコンテンツのコーパス115または他のネットワークアクセス可能メディアファイル内の他の記憶されたメディアファイルを利用して、問題もしくは関連する危険またはその両方をそれぞれ表す、1または複数のメディアファイル(例えば、ARコンテンツ)を作成する。
決定ステップ211で、状況認識プログラム200は、複数の問題が識別されたか否かを判定する。一実施形態では、状況認識プログラム200は、ステップ206で実行された解析に基づいて、複数の問題が識別されたことを判定する。別の実施形態では、状況認識プログラム200は、ステップ206で実行された解析、および履歴情報112内の問題のステータスログに基づいて、複数の問題が識別されたことを判定する。
複数の問題が識別されたという判定に応答して(「はい」の分岐、決定ステップ211)、状況認識プログラム200は、複数の問題と関連付けられた影響を判定する(ステップ212)。
ステップ212で、状況認識プログラム200は、複数の問題と関連付けられた影響を判定する。状況認識プログラム200は、1または複数の認知プログラム(図示なし)を利用して、様々な情報ソース内に含まれる情報を探索し解析して、問題とそれぞれ関連付けられた影響もしくは危険またはその両方を判定してもよい。一実施形態では、状況認識プログラム200は、履歴情報112内に含まれる情報、センサデータの解析、問題解決情報114、もしくは他の内部情報ソース、またはそれらの組み合わせに基づいて、複数の問題と関連付けられた影響(例えば、インパクト)もしくは危険またはその両方を判定する。例えば、領域120の一部分内のスタック値の識別は、領域120の異なる部分における機器内の過熱の問題を引き起こす。
別の実施形態では、状況認識プログラム200はまた、解析スイート113を利用して、領域120内の複数の問題に取り組む(例えば、訂正する)優先順位を判定する。いくつかの実施形態では、状況認識プログラム200は、1または複数の規制機関から利用可能な安全および危険情報など、ネットワークアクセス可能リソースを探索して、2以上の問題の影響もしくは危険またはその両方が相互作用し、問題の重大度を増加させ、及び/または領域120内のユーザに対するリスクを増加させるか否かを判定する。例えば、煙の危険を生成する問題と同時の換気減少の問題は、領域120を汚染するか、または安全でないレベルの煙をユーザが吸い込むリスクに晒すことがある。続いて、状況認識プログラム200は、ステップ214で、問題に関するARコンテンツをユーザに提示する。
決定ステップ211を参照すると、複数の問題が識別されていないとの判定に応答して(「いいえ」の分岐、決定ステップ211)、状況認識プログラム200は、問題に関するARコンテンツをユーザに提示する(ステップ214)。
ステップ214で、状況認識プログラム200は、問題に関するARコンテンツをユーザに提示する。状況認識プログラム200は、ARプログラム135を利用して、出力デバイス134を介して、ARコンテンツもしくはVRコンテンツまたはその両方を表示する。一実施形態では、状況認識プログラム200は、領域120内における問題の位置の判定もしくは他の要因またはその両方に基づいて、ARコンテンツを選択して提示する(ステップ210に関して上記に説明)。いくつかの実施形態では、複数の問題が領域120内に存在するという判定に応答して、状況認識プログラム200は、各問題に関するARコンテンツを提示する。加えて、状況認識プログラム200はまた、例えば、フェースマスクのアイコン、電気絶縁性のブーツおよびグローブなど、複数の問題の間での相互作用、もしくは複数の問題の間での相互作用に関する危険、またはその両方と関連付けられた、追加のARコンテンツを提示してもよい。追加のARコンテンツはまた、複数の問題の中での相互作用と関連付けられた、コンテキスト情報もしくは記述的情報またはその両方を含む、コンテンツオーバーレイを含んでもよい。更に、状況認識プログラム200は、問題とそれぞれ関連付けられた重大度格付けに基づいて、それぞれのARコンテンツの提示を調節するように、ARプログラム135に命令することができる。
1つのシナリオでは、状況認識プログラム200が、出力デバイス134内に表示される領域120の部分内に問題が位置すると判定した場合、状況認識プログラム200は、出力デバイス134内に表示される問題の視覚的位置に近接した問題に関するARコンテンツを適用する。別のシナリオでは、状況認識プログラム200が、問題が見えない(例えば、隠れている、領域120の他の要素の後方にあるなど)と判定した場合、状況認識プログラム200は、出力デバイス134内に表示される問題のおおよその視覚的位置で、問題に関する修正されたARコンテンツを提示する。他のシナリオでは、状況認識プログラム200が、問題の位置が領域120の表示部分内にないと判定した場合、状況認識プログラム200は、問題の位置に関し、問題に関するARコンテンツとそれぞれ関連付けられた、方向指示を更に含むように、ARプログラム135に命令する。
ステップ216で、状況認識プログラム200は、ARコンテンツの提示に関するユーザ応答を判定する。一実施形態では、状況認識プログラム200は、ユーザデバイスが問題の位置に向かって移動することに基づいて、ユーザがARコンテンツの提示に応答すると判定する。様々な実施形態では、状況認識プログラム200は、ユーザがUI 132を活性化させて動作に関する情報を調査して、問題の是正を実行するか、またはステップ208で判定された問題に対する一時的訂正を識別することに基づいて、ユーザ応答を判定する。
別の実施形態では、状況認識プログラム200は、ユーザデバイス130が問題の位置から離れる方向に移動する、及び/または向いているという判定に基づいて、ユーザがARコンテンツの提示に応答しないと判定する。いくつかの実施形態では、状況認識プログラム200は、ユーザが、UI 132に入力された情報に基づいて、提示されるARと関連付けられた問題を承認するのみであると判定する。他の実施形態では、状況認識プログラム200は、ユーザが時間可視化プログラム300を実行して、問題の1または複数の将来の状態を判定するのに基づいて、ユーザが提示されるARコンテンツと関連付けられた問題を承認すると判定する。
決定ステップ217で、状況認識プログラム200は、ユーザが問題に応答するか否かを判定する。一実施形態では、状況認識プログラム200は、ユーザが少なくとも問題解決情報114にアクセスすること、ならびに後に続くセンサから受信したデータの解析が、問題がない(例えば、問題が是正もしくは一時的に訂正されている)ことを示すと判定することによって、ユーザが問題に応答すると判定する。いくつかの実施形態では、状況認識プログラム200は、UI 132を介して問題の存在を承認することによって、ユーザが応答すると判定するが、問題を是正しないことを選ぶ。別の実施形態では、状況認識プログラム200は、問題の位置とは異なる方向における、ユーザデバイス130の移動もしくは向きまたはその両方に基づいて、ユーザが問題に応答しないと判定する。他の実施形態では、状況認識プログラム200は、ユーザが時間可視化プログラム300を実行することに基づいて、ユーザが問題に応答しないと判定して、様々な入力もしくは選択またはその両方に基づいて、問題の1または複数の将来の状態を判定する。
ユーザが問題に応答しないという判定に応答して(「いいえ」の分岐、決定ステップ217)、状況認識プログラム200は、ユーザに提示されるARコンテンツを更新する(ステップ218)。
ステップ218で、状況認識プログラム200は、ユーザに提示されるARコンテンツを更新する。一実施形態では、問題の位置から離れるように移動していることに基づいて、ユーザが問題に応答しないという判定に応答して、状況認識プログラム200は、ユーザの注意を引き付けるか、もしくは問題に対するユーザ応答を促すか、またはその両方のため、ARコンテンツを更新及び/または追加する。一例では、状況認識プログラム200は、ARコンテンツのサイズを増加させる、またはARコンテンツと関連付けられた方向指示を修正するなど、問題に関するARコンテンツの1または複数の態様を修正するように、ARプログラム135に命令してもよい。状況認識プログラム200は、問題に対するユーザの後に続く応答または応答がないことに基づいて、ARコンテンツを修正するように、ARプログラム135に命令し続けてもよい。別の例では、状況認識プログラム200はまた、ユーザが移動するにしたがって、出力デバイス134の視野内に留まるように、修正されたARコンテンツを移動させるように、ARプログラム135に命令する。更新されたARコンテンツもしくはVRコンテンツまたはその両方をユーザに提示することに応答して、状況認識プログラム200は、ステップ216にループして、ARコンテンツもしくはVRコンテンツまたはその両方の別の提示に関するユーザ応答を判定する。
他の実施形態では、状況認識プログラム200は、問題の1または複数の将来の状態が、問題に関連するARコンテンツとは対照的に、問題に応答して問題の1または複数の将来の状態を判定するユーザ遅延の判定、及び/または是正されていない問題と関連付けられたコンテンツと関連付けられることを示す、時間可視化プログラム300から受信される、更新されたARコンテンツもしくはVRコンテンツまたはその両方を提示する。いくつかの実施形態では、ARコンテンツもしくはVRコンテンツまたはその両方の複数のアイテムを、時間可視化プログラム300から受信することに応答して、状況認識プログラム200は、UI 132を利用して、利用可能なコンテンツに関してユーザに通知し、ユーザが提示されるコンテンツを選択することを可能にする。
引き続きステップ218を参照すると、更なる実施形態では、状況認識プログラム200は、1つの問題の異なる時間的スナップショット、または異なる問題の予報を見るなど、ユーザの指示に基づいて、異なるAR/VRコンテンツを含む領域120の同じ部分の複数の例を提示するように、ARプログラム135に命令する。
決定ステップ217を参照すると、ユーザが問題に応答するという判定に応答して(「はい」の分岐、決定ステップ217)、状況認識プログラム200は、問題と関連付けられた情報を更新する(ステップ220)。
ステップ220で、状況認識プログラム200は、問題と関連付けられた情報を更新する。状況認識プログラム200は、ユーザによって入力される情報、及び/または後に続くセンサ125の中からのデータに基づいて、履歴情報112もしくは問題解決情報114またはその両方を更新する。ユーザによって入力される情報は、動作、ツール、もしくはサプライ、またはそれらの組み合わせが、問題を是正するのに利用することを示す情報を含んでもよく、問題、問題に近接して見出される危険、及び/または領域120の1もしくは複数の要素に影響する問題のインパクトを文書化する(例えば、ノートを書く、写真を撮る、ステータス情報を更新するなど)。一実施形態では、状況認識プログラム200が、ユーザが問題を承認するが、問題を是正しないと判定した場合、状況認識プログラム200は、UI 132を介して、問題に取り組むこと(例えば、訂正)をしなかった理由を文書化するようにユーザに促し、履歴情報112内に問題もしくは危険またはその両方のログを取る。
一実施形態では、状況認識プログラム200は、UI 132の別の態様を活性化して、ユーザが領域120内の問題を是正することと関連付けられたユーザ入力を受信する。別の実施形態では、状況認識プログラム200は、UI 132の別の態様を活性化して、例えば、一時的修復を適用する、パラメータ/設定を修正する、「ワークアラウンド」を実装するなど、ユーザが問題の不完全な訂正を実行することと関連付けられたユーザ入力を受信する。いくつかの実施形態では、状況認識プログラム200はまた、例えば、VRメディアファイル、問題の進行の説明、指示された時点における問題の将来の状態に関する変化など、ユーザ情報を、時間可視化プログラム300への入力、時間可視化プログラム300によって生成される出力、及び/または解析スイート113内に記憶する。
図3は、本発明の実施形態による、時間の関数として領域内に存在する問題を判定することに応答して、ユーザの1または複数の選択に基づいて、ARコンテンツもしくはVRコンテンツまたはその両方を生成及び/または修正するプログラムである、時間可視化プログラム300の動作ステップを示すフローチャートである。様々な実施形態では、時間可視化プログラム300は、状況認識プログラム200の実行中に開始される1または複数のユーザ動作に応答して実行する。
ステップ302で、時間可視化プログラム300は、問題に関する情報を受信する。様々な実施形態では、時間可視化プログラム300は、例えば、センサデータ、1もしくは複数の解析の結果、問題と関連付けられたコンテキスト情報、及び/または1もしくは複数の関連する危険、2以上の問題の中での相互作用など、状況認識プログラム200によって判定される、領域120内の問題に関する情報を受信する。いくつかの実施形態では、時間可視化プログラム300は、問題に関する追加の情報を、履歴問題情報112から取得する。一実施形態では、時間可視化プログラム300は、ネットワークアクセス可能リソースにアクセスして、監視ビデオ、または制御された条件下で問題の進行を記録する安全ラボなど、領域120とは異なる領域内で発生した問題の類似の例に関する更なる情報を取得する。
ステップ304で、時間可視化プログラム300は、ユーザから入力を受信する。一実施形態では、時間可視化プログラム300は、例えば、問題の状態を判定する1または複数の将来の期間、重大度格付け閾値、問題を是正、軽減、または一時的に訂正する動作を実行するか実行しないか、複数の問題に取り組む順序など、UI 132を介して、ユーザ入力から時間的指示および係数を受信する。いくつかの実施形態では、時間可視化プログラム300はまた、2時間の漸増、10:1の時間圧縮、または重大度格付けの変化もしくは危険が発生すると予測される間隔など、ARコンテンツもしくはVRコンテンツまたはその両方がユーザに対してどのように提示されるかを指示する、ユーザからの入力を受信する。
ステップ306で、時間可視化プログラム300は、問題に関するARコンテンツと関連付けられた時間的修正を判定する。様々な実施形態では、時間可視化プログラム300は、ステップ302で取得した情報に基づいて、メディアコンテンツのコーパス115内に含まれる複数のメディアファイルの中から、ARコンテンツもしくはVRコンテンツまたはその両方を識別し選択する。一実施形態では、時間可視化プログラム300は、ステップ304で受信する元の時間的指示および係数に基づいて、問題に関する選択されたARコンテンツもしくはVRコンテンツまたはその両方と関連付けられた、1または複数の時間的修正を判定する。別の実施形態では、時間可視化プログラム300は、ユーザがARコンテンツもしくはVRコンテンツまたはその両方の時間的修正を見るのに応答して受信したユーザ入力に基づいて(状況認識プログラム200のステップ218)、問題に関するARコンテンツもしくはVRコンテンツまたはその両方と関連付けられた、1または複数の時間的修正を判定する。他の実施形態では、時間可視化プログラム300は更に、2以上の問題が相互作用し、問題の1もしくは複数の態様もしくは危険またはその両方を悪化させるという判定に基づいて、ARコンテンツもしくはVRコンテンツまたはその両方を修正することができる。時間可視化プログラム300は、修正及び/または生成されたARおよびVRコンテンツを、ARコンテンツ117内に記憶してもよい。
いくつかの実施形態では、時間可視化プログラム300は、コンピュータグラフィックススイート116を利用して、ユーザから受信した入力に基づいて、選択されたARコンテンツもしくはVRコンテンツまたはその両方を時間的に修正する。更なる実施形態では、時間可視化プログラム300が、問題に関するARコンテンツもしくはVRコンテンツまたはその両方を識別して、メディアコンテンツのコーパス115または他のネットワークアクセス可能リソース,内で時間的に修正できない場合、時間可視化プログラム300は、認知プログラムおよびコンピュータグラフィックススイート116を利用して、問題の態様に関するイメージを少なくとも含むアクセス可能なコンテンツから、ARコンテンツもしくはVRコンテンツまたはその両方を抽出し生成する。
ステップ308で、時間可視化プログラム300は、時間的に修正されたARコンテンツをユーザのデバイスに送信する。一実施形態では、時間可視化プログラム300は、問題の将来の状態のスナップショットなど、時間的に修正されたARをユーザデバイス130に送信して、ARプログラム135によって、またはステップ218で状況認識プログラム200を介して提示する。別の実施形態では、時間可視化プログラム300は、ユーザによって入力される時間情報および係数に基づいて、問題の状態の予報または進行と関連付けられたアニメーションシーケンスなど、VRコンテンツをユーザデバイス120に送信する。
決定ステップ309で、時間可視化プログラム300は、追加のユーザ入力が受信されるか否かを判定する。一実施形態では、時間可視化プログラム300は、追加のユーザ入力がUI 132を介してユーザデバイス130から受信されると判定する。一例では、時間可視化プログラム300は、ユーザが、領域120と関連付けられた異なる問題のVR進行を見ることを選ぶという情報を受信する。別の例では、時間可視化プログラム300は、ユーザが、問題に対して一時的訂正を実装することを選び、1時間のスナップショットで、次の10日間の間の領域120に対する影響を予報する、VRシーケンスを見ることを要求するという情報を受信する。
追加のユーザ入力を受信したことに応答して(「はい」の分岐、決定ステップ309)、時間可視化プログラム300は、ステップ306にループして、ユーザからの追加の入力に基づいて、問題に関するARコンテンツもしくはVRコンテンツまたはその両方と関連付けられた別の時間的修正を判定する。決定ステップ309を参照すると、追加のユーザ入力が受信されないという判定に応答して(「いいえ」の分岐、決定ステップ311)、時間可視化プログラム300は、ユーザが問題を是正するか否かを判定する。
決定ステップ311では、時間可視化プログラム300は、ユーザが問題を是正するか否かを判定する。一実施形態では、時間可視化プログラム300は、問題の位置に対するユーザの移動、履歴情報112に変化がないこと、または未解決、遅延などを示す、問題に関するログステータスの識別など、ステップ216もしくは決定ステップ217またはその両方で状況認識プログラム200によって判定される情報に基づいて、ユーザ問題を是正しないと判定する。別の実施形態では、複数の問題が領域120内に存在する場合、時間可視化プログラム300は、ユーザが是正しない別の問題に応答することができる。一例では、時間可視化プログラム300は、ユーザが重大度格付けが低い問題を是正するのに応答するが、重大度格付けがより高い問題の訂正を遅延することを示す。別の例では、時間可視化プログラム300は、ユーザが重大度格付けが高い問題を是正し、別の問題は許容可能な解決遅延の持続時間を有すると判定する。いくつかの実施形態では、時間可視化プログラム300は、少なくとも履歴情報112に対する更新に基づいて、ユーザが問題を是正すると判定する。
ユーザが問題を是正しないという判定に応答して(「いいえ」の分岐、決定ステップ311)、時間可視化プログラム300は、是正されていない問題と関連付けられたARコンテンツを判定する(ステップ312)。
ステップ312で、時間可視化プログラム300は、是正されていない問題と関連付けられたARコンテンツを判定する。一実施形態では、時間可視化プログラム300は、メディアコンテンツのコーパス115およびARコンテンツ117内に含まれる複数のメディアファイルの中から、ARコンテンツもしくはVRコンテンツまたはその両方を選択し、ステップ302およびステップ304で取得した情報に基づいて、コンテンツを修正する。別の実施形態では、時間可視化プログラム300は、ユーザがARコンテンツもしくはVRコンテンツまたはその両方の時間的修正を見るのに応答して受信したユーザ入力に基づいて(状況認識プログラム200のステップ218)、是正されていない問題に関するARコンテンツもしくはVRコンテンツまたはその両方と関連付けられた、1または複数の時間的修正を判定する。いくつかの実施形態では、時間可視化プログラム300は更に、1つの是正されていない問題の1もしくは複数の態様もしくは危険またはその両方が、別の是正されていない問題によって悪化するという判定に基づいて、是正されていない問題に関する、ARコンテンツもしくはVRコンテンツまたはその両方を修正することができる。
他の実施形態では、時間可視化プログラム300は、コンピュータグラフィックススイート116を利用して、ユーザから受信した入力に基づいて、選択されたARまたはVRコンテンツに時間的修正を適用する。更なる実施形態では、時間可視化プログラム300が、是正されていない問題に関するARコンテンツもしくはVRコンテンツまたはその両方を識別して、メディアコンテンツのコーパス115または他のネットワークアクセス可能リソース,内で修正できない場合、時間可視化プログラム300は、認知プログラムおよびコンピュータグラフィックススイート116を利用して、問題の態様に関するイメージを少なくとも含むアクセス可能なコンテンツソースから、ARコンテンツもしくはVRコンテンツまたはその両方を抽出し生成する。
ステップ314で、時間可視化プログラム300は、時間的に修正されたARコンテンツをユーザのデバイスに送信する。一実施形態では、時間可視化プログラム300は、時間的に修正されたARコンテンツもしくはVRコンテンツまたはその両方をユーザデバイス130に送信して、ユーザデバイス130のARプログラム135を介してユーザに提示する。いくつかの実施形態では、時間可視化プログラム300は、時間的に修正されたARコンテンツもしくはVRコンテンツまたはその両方をユーザデバイス130に送信し、ステップ218、216および決定ステップ217と関連付けられたループなど、状況認識プログラム200の様々な態様とインタフェース接続する。
決定ステップ311を参照すると、ユーザが問題を是正するという判定に応答して(「はい」の分岐、決定ステップ311)、時間可視化プログラム300は終了する。
図4は、代表的なシステム110およびクライアントデバイス130である、コンピュータシステム400を示している。コンピュータシステム400はまた、センサ125の1または複数の例を表す。コンピュータシステム400は、ソフトウェアおよびデータ412を含むシステムの一例である。コンピュータシステム400は、プロセッサ401と、キャッシュ403と、メモリ402と、永続ストレージ405と、通信ユニット407と、入出力(I/O)インタフェース406と、通信ファブリック404とを含む。通信ファブリック404は、キャッシュ403、メモリ402、永続ストレージ405、通信ユニット407、および入出力(I/O)インタフェース406の間に通信を提供する。通信ファブリック404は、データもしくは制御情報またはその両方を、プロセッサ(例えば、マイクロプロセッサ、通信およびネットワークプロセッサなど)、システムメモリ、周辺デバイス、ならびにシステム内の他の任意のハードウェアコンポーネントの間で渡すように設計された、任意のアーキテクチャで実装することができる。例えば、通信ファブリック404は、1もしくは複数のバスまたはクロスバースイッチを用いて実装することができる。
メモリ402および永続ストレージ405はコンピュータ可読記憶媒体である。この実施形態では、メモリ402はランダムアクセスメモリ(RAM)を含む。一般に、メモリ402は、任意の好適な揮発性または不揮発性コンピュータ可読記憶媒体を含むことができる。キャッシュ403は、メモリ402から、最近アクセスされたデータ、および最近アクセスされたデータに近いデータを保持することによって、プロセッサ401の性能を強化する高速メモリである。
本発明の実施形態を実践するのに使用されるプログラム命令およびデータは、永続ストレージ405およびメモリ402に記憶されて、キャッシュ403を介して、それぞれのプロセッサ401の1もしくは複数によって実行されてもよい。一実施形態では、永続ストレージ405は磁気ハードディスクドライブを含む。あるいは、または磁気ハードディスクドライブに加えて、永続ストレージ405は、プログラム命令またはデジタル情報を記憶することができる、固体ハードドライブ、半導体記憶デバイス、読出し専用メモリ(ROM)、消去可能プログラマブル読出し専用メモリ(EPROM)、フラッシュメモリ、または他の任意のコンピュータ可読記憶媒体を含むことができる。
永続ストレージ405によって使用される媒体はまた、リムーバブルであってもよい。例えば、リムーバブルハードドライブが永続ストレージ405に使用されてもよい。他の例は、永続ストレージ405の一部でもある別のコンピュータ可読記憶媒体上に転送するために、ドライブに挿入される、光学および磁気ディスク、サムドライブ、ならびにスマートカードを含む。ソフトウェアおよびデータ412は、永続ストレージ405に記憶されて、キャッシュ403およびメモリ402の1または複数のメモリを介して、それぞれのプロセッサ401の1もしくは複数によってアクセス及び/または実行される。システム110に関して、ソフトウェアおよびデータ412は、履歴情報112、解析スイート113、問題解決情報114、メディアコンテンツのコーパス115、コンピュータグラフィックススイート116、ARコンテンツ117、時間可視化プログラム300、ならびに他のプログラムおよびデータ(図示なし)を含む。クライアントデバイス130に関して、ソフトウェアおよびデータ412は、ARプログラム135、状況認識プログラム200、ならびに他のデータおよびプログラム(図示なし)を含む。センサ125の例に関して、ソフトウェアおよびデータ412は、ファームウェア、他のデータ、プログラム(図示なし)を含む。
通信ユニット407は、これらの例では、リソースシステム110、センサ125、クライアントデバイス130を含む、他のデータ処理システムまたはデバイスとの通信を提供する。これらの例では、通信ユニット407は、1もしくは複数のネットワークインタフェースカードもしくは無線通信アダプタまたはその両方を含む。通信ユニット407は、物理的および無線通信リンクのどちらかまたは両方を使用することにより、通信を提供してもよい。本発明の実施形態を実践するのに使用されるプログラム命令およびデータは、通信ユニット407を通して、永続ストレージ405にダウンロードされてもよい。
I/Oインタフェース406は、各コンピュータシステムに接続されてもよい、他のデバイスとのデータの入力および出力を可能にする。例えば、I/Oインタフェース406は、キーボード、キーパッド、タッチスクリーン、もしくは他の何らかの好適な入力デバイス、またはそれらの組み合わせなど、外部デバイス408に対する接続を提供してもよい。外部デバイス408はまた、例えば、サムドライブ、携帯用光学もしくは磁気ディスク、およびメモリカードなど、携帯用コンピュータ可読記憶媒体を含むことができる。本発明の実施形態を実践するのに使用されるソフトウェアおよびデータは、かかる携帯用コンピュータ可読記憶媒体に記憶することができ、I/Oインタフェース406を介して永続ストレージ405にロードすることができる。I/Oインタフェース406はまた、ディスプレイ409に接続する。
ディスプレイ409は、データをユーザに対して表示するメカニズムを提供し、例えば、コンピュータモニタであってもよい。ディスプレイ409はまた、タブレットコンピュータまたはスマートフォンのディスプレイなど、タッチスクリーンとして機能することができる。あるいは、ディスプレイ409は、仮想網膜ディスプレイ、仮想ディスプレイ、または画像プロジェクタなど、投影技術に基づいて、情報をユーザに対して表示する。
本明細書に記載するプログラムは、それらが本発明の特定の実施形態で実装されるアプリケーションに基づいて識別される。しかしながら、本明細書における任意の特定のプログラムという命名は、単に便宜上使用されるものであり、したがって、本発明は、かかる命名によって識別及び/または示唆される、任意の特定のアプリケーションにおける使用のみに限定されるべきではないことが理解されるべきである。
本発明は、システム、方法、もしくはコンピュータプログラム製品、またはそれらの組み合わせであってもよい。コンピュータプログラム製品は、プロセッサに本発明の態様を実施させるコンピュータ可読プログラム命令を有する、コンピュータ可読記憶媒体(もしくは複数の媒体)を含んでもよい。
コンピュータ可読記憶媒体は、命令実行デバイスによって使用される命令を保持し記憶することができる、有形デバイスであることができる。コンピュータ可読記憶媒体は、例えば、電子記憶デバイス、磁気記憶デバイス、光学記憶デバイス、電磁記憶デバイス、半導体記憶デバイス、または上記の任意の好適な組み合わせであってもよいが、それらに限定されない。コンピュータ可読記憶媒体のより具体的な例の非網羅的リストは、携帯用コンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)、消去可能プログラマブル読出し専用メモリ(EPROMもしくはフラッシュメモリ)、静的ランダムアクセスメモリ(SRAM)、携帯用コンパクトディスク読出し専用メモリ(CD-ROM)、デジタル多目的ディスク(DVD)、メモリスティック、フロッピーディスク、命令が記録されたパンチカードもしくは溝内の隆起構造などの機械的に符号化されたデバイス、ならびに上記の任意の好適な組み合わせを含む。コンピュータ可読記憶媒体は、本明細書で使用するとき、高周波または他の自由に伝播する電磁波、導波路または他の伝送媒体を通って伝播する電磁波(例えば、光ファイバーケーブルを通る光パルス)、あるいはワイヤを通って送信される電気信号など、それ自体が一時的な信号であるとは解釈されないものとする。
本明細書に記載するコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体からそれぞれのコンピューティング/処理デバイスに、あるいはネットワークを、例えばインターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、もしくは無線ネットワーク、またはそれらの組み合わせを介して、外部コンピュータまたは外部記憶デバイスにダウンロードすることができる。ネットワークは、銅伝送ケーブル、光伝送ファイバー、無線送信、ルータ、ファイアウォール、スイッチ、ゲートウェイコンピュータ、もしくはエッジサーバ、またはそれらの組み合わせを備えてもよい。各コンピューティング/処理デバイス受信におけるネットワークアダプタカードまたはネットワークインタフェースは、コンピュータ可読プログラム命令をネットワークから受信し、コンピュータ可読プログラム命令を転送して、それぞれのコンピューティング/処理デバイス内のコンピュータ可読記憶媒体内に記憶する。
本発明の動作を実施するコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、あるいはSmalltalk(登録商標)、C++などのオブジェクト指向のプログラミング言語、および「C」プログラミング言語もしくは類似のプログラミング言語などの従来の手続き型プログラミング言語を含む、1または複数のプログラミング言語の任意の組み合わせで記述された、ソースコードもしくはオブジェクトコードであってもよい。コンピュータ可読プログラム命令は、全体的にユーザのコンピュータで、部分的にユーザのコンピュータで、独立型ソフトウェアパッケージとして、部分的にユーザのコンピュータで、かつ部分的にリモートコンピュータで、または全体的にリモートコンピュータもしくはサーバで、実行してもよい。後者のシナリオでは、リモートコンピュータは、ローカルエリアネットワーク(LAN)もしくはワイドエリアネットワーク(WAN)を含む任意のタイプのネットワークを通して、ユーザのコンピュータに接続されてもよく、または接続は、(例えば、インターネットサービスプロバイダを使用してインターネットを通して)外部コンピュータに対して行われてもよい。いくつかの実施形態では、例えば、プログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)、またはプログラマブル論理アレイ(PLA)を含む電子回路は、本発明の態様を実行するために、コンピュータ可読プログラム命令の情報を利用して電子回路を個人化することによって、コンピュータ可読プログラム命令を実行してもよい。
本発明の態様を、本発明の実施形態による、方法、装置(システム)、およびコンピュータプログラム製品のフローチャート図、もしくはブロック図、またはその両方を参照して、本明細書に記載している。フローチャート図、もしくはブロック図、またはその両方における各ブロック、ならびにフローチャート図、もしくはブロック図、またはその両方におけるブロックの組み合わせは、コンピュータ可読プログラム命令によって実装できることが理解されるであろう。
コンピュータ可読プログラム命令は、機械を生成するのに、汎用コンピュータ、専用コンピュータ、または他のプログラマブルデータ処理装置のプロセッサに提供されてもよく、それにより、コンピュータまたは他のプログラマブルデータ処理装置のプロセッサを介して実行する命令は、フローチャートもしくはブロック図またはその両方のブロックもしくは複数のブロックにおいて指定された機能/動作を実装する手段を作成する。これらのコンピュータ可読プログラム命令はまた、コンピュータ可読記憶媒体に記憶されてもよく、コンピュータ、プログラマブルデータ処理装置、もしくは他のデバイス、またはそれらの組み合わせに特定の方式で機能するように指令することができ、それにより、命令が記憶されたコンピュータ可読記憶媒体は、フローチャート、もしくはブロック図、またはその両方のブロックもしくは複数のブロックにおいて指定された機能/動作の態様を実装する命令を含む製品を備える。
コンピュータ可読プログラム命令はまた、コンピュータ、他のプログラマブルデータ処理装置、または他のデバイスにロードされて、一連の動作ステップをコンピュータ、他のプログラマブル装置、または他のデバイス上で実行させて、コンピュータ実装プロセスを生成してもよく、それにより、コンピュータ、他のプログラマブル装置、または他のデバイス上で実行する命令は、フローチャート、もしくはブロック図、またはその両方のブロックもしくは複数のブロックにおいて指定された機能/動作を実装する。
図面のフローチャートおよびブロック図は、本発明の様々な実施形態による、システム、方法、およびコンピュータプログラム製品の可能な実装のアーキテクチャ、機能性、および動作を示している。これに関して、フローチャートまたはブロック図の各ブロックは、指定された論理機能を実装する1もしくは複数の実行可能命令を備える、モジュール、セグメント、または命令の部分を表してもよい。いくつかの代替実装例では、ブロックに示される機能は、図面に示される以外の順序で行われてもよい。例えば、連続して示される2つのブロックは、実際には、関与する機能性に応じて、1つのステップとして遂行されるか、同時に、実質的に同時に、部分的もしくは全体的に時間的に重なり合う方式で実行されてもよく、またはブロックは、場合によっては逆の順序で実行されてもよい。また、ブロック図、もしくはフローチャート図、またはその両方の各ブロック、ならびにブロック図、もしくはフローチャート図、またはその両方におけるブロックの組み合わせは、指定された機能または動作を実行する特定用途向けのハードウェアベースのシステムによって実装されるか、あるいは特定用途向けのハードウェアとコンピュータ命令との組み合わせを実施できることが注目される。
本発明の様々な実施形態の記載は、例示の目的で提示してきたが、網羅的であるか、または開示する実施形態に限定しようとするものではない。本発明の範囲および趣旨から逸脱することなく、多くの修正および変形が当業者には明白となるであろう。本明細書で使用される専門用語は、実施形態の原理、実用的な適用、または市場で見出される技術に対する技術的改善を最も良く説明するように、あるいは当業者が本明細書に開示される実施形態を理解できるように選択したものである。

Claims (20)

  1. 1または複数のコンピュータプロセッサによって、ユーザと関連付けられたデバイスから領域に対応する視覚情報を受信する段階と、
    1または複数のコンピュータプロセッサによって、複数の物理的要素を含む前記領域内の1または複数のセンサのグループからデータを受信する段階と、
    1または複数のコンピュータプロセッサによって、前記1または複数のセンサのグループから受信した前記データの解析に基づいて、第1の問題が前記領域内に存在することと、前記領域内の前記第1の問題に対応する第1の物理的要素とを判定する段階と、
    1または複数のコンピュータプロセッサによって、前記領域内に存在する前記第1の問題に関する拡張現実(AR)コンテンツを生成する段階と、
    1または複数のコンピュータプロセッサによって、前記ユーザと関連付けられた前記デバイスを介して、前記領域に対応する前記視覚情報内の前記第1の問題に関する、生成された前記ARコンテンツを表示する段階と、
    を備える、方法。
  2. 1または複数のコンピュータプロセッサによって、前記ユーザと関連付けられた前記デバイスに基づいて、前記領域内の前記ユーザに対応する位置および向きを判定する段階と、
    1または複数のプロセッサによって、前記ユーザに対応する前記位置および前記向きに基づいて、前記領域の一部分と関連付けられた視野を判定する段階と、
    1または複数のプロセッサによって、前記第1の問題に対応する位置に基づいて、前記領域と関連付けられる判定された前記視野内に、前記生成されたARコンテンツを配置する段階と、
    を更に備える、請求項1に記載の方法。
  3. 1または複数のコンピュータプロセッサによって、前記1または複数のセンサのグループから受信したデータに基づいて、前記第1の問題に対応する前記領域内の位置、および前記第1の問題に対応する前記領域内の前記第1の物理的要素を判定する段階
    を更に備える、請求項1または2に記載の方法。
  4. 問題に対応するARコンテンツを生成する段階が更に、
    1または複数のコンピュータプロセッサによって、複数のメディアファイルの中から、前記問題に関するグラフィカル要素を選択する段階と、
    1または複数のコンピュータプロセッサによって、前記グラフィカル要素のサイズを増加させること、視覚効果を追加すること、および方向指示を追加することから成る群から選択された1または複数のアイテムに基づいて、前記問題に関する前記グラフィカル要素の1または複数の態様を修正する段階と、
    を有する、請求項1から3のいずれか一項に記載の方法。
  5. 前記第1の問題に関する前記生成されたARコンテンツを表示する段階が更に、
    1または複数のコンピュータプロセッサによって、前記第1の問題とそれぞれ関連付けられた重大度格付けを判定する段階と、
    1または複数のコンピュータプロセッサによって、前記第1の問題とそれぞれ関連付けられる判定された前記重大度格付けに基づいて、前記生成されたARコンテンツの1または複数の態様を調節する段階と、
    を有する、請求項1から4のいずれか一項に記載の方法。
  6. 問題が、規格外条件動作条件、前記領域のインフラストラクチャ内の欠陥、前記領域内の1または複数の物理的要素と関連付けられた欠陥、および前記問題によって生成される危険から成る群から選択された、1または複数のアイテムを含む、請求項1から5のいずれか一項に記載の方法。
  7. 1または複数のコンピュータプロセッサによって、前記ユーザが前記第1の問題の前記位置から離れるように移動していると判定する段階と、
    前記ユーザが前記第1の問題の前記位置から離れるように移動しているという判定に応答して、1または複数のコンピュータプロセッサによって、前記ユーザに対して表示される前記第1の問題に関する前記生成されたARコンテンツの1または複数の態様を修正する段階と、
    を更に備える、請求項2に記載の方法。
  8. 1または複数のコンピュータプロセッサに対し、
    ユーザと関連付けられたデバイスから領域に対応する視覚情報を受信する手順と、
    複数の物理的要素を含む前記領域内の1または複数のセンサのグループからデータを受信する手順と、
    前記1または複数のセンサのグループから受信した前記データの解析に基づいて、第1の問題が前記領域内に存在することと、前記領域内の前記第1の問題に対応する第1の物理的要素とを判定する手順と、
    前記領域内に存在する前記第1の問題に関する拡張現実(AR)コンテンツを生成する手順と、
    前記ユーザと関連付けられた前記デバイスを介して、前記領域に対応する前記視覚情報内の前記第1の問題に関する、生成された前記ARコンテンツを表示する手順と、を実行させるための、コンピュータプログラム。
  9. 前記1または複数のプロセッサにさらに、
    前記ユーザと関連付けられた前記デバイスに基づいて、前記領域内の前記ユーザに対応する位置および向きを判定する手順と、
    前記ユーザに対応する前記位置および前記向きに基づいて、前記領域の一部分と関連付けられた視野を判定する手順と、
    前記第1の問題に対応する位置に基づいて、前記領域と関連付けられる判定された前記視野内に、前記生成されたARコンテンツを配置する手順とを実行させるための、請求項8に記載のコンピュータプログラム。
  10. 前記1または複数のプロセッサにさらに、前記1またはセンサのグループから受信したデータに基づいて、前記第1の問題に対応する前記領域内の位置、および前記第1の問題に対応する前記領域内の前記第1の物理的要素を判定する手順を実行させるための、請求項8または9に記載のコンピュータプログラム。
  11. 問題に対応するARコンテンツを生成する手順が更に、
    複数のメディアファイルの中から、前記問題に関するグラフィカル要素を選択する手順と、
    前記グラフィカル要素のサイズを増加させること、視覚効果を追加すること、および方向指示を追加することから成る群から選択された1または複数のアイテムに基づいて、前記問題に関する前記グラフィカル要素の1または複数の態様を修正する手順と、
    を有する、請求項8から10のいずれか一項に記載のコンピュータプログラム。
  12. 前記第1の問題に関する前記生成されたARコンテンツを表示する手順が更に、
    前記第1の問題とそれぞれ関連付けられた重大度格付けを判定する手順と、
    前記第1の問題とそれぞれ関連付けられる判定された前記重大度格付けに基づいて、前記生成されたARコンテンツの1または複数の態様を調節する手順と、
    を有する、請求項8から11のいずれか一項に記載のコンピュータプログラム。
  13. 問題が、規格外条件動作条件、前記領域のインフラストラクチャ内の欠陥、前記領域内の1または複数の物理的要素と関連付けられた欠陥、および前記問題によって生成される危険から成る群から選択された、1または複数のアイテムを含む、請求項8から12のいずれか一項に記載のコンピュータプログラム。
  14. 前記1または複数のプロセッサに対し、前記ユーザが前記第1の問題の前記位置から離れるように移動していると判定する手順と、
    前記ユーザが前記第1の問題の前記位置から離れるように移動しているという判定に応答して、前記ユーザに対して表示される前記第1の問題に関する前記生成されたARコンテンツの1または複数の態様を修正する手順と、を更に実行させるための、請求項9に記載のコンピュータプログラム。
  15. 1または複数のコンピュータプロセッサと、
    1または複数のコンピュータ可読記憶媒体と、
    前記1または複数のコンピュータプロセッサの少なくとも1つによって実行される、前記1または複数のコンピュータ可読記憶媒体に記憶されたプログラム命令と、を備えるコンピュータシステムであって、前記プログラム命令が、
    ユーザと関連付けられたデバイスから領域に対応する視覚情報を受信する、プログラム命令と、
    複数の物理的要素を含む前記領域内の1または複数のセンサのグループからデータを受信する、プログラム命令と、
    前記1または複数のセンサのグループから受信した前記データの解析に基づいて、第1の問題が前記領域内に存在することと、前記領域内の前記第1の問題に対応する第1の物理的要素とを判定する、プログラム命令と、
    前記領域内に存在する前記第1の問題に関する拡張現実(AR)コンテンツを生成する、プログラム命令と、
    前記ユーザと関連付けられた前記デバイスを介して、前記領域に対応する前記視覚情報内の前記第1の問題に関する、生成された前記ARコンテンツを表示する、プログラム命令と、
    を有する、コンピュータシステム。
  16. 前記ユーザと関連付けられた前記デバイスに基づいて、前記領域内の前記ユーザに対応する位置および向きを判定する、プログラム命令と、
    前記ユーザに対応する前記位置および前記向きに基づいて、前記領域の一部分と関連付けられた視野を判定する、プログラム命令と、
    前記第1の問題に対応する位置に基づいて、前記領域と関連付けられる判定された前記視野内に、前記生成されたARコンテンツを配置する、プログラム命令と、
    を更に備える、請求項15に記載のコンピュータシステム。
  17. 前記1または複数のセンサのグループから受信したデータに基づいて、前記第1の問題に対応する前記領域内の位置、および前記第1の問題に対応する前記領域内の前記第1の物理的要素を判定する、プログラム命令
    を更に有する、請求項15または16に記載のコンピュータシステム。
  18. 問題に対応するARコンテンツを生成するプログラム命令が更に、
    複数のメディアファイルの中から、前記問題に関するグラフィカル要素を選択する、プログラム命令と、
    前記グラフィカル要素のサイズを増加させること、視覚効果を追加すること、および方向指示を追加することから成る群から選択された1または複数のアイテムに基づいて、前記第1の問題に関する前記グラフィカル要素の1または複数の態様を修正する、プログラム命令と、
    を有する、請求項15から17のいずれか一項に記載のコンピュータシステム。
  19. 前記第1の問題に関する前記生成されたARコンテンツを表示する、プログラム命令が更に、
    前記第1の問題とそれぞれ関連付けられた重大度格付けを判定する、プログラム命令と、
    前記第1の問題とそれぞれ関連付けられる判定された前記重大度格付けに基づいて、前記生成されたARコンテンツの1または複数の態様を調節する、プログラム命令と、
    を有する、請求項15から18のいずれか一項に記載のコンピュータシステム。
  20. 前記ユーザが前記第1の問題の前記位置から離れるように移動していると判定する、プログラム命令と、
    前記ユーザが前記第1の問題の前記位置から離れるように移動しているという判定に応答して、前記ユーザに対して表示される前記第1の問題に関する前記生成されたARコンテンツの1または複数の態様を修正する、プログラム命令と、
    を更に有する、請求項16に記載のコンピュータシステム。
JP2021198883A 2020-12-10 2021-12-07 方法、コンピュータプログラムおよびコンピュータシステム(拡張現実で強化された状況認識) Pending JP2022092599A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/117,637 2020-12-10
US17/117,637 US20220188545A1 (en) 2020-12-10 2020-12-10 Augmented reality enhanced situational awareness

Publications (1)

Publication Number Publication Date
JP2022092599A true JP2022092599A (ja) 2022-06-22

Family

ID=79163959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021198883A Pending JP2022092599A (ja) 2020-12-10 2021-12-07 方法、コンピュータプログラムおよびコンピュータシステム(拡張現実で強化された状況認識)

Country Status (5)

Country Link
US (1) US20220188545A1 (ja)
JP (1) JP2022092599A (ja)
CN (1) CN114625241A (ja)
DE (1) DE102021129177A1 (ja)
GB (1) GB2604977A (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019113134A1 (en) 2017-12-04 2019-06-13 Enertiv Inc. Technologies for fault related visual content
US11031128B2 (en) * 2019-01-25 2021-06-08 Fresenius Medical Care Holdings, Inc. Augmented reality-based training and troubleshooting for medical devices
US11580734B1 (en) * 2021-07-26 2023-02-14 At&T Intellectual Property I, L.P. Distinguishing real from virtual objects in immersive reality
US20230057371A1 (en) * 2021-08-18 2023-02-23 Bank Of America Corporation System for predictive virtual scenario presentation
US11954774B2 (en) 2021-08-29 2024-04-09 Snap Inc. Building augmented reality experiences with IoT devices
US20230063944A1 (en) * 2021-08-29 2023-03-02 Yu Jiang Tham Two-way control of iot devices using ar camera
US11941231B2 (en) 2021-08-29 2024-03-26 Snap Inc. Camera interfaces to interact with IoT devices
US20230194864A1 (en) * 2021-12-20 2023-06-22 International Business Machines Corporation Device management in a smart environment

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6500008B1 (en) * 1999-03-15 2002-12-31 Information Decision Technologies, Llc Augmented reality-based firefighter training system and method
US20030210228A1 (en) * 2000-02-25 2003-11-13 Ebersole John Franklin Augmented reality situational awareness system and method
US6616454B2 (en) * 2000-03-15 2003-09-09 Information Decision Technologies, Llc Method of simulating nozzle spray interaction with fire, smoke and other aerosols and gases
US20100159434A1 (en) * 2007-10-11 2010-06-24 Samsun Lampotang Mixed Simulator and Uses Thereof
JP5691568B2 (ja) * 2011-01-28 2015-04-01 ソニー株式会社 情報処理装置、報知方法及びプログラム
JP6121647B2 (ja) * 2011-11-11 2017-04-26 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20130321245A1 (en) * 2012-06-04 2013-12-05 Fluor Technologies Corporation Mobile device for monitoring and controlling facility systems
US20130342568A1 (en) * 2012-06-20 2013-12-26 Tony Ambrus Low light scene augmentation
US9135735B2 (en) * 2012-06-26 2015-09-15 Qualcomm Incorporated Transitioning 3D space information to screen aligned information for video see through augmented reality
US11504051B2 (en) * 2013-01-25 2022-11-22 Wesley W. O. Krueger Systems and methods for observing eye and head information to measure ocular parameters and determine human health status
US20160140868A1 (en) * 2014-11-13 2016-05-19 Netapp, Inc. Techniques for using augmented reality for computer systems maintenance
US10431005B2 (en) * 2015-05-05 2019-10-01 Ptc Inc. Augmented reality system
US9619712B2 (en) * 2015-05-18 2017-04-11 Daqri, Llc Threat identification system
US10360728B2 (en) * 2015-05-19 2019-07-23 Hand Held Products, Inc. Augmented reality device, system, and method for safety
US10528021B2 (en) * 2015-10-30 2020-01-07 Rockwell Automation Technologies, Inc. Automated creation of industrial dashboards and widgets
US20170178013A1 (en) * 2015-12-21 2017-06-22 International Business Machines Corporation Augmented reality recommendations in emergency situations
US9836652B2 (en) * 2016-02-02 2017-12-05 International Business Machines Corporation Showing danger areas associated with objects using augmented-reality display techniques
US9792567B2 (en) * 2016-03-11 2017-10-17 Route4Me, Inc. Methods and systems for managing large asset fleets through a virtual reality interface
GB201613138D0 (en) * 2016-07-29 2016-09-14 Unifai Holdings Ltd Computer vision systems
US10169921B2 (en) * 2016-08-03 2019-01-01 Wipro Limited Systems and methods for augmented reality aware contents
US10617956B2 (en) * 2016-09-30 2020-04-14 Sony Interactive Entertainment Inc. Methods for providing interactive content in a virtual reality scene to guide an HMD user to safety within a real world space
US11054335B2 (en) * 2017-02-22 2021-07-06 Middle Chart, LLC Method and apparatus for augmented virtual models and orienteering
AU2018261328B2 (en) * 2017-05-01 2022-08-25 Magic Leap, Inc. Matching content to a spatial 3D environment
US10713922B1 (en) * 2017-05-10 2020-07-14 Katerra, Inc. Method and apparatus for exchanging messages with users of a real property monitoring and control system
US11048218B2 (en) * 2017-05-10 2021-06-29 Katerra, Inc. Method and apparatus for controlling devices in a real property monitoring and control system
US10878240B2 (en) * 2017-06-19 2020-12-29 Honeywell International Inc. Augmented reality user interface on mobile device for presentation of information related to industrial process, control and automation system, or other system
US10593086B2 (en) * 2017-10-13 2020-03-17 Schneider Electric Systems Usa, Inc. Augmented reality light beacon
US10445944B2 (en) * 2017-11-13 2019-10-15 Rockwell Automation Technologies, Inc. Augmented reality safety automation zone system and method
WO2019113134A1 (en) * 2017-12-04 2019-06-13 Enertiv Inc. Technologies for fault related visual content
US10809077B2 (en) * 2018-01-10 2020-10-20 International Business Machines Corporation Navigating to a moving target
US10853647B2 (en) * 2018-07-12 2020-12-01 Dell Products, L.P. Environmental safety notifications in virtual, augmented, and mixed reality (xR) applications
US11244509B2 (en) * 2018-08-20 2022-02-08 Fisher-Rosemount Systems, Inc. Drift correction for industrial augmented reality applications
US10325485B1 (en) * 2018-09-11 2019-06-18 Rockwell Automation Technologies, Inc. System or process to detect, discriminate, aggregate, track, and rank safety related information in a collaborative workspace
US11205011B2 (en) * 2018-09-27 2021-12-21 Amber Solutions, Inc. Privacy and the management of permissions
US11197153B2 (en) * 2018-09-27 2021-12-07 Amber Solutions, Inc. Privacy control and enhancements for distributed networks
US10993082B2 (en) * 2018-09-27 2021-04-27 Amber Solutions, Inc. Methods and apparatus for device location services
US10665032B2 (en) * 2018-10-12 2020-05-26 Accenture Global Solutions Limited Real-time motion feedback for extended reality
US10832484B1 (en) * 2019-05-09 2020-11-10 International Business Machines Corporation Virtual reality risk detection
EP4070574A4 (en) * 2019-12-05 2024-01-17 Sol X Pte Ltd OPERATIONS AND INCIDENT MANAGEMENT SYSTEMS AND METHODS
US11158177B1 (en) * 2020-11-03 2021-10-26 Samsara Inc. Video streaming user interface with data from multiple sources

Also Published As

Publication number Publication date
GB202116917D0 (en) 2022-01-05
DE102021129177A1 (de) 2022-06-15
GB2604977A (en) 2022-09-21
US20220188545A1 (en) 2022-06-16
CN114625241A (zh) 2022-06-14

Similar Documents

Publication Publication Date Title
JP2022092599A (ja) 方法、コンピュータプログラムおよびコンピュータシステム(拡張現実で強化された状況認識)
US20210029535A1 (en) Systems and methods for real-time remote control of mobile applications
CN108073277B (zh) 用于工业自动化的虚拟现实和增强现实的系统和方法
US20220138780A1 (en) Churn prediction with machine learning
CN108089696B (zh) 用于工业自动化的虚拟现实和增强现实
US9984408B1 (en) Method, medium, and system for live video cooperative shopping
US20170024396A1 (en) Determining application deployment recommendations
US20180308002A1 (en) Data processing system with machine learning engine to provide system control functions
EP4141786A1 (en) Defect detection method and apparatus, model training method and apparatus, and electronic device
CN110673886B (zh) 用于生成热力图的方法和装置
US11340693B2 (en) Augmented reality interactive messages and instructions for batch manufacturing and procedural operations
CN116167935A (zh) 二维码的修复方法、装置、设备及介质
US20180232656A1 (en) Data Processing System with Machine Learning Engine to Provide System Disruption Detection and Predictive Impact and Mitigation Functions
US9934475B2 (en) Managing enterprise data movement using a heuristic data movement detection engine
US10659560B2 (en) Mobile device display preference
US20220294827A1 (en) Virtual reality gamification-based security need simulation and configuration in any smart surrounding
US11270670B2 (en) Dynamic visual display targeting using diffraction grating
US20230005125A1 (en) Intelligent system based on computer vision for wire installation quality assessment
US20230135199A1 (en) Maintenance knowledge recommendation across domains
US20230418949A1 (en) Multi-computer system for performing vulnerability analysis and alert generation
CN116774894A (zh) 灯杆控制方法、装置、电子设备及计算机可读存储介质
SE1400157A1 (sv) Combining video with electronic notes

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220518