JP7133470B2 - ネットワークの拡張現実表現のためのシステムおよび方法 - Google Patents
ネットワークの拡張現実表現のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7133470B2 JP7133470B2 JP2018543647A JP2018543647A JP7133470B2 JP 7133470 B2 JP7133470 B2 JP 7133470B2 JP 2018543647 A JP2018543647 A JP 2018543647A JP 2018543647 A JP2018543647 A JP 2018543647A JP 7133470 B2 JP7133470 B2 JP 7133470B2
- Authority
- JP
- Japan
- Prior art keywords
- real
- world
- virtual
- computer
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
Description
101 ディスプレイ
102 スピーカ
103 破線
104 カメラ
105 処理装置
106 加速度計
107 ジャイロスコープ
108 磁力計
109 近接センサ
110 気圧計
111 温度計
112 マイクロホン
301 ルータ
303 拡張
305 円
307 線
402 パラボラアンテナ
403 パラボラアンテナ
404 パラボラアンテナ
405 パラボラアンテナ
501 接続ライン
502 接続ライン
503 接続ライン
800 方法
901 電子装置
903 クラウド
904 データベース
905 データベース
906 拡張された画像
1002 タグ
1003 クラウド
1004 データベース
1005 データベース
1006 拡張された画像
Claims (45)
- 拡張現実のためのコンピュータ実施方法であって、
地理的空間に位置されたユーザにより視認される前記地理的空間の現実世界のビューを可能にするように配置された視覚装置の位置と向きとに関する第1データを収集するために複数のセンサを使用する工程と、
1つまたは複数の処理装置を使用して、前記第1データに基づいて現実世界の視錐台(frustum)を決定する工程であって、現実世界の画像またはフレームを提供する、工程と、
前記現実世界のビューの拡張のための仮想オブジェクト候補を識別するために、前記1つまたは複数の処理装置を用いて、前記現実世界の視錐台を仮想世界に適用する工程であって、前記仮想世界は、前記現実世界のビューにおいて知覚できない、1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を説明する1つまたは複数の仮想オブジェクトを備え、前記1つまたは複数の仮想オブジェクトは、ネットワーク関連データを含み、前記仮想世界は、前記現実世界の画像またはフレームに現れる現実の位置に対応するいくつかの位置により特徴付けられる、工程と、
前記1つまたは複数の処理装置を用いて、前記現実世界のビューにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を説明する少なくとも1つの仮想オブジェクトを備える、1つまたは複数の前記仮想オブジェクト候補に対応する1つまたは複数の拡張を選択する工程であって、前記1つまたは複数の拡張は、前記ネットワーク関連データの表現である、工程と、
出力装置を用いて、前記現実世界のビューと同時に、少なくとも1つの選択された拡張を提供する工程であって、前記少なくとも1つの選択された拡張は、前記現実世界のビューにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を知覚可能にする工程と、
を含み、
前記視覚装置は、1つまたは複数のカメラを備え、
前記1つまたは複数のカメラを用いて、前記現実世界のビューの画像を描写する第2データをキャプチャする工程と、
前記第2データを画像処理する工程と、
前記出力装置を用いて前記少なくとも1つの選択された拡張を提供する前に、前記画像処理の結果に基づいて、前記少なくとも1つの選択された拡張を変更する工程と、
を含み、
前記画像処理する工程は、畳み込みニューラルネットワークを用いた画像処理を含む、
ことを特徴とするコンピュータ実施方法。 - 前記複数のセンサを使用する工程は、回転データを収集するジャイロスコープと、加速度データを収集する線形加速度センサと、コンパスデータを収集する磁気センサと、GPSデータを収集するGPSモジュールと、のうち少なくとも1つまたは複数を使用する工程を含む、
請求項1記載のコンピュータ実施方法。 - 前記出力装置は、ディスプレイを備え、
前記コンピュータ実施方法は、前記少なくとも1つの選択された拡張を提供する工程と同時に前記現実世界のビューの前記画像を前記ディスプレイを用いて表示する工程、
を含む、
請求項1記載のコンピュータ実施方法。 - 前記視覚装置と前記出力装置とは、同じ装置であるかまたは同じ装置の一部である、
請求項3記載のコンピュータ実施方法。 - ヘッドマウントディスプレイは、前記視覚装置と前記出力装置とを備える、
請求項4記載のコンピュータ実施方法。 - シースルー型ヘッドマウントディスプレイは、前記視覚装置と前記出力装置とを備える、
請求項1記載のコンピュータ実施方法。 - 前記視覚装置は、前記シースルー型ヘッドマウントディスプレイのレンズまたは1対のレンズである、
請求項6記載のコンピュータ実施方法。 - 仮想オブジェクト候補が、他の仮想オブジェクト候補を覆い隠すか否かと、どの仮想オブジェクト候補が覆い隠すかと、を前記適用された視錐台に基づいて、決定する工程を、
含み、
前記選択する工程は、前記1つまたは複数の拡張を選択するときに、覆い隠される仮想オブジェクト候補を識別する、
請求項1記載のコンピュータ実施方法。 - 前記提供する工程により提供される拡張は、視覚的、聴覚的、視聴覚的、触覚的、またはそれらのいくつかの組み合わせである、
請求項1記載のコンピュータ実施方法。 - 前記提供する工程により提供される拡張は、現実オブジェクトの3D表現と、現実オブジェクトを抽象化したものと、マーカと、インジケータと、キューと、のうちの1つまたは複数を含む、
請求項9記載のコンピュータ実施方法。 - 前記出力装置は、ディスプレイを備え、
前記提供する工程により提供される拡張は、前記現実世界のビューの上に重ねられた視覚拡張を含む、
請求項9記載のコンピュータ実施方法。 - 前記提供する工程は、前記現実世界のビューにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの前記1つまたは複数の品質に基づいて、前記現実世界のビューの少なくとも1つの部分を差別化する視覚拡張として、少なくとも1つのインジケータを提供する、
請求項11記載のコンピュータ実施方法。 - 電気通信ネットワークに1つまたは複数の機能を与える電気的ハードウェアまたは関連するインフラストラクチャを備える電気通信アセットに基づいて、前記仮想世界に仮想オブジェクトを提供する工程、
を含む、
請求項1記載のコンピュータ実施方法。 - 前記仮想世界において提供される前記仮想オブジェクトの少なくともいくつかは、基地局と、スイッチと、ルータと、ハブと、コンピュータと、試験設備と、アンテナと、コネクタと、スプリッタと、プローブと、中継器と、延長器と、送受信機と、アクセスポイントと、仮想コンピューティング環境を実行するハードウェアと、タワーと、これらの集合と、これらの組み合わせと、またはこれらの群と、のうちの1つまたは複数に基づいている、
請求項13記載のコンピュータ実施方法。 - 前記複数のセンサを使用する工程において収集された前記第1データのうちの位置情報は、絶対位置情報と、相対位置情報と、関連位置情報と、のうちの1つまたは複数を含む、
請求項1記載のコンピュータ実施方法。 - 前記仮想世界において提供される前記仮想オブジェクトの少なくともいくつかは、地理情報システム(GIS)データと、測定データと、プロジェクトデータと、アセットデータと、予想データと、予測データと、のうちの1つまたは複数を含むネットワーク関連データに基づいている、
請求項1記載のコンピュータ実施方法。 - ネットワークパフォーマンスデータを含む前記仮想オブジェクトを前記仮想世界に提供する工程、
を含む、
請求項1記載のコンピュータ実施方法。 - 前記少なくとも1つの選択された拡張は、予測ネットワークパフォーマンスデータの表現である、
請求項17記載のコンピュータ実施方法。 - 前記仮想世界において提供される前記仮想オブジェクトの少なくともいくつかは、受信される信号強度と、最適サーバと、スループットと、誤り率と、パケットレイテンシと、パケットジッタと、シンボルジッタと、サービスの質と、セキュリティと、有効範囲エリアと、帯域幅と、ビット誤り率と、パケット誤り率と、フレーム誤り率と、パケットドロップ率と、呼出ドロップ率と、キューイング遅延と、キャパシティと、信号レベルと、干渉レベルと、ラウンドトリップタイムと、帯域幅遅延積と、ハンドオフ遅延時間と、ハンドオフ頻度と、信号対干渉比と、信号対雑音比と、呼出品質と、リンクバジェットと、Eb/No(ビット平均エネルギー/雑音)と、Ec/Io(チップ平均エネルギー/干渉プラス雑音)と、物理的設備の価格と、コスト情報と、のうちの1つまたは複数に基づいている、
請求項17記載のコンピュータ実施方法。 - 前記地理的空間に位置された前記ユーザは、人間ユーザまたはロボットユーザである、
請求項1記載のコンピュータ実施方法。 - 地理的空間に位置されたユーザにより視認される前記地理的空間の現実世界のビューを可能にするように配置された視覚装置の位置と向きとに関する第1データを収集するように構成される複数のセンサと、
コンピュータ可読プログラム命令を実行するように構成される1つまたは複数の処理装置であって、
前記コンピュータ可読プログラム命令が実行される場合、
前記第1データに基づいて現実世界の視錐台を決定して、現実世界の画像またはフレームを提供し、
前記現実世界のビューの拡張のための仮想オブジェクト候補を識別するために、前記現実世界の視錐台を仮想世界に適用し、
前記仮想世界は、前記現実世界のビューにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を説明する1つまたは複数の仮想オブジェクトを含み、
前記1つまたは複数の仮想オブジェクトは、ネットワーク関連データを含み、
前記仮想世界は、前記現実世界の画像またはフレームに現れる現実の位置に対応するいくつかの位置により特徴付けられ、
前記現実世界のビューにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を説明する少なくとも1つの仮想オブジェクトを備え、1つまたは複数の前記仮想オブジェクト候補に対応する1つまたは複数の拡張を選択し、
前記1つまたは複数の拡張は、前記ネットワーク関連データの表現である、
1つまたは複数の処理装置と、
前記現実世界のビューと同時に、少なくとも1つの選択された拡張を提供するように構成される出力装置と、
前記現実世界のビューの画像を描写する第2データをキャプチャするように構成される1つまたは複数のカメラと、
を有してなり、
前記少なくとも1つの選択された拡張は、前記現実世界のビューにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を知覚可能にし、
前記1つまたは複数の処理装置は、
前記第2データを画像処理し、
前記出力装置が前記少なくとも1つの選択された拡張を提供する前に、前記画像処理の結果に基づいて、前記少なくとも1つの選択された拡張を変更し、
前記画像処理は、畳み込みニューラルネットワークを用いた画像処理を含む、
ことを特徴とする拡張現実システム。 - 前記複数のセンサは、回転データを収集するジャイロスコープと、加速度データを収集する線形加速度センサと、コンパスデータを収集する磁気センサと、GPSデータを収集するGPSモジュールと、のうちの少なくとも1つまたは複数を含む、
請求項21記載の拡張現実システム。 - 前記出力装置は、少なくとも1つの選択された拡張を提供すると同時に、前記現実世界のビューの前記画像を表示するように構成されるディスプレイを備える、
請求項21記載の拡張現実システム。 - 前記視覚装置と前記出力装置とは、同じ装置であるかまたは同じ装置の一部である、
請求項23記載の拡張現実システム。 - 拡張現実を提供するためにコンピュータで実行されるコンピュータプログラムであって、
前記コンピュータに、
地理的空間に位置されたユーザにより視認される前記地理的空間の現実世界のビューを可能にするように配置された視覚装置の位置と向きとに関する第1データを複数のセンサから収集する工程と、
前記第1データに基づいて、現実世界の視錐台を決定する工程であって、現実世界の画像またはフレームを提供する、工程と、
前記現実世界のビューの拡張のための仮想オブジェクト候補を識別するために、前記現実世界の視錐台を仮想世界に適用する工程であって、前記仮想世界は、前記現実世界のビューにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を説明する1つまたは複数の仮想オブジェクトを含み、前記1つまたは複数の仮想オブジェクトは、ネットワーク関連データを含み、前記仮想世界は、前記現実世界の画像またはフレームに現れる現実の位置に対応するいくつかの位置により特徴付けられる、工程と、
前記現実世界のビューにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を説明する少なくとも1つの仮想オブジェクトを含む、1つまたは複数の前記仮想オブジェクト候補に対応する1つまたは複数の拡張を選択する工程であって、前記1つまたは複数の拡張は、前記ネットワーク関連データの表現である、工程と、
前記現実世界のビューと同時に少なくとも1つの選択された拡張を出力するために拡張画像データを出力装置に提供する工程であって、前記少なくとも1つの選択された拡張は、前記現実世界のビューにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を知覚可能にする、工程と、
を含む方法を実行させ、
前記視覚装置は、1つまたは複数のカメラを備え、
前記1つまたは複数のカメラは、前記現実世界のビューの画像を描写する第2データをキャプチャし、
前記コンピュータに、
前記第2データを画像処理する工程と、
前記出力装置に前記少なくとも1つの選択された拡張を提供する前に、前記画像処理の結果に基づいて、前記少なくとも1つの選択された拡張を変更する工程と、
を実行させ、
前記画像処理する工程は、畳み込みニューラルネットワークを用いた画像処理を含む、
ことを特徴とするコンピュータプログラム。 - 現実世界の画像またはフレームの拡張現実のためのコンピュータ実施方法であって、
前記現実世界において拡張のための仮想オブジェクト候補を識別するために、1つまたは複数の処理装置を用いて、前記現実世界の画像またはフレームの視錐台を仮想世界に適用する工程であって、前記仮想世界では、前記現実世界のオブジェクトに対応する仮想オブジェクトと、前記現実世界の画像またはフレームにおいて知覚できない、1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を説明する1つまたは複数の仮想オブジェクトと、が存在し、前記1つまたは複数の仮想オブジェクトは、ネットワーク関連データを含み、前記仮想世界は、前記現実世界の画像またはフレームに現れる現実の位置に対応するいくつかの位置により特徴付けられる、工程と、
前記1つまたは複数の処理装置を用いて、前記現実世界の画像またはフレームにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を説明する少なくとも1つの仮想オブジェクトを備える、1つまたは複数の前記仮想オブジェクト候補に対応する1つまたは複数の拡張を選択する工程であって、前記1つまたは複数の拡張は、前記ネットワーク関連データの表現である、工程と、
出力装置上の前記現実世界の画像またはフレーム内に出力するための、少なくとも1つの選択された拡張を提供する工程であって、前記少なくとも1つの選択された拡張は、前記現実世界の画像またはフレームにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を知覚可能にする工程と、
を含み、
前記出力装置を用いて前記少なくとも1つの選択された拡張を提供する前に、前記現実世界の画像またはフレームを描写するデータの画像処理の結果に基づいて、前記少なくとも1つの選択された拡張を変更する工程、
を含み、
前記画像処理は、畳み込みニューラルネットワークを用いた画像処理を含む、
ことを特徴とするコンピュータ実施方法。 - 1つまたは複数のカメラから、実質的にリアルタイムの前記現実世界の画像またはフレームを受け取る工程、
を含む、
請求項26記載のコンピュータ実施方法。 - 前記現実世界の画像またはフレームを記憶する記憶部から、前記現実世界の画像またはフレームを受け取る工程、
を含む、
請求項26記載のコンピュータ実施方法。 - 前記提供する工程により提供される拡張は、視覚出力、聴覚出力、視聴覚出力、触覚出力、またはそれらのいくつかの組み合わせの出力用である、
請求項26記載のコンピュータ実施方法。 - 前記提供する工程は、前記少なくとも1つの選択された拡張を表示するディスプレイを備える出力装置に前記少なくとも1つの選択された拡張を提供する、
請求項29記載のコンピュータ実施方法。 - 前記選択する工程は、
基地局と、スイッチと、ルータと、ハブと、コンピュータと、試験設備と、アンテナと、コネクタと、スプリッタと、プローブと、中継器と、延長器と、送受信機と、アクセスポイントと、仮想コンピューティング環境を実行するハードウェアと、タワーと、これらの集合と、これらの組み合わせと、またはこれらの群と、のうちの1つまたは複数に基づいている、前記1つまたは複数の仮想オブジェクト候補に対応する前記1つまたは複数の拡張を選択する工程、
を含む、
請求項26記載のコンピュータ実施方法。 - 前記選択する工程は、
地理情報システム(GIS)データと、測定データと、プロジェクトデータと、アセットデータと、予想データと、予測データと、のうちの1つまたは複数を含むネットワーク関連データに基づいている、前記1つまたは複数の仮想オブジェクト候補に対応する前記1つまたは複数の拡張を選択する工程、
を含む、
請求項26記載のコンピュータ実施方法。 - コンピュータ可読プログラム命令を実行するように構成される1つまたは複数の処理装置であって、
前記コンピュータ可読プログラム命令が実行される場合、
現実世界の画像またはフレームの拡張のための現実世界における仮想オブジェクト候補を識別するために、前記現実世界の画像またはフレームの現実世界の視錐台を仮想世界に適用し、
前記仮想世界では、前記現実世界のオブジェクトに対応する仮想オブジェクトと、前記現実世界の画像またはフレームにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を説明する1つまたは複数の仮想オブジェクトと、が存在し、
前記1つまたは複数の仮想オブジェクトは、ネットワーク関連データを含み、
前記仮想世界は、前記現実世界の画像またはフレームに現れる現実の位置に対応するいくつかの位置により特徴付けられ、
前記現実世界の画像またはフレームにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を説明する少なくとも1つの仮想オブジェクトを備え、1つまたは複数の前記仮想オブジェクト候補に対応する1つまたは複数の拡張を選択し、
前記1つまたは複数の拡張は、前記ネットワーク関連データの表現であり、
出力装置上の前記現実世界の画像またはフレーム内に出力するための、少なくとも1つの選択された拡張を提供し、
前記少なくとも1つの選択された拡張は、前記現実世界の画像またはフレームにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を知覚可能にする、
1つまたは複数の処理装置を備え、
前記出力装置が前記少なくとも1つの選択された拡張を提供する前に、前記現実世界の画像またはフレームを描写するデータの画像処理の結果に基づいて、前記少なくとも1つの選択された拡張を変更し、
前記画像処理は、畳み込みニューラルネットワークを用いた画像処理を含む、
ことを特徴とする拡張現実システム。 - 前記1つまたは複数の処理装置は、前記コンピュータ可読プログラム命令が実行される場合、1つまたは複数のカメラから、実質的にリアルタイムの前記現実世界の画像またはフレームを受け取る、
請求項33記載の拡張現実システム。 - 前記1つまたは複数の処理装置は、前記コンピュータ可読プログラム命令が実行される場合、前記現実世界の画像またはフレームを記憶する記憶部から、前記現実世界の画像またはフレームを受け取る、
請求項33記載の拡張現実システム。 - 前記提供される拡張は、視覚出力、聴覚出力、視聴覚出力、触覚出力、またはそれらのいくつかの組み合わせの出力用である、
請求項33記載の拡張現実システム。 - 前記少なくとも1つの選択された拡張を表示するディスプレイを備える出力装置に前記少なくとも1つの選択された拡張を提供する、
請求項36記載の拡張現実システム。 - 前記1つまたは複数の拡張の選択は、
基地局と、スイッチと、ルータと、ハブと、コンピュータと、試験設備と、アンテナと、コネクタと、スプリッタと、プローブと、中継器と、延長器と、送受信機と、アクセスポイントと、仮想コンピューティング環境を実行するハードウェアと、タワーと、これらの集合と、これらの組み合わせと、またはこれらの群と、のうちの1つまたは複数に基づいている、前記1つまたは複数の仮想オブジェクト候補に対応する前記1つまたは複数の拡張の選択、
を含む、
請求項33記載の拡張現実システム。 - 前記1つまたは複数の拡張の選択は、
地理情報システム(GIS)データと、測定データと、プロジェクトデータと、アセットデータと、予想データと、予測データと、のうちの1つまたは複数を含むネットワーク関連データに基づいている、前記1つまたは複数の仮想オブジェクト候補に対応する前記1つまたは複数の拡張の選択、
を含む、
請求項33記載の拡張現実システム。 - 拡張現実を提供するためにコンピュータで実行されるコンピュータプログラムであって、
前記コンピュータに、
現実世界の画像またはフレームの拡張のための現実世界における仮想オブジェクト候補を識別するために、現実世界の視錐台を仮想世界に適用する工程であって、前記仮想世界では、前記現実世界のオブジェクトに対応する仮想オブジェクトと、前記現実世界の画像またはフレームにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を説明する1つまたは複数の仮想オブジェクトと、が存在し、前記1つまたは複数の仮想オブジェクトは、ネットワーク関連データを含み、前記仮想世界は、前記現実世界の画像またはフレームに現れる現実の位置に対応するいくつかの位置により特徴付けられる、工程と、
前記現実世界の画像またはフレームにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を説明する少なくとも1つの仮想オブジェクトを含む、1つまたは複数の前記仮想オブジェクト候補に対応する1つまたは複数の拡張を選択する工程であって、前記1つまたは複数の拡張は、前記ネットワーク関連データの表現である、工程と、
出力装置上の前記現実世界の画像またはフレーム内に出力するための、少なくとも1つの選択された拡張を提供する工程であって、前記少なくとも1つの選択された拡張は、前記現実世界の画像またはフレームにおいて知覚できない1つまたは複数のネットワークパフォーマンスとアセット構成とのうちの1つまたは複数の品質を知覚可能にする、工程と、
を含む方法を実行させ、
前記出力装置が前記少なくとも1つの選択された拡張を提供する前に、前記現実世界の画像またはフレームを描写するデータの画像処理の結果に基づいて、前記少なくとも1つの選択された拡張を変更する工程、
を実行させ、
前記画像処理は、畳み込みニューラルネットワークを用いた画像処理を含む、
ことを特徴とするコンピュータプログラム。 - 前記コンピュータに、1つまたは複数のカメラから、前記現実世界の画像またはフレームを受け取る工程を実行させる、
請求項40記載のコンピュータプログラム。 - 前記コンピュータに、前記現実世界の画像またはフレームを記憶する記憶部から、前記現実世界の画像またはフレームを受け取る工程を実行させる、
請求項40記載のコンピュータプログラム。 - 前記提供する工程により提供される拡張は、視覚出力、聴覚出力、視聴覚出力、触覚出力、またはそれらのいくつかの組み合わせの出力用である、
請求項40記載のコンピュータプログラム。 - 前記選択する工程は、
基地局と、スイッチと、ルータと、ハブと、コンピュータと、試験設備と、アンテナと、コネクタと、スプリッタと、プローブと、中継器と、延長器と、送受信機と、アクセスポイントと、仮想コンピューティング環境を実行するハードウェアと、タワーと、これらの集合と、これらの組み合わせと、またはこれらの群と、のうちの1つまたは複数に基づいている、前記1つまたは複数の仮想オブジェクト候補に対応する前記1つまたは複数の拡張を選択する工程、
を含む、
請求項40記載のコンピュータプログラム。 - 前記選択する工程は、
地理情報システム(GIS)データと、測定データと、プロジェクトデータと、アセットデータと、予想データと、予測データと、のうちの1つまたは複数を含むネットワーク関連データに基づいている、前記1つまたは複数の仮想オブジェクト候補に対応する前記1つまたは複数の拡張を選択する工程、
を含む、
請求項40記載のコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022081921A JP2022119858A (ja) | 2016-02-18 | 2022-05-18 | ネットワークの拡張現実表現のためのシステムおよび方法 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662296734P | 2016-02-18 | 2016-02-18 | |
US62/296,734 | 2016-02-18 | ||
US201662362949P | 2016-07-15 | 2016-07-15 | |
US62/362,949 | 2016-07-15 | ||
PCT/US2017/018447 WO2017143239A1 (en) | 2016-02-18 | 2017-02-17 | Systems and methods for augmented reality representations of networks |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022081921A Division JP2022119858A (ja) | 2016-02-18 | 2022-05-18 | ネットワークの拡張現実表現のためのシステムおよび方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019512769A JP2019512769A (ja) | 2019-05-16 |
JP2019512769A5 JP2019512769A5 (ja) | 2020-03-26 |
JP7133470B2 true JP7133470B2 (ja) | 2022-09-08 |
Family
ID=59625461
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018543647A Active JP7133470B2 (ja) | 2016-02-18 | 2017-02-17 | ネットワークの拡張現実表現のためのシステムおよび方法 |
JP2022081921A Pending JP2022119858A (ja) | 2016-02-18 | 2022-05-18 | ネットワークの拡張現実表現のためのシステムおよび方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022081921A Pending JP2022119858A (ja) | 2016-02-18 | 2022-05-18 | ネットワークの拡張現実表現のためのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (3) | US9836888B2 (ja) |
EP (1) | EP3417307A4 (ja) |
JP (2) | JP7133470B2 (ja) |
CA (1) | CA3015164A1 (ja) |
WO (1) | WO2017143239A1 (ja) |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017143239A1 (en) * | 2016-02-18 | 2017-08-24 | Edx Wireless, Inc. | Systems and methods for augmented reality representations of networks |
US10454794B2 (en) * | 2016-09-20 | 2019-10-22 | Cisco Technology, Inc. | 3D wireless network monitoring using virtual reality and augmented reality |
US10401954B2 (en) * | 2017-04-17 | 2019-09-03 | Intel Corporation | Sensory enhanced augmented reality and virtual reality device |
US11495118B2 (en) * | 2017-06-27 | 2022-11-08 | Oneevent Technologies, Inc. | Augmented reality of a building |
WO2019005045A1 (en) * | 2017-06-28 | 2019-01-03 | Halliburton Energy Services, Inc. | INTERACTIVE HANDLING WITH VIRTUAL REALITY OF DOWNHOLE DATA |
US10796486B2 (en) * | 2017-07-05 | 2020-10-06 | Textron Innovations, Inc. | Augmented visualization for manufacturing |
US10556185B2 (en) * | 2017-09-29 | 2020-02-11 | Sony Interactive Entertainment America Llc | Virtual reality presentation of real world space |
DE102017219067A1 (de) * | 2017-10-25 | 2019-04-25 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und verfahren zur visuellen unterstützung eines benutzers in einem arbeitsumfeld |
WO2019108651A1 (en) * | 2017-12-01 | 2019-06-06 | Rhodan Marine Systems Of Florida, Llc | Dynamic augmented reality headset system |
US10699398B2 (en) * | 2017-12-13 | 2020-06-30 | Uber Technologies, Inc. | Deep learning coordinate prediction using satellite and service data |
US10809083B1 (en) | 2017-12-30 | 2020-10-20 | Uber Technologies, Inc. | Using sensor data for coordinate prediction |
EP3743788A1 (en) * | 2018-01-22 | 2020-12-02 | Apple Inc. | Method and device for presenting synthesized reality content in association with recognized objects |
US11232636B2 (en) * | 2018-02-08 | 2022-01-25 | Edx Technologies, Inc. | Methods, devices, and systems for producing augmented reality |
US11151791B2 (en) | 2018-04-17 | 2021-10-19 | Edx Technologies, Inc. | R-snap for production of augmented realities |
US10957110B2 (en) | 2018-04-17 | 2021-03-23 | Edx Technologies, Inc. | Systems, devices, and methods for tracing paths in augmented reality |
US10916066B2 (en) * | 2018-04-20 | 2021-02-09 | Edx Technologies, Inc. | Methods of virtual model modification |
KR20190136431A (ko) | 2018-05-30 | 2019-12-10 | 삼성전자주식회사 | 뉴럴 네트워크 시스템, 이를 포함하는 어플리케이션 프로세서 및 뉴럴 네트워크 시스템의 동작방법 |
US11196968B1 (en) * | 2018-08-08 | 2021-12-07 | Alarm.Com Incorporated | System for generating drone video feed overlays based on property monitoring system data |
CN109246195B (zh) * | 2018-08-13 | 2023-11-24 | 孙琤 | 一种融合增强现实、虚拟现实的管网智能管控方法及系统 |
US11002971B1 (en) * | 2018-08-24 | 2021-05-11 | Apple Inc. | Display device with mechanically adjustable optical combiner |
ES2859426T3 (es) * | 2018-10-01 | 2021-10-04 | Deutsche Telekom Ag | Método y unidad de comunicación para visualizar un área de cobertura de una red de comunicación inalámbrica |
US20200211295A1 (en) * | 2018-11-09 | 2020-07-02 | Edx Technologies, Inc. | Methods and devices for transitioning among realities mediated by augmented and/or virtual reality devices |
JP7357676B2 (ja) * | 2018-11-15 | 2023-10-06 | マジック リープ, インコーポレイテッド | 自己改良ビジュアルオドメトリを実施するためのシステムおよび方法 |
US11151782B1 (en) * | 2018-12-18 | 2021-10-19 | B+T Group Holdings, Inc. | System and process of generating digital images of a site having a structure with superimposed intersecting grid lines and annotations |
US10685497B1 (en) * | 2019-01-15 | 2020-06-16 | International Business Machines Corporation | Visualization of connectivity amelioration within augmented reality and other user interface environments |
US10803427B2 (en) * | 2019-01-16 | 2020-10-13 | Honeywell International Inc. | Interfaces for resolving maintenance activities |
US11488352B1 (en) * | 2019-02-21 | 2022-11-01 | Apple Inc. | Modeling a geographical space for a computer-generated reality experience |
US11151381B2 (en) * | 2019-03-25 | 2021-10-19 | Verizon Patent And Licensing Inc. | Proximity-based content sharing as an augmentation for imagery captured by a camera of a device |
US11143874B2 (en) | 2019-03-29 | 2021-10-12 | Sony Interactive Entertainment Inc. | Image processing apparatus, head-mounted display, and image displaying method |
US11043040B2 (en) * | 2019-05-21 | 2021-06-22 | Accenture Global Solutions Limited | Extended reality based positive affect implementation for product development |
JP7203692B2 (ja) | 2019-06-12 | 2023-01-13 | 本田技研工業株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11586852B2 (en) * | 2019-09-04 | 2023-02-21 | Rockwell Automation Technologies, Inc. | System and method to modify training content presented by a training system based on feedback data |
US11586946B2 (en) | 2019-09-04 | 2023-02-21 | Rockwell Automation Technologies, Inc. | System and method to generate training content based on audio and image feedback data |
US11475582B1 (en) | 2020-06-18 | 2022-10-18 | Apple Inc. | Method and device for measuring physical objects |
US11514651B2 (en) | 2020-06-19 | 2022-11-29 | Exfo Inc. | Utilizing augmented reality to virtually trace cables |
WO2022009872A1 (ja) * | 2020-07-08 | 2022-01-13 | 京セラ株式会社 | 電子機器、制御方法、及びプログラム |
US11423584B2 (en) * | 2020-11-24 | 2022-08-23 | Verizon Patent And Licensing Inc. | Systems and methods for dynamically estimating real time signal strengths for a wireless router using augmented reality |
US11289196B1 (en) | 2021-01-12 | 2022-03-29 | Emed Labs, Llc | Health testing and diagnostics platform |
US11373756B1 (en) | 2021-05-24 | 2022-06-28 | Emed Labs, Llc | Systems, devices, and methods for diagnostic aid kit apparatus |
US11929168B2 (en) | 2021-05-24 | 2024-03-12 | Emed Labs, Llc | Systems, devices, and methods for diagnostic aid kit apparatus |
US11615888B2 (en) | 2021-03-23 | 2023-03-28 | Emed Labs, Llc | Remote diagnostic testing and treatment |
US11610682B2 (en) | 2021-06-22 | 2023-03-21 | Emed Labs, Llc | Systems, methods, and devices for non-human readable diagnostic tests |
US11410399B1 (en) | 2021-07-30 | 2022-08-09 | Cisco Technology, Inc. | Augmented reality wireless planning and troubleshooting |
US11886767B2 (en) | 2022-06-17 | 2024-01-30 | T-Mobile Usa, Inc. | Enable interaction between a user and an agent of a 5G wireless telecommunication network using augmented reality glasses |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011242934A (ja) | 2010-05-17 | 2011-12-01 | Ntt Docomo Inc | オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法 |
JP2012216073A (ja) | 2011-03-31 | 2012-11-08 | Konami Digital Entertainment Co Ltd | 画像処理装置、画像処理装置の制御方法、及びプログラム |
JP2014123376A (ja) | 2012-12-21 | 2014-07-03 | Dassault Systemes Delmia Corp | 仮想オブジェクトの配置補正 |
JP2014225727A (ja) | 2013-05-15 | 2014-12-04 | ソニー株式会社 | 表示制御装置、表示制御方法および記録媒体 |
US20150029220A1 (en) | 2013-07-25 | 2015-01-29 | Fluke Corporation | Detecting and visualizing wireless network devices in communication networks |
WO2015138170A1 (en) | 2014-03-13 | 2015-09-17 | Qualcomm Incorporated | Creating a realistic color for a virtual object in an augmented reality environment |
US10255726B2 (en) | 2016-02-18 | 2019-04-09 | Edx Technologies, Inc. | Systems and methods for augmented reality representations of networks |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09153146A (ja) * | 1995-09-28 | 1997-06-10 | Toshiba Corp | 仮想空間表示方法 |
US20020196202A1 (en) * | 2000-08-09 | 2002-12-26 | Bastian Mark Stanley | Method for displaying emergency first responder command, control, and safety information using augmented reality |
US20030210228A1 (en) * | 2000-02-25 | 2003-11-13 | Ebersole John Franklin | Augmented reality situational awareness system and method |
US7246045B1 (en) | 2000-08-04 | 2007-07-17 | Wireless Valley Communication, Inc. | System and method for efficiently visualizing and comparing communication network system performance |
US6791549B2 (en) * | 2001-12-21 | 2004-09-14 | Vrcontext S.A. | Systems and methods for simulating frames of complex virtual environments |
JP4262011B2 (ja) * | 2003-07-30 | 2009-05-13 | キヤノン株式会社 | 画像提示方法及び装置 |
US8717423B2 (en) * | 2005-05-09 | 2014-05-06 | Zspace, Inc. | Modifying perspective of stereoscopic images based on changes in user viewpoint |
US7737965B2 (en) * | 2005-06-09 | 2010-06-15 | Honeywell International Inc. | Handheld synthetic vision device |
US8280405B2 (en) * | 2005-12-29 | 2012-10-02 | Aechelon Technology, Inc. | Location based wireless collaborative environment with a visual user interface |
US20100091018A1 (en) * | 2008-07-11 | 2010-04-15 | Advanced Micro Devices, Inc. | Rendering Detailed Animated Three Dimensional Characters with Coarse Mesh Instancing and Determining Tesselation Levels for Varying Character Crowd Density |
CN101349746A (zh) * | 2008-09-06 | 2009-01-21 | 黄以华 | 一种基于虚拟参考标签算法的无线射频定位方法 |
WO2011127379A2 (en) * | 2010-04-09 | 2011-10-13 | University Of Florida Research Foundation Inc. | Interactive mixed reality system and uses thereof |
JP4913913B2 (ja) * | 2010-04-28 | 2012-04-11 | 新日鉄ソリューションズ株式会社 | 情報処理システム、情報処理方法及びプログラム |
KR101662716B1 (ko) * | 2010-12-14 | 2016-10-05 | 삼성전자주식회사 | 휴대용 단말기에서 억세스 포인트를 검색하기 위한 장치 및 방법 |
US20120249588A1 (en) * | 2011-03-22 | 2012-10-04 | Panduit Corp. | Augmented Reality Data Center Visualization |
JP5145444B2 (ja) * | 2011-06-27 | 2013-02-20 | 株式会社コナミデジタルエンタテインメント | 画像処理装置、画像処理装置の制御方法、及びプログラム |
AU2012278940B2 (en) * | 2011-07-07 | 2016-08-04 | Isee Vc Pty Ltd | A system and method for managing multimedia data |
US9345957B2 (en) * | 2011-09-30 | 2016-05-24 | Microsoft Technology Licensing, Llc | Enhancing a sport using an augmented reality display |
US9576214B1 (en) * | 2012-01-23 | 2017-02-21 | Hrl Laboratories, Llc | Robust object recognition from moving platforms by combining form and motion detection with bio-inspired classification |
US20130339864A1 (en) | 2012-06-15 | 2013-12-19 | Nokia Corporation | Method and apparatus for providing mixed-reality connectivity assistance |
US9292951B2 (en) | 2012-08-22 | 2016-03-22 | Cable Television Laboratories, Inc. | Service coverage identification using augmented reality |
US9164552B2 (en) * | 2012-09-27 | 2015-10-20 | Futurewei Technologies, Inc. | Real time visualization of network information |
EP3779895A1 (en) * | 2012-12-21 | 2021-02-17 | Apple Inc. | Method for representing virtual information in a real environment |
US9113310B2 (en) * | 2013-05-21 | 2015-08-18 | Intel Corporation | Systems and methods for simultaneously and automatically creating databases of wifi signal information |
EP2932708B1 (en) | 2013-05-28 | 2017-07-19 | Hewlett-Packard Enterprise Development LP | Mobile augmented reality for managing enclosed areas |
JP5845211B2 (ja) * | 2013-06-24 | 2016-01-20 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US9753553B2 (en) * | 2013-07-03 | 2017-09-05 | Sony Interactive Entertainment America Llc | Systems, methods, and computer-readable media for generating computer-mediated reality display data |
US9369835B2 (en) * | 2013-09-24 | 2016-06-14 | Qualcomm Incorporated | Method and apparatus for enhancing access point databases |
US9524587B2 (en) | 2013-11-12 | 2016-12-20 | Intel Corporation | Adapting content to augmented reality virtual objects |
US9805509B2 (en) * | 2013-11-26 | 2017-10-31 | Yoav Shefi | Method and system for constructing a virtual image anchored onto a real-world object |
US9740935B2 (en) * | 2013-11-26 | 2017-08-22 | Honeywell International Inc. | Maintenance assistant system |
US9761049B2 (en) * | 2014-03-28 | 2017-09-12 | Intel Corporation | Determination of mobile display position and orientation using micropower impulse radar |
WO2015171887A1 (en) * | 2014-05-07 | 2015-11-12 | Tyco Electronics Corporation | Hands-free asset identification, location and management system |
AU2014202500A1 (en) * | 2014-05-08 | 2015-11-26 | Canon Kabushiki Kaisha | Method, apparatus and system for rendering virtual content |
US9953425B2 (en) * | 2014-07-30 | 2018-04-24 | Adobe Systems Incorporated | Learning image categorization using related attributes |
US9536293B2 (en) | 2014-07-30 | 2017-01-03 | Adobe Systems Incorporated | Image assessment using deep convolutional neural networks |
CN104501798A (zh) | 2014-12-18 | 2015-04-08 | 深圳先进技术研究院 | 一种基于增强现实ip地图的网络对象定位追踪方法 |
US9846968B2 (en) * | 2015-01-20 | 2017-12-19 | Microsoft Technology Licensing, Llc | Holographic bird's eye view camera |
US20160210780A1 (en) * | 2015-01-20 | 2016-07-21 | Jonathan Paulovich | Applying real world scale to virtual content |
US9811756B2 (en) * | 2015-02-23 | 2017-11-07 | Mitsubishi Electric Research Laboratories, Inc. | Method for labeling images of street scenes |
US10339382B2 (en) * | 2015-05-31 | 2019-07-02 | Fieldbit Ltd. | Feedback based remote maintenance operations |
KR101666561B1 (ko) * | 2015-07-13 | 2016-10-24 | 한국과학기술원 | 증강 공간 내 부분 공간 획득 시스템 및 방법 |
US10037627B2 (en) * | 2015-08-14 | 2018-07-31 | Argis Technologies Llc | Augmented visualization system for hidden structures |
CA3002369A1 (en) * | 2015-10-20 | 2017-04-27 | Magic Leap, Inc. | Selecting virtual objects in a three-dimensional space |
US10089788B2 (en) * | 2016-05-25 | 2018-10-02 | Google Llc | Light-field viewpoint and pixel culling for a head mounted display device |
-
2017
- 2017-02-17 WO PCT/US2017/018447 patent/WO2017143239A1/en active Application Filing
- 2017-02-17 CA CA3015164A patent/CA3015164A1/en active Pending
- 2017-02-17 EP EP17753957.4A patent/EP3417307A4/en not_active Ceased
- 2017-02-17 JP JP2018543647A patent/JP7133470B2/ja active Active
- 2017-02-17 US US15/436,154 patent/US9836888B2/en active Active
- 2017-10-30 US US15/796,954 patent/US10255726B2/en not_active Expired - Fee Related
-
2019
- 2019-02-27 US US16/287,790 patent/US11120628B2/en active Active
-
2022
- 2022-05-18 JP JP2022081921A patent/JP2022119858A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011242934A (ja) | 2010-05-17 | 2011-12-01 | Ntt Docomo Inc | オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法 |
JP2012216073A (ja) | 2011-03-31 | 2012-11-08 | Konami Digital Entertainment Co Ltd | 画像処理装置、画像処理装置の制御方法、及びプログラム |
JP2014123376A (ja) | 2012-12-21 | 2014-07-03 | Dassault Systemes Delmia Corp | 仮想オブジェクトの配置補正 |
JP2014225727A (ja) | 2013-05-15 | 2014-12-04 | ソニー株式会社 | 表示制御装置、表示制御方法および記録媒体 |
US20150029220A1 (en) | 2013-07-25 | 2015-01-29 | Fluke Corporation | Detecting and visualizing wireless network devices in communication networks |
WO2015138170A1 (en) | 2014-03-13 | 2015-09-17 | Qualcomm Incorporated | Creating a realistic color for a virtual object in an augmented reality environment |
US10255726B2 (en) | 2016-02-18 | 2019-04-09 | Edx Technologies, Inc. | Systems and methods for augmented reality representations of networks |
Also Published As
Publication number | Publication date |
---|---|
EP3417307A4 (en) | 2019-09-11 |
CA3015164A1 (en) | 2017-08-24 |
US9836888B2 (en) | 2017-12-05 |
US11120628B2 (en) | 2021-09-14 |
JP2019512769A (ja) | 2019-05-16 |
WO2017143239A1 (en) | 2017-08-24 |
US20170243400A1 (en) | 2017-08-24 |
US10255726B2 (en) | 2019-04-09 |
US20180047217A1 (en) | 2018-02-15 |
EP3417307A1 (en) | 2018-12-26 |
WO2017143239A8 (en) | 2018-11-15 |
US20190197791A1 (en) | 2019-06-27 |
JP2022119858A (ja) | 2022-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7133470B2 (ja) | ネットワークの拡張現実表現のためのシステムおよび方法 | |
JP5934368B2 (ja) | 可搬装置、仮想現実システムおよび方法 | |
Mekni et al. | Augmented reality: Applications, challenges and future trends | |
US20210201590A1 (en) | Systems, devices, and methods for augmented reality | |
CN103186922B (zh) | 使用扩增现实显示器表示以前时间段时的场所的方法以及个人视听(a/v)装置 | |
US8218943B2 (en) | CV tag video image display device provided with layer generating and selection functions | |
CN102473324B (zh) | 用于在真实环境中表示虚拟信息的方法 | |
King et al. | ARVino-outdoor augmented reality visualisation of viticulture GIS data | |
US20080231630A1 (en) | Web Enabled Three-Dimensional Visualization | |
US20210375052A1 (en) | Information processor, information processing method, and program | |
CA3207408A1 (en) | System and method for augmented and virtual reality | |
JP6809539B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Hollerer | User interfaces for mobile augmented reality systems | |
CN109115221A (zh) | 室内定位、导航方法及装置、计算机可读介质和电子设备 | |
US20210350628A1 (en) | Program, information processing method, and information processing terminal | |
US20190318543A1 (en) | R-snap for production of augmented realities | |
WO2021241431A1 (ja) | 情報処理装置、情報処理方法、及びコンピュータが読み取り可能な記録媒体 | |
CN104501797B (zh) | 一种基于增强现实ip地图的导航方法 | |
WO2019016820A1 (en) | METHOD FOR PLACING, MONITORING AND PRESENTING AN ENVIRONMENT BASED ON REALITY-VIRTUALITY IMMERSIVE CONTINUUM WITH IDO AND / OR OTHER SENSORS INSTEAD OF A CAMERA OR VISUAL PROCESSING, AND ASSOCIATED METHODS | |
Kanade et al. | Mobile and location based service using augmented reality: a review | |
Ayyanchira et al. | Toward cross-platform immersive visualization for indoor navigation and collaboration with augmented reality | |
US20200211295A1 (en) | Methods and devices for transitioning among realities mediated by augmented and/or virtual reality devices | |
Bourdakis | Navigation in large VR urban models | |
KR102620333B1 (ko) | 관람 데이터를 이용한 미디어 아트 컨텐츠 통합 제어 시스템 | |
KR102572632B1 (ko) | 사용자 얼굴 인식을 이용하여 증강 현실 서비스를 제공하는 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200217 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200217 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200730 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200811 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20201111 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210427 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210721 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210921 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220518 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220518 |
|
C11 | Written invitation by the commissioner to file amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C11 Effective date: 20220531 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220713 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220829 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7133470 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |