JP2014503923A - コンテキストアウェアな拡張相互作用 - Google Patents
コンテキストアウェアな拡張相互作用 Download PDFInfo
- Publication number
- JP2014503923A JP2014503923A JP2013551432A JP2013551432A JP2014503923A JP 2014503923 A JP2014503923 A JP 2014503923A JP 2013551432 A JP2013551432 A JP 2013551432A JP 2013551432 A JP2013551432 A JP 2013551432A JP 2014503923 A JP2014503923 A JP 2014503923A
- Authority
- JP
- Japan
- Prior art keywords
- spatial relationship
- determining
- processor
- proximity
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)などを含み得るが、必ずしもそれらを含む必要はないことが理解されよう。プロセッサという用語は、特定のハードウェアではなく、システムによって実施される機能について説明することを意図する。さらに、本明細書に使用するように、「メモリ」という用語は、長期メモリ、短期メモリ、またはモバイルプラットフォームに関連する他のメモリを含む任意のタイプのコンピュータ記憶媒体を指し、いかなる特定のタイプのメモリ、もしくはメモリの数、またはメモリが記憶される媒体のタイプに限定されない。
(disc)(CD)、レーザディスク(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フレキシブルディスク(disk)、およびブルーレイディスク(disc)が含まれ、ディスク(disk)は通常、データを磁気的に再生するが、ディスク(disc)はデータをレーザによって光学的に再生する。上記の組合せも、コンピュータ可読媒体の範囲内に含まれるべきである。
101 ハウジング
102 ディスプレイ
104 スピーカ
106 マイクロフォン
108 カメラ
109 視野
110 モーションセンサ
120 現実世界のオブジェクトA
122 現実世界のオブジェクトB
123 現実世界のオブジェクトC
126 ARオブジェクト
128 ARオブジェクト
129 ARオブジェクト
130 現実世界のオブジェクト間の距離
132 現実世界のオブジェクト間の角変位
150 ユーザインターフェース
152 キーパッド
160 制御ユニット
161 プロセッサ
162 ハードウェア
163 ファームウェア
164 メモリ
165 ソフトウェア
166 画像プロセッサ
167 位置プロセッサ
168 グラフィックスエンジン
169 データベース
170 クロック
172 SPS受信機
Claims (38)
- 第1のオブジェクトおよび第2のオブジェクトの画像を取得および表示するステップと、
前記第1のオブジェクトを検出および追跡するステップと、
前記第2のオブジェクトを検出および追跡するステップと、
前記第1のオブジェクトと前記第2のオブジェクトとの間の空間的関係を決定するステップと、
前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係に基づいてレンダリングする拡張オブジェクトを決定するステップと、
前記拡張オブジェクトを表示するステップと
を含む、方法。 - 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係は、前記第1のオブジェクトと前記第2のオブジェクトとの近接度に基づいている、請求項1に記載の方法。
- 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度は、互いに前記画像内にある、前記第1のオブジェクトおよび前記第2のオブジェクトのうちの少なくとも一部に基づいている、請求項2に記載の方法。
- 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度は、前記第1のオブジェクトと前記第2のオブジェクトとの間の距離に基づいている、請求項2に記載の方法。
- 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度は、前記距離を閾値と比較することによって決定される、請求項4に記載の方法。
- 前記第1のオブジェクトに関する第1の姿勢および前記第2のオブジェクトに関する第2の姿勢を決定するステップと、前記距離を決定するために前記第1の姿勢および前記第2の姿勢を用いるステップとをさらに含む、請求項4に記載の方法。
- 前記距離を決定するために、前記第1のオブジェクトおよび前記第2のオブジェクトのうちの少なくとも1つのサイズを、前記第1のオブジェクトと前記第2のオブジェクトとの間の間隔と比較するステップをさらに含む、請求項4に記載の方法。
- 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係は、前記第1のオブジェクトと前記第2のオブジェクトとの相対位置に基づいている、請求項1に記載の方法。
- 前記第1のオブジェクトおよび前記第2のオブジェクトの前記画像を取得および表示するステップは、前記第1のオブジェクトの第1の画像を取得および表示するステップと、前記第2のオブジェクトの第2の画像を取得および表示するステップとを含み、前記第1のオブジェクトおよび前記第2のオブジェクトは、互いにカメラの視野内に現れない、請求項1に記載の方法。
- 第3のオブジェクトの画像を取得および表示するステップと、
前記第3のオブジェクトを検出および追跡するステップと、
前記第1のオブジェクトと前記第3のオブジェクトとの間の空間的関係を決定するステップと、
前記第1のオブジェクトと前記第3のオブジェクトとの間の前記空間的関係に基づいてレンダリングする、異なる拡張オブジェクトを決定するステップと、
前記異なる拡張オブジェクトを表示するステップと
をさらに含む、請求項1に記載の方法。 - カメラと、
前記カメラに接続されたプロセッサと、
前記プロセッサに接続されたメモリと、
前記メモリに接続されたディスプレイと、
前記プロセッサに、前記ディスプレイ上に前記カメラによって取得された第1のオブジェクトおよび第2のオブジェクトの画像を表示させ、前記第1のオブジェクトを検出および追跡させ、前記第2のオブジェクトを検出および追跡させ、前記第1のオブジェクトと前記第2のオブジェクトとの間の空間的関係を決定させ、前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係に基づいてレンダリングする拡張オブジェクトを決定させ、前記ディスプレイ上に前記拡張オブジェクトを表示させるために、前記メモリ内に保持され、前記プロセッサ内で実行されるソフトウェアと
を含む、モバイルプラットフォーム。 - 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係は、前記第1のオブジェクトと前記第2のオブジェクトとの近接度に基づいている、請求項11に記載のモバイルプラットフォーム。
- 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度は、互いに前記カメラの視野内にある、前記第1のオブジェクトおよび前記第2のオブジェクトのうちの少なくとも一部に基づいている、請求項12に記載のモバイルプラットフォーム。
- 前記プロセッサ内で実行される前記ソフトウェアは、前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度を決定するために、前記プロセッサに、前記第1のオブジェクトと前記第2のオブジェクトとの間の距離を決定させる、請求項12に記載のモバイルプラットフォーム。
- 前記プロセッサ内で実行される前記ソフトウェアは、前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度を決定するために、前記プロセッサに、前記距離を閾値と比較させる、請求項14に記載のモバイルプラットフォーム。
- 前記プロセッサ内で実行される前記ソフトウェアは、前記プロセッサに、前記第1のオブジェクトに関する第1の姿勢および前記第2のオブジェクトに関する第2の姿勢を決定させ、前記第1のオブジェクトと前記第2のオブジェクトとの間の前記距離を決定するために前記第1の姿勢および前記第2の姿勢を使用させる、請求項14に記載のモバイルプラットフォーム。
- 前記プロセッサ内で実行される前記ソフトウェアは、前記第1のオブジェクトと前記第2のオブジェクトとの間の前記距離を決定するために、前記プロセッサに、前記第1のオブジェクトおよび前記第2のオブジェクトのうちの少なくとも1つのサイズを、前記第1のオブジェクトと前記第2のオブジェクトとの間の間隔と比較させる、請求項14に記載のモバイルプラットフォーム。
- 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係は、前記第1のオブジェクトと前記第2のオブジェクトとの相対位置に基づいている、請求項11に記載のモバイルプラットフォーム。
- 前記プロセッサ内で実行される前記ソフトウェアは、前記プロセッサに、前記ディスプレイ上に前記第1のオブジェクトの第1の画像を表示させ、前記ディスプレイ上に前記第2のオブジェクトの第2の画像を表示させ、前記第1のオブジェクトおよび前記第2のオブジェクトは、互いに前記カメラの視野内に現れない、請求項11に記載のモバイルプラットフォーム。
- 前記プロセッサ内で実行される前記ソフトウェアは、前記プロセッサに、前記ディスプレイ上に第3のオブジェクトの画像を表示させ、前記第3のオブジェクトを検出および追跡させ、前記第1のオブジェクトと前記第3のオブジェクトとの間の空間的関係を決定させ、前記第1のオブジェクトと前記第3のオブジェクトとの間の前記空間的関係に基づいてレンダリングする異なる拡張オブジェクトを決定させ、前記ディスプレイ上に前記異なる拡張オブジェクトを表示させる、請求項11に記載のモバイルプラットフォーム。
- 前記プロセッサ内で実行される前記ソフトウェアは、モーションセンサからのデータを用いて、前記プロセッサに、前記第1のオブジェクトを検出および追跡させ、前記第2のオブジェクトを検出および追跡させる、モーションセンサをさらに含む、請求項11に記載のモバイルプラットフォーム。
- 前記プロセッサ内で実行される前記ソフトウェアは、前記カメラによって取得された画像を用いて、前記プロセッサに、前記第1のオブジェクトを検出および追跡させ、前記第2のオブジェクトを検出および追跡させる、請求項11に記載のモバイルプラットフォーム。
- 第1のオブジェクトおよび第2のオブジェクトの画像を取得するための手段と、
前記第1のオブジェクトおよび前記第2のオブジェクトを検出および追跡するための手段と、
前記第1のオブジェクトと前記第2のオブジェクトとの間の空間的関係を決定するための手段と、
前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係に基づいてレンダリングする拡張オブジェクトを決定するための手段と、
前記拡張オブジェクトと、前記第1のオブジェクトおよび前記第2のオブジェクトの前記画像とを表示するための手段と
を含む、デバイス。 - 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係は、前記第1のオブジェクトと前記第2のオブジェクトとの近接度に基づいている、請求項23に記載のデバイス。
- 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度は、互いに前記画像内にある、前記第1のオブジェクトおよび前記第2のオブジェクトのうちの少なくとも一部に基づいている、請求項24に記載のデバイス。
- 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度は、前記第1のオブジェクトと前記第2のオブジェクトとの間の距離に基づいている、請求項24に記載のデバイス。
- 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係を決定するための前記手段は、前記距離を閾値と比較する、請求項26に記載のデバイス。
- 前記第1のオブジェクトに関する第1の姿勢および前記第2のオブジェクトに関する第2の姿勢を決定するための手段であって、前記第1の姿勢および前記第2の姿勢は、前記距離を決定するために用いられる、手段をさらに含む、請求項26に記載のデバイス。
- 前記距離を決定するために、前記第1のオブジェクトおよび前記第2のオブジェクトのうちの少なくとも1つのサイズを、前記第1のオブジェクトと前記第2のオブジェクトとの間の間隔と比較するための手段をさらに含む、請求項26に記載のデバイス。
- 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係は、前記第1のオブジェクトと前記第2のオブジェクトとの相対位置に基づいている、請求項23に記載のデバイス。
- プロセッサにより実行可能なプログラムコードを記録するコンピュータ可読記録媒体であって、
ディスプレイ上に第1のオブジェクトおよび第2のオブジェクトの画像を表示するためのプログラムコードと、
前記第1のオブジェクトを検出および追跡し、前記第2のオブジェクトを検出および追跡するためのプログラムコードと、
前記第1のオブジェクトと前記第2のオブジェクトとの間の空間的関係を決定するためのプログラムコードと、
前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係に基づいてレンダリングする拡張オブジェクトを決定するためのプログラムコードと、
前記ディスプレイ上に前記拡張オブジェクトを表示するためのプログラムコードと
を含む、コンピュータ可読記録媒体。 - 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係は、前記第1のオブジェクトと前記第2のオブジェクトとの近接度に基づいている、請求項31に記載のコンピュータ可読記録媒体。
- 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度は、互いに前記画像内にある、前記第1のオブジェクトおよび前記第2のオブジェクトのうちの少なくとも一部に基づいている、請求項32に記載のコンピュータ可読記録媒体。
- 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度を決定するための前記プログラムコードは、前記第1のオブジェクトと前記第2のオブジェクトとの間の距離を決定するためのプログラムコードを含む、請求項32に記載のコンピュータ可読記録媒体。
- 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度を決定するための前記プログラムコードは、前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度を決定するために、前記距離を閾値と比較する、請求項34に記載のコンピュータ可読記録媒体。
- 前記第1のオブジェクトに関する第1の姿勢および前記第2のオブジェクトに関する第2の姿勢を決定するためのプログラムコードであって、前記第1のオブジェクトと前記第2のオブジェクトとの間の前記距離を決定するための前記プログラムコードは、前記距離を決定するために前記第1の姿勢および前記第2の姿勢を用いる、プログラムコードをさらに含む、請求項34に記載のコンピュータ可読記録媒体。
- 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記距離を決定するための前記プログラムコードは、前記第1のオブジェクトと前記第2のオブジェクトとの間の前記距離を決定するために、前記第1のオブジェクトおよび前記第2のオブジェクトのうちの少なくとも1つのサイズを、前記第1のオブジェクトと前記第2のオブジェクトとの間の間隔と比較する、請求項34に記載のコンピュータ可読記録媒体。
- 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係は、前記第1のオブジェクトと前記第2のオブジェクトとの相対位置に基づいている、請求項31に記載のコンピュータ可読記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/018,180 | 2011-01-31 | ||
US13/018,180 US8509483B2 (en) | 2011-01-31 | 2011-01-31 | Context aware augmentation interactions |
PCT/US2012/023381 WO2012106366A2 (en) | 2011-01-31 | 2012-01-31 | Context aware augmentation interactions |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014503923A true JP2014503923A (ja) | 2014-02-13 |
JP5640161B2 JP5640161B2 (ja) | 2014-12-10 |
Family
ID=45607393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013551432A Expired - Fee Related JP5640161B2 (ja) | 2011-01-31 | 2012-01-31 | コンテキストアウェアな拡張相互作用 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8509483B2 (ja) |
EP (1) | EP2671188B1 (ja) |
JP (1) | JP5640161B2 (ja) |
KR (1) | KR101554797B1 (ja) |
CN (1) | CN103443743B (ja) |
WO (1) | WO2012106366A2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016071471A (ja) * | 2014-09-29 | 2016-05-09 | 京セラドキュメントソリューションズ株式会社 | 物品情報提供装置、物品情報提供システム、物品情報提供方法及び物品情報提供プログラム |
JP2017054185A (ja) * | 2015-09-07 | 2017-03-16 | 株式会社東芝 | 情報処理装置、情報処理方法及び情報処理プログラム |
JP2020074150A (ja) * | 2020-01-10 | 2020-05-14 | 株式会社東芝 | 情報処理装置、情報処理方法及び情報処理プログラム |
JP2020535534A (ja) * | 2017-09-27 | 2020-12-03 | フィッシャー−ローズマウント システムズ,インコーポレイテッド | アクセス制限されたオブジェクトへの仮想アクセス |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10096161B2 (en) | 2010-06-15 | 2018-10-09 | Live Nation Entertainment, Inc. | Generating augmented reality images using sensor and location data |
US8810598B2 (en) | 2011-04-08 | 2014-08-19 | Nant Holdings Ip, Llc | Interference based augmented reality hosting platforms |
JP5885398B2 (ja) * | 2011-05-20 | 2016-03-15 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US20130050499A1 (en) * | 2011-08-30 | 2013-02-28 | Qualcomm Incorporated | Indirect tracking |
JP5821526B2 (ja) | 2011-10-27 | 2015-11-24 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
WO2013078345A1 (en) | 2011-11-21 | 2013-05-30 | Nant Holdings Ip, Llc | Subscription bill service, systems and methods |
US20130159196A1 (en) * | 2011-12-20 | 2013-06-20 | Ebay, Inc. | Secure PIN Verification for Mobile Payment Systems |
US9087403B2 (en) | 2012-07-26 | 2015-07-21 | Qualcomm Incorporated | Maintaining continuity of augmentations |
US9530232B2 (en) * | 2012-09-04 | 2016-12-27 | Qualcomm Incorporated | Augmented reality surface segmentation |
US9336508B2 (en) * | 2012-11-02 | 2016-05-10 | Patrick Soon-Shiong | Virtual planogram management, systems, and methods |
US9953618B2 (en) | 2012-11-02 | 2018-04-24 | Qualcomm Incorporated | Using a plurality of sensors for mapping and localization |
US9159133B2 (en) * | 2012-11-05 | 2015-10-13 | Qualcomm Incorporated | Adaptive scale and/or gravity estimation |
US8880051B2 (en) | 2012-11-16 | 2014-11-04 | Intel Corporation | Automatic seamless context sharing across multiple devices |
US9449340B2 (en) * | 2013-01-30 | 2016-09-20 | Wal-Mart Stores, Inc. | Method and system for managing an electronic shopping list with gestures |
US9910828B2 (en) * | 2013-03-12 | 2018-03-06 | Qualcomm Incorporated | Spectrometer for personal context |
US20140282220A1 (en) * | 2013-03-14 | 2014-09-18 | Tim Wantland | Presenting object models in augmented reality images |
US10509533B2 (en) | 2013-05-14 | 2019-12-17 | Qualcomm Incorporated | Systems and methods of generating augmented reality (AR) objects |
US9904852B2 (en) * | 2013-05-23 | 2018-02-27 | Sri International | Real-time object detection, tracking and occlusion reasoning |
KR102105463B1 (ko) * | 2013-09-02 | 2020-04-28 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
US10217284B2 (en) | 2013-09-30 | 2019-02-26 | Qualcomm Incorporated | Augmented virtuality |
US9582516B2 (en) | 2013-10-17 | 2017-02-28 | Nant Holdings Ip, Llc | Wide area augmented reality location-based services |
US9298298B2 (en) | 2013-12-18 | 2016-03-29 | Microsoft Technology Licensing, Llc | Wearable display input system |
JP6303550B2 (ja) * | 2014-02-03 | 2018-04-04 | ブラザー工業株式会社 | 表示プログラムおよび表示装置 |
US9785994B2 (en) | 2014-04-10 | 2017-10-10 | Bank Of America Corporation | Providing comparison shopping experiences through an optical head-mounted displays in a wearable computer |
US9626804B2 (en) | 2014-05-26 | 2017-04-18 | Kyocera Document Solutions Inc. | Article information providing apparatus that provides information of article, article information providing system,and article information provision method |
US10537821B2 (en) | 2014-06-30 | 2020-01-21 | Microsoft Technology Licensing, Llc | Interactive play sets |
WO2016041088A1 (en) * | 2014-09-19 | 2016-03-24 | Sulon Technologies Inc. | System and method for tracking wearable peripherals in augmented reality and virtual reality applications |
US9696757B2 (en) | 2014-10-08 | 2017-07-04 | Microsoft Corporation | Transfer of attributes between generations of characters |
US10369477B2 (en) | 2014-10-08 | 2019-08-06 | Microsoft Technology Licensing, Llc | Management of resources within a virtual world |
EP3286718A4 (en) | 2015-04-23 | 2018-12-05 | Hasbro, Inc. | Context-aware digital play |
US10410096B2 (en) * | 2015-07-09 | 2019-09-10 | Qualcomm Incorporated | Context-based priors for object detection in images |
US20180349837A1 (en) * | 2017-05-19 | 2018-12-06 | Hcl Technologies Limited | System and method for inventory management within a warehouse |
CN110119194A (zh) * | 2018-02-06 | 2019-08-13 | 广东虚拟现实科技有限公司 | 虚拟场景处理方法、装置、交互系统、头戴显示装置、视觉交互装置及计算机可读介质 |
US10467816B2 (en) | 2018-03-23 | 2019-11-05 | Microsoft Technology Licensing, Llc | Mixed reality objects |
CN108932142B (zh) * | 2018-04-28 | 2020-04-03 | 广州市百果园网络科技有限公司 | 一种画面捕捉方法及终端 |
US11244509B2 (en) | 2018-08-20 | 2022-02-08 | Fisher-Rosemount Systems, Inc. | Drift correction for industrial augmented reality applications |
CN112912937A (zh) * | 2018-10-31 | 2021-06-04 | 米沃奇电动工具公司 | 空间感知工具系统 |
CN111223187B (zh) * | 2018-11-23 | 2024-09-24 | 广东虚拟现实科技有限公司 | 虚拟内容的显示方法、装置及系统 |
WO2020113202A1 (en) * | 2018-11-30 | 2020-06-04 | University Of Southern California | Double-blinded, randomized trial of augmented reality low-vision mobility and grasp aid |
US11804014B1 (en) | 2019-04-22 | 2023-10-31 | Apple Inc. | Context-based application placement |
US11816887B2 (en) | 2020-08-04 | 2023-11-14 | Fisher-Rosemount Systems, Inc. | Quick activation techniques for industrial augmented reality applications |
KR102699811B1 (ko) * | 2020-08-27 | 2024-08-29 | 삼성전자주식회사 | 증강 현실 컨텐트를 제공하는 전자 장치와 이의 동작 방법 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000066717A (ja) * | 1998-08-21 | 2000-03-03 | Toshiba Corp | マンマシン・インタフェース装置 |
US20030179218A1 (en) * | 2002-03-22 | 2003-09-25 | Martins Fernando C. M. | Augmented reality system |
GB2399248A (en) * | 2003-03-07 | 2004-09-08 | British Broadcasting Corp | Projection of supplementary image data onto a studio set |
JP2005507109A (ja) * | 2001-10-22 | 2005-03-10 | ユニバーシティ オブ サウザーン カリフォルニア | 線の自動較正によって拡張可能な追跡システム |
WO2005107274A1 (en) * | 2004-04-28 | 2005-11-10 | Augmented Media Aps | A system for generating virtual three dimensional projections |
JP2008501184A (ja) * | 2004-05-28 | 2008-01-17 | シンガポール国立大学 | インタラクティブ・システム及び方法 |
JP2010026818A (ja) * | 2008-07-18 | 2010-02-04 | Geisha Tokyo Entertainment Inc | 画像処理プログラム、画像処理装置及び画像処理方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6757068B2 (en) * | 2000-01-28 | 2004-06-29 | Intersense, Inc. | Self-referenced tracking |
US6891518B2 (en) | 2000-10-05 | 2005-05-10 | Siemens Corporate Research, Inc. | Augmented reality visualization device |
WO2004042662A1 (en) | 2002-10-15 | 2004-05-21 | University Of Southern California | Augmented virtual environments |
WO2005094109A1 (en) | 2004-03-18 | 2005-10-06 | Nokia Corporation | Position-based context awareness for mobile terminal device |
JP4642538B2 (ja) * | 2005-04-20 | 2011-03-02 | キヤノン株式会社 | 画像処理方法および画像処理装置 |
US8933889B2 (en) | 2005-07-29 | 2015-01-13 | Nokia Corporation | Method and device for augmented reality message hiding and revealing |
CN101369181B (zh) * | 2007-08-17 | 2015-03-04 | 财团法人工业技术研究院 | 惯性感测输入控制装置与接收装置及其互动系统 |
KR100900806B1 (ko) | 2007-11-01 | 2009-06-04 | 광주과학기술원 | 컨텍스트 인식 증강 현실을 제공하기 위한 시스템 및 방법 |
US20120120103A1 (en) * | 2010-02-28 | 2012-05-17 | Osterhout Group, Inc. | Alignment control in an augmented reality headpiece |
US8315674B2 (en) * | 2010-10-08 | 2012-11-20 | Research In Motion Limited | System and method for displaying object location in augmented reality |
-
2011
- 2011-01-31 US US13/018,180 patent/US8509483B2/en active Active
-
2012
- 2012-01-31 EP EP12704191.1A patent/EP2671188B1/en active Active
- 2012-01-31 KR KR1020137022936A patent/KR101554797B1/ko active IP Right Grant
- 2012-01-31 CN CN201280015474.2A patent/CN103443743B/zh active Active
- 2012-01-31 JP JP2013551432A patent/JP5640161B2/ja not_active Expired - Fee Related
- 2012-01-31 WO PCT/US2012/023381 patent/WO2012106366A2/en active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000066717A (ja) * | 1998-08-21 | 2000-03-03 | Toshiba Corp | マンマシン・インタフェース装置 |
JP2005507109A (ja) * | 2001-10-22 | 2005-03-10 | ユニバーシティ オブ サウザーン カリフォルニア | 線の自動較正によって拡張可能な追跡システム |
US20030179218A1 (en) * | 2002-03-22 | 2003-09-25 | Martins Fernando C. M. | Augmented reality system |
GB2399248A (en) * | 2003-03-07 | 2004-09-08 | British Broadcasting Corp | Projection of supplementary image data onto a studio set |
WO2005107274A1 (en) * | 2004-04-28 | 2005-11-10 | Augmented Media Aps | A system for generating virtual three dimensional projections |
JP2008501184A (ja) * | 2004-05-28 | 2008-01-17 | シンガポール国立大学 | インタラクティブ・システム及び方法 |
JP2010026818A (ja) * | 2008-07-18 | 2010-02-04 | Geisha Tokyo Entertainment Inc | 画像処理プログラム、画像処理装置及び画像処理方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016071471A (ja) * | 2014-09-29 | 2016-05-09 | 京セラドキュメントソリューションズ株式会社 | 物品情報提供装置、物品情報提供システム、物品情報提供方法及び物品情報提供プログラム |
JP2017054185A (ja) * | 2015-09-07 | 2017-03-16 | 株式会社東芝 | 情報処理装置、情報処理方法及び情報処理プログラム |
JP2020535534A (ja) * | 2017-09-27 | 2020-12-03 | フィッシャー−ローズマウント システムズ,インコーポレイテッド | アクセス制限されたオブジェクトへの仮想アクセス |
JP7198276B2 (ja) | 2017-09-27 | 2022-12-28 | フィッシャー-ローズマウント システムズ,インコーポレイテッド | アクセス制限されたオブジェクトへの仮想アクセス |
JP2020074150A (ja) * | 2020-01-10 | 2020-05-14 | 株式会社東芝 | 情報処理装置、情報処理方法及び情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN103443743B (zh) | 2016-06-29 |
KR20130116355A (ko) | 2013-10-23 |
EP2671188B1 (en) | 2019-05-22 |
US8509483B2 (en) | 2013-08-13 |
KR101554797B1 (ko) | 2015-09-21 |
JP5640161B2 (ja) | 2014-12-10 |
CN103443743A (zh) | 2013-12-11 |
WO2012106366A3 (en) | 2012-10-26 |
US20120195460A1 (en) | 2012-08-02 |
WO2012106366A2 (en) | 2012-08-09 |
EP2671188A2 (en) | 2013-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5640161B2 (ja) | コンテキストアウェアな拡張相互作用 | |
JP5766821B2 (ja) | ユーザのモバイルプラットフォームに対する位置に基づく補正像の提供 | |
JP6043856B2 (ja) | Rgbdカメラを用いた頭部ポーズ推定 | |
US10109065B2 (en) | Using occlusions to detect and track three-dimensional objects | |
US20120195461A1 (en) | Correlating areas on the physical object to areas on the phone screen | |
US9785836B2 (en) | Dataset creation for tracking targets with dynamically changing portions | |
KR20200130472A (ko) | 깊이 힌트를 사용하는 깊이 추정 모델의 자가 감독 훈련 | |
US20140126769A1 (en) | Fast initialization for monocular visual slam | |
US9025823B2 (en) | Tracking texture rich objects using rank order filtering | |
US11410330B2 (en) | Methods, devices, and systems for determining field of view and producing augmented reality | |
US8854393B2 (en) | Information processing device, information processing method, and program | |
CN115500083A (zh) | 使用神经网络的深度估计 | |
US20230377279A1 (en) | Space and content matching for augmented and mixed reality | |
US9230366B1 (en) | Identification of dynamic objects based on depth data | |
JP6393000B2 (ja) | 3dマップに関する仮説的ラインマッピングおよび検証 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20130822 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141027 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5640161 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |