JP2016509293A - 前景オブジェクトに基づく拡張現実のレンダリング - Google Patents
前景オブジェクトに基づく拡張現実のレンダリング Download PDFInfo
- Publication number
- JP2016509293A JP2016509293A JP2015551683A JP2015551683A JP2016509293A JP 2016509293 A JP2016509293 A JP 2016509293A JP 2015551683 A JP2015551683 A JP 2015551683A JP 2015551683 A JP2015551683 A JP 2015551683A JP 2016509293 A JP2016509293 A JP 2016509293A
- Authority
- JP
- Japan
- Prior art keywords
- image
- foreground object
- interest
- reference image
- warping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating three-dimensional [3D] models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Abstract
Description
本出願は、本出願の譲受人に譲渡され、参照により本明細書に組み込まれる、2013年1月3日に出願した「Rendering Augmented Reality Based on Foreground Object」という名称の米国出願第13/733,740号の利益および優先権を主張するものである。
シルエットが与えられると、検出器312は、たとえば、この目的のために訓練される分類器を使用することによって、指の位置を決定することができる。
101 ディスプレイ
102 シーン
103 ユーザインターフェース
104 テーブル
105 制御ユニット
105f ファームウェア
105h ハードウェア
105m メモリ
105p プロセッサ
105s ソフトウェア
106 ターゲット
108 オーグメンテーション
108a キーボード
110 カメラ
111 ユーザ
112 指
112 前景オブジェクト
114 動きセンサー
280 キャプチャされた画像
282 参照画像
284 ワープされた画像
287 生のマスク
288 マスク
290 前景画像
291 ピクセル
293 先端
294 ディスク
302 トラッカ
304 既知のターゲット画像
306 背景推定器
308 前景マスク生成器
310 前景抽出器
312 検出器
312c 分類器
312e 抽出器
314 レンダリングモジュール
Claims (47)
- シーンにアタッチしていない前景オブジェクトを含む前記シーンの画像をキャプチャするステップであって、前記前景オブジェクトが、異なる物理的様相である関心ポイントを含む、ステップと、
前記前景オブジェクトを含まない前記シーンの前記画像および参照画像の少なくとも一方を、前記画像および前記参照画像が同じビューを有するようにワープするステップと、
前記前景オブジェクト上の前記関心ポイントに属するピクセルを検出するために、ワープ後に前記画像を前記参照画像と比較するステップと、
前記検出されたピクセルを使用して前記前景オブジェクト上の前記関心ポイントを検出するステップと、
前記画像をディスプレイに表示するステップと、
前記関心ポイントに基づいて、前記ディスプレイで前記画像の上にオーグメンテーションをレンダリングするステップと
を含む方法。 - 前記シーンにアタッチしていない前記前景オブジェクトが、ユーザの少なくとも1つの指であり、前記関心ポイントが前記指の先端である、請求項1に記載の方法。
- 前記前景オブジェクト上の前記関心ポイントを検出するステップが、前記前景オブジェクトにおける所定の幾何学的制約なしに実行される、請求項1に記載の方法。
- 前記前景オブジェクト上の前記関心ポイントに属するピクセルを検出するために、ワープ後に前記画像を前記参照画像と比較するステップが、
前記前景オブジェクトのためのマスクを生成するステップと、
前記マスクを使用して前記画像から前記前景オブジェクトをセグメント化するステップと、
前記画像からセグメント化された前記前景オブジェクトを使用して、前記ピクセルを検出するステップと
を含む、請求項1に記載の方法。 - 前記前景オブジェクト上の前記関心ポイントに属するピクセルを検出するために、ワープ後に前記画像を前記参照画像と比較するステップが、
前記参照画像における対応するピクセルとは異なる前記画像におけるピクセルを使用して、前景オブジェクト画像を生成するステップと、
前記前景オブジェクト画像における前記前景オブジェクト上の前記関心ポイントに属する前記ピクセルを検出するステップと
を含む、請求項1に記載の方法。 - ワープ後に前記画像を前記参照画像と比較するステップが、
ワープ後に各ピクセルの差を生成するために、前記参照画像における対応するピクセルから前記画像におけるピクセルを減算するステップと、
各ピクセルの前記差を閾値と比較するステップと
を含む、請求項1に記載の方法。 - ワープ後に前記画像を前記参照画像と比較するステップが、
ワープ後に前記画像および前記参照画像における対応するピクセルについての比率を生成するステップと、
対応するピクセルについての前記比率を閾値と比較するステップと
を含む、請求項1に記載の方法。 - 前記画像および前記参照画像の少なくとも一方をワープするステップが、
前記画像と前記参照画像との間のポーズを生成するステップと、
前記ポーズに基づいて前記画像および前記参照画像の一方をワープするステップと
を含む、請求項1に記載の方法。 - その後キャプチャされた画像を前記ディスプレイに表示するステップと、
前記その後キャプチャされた画像における前記関心ポイントに基づいて前記オーグメンテーションを変えるステップと
をさらに含む、請求項1に記載の方法。 - 前記ディスプレイに前記オーグメンテーションをレンダリングするステップが、前記オーグメンテーションが前記ディスプレイに表示される前記前景オブジェクトの下にあるかのように見えるように前記オーグメンテーションをレンダリングするステップを含む、請求項1に記載の方法。
- 前記シーンが、関心ポイントを有する複数の前景オブジェクトを含み、前記方法が、
ワープ後に前記画像を前記参照画像と比較することによって前記複数の前景オブジェクト上の前記関心ポイントに属するピクセルを検出するステップと、
前記検出されたピクセルを使用して前記複数の前景オブジェクト上の前記関心ポイントを検出するステップと
をさらに含む、請求項1に記載の方法。 - その後キャプチャされた画像における前記前景オブジェクト上の前記関心ポイントを追跡するステップと、
前記前景オブジェクト上の前記関心ポイントの動きに基づいて時間的ジェスチャを検出するステップと、
前記時間的ジェスチャと関連したアクションを実行するステップと
をさらに含む、請求項1に記載の方法。 - 前記前景オブジェクト上の前記関心ポイントの構成をジェスチャ構成のライブラリと比較するステップと、
前記前景オブジェクト上の前記関心ポイントの前記構成からジェスチャを識別するステップと、
前記ジェスチャと関連したアクションを実行するステップと
をさらに含む、請求項1に記載の方法。 - 前記画像が、深さ情報なしでカメラを使用してキャプチャされる、請求項1に記載の方法。
- その後キャプチャされた画像における前記前景オブジェクトを追跡するステップであって、
その後キャプチャされた画像ごとに、前記シーンの前記その後キャプチャされた画像および前記参照画像の少なくとも一方をワープするステップと、
前記前景オブジェクト上の前記関心ポイントに属するピクセルを検出するために、ワープ後に前記その後キャプチャされた画像を前記参照画像と比較するステップと、
前記その後キャプチャされた画像における前記検出されたピクセルを使用して前記前景オブジェクト上の前記関心ポイントを検出するステップと
を含む、ステップをさらに含む、請求項1に記載の方法。 - 前記関心ポイントに属する前記ピクセルに関して、オプティカルフローを使用して、その後キャプチャされた画像における前記前景オブジェクトを追跡するステップをさらに含む、請求項1に記載の方法。
- カメラと、
ディスプレイと、
前記ディスプレイに結合され、シーンにアタッチしていない前景オブジェクトを含む前記シーンの画像を受信するために前記カメラに結合されたプロセッサとを含み、前記前景オブジェクトが、異なる物理的様相である関心ポイントを含み、前記プロセッサが、前記前景オブジェクトを含まない前記シーンの前記画像および参照画像の少なくとも一方を、前記画像および前記参照画像が同じビューを有するようにワープし、前記前景オブジェクト上の前記関心ポイントに属するピクセルを検出するために、ワープ後に前記画像を前記参照画像と比較し、前記検出されたピクセルを使用して前記前景オブジェクト上の前記関心ポイントを検出し、前記画像を前記ディスプレイに表示し、前記関心ポイントに基づいて、前記ディスプレイで前記画像の上にオーグメンテーションをレンダリングするように構成される、装置。 - 前記シーンにアタッチしていない前記前景オブジェクトが、ユーザの少なくとも1つの指であり、前記関心ポイントが前記指の先端である、請求項17に記載の装置。
- 前記プロセッサが、前記前景オブジェクトにおける所定の幾何学的制約なしに前記前景オブジェクト上の前記関心ポイントを検出するように構成される、請求項17に記載の装置。
- 前記プロセッサが、
前記前景オブジェクトのためのマスクを生成し、
前記マスクを使用して前記画像から前記前景オブジェクトをセグメント化し、
前記画像からセグメント化された前記前景オブジェクトを使用して、ピクセルを検出する
ように構成されることによって、前記前景オブジェクト上の前記関心ポイントに属する前記ピクセルを検出するために、ワープ後に前記参照画像を比較するように構成される、請求項17に記載の装置。 - 前記プロセッサが、
前記参照画像における対応するピクセルとは異なる前記画像におけるピクセルを使用して、前景オブジェクト画像を生成し、
前記前景オブジェクト画像における前記前景オブジェクト上の前記関心ポイントに属するピクセルを検出する
ように構成されることによって、前記前景オブジェクト上の前記関心ポイントに属する前記ピクセルを検出するために、ワープ後に前記参照画像を比較するように構成される、請求項17に記載の装置。 - 前記プロセッサが、ワープ後に各ピクセルの差を生成するために前記画像におけるピクセルを前記参照画像における対応するピクセルから減算し、各ピクセルの前記差を閾値と比較するように構成されることによって、ワープ後に前記画像を前記参照画像と比較するように構成される、請求項17に記載の装置。
- 前記プロセッサが、ワープ後の前記画像および前記参照画像における対応するピクセルの比率を生成し、対応するピクセルについての前記比率を閾値と比較するように構成されることによって、ワープ後に前記画像を前記参照画像と比較するように構成される、請求項17に記載の装置。
- 前記プロセッサが、前記画像と前記参照画像との間のポーズを生成し、前記ポーズに基づいて前記画像および前記参照画像の一方をワープするように構成されることによって、前記画像および前記参照画像の前記少なくとも一方をワープするように構成される、請求項17に記載の装置。
- 前記プロセッサが、その後キャプチャされた画像を前記ディスプレイに表示させ、前記その後キャプチャされた画像における前記関心ポイントに基づいて前記オーグメンテーションを変えるようにさらに構成される、請求項17に記載の装置。
- 前記プロセッサが、前記オーグメンテーションが前記ディスプレイに表示される前記前景オブジェクトの下にあるかのように見えるように前記オーグメンテーションをレンダリングするように構成されることによって、前記ディスプレイに前記オーグメンテーションをレンダリングするように構成される、請求項17に記載の装置。
- 前記シーンが、関心ポイントを有する複数の前景オブジェクトを含み、前記プロセッサが、
ワープ後に前記画像を前記参照画像と比較することによって前記複数の前景オブジェクト上の前記関心ポイントに属するピクセルを検出し、
前記検出されたピクセルを使用して前記複数の前景オブジェクト上の前記関心ポイントを検出する
ようにさらに構成される、請求項17に記載の装置。 - 前記プロセッサが、
その後キャプチャされた画像における前記前景オブジェクト上の前記関心ポイントを追跡し、
前記前景オブジェクト上の前記関心ポイントの動きに基づいて時間的ジェスチャを検出し、
前記時間的ジェスチャと関連したアクションを実行する
ようにさらに構成される、請求項17に記載の装置。 - 前記プロセッサが、
前記前景オブジェクト上の前記関心ポイントの構成をジェスチャ構成のライブラリと比較し、
前記前景オブジェクト上の前記関心ポイントの前記構成からジェスチャを識別し、
前記ジェスチャと関連したアクションを実行する
ようにさらに構成される、請求項17に記載の装置。 - 前記カメラが、深さ情報を提供しない、請求項17に記載の装置。
- 前記プロセッサが、
その後キャプチャされた画像ごとに、前記シーンの前記その後キャプチャされた画像および前記参照画像の少なくとも一方をワープし、
前記前景オブジェクト上の前記関心ポイントに属するピクセルを検出するために、ワープ後に前記その後キャプチャされた画像を前記参照画像と比較し、
前記その後キャプチャされた画像における前記検出されたピクセルを使用して前記前景オブジェクト上の前記関心ポイントを検出する
ように構成されることによって、その後キャプチャされた画像における前記前景オブジェクトを追跡するように構成される、請求項17に記載の装置。 - 前記プロセッサが、前記関心ポイントに属する前記ピクセルに関して、オプティカルフローを使用するように構成されることによって、その後キャプチャされた画像における前記前景オブジェクトを追跡するように構成される、請求項17に記載の装置。
- シーンにアタッチしていない前景オブジェクトを含む前記シーンの画像をキャプチャするための手段であって、前記前景オブジェクトが、異なる物理的様相である関心ポイントを含む、手段と、
前記前景オブジェクトを含まない前記シーンの前記画像および参照画像の少なくとも一方を、前記画像および前記参照画像が同じビューを有するようにワープするための手段と、
前記前景オブジェクト上の前記関心ポイントに属するピクセルを検出するために、ワープ後に前記画像を前記参照画像と比較するための手段と、
前記検出されたピクセルを使用して前記前景オブジェクト上の前記関心ポイントを検出するための手段と、
前記画像をディスプレイに表示するための手段と、
前記関心ポイントに基づいて、前記ディスプレイで前記画像の上にオーグメンテーションをレンダリングするための手段と
を含む装置。 - 前景オブジェクト上の前記関心ポイントに属するピクセルを検出するために、ワープ後に前記画像を前記参照画像と比較することが、前景オブジェクトのためのマスクを生成し、前記装置が、前記マスクを使用して前記画像から前記前景オブジェクトをセグメント化するための手段をさらに含む、請求項33に記載の装置。
- 前記画像から前記前景オブジェクトを抽出するための手段をさらに含む、請求項33に記載の装置。
- 前記画像および前記参照画像の少なくとも一方をワープするための手段が、
前記画像と前記参照画像との間のポーズを生成するための手段と、
前記ポーズに基づいて前記画像および前記参照画像の一方をワープするための手段と
を含む、請求項33に記載の装置。 - ワープ後に前記画像を前記参照画像と比較するための前記手段が、ワープ後に各ピクセルの差を生成するために、前記画像におけるピクセルを前記参照画像における対応するピクセルから減算し、各ピクセルの前記差を閾値と比較する、請求項33に記載の装置。
- ワープ後に前記画像を前記参照画像と前記比較することが、ワープ後に前記画像および前記参照画像における対応するピクセルについての比率を生成し、対応するピクセルについての前記比率を閾値と比較する、請求項33に記載の装置。
- その後キャプチャされた画像を前記ディスプレイに表示するための手段と、
前記その後キャプチャされた画像における前記関心ポイントに基づいて前記オーグメンテーションを変えるための手段と
をさらに含む、請求項33に記載の装置。 - その後キャプチャされた画像における前記前景オブジェクト上の前記関心ポイントを追跡するための手段と、
前記前景オブジェクト上の前記関心ポイントの動きに基づいて時間的ジェスチャを検出するための手段と、
前記時間的ジェスチャと関連したアクションを実行するための手段と
をさらに含む、請求項33に記載の装置。 - プログラムコードが記憶された記憶媒体であって、
シーンにアタッチしていない前景オブジェクトを含む前記シーンの画像を受信するためのプログラムコードであって、前記前景オブジェクトが、異なる物理的様相である関心ポイントを含む、プログラムコードと、
前記前景オブジェクトを含まない前記シーンの前記画像および参照画像の少なくとも一方を、前記画像および前記参照画像が同じビューを有するようにワープするためのプログラムコードと、
前記前景オブジェクト上の前記関心ポイントに属するピクセルを検出するために、ワープ後に前記画像を前記参照画像と比較するためのプログラムコードと、
前記検出されたピクセルを使用して前記前景オブジェクト上の前記関心ポイントを検出するためのプログラムコードと、
前記画像をディスプレイに表示するためのプログラムコードと、
前記関心ポイントに基づいて、前記ディスプレイで前記画像の上にオーグメンテーションをレンダリングするためのプログラムコードと
を含む記憶媒体。 - 前記画像から前記前景オブジェクトを抽出するためのプログラムコードをさらに含む、請求項41に記載の記憶媒体。
- 前記画像および前記参照画像の少なくとも一方をワープするための前記プログラムコードが、
前記画像と前記参照画像との間のポーズを生成するためのプログラムコードと、
前記ポーズに基づいて前記画像および前記参照画像の一方をワープするためのプログラムコードと
を含む、請求項41に記載の記憶媒体。 - ワープ後に前記画像を前記参照画像と比較するための前記プログラムコードが、
ワープ後に各ピクセルの差を生成するために、前記参照画像における対応するピクセルから前記画像におけるピクセルを減算するためのプログラムコードと、
各ピクセルの前記差を閾値と比較するためのプログラムコードと
を含む、請求項41に記載の記憶媒体。 - ワープ後に前記画像を前記参照画像と比較するための前記プログラムコードが、
ワープ後に前記画像および前記参照画像における対応するピクセルについての比率を生成するためのプログラムコードと、
対応するピクセルについての前記比率を閾値と比較するためのプログラムコードと
を含む、請求項41に記載の記憶媒体。 - その後キャプチャされた画像を表示するためのプログラムコードと、
前記その後キャプチャされた画像における前記関心ポイントに基づいて前記オーグメンテーションを変えるためのプログラムコードと
をさらに含む、請求項41に記載の記憶媒体。 - その後キャプチャされた画像における前記前景オブジェクト上の前記関心ポイントを追跡するためのプログラムコードと、
前記前景オブジェクト上の前記関心ポイントの動きに基づいて時間的ジェスチャを検出するためのプログラムコードと、
前記時間的ジェスチャと関連したアクションを実行するためのプログラムコードと
をさらに含む、請求項41に記載の記憶媒体。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US13/733,740 US9076257B2 (en) | 2013-01-03 | 2013-01-03 | Rendering augmented reality based on foreground object |
| US13/733,740 | 2013-01-03 | ||
| PCT/US2013/073510 WO2014107261A1 (en) | 2013-01-03 | 2013-12-06 | Rendering augmented reality based on foreground object |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019125355A Division JP2019192288A (ja) | 2013-01-03 | 2019-07-04 | 前景オブジェクトに基づく拡張現実のレンダリング |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2016509293A true JP2016509293A (ja) | 2016-03-24 |
| JP2016509293A5 JP2016509293A5 (ja) | 2017-01-12 |
Family
ID=49887270
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015551683A Pending JP2016509293A (ja) | 2013-01-03 | 2013-12-06 | 前景オブジェクトに基づく拡張現実のレンダリング |
| JP2019125355A Pending JP2019192288A (ja) | 2013-01-03 | 2019-07-04 | 前景オブジェクトに基づく拡張現実のレンダリング |
Family Applications After (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019125355A Pending JP2019192288A (ja) | 2013-01-03 | 2019-07-04 | 前景オブジェクトに基づく拡張現実のレンダリング |
Country Status (6)
| Country | Link |
|---|---|
| US (1) | US9076257B2 (ja) |
| EP (1) | EP2941756B1 (ja) |
| JP (2) | JP2016509293A (ja) |
| KR (1) | KR20150103104A (ja) |
| CN (1) | CN104903934B (ja) |
| WO (1) | WO2014107261A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019125057A (ja) * | 2018-01-12 | 2019-07-25 | キヤノン株式会社 | 画像処理装置及びその方法、プログラム |
Families Citing this family (50)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
| US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
| US12260023B2 (en) | 2012-01-17 | 2025-03-25 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
| US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
| WO2014200589A2 (en) | 2013-03-15 | 2014-12-18 | Leap Motion, Inc. | Determining positional information for an object in space |
| JP6138566B2 (ja) * | 2013-04-24 | 2017-05-31 | 川崎重工業株式会社 | 部品取付作業支援システムおよび部品取付方法 |
| WO2015006784A2 (en) | 2013-07-12 | 2015-01-15 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
| US10295338B2 (en) | 2013-07-12 | 2019-05-21 | Magic Leap, Inc. | Method and system for generating map data from an image |
| CN105612083B (zh) * | 2013-10-09 | 2018-10-23 | 麦格纳覆盖件有限公司 | 对车窗显示的控制的系统和方法 |
| US20150185829A1 (en) * | 2013-12-27 | 2015-07-02 | Datangle, Inc. | Method and apparatus for providing hand gesture-based interaction with augmented reality applications |
| US9986225B2 (en) * | 2014-02-14 | 2018-05-29 | Autodesk, Inc. | Techniques for cut-away stereo content in a stereoscopic display |
| JP6314564B2 (ja) * | 2014-03-17 | 2018-04-25 | ソニー株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
| CN105320248B (zh) * | 2014-06-03 | 2018-12-07 | 深圳Tcl新技术有限公司 | 空中手势输入方法及装置 |
| CN104318218A (zh) * | 2014-10-29 | 2015-01-28 | 百度在线网络技术(北京)有限公司 | 图像识别方法和装置 |
| GB2532075A (en) * | 2014-11-10 | 2016-05-11 | Lego As | System and method for toy recognition and detection based on convolutional neural networks |
| AU2016250773A1 (en) | 2015-04-23 | 2017-10-12 | Hasbro, Inc. | Context-aware digital play |
| GB2539183A (en) * | 2015-06-02 | 2016-12-14 | Nokia Technologies Oy | A method, an apparatus, a computer program product for augmented reality |
| JP6755713B2 (ja) * | 2016-05-25 | 2020-09-16 | キヤノン株式会社 | 追尾装置、追尾方法及びプログラム |
| US10140776B2 (en) * | 2016-06-13 | 2018-11-27 | Microsoft Technology Licensing, Llc | Altering properties of rendered objects via control points |
| AU2017362507A1 (en) * | 2016-11-18 | 2018-11-22 | Eyedaptic, Inc. | Improved systems for augmented reality visual aids and tools |
| US20180144554A1 (en) | 2016-11-18 | 2018-05-24 | Eyedaptic, LLC | Systems for augmented reality visual aids and tools |
| US10242449B2 (en) | 2017-01-04 | 2019-03-26 | Cisco Technology, Inc. | Automated generation of pre-labeled training data |
| US10817724B2 (en) * | 2017-05-01 | 2020-10-27 | Microsoft Technology Licensing, Llc | Real time object surface identification for augmented reality environments |
| US20190012841A1 (en) | 2017-07-09 | 2019-01-10 | Eyedaptic, Inc. | Artificial intelligence enhanced system for adaptive control driven ar/vr visual aids |
| US10984508B2 (en) | 2017-10-31 | 2021-04-20 | Eyedaptic, Inc. | Demonstration devices and methods for enhancement for low vision users and systems improvements |
| CN107833264B (zh) * | 2017-11-13 | 2019-02-01 | 百度在线网络技术(北京)有限公司 | 一种图片处理方法、装置、设备和计算机可读存储介质 |
| CN111344716B (zh) * | 2017-11-14 | 2024-07-19 | 奇跃公司 | 经由单应性变换适应的全卷积兴趣点检测和描述 |
| JP7122815B2 (ja) * | 2017-11-15 | 2022-08-22 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
| KR102450948B1 (ko) * | 2018-02-23 | 2022-10-05 | 삼성전자주식회사 | 전자 장치 및 그의 증강 현실 객체 제공 방법 |
| US11563885B2 (en) | 2018-03-06 | 2023-01-24 | Eyedaptic, Inc. | Adaptive system for autonomous machine learning and control in wearable augmented reality and virtual reality visual aids |
| CN110264509B (zh) * | 2018-04-27 | 2022-10-14 | 腾讯科技(深圳)有限公司 | 确定图像捕捉设备的位姿的方法、装置及其存储介质 |
| KR102808439B1 (ko) | 2018-05-29 | 2025-05-14 | 아이답틱 인코포레이티드 | 저시력 사용자들을 위한 하이브리드 투시형 증강 현실 시스템들 및 방법들 |
| PE20211044A1 (es) | 2018-09-24 | 2021-06-03 | Ecolab Usa Inc | Metodos y composiciones para el beneficio de menas previo a la extraccion |
| CN118105238A (zh) | 2018-09-24 | 2024-05-31 | 爱达扩视眼镜公司 | 电子视觉辅助设备中自主增强的免手动控制 |
| WO2020106299A1 (en) | 2018-11-21 | 2020-05-28 | Hewlett-Packard Development Company, L.P. | Augmenting live images of a scene for occlusion |
| CN110221690B (zh) * | 2019-05-13 | 2022-01-04 | Oppo广东移动通信有限公司 | 基于ar场景的手势交互方法及装置、存储介质、通信终端 |
| GB201919027D0 (en) * | 2019-12-20 | 2020-02-05 | Move Ai Ltd | Method of inserting an object into a sequence of images |
| US11557065B2 (en) * | 2020-02-10 | 2023-01-17 | Fujifilm Business Innovation Corp. | Automatic segmentation for screen-based tutorials using AR image anchors |
| US11475661B2 (en) | 2020-02-10 | 2022-10-18 | Fujifilm Business Innovation Corp. | Systems and methods for augmented reality application for annotations and adding interfaces to control panels and screens |
| CN111444769B (zh) * | 2020-02-25 | 2022-07-01 | 华中科技大学 | 一种基于多尺度自适应随机森林的激光雷达检测人腿方法 |
| CN111444767B (zh) * | 2020-02-25 | 2022-06-21 | 华中科技大学 | 一种基于激光雷达的行人检测和追踪方法 |
| CN115552477B (zh) | 2020-05-01 | 2026-02-10 | 奇跃公司 | 采用施加的分层归一化的图像描述符网络 |
| US11574423B2 (en) * | 2021-01-29 | 2023-02-07 | Boomanity Corp. A Delaware Corporation | Augmented reality (AR) object communication and interaction system and method |
| KR102666871B1 (ko) | 2022-01-26 | 2024-05-20 | 한국전자통신연구원 | Ar 디바이스용 대용량 3차원 모델 출력 방법 및 장치 |
| CN114419073B (zh) * | 2022-03-09 | 2022-08-12 | 荣耀终端有限公司 | 一种运动模糊生成方法、装置和终端设备 |
| US12511848B2 (en) * | 2022-09-12 | 2025-12-30 | Snap Inc. | Deforming real-world object using image warping |
| US12099653B2 (en) | 2022-09-22 | 2024-09-24 | Apple Inc. | User interface response based on gaze-holding event assessment |
| US12405704B1 (en) | 2022-09-23 | 2025-09-02 | Apple Inc. | Interpreting user movement as direct touch user interface interactions |
| US12118200B1 (en) | 2023-06-02 | 2024-10-15 | Apple Inc. | Fuzzy hit testing |
| US12443286B2 (en) | 2023-06-02 | 2025-10-14 | Apple Inc. | Input recognition based on distinguishing direct and indirect user interactions |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002318652A (ja) * | 2001-04-20 | 2002-10-31 | Foundation For Nara Institute Of Science & Technology | 仮想入力装置およびプログラム |
| JP2009265809A (ja) * | 2008-04-23 | 2009-11-12 | Kddi Corp | 情報端末装置 |
| JP2011128220A (ja) * | 2009-12-15 | 2011-06-30 | Toshiba Corp | 情報提示装置、情報提示方法及びプログラム |
| JP2011198150A (ja) * | 2010-03-19 | 2011-10-06 | Fujifilm Corp | ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法 |
Family Cites Families (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2002093491A1 (en) | 2001-05-17 | 2002-11-21 | The Trustees Of Columbia University In The City Of New York | System and method for view management in three dimensional space |
| JP4136420B2 (ja) * | 2002-03-29 | 2008-08-20 | キヤノン株式会社 | 情報処理方法および装置 |
| JP4480083B2 (ja) | 2005-02-23 | 2010-06-16 | アイシン精機株式会社 | 物体認識装置 |
| DE102005009437A1 (de) * | 2005-03-02 | 2006-09-07 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Einblenden von AR-Objekten |
| JP4600760B2 (ja) | 2005-06-27 | 2010-12-15 | アイシン精機株式会社 | 障害物検出装置 |
| US8730156B2 (en) | 2010-03-05 | 2014-05-20 | Sony Computer Entertainment America Llc | Maintaining multiple views on a shared stable virtual space |
| US8026931B2 (en) * | 2006-03-16 | 2011-09-27 | Microsoft Corporation | Digital video effects |
| US8094943B2 (en) * | 2007-09-27 | 2012-01-10 | Behavioral Recognition Systems, Inc. | Background-foreground module for video analysis system |
| JP2009251702A (ja) * | 2008-04-02 | 2009-10-29 | Hiroyuki Hosoda | 情報処理装置、情報処理方法及び情報処理プログラム |
| FR2933218B1 (fr) | 2008-06-30 | 2011-02-11 | Total Immersion | Procede et dispositif permettant de detecter en temps reel des interactions entre un utilisateur et une scene de realite augmentee |
| JP4999794B2 (ja) * | 2008-07-04 | 2012-08-15 | 日本電信電話株式会社 | 静止領域検出方法とその装置、プログラム及び記録媒体 |
| US9069760B2 (en) * | 2010-08-24 | 2015-06-30 | Lg Electronics Inc. | Mobile terminal and controlling method thereof |
| US9013550B2 (en) | 2010-09-09 | 2015-04-21 | Qualcomm Incorporated | Online reference generation and tracking for multi-user augmented reality |
| US9495760B2 (en) * | 2010-09-20 | 2016-11-15 | Qualcomm Incorporated | Adaptable framework for cloud assisted augmented reality |
| US8860760B2 (en) * | 2010-09-25 | 2014-10-14 | Teledyne Scientific & Imaging, Llc | Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene |
| US8532340B2 (en) * | 2010-09-30 | 2013-09-10 | Empire Technology Development, Llc | Projecting patterns for high resolution texture extraction |
| JP5604256B2 (ja) * | 2010-10-19 | 2014-10-08 | 日本放送協会 | 人物動作検出装置およびそのプログラム |
| US20120117514A1 (en) * | 2010-11-04 | 2012-05-10 | Microsoft Corporation | Three-Dimensional User Interaction |
| US20120113223A1 (en) | 2010-11-05 | 2012-05-10 | Microsoft Corporation | User Interaction in Augmented Reality |
| JP5763965B2 (ja) * | 2011-05-11 | 2015-08-12 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
-
2013
- 2013-01-03 US US13/733,740 patent/US9076257B2/en not_active Expired - Fee Related
- 2013-12-06 EP EP13815262.4A patent/EP2941756B1/en active Active
- 2013-12-06 JP JP2015551683A patent/JP2016509293A/ja active Pending
- 2013-12-06 KR KR1020157020115A patent/KR20150103104A/ko not_active Abandoned
- 2013-12-06 CN CN201380069443.XA patent/CN104903934B/zh active Active
- 2013-12-06 WO PCT/US2013/073510 patent/WO2014107261A1/en not_active Ceased
-
2019
- 2019-07-04 JP JP2019125355A patent/JP2019192288A/ja active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002318652A (ja) * | 2001-04-20 | 2002-10-31 | Foundation For Nara Institute Of Science & Technology | 仮想入力装置およびプログラム |
| JP2009265809A (ja) * | 2008-04-23 | 2009-11-12 | Kddi Corp | 情報端末装置 |
| JP2011128220A (ja) * | 2009-12-15 | 2011-06-30 | Toshiba Corp | 情報提示装置、情報提示方法及びプログラム |
| JP2011198150A (ja) * | 2010-03-19 | 2011-10-06 | Fujifilm Corp | ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法 |
Non-Patent Citations (1)
| Title |
|---|
| MALIK, S: ""Hand Tracking for Interactive Pattern-based Augmented Reality"", PROCEEDINGS OF THE INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY (ISMAR'02), JPN6017039594, 30 September 2002 (2002-09-30), US, pages 117 - 126, ISSN: 0003986348 * |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019125057A (ja) * | 2018-01-12 | 2019-07-25 | キヤノン株式会社 | 画像処理装置及びその方法、プログラム |
| JP7094702B2 (ja) | 2018-01-12 | 2022-07-04 | キヤノン株式会社 | 画像処理装置及びその方法、プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| US20140184644A1 (en) | 2014-07-03 |
| US9076257B2 (en) | 2015-07-07 |
| CN104903934A (zh) | 2015-09-09 |
| CN104903934B (zh) | 2019-06-28 |
| EP2941756B1 (en) | 2021-03-17 |
| WO2014107261A1 (en) | 2014-07-10 |
| KR20150103104A (ko) | 2015-09-09 |
| JP2019192288A (ja) | 2019-10-31 |
| EP2941756A1 (en) | 2015-11-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2019192288A (ja) | 前景オブジェクトに基づく拡張現実のレンダリング | |
| CN110049206B (zh) | 图像处理方法、装置及计算机可读存储介质 | |
| JP5280503B2 (ja) | 画像表示方法、共有ボードシステム | |
| JP5381569B2 (ja) | ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム | |
| JP2016035775A (ja) | Rgbdカメラを用いた頭部ポーズ推定 | |
| US20070098218A1 (en) | Robust online face tracking | |
| KR20120054550A (ko) | 비디오 스트림에서 움직이고 있는 비정형 물체들을 실시간으로 검출 및 추적하여, 사용자가 컴퓨터 시스템과 상호 작용할 수 있게 해주는 방법 및 디바이스 | |
| KR101647969B1 (ko) | 사용자 시선을 검출하기 위한 사용자 시선 검출 장치 및 그 방법과, 그 방법을 실행하기 위한 컴퓨터 프로그램 | |
| EP2862146A1 (en) | Adaptive switching between a vision aided intertial camera pose estimation and a vision based only camera pose estimation | |
| KR20160042461A (ko) | 동적으로 변화하는 부분들을 갖는 타겟들을 추적하기 위한 데이터셋트 형성 | |
| WO2017081839A1 (ja) | 移動体追跡方法、移動体追跡装置、およびプログラム | |
| JP2017204280A (ja) | ビデオフレームを選択する方法、システム及び装置 | |
| US11587202B2 (en) | Method, apparatus or computer program for controlling image processing of a captured image of a scene to adapt the captured image | |
| Kim et al. | Interactive image segmentation using semi-transparent wearable glasses | |
| KR20150081797A (ko) | 객체 추적 장치 및 방법 | |
| Xiao et al. | Robust model adaption for colour-based particle filter tracking with contextual information | |
| Zhang et al. | Robust appearance-guided particle filter for object tracking with occlusion analysis | |
| Risha et al. | Gradient operator in video after object detection by optical flow and morphological operation | |
| Meenatchi et al. | Multiple object tracking and segmentation in video sequences | |
| Suriani et al. | Multi-agent event detection system using k-nearest neighbor classifier | |
| Wensheng et al. | Implementation of virtual mouse based on machine vision | |
| Rabhi et al. | Face tracking: state of the art | |
| Kulkarni et al. | Robust hand gesture recognition system using motion templates | |
| Sukanyathara et al. | An Optimized Framework for Detection and Tracking of Video Objects in Challenging Backgrounds | |
| JP2015088027A (ja) | 画像処理装置、画像処理方法、および画像処理プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161118 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161118 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171023 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180123 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180604 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180904 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190304 |