JP2017505933A - 実在の物体上に固定された仮想画像を生成する方法及びシステム - Google Patents
実在の物体上に固定された仮想画像を生成する方法及びシステム Download PDFInfo
- Publication number
- JP2017505933A JP2017505933A JP2016535039A JP2016535039A JP2017505933A JP 2017505933 A JP2017505933 A JP 2017505933A JP 2016535039 A JP2016535039 A JP 2016535039A JP 2016535039 A JP2016535039 A JP 2016535039A JP 2017505933 A JP2017505933 A JP 2017505933A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- real
- world
- real world
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Optics & Photonics (AREA)
- Architecture (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Image Generation (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
・https://developer.vuforia.com/resources/dev-guide/vuforia-ar-architecture
・https://developer.vuforia.com/resources/dev-guide/distance-target
・http://docs.opencv.org/trunk/modules/tracking/doc/tracking.html
・http://docs.opencv.org/trunk/modules/imgproc/doc/feature detection.html
・http://www2.imm.dtu.dk/~aam/
・http://ils.intel-research.net/everydav-obiect-recognition
・https://software.intel.com/en-us/node/504462
・https://software.intelom/en-us/node/504442
・http://docs.opencv.org/modules/contrib/doc/facerec/facerec tutorial.html
・http://www.ri.cmu.edu/research project detail.html?project id=448&menu id=261
・http://www2.imm.dtu.dk/~aam/faces/
・http://kishordgupta.wordpress.com/2011/07/04/recognize-face-orientation-using-a-new-approach-based-on-eve-position-and-size-by-c/
・http://www.codeproiect.com/Articles/26897/TrackEye-Real-Time-Tracking-Of- Human-Eyes-Using-a
・http://www.ncbi.nlm.nih.gov/pubmed/23239074
・http://gazeparser.sourceforge.net/
・http://thume.ca/projects/2012/l1/04/simple-accurate-eye-center-tracking-in-opencv/
・3D現実世界の空間の空間データを有する1つ以上のデータフレームを取得する様に構成されたセンサセットであり、該センサセットは、上記3D現実世界の空間内の関連するセンシング領域及びセンサ視線を有する1つ以上のセンサを上記センサセット内に有し、上記センサ視線は、3D現実世界の座標系内の上記3D現実世界の空間内へ上記センサから延在するベクトルであり、上記センサセット内の少なくとも1つのセンサは、上記センサに対して固定された関連上向きベクトル(アップベクトル)を有し、 1つ以上のセンサ上向きベクトルは、データフレームの上向きベクトルを定義する;
・視覚装置または表示装置;
・プロセッサ及びメモリを有するコンピュータ処理部:
・上記メモリは、データフレーム内において検出すべき1つ以上の物体を示すデータを格納し、上記物体に対して固定された、所定の現実世界の基準点を、検出すべき物体毎に更に格納する;
・上記プロセッサは、以下の処理を実行する様に構成される:
1つ以上のデータフレームを分析し、かつ、検出すべき1つ以上の実在の物体が、現在の現実世界の表示錐台内に有るか否かを判定する処理;
上記現在の錐台内において、上記実在の物体の1つの少なくとも一部が検出された場合、上記現実世界の表示錐台に関連付けられた現実世界の座標系内において検出された実在の物体に関連付けられた現実世界の基準点の現実世界内の座標を、上記現在のデータフレームから特定する処理;
上記現実世界の表示錐台内の所定の点から生じる実在の物体ベクトルを、検出された実在の物体の上記現実世界の基準点に決定する処理;
上記現実世界の表示錐台に関する上記データフレームに関連付けられた重力ベクトルの位置を特定する処理;
3D仮想空間座標系、及び3D仮想空間内の位置を有する仮想3D空間を生成し、仮想表示錐体は、関連する仮想世界の視点を有し、関連する仮想表示錐台は、上記仮想の視点から生じる仮想視線の周囲に対称的に配置され、関連する仮想表示画面は、上記仮想上向きベクトルの仮想座標系内のx軸及びy軸が上記仮想表示画面に対して平行であり、かつ、z軸が上記仮想視線に対して平行である、上記仮想表示錐台の面及び関連する仮想上向きベクトルを生成する処理;
上記仮想物体の基準点を通過する基平面を、上記3D仮想空間内に生成し、上記基平面は、関連する2D座標系(x’,z’)を有する処理;
上記基平面上の、または、上記基平面に平行な1つ以上の平面状コンテンツ要素を、上記基平面上の1つ以上の所定の許容位置内に配置する処理;
上記3D仮想空間内に配置された上記コンテンツ要素を、投影された画像を生成するための上記仮想表示画面上に、投影する処理;
上記投影された画像を有する最終画像を生成する処理;及び
上記最終画像を、視覚装置または表示装置に表示させる処理。
1つ以上のデータフレームを分析し、かつ、検出すべき1つ以上の実在の物体が、現在の現実世界の表示錐台内に有るか否かを判定する工程;
上記現在の錐台内において、上記実在の物体の1つの少なくとも一部が検出された場合、上記現実世界の表示錐台に関連付けられた現実世界の座標系内において検出された実在の物体に関連付けられた現実世界の基準点の現実世界内の座標を、上記現在のデータフレームから特定する工程;
上記現実世界の表示錐台内の所定の点から生じる実在の物体ベクトルを、検出された実在の物体の上記現実世界の基準点に決定する工程;
上記現実世界の表示錐台に関する上記データフレームに関連付けられた重力ベクトルの位置を特定する工程;
3D仮想空間座標系、及び3D仮想空間内の位置を有する仮想3D空間を生成し、仮想表示錐体は、関連する仮想世界の視点を有し、関連する仮想表示錐台は、上記仮想の視点から生じる仮想視線の周囲に対称的に配置され、関連する仮想表示画面は、上記仮想上向きベクトルの仮想座標系内のx軸及びy軸が上記仮想表示画面に対して平行であり、かつ、z軸が上記仮想視線に対して平行である、上記仮想表示錐台の面及び関連する仮想上向きベクトルを生成する工程;
上記仮想物体の基準点を通過する基平面を、上記3D仮想空間内に生成し、上記基平面は、関連する2D座標系(x’,z’)を有する工程;
上記基平面上の、または、上記基平面に平行な1つ以上の平面状コンテンツ要素を、上記基平面上の1つ以上の所定の許容位置内に配置する工程。
4 センサ
5 重力センサ
6 CPU
7 センサセット
8 メモリ
10 プロセッサ
12 表示装置
60 実在の物体
62 現実世界の基準点
64 レンズ
65 幻像線
67 カメラの2Dセンサアレイ
68 現実世界の視線
69 焦点
71 現実世界の座標系
72 現実世界の上向きベクトル
80 カメラ
81 頭部装着型装置
82 携帯機器
83 頭部装着型表示装置
84 現実世界の基準点
90 ユーザ
91 現実世界の座標系
92 境界幻像線
93 現実世界の重力ベクトル
94 ユーザの現実世界の視線
95 ユーザの現実世界の上向きベクトル
106 基平面
110 平面状コンテンツ要素
114 投影された画像
116 最終画像
Claims (28)
- 映像コンテンツを生成及び表示するためのシステムであって、
3D現実世界の空間の空間データを有する1つ以上のデータフレームを取得する様に構成されたセンサセットを有し、該センサセットは、前記3D現実世界の空間内の関連するセンシング領域及びセンサ視線を有する1つ以上のセンサを前記センサセット内に有し、前記センサ視線は、3D現実世界の座標系内の前記3D現実世界の空間内へ前記センサから延在するベクトルであり、前記センサセット内の少なくとも1つのセンサは、前記センサに対して固定された関連上向きベクトル(アップベクトル)を有し、 1つ以上のセンサ上向きベクトルは、データフレームの上向きベクトルを定義する、
視覚装置または表示装置、
プロセッサ及びメモリを有するコンピュータ処理部を有し、
前記メモリは、データフレーム内において検出すべき1つ以上の物体を示すデータを格納し、前記物体に対して固定された、所定の現実世界の基準点を、検出すべき物体毎に更に格納し、
前記プロセッサは、
a.1つ以上のデータフレームを分析し、かつ、検出すべき1つ以上の実在の物体が、現在の現実世界の表示錐台内に有るか否かを判定する処理、
b.前記現在の錐台内において、前記実在の物体の1つの少なくとも一部が検出された場合、前記現実世界の表示錐台に関連付けられた現実世界の座標系内において検出された実在の物体に関連付けられた現実世界の基準点の現実世界内の座標を、現在のデータフレームから特定する処理、
c.前記現実世界の表示錐台内の所定の点から生じる実在の物体ベクトルを、検出された実在の物体の前記現実世界の基準点に決定する処理、
d.前記現実世界の表示錐台に関する前記データフレームに関連付けられた重力ベクトルの位置を特定する処理、
e.3D仮想空間座標系、及び3D仮想空間内の位置を有する仮想3D空間を生成し、仮想表示錐体は、関連する仮想世界の視点を有し、関連する仮想表示錐台は、前記仮想の視点から生じる仮想視線の周囲に対称的に配置され、関連する仮想表示画面は、前記仮想上向きベクトルの仮想座標系内のx軸及びy軸が前記仮想表示画面に対して平行であり、かつ、z軸が前記仮想視線に対して平行である、前記仮想表示錐台の面及び関連する仮想上向きベクトルを生成する処理、
f.前記仮想物体の基準点を通過する基平面を、前記3D仮想空間内に生成し、前記基平面は、関連する2D座標系(x’,z’)を有する処理、
g.前記基平面上の、または、前記基平面に平行な1つ以上の平面状コンテンツ要素を、前記基平面上の1つ以上の所定の許容位置内に配置する処理、
h.前記3D仮想空間内に配置された前記コンテンツ要素を、投影された画像を生成するための前記仮想表示画面上に、投影する処理、
i.前記投影された画像を有する最終画像を生成する処理、及び
j.前記最終画像を、前記視覚装置または前記表示装置に表示させる処理
を実行する様に構成されたシステム。 - 前記3D仮想空間は、前記現実世界の表示錐体を前記仮想表示錐体内に描き、現実世界の視点を前記仮想世界の視点上に描き、現実世界の視線を前記仮想世界の視線上に描き、前記現実世界の表示錐台を前記仮想表示錐台内に描き、前記現実世界の重力ベクトルを前記仮想重力ベクトルに描き、現実世界の上向きベクトルを前記仮想上向きベクトル上に描き、前記実在の画面を前記仮想表示画面上に描く所定の連続写像Gを用いて生成される、請求項1に記載のシステム。
- 前記写像Gは、前記実在の物体ベクトル及び前記現実世界の視線間の角度θが、前記仮想世界の物体ベクトル及び前記仮想視線間の角度と等しくなる様に、更には、前記現実世界の上向きベクトル及び前記現実世界の重力ベクトル間の角度φが、前記仮想世界の上向きベクトル及び前記仮想世界の重力ベクトル間の角度と等しくなる様に、選択される、請求項2に記載のシステム。
- 前記プロセッサは、更に、前記現実世界の視線及びユーザの視線間の所定の関係を考慮に入れた所定の変換により、前記実在の物体ベクトルを変換する様に構成される、請求項1〜3の内、何れか一項に記載のシステム。
- 前記基平面は、(1)前記基平面のx’軸が、前記仮想空間のx軸に平行であり、かつ、(2)前記基平面のx’軸及び前記仮想空間の座標系のy軸間の角度が、所定の角度であるか、または、所定の角度並びに前記xy平面上の重力ベクトルの投影及び正のy軸間の角度の合計値と同一であり、かつ、(3)z’軸及びz軸間の角度が、前記仮想視線及び前記仮想重力ベクトル間の角度β’から決定される様に、前記3D仮想空間内に配置される、請求項1〜4の内、何れか一項に記載のシステム。
- 前記基平面は、(1)前記基平面のz’軸が、前記y平面のy軸に平行であり、かつ、(2)前記基平面のz’軸及び前記仮想空間の座標系のy軸間の角度が、所定の角度であるか、または、所定の角度並びに前記xy平面上の重力ベクトルの投影及び正のy軸間の角度の合計値と同一であり、かつ、(3)x’軸及びz軸間の角度が、前記仮想視線及び前記仮想重力ベクトル間の角度β’から決定される様に、前記仮想空間内に配置される、請求項1〜4の内、何れか一項に記載のシステム。
- βが所定の定数閾値であり、かつ、αがβ’の連続の狭義単調増加関数である場合には、β’≦βが成立すると共に、β’が下方からβに接近している時にαがαの限界値と常に同一である場合には、β’≧βが成立する、請求項5または6に記載のシステム。
- 前記基平面上の許容位置は、平行な行と列の格子内に配置される、請求項1〜7の内、何れか一項に記載のシステム。
- 前記プロセッサは、更に、前記基平面の上部または近傍に、1つ以上の3Dコンテンツ要素を配置する様に構成される、請求項1〜8の内、何れか一項に記載のシステム。
- 前記3D仮想表示画面上への前記コンテンツ要素の投影は、透視投影によるものである、請求項1〜9の内、何れか一項に記載のシステム。
- 前記最終画像は、前記現在のデータフレームの少なくとも一部を含む、請求項1〜10の内、何れか一項に記載のシステム。
- 1つ以上の前記センサは、2Dカメラ、3Dカメラ、GPS位置送受信機、音波探知器、レーザ測距装置、赤外線探知器、近距離無線通信(NFC:Near Field Communication)信号、及びLIDAR装置を含むグループから、選択される、請求項1〜11の内、何れか一項に記載のシステム。
- データフレーム内において検出すべき前記1つ以上の物体を示す前記データは、物体の所定のリスト内の1つ以上の物体の描写、または、データフレーム内において検出すべき物体種別の基準を特定するデータである、請求項1〜12の内、何れか一項に記載のシステム。
- 前記データフレームが取得された時間から、データフレームの重力ベクトルを特定するために使用される重力場の現在の方向を示す時間依存性の信号を生成する様に構成された重力センサを更に有する、請求項1〜13の内、何れか一項に記載のシステム。
- 前記プロセッサは、更に、データフレームを分析し、該データフレームの分析結果からデータフレームの前記重力ベクトルを特定するソフトウェアを実行する様に構成される、請求項1〜14の内、何れか一項に記載のシステム。
- 前記システムは分散システムであり、かつ、前記システムの2つ以上の構成要素は、有線または無線のネットワークを介して、相互に通信を行う、請求項1〜15の内、何れか一項に記載のシステム。
- 少なくとも1つのセンサは、携帯型通信装置に関連付けられ、かつ、現実世界の基準点は、携帯機器上に固定されている、請求項1〜16の内、何れか一項に記載のシステム。
- 前記表示装置を有する、頭部に搭載可能な装置を更に有する、請求項17に記載のシステム。
- 前記プロセッサは、更に、前記携帯型通信装置に関連付けられた前記センサにより取得されたデータフレーム内の人の顔を特定する様に構成され、かつ、前記プロセッサは、更に、ユーザの顔がデータフレーム内に検出されると、該ユーザの現実世界の表示錐体を決定する様に構成される、請求項18に記載のシステム。
- 前記プロセッサは、更に、前記ユーザの現実世界の視点から生じ、かつ、前記ユーザの現実世界の表示画面の中心を通る、前記ユーザの現実世界の視点、前記ユーザの現実世界の上向きベクトル、前記ユーザの現実世界の表示画面、及び、前記ユーザの現実世界の視線、並びに、前記ユーザの現実世界の表示錐体内における所定の点から生じ、かつ、前記携帯型通信装置上に固定された前記現実世界の基準点を通る光線を決定する様に構成される、請求項19に記載のシステム。
- 前記ユーザの現実世界の表示錐体は、前記現実世界の表示錐体であり、
前記ユーザの現実世界の表示錐台は、前記現実世界の表示錐台であり、
前記ユーザの現実世界の視点は、前記現実世界の視点であり、
前記ユーザの現実世界の上向きベクトルは、前記現実世界の上向きベクトルであり、
前記ユーザの現実世界の表示画面は、前記現実世界の表示画面であり、
前記ユーザの現実世界の視線は、前記現実世界の視線であり、
前記ユーザの実在の物体ベクトルは、前記実在の物体ベクトルである、請求項20に記載のシステム。 - 前記プロセッサは、更に、データフレーム内における、ユーザの手及び該ユーザの手の輪郭の一方または双方の空間位置を検出する様に構成される、請求項1〜21の内、何れか一項に記載のシステム。
- 前記プロセッサは、更に、前記ユーザの手の一部分が、前記基平面内に配置される前記仮想表示画面及び幾つかのコンテンツ要素間の前記仮想表示錐台内に含まれる時を決定する様に構成される、請求項22に記載のシステム。
- 前記プロセッサは、更に、手の一部分により覆い隠される幾つかの領域を、投影されたコンテンツから除外する様に構成される、請求項23に記載のシステム。
- 前記プロセッサは、更に、1つ以上の手により行われる所定の手または指による身ぶりを識別し、該識別された身ぶりに関連付けられた所定の命令を実行する様に構成される、請求項23または24に記載のシステム。
- 前記プロセッサは、更に、
現在の現実世界の表示錐台内において検出すべき追加の実在の物体を検出し、
前記追加の実在の物体の現実世界の基準点から変換された仮想の基準点を通過する仮想空間内に追加の基平面を生成し、
前記追加の基平面上に追加のコンテンツ要素を配置し、
前記追加のコンテンツ要素を前記画面上に投影して、追加の投影された画像を生成し、
前記投影された画像を前記表示装置上に表示させる様に構成される、請求項17〜25の内、何れか一項に記載のシステム。 - 前記プロセッサは、コンテンツ要素を第1基平面及び第2基平面から移動させる命令を受信する様に構成される、請求項26に記載のシステム。
- 映像コンテンツを生成及び表示するための方法であって、
a.1つ以上のデータフレームを分析し、かつ、検出すべき1つ以上の実在の物体が、現在の現実世界の表示錐台内に有るか否かを判定する工程、
b.前記現在の錐台内において、前記実在の物体の1つの少なくとも一部が検出された場合、前記現実世界の表示錐台に関連付けられた現実世界の座標系内において検出された実在の物体に関連付けられた現実世界の基準点の現実世界内の座標を、前記現在のデータフレームから特定する工程、
c.前記現実世界の表示錐台内の所定の点から生じる実在の物体ベクトルを、検出された実在の物体の前記現実世界の基準点に決定する工程、
d.前記現実世界の表示錐台に関する前記データフレームに関連付けられた重力ベクトルの位置を特定する工程、
e.3D仮想空間座標系、及び3D仮想空間内の位置を有する仮想3D空間を生成し、仮想表示錐体は、関連する仮想世界の視点を有し、関連する仮想表示錐台は、前記仮想の視点から生じる仮想視線の周囲に対称的に配置され、関連する仮想表示画面は、前記仮想上向きベクトルの仮想座標系内のx軸及びy軸が前記仮想表示画面に対して平行であり、かつ、z軸が前記仮想視線に対して平行である、前記仮想表示錐台の面及び関連する仮想上向きベクトルを生成する工程、
前記仮想物体の基準点を通過する基平面を、前記3D仮想空間内に生成し、前記基平面は、関連する2D座標系(x’,z’)を有する工程、
f.前記基平面上の、または、前記基平面に平行な1つ以上の平面状コンテンツ要素を、前記基平面上の1つ以上の所定の許容位置内に配置する工程、
g.前記3D仮想空間内に配置された前記コンテンツ要素を、投影された画像を生成するための前記仮想表示画面上に、投影する工程、
h.前記投影された画像を有する最終画像を生成する工程、及び
i.前記最終画像を、視覚装置または表示装置に表示させる工程
を含む方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361908986P | 2013-11-26 | 2013-11-26 | |
US61/908,986 | 2013-11-26 | ||
PCT/IL2014/051028 WO2015079441A1 (en) | 2013-11-26 | 2014-11-26 | Method and system for constructing a virtual image anchored onto a real-world object |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017505933A true JP2017505933A (ja) | 2017-02-23 |
Family
ID=53198457
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016535039A Pending JP2017505933A (ja) | 2013-11-26 | 2014-11-26 | 実在の物体上に固定された仮想画像を生成する方法及びシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US9805509B2 (ja) |
EP (1) | EP3074954A4 (ja) |
JP (1) | JP2017505933A (ja) |
CN (1) | CN105934775B (ja) |
IL (1) | IL245863B (ja) |
WO (1) | WO2015079441A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3417307A4 (en) * | 2016-02-18 | 2019-09-11 | Edx Technologies, Inc. | SYSTEMS AND METHODS FOR AUGMENTED REALITY DISPLAYS OF NETWORKS |
CN106803988B (zh) * | 2017-01-03 | 2019-12-17 | 苏州佳世达电通有限公司 | 信息传送系统以及信息传送方法 |
US10591730B2 (en) | 2017-08-25 | 2020-03-17 | II Jonathan M. Rodriguez | Wristwatch based interface for augmented reality eyewear |
CN109559370A (zh) * | 2017-09-26 | 2019-04-02 | 华为技术有限公司 | 一种三维建模方法及装置 |
EP3495771A1 (en) * | 2017-12-11 | 2019-06-12 | Hexagon Technology Center GmbH | Automated surveying of real world objects |
US11232636B2 (en) * | 2018-02-08 | 2022-01-25 | Edx Technologies, Inc. | Methods, devices, and systems for producing augmented reality |
KR102122600B1 (ko) * | 2018-03-07 | 2020-06-12 | 매직 립, 인코포레이티드 | 주변 디바이스들의 시각적 추적 |
US11550095B2 (en) | 2018-10-26 | 2023-01-10 | Google Llc | Curved optical see-through thin freeform lightguide with large field of view in eyewear formfactor |
US11263615B2 (en) | 2019-03-01 | 2022-03-01 | Visa International Service Association | System, method, and computer program product for authentication by augmented reality for fraud prevention |
US11115468B2 (en) * | 2019-05-23 | 2021-09-07 | The Calany Holding S. À R.L. | Live management of real world via a persistent virtual world system |
CN110164440B (zh) * | 2019-06-03 | 2022-08-09 | 交互未来(北京)科技有限公司 | 基于捂嘴动作识别的语音交互唤醒电子设备、方法和介质 |
US10897564B1 (en) | 2019-06-17 | 2021-01-19 | Snap Inc. | Shared control of camera device by multiple devices |
CN111028342B (zh) * | 2019-12-16 | 2023-11-21 | 国网北京市电力公司 | 一种基于ar技术的物资堆叠方式的预估方法及装置 |
US11985175B2 (en) | 2020-03-25 | 2024-05-14 | Snap Inc. | Virtual interaction session to facilitate time limited augmented reality based communication between multiple users |
US11593997B2 (en) * | 2020-03-31 | 2023-02-28 | Snap Inc. | Context based augmented reality communication |
US11574447B2 (en) * | 2020-08-19 | 2023-02-07 | Htc Corporation | Method for capturing real-world information into virtual environment and related head-mounted device |
CN114485620B (zh) * | 2022-01-29 | 2023-07-28 | 中国科学院国家空间科学中心 | 融合轨道动力学的小行星探测器自主视觉定位系统及方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002366976A (ja) * | 2001-06-08 | 2002-12-20 | Fujitsu Ltd | オブジェクト表示プログラムおよびオブジェクト表示装置 |
JP2004527060A (ja) * | 2001-05-22 | 2004-09-02 | シエフイ,ヨアブ | 仮想3次元空間内の可視的コンテントを表示する方法とシステム |
US20090293012A1 (en) * | 2005-06-09 | 2009-11-26 | Nav3D Corporation | Handheld synthetic vision device |
WO2012127605A1 (ja) * | 2011-03-22 | 2012-09-27 | 株式会社うぶすな | 情報処理装置、及び情報処理方法 |
JP2012216077A (ja) * | 2011-03-31 | 2012-11-08 | Fujifilm Corp | 拡張現実感提供装置及び仮想物体の重畳方法 |
JP2013008257A (ja) * | 2011-06-27 | 2013-01-10 | Celsys:Kk | 画像合成プログラム |
JP2013077307A (ja) * | 2007-10-30 | 2013-04-25 | Canon Inc | 画像処理装置、画像処理方法 |
JP2013114491A (ja) * | 2011-11-29 | 2013-06-10 | Buffalo Inc | 情報表示装置及びプログラム |
JP2013208227A (ja) * | 2012-03-30 | 2013-10-10 | Konami Digital Entertainment Co Ltd | ゲーム装置、ゲーム装置の制御方法、及びプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050275915A1 (en) * | 2004-06-01 | 2005-12-15 | Vesely Michael A | Multi-plane horizontal perspective display |
JP2010033367A (ja) * | 2008-07-29 | 2010-02-12 | Canon Inc | 情報処理装置及び情報処理方法 |
JP2012510676A (ja) * | 2008-12-01 | 2012-05-10 | ビジュアル ドメインズ リミテッド | 仮想3次元空間に表示されたビジュアルコンテンツをブラウズするための方法およびシステム |
WO2012071463A2 (en) * | 2010-11-24 | 2012-05-31 | Aria Glassworks, Inc. | System and method for presenting virtual and augmented reality scenes to a user |
-
2014
- 2014-11-26 CN CN201480074085.6A patent/CN105934775B/zh active Active
- 2014-11-26 JP JP2016535039A patent/JP2017505933A/ja active Pending
- 2014-11-26 US US14/653,530 patent/US9805509B2/en active Active
- 2014-11-26 WO PCT/IL2014/051028 patent/WO2015079441A1/en active Application Filing
- 2014-11-26 EP EP14866068.1A patent/EP3074954A4/en not_active Withdrawn
-
2016
- 2016-05-25 IL IL245863A patent/IL245863B/en active IP Right Grant
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004527060A (ja) * | 2001-05-22 | 2004-09-02 | シエフイ,ヨアブ | 仮想3次元空間内の可視的コンテントを表示する方法とシステム |
JP2002366976A (ja) * | 2001-06-08 | 2002-12-20 | Fujitsu Ltd | オブジェクト表示プログラムおよびオブジェクト表示装置 |
US20090293012A1 (en) * | 2005-06-09 | 2009-11-26 | Nav3D Corporation | Handheld synthetic vision device |
JP2013077307A (ja) * | 2007-10-30 | 2013-04-25 | Canon Inc | 画像処理装置、画像処理方法 |
WO2012127605A1 (ja) * | 2011-03-22 | 2012-09-27 | 株式会社うぶすな | 情報処理装置、及び情報処理方法 |
JP2012216077A (ja) * | 2011-03-31 | 2012-11-08 | Fujifilm Corp | 拡張現実感提供装置及び仮想物体の重畳方法 |
JP2013008257A (ja) * | 2011-06-27 | 2013-01-10 | Celsys:Kk | 画像合成プログラム |
JP2013114491A (ja) * | 2011-11-29 | 2013-06-10 | Buffalo Inc | 情報表示装置及びプログラム |
JP2013208227A (ja) * | 2012-03-30 | 2013-10-10 | Konami Digital Entertainment Co Ltd | ゲーム装置、ゲーム装置の制御方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3074954A4 (en) | 2017-06-14 |
IL245863B (en) | 2021-02-28 |
EP3074954A1 (en) | 2016-10-05 |
CN105934775B (zh) | 2020-06-05 |
WO2015079441A1 (en) | 2015-06-04 |
US20160260256A1 (en) | 2016-09-08 |
CN105934775A (zh) | 2016-09-07 |
IL245863A0 (en) | 2016-07-31 |
US9805509B2 (en) | 2017-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9805509B2 (en) | Method and system for constructing a virtual image anchored onto a real-world object | |
KR102222974B1 (ko) | 홀로그램 스냅 그리드 | |
CN112926428B (zh) | 使用合成图像训练对象检测算法的方法和系统和存储介质 | |
US10095030B2 (en) | Shape recognition device, shape recognition program, and shape recognition method | |
JP5762892B2 (ja) | 情報表示システム、情報表示方法、及び情報表示用プログラム | |
US20210019036A1 (en) | On-the-fly adjustment of orientation of virtual objects | |
US9437038B1 (en) | Simulating three-dimensional views using depth relationships among planes of content | |
US9224237B2 (en) | Simulating three-dimensional views using planes of content | |
US11887246B2 (en) | Generating ground truth datasets for virtual reality experiences | |
US20180053352A1 (en) | Occluding augmented reality content or thermal imagery for simultaneous display | |
US10769437B2 (en) | Adaptive sampling of training views | |
US20180053055A1 (en) | Integrating augmented reality content and thermal imagery | |
US10948994B2 (en) | Gesture control method for wearable system and wearable system | |
KR102337209B1 (ko) | 주변 상황 정보를 통지하기 위한 방법, 전자 장치 및 저장 매체 | |
KR20160096392A (ko) | 직관적인 상호작용 장치 및 방법 | |
US9672588B1 (en) | Approaches for customizing map views | |
Cassinelli et al. | Smart laser-scanner for 3D human-machine interface | |
CN116097316A (zh) | 用于非模态中心预测的对象识别神经网络 | |
US20200234477A1 (en) | Conversion of 2d diagrams to 3d rich immersive content | |
KR100975128B1 (ko) | 뷰잉 프러스텀을 이용하여 객체에 대한 정보를 제공하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 | |
CN115191006B (zh) | 用于所显示的2d元素的3d模型 | |
Afif et al. | Orientation control for indoor virtual landmarks based on hybrid-based markerless augmented reality | |
US10296098B2 (en) | Input/output device, input/output program, and input/output method | |
JP2020509505A (ja) | 拡張現実を提供するための方法、装置及びコンピュータプログラム | |
WO2020185115A1 (ru) | Способ и система сбора информации для устройства совмещенной реальности в режиме реального времени |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180314 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180912 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181002 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20181228 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190402 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190716 |