JP6515179B2 - ウェアラブル調整現実システムおよび方法 - Google Patents
ウェアラブル調整現実システムおよび方法 Download PDFInfo
- Publication number
- JP6515179B2 JP6515179B2 JP2017508677A JP2017508677A JP6515179B2 JP 6515179 B2 JP6515179 B2 JP 6515179B2 JP 2017508677 A JP2017508677 A JP 2017508677A JP 2017508677 A JP2017508677 A JP 2017508677A JP 6515179 B2 JP6515179 B2 JP 6515179B2
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- projector
- image
- information
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 54
- 238000004590 computer program Methods 0.000 claims description 10
- 230000000694 effects Effects 0.000 claims description 10
- 238000012937 correction Methods 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 claims description 6
- 238000003860 storage Methods 0.000 description 84
- 238000012545 processing Methods 0.000 description 66
- 230000015654 memory Effects 0.000 description 19
- 238000005516 engineering process Methods 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 10
- 230000011664 signaling Effects 0.000 description 10
- 230000008878 coupling Effects 0.000 description 9
- 238000010168 coupling process Methods 0.000 description 9
- 238000005859 coupling reaction Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 239000007787 solid Substances 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 230000005294 ferromagnetic effect Effects 0.000 description 6
- 238000003491 array Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 230000005291 magnetic effect Effects 0.000 description 4
- 230000014759 maintenance of location Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000003187 abdominal effect Effects 0.000 description 2
- 239000000872 buffer Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 229920000642 polymer Polymers 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000003801 milling Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
- H04N9/3173—Constructional details thereof wherein the projection device is specially adapted for enhanced portability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
Description
いくつかの例において、プロセッサコンポーネント110および/またはGPU120は、コンテキスト情報134に基づいて画像132を決定し得る。更に、プロセッサコンポーネント110は、コンテキスト情報134に基づいて表面300、および/または画像132を表面300に投影するための方法もしくは形式を決定し得る。概して、コンテキスト情報134は、ウェアラブルコンピューティングデバイス100、および/またはウェアラブルコンピューティングデバイスのユーザ、および/または周囲の環境の特定の「コンテキスト」についての複数の指標を含み得る。具体的には、コンテキスト情報134は、活動レベル、社会的環境、位置、近接コンピューティングデバイス、デバイスまたはユーザの環境、ユーザ特性(例えば、身長、体重、障害等)、ユーザの動き、日付/時間パラメータ、輸送パラメータ(例えば、自動車、航空機、自転車等)、デバイス特性、近接ユーザ、セーフティパラメータ、セキュリティパラメータ、認証パラメータ、センサ情報等の指標を含み得る。
いくつかの例において、処理コンポーネント110は、複数のセンサ読み取り値136および/またはカメラ出力150からライフロギング情報135を判断し得る。例えば、上述のように、複数のセンサ読み取り値は、カメラ150により撮像された複数の画像の指標を含み得る。処理コンポーネント110は、これらの画像に部分的に基づいてライフロギング情報135を判断し得る。例えば、プロセッサコンポーネント110は、アクセスされた複数の位置、複数のアイテム(例えば、キー、遠隔制御器、財布等)の配置を識別し、そのような情報の複数の指標をライフロギング情報135として格納し得る。
上述のように、処理コンポーネント110および/またはGPU120は、画像132を決定する。更に、処理コンポーネント110は、画像1232を投影するための表面を選択すると共に、様々な投影特性を決定する。例えば、処理コンポーネント110および/またはGPU120は、アプリケーションのユーザインタフェース要素、コンテキスト情報134、および/またはライフロギング情報135の1または複数に基づいて画像132を決定し得る。
Claims (34)
- ウェアラブルコンピューティングデバイスのための装置であって、
画像を投影するためのプロジェクタと、
出力を生成するためのセンサと、
前記プロジェクタおよび前記センサに動作可能に結合された投影コーディネータとを備え、
前記投影コーディネータは、
前記センサの出力に少なくとも部分的に基づいて視野を決定し、
前記センサの出力に部分的に基づく物体が配置された箇所の履歴を含むライフロギング情報に部分的に基づいて、前記プロジェクタに、前記物体を強調表示するインジケータを含む第1の画像を前記視野内の表面上に投影させるプロジェクタ制御指示を生成する、装置。 - 前記投影コーディネータは、前記ライフロギング情報に記録された進路を再追跡するように、前記プロジェクタに、進む方向を示すインジケータを含む第2の画像を前記視野内の表面上に投影させるプロジェクタ制御指示を生成する、請求項1に記載の装置。
- 前記表面は、前記プロジェクタが投影することができる表面のタイプに基づいて決定される、請求項1または2に記載の装置。
- 前記センサは、視標追跡デバイス、カメラ、または光検出器のうちの1または複数を更に有し、
前記投影コーディネータは、前記視標追跡デバイス、前記カメラ、または前記光検出器から受信された複数の信号に基づいて前記視野を決定する、請求項1から3のいずれか一項に記載の装置。 - 前記センサは、センサアレイであり、
前記センサアレイは、タッチ入力デバイスを含み、
前記投影コーディネータは、更に、前記タッチ入力デバイスから受信された複数の信号に部分的に基づいて前記プロジェクタ制御指示を生成する、請求項1から3のいずれか一項に記載の装置。 - 前記投影コーディネータに動作可能に結合されたカメラを備え、
前記投影コーディネータは、前記カメラにより撮像された画像に部分的に基づいて、社会的環境の指標を含むコンテキスト情報を生成し、前記社会的環境に部分的に基づいてプロジェクタ制御指示を生成する、請求項1から5のいずれか一項に記載の装置。 - 前記センサは、コンテキスト情報を生成し、
前記投影コーディネータは、前記コンテキスト情報に部分的に基づいてプロジェクタ制御指示を生成し、
前記センサは、ユーザの活動レベルを示す前記コンテキスト情報を生成するための加速度計を有し、または前記センサは、デバイスの位置を示す前記コンテキスト情報を生成するための全地球測位システム(GPS)センサを有する、請求項1から5のいずれか一項に記載の装置。 - 前記投影コーディネータに動作可能に結合された表面検出器を備え、
前記表面検出器は、前記装置に隣接する1または複数の表面を検出する、請求項1から5のいずれか一項に記載の装置。 - 前記投影コーディネータおよび前記表面検出器に動作可能に結合されたカメラを備え、
前記表面検出器は、前記カメラにより撮像された画像に基づいて前記1または複数の表面を検出する、請求項8に記載の装置。 - 前記投影コーディネータは、コンテキスト情報に少なくとも部分的に基づいて、検出された前記1または複数の表面から前記画像を投影するための表面を決定する、請求項9に記載の装置。
- 前記プロジェクタ制御指示は、向きの指標、キーストーン補正の指標、または最適なカラーパレットの指標のうちの少なくとも1つを含む、請求項1から10のいずれか1項に記載の装置。
- 前記視野は、デバイスのユーザにより認識することができる地理的範囲である、請求項1から11のいずれか1項に記載の装置。
- 複数の画像を投影するウェアラブルコンピューティングデバイスのための装置であって、
1または複数の表面を検出するための手段と、
センサからの出力に少なくとも部分的に基づいて、視野内で検出された前記1または複数の表面のうちの1つの表面を決定するための手段と、
前記センサの出力に部分的に基づく物体が配置された箇所の履歴を含むライフロギング情報に部分的に基づいて、プロジェクタに、前記物体を強調表示するインジケータを含む第1の画像を前記視野内の決定された前記表面上に投影させるプロジェクタ制御指示を生成するための手段とを備える、装置。 - 前記ライフロギング情報に記録された進路を再追跡するように前記プロジェクタに、進む方向を示すインジケータを含む第2の画像を前記視野内の決定された前記表面上に投影させるプロジェクタ制御指示を生成する手段を更に備える、請求項13に記載の装置。
- 前記表面は、前記プロジェクタが投影することができる表面のタイプに基づいて決定される、請求項13または14に記載の装置。
- 前記ライフロギング情報は、カメラにより撮像された画像に部分的に基づくデバイスの履歴の指標を含む、請求項13から15のいずれか一項に記載の装置。
- 更に、前記カメラにより撮像された前記画像において認識された物体に部分的に基づいて前記プロジェクタ制御指示を生成するための手段を備える、請求項16に記載の装置。
- 前記カメラにより撮像された前記画像に基づいて前記ライフロギング情報を判断するための手段を備える、請求項17に記載の装置。
- ネットワーク接続されたコンピューティングデバイスから前記ライフロギング情報を受信するための手段を備える、請求項13から18のいずれか1項に記載の装置。
- 認識された前記物体の指標をネットワーク接続されたコンピューティングデバイスから受信するための手段を備える、請求項13から19のいずれか一項に記載の装置。
- コンピュータに、
1または複数の表面を検出する手順と、
センサからの出力に少なくとも部分的に基づいて視野内で検出された前記1または複数の表面のうちの1つの表面を決定する手順と、
前記センサの出力に部分的に基づく物体が配置された箇所の履歴を含むライフロギング情報に部分的に基づいて、プロジェクタに、前記物体を強調表示するインジケータを含む第1の画像を前記視野内の決定された前記表面上に投影させるプロジェクタ制御指示を生成する手順とを実行させる、コンピュータプログラム。 - 前記ライフロギング情報に記録された進路を再追跡するように前記プロジェクタに、進む方向を示すインジケータを含む第2の画像を前記視野内の決定された前記表面上に投影させるプロジェクタ制御指示を生成する手順を前記コンピュータに更に実行させる、請求項21に記載のコンピュータプログラム。
- 前記表面は、前記プロジェクタが投影することができる表面のタイプに基づいて決定される、請求項21または22に記載のコンピュータプログラム。
- 更に、カメラにより撮像された画像に基づいて、前記コンピュータに前記1または複数の表面を検出する手順を実行させる、請求項21から23のいずれか一項に記載のコンピュータプログラム。
- 前記センサは、センサアレイであり、
前記センサアレイは、タッチ入力デバイスを含み、
更に前記タッチ入力デバイスから受信された複数の信号に部分的に基づいて、前記コンピュータに前記プロジェクタ制御指示を更に生成する手順を実行させる、請求項21から24のいずれか一項に記載のコンピュータプログラム。 - 前記センサは、加速度計であり、
コンテキスト情報は、装置の活動レベルの指標を含む、請求項21から25のいずれか一項に記載のコンピュータプログラム。 - 前記コンピュータに、ネットワーク接続されたコンピューティングデバイスからコンテキスト情報を更に受信する手順を実行させる、請求項21から26のいずれか一項に記載のコンピュータプログラム。
- 前記コンピュータに、コンテキストに少なくとも部分的に基づいて検出された前記1または複数の表面から前記表面を更に決定する手順を実行させる、請求項21から27のいずれか一項に記載のコンピュータプログラム。
- ウェアラブルコンピューティングデバイスにより実装される方法であって、
1または複数の表面を検出する段階と、
第1のセンサからの出力に基づいて視野を決定する段階と、
第2のセンサからの出力に少なくとも部分的に基づいて、前記視野内で検出された前記1または複数の表面のうちの1つの表面を決定する段階と、
前記第1のセンサまたは前記第2のセンサの出力に部分的に基づく物体が配置された箇所の履歴を含むライフロギング情報に部分的に基づいて、プロジェクタに、前記物体を強調表示するインジケータを含む第1の画像を前記視野内の決定された前記表面上に投影させるプロジェクタ制御指示を生成する段階とを備える、方法。 - 前記ライフロギング情報に記録された進路を再追跡するように、前記プロジェクタに、進む方向を示すインジケータを含む第2の画像を前記視野内の決定された前記表面上に投影させるプロジェクタ制御指示を生成する段階を更に備える、請求項29に記載の方法。
- 前記表面は、前記プロジェクタが投影することができる表面のタイプに基づいて決定される、請求項29または30に記載の方法。
- 前記ライフロギング情報は、カメラにより撮像された画像に部分的に基づく装置の履歴の指標を含む、請求項29から31のいずれか一項に記載の方法。
- 更に、前記カメラにより撮像された前記画像において認識された物体に部分的に基づいて前記プロジェクタ制御指示を生成する段階を備える、請求項32に記載の方法。
- 請求項21から28のいずれか1項に記載のコンピュータプログラムを格納するためのコンピュータ可読記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/494,146 | 2014-09-23 | ||
US14/494,146 US9924143B2 (en) | 2014-09-23 | 2014-09-23 | Wearable mediated reality system and method |
PCT/US2015/046223 WO2016048504A1 (en) | 2014-09-23 | 2015-08-21 | Wearable mediated reality system and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017535095A JP2017535095A (ja) | 2017-11-24 |
JP6515179B2 true JP6515179B2 (ja) | 2019-05-15 |
Family
ID=55526994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017508677A Active JP6515179B2 (ja) | 2014-09-23 | 2015-08-21 | ウェアラブル調整現実システムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9924143B2 (ja) |
EP (1) | EP3198860A4 (ja) |
JP (1) | JP6515179B2 (ja) |
KR (1) | KR102321132B1 (ja) |
CN (1) | CN106576156B (ja) |
TW (1) | TWI641968B (ja) |
WO (1) | WO2016048504A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105159539B (zh) * | 2015-09-10 | 2018-06-01 | 京东方科技集团股份有限公司 | 可穿戴设备的触控响应方法、装置及可穿戴设备 |
US10891574B2 (en) * | 2015-11-17 | 2021-01-12 | Target Brands, Inc. | Planogram resetting using augmented reality in a retail environment |
US10297085B2 (en) | 2016-09-28 | 2019-05-21 | Intel Corporation | Augmented reality creations with interactive behavior and modality assignments |
DE102017200484A1 (de) | 2017-01-13 | 2018-07-19 | Audi Ag | System zum Ausgeben eines Ausgabesignals an einen Nutzer |
CN107577344B (zh) * | 2017-09-01 | 2020-04-28 | 广州励丰文化科技股份有限公司 | 一种mr头显设备的互动模式切换控制方法及系统 |
EP3506661A1 (en) * | 2017-12-29 | 2019-07-03 | Nokia Technologies Oy | An apparatus, method and computer program for providing notifications |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10306578A1 (de) | 2003-02-17 | 2004-08-26 | Carl Zeiss | Anzeigevorrichtung mit elektrooptischer Fokussierung |
CN101770073B (zh) | 2003-12-03 | 2013-03-27 | 株式会社尼康 | 信息显示装置 |
JP4747575B2 (ja) * | 2003-12-26 | 2011-08-17 | 株式会社ニコン | 情報表示装置 |
JP2008527806A (ja) * | 2005-01-03 | 2008-07-24 | ブミー インコーポレイテッド | 夜間監視のシステムおよび方法 |
JP2007121600A (ja) * | 2005-10-27 | 2007-05-17 | Yokogawa Electric Corp | 画像情報表示装置 |
JP2008108246A (ja) * | 2006-10-23 | 2008-05-08 | Internatl Business Mach Corp <Ibm> | 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム |
TWI428726B (zh) * | 2007-08-13 | 2014-03-01 | Asustek Comp Inc | 可攜式電腦 |
JP5374906B2 (ja) * | 2008-04-07 | 2013-12-25 | 株式会社ニコン | プロジェクタ |
CN101488308B (zh) * | 2009-01-21 | 2011-01-26 | 东北大学 | 智能导游系统及方法 |
US9569001B2 (en) * | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
US8382295B1 (en) * | 2010-06-30 | 2013-02-26 | Amazon Technologies, Inc. | Optical assembly for electronic devices |
US9213405B2 (en) | 2010-12-16 | 2015-12-15 | Microsoft Technology Licensing, Llc | Comprehension and intent-based content for augmented reality displays |
EP3654147A1 (en) * | 2011-03-29 | 2020-05-20 | QUALCOMM Incorporated | System for the rendering of shared digital interfaces relative to each user's point of view |
US8558759B1 (en) * | 2011-07-08 | 2013-10-15 | Google Inc. | Hand gestures to signify what is important |
US9069164B2 (en) * | 2011-07-12 | 2015-06-30 | Google Inc. | Methods and systems for a virtual input device |
WO2013104988A1 (en) * | 2012-01-09 | 2013-07-18 | Epson Norway Research And Development As | Low interference system and method for synchronization, identification and tracking of visual and interactive systems |
US8736692B1 (en) * | 2012-07-09 | 2014-05-27 | Google Inc. | Using involuntary orbital movements to stabilize a video |
JP2014044166A (ja) * | 2012-08-28 | 2014-03-13 | Sharp Corp | 電子機器、進行方向提示方法およびプログラム |
JP5942840B2 (ja) * | 2012-12-21 | 2016-06-29 | ソニー株式会社 | 表示制御システム及び記録媒体 |
US9060127B2 (en) * | 2013-01-23 | 2015-06-16 | Orcam Technologies Ltd. | Apparatus for adjusting image capture settings |
US9475422B2 (en) * | 2014-05-22 | 2016-10-25 | Applied Invention, Llc | Communication between autonomous vehicle and external observers |
US10609267B2 (en) * | 2014-07-23 | 2020-03-31 | Orcam Technologies Ltd. | Systems and methods for analyzing advertisement effectiveness using wearable camera systems |
-
2014
- 2014-09-23 US US14/494,146 patent/US9924143B2/en not_active Expired - Fee Related
-
2015
- 2015-08-10 TW TW104125965A patent/TWI641968B/zh not_active IP Right Cessation
- 2015-08-21 EP EP15844039.6A patent/EP3198860A4/en not_active Withdrawn
- 2015-08-21 CN CN201580044985.0A patent/CN106576156B/zh active Active
- 2015-08-21 WO PCT/US2015/046223 patent/WO2016048504A1/en active Application Filing
- 2015-08-21 JP JP2017508677A patent/JP6515179B2/ja active Active
- 2015-08-21 KR KR1020177004691A patent/KR102321132B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
TW201621552A (zh) | 2016-06-16 |
CN106576156B (zh) | 2019-07-02 |
US20160088268A1 (en) | 2016-03-24 |
US9924143B2 (en) | 2018-03-20 |
WO2016048504A1 (en) | 2016-03-31 |
EP3198860A4 (en) | 2018-09-19 |
KR20170036725A (ko) | 2017-04-03 |
CN106576156A (zh) | 2017-04-19 |
KR102321132B1 (ko) | 2021-11-02 |
JP2017535095A (ja) | 2017-11-24 |
TWI641968B (zh) | 2018-11-21 |
EP3198860A1 (en) | 2017-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6515179B2 (ja) | ウェアラブル調整現実システムおよび方法 | |
US11587297B2 (en) | Virtual content generation | |
US11750770B2 (en) | Real time painting of a video stream | |
KR20210121182A (ko) | 증강 현실 시스템 | |
US11132842B2 (en) | Method and system for synchronizing a plurality of augmented reality devices to a virtual reality device | |
US11398205B2 (en) | Reducing latency in augmented reality (AR) displays | |
US20240031678A1 (en) | Pose tracking for rolling shutter camera | |
CN116261706A (zh) | 用于使用融合数据进行对象跟踪的系统和方法 | |
TW202326365A (zh) | 手持裝置的追蹤 | |
US9820513B2 (en) | Depth proximity layering for wearable devices | |
US20220375026A1 (en) | Late warping to minimize latency of moving objects | |
WO2022246384A1 (en) | Late warping to minimize latency of moving objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180903 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190212 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6515179 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |