JP5833231B2 - デバイス相互作用を用いる空間情報の使用 - Google Patents
デバイス相互作用を用いる空間情報の使用 Download PDFInfo
- Publication number
- JP5833231B2 JP5833231B2 JP2014511406A JP2014511406A JP5833231B2 JP 5833231 B2 JP5833231 B2 JP 5833231B2 JP 2014511406 A JP2014511406 A JP 2014511406A JP 2014511406 A JP2014511406 A JP 2014511406A JP 5833231 B2 JP5833231 B2 JP 5833231B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- relative position
- information
- range
- computing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 73
- 230000009471 action Effects 0.000 claims description 25
- 230000004044 response Effects 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 5
- 230000005855 radiation Effects 0.000 claims description 5
- 238000005286 illumination Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 15
- 230000006399 behavior Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000015654 memory Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000013500 data storage Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B21/00—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
- G01B21/16—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring distance of clearance between spaced objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C1/00—Measuring angles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Description
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]電子デバイスの情報を管理する方法であって、
前記電子デバイスに対するユーザの相対位置を決定することと、
情報が処理されることになる前記相対位置についての範囲を選択することと、
前記選択された範囲にわたり情報を処理することと、
前記ユーザと前記電子デバイスとの間の動きを検出することに応答して、
前記検出された動きの少なくとも一部に基づいて、前記電子デバイスに対する前記ユーザの新しい相対位置を予測することと、前記新しい相対位置についての新しい範囲を選択することと、
前記選択された新しい範囲にわたり取り込まれた情報を用いて、前記検出された動きの後の前記ユーザの実際の相対位置を照合しようとすることと、を含む、方法。
[2]前記検出された動きは前記ユーザの動きに対応し、前記動きは、前記選択された範囲にわたり取り込まれた画像およびオーディオ情報のうちの少なくとも1つを用いて検出される、[1]に記載の方法。
[3]前記検出された動きは前記電子デバイスの動きに対応し、前記動きは、前記電子デバイスの加速度計、電子ジャイロスコープ、電子コンパス、および慣性センサのうちの少なくとも1つを用いて決定される、[1]に記載の方法。
[4]前記実際の相対位置は、前記選択された新しい範囲にわたり取り込まれた情報を用いて決定されることができず、また、
前記選択された新しい範囲のサイズを増やすことと、
前記増やされた新しい範囲にわたり取り込まれた情報を用いて、前記ユーザの前記実際の相対位置を照合しようとすることと、を更に含む、[1]に記載の方法。
[5]移動の経路を決定するために近時の期間にわたって前記電子デバイスについて記憶された動作情報を解析することと、
前記移動の経路を1組の既知の経路種類と比較することと、を更に含み、
前記電子デバイスに対する前記ユーザの前記新しい相対位置は、前記移動の経路に一致する既知の経路種類に少なくとも一部基づいて予測される、[1]に記載の方法。
[6]前記一致する既知の経路種類に対応する行動を決定することと、
前記決定された行動に少なくとも一部基づいて、前記電子デバイスの少なくとも1つの態様を調整することと、を更に含む、[5]に記載の方法。
[7]類似の移動の経路の前または後に前記ユーザによって取られた1つまたは複数の行動に少なくとも一部基づいて、前記移動の経路についての未知の経路種類を推定しようとすることを更に含む、[5]に記載の方法。
[8]特定のユーザについての動作の特定の経路を反映するために、既知の経路種類を調整することを更に含む、[5]に記載の方法。
[9]前記選択された新しい範囲にわたり取り込まれた前記情報は、画像情報またはオーディオ情報のうちの少なくとも1つを含む、[1]に記載の方法。
[10]前記選択された範囲にわたり情報を処理することは、前記選択された範囲の少なくとも一部にわたって照明光、赤外線放射、画像情報、およびオーディオ情報のうちの少なくとも1つを投影することを含む、[1]に記載の方法。
[11]コンピューティングデバイスであって、
プロセッサと、
少なくとも1つの取り込み要素と、
1組の動作を行うために、前記プロセッサによって実行されるように操作可能な命令を含む、メモリデバイスであって、前記コンピューティングデバイスが、
前記コンピューティングデバイスに対するユーザの相対位置を決定すること、
情報が処理されることになる前記相対位置についての範囲を選択すること、
前記選択された範囲にわたり情報を処理すること、および
前記ユーザと前記コンピューティングデバイスとの間の動きを検出することに応答して、
前記検出された動きに少なくとも一部基づいて、前記コンピューティングデバイスに対する前記ユーザの新しい相対位置を予測し、前記新しい相対位置についての新しい範囲を選択すること、および
前記選択された新しい範囲にわたり取り込まれた情報を用いて、前記検出された動きの後の前記ユーザの実際の相対位置を照合しようとすることを可能にするメモリデバイスと、を備える、コンピューティングデバイス。
[12]前記検出された動きは、前記選択された範囲にわたり取り込まれた画像およびオーディオ情報のうちの少なくとも1つを用いて検出された、前記ユーザの動きの少なくとも1つ、あるいは、前記コンピューティングデバイスの加速度計、電子ジャイロスコープ、電子コンパスおよび慣性センサのうちの少なくとも1つを用いて決定された、前記コンピューティングデバイスの動きに対応する、[11]に記載のコンピューティングデバイス。
[13]前記実際の相対位置は、前記選択された新しい範囲にわたり取り込まれた情報を用いて決定されることができず、および、前記命令は、実行されたときに更に、前記コンピューティングデバイスに、
前記選択された新しい範囲のサイズを増やさせ、
前記増やされた新しい範囲にわたり取り込まれた情報を用いて、前記ユーザの前記実際の相対位置を照合しようとさせる、[11]に記載のコンピューティングデバイス。
[14]前記命令は、実行されたときに更に、前記コンピューティングデバイスに、
移動の経路を決定するために近時の期間にわたって前記コンピューティングデバイスについて記憶された動作情報を解析させ、
前記移動の経路を1組の既知の経路種類と比較させ、
前記コンピューティングデバイスに対する前記ユーザの前記新しい相対位置は、前記移動の経路に一致する既知の経路種類に少なくとも一部基づいて予測される、[11]に記載のコンピューティングデバイス。
[15]前記命令は、実行されたときに更に、前記コンピューティングデバイスに、
前記一致する既知の経路種類に対応する行動を決定させ、
前記決定された行動に少なくとも一部基づいて前記電子デバイスの少なくとも1つの態様を調整させる、[14]に記載のコンピューティングデバイス。
付記1. 電子デバイスのユーザについての情報を取り込む方法であって、
前記電子デバイスの動作を検出することと、
前記動きについての情報を一時記憶装置に記憶することと、
前記検出された動作の後、前記電子デバイスに対する前記動作に対応する行動を決定しようとするために、前記記憶された情報を解析することと、
前記検出された動作に少なくとも一部基づいて前記電子デバイスに対するユーザの方向を予測することと、
前記電子デバイスから前記ユーザへの実際の方向を決定するために、前記電子デバイスの少なくとも1つの取り込み要素を用いて、前記ユーザの前記予測された方向を取り囲む角度範囲にわたり情報を取り込むことと、を含み、前記取り込まれた情報は、前記決定された行動によって少なくとも部分的に決定される、方法。
付記2. 前記角度範囲の大きさは、前記決定された行動によって少なくとも一部決定される、付記1に記載の方法。
付記3. 前記動作に対応する行動を決定することは、前記動作の経路を1組の経路と比較することを含み、各経路は関連付けられた行動に対応する、付記1に記載の方法。
付記4. 前記行動は、前記電子デバイスを筺体から取り出すこと、前記デバイスを置くこと、および前記デバイスを拾い上げることのうち少なくとも1つを含む、付記1に記載の方法。
付記5. 前記動作は、前記電子デバイスの加速度計、電子ジャイロスコープ、電子コンパス、および慣性センサのうちの少なくとも1つを用いて検出される、付記1に記載の方法。
付記6. 電子デバイス上の情報を管理する方法であって、
前記電子デバイスに対するユーザの相対位置を決定することと、
情報が処理されることになる前記相対位置についての範囲を選択することと、
前記選択された範囲にわたり情報を処理することと、
前記ユーザと前記電子デバイスとの間の動きを検出することに応答して、
前記検出された動きの少なくとも一部に基づいて、前記電子デバイスに対する前記ユーザの新しい相対位置を予測することと、前記新しい相対位置についての新しい範囲を選択することと、
前記選択された新しい範囲にわたり取り込まれた情報を用いて、前記検出された動きの後の前記ユーザの実際の相対位置を照合しようとすることと、を含む、方法。
付記7. 前記検出された動きは前記ユーザの動きに対応し、前記動きは、前記選択された範囲にわたり取り込まれた画像およびオーディオ情報のうちの少なくとも1つを用いて検出される、付記6に記載の方法。
付記8. 前記検出された動きは前記電子デバイスの動きに対応し、前記動きは、前記電子デバイスの加速度計、電子ジャイロスコープ、電子コンパス、および慣性センサのうちの少なくとも1つを用いて決定される、付記6に記載の方法。
付記9. 前記選択された範囲にわたり情報を処理することは、前記選択された範囲だけにわたり取り込まれた情報を処理すること、または前記選択された範囲に対応する取り込まれた情報だけを処理することを含む、付記6に記載の方法。
付記10. 前記選択された範囲は、前記電子デバイスと前記ユーザの前記相対位置との間の決定された方向についての角度範囲に対応する、付記6に記載の方法。
付記11. 前記実際の相対位置は、前記選択された新しい範囲にわたり取り込まれた情報を用いて決定されることができず、また、
前記選択された新しい範囲のサイズを増やすことと、
前記増やされた新しい範囲にわたり取り込まれた情報を用いて、前記ユーザの前記実際の相対位置を照合しようとすることと、を更に含む、付記6に記載の方法。
付記12. 前記実際の相対位置が決定されると、情報が処理されることになる前記実際の相対位置についての別の範囲を選択することを更に含む、付記6に記載の方法。
付記13. 移動の経路を決定するために近時の期間にわたって前記電子デバイスについて記憶された動作情報を解析することと、
前記移動の経路を1組の既知の経路種類と比較することと、を更に含み、
前記電子デバイスに対する前記ユーザの前記新しい相対位置は、前記移動の経路に一致する既知の経路種類に少なくとも一部基づいて予測される、付記6に記載の方法。
付記14. 前記一致する既知の経路種類に対応する行動を決定することと、
前記決定された行動に少なくとも一部基づいて、前記電子デバイスの少なくとも1つの態様を調整することと、を更に含む、付記13に記載の方法。
付記15. 類似の移動の経路の前または後に前記ユーザによって取られた1つまたは複数の行動に少なくとも一部基づいて、前記移動の経路についての未知の経路種類を推定しようとすることを更に含む、付記13に記載の方法。
付記16. 特定のユーザについての動作の特定の経路を反映するために既知の経路種類を調整することを更に含む、付記13に記載の方法。
付記17. 前記新しい相対位置についての新しい範囲を選択することは、前記新しい範囲に対応する少なくとも1つの取り込み要素を選択すること、または、範囲を特定することであって、少なくとも1つの取り込み要素が当該範囲にわたり情報を取り込むためのものである、範囲を特定することのうちの少なくとも1つを含む、付記6に記載の方法。
付記18. 前記少なくとも1つの取り込み要素は、前記電子デバイスに実質的に斜めの方向から情報を取り込むように、方向付けられる、付記17に記載の方法。
付記19. 前記選択された新しい範囲にわたり取り込まれた前記情報は、画像情報またはオーディオ情報のうちの少なくとも1つを含む、付記6に記載の方法。
付記20. 前記選択された範囲にわたり情報を処理することは、前記選択された範囲の少なくとも一部にわたって照明光、赤外線放射、画像情報、およびオーディオ情報のうちの少なくとも1つを投影することを含む、付記6に記載の方法。
付記21. コンピューティングデバイスであって、
プロセッサと、
少なくとも1つの取り込み要素と、
1組の動作を行うために、前記プロセッサによって実行されるように操作可能な命令を含む、メモリデバイスであって、前記コンピューティングデバイスが、
前記コンピューティングデバイスに対するユーザの相対位置を決定すること、
情報が処理されることになる前記相対位置についての範囲を選択すること、
前記選択された範囲にわたり情報を処理すること、および
前記ユーザと前記コンピューティングデバイスとの間の動きを検出することに応答して、
前記検出された動きに少なくとも一部基づいて、前記コンピューティングデバイスに対する前記ユーザの新しい相対位置を予測し、前記新しい相対位置についての新しい範囲を選択すること、および
前記選択された新しい範囲にわたり取り込まれた情報を用いて、前記検出された動きの後の前記ユーザの実際の相対位置を照合しようとすることを可能にするメモリデバイスと、を備える、コンピューティングデバイス。
付記22. 前記検出された動きは、前記選択された範囲にわたり取り込まれた画像およびオーディオ情報のうちの少なくとも1つを用いて検出された、前記ユーザの動きの少なくとも1つ、あるいは、前記コンピューティングデバイスの加速度計、電子ジャイロスコープ、電子コンパスおよび慣性センサのうちの少なくとも1つを用いて決定された、前記コンピューティングデバイスの動きに対応する、付記21に記載のコンピューティングデバイス。
付記23. 前記実際の相対位置は、前記選択された新しい範囲にわたり取り込まれた情報を用いて決定されることができず、および、前記命令は、実行されたときに更に、前記コンピューティングデバイスに、
前記選択された新しい範囲のサイズを増やさせ、
前記増やされた新しい範囲にわたり取り込まれた情報を用いて、前記ユーザの前記実際の相対位置を照合しようとさせる、付記21に記載のコンピューティングデバイス。
付記24. 前記命令は、実行されたときに更に、前記コンピューティングデバイスに、
移動の経路を決定するために近時の期間にわたって前記コンピューティングデバイスについて記憶された動作情報を解析させ、
前記移動の経路を1組の既知の経路種類と比較させ、
前記コンピューティングデバイスに対する前記ユーザの前記新しい相対位置は、前記移動の経路に一致する既知の経路種類に少なくとも一部基づいて予測される、付記21に記載のコンピューティングデバイス。
付記25. 前記命令は、実行されたときに更に、前記コンピューティングデバイスに、
前記一致する既知の経路種類に対応する行動を決定させ、
前記決定された行動に少なくとも一部基づいて前記電子デバイスの少なくとも1つの態様を調整させる、付記24に記載のコンピューティングデバイス。
付記26. コンピューティングデバイスを制御するためのプロセッサ実行可能命令を記憶する非一時的なコンピュータが読み出し可能な記憶媒体であって、
前記コンピューティングデバイスに対するユーザの相対位置を決定するためのプログラムコードと、
情報が処理されることになる前記相対位置についての範囲を選択するためのプログラムコードと、
前記選択された範囲にわたり情報を処理するためのプログラムコードと、
プログラムコードであって、前記ユーザと前記コンピューティングデバイスとの間の動きを検出することに応答して、
前記検出された動きに少なくとも一部基づいて、前記コンピューティングデバイスに対する前記ユーザの新しい相対位置を予測し、前記新しい相対位置についての新しい範囲を選択するための、および
前記選択された新しい範囲にわたり取り込まれた情報を用いて、前記検出された動きの後の前記ユーザの実際の相対位置を照合しようとするための、プログラムコードと、を備える、記憶媒体。
付記27. 移動の経路を決定するために近時の期間にわたって、前記コンピューティングデバイスについて記憶された動作情報を解析するためのプログラムコードと、
前記移動の経路を1組の既知の経路種類と比較するためのプログラムコードと、を更に備え、
前記コンピューティングデバイスに対する前記ユーザの前記新しい相対位置は、前記移動の経路に一致する既知の経路種類に少なくとも一部基づいて予測される、付記26に記載の非一時的なコンピュータが読み出し可能な記憶媒体。
付記28. 前記一致する既知の経路種類に対応する行動を決定するためのプログラムコードと、
前記決定された行動に少なくとも一部基づいて、前記電子デバイスの少なくとも1つの態様を調整するためのプログラムコードと、を更に備える、付記27に記載の非一時的なコンピュータが読み出し可能な記憶媒体。
Claims (15)
- 電子デバイスにおける、ユーザの相対位置を追跡するための方法において、
前記電子デバイスに関する、ユーザの第1の相対位置を決定することと、
前記ユーザからの情報を取り込むことになる、前記第1の相対位置についての範囲を、前記決定した第1の相対位置に基づいて選択することと、
前記第1の相対位置についての前記選択した範囲にわたり、前記ユーザからの情報を取り込むことと、
前記取り込んだ情報に基づいて、前記ユーザと前記電子デバイスとの間の動きを検出することに応答して、
前記検出した動きに基づいて、前記電子デバイスに関する、前記ユーザの第2の相対位置を予測することと、
前記ユーザの実際の第2の相対位置を決定するための情報を取り込むことになる、前記予測した第2の相対位置についての範囲を、前記予測した第2の相対位置に基づいて選択することと、
前記予測した第2の相対位置についての前記選択した範囲を含む視野を有する、前記電子デバイスの少なくとも1つの取り込み要素を選択することと、
前記少なくとも1つの取り込み要素を使用して、前記予測した第2の相対位置についての前記選択した範囲にわたり、前記実際の第2の相対位置を決定するための情報を取り込むことと、
前記少なくとも1つの取り込み要素を使用して取り込んだ情報に基づいて、前記実際の第2の相対位置を決定しようとすることとを含み、
前記予測した第2の相対位置についての前記選択した範囲は、前記ユーザが前記動きを生じさせることができる物理的位置の範囲に対応している方法。 - 前記動きは前記ユーザの動きに対応しており、前記動きは、前記第1の相対位置についての前記選択した範囲にわたり取り込んだ、画像情報とオーディオ情報とのうちの少なくとも1つを使用して検出される、請求項1に記載の方法。
- 前記動きは前記電子デバイスの動きに対応しており、前記動きは、前記電子デバイスの、加速度計と、電子ジャイロスコープと、電子コンパスと、慣性センサとのうちの少なくとも1つを使用して決定される、請求項1に記載の方法。
- 前記実際の第2の相対位置は、前記少なくとも1つの取り込み要素を使用して取り込んだ情報に基づいて決定することができず、
前記方法は、
前記電子デバイスの少なくとも1つの他の取り込み要素を選択することと、
前記少なくとも1つの取り込み要素と前記少なくとも1つの他の取り込み要素とを使用して、前記予測した第2の相対位置についての前記選択した範囲より広い範囲にわたり、前記実際の第2の相対位置を決定するための情報を取り込むことと、
前記少なくとも1つの取り込み要素と前記少なくとも1つの他の取り込み要素とを使用して取り込んだ情報に基づいて、前記ユーザの前記実際の第2の相対位置を決定しようとすることとを更に含む、請求項1に記載の方法。 - 予め定められた期間にわたって前記電子デバイスについて記憶した動作情報を解析して、前記電子デバイスの移動の経路を決定することと、
前記移動の経路を1組の既知の経路種類と比較することとを更に含み、
前記電子デバイスに関する、前記ユーザの前記第2の相対位置は、前記移動の経路に一致する既知の経路種類に基づいて予測される、請求項1に記載の方法。 - 前記既知の経路種類に対応する前記ユーザの行動を決定することと、
前記行動に基づいて、前記電子デバイスの少なくとも1つの態様を調整することとを更に含む、請求項5に記載の方法。 - 類似の移動の経路の前または後に前記ユーザによって取られた1つまたは複数の行動に基づいて、前記移動の経路に対する未知の経路種類を推定しようとすることを更に含む、請求項5に記載の方法。
- 既知の経路種類を調整して、特定のユーザについての動作の特定の経路を反映することを更に含む、請求項5に記載の方法。
- 前記少なくとも1つの取り込み要素を使用して取り込んだ情報は、画像情報またはオーディオ情報のうちの少なくとも1つを含む、請求項1に記載の方法。
- 前記第1の相対位置についての前記選択した範囲にわたり前記ユーザからの情報を取り込むことは、前記第1の相対位置についての前記選択した範囲の少なくとも一部にわたって、照明光と、赤外線放射と、画像情報と、オーディオ情報とのうちの少なくとも1つを投影することを含む、請求項1に記載の方法。
- コンピューティングデバイスにおいて、
プロセッサと、
少なくとも1つの取り込み要素と、
1組の動作を実行するために、前記プロセッサによって実行されるように動作可能な命令を含む、メモリデバイスにおいて、前記コンピューティングデバイスが、
前記コンピューティングデバイスに関する、ユーザの第1の相対位置を決定することと、
前記ユーザからの情報を取り込むことになる、前記第1の相対位置についての範囲を、前記決定した第1の相対位置に基づいて選択することと、
前記第1の相対位置についての前記選択した範囲にわたり、前記ユーザからの情報を取り込むことと、
前記取り込んだ情報に基づいて、前記ユーザと前記コンピューティングデバイスとの間の動きを検出することに応答して、
前記検出した動きに基づいて、前記コンピューティングデバイスに関する、前記ユーザの第2の相対位置を予測することと、
前記ユーザの実際の第2の相対位置を決定するための情報を取り込むことになる、前記予測した第2の相対位置についての範囲を、前記予測した第2の相対位置に基づいて選択することと、
前記予測した第2の相対位置についての前記選択した範囲を含む視野を有する、前記コンピューティングデバイスの少なくとも1つの取り込み要素を選択することと、
前記少なくとも1つの取り込み要素によって、前記予測した第2の相対位置についての前記選択した範囲にわたり、前記実際の第2の相対位置を決定するための情報を取り込むことと、
前記少なくとも1つの取り込み要素によって取り込んだ情報に基づいて、前記実際の第2の相対位置を決定しようとすることとを可能にするメモリデバイスとを具備し、
前記予測した第2の相対位置についての前記選択した範囲は、前記ユーザが前記動きを生じさせることができる物理的位置の範囲に対応しているコンピューティングデバイス。 - 前記検出した動きは、前記第1の相対位置についての前記選択した範囲にわたり取り込んだ、画像情報とオーディオ情報とのうちの少なくとも1つを使用して検出される、前記ユーザの動き、あるいは、前記コンピューティングデバイスの、加速度計と、電子ジャイロスコープと、電子コンパスと、慣性センサとのうちの少なくとも1つを使用して決定される、前記コンピューティングデバイスの動き、のうちの少なくとも1つに対応している、請求項11に記載のコンピューティングデバイス。
- 前記実際の第2の相対位置は、前記少なくとも1つの取り込み要素によって取り込んだ情報に基づいて決定することができず、
前記命令は、実行されたときに更に、前記コンピューティングデバイスに、
前記コンピューティングデバイスの少なくとも1つの他の取り込み要素を選択させ、
前記少なくとも1つの取り込み要素と前記少なくとも1つの他の取り込み要素とによって、前記予測した第2の相対位置についての前記選択した範囲より広い範囲にわたり、前記実際の第2の相対位置を決定するための情報を取り込ませ、
前記少なくとも1つの取り込み要素と前記少なくとも1つの他の取り込み要素とによって取り込んだ情報に基づいて、前記ユーザの前記実際の第2の相対位置を決定しようとさせる、請求項11に記載のコンピューティングデバイス。 - 前記命令は、実行されたときに更に、前記コンピューティングデバイスに、
予め定められた期間にわたって前記コンピューティングデバイスについて記憶した動作情報を解析させて、前記コンピューティングデバイスの移動の経路を決定させ、
前記移動の経路を1組の既知の経路種類と比較させ、
前記コンピューティングデバイスに関する、前記ユーザの前記第2の相対位置は、前記移動の経路に一致する既知の経路種類に基づいて予測される、請求項11に記載のコンピューティングデバイス。 - 前記命令は、実行されたときに更に、前記コンピューティングデバイスに、
前記既知の経路種類に対応する前記ユーザの行動を決定させ、
前記行動に基づいて前記コンピューティングデバイスの少なくとも1つの態様を調整させる、請求項14に記載のコンピューティングデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/107,692 US8843346B2 (en) | 2011-05-13 | 2011-05-13 | Using spatial information with device interaction |
US13/107,692 | 2011-05-13 | ||
PCT/US2012/037220 WO2012158439A1 (en) | 2011-05-13 | 2012-05-10 | Using spatial information with device interaction |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014520310A JP2014520310A (ja) | 2014-08-21 |
JP5833231B2 true JP5833231B2 (ja) | 2015-12-16 |
Family
ID=47142453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014511406A Active JP5833231B2 (ja) | 2011-05-13 | 2012-05-10 | デバイス相互作用を用いる空間情報の使用 |
Country Status (5)
Country | Link |
---|---|
US (3) | US8843346B2 (ja) |
EP (1) | EP2707835B1 (ja) |
JP (1) | JP5833231B2 (ja) |
CN (1) | CN103620620B (ja) |
WO (1) | WO2012158439A1 (ja) |
Families Citing this family (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101733443B1 (ko) | 2008-05-20 | 2017-05-10 | 펠리칸 이매징 코포레이션 | 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리 |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
EP2502115A4 (en) | 2009-11-20 | 2013-11-06 | Pelican Imaging Corp | RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER |
US20120012748A1 (en) | 2010-05-12 | 2012-01-19 | Pelican Imaging Corporation | Architectures for imager arrays and array cameras |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
US8957847B1 (en) | 2010-12-28 | 2015-02-17 | Amazon Technologies, Inc. | Low distraction interfaces |
US8661121B1 (en) * | 2011-04-11 | 2014-02-25 | Google Inc. | System and method for providing location reporting services |
KR101973822B1 (ko) | 2011-05-11 | 2019-04-29 | 포토네이션 케이맨 리미티드 | 어레이 카메라 이미지 데이터를 송신 및 수신하기 위한 시스템들 및 방법들 |
US8843346B2 (en) * | 2011-05-13 | 2014-09-23 | Amazon Technologies, Inc. | Using spatial information with device interaction |
TWI441042B (zh) * | 2011-07-01 | 2014-06-11 | Pixart Imaging Inc | 互動影像系統、互動控制裝置及其運作方法 |
US20130070060A1 (en) | 2011-09-19 | 2013-03-21 | Pelican Imaging Corporation | Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion |
EP2761534B1 (en) | 2011-09-28 | 2020-11-18 | FotoNation Limited | Systems for encoding light field image files |
US9661310B2 (en) * | 2011-11-28 | 2017-05-23 | ArcSoft Hanzhou Co., Ltd. | Image depth recovering method and stereo image fetching device thereof |
JP6044079B2 (ja) * | 2012-02-06 | 2016-12-14 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
EP2817955B1 (en) | 2012-02-21 | 2018-04-11 | FotoNation Cayman Limited | Systems and methods for the manipulation of captured light field image data |
JP2015534734A (ja) | 2012-06-28 | 2015-12-03 | ペリカン イメージング コーポレイション | 欠陥のあるカメラアレイ、光学アレイ、およびセンサを検出するためのシステムおよび方法 |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
EP3869797B1 (en) | 2012-08-21 | 2023-07-19 | Adeia Imaging LLC | Method for depth detection in images captured using array cameras |
US20140055632A1 (en) | 2012-08-23 | 2014-02-27 | Pelican Imaging Corporation | Feature based high resolution motion estimation from low resolution images captured using an array source |
EP2901671A4 (en) | 2012-09-28 | 2016-08-24 | Pelican Imaging Corp | CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW |
US20140152534A1 (en) * | 2012-12-03 | 2014-06-05 | Facebook, Inc. | Selectively Steer Light from Display |
US20140232640A1 (en) * | 2013-02-05 | 2014-08-21 | Umoove Services Ltd. | Dynamic range resetting |
US9462164B2 (en) | 2013-02-21 | 2016-10-04 | Pelican Imaging Corporation | Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information |
US9774789B2 (en) | 2013-03-08 | 2017-09-26 | Fotonation Cayman Limited | Systems and methods for high dynamic range imaging using array cameras |
US20140253430A1 (en) * | 2013-03-08 | 2014-09-11 | Google Inc. | Providing events responsive to spatial gestures |
US9519351B2 (en) | 2013-03-08 | 2016-12-13 | Google Inc. | Providing a gesture-based interface |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
WO2014164550A2 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
US9888194B2 (en) | 2013-03-13 | 2018-02-06 | Fotonation Cayman Limited | Array camera architecture implementing quantum film image sensors |
WO2014159779A1 (en) | 2013-03-14 | 2014-10-02 | Pelican Imaging Corporation | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
US9438888B2 (en) | 2013-03-15 | 2016-09-06 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
US9167375B2 (en) | 2013-06-06 | 2015-10-20 | Blackberry Limited | Device for detecting a carrying case using orientation signatures |
EP2811363B1 (en) * | 2013-06-06 | 2019-04-10 | BlackBerry Limited | Device for detecting a carrying case using orientation signatures |
US9389638B2 (en) | 2013-06-06 | 2016-07-12 | Blackberry Limited | Device for detecting a carrying case |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
WO2015048694A2 (en) | 2013-09-27 | 2015-04-02 | Pelican Imaging Corporation | Systems and methods for depth-assisted perspective distortion correction |
US9185276B2 (en) | 2013-11-07 | 2015-11-10 | Pelican Imaging Corporation | Methods of manufacturing array camera modules incorporating independently aligned lens stacks |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
WO2015081279A1 (en) | 2013-11-26 | 2015-06-04 | Pelican Imaging Corporation | Array camera configurations incorporating multiple constituent array cameras |
WO2015134996A1 (en) | 2014-03-07 | 2015-09-11 | Pelican Imaging Corporation | System and methods for depth regularization and semiautomatic interactive matting using rgb-d images |
EP3201877B1 (en) | 2014-09-29 | 2018-12-19 | Fotonation Cayman Limited | Systems and methods for dynamic calibration of array cameras |
US9903753B2 (en) * | 2015-01-13 | 2018-02-27 | Motorola Mobility Llc | Portable electronic device with dual, diagonal proximity sensors and mode switching functionality |
US10310593B2 (en) | 2015-04-01 | 2019-06-04 | Koninklijke Philips N.V. | Electronic mobile device |
CN106340063B (zh) | 2015-10-21 | 2019-04-12 | 北京智谷睿拓技术服务有限公司 | 共享方法及共享装置 |
US10979843B2 (en) | 2016-04-08 | 2021-04-13 | Qualcomm Incorporated | Spatialized audio output based on predicted position data |
US10659923B2 (en) | 2017-04-10 | 2020-05-19 | Here Global B.V. | Condition based accurate indoor positioning |
WO2019035843A1 (en) * | 2017-08-18 | 2019-02-21 | Hewlett-Packard Development Company, L.P. | MOTION-BASED FEED STATES |
EP3570207B1 (en) * | 2018-05-15 | 2023-08-16 | IDEMIA Identity & Security Germany AG | Video cookies |
EP3663181B1 (de) * | 2018-12-06 | 2021-06-02 | Amprio GmbH | Pedelec |
MX2022003020A (es) | 2019-09-17 | 2022-06-14 | Boston Polarimetrics Inc | Sistemas y metodos para modelado de superficie usando se?ales de polarizacion. |
KR20230004423A (ko) | 2019-10-07 | 2023-01-06 | 보스턴 폴라리메트릭스, 인크. | 편광을 사용한 표면 법선 감지 시스템 및 방법 |
WO2021108002A1 (en) | 2019-11-30 | 2021-06-03 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
US11195303B2 (en) | 2020-01-29 | 2021-12-07 | Boston Polarimetrics, Inc. | Systems and methods for characterizing object pose detection and measurement systems |
KR20220133973A (ko) | 2020-01-30 | 2022-10-05 | 인트린식 이노베이션 엘엘씨 | 편광된 이미지들을 포함하는 상이한 이미징 양식들에 대해 통계적 모델들을 훈련하기 위해 데이터를 합성하기 위한 시스템들 및 방법들 |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
Family Cites Families (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6204828B1 (en) | 1998-03-31 | 2001-03-20 | International Business Machines Corporation | Integrated gaze/manual cursor positioning system |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6577329B1 (en) | 1999-02-25 | 2003-06-10 | International Business Machines Corporation | Method and system for relevance feedback through gaze tracking and ticker interfaces |
US6208373B1 (en) * | 1999-08-02 | 2001-03-27 | Timothy Lo Fong | Method and apparatus for enabling a videoconferencing participant to appear focused on camera to corresponding users |
EP1285330B1 (en) * | 2000-05-11 | 2006-08-30 | Nes Stewart Irvine | Zeroclick |
JP2001339703A (ja) * | 2000-05-26 | 2001-12-07 | Nec Corp | テレビ会議システム及びテレビ会議システムに於けるカメラの制御装置並びにカメラの制御方法 |
JP3716194B2 (ja) * | 2001-08-02 | 2005-11-16 | Necアクセステクニカ株式会社 | 携帯電話装置およびその動作モード解除方法、並びにプログラム |
US6920376B2 (en) | 2002-10-31 | 2005-07-19 | Hewlett-Packard Development Company, L.P. | Mutually-immersive mobile telepresence system with user rotation and surrogate translation |
FI117217B (fi) | 2003-10-01 | 2006-07-31 | Nokia Corp | Menetelmä ja järjestelmä käyttöliittymän (User Interface) hallitsemiseksi, vastaava laite ja ohjelmalliset (Software) välineet menetelmän toteuttamiseksi |
US7181251B2 (en) | 2003-10-22 | 2007-02-20 | Nokia Corporation | Mobile communication terminal with multi orientation user interface |
US7280096B2 (en) | 2004-03-23 | 2007-10-09 | Fujitsu Limited | Motion sensor engagement for a handheld device |
CN100461212C (zh) * | 2004-06-04 | 2009-02-11 | 松下电器产业株式会社 | 显示控制方法及装置以及便携设备 |
KR100754385B1 (ko) | 2004-09-30 | 2007-08-31 | 삼성전자주식회사 | 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법 |
US7602942B2 (en) | 2004-11-12 | 2009-10-13 | Honeywell International Inc. | Infrared and visible fusion face recognition system |
US20090297062A1 (en) * | 2005-03-04 | 2009-12-03 | Molne Anders L | Mobile device with wide-angle optics and a radiation sensor |
NZ564851A (en) * | 2005-06-20 | 2009-11-27 | Lextar Pty Ltd | Directional surveillance camera with ring of directional detectors |
JP2007121970A (ja) | 2005-10-31 | 2007-05-17 | Toshiba Corp | 情報処理装置、およびその制御方法 |
US7701434B2 (en) | 2005-10-31 | 2010-04-20 | Research In Motion Limited | Automatic screen and keypad brightness adjustment on a mobile handheld electronic device |
US8736547B2 (en) * | 2006-04-20 | 2014-05-27 | Hewlett-Packard Development Company, L.P. | Method and system for interfacing a digital device with an interactive display surface |
JP4173513B2 (ja) * | 2006-06-12 | 2008-10-29 | ヤマザキマザック株式会社 | 機器移設有無検知装置及びその機器移設有無検知装置を備えた機器 |
JP4802112B2 (ja) * | 2007-02-08 | 2011-10-26 | 株式会社東芝 | トラッキング方法及びトラッキング装置 |
US20080280641A1 (en) * | 2007-05-11 | 2008-11-13 | Sony Ericsson Mobile Communications Ab | Methods and devices for generating multimedia content in response to simultaneous inputs from related portable devices |
JP4985142B2 (ja) * | 2007-06-26 | 2012-07-25 | 株式会社日本自動車部品総合研究所 | 画像認識装置および画像認識装置の画像認識処理方法 |
US20090054077A1 (en) * | 2007-08-23 | 2009-02-26 | Telefonaktiebolaget Lm Ericsson (Publ) | Method and apparatus for sending data relating to a target to a mobile device |
US8539357B2 (en) | 2007-11-21 | 2013-09-17 | Qualcomm Incorporated | Media preferences |
US8005272B2 (en) | 2008-01-03 | 2011-08-23 | International Business Machines Corporation | Digital life recorder implementing enhanced facial recognition subsystem for acquiring face glossary data |
US8166421B2 (en) | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
CA2714362A1 (en) | 2008-01-29 | 2009-08-06 | Enforcement Video, Llc | Omnidirectional camera for use in police car event recording |
US8467991B2 (en) * | 2008-06-20 | 2013-06-18 | Microsoft Corporation | Data services based on gesture and location information of device |
US8514251B2 (en) * | 2008-06-23 | 2013-08-20 | Qualcomm Incorporated | Enhanced character input using recognized gestures |
US20100079508A1 (en) | 2008-09-30 | 2010-04-01 | Andrew Hodge | Electronic devices with gaze detection capabilities |
US8788977B2 (en) * | 2008-11-20 | 2014-07-22 | Amazon Technologies, Inc. | Movement recognition as input mechanism |
US8199186B2 (en) * | 2009-03-05 | 2012-06-12 | Microsoft Corporation | Three-dimensional (3D) imaging based on motionparallax |
GB2470072B (en) * | 2009-05-08 | 2014-01-01 | Sony Comp Entertainment Europe | Entertainment device,system and method |
US8953029B2 (en) * | 2009-05-08 | 2015-02-10 | Sony Computer Entertainment America Llc | Portable device interaction via motion sensitive controller |
US8009022B2 (en) * | 2009-05-29 | 2011-08-30 | Microsoft Corporation | Systems and methods for immersive interaction with virtual objects |
US9086875B2 (en) * | 2009-06-05 | 2015-07-21 | Qualcomm Incorporated | Controlling power consumption of a mobile device based on gesture recognition |
JP2011018272A (ja) * | 2009-07-10 | 2011-01-27 | Nec Casio Mobile Communications Ltd | 端末装置およびプログラム |
US8312392B2 (en) * | 2009-10-02 | 2012-11-13 | Qualcomm Incorporated | User interface gestures and methods for providing file sharing functionality |
GB2474536B (en) | 2009-10-13 | 2011-11-02 | Pointgrab Ltd | Computer vision gesture based control of a device |
US8451312B2 (en) * | 2010-01-06 | 2013-05-28 | Apple Inc. | Automatic video stream selection |
US20110205148A1 (en) | 2010-02-24 | 2011-08-25 | Corriveau Philip J | Facial Tracking Electronic Reader |
US8913004B1 (en) * | 2010-03-05 | 2014-12-16 | Amazon Technologies, Inc. | Action based device control |
US8581844B2 (en) * | 2010-06-23 | 2013-11-12 | Google Inc. | Switching between a first operational mode and a second operational mode using a natural motion gesture |
US9274744B2 (en) * | 2010-09-10 | 2016-03-01 | Amazon Technologies, Inc. | Relative position-inclusive device interfaces |
KR101239336B1 (ko) * | 2011-03-04 | 2013-03-06 | 삼성중공업 주식회사 | 이동 장치의 이동 경로 생성 방법 |
US8451344B1 (en) * | 2011-03-24 | 2013-05-28 | Amazon Technologies, Inc. | Electronic devices with side viewing capability |
US8643680B2 (en) * | 2011-04-08 | 2014-02-04 | Amazon Technologies, Inc. | Gaze-based content display |
US20120259638A1 (en) * | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Apparatus and method for determining relevance of input speech |
US8843346B2 (en) * | 2011-05-13 | 2014-09-23 | Amazon Technologies, Inc. | Using spatial information with device interaction |
US8194926B1 (en) | 2011-10-05 | 2012-06-05 | Google Inc. | Motion estimation for mobile device user interaction |
-
2011
- 2011-05-13 US US13/107,692 patent/US8843346B2/en active Active
-
2012
- 2012-05-10 CN CN201280031631.9A patent/CN103620620B/zh active Active
- 2012-05-10 EP EP12785653.2A patent/EP2707835B1/en active Active
- 2012-05-10 JP JP2014511406A patent/JP5833231B2/ja active Active
- 2012-05-10 WO PCT/US2012/037220 patent/WO2012158439A1/en active Application Filing
-
2014
- 2014-09-22 US US14/493,292 patent/US20150019162A1/en not_active Abandoned
-
2021
- 2021-08-18 US US17/405,890 patent/US20210372788A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
EP2707835B1 (en) | 2019-04-03 |
EP2707835A1 (en) | 2014-03-19 |
CN103620620A (zh) | 2014-03-05 |
CN103620620B (zh) | 2017-06-09 |
JP2014520310A (ja) | 2014-08-21 |
US8843346B2 (en) | 2014-09-23 |
US20210372788A1 (en) | 2021-12-02 |
US20150019162A1 (en) | 2015-01-15 |
US20120290257A1 (en) | 2012-11-15 |
EP2707835A4 (en) | 2015-12-09 |
WO2012158439A1 (en) | 2012-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5833231B2 (ja) | デバイス相互作用を用いる空間情報の使用 | |
JP6342458B2 (ja) | ビデオにおける改良型の顔面認識 | |
US11100608B2 (en) | Determining display orientations for portable devices | |
US10139898B2 (en) | Distracted browsing modes | |
US9483113B1 (en) | Providing user input to a computing device with an eye closure | |
US9774780B1 (en) | Cues for capturing images | |
US9213436B2 (en) | Fingertip location for gesture input | |
US9268407B1 (en) | Interface elements for managing gesture control | |
US9377860B1 (en) | Enabling gesture input for controlling a presentation of content | |
US8451344B1 (en) | Electronic devices with side viewing capability | |
US9075514B1 (en) | Interface selection element display | |
JP2014519665A6 (ja) | ビデオにおける改良型の顔面認識 | |
US20160329006A1 (en) | Interactive integrated display and processing device | |
US9400575B1 (en) | Finger detection for element selection | |
US9350918B1 (en) | Gesture control for managing an image view display | |
US10082936B1 (en) | Handedness determinations for electronic devices | |
US9507429B1 (en) | Obscure cameras as input | |
US9160923B1 (en) | Method and system for dynamic information display using optical data | |
US9690384B1 (en) | Fingertip location determinations for gesture input | |
US9075615B2 (en) | Dynamic class loading |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150127 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150424 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151028 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5833231 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |