JP2017508171A - モバイルデバイス上の深度センサの電力効率的な使用 - Google Patents
モバイルデバイス上の深度センサの電力効率的な使用 Download PDFInfo
- Publication number
- JP2017508171A JP2017508171A JP2016533129A JP2016533129A JP2017508171A JP 2017508171 A JP2017508171 A JP 2017508171A JP 2016533129 A JP2016533129 A JP 2016533129A JP 2016533129 A JP2016533129 A JP 2016533129A JP 2017508171 A JP2017508171 A JP 2017508171A
- Authority
- JP
- Japan
- Prior art keywords
- pose
- depth sensor
- sensor
- depth
- mobile device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005259 measurement Methods 0.000 claims abstract description 110
- 238000000034 method Methods 0.000 claims abstract description 41
- 230000001133 acceleration Effects 0.000 claims abstract description 10
- 230000015654 memory Effects 0.000 claims description 14
- 230000003287 optical effect Effects 0.000 claims description 10
- 239000002245 particle Substances 0.000 claims description 3
- 230000033001 locomotion Effects 0.000 abstract description 17
- 238000004364 calculation method Methods 0.000 description 21
- 238000012937 correction Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 239000013589 supplement Substances 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/325—Power saving in peripheral device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/25—Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/703—SSIS architectures incorporating pixels for producing signals other than image signals
- H04N25/705—Pixels for depth measurement, e.g. RGBZ
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Studio Devices (AREA)
- Telephone Function (AREA)
- Image Analysis (AREA)
- Adjustment Of Camera Lenses (AREA)
Abstract
Description
本出願は、その両方がそれらの全体において参照により本明細書に組み込まれている、2013年11月25日に出願した、「Power efficient use of a depth sensor on a mobile device」と題する米国仮出願第61/908,443号の米国特許法第119(e)条の下での利益および優先権を主張するものである、2014年11月24日に出願した、「Power efficient use of a depth sensor on a mobile device」と題する、米国出願第14/552,183号の利益および優先権を主張するものであり、それらの両方は、それらの全体において参照により本明細書に組み込まれている。
以下に説明するように、プロセッサ570は、1つまたは複数の汎用プロセッサまたは専用プロセッサであり得る。プロセッサ570は、第1の測定値を第1のしきい値と比較するための手段、第1の比較を設定するための手段、第1の比較に基づいて深度センサ540を有効にするための手段、第1の深度マップおよび第2の深度マップから深度センサポーズを計算するための手段、ならびに/または、ポーズ追跡フィルタモジュール322'に深度センサポーズを供給するための手段として機能することができる。プロセッサ570は、複数の画像のうちの少なくとも1つに少なくとも部分的に基づいてポーズを計算するための手段、ポーズ追跡フィルタモジュールにポーズを送信するための手段、第1の測定値が第1のしきい値を超えることを決定するために第1の測定値を第1のしきい値と比較するための手段、第1の測定値を比較することに少なくとも部分的に基づいて深度センサを有効にするための手段、および/または、第1の深度マップを受信するための手段として機能することができる。プロセッサ570は、第2の測定値が第1のしきい値を超えることを決定するために第2の測定値を第1のしきい値と比較するための手段、第2の測定値を比較することに基づいて深度センサを無効にするための手段、および/または、ポーズ追跡フィルタモジュールから推定されたポーズを計算するための手段として機能することができる。
110 カメラ
120 カメラベースポーズ決定モジュール
122 ポーズ追跡フィルタモジュール
200 モバイルデバイス
210 カメラ
220 カメラベースポーズ決定モジュール
222 ポーズ追跡フィルタモジュール
224 深度センサポーズ決定モジュール
240 深度センサ
300 モバイルデバイス
310 カメラ
320 カメラベースポーズ決定モジュール
322 ポーズ追跡フィルタモジュール
322' ポーズ追跡フィルタモジュール
324 深度センサベースポーズ決定モジュール
326 ポーズ切替えモジュール
328 深度センサトリガモジュール
340 深度センサ
410 カメラ
412 光センサ
428 深度センサトリガモジュール
430 加速度または速度モジュール
432 ノイズモジュール
434 光モジュール
436 不明瞭度モジュール
438 頻度モジュール
450 慣性センサ
500 モバイルデバイス
505 バス
510 カメラ
512 光センサ
540 深度センサ
542 IR(赤外線)プロジェクタ
544 IRセンサ
550 慣性センサ
560 他のセンサ
570 プロセッサ
580 メモリ
590 トランシーバ
910 バイアス決定モジュール
Claims (26)
- モバイルデバイスのポーズを追跡するためのモバイルデバイスにおける方法であって、前記方法が、
画像キャプチャデバイスから複数の画像を受信するステップと、
前記複数の画像のうちの1つに少なくとも部分的に基づいてポーズを計算するステップと、
ポーズ追跡フィルタモジュールに前記ポーズを送信するステップと、
第1の測定値が第1のしきい値を超えることを決定するために前記第1の測定値を前記第1のしきい値と比較するステップと、
前記第1の測定値を比較することに少なくとも部分的に基づいて深度センサを有効にするステップと、
第1の深度マップを受信するステップと、
前記第1の深度マップに部分的に基づいて深度センサポーズを計算するステップと、
前記ポーズ追跡フィルタモジュールに深度センサポーズを提供するステップと
を含む方法。 - 前記深度センサを無効にするステップをさらに含む、請求項1に記載の方法。
- 前記深度センサを無効にするステップが、
第2の測定値が前記第1のしきい値をもはや超えていないことを決定するために前記第2の測定値を前記第1のしきい値と比較するステップと、
前記第2の測定値を比較することに基づいて前記深度センサを無効にするステップと
を含む、請求項2に記載の方法。 - 第2の深度マップをキャプチャするステップをさらに含み、
前記第1の深度マップに部分的に基づいて前記深度センサポーズを計算するステップが、前記第1の深度マップおよび前記第2の深度マップから前記深度センサポーズを計算するステップを含む、請求項1に記載の方法。 - 前記第1の測定値が、慣性センサ測定値から得られた角速度のレートまたは角加速度のレートを含む、請求項1に記載の方法。
- 前記第1の測定値が、慣性センサ測定値のノイズレベルを含む、請求項1に記載の方法。
- 前記第1の測定値が、光レベルを含む、請求項1に記載の方法。
- 前記第1の測定値が、不明瞭度の指示である、請求項1に記載の方法。
- 前記第1の測定値が、画像のフレームレートである、請求項1に記載の方法。
- 前記ポーズ追跡フィルタモジュールが、拡張カルマンフィルタ(EKF)を備える、請求項1に記載の方法。
- 前記ポーズ追跡フィルタモジュールが、粒子フィルタを備える、請求項1に記載の方法。
- 前記ポーズ追跡フィルタモジュールからの推定されたポーズを計算するステップをさらに含む、請求項1に記載の方法。
- ポーズを追跡するためのモバイルデバイスであって、前記モバイルデバイスが、
複数の画像をキャプチャするように構成された画像キャプチャデバイスと、
前記画像キャプチャデバイスに結合され、前記複数の画像のうちの1つに少なくとも部分的に基づいてポーズを計算するように構成されたポーズモジュールと、
第1の深度マップを送信するように構成された深度センサと、
第1の測定値が第1のしきい値を超えることを決定するために前記第1の測定値を前記第1のしきい値と比較するように構成された比較器モジュールと、
前記深度センサおよび前記比較器モジュールに結合され、前記第1の測定値を比較することに少なくとも部分的に基づいて前記深度センサを有効にするように構成された深度センサトリガモジュールと、
前記深度センサに結合され、前記第1の深度マップに部分的に基づいて深度センサポーズを計算するように構成された深度センサポーズモジュールと、
前記ポーズモジュールおよび前記深度センサポーズモジュールに結合され、
前記ポーズおよび前記深度センサポーズを受信し、かつ、
推定されたポーズを提供するように構成された
ポーズ追跡フィルタモジュールと
を備える、モバイルデバイス。 - 慣性センサをさらに備え、前記第1の測定値が、前記慣性センサからの測定値を含む、請求項13に記載のモバイルデバイス。
- 光センサをさらに備え、前記第1の測定値が、前記光センサからの測定値を含む、請求項13に記載のモバイルデバイス。
- 前記第1の測定値が、前記画像キャプチャデバイスからのぼけの指示を含む、請求項13に記載のモバイルデバイス。
- 前記第1の測定値が、前記画像キャプチャデバイスからの画像のフレームレートを含む、請求項13に記載のモバイルデバイス。
- 前記画像キャプチャデバイスおよび前記深度センサに結合されたプロセッサとメモリとをさらに備え、前記メモリが、
前記比較器モジュール、
前記深度センサトリガモジュール、
前記深度センサポーズモジュール、および、
前記ポーズ追跡フィルタモジュール
のためのコードを含む、請求項13に記載のモバイルデバイス。 - モバイルデバイスのポーズを追跡するための前記モバイルデバイスであって、前記モバイルデバイスが、
画像キャプチャデバイスから複数の画像を受信するための手段と、
前記複数の画像のうちの1つに少なくとも部分的に基づいてポーズを計算するための手段と、
ポーズ追跡フィルタモジュールに前記ポーズを送信するための手段と、
第1の測定値が第1のしきい値を超えることを決定するために前記第1の測定値を前記第1のしきい値と比較するための手段と、
前記第1の測定値を比較することに少なくとも部分的に基づいて深度センサを有効にするための手段と、
第1の深度マップを受信するための手段と、
前記第1の深度マップに部分的に基づいて深度センサポーズを計算するための手段と、
前記ポーズ追跡フィルタモジュールに前記深度センサポーズを提供するための手段と
を備えるモバイルデバイス。 - 第2の測定値が前記第1のしきい値を超えることを決定するために前記第2の測定値を前記第1のしきい値と比較するための手段と、
前記第2の測定値を比較することに基づいて前記深度センサを無効にするための手段と
を備える前記深度センサを無効にするための手段をさらに備える、請求項19に記載のモバイルデバイス。 - 前記第1の測定値が、
慣性センサ測定値からの直線加速度のレート、
慣性センサ測定値からの角加速度のレート、
慣性センサ測定値のノイズレベル、
光レベル、
不明瞭度の指示、または、
画像のフレームレート
のうちの少なくとも1つを含む、請求項19に記載のモバイルデバイス。 - 前記ポーズ追跡フィルタモジュールからの推定されたポーズを計算するための手段をさらに備える、請求項19に記載のモバイルデバイス。
- モバイルデバイスのポーズを追跡するための前記モバイルデバイスのためのプログラムコードを記憶した非一時的コンピュータ可読記憶媒体であって、前記プログラムコードが、
画像キャプチャデバイスから複数の画像を受信し、
前記複数の画像のうちの1つに少なくとも部分的に基づいてポーズを計算し、
ポーズ追跡フィルタモジュールに前記ポーズを送信し、
第1の測定値が第1のしきい値を超えることを決定するために前記第1の測定値を前記第1のしきい値と比較し、
前記第1の測定値を比較することに少なくとも部分的に基づいて深度センサを有効にし、
第1の深度マップを受信し、
前記第1の深度マップに部分的に基づいて深度センサポーズを計算し、
前記ポーズ追跡フィルタモジュールに前記深度センサポーズを提供する
ためのコードを備える、非一時的コンピュータ可読記憶媒体。 - 前記第1の測定値が、
慣性センサ測定値からの直線化速度のレート、
慣性センサ測定値からの角加速度のレート、
慣性センサ測定値のノイズレベル、
光レベル、
不明瞭度の指示、または、
画像のフレームレート
のうちの少なくとも1つを含む、請求項23に記載の非一時的コンピュータ可読記憶媒体。 - 前記プログラムコードが、前記ポーズ追跡フィルタモジュールからの推定されたポーズを計算するためのコードをさらに備える、請求項23に記載の非一時的コンピュータ可読記憶媒体。
- 前記プログラムコードが、
第2の比較を設定するために、第2の測定値を前記第1のしきい値と比較し、
前記第2の比較に基づいて前記深度センサを無効にする
ためのコードをさらに備える、請求項23に記載の非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361908443P | 2013-11-25 | 2013-11-25 | |
US61/908,443 | 2013-11-25 | ||
US14/552,183 US9336440B2 (en) | 2013-11-25 | 2014-11-24 | Power efficient use of a depth sensor on a mobile device |
US14/552,183 | 2014-11-24 | ||
PCT/US2014/067432 WO2015077778A1 (en) | 2013-11-25 | 2014-11-25 | Power efficient use of a depth sensor on a mobile device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017508171A true JP2017508171A (ja) | 2017-03-23 |
JP2017508171A5 JP2017508171A5 (ja) | 2019-01-17 |
JP6490689B2 JP6490689B2 (ja) | 2019-03-27 |
Family
ID=52146706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016533129A Expired - Fee Related JP6490689B2 (ja) | 2013-11-25 | 2014-11-25 | モバイルデバイス上の深度センサの電力効率的な使用 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9336440B2 (ja) |
EP (1) | EP3075143B1 (ja) |
JP (1) | JP6490689B2 (ja) |
KR (1) | KR102065533B1 (ja) |
CN (1) | CN105706438B (ja) |
WO (1) | WO2015077778A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019187167A1 (ja) * | 2018-03-31 | 2019-10-03 | 株式会社スペシャルエフエックススタジオ | 端末の表示画像の表示法 |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9083960B2 (en) * | 2013-01-30 | 2015-07-14 | Qualcomm Incorporated | Real-time 3D reconstruction with power efficient depth sensor usage |
KR102214193B1 (ko) * | 2014-03-25 | 2021-02-09 | 삼성전자 주식회사 | 깊이 카메라 장치, 그것을 구비한 3d 영상 디스플레이 시스템 및 그 제어방법 |
US10009598B2 (en) * | 2015-05-01 | 2018-06-26 | Dell Products L.P. | Dynamic mode switching of 2D/3D multi-modal camera for efficient gesture detection |
KR102336879B1 (ko) * | 2015-05-20 | 2021-12-08 | 삼성전자주식회사 | 화면을 표시하는 전자 장치, 그 제어 방법 |
US10873726B1 (en) * | 2015-06-29 | 2020-12-22 | Amazon Technologies, Inc. | Management of sensor failure in a facility |
US11069082B1 (en) * | 2015-08-23 | 2021-07-20 | AI Incorporated | Remote distance estimation system and method |
US11935256B1 (en) | 2015-08-23 | 2024-03-19 | AI Incorporated | Remote distance estimation system and method |
JP6944441B2 (ja) | 2015-09-25 | 2021-10-06 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 3次元再構成において構造特徴を検出し、組み合わせるための方法およびシステム |
US9800795B2 (en) | 2015-12-21 | 2017-10-24 | Intel Corporation | Auto range control for active illumination depth camera |
US10565723B2 (en) * | 2016-02-02 | 2020-02-18 | Samsung Electronics Co., Ltd. | Systems and methods for drift correction |
KR102406327B1 (ko) * | 2016-02-02 | 2022-06-10 | 삼성전자주식회사 | 출력 장치를 제어하는 방법 및 장치 |
US20170241777A1 (en) * | 2016-02-18 | 2017-08-24 | Viewpoint Electronics Co., Ltd. | Inertial measurement module and inertial measurement method |
CN105931240B (zh) * | 2016-04-21 | 2018-10-19 | 西安交通大学 | 三维深度感知装置及方法 |
US10097745B2 (en) | 2016-04-27 | 2018-10-09 | Zepp Labs, Inc. | Head rotation tracking device for video highlights identification |
US10346995B1 (en) * | 2016-08-22 | 2019-07-09 | AI Incorporated | Remote distance estimation system and method |
US10447998B2 (en) * | 2016-09-30 | 2019-10-15 | Intel Corporation | Power efficient long range depth sensing |
US10510160B2 (en) * | 2016-12-20 | 2019-12-17 | Samsung Electronics Co., Ltd. | Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking |
US20180203504A1 (en) * | 2017-01-16 | 2018-07-19 | Htc Corporation | Movement tracking method and movement tracking system |
CN109215077B (zh) * | 2017-07-07 | 2022-12-06 | 腾讯科技(深圳)有限公司 | 一种相机姿态信息确定的方法及相关装置 |
KR102338576B1 (ko) | 2017-08-22 | 2021-12-14 | 삼성전자주식회사 | 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법 |
CN109951628A (zh) * | 2017-12-21 | 2019-06-28 | 广东欧珀移动通信有限公司 | 模型构建方法、拍照方法、装置、存储介质及终端 |
US10970425B2 (en) * | 2017-12-26 | 2021-04-06 | Seiko Epson Corporation | Object detection and tracking |
KR102552923B1 (ko) * | 2018-12-03 | 2023-07-10 | 삼성전자 주식회사 | 복수의 카메라들 또는 깊이 센서 중 적어도 하나를 이용하여 깊이 정보를 획득하는 전자 장치 |
CN110399772B (zh) * | 2019-04-15 | 2020-09-08 | 安徽省徽腾智能交通科技有限公司泗县分公司 | 基于环境分析的设备控制系统 |
CN112797897B (zh) * | 2019-04-15 | 2022-12-06 | Oppo广东移动通信有限公司 | 物体几何参数的测量方法、装置和终端 |
EP4100916A1 (en) * | 2020-02-07 | 2022-12-14 | Telefonaktiebolaget Lm Ericsson (Publ) | Monocular camera activation for localization based on data from depth sensor |
WO2022036284A1 (en) * | 2020-08-13 | 2022-02-17 | Invensense, Inc. | Method and system for positioning using optical sensor and motion sensors |
WO2022261960A1 (zh) * | 2021-06-18 | 2022-12-22 | 深圳市大疆创新科技有限公司 | 体感遥控器和遥控系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012138686A (ja) * | 2010-12-24 | 2012-07-19 | Kyocera Corp | 携帯電子機器 |
US20120194644A1 (en) * | 2011-01-31 | 2012-08-02 | Microsoft Corporation | Mobile Camera Localization Using Depth Maps |
US20130201291A1 (en) * | 2012-02-08 | 2013-08-08 | Microsoft Corporation | Head pose tracking using a depth camera |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7372977B2 (en) * | 2003-05-29 | 2008-05-13 | Honda Motor Co., Ltd. | Visual tracking using depth data |
US8094928B2 (en) * | 2005-11-14 | 2012-01-10 | Microsoft Corporation | Stereo video for gaming |
US7725547B2 (en) * | 2006-09-06 | 2010-05-25 | International Business Machines Corporation | Informing a user of gestures made by others out of the user's line of sight |
US8564534B2 (en) * | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US8855929B2 (en) * | 2010-01-18 | 2014-10-07 | Qualcomm Incorporated | Using object to align and calibrate inertial navigation system |
US8625902B2 (en) * | 2010-07-30 | 2014-01-07 | Qualcomm Incorporated | Object recognition using incremental feature extraction |
US20120117514A1 (en) * | 2010-11-04 | 2012-05-10 | Microsoft Corporation | Three-Dimensional User Interaction |
KR20120074484A (ko) * | 2010-12-28 | 2012-07-06 | 엘지전자 주식회사 | 이미지 센서를 이용하는 멀티미디어 디바이스 및 그 제어 방법 |
US8401242B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Real-time camera tracking using depth maps |
US9171200B2 (en) * | 2011-03-04 | 2015-10-27 | Hewlett-Packard Development Company, L.P. | Gestural interaction identification |
US20120327218A1 (en) | 2011-06-21 | 2012-12-27 | Microsoft Corporation | Resource conservation based on a region of interest |
JP6074170B2 (ja) * | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
US9053371B2 (en) | 2011-09-29 | 2015-06-09 | Texas Instruments Incorporated | Method, system and computer program product for identifying a location of an object within a video sequence |
US9454245B2 (en) * | 2011-11-01 | 2016-09-27 | Qualcomm Incorporated | System and method for improving orientation data |
US9111351B2 (en) * | 2011-12-15 | 2015-08-18 | Sony Corporation | Minimizing drift using depth camera images |
EP2795425A4 (en) | 2011-12-23 | 2015-08-26 | Thomson Licensing | COMPUTER DEVICE WITH POWER CONSUMPTION MANAGEMENT AND METHOD FOR MANAGING THE POWER CONSUMPTION OF A COMPUTER DEVICE |
KR20130100524A (ko) | 2012-03-02 | 2013-09-11 | 삼성전자주식회사 | 3차원 이미지 센서의 구동 방법 |
US20130266174A1 (en) * | 2012-04-06 | 2013-10-10 | Omek Interactive, Ltd. | System and method for enhanced object tracking |
US9083960B2 (en) | 2013-01-30 | 2015-07-14 | Qualcomm Incorporated | Real-time 3D reconstruction with power efficient depth sensor usage |
US9398287B2 (en) | 2013-02-28 | 2016-07-19 | Google Technology Holdings LLC | Context-based depth sensor control |
US11172126B2 (en) | 2013-03-15 | 2021-11-09 | Occipital, Inc. | Methods for reducing power consumption of a 3D image capture system |
WO2014178836A1 (en) | 2013-04-30 | 2014-11-06 | Hewlett-Packard Development Company, L.P. | Depth sensors |
-
2014
- 2014-11-24 US US14/552,183 patent/US9336440B2/en active Active
- 2014-11-25 EP EP14819167.9A patent/EP3075143B1/en active Active
- 2014-11-25 KR KR1020167016574A patent/KR102065533B1/ko active IP Right Grant
- 2014-11-25 WO PCT/US2014/067432 patent/WO2015077778A1/en active Application Filing
- 2014-11-25 JP JP2016533129A patent/JP6490689B2/ja not_active Expired - Fee Related
- 2014-11-25 CN CN201480060665.XA patent/CN105706438B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012138686A (ja) * | 2010-12-24 | 2012-07-19 | Kyocera Corp | 携帯電子機器 |
US20120194644A1 (en) * | 2011-01-31 | 2012-08-02 | Microsoft Corporation | Mobile Camera Localization Using Depth Maps |
US20130201291A1 (en) * | 2012-02-08 | 2013-08-08 | Microsoft Corporation | Head pose tracking using a depth camera |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019187167A1 (ja) * | 2018-03-31 | 2019-10-03 | 株式会社スペシャルエフエックススタジオ | 端末の表示画像の表示法 |
Also Published As
Publication number | Publication date |
---|---|
CN105706438A (zh) | 2016-06-22 |
EP3075143A1 (en) | 2016-10-05 |
US9336440B2 (en) | 2016-05-10 |
KR102065533B1 (ko) | 2020-01-13 |
US20150146926A1 (en) | 2015-05-28 |
CN105706438B (zh) | 2019-01-18 |
KR20160090843A (ko) | 2016-08-01 |
JP6490689B2 (ja) | 2019-03-27 |
WO2015077778A1 (en) | 2015-05-28 |
EP3075143B1 (en) | 2018-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6490689B2 (ja) | モバイルデバイス上の深度センサの電力効率的な使用 | |
US9116001B2 (en) | Adaptive estimation of frame time stamp latency | |
KR101740510B1 (ko) | 카메라 시스템에서의 회전 오프셋을 동적으로 보정하기 위한 방법 | |
JP6144828B2 (ja) | 動的に構築された環境地図データに基づくオブジェクト追跡 | |
JP6140278B2 (ja) | ビジョン支援慣性カメラポーズ推定とビジョンベースのみのカメラポーズ推定との間の適応的な切替え | |
JP6228320B2 (ja) | 制約なしslam用のセンサベースのカメラ運動検出 | |
US9811731B2 (en) | Dynamic extension of map data for object detection and tracking | |
JP6215337B2 (ja) | 適応型スケールおよび/または重力推定 | |
CN107810649B (zh) | 基于行人航位推算可靠性来确定无线扫描速率 | |
US10579162B2 (en) | Systems and methods to correct a vehicle induced change of direction | |
JP2021082244A (ja) | 位置決め情報を取得するための方法、装置および媒体 | |
WO2020014864A1 (zh) | 位姿确定方法、设备、计算机可读存储介质 | |
KR20230020845A (ko) | 전자장치 및 그의 객체 추적 방법 | |
BR112020014077B1 (pt) | Visor montado na cabeça, método realizado por um visor montado na cabeça, e, meio de armazenamento legível por computador | |
US11842515B2 (en) | Information processing device, information processing method, and image capturing apparatus for self-position-posture estimation | |
JP5666007B2 (ja) | 位置補正方法及びその装置 | |
WO2021075318A1 (ja) | 測位システム及び端末 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171109 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181130 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20181130 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6490689 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |