JP2017518566A - モバイルプラットフォームにおける空中および表面マルチタッチ検出 - Google Patents
モバイルプラットフォームにおける空中および表面マルチタッチ検出 Download PDFInfo
- Publication number
- JP2017518566A JP2017518566A JP2016564326A JP2016564326A JP2017518566A JP 2017518566 A JP2017518566 A JP 2017518566A JP 2016564326 A JP2016564326 A JP 2016564326A JP 2016564326 A JP2016564326 A JP 2016564326A JP 2017518566 A JP2017518566 A JP 2017518566A
- Authority
- JP
- Japan
- Prior art keywords
- depth map
- reconstructed depth
- light
- reconstructed
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04109—FTIR in optical digitiser, i.e. touch detection by frustrating the total internal reflection within an optical waveguide due to changes of optical properties or deformation at the touch location
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本出願は、すべての目的でそれらの全体が参照により本明細書に組み込まれる、2014年4月28日に出願された米国仮特許出願第61/985,423号、および2014年11月18日に出願された米国特許出願第14/546,303号の優先権の利益を主張する。
トル化解除する(de-vectorize)ことによって、ブロック78で継続し得る。ブロック78は、連続した低解像度画像に対応する第1の再構成された深度マップのセットを取得することを伴うことができる。上記で説明したように、第1の再構成された深度マップの例は図7に示されている。
2 第1の表面
3 検出領域
5 領域
6 領域
7 手
12 インタラクティブディスプレイ
30 構成
31 発光源、光源
33 光センサー
35 光ガイド
36 反射性微細構造、微細構造
37 前面
39 後面
41 放射光
42 反射光
46 散乱光
50 オブジェクト
51 放射トラフ
53 収集トラフ
55 縁部
57 縁部
59 縁部
60 プロセス
70 プロセス
80 プロセス
92 低解像度画像
94 第1の再構成された深度マップ
96 第2の再構成された深度マップ
98 グランドトゥルース深度マップ
100 プロセス
110 プロセス
120 再構成された深度マップ
122 ピクセルパッチ、マルチピクセルパッチ
124 訓練セット深度マップ
126 中心点
130 プロセス
150 プロセス
160 画像、低解像度センサー画像
162 画像
164 画像
166 画像
168 画像
200 装置
202 インタラクティブディスプレイ
204 プロセッサ
211 信号経路
213 信号経路
230 構成
Claims (29)
- 検出領域を含む前面を有する電子デバイスのユーザのためのインターフェースと、
前記検出領域におけるまたはその上でのオブジェクトと前記電子デバイスとの相互作用を検出し、前記相互作用を示す信号を出力するように構成された複数の検出器であって、画像が前記信号から生成され得る、複数の検出器と、
プロセッサであって、
前記信号から画像データを取得することと、
第1の再構成された深度マップを取得するために、線形回帰モデルを前記画像データに適用することであって、前記第1の再構成された深度マップが前記画像よりも高い解像度を有する、適用することと、
第2の再構成された深度マップを取得するために、訓練された非線形回帰モデルを前記第1の再構成された深度マップに適用することと
を行うように構成されたプロセッサと
を備える装置。 - 光を放射するように構成された1つまたは複数の発光源をさらに備え、前記複数の検出器が光検出器であり、前記信号が前記オブジェクトと前記1つまたは複数の発光源から放射された光との相互作用を示す、請求項1に記載の装置。
- 前記インターフェースの前記前面に実質的に平行に配設された平面光ガイドであって、
1つまたは複数の発光源から受信された放射光を反射することによって、前記前面と直交する実質的な成分を有する方向で反射光を出力するように構成された第1の光転向構成と、
前記相互作用から生じた光を前記複数の検出器の方へ方向変換する第2の光転向構成と
を含む平面光ガイド
をさらに備える、請求項1に記載の装置。 - 前記第2の再構成された深度マップが、前記画像の前記解像度よりも少なくとも3倍大きい解像度を有する、請求項1に記載の装置。
- 前記第2の再構成された深度マップが、前記第1の再構成された深度マップと同じ解像度を有する、請求項1に記載の装置。
- 前記プロセッサが、前記第2の再構成された深度マップから、ユーザジェスチャのインスタンスを認識するように構成される、請求項1に記載の装置。
- 前記インターフェースがインタラクティブディスプレイであり、前記プロセッサが、前記ユーザジェスチャに応答して、前記インタラクティブディスプレイおよび前記電子デバイスの一方または両方を制御するように構成される、請求項6に記載の装置。
- 飛行時間深度カメラを有しない、請求項1に記載の装置。
- 画像データを取得することが、前記画像のベクトル化を含む、請求項1に記載の装置。
- 第1の再構成された深度マップを取得することが、第1の再構成された深度マップ行列を取得するために、学習された重み行列をベクトル化された画像データに適用することを含む、請求項1に記載の装置。
- 非線形回帰モデルを前記第1の再構成された深度マップに適用することが、ピクセルごとに深度マップ値を決定するために、前記第1の再構成された深度マップのピクセルごとにマルチピクセルパッチ特徴を抽出することを含む、請求項1に記載の装置。
- 前記オブジェクトが手である、請求項1に記載の装置。
- 前記プロセッサが、前記手の指先のロケーションを決定するために、訓練された分類モデルを前記第2の再構成された深度マップに適用するように構成される、請求項12に記載の装置。
- 前記ロケーションが、並進および深度ロケーション情報を含む、請求項13に記載の装置。
- 前記オブジェクトがスタイラスである、請求項1に記載の装置。
- 検出領域を含む前面を有する電子デバイスのユーザのためのインターフェースと、
前記検出領域におけるまたはその上でのオブジェクトと前記電子デバイスとの相互作用を示す信号を受信するように構成された複数の検出器であって、画像が前記信号から生成され得る、複数の検出器と、
プロセッサであって、
前記信号から画像データを取得することと、
前記画像データから第1の再構成された深度マップを取得することであって、前記第1の再構成された深度マップが前記画像よりも高い解像度を有する、取得することと、
第2の再構成された深度マップを取得するために、訓練された非線形回帰モデルを前記第1の再構成された深度マップに適用することと
を行うように構成されたプロセッサと
を備える装置。 - 光を放射するように構成された1つまたは複数の発光源をさらに備え、前記複数の検出器が光検出器であり、前記信号が前記オブジェクトと前記1つまたは複数の発光源から放射された光との相互作用を示す、請求項16に記載の装置。
- 前記インターフェースの前記前面に実質的に平行に配設された平面光ガイドであって、
1つまたは複数の発光源から受信された放射光を反射することによって、前記前面と直交する実質的な成分を有する方向で反射光を出力するように構成された第1の光転向構成と、
前記相互作用から生じた光を前記複数の検出器の方へ方向変換する第2の光転向構成と
を含む平面光ガイド
をさらに備える、請求項16に記載の装置。 - デバイスの検出領域の周囲に沿って配置された複数の検出器から画像データを取得するステップであって、前記画像データが、前記検出領域におけるまたはその上でのオブジェクトと前記デバイスとの相互作用を示す、ステップと、
前記画像データから第1の再構成された深度マップを取得するステップであって、前記第1の再構成された深度マップが前記画像よりも高い解像度を有する、ステップと、
前記第1の再構成された深度マップから第2の再構成された深度マップを取得するステップと
を含む方法。 - 前記第1の再構成された深度マップを取得するステップが、学習された重み行列をベクトル化された画像データに適用するステップを含む、請求項19に記載の方法。
- 前記重み行列を学習するステップをさらに含む、請求項20に記載の方法。
- 前記重み行列を学習するステップが、複数のオブジェクトジェスチャおよび位置についての深度マップと画像のペアの訓練セットデータを取得するステップを含み、前記深度マップの前記解像度が、前記画像の前記解像度よりも高い、請求項21に記載の方法。
- 前記第2の再構成された深度マップを取得するステップが、非線形回帰モデルを前記第1の再構成された深度マップに適用するステップを含む、請求項19に記載の方法。
- 前記非線形回帰モデルを前記第1の再構成された深度マップに適用するステップが、ピクセルごとに深度マップ値を決定するために、前記第1の再構成された深度マップのピクセルごとにマルチピクセルパッチ特徴を抽出するステップを含む、請求項23に記載の方法。
- 前記非線形回帰モデルを学習するステップをさらに含む、請求項24に記載の方法。
- 前記第2の再構成された深度マップが、前記画像の前記解像度よりも少なくとも3倍大きい解像度を有する、請求項19に記載の方法。
- 前記オブジェクトが手である、請求項19に記載の方法。
- 前記手の指先のロケーションを決定するために、訓練された分類モデルを前記第2の再構成された深度マップに適用するステップをさらに含む、請求項27に記載の方法。
- 前記ロケーションが、並進および深度ロケーション情報を含む、請求項28に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461985423P | 2014-04-28 | 2014-04-28 | |
US61/985,423 | 2014-04-28 | ||
US14/546,303 | 2014-11-18 | ||
US14/546,303 US20150309663A1 (en) | 2014-04-28 | 2014-11-18 | Flexible air and surface multi-touch detection in mobile platform |
PCT/US2015/023920 WO2015167742A1 (en) | 2014-04-28 | 2015-04-01 | Air and surface multi-touch detection in mobile platform |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017518566A true JP2017518566A (ja) | 2017-07-06 |
JP2017518566A5 JP2017518566A5 (ja) | 2018-04-26 |
Family
ID=54334777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016564326A Ceased JP2017518566A (ja) | 2014-04-28 | 2015-04-01 | モバイルプラットフォームにおける空中および表面マルチタッチ検出 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20150309663A1 (ja) |
EP (1) | EP3137979A1 (ja) |
JP (1) | JP2017518566A (ja) |
KR (1) | KR20160146716A (ja) |
CN (1) | CN106255944A (ja) |
BR (1) | BR112016025033A2 (ja) |
WO (1) | WO2015167742A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103729096A (zh) * | 2013-12-25 | 2014-04-16 | 京东方科技集团股份有限公司 | 交互识别系统以及显示装置 |
US11263432B2 (en) * | 2015-02-06 | 2022-03-01 | Veridium Ip Limited | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices |
US9424458B1 (en) * | 2015-02-06 | 2016-08-23 | Hoyos Labs Ip Ltd. | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices |
CN114564143A (zh) * | 2015-10-14 | 2022-05-31 | 麦克赛尔株式会社 | 终端装置 |
US10185400B2 (en) * | 2016-01-11 | 2019-01-22 | Antimatter Research, Inc. | Gesture control device with fingertip identification |
US10096158B2 (en) * | 2016-03-24 | 2018-10-09 | Ford Global Technologies, Llc | Method and system for virtual sensor data generation with depth ground truth annotation |
US10139961B2 (en) * | 2016-08-18 | 2018-11-27 | Microsoft Technology Licensing, Llc | Touch detection using feature-vector dictionary |
US10451714B2 (en) | 2016-12-06 | 2019-10-22 | Sony Corporation | Optical micromesh for computerized devices |
US10536684B2 (en) | 2016-12-07 | 2020-01-14 | Sony Corporation | Color noise reduction in 3D depth map |
US10181089B2 (en) | 2016-12-19 | 2019-01-15 | Sony Corporation | Using pattern recognition to reduce noise in a 3D map |
US10178370B2 (en) | 2016-12-19 | 2019-01-08 | Sony Corporation | Using multiple cameras to stitch a consolidated 3D depth map |
US10444908B2 (en) * | 2016-12-31 | 2019-10-15 | Innoventions, Inc. | Virtual touchpads for wearable and portable devices |
US10495735B2 (en) | 2017-02-14 | 2019-12-03 | Sony Corporation | Using micro mirrors to improve the field of view of a 3D depth map |
US10795022B2 (en) * | 2017-03-02 | 2020-10-06 | Sony Corporation | 3D depth map |
US10979687B2 (en) | 2017-04-03 | 2021-04-13 | Sony Corporation | Using super imposition to render a 3D depth map |
US10484667B2 (en) | 2017-10-31 | 2019-11-19 | Sony Corporation | Generating 3D depth map using parallax |
CN108268134B (zh) * | 2017-12-30 | 2021-06-15 | 广州正峰电子科技有限公司 | 拿放商品的手势识别装置及方法 |
US10740876B1 (en) * | 2018-01-23 | 2020-08-11 | Facebook Technologies, Llc | Systems and methods for generating defocus blur effects |
US10549186B2 (en) | 2018-06-26 | 2020-02-04 | Sony Interactive Entertainment Inc. | Multipoint SLAM capture |
US10345506B1 (en) * | 2018-07-16 | 2019-07-09 | Shenzhen Guangjian Technology Co., Ltd. | Light projecting method and device |
CN109360197B (zh) * | 2018-09-30 | 2021-07-09 | 北京达佳互联信息技术有限公司 | 图像的处理方法、装置、电子设备及存储介质 |
CN113791699A (zh) * | 2021-09-17 | 2021-12-14 | 联想(北京)有限公司 | 一种电子设备操纵方法以及电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004505393A (ja) * | 2000-08-09 | 2004-02-19 | ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド | イメージ変換および符号化技術 |
US20130082980A1 (en) * | 2011-09-29 | 2013-04-04 | Qualcomm Mems Technolgies, Inc. | Optical touch device with pixilated light-turning features |
CN103049914A (zh) * | 2012-12-19 | 2013-04-17 | 香港应用科技研究院有限公司 | 基于边界的高分辨率深度图生成 |
US20130251192A1 (en) * | 2012-03-20 | 2013-09-26 | Microsoft Corporation | Estimated pose correction |
US20130314312A1 (en) * | 2012-05-24 | 2013-11-28 | Qualcomm Mems Technologies, Inc. | Full range gesture system |
WO2014047207A1 (en) * | 2012-09-21 | 2014-03-27 | Amazon Technologies, Inc. | Display integrated camera array |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7983817B2 (en) * | 1995-06-07 | 2011-07-19 | Automotive Technologies Internatinoal, Inc. | Method and arrangement for obtaining information about vehicle occupants |
US8013845B2 (en) * | 2005-12-30 | 2011-09-06 | Flatfrog Laboratories Ab | Optical touch pad with multilayer waveguide |
CA2627999C (en) * | 2007-04-03 | 2011-11-15 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Through The Communications Research Centre Canada | Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images |
US20090245696A1 (en) * | 2008-03-31 | 2009-10-01 | Sharp Laboratories Of America, Inc. | Method and apparatus for building compound-eye seeing displays |
US8248410B2 (en) * | 2008-12-09 | 2012-08-21 | Seiko Epson Corporation | Synthesizing detailed depth maps from images |
US8730212B2 (en) * | 2009-08-21 | 2014-05-20 | Microsoft Corporation | Illuminator for touch- and object-sensitive display |
CN201654675U (zh) * | 2009-11-10 | 2010-11-24 | 北京思比科微电子技术有限公司 | 基于深度检测的身体识别控制装置 |
US20120056982A1 (en) * | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
CN101964111B (zh) * | 2010-09-27 | 2011-11-30 | 山东大学 | 基于超分辨率的视线跟踪精度提升方法 |
US9535537B2 (en) * | 2010-11-18 | 2017-01-03 | Microsoft Technology Licensing, Llc | Hover detection in an interactive display device |
US8878950B2 (en) * | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
FR2978855B1 (fr) * | 2011-08-04 | 2013-09-27 | Commissariat Energie Atomique | Procede et dispositif de calcul d'une carte de profondeur a partir d'une unique image |
US8619082B1 (en) * | 2012-08-21 | 2013-12-31 | Pelican Imaging Corporation | Systems and methods for parallax detection and correction in images captured using array cameras that contain occlusions using subsets of images to perform depth estimation |
RU2012145349A (ru) * | 2012-10-24 | 2014-05-10 | ЭлЭсАй Корпорейшн | Способ и устройство обработки изображений для устранения артефактов глубины |
-
2014
- 2014-11-18 US US14/546,303 patent/US20150309663A1/en not_active Abandoned
-
2015
- 2015-04-01 CN CN201580020723.0A patent/CN106255944A/zh active Pending
- 2015-04-01 BR BR112016025033A patent/BR112016025033A2/pt not_active IP Right Cessation
- 2015-04-01 EP EP15715952.6A patent/EP3137979A1/en not_active Withdrawn
- 2015-04-01 KR KR1020167029188A patent/KR20160146716A/ko unknown
- 2015-04-01 WO PCT/US2015/023920 patent/WO2015167742A1/en active Application Filing
- 2015-04-01 JP JP2016564326A patent/JP2017518566A/ja not_active Ceased
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004505393A (ja) * | 2000-08-09 | 2004-02-19 | ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド | イメージ変換および符号化技術 |
US20130082980A1 (en) * | 2011-09-29 | 2013-04-04 | Qualcomm Mems Technolgies, Inc. | Optical touch device with pixilated light-turning features |
US20130251192A1 (en) * | 2012-03-20 | 2013-09-26 | Microsoft Corporation | Estimated pose correction |
US20130314312A1 (en) * | 2012-05-24 | 2013-11-28 | Qualcomm Mems Technologies, Inc. | Full range gesture system |
WO2014047207A1 (en) * | 2012-09-21 | 2014-03-27 | Amazon Technologies, Inc. | Display integrated camera array |
CN103049914A (zh) * | 2012-12-19 | 2013-04-17 | 香港应用科技研究院有限公司 | 基于边界的高分辨率深度图生成 |
Also Published As
Publication number | Publication date |
---|---|
WO2015167742A1 (en) | 2015-11-05 |
CN106255944A (zh) | 2016-12-21 |
BR112016025033A2 (pt) | 2017-08-15 |
US20150309663A1 (en) | 2015-10-29 |
KR20160146716A (ko) | 2016-12-21 |
EP3137979A1 (en) | 2017-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017518566A (ja) | モバイルプラットフォームにおける空中および表面マルチタッチ検出 | |
US10001845B2 (en) | 3D silhouette sensing system | |
EP2898399B1 (en) | Display integrated camera array | |
US9245193B2 (en) | Dynamic selection of surfaces in real world for projection of information thereon | |
US9582117B2 (en) | Pressure, rotation and stylus functionality for interactive display screens | |
CN104350509B (zh) | 快速姿势检测器 | |
KR101097309B1 (ko) | 터치 동작 인식 방법 및 장치 | |
EP3080684B1 (en) | Object detection in optical sensor systems | |
CN108140116A (zh) | 用于用户认证的屏幕上光学指纹捕获 | |
US9652083B2 (en) | Integrated near field sensor for display devices | |
US20170344104A1 (en) | Object tracking for device input | |
Sharma et al. | Air-swipe gesture recognition using OpenCV in Android devices | |
CN113220125A (zh) | 手指交互方法、装置、电子设备及计算机存储介质 | |
Ravoor et al. | Detection of multiple points of contact on an imaging touch-screen | |
US9946917B2 (en) | Efficient determination of biometric attribute for fast rejection of enrolled templates and other applications | |
Mendoza-Morales et al. | Illumination-invariant hand gesture recognition | |
Adams | Using Gesture Recognition to Navigate Google Chrome | |
Irri et al. | A study of ambient light-independent multi-touch acquisition and interaction methods for in-cell optical touchscreens | |
CN103885645A (zh) | 手势判断装置、其操作方法与手势判断方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180315 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190412 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190422 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20190902 |