JP6072237B2 - ジェスチャー入力のための指先の場所特定 - Google Patents
ジェスチャー入力のための指先の場所特定 Download PDFInfo
- Publication number
- JP6072237B2 JP6072237B2 JP2015518581A JP2015518581A JP6072237B2 JP 6072237 B2 JP6072237 B2 JP 6072237B2 JP 2015518581 A JP2015518581 A JP 2015518581A JP 2015518581 A JP2015518581 A JP 2015518581A JP 6072237 B2 JP6072237 B2 JP 6072237B2
- Authority
- JP
- Japan
- Prior art keywords
- finger
- computing device
- fingertip
- user
- location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 59
- 230000005672 electromagnetic field Effects 0.000 claims description 26
- 238000010801 machine learning Methods 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 2
- 238000004587 chromatography analysis Methods 0.000 claims 1
- 210000003811 finger Anatomy 0.000 description 77
- 230000008569 process Effects 0.000 description 13
- 230000009471 action Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 230000015654 memory Effects 0.000 description 7
- 238000013459 approach Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 238000013500 data storage Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 230000005057 finger movement Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04106—Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
付記
付記1.ユーザの指先の場所を特定するための、コンピュータにより実装される方法であって、
コンピューティングデバイスの少なくとも1つのカメラを使用して、画像を取り込むことと、
取り込まれた画像から、ユーザの指の少なくとも第1の部分の場所を決定することと、
指の少なくとも第2の部分が少なくとも1つのカメラの視野の外側にあるときに、コンピューティングデバイスの少なくとも1つのセンサを使用して、コンピューティングデバイスに対する前記の第2の部分の指の場所を検出することと、
指の指先の相対的な場所を決定するために、第1の場所および第2の場所を解析することと、を含む、コンピュータにより実装される方法。
付記2.デバイスセンサは、電磁界センサ、容量センサ、超音波センサのうちの少なくとも1つを含む、付記1に記載のコンピュータにより実装される方法。
付記3.指先の相対的な場所を決定するために、少なくとも第1の部分および第2の部分の場所を解析することは、場所を指のデジタルモデルに入力することを含む、付記1に記載のコンピュータにより実装される方法。
付記4.指先の相対的な場所を決定するために、少なくとも第1の部分および第2の部分の場所を解析することは、指の第2の部分が視野の外側に移動する前に、少なくとも1つの以前に取り込まれた画像の中で識別される少なくとも1つの以前の指先の相対的な場所を使用することを含む、付記1に記載のコンピュータにより実装される方法。
付記5.指の移動に少なくとも部分的に基づいて、指先の相対的な場所を更新するために、経時的に指の移動を追跡し、少なくとも第1の部分および第2の部分の場所を使用することをさらに含む、付記1に記載のコンピュータにより実装される方法。
付記6.コンピューティングデバイスの少なくとも1つのカメラを使用して画像を取り込むことであって、画像は、ユーザの手の少なくとも一部分の描写を含む、取り込むことと、
手の指の指先が画像の中に描写されないときに、コンピューティングデバイスに対するユーザの手の少なくとも1つの参照点の場所を決定するために、コンピューティングデバイスの少なくとも1つのプロセッサを使用して、画像を解析することと、
少なくとも1つの参照点に少なくとも部分的に基づいて、指先の位置を算出することと、
コンピューティングデバイスに対する指の指先の位置に少なくとも部分的に基づいて、コンピューティングデバイス上で実行するアプリケーションへの入力を提供することと、を含む、コンピュータにより実装される方法。
付記7.コンピューティングデバイスの少なくとも1つのセンサを使用して、指の第2の部分を検出することをさらに含み、
コンピューティングデバイスに対する指先の位置を算出することはさらに、第2の部分に少なくとも部分的に基づく、付記6に記載のコンピュータにより実装される方法。
付記8.デバイスセンサは、電磁界センサ、容量センサ、超音波センサのうちの少なくとも1つを含む、付記7に記載のコンピュータにより実装される方法。
付記9.複数の指先の位置が同時に算出され、複数の指先の位置に少なくとも部分的に基づいて入力が提供される、付記6に記載のコンピュータにより実装される方法。
付記10.画像は、静止画像情報、立体画像情報、赤外線画像情報、またはビデオ情報のうちの少なくとも1つを含む、付記6に記載のコンピュータにより実装される方法。
付記11.少なくとも1つの参照点に少なくとも部分的に基づいて、コンピューティングデバイスに対する指先の位置を算出することは、少なくとも1つの参照点を、ユーザ用にパーソナライズされた指のデジタルモデルに提供することを含む、付記6に記載のコンピュータにより実装される方法。
付記12.少なくとも1つの参照点に少なくとも部分的に基づいて、コンピューティングデバイスに対する指先の位置を算出することは、少なくとも1つの以前に取り込まれた画像から識別される、少なくとも1つの以前の指先の位置を使用することを含む、付記6に記載のコンピュータにより実装される方法。
付記13.指の移動に少なくとも部分的に基づいて、指先の位置を更新するために、経時的に指の移動を追跡し、少なくとも1つの参照点を使用することをさらに含む、付記6に記載のコンピュータにより実装される方法。
付記14.コンピューティングデバイスに対する指先の位置を算出することはさらに、ユーザの指の物理的限度に少なくとも部分的に基づく、付記6に記載のコンピュータにより実装される方法。
付記15.コンピューティングデバイスに対する指先の位置を算出することはさらに、以前の指先の場所に基づいて、ユーザによって行われた以前の選択に関する機械学習に少なくとも部分的に基づく、付記6に記載のコンピュータにより実装される方法。
付記16.コンピューティングデバイスであって、
プロセッサと、
少なくとも1つのカメラと、
命令を含むメモリデバイスであって、該命令は、プロセッサによって実行されたときに、コンピューティングデバイスに、
少なくとも1つのカメラを使用して1つ以上の画像を取り込むことであって、1つ以上の画像情報は、ユーザの手の少なくとも一部分の表現を含む、取り込むこと、
ユーザの指先が1つ以上の画像の中に見えないときに、コンピューティングデバイスに対するユーザの手の少なくとも一部分の場所を決定するために、1つ以上の画像を解析すること、および
少なくとも一部分に少なくとも部分的に基づいて、コンピューティングデバイスに対する指先の場所を算出すること、を行わせる、メモリデバイスと、を備える、コンピューティングデバイス。
付記17.指の第2の部分を検出するように構成される、少なくとも1つのセンサをさらに備え、コンピューティングデバイスに対する指先の場所はさらに、第2の部分に少なくとも部分的に基づく、付記16に記載のコンピューティングデバイス。
付記18.センサは、電磁界センサ、容量センサ、または超音波センサのうちの少なくとも1つを含む、付記17に記載のコンピューティングデバイス。
付記19.1つ以上の画像は、静止画像情報、立体画像情報、赤外線画像情報、またはビデオ情報のうちの少なくとも1つを含む、付記16に記載のコンピューティングデバイス。
付記20.少なくとも一部分に少なくとも部分的に基づいて、コンピューティングデバイスに対する指先の場所を算出することは、少なくとも一部分を指のデジタルモデルに提供することを含む、付記16に記載のコンピューティングデバイス。
付記21.命令を含む非一時的なコンピュータ読み出し可能な記憶媒体であって、該命令は、コンピューティングデバイスのプロセッサによって実行されたときに、コンピューティングデバイスに、
コンピューティングデバイスの少なくとも1つのカメラを使用して画像を取り込むことであって、画像は、ユーザの手の少なくとも一部分の表現を含む、取り込むこと、
ユーザの指先が画像の中に見えないときに、コンピュータデバイスに対するユーザの手の少なくとも1つの参照点の場所を決定するために、コンピューティングデバイスの少なくとも1つのプロセッサを使用して、画像を解析すること、
少なくとも1つの参照点に少なくとも部分的に基づいて、コンピューティングデバイスに対する指先の位置を算出すること、および
コンピューティングデバイスに対する指先の位置に少なくとも部分的に基づいて、コンピューティングデバイス上で実行するアプリケーションへの入力を提供すること、を行わせる、非一時的なコンピュータ読み出し可能な記憶媒体。
付記22.命令は、実行されたときにさらに、コンピュータシステムに、
コンピューティングデバイスの少なくとも1つのセンサを使用して、指の第2の点を検出することを行わせ、
コンピューティングデバイスに対する指先の位置を算出することはさらに、第2の点に少なくとも部分的に基づき、
デバイスセンサは、電磁界センサ、容量センサ、または超音波センサのうちの少なくとも1つを含む、付記21に記載の非一時的なコンピュータ読み出し可能な記憶媒体。
付記23.複数の指先の位置を同時に算出することができ、複数の指先の位置に少なくとも部分的に基づいて、入力を提供することができる、付記21に記載の非一時的なコンピュータ読み出し可能な記憶媒体。
付記24.コンピューティングデバイスに対する指先の位置を算出することはさらに、ユーザの指の物理的限度に少なくとも部分的に基づく、付記21に記載の非一時的なコンピュータ読み出し可能な記憶媒体。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]ユーザの指先の場所を特定するための、コンピュータにより実装される方法であって、
コンピューティングデバイスの少なくとも1つのカメラを使用して、画像を取り込むことと、
前記取り込まれた画像から、ユーザの指の少なくとも第1の部分の場所を決定することと、
前記指の第2の部分が前記少なくとも1つのカメラの視野の外側にあるときに、前記コンピューティングデバイスの少なくとも1つのセンサを使用して、前記コンピューティングデバイスに対する少なくとも前記第2の部分の場所を検出することと、
前記指の指先の相対的な場所を決定するために、前記第1の場所および前記第2の場所を解析することと、を含む、コンピュータにより実装される方法。
[2]前記デバイスセンサは、電磁界センサ、容量センサ、超音波センサのうちの少なくとも1つを含む、[1]に記載のコンピュータにより実装される方法。
[3]前記指先の前記相対的な場所を決定するために、少なくとも前記第1の部分の場所および前記第2の部分の場所を解析することは、前記場所を前記指のデジタルモデルに入力すること、または前記指の前記第2の部分が前記視野の外側に移動する前に少なくとも1つの以前に取り込まれた画像の中で識別される、少なくとも1つの以前の指先の相対的な場所を使用すること、のうちの1つ以上を含む、[1]に記載のコンピュータにより実装される方法。
[4]前記指の移動に少なくとも部分的に基づいて、前記指先の前記相対的な場所を更新するために、経時的に前記指の移動を追跡し、少なくとも前記第1の部分の場所および前記第2の部分の場所を使用することをさらに含む、[1]に記載のコンピュータにより実装される方法。
[5]コンピュータにより実装される方法であって、
コンピューティングデバイスの少なくとも1つのカメラを使用して画像を取り込むことであって、前記画像は、ユーザの手の少なくとも一部分の描写を含む、取り込むことと、
前記手の指の指先が前記画像の中に描写されないときに、前記コンピューティングデバイスに対する前記ユーザの前記手の少なくとも1つの参照点の場所を決定するために、前記コンピューティングデバイスの少なくとも1つのプロセッサを使用して、前記画像を解析することと、
前記少なくとも1つの参照点に少なくとも部分的に基づいて、前記指先の位置を算出することと、
前記コンピューティングデバイスに対する前記指の前記指先の前記位置に少なくとも部分的に基づいて、前記コンピューティングデバイス上で実行するアプリケーションへの入力を提供することと、を含む、コンピュータにより実装される方法。
[6]前記コンピューティングデバイスの少なくとも1つのセンサを使用して、前記指の第2の部分を検出することをさらに含み、
前記コンピューティングデバイスに対する前記指先の前記位置を算出することはさらに、前記第2の部分に少なくとも部分的に基づく、[5]に記載のコンピュータにより実装される方法。
[7]前記デバイスセンサは、電磁界センサ、容量センサ、超音波センサのうちの少なくとも1つを含む、[6]に記載のコンピュータにより実装される方法。
[8]前記少なくとも1つの参照点に少なくとも部分的に基づいて、前記コンピューティングデバイスに対する前記指先の前記位置を算出することは、前記少なくとも1つの参照点を、前記ユーザ用にパーソナライズされた前記指のデジタルモデルに提供すること、または少なくとも1つの以前に取り込まれた画像から識別される、少なくとも1つの以前の指先の位置を使用すること、のうちの1つ以上を含む、[5]に記載のコンピュータにより実装される方法。
[9]前記指の移動に少なくとも部分的に基づいて、前記指先の前記位置を更新するために、経時的に前記指の移動を追跡し、前記少なくとも1つの参照点を使用することをさらに含む、[5]に記載のコンピュータにより実装される方法。
[10]前記コンピューティングデバイスに対する前記指先の前記位置を算出することはさらに、前記ユーザの前記指の物理的限度、または、以前の指先の場所に基づいて前記ユーザによって行われた以前の選択に関する機械学習、のうちの1つ以上に少なくとも部分的に基づく、[5]に記載のコンピュータにより実装される方法。
[11]コンピューティングデバイスであって、
プロセッサと、
少なくとも1つのカメラと、
命令を含むメモリデバイスであって、前記命令は、前記プロセッサによって実行されたときに、前記コンピューティングデバイスに、
前記少なくとも1つのカメラを使用して1つ以上の画像を取り込むことであって、前記1つ以上の画像情報は、ユーザの手の少なくとも一部分の表現を含む、取り込むこと、
前記ユーザの指先が前記1つ以上の画像の中に見えないときに、前記コンピューティングデバイスに対する前記ユーザの手の少なくとも一部分の場所を決定するために、前記1つ以上の画像を解析すること、および
前記少なくとも一部分に少なくとも部分的に基づいて、前記コンピューティングデバイスに対する前記指先の場所を算出すること、を行わせる、メモリデバイスと、を備える、コンピューティングデバイス。
[12]前記指の第2の部分を検出するように構成される、少なくとも1つのセンサをさらに備え、
前記コンピューティングデバイスに対する前記指先の前記場所はさらに、前記第2の部分に少なくとも部分的に基づく、[11]に記載のコンピューティングデバイス。
[13]前記センサは、電磁界センサ、容量センサ、または超音波センサのうちの少なくとも1つを含む、[12]に記載のコンピューティングデバイス。
[14]前記1つ以上の画像は、静止画像情報、立体画像情報、赤外線画像情報、またはビデオ情報のうちの少なくとも1つを含む、[11]に記載のコンピューティングデバイス。
[15]前記少なくとも一部分に少なくとも部分的に基づいて、前記コンピューティングデバイスに対する前記指先の前記場所を算出することは、前記少なくとも一部分を前記指のデジタルモデルに提供することを含む、[11]に記載のコンピューティングデバイス。
Claims (14)
- ユーザの指先の場所を特定するための、コンピュータにより実現される方法において、
コンピューティングデバイスの少なくとも1つのカメラを使用して、画像を取り込むことと、
ユーザの指の第1の部分の表現と、前記コンピューティングデバイスに関する前記指の第1の部分についての場所情報とを、前記画像から決定することと、
前記指の第2の部分が前記少なくとも1つのカメラの視野の外側であることを決定することと、
前記指の第1の部分と前記指の第2の部分とを含む、前記ユーザの手のモデルを決定することと、
前記コンピューティングデバイスの少なくとも1つのセンサを使用して、前記コンピューティングデバイスに関する前記指の第2の部分の近接を検出することと、
前記ユーザの手のモデルと、前記指の第1の部分についての場所情報と、前記第2の部分の近接とに少なくとも部分的に基づいて、前記コンピューティングデバイスに関する前記指の第2の部分の相対的な場所を決定することと、
前記指の第1の部分についての場所情報と、前記指の第2の部分の相対的な場所とに少なくとも部分的に基づいて、前記指先のおおよその軌跡を決定することと、
前記指先のおおよその軌跡に少なくとも部分的に基づいて、前記コンピューティングデバイス上で実行するアプリケーションへの入力を提供することとを含むコンピュータにより実現される方法。 - 前記少なくとも1つのセンサは、電磁界センサ、容量センサ、または、超音波センサ、のうちの少なくとも1つを含む請求項1記載のコンピュータにより実現される方法。
- 前記ユーザの手のモデルを決定することは、前記指の第1の部分の表現と、前記指の第1の部分に関する前記指の第2の部分の場所とに対する情報を、前記指のデジタルモデルに入力すること、または、前記指の第2の部分が視野の外側に移動する前に少なくとも1つの以前に取り込まれた画像の中で識別される、少なくとも1つの以前の指先の相対的な場所を使用すること、のうちの1つ以上を含む請求項1記載のコンピュータにより実現される方法。
- 経時的に前記指の複数の画像を解析することによって、前記指の移動を追跡することと、
前記指の移動に少なくとも部分的に基づいて、前記第1の部分の表現と前記第2の部分の場所とを使用して、前記指の第2の部分の相対的な場所を更新することとをさらに含む請求項1記載のコンピュータにより実現される方法。 - 前記指の第2の部分の相対的な場所と前記指の第1の部分とを通り抜ける仮想ベクトルを決定することと、
前記仮想ベクトルと前記コンピューティングデバイスとの交差を決定することと、
前記仮想ベクトルが前記コンピューティングデバイスとどこで交差するかに少なくとも部分的に基づいて、前記ユーザが提供しようとする入力のタイプを決定することとをさらに含む請求項1記載のコンピュータにより実現される方法。 - コンピュータにより実現される方法において、
コンピューティングデバイスの少なくとも1つのカメラを使用して、ユーザの手の第1の部分の表現を含む画像を取り込むことと、
前記手の指の指先が前記少なくとも1つのカメラの視野の外側であることを決定することと、
前記コンピューティングデバイスの少なくとも1つのプロセッサを使用して、前記画像を解析し、前記コンピューティングデバイスに関する、前記ユーザの手の第1の部分に対応する少なくとも1つの参照点に対する場所情報を決定することと、
少なくとも1つのセンサを使用して、前記コンピューティングデバイスに関する前記指の指先の近接を検出することと、
前記参照点と前記指の指先とを含む、前記手のモデルを決定することと、
前記手のモデルと、前記指先の近接と、前記少なくとも1つの参照点に対する場所情報とに少なくとも部分的に基づいて、前記コンピューティングデバイスに関する前記指先の相対的な位置を算出することと、
前記少なくとも1つの参照点に対する場所情報と、前記指先の相対的な位置とに少なくとも部分的に基づいて、前記指先のおおよその軌跡を決定することと、
前記指先のおおよその軌跡に少なくとも部分的に基づいて、前記コンピューティングデバイス上で実行するアプリケーションへの入力を提供することとを含むコンピュータにより実現される方法。 - 前記少なくとも1つのセンサは、電磁界センサ、容量センサ、または、超音波センサ、のうちの少なくとも1つを含む請求項6記載のコンピュータにより実現される方法。
- 前記指先の相対的な位置を算出することは、前記少なくとも1つの参照点を、前記ユーザ用にパーソナライズされた前記指のデジタルモデルに提供すること、または、少なくとも1つの以前に取り込まれた画像から識別される、少なくとも1つの以前の指先の位置を使用すること、のうちの1つ以上を含む請求項6記載のコンピュータにより実現される方法。
- 経時的に前記指の移動を追跡し、前記指の移動に少なくとも部分的に基づいて、前記少なくとも1つの参照点を使用して、前記指先の相対的な位置を更新することをさらに含む請求項6記載のコンピュータにより実現される方法。
- 前記コンピューティングデバイスに関する前記指先の相対的な位置を算出することはさらに、前記ユーザの前記指の物理的限度、または、以前の指先の場所に基づいて前記ユーザによって行われた以前の選択に関する機械学習、のうちの1つ以上に少なくとも部分的に基づいている請求項6記載のコンピュータにより実現される方法。
- コンピューティングデバイスにおいて、
プロセッサと、
少なくとも1つのカメラと、
命令を含むメモリデバイスとを具備し、
前記命令は、前記プロセッサによって実行されるときに、前記コンピューティングデバイスに、
前記少なくとも1つのカメラを使用させて、ユーザの手の第1の部分の表現を含む1つ以上の画像を取り込ませ、
前記ユーザの手の指の指先が前記少なくとも1つのカメラの視野の外側であることを決定させ、
前記1つ以上の画像を解析させて、前記コンピューティングデバイスに関する前記ユーザの手の第1の部分に対する場所情報を決定させ、
前記手の第1の部分と前記指先とを含む、前記手のモデルを決定させ、
前記コンピューティングデバイスの少なくとも1つのセンサを使用させて、前記コンピューティングデバイスに関する前記指先の近接を検出させ、
前記手のモデルと、前記指先の近接と、前記第1の部分に対する場所情報とに少なくとも部分的に基づいて、前記コンピューティングデバイスに関する前記指先の相対的な場所を算出させ、
前記第1の部分に対する場所情報と、前記指先の相対的な場所とに少なくとも部分的に基づいて、前記指先のおおよその軌跡を決定させ、
前記指先のおおよその軌跡に少なくとも部分的に基づいて、前記コンピューティングデバイス上で実行するアプリケーションへの入力を提供させるコンピューティングデバイス。 - 前記少なくとも1つのセンサは、電磁界センサ、容量センサ、または、超音波センサ、のうちの少なくとも1つを含む請求項11記載のコンピューティングデバイス。
- 前記1つ以上の画像は、静止画像情報、立体画像情報、赤外線画像情報、または、ビデオ情報、のうちの少なくとも1つを含む請求項11記載のコンピューティングデバイス。
- 前記指先の相対的な場所を算出することは、前記第1の部分を前記指のデジタルモデルに提供することを含む請求項11記載のコンピューティングデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/528,522 | 2012-06-20 | ||
US13/528,522 US9213436B2 (en) | 2012-06-20 | 2012-06-20 | Fingertip location for gesture input |
PCT/US2013/046906 WO2013192454A2 (en) | 2012-06-20 | 2013-06-20 | Fingertip location for gesture input |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015520471A JP2015520471A (ja) | 2015-07-16 |
JP6072237B2 true JP6072237B2 (ja) | 2017-02-01 |
Family
ID=49769708
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015518581A Active JP6072237B2 (ja) | 2012-06-20 | 2013-06-20 | ジェスチャー入力のための指先の場所特定 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9213436B2 (ja) |
EP (1) | EP2864932B1 (ja) |
JP (1) | JP6072237B2 (ja) |
CN (1) | CN104662558B (ja) |
WO (1) | WO2013192454A2 (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140123077A1 (en) * | 2012-10-29 | 2014-05-01 | Intel Corporation | System and method for user interaction and control of electronic devices |
EP2749996B1 (en) * | 2012-12-28 | 2018-05-30 | Sony Mobile Communications Inc. | Electronic device and method for improving accuracy of location determination of a user input on a touch panel |
US20140282269A1 (en) * | 2013-03-13 | 2014-09-18 | Amazon Technologies, Inc. | Non-occluded display for hover interactions |
US9122916B2 (en) | 2013-03-14 | 2015-09-01 | Honda Motor Co., Ltd. | Three dimensional fingertip tracking |
US9110541B1 (en) * | 2013-03-14 | 2015-08-18 | Amazon Technologies, Inc. | Interface selection approaches for multi-dimensional input |
US20150002275A1 (en) * | 2013-06-26 | 2015-01-01 | Nokia Corporation | Methods, apparatuses, and computer program products for data transfer between wireless memory tags |
US10152136B2 (en) * | 2013-10-16 | 2018-12-11 | Leap Motion, Inc. | Velocity field interaction for free space gesture interface and control |
US9740296B2 (en) | 2013-12-16 | 2017-08-22 | Leap Motion, Inc. | User-defined virtual interaction space and manipulation of virtual cameras in the interaction space |
DE102013022123A1 (de) * | 2013-12-28 | 2015-07-02 | Lutz Herkner | Verfahren zur einfacheren Bedienung von Geräten mit Touchscreen, insbesondere bei der Bedienung mit einer Hand ("Magnetischer Daumen") |
US9395821B2 (en) | 2014-01-03 | 2016-07-19 | Intel Corporation | Systems and techniques for user interface control |
US9262012B2 (en) * | 2014-01-03 | 2016-02-16 | Microsoft Corporation | Hover angle |
DE102014005064A1 (de) * | 2014-04-05 | 2015-10-08 | Audi Ag | Eingabesystem und Verfahren zum Bereitstellen einer Eingabeinformation |
JP6575518B2 (ja) * | 2014-06-25 | 2019-09-18 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
CN105635776B (zh) * | 2014-11-06 | 2019-03-01 | 深圳Tcl新技术有限公司 | 虚拟操作界面遥控控制方法及系统 |
JP2016091457A (ja) * | 2014-11-10 | 2016-05-23 | 富士通株式会社 | 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム |
US10429923B1 (en) | 2015-02-13 | 2019-10-01 | Ultrahaptics IP Two Limited | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments |
US9696795B2 (en) | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
US10564770B1 (en) * | 2015-06-09 | 2020-02-18 | Apple Inc. | Predictive touch detection |
EP3242190B1 (en) * | 2016-05-06 | 2019-11-06 | Advanced Silicon SA | System, method and computer program for detecting an object approaching and touching a capacitive touch device |
US20180239509A1 (en) * | 2017-02-20 | 2018-08-23 | Microsoft Technology Licensing, Llc | Pre-interaction context associated with gesture and touch interactions |
US10824293B2 (en) * | 2017-05-08 | 2020-11-03 | International Business Machines Corporation | Finger direction based holographic object interaction from a distance |
US10860088B2 (en) * | 2018-05-03 | 2020-12-08 | Microsoft Technology Licensing, Llc | Method and system for initiating application and system modal control based on hand locations |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
US11132060B2 (en) * | 2018-12-04 | 2021-09-28 | International Business Machines Corporation | Collaborative interactions and feedback with midair interfaces |
FR3124872A1 (fr) * | 2021-07-02 | 2023-01-06 | Faurecia Interieur Industrie | Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7170492B2 (en) * | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
US7411575B2 (en) * | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
JP5631535B2 (ja) * | 2005-02-08 | 2014-11-26 | オブロング・インダストリーズ・インコーポレーテッド | ジェスチャベースの制御システムのためのシステムおよび方法 |
US8614669B2 (en) | 2006-03-13 | 2013-12-24 | Navisense | Touchless tablet method and system thereof |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
JP4390002B2 (ja) * | 2007-03-16 | 2009-12-24 | ソニー株式会社 | 表示装置およびその制御方法 |
EP2153377A4 (en) | 2007-05-04 | 2017-05-31 | Qualcomm Incorporated | Camera-based user input for compact devices |
JP4991458B2 (ja) | 2007-09-04 | 2012-08-01 | キヤノン株式会社 | 画像表示装置及びその制御方法 |
US8432372B2 (en) | 2007-11-30 | 2013-04-30 | Microsoft Corporation | User input using proximity sensing |
WO2010011929A1 (en) * | 2008-07-25 | 2010-01-28 | Gesturetek, Inc. | Enhanced detection of waving engagement gesture |
WO2010028490A1 (en) | 2008-09-15 | 2010-03-18 | Smart Technologies Ulc | Touch input with image sensor and signal processor |
KR101537596B1 (ko) | 2008-10-15 | 2015-07-20 | 엘지전자 주식회사 | 이동 단말기 및 이것의 터치 인식 방법 |
CN202142005U (zh) * | 2009-07-22 | 2012-02-08 | 罗技欧洲公司 | 用于远程、虚拟屏幕输入的系统 |
KR20110010906A (ko) * | 2009-07-27 | 2011-02-08 | 삼성전자주식회사 | 사용자 인터랙션을 이용한 전자기기 제어 방법 및 장치 |
CN101719015B (zh) * | 2009-11-03 | 2011-08-31 | 上海大学 | 指示手势的手指尖定位方法 |
US8593402B2 (en) * | 2010-04-30 | 2013-11-26 | Verizon Patent And Licensing Inc. | Spatial-input-based cursor projection systems and methods |
JP2012003724A (ja) * | 2010-06-21 | 2012-01-05 | Nippon Telegr & Teleph Corp <Ntt> | 三次元指先位置検出方法、三次元指先位置検出装置、及びプログラム |
JP2012048393A (ja) * | 2010-08-25 | 2012-03-08 | Canon Inc | 情報処理装置およびその動作方法 |
US9360959B2 (en) * | 2010-10-12 | 2016-06-07 | Tactonic Technologies, Llc | Fusing depth and pressure imaging to provide object identification for multi-touch surfaces |
US20120314899A1 (en) * | 2011-06-13 | 2012-12-13 | Microsoft Corporation | Natural user interfaces for mobile image viewing |
US10684768B2 (en) | 2011-10-14 | 2020-06-16 | Autodesk, Inc. | Enhanced target selection for a touch-based input enabled user interface |
-
2012
- 2012-06-20 US US13/528,522 patent/US9213436B2/en not_active Expired - Fee Related
-
2013
- 2013-06-20 EP EP13806783.0A patent/EP2864932B1/en active Active
- 2013-06-20 JP JP2015518581A patent/JP6072237B2/ja active Active
- 2013-06-20 CN CN201380033135.1A patent/CN104662558B/zh active Active
- 2013-06-20 WO PCT/US2013/046906 patent/WO2013192454A2/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2013192454A3 (en) | 2014-01-30 |
US9213436B2 (en) | 2015-12-15 |
JP2015520471A (ja) | 2015-07-16 |
US20130342459A1 (en) | 2013-12-26 |
CN104662558A (zh) | 2015-05-27 |
CN104662558B (zh) | 2018-04-10 |
EP2864932A4 (en) | 2016-02-17 |
EP2864932B1 (en) | 2020-08-12 |
WO2013192454A2 (en) | 2013-12-27 |
EP2864932A2 (en) | 2015-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6072237B2 (ja) | ジェスチャー入力のための指先の場所特定 | |
US11175726B2 (en) | Gesture actions for interface elements | |
JP6013583B2 (ja) | 有効インターフェース要素の強調のための方式 | |
US9910505B2 (en) | Motion control for managing content | |
US9268407B1 (en) | Interface elements for managing gesture control | |
US9696859B1 (en) | Detecting tap-based user input on a mobile device based on motion sensor data | |
US9661214B2 (en) | Depth determination using camera focus | |
EP2707835B1 (en) | Using spatial information with device interaction | |
US9591295B2 (en) | Approaches for simulating three-dimensional views | |
US9483113B1 (en) | Providing user input to a computing device with an eye closure | |
US9377860B1 (en) | Enabling gesture input for controlling a presentation of content | |
US8943582B1 (en) | Transferring information among devices using cameras | |
US9400575B1 (en) | Finger detection for element selection | |
US9075514B1 (en) | Interface selection element display | |
US10019140B1 (en) | One-handed zoom | |
US9471154B1 (en) | Determining which hand is holding a device | |
US9377866B1 (en) | Depth-based position mapping | |
US9041689B1 (en) | Estimating fingertip position using image analysis | |
US9350918B1 (en) | Gesture control for managing an image view display | |
US9898183B1 (en) | Motions for object rendering and selection | |
US10082936B1 (en) | Handedness determinations for electronic devices | |
US9690384B1 (en) | Fingertip location determinations for gesture input |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6072237 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |