JP2019121396A - ユーザー入力とモバイルデバイス動作とを動的に関連付けるデバイス及び方法 - Google Patents

ユーザー入力とモバイルデバイス動作とを動的に関連付けるデバイス及び方法 Download PDF

Info

Publication number
JP2019121396A
JP2019121396A JP2018246491A JP2018246491A JP2019121396A JP 2019121396 A JP2019121396 A JP 2019121396A JP 2018246491 A JP2018246491 A JP 2018246491A JP 2018246491 A JP2018246491 A JP 2018246491A JP 2019121396 A JP2019121396 A JP 2019121396A
Authority
JP
Japan
Prior art keywords
mobile device
user
processor
finger
pressure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018246491A
Other languages
English (en)
Inventor
アタリ サンヤ
Attari Sanya
アタリ サンヤ
スウィンデルズ コリン
Swindells Colin
スウィンデルズ コリン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2019121396A publication Critical patent/JP2019121396A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0279Improving the user comfort or ergonomics
    • H04M1/0281Improving the user comfort or ergonomics for providing single handed use or left/right hand conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザー入力をモバイルデバイス動作に動的に関連付けるデバイス及び方法を提供すること。【解決手段】モバイルデバイスに関連付けられるユーザー検知パネルが、手の複数の部分のプレゼンス又は接触を検出することができる。プレゼンス又は接触を示すユーザー検知パネルからの信号をモバイルデバイス動作に関連付けることができる。信号をモバイルデバイス動作に関連付けるために、モバイルデバイスに関連付けられるプロセッサが、手の部分の部位を特定することができ、識別された手の部分のユーザージェスチャーを認識することができる。信号を受信すると、プロセッサが、モバイルデバイス動作を実行させることができる。【選択図】図1

Description

本発明はユーザー入力とモバイルデバイス動作とを動的に関連付けるデバイス及び方法に関する。
スマートフォン、タブレット等のモバイルデバイスは、例えば、ボタン及びスイッチを含む、種々の触知性ユーザー入力要素を含む。そのようなユーザー入力要素は、多くの場合に、デバイスの側壁に沿って、ユーザーの指がそれらの入力要素に近づくことができる位置に配置される。電話設計者は、ユーザーが近づくのに最も自然な場所にユーザー入力要素を配置しようとする場合があるが、様々な要因が、その目標を妨げることがある。他の内部デバイス構成要素の場所等の、機能設計の制約によって、ユーザー入力要素を最適な場所から離して配置せざるを得ない場合がある。ユーザーは、モバイルデバイスを掴むのに異なる手の大きさ、異なる手の形状、異なる指の数及び異なる方法を有する場合がある。さらに、ユーザー入力要素を最適に配置する場合でも、ユーザー入力要素に近づくために、ユーザーはデバイスを正しい向きに保持する必要がある。
本明細書において説明される実施形態と合致するシステム、デバイス及び方法は、従来のモバイルデバイスユーザー入力要素に伴うこれらの短所及び他の短所に対処する。
本開示と合致するシステム、デバイス及び方法は、ユーザー入力とモバイルデバイス動作との動的な関連付けを提供する。特定のデバイス動作に対応する固定されたユーザー入力要素、例えば、ホームボタン、音量ボタン等の代わりに、そのシステムは、モバイルデバイスを保持するときにユーザーが有する指及び手の位置に応じて、ユーザー入力をモバイルデバイス動作に動的に関連付ける。ユーザーがモバイルデバイスを掴むと、そのシステムは、ユーザーがデバイスを掴んでいる手の位置及び手の部分を検出し、識別する。システムは、その後、指の現在の配置にかかわらず、ユーザーの指のうちの1つによって与えられる、圧力変化等のジェスチャーに基づいて、ユーザーから入力を受信することができる。したがって、例えば、ユーザーの右手親指からの圧力変化が、ホームボタンを押下することに対応する場合がある。ユーザーが電話を手に取ると、右手親指の場所が特定され、その指からの圧力変化は、その場所がどこであっても、ホームボタン押下と識別される。
一実施形態において、モバイルデバイスが提供される。このモバイルデバイスは、マルチコンタクトタッチ(multi-contact touch)に応答して、このマルチコンタクトタッチを示す圧力信号を生成するように構成される圧力センサーを含む少なくとも1つのユーザー検知パネルと、少なくとも1つのプロセッサとを備える。この少なくとも1つのプロセッサは、少なくとも1つの圧力センサーによって生成されたマルチコンタクトタッチを示す圧力信号を受信し、圧力信号をモバイルデバイスの動作に関連付け、モバイルデバイスに動作を実行させ、マルチコンタクトタッチに関連付けられる触覚制御信号を出力するように構成される。触覚制御信号は触覚出力デバイスをアクティベートし、触覚効果を生じさせるように構成される。
一実施形態において、ユーザー入力をモバイルデバイス動作に動的に関連付ける方法が提供される。この方法は、モバイルデバイスの少なくとも1つのユーザー検知パネルの圧力センサーによって、マルチコンタクトタッチに応答して、このマルチコンタクトタッチを示す圧力信号を生成することと、少なくとも1つのプロセッサによって、少なくとも1つの圧力センサーによって生成されたマルチコンタクトタッチを示す圧力信号を受信することと、少なくとも1つのプロセッサによって、圧力信号をモバイルデバイスの動作に関連付けることと、少なくとも1つのプロセッサによって、モバイルデバイスに動作を実行させることと、少なくとも1つのプロセッサによって、マルチコンタクトタッチに関連付けられる触覚制御信号を出力することであって、触覚制御信号は、触覚出力デバイスをアクティベートし、触覚効果を生じさせるように構成される、出力することとを含む。
本発明の一実施形態によるモバイルデバイスを示す図である。 本発明の実施形態による、ユーザー検知パネルの一実施形態を示す図である。 本発明の実施形態による、ユーザー検知パネルの一実施形態を示す図である。 本発明の実施形態による、ユーザー検知パネルの一実施形態を示す図である。 図1のシステムの概略図である。 手及び指の解剖学的構造を示す図である。 モバイルデバイスを握る場合の或る手の位置を示す図である。 モバイルデバイスを握る場合の或る手の位置を示す図である。 モバイルデバイスを握る場合の或る手の位置を示す図である。 本発明の実施形態による、ユーザーの解剖学的構造と、ユーザージェスチャーと、モバイルデバイス動作との間の例示的な関連付けテーブルである。 本発明の一実施形態による、ユーザー入力ジェスチャーを識別するシステムの動作を示すプロセス図である。 本発明の一実施形態による、ユーザー入力ジェスチャーを識別するシステムの動作を示すプロセス図である。
本発明の上述の特徴及び利点並びに他の特徴及び利点は、添付の図面に示されるような本発明の実施形態の以下の説明から明らかであろう。本明細書に組み込まれるとともに本明細書の一部をなす添付の図面は更に、本発明の原理を説明するとともに、当業者が本発明を実施及び使用することを可能にする役割を果たす。図面は一定縮尺ではない。
ここで本発明の特定の実施形態を、同様の参照符号が同一又は機能的に類似した要素を示す図面を参照して説明する。以下の詳細な説明は本来例示的なものでしかなく、本発明又は本発明の用途及び使用を限定するように意図されていない。さらに、前述の技術分野、背景技術、発明の概要又は以下の詳細な説明に提示されている、明示又は暗示されるいかなる理論にも制限されることは意図されていない。さらに、以下の説明はハンドヘルドコンピューティングデバイスを主に対象にするが、その説明が、コンピューター周辺デバイス等のユーザー入力を受ける任意のデバイスを含む、他のデバイスにも等しく当てはまることは、当業者であれば認識されよう。
本発明の実施形態は、ユーザー入力をモバイルデバイスの動作に動的に関連付けるモバイルデバイスを含む。これにより、モバイルデバイスの特定のボタンに基づくのではなく、モバイルデバイスを握っているユーザーの指又は手の他の部分に基づいて、ユーザーが入力を与えることができるようになる。モバイルデバイスを握り、特定のボタンを押下して、或る特定の動作、例えば、電源オン/オフ、音量アップ/ダウンを実行するのではなく、ユーザーは、モバイルデバイスを握り、特定の指で圧力を高める等の、或る手の部分でジェスチャーを実行することによって動作を実行することができる。例えば、ユーザーの右手親指を、モバイルデバイスの「ホーム」ボタンに対応するように選択することができる。ユーザーがモバイルデバイスを握るとき、右手親指がいかに、そしてどこに位置取りされるかにかかわらず、右手親指の圧力の変更、例えば、増加又は減少を「ホーム」ボタンのボタン押下と解釈することができる。このようにして、右手親指によるユーザーの入力は、いずれの場所においても、「ホーム」ボタンを押下することに対応するモバイルデバイス動作に動的に関連付けられる。異なる指及び手の他の部分(例えば、手のひら及び母指球を含む)を、異なるモバイルデバイス動作に対応するように選択することができる。本発明の実施形態によれば、指及び手の部分の組み合わせが1つのモバイルデバイス動作に対応することができる。更なる実施形態では、特定の指又は手の部分の動き又はジェスチャーが1つのモバイルデバイス動作に対応することができる。
モバイルデバイスは、モバイルデバイスを握っているユーザーの手を検知する1つ以上のセンサーを有するユーザー検知パネルを用いて構成することができる。モバイルデバイスのプロセッサが、ユーザーのどの指がマルチコンタクトタッチを示す信号の特定の部分に関与しているかを判断することができる。例えば、モバイルデバイスを握っているときに、プロセッサは、信号のどの態様がユーザーの人差し指、薬指、中指、小指及び親指に対応するかを判断することができる。その際、プロセッサは、特定の指によって実行される仮想的なボタン押下及びジェスチャー等のユーザー入力動作を認識することができる。その後、プロセッサは、モバイルデバイスに、入力動作に対応するモバイルデバイス動作を実行させることができる。
図1は、本発明の一実施形態による、モバイルデバイス100を示す。モバイルデバイス100は、画面101と、ユーザー検知パネル102と、側壁103とを備える。モバイルデバイス100は、スマートフォン、タブレット、ファブレット、ゲームコントローラー及び/又は任意の他のタイプのモバイルコンピューティングデバイス若しくはコンピューティング周辺機器を含むことができる。モバイルデバイス100の画面101はディスプレイを含むことができ、モバイルデバイス100は、限定はしないが、オーディオ入力部及び出力部、プロセッサ、ボタン及び他の構成要素を含む、モバイルデバイス内に通常含まれる任意の他の構成要素を更に備えることができる。モバイルデバイス100は、モバイルデバイス100の側面、上端及び下端に沿って延在する側壁103を備える。図1のモバイルデバイス100は、単一の画面101と、背面(図示せず)とを備える。他の実施形態では、モバイルデバイス100は、モバイルデバイスの両側に2つの画面101を備える場合がある。
モバイルデバイス100は、少なくとも1つのユーザー検知パネル102を備える。モバイルデバイス100は、種々の構成において、複数のユーザー検知パネル102を備えることができる。図1の実施形態において、モバイルデバイス100は、反対に位置する一対の側壁103の実質的に全長に沿って延在する2つのユーザー検知パネル102を備える。モバイルデバイス100は、それぞれが異なる側壁103上に配置される3つ又は4つのユーザー検知パネル102を備えることができる。本発明の実施形態によれば、モバイルデバイス100は、単一の側壁103上に複数のユーザー検知パネル102を備えることができる。本発明の実施形態によれば、ユーザー検知パネル102は、側壁103の少なくとも一部に沿って延在することができ、側壁103の全長に沿って延在しても、しなくてもよい。ユーザー検知パネル102は、モバイルデバイス100の側壁103上に配置することができるか、モバイルデバイス100の側壁103を覆うことができるか、モバイルデバイス100の側壁103上に直接接触するように配置することができるか、側壁103と一体に組み込むことができるか、側壁103の一部として含むことができるか、側壁103の切欠きを通して突出するように配置することができるか、又は、モバイルデバイス100の画面101に対して実質的に垂直に配置されるモバイルデバイス100の側面に沿ってセンサーエリアを設けるように側壁103に対して別の方法で配置することができる。
図2A〜図2Cは本発明の実施形態による、ユーザー検知パネル102のいくつかの実施形態を示しており、ユーザー検知パネル102は、圧力センサー、近接センサー、タッチセンサー、指紋リーダー、及びユーザーの手の一部による接触、圧力及び/又は近接を検出することができる任意の他のセンサーであるか、又はそれらのセンサー及びリーダーを含む。図2Aは、側壁103に沿って延在する、感圧パネル又はタッチセンシティブバーとして具現される単一の圧力センサー140からなるユーザー検知パネル102を備える側壁103を示す。図示されるように、ユーザー検知パネル102は、側壁103の実質的に全長Lに沿って、かつ側壁103の実質的に全奥行Dに沿って延在する。図2Bは、側壁103の実質的に全長にわたって、側壁103に沿って延在する、感圧パネルとして具現される圧力センサー141と、平行に配置される近接センサー150とからなるユーザー検知パネル102を備える側壁103を示す。図2Cは、側壁103の実質的に全長にわたって、側壁103に沿って延在する感圧パネルとして具現され、その中に配置されるいくつかの近接センサー151を収容する切欠きを有する、圧力センサー142からなるユーザー検知パネル102を備える側壁103を示す。図2A〜図2Cは、種々の実施形態を例示するものであり、ユーザー検知パネル102として機能することができるセンサーの数、サイズ、形状及び配置を制限するものではない。側壁103は、図2Aに示されるように、長さL及び奥行Dを有する。
圧力センサー又は接触を必要とする他のセンサーを有するユーザー検知パネルを含む実施形態において、センサーは、マルチコンタクトタッチに応答して、マルチコンタクトタッチを示す圧力信号を生成するように構成することができる。マルチコンタクトタッチを示す信号は、接触が行われた場所を示す場所情報、接触が行われた場所における圧力の大きさを示す圧力量(pressure magnitude)情報、センサーと接触する体の部分の動きを示す動きインジケーション、及び/又は接触が行われた各場所における接触面積を示す接触面積情報を含むことができる。近接センサーを含む実施形態において、センサーは、複数のプレゼンス、すなわち、マルチプレゼンスポジショニング(multi-presence positioning)に応答し、複数のプレゼンスを示すプレゼンス信号を生成するように構成することができる。マルチプレゼンスポジショニングを示す信号は、マルチコンタクトタッチ信号において与えられるのと同じ情報の全てと、体の一部又は他の物体の非接触近接を示す近接情報とを含むことができる。本発明の一実施形態によれば、ユーザー検知パネル102は、上記で論じられた種類の2つ以上からのセンサーを備えることができ、それゆえ、マルチモード検知のために構成することができる。例えば、図2Bに示されるように、ユーザー検知パネル102は、マルチコンタクトタッチを検出するように構成される圧力センサー(複数の場合もある)と、1つ以上の指の存在又は近接を検出するように構成される近接センサー(複数の場合もある)とを備えることができる。ユーザーは、片手又は両手で、母指球、手のひらを含む、指、親指のうちの1つ以上を用いて、及び片手(両手)の任意の他の部分を用いて、モバイルデバイス100を掴む場合がある。モバイルデバイス100を保持するとき、ユーザーの指及び手は、複数の場所においてユーザー検知パネル(複数の場合もある)の圧力センサーと接触する場合があり、それゆえ、マルチコンタクトタッチを引き起こす場合がある。
図3は、モバイルデバイス100の概略図を示す。図3に示されるように、モバイルデバイス100は、本明細書においてプロセッサ又は複数のプロセッサと様々に呼ばれる1つ以上のプロセッサ200と、少なくとも1つのメモリユニット205とを備えることができる。モバイルデバイス100は、上記のような1つ以上のユーザー検知パネル102と、ボタン、ジョイスティック、トリガー、マイクロフォン、スイッチ、タッチスクリーン等を含む、より従来型の物理的又は操作可能ユーザー入力要素206とを更に備えることができる。モバイルデバイス100は、1つ以上のオーディオ及び/又はビデオ出力デバイス201と、1つ以上の触覚出力デバイス202とを更に備えることができる。オーディオ及び/又はビデオ出力デバイス201は、スピーカー、ディスプレイ、及び/又は他の構成要素を含むことができる。
モバイルデバイス100は、メモリ205に記憶され、プロセッサ200によって実行されるソフトウェア命令を実行することができる。プロセッサ200は、任意のタイプの汎用プロセッサのうちの1つ以上を含むことができ、ユーザー入力ジェスチャーを識別するように特に設計されるプロセッサとすることもできる。プロセッサ200は、モバイルデバイス100の全ての機能を操作する同じプロセッサとすることができ、及び/又は本明細書において論じられる目的のために構成される特殊プロセッサを含むことができる。プロセッサ200は、モバイルデバイス動作を実行するために、種々の態様のモバイルデバイス100に送信すべきコマンドを決定するコンピューター命令を実行することができる。メモリ205は、任意のタイプの記憶デバイス、又は、限定ではないが、ランダムアクセスメモリ(RAM)若しくは読出し専用メモリ(ROM)等の非一時的コンピューター可読媒体のうちの1つ以上を含むことができる。メモリ205は、ホストプロセッサの内部に位置するか、又は、内部メモリと外部メモリとの任意の組み合わせとすることもできる。
本発明の実施形態によれば、モバイルデバイス100は、触覚対応デバイスである。触覚対応デバイスは、ユーザーに触覚効果を伝達する1つ以上の触覚出力デバイス202を有するデバイスを含む。触覚対応デバイスは、例えば、ローカルプロセッサ200から、及び/又は外部コンピューターシステムから、作動するための触覚コマンドを直接受信する1つ以上の触覚出力デバイス202を備えるデバイスとすることができる。触覚対応デバイスは、1つ以上の触覚出力デバイスに作動信号を伝達する前に、受信した触覚出力信号を処理又は解釈することができる1つ以上のプロセッサを更に備えることができる。触覚対応デバイスは、ユーザーがコンピューターシステムと情報を交換できるようにするユーザー入力要素、例えば、トリガー、ボタン、ジョイスティック、ジョイパッド等の制御要素を更に備えることができる。触覚対応デバイスは、触覚対応周辺機器及び制御デバイス、すなわち、本発明の実施形態と合致するコンピューターシステム等の中央デバイスに対する付属又は周辺ユニットとして機能するように設計されるデバイスを含むことができる。また、触覚対応デバイスは、スマートフォン、スマートスイッチ、タブレット、ファブレット、及び任意の他のモバイルコンピューティングデバイスを含む、モバイルデバイスを含むこともできる。したがって、触覚対応デバイスは、コンピューターシステムとして機能することができ、触覚出力デバイス及び制御要素を含むことができる。
触覚出力コマンドを用いて、触覚出力デバイス202を直接、又は間接的に作動させ、及び/又はアクティベートさせることができる。本発明の一実施形態によれば、触覚出力コマンドは、触覚出力デバイスに触覚効果を生成させるために、有線又は無線で送信される触覚出力信号を含むことができる。触覚出力信号は、触覚効果をもたらすために触覚出力デバイス202によって受信される作動信号を含むことができる。また、触覚出力信号は、他のシステム構成要素間で、所望の触覚効果についての情報とともに送信される信号を含むこともできる。例えば、リモートコンピューターシステムプロセッサが、触覚対応デバイス、すなわち、モバイルデバイス100に関連付けられるプロセッサ200に、発生すべき触覚効果についての情報を含む触覚出力信号を出力することができる。プロセッサ200は、触覚出力信号を受信し、その信号を処理し、触覚効果をもたらす触覚出力デバイス202に別の触覚出力信号を出力することができる。したがって、触覚出力信号は、触覚効果を生成するために使用されることになる任意の信号を含むことができる。触覚出力コマンドはソフトウェアコマンドを更に含むことができる。すなわち、ソフトウェアインタラクションが、触覚出力デバイスを作動させるための情報を含む触覚出力コマンドを生成することができる。ソフトウェアコマンドの形の触覚出力コマンドは、プロセッサ200に、触覚出力信号の形の触覚出力コマンドを生成させることができる。
プロセッサ200は、触覚出力デバイス202をアクティベートする触覚出力コマンドを与えることができる。プロセッサ200は、触覚出力コマンドと合致する、出力されるべき触覚効果の特定の特徴(例えば、大きさ、周波数、持続時間等)に関して、触覚出力デバイス202に指示することができる。プロセッサ200は、プロセッサに結合されるメモリ205から、触覚出力コマンドと合致する触覚効果のタイプ、大きさ、周波数、持続時間又は他の特徴を引き出すことができる。触覚効果のタイプ、大きさ、周波数、持続時間及び他の特徴は、後に論じられる実施形態に従って、ユーザーに適切なフィードバックを与えるように選択することができる。
触覚出力デバイス202は、触覚対応デバイスの当業者に既知であるような、1つ以上の振動、慣性及び/又は運動(kinesthetic)アクチュエーターを含むことができる。可能なアクチュエーターは、偏心質量体がモーターによって移動される偏心回転質量(「ERM」)アクチュエーター、ばねに取り付けられた質量体が前後に駆動されるリニア共振アクチュエーター(「LRA」)、圧電アクチュエーター、慣性アクチュエーター、形状記憶合金、信号に応答して変形する電気活性高分子、剛性を変化させるメカニズム、静電摩擦(ESF)、超音波表面摩擦(USF)、他の任意のタイプの振動触知性アクチュエーター、又は上述のアクチュエーターの任意の組み合わせを含むが、これらに限定されるものではない。
図4は、一対の手300の解剖学的構造を示し、手のひら側及び手の甲側の両方の図を示す。手300は、手のいくつかの異なる部分を含む。手300は5本の指301を含む。第1の指301は親指306であり、残りの4本の指301は、人差し指302、中指303、薬指304及び小指305を含む指である。各指301は、末節骨310及び基節骨312を含む。4本の指302〜305はそれぞれ中節骨311も含む。親指306は、母指球307を更に含む。手300は手のひら308を更に含む。
図5A〜図5Cは、ユーザーがマルチコンタクトタッチを用いてモバイルデバイス100を掴んでいる例を示す。図5Aは、親指306の末節骨310がモバイルデバイスの第1の側壁103A上の第1のユーザー検知パネル102Aと接触し、4本の各指302〜305の末節骨310がモバイルデバイスの第2の側壁103B上の第2のユーザー検知パネル102B上にあるようにしてユーザーがモバイルデバイス100を掴んでいることを示す。図5Bは、親指306の末節骨310及び母指球307がモバイルデバイスの第1の側壁103A上の第1のユーザー検知パネル102Aと接触し、3本の各指303〜305の末節骨310がモバイルデバイス100の第2の側壁103B上の第2のユーザー検知パネル102Bと接触し、人差し指302の末節骨310がモバイルデバイス100の第3の側壁103C上の第3のユーザー検知パネル102Cと接触するようにしてユーザーがモバイルデバイス100を掴んでいることを示す。図5Cは、親指306の末節骨310及び基節骨312がモバイルデバイス100の第1の側壁103A上の第1のユーザー検知パネル102Aと接触し、人差し指302の末節骨310及び中節骨311がモバイルデバイス100の第2の側壁103B上の第2のユーザー検知パネル102Bと接触するようにしてユーザーがモバイルデバイスを掴んでいることを示す。図5A〜図5Cに示される握る位置は例示にすぎない。モバイルデバイス100の側壁103A、103B、103Cに関連付けられるユーザー検知パネル102A、102B、102Cは、ユーザーの手の任意の部分のマルチコンタクトタッチ又はマルチプレゼンスポジショニングを検出するように構成することができる。
上記で論じられたように、モバイルデバイス100に関連付けられるユーザー検知パネル102は、ユーザーの手の解剖学的構造の種々の部分からのマルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを検出するように構成される。ユーザー検知パネル102は、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号、例えば、圧力信号、タッチ信号、近接信号、接触信号等をプロセッサ200に送信するように更に構成される。
プロセッサ200は、ユーザー検知パネル102によって送信されたマルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号を受信するように構成される。信号を受信した後に、プロセッサ200は、信号を解析して、ユーザーの意図した入力を判断し、意図した入力に関連付けられるモバイルデバイス動作を決定し、モバイルデバイス100にモバイルデバイス動作を実行させるように構成される。
ユーザーの意図した入力を判断するために、プロセッサ200は、ユーザー検知パネル102からの信号を解析し、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを与える指301及び手の他の部分の解剖学的部位(anatomical identity)を特定することができる。信号は、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを与える指301及び手の他の部分のうちの1つ以上の場所を示す場合がある。信号は、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを与える指301及び手の他の部分のうちの1つ以上によってもたらされる圧力の大きさを示す場合がある。信号は、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを与える指301及び手の他の部分のうちの1つ以上の動きを更に示す場合がある。プロセッサ200は、信号の場所、接触面積、圧力量、動きのインジケーションのうちの1つ以上を用いて、指301及び手の他の部分のうちの1つ以上の解剖学的部位を特定することができる。識別される解剖学的部位は、指301の全ての指骨310〜312、並びに母指球307及び手のひら308を含む、モバイルデバイス100を握るために使用される手300の任意の部分を含むことができる。
プロセッサ200は、圧力又は近接が検出されたユーザー検知パネルのセンサーの場所に基づいて、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号を用いて、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを与えた指301及び手の他の部分の解剖学的部位を特定することができる。圧力又は近接の検出場所は、側壁103の長さLに沿った場所、及び/又は側壁103の奥行Dに沿った場所を指す場合があり、すなわち、図2Aに示されるような場所を指す場合がある。プロセッサ200は、圧力又は近接を与える、指301及び手の他の部分、例えば、母指球307の解剖学的部位を特定することができる。
プロセッサ200は、信号を解析して、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングの構成要素接触点を判断する。マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号において検出される、すなわち、接触又は近接によって検出される各指又は手の他の部分は、接触点401によって表すことができる。マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングの接触点401は、ユーザーの指又は手の他の部分の検出された接触又は近接の特徴によって規定される。例えば、図5Aに示されるようなマルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号は、第2の側壁103B上で、指301ごとに1つずつの4つの接触点401を規定する。異なる接触点401の場所及び相対的な間隔がプロセッサ200によって使用され、各接触点401が、対応する握っている部分の解剖学的部位が判断される。握っている部分の解剖学的部位は、指301、又は指301の部分、例えば、末節骨310、中節骨311若しくは基節骨312、又はそれらの接触点が表す手の他の部分によって識別される。小指305、薬指304、中指303及び人差し指302を表す接触点401の場所は、ユーザーがこれらの指301のうちの2つの位置取りを入れ替えるのは極めて難しいので、通常は連続して配置される。親指306を表す接触点401の位置取りは通常、他の指301とは反対側の、第1の側壁103A等の側壁103上である。相対的な間隔を用いて、解剖学的部位を特定することもできる。例えば、一方の側壁103が3つだけの接触点401を有する場合には、小指305又は人差し指302のいずれかがユーザー検知パネルのセンサーと接触していない可能性がある。プロセッサ200は、モバイルデバイス100の反対側の側壁103上にある親指306に対する残りの指301の相対的な間隔に基づいて、どの指301がセンサーと接触していないかを判断することができる。
ユーザー検知パネル内の近接センサーを使用する実施形態によれば、センサーが指301又は手の他の部分の場所を特定するのに接触している必要はない。そのような実施形態では、近接センサーは、センサーと接触し、及び/又はセンサー付近にある指301及び手の他の部分の場所を検出し、それにより、関連付けられる接触点401を確立することができる。そのような実施形態は、検知された指301及び手の部分の場所に基づいて解剖学的部位を特定するために、上記と同じ方法を使用することができる。
プロセッサ200は、ユーザー検知パネル102によって検出された接触点401の面積を用いて、モバイルデバイス100を握るために使用される指301及び手の他の部分の解剖学的部位を特定することができる。ユーザーの種々の指301及び手の部分は大きさが異なる場合があり、それゆえ、ユーザー検知パネル102との接触面積がより大きい場合がある。それゆえ、親指306は、小指305より接触面積が大きい場合がある。図5Cに示されるような、2つ以上の指骨でモバイルデバイス100と接触する指301は、単一の指骨でモバイルデバイス100と接触する指301より接触面積が大きい場合がある。したがって、プロセッサ200は、ユーザー検知パネルのセンサーからの接触面積情報を用いて、モバイルデバイス100を握るために使用される指301及び手の他の部分の解剖学的部位を特定することができる。
プロセッサ200は、ユーザー検知パネルのセンサーによって検出される圧力の大きさを用いて、モバイルデバイス100を握るために使用される指301及び手の他の部分の解剖学的部位を特定することができる。電話が握られるときに、ユーザーは異なる手の部分で異なる量の圧力を加える場合がある。例えば、図5Aのように電話が握られるとき、親指306及び人差し指302がそれぞれ、ユーザー検知パネル102A、102Bをより強く押圧する場合があり、その際、残りの指301がユーザー検知パネル102Bを押圧し、それゆえ、より大きい圧力を生成する。
プロセッサ200は、ユーザー検知パネルのセンサーによって与えられる動きインジケーションを用いて、握っている指301及び手の他の部分の解剖学的部位を特定することができる。モバイルデバイス100を掴むとき、ユーザーがモバイルデバイス100を保持する手を配置するのに応じて、ユーザーの握り方が変化する場合がある。プロセッサ200は、そのような握り方の変化を表すマルチコンタクトタッチを示す信号の動きインジケーターを用いて、握っている指301及び手の他の部分の解剖学的部位を特定することができる。
本発明の実施形態によれば、プロセッサ200は、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号の複数の態様を用いて、握っている指301及び手の他の部分の解剖学的部位を特定することができる。プロセッサ200は、例えば、場所情報を圧力量情報と組み合わせることができる。プロセッサ200は、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号の上記で論じられた態様のうちのいずれか1つ又は全てを用いて、1つ以上の握っている指301及び手の他の部分の解剖学的部位を特定することができる。
本発明の実施形態によれば、プロセッサ200は、トレーニングされたモデルに従って、握っている指301及び手の他の部分の解剖学的部位を特定することができる。トレーニングされたモデルは、複数の被験者から収集されたトレーニングデータに従って決定されたデフォルトモデルとすることができる。例えば、複数の被験者が、一連の異なる握り位置においてモバイルデバイス100を握るように要求される。被験者がモバイルデバイス100を握っている間に、ユーザー検知パネル102は、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを検出し、応答信号をプロセッサ200に与えることができる。各被験者は、握りデータを収集するために、複数の異なる方法においてモバイルデバイス100を握ることができる。プロセッサ200、又は別のシステム内に配置される別のプロセッサが、その際、デフォルトモデルを生成するために、複数の被験者から収集された握りデータを集約することができる。収集された握りデータは、握りデータの生成中に使用される指301及び手の他の部分の複数の握り位置に関連付けられる。したがって、デフォルトモデルは、1つの握っている手の位置と、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す1つの対応する信号との間の各関連付けを含む、複数の関連付けを含む場合がある。ユーザーがモバイルデバイス100とインタラクトし、ユーザー検知パネル102がマルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号を生成すると、その信号をデフォルトモデルデータと比較して、握っている指301及び手の他の部分の解剖学的部位を特定することができる。
本発明の実施形態によれば、トレーニングされたモデルはユーザー固有モデルとすることができる。ユーザー固有モデルを生成するために、プロセッサ200は、モバイルデバイス100のオーディオ又はビデオ出力デバイス201(例えば、画面及び/又はスピーカー)に信号を送信し、出力デバイスに、ユーザーが特定の方法においてモバイルデバイス100を握るように要求させる。出力デバイスはユーザーに複数の要求を行うことができ、モバイルデバイス100が複数回、複数の異なる手の位置で握られるように要求する。プロセッサ200は、ユーザー検知パネル102から、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号を受信し、その信号のデータを、要求された異なる手の位置に関連付けることができる。このようにして、プロセッサ200は、特定のマルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号を、種々の記憶された異なる手の位置のうちの対応する手の位置と関連付けるユーザー固有モデルを構築することができる。一実施形態において、ユーザー固有モデルを構築することは、デフォルトモデルから開始することができる。ユーザー固有モデルは、原則として、デフォルトモデルを用いて構築することができる。ユーザー固有モデルは、特定のユーザーに行われた要求に基づいて、デフォルトモデルを精緻化することを含むことができる。また、ユーザー固有モデルは、ユーザーによる使用中に行われる精緻化を含むこともできる。例えば、ジェスチャーが認識されないままであるか又はジェスチャーが誤って認識されると、ユーザーは、ジェスチャーの意図についての入力を与えることができる。ユーザー入力を用いて、ユーザー固有モデルを精緻化することができる。種々のユーザーが平均的な手とは大きく異なる手を有する場合があり、すなわち、ユーザーの手が大きいか又は小さい、ユーザーが指301を失っている、ユーザーが奇形の指301を有する等の場合があるので、ユーザー固有モデルは有益な場合がある。したがって、ユーザー固有モデルは、握っている指301及び手の他の部分の解剖学的部位をプロセッサ200が識別できるようにするのに有効な場合がある。
プロセッサ200は、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号をモバイルデバイス100の動作と関連付けるように更に構成される。プロセッサ200は、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号の任意の部分を動作と関連付けることによって、その信号をモバイルデバイス100の動作と関連付けることができる。
信号の一部を動作と関連付ける際に、プロセッサ200は、握っている指301及び手の部分の解剖学的部位に基づいて、ユーザーのジェスチャーを認識し、そのジェスチャーに従って、その信号をモバイルデバイスの動作に関連付けることができる。ジェスチャーは、動き、圧力、場所、タイミング及び他の特徴によって特徴付けることができる。例えば、ジェスチャーは、ユーザーの動き、例えば、ユーザー検知パネル102に沿って指301をスライドさせること、ユーザー検知パネル102から指301を外すか、又は指301を入れ替えること、ユーザー検知パネル102をタップすること、ユーザー検知パネル102に沿ってスワイプすること、並びに握っている指301及び手の部分の1つ以上の任意の他の運動によって特徴付けることができる。したがって、例えば、ユーザーは、親指306をユーザー検知パネル102上で上向きに、若しくは下向きにスライドさせることによって、又はユーザー検知パネル102上を人差し指302でタップすることによってジェスチャーすることができる。ジェスチャーは、ユーザー検知パネル102にかかる指301及び握っている手の部分の1つ以上の圧力を高めることを更に含むことができる。例えば、ユーザーはユーザー検知パネル102上のボタンを押下しているかのように、親指306又は人差し指302でより強く押圧することができる。ジェスチャーは、識別された握っている指301及び手の部分の場所によって更に特徴付けることができる。例えば、指301によるスライドさせるジェスチャーは、スライドさせる動きによってだけでなく、スライドさせるジェスチャーの長さ、すなわち、ジェスチャーの開始時の指301の場所と、ジェスチャーの終了時の指301の場所との間の距離によっても特徴付けることができる。音量変更として認識されるスライドさせるジェスチャーの場合、スライドさせることによって、音量を更に高めることができる。ビデオスクラビング(video scrubbing)ジェスチャーとして認識されるスライドさせるジェスチャーの場合、スライドさせることによって、スクラビング速度を更に高めることができる。ジェスチャーは、タイミングによって更に特徴付けることができる。例えば、指301から圧力を与えることによってジェスチャーが開始される場合がある。圧力がかけられる時間の長さがジェスチャーを特徴付けることができる。音量制御ジェスチャーの場合、指301がジェスチャーを保持する時間の長さによって、ジェスチャーが解除されるまで、音量を上げ続けるか、又は下げ続けることができる。
プロセッサ200が握っている指301又は手の部分の解剖学的部位を認識すると、識別された解剖学的構造の特定の場所は、モバイルデバイス100の動作に関連付けるのにもはや重要でない場合がある。ユーザーがモバイルデバイス100を握るとき、プロセッサ200は、握っている指301及び手の部分の解剖学的部位を特定することができる。その後、ジェスチャーの認識は、握っている部分の部位に基づく。したがって、ユーザーが、通常とはわずかに異なるようにモバイルデバイス100を保持している場合には、ジェスチャーの認識は影響を受けない。例えば、図5Aにおいて利用される握り方はモバイルデバイス100上の高い方又は低い方において使用することができ、それにより、指301がモバイルデバイス100の側壁103A、103Bに沿った異なる場所に配置される可能性がある。ユーザーがジェスチャーを実行する、例えば、親指306で圧力変化を加えるとき、プロセッサ200は、そのジェスチャーを親指306で実行されているものと認識し、親指306があるべき場所から外れている場合であっても、そのジェスチャーをモバイルデバイス動作に関連付ける。したがって、ユーザーはモバイルデバイス100の仮想的なボタンパネル又は仮想的なボタンバー上の「仮想的なボタン」を押下しており、ユーザーは握っている指301を物理的なボタン上に配置する必要はない。そのような仮想的なボタンの使用は、手の大きさ及び形状が異なるユーザーに、モバイルデバイス100とインタラクトする方法に関する融通性を提供し、従来のモバイルデバイスの種々のボタン及び入力要素を配置するために通常必要とされる多大な設計作業を不要にする。
本発明の実施形態によれば、プロセッサ200は、モバイルデバイス動作を、認識された手の位置と、識別された解剖学的部位との両方に関連付けるように構成することができる。上記で論じられたように、プロセッサ200は、ユーザーの手の位置を認識するように構成することができる。認識されたユーザーの手の位置に応じて、ジェスチャー認識が変更される場合がある。例えば、第1の手の位置、例えば、図5Aに示されるような手の位置において、親指306からの圧力変化を含むジェスチャーは、第1のモバイルデバイス動作に関連付けられる場合がある。第2の異なる手の位置、例えば、図5Cに示されるような手の位置において、親指306からの圧力変化を含むジェスチャーは、第2のモバイルデバイス動作に関連付けられる場合がある。モバイルデバイス100の通常の使い方に適合する場合がある第1の手の位置では、圧力変化を含む親指ジェスチャーは、モバイルデバイス100のホームボタンを押下するのと同等とすることができる。ビデオを見るためにモバイルデバイス100を保持するときにユーザーが使用している場合がある第2の手の位置では、親指306からの圧力変化は、音量制御動作、再生/一時停止動作、又はビデオを見ることに関連付けられる他の動作に関連付けられる場合がある。
本発明の実施形態によれば、プロセッサ200は、複数の握っている指301によって実行されるジェスチャーに基づいて、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号をモバイルデバイス100の動作に関連付けるように構成することができる。例えば、ユーザーがジェスチャーとして親指306による圧力を高めようとするとき、親指306からの圧力を相殺するために、握っている指301及び手の部分の残りにも圧力変化を加えることが必要とされる場合がある。プロセッサ200は、握っている指301又は手の部分のうちの1つ以上によって加えられる圧力を示す信号をモバイルデバイス動作に関連付けるように構成することができる。プロセッサ200が、ジェスチャーを認識する際に他の握っている指301又は手の部分のうちの1つ以上の圧力変化を認識するように構成される間に、ユーザーは、ジェスチャーを親指306の圧力変化として経験する場合がある。
本発明の実施形態によれば、プロセッサ200は、握っている指301及び手の部分の解剖学的部位を個別に認識することを必要とすることなく、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号をモバイルデバイス100の動作に関連付けるように構成することができる。ユーザーがジェスチャーを実行するとき、1つ以上のユーザー検知パネル102からの信号が、ジェスチャーの特徴を一意に示している場合があり、プロセッサ200は、解剖学的部位を識別する中間ステップを実行することなく、信号をジェスチャーに、それゆえ、モバイルデバイス100の動作に直接関連付けることができる。握っている指301及び手の部分の解剖学的部位を個別に認識することなく、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号をモバイルデバイス100の動作に関連付けることは、上記で論じられたように、モデル、すなわち、トレーニングされたデフォルトモデル又はトレーニングされたユーザー固有モデルのいずれかに従って実行される場合がある。
本発明の実施形態によれば、プロセッサ200は、上記で論じられたような信号と、デバイスの動作モードとに基づいて、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号をモバイルデバイスの動作に関連付けるように構成することができる。例えば、人差し指302をスライドさせるジェスチャーは、通話中に検出される場合には、音量変更モバイルデバイス動作に対応するものと解釈される場合があり、ウェブブラウザの使用中に検出される場合には、スクロールする動作に対応するものと解釈される場合がある。したがって、ジェスチャー認識は、通話アプリケーション、テキストメッセージ伝送アプリケーション、ビデオアプリケーション、ゲームアプリケーション等を含む、デバイス上で実行中のアプリケーションに応じて変更される場合がある。
図6は、解剖学的部位と、実行されるジェスチャーと、モバイルデバイス動作との間の例示的な関連付けを示す関連付けテーブル500である。プロセッサ200は、指301又は手の部分の解剖学的部位を識別し、識別された指301又は手の部分によって実行されるジェスチャーを識別し、解剖学的構造及びジェスチャーを、実行されるべきモバイルデバイス動作に関連付けることができる。図6に示されるように、プロセッサ200は、指301又は手の部分が左右いずれの手300からもたらされるかに基づいて、解剖学的部位を識別することができる。複数の異なるジェスチャー、すなわち、中指303又は人差し指302で押圧することが、同じモバイルデバイス動作に対応することができる。モバイルデバイス動作と、解剖学的構造と、ジェスチャーとの間の関連付けはあらかじめプログラムすることができ、及び/又はユーザーが規定することができる。識別可能なジェスチャー及び関連付けられる動作のいくつかの例は、ロック/ロック解除機能を制御するために親指306で押圧すること、スクロールを制御するために親指306でスワイプすること、音量のアップダウンを制御するために薬指304又は小指305を上向きに又は下向きにスライドさせること、モバイルデバイス100をミュートするために人差し指302又は中指303で押圧することを含むことができる。図6に示されるモバイルデバイス動作は、例にすぎず、モバイルデバイス100が実行することができる任意の動作を対応するジェスチャー及び解剖学的構造に関連付けることができる。
プロセッサ200は、決定されたモバイルデバイス動作をモバイルデバイス100に実行させるように更に構成される。上記で論じられたように、ジェスチャーを識別し、動作と関連付けた後に、プロセッサ200は、動作を実行させる。プロセッサ200は、例えば、コンピューター命令を実行することによって動作を直接生じさせることができ、及び/又は、モバイルデバイス動作を生じさせるために、例えば、モバイルデバイス100の別の態様、例えば、画面、オーディオ出力、アンテナ等に制御信号を送信することによって、動作を間接的に生じさせることができる。
本発明の実施形態によれば、プロセッサ200は、ジェスチャーの識別及びモバイルデバイス動作の実行の確認としてフィードバックを出力させるように更に構成される。そのようなフィードバックは、オーディオ信号、例えば、ビープ音又はトーン、ビデオ表示及び/又は触覚出力を含むことができる。モバイルデバイス100は、フィードバックを与えるために、上記で論じられたように、オーディオ及び/又はビジュアル出力デバイス201を含むことができる。モバイルデバイス100は、フィードバックを与えるために、1つ以上の触覚出力デバイス202を更に備えることができる。
実行されるべきモバイルデバイス動作の確認のための触覚フィードバックは、モバイルデバイス動作と触覚フィードバックとの間の関連付けに従ってプロセッサ200によって決定される場合がある。また、触覚フィードバックは、認識されたジェスチャーに応答して、プロセッサ200によって開始される場合もある。異なるモバイルデバイス動作及び/又は異なるジェスチャーが、異なる触覚フィードバック出力に関連付けられる場合がある。本発明の実施形態によれば、1つ以上の異なるモバイルデバイス動作が、同じ触覚フィードバック出力に関連付けられる場合がある。プロセッサ200は、ジェスチャーが認識されたという確認、及び/又はモバイルデバイス動作が実行されるという確認をユーザーに与えるために、1つ以上の触覚出力デバイス202によって受信されるべき触覚制御信号を生成し、出力することができる。確認として与えられる触覚フィードバックは、認識されたジェスチャーに対応するように選択することができる。したがって、確認として与えられる触覚フィードバックは、2つの目的を果たす。第一に、ジェスチャーに応答して触覚フィードバックを与えることによって、ジェスチャーが受信又は認識されたという確認が与えられる。第二に、与えられる具体的な触覚フィードバックは、認識されたジェスチャーに対応することができ、それゆえ、認識されたジェスチャーが何であるかという確認をユーザーに与えることができる。そのような触覚フィードバックは、ジェスチャーが正しく受信されたか又は誤って受信されたという警告又は確認をユーザーに与える役割を果たす。
本発明の実施形態によれば、プロセッサ200は、モバイルデバイス100を握っている指301及び手の他の部分の解剖学的部位を認識すると、触覚フィードバックを生じさせることができる。ユーザーがモバイルデバイス100を掴み、手に取る場合がある。プロセッサ200は、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号に基づいて、握っている指301及び手の他の部分の解剖学的部位を認識すると、プロセッサ200がユーザーのジェスチャーを直ちに認識できるという確認をユーザーに与えるために、触覚出力デバイス202を介してユーザーに触覚出力を与えることができる。したがって、ユーザーがモバイルデバイス100を手に取り、触覚出力を受信すると、すなわち、掴んでいる指及び手の他の部分の解剖学的部位がプロセッサ200によって認識されると、ユーザーは、システムが直ちにジェスチャーを認識できることを知る。ユーザーがモバイルデバイス100を手に取り、掴んでいる指及び手の他の部分の解剖学的部位が認識されない場合には、プロセッサ200は、触覚フィードバックを与えない場合があり、及び/又は、掴んでいる指及び手の他の部分を認識するのに失敗したことに特に関連付けられる触覚フィードバックを与える場合がある。そのような事態において、ユーザーは、システムが直ちにジェスチャーを認識できないという警告として、触覚フィードバックを受けない場合があるか、又は特定の触覚フィードバックを受ける場合がある。その際、ユーザーは、例えば、手を位置取りし直し、認識の可能性を高めることができる。
本発明の実施形態によれば、触覚出力デバイス(複数の場合もある)は、ユーザー検知パネル102上に配置される掴んでいる指又は手の他の部分に触覚フィードバックを直接与えるように構成することができる。したがって、ユーザー検知パネル102は、仮想触覚ボタンパネル又は仮想触覚ボタンバーとして機能することができる。
図7は、マルチコンタクトタッチを識別する方法を実行する際の本明細書において説明されるシステムの機能を示すプロセス図である。複数の実施形態において、図7のプロセス図の機能は、モバイルデバイスのメモリに記憶され、モバイルデバイス100のプロセッサによって実行されるソフトウェア及び/又はファームウェアによって実施することができる。他の実施形態では、その機能は、特定用途向け集積回路(「ASIC」)、プログラマブルゲートアレイ(「PGA」)、フィールドプログラマブルゲートアレイ(「FPGA」)の使用を通してハードウェアによって、及び/又はハードウェア及びソフトウェアの任意の組み合わせによって実行される場合がある。図7の機能が、モバイルデバイス100と合致するデバイス及びシステムによって、及び/又は当該技術分野において既知であるような別の構成を有する触覚対応デバイス若しくはコンピューターシステムによって実行される場合があることは当業者には理解されよう。
図7は、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを識別するプロセス600を示す。図7に示されるプロセス600は、本明細書において説明されるデバイス及びシステムと合致する方法の一例として与えられる。プロセス600のステップ及び動作は、例示のためにのみ特定の順序において説明される。プロセス600のステップ及び動作は、異なる順序において実行される場合があり、更なるステップを含む場合があり、それより少ないステップを含む場合がある。プロセス600のステップ及び動作のうちのいくつかは、圧力信号を生成する圧力センサーを含むユーザー検知パネルの一実施形態に関して具体的に説明されるが、そのような説明によって限定することは意図していない。これらのステップ及び動作は、プレゼンス信号を生成する近接センサー等の代替のセンサーを含むユーザー検知パネルの実施形態にも等しく当てはまる場合がある。
動作602において、プロセス600は、モバイルデバイスのユーザー検知パネルの少なくとも1つのセンサーによって、マルチコンタクトタッチ又はマルチプレゼンスポジショニングに応答して、マルチコンタクトタッチ又はマルチプレゼンスポジショニングを示す信号を生成することを含む。例えば、ユーザー検知パネルが、圧力信号を生成する圧力センサーを含む場合がある。生成された圧力信号は、モバイルデバイスを握っている指又は手の他の部分の場所、圧力量、接触面積及び動きについての情報を含むことができる。更なる例において、他のタイプのセンサー、例えば、近接センサー等が、他のタイプの信号を生成することができる。
動作604において、プロセス600は、少なくとも1つのプロセッサによって、ユーザー検知パネルの少なくとも1つのセンサーによって生成されたマルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号を受信することを含む。その信号は、モバイルデバイスの少なくとも1つの側壁上のマルチコンタクトタッチ又はマルチプレゼンスポジショニングに応答して生成される。第1の側壁上に配置される第1のユーザー検知パネルの第1のセンサーから第1の信号が受信される場合があり、第2の側壁上に配置される第2のユーザー検知パネルの第2のセンサーから第2の信号が受信される場合がある。モバイルデバイスは、モバイルデバイスの4つ以上の側壁上にそれぞれのセンサー(複数の場合もある)が配置されるユーザー検知パネルを含むことができる。各側壁は、その上にそれぞれのセンサー(複数の場合もある)が配置されているユーザー検知パネル(複数の場合もある)のうちの1つ以上を含む場合がある。一実施形態において、プロセッサは、各センサーから信号を受信する。更なる実施形態において、プロセッサは、全てのセンサーからの合成信号を受信する。
動作606において、プロセス600は、少なくとも1つのプロセッサによって、信号をモバイルデバイスの動作に関連付けることを含む。マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号は、電源オン/オフ、音量変更、ホーム押下等のモバイルデバイスの動作に関連付けられる場合がある。
信号をモバイルデバイスの動作に関連付けるために、モバイルデバイスを握っている指及び手の他の部分の解剖学的部位が識別され、握っている指及び手の他の部分によって実行されるジェスチャーが認識される場合がある。したがって、信号をモバイルデバイスの動作に関連付けることは、ユーザー検知パネルのセンサーと接触しているか、又は近接している指及び手の他の部分の解剖学的部位を特定することを含むことができる。指及び手の他の部分の解剖学的部位を特定することは、センサーが圧力及び/又は近接を検出する場所を特定することと、各場所に対応する、指又は手の部分の解剖学的部位を特定することとを含むことができる。指及び手の他の部分の解剖学的部位を特定することは、センサーが圧力を検出する場所における圧力量を判断することと、各場所における圧力に対応する指又は手の部分の解剖学的部位を特定することとを更に含むことができる。ユーザーの握り方は、指及び手の他の部分の場所によって、さらには、加えられる圧力の大きさ、圧力が加えられる接触面積、及びその握り方が確立されるときの指及び手の他の部分の動きによって特徴付けることができる。
本発明の実施形態によれば、判断された解剖学的部位に基づいて、ユーザーのジェスチャーが認識される場合がある。その後、そのジェスチャーに従って、信号をモバイルデバイス動作に関連付けることが実行される場合がある。ジェスチャーは、指又は手の他の部分の圧力増加、動き、タップ又は他の動作に基づいて認識される場合がある。モバイルデバイス動作は、特定の認識された指又は手の他の部分によって実行される特定のジェスチャーに関連付けられる場合がある。
本発明の実施形態によれば、握っている指及び手の他の部分の解剖学的部位を特定することは、トレーニングされたモデルを用いて実行される。モデルは、デフォルトモデルとすることができ、及び/又はユーザー固有モデルとすることができる。トレーニングされたモデルを用いて、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを示す信号をユーザーの手に関連付けることができる。ユーザーの手の位置を識別し、それゆえ、握っている指及び手の他の部分の解剖学的部位を識別するために、信号は、それぞれが特定の手の位置に関連付けられる信号のライブラリと比較することができる。トレーニングされたモデルを用いて、信号と、実行されるべきモバイルデバイス動作との間の直接の関連付けを与えることができる。
動作608において、プロセス600は、選択されたモバイルデバイス動作をモバイルデバイスに実行させることを含む。モバイルデバイスのプロセッサが、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングとモバイルデバイス動作との間の関連付けを行った後に、モバイルデバイス動作に関与するモバイルデバイス態様に制御信号を送信することができる。モバイルデバイス動作は、プロセッサによって実行される場合があり、制御信号は、プロセッサの回路及びロジックの内部信号とすることができる。プロセッサは、選択された動作を実行するために、モバイルデバイスの別の部分、例えば、カメラに制御信号を送信することができる。
動作610において、プロセス600は、少なくとも1つのプロセッサによって、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングに関連付けられる触覚制御信号を出力することを含むことができ、触覚制御信号は、触覚出力デバイスをアクティベートし、触覚効果を生じさせるように構成される。プロセッサは、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングがモバイルデバイス動作に関連付けられたという確認として、触覚制御信号を出力し、触覚効果を生じさせることができる。触覚効果は、信号がプロセッサによって受信され、動作と適切に関連付けられたことをユーザーに通知し、及び/又は警告する役割を果たすことができる。本発明の実施形態によれば、実行されるべきモバイルデバイス動作に応じて、異なる触覚効果が確認として出力される場合がある。これにより、ユーザーは、区別された確認を経験できるようになる場合があり、意図したモバイルデバイス動作が識別されたことを明確に理解できるようになる場合がある。
図8は、マルチコンタクトタッチを識別する方法を実行する際の本明細書において説明されるシステムの機能を例示するプロセス図である。図8のプロセス図の機能は、モバイルデバイスのメモリ内に記憶され、モバイルデバイス100のプロセッサによって実行されるソフトウェア及び/又はファームウェアによって実施される場合がある。その機能は、特定用途向け集積回路(「ASIC」)、プログラマブルゲートアレイ(「PGA」)、フィールドプログラマブルゲートアレイ(「FPGA」)の使用を通してハードウェアによって、及び/又はハードウェア及びソフトウェアの任意の組み合わせによって実行される場合もある。図8の機能が、モバイルデバイス100と合致するデバイス及びシステムによって、及び/又は当該技術分野において既知であるような別の構成を有する触覚対応デバイス若しくはコンピューターシステムによって実行される場合があることは当業者には理解されよう。
図8は、モバイルデバイスとのユーザーインタラクションイベントを検出し、それに応じて応答を与えるプロセス800を示す。図8に示されるプロセス800は、本明細書において説明されるデバイス及びシステムと合致する方法の一例として与えられる。プロセス800のステップ及び動作は、例示のためにのみ特定の順序において説明される。プロセス800のステップ及び動作は、異なる順序において実行される場合があり、更なるステップを含む場合があり、それより少ないステップを含む場合がある。プロセス800のステップ及び動作のうちのいくつかは、圧力信号を生成する圧力センサーを含むユーザー検知パネルの一実施形態に関して具体的に説明されるが、そのような説明によって限定することは意図していない。これらのステップ及び動作は、プレゼンス信号を生成する近接センサー等の代替のセンサーを含むユーザー検知パネルの実施形態にも等しく当てはまる場合がある。
動作801において、プロセス800は、モバイルデバイスのユーザー検知パネルの少なくとも1つのセンサーによって、ユーザーインタラクションイベントを検出することを含む。ユーザーインタラクションイベントは、ユーザー検知パネルによって検出されるような、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングを含むことができる。ユーザー検知パネルは、ユーザーインタラクションイベントに応答して、ユーザーインタラクションイベントを示す信号を生成する。例えば、ユーザー検知パネルの圧力センサーが圧力信号を生成する場合がある。生成された圧力信号は、ユーザーインタラクションイベントにおいてモバイルデバイスを握っている指又は手の他の部分の場所、圧力量、接触面積及び動きについての情報を含むことができる。更なる例において、ユーザー検知パネルの他のタイプのセンサー、例えば、近接センサー等が、他のタイプの信号を生成する場合がある。
動作802において、プロセス800は、インタラクションイベントを実行するユーザーの解剖学的構造をプロセッサによって識別することを含む。このようにして、プロセッサは、インタラクションイベントに関与する指及び手の他の部分の解剖学的部位を判断することができる。インタラクションイベントを実行するユーザーの解剖学的構造を識別することは、ユーザー検知パネルのセンサーが圧力及び/又は近接を検出する場所を特定することと、各場所に対応するユーザーの解剖学的構造を識別することとを含むことができる。インタラクションイベントを実行するユーザーの解剖学的構造を識別することは、ユーザー検知パネルのセンサーが圧力を検出する場所において圧力量を特定することと、各場所においてその圧力に対応するユーザーの解剖学的構造を識別することとを更に含むことができる。
動作803において、プロセス800は、インタラクションイベント及び識別されたユーザーの解剖学的構造に適しているデバイス機能を決定し、実行することを含む。プロセッサは、検出されたインタラクションイベント及び識別されたユーザーの解剖学的構造をモバイルデバイスの機能、例えば、電源オン/オフ、音量変更、ホーム押下等と関連付ける。プロセッサは、その後、モバイルデバイスの動作を実行する。
動作804において、プロセス800は、実行されるデバイス機能に関連付けられるフィードバックをすることを含む。そのようなフィードバックは、オーディオ、ビジュアル若しくは触覚フィードバック、又はこれらのフィードバックの任意の組み合わせを含むことができる。プロセッサは、実行されるデバイス機能、インタラクションイベント及び識別されたユーザーの解剖学的構造の任意の組み合わせに基づいて、制御信号を出力することができる。制御信号は、適切な出力デバイス、例えば、オーディオ、ビデオ及び/又は触覚デバイスに、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングに関連付けられる触覚制御信号を確認するフィードバックをユーザーに与えさせるように構成することができ、触覚制御信号は触覚出力デバイスをアクティベートし、触覚効果を生じさせるように構成される。プロセッサは、マルチコンタクトタッチ及び/又はマルチプレゼンスポジショニングがモバイルデバイス動作に関連付けられたという確認として、触覚制御信号を出力し、触覚効果を生じさせることができる。触覚効果は、信号がプロセッサによって受信され、動作と適切に関連付けられたことをユーザーに通知し、及び/又は警告する役割を果たすことができる。本発明の実施形態によれば、実行されるべきモバイルデバイス動作に応じて、異なる触覚効果が確認として出力される場合がある。これにより、ユーザーは、区別された確認を経験できるようになる場合があり、意図したモバイルデバイス動作が識別されたことを明確に理解できるようになる場合がある。
したがって、ユーザー入力をモバイルデバイス動作に動的に関連付けるデバイス及び方法が提供される。本発明による種々の実施形態を上述してきたが、これらの実施形態は、限定としてではなく単なる説明及び例として提示されていることを理解すべきである。形式及び細部における種々の変更は本発明の趣旨及び範囲から逸脱することなく本発明内で行うことができることは当業者には明らかであろう。したがって、本発明の範囲(breadth and scope)は、上述の例示的な実施形態のいずれかによって限定されるべきではなく、添付の特許請求の範囲及びそれらの均等物によってのみ規定されるべきである。本明細書において論考された各実施形態、及び本明細書において引用された各引用文献の各特徴は、他の任意の実施形態の特徴と組み合わせて用いることができることも理解されるであろう。触覚効果をレンダリングする上記方法の態様は、本明細書において説明した他の方法と任意に組み合わせて用いることもできるし、上記方法は別々に用いることもできる。本明細書において論考された全ての特許及び刊行物はその全体が、引用することにより本明細書の一部をなす。
本願は、2017年12月29日に出願された米国特許出願第15/858,903号の利益を主張し、この出願の開示は引用することによりその全体が本明細書の一部をなす。

Claims (22)

  1. モバイルデバイスであって、
    マルチコンタクトタッチに応答して、該マルチコンタクトタッチを示す圧力信号を生成するように構成される圧力センサーを含む少なくとも1つのユーザー検知パネルと、
    少なくとも1つのプロセッサであって、該少なくとも1つのプロセッサは、
    前記圧力センサーによって生成された前記マルチコンタクトタッチを示す前記圧力信号を受信し、
    前記圧力信号を該モバイルデバイスの動作に関連付け、
    該モバイルデバイスに前記動作を実行させ、
    前記マルチコンタクトタッチに関連付けられる触覚制御信号を出力する、
    ように構成され、前記触覚制御信号は触覚出力デバイスをアクティベートし、触覚効果を生じさせるように構成される、少なくとも1つのプロセッサと、
    を備える、モバイルデバイス。
  2. 画面、背面及び一対の側壁を更に備え、
    前記少なくとも1つのユーザー検知パネルは、前記一対の側壁のうちの少なくとも1つの側壁上に配置され、該少なくとも1つの側壁の少なくとも一部に沿って延在する、請求項1に記載のモバイルデバイス。
  3. 前記少なくとも1つのユーザー検知パネルは、第1のユーザー検知パネル及び第2のユーザー検知パネルを含み、前記圧力センサーは、前記第1のユーザー検知パネルの第1の圧力センサー及び前記第2のユーザー検知パネルの第2の圧力センサーであり、
    前記第1のユーザー検知パネルは前記一対の側壁のうちの第1の側壁上に配置され、前記第2のユーザー検知パネルは前記一対の側壁の第2の側壁上に配置される、請求項2に記載のモバイルデバイス。
  4. 前記少なくとも1つのプロセッサは、前記マルチコンタクトタッチを与えるユーザーの指の解剖学的部位を特定することによって、前記圧力信号を前記モバイルデバイスの前記動作に関連付けるように更に構成される、請求項1に記載のモバイルデバイス。
  5. 前記少なくとも1つのプロセッサは、前記解剖学的部位に基づいて、前記ユーザーのジェスチャーを認識し、該ジェスチャーに従って、前記圧力信号を前記モバイルデバイスの前記動作に関連付けるように更に構成される、請求項4に記載のモバイルデバイス。
  6. 前記少なくとも1つのプロセッサは、前記指のうちの少なくとも1つからの圧力変化に基づいて、前記ユーザーの前記ジェスチャーを識別するように更に構成される、請求項5に記載のモバイルデバイス。
  7. 前記少なくとも1つのプロセッサは、前記圧力センサーによって圧力が検出される場所に応じて、前記指の前記解剖学的部位を特定するように更に構成される、請求項4に記載のモバイルデバイス。
  8. 前記少なくとも1つのプロセッサは、前記圧力センサーによって検出される圧力の大きさに応じて、前記指の前記解剖学的部位を特定するように更に構成される、請求項4に記載のモバイルデバイス。
  9. 前記少なくとも1つのプロセッサは、トレーニングされたモデルに従って前記指の前記解剖学的部位を特定するように更に構成される、請求項4に記載のモバイルデバイス。
  10. 前記トレーニングされたモデルは、マルチコンタクトタッチと手の位置との間の関連付けを含む、請求項9に記載のモバイルデバイス。
  11. 前記トレーニングされたモデルは、マルチコンタクトタッチとモバイルデバイスの動作との間の関連付けを含む、請求項9に記載のモバイルデバイス。
  12. ユーザー入力をモバイルデバイス動作に動的に関連付ける方法であって、該方法は、
    モバイルデバイスの少なくとも1つのユーザー検知パネルの圧力センサーによって、マルチコンタクトタッチに応答して、該マルチコンタクトタッチを示す圧力信号を生成することと、
    少なくとも1つのプロセッサによって、前記圧力センサーによって生成された前記マルチコンタクトタッチを示す前記圧力信号を受信することと、
    前記少なくとも1つのプロセッサによって、前記圧力信号を前記モバイルデバイスの動作に関連付けることと、
    前記少なくとも1つのプロセッサによって、前記モバイルデバイスに前記動作を実行させることと、
    前記少なくとも1つのプロセッサによって、前記マルチコンタクトタッチに関連付けられる触覚制御信号を出力することであって、前記触覚制御信号は、触覚出力デバイスをアクティベートし、触覚効果を生じさせるように構成される、出力することと、
    を含む、方法。
  13. 前記圧力信号を受信することは、前記少なくとも1つのユーザー検知パネル上にマルチコンタクトタッチによって引き起こされる圧力信号を受信することを含み、前記少なくとも1つのユーザー検知パネルは、前記モバイルデバイスの少なくとも1つの側壁上に配置される、請求項12に記載の方法。
  14. 前記少なくとも1つのユーザー検知パネルは第1のユーザー検知パネル及び第2のユーザー検知パネルを含み、前記圧力センサーは前記第1のユーザー検知パネルの第1の圧力センサー及び前記第2のユーザー検知パネルの第2の圧力センサーであり、前記少なくとも1つの側壁は第1の側壁及び第2の側壁であり、前記圧力信号を受信することは、
    前記第1の側壁上に配置される前記第1のユーザー検知パネルの前記第1の圧力センサーから第1の圧力信号を受信することと、
    前記第2の側壁上に配置される前記第2のユーザー検知パネルの前記第2の圧力センサーから第2の圧力信号を受信することと、
    を含む、請求項13に記載の方法。
  15. 前記圧力信号を前記モバイルデバイスの前記動作に関連付けることは、前記マルチコンタクトタッチを与えるユーザーの指の解剖学的部位を特定することを含む、請求項12に記載の方法。
  16. 前記解剖学的部位に基づいて、前記ユーザーのジェスチャーを認識することと、
    前記ジェスチャーに従って、前記圧力信号を前記モバイルデバイス動作に関連付けることと、
    を更に含む、請求項15に記載の方法。
  17. 前記指のうちの少なくとも1つからの圧力変化に基づいて、前記ユーザーの前記ジェスチャーを認識することを更に含む、請求項16に記載の方法。
  18. 指の解剖学的部位を特定することは、前記ユーザー検知パネルの前記圧力センサーによって圧力が検出された場所を特定することと、各場所に対応する前記指の解剖学的部位を特定することとを含む、請求項15に記載の方法。
  19. 指の解剖学的部位を特定することは、前記ユーザー検知パネルの前記圧力センサーによって検出される圧力の大きさを特定することと、各大きさに対応する前記指の前記解剖学的部位を特定することとを含む、請求項15に記載の方法。
  20. 指の解剖学的部位を特定することは、トレーニングされたモデルを使用することを含む、請求項15に記載の方法。
  21. 前記トレーニングされたモデルを使用することは、前記マルチコンタクトタッチを手の位置に関連付けることを含む、請求項20に記載の方法。
  22. 前記トレーニングされたモデルを使用することは、前記マルチコンタクトタッチをモバイルデバイス動作に関連付けることを含む、請求項20に記載の方法。
JP2018246491A 2017-12-29 2018-12-28 ユーザー入力とモバイルデバイス動作とを動的に関連付けるデバイス及び方法 Pending JP2019121396A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/858,903 US20190204929A1 (en) 2017-12-29 2017-12-29 Devices and methods for dynamic association of user input with mobile device actions
US15/858,903 2017-12-29

Publications (1)

Publication Number Publication Date
JP2019121396A true JP2019121396A (ja) 2019-07-22

Family

ID=64745898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018246491A Pending JP2019121396A (ja) 2017-12-29 2018-12-28 ユーザー入力とモバイルデバイス動作とを動的に関連付けるデバイス及び方法

Country Status (5)

Country Link
US (1) US20190204929A1 (ja)
EP (1) EP3506068A1 (ja)
JP (1) JP2019121396A (ja)
KR (1) KR20190082140A (ja)
CN (1) CN109992104A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021156919A1 (ja) 2020-02-03 2021-08-12 ソニーグループ株式会社 電子機器、情報処理方法およびプログラム

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10725549B2 (en) 2018-03-29 2020-07-28 Cirrus Logic, Inc. Efficient detection of human machine interface interaction using a resonant phase sensing system
US10642435B2 (en) 2018-03-29 2020-05-05 Cirrus Logic, Inc. False triggering prevention in a resonant phase sensing system
US11092657B2 (en) 2018-03-29 2021-08-17 Cirrus Logic, Inc. Compensation of changes in a resonant phase sensing system including a resistive-inductive-capacitive sensor
US11536758B2 (en) 2019-02-26 2022-12-27 Cirrus Logic, Inc. Single-capacitor inductive sense systems
US11402946B2 (en) 2019-02-26 2022-08-02 Cirrus Logic, Inc. Multi-chip synchronization in sensor applications
US10948313B2 (en) 2019-02-26 2021-03-16 Cirrus Logic, Inc. Spread spectrum sensor scanning using resistive-inductive-capacitive sensors
US11079874B2 (en) * 2019-11-19 2021-08-03 Cirrus Logic, Inc. Virtual button characterization engine
CN115280527A (zh) 2020-03-06 2022-11-01 波瑞阿斯技术公司 压电致动器的按钮的机械集成
US11579030B2 (en) 2020-06-18 2023-02-14 Cirrus Logic, Inc. Baseline estimation for sensor system
US11835410B2 (en) 2020-06-25 2023-12-05 Cirrus Logic Inc. Determination of resonant frequency and quality factor for a sensor system
US11868540B2 (en) 2020-06-25 2024-01-09 Cirrus Logic Inc. Determination of resonant frequency and quality factor for a sensor system
US11619519B2 (en) 2021-02-08 2023-04-04 Cirrus Logic, Inc. Predictive sensor tracking optimization in multi-sensor sensing applications
US11808669B2 (en) 2021-03-29 2023-11-07 Cirrus Logic Inc. Gain and mismatch calibration for a phase detector used in an inductive sensor
US11821761B2 (en) 2021-03-29 2023-11-21 Cirrus Logic Inc. Maximizing dynamic range in resonant sensing
US11507199B2 (en) 2021-03-30 2022-11-22 Cirrus Logic, Inc. Pseudo-differential phase measurement and quality factor compensation
EP4099142A4 (en) 2021-04-19 2023-07-05 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE AND METHOD OF OPERATION
US11979115B2 (en) 2021-11-30 2024-05-07 Cirrus Logic Inc. Modulator feedforward compensation
US11854738B2 (en) 2021-12-02 2023-12-26 Cirrus Logic Inc. Slew control for variable load pulse-width modulation driver and load sensing

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013516703A (ja) * 2010-01-06 2013-05-13 クアルコム,インコーポレイテッド 力感知式入力を提供するためのユーザインターフェースの方法およびシステム
WO2013187137A1 (ja) * 2012-06-15 2013-12-19 株式会社ニコン 電子機器
WO2015025549A1 (ja) * 2013-08-22 2015-02-26 シャープ株式会社 表示装置、および、タッチ操作処理方法
US20170336970A1 (en) * 2016-05-17 2017-11-23 Samsung Electronics Co., Ltd. Electronic device comprising display
JP2017537416A (ja) * 2014-10-30 2017-12-14 ティモシー ジン イン スートゥー タッチを感知し、圧力を感知し、表示可能である側面を備えた電子デバイス

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9285840B2 (en) * 2010-08-19 2016-03-15 Michael S. Stamer Detachable sensory-interface device for a wireless personal communication device and method
US8957868B2 (en) * 2011-06-03 2015-02-17 Microsoft Corporation Multi-touch text input
KR20130120599A (ko) * 2012-04-26 2013-11-05 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20140118270A1 (en) * 2012-10-26 2014-05-01 Qualcomm Incorporated System and method for providing infrared gesture interaction on a display
EP2977882A1 (en) * 2014-07-25 2016-01-27 Motorola Solutions, Inc. Method and apparatus for identifying fingers in contact with a touch screen
KR20180001358A (ko) * 2016-06-27 2018-01-04 엘지전자 주식회사 이동 단말기

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013516703A (ja) * 2010-01-06 2013-05-13 クアルコム,インコーポレイテッド 力感知式入力を提供するためのユーザインターフェースの方法およびシステム
WO2013187137A1 (ja) * 2012-06-15 2013-12-19 株式会社ニコン 電子機器
WO2015025549A1 (ja) * 2013-08-22 2015-02-26 シャープ株式会社 表示装置、および、タッチ操作処理方法
JP2017537416A (ja) * 2014-10-30 2017-12-14 ティモシー ジン イン スートゥー タッチを感知し、圧力を感知し、表示可能である側面を備えた電子デバイス
US20170336970A1 (en) * 2016-05-17 2017-11-23 Samsung Electronics Co., Ltd. Electronic device comprising display

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021156919A1 (ja) 2020-02-03 2021-08-12 ソニーグループ株式会社 電子機器、情報処理方法およびプログラム

Also Published As

Publication number Publication date
KR20190082140A (ko) 2019-07-09
EP3506068A1 (en) 2019-07-03
CN109992104A (zh) 2019-07-09
US20190204929A1 (en) 2019-07-04

Similar Documents

Publication Publication Date Title
JP2019121396A (ja) ユーザー入力とモバイルデバイス動作とを動的に関連付けるデバイス及び方法
EP2778847B1 (en) Contactor-based haptic feedback generation
CN108268131B (zh) 用于手势辨识的控制器及其手势辨识的方法
US10331265B2 (en) Human-computer interface system
US8031172B2 (en) Method and apparatus for wearable remote interface device
WO2012070682A1 (ja) 入力装置及び入力装置の制御方法
US9092058B2 (en) Information processing apparatus, information processing method, and program
JP6249316B2 (ja) 情報処理の方法、装置、およびデバイス
KR100995130B1 (ko) 터치 센서와 가속도 센서를 이용한 사용자의 터치패턴 인식시스템
US20030048260A1 (en) System and method for selecting actions based on the identification of user's fingers
CN109478108B (zh) 触控笔通信信道
KR20170072904A (ko) 터치 신호에 의하여 이동 단말기의 조작을 실현하는 방법, 시스템 및 이동 단말기
WO2010064138A1 (en) Portable engine for entertainment, education, or communication
JP2018041463A (ja) フレキシブルな電子デバイスのための補償された触覚レンダリング
JP2003330618A5 (ja)
JP5652711B2 (ja) タッチパネル装置
CN108647505A (zh) 指纹解锁方法及相关产品
KR20160137378A (ko) 예측된 접촉에 기초한 햅틱 효과들
JP2011186693A (ja) 情報入力装置
JP2018036903A (ja) 入力装置、端末装置および入力制御プログラム
JP6300891B1 (ja) 入力装置、情報処理装置、入力装置の制御方法、及び入力装置の制御プログラム
CN109634417A (zh) 一种处理方法及电子设备
WO2023219041A1 (ja) インタラクション装置
JP7297268B2 (ja) センサ
JP2021111074A (ja) 情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200611

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210126