JP2015531139A - 手姿勢制御を伴う入力デバイス - Google Patents

手姿勢制御を伴う入力デバイス Download PDF

Info

Publication number
JP2015531139A
JP2015531139A JP2015528992A JP2015528992A JP2015531139A JP 2015531139 A JP2015531139 A JP 2015531139A JP 2015528992 A JP2015528992 A JP 2015528992A JP 2015528992 A JP2015528992 A JP 2015528992A JP 2015531139 A JP2015531139 A JP 2015531139A
Authority
JP
Japan
Prior art keywords
input object
user input
touch
dimensional space
gesture detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2015528992A
Other languages
English (en)
Other versions
JP2015531139A5 (ja
Inventor
ローラント アウバウア,
ローラント アウバウア,
ヨハネス マトキッツ,
ヨハネス マトキッツ,
クラウス カルトナー,
クラウス カルトナー,
Original Assignee
マイクロチップ テクノロジー ジャーマニー ツー ゲーエムベーハー ウント コンパニー カーゲー
マイクロチップ テクノロジー ジャーマニー ツー ゲーエムベーハー ウント コンパニー カーゲー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マイクロチップ テクノロジー ジャーマニー ツー ゲーエムベーハー ウント コンパニー カーゲー, マイクロチップ テクノロジー ジャーマニー ツー ゲーエムベーハー ウント コンパニー カーゲー filed Critical マイクロチップ テクノロジー ジャーマニー ツー ゲーエムベーハー ウント コンパニー カーゲー
Publication of JP2015531139A publication Critical patent/JP2015531139A/ja
Publication of JP2015531139A5 publication Critical patent/JP2015531139A5/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)

Abstract

実施形態によるジェスチャ検知システムは、タッチ感応性表面および非接触式検知システムを含む入力デバイスと、ユーザ入力オブジェクトの3次元空間における位置についての特徴的なパラメータを判定し、かつ、ユーザ入力オブジェクトの位置に基づいて入力デバイスの動作モードを選択するように構成されたコントローラとを含む。本開示は、ヒューマンインターフェースデバイスに関し、特定すると、モバイルデバイス上のキーボードを模倣するためのタッチセンサシステムに関する。

Description

関連出願への相互参照
本願は、2012年8月27日出願の米国仮特許出願第61/693,617号からの優先権を主張し、その米国仮特許出願は、本明細書で十分に述べられるように、参照によってその全体が本明細書によって援用される。
本開示は、ヒューマンインターフェースデバイスに関し、特定すると、モバイルデバイス上のキーボードを模倣するためのタッチセンサシステムに関する。
スマートフォンおよびタブレットPCのような小型デバイス上で、グラフィカルユーザインターフェースのディスプレイタッチパネル上で提示される「キーボード」のための空間は、限定され、典型的に、通常のキーボードにおけるよりもはるかに小さい。さらに、ディスプレイタッチパネルの性質により、10本指のタイピングは可能ではない。
多くのディスプレイタッチパネルにおいて、キーの数は最小限まで削減される。例えば、多くのそのようなキーボードディスプレイにおいて、1つだけシフトキーがあり、キーロックキーがなく、数字キーがなく、特殊文字キーがない。これらの文字は、第2の「キーボード」を表示する、シフトキーを介して到達可能な追加入力モードを介してアクセスされることができるのみである。したがって、大文字キー、数字、特殊文字、または、追加の制御機能にアクセスするために、2つの連続キーストロークを行うことが常に要求される。
実施形態によるジェスチャ検知方法は、タッチ位置を検知することと、入力オブジェクトの位置の特徴的なパラメータに応じて入力モードを選択することと、特徴的なパラメータを計算した後、または、それぞれのタッチの解放に従ってのいずれかで入力文字を入力することとを含む。いくつかの実施形態において、入力モードは、3次元センサシステムのパラメータ変化の検知時に切り替えられる。いくつかの実施形態において、パラメータは、タッチを行う入力オブジェクトの仰角レベルによって判定される。いくつかの実施形態において、入力オブジェクトは、手であり、パラメータは、モバイルデバイスを保持する手から指を持ち上げることによって判定される。いくつかの実施形態において、パラメータは、タッチを行う手の方位角によって判定される。いくつかの実施形態において、第1の仰角は、第1の入力モードを選択し、第2の仰角は、第2の入力モードを選択する。いくつかの実施形態において、第1の方位角は、第1の入力モードを選択し、第2の方位角は、第2の入力モードを選択する。
実施形態によるジェスチャ検知システムは、タッチ感応性表面および非接触式検知システムを含む入力デバイスと、ユーザ入力オブジェクトの3次元空間における位置についての特徴的なパラメータを判定し、かつ、ユーザ入力オブジェクトの位置に基づいて入力デバイスの動作モードを選択するように構成されたコントローラとを含む。いくつかの実施形態において、入力デバイスまたは接続されたシステムは、グラフィカルユーザインターフェースを含む。いくつかの実施形態において、ユーザ入力オブジェクトの3次元空間における位置は、ユーザ入力オブジェクトの方位角を判定することと、方位角に基づいてグラフィカルユーザインターフェース上の文字を選択することとを含む。いくつかの実施形態において、ユーザ入力オブジェクトの3次元空間における位置を判定することは、ユーザ入力オブジェクトの仰角を判定することと、仰角に基づいてグラフィカルユーザインターフェース上の文字を選択することとを含む。いくつかの実施形態において、コントローラは、第2のユーザ入力オブジェクトの3次元空間における位置を判定し、かつ、第2のユーザ入力オブジェクトの位置に基づいて入力デバイスの動作モードを選択するように構成される。いくつかの実施形態において、入力デバイスの動作モードは、ユーザ入力オブジェクトの3次元空間における位置に基づいてオプションメニューを表示することを含む。いくつかの実施形態において、本システムは、タイプされたテキストとユーザ入力オブジェクトの3次元空間における位置との検知に応答してアクセス可能な辞書を含む。いくつかの実施形態において、コントローラはさらに、ユーザ入力オブジェクトの3次元空間における位置に基づいて、タイプされたテキストと関連付けられる辞書からの1つ以上の自動補完オプションを提供するように構成される。
実施形態による電子デバイスは、タッチ感応性表面および非接触式検知システムを含む入力デバイスと、入力デバイスを使用して選択を表示するための表示デバイスと、タッチ感応性表面に対するユーザ入力オブジェクトの3次元空間における位置と関連付けられるパラメータを判定し、かつ、ユーザ入力オブジェクトの位置に基づいて入力デバイスの動作モードを選択するように構成されたコントローラとを含む。いくつかの実施形態において、ユーザ入力オブジェクトの3次元空間における位置と関連付けられるパラメータを判定することは、ユーザ入力オブジェクトの方位角を判定することと、方位角に基づいてグラフィカルユーザインターフェース上の文字を選択することとを含む。いくつかの実施形態において、ユーザ入力オブジェクトの3次元空間における位置と関連付けられるパラメータを判定することは、ユーザ入力オブジェクトの仰角を判定することと、仰角に基づいてグラフィカルユーザインターフェース上の第1の文字または第2の文字を選択することとを含む。いくつかの実施形態において、コントローラは、第2のユーザ入力オブジェクトの3次元空間における位置と関連付けられるパラメータを判定し、かつ、第2のユーザ入力オブジェクトの位置に基づいて入力デバイスの動作モードを選択するように構成される。いくつかの実施形態において、入力デバイスの動作モードは、ユーザ入力オブジェクトの3次元空間における位置に基づいてオプションメニューを表示することを含む。いくつかの実施形態において、本デバイスは、タイプされたテキストおよびパラメータの検知に応答してアクセス可能な辞書を含む。いくつかの実施形態において、コントローラはさらに、パラメータに基づいて、タイプされたテキストと関連付けられる辞書からの1つ以上の自動補完オプションを提供するように構成される。
実施形態による方法は、3次元空間におけるユーザ入力オブジェクトの位置関連パラメータを検知することと、位置関連パラメータに基づいて電子デバイスの動作モードを選択することとを含む。いくつかの実施形態において、動作モードは、位置関連パラメータに基づいてグラフィカルユーザインターフェース上の第1の文字または第2の文字を選択することを含む。いくつかの実施形態において、位置関連パラメータは、ユーザ入力オブジェクトの方位角を備える。いくつかの実施形態において、位置関連パラメータは、ユーザ入力オブジェクトの仰角を備える。いくつかの実施形態において、3次元空間における第2のユーザ入力オブジェクトの位置関連パラメータを検知することと、3次元空間における第2のユーザ入力オブジェクトの位置関連パラメータに基づいて電子デバイスの動作モードを選択することとを含む。いくつかの実施形態において、3次元空間における第2のユーザ入力オブジェクトの位置関連パラメータを検知することと、3次元空間における第2のユーザ入力オブジェクトの位置関連パラメータに基づいて電子デバイスの動作モードを選択することとを含む。いくつかの実施形態において、動作モードを選択することは、位置関連パラメータに基づいてグラフィカルユーザインターフェース上の1つ以上の制御を選択することを含む。いくつかの実施形態において、本方法はさらに、タイプされたテキストおよび位置関連パラメータの検知に応答して辞書にアクセスすることを含む。いくつかの実施形態において、本方法は、位置関連パラメータに基づいて、タイプされたテキストと関連付けられる辞書からの1つ以上の自動補完オプションを提供することを含む。
本開示のこれらおよび他の局面は、下記の説明および添付図面と併せて考慮されるときにより良好に認識および理解される。しかしながら、下記の説明は、本開示の種々の実施形態およびそれらの多数の具体的詳細を示すが、限定ではなく例証として与えられることが、理解されるべきである。多くの置換、改変、追加、および/または、再構成が、それの精神から逸脱することなく本開示の範囲内で行われ得、本開示は、全てのそのような置換、改変、追加、および/または、再構成を含む。
本明細書に付随し、それの一部を形成する図面が、本開示の特定の局面を描写するために含まれる。図面で図示される特徴は、必ずしも一定の縮尺で描かれていないことが、留意されるべきである。類似参照番号が類似特徴を示す添付図面と併せて解釈される下記の説明を参照することによって、本開示およびそれの利点のより完全な理解が、獲得され得る。
図1は、いくつかの実施形態による、タッチ感応性表面および非接触式検知手段を伴う電子デバイスの一般的概略表現の等角図である。
図2は、いくつかの実施形態による、タッチ感応性表面および非接触式検知手段を伴う電子デバイスの一般的概略表現の断面図である。
図3は、いくつかの実施形態による、例示的電子デバイスを図示するブロック図である。
図4は、いくつかの実施形態による、非接触式検知手段と組み合わせられたタッチ感応性ディスプレイの一般的概略表現の上面図である。
図5は、いくつかの実施形態による、非接触式検知手段と組み合わせられたタッチ感応性ディスプレイの一般的概略表現の側面図である。
図6は、いくつかの実施形態による、非接触式検知手段と組み合わせられたタッチ感応性ディスプレイの一般的概略表現の上面図である。
図7は、いくつかの実施形態による、非接触式検知手段と組み合わせられたタッチ感応性ディスプレイの一般的概略表現の側面図である。
図8は、手姿勢制御のための例示的な環境を図示する。
図9は、指仰角制御を図示する。
図10は、絶対角制御を用いた実施形態の動作を図示するフローチャートである。
図11は、相対角制御を用いた実施形態の動作を図示するフローチャートである。
図12は、方位角制御を図示する。
図13は、方位角制御を図示するフローチャートである。
図14は、方位角制御の例を図示する。
図15は、方位角制御入力方法の典型的なシーケンスを図示するフローチャートである。
図16aおよび図16bは、仰角制御の例を図示する。 図16aおよび図16bは、仰角制御の例を図示する。
詳しい説明
本開示ならびにそれの種々の特徴および利点は、添付図面で図示され、下記の説明で詳述される、例示的であり、したがって、非限定的な実施形態を参照して、より十分に説明される。しかしながら、発明を実施するための形態および具体的例は、好ましい実施形態を示すが、限定ではなく例証としてのみ挙げられることが、理解されるべきである。既知のプログラミング技法、コンピュータソフトウェア、ハードウェア、オペレーティングプラットフォーム、および、プロトコルの説明は、本開示の詳細を不必要に曖昧にしないよう省略され得る。基礎的な発明概念の精神および/または範囲内の種々の置換、改変、追加、および/または、再構成が、本開示から当業者に明白である。
概して、スマートフォンまたはタブレットのような小型デバイス上でタイプすることは、小型キーが正確に押される必要があり、流れるような使用を困難にするので、煩わしい。押される必要があるキーが少ないほど、タイプすることは容易である。種々の実施形態によると、大文字、小文字、および、特殊文字を切り替え(または、他の文字またはキーボード入力を切り替え)、手姿勢制御を文法チェックおよび辞書使用と組み合わせる方法が、提供され得、小型キーボード上での1本の指を用いた快適な書き込みを可能にする。種々の実施形態は、2回のユーザ相互作用の代わりに1回だけのユーザ相互作用へ、すなわち、単一回キーを押すことへ、ディスプレイタッチパネル上の特殊文字キーへのアクセスを単純化する。
下記でさらに詳細に説明されるように、必要とされるキーを押すことの低減は、タッチ位置ならびに仰角αおよび方位角βの変化の両方を検知することによって、種々の実施形態に従って行われることができる。いくつかの実施形態において、入力オブジェクトの位置は、入力オブジェクトの空間的構成に関連し、オブジェクトの重心の位置、あるいは、そのようなオブジェクトの姿勢または配向の、いずれかまたは両方を含み得る。例えば、手の場合、位置は、空間における配向および/または手姿勢を含み得る。
そのような検知のための好適な技法は、例えば、約50kHz〜200kHzの周波数を有する信号を伝送電極に注入し、手持ち式デバイスの表面付近に配列されることができる種々の受信電極からの電圧を測定することによる電場測定であり得る。大文字と小文字とを切り替えることは、タッチ中に手の仰角を変化させることによって、種々の実施形態に従って達成されることができる。大文字と小文字とを切り替えることはまた、第2の指の動きによって、例えばモバイルデバイスを保持する手の第2の指の動きによって、達成されることもできる。種々の他の実施形態によると、特殊文字の選択、言葉の自動補完、および、訂正は、手姿勢の方位角を変化させることによって達成されることができる。
手姿勢検知システム
下記でさらに詳細に議論されるように、種々の実施形態は、手姿勢を検知し、電子デバイスを制御するために手姿勢を使用する。したがって、そのような手姿勢を検知するために使用され得るシステムを最初に説明することが有用であり得る。そのような検知のためのシステムおよび方法についての追加の詳細は、本明細書で完全に記載されるように、それの全体において参照によって本明細書に援用される2011年12月9日出願の「Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch−sensitive surface and contact−free detection means」と題される、同一出願人による同時係属中の米国特許出願第13/315,739号で説明されている。
図1は、ユーザ入力オブジェクトに関する第1の位置情報および第2の位置情報を判定するために適合させられる電子デバイス100の一般的概略表現である。電子デバイスは、タブレットコンピュータであり得るが、携帯電話、mp3プレーヤ、PDA、タブレットコンピュータ、コンピュータ、リモートコントロール、ラジオ、コンピュータマウス、タッチ感応性ディスプレイ、キーボード、キーパッド、および、テレビ等の、それ自体がユーザインターフェースであるか、または、ユーザインターフェースを備える任意の電子デバイスであり得る。ユーザ入力オブジェクト500(図2)は、ユーザの指500として示されるが、スタイラス(例えば、小型ペン形状器具)またはデジタルペンのような任意のものであり得る。
1つの実施形態において、電子デバイス100は、例えば、タッチ感応性モジュール200のアクティブ領域202に触れるユーザ入力オブジェクト500を検知するために好適であることによってユーザインターフェースとしての機能を果たすタッチ感応性表面および/またはディスプレイを含むタッチ感応性モジュール200を備える。タッチ感応性モジュール200は、ユーザ入力オブジェクト500がそのアクティブ領域202に触れることを検知するだけでなく、ユーザ入力オブジェクト500がアクティブ領域と接触する場所も検知し、すなわち、タッチ感応性ディスプレイは、タッチ感応性モジュール200と該ユーザ入力オブジェクト500との接触領域のx座標およびy座標(例えば、加重幾何学的平均位置、または、アクティブ領域がセンサ区画に分割される場合には接触させられる全てのセンサ区画)を抽出する。したがって、タッチ感応性表面200は、第1の位置情報であって、該第1の位置情報はユーザ入力オブジェクト500がタッチ感応性モジュール200に接触する場所のみに応じる、第1の位置情報を判定する。
本実施形態において、タッチ感応性表面は容量センサ技術に基づき、タッチ感応性モジュール200のアクティブ領域202は、各区画が容量センサ要素204(図4)を備える区画に分割されるが、例えば、抵抗性、容量性(例えば、表面容量性、投影容量性、相互容量性、自己容量性)、表面音響波、赤外線、光学画像、分散信号、および、音響パルス認識センサ技術といった多種多様の異なるセンサ技術が、全く同じように、タッチ感応性表面200の基礎を形成することができる。本実施形態において、タッチ感応性モジュール200は、電子デバイス100によって生成される情報を表示するために好適であるタッチ感応性ディスプレイである。
電子デバイス100はさらに、非接触式検知手段300を含み得る。一般に、この意味での非接触式検知システム300は、タッチ感応性表面200に関するユーザ入力オブジェクト500の空間的構成に応じて第2の位置情報を判定するために好適な任意のシステムである。ユーザ入力オブジェクト500の空間的構成は、タッチ感応性モジュール200に関するユーザ入力オブジェクト500の3次元的な配列、場所、および、配向として理解されるべきものである。ユーザ入力オブジェクト500は、図で示されるように、ユーザの指500であり、したがって、空間的構成とは、指500が占有する空間を指す。
ユーザ入力オブジェクト500がタッチ感応性モジュール200上の同じ接触領域210に触れたままであり得る一方で、それの空間的構成は、変化し得る。具体的な例は、指500に接続されている手が左に、右に、上に、または、下に移動している間に、タッチ感応性領域上の1つの特定の接触領域に触れるユーザの指500である。したがって、指500の空間的構成が変化する一方で、タッチ感応性表面202との接触領域210は、同じままである。第2の位置情報を判定することによって、電子デバイス100は、タッチ感応性モジュール200に関する(かつ/または、それの上の所定の参照点に関する)ユーザ入力オブジェクトの空間的構成に応じて情報を判定する。
特定すると、示される実施形態において、非接触式検知システム300は、複数の電極を用いた容量検知に基づく。図1は、電場を生成する背後電極306、および、4つの電場検知電極301、302、303、304の配列を概略的に示す。ここで、4つの電場検知電極301、302、303、304が別個のユニットとして示されている一方で、背後電極306は、タッチ感応性モジュール200の一部として示されている。しかしながら、電場検知電極301、302、303、304および背後電極306の各々は、タッチ感応性モジュール200の一部または別個の実体のいずれかであり得る。電場検知電極301、302、303、304および電場生成電極306の少なくとも各々は、非接触式検知コントローラ124に動作可能に接続される(図3)。背後電極は、例えば、タッチ感応性モジュール200を備えるタッチ感応性ディスプレイのVCOM電極であり得る。容量感知システムの形態における非接触式検知手段300は、2つのモードで操作され得、すなわち、(1)ユーザ入力オブジェクト500が、電場生成電極306と検知電極301、302、303、304との結合を変更し、手が電場を吸収し、したがって、検知電極によって検知される電場を低減するシャントモード、および、(2)ユーザ入力オブジェクト500が、電場生成および検知電極301、302、303、304に負荷を加えるか、または、接地への電極の寄生容量を増加させる自己または絶対容量モードで操作され得る。
電子デバイス100はまた、タッチ感応性モジュール200に、および、非接触式検知システム300に動作可能に接続されたコントローラを備える。コントローラは、タッチ感応性表面から、および、非接触式検知手段から取得される情報および/またはデータ(アナログまたはデジタルであり得る)を処理するために好適な任意の手段であり得る。コントローラは、1つ以上のコントローラ、プロセッサ、集積回路(IC)、特定用途向け集積回路(ASIC)、アナログ・デジタル変換器(ADC)、および/または、プログラム可能なコンピューティングマシンを備え得る。この具体的実施形態において、コントローラは、タッチ感応性表面コントローラ122、および、上記で既に記述された非接触式検知コントローラ124といった、少なくとも2つのコントローラを伴うサブシステム120を備える。両方のコントローラは、特定用途向け集積回路(ASIC)として具現化される。いくつかの実施形態において、それら2つのコントローラは、単一のASICとして具現化される。
コントローラ120は、タッチ感応性表面を介して第1の位置情報を、および、非接触式検知システム300を介して第2の位置情報を同時および/または交互に判定するために適合させられる。どのようにして第1の位置情報および第2の位置情報の両方が同時および/または交互に判定されるかは、電子デバイス100の具体的な実施形態に応じる。ここでは、非接触式検知手段300およびタッチ感応性モジュール200の両方が、容量感知に基づく。
そのようなシステムにおいて、それらの測定値が相互に干渉するという問題が、生じ得る。干渉問題を解決するか、または、そのような問題が生じることを防止するために、多重化方法が、用いられ得る。現在議論されているいくつかの実施形態において、周波数分割多重化および時分割多重化の両方、または、イベント誘発式(event triggered)多重化が、実装される。
時分割多重化については、時間が間隔に分割され、連続する2つの時間間隔で、第1の位置情報が、2つの時間間隔のうちの一方においてタッチ感応性モジュール200を介して判定され、第2の位置情報が、2つの時間間隔のうちの他方において非接触式検知手段を介して判定される。各時間間隔は、数ミリ秒のオーダーであり得る。各時間間隔は、100ミリ秒、10ミリ秒、1ミリ秒、または、0.1ミリ秒未満であり得る。時分割多重化は、任意の所与の時点で、最新の第1の位置情報および第2の位置情報の両方が電子デバイス100において利用可能であるように、第1の位置情報と第2の位置情報とを交互に判定することを可能にする。
イベント誘発式多重化については、非接触式検知手段300が、タッチイベントを検知するまで連続的にアクティブである。タッチイベントの検知時に、非接触式検知手段300が動作停止させられ、タッチ感応性モジュール200が、起動され、タッチ位置を検知する。いかなるタッチもタッチ感応性モジュール200上で検知されないとき、非接触式検知手段300は、再度起動される。
周波数分割多重化については、非重複周波数範囲が、電場を生成および検知するために(したがって、容量感知のために)タッチ感応性モジュール200および非接触式検知手段300に割り当てられる。このようにして、同じ媒体(タッチ感応性表面および/または共通して使用されている電極(単数または複数)の前面の空間)が、タッチ感応性モジュール200および非接触式検知手段300の両方によって使用され得る。その結果として、周波数分割多重化は、任意の所与の時点で、最新の第1の位置情報および第2の位置情報の両方が電子デバイス100において利用可能であるように、第1の位置情報および第2の位置情報を同時に判定することを可能にする。
いくつかの実施形態において、第1の位置情報は、ユーザ入力オブジェクトがタッチ感応性表面に接触する場所に応じる第1の位置を含み、第2の位置情報は、タッチ感応性表面の所定の距離D(図2)内にあるユーザ入力オブジェクトの一部分の空間的構成に応じる第2の位置を含む。タッチ感応性表面および所定の距離によって画定される空間は、直方体310として示されている。所定の距離は、コントローラ120および非接触式検知システム300によって画定される。特定すると、所定の距離は、背後電極306および電場検知電極301、302、303、304によって生成される電場の幾何形状によって画定される。
いくつかの実施形態において、第1の位置は、実質的に、ユーザ入力オブジェクト500がタッチ感応性モジュール200に接触する場所の幾何学的平均位置である。幾何学的平均位置は、表面の各容量センサ要素204(図4)においてユーザ入力オブジェクト500によって誘発される静電容量の変化を加重することによって計算される。ユーザ入力オブジェクト500がタッチ感応性モジュール200に接触する場所は、接触領域210(図7)である。ここで、位置情報は、容量センサ技術の使用によって判定される。複数の容量センサ要素204が、タッチ感応性モジュール200上に配列される。(例えば、ユーザの指の形態における)ユーザ入力オブジェクト500が、タッチ感応性表面200と接触する。次いで、容量センサ要素204の電場の異なる変化が、誘発され、容量センサ要素204によって測定される。タッチ感応性モジュール200上の異なる場所に配列される容量センサ要素204によって測定されるこれらの異なる変化から、幾何学的平均接触位置が計算および/または判定される。この目的のために、全ての容量センサ要素204の場所を示し、かつ、各センサ要素204においてユーザ入力オブジェクト500によって誘発される静電容量の変化を示すマップが、作成され得る。幾何学的平均位置は、幾何学的平均、すなわち、静電容量変化が観察された全ての位置の平均位置を判定することによって、計算され得る。幾何学的平均位置はまた、静電容量変化の大きさによって加重される幾何学的平均を判定することによって計算され得る。
いくつかの実施形態において、第2の位置は、実質的に、ユーザ入力デバイス500の電気的性質によって加重される、タッチ感応性モジュール200の所定の距離D内にあるユーザ入力オブジェクト500の一部分の幾何学的平均位置である。しかしながら、ユーザ入力オブジェクト500の平均位置はまた、ユーザ入力オブジェクト500の空間的構成を表す空間における点を示すのみであり得る。第2の位置が表すものにかかわらず、それは、第2の位置情報から判定されなければならない。ここで、非接触式検知は容量センサ技術に基づき、ユーザ入力オブジェクト500の平均位置は、対応する電場生成および検知電極の電場に対するユーザ入力オブジェクトの電気的影響を分析することによって判定される。そうするための方法は、各々が参照によって本明細書に援用される国際公開番号WO 2011/128116 号A2、ドイツ特許公開番号DE 10 2007 020 873号A1、および、ドイツ特許公開番号DE 10 2010 007 455号A1から公知である。
いくつかの実施形態において、第1の位置情報がユーザ入力オブジェクト500とタッチ感応性モジュール200との接触領域210(のみ)に応じるので、第1の位置情報は、2次元において判定および表現される。任意のタッチイベントは、タッチ感応性表面上の位置を表す2つの座標によって表される。現在議論されているいくつかの実施形態において、第1の位置情報は、2タプルの形態で第1の位置を含む。
いくつかの実施形態において、第2の位置情報が3次元空間におけるユーザ入力オブジェクトの空間的構成に応じるので、第2の位置情報は、3次元で判定および表現される。オブジェクトの任意の空間的構成は、3つの座標、および、必要であればスカラ値によって表されることができる。そのような説明の好ましい実施形態は、3次元スカラ場である。そのような説明の別の好ましい実施形態は、例えば第2の位置を表す3タプル(トリプレットとも呼ばれる)である。現在議論されているいくつかの実施形態において、第2の位置情報は、3タプルの形態で第2の位置を含む。
いくつかの実施形態において、第1の位置情報および第2の位置情報の両方が、同じ座標系で判定および/または表現される。この目的のために、第1の位置情報は、第2の位置情報の座標系に変換される。同様に、第2の位置情報は、第1の位置情報の座標系に変換されることができ、または、第1の位置情報および第2の位置情報の両方が、別の座標系に変換されることができる。
いくつかの実施形態において、第1の位置情報、第2の位置情報、ならびに、第1および第2の位置の両方が、タッチ感応性モジュール200上の固定参照位置に対して判定される。
いくつかの実施形態において、電子デバイス100はさらに、電子デバイス100のメモリ102の中の別個のソフトウェアモジュールであるジェスチャ認識モジュール138(図3)を備える。ジェスチャ認識モジュール138は、コントローラ手段120によって判定される第1の位置および第2の位置から、所定のカテゴリに属するものとしてジェスチャを識別するために適合させられる。電子デバイス100は、所定のジェスチャがジェスチャ認識モジュール138によって識別されたときに、または、その後に第1の状態から第2の状態へ移行するために適合させられる。電子デバイス100は、複数の状態を呈し得る。状態は、例えば、電子デバイスによって提示されるグラフィカルユーザインターフェースの状態、アプリケーション(テキスト編集、メッセージング、グラフィック編集、Eメール、音楽再生、または、ゲームで遊ぶことに関するアプリケーション等)の状態、または、ロックされた状態を指す。ユーザインターフェースを介して、ユーザは、電子デバイスと相互作用してもよく、それを第1の状態から第2の状態に移行させてもよい。
いくつかの実施形態において、ジェスチャ認識モジュールは、複数の所定のジェスチャカテゴリを記憶および/または取得するため、コントローラ手段120によって判定される第1の位置および第2の位置からジェスチャを記録するため、記録されたジェスチャを複数の所定のジェスチャカテゴリのうちの少なくとも1つに属するものとして識別するため、ズーム倍率、または、離散回転角度等のパラメータを識別されたジェスチャから抽出するために適合させられ、ジェスチャは、位相空間における軌跡であり、位相空間は、第1の位置情報および第2の位置情報の、ならびに/または、第1の位置および第2の位置の全ての可能な状態によって、すなわち、第1の位置情報および第2の位置情報、ならびに/または、第1の位置および第2の位置が呈し得る状態によって、画定される。
現在議論されているいくつかの実施形態において、ジェスチャは、ユーザ入力オブジェクトがタッチ感応性モジュール200に触れる限りジェスチャ認識モジュール138によって記録される。これは、ジェスチャの開始および終了が、ジェスチャを行うユーザ、および、ジェスチャを記録するジェスチャ認識モジュール138の両方について明確に画定されるので、有利である。
図3は、例示的電子デバイス100のより詳細な概略図である。開示される正確な形態に本発明を限定するものと見なされるべきではない本例において、デバイス100は、メモリ102と、メモリコントローラ104と、1つ以上の処理モジュール(CPU)106と、周辺機器インターフェース108と、RF回路112と、オーディオ回路114と、スピーカ116と、マイクロホン118と、入力/出力(110)サブシステム120と、タッチ感応性ディスプレイ126と、非接触式検知手段128と、外部ポート148とを含む。これらの構成要素は、1つ以上の通信バスまたは信号線110を越えて通信する。デバイス100は、ハンドヘルドコンピュータ、タブレットコンピュータ、携帯電話、メディアプレーヤ、携帯情報端末(PDA)、または、これらのアイテムのうちの2つ以上の組み合わせを含む同等物を含むがそれらに限定されない任意の電子デバイスであり得る。デバイス100が電子デバイス100の1つの例に過ぎないことと、デバイス100が、構成要素の、示されるかまたは異なる構成より多いまたはより少ない構成要素を有し得ることが、理解されるべきである。図1に示される種々の構成要素は、1つ以上の信号処理および/または特定用途向け集積回路を含むハードウェア、ソフトウェア、または、ハードウェアとソフトウェアとの両方の組み合わせで実装され得る。
メモリ102は、高速ランダムアクセスメモリを含み得、また、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、または、他の不揮発性ソリッドステートメモリデバイス等の不揮発性メモリを含み得る。メモリ102はさらに、1つ以上のプロセッサ106から遠隔に位置する記憶装置、例えば、RF回路112または外部ポート148を介してアクセスされる記憶装置に取り付けられたネットワーク、ならびに、インターネット、イントラネット(単数または複数)、ローカルエリアネットワーク(LAN)、ワイドローカルエリアネットワーク(WLAN)、ストレージエリアネットワーク(SAN)、および、同等物等の通信ネットワーク(図示せず)、または、それらの任意の好適な組み合わせを含み得る。CPU106および周辺機器インターフェース108等の、デバイス100の他の構成要素によるメモリ102へのアクセスは、メモリコントローラ104によって制御され得る。
周辺機器インターフェース108は、デバイスの入力および出力周辺機器をCPU106およびメモリ102に結合させる。1つ以上のプロセッサ106は、デバイス100についての種々の機能を果たすよう、および、データを処理するように、メモリ102に記憶された種々のソフトウェアプログラムおよび/または命令のセットを実行する。周辺機器インターフェース108、CPU106、および、メモリコントローラ104は、チップ111等の単一のチップ上に実装され得る。それらは、別個のチップ上に実装され得る。
RF(高周波)回路112は、電磁波を受信および送信する。RF回路112は、電磁波への/電磁波からの電気信号を変換し、電磁波を介して通信ネットワークおよび他の通信デバイスと通信する。RF回路112は、アンテナシステム、RF送受信機、1つ以上の増幅器、チューナ、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(SIM)カード、および、メモリ等を含むがそれらに限定されない、これらの機能を果たすための周知の回路を含み得る。RF回路112は、ワールドワイドウェブ(WWW)とも呼ばれるインターネット、イントラネット、および/または、携帯電話ネットワーク、無線ローカルエリアネットワーク(LAN)、および/または、メトロポリタンエリアネットワーク(MAN)等の無線ネットワーク等のネットワークと、かつ、無線通信によって他のデバイスと通信し得る。無線通信は、グローバルシステムフォーモバイルコミュニケーションズ(登録商標)、エンハンスドデータGSM(登録商標)エンバイロメント(EDGE)、広帯域符号分割多重アクセス(W−CDMA)、符号分割多重アクセス(CDMA)、時分割多重アクセス(TDMA)、Bluetooth(登録商標)、Wireless Fidelity(Wi−Fi)(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、および/または、IEEE 802.11n)、ボイスオーバーインタネットプロトコル(VoiP)、Wi−MAX、Eメール用プロトコル、インスタントメッセージング、および/または、ショートメッセージサービス(SMS)、または、本文書の提出時点でまだ開発されていない通信プロトコルを含む任意の他の好適な通信プロトコルを含むがそれらに限定されない複数の通信規格、プロトコル、および、技術のうちのいずれかを使用し得る。
オーディオ回路114、スピーカ116、および、マイクロホン118は、ユーザとデバイス100との間にオーディオインターフェースを提供する。オーディオ回路114は、周辺機器インターフェース108からオーディオデータを受信し、オーディオデータを電気信号に変換し、電気信号をスピーカ116に伝送する。スピーカは、電気信号を人間の耳に聞こえる音波に変換する。オーディオ回路114はまた、音波からマイクロホン116によって変換される電気信号も受信する。オーディオ回路114は、電気信号をオーディオデータに変換し、処理のためにオーディオデータを周辺機器インターフェース108に伝送する。オーディオデータは、周辺機器インターフェース108によって、メモリ102および/またはRF回路112から取り出され、かつ/または、そこへ伝送され得る。オーディオ回路114はまた、ヘッドセットジャック(図示せず)を含み得る。ヘッドセットジャックは、オーディオ回路114と、出力専用ヘッドホン、または、出力(一方または両方の耳用のヘッドホン)および入力(マイクロホン)の両方を伴うヘッドセット等の取り外し可能なオーディオ入力/出力周辺機器との間にインターフェースを提供する。
I/0サブシステム120の形態におけるコントローラ手段は、タッチ感応性ディスプレイ200および非接触式検知システム300等のデバイス100上の入力/出力周辺機器の間にインターフェースを提供する。I/0サブシステム120は、タッチ感応性ディスプレイコントローラ122と非接触式検知コントローラ124とを含む。
デバイス100はまた、種々の構成要素に電力供給するための電力システム130を含む。電力システム130は、電力管理システム、1つ以上の電源(例えば、バッテリ、交流電流(AC))、再充電システム、停電検知回路、電力変換器またはインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、および、ポータブルデバイスにおける電力の生成、管理、および、分配と関連付けられる任意の他の構成要素を含み得る。
ソフトウェア構成要素は、オペレーティングシステム132と、通信モジュール(または命令のセット)134と、ジェスチャ認識モジュール(または命令のセット)138と、グラフィックスモジュール(または命令のセット)140と、ユーザインターフェース状態モジュール(または命令のセット)144と、1つ以上のアプリケーション(または命令のセット)146とを含み得る。
オペレーティングシステム132(例えば、Darwin、RTXC、LINUX(登録商標)、UNIX(登録商標)、OS X、WINDOWS(登録商標)、または、VxWorks等の組み込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理等)を制御および管理するための種々のソフトウェア構成要素および/またはドライバを含み、種々のハードウェアおよびソフトウェア構成要素の間の通信を容易にする。
通信モジュール134は、1つ以上の外部ポート148を越えて他のデバイスとの通信を容易にし、また、RF回路112および/または外部ポート148によって受信されるデータを取り扱うための種々のソフトウェア構成要素を含む。外部ポート148(例えば、ユニバーサルシリアルバス(USB)、FIREWIRE等)は、他のデバイスに直接、または、ネットワーク(例えば、インターネット、無線LAN等)を越えて間接的に結合するために適合させられる。
ジェスチャ認識モジュール138は、(I/O)サブシステム120から、第1の位置情報および第2の位置情報を、特定すると第1の位置および第2の位置を受信するように適合させられる。ジェスチャ認識モジュール138は、接触が起こったかどうかを判定すること、第1の位置および第2の位置の移動があるかどうかを判定して該移動を追跡すること、および、接触が断たれたかどうか(すなわち、接触が中断されたかどうか)を判定すること等の、第1の位置情報および第2の位置情報を、特定すると第1の位置および第2の位置を分析することに関係する種々の動作を行うための種々のソフトウェア構成要素を含む。移動を判定することは、第1の位置および第2の位置の速さ(大きさ)、速度(大きさおよび方向)、および/または、加速度(大きさおよび/または方向を含む)を判定することを含み得る。
グラフィックスモジュール140は、タッチ感応性ディスプレイ126上にグラフィックスをレンダリングおよび表示するための種々の公知のソフトウェア構成要素を含む。「グラフィックス」という用語は、限定ではないが、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインターフェースオブジェクト等)、デジタル画像、ビデオ、アニメーション、および、同等物を含む、ユーザに表示されることができる任意のオブジェクトを含むことに留意されたい。
電子デバイス状態モジュール144は、デバイス100の電子デバイス状態を制御する。電子デバイス状態モジュール144は、第1の状態モジュール150と、第2の状態モジュール152とを含み得る。第1の状態モジュールは、デバイス100を第1の状態に移行するよう、および、デバイス100を第1の状態に移行するように1つ以上の条件のうちのいずれかの充足を検知する。第2の状態モジュールは、本デバイスを電子デバイスの第2の状態に移行するよう、および、デバイス100を第2の状態に移行するように1つ以上の条件のうちのいずれかの充足を検知する。
1つ以上のアプリケーション130は、限定ではないが、ブラウザ、アドレス帳、連絡先リスト、Eメール、インスタントメッセージング、文書処理、キーボードエミュレーション、ウィジェット、JAVA(登録商標)対応アプリケーション、暗号化、デジタル権利管理、音声認識、音声複製、場所判定能力(全地球測位システム(GPS)によって提供されるもの等)、音楽プレーヤ(MP3またはAACファイル等の1つ以上のファイルに記憶された録音音楽を再生する)等を含む、デバイス100上にインストールされる任意のアプリケーションを含むことができる。
図4〜7は、タッチ感応性ディスプレイの形態におけるタッチ感応性モジュール200の一体部分である非接触式検知手段300の例示的実施形態のより詳細な概略図を提供する。このタッチ感応性ディスプレイは、第1の位置情報および第2の位置情報を同時および/または交互に検知することを可能にし、このタッチ感応性ディスプレイは、ロバストかつ低費用の設計によって特徴付けられる。
図4は、透明および隔離材料から成る画面層201を含む、タッチ感応性モジュール200の簡略化タッチガラスを示す。この画面層201上で、画面層に接続される透明電極層が、配列される。
この電極層は、複数の電極区画204に分割され、電極区画204は、容量センサ要素204である。全ての電極区画204の全体が、区画アレイ202の形態において、ここで示されているアクティブ領域202を形成する。この区画アレイ202は、対応する水平および/または垂直の連続する隣接電極区画204が、小型伝導性セクション206、208によって相互に接続されるという事実にすなわち起因して、区画線Z1、Z2、Z3、Z4、および、Z5、ならびに、区画列S1、S2...S9を形成する。区画線Z1...Z5および区画列S1...S9は、相互に関して隔離され、それらの各々は、供給線LZ1/5およびLS1/9に接続されている。伝導性セクション206、208は、タッチ感応性モジュール200の領域202中で相互に交差する限りにおいて、相互に対して隔離される。
区画列および区画線は、これらの供給接続LZ1/5およびLS1/9を介して、コントローラ手段120に、特定すると非接触式検知コントローラ124に接続される。非接触式検知コントローラ124および追加の伝導性層306と組み合わせて、タッチ感応性モジュール200のタッチグラスはまた、非接触式検知システム300を表す。これらのコントローラ手段120、124は、(周波数分割多重化を用いて)同時に、かつ、(時分割多重化またはイベント誘発式多重化を用いて)交互に、ユーザ入力オブジェクト500に関する第1の位置情報および第2の位置情報を判定し得るように設計され、非接触式検知は、区画アレイ202の複数の電極区画204を、電極グループ301、302、304、304に、特定すると電極線Z1...Z5または電極列S1...S9に組み合わせることによって行われる。
図4に示されるように、電極区画はまた、線形構成を有し得る。
図5において、タッチ感応性ディスプレイのガラス201の設計が、簡略化された例として概略的に示されている。画面層201は、好ましくは、プラスチックまたはガラス材料から成り、例えば0.8mmの厚さを有する。画面層201の両側で、透明伝導性層204、306(例えば、ITO層)が、提供される。
使用位置でユーザに向かって配向される頂面は、構造化されることによって複数の区画204に分割される層204を有し、ここで、層は、線および列にグループ化される緊密に隣接した区画204(例えば、菱形)を有する。行および列にグループ化された電極区画204を電気的に接触することは、専用の供給線を介して行われる。
(ディスプレイに向かって配向される)底部側は、透明ITO層306で連続的にコーティングされる。それに従って構築された画面層201は、公知のタッチ感応性ディスプレイ機能性をこのディスプレイに提供するために、好適なディスプレイの前に配列される。電極層204、306の各々は、さらなる(ここでは示されていない)隔離透明層によって覆われ得る。電極層204、306は、典型的に、フレキシケーブル(FFC)を介して接続される。
図6に示されるように、縁に近い菱形の線のうちの4本(すなわち、水平グループ化によって形成される区画線Z1/303およびZ5/301、垂直グループ化によって形成される区画列S1/302およびS9/304)が、第2の位置情報を判定するために使用される。線および列にグループ化された電極区画を使用することによって、非接触式検知手段のための電極の「フレーム」が、得られる。
第2の位置情報を判定するために使用される上側水平電極区画グループZ1/303および下側水平電極区画グループZ5/301、ならびに、(縁に近い)左右の電極列S1/302およびS9/304の両方が、シェーディングによって強調表示されている。水平電極区画グループZ1/303およびZ5/301の両方が、ユーザの指500の平均位置のy位置を判定するために用いられる。y位置判定と同時に、または、それの直後に、分析が行われ得、それを用いて、電極区画をグループ化することによって、細長い検知電極が、左縁領域S1/302の中および右縁領域S9/304の中の各々で形成される。それら2つの電極グループS1/302、S9/304によって、ユーザの指500の平均位置のx位置が、判定され得る。さらに、ユーザの指の平均位置のz距離が、測定された信号から計算される。平均位置を判定するために、他の分析アプローチが、用いられ得る。
第2の位置情報の判定を支援する表示領域中のさらなる電極を有することが、可能である。これらの追加の電極を用いて、例えば、所定の距離は、ユーザ入力オブジェクト(ユーザの手等)の複数の部分が非接触式検知手段によって判定される空間的配列に寄与するように、拡大され得る。
そのようなディスプレイを特色とする電子デバイスにおいて、第1の位置情報および第2の位置情報は、同時および/または交互に判定され得る。この目的のために、多重化、特定するとイベント誘発式多重化、時分割多重化および/または周波数分割多重化が、用いられる。
コントローラ手段120、特定すると非接触式検知コントローラ124は、グループドライバを備え、グループドライバは、どの電極区画グループまたはグループの組み合わせZ1/303、Z5/301、S1/302、S9/304(または、必要であれば、どの単一の電極区画204)が、第2の位置情報を判定するために現在用いられているかを判定する。グループドライバは、現在の電極区画グループ化に関する情報を補償コントローラに転送し得、したがって、電極区画グループZ1/303、Z5/301、S1/302、S9/304を介して検知される電場現象を分析するために考慮に入れられる具体的な特性化値または選好および参照のレベルを課す。これらの特性化値は、構成における現在アクティブな電極システムの全容量または通常の接地であり得、いかなる外部影響(ユーザ入力オブジェクトに起因する外部影響等)も存続しない。次いで、特性化値は、較正値と見なされ得る。補償コントローラは、別個の実体または非接触式検知コントローラ124の一体部分であり得る。
コントローラ手段120、特定すると、電極区画線および列を一時的に起動するため、および、起動された電極区画線および列を介して測定された信号を分析するための非接触式検知コントローラ124は、ASIC 120/124として実装され得る。ASIC 120/124は、画面層201の近くに配列され得、かつ、画面層201に物理的に接続され得る。ASIC 120/124は、タッチ感応性モジュール200を介して第1の位置情報、および、非接触式検知手段300を介して第2の位置情報を同時および/または交互に判定するために適合させられるように、設計され得る。ASIC 120/124は、それの特定の機能がASIC 120/124をプログラムすることによって規定され得るように、設計され得る。ASIC 120/124は、ASIC 120/124が電極区画アレイのどの電極区画グループ(特定すると、どの電極区画線Z1...Z5および電極区画列S1...S9)が、第2の位置情報を判定するために現在用いられているかを規定するように、設計され得る。
ASIC 120/124自体は、従来技術のタッチ感応性表面が提供する方法で、第1の位置情報に関する(特定すると第1の位置に関する)信号を提供する。加えて、ASIC 120/124は、第2の位置情報に関する(特定すると第2の位置に関する)信号を提供する。ASIC 120/124において、判定された第1の位置情報および第2の位置情報に関する具体的な事前分析を行うアプリケーションが、作動し得る。ASIC 120/124は、第1の位置情報を使用し得、それに応じて、第2の位置情報を判定するために用いられるべきである電極区画グループを選択し得る。これは、適切な電極区画グループを選択することによって、第2の位置情報を判定する精度が向上させられ得るので、有利である。ASIC 120/124は、例えば、タッチ感応性表面200の前面上の所定の距離内でユーザ入力オブジェクトを移動させることによって誘導され得る接地に対する容量結合の変化、電位の結合、および/または、起動された電極区画グループ(単数または複数)の環境の誘電特性の変化を分析することによって、第2の位置情報を判定し得る。異なる測定アプローチが、この目的のためにASIC 120/124によって用いられ得る。典型的な測定プローチは、例えば、アナログ信号(すなわち、特定の範囲内で変化する信号)として接地電位に対する起動電極区画の結合を検知することにある。
非接触式検知コントローラ124は、RXおよびTXのコネクタを備え得る。例えばチャネル多重化によって、第2の位置情報を判定するための複数の電極区画連鎖を用いることが、可能である。対応する電極区画連鎖における信号レベルの分析は、多重オブジェクト認識が行われるという点で行われ得る(例えば、2本の指先の認識、および、指先の各々についての第1の位置情報および第2の位置情報の対応する判定)。
図7において、例示的実施形態による、非接触式検知システム300と組み合わせられたタッチ感応性モジュール200が示され、第1の位置情報および第2の位置情報の判定が、より詳細に表示される。縁に近くて列S1/302およびS9/304にグループ化される電極区画を用いて、タッチ感応性モジュール200に関するユーザの指500の平均位置の距離L1、L2を示す信号レベルが、検知される。これらの信号レベルから、ユーザの指500の平均位置のx距離およびz距離が、計算される。信号検知は、タッチ感応性ディスプレイモジュール200の特定の電極区画グループを、コントローラ手段120と、特定すると非接触式検知コントローラ124と連続的に接続するグループドライバを用いて行われる。後者は、1つ以上のアナログ・デジタル変換器(ADC)を備え、それに従って取得されたデジタルの第2の信号位置情報から第1の位置情報および第2の位置情報を計算する。タッチ感応性ディスプレイは、上に配列された電極区画204を有する側面の反対側にある裏面に配列されたITO層306を有する。方形波信号が、裏面に配列されたITO層306に印加される。
タッチ感応性モジュール200の電極設定が非接触式検知手段300の典型的な電極設定に非常に類似するので、感応性表面は、ユーザオブジェクトのタッチ検知と非接触式検知との両方のために使用され得る。
電極アレイの電極区画は、透明多層画面構造において実装され得る。電極区画の間の交差点の特に信頼性のある隔離を達成するために、電極区画線を形成する電極区画が、電極区画列を形成する電極区画とは異なる層に配列され得、かつ/または、電極区画線を形成する電極区画と電極区画列を形成する電極区画とが、1つの層の反対側に配列される。さらに、使用中にユーザから外方に向いている側面上で、背後電極306(例えば、非接触式検知のための伝送電極としての機能を果たし得る)がVCOM層によって形成され得る。
手姿勢制御
上記のように、実施形態は、電子デバイス100の手姿勢制御のために、特定すると、電子デバイスを制御するように、ジェスチャまたは手の姿勢あるいは配向等の位置と関連付けられる特徴的なパラメータを使用して、上記で説明されるようなセンサシステムを利用し得る。ここで図8を参照すると、そのような方法を適用するための例示的な環境を図示する略図が、示されている。タッチ感応性モジュール200、ならびに、手501および関連する指500が、示されている。指500は、タッチ感応性モジュール200の接触領域またはタッチ位置210に触れる。接触領域210は、3次元座標における点を画定する。特定すると、接触領域210は、座標(x1,y1,0)を有する点Aを画定する。手501は、座標(x2,y2,z2)を有するBにおいて重心を有する。重心は、センサについての「集中」点であり、カメラベースのセンサについては、これは、典型的に、幾何学的中心であり、容量および音響センサについては、この中心点は、典型的に、上記で議論されるような距離測定および三辺測量の結果である。重心Bは、タッチ感応性モジュール200に対する仰角αと、方位角βと呼ばれるタッチ感応性表面上の角度とを画定する。
種々の実施形態によると、指のタッチ場所A(xl,yl,0)、また、B(x2,y2,z2)におけるユーザの手の重心が、検知される。1本の指でディスプレイのタッチパネル表面に触れることによって、手を上下に移動させること(仰角α)、または、指の着地点の周りに手で円形運動を描くこと(方位角β)によって、手の重心を変化させることが、可能である。つまり、実施形態に応じて、仰角の変化または方位角の変化が、ユーザインターフェースを制御するために使用され得る。
例えば、図9には、タッチスクリーンモジュール200上、特定すると、タッチスクリーンキーパッドまたはキーボードのキー上の接触領域210における指500が示されている。指500は、仰角αを画定する。
いくつかの実施形態において、指500がタッチスクリーン上のキーに触れるとすぐに、文字が書き込まれる(すなわち、対応するキーが選択される)。タッチの瞬間に、仰角αが大文字か小文字かを制御する。例えば、いくつかの実施形態において、仰角α1、α2で示されるように、文字は平坦な仰角(例えば、仰角α=0°〜50°)によって小文字で書き込まれるが、文字は、角度が上昇させられた(例えば、α>50°)場合に大文字で書き込まれる。代替として、本方法は、大文字と小文字との区別を制御する代わりに、特殊文字の入力のために使用されることができる。
例えば、ここで図10を参照すると、そのような実施形態を図示するフローチャート1000が、示されている。フローチャート1000の中の要素の特定の配列は、要素の固定された順番を示唆するように意味されず、実施形態は、実行可能である任意の順番で実践されることができる。
最初に、本システムは、指またはスタイラスのタッチを検知する(ステップ1002)。次に、タッチのx−y位置に対応するキーが判定される(ステップ1004)。タッチ時の仰角αも判定される(ステップ1006)。本システムはさらに、仰角αが事前規定仰角αdより大きいかどうかを判定する(ステップ1008)。そのような事前規定仰角αdは、例えば40度〜50度等の任意の好適な角度であり得るが、他の角度値も使用され得る。仰角が事前規定仰角よりも大きい場合には、第1の事前規定文字が表示または選択され得、あるいは、ディスプレイに書き込まれ得る(ステップ1010)。例えば、文字は、選択されるキーに対応する大文字であり得る。仰角が事前規定仰角よりも小さかった場合には、第2の文字が、選択または表示され得、または、ディスプレイに書き込まれ得る(ステップ1012)。例えば、文字は、選択されるキーに対応する小文字であり得る。2つの文字に関して議論されるが、例えば1つよりも多くの閾値を使用することによって、2つよりも多くの文字間を選択するように、他の実施形態が使用され得ることに留意されたい。
別の実施形態において、実際のタッチ中の仰角αの変化が、代替的な入力スキーム(例えば、大文字または小文字)を制御するために使用される。例えば、仰角がタッチ中に一定のままである場合、文字が、小文字で書き込まれる。仰角が、より高い値α1まで増加させられるか、または、より低い値α2まで減少させられる場合、対応する文字が大文字で書き込まれる。
例えば、ここで図11を参照すると、そのような実施形態を図示するフローチャート1100が、示されている。フローチャート1100の中の要素の特定の配列は、要素への固定された順番を示唆するように意味されず、実施形態は、実行可能である任意の順番で実践されることができる。
最初に、本システムは、指またはスタイラスのタッチを検知する(ステップ1102)。次に、タッチのx−y位置に対応するキーが判定される(ステップ1104)。タッチ時の仰角αも判定される(ステップ1106)。本システムはさらに、仰角αがタッチ中に変化するか否かを判定する(ステップ1108)。タッチ中の変化は、タッチ時に判定される仰角に対して事前規定値よりも大きい正または負の変化であり得る。仰角がタッチ中に変化する場合には、第1の事前規定文字が、表示または選択され得、あるいは、ディスプレイに書き込まれ得る(ステップ1110)。例えば、文字は、選択されるキーに対応する大文字であり得る。仰角の変化がない場合には、第2の文字が、選択または表示され得、あるいは、ディスプレイに書き込まれ得る(ステップ1112)。例えば、文字は、選択されるキーに対応する小文字であり得る。2つの文字に関して議論されるが、例えば1つよりも多くの角度の変化を検知することによって、2つよりも多くの文字が選択され得ることに留意されたい。
他の実施形態において、方位角βが、キーボードおよび/または文字制御で使用される。タッチ中の方位角の変化が、代替的な入力スキームを制御するために使用され得る。方位角がタッチ中に一定のままである場合、タッチを解放するときに通常の文字が書き込まれる。方位角がタッチ中に変化する場合、特殊文字が、拡大鏡で表示され、角度を変化させることによって選択されることができる。
例えば、図12には、タッチスクリーン200、指500、および、接触点210が示されている。指500は、方位角βにある。1つの実施形態において、指がタッチスクリーンに触れるとすぐに、文字が判定される。タッチの瞬間に、方位角が大文字か小文字かを制御する。1つの実施形態において、小さい方位角によって、小文字が書き込まれる(βd、−βd、例えば、方位角=+30..−30°)。方位角の絶対値が30°より大きい場合、大文字が書き込まれる(例えば、方位角(βd、−βd)=−100°..−30°、+30°..100°)。代替として、本方法は、大文字と小文字との区別を制御する代わりに、特殊文字の入力のために使用されることができる。さらに、本方法は、2つよりも多くの代替案間を選択するために使用され得る。
例えば、ここで図13を参照すると、そのような実施形態を図示するフローチャート1300が、示されている。フローチャート1300の中の要素の特定の配列は、要素への固定された順番を示唆するように意味されず、実施形態は、実行可能である任意の順番で実践されることができる。
最初に、本システムは、指またはスタイラスのタッチを検知する(ステップ1302)。次に、タッチのx−y位置に対応するキーが判定される(ステップ1304)。タッチ時の方位角βも判定される(ステップ1306)。本システムはさらに、方位角βが事前規定範囲内にあるかまたは事前規定値よりも小さいかどうかを判定する(ステップ1308)。方位角βが方位角βdよりも大きい場合には、タッチが解放されるときに、第1の事前規定文字が、表示または選択され得、あるいは、ディスプレイに書き込まれ得る(ステップ1310)。例えば、文字は、選択されるキーに対応する大文字であり得る。方位角βが事前規定方位角βdよりも小さい場合には、第2の文字が、選択または表示され得、あるいは、ディスプレイに書き込まれ得る(ステップ1312)。例えば、文字は、選択されるキーに対応する小文字であり得る。再度、実施形態に応じて2つよりも多くの代替案が選択され得ることに留意されたい。
上記のように、方位角および仰角が、特殊文字を選択するために使用され得る。いくつかの実施形態において、一方または他方が、1つよりも多くの特殊文字を選択することに役立つために使用され得る。そのような実施形態は、1つよりも多くの特殊文字を選択するために方位角を使用することに関して図14に示されている。
示されるように、ユーザの指500は、文字「
」を選択するように、接触点210で画面200に触れる。ユーザは、図示される実施形態において小文字を選択する低い仰角でそのようにする。示されるように、ユーザは、より大きい負の方位角βで文字に触れ得る。これは、ポップアップウィンドウ1402が表示されるようにする。ポップアップディスプレイ1402に表示される文字「
」の選択は、長方形によって示される最も左側にある文字である。ユーザがこの位置でタッチを解放した場合、ユーザは、「
」を書き込む。しかしながら、ユーザが右に(反時計回りに)指500を回転させた場合、ユーザは、示された文字を右にスクロールすることにより、所望の変形例を強調表示して選択することができる。
例えば、ここで図15を参照すると、そのような実施形態を図示するフローチャート1500が、示されている。フローチャート1500の中の要素の特定の配列は、要素への固定された順番を示唆するように意味されず、実施形態は、実行可能である任意の順番で実践されることができる。
最初に、本システムは、指またはスタイラスのタッチを検知する(ステップ1502)。次に、タッチのx−y位置に対応するキーが判定される(ステップ1504)。仰角または方位角に基づいて、特殊文字オプションディスプレイが、表示のために選択または提示され得る(ステップ1506)。例えば、上記のように、仰角が比較的小さく、かつ、方位角が比較的大きい場合、特殊文字メニューが表示され得る。次いで、指の方位角を変化させることによって、特殊オプションメニューがスクロールされ得る(ステップ1508)。例えば、指が左から右へ回転させられる場合、メニュー中のオプションが、連続的に強調表示され得る。所望のオプションが強調表示されると、ユーザは、タッチを解放することによって、選択された文字を選択または表示することができ、あるいは、書き込むことができる(ステップ1510)。
いくつかの実施形態において、第1の指または選択デバイスがキーボードに触れている間に、「第2の」指あるいはユーザ入力または選択デバイスを移動させることによって、第2の機能が制御されることができる。つまり、いくつかの実施形態において、指を検知ゾーンに持ち込むこと、または、検知ゾーン内で指を移動させることによって、シフトキーを制御することができる。したがって、ユーザは、実際のキーを打つ必要がなく、シフト制御は、1本の指をディスプレイに近づけることだけ、または、それを筐体上に保つことだけによって空中で行われる。
例えば、図16a、16bに示されるように、指500が文字またはキー(図示される例において、文字「h」)を選択するために使用され得る。指510は、第1の位置1600にある。それは、第2の位置1602に移動させることができる。これが検知されるとき、選択されたキーは、代替文字、すなわち、大文字の「H」に切り替わる。この特徴は、上記の実施形態のうちのいずれかに加えて、または、それの代わりに実装され得る。
上記のオプションに加えて、または、代替として、選択メニュー(図示せず)は、選択メニュー1402(図14)の態様と同様の態様でポップアップし、かつ、自動補完(T9様)、自動訂正、または、さらなる制御コマンド(例えば、言葉のコピー/ペースト)の提案等のオプションを提示するように構成され得る。これらは、指の角度を変化させることによって選択され得る。いくつかの実施形態において、キーボードにわたる特定の距離における手を用いたフリックのようなジェスチャによって、自動補完の第1の提案が選択されることができる。ジェスチャを使用することの利点は、キーボード上の小さいボタンを押すことを回避することである。そのような実施形態において、手姿勢を介して触れて制御するときに、タイプされたテキストが即時に辞書と比較され、自動補完についての提案がそれぞれ行われるように、辞書が提供され得る。辞書提案は、上記で議論されるものと同様の態様で手姿勢に応じる。
さらに、いくつかの実施形態において、文法チェックが、最良のユーザ快適性のために追加されることができ、タイプすることをより容易かつより迅速にする。
それぞれの文の中で意味を成さない文字が抑制されることができる。
2番目の文字としては大文字がない。
終止符の後の最初の文字としては常に大文字である。
上述のオプションはまた、組み合わせることができる。
種々の実施形態は、例えば伝送電極によって生成されて種々の受信電極によって受信される電場の変化を分析することが可能であるジェスチャ認識集積回路と組み合わせられるが、他の手姿勢検知方法(カメラ、赤外線、超音波)もカバーする場合に、新しい価値ある適用を開く。したがって、主要な使用の分野は、タッチスクリーンおよびタッチパネルについてのものであり得る。しかしながら、ユーザインターフェース単純化が、消費者および他の業界において重要な収益推進力であるので、他の実施形態が適用され得る。
本発明は、それの具体的実施形態に関して説明されているが、これらの実施形態は、例証的なものに過ぎず、本発明の制限ではない。要約および発明の概要における記載を含む本発明の図示される実施形態の本明細書の説明は、包括的であること、または、本明細書で開示される正確な形態に本発明を限定することを意図していない(特定すると、要約および発明の概要内に任意の特定の実施形態、特徴、または、機能を含むことは、そのような実施形態、特徴、または、機能に本発明の範囲を限定することを意図していない)。むしろ、本説明は、要約および発明の概要で説明される任意のそのような実施形態、特徴、または、機能を含む、任意の具体的に説明された実施形態、特徴、または、機能に本発明を限定することなく、本発明を理解する文脈を当業者に提供するために、例証的な実施形態、特徴、または、機能を説明することが意図されている。
本発明の具体的実施形態、および、本発明についての例は、例証目的のみのために本明細書で説明されるが、当業者が認識および理解するように、種々の同等の改変が本発明の精神および範囲内で可能である。示されるように、これらの改変は、本発明の図示された実施形態の前述の説明に照らして本発明に対して行われ得、本発明の精神および範囲内に含まれるべきである。したがって、本発明は、それの特定の実施形態を参照して本明細書で説明されているが、改変の寛容度、種々の変更および置換が、前述の開示において意図され、場合によっては、記載されるような本発明の範囲および精神から逸脱することなく、他の特徴の対応する使用を伴わずに本発明の実施形態のいくつかの特徴が用いられることが、理解されるべきである。したがって、多くの改変が、特定の状況または材料を本発明の必須の範囲および精神に適合させるように行われ得る。
本明細書の全体を通した「1つの実施形態」、「実施形態」、または、「具体的実施形態」、あるいは、類似用語の参照は、実施形態に関連して説明される特定の特徴、構造、または、特性が、少なくとも1つの実施形態に含まれ、必ずしも全ての実施形態に存在しなくてもよいことを意味する。したがって、本明細書の全体を通した種々の場所での「1つの実施形態において」、「実施形態において」、または、「具体的実施形態において」という語句、あるいは、類似用語のそれぞれの出現は、必ずしも同じ実施形態を指しているわけではない。さらに、任意の特定の実施形態の特定の特徴、構造、または、特性は、任意の好適な様式で1つ以上の他の実施形態と組み合わせられ得る。本明細書で説明および図示される実施形態の他の変形例および改変が、本明細書の教示に照らして可能であり、本発明の精神および範囲の一部と見なされるべきであることが、理解されるべきである。
本明細書の説明において、構成要素および/または方法の例等の多数の具体的詳細が、本発明の実施形態の徹底的な理解を提供するために提供される。しかしながら、当業者は、具体的詳細のうちの1つ以上を伴わずに、または、他の装置、システム、アセンブリ、方法、構成要素、材料、部品、および/または、同等物を伴って実施形態が実践されることが可能であり得ることを認識する。他の場合において、周知の構造、構成要素、システム、材料、または、動作は、本発明の実施形態の局面を曖昧にすることを回避するために、具体的に詳細に図示または説明されていない。本発明は、特定の実施形態を使用することによって例証され得るが、これは、いかなる特定の実施形態でもなく、いかなる特定の実施形態にも本発明を限定せず、当業者は、追加の実施形態が容易に理解可能であって本発明の一部であることを認識する。
C、C++、Java(登録商標)、アセンブリ言語等を含む任意の好適なプログラミング言語が、本明細書で説明される本発明の実施形態のルーチン、方法、または、プログラムを実装するために使用されることができる。手続き型またはオブジェクト指向等の異なるプログラミング技法が、用いられることができる。任意の特定のルーチンが、単一のコンピュータ処理デバイスまたは複数のコンピュータ処理デバイス、単一のコンピュータプロセッサまたは複数のコンピュータプロセッサ上で実行することができる。データは、単一の記憶媒体に記憶され得、または、複数の記憶媒体を通して分散させられ得、単一のデータベースまたは複数のデータベース(または、他のデータ記憶技法)に存在し得る。ステップ、動作、または、計算は、特定の順番で提示され得るが、この順番は、異なる実施形態において変更され得る。いくつかの実施形態において、複数のステップが本明細書で逐次的であるとして示される範囲で、代替実施形態におけるそのようなステップのいくつかの組み合わせが、同時に行われ得る。本明細書で説明される動作のシーケンスは、オペレーティングシステム、カーネル等の別のプロセスによって中断、一時停止、または、別様に制御されることができる。ルーチンは、オペレーティングシステム環境において、または、スタンドアローン型ルーチンとして動作することができる。本明細書で説明される機能、ルーチン、方法、ステップ、および、動作は、ハードウェア、ソフトウェア、ファームウェア、または、それらの任意の組み合わせにおいて行われることができる。
本明細書で説明される実施形態は、ソフトウェア、または、ハードウェア、あるいは、両方の組み合わせにおいて、制御論理の形態で実装されることができる。制御論理は、情報処理デバイスに、種々の実施形態で開示される一式のステップを行うよう指示するように適合させられた複数の命令として、コンピュータ可読媒体等の情報記憶媒体に記憶され得る。本明細書で提供される開示および教示に基づいて、当業者が、本発明を実装するための他の手法および/または方法を理解する。
ソフトウェアプログラミングまたはコードに、本明細書で説明されるステップ、動作、方法、ルーチン、または、それらの部分のうちのいずれかを実装することもまた、本発明の精神および範囲内であり、そのようなソフトウェアプログラミングまたはコードは、コンピュータ可読媒体に記憶されることができ、本明細書で説明されるステップ、動作、方法、ルーチン、または、それらの部分のうちのいずれかをコンピュータが行うことを可能にするように、プロセッサによって操作されることができる。本発明は、特定用途向け集積回路、プログラマブル論理デバイス、フィールドプログラマブルゲートアレイ等を使用することにより、1つ以上の汎用デジタルコンピュータにおけるソフトウェアプログラミングまたはコードを使用することによって実装され得る。光学的な、化学的な、生物学的な、量子的な、または、ナノ加工のシステム、構成要素および機構が、使用され得る。一般に、本発明の機能は、当技術分野で公知であるような任意の手段によって達成されることができる。例えば、分散型またはネットワーク化システム、構成要素、および、回路が、使用されることができる。別の例において、データの通信または転送(または、ある場所から別の場所に別様に移動させること)は、有線、無線、または、任意の他の手段によるものであり得る。
「コンピュータ可読媒体」は、命令実行システム、装置、システム、または、デバイスによって、または、それらと併せて使用するために、プログラムを含有、記憶、通信、伝搬、もしくはトランスポートすることができる任意の媒体であり得る。コンピュータ可読媒体は、限定ではなく単なる一例として、電子、磁気、光学、電磁、赤外線、または、半導体のシステム、装置、システム、デバイス、伝搬媒体、または、コンピュータメモリであり得る。そのようなコンピュータ可読媒体は、概して、機械可読であり、人間可読(例えば、ソースコード)または機械可読(例えば、オブジェクトコード)であり得るソフトウェアプログラミングまたはコードを含む。非一過性コンピュータ可読媒体の例は、ランダムアクセスメモリ、読み取り専用メモリ、ハードドライブ、データカートリッジ、磁気テープ、フロッピー(登録商標)ディスケット、フラッシュメモリドライブ、光学的データ記憶デバイス、コンパクトディスク読み取り専用メモリ、ならびに、他の適切なコンピュータメモリおよびデータ記憶デバイスを含むことができる。例証的実施形態において、ソフトウェア構成要素のうちのいくつかまたは全ては、単一のサーバコンピュータ上に、または、別個のサーバコンピュータの任意の組み合わせ上に存在し得る。当業者が理解し得るように、本明細書で開示される実施形態を実装するコンピュータプログラム製品は、コンピューティング環境における1つ以上のプロセッサによって翻訳可能であるコンピュータ命令を記憶する1つ以上の非一過性コンピュータ可読媒体を備え得る。
「プロセッサ」は、データ、信号、または、他の情報を処理する任意のハードウェアシステム、機構、または、構成要素を含む。プロセッサは、汎用中央処理ユニット、複数の処理ユニット、機能性を達成するための専用回路を伴うシステム、または、他のシステムを含むことができる。処理は、地理的場所に限定されたり時間的制限を有したりする必要はない。例えば、プロセッサは、「リアルタイム」、「オフライン」、「バッチモード」等でそれの機能を果たすことができる。処理の複数の部分は、異なる時間および異なる場所で、異なる(または、同じ)処理システムによって行うことができる。
本明細書で使用される場合、「備える(comprise、comprising)」、「含む(include、including)」、「有する(has、having)」という用語、または、それらの任意の他の変形例は、非排他的包含をカバーすることが意図されている。例えば、要素のリストを備えるプロセス、製品、物品、または、装置は、必ずしもそれらの要素のみに限定されず、明示的に記載されていないか、または、そのようなプロセス、プロセス、物品、または、装置に固有の他の要素を含み得る。
さらに、本明細書で使用されるような「または」という用語は、別段示されない限り、概して、「および/または」を意味することが意図されている。例えば、条件Aまたは条件Bは、下記のうちのいずれか1つによって満たされる。Aが真(または、存在)であり、Bが偽(または、不在)である、Aが偽(または、不在)であり、Bが真(または、存在)である、および、AおよびBの両方が真(または、存在)である。下記の請求項を含む本明細書で使用される場合、「ある(「a」または「an」)」(および、先行詞が「ある(「a」または「an」)」であるときは「該、前記(the)」)によって先行される用語は、別段請求項内で明確に示されない限り、そのような用語の単数形および複数形の両方を含む(すなわち、「ある(「a」または「an」)」という言及は、単数形のみまたは複数形のみを明確に示す)。また、本明細書の説明および下記の特許請求の範囲全体を通して使用されるように、「における、の中に(in)」の意味は、文脈が明確に別様に指定しない限り、「における、の中に(in)」および「の上に(on)」を含む。
図面/図で描写される要素のうちの1つ以上はまた、特定の用途に従って有用であるように、さらに分離されるかまたは統合された様式で実装されることができ、または、特定の場合において、除去されたり、動作不可能にされたりもできることが、理解される。加えて、図面/図中の任意の信号矢印は、別段具体的に記述されない限り、限定的ではなく例示的なものに過ぎないと見なされるべきである。

Claims (32)

  1. ジェスチャ検知方法であって、前記ジェスチャ検知方法は、
    入力オブジェクトのタッチ位置を検知することと、
    前記タッチ位置、および、入力オブジェクトの位置の特徴的なパラメータに応じて、入力モードを選択することと、
    前記特徴的なパラメータの計算後、または、それぞれのタッチの解放に従ってのいずれかで、入力文字を入力することと
    を含む、ジェスチャ検知方法。
  2. 入力モードは、3次元センサシステムのパラメータ変化の検知時に切り替えられる、請求項1に記載のジェスチャ検知方法。
  3. 前記パラメータは、タッチを行う入力オブジェクトの仰角レベルによって判定される、請求項1に記載のジェスチャ検知方法。
  4. 前記入力オブジェクトは、手であり、前記パラメータは、モバイルデバイスを保持する前記手から指を持ち上げることによって判定される、請求項1に記載のジェスチャ検知方法。
  5. 前記入力オブジェクトは、手であり、前記パラメータは、前記タッチを行う前記手の方位角によって判定される、請求項1に記載のジェスチャ検知方法。
  6. 第1の仰角は、第1の入力モードを選択し、第2の仰角は、第2の入力モードを選択する、請求項3に記載のジェスチャ検知方法。
  7. 第1の方位角は、第1の入力モードを選択し、第2の方位角は、第2の入力モードを選択する、請求項5に記載のジェスチャ検知方法。
  8. ジェスチャ検知システムであって、前記ジェスチャ検知システムは、
    タッチ感応性表面および非接触式検知システムを含む入力デバイスと、
    ユーザ入力オブジェクトの3次元空間における位置についての特徴的なパラメータを判定し、かつ、前記ユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成されたコントローラと
    を備える、ジェスチャ検知システム。
  9. 前記入力デバイスまたは前記接続されたシステムは、グラフィカルユーザインターフェースを含む、請求項8に記載のジェスチャ検知システム。
  10. 前記ユーザ入力オブジェクトの3次元空間における前記位置を判定することは、前記ユーザ入力オブジェクトの方位角を判定することと、前記方位角に基づいて前記グラフィカルユーザインターフェース上の文字を選択することとを含む、請求項9に記載のジェスチャ検知システム。
  11. 前記ユーザ入力オブジェクトの3次元空間における前記位置を判定することは、前記ユーザ入力オブジェクトの仰角を判定することと、前記仰角に基づいて前記グラフィカルユーザインターフェース上の文字を選択することとを含む、請求項9に記載のジェスチャ検知システム。
  12. 前記コントローラは、第2のユーザ入力オブジェクトの3次元空間における位置を判定し、かつ、前記第2のユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成される、請求項9に記載のジェスチャ検知システム。
  13. 前記入力デバイスの前記動作モードは、前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、オプションメニューを表示することを含む、請求項9に記載のジェスチャ検知システム。
  14. タイプされたテキストと、前記ユーザ入力オブジェクトの3次元空間における前記位置との検知に応答してアクセス可能な辞書をさらに備える、請求項9に記載のジェスチャ検知システム。
  15. 前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、前記タイプされたテキストと関連付けられる前記辞書からの1つ以上の自動補完オプションを提供するようにさらに構成される、請求項14に記載のジェスチャ検知システム。
  16. 電子デバイスであって、前記電子デバイスは、
    タッチ感応性表面および非接触式検知システムを含む入力デバイスと、
    前記入力デバイスを使用して選択を表示するための表示デバイスと、
    前記タッチ感応性表面に対するユーザ入力オブジェクトの3次元空間における位置と関連付けられるパラメータを判定し、かつ、前記ユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成されたコントローラと
    を備える、電子デバイス。
  17. 前記ユーザ入力オブジェクトの3次元空間における前記位置と関連付けられるパラメータを判定することは、前記ユーザ入力オブジェクトの方位角を判定することと、前記方位角に基づいて前記グラフィカルユーザインターフェース上の文字を選択することとを含む、請求項16に記載の電子デバイス。
  18. 前記ユーザ入力オブジェクトの3次元空間における前記位置と関連付けられるパラメータを判定することは、前記ユーザ入力オブジェクトの仰角を判定することと、前記仰角に基づいて前記グラフィカルユーザインターフェース上の第1の文字または第2の文字を選択することとを含む、請求項16に記載の電子デバイス。
  19. 前記コントローラは、第2のユーザ入力オブジェクトの3次元空間における位置と関連付けられるパラメータを判定し、かつ、前記第2のユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成される、請求項16に記載の電子デバイス。
  20. 前記入力デバイスの前記動作モードは、前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、オプションメニューを表示することを含む、請求項16に記載の電子デバイス。
  21. タイプされたテキストと前記パラメータとの検知に応答してアクセス可能な辞書をさらに備える、請求項16に記載の電子デバイス。
  22. 前記コントローラは、前記パラメータに基づいて、前記タイプされたテキストと関連付けられる前記辞書からの1つ以上の自動補完オプションを提供するようにさらに構成される、請求項21に記載の電子デバイス。
  23. 方法であって、前記方法は、
    タッチ位置を検知することと、
    3次元空間におけるユーザ入力オブジェクトの位置関連パラメータを検知することと、
    前記タッチ位置および前記位置関連パラメータに基づいて、電子デバイスの動作モードを選択することと
    を含む、方法。
  24. 前記動作モードは、前記位置関連パラメータに基づいて、グラフィカルユーザインターフェース上の第1の文字または第2の文字を選択することを含む、請求項23に記載の方法。
  25. 前記位置関連パラメータは、前記ユーザ入力オブジェクトの方位角を含む、請求項23に記載の方法。
  26. 前記位置関連パラメータは、前記ユーザ入力オブジェクトの仰角を含む、請求項23に記載の方法。
  27. 3次元空間における第2のユーザ入力オブジェクトの位置関連パラメータを検知することと、3次元空間における前記第2のユーザ入力オブジェクトの前記位置関連パラメータに基づいて、前記電子デバイスの動作モードを選択することとをさらに含む、請求項26に記載の方法。
  28. 3次元空間における第2のユーザ入力オブジェクトの位置関連パラメータを検知することと、3次元空間における前記第2のユーザ入力オブジェクトの前記位置関連パラメータに基づいて、前記電子デバイスの動作モードを選択することとをさらに含む、請求項25に記載の方法。
  29. 前記動作モードを選択することは、前記位置関連パラメータに基づいて前記グラフィカルユーザインターフェース上の1つ以上の制御を選択することを含む、請求項23に記載の方法。
  30. タイプされたテキストと前記位置関連パラメータとの検知に応答して、辞書にアクセスすることをさらに含む、請求項23に記載の方法。
  31. 前記位置関連パラメータに基づいて、前記タイプされたテキストと関連付けられる前記辞書からの1つ以上の自動補完オプションを提供することをさらに含む、請求項30に記載の方法。
  32. 第1の位置情報および第2の位置情報は、イベント駆動型多重化を使用して判定される、請求項30に記載の方法。
JP2015528992A 2012-08-27 2013-08-27 手姿勢制御を伴う入力デバイス Withdrawn JP2015531139A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261693617P 2012-08-27 2012-08-27
US61/693,617 2012-08-27
US13/975,579 US9552068B2 (en) 2012-08-27 2013-08-26 Input device with hand posture control
US13/975,579 2013-08-26
PCT/EP2013/067746 WO2014033138A1 (en) 2012-08-27 2013-08-27 Input device with hand posture control

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017236749A Division JP6522726B2 (ja) 2012-08-27 2017-12-11 手姿勢制御を伴う入力デバイス

Publications (2)

Publication Number Publication Date
JP2015531139A true JP2015531139A (ja) 2015-10-29
JP2015531139A5 JP2015531139A5 (ja) 2016-10-13

Family

ID=50147554

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015528992A Withdrawn JP2015531139A (ja) 2012-08-27 2013-08-27 手姿勢制御を伴う入力デバイス
JP2017236749A Active JP6522726B2 (ja) 2012-08-27 2017-12-11 手姿勢制御を伴う入力デバイス

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017236749A Active JP6522726B2 (ja) 2012-08-27 2017-12-11 手姿勢制御を伴う入力デバイス

Country Status (7)

Country Link
US (1) US9552068B2 (ja)
EP (1) EP2888653A1 (ja)
JP (2) JP2015531139A (ja)
KR (1) KR102137687B1 (ja)
CN (1) CN104662508A (ja)
TW (1) TWI614645B (ja)
WO (1) WO2014033138A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
DE102012219736A1 (de) * 2012-10-29 2014-04-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US10281987B1 (en) * 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
TWI507920B (zh) * 2014-08-20 2015-11-11 Quanta Comp Inc 電子裝置及避免多個輸入裝置互相干擾的方法
US10039975B2 (en) 2015-01-13 2018-08-07 Disney Enterprises, Inc. Techniques for representing imaginary participants in an immersive play environment
US10265621B2 (en) 2015-01-20 2019-04-23 Disney Enterprises, Inc. Tracking specific gestures relative to user movement
US9855497B2 (en) 2015-01-20 2018-01-02 Disney Enterprises, Inc. Techniques for providing non-verbal speech recognition in an immersive playtime environment
WO2016121708A1 (ja) * 2015-01-26 2016-08-04 Necソリューションイノベータ株式会社 入力システム、入力装置、入力方法、および、記録媒体
US10108292B2 (en) * 2015-04-22 2018-10-23 Microchip Technology Incorporated Capacitive sensor system with multiple transmit electrodes
USD788048S1 (en) * 2015-06-16 2017-05-30 Fibar Group S.A. Touch-less swipe controller
CN106027104A (zh) * 2016-07-08 2016-10-12 杭州联络互动信息科技股份有限公司 一种使用手腕佩戴的智能设备执行通讯操作的方法及装置
CN106598470A (zh) * 2016-12-27 2017-04-26 努比亚技术有限公司 一种触控操作方法及装置
WO2018119728A1 (zh) * 2016-12-28 2018-07-05 英华达(上海)科技有限公司 电子设备的输入方法及系统
KR102635976B1 (ko) * 2016-12-30 2024-02-13 에스엘 주식회사 제스처 인식 장치
CN106873870A (zh) * 2017-01-06 2017-06-20 珠海格力电器股份有限公司 一种终端交互方法及其装置、终端及电子设备
US10788935B2 (en) * 2017-03-13 2020-09-29 Microsoft Technology Licensing, Llc Multiplexing capacitance sensing and display functionality
CN111033452B (zh) * 2017-09-04 2024-04-09 株式会社和冠 空间位置指示系统
CN113849093A (zh) * 2021-09-28 2021-12-28 联想(北京)有限公司 一种控制方法、装置及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033158A (ja) * 2008-07-25 2010-02-12 Sony Corp 情報処理装置及び情報処理方法
JP2011008424A (ja) * 2009-06-24 2011-01-13 Sharp Corp 電子機器、動作モード設定方法、およびプログラム
US20120068941A1 (en) * 2010-09-22 2012-03-22 Nokia Corporation Apparatus And Method For Proximity Based Input

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US6597345B2 (en) 2000-03-03 2003-07-22 Jetway Technologies Ltd. Multifunctional keypad on touch screen
US9274551B2 (en) * 2005-02-23 2016-03-01 Zienon, Llc Method and apparatus for data entry input
US20090021491A1 (en) * 2006-02-23 2009-01-22 Pioneer Corporation Operation input device
DE102007020873A1 (de) 2007-04-26 2008-10-30 Ident Technology Ag Sensoreinrichtung, sowie Verfahren zur Generierung von hinsichtlich der Position oder Positionsänderung von Gliedmaßen indikativen Signalen
KR100838818B1 (ko) * 2007-08-13 2008-06-17 홍성찬 문자입력장치
US8516397B2 (en) * 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods
US20100271331A1 (en) * 2009-04-22 2010-10-28 Rachid Alameh Touch-Screen and Method for an Electronic Device
US9323398B2 (en) * 2009-07-10 2016-04-26 Apple Inc. Touch and hover sensing
US9632622B2 (en) * 2009-07-16 2017-04-25 Apple Inc. Ground detection for touch sensitive device
DE102010007455A1 (de) 2010-02-10 2011-08-11 Ident Technology AG, 82234 System und Verfahren zum berührungslosen Erfassen und Erkennen von Gesten in einem dreidimensionalen Raum
CN102859477B (zh) 2010-04-16 2016-11-16 微晶片科技德国公司 Tft显示器、oled接口及用于在安置于显示器上游的空间区域中检测边沿的空间位置的方法
US9323379B2 (en) 2011-12-09 2016-04-26 Microchip Technology Germany Gmbh Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch-sensitive surface and contact-free detection means
US8436828B1 (en) * 2012-01-27 2013-05-07 Google Inc. Smart touchscreen key activation detection
US9298295B2 (en) * 2012-07-25 2016-03-29 Facebook, Inc. Gestures for auto-correct

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033158A (ja) * 2008-07-25 2010-02-12 Sony Corp 情報処理装置及び情報処理方法
JP2011008424A (ja) * 2009-06-24 2011-01-13 Sharp Corp 電子機器、動作モード設定方法、およびプログラム
US20120068941A1 (en) * 2010-09-22 2012-03-22 Nokia Corporation Apparatus And Method For Proximity Based Input

Also Published As

Publication number Publication date
EP2888653A1 (en) 2015-07-01
TW201413538A (zh) 2014-04-01
KR102137687B1 (ko) 2020-07-27
CN104662508A (zh) 2015-05-27
WO2014033138A1 (en) 2014-03-06
US9552068B2 (en) 2017-01-24
JP2018055718A (ja) 2018-04-05
US20140055396A1 (en) 2014-02-27
TWI614645B (zh) 2018-02-11
JP6522726B2 (ja) 2019-05-29
KR20150047577A (ko) 2015-05-04

Similar Documents

Publication Publication Date Title
JP6522726B2 (ja) 手姿勢制御を伴う入力デバイス
KR102007651B1 (ko) 터치스크린 키보드를 구성하는 방법, 장치 및 이를 수행하는 프로그램을 저장하는 컴퓨터로 읽을 수 있는 저장 매체
JP6109847B2 (ja) 3自由度以上を有するユーザインターフェースを伴う電子デバイスであって、前記ユーザインターフェースが、タッチセンサ式表面および非接触検出手段を含む、電子デバイス
KR102120930B1 (ko) 포터블 디바이스의 사용자 입력 방법 및 상기 사용자 입력 방법이 수행되는 포터블 디바이스
AU2014307237B2 (en) Method and apparatus for recognizing grip state in electronic device
EP2332023B1 (en) Two-thumb qwerty keyboard
KR102139526B1 (ko) 전자 장치의 화면상에 표시되는 복수의 객체들을 실행하는 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
US9201521B2 (en) Storing trace information
US9665177B2 (en) User interfaces and associated methods
US20140331146A1 (en) User interface apparatus and associated methods
KR20090046881A (ko) 3차원 터치 패드 입력 장치
KR101611866B1 (ko) 케이스에 장착된 터치 센서를 이용한 이동 단말기 및 그 제어 방법
CN109933252B (zh) 一种图标移动方法及终端设备
US8810529B2 (en) Electronic device and method of controlling same
KR20140105331A (ko) 터치 스크린 상에서 객체 디스플레이를 제어하는 휴대 단말 및 방법
US20120206381A1 (en) Electronic device and method of controlling same
EP2487570B1 (en) Electronic device and method of controlling same
KR101366433B1 (ko) 전자 디바이스 및 이의 제어 방법
US20150242004A1 (en) Touch-sensitive input device having a logo displayed thereon for use in a mobile electronic device
KR20140027839A (ko) 전자장치에서 화면표시 제어 방법 및 장치

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170801

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171211

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20171218

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20171220