JP2015531139A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2015531139A5 JP2015531139A5 JP2015528992A JP2015528992A JP2015531139A5 JP 2015531139 A5 JP2015531139 A5 JP 2015531139A5 JP 2015528992 A JP2015528992 A JP 2015528992A JP 2015528992 A JP2015528992 A JP 2015528992A JP 2015531139 A5 JP2015531139 A5 JP 2015531139A5
- Authority
- JP
- Japan
- Prior art keywords
- gesture detection
- input object
- detection system
- user input
- item
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000001514 detection method Methods 0.000 claims description 45
- 230000005540 biological transmission Effects 0.000 claims 2
- 230000005684 electric field Effects 0.000 claims 2
- 238000000034 method Methods 0.000 description 12
- 238000007792 addition Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000008707 rearrangement Effects 0.000 description 1
Description
本開示のこれらおよび他の局面は、下記の説明および添付図面と併せて考慮されるときにより良好に認識および理解される。しかしながら、下記の説明は、本開示の種々の実施形態およびそれらの多数の具体的詳細を示すが、限定ではなく例証として与えられることが、理解されるべきである。多くの置換、改変、追加、および/または、再構成が、それの精神から逸脱することなく本開示の範囲内で行われ得、本開示は、全てのそのような置換、改変、追加、および/または、再構成を含む。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
ジェスチャ検知方法であって、前記ジェスチャ検知方法は、
入力オブジェクトのタッチ位置を検知することと、
前記タッチ位置、および、入力オブジェクトの位置の特徴的なパラメータに応じて、入力モードを選択することと、
前記特徴的なパラメータの計算後、または、それぞれのタッチの解放に従ってのいずれかで、入力文字を入力することと
を含む、ジェスチャ検知方法。
(項目2)
入力モードは、3次元センサシステムのパラメータ変化の検知時に切り替えられる、項目1に記載のジェスチャ検知方法。
(項目3)
前記パラメータは、タッチを行う入力オブジェクトの仰角レベルによって判定される、項目1に記載のジェスチャ検知方法。
(項目4)
前記入力オブジェクトは、手であり、前記パラメータは、モバイルデバイスを保持する前記手から指を持ち上げることによって判定される、項目1に記載のジェスチャ検知方法。
(項目5)
前記入力オブジェクトは、手であり、前記パラメータは、前記タッチを行う前記手の方位角によって判定される、項目1に記載のジェスチャ検知方法。
(項目6)
第1の仰角は、第1の入力モードを選択し、第2の仰角は、第2の入力モードを選択する、項目3に記載のジェスチャ検知方法。
(項目7)
第1の方位角は、第1の入力モードを選択し、第2の方位角は、第2の入力モードを選択する、項目5に記載のジェスチャ検知方法。
(項目8)
ジェスチャ検知システムであって、前記ジェスチャ検知システムは、
タッチ感応性表面および非接触式検知システムを含む入力デバイスと、
ユーザ入力オブジェクトの3次元空間における位置についての特徴的なパラメータを判定し、かつ、前記ユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成されたコントローラと
を備える、ジェスチャ検知システム。
(項目9)
前記入力デバイスまたは前記接続されたシステムは、グラフィカルユーザインターフェースを含む、項目8に記載のジェスチャ検知システム。
(項目10)
前記ユーザ入力オブジェクトの3次元空間における前記位置を判定することは、前記ユーザ入力オブジェクトの方位角を判定することと、前記方位角に基づいて前記グラフィカルユーザインターフェース上の文字を選択することとを含む、項目9に記載のジェスチャ検知システム。
(項目11)
前記ユーザ入力オブジェクトの3次元空間における前記位置を判定することは、前記ユーザ入力オブジェクトの仰角を判定することと、前記仰角に基づいて前記グラフィカルユーザインターフェース上の文字を選択することとを含む、項目9に記載のジェスチャ検知システム。
(項目12)
前記コントローラは、第2のユーザ入力オブジェクトの3次元空間における位置を判定し、かつ、前記第2のユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成される、項目9に記載のジェスチャ検知システム。
(項目13)
前記入力デバイスの前記動作モードは、前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、オプションメニューを表示することを含む、項目9に記載のジェスチャ検知システム。
(項目14)
タイプされたテキストと、前記ユーザ入力オブジェクトの3次元空間における前記位置との検知に応答してアクセス可能な辞書をさらに備える、項目9に記載のジェスチャ検知システム。
(項目15)
前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、前記タイプされたテキストと関連付けられる前記辞書からの1つ以上の自動補完オプションを提供するようにさらに構成される、項目14に記載のジェスチャ検知システム。
(項目16)
電子デバイスであって、前記電子デバイスは、
タッチ感応性表面および非接触式検知システムを含む入力デバイスと、
前記入力デバイスを使用して選択を表示するための表示デバイスと、
前記タッチ感応性表面に対するユーザ入力オブジェクトの3次元空間における位置と関連付けられるパラメータを判定し、かつ、前記ユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成されたコントローラと
を備える、電子デバイス。
(項目17)
前記ユーザ入力オブジェクトの3次元空間における前記位置と関連付けられるパラメータを判定することは、前記ユーザ入力オブジェクトの方位角を判定することと、前記方位角に基づいて前記グラフィカルユーザインターフェース上の文字を選択することとを含む、項目16に記載の電子デバイス。
(項目18)
前記ユーザ入力オブジェクトの3次元空間における前記位置と関連付けられるパラメータを判定することは、前記ユーザ入力オブジェクトの仰角を判定することと、前記仰角に基づいて前記グラフィカルユーザインターフェース上の第1の文字または第2の文字を選択することとを含む、項目16に記載の電子デバイス。
(項目19)
前記コントローラは、第2のユーザ入力オブジェクトの3次元空間における位置と関連付けられるパラメータを判定し、かつ、前記第2のユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成される、項目16に記載の電子デバイス。
(項目20)
前記入力デバイスの前記動作モードは、前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、オプションメニューを表示することを含む、項目16に記載の電子デバイス。
(項目21)
タイプされたテキストと前記パラメータとの検知に応答してアクセス可能な辞書をさらに備える、項目16に記載の電子デバイス。
(項目22)
前記コントローラは、前記パラメータに基づいて、前記タイプされたテキストと関連付けられる前記辞書からの1つ以上の自動補完オプションを提供するようにさらに構成される、項目21に記載の電子デバイス。
(項目23)
方法であって、前記方法は、
タッチ位置を検知することと、
3次元空間におけるユーザ入力オブジェクトの位置関連パラメータを検知することと、
前記タッチ位置および前記位置関連パラメータに基づいて、電子デバイスの動作モードを選択することと
を含む、方法。
(項目24)
前記動作モードは、前記位置関連パラメータに基づいて、グラフィカルユーザインターフェース上の第1の文字または第2の文字を選択することを含む、項目23に記載の方法。
(項目25)
前記位置関連パラメータは、前記ユーザ入力オブジェクトの方位角を含む、項目23に記載の方法。
(項目26)
前記位置関連パラメータは、前記ユーザ入力オブジェクトの仰角を含む、項目23に記載の方法。
(項目27)
3次元空間における第2のユーザ入力オブジェクトの位置関連パラメータを検知することと、3次元空間における前記第2のユーザ入力オブジェクトの前記位置関連パラメータに基づいて、前記電子デバイスの動作モードを選択することとをさらに含む、項目26に記載の方法。
(項目28)
3次元空間における第2のユーザ入力オブジェクトの位置関連パラメータを検知することと、3次元空間における前記第2のユーザ入力オブジェクトの前記位置関連パラメータに基づいて、前記電子デバイスの動作モードを選択することとをさらに含む、項目25に記載の方法。
(項目29)
前記動作モードを選択することは、前記位置関連パラメータに基づいて前記グラフィカルユーザインターフェース上の1つ以上の制御を選択することを含む、項目23に記載の方法。
(項目30)
タイプされたテキストと前記位置関連パラメータとの検知に応答して、辞書にアクセスすることをさらに含む、項目23に記載の方法。
(項目31)
前記位置関連パラメータに基づいて、前記タイプされたテキストと関連付けられる前記辞書からの1つ以上の自動補完オプションを提供することをさらに含む、項目30に記載の方法。
(項目32)
第1の位置情報および第2の位置情報は、イベント駆動型多重化を使用して判定される、項目30に記載の方法。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
ジェスチャ検知方法であって、前記ジェスチャ検知方法は、
入力オブジェクトのタッチ位置を検知することと、
前記タッチ位置、および、入力オブジェクトの位置の特徴的なパラメータに応じて、入力モードを選択することと、
前記特徴的なパラメータの計算後、または、それぞれのタッチの解放に従ってのいずれかで、入力文字を入力することと
を含む、ジェスチャ検知方法。
(項目2)
入力モードは、3次元センサシステムのパラメータ変化の検知時に切り替えられる、項目1に記載のジェスチャ検知方法。
(項目3)
前記パラメータは、タッチを行う入力オブジェクトの仰角レベルによって判定される、項目1に記載のジェスチャ検知方法。
(項目4)
前記入力オブジェクトは、手であり、前記パラメータは、モバイルデバイスを保持する前記手から指を持ち上げることによって判定される、項目1に記載のジェスチャ検知方法。
(項目5)
前記入力オブジェクトは、手であり、前記パラメータは、前記タッチを行う前記手の方位角によって判定される、項目1に記載のジェスチャ検知方法。
(項目6)
第1の仰角は、第1の入力モードを選択し、第2の仰角は、第2の入力モードを選択する、項目3に記載のジェスチャ検知方法。
(項目7)
第1の方位角は、第1の入力モードを選択し、第2の方位角は、第2の入力モードを選択する、項目5に記載のジェスチャ検知方法。
(項目8)
ジェスチャ検知システムであって、前記ジェスチャ検知システムは、
タッチ感応性表面および非接触式検知システムを含む入力デバイスと、
ユーザ入力オブジェクトの3次元空間における位置についての特徴的なパラメータを判定し、かつ、前記ユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成されたコントローラと
を備える、ジェスチャ検知システム。
(項目9)
前記入力デバイスまたは前記接続されたシステムは、グラフィカルユーザインターフェースを含む、項目8に記載のジェスチャ検知システム。
(項目10)
前記ユーザ入力オブジェクトの3次元空間における前記位置を判定することは、前記ユーザ入力オブジェクトの方位角を判定することと、前記方位角に基づいて前記グラフィカルユーザインターフェース上の文字を選択することとを含む、項目9に記載のジェスチャ検知システム。
(項目11)
前記ユーザ入力オブジェクトの3次元空間における前記位置を判定することは、前記ユーザ入力オブジェクトの仰角を判定することと、前記仰角に基づいて前記グラフィカルユーザインターフェース上の文字を選択することとを含む、項目9に記載のジェスチャ検知システム。
(項目12)
前記コントローラは、第2のユーザ入力オブジェクトの3次元空間における位置を判定し、かつ、前記第2のユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成される、項目9に記載のジェスチャ検知システム。
(項目13)
前記入力デバイスの前記動作モードは、前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、オプションメニューを表示することを含む、項目9に記載のジェスチャ検知システム。
(項目14)
タイプされたテキストと、前記ユーザ入力オブジェクトの3次元空間における前記位置との検知に応答してアクセス可能な辞書をさらに備える、項目9に記載のジェスチャ検知システム。
(項目15)
前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、前記タイプされたテキストと関連付けられる前記辞書からの1つ以上の自動補完オプションを提供するようにさらに構成される、項目14に記載のジェスチャ検知システム。
(項目16)
電子デバイスであって、前記電子デバイスは、
タッチ感応性表面および非接触式検知システムを含む入力デバイスと、
前記入力デバイスを使用して選択を表示するための表示デバイスと、
前記タッチ感応性表面に対するユーザ入力オブジェクトの3次元空間における位置と関連付けられるパラメータを判定し、かつ、前記ユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成されたコントローラと
を備える、電子デバイス。
(項目17)
前記ユーザ入力オブジェクトの3次元空間における前記位置と関連付けられるパラメータを判定することは、前記ユーザ入力オブジェクトの方位角を判定することと、前記方位角に基づいて前記グラフィカルユーザインターフェース上の文字を選択することとを含む、項目16に記載の電子デバイス。
(項目18)
前記ユーザ入力オブジェクトの3次元空間における前記位置と関連付けられるパラメータを判定することは、前記ユーザ入力オブジェクトの仰角を判定することと、前記仰角に基づいて前記グラフィカルユーザインターフェース上の第1の文字または第2の文字を選択することとを含む、項目16に記載の電子デバイス。
(項目19)
前記コントローラは、第2のユーザ入力オブジェクトの3次元空間における位置と関連付けられるパラメータを判定し、かつ、前記第2のユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成される、項目16に記載の電子デバイス。
(項目20)
前記入力デバイスの前記動作モードは、前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、オプションメニューを表示することを含む、項目16に記載の電子デバイス。
(項目21)
タイプされたテキストと前記パラメータとの検知に応答してアクセス可能な辞書をさらに備える、項目16に記載の電子デバイス。
(項目22)
前記コントローラは、前記パラメータに基づいて、前記タイプされたテキストと関連付けられる前記辞書からの1つ以上の自動補完オプションを提供するようにさらに構成される、項目21に記載の電子デバイス。
(項目23)
方法であって、前記方法は、
タッチ位置を検知することと、
3次元空間におけるユーザ入力オブジェクトの位置関連パラメータを検知することと、
前記タッチ位置および前記位置関連パラメータに基づいて、電子デバイスの動作モードを選択することと
を含む、方法。
(項目24)
前記動作モードは、前記位置関連パラメータに基づいて、グラフィカルユーザインターフェース上の第1の文字または第2の文字を選択することを含む、項目23に記載の方法。
(項目25)
前記位置関連パラメータは、前記ユーザ入力オブジェクトの方位角を含む、項目23に記載の方法。
(項目26)
前記位置関連パラメータは、前記ユーザ入力オブジェクトの仰角を含む、項目23に記載の方法。
(項目27)
3次元空間における第2のユーザ入力オブジェクトの位置関連パラメータを検知することと、3次元空間における前記第2のユーザ入力オブジェクトの前記位置関連パラメータに基づいて、前記電子デバイスの動作モードを選択することとをさらに含む、項目26に記載の方法。
(項目28)
3次元空間における第2のユーザ入力オブジェクトの位置関連パラメータを検知することと、3次元空間における前記第2のユーザ入力オブジェクトの前記位置関連パラメータに基づいて、前記電子デバイスの動作モードを選択することとをさらに含む、項目25に記載の方法。
(項目29)
前記動作モードを選択することは、前記位置関連パラメータに基づいて前記グラフィカルユーザインターフェース上の1つ以上の制御を選択することを含む、項目23に記載の方法。
(項目30)
タイプされたテキストと前記位置関連パラメータとの検知に応答して、辞書にアクセスすることをさらに含む、項目23に記載の方法。
(項目31)
前記位置関連パラメータに基づいて、前記タイプされたテキストと関連付けられる前記辞書からの1つ以上の自動補完オプションを提供することをさらに含む、項目30に記載の方法。
(項目32)
第1の位置情報および第2の位置情報は、イベント駆動型多重化を使用して判定される、項目30に記載の方法。
Claims (17)
- ジェスチャ検知方法であって、前記ジェスチャ検知方法は、
タッチ感応性モジュールによって入力オブジェクトのタッチ位置を検知することと、
非接触式3次元検出システムによって、前記タッチモジュールに触れる前記入力オブジェクトの位置の特徴的なパラメータを判定することと、
前記入力オブジェクトの前記タッチ位置と前記位置の特徴的なパラメータとに応じて、入力モードを選択することと、
前記特徴的なパラメータの計算後、または、それぞれのタッチの解放に従ってのいずれかで、入力文字を入力することと
を含む、ジェスチャ検知方法。 - 前記非接触式検出システムは、前記タッチモジュールの周りに配列された複数のセンサ電極と、前記タッチモジュールの上の領域において電場を生成するように構成された伝送電極とを備え、前記特徴的なパラメータは、前記複数のセンサ電極で受信される信号に応じる、請求項1に記載のジェスチャ検知方法。
- 入力モードは、3次元検出センサシステムのパラメータ変化の検知時に切り替えられる、請求項1に記載のジェスチャ検知方法。
- 前記パラメータは、タッチを行う入力オブジェクトの仰角レベルによって判定される、請求項1に記載のジェスチャ検知方法。
- 前記入力オブジェクトは、手であり、前記パラメータは、モバイルデバイスを保持する前記手から指を持ち上げることによって判定される、請求項1に記載のジェスチャ検知方法。
- 前記入力オブジェクトは、手であり、前記パラメータは、前記タッチを行う前記手の方位角によって判定される、請求項1に記載のジェスチャ検知方法。
- 第1の仰角は、第1の入力モードを選択し、第2の仰角は、第2の入力モードを選択する、請求項4に記載のジェスチャ検知方法。
- 第1の方位角は、第1の入力モードを選択し、第2の方位角は、第2の入力モードを選択する、請求項6に記載のジェスチャ検知方法。
- ジェスチャ検知システムであって、前記ジェスチャ検知システムは、
タッチ感応性表面および非接触式検知システムを含む入力デバイスと、
ユーザ入力オブジェクトの3次元空間における位置についての特徴的なパラメータを判定し、かつ、前記ユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成されたコントローラと
を備える、ジェスチャ検知システム。 - 前記非接触式検出システムは、タッチモジュールの周りに配列された複数のセンサ電極と、前記タッチモジュールの上の領域において電場を生成するように構成された伝送電極とを備え、前記特徴的なパラメータは、前記複数のセンサ電極で受信される信号に応じる、請求項9に記載のジェスチャ検知システム。
- 前記入力デバイスは、タッチ感応性ディスプレイである、請求項9に記載のジェスチャ検知システム。
- 前記ユーザ入力オブジェクトの3次元空間における前記位置を判定することは、前記ユーザ入力オブジェクトの方位角を判定することと、前記方位角に基づいてグラフィカルユーザインターフェース上の文字を選択することとを含む、請求項10に記載のジェスチャ検知システム。
- 前記ユーザ入力オブジェクトの3次元空間における前記位置を判定することは、前記ユーザ入力オブジェクトの仰角を判定することと、前記仰角に基づいてグラフィカルユーザインターフェース上の文字を選択することとを含む、請求項10に記載のジェスチャ検知システム。
- 前記コントローラは、第2のユーザ入力オブジェクトの3次元空間における位置を判定し、かつ、前記第2のユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成されている、請求項10に記載のジェスチャ検知システム。
- 前記入力デバイスの前記動作モードは、前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、オプションメニューを表示することを含む、請求項10に記載のジェスチャ検知システム。
- タイプされたテキストと、前記ユーザ入力オブジェクトの3次元空間における前記位置との検知に応答してアクセス可能な辞書をさらに備える、請求項10に記載のジェスチャ検知システム。
- 前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、前記タイプされたテキストと関連付けられる前記辞書からの1つ以上の自動補完オプションを提供するようにさらに構成されている、請求項16に記載のジェスチャ検知システム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261693617P | 2012-08-27 | 2012-08-27 | |
US61/693,617 | 2012-08-27 | ||
US13/975,579 US9552068B2 (en) | 2012-08-27 | 2013-08-26 | Input device with hand posture control |
US13/975,579 | 2013-08-26 | ||
PCT/EP2013/067746 WO2014033138A1 (en) | 2012-08-27 | 2013-08-27 | Input device with hand posture control |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017236749A Division JP6522726B2 (ja) | 2012-08-27 | 2017-12-11 | 手姿勢制御を伴う入力デバイス |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015531139A JP2015531139A (ja) | 2015-10-29 |
JP2015531139A5 true JP2015531139A5 (ja) | 2016-10-13 |
Family
ID=50147554
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015528992A Withdrawn JP2015531139A (ja) | 2012-08-27 | 2013-08-27 | 手姿勢制御を伴う入力デバイス |
JP2017236749A Active JP6522726B2 (ja) | 2012-08-27 | 2017-12-11 | 手姿勢制御を伴う入力デバイス |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017236749A Active JP6522726B2 (ja) | 2012-08-27 | 2017-12-11 | 手姿勢制御を伴う入力デバイス |
Country Status (7)
Country | Link |
---|---|
US (1) | US9552068B2 (ja) |
EP (1) | EP2888653A1 (ja) |
JP (2) | JP2015531139A (ja) |
KR (1) | KR102137687B1 (ja) |
CN (1) | CN104662508A (ja) |
TW (1) | TWI614645B (ja) |
WO (1) | WO2014033138A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
DE102012219736A1 (de) * | 2012-10-29 | 2014-04-30 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
TWI507920B (zh) * | 2014-08-20 | 2015-11-11 | Quanta Comp Inc | 電子裝置及避免多個輸入裝置互相干擾的方法 |
US10039975B2 (en) | 2015-01-13 | 2018-08-07 | Disney Enterprises, Inc. | Techniques for representing imaginary participants in an immersive play environment |
US10265621B2 (en) | 2015-01-20 | 2019-04-23 | Disney Enterprises, Inc. | Tracking specific gestures relative to user movement |
US9855497B2 (en) | 2015-01-20 | 2018-01-02 | Disney Enterprises, Inc. | Techniques for providing non-verbal speech recognition in an immersive playtime environment |
WO2016121708A1 (ja) * | 2015-01-26 | 2016-08-04 | Necソリューションイノベータ株式会社 | 入力システム、入力装置、入力方法、および、記録媒体 |
US10108292B2 (en) * | 2015-04-22 | 2018-10-23 | Microchip Technology Incorporated | Capacitive sensor system with multiple transmit electrodes |
USD788048S1 (en) * | 2015-06-16 | 2017-05-30 | Fibar Group S.A. | Touch-less swipe controller |
CN106027104A (zh) * | 2016-07-08 | 2016-10-12 | 杭州联络互动信息科技股份有限公司 | 一种使用手腕佩戴的智能设备执行通讯操作的方法及装置 |
CN106598470A (zh) * | 2016-12-27 | 2017-04-26 | 努比亚技术有限公司 | 一种触控操作方法及装置 |
WO2018119728A1 (zh) * | 2016-12-28 | 2018-07-05 | 英华达(上海)科技有限公司 | 电子设备的输入方法及系统 |
KR102635976B1 (ko) * | 2016-12-30 | 2024-02-13 | 에스엘 주식회사 | 제스처 인식 장치 |
CN106873870A (zh) * | 2017-01-06 | 2017-06-20 | 珠海格力电器股份有限公司 | 一种终端交互方法及其装置、终端及电子设备 |
US10788935B2 (en) * | 2017-03-13 | 2020-09-29 | Microsoft Technology Licensing, Llc | Multiplexing capacitance sensing and display functionality |
CN111033452B (zh) * | 2017-09-04 | 2024-04-09 | 株式会社和冠 | 空间位置指示系统 |
CN113849093A (zh) * | 2021-09-28 | 2021-12-28 | 联想(北京)有限公司 | 一种控制方法、装置及电子设备 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9292111B2 (en) * | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
US6597345B2 (en) | 2000-03-03 | 2003-07-22 | Jetway Technologies Ltd. | Multifunctional keypad on touch screen |
US9274551B2 (en) * | 2005-02-23 | 2016-03-01 | Zienon, Llc | Method and apparatus for data entry input |
WO2007097414A1 (ja) * | 2006-02-23 | 2007-08-30 | Pioneer Corporation | 操作入力装置 |
DE102007020873A1 (de) | 2007-04-26 | 2008-10-30 | Ident Technology Ag | Sensoreinrichtung, sowie Verfahren zur Generierung von hinsichtlich der Position oder Positionsänderung von Gliedmaßen indikativen Signalen |
KR100838818B1 (ko) * | 2007-08-13 | 2008-06-17 | 홍성찬 | 문자입력장치 |
JP4609543B2 (ja) * | 2008-07-25 | 2011-01-12 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
US8516397B2 (en) * | 2008-10-27 | 2013-08-20 | Verizon Patent And Licensing Inc. | Proximity interface apparatuses, systems, and methods |
US20100271331A1 (en) * | 2009-04-22 | 2010-10-28 | Rachid Alameh | Touch-Screen and Method for an Electronic Device |
JP2011008424A (ja) * | 2009-06-24 | 2011-01-13 | Sharp Corp | 電子機器、動作モード設定方法、およびプログラム |
US9323398B2 (en) * | 2009-07-10 | 2016-04-26 | Apple Inc. | Touch and hover sensing |
US9632622B2 (en) * | 2009-07-16 | 2017-04-25 | Apple Inc. | Ground detection for touch sensitive device |
DE102010007455A1 (de) | 2010-02-10 | 2011-08-11 | Ident Technology AG, 82234 | System und Verfahren zum berührungslosen Erfassen und Erkennen von Gesten in einem dreidimensionalen Raum |
EP2558927B1 (de) | 2010-04-16 | 2022-06-15 | Microchip Technology Germany GmbH | Tft-lc display sowie verfahren zur detektion der räumlichen position von gliedmassen in dem einem display vorgelagerten räumlichen bereich |
US8890818B2 (en) * | 2010-09-22 | 2014-11-18 | Nokia Corporation | Apparatus and method for proximity based input |
US9323379B2 (en) | 2011-12-09 | 2016-04-26 | Microchip Technology Germany Gmbh | Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch-sensitive surface and contact-free detection means |
US8436828B1 (en) * | 2012-01-27 | 2013-05-07 | Google Inc. | Smart touchscreen key activation detection |
US9298295B2 (en) * | 2012-07-25 | 2016-03-29 | Facebook, Inc. | Gestures for auto-correct |
-
2013
- 2013-08-26 US US13/975,579 patent/US9552068B2/en active Active
- 2013-08-27 TW TW102130737A patent/TWI614645B/zh active
- 2013-08-27 CN CN201380050335.8A patent/CN104662508A/zh active Pending
- 2013-08-27 KR KR1020157007366A patent/KR102137687B1/ko active IP Right Grant
- 2013-08-27 JP JP2015528992A patent/JP2015531139A/ja not_active Withdrawn
- 2013-08-27 EP EP13753626.4A patent/EP2888653A1/en active Pending
- 2013-08-27 WO PCT/EP2013/067746 patent/WO2014033138A1/en active Application Filing
-
2017
- 2017-12-11 JP JP2017236749A patent/JP6522726B2/ja active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015531139A5 (ja) | ||
JP2018055718A5 (ja) | ||
JP6132644B2 (ja) | 情報処理装置、表示制御方法、コンピュータプログラム、及び記憶媒体 | |
JP2018055718A (ja) | 手姿勢制御を伴う入力デバイス | |
JP5640486B2 (ja) | 情報表示装置 | |
WO2012092296A3 (en) | Virtual controller for touch display | |
RU2013123025A (ru) | Устройство и способ пользовательского ввода для управления отображаемой информацией | |
US20140210742A1 (en) | Emulating pressure sensitivity on multi-touch devices | |
RU2013115290A (ru) | Устройство гибкого дисплея и способ управления им | |
TW201301119A (zh) | 觸摸型電子裝置及其功能圖示移動的方法 | |
US9678639B2 (en) | Virtual mouse for a touch screen device | |
CN110647248A8 (zh) | 图像显示装置及其操作方法 | |
JP2018018205A5 (ja) | ||
RU2016151206A (ru) | Вероятностное обнаружение касания | |
EP2725475A3 (en) | Touch type input device | |
JP2014170390A5 (ja) | ||
KR101518786B1 (ko) | 터치의 압력 레벨에 따른 피드백 방법 및 이를 수행하는 터치 스크린을 포함하는 장치 | |
CN104166460B (zh) | 一种电子设备及信息处理的方法 | |
JP2015230693A (ja) | 情報処理装置、入力方法、コンピュータプログラム、及び記録媒体 | |
TW201610778A (zh) | 虛擬鍵盤顯示系統及方法 | |
WO2015081863A1 (zh) | 信息输入方法、装置及终端 | |
WO2009038432A3 (en) | Multi-functional mouse | |
US20180253212A1 (en) | System and Methods for Extending Effective Reach of a User's Finger on a Touchscreen User Interface | |
US20220043517A1 (en) | Multi-modal touchpad | |
EP2711822A3 (en) | Method for determining three-dimensional visual effect on information element using apparatus with touch sensitive display |