JP2021500677A - 構成可能な仮想ウィジェットを含むタッチ感応性ユーザインターフェース - Google Patents

構成可能な仮想ウィジェットを含むタッチ感応性ユーザインターフェース Download PDF

Info

Publication number
JP2021500677A
JP2021500677A JP2020523241A JP2020523241A JP2021500677A JP 2021500677 A JP2021500677 A JP 2021500677A JP 2020523241 A JP2020523241 A JP 2020523241A JP 2020523241 A JP2020523241 A JP 2020523241A JP 2021500677 A JP2021500677 A JP 2021500677A
Authority
JP
Japan
Prior art keywords
virtual
touch
gui
widget
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020523241A
Other languages
English (en)
Other versions
JP2021500677A5 (ja
JP7181929B2 (ja
Inventor
ジェー. リドル、ウイリアム
ジェー. リドル、ウイリアム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microchip Technology Inc
Original Assignee
Microchip Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microchip Technology Inc filed Critical Microchip Technology Inc
Publication of JP2021500677A publication Critical patent/JP2021500677A/ja
Publication of JP2021500677A5 publication Critical patent/JP2021500677A5/ja
Application granted granted Critical
Publication of JP7181929B2 publication Critical patent/JP7181929B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04809Textured surface identifying touch areas, e.g. overlay structure for a virtual keyboard

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

タッチ感応性グラフィカルユーザインターフェース(GUI)は、1つ以上の仮想ウィジェットの配置を含むグラフィカルユーザインターフェースを表示するように構成されているタッチスクリーンを含み得、各仮想ウィジェットが、形状を有し、かつグラフィカルユーザインターフェースを介して表示されている1つ以上のユーザインターフェース要素を含む。1つ以上の仮想ウィジェットの配置は、構成可能である。マイクロコントローラは、タッチスクリーンにおいてタッチを感知することと、タッチに対応する仮想ウィジェットを識別することと、(a)識別された仮想ウィジェットが表示されるタッチスクリーンの領域において触覚フィードバックを提供するようにアクチュエータを制御すること、又は(b)ユーザインターフェースシステムと関連付けられた電子デバイスを制御すること、のうちの少なくとも1つを含む、アクションを開始することと、を行うように構成され得る。【選択図】 なし

Description

(関連出願)
本出願は、(a)2017年10月24に出願された米国仮特許出願第62/576,383号、及び(b)2017年10月24に出願された米国仮特許出願第62/576,563号に対する優先権を主張するものであり、これらの特許出願の全内容は、全ての目的のために参照により本明細書に組み込まれる。
(発明の分野)
本開示は、タッチ感応性ユーザインターフェース、例えば、タッチスクリーンに関し、より具体的には、構成可能な仮想ウィジェットの配置を使用するタッチ感応性ユーザインターフェースに関する。
タッチ感知を組み込んだタッチインターフェースは、例えば、タブレットコンピュータ、パーソナルコンピュータ、スマートフォン、及び他の消費者製品を含む、様々な用途に使用される。それらはまた、自動車、電化製品(例えば、冷蔵庫、オーブン、洗浄器/乾燥機など)、暖房及び空調制御システム、セキュリティシステム、及び現金自動預払機(automatic teller machine、ATM)のための制御パネルとしても使用される。これらの用途におけるタッチインターフェースは、例えば、タッチパッドとすることができ、又はスクリーン及びグラフィカルユーザインターフェース(graphical user interface、GUI)を組み込むことができる。
本開示のいくつかの実施形態は、概して、例えば、従来のグリッドタイプのタッチ位置報告を使用するタッチスクリーンなどの、接触感応性スクリーン上に表示されるグラフィカルユーザインターフェース(GUI)の要素を探索するための命令を作成する方法に関する。本方法は、GUI定義を構文解析し、構文解析に応答するGUIの要素を識別することと、識別した要素の入力を含むレコードを作成することと、識別した要素を同様に位置付けられた要素のグループと関連付けることと、識別した要素のレコードを木状構造に配置することと、同じグループ内の識別した要素を木状構造内で単一の葉に折り畳むことと、木状構造を最適化することと、木状構造に応答する探索命令リストを作成することと、を含む。
本開示のいくつかの実施形態は、一般に、コンピュータがグラフィカルユーザインターフェース(GUI)の要素を探索することを可能にするための実行可能命令を作成することを可能にするためのコンピュータプログラム製品に関する。プログラム製品は、コンピュータ可読媒体と、コンピュータ可読媒体上のソフトウェア命令と、を含むことができる。コンピュータ可読媒体上のソフトウェア命令は、コンピュータが、以下の動作、すなわち、GUI定義を構文解析し、構文解析したGUI定義に応答するGUIの要素を識別することと、識別した要素の入力を含むレコードを作成することと、識別した要素を同様に位置付けられた要素のグループと関連付けることと、識別した要素のレコードを木状構造に配置することと、同じグループ内の識別した要素を木状構造内で単一の葉に折り畳むことと、木状構造を最適化することと、木状構造に応答する探索命令リストを作成することと、を行うことを可能にするように適合される。
本開示のいくつかの実施形態は、一般に、グラフィカルユーザインターフェース(GUI)を表示するように構成されたタッチスクリーンに動作可能に結合されたマイクロコントローラに関する。マイクロコントローラは、少なくとも1つのプロセッサと、非一時的記憶媒体に記憶された1つ以上の実行可能命令と、を含む。この命令は、プロセッサによって実行されたときに、プロセッサが、タッチスクリーンにおいて感知したタッチの場所を決定することと、感知したタッチに対応するタッチの場所と関連付けられたGUI要素を識別することと、を行うことを可能にするように適合される。
本開示のいくつかの実施形態は、一般に、タッチスクリーンに表示されるグラフィカルユーザインターフェース(GUI)の要素を識別する方法に関する。本方法は、タッチスクリーンにおいて感知したタッチの場所を決定することと、場所に応答する1つ以上の探索命令を実行することであって、1つ以上の探索命令のうちの各探索命令が、GUI要素に対応し、実行されたときに探索結果を返すように適合される、実行することと、探索結果に応答するGUI要素を識別することと、を含む。
本開示のいくつかの実施形態は、一般に、システムに関する。本システムは、ディスプレイサブシステムと、タッチサブシステムと、を含む。ディスプレイサブシステムは、ディスプレイを制御するように構成される。タッチサブシステムは、タッチセンサと、タッチコントローラと、を含む。タッチコントローラは、タッチセンサで感知したタッチの場所を決定することと、場所及び探索木に応答する1つ以上の探索命令を実行することであって、1つ以上の探索命令のうちの各探索命令が、GUI要素に対応し、実行されたときに探索結果を返すように適合される、実行することと、探索結果に応答するGUI要素を識別することと、識別したGUI要素に応答する触覚制御メッセージを生成することと、を行うように構成される。
本開示のいくつかの実施形態は、仮想ウィジェットを利用する接触感応性GUIを含み、各々が、表示可能なGUIスクリーン内に含まれる形状の集合(例えば、1つ以上のアクティブUI要素を含む)を含む。例えば、仮想ウィジェットは、複数のインスタンス及び/又はタイプの仮想ボタン、スライダ、ノブ、ダイヤルなどの定義された集合体を含んでもよい。別の実施例として、仮想ウィジェットは、定義された機能を制御するためのインターフェースを集合的に画定する、定義されたアクティブ要素の集合体を含み得る。
いくつかの実施形態では、仮想ウィジェットが、タッチスクリーン上に表示されてもよいが、いくつかの実施形態では、タッチスクリーン構成モジュール/プロセスのコンテキスト内、及びタッチスクリーンディスプレイ上でのみ存在する。仮想ウィジェットは、ヘッドユニットに報告することができる。仮想ウィジェットの使用は、タッチ感応性GUIの物理的インターフェースの複雑性を低減することができる。例えば、仮想ウィジェットの使用は、ヘッドユニット上のオーバーヘッドを低減して、タッチ位置を処理することができ、例えば、加熱制御、無線制御、又は任意の他のタイプの制御のために、物理的ロータ、スライダなどのための別個のハードウェア又は電子機器を必要としない場合がある。
いくつかの実施形態は、仮想ウィジェット(例えば、ボタン、スライダ、ダイヤルなど)として操作されるタッチスクリーンの領域(例えば、構成されたスクリーンページ内の領域)を、構成可能な方法で、定義するためのシステム及び方法を提供する。タッチが、タッチスクリーン上で検出されるとき、タッチコントローラは、ユーザタッチに対応するウィジェットの位置又は状態(例えば、検出されたタッチ位置に対応する仮想スライダの線形位置又は仮想ダイヤルの回転位置)を判定することができ、タッチスクリーン上のタッチの位置を示す「タッチメッセージ」を報告する代わりに、又はそれに加えて、「ウィジェットメッセージ」内のこのような位置/状態情報をヘッドユニットに報告する。ウィジェットメッセージは、例えば、検出されたタッチ場所、力、及び/又はタッチスクリーン上の検出されたタッチの他の測定可能な態様に対応する、それぞれのウィジェット上のユーザ選定位置、回転、「タッチされた」状態、及び/又は検出されたタッチの数を示すことができる。一実施形態では、ウィジェットメッセージはまた、一組のウィジェット、例えば、ボタン又はキーのタッチされた/非タッチ状態を報告してもよい。
いくつかの実施形態又は状況では、仮想ボタン/ウィジェットにタッチするアクションは、(例えば、ヘッドユニットインターフェースの自己修正を介して)今後のボタン押下に持続する方法で、スクリーン上の「ページ」又は有効化/無効化ボタンを更新する効果を有してもよく、これは(実施形態又は構成に応じて)その時間にウィジェットをヘッドユニットに送信し得、又は送信しなくてもよいが、タッチスクリーン上の同じ場所は、例えば、ラジオからヒータ制御への切り替えなど、異なる結果をその後生成することができる。その結果、ヘッドユニットは、選択されたページ画像に一致するようにディスプレイを更新することのみが必要となる。
加えて、いくつかの実施形態では、タッチスクリーンコントローラが、スクリーンメモリ内の制御ページにセットされる場合、コントローラは、関連するウィジェットページIDに一致するように、SPI又は別の利用可能なGPIOインターフェースをとおしてスクリーンメモリ内のページを選択するためのプロセスを実行してもよい。このような構成では、タッチスクリーンコントローラは、スクリーン上に形状を描くのではなく、スクリーンページ全体を選択及び表示することができる。異なるスクリーンページは、例えば、定義された一組のボタン又はキー上のラベルを変更するのみであり得る。このような構成は、非常に可撓性であり得、ヘッドユニットメッセージの伝送遅延を除去し、非常に応答性がある場合がある。
仮想ウィジェットを利用することは、必要とされるヘッドユニットの処理を単純化することができる。例えば、仮想ウィジェットの使用は、単一のスクリーン設計が複数のアプリケーションを有することを可能にし得る。例えば、1つのインターフェースが、好適な構成を介して、全ての製品バリアントを扱うことができる。
本開示の例示的な態様及び実施形態は、以下の添付の図面と併せて以下に記載される。
探索タスクリストを生成及び使用して、GUI内の接触したUI要素を識別するプロセスを例示するスイム図である。 本開示の一実施形態による、探索タスクリストを生成するためのプロセスのフローチャートである。 本開示の一実施形態による、UI構成定義からUI要素を抽出するためのプロセスのフローチャートである。 本開示の一実施形態による、中間探索木を生成するためのプロセスのフローチャートである。 本開示の一実施形態による、探索タスク木を生成するためのプロセスのフローチャートである。 本開示の一実施形態による、探索タスクリストを生成するためのプロセスのフローチャートである。 本開示の一実施形態による、UI要素内でタッチが生じたかどうかを判定するためのUI要素/形状探索プロセスのフローチャートである。 UI要素から成る無線GUIの一実施形態を示す(カラーで利用可能)。 本開示の実施形態による、グループ化された図8の無線GUIのUI要素を示す(カラーで利用可能)。 本開示の実施形態による、形成された木構造内のUI要素を示す(カラーで利用可能)。 本開示の実施形態による、形成された木構造内のUI要素を示す(カラーで利用可能)。 本開示の実施形態による、形成された木構造内のUI要素を示す(カラーで利用可能)。 本開示の実施形態による、形成された木構造内のUI要素を示す(カラーで利用可能)。 本開示の実施形態による、形成された木構造内のUI要素を示す(カラーで利用可能)。 探索タスクリストを組み込んだシステムの一実施形態を示す。 無線GUIのUI要素のうちの少なくともいくつかと関連付けられた特徴及びパラメータを含む無線GUIの一実施形態を示す(カラーで利用可能)。 サブシステムとして自動車のヘッドユニットに組み込まれた、図11のシステムの一実施形態を例示する。 例示的な実施形態による、本明細書に開示される仮想ウィジェットを用いる、例示的なタッチスクリーンシステムを例示する。 一例示的な実施形態による、様々なグループのUI要素を含む仮想ウィジェットの配設を含む、例示的なラジオタッチスクリーンGUIを例示する。
以下の詳細な説明では、本明細書の一部をなし、本開示を実施し得る実施形態の具体例を例示として示す添付の図面を参照する。これらの実施形態は、当業者が本開示を実施することができるように十分に詳細に説明される。しかしながら、他の実施形態が用いられ得、本開示の範囲から逸脱することなく、構造、材料、及びプロセスの変更が行われ得る。本明細書に提示する図は、任意の特定の方法、システム、デバイス、又は構造の実際の図であることを意図するものではなく、本開示の実施形態を説明するために用いられる理想化した表現にすぎない。本明細書に提示する図面は、必ずしも縮尺どおりに描画されていない。様々な図面における類似の構造又は構成要素は、読者の便宜のために同一又は類似の付番を保持し得る。しかしながら、付番における類似性は、構造又は構成要素が必ずしもサイズ、組成、構成、又は任意の他の特性において同一であることを意味するものではない。
本明細書で概して説明され、図面に例示される実施形態の構成要素は、多種多様な異なる構成で配置及び設計され得ることが容易に理解されるであろう。したがって、様々な実施形態の以下の説明は、本開示の範囲を限定することを目的とするものではなく、単に様々な実施形態を表すものである。実施形態の様々な態様が図面に提示され得るが、図面は、具体的に指示されていない限り、必ずしも尺度どおりに描画されていない。
以下の説明は、当業者が開示される実施形態を実施することを可能にするのを補助するための実施例を含み得る。「例示的な」、「例として」、「例えば」という用語の使用は、関連する説明が、説明的なものであることを意味し、本開示の範囲は、実施例及び法的等価物を包含することを意図するものであり、かかる用語の使用は、実施形態又は本開示の範囲を特定の構成要素、ステップ、特徴、機能などに限定することを意図するものではない。
更に、図示及び説明する具体的な実装形態は、単なる例であり、本明細書において別段の指定がない限り、本開示を実施する唯一の方法と解釈されるべきでない。要素、回路、及び機能は、不要に詳述して本開示を不明瞭にしないように、ブロック図の形態に示され得る。逆に、図示し、説明する具体的な実装形態は、単に例示的なものであり、本明細書において別段の指定がない限り、本開示を実施する唯一の方法と解釈されるべきではない。更に、様々なブロック間での論理のブロック定義及びパーティショニングは、例示的な具体的な実装形態である。当業者には、本開示が多数の他のパーティショニングソリューションによって実施され得ることが容易に明らかになるであろう。大部分については、タイミングの考察などに関する詳細は省略されており、かかる詳細は、本開示の完全な理解を得るために必要ではなく、当業者の能力の範囲内である。
当業者であれば、情報及び信号は、様々な異なる技術及び技法のいずれかを使用して表され得ることを理解するであろう。例えば、本明細書をとおして参照され得るデータ、命令、コマンド、情報、信号、ビット、記号、及びチップは、電圧、電流、電磁波、磁場若しくは粒子、光場若しくは粒子、又はこれらの任意の組み合わせによって表されてもよい。いくつかの図面は、表示及び説明を明確にするために、単一の信号として信号を例示してもよい。当業者は、信号が信号のバスを表し得、このバスは様々なビット幅を有してもよく、本開示は、単一のデータ信号を含む任意の数のデータ信号で実施され得ることを理解するであろう。
本明細書に開示する実施形態に関連して記載する様々な例示的な論理ブロック、モジュール、及び回路は、汎用プロセッサ、専用プロセッサ、デジタル信号プロセッサ(Digital Signal Processor、DSP)、特定用途向け集積回路(Application Specific Integrated Circuit、ASIC)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array、FPGA)又は他のプログラマブル論理デバイス、別個のゲート若しくはトランジスタ論理、別個のハードウェア構成要素、又は本明細書に記載の機能を実行するように設計されている、これらの任意の組み合わせを用いて実施され得る、又は実行され得る。汎用プロセッサ(本明細書では、ホストプロセッサ又は単にホストとも称され得る)は、マイクロプロセッサであってもよいが、代替的に、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、又はステートマシンでもあってもよい。プロセッサはまた、DSPとマイクロプロセッサとの組み合わせ、複数のマイクロプロセッサ、DSPコアと組み合わせた1つ以上のマイクロプロセッサ、又は任意の他のかかる構成の組み合わせとして実装されてもよい。プロセッサを含む汎用コンピュータは専用コンピュータとみなされ、汎用コンピュータは、本開示の実施形態に関連するコンピューティング命令(例えば、ソフトウェアコード)を実行するように構成されている。
実施形態は、フローチャート、フロー図、構造図、又はブロック図として示すプロセスに関して説明され得る。フローチャートは、順次プロセスとして動作行為を説明し得るが、これらの行為の多くは、別の順序で、並行して、又は実質的に同時に実行できる。加えて、行為の順序は再調整され得る。
プロセスは、方法、スレッド、機能、手順、サブルーチン、サブプログラムなどに対応し得る。更に、本明細書に開示する方法は、ハードウェア、ソフトウェア、又はその両方において実施され得る。ソフトウェアで実施される場合、機能は、コンピュータ可読媒体上の1つ以上の命令又はコードとして記憶されてもよく、又は送信されてもよい。コンピュータ可読媒体は、コンピュータ記憶媒体及びコンピュータプログラムのある場所から別の場所への転送を容易にする任意の媒体など通信媒体の両方を含む。
「第1」、「第2」などの表記を使用した、本明細書の要素に対する任意の言及は、かかる制限が明示的に記載されていない限り、それらの要素の数量又は順序を限定しない。むしろ、これらの表記は、本明細書において、2つ以上の要素又は要素の例を区別する便利な方法として使用され得る。したがって、第1の要素及び第2の要素への言及は、2つの要素のみが用いられ得ること、又は何らかの方法で第1の要素が第2の要素に先行しなければならないことを意味するものではない。加えて、特に明記しない限り、一組の要素は、1つ以上の要素を含んでよい。
本明細書で使用されるとき、所与のパラメータ、特性、又は条件に言及する際の「実質的に(substantially)」という用語は、所与のパラメータ、特性、又は条件が、例えば許容可能な製造許容差の範囲内などの、小さいばらつきを満たすことを当業者が理解するであろう程度を意味し、かつ含む。一例として、実質的に満たされる特定のパラメータ、特性、又は条件に応じて、パラメータ、特性、又は条件は、少なくとも90%満たされ得るか、少なくとも95%満たされ得るか、更には少なくとも99%満たされ得る。
本開示で説明される様々な実施形態は、概して、接触感応性ユーザインターフェース上で選択されたUI要素を決定するための技法、及びそうした技法を使用して、1つ以上の触覚応答を提供することに関する。本明細書で説明される実施形態を理解する目的で、接触センサは、タッチインターフェースの接触感応性領域と接触する物体(指若しくはスタイラスなど)に、又はこの接触感応性領域に対する物体の近接性に応答することができる。本開示では、「接触」は、概して、物体の接触感応性領域との物理的接触を指すが、接触センサによって計測可能な応答を生成する、物体の近接性もまた包含し得る。更に、接触感応性領域は、接触センサが物体の接触に応答することができる、タッチインターフェース上の物理的領域を指す。
接触感応性GUI、又はタッチスクリーンは、本明細書で使用するとき、GUIと統合されたタッチインターフェースを指す。例えば、GUIは、1つ以上のディスプレイ領域と、アクティブ/アクティブ領域と、を典型的に含む。本開示において、ディスプレイ領域は、情報をユーザに表示するユーザインターフェースの領域である。アクティブ領域は、ユーザがユーザインターフェースに対していくつかのアクションを取ることを可能にする、ボタン、スライダ、又はメニューなどのGUIの領域である。いくつかのディスプレイ領域はまた、情報を表示し、いくつかのアクションが取られ得るアクティブ領域でもある。接触感応性GUIでは、アクティブ領域が表示されるタッチ感応性領域に接触する(例えば、タッチスクリーン上のGUIボタンをタップする)ことで、その領域を起動させることができる。アクティブ領域は、全ての様々な形状及びサイズの、例えば、ボタン、スライダ、選択可能ペイン、メニューなどのGUI要素/オブジェクトとして表示することができる。
概して、接触感応性領域において接触が感知された場合、プロセスが、該当する場合に接触に対応するGUIのアクティブ領域(複数可)を判定するために使用される。例えば、「ENTER」ボタンがタップされる場合、接触が測定され、アルゴリズムが実行されて、ENTERボタンの場所において接触がなされたことを判定する。ENTERボタンは、アクティブ領域であるので、タッチ感応性GUI及び/又はGUIを起動する基礎をなすアプリケーションプログラムにおいて、イベントが作成される。
更に、特定のGUI要素がアクティブ領域と関連付けられている場合は、タッチインターフェースと統合されたアクチュエータが、一般に触覚応答と称される1つ以上の物理的応答を提供することができる。これらは、力、振動、又は移動の形態とすることができ、また、表面テクスチャ、リッジ、エッジ、ボタンを押す/クリックするような相互作用、並びに他のシミュレーションした感覚及び応答を模倣することができる。GUIの場合、触覚応答は、ユーザが相互作用するGUI要素にローカライズすることができる。例えば、ユーザがGUIボタンにタッチした場合、触覚応答は、あたかもボタンが押されたかのように、又は粗いテクスチャを有するように、エッジが隆起したボタンの感触をもたらすことができる。
以下で考察されるように、例えば、図14及び図15を参照すると、いくつかの実施形態では、接触感応性GUIは、表示可能なGUIスクリーン内に含まれる形状の任意の集合体(例えば、1つ以上のアクティブGUI要素/オブジェクトを含む)を含む、「仮想ウィジェット」を利用することができる。例えば、仮想ウィジェットは、複数のインスタンス及び/又はタイプの仮想ボタン、スライダ、ノブ、ダイヤルなどの定義された集合体を含んでもよい。別の実施例として、仮想ウィジェットは、定義された機能を制御するためのインターフェースを集合的に画定する、定義されたアクティブ要素の集合体を含み得る。例えば、スライダタイプの仮想ウィジェット又は回転可能なダイヤルタイプの仮想ウィジェットは、例えば、以下で考察される例示的な図15に示される例示的な回転可能なダイヤルによって例示されるように、スライダ又は回転可能ダイヤルのための位置選択の範囲に関する定義されたUI要素の集合からなってもよい。GUI要素(UI要素とも称される)又は形状に関する本明細書の任意の開示は、仮想ウィジェットに同様に適用することを理解されたい。
本明細書で説明される様々な実施形態は、電子レコードを作成及び更新することを指す場合がある。電子レコードは、データファイルの形態とすることができ、電子レコードを更新することは、データ入力をレコードの1つ以上のフィールドに挿入又は削除することを含むことができる。代替的に、実行時には、記載されたレコードと一致する状態情報及び変数を有するクラスオブジェクト及びインスタンス化されたオブジェクトを指すことができる。どちらの状況も、本明細書で説明される様々な実施形態において想到される。
本開示の様々な実施形態は、接触感応性インターフェース上で接触したGUI要素を識別するための技法に関する。これらの技法及び関連する構造は、メモリ使用及び応答性に関して特に効率的である。
更に、他の技法と比較すると、インターフェースデータ記憶装置要件が少なく、UI要素を識別するための実行時間に行われるタスクの数がわずかである。
本開示のいくつかの実施形態は、接触感応性インターフェース上で接触したGUI要素を識別するために行うことができる、最適化された探索タスクのリストを作成するための方法に関する。このような探索は、本明細書では、UI要素探索又は「形状探索」と称され得る。探索タスクは、プロセッサ実行可能命令とすることができ、この命令は、実行されたときに、該当する場合、接触したGUIの要素を探索しているサブシステムに成功又は失敗メッセージを返す。一実施形態では、探索タスクは、GUI内の様々な要素及びその要素の場所をマップする定義ファイルに基づいて作成される。探索タスクは、様々な効率パラメータのために最適化され得る。
一実施形態では、探索タスクリストは、ディスプレイサブシステム(例えば、自動車用ヘッドユニット)内のUI要素/形状探索を行うことができる、本開示の発明者らに知られている従来の接触感応性GUIと比較して、埋め込みデバイス、例えば、タッチコントローラによって実行され得る。タッチコントローラ内のGUI要素の探索を行うことは、ディスプレイサブシステムと通信する時間、並びにサブシステムが、例えば触覚フィードバックサブシステムと反応及び通信する時間を節約する。節約される時間は、従来の接触感応性GUIと比較して、接触感応性GUIの応答性を向上させ、また、ユーザの観点から、ユーザがスクリーンにタッチしたときから、ユーザがタッチに応答するフィードバックを受信したときまでの時間を短縮する。
更に、タスク探索リストの作成は、構成可能であり、GUIに応じて、共通の特徴のセットを、特定の用途のために最適化された実施のために選択することができる。例えば、いくつかの実施形態では、作成プロセスは、他のGUI要素、特定の形状の要素、又はGUI要素に接触したときに移動若しくは変形する要素を隠すページング、ドロップダウンメニュー、及びポップアップウインドウを含むGUIのために最適化することができる。
図1は、本開示の様々な実施形態による、システムの全体的な動作を例示する。動作112では、ソフトウェアアプリケーションツール102は、UI定義ファイルを処理して、該当する場合、接触感応性スクリーン上で接触したUI要素を識別するために、UI要素/形状探索を行うための条件付き実行可能命令の探索タスクリストを作成する(動作108)ように構成される。
探索タスクリストは、タッチシステムの一部である1つ以上のプロセッサによってアクセス可能である、非一時的格納メモリに記憶することができる(動作110)。タッチインターフェースで接触イベントが発生したとき、タッチセンサ106は、タッチを感知し(動作118)、1つ以上のタッチプロセッサ104に対するタッチを示す1つ以上の信号を提供することができる。タッチプロセッサ104は、接触が発生したタッチインターフェース上の場所を判定し(動作112)、該当する場合に、その判定に応答して、接触したUI要素を探索し(動作114)、識別する。一実施形態では、タッチプロセッサ104は、探索結果をグラフィカルユーザインターフェースサブシステムに提供することができる(動作116)。
探索タスクリストを作成するためのプロセスの一実施形態は、図2〜図7を参照して説明されることになる。本開示の実施形態は、木及びグリッド技法に従ってUI要素を編成する、探索木構造を利用する。様々なUI要素が、グリッドのように扱われる関連グループに分割され、探索木に編成され、次いで、様々な探索タスクが生成される。探索タスクは、命令を使用してUI要素/形状探索の実行を最適化するように条件付けられる。当業者は、他のアルゴリズム、例えば分割統治法を使用して、スクリーン(複数可)が探索可能領域に分割され得ることを理解するであろう。
図2は、UI要素/形状探索を実行するための探索タスクリストを生成するプロセスの実施形態を例示する。動作202で、UIのための構造定義を、ロードし、かつ構文解析して、スクリーン及びサブスクリーン上の、スクリーン、サブスクリーン、及びUI要素を識別する。UI構成定義は、電子ファイル、データベース、生データなどであり得る。動作204で、UI要素をグループ化し、探索可能な領域を、UI要素グループを有する1つ以上の探索可能な領域に分割する。動作206で、UI要素グループを、探索可能な領域に基づいて木構造にリンクする。動作208で、探索タスクを探索木の枝及びノードと関連付けて、探索木を形成し、探索木を最適化する。動作210で、探索木の条件付きタスクを、プロセッサによって実行することができるタスクリストであるリストに記憶する。
一実施形態では、探索タスクリストを生成するソフトウェアアプリケーションツール102は、動作202、204、206、208、及び210のうちの1つ以上の結果を出力ファイルに書き込むように構成することができる。この出力ファイルは、デバッギングツールによって使用されて、プロセスの結果をレビューすることができる。同じデバッギングツールを、探索タスクリストのテキストバージョンを使用し、それを(例えば、.dos実行可能な)仮想試験環境内で実行して、探索タスクリストが動作準備完了していることを検証するように構成することができる。
図3は、UI要素をUI構成定義から抽出するためのプロセス300の一実施形態を例示する。一実施形態では、UI構成定義は、アプリケーションツールの構成生成特徴によって変換されるディスプレイの一部のxml定義である。アプリケーションツールは、構造定義を構文解析し、定義構造内で定義されたUI要素をグラブする。動作302で、各UI要素をロードし、動作304で、このUI要素が既知のUI要素であるかどうかを判定する。既知のUI要素でない(すなわち、この要素が構造定義で識別されたのが初めてである)場合、動作306で、プロセスは、そのタイプのUI要素(例えば、ボタン、ノブ、スライダなど)の新しい要素定義を作成する。
新しい定義を作成した後に、又は要素が既知のUI要素である場合は、動作308で、要素を既存のグループに割り当てるかどうかを判定する。一実施形態では、既存のグループに割り当てるかどうかの判定は、様々な所定のパラメータ、例えば、要素のタイプ、UI要素が表示されるスクリーンの場所、層の位置、要素と関連付けられた応答のタイプ(例えば、視覚、触覚、音声など)などの、要素の共通の特徴に基づく。要素を新しいグループに割り当てると判定する場合は、動作310で、要素に関連するパラメータを有する新しいグループレコードを作成する。
新しいグループレコードを作成した後に、又は要素を既存のグループに割り当てると判定する場合は、動作312で、新しい要素の入力をその新しい要素のグループレコードに挿入する。一実施形態では、入力は、要素IDのフィールドと、要素の場所(すなわち、スクリーン上の要素の座標)と、を含む。動作314で、更なるUI要素があるかどうかを判定し、更なるUI要素がある場合は、UI構成定義で識別された残りの各UI要素についてプロセスを実行する。動作316で、プロセスは、要素(複数可)、要素定義(複数可)、及びグループ(複数可)を返す。
一実施形態では、UI構成定義が2つ以上のスクリーン定義を含む場合、そのような各スクリーンにUI要素のパラメータであるスクリーンIDを割り当てる。また、各グループのパラメータとしても組み込むことができる。各スクリーンはまた、表示されたGUIの定義された領域であるサブスクリーンも含むことができ、その中では、いくつかのUI要素が動的に変化するが、そうした領域外にあるUI要素は、変化しないままである。非限定的な例として、動的UI要素を有する領域としては、スワップ可能ペイン、スクロール可能メニュー、活性可能情報ペイン、ナビゲーションボタンなどが挙げられる。
図4は、本開示の一実施形態による、探索木を作成するためのプロセス400を例示する。このプロセスでは、UI定義内で識別された各スクリーンを探索可能領域にどのように分割するかに関する判定を行い、各探索可能領域は、1つ以上のUI要素のグループを含む。図4に示されるプロセスの例示的な実施形態では、UI要素のグループを分割する分割線(x座標、y座標)が選択され、よって、少なくとも1つのUI要素グループが分割線の一方の側にあり、少なくとも1つの他UI要素グループが分割線の他方の側にある。
分割線は、分割線に沿った共有境界線を用いて、スクリーンを2つの探索可能領域に効果的に分割する。UI要素グループを更に分割することができなくなるまで、UI要素グループは、再帰的な様態で分割される。
別の実施形態では、スクリーン又は探索可能領域は、x座標及びy座標方向の両方に同時に分割され、これは、最高4つのUI要素グループのサブ分割をもたらし得る。この技法はまた、4つ未満のサブ分割、例えば、3つのUI要素グループの分割及び1つの空の探索可能領域をもたらすこともができる。
更に他の実施形態では、スクリーンの一部分が探索可能領域にサブ分割されないように、円形、正方形、及び/又は多角形を使用して、その一部分を探索可能領域から除外するように定義することができる。
操作402では、第1の探索可能領域は、2つ以上のグループを有してロードされる。第1の繰り返しの場合、これは、全てのグループを含むスクリーン全体であってもよい。この実施形態では、初期探索可能領域レコードは、全てのUI要素及びUI要素グループを含む、スクリーン全体を包含するように定義された領域と共に存在する。動作404で、初期探索可能領域を、それぞれがグループのうちのいくつかを有する2つの探索可能領域に分割する、グリッド線を選択する。動作406で、新しいレコードを作成し、UI要素グループを初期レコードと新しいレコードとの間でソートし、これらのレコードをそれぞれの探索可能地域と共に更新する。分割線は、2つの探索可能領域のスプリット/ディビジョンとして記録される。第1の探索可能領域並びにその中のUI要素グループ及びUI要素は、ディビジョンにリンクされ、次にこれが新しい探索可能領域並びにその中のUI要素グループ及びUI要素にリンクされる。
実行時には、UI要素のクラスオブジェクト、UI要素グループのクラスオブジェクト、及びスプリット/ディビジョンのクラスオブジェクトが存在する。
2つ以上のUI要素グループを含む各探索可能領域の場合は、プロセスを再帰的に実行して(動作408)、探索可能領域を分割する。
特に、一実施形態では、UI要素は、UI要素の定義(例えば、要素ID)及び本実施形態ではUI要素の原点への移動に対する参照によって定義されるが、各UI要素を個々に定義する必要がないので、インターフェースメモリ要件を低減させる。
スクリーンが完全に分割されると、この時点で、ディビジョン/スプリット、UI要素及びUI要素グループ、並びにそれらの間のリンクを含む中間探索木が存在する。
動作410で、各UI要素グループについてグループレベル探索タスクを作成する。グループレベルタスクは、プロセス工程又は一連のプロセス工程である。このタスクは、(i)タッチ又は接触イベントがUI要素内で(又はUI要素外で)発生したかどうかを判定するためのタスク、(ii)何らかの方法で探索領域を修正するためのタスク、及び(iii)次のタスクを準備するためのタスク、を含むことができる。
各グループレベルタスクは、成功又は失敗が生じた場合に行われるべき次のタスクの指示を含むことができる。例えば、各タスクは、次のタスクアドレスへの「オフセット」を有するビットを含むことができる。更に、各グループレベルタスクは、それが実行されるときに引数を受け取ることができる。いくつかの実施形態では、以前のタスクは、引数を提供することができ、又はどの引数を次のタスクに利用できるかを示すための環境ビット/フラグを設定することができる。
一実施形態では、UI要素グループ座標(位置角)のオフセットを使用して、インデックスを生成することができる。探索可能領域内のあらゆるUI要素は、構成された場合に、探索可能領域のベースIDからインデックスだけオフセットされた異なるIDを割り当てることができる。結果は、要素ID及びオフセット値である。応答(例えば、触覚)又は要素IDのいずれかを修正するための別々のプロビジョンが存在する−よって、あるグループ要素は、単一の要素IDであるが、多数の応答IDを返し得、別のものは、いくつかの要素の違いについて1つの応答IDを返し得る。
グループレベル探索タスクは、グループレコードに挿入すること、探索タスクリストに挿入すること、又は中間レコードに挿入することができる。グループレベル探索タスクが完了すると、動作412で、中間探索木が返される。
一実施形態では、各タスクについて環境変数を設定することができ、この環境変数は、該当する場合、タスクが実行される場合に、タスクが成功する場合に、及び最終タスクである場合に何を返すのかを示す。非限定的な例として、環境変数は、触覚ID、グループ形状内の要素について要素ID及び触覚IDをどのように修正するのかを制御する値、などであり得る。また、次のタスクの説明を付随させるために送信されるべきデータを示す、環境フラグも設定することができる。特定の制約及び正しい環境変数を使用することで、例えば円の定義を7バイトから2バイトに低減させることができる。
図5は、中間探索木に対して行われる最適化プロセス500の一実施形態を例示する。動作502で、共通の特徴によって全てのUI要素をグループ化する。共通の特徴の例としては、UI要素タイプ、層内の位置、別の層内の別の要素に対する位置(例えば、全てが同じUI要素の背面にある)、ディスプレイグループ、形状などが挙げられる。一実施形態では、共通の特徴を選択して、UI要素/形状探索プロセスを最適化することができる。例えば、探索木の最上部の最上層にUI要素を有する層位置によってUI要素がグループ化される場合は、それらが最初に探索される。別の例として、「ページング」が存在する(すなわち、ユーザインターフェースの層をスワイプして、下部の層を露出させること、又はある層を別の層の上に被せることができる)アプリケーションにおいて、ディスプレイグループによるグループ化は、単一の制御を使用して全てのディスプレイUI要素を制御すること、例えば、ディスプレイグループ内の全てのUI要素を探索すること、制御設定に応答するUI要素に変更を適用すること、ディスプレイグループ内の全てのUI要素をオン又はオフにすること、などを可能にする。様々な実施形態では、例えば層ID、位置ID、形状IDなどの識別子を使用して、共通の特徴によって編成されたグループを識別することができる。
動作504で、探索タスクを、各要素の探索木に挿入し、分割して、中間探索タスク木を形成する。動作506で、各タスクについて、中間探索タスク木を再順序付けして、単一の通過を確実にする。動作508で、冗長又は非効率的な探索タスクを排除する。動作510で、最適化された探索タスク木を返す。
図6は、探索タスクリストを作成するためのプロセス600の一実施形態を例示する。動作602で、探索タスク木のクラスオブジェクトをロードし、動作604で、命令語(すなわち、探索タスク)をクラスオブジェクトから作成し、命令語(すなわち、探索タスク)を探索タスクリストに挿入する。図6に示される実施形態では、命令語は、タスクコードフィールドと、ジャンプフィールドと、を含む。一実施形態では、命令は、データフィールドを含む。あらゆる失敗(すなわち、要素が異なる)及びあらゆる分割は、次のタスクがメモリ内の現在のタスクの直後でない限り、別の命令へのジャンプを必要とする。
動作606で、タスクコードをタスクコードフィールドに挿入し、動作608で、ジャンプ値をジャンプフィールドに挿入する。
いくつかの実施形態では、全てのタスクが探索タスクリストに挿入されるまで、ジャンプ値の一部又は全部を挿入しない。他の実施形態では、探索タスク木からジャンプ値を推定することができる。
動作610で、探索タスクリストの様々なタスクをメモリ内で連結して、全てのオブジェクトがリスト内にある場合に(動作612)、動作614のプロセスによって返される条件付き探索タスクリストを形成する。探索タスクリスト及び探索木は、メモリに記憶することができる。
タスク命令は、探索タスクリストが実装される特定の環境において利用可能なコンテナサイズ制限(すなわち、バイト制限)によって変動し得る。一実施形態では、各タスク命令と関連付けられたデータは、命令インターフェース要件(8ビット、12ビットの、16ビットなど)、利用可能なメモリなどを含むシステム条件に応じて変動し得る。非限定的な例として、八角形のUI要素内で探索するという命令は、単にx座標及びy座標データ、並びに辺の数によって行うことができる。しかしながら、命令インターフェース及び他のメモリ要件が許可する場合は、追加データを含むことができる。
図7は、本開示の一実施形態による、UI要素内でタッチが発生したかどうかを判定するためのUI要素/形状探索プロセスを例示する。探索木の探索は、提供されたデータ及び探索タスクリストを使用して行われる。動作702で、各タスクの実行可能命令を、各タスクのペイロードデータと共にプロセッサのインターフェースに連続的に提供し、動作704で実行する。探索木を探索するときに、動作706で、UI要素内でタッチが発生したかどうかを判定し、各タスクの結果は、UI要素内でタッチが発生したかどうかを示す、真/偽、成功/失敗である。動作708で、プロセッサによって、現在のタスクが成功であるという結果に応答する次のタスク命令及び関連データをロード及び受信する。すなわち、動作706の結果が成功である場合、タスクリスト内の次のタスクが実行される。
結果が失敗である場合、プロセッサによって、結果に応答する代替のタスク命令及び関連データをロード及び受信する。代替のタスクが存在する場合(動作714)、動作716で代替のタスク場所を供給し、プロセスは動作702にループバックし、プロセッサの代替の場所からタスクをロードする。探索が終わるとき、UI要素は、発見又は未発見のいずれかである。UI要素が発見される場合、動作710で、発見の結果を返し、動作712で、その要素のID、並びに任意の環境設定/応答性パラメータを返す。動作が発見されない場合、動作720で、未発見の結果を返す。
一実施形態では、図7に示されるUI要素/形状探索プロセスは、タッチプロセッサ(マイクロコントローラ)で実行するファームウェアアプリケーションとすることができる。タッチプロセッサは、フラッシュメモリに記憶した探索プロセスによって実行される1つ以上の探索タスクを有することができる。一実施形態では、探索タスクは、ディスプレイコントローラと関連付けられたRAMに記憶することができ、探索タスクは、設定又はプロビジョニングプロセス中にタッチプロセッサに提供され、探索プロセスにアクセスできる状態に保つことができる。
記載された実施形態は、代替的なアプローチに勝るいくつかの利点を提供する。メモリ要件が大幅に−線形探索、ピュアグリッド法、又はピュア探索木方法から最高50%−低減され、それでも、組み合わせグリッド/木法を超えて改善される。これは、一部には、行われる探索動作の数が低減されるからである。探索動作の数が低減されるので、応答サイクルは、代替的な手法(従来の方法を含む)よりも大幅に短くなる。例えば、1200×1200の接触感応性GUIに関して、72μs(ピュアグリッド)〜1200μs(線形)の範囲であった代替的な手法と比較して、36μs未満のサイクル時間を達成した。この違いは、ユーザにとって極めて高い応答性のタッチインターフェースである。
このタッチインターフェースは、設計者にとって、異なる応答特性を有する数多くの要素を有して、より高度化することができる。
図8、図9、及び図10A〜図10Eは、本開示の実施形態と共に使用することができるGUIの1つの非限定的な例として、無線用途のGUIに関連して図2〜図7を参照して例示及び説明したプロセスを例示する。図8に例示される無線GUI810は、表820に要約される、8つのタイプのUI要素と、合計144のUI要素と、を含む。いくつかの実施形態では、GUI810は、従来のグリッドタイプタッチ位置報告を使用するタッチスクリーンであってもよい。
図9は、図3を参照して説明した方法に従ってグループ化したUI要素を示す。この実施形態では、グループ化した要素832、834、836、838、840、842、844、846、及び848は、類似するタッチ特性(例えば、タッチに応答する触覚フィードバック)、スクリーン上の物理的な場所、及び形状を有する。
図10A〜図10Eは、図4を参照して説明した木及びグリッド法を使用して形成された木構造850の一実施例を示す。
図11は、本開示の一実施形態による、本明細書で説明されるUI要素/形状探索方法を実施することができるシステム1000及び関連するツール1040を例示する。システム1000は、GUI要素のためのGUI要素探索機能1012及び応答判定1014をその上に有する、マイクロコントローラファームウェア1010を含む。マイクロコントローラファームウェア1010を実行するプロセッサは、マイクロコントローラファームウェア1010から制御信号を受け取ることができ、続いて、接触感応性インターフェース1020の応答を駆動することができる応答ドライバ1018に結合される。一実施形態では、接触感応性インターフェース1020は、1つ以上のアクチュエータを含むタッチスクリーンであり、応答ドライバ1018は、アクチュエータを励起する制御信号を生成するように構成された触覚ドライバである。感知回路1022は、接触感応性インターフェース1020での接触に応答して、1つ以上の測定信号を生成することができる。接触測定及び処理1016は、検知回路1022からの測定信号に応答して、接触情報(例えば、場所、タイプなど)を決定し、この接触情報を、応答決定1014及びGUI要素探索機能1012に提供することができる。応答ドライバ1018で受信した制御信号は、例えば、接触情報に少なくとも部分的に基づくことができ、よって、触覚フィードバックが、接触感応性インターフェース1020上の右側の場所に提供される。
また、図11には、ツール1040も示され、このツールは、本開示の一実施形態によって、探索リスト生成プロセスを実施し、要素探索タスクリスト及び要素応答情報を作成することができる。探索リスト作成アプリケーションプログラム1044は、図2〜図6を参照して説明したプロセスを実施して、GUI定義XAMLファイル1042を処理して、要素探索タスクリストを生成するように構成される。アプリケーション1044は、要素探索タスクリスト1046及び要素応答情報1048をファイルとしてマイクロコントローラファームウェア1010に提供することができる。一実施形態では、このアプリケーションはまた、探索タスク内に組み込まれ得るが、探索木も提供することができる。
ファームウェアのいくつかの実施形態では、ファームウェアは、タッチイベントに関する力レベル情報を組み込むための、力測定及び処理機能を含むことができる。そうした実施形態では、要素探索機能によって返される力レベル情報及びGUI要素ID及び触覚応答の詳細は、触覚シーケンサを使用して、この力レベル、GUI要素ID、及び触覚応答の詳細に応答する触覚制御信号を生成することができる。
図11のシステムは、自動車を含む、タッチインターフェース及びタッチ制御パネルを利用する様々な消費者製品、電化製品、及び機械内に組み込むことができる。
図12は、自動車用タッチ制御パネルのための無線GUI1210の簡略化バージョンを例示する。3つの領域は、具体的には、領域1、領域2、及び領域3と称する。領域1は、温度調節のための回転ダイヤル1214の中央のボタン1212である。触覚プロファイルID#4(振動)による触覚フィードバックは、強い力レベルを有するタッチイベントに応答して、提供される。領域2は、同じく温度調節のための回転ダイヤル1214である。弱い力レベルを有するタッチイベントに応答する、触覚プロファイルID#3(摩擦)による触覚フィードバックが提供される。最後に、領域3は、自動車設定のためのメニューを提示するためのボタン1216である。強い力レベルを有するタッチイベントに応答する、触覚プロファイルID#2(クリック)による触覚フィードバックが提供され、弱い力レベルを有するタッチイベントに応答する、触覚プロファイルID#3(摩擦)による触覚フィードバックが提供される。
図13は、ヘッドユニット1310によって命令される自動車用制御に組み込まれた図11のシステム及び図12のGUIを例示し、ヘッドユニット1310の触覚効果は、マイクロコントローラによって制御される。この実施形態では、タッチコントローラ1320及びUI要素/形状探索機能1324は、自動車サブシステムの一部であり、自動車用ヘッドユニット1310は、ヘッドユニットの処理回路の直接的な介入を伴わずに、触覚フィードバックによってタッチに応答する。タッチコントローラ1320は、タッチ位置及び力レベル情報から、タッチされたスクリーンボタンを識別し、触覚効果をトリガするためのボタン位置を含む、タッチ状態機械を動作させるように構成される。
この実施形態では、力処理1326及びタッチ処理1322は、1つのコントローラ構成要素1320に統合され、タッチスクリーン1332は、タッチコントローラ1320によって直接起動され、触覚デバイス1350によって行われる触覚効果の範囲を導き出すためにそれぞれ必要とされる、いくつかの幾何学的オブジェクト記述の定義(スクリーンディスプレイ設計1336、及び探索木定義1338)を含む。タッチコントローラ1320はまた、タッチコントローラ構成ユニット1340を介してこれらの定義を受信してもよい。
例えば、ディスプレイ1330のタッチの後に、タッチコントローラ1320は、力処理1326及びタッチ処理1322からの力情報及びタッチ情報を受信する。この情報は、力センサ1334からの力測定値及びディスプレイ上のタッチ位置を含むことができる。UI要素/形状探索1324は、該当する場合、タッチが発生したディスプレイ1330に表示されるUI要素に対応するUI要素情報を提供する。ディスプレイ上の場所に対応するいかなるUI要素も存在しない場合、UI要素/形状探索1324は、空の探索結果を提供する。UI要素の形状情報を探索する間、UI要素/形状探索1324は、ヘッドユニット1310に記憶した定義を使用することができる。一実施形態では、UI要素/形状探索1324は、プロビジョニングプロセス中に、例えば、タッチコントローラ1320がヘッドユニット1310と統合されるときに、又はヘッドユニット1310の電源がオンになるときに、定義を受信することができる。
UI要素/形状探索1324が、UI要素を識別する場合、触覚制御1328によって触覚情報を使用して、触覚効果及び触覚効果の位置を含む触覚デバイス1350に、触覚起動メッセージを送信する。触覚起動メッセージは、触覚効果(例えば、弱、中、強)のレベルを表すパラメータを含むことができる。触覚デバイス1350は、触覚デバイスに記憶した触覚ライブラリ1352内の触覚効果定義を探索する。触覚デバイス1350は、次いで、ディスプレイの特定の領域が要求された触覚効果を呈するように、ディスプレイ1330のアクチュエータを制御する。特に、異なる触覚デバイスは、異なる触覚ライブラリを有し得るので、効果は、デバイス間で異なり得る。
この実施形態では、GUI定義は、グラフィカルユーザインターフェースのためのXML実装であるXAMLファイルである。XAMLファイルは、GUIのUIのスクリーン要素のための描画命令の階層構造リストを含む。XAMLファイルには、GUI要素と関連付けられたタグが存在する。例えば、「Width」、「Height」、及び「Horizontal Alignment」は全て、特定要素の有効なタグである。
仮想ウィジェット
上記で考察されたように、いくつかの実施形態では、接触感応性GUI(GUIと統合されたタッチインターフェース)は、仮想ウィジェットを、例えば、上記で考察された特徴のいずれかと組み合わせて利用することができる。本明細書で使用されるとき、「仮想ウィジェット」は、表示可能なGUIスクリーン内に含まれる形状の任意の集合体(例えば、1つ以上のアクティブUI要素を含む)である。例えば、仮想ウィジェットは、複数のインスタンス及び/又はタイプの仮想ボタン、スライダ、ノブ、ダイヤルなどの定義された集合体を含んでもよい。別の実施例として、仮想ウィジェットは、定義された機能を制御するためのインターフェースを集合的に画定する、定義されたアクティブ要素の集合体を含み得る。例えば、スライダタイプの仮想ウィジェット又は回転可能なダイヤルタイプの仮想ウィジェットは、例えば、以下で考察される例示的な図15に示される例示的な回転可能なダイヤルによって例示されるように、スライダ又は回転可能ダイヤルのための位置選択の範囲に関する定義されたUI要素の集合からなってもよい。
仮想ウィジェットは、タッチスクリーン上に表示されてもよいが、いくつかの実施形態では、タッチスクリーン構成モジュール/プロセスのコンテキスト及びタッチスクリーンディスプレイ上にのみ存在する。仮想ウィジェットは、ヘッドユニットに報告することができる。仮想ウィジェットの使用は、タッチ感応性GUIの物理的インターフェースの複雑性を低減することができる。例えば、仮想ウィジェットの使用は、ヘッドユニット上のオーバーヘッドを低減して、タッチ位置を処理することができ、例えば、加熱制御、無線制御、又は任意の他のタイプの制御のために、物理的ロータ、スライダなどのための別個のハードウェア又は電子機器を必要としない場合がある。
いくつかの実施形態は、仮想ウィジェット(例えば、ボタン、スライダ、ダイヤルなど)として操作されるタッチスクリーンの領域(例えば、構成されたスクリーンページ内の領域)を定義するためのシステム及び方法を提供する。タッチが、タッチスクリーン上で検出されるとき、タッチコントローラは、ユーザタッチに対応するウィジェットの位置又は状態(例えば、検出されたタッチ位置に対応する仮想スライダの線形位置又は仮想ダイヤルの回転位置)を判定することができ、タッチスクリーン上のタッチの位置を示す「タッチメッセージ」を報告する代わりに、又はそれに加えて、「ウィジェットメッセージ」内のこのような位置/状態情報をヘッドユニットに報告する。ウィジェットメッセージは、例えば、検出されたタッチ場所、力、及び/又はタッチスクリーン上の検出されたタッチの他の測定可能な態様に対応する、それぞれのウィジェット上のユーザ選定位置、回転、「タッチされた」状態、及び/又は検出されたタッチの数を示すことができる。
いくつかの実施形態では、ウィジェットメッセージは、例えば、以下で考察される図14に示される例示的な実施形態において、タッチメッセージから別個のストリームでヘッドユニットに伝達される。いくつかの実施形態では、タッチコントローラは、仮想ウィジェット上のタッチが検出されたとき、タッチメッセージをヘッドユニットに送信することを抑制し、別の言い方をすれば、タッチメッセージは、仮想ウィジェットとのタッチインタラクション中に、ウィジェットメッセージのお気に入りに吊るされてもよい。
このような仮想ウィジェットの使用は、仮想GUI制御が、構成可能かつ動的な様式で、タッチスクリーン上の任意の場所に位置決めされることを可能にする。いくつかの実施形態では、スクリーン上に表示された仮想コントロールは、例えば、UI形状探索に関して上記で開示された技術に基づいて、スクリーン表示IDを変更することによって変更及び/又は再位置決めされてもよい。
図14は、1つの例示的な実施形態により、本明細書に開示されるような仮想ウィジェットを用いる例示的なGUIタッチスクリーンシステム1400を例示する。GUIタッチスクリーンシステム1400は、接触感応性タッチスクリーン1402と、タッチコントローラ1404と、ヘッドユニット1406と、を含んでもよく、これらの各々は、上記で考察されたように、構成要素(例えば、タッチセンサ、マイクロコントローラ、マイクロコントローラファームウェア、プロセッサ、メモリ、触覚アクチュエータなど)のいずれかを提供し得、タッチスクリーン、タッチコントローラ、及びヘッドユニットによって提供される機能のいずれかを提供することができる。いくつかの実施形態では、タッチコントローラ1404は、マイクロコントローラ内のファームウェアによって具現化され得る。
システム1400はまた、スクリーン設計モジュール1410及びタッチコントローラ構成モジュール1414を含んでもよい。スクリーン設計モジュール1410は、タッチスクリーン1402に選択的に表示され得る1つ以上の異なるスクリーン(ページとも称される)の各々についてスクリーン設計を定義又は構成してもよい。各スクリーンに関して、スクリーン設計モジュール1410は、スクリーン内に含めるための仮想ウィジェット、及び選択されたウィジェットの配置/レイアウトを選択してもよい。スクリーン設計モジュール1410は、スクリーン設計(複数可)を記憶のためにヘッドユニット1406に通信することができ、ヘッドユニット1406は、例えば、(例えば、ヘッドユニット1406によって提供されたスクリーン選択ステートマシンを使用して)ディスプレイのために現在選択されているスクリーンに適切に基づいて、スクリーンデザインをGUI要素探索エンジン1424に選択的に提供することができる。次いで、ヘッドユニット1406又は代替的に、タッチコントローラ構成モジュール1414は、例えば、仮想ウィジェットの様々な選択及び/又は配置を使用して、複数の異なるスクリーンのどれが現在表示されているかを制御することによって、タッチスクリーン上のディスプレイを制御することができる。
スクリーン設計モジュール1410はまた、スクリーン設計のいずれかに含まれる各仮想ウィジェットのパラメータ1412を定義し、記憶のために、対応のウィジェット定義1416をタッチコントローラ構成モジュール1414に通信してもよい。タッチコントローラ構成モジュール1414は、このため1つ又は複数のタイプの関連するUI要素の定義された集合を含み得る、各仮想ウィジェットに対するウィジェット定義を記憶することができる。示されるように、タッチコントローラ構成モジュール1414は、現在表示されているスクリーン内に含まれるウィジェット定義を有するGUI要素探索エンジン1424を提供して、GUI要素探索エンジン1424が、タッチスクリーン上の検出されたタッチに基づいて、仮想ウィジェットとのユーザ対話を検出することを可能にする。
上記で言及されたように、各仮想ウィジェットは、タッチスクリーン上に表示された形状の任意の集合体を含んでもよい。各仮想ウィジェットは、ウィジェットID及びスクリーン上の相対位置を有することができる。仮想ウィジェットは、例えば、ボタン番号(ボタンタイプウィジェット用)、ロータ位置/変化(ロータタイプウィジェット用)、又はスライダ位置/変化(スライダタイプウィジェット用)などのパラメータによって更に定義されてもよい。仮想ウィジェットはまた、例えば、ヘッドユニットによってページングされ得る形状構成によって画定されてもよい。
動作中、ユーザがタッチスクリーン1402にタッチ/接触するとき、タッチコントローラ1404の感知回路は、1420においてセンサ信号を測定し、タッチスクリーン1402において測定された接触に応答して1つ以上の測定信号を生成することができる。接触測定及び処理1420、1422は、タッチ情報(例えば、場所、タイプ、力など)を判定し、それにGUI要素探索エンジン(又は「形状探索」モジュール)1424を提供することができる。次いで、GUI要素探索エンジン1424は、例えば、ウィジェット定義1416内に含まれるウィジェット場所及び形状パラメータに基づいて、タッチ場所が現在表示されている仮想ウィジェットに対応するかどうかを判定することができる。この判定は、UI要素タッチ検出について上記で考察された様々な技術のいずれかを用いることができる。
GUI要素探索エンジン1424が、タッチ場所が現在表示されている仮想ウィジェットに対応すると判定する場合、探索エンジン1424は、ウィジェット内のUI要素(複数可)がタッチされているか、及び/又は、タッチされる仮想ウィジェットに関する他の関連情報である、対応のウィジェットID、ウィジェット形状インデックスを含むウィジェット情報1426をウィジェット処理モジュール1428に通信してもよい。1428では、ウィジェット処理モジュール1428は、GUI要素探索エンジン1424から受信したウィジェット情報1426、及び/又はウィジェット定義情報1416のいずれかを含むウィジェットメッセージ1430を、メッセージインターフェース1434に生成することができ、これはウィジェット処理モジュール1428からヘッドユニット1406への情報を含むイベント報告1440を転送することができる。
いくつかの実施形態では、ウィジェット処理モジュール1428は、各々の関連するウィジェットタッチイベントについてのイベント報告1440を生成することができ、これは、例えば、ウィジェット定義1416又はヘッドユニット1406及び/若しくはタッチコントローラ1404に生成されるか、ないしは別様にアクセス可能な他のロジックによって定義されるような、触覚応答又は他のユーザフィードバック若しくは制御機能をトリガする各ウィジェットタッチイベントを含み得る。例えば、関連するウィジェットタッチイベントは、例えば、それぞれの機能をオン/オフにするか、又は調節可能な制御パラメータ(例えば、音量、ファン速度、ディスプレイ輝度など)を増減させることによって、ウィジェットと関連付けられた設定を変更するウィジェット上のタッチイベントを含んでもよい。ウィジェット処理モジュール1428は、GUI要素探索エンジン1424及び/又はウィジェット定義情報1416から受信したウィジェット情報1426から関連するウィジェットタッチイベントを識別することができる。
このため、ヘッドユニット1406は、メッセージインターフェース1434を介してウィジェット処理モジュール1428からウィジェット関連イベントレポート1440を受信し、タッチスクリーン1402で表示されたスクリーンの態様を制御することによって、及び/又は、タッチされる仮想ウィジェットと関連付けられた少なくとも1つの外部システム若しくはデバイス、例えば、ラジオ、インフォテインメントシステム、地図/ガイダンスシステム、光、ファン、モータ、エンジンなどを制御することによって、各イベントレポート1440に応答することができる。いくつかの実施形態では、ヘッドユニット1406は、それぞれのアクチュエータ(複数可)を制御して、例えば、ウィジェット定義情報1416によって定義されるように、タッチの場所において定義された触覚フィードバックをユーザに提供することができる。他の実施形態では、タッチスクリーン1402を介した触覚フィードバックは、ヘッドユニット1406ではなく、タッチコントローラ1404によって制御及び提供されてもよく、これはユーザにフィードバックを提供するための応答時間を増加させ得る。
更に、図14内の1432に示されるように、タッチコントローラ1404は、処理された全てのタッチ情報をメッセージインターフェース1434に転送するように構成されてもよく、イベント報告1440を介して、そのような情報をヘッドユニット1406に生成及び転送してもよい。いくつかの実施形態では、ウィジェット処理モジュール1428は、例えば、ウィジェット処理モジュール1428からヘッドユニット1406にウィジェットメッセージ1430/ウィジェット関連イベントレポート1440の生成及び転送中に、仮想ウィジェットタッチがGUI要素探索エンジン1424によって識別されるとき、このタッチ情報1432の転送を無効化又は中断するためのイネーブル/ディスエーブルスイッチ/ロジック1442を制御してもよい。
仮想ウィジェットを利用することは、ヘッドユニット1406の必要とされる処理を単純化することができる。例えば、仮想ウィジェットの使用は、単一のスクリーン設計が複数のアプリケーションを有することを可能にし得る。例えば、1つのインターフェースが、好適な構成を介して、全ての製品バリアントを扱うことができる。
図15は、1つの例示的な実施形態による、タッチスクリーンGUI1500上に表示された例示的なラジオスクリーン(又はページ)1502を示し、ラジオスクリーン/ページ1502は、UI要素の様々なグループを含む仮想ウィジェット1504の配置を含む。タッチスクリーンGUI1500は、ラジオ及び/又は1つ以上の他のシステム若しくはデバイス(例えば、インフォテインメントシステム、地図/ガイダンスシステム、光、ファン、モータ、エンジンなど)を制御するために、任意の数及びタイプの異なるスクリーン/ページを選択的に表示するように構成されてもよい。
この実施例では、ラジオスクリーン/ページ1502は、ラジオウィジェット1504A、1対のラジオモードウィジェット1504B及び1504C、チャネルプリセットウィジェット1504D、ステートウィジェット1504E、音量制御アクティブ化ウィジェット1504F及び音量調整ウィジェット1504G、チューナ制御アクティブ化ウィジェット1504H及びチューナ調節ウィジェット1504I、低音制御ウィジェット1504J、並びに高音制御ウィジェット1504Kを含む、様々な例示的な仮想ウィジェット1504を含む。
上記で考察された接触感応性GUI(例えば、タッチスクリーン)は、任意の好適な製品又はシステム、例えば、家庭用電化製品、又は自動車制御装置に使用することができる。いくつかの実施形態では、タッチスクリーン制御は、個別のマイクロプロセッサ/チップを必要とせずに、例えば、マイクロコントローラ内で具現化されたファームウェアによって提供されてもよい。
GUI(例えば、タッチスクリーン)は、構成を介して定義及び変更され得るため、同じGUIハードウェアが、複数の異なる目的のために、及び/又は複数の異なるユーザ若しくは顧客によって使用され、かつ選択的に構成されてもよい。更に、同じGUIハードウェアは、製品範囲にわたって複数の異なるインターフェースオプションを提供することができる。従来の手法は、典型的には、別個の制御を提供し、及び/又はヘッドユニットを使用して、タッチスクリーン上のボタン押下若しくは他の接触を判定し、これは開示されたシステムの柔軟性を提供することができず、付加的な処理リソース又は時間を必要とし得る。
タッチスクリーンの異なる部分に関する異なる特性及び応答を定義する能力は、上記で開示されたUI要素/形状探索アルゴリズムによって主に提供され、センサ領域の柔軟な定義を可能にする。これは、従来のタッチスクリーン設計の典型的な態様ではない。更に、UI要素/ウィジェットのための別個のメッセージングストリームの追加は、機能が、任意の物理デバイスを必要とせずに、そのようなロータ及びスライダを仮想的に作成することを可能にする。同じ機能により、任意の形状がそれ自体のIDで、仮想ウィジェットとして報告されることを可能にし、従来のタッチスクリーン処理をバイパスする。
本明細書に記載の機能ユニットの多くは、それらの実施独立性をより具体的に強調するために、モジュール、スレッド、又はプログラミングコードの他のセグリゲーションとして図示、説明、又は標識化されてもよい。モジュールは、ある形態又は別の形態で、少なくとも部分的にハードウェアに実装されてもよい。例えば、モジュールは、カスタムVLSI回路又はゲートアレイ、ロジックチップ、トランジスタ、又は他の別個の構成要素などの既製の半導体を備えるハードウェア回路として実装されてもよい。モジュールはまた、フィールドプログラマブルゲートアレイ、プログラマブルアレイ論理、プログラマブル論理デバイスなどプログラマブルハードウェアデバイスに実装されてもよい。モジュールはまた、様々な種類のプロセッサによる実行のために、物理記憶デバイス(例えば、コンピュータ可読記憶媒体)、メモリ、又はそれらの組み合わせに記憶されたソフトウェア又はファームウェアを使用して実装されてもよい。
実行可能コードの識別されたモジュールは、例えば、例えば、スレッド、オブジェクト、プロシージャ、又は関数として編成され得るコンピュータ命令の1つ以上の物理ブロック又は論理ブロックを含んでよい。それにもかかわらず、実行可能な識別されたモジュールは、物理的に一緒に位置付けられる必要はないが、論理的に一緒に結合されたときにモジュールを含み、モジュールの規定の目的を達成する、異なる場所に記憶された異なる命令を含んでよい。
実際に、実行可能コードのモジュールは、単一の命令、又は多くの命令であってよく、異なるプログラムの間のいくつかの異なるコードセグメントにわたって、またいくつかの記憶装置又はメモリデバイスにわたって分散されてもよい。同様に、動作データは、モジュール内で識別され、本明細書に例示されてよく、任意の好適な形態で具現化され、任意の好適な種類のデータ構造内で編成されてもよい。動作データは、単一のデータセットとして収集されてもよく、又は異なる記憶デバイスにわたって異なる場所に分散されてもよく、少なくとも部分的には、単にシステム又はネットワーク上の電子信号として存在してもよい。
モジュール又はモジュールの一部がソフトウェアに実装される場合、このソフトウェア部分は、本明細書でコンピュータ可読媒体と称される1つ以上の物理デバイスに記憶される。
いくつかの実施形態では、このソフトウェア部分は、このソフトウェア部分又はその表現がある期間にわたって同一の物理的位置に存続するように、非一時的状態で記憶される。更に、いくつかの実施形態では、このソフトウェア部分は、非一時的状態及び/又はこのソフトウェア部分を表す信号を記憶できるハードウェア要素を含む1つ以上の非一時的記憶デバイスに記憶される。ただし、非一時的記憶デバイスの他の部分は、信号の変更及び/又は送信を実行し得る。非一時的記憶デバイスの実施例は、フラッシュメモリ及びランダムアクセスメモリ(random-access memory、RAM)を含む。非一時的記憶デバイスの別の例としては、ある期間にわたって、このソフトウェア部分を表す信号及び/又は状態を記憶できるリードオンリーメモリ(read-only memory、ROM)が挙げられる。しかしながら、信号及び/又は状態を記憶する能力は、記憶された信号及び/又は状態と同一である、又はこれらを表す信号を送信する更なる機能によって低下しない。例えば、プロセッサは、対応するソフトウェア命令を実行するために、ROMにアクセスして記憶された信号及び/又は状態を表す信号を取得し得る。
実用レベルで、コンピュータシステムが、本明細書に記載の動作を行うことを可能にするソフトウェアは、様々な媒体のうちのいずれか1つに供給することができる。更に、本発明の手法及び動作の実際の実施は、実際には、コンピュータ言語で書かれたステートメントである。かかるコンピュータ言語ステートメントは、コンピュータによって実行されたときに、コンピュータをステートメントの特定のコンテンツに従って作用させる。更に、コンピュータシステムが本発明に従って作用することを可能にするソフトウェアは、元のソースコード、アセンブリコード、オブジェクトコード、マシン語、これらの圧縮又は暗号化バージョン、並びに任意の、及び全ての等価物が挙げられるが、これらに限定されない、任意の数の形態で提供することができる。
当業者は、本明細書で使用されるときに、「媒体」又は「コンピュータ可読媒体」は、ディスケット、テープ、コンパクトディスク、集積回路、ROM、CD、DVD、BLU−RAY、カートリッジ、フラッシュメモリ、メモリスティック若しくはカード、又は既知の若しくは今後開発されるものを含む、コンピュータによって使用可能な任意の他の非破壊記憶媒体を含むことができることを認識するであろう。
実際的なソフトウェアは、ディスクに「書き込まれ」得る、集積回路に「具現化され」得る、通信回路を通じて「搬送され」得る、メモリチップに「記憶され」得る、又はキャッシュメモリに「ロードされ」得るが、本出願の目的のために、ソフトウェアは、単にコンピュータ可読媒体「内に」又は「上に」あると称されることが認識されるであろう。したがって、「内に」又は「上に」という用語は、ソフトウェアをコンピュータ可読媒体と関連付けることができる、上で述べた、及び全ての等価かつ可能な方法を包含することを意図する。
簡潔にするために、故に、「コンピュータプログラム製品」という用語は、したがって、上で定義したようなコンピュータ可読媒体を指すために使用され、この媒体は、コンピュータシステムが本発明の任意の実施形態に従って作動することを可能にする任意の形態のソフトウェアを有する。
本開示は、特定の例示される実施形態に関して本明細書に記載されているが、当業者は、本発明がそのように限定されないことを認識し、理解するであろう。むしろ、以下にそれらの法的等価物と共に特許請求されるような本発明の範囲から逸脱することなく、例示され、説明される実施形態に対して数多くの追加、削除、及び修正を行うことができる。加えて、ある実施形態の特徴は、本発明者らによって想到されるように、別の開示した実施形態の特徴と組み合わせることができるが、それでも、本開示の範囲内に包含される。

Claims (21)

  1. ユーザインターフェースシステムであって、
    1つ以上の仮想ウィジェットの配置を含むグラフィカルユーザインターフェース(GUI)を表示するように構成されているタッチスクリーンであって、各仮想ウィジェットが、形状を有し、かつ前記GUIを介して表示されている1つ以上のユーザインターフェース要素を含み、
    前記1つ以上の仮想ウィジェットの前記配置が、構成可能である、タッチスクリーンと、
    前記タッチスクリーンにおいてタッチを感知することと、前記タッチに対応する仮想ウィジェットを識別することと、(a)前記識別された仮想ウィジェットが表示される前記タッチスクリーンの領域において触覚フィードバックを提供するようにアクチュエータを制御すること、又は(b)前記ユーザインターフェースシステムと関連付けられた電子デバイスを制御すること、のうちの少なくとも1つを含むアクションを開始することと、を行うように構成されている、プロセッサと、を備える、ユーザインターフェースシステム。
  2. 前記プロセッサは、マイクロコントローラ内で具現化されている、請求項1に記載のユーザインターフェースシステム。
  3. GUI定義を構文解析して、前記GUI内の複数のGUI要素を識別することと、
    識別されたGUI要素の入力を含むレコードを作成することと、
    前記識別されたGUI要素の前記相対場所に基づいて、前記識別された要素を仮想ウィジェットにグループ化することと、
    前記識別されたGUI要素のレコードを要素ライブラリに配置することと、によって、前記GUI内に含まれるGUI要素のライブラリを生成するように構成されているアプリケーションツールを更に備える、請求項1又は2に記載のユーザインターフェースシステム。
  4. 前記アプリケーションツールは、
    前記識別されたGUI要素のレコードをGUI要素の木状構造に配置することと、
    仮想ウィジェットに共にグループ化された識別されたGUI要素を、前記GUI要素の木状構造体内の単一の葉に折り畳むことと、
    前記GUI要素の、要素の木状構造に応答して探索命令を生成することと、を含むプロセスによって、前記識別されたGUI要素のレコードを、GUI要素ライブラリに配置するように構成されており、
    前記プロセッサは、前記探索命令を使用して、前記タッチスクリーンにおける前記タッチに対応する前記仮想ウィジェットを識別するように構成されている、請求項3に記載のユーザインターフェースシステム。
  5. 前記GUIの少なくとも1つの仮想ウィジェットは、少なくとも1つの仮想ボタン、仮想スライダ、仮想ノブ、仮想ダイヤル、又は他の仮想ユーザインターフェースを含む、複数のアクティブGUI要素の集合体を備える、請求項1〜4のいずれか一項に記載のユーザインターフェースシステム。
  6. 前記GUIの少なくとも1つの仮想ウィジェットは、仮想ボタン、仮想スライダ、仮想ノブ、仮想ダイヤル、又は他の仮想ユーザインターフェースを集合的に定義する複数の別個のアクティブGUI要素の集合体を備える、請求項1〜5のいずれか一項に記載のユーザインターフェースシステム。
  7. 前記ユーザインターフェースシステムは、ヘッドユニットを更に備え、
    前記プロセッサが、前記ヘッドユニットとは別個のタッチコントローラプロセッサ内に具現化されており、
    前記タッチコントローラプロセッサは、前記タッチスクリーンにおける前記タッチに対応する前記識別された仮想ウィジェットの位置又は状態を示す、ウィジェットメッセージを生成及び前記ヘッドユニットに送信するように構成されている、請求項1〜6のいずれか一項に記載のユーザインターフェースシステム。
  8. 前記タッチコントローラプロセッサによって前記ヘッドユニットに送信された前記ウィジェットメッセージは、タッチ関連位置、回転、タッチされた/非タッチ状態、又は前記仮想ウィジェット上の検出されたタッチの数のうちの少なくとも1つを示す、請求項7に記載のユーザインターフェースシステム。
  9. 前記タッチコントローラプロセッサは、検出されたタッチ場所、タッチ力、又は前記タッチスクリーン上の前記検出されたタッチの他の測定可能な態様の関数として、前記仮想ウィジェットのタッチ関連状態を識別するように構成されており、前記タッチコントローラプロセッサによって生成された前記ウィジェットメッセージが、前記仮想ウィジェットの前記識別されたタッチ関連状態を示す、請求項7又は8に記載のユーザインターフェースシステム。
  10. 前記タッチスクリーンは、複数の異なるGUIページを選択的に表示するように構成されており、各GUIページが、異なる一組の仮想ウィジェットを含む、請求項1〜9のいずれか一項に記載のユーザインターフェースシステム。
  11. 方法であって、
    1つ以上の仮想ウィジェットの配置を含むグラフィカルユーザインターフェース(GUI)を、タッチスクリーンにおいて、表示することであって、各仮想ウィジェットは、形状を有し、かつ前記GUIを介して表示されている1つ以上のユーザインターフェース要素を含み、
    前記1つ以上の仮想ウィジェットの前記配置が、構成可能であり、
    プロセッサによって、前記タッチスクリーンにおけるタッチを感知するステップと、
    前記プロセッサによって、前記タッチに対応する仮想ウィジェットを識別するステップと、
    前記プロセッサによって、(a)前記識別された仮想ウィジェットが表示されている前記タッチスクリーンの領域において触覚フィードバックを提供するようにアクチュエータを制御するステップ、又は(b)前記ユーザインターフェースシステムと関連付けられた電子デバイスを制御するステップ、のうちの少なくとも1つを含む、アクションを開始するステップと、を含む、方法。
  12. 前記プロセッサが、マイクロコントローラ内で具現化されている、請求項11に記載の方法。
  13. GUI定義を構文解析して、前記GUI内の複数のGUI要素を識別するステップと、
    識別されたGUI要素の入力を含むレコードを作成するステップと、
    前記識別されたGUI要素の前記相対場所に基づいて、前記識別された要素を仮想ウィジェットにグループ化するステップと、
    前記識別されたGUI要素のレコードを要素ライブラリに配置するステップと、によって、前記GUI内に含まれるGUI要素のライブラリを生成するステップを更に含む、請求項11又は12に記載の方法。
  14. 前記識別されたGUI要素のレコードをGUI要素ライブラリに配置するステップは、
    前記識別されたGUI要素のレコードをGUI要素の木状構造に配置するステップと、
    仮想ウィジェットに共にグループ化された識別されたGUI要素を、前記GUI要素の木状構造体内の単一の葉に折り畳むステップと、
    前記GUI要素の、要素の木状構造に応答して探索命令を生成するステップと、を含み、
    前記プロセッサが、前記探索命令を使用して、前記タッチスクリーンにおける前記タッチに対応する前記仮想ウィジェットを識別するように構成されている、請求項13に記載の方法。
  15. 前記GUIの少なくとも1つの仮想ウィジェットは、少なくとも1つの仮想ボタン、仮想スライダ、仮想ノブ、仮想ダイヤル、又は他の仮想ユーザインターフェースを含む、複数のアクティブGUI要素の集合体を備える、請求項11〜14のいずれか一項に記載の方法。
  16. 前記GUIの少なくとも1つの仮想ウィジェットは、仮想ボタン、仮想スライダ、仮想ノブ、仮想ダイヤル、又は他の仮想ユーザインターフェースを集合的に定義する、複数の別個のアクティブGUI要素の集合体を備える、請求項11〜15のいずれか一項に記載の方法。
  17. 前記プロセッサは、ヘッドユニットとは別個のタッチコントローラプロセッサ内に具現化されており、
    前記方法が、
    前記タッチコントローラプロセッサによって、前記タッチスクリーンにおける前記タッチに対応する前記識別された仮想ウィジェットの位置又は状態を示す、ウィジェットメッセージを生成するステップと、
    前記ウィジェットメッセージを前記タッチコントローラプロセッサから前記熱ユニットに送信することと、を含む、請求項11〜16のいずれか一項に記載の方法。
  18. 前記タッチコントローラプロセッサによって前記ヘッドユニットに送信される前記ウィジェットメッセージは、タッチ関連位置、回転、タッチされた/非タッチ状態、又は前記仮想ウィジェット上の検出されたタッチの数、のうちの少なくとも1つを示す、請求項17に記載の方法。
  19. 前記タッチコントローラプロセッサによって、検出されたタッチ場所、タッチ力、又は前記タッチスクリーン上の前記検出されたタッチの他の測定可能な態様の関数として、前記仮想ウィジェットのタッチ関連状態を識別するステップ、を含み、
    前記タッチコントローラプロセッサによって生成された前記ウィジェットメッセージは、前記仮想ウィジェットの前記識別されたタッチ関連状態を示す、請求項17又は18に記載の方法。
  20. 前記タッチスクリーンにおいて、複数の異なるGUIページを選択的に表示するステップを含み、各GUIページは、異なる一組の仮想ウィジェットを含む、請求項11〜19のいずれか一項に記載の方法。
  21. 製造物品であって、非一時的機械可読媒体を備え、前記媒体は、命令を含み、前記命令は、実行されるとき、請求項11〜20に記載の方法のいずれかを実行するように構成されている、製造物品。
JP2020523241A 2017-10-24 2018-10-23 構成可能な仮想ウィジェットを含むタッチ感応性ユーザインターフェース Active JP7181929B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201762576563P 2017-10-24 2017-10-24
US201762576383P 2017-10-24 2017-10-24
US62/576,383 2017-10-24
US62/576,563 2017-10-24
US16/165,136 US10866697B2 (en) 2017-10-24 2018-10-19 Touch-sensitive user-interface including configurable virtual widgets
US16/165,136 2018-10-19
PCT/US2018/057103 WO2019084002A1 (en) 2017-10-24 2018-10-23 TACTILE USER INTERFACE COMPRISING CONFIGURABLE VIRTUAL SOFTWARE GADGETS

Publications (3)

Publication Number Publication Date
JP2021500677A true JP2021500677A (ja) 2021-01-07
JP2021500677A5 JP2021500677A5 (ja) 2021-12-02
JP7181929B2 JP7181929B2 (ja) 2022-12-01

Family

ID=66169316

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020523241A Active JP7181929B2 (ja) 2017-10-24 2018-10-23 構成可能な仮想ウィジェットを含むタッチ感応性ユーザインターフェース
JP2020522695A Active JP7269924B2 (ja) 2017-10-24 2018-10-24 触覚フィードバック構造体及び対応する仮想ユーザインターフェース要素を含むタッチスクリーン

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020522695A Active JP7269924B2 (ja) 2017-10-24 2018-10-24 触覚フィードバック構造体及び対応する仮想ユーザインターフェース要素を含むタッチスクリーン

Country Status (7)

Country Link
US (2) US10866697B2 (ja)
JP (2) JP7181929B2 (ja)
KR (2) KR102556638B1 (ja)
CN (2) CN111052060B (ja)
DE (2) DE112018005206T5 (ja)
TW (2) TWI787372B (ja)
WO (2) WO2019084002A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9330544B2 (en) * 2012-11-20 2016-05-03 Immersion Corporation System and method for simulated physical interactions with haptic effects
DE102017214941A1 (de) 2017-08-25 2019-02-28 Dometic Sweden Ab Freizeitfahrzeug, Kühlvorrichtung, Steuerungssystem und Verfahren zur Steuerung der Kühlvorrichtung
USD936665S1 (en) * 2018-11-21 2021-11-23 Biosense Webster (Israel) Ltd. Portion of a computer screen with a graphical user interface
US11126341B2 (en) * 2019-02-21 2021-09-21 Htc Corporation Object manipulating method, host device and computer readable storage medium
USD919633S1 (en) * 2019-05-14 2021-05-18 Rasimo Systems LLC Display screen with graphics
TWI807372B (zh) * 2020-07-21 2023-07-01 美商酷比公司 虛擬化用戶介面設備
WO2022054472A1 (ja) * 2020-09-08 2022-03-17 アルプスアルパイン株式会社 入力装置
US11385777B2 (en) 2020-09-14 2022-07-12 UiPath, Inc. User interface (UI) mapper for robotic process automation
EP3971691A1 (en) * 2020-09-18 2022-03-23 Dometic Sweden AB A recreational vehicle user interface
CN112596612A (zh) * 2020-12-28 2021-04-02 北京小米移动软件有限公司 触感反馈生成方法、触感反馈生成装置及存储介质
US11662822B1 (en) * 2021-12-20 2023-05-30 Huawei Technologies Co., Ltd. Systems and methods for generating pseudo haptic feedback
CN114911383B (zh) * 2022-06-02 2024-10-11 亿咖通(湖北)技术有限公司 窗口显示方法和车载终端
TWI846465B (zh) * 2023-05-12 2024-06-21 久正光電股份有限公司 具有表面觸覺回饋系統之顯示裝置
CN117608424B (zh) * 2024-01-24 2024-04-12 江苏锦花电子股份有限公司 一种基于物联网的触摸式旋钮屏管控系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110099498A1 (en) * 2009-10-26 2011-04-28 Barkol Omer Graphical user interface hierarchy generation
JP2013528855A (ja) * 2010-04-23 2013-07-11 イマージョン コーポレイション 触覚効果を与えるシステム及び方法
JP2014102830A (ja) * 2012-11-20 2014-06-05 Immersion Corp 触覚効果によってシミュレートされる物理相互作用のためのシステム及び方法
JP2017058887A (ja) * 2015-09-15 2017-03-23 株式会社リコー 表示入力装置、画像形成装置及び電子機器と表示制御方法並びにプログラム

Family Cites Families (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004221757A (ja) * 2003-01-10 2004-08-05 Renesas Technology Corp 動き検出装置及び探索領域形状可変動き検出器
GB0313808D0 (en) * 2003-06-14 2003-07-23 Binstead Ronald P Improvements in touch technology
KR100958490B1 (ko) * 2004-07-30 2010-05-17 애플 인크. 사용자 인터페이스 방법, 미디어 항목들을 통해 스크롤하는방법, 디스플레이 및 터치 스크린을 갖는 사용자-조작되는전자 장치 상에서 수행되는 방법, 디스플레이 및 터치감지 입력 장치를 갖는 컴퓨팅 장치 상에서 수행되는 방법,컴퓨팅 시스템, 컴퓨팅 장치, 터치 감지 장치를 통해플로팅 컨트롤을 기동시키는 컴퓨터 구현 방법 및 컴퓨터구현 방법
US7657100B2 (en) * 2005-05-09 2010-02-02 Like.Com System and method for enabling image recognition and searching of images
US8578282B2 (en) * 2006-03-15 2013-11-05 Navisense Visual toolkit for a virtual user interface
CN104965621B (zh) * 2006-06-09 2018-06-12 苹果公司 触摸屏液晶显示器及其操作方法
US7791594B2 (en) * 2006-08-30 2010-09-07 Sony Ericsson Mobile Communications Ab Orientation based multiple mode mechanically vibrated touch screen display
US20090115734A1 (en) * 2007-11-02 2009-05-07 Sony Ericsson Mobile Communications Ab Perceivable feedback
AR064377A1 (es) * 2007-12-17 2009-04-01 Rovere Victor Manuel Suarez Dispositivo para sensar multiples areas de contacto contra objetos en forma simultanea
US8456438B2 (en) * 2008-01-04 2013-06-04 Tactus Technology, Inc. User interface system
US8922502B2 (en) * 2008-01-04 2014-12-30 Tactus Technology, Inc. User interface system
US8547339B2 (en) * 2008-01-04 2013-10-01 Tactus Technology, Inc. System and methods for raised touch screens
US8243038B2 (en) * 2009-07-03 2012-08-14 Tactus Technologies Method for adjusting the user interface of a device
US8928621B2 (en) * 2008-01-04 2015-01-06 Tactus Technology, Inc. User interface system and method
US8553005B2 (en) * 2008-01-04 2013-10-08 Tactus Technology, Inc. User interface system
US9557915B2 (en) * 2008-01-04 2017-01-31 Tactus Technology, Inc. Dynamic tactile interface
US8004501B2 (en) * 2008-01-21 2011-08-23 Sony Computer Entertainment America Llc Hand-held device with touchscreen and digital tactile pixels
US9829977B2 (en) * 2008-04-02 2017-11-28 Immersion Corporation Method and apparatus for providing multi-point haptic feedback texture systems
US8115745B2 (en) * 2008-06-19 2012-02-14 Tactile Displays, Llc Apparatus and method for interactive display with tactile feedback
US8659555B2 (en) * 2008-06-24 2014-02-25 Nokia Corporation Method and apparatus for executing a feature using a tactile cue
TW201005262A (en) * 2008-07-29 2010-02-01 Mitac Int Corp Navigation system
US20100060568A1 (en) * 2008-09-05 2010-03-11 Apple Inc. Curved surface input device with normalized capacitive sensing
US10289199B2 (en) * 2008-09-29 2019-05-14 Apple Inc. Haptic feedback system
JP2010086236A (ja) 2008-09-30 2010-04-15 Casio Computer Co Ltd タッチパネル
US20100088532A1 (en) * 2008-10-07 2010-04-08 Research In Motion Limited Method and handheld electronic device having a graphic user interface with efficient orientation sensor use
CA2680666A1 (en) * 2008-10-08 2010-04-08 Research In Motion Limited An electronic device having a state aware touchscreen
US20100088632A1 (en) * 2008-10-08 2010-04-08 Research In Motion Limited Method and handheld electronic device having dual mode touchscreen-based navigation
EP2175343A1 (en) * 2008-10-08 2010-04-14 Research in Motion Limited A method and handheld electronic device having a graphical user interface which arranges icons dynamically
US8760413B2 (en) * 2009-01-08 2014-06-24 Synaptics Incorporated Tactile surface
US8279184B2 (en) * 2009-01-27 2012-10-02 Research In Motion Limited Electronic device including a touchscreen and method
KR102051180B1 (ko) * 2009-03-12 2019-12-02 임머숀 코퍼레이션 텍스처 엔진에 대한 시스템 및 방법
EP2457142B1 (en) * 2009-07-22 2019-12-25 Immersion Corporation Interactive touch screen gaming metaphors with haptic feedback across platforms
US8421761B2 (en) * 2009-08-26 2013-04-16 General Electric Company Imaging multi-modality touch pad interface systems, methods, articles of manufacture, and apparatus
US8730199B2 (en) * 2009-09-04 2014-05-20 Atmel Corporation Capacitive control panel
JP5704428B2 (ja) * 2009-11-18 2015-04-22 株式会社リコー タッチパネル装置及びタッチパネル装置の制御方法
WO2011087817A1 (en) * 2009-12-21 2011-07-21 Tactus Technology User interface system
US8619035B2 (en) * 2010-02-10 2013-12-31 Tactus Technology, Inc. Method for assisting user input to a device
EP2846465B1 (en) * 2010-04-14 2017-11-29 Frederick Johannes Bruwer Pressure dependent capacitive sensing circuit switch construction
WO2011133605A1 (en) * 2010-04-19 2011-10-27 Tactus Technology Method of actuating a tactile interface layer
GB201011146D0 (en) * 2010-07-02 2010-08-18 Vodafone Ip Licensing Ltd Mobile computing device
US8963874B2 (en) * 2010-07-31 2015-02-24 Symbol Technologies, Inc. Touch screen rendering system and method of operation thereof
US8576171B2 (en) * 2010-08-13 2013-11-05 Immersion Corporation Systems and methods for providing haptic feedback to touch-sensitive input devices
US8311514B2 (en) * 2010-09-16 2012-11-13 Microsoft Corporation Prevention of accidental device activation
US20120105354A1 (en) * 2010-10-31 2012-05-03 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Tactile Feedback Cover Lens for a Capacitive Touchscreen System
US20120256862A1 (en) * 2011-04-11 2012-10-11 Kurt Wagner Touchscreen guide
US20120268386A1 (en) * 2011-04-19 2012-10-25 Karamath James Robert Touch-screen device including tactile feedback actuator
US20120284631A1 (en) * 2011-05-02 2012-11-08 German Lancioni Methods to adapt user interfaces and input controls
US8717151B2 (en) * 2011-05-13 2014-05-06 Qualcomm Incorporated Devices and methods for presenting information to a user on a tactile output surface of a mobile device
US9671954B1 (en) * 2011-07-11 2017-06-06 The Boeing Company Tactile feedback devices for configurable touchscreen interfaces
US20120274596A1 (en) * 2011-07-11 2012-11-01 Ludwig Lester F Use of organic light emitting diode (oled) displays as a high-resolution optical tactile sensor for high dimensional touchpad (hdtp) user interfaces
US9778813B2 (en) * 2011-08-09 2017-10-03 Blackberry Limited Manipulating screen layers in multi-layer applications
JP5948074B2 (ja) * 2012-02-13 2016-07-06 株式会社日立ハイテクノロジーズ 画像形成装置及び寸法測定装置
US8493354B1 (en) * 2012-08-23 2013-07-23 Immersion Corporation Interactivity model for shared feedback on mobile devices
US9471185B2 (en) * 2012-02-21 2016-10-18 Atmel Corporation Flexible touch sensor input device
CA2879180A1 (en) * 2012-03-07 2013-09-12 Snap Trends, Inc. Methods and systems of aggregating information of social networks based on geographical locations via a network
US9046972B2 (en) * 2012-03-23 2015-06-02 Nokia Technologies Oy Structure for a tactile display
WO2013173624A2 (en) 2012-05-16 2013-11-21 Tactus Technology, Inc. User interface and methods
JP5799908B2 (ja) * 2012-07-13 2015-10-28 株式会社デンソー タッチ式スイッチ装置
KR101916416B1 (ko) * 2012-07-30 2018-11-08 삼성전자주식회사 플렉서블 디스플레이 장치 및 그 디스플레이 방법
KR101427917B1 (ko) * 2012-08-27 2014-08-08 현대자동차 주식회사 변형 가능한 터치 스크린
US20140155690A1 (en) * 2012-12-05 2014-06-05 Ralph Clinton Morton Touchscreen Cunnilingus Training Simulator
US9323327B2 (en) * 2012-12-22 2016-04-26 Intel Corporation System and method for providing tactile feedback
KR102052153B1 (ko) * 2013-02-15 2019-12-17 삼성전자주식회사 보청기를 제어하는 휴대 단말 및 방법
KR102090964B1 (ko) * 2013-02-22 2020-03-19 삼성전자주식회사 터치 스크린에 디스플레이되는 아이콘을 제어하는 휴대 단말 및 방법
KR102154792B1 (ko) * 2013-02-28 2020-09-10 삼성전자주식회사 보호 케이스를 감지하는 방법 및 그 전자 장치
US9367938B2 (en) * 2013-02-28 2016-06-14 Nokia Technologies Oy Method and apparatus for automated real-time detection of overlapping painted markup elements
US9298324B1 (en) * 2013-03-11 2016-03-29 Amazon Technologies, Inc. Capacitive touch with tactile feedback
US9361074B2 (en) * 2013-03-15 2016-06-07 Keysight Technologies, Inc. Method for creating a user interface
EP2989525B1 (en) * 2013-04-26 2019-09-25 Immersion Corporation Simulation of tangible user interface interactions and gestures using array of haptic cells
US9470919B2 (en) * 2013-05-14 2016-10-18 Microsoft Technology Licensing, Llc Methods for producing a glass-based non planar digital display
KR20140137616A (ko) * 2013-05-23 2014-12-03 삼성전자주식회사 다자간 대화를 제어하는 휴대 단말 및 방법
US9182864B2 (en) * 2013-06-03 2015-11-10 Rajkumari Mohindra Pressure sensitive projected capacitive touch sensing
US10120447B2 (en) * 2013-06-24 2018-11-06 Northwestern University Haptic display with simultaneous sensing and actuation
KR20150006235A (ko) * 2013-07-08 2015-01-16 삼성전자주식회사 결합된 ui 구성 요소를 제공하는 휴대 장치 및 그 제어 방법
US9092291B1 (en) * 2013-07-11 2015-07-28 Sprint Communications Company L.P. Dynamic updating and renaming virtual pre-installation stub applications
CN103455590B (zh) * 2013-08-29 2017-05-31 百度在线网络技术(北京)有限公司 在触屏设备中进行检索的方法和装置
US9176635B2 (en) * 2013-10-14 2015-11-03 Parade Technologies, Ltd. Virtual buttons for a touch interface
US20150109214A1 (en) * 2013-10-22 2015-04-23 Weidong Shi Methods and Apparatuses of touch-fingerprinting Display
US20150185946A1 (en) * 2013-12-30 2015-07-02 Google Inc. Touch surface having capacitive and resistive sensors
CN106407954A (zh) * 2014-01-28 2017-02-15 深圳市汇顶科技股份有限公司 一种指纹识别模组、指纹识别装置及具有其的移动终端
US10380933B2 (en) * 2014-02-07 2019-08-13 Samsung Electronics Company, Ltd. Display with high transparency
US10565925B2 (en) * 2014-02-07 2020-02-18 Samsung Electronics Co., Ltd. Full color display with intrinsic transparency
US10453371B2 (en) * 2014-02-07 2019-10-22 Samsung Electronics Co., Ltd. Multi-layer display with color and contrast enhancement
US10416801B2 (en) * 2014-04-08 2019-09-17 Atmel Corporation Apparatus, controller, and device for touch sensor hand-configuration analysis based at least on a distribution of capacitance values
US10031582B2 (en) * 2014-06-05 2018-07-24 Immersion Corporation Systems and methods for induced electrostatic haptic effects
WO2016002675A1 (ja) 2014-06-30 2016-01-07 日本電気株式会社 スイッチモジュール、電子機器、および、電子機器の製造方法
US9696806B2 (en) * 2014-07-02 2017-07-04 Immersion Corporation Systems and methods for multi-output electrostatic haptic effects
US9710063B2 (en) * 2014-07-21 2017-07-18 Immersion Corporation Systems and methods for determining haptic effects for multi-touch input
CN104156133B (zh) * 2014-09-01 2017-04-19 深圳市华星光电技术有限公司 一种单层互容式触摸面板及电容式触摸屏
US20160328065A1 (en) * 2015-01-12 2016-11-10 Rockwell Collins, Inc. Touchscreen with Dynamic Control of Activation Force
KR20160088764A (ko) * 2015-01-16 2016-07-26 삼성전자주식회사 플렉서블 디바이스 및 그 동작 방법
JP6251214B2 (ja) 2015-05-14 2017-12-20 株式会社東芝 電子機器、方法及びプログラム
US10416799B2 (en) * 2015-06-03 2019-09-17 Microsoft Technology Licensing, Llc Force sensing and inadvertent input control of an input device
CN105117245A (zh) 2015-08-04 2015-12-02 小米科技有限责任公司 卸载应用程序的方法和装置
US9798413B2 (en) * 2015-08-27 2017-10-24 Hand Held Products, Inc. Interactive display
US9874965B2 (en) * 2015-09-11 2018-01-23 Apple Inc. Transparent strain sensors in an electronic device
KR20170046912A (ko) * 2015-10-22 2017-05-04 삼성전자주식회사 정보 제공 방법 및 이를 지원하는 전자 장치
US10386940B2 (en) * 2015-10-30 2019-08-20 Microsoft Technology Licensing, Llc Touch sensing of user input device
US9875625B2 (en) * 2015-12-18 2018-01-23 Immersion Corporation Systems and methods for multifunction haptic output devices
US20170192457A1 (en) * 2015-12-31 2017-07-06 AAC Technologies Pte. Ltd. Touch panle, haptics touch display using same, and manufacturing method for making same
US9898903B2 (en) * 2016-03-07 2018-02-20 Immersion Corporation Systems and methods for haptic surface elements
WO2017172635A1 (en) * 2016-03-31 2017-10-05 Osisoft, Llc Event based data collection, integration, and presentation
US9916032B2 (en) * 2016-05-18 2018-03-13 Honeywell International Inc. System and method of knob operation for touchscreen devices
US10488996B2 (en) * 2016-05-18 2019-11-26 Sensel, Inc. System for detecting and confirming a touch input
CN106200929B (zh) * 2016-06-30 2018-10-30 南京中电熊猫液晶显示科技有限公司 电容式触觉反馈显示装置、工作方法及其检测方法
US20180025200A1 (en) * 2016-07-20 2018-01-25 Ib Korea Ltd. Luminescent film with quantum dots
KR102579132B1 (ko) * 2016-08-02 2023-09-18 삼성전자주식회사 디스플레이를 구비한 전자 장치
KR102535056B1 (ko) * 2016-08-03 2023-05-22 삼성전자 주식회사 전자 장치 및 터치 인식 방법
KR102673041B1 (ko) * 2016-08-18 2024-06-07 한화비전 주식회사 이벤트 검색 시스템, 장치 및 방법
US10372214B1 (en) * 2016-09-07 2019-08-06 Apple Inc. Adaptable user-selectable input area in an electronic device
US10206044B2 (en) * 2016-09-08 2019-02-12 Microsoft Technology Licensing, Llc Display structure having a visual display and an audio output
KR102580327B1 (ko) * 2016-09-09 2023-09-19 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
US10216335B1 (en) * 2016-10-18 2019-02-26 Google Llc Reducing false sensing of touchscreen inputs
US10209804B2 (en) * 2017-01-10 2019-02-19 Rockwell Collins, Inc. Emissive Display over resistive touch sensor with force sensing
US20180275757A1 (en) * 2017-03-23 2018-09-27 Immersion Corporation Systems and methods for in-cell haptics
EP3385831A1 (en) * 2017-04-04 2018-10-10 Lg Electronics Inc. Mobile terminal
US11226604B2 (en) * 2018-11-19 2022-01-18 Johnson Controls Tyco IP Holdings LLP Building system with semantic modeling based configuration and deployment of building applications

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110099498A1 (en) * 2009-10-26 2011-04-28 Barkol Omer Graphical user interface hierarchy generation
JP2013528855A (ja) * 2010-04-23 2013-07-11 イマージョン コーポレイション 触覚効果を与えるシステム及び方法
JP2014102830A (ja) * 2012-11-20 2014-06-05 Immersion Corp 触覚効果によってシミュレートされる物理相互作用のためのシステム及び方法
JP2017058887A (ja) * 2015-09-15 2017-03-23 株式会社リコー 表示入力装置、画像形成装置及び電子機器と表示制御方法並びにプログラム

Also Published As

Publication number Publication date
KR20200071722A (ko) 2020-06-19
KR102556638B1 (ko) 2023-07-17
DE112018004686T5 (de) 2020-06-04
WO2019084082A1 (en) 2019-05-02
US10866697B2 (en) 2020-12-15
DE112018005206T5 (de) 2020-06-18
JP7269924B2 (ja) 2023-05-09
CN111164549B (zh) 2023-11-03
US10747404B2 (en) 2020-08-18
KR102627023B1 (ko) 2024-01-18
TWI816706B (zh) 2023-10-01
TWI787372B (zh) 2022-12-21
WO2019084002A1 (en) 2019-05-02
KR20200071721A (ko) 2020-06-19
US20190121500A1 (en) 2019-04-25
CN111164549A (zh) 2020-05-15
TW201923544A (zh) 2019-06-16
US20190121435A1 (en) 2019-04-25
CN111052060A (zh) 2020-04-21
TW201931076A (zh) 2019-08-01
CN111052060B (zh) 2023-11-24
JP2021500667A (ja) 2021-01-07
JP7181929B2 (ja) 2022-12-01

Similar Documents

Publication Publication Date Title
JP7181929B2 (ja) 構成可能な仮想ウィジェットを含むタッチ感応性ユーザインターフェース
JP7303119B2 (ja) ユーザインターフェース要素を識別するための技術及びその技術を使用するシステム及びデバイス
US20120249461A1 (en) Dedicated user interface controller for feedback responses
US20140160030A1 (en) Sensor system and method for mapping and creating gestures
WO2014089741A1 (en) Techniques and apparatus for managing touch interface
EP2818988A2 (en) Electronic device and touch sensing method thereof
KR101777961B1 (ko) 멀티 터치 제스처를 인식하는 방법 및 시스템
CN107102808B (zh) 桌面返回方法及系统
CN105278810A (zh) 一种收藏方法及电子设备
US11073946B2 (en) Dynamic exclusion zone for touchscreen physical controls

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211019

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221118

R150 Certificate of patent or registration of utility model

Ref document number: 7181929

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150