JP5649240B2 - タッチスクリーンユーザインターフェース上でコマンドを修正する方法 - Google Patents

タッチスクリーンユーザインターフェース上でコマンドを修正する方法 Download PDF

Info

Publication number
JP5649240B2
JP5649240B2 JP2012541081A JP2012541081A JP5649240B2 JP 5649240 B2 JP5649240 B2 JP 5649240B2 JP 2012541081 A JP2012541081 A JP 2012541081A JP 2012541081 A JP2012541081 A JP 2012541081A JP 5649240 B2 JP5649240 B2 JP 5649240B2
Authority
JP
Japan
Prior art keywords
command
detected
gesture
computing device
subsequent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012541081A
Other languages
English (en)
Other versions
JP2013512505A (ja
Inventor
サミュエル・ジェイ・ホロデツキー
ペル・オー・ニールセン
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2013512505A publication Critical patent/JP2013512505A/ja
Application granted granted Critical
Publication of JP5649240B2 publication Critical patent/JP5649240B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/786Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、タッチスクリーンユーザインターフェース上でコマンドを修正する方法に関する。
携帯用コンピューティングデバイス(PCD)は至る所に存在する。これらのデバイスは、携帯電話、ポータブルデジタルアシスタント(PDA)、携帯用ゲーム機、パームトップコンピュータ、および他の携帯用電子デバイスを含みうる。多数の携帯用コンピューティングデバイスは、その中でユーザがデバイスと対話し、コマンドを入力することができるタッチスクリーンユーザインターフェースを含む。タッチスクリーンユーザインターフェースを介する複数のコマンドの入力、または基本となるコマンドの変更は、難しく、長くかかって退屈であることがある。
したがって、必要とされているのは、タッチスクリーンユーザインターフェースを介して受信されたコマンドを修正する改良された方法である。
図において、同様の参照符号は、特に明記しない限り、様々な図面のすべてにわたって同様の部分を指す。
閉じられた位置におけるPCD(ポータブルコンピューティングデバイス)の第1の態様を示す前方平面図である。 開かれた位置におけるPCDの第1の態様を示す前方平面図である。 PCDの第2の態様を示すブロック図である。 PCDの第3の態様の断面図である。 PCDの第4の態様の断面図である。 PCDの第5の態様の断面図である。 PCDの第5の態様の別の断面図である。 コマンドを修正する方法の第1の態様を説明する流れ図である。 コマンドを修正する方法の第2の態様を説明する流れ図である。 コマンドを修正する方法の第3の態様を説明する流れ図である。 コマンドを修正する方法の第4の態様を説明する流れ図である。
「例示的」という語は、本明細書では、「例、実例、または例示の役割をする」を意味するように使用される。本明細書で「例示的」として説明されるいずれの態様も、必ずしも他の態様より好ましい、または有利であると解釈されるべきではない。
この説明において、「アプリケーション」という用語には、オブジェクトコード、スクリプト、バイトコード、マークアップ言語ファイル、およびパッチなどの実行可能なコンテンツを有するファイルが含まれることも可能である。さらに、本明細書で言及される「アプリケーション」には、開かれる必要がある可能性がある文書、またはアクセスされる必要がある他のデータファイルなどの、実行可能でない性質のファイルが含まれることも可能である。
「コンテンツ」という用語には、オブジェクトコード、スクリプト、バイトコード、マークアップ言語ファイル、およびパッチなどの実行可能なコンテンツを有するファイルが含まれることも可能である。さらに、本明細書で言及される「コンテンツ」には、開かれる必要がある可能性がある文書、またはアクセスされる必要がある他のデータファイルなどの、実行可能でない性質のファイルが含まれることも可能である。
この説明において使用される「構成要素」、「データベース」、「モジュール」、「システム」などの用語は、ハードウェア、ファームウェア、ハードウェアとソフトウェアの組合せ、ソフトウェア、または実行中のソフトウェアであるコンピュータ関連のエンティティを指すことを意図している。例えば、構成要素は、プロセッサ上で実行されているプロセス、プロセッサ、オブジェクト、実行可能ファイル、実行のスレッド、プログラム、および/またはコンピュータであることが可能であるが、以上には限定されない。例として、コンピューティングデバイス上で実行されているアプリケーションとそのコンピューティングデバイスがともに、構成要素であることが可能である。1つまたは複数の構成要素が、プロセス内、および/または実行のスレッド内に存在することが可能であり、さらに構成要素は、1つのコンピュータ上に局在化されること、および/または2つ以上のコンピュータの間に分散されることが可能である。さらに、これらの構成要素は、様々なデータ構造が格納されている様々なコンピュータ可読媒体から実行されることが可能である。これらの構成要素は、1つまたは複数のデータパケットを有する信号に従うなどして、ローカルプロセスおよび/または遠隔プロセスを介して通信することが可能である(例えば、1つの構成要素からのデータが、その信号によってローカルシステムまたは分散システムにおける別の構成要素と対話して、さらに/またはインターネットなどのネットワークを介して他のシステムと対話して)。
図1および図2を最初に参照すると、PCD(ポータブルコンピューティングデバイス)の第1の態様が示され、全体的に100で表されている。図示されるとおり、PCD100は、筐体102を含むことが可能である。筐体102は、上側筐体部分104と、下側筐体部分106とを含むことが可能である。図1は、上側筐体部分104がディスプレイ108を含む可能性があることを示す。或る特定の態様において、ディスプレイ108は、タッチスクリーンディスプレイであることが可能である。また、上側筐体部分104は、トラックボール入力デバイス110を含むことも可能である。さらに、図1に示されるとおり、上側筐体部分104は、電源オンボタン112と、電源オフボタン114とを含むことが可能である。図1に示されるとおり、PCD100の上側筐体部分104は、複数のインジケータライト116と、スピーカ118とを含むことが可能である。各インジケータライト116は、LED(発光ダイオード)であることが可能である。
或る特定の態様において、図2に示されるとおり、上側筐体部分104は、下側筐体部分106に対して動くことが可能である。具体的には、上側筐体部分104は、下側筐体部分106に対してスライド可能であり得る。図2に示されるとおり、下側筐体部分106は、マルチボタンキーボード120を含むことが可能である。或る特定の態様において、マルチボタンキーボード120は、標準のQWERTYキーボードであることが可能である。マルチボタンキーボード120は、上側筐体部分104が下側筐体部分106に対して動かされると、あらわになることが可能である。図2は、PCD100が、下側筐体部分106上にリセットボタン122を含む可能性があることをさらに示す。
図3を参照すると、携帯用コンピューティングデバイス(PCD)の第2の態様が示され、全体的に320で表されている。図示するように、PCD320は、ともに結合されるデジタル信号プロセッサ324およびアナログ信号プロセッサ326を含むオンチップのシステム322を含む。オンチップのシステム322は、3つ以上のプロセッサを含みうる。例えば、オンチップのシステム322は、すなわち図3とあわせて以下に記載するように、4つのコアプロセッサおよびARM11プロセッサを含みうる。
図3に示すように、ディスプレイコントローラ328およびタッチスクリーンコントローラ330はデジタル信号プロセッサ324に結合される。次に、オンチップのシステム322の外部のタッチスクリーンディスプレイ332はディスプレイコントローラ328およびタッチスクリーンコントローラ330に結合される。特定の態様で、タッチスクリーンコントローラ330、タッチスクリーンディスプレイ332、またはそれらの組合せは、1つまたは複数のコマンドジェスチャを検出する手段の役割を果たすことができる。
図3はさらに、例えばPAL(phase alternating line)エンコーダ、セカム(SECAM)エンコーダ、またはNTSC(national television system(s) committee)エンコーダなど、ビデオエンコーダ334が、デジタル信号プロセッサ324に結合されることを示す。さらに、ビデオ増幅器336は、ビデオエンコーダ334およびタッチスクリーンディスプレイ332に結合される。また、ビデオポート338は、ビデオ増幅器336に結合される。図3に示すように、ユニバーサルシリアルバス(USB)コントローラ340は、デジタル信号プロセッサ324に結合される。また、USBポート342は、USBコントローラ340に結合される。メモリ344および加入者同定モジュール(SIM)カード346はまた、デジタル信号プロセッサ324に結合されうる。さらに、図3に示すように、デジタルカメラ348は、デジタル信号プロセッサ324に結合されうる。例示的一態様で、デジタルカメラ348は、電荷結合素子(CCD)カメラまたは相補形金属酸化膜半導体(CMOS)カメラである。
さらに図3に示すように、ステレオ音声CODEC350は、アナログ信号プロセッサ326に結合されうる。さらに、オーディオ増幅器352が、ステレオオーディオCODEC350に結合されることが可能である。或る例示的な態様において、第1のステレオスピーカ354、および第2のステレオスピーカ356が、オーディオ増幅器352に結合される。図3は、マイクロフォン増幅器358が、ステレオオーディオCODEC350に結合されることも可能であることを示す。さらに、マイクロフォン360が、マイクロフォン増幅器358に結合されることが可能である。或る特定の態様において、FM(周波数変調)ラジオチューナ362が、ステレオオーディオCODEC350に結合されることが可能である。また、FMアンテナ364が、FMラジオチューナ362に結合される。さらに、ステレオヘッドフォン366が、ステレオオーディオCODEC350に結合されることが可能である。
図3はさらに、ラジオ周波数(RF)トランシーバ368がアナログ信号プロセッサ326に結合されうることを示す。RFスイッチ370は、RFトランシーバ368およびRFアンテナ372に結合されうる。図3に示すように、キーパッド374は、アナログ信号プロセッサ326に結合されうる。また、マイクロフォンをもつモノヘッドセット376は、アナログ信号プロセッサ326に結合されうる。さらに、振動器デバイス378は、アナログ信号プロセッサ326に結合されうる。また、図3は、電源380が、オンチップのシステム322に結合される可能性があることも示す。或る特定の態様において、電源380は、電力を要求するPCD320の様々な構成要素に電力を供給するDC(直流)電源である。さらに、或る特定の態様において、この電源は、充電可能なDCバッテリ、あるいはAC(交流)電源に接続されたAC/DC変圧器から導かれるDC電源である。
図3は、PCD320がコマンド管理モジュール382を含みうることを示す。コマンド管理モジュール382は独立型のコントローラでもよく、それはメモリ344内にあってもよい。
図3は、PCD320が、データネットワーク、例えば、ローカルエリアネットワーク、パーソナルエリアネットワーク、または他の任意のネットワークにアクセスするのに使用されうるネットワークカード388を含むことも可能であることをさらに示す。ネットワークカード388は、Bluetooth(登録商標)ネットワークカード、WiFiネットワークカード、PAN(パーソナルエリアネットワーク)カード、PeANUT(パーソナルエリアネットワーク超低電力技術)ネットワークカード、または当技術分野でよく知られている他の任意のネットワークカードであることが可能である。さらに、ネットワークカード388は、チップに組み込まれることが可能であり、すなわち、ネットワークカード388は、チップ内の完全なソリューションであってもよく、別個のネットワークカード388ではなくてもよい。
図3に示されるとおり、タッチスクリーンディスプレイ332、ビデオポート338、USBポート342、カメラ348、第1のステレオスピーカ354、第2のステレオスピーカ356、マイクロフォン360、FMアンテナ364、ステレオヘッドフォン366、RFスイッチ370、RFアンテナ372、キーパッド374、モノラルヘッドセット376、振動器378、および電源380は、オンチップのシステム322の外部にある。
或る特定の態様において、本明細書で説明される方法ステップの1つまたは複数が、コンピュータプログラム命令としてメモリ344の中に格納されることが可能である。これらの命令は、本明細書に記載の方法を実行するために、プロセッサ324、326によって実行されうる。さらに、プロセッサ324、326、メモリ344、コマンド管理モジュール382、ディスプレイコントローラ328、タッチスクリーンコントローラ330、またはそれらの組合せは、ディスプレイ/タッチスクリーン332に表示された仮想キーボードを制御するために、本明細書に記載の方法のステップのうちの1つまたは複数を実行する手段の役割を果たすことができる。
図4を参照すると、PCDの第3の態様が示され、全体的に400で表されている。図4は、横断面でPCDを示す。図示するように、PCD400は、筐体402を含みうる。特定の一態様で、図3とともに示される要素のうちの1つまたは複数が、内部筐体402内に配置されうる、または他の方法でインストールされうる。しかし、明確にするために、そこに接続された、プロセッサ404およびメモリ406のみが筐体402内に示される。
加えて、PCD400は、筐体402の外面に配置された感圧レイヤ408を含みうる。特定の一実施形態で、感圧レイヤ408は、筐体402上に置かれたまたは他の方法で配置された圧電材料を含みうる。感圧レイヤ408は、ユーザがPCD400上の任意の位置の近くでPCD400を圧迫する、または他の方法で押すときに検出することができる。さらに、PCD400のどこが押された、または圧迫されたかに応じて、1つまたは複数の基本コマンドが、本明細書に詳述するように、修正されうる。
図5は、PCDの別の態様を示し、全体的に500で表されている。図5は、横断面でPCD500を示す。図示するように、PCD500は筐体502を含みうる。特定の一態様で、図3とともに示される要素のうちの1つまたは複数が、内部筐体502内に、配置されうる、または他の方法でインストールされうる。しかし、明確にするために、そこに接続された、プロセッサ504およびメモリ506のみが、筐体502内に示される。
加えて、PCD500は、第1のジャイロスコープ508、第2のジャイロスコープ510、および、PCD内のプロセッサ504に接続された加速度計512を含みうる。ジャイロスコープ508、510および加速度計512は、直線運動および加速運動のときを検出するために使用されうる。このデータを使用し、「仮想ボタン」が検出されうる。換言すれば、ユーザは、PCD500の一面を押すことができ、ジャイロスコープ508、510および加速度計512はその圧迫を検出することができる。さらに、PCD500のどこが押されたかに応じて、1つまたは複数の基本コマンドが、本明細書に詳述するように修正されうる。
図6および図7は、第5のPCDを説明し、全体的に600で表されている。図6および図7は、横断面でPCD600を示す。図示するように、PCD600は、内部筐体602および外部筐体604を含みうる。特定の一態様で、図3とともに示される要素のうちの1つまたは複数が、内部筐体602内に、配置されうる、または他の方法でインストールされうる。しかし、明確にするために、そこに接続された、プロセッサ606およびメモリ608のみが、内部筐体602内に示される。
図6および図7は、上部圧力センサ610および下部圧力センサ612が内部筐体602および外部筐体604間に配置されうることを示す。さらに、左圧力センサ614および右圧力センサ616が、内部筐体602および外部筐体604の間に配置されうる。図示するように、前方圧力センサ618および後方圧力センサ620もまた、内部筐体602および外部筐体604の間に配置されうる。前方圧力センサ618はディスプレイ622の後ろに位置付けることができ、ディスプレイが、本明細書に記載のように前方圧力センサ618を起動するために、押されうる。特定の一態様で、センサ610、612、614、616、618、620のうちの1つまたは複数が、1つまたは複数のコマンドジェスチャを検出する手段の役割を果たすことができる。さらに、センサ610、612、614、616、618、620は、6軸センサアレイと考えることができる。
特定の一態様で、内部筐体602は、実質上固定でもよい。さらに、内部筐体602は、40ギガパスカルから50ギガパスカル(40.0〜50.0GPa)の範囲内の弾性係数をもつ材料から作られうる。例えば、内部筐体602は、AM-lite、AM-HP2、AZ91D、またはそれらの組合せなど、マグネシウム合金から作られうる。外部筐体604は、弾力性があってもよい。具体的には、外部筐体604は、2分の1ギガパスカルから4ギガパスカル(0.5〜6.0GPa)の範囲内の弾性係数をもつ材料から作られうる。例えば、外部筐体604は、高密度ポリエチレン(HDPE)、ポリテトラフルオロエチレン(PTFE)、ナイロン、ポリ(アクリロニトリル、ブタジエン、スチレン(ABS)、アクリル、またはそれらの組合せなどのポリマから作られうる。
内部筐体602は実質上固定であり、外部筐体604は弾力性があるため、ユーザが外部筐体604を圧迫するとき、圧力センサ610、612、614、616、618、620のうちの1つまたは複数が内部筐体604および外部筐体602の間で圧迫され、起動されうる。
ここで図8を参照すると、ユーザインターフェースコマンドを変更する方法が示され、全体的に800で表されている。ブロック802で始まり、デバイスの電源がオンにされるとき、以下のステップが実行されうる。ブロック804で、ユーザインターフェースが表示されうる。判定806で、コマンド管理モジュールは、初期コマンドジェスチャが検出されるかどうかを判定することができる。特定の一態様で、初期コマンドジェスチャはタッチスクリーンへのタッチでもよい。初期コマンドジェスチャが検出されない場合、方法800はブロック804に戻ることができ、本明細書に記載のとおり継続することができる。他方では、初期コマンドジェスチャが検出された場合、方法800は判定808に進むことができる。
判定808で、コマンド管理モジュールは、第1の後続のコマンドジェスチャが、10分の1秒、2分の1秒、1秒など、所定の期間内に検出されるかどうかを判定することができる。特定の一態様で、第1の後続のコマンドジェスチャは、ハードボタンを押すこと、別の指(または親指)によるタッチスクリーンへの追加のタッチ、圧力センサまたは感圧材料を起動するためのデバイス筐体の圧迫、6軸センサによって感知されるデバイス筐体へのタップ、ライトの有無、全地球測位システム(GPS)を使用して判定される位置、カメラのビューファインダ内のオブジェクトの有無などを含みうる。
第1の後続のコマンドジェスチャが検出されない場合、基本コマンドがブロック810で実行されうる。次に、方法800は判定812に移ることができ、デバイスの電源がオフにされるかどうかが判定されうる。デバイスの電源がオフにされない場合、方法800はブロック804に戻ることができ、方法800は本明細書に記載のとおり継続することができる。反対に、デバイスの電源がオフにされる場合、方法800は終了することができる。
判定808に戻って、第1の後続のコマンドジェスチャが所定の期間内に検出される場合、方法800はブロック815に移ることができる。ブロック815で、コマンド管理モジュールが、基本コマンドが修正されたという指示をブロードキャストすることができる。例えば、その指示は視覚的指示、可聴指示、またはそれらの組合せでもよい。視覚的指示は、修正されたコマンドの記号表現、修正されたコマンドの文章表現、修正されたコマンドの色表現、またはそれらの組合せでもよい。視覚的指示は、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときにさらに明るくなる、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに色を変える、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに色合いを変える、またはそれらの組合せのピクセルのクラスタでもよい。可聴指示は、ビープ、ディング、音声ストリング、またはそれらの組合せでもよい。可聴指示は、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに音が大きくなることができる。
ブロック815から、方法800は判定816に進むことができる。判定816で、コマンド管理モジュールは、第2の後続のコマンドジェスチャが、10分の1秒、2分の1秒、1秒など、所定の期間内に検出されるかどうかを判定することができる。特定の一態様で、第2の後続のコマンドジェスチャは、ハードボタンを押すこと、別の指(または親指)によるタッチスクリーンへの追加のタッチ、圧力センサまたは感圧材料を起動するためのデバイス筐体の圧迫、6軸センサによって感知されるデバイス筐体へのタップ、ライトの有無、全地球測位システム(GPS)を使用して判定される位置、カメラのビューファインダ内のオブジェクトの有無などを含みうる。
第2の後続のコマンドジェスチャが所定の期間内に検出されない場合、方法800はブロック818に移ることができ、第1の修正されたコマンドが実行されうる。方法800は次に判定812に進むことができ、本明細書に記載のとおり継続することができる。判定816に戻って、第2の後続のコマンドジェスチャが所定の期間内に検出された場合、方法800はブロック819に移ることができる。ブロック819で、コマンド管理モジュールは、基本コマンドがさらに修正されたという指示をブロードキャストすることができる。例えば、その指示は、視覚的指示、可聴指示、またはそれらの組合せでもよい。視覚的指示は、修正されたコマンドの記号表現、修正されたコマンドの文章表現、修正されたコマンドの色表現、またはそれらの組合せでもよい。視覚的指示は、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときにさらに明るくなる、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに色を変える、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに色合いを変える、またはそれらの組合せのピクセルのクラスタでもよい。可聴指示は、ビープ、ディング、音声ストリング、またはそれらの組合せでもよい。可聴指示は、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに音が大きくなることができる。
ブロック819から、方法800は判定820に進むことができる。判定820で、コマンド管理モジュールは、第3の後続のコマンドジェスチャが、10分の1秒、2分の1秒、1秒など、所定の期間内で検出されるかどうかを判定することができる。特定の一態様で、第3の後続のコマンドジェスチャは、ハードボタンを押すこと、別の指(または親指)によるタッチスクリーンへの追加のタッチ、圧力センサまたは感圧材料を起動するためのデバイス筐体の圧迫、6軸センサによって感知されるデバイス筐体へのタップ、ライトの有無、全地球測位システム(GPS)を使用して判定される位置、カメラのビューファインダ内のオブジェクトの有無などを含みうる。第3の後続のコマンドジェスチャが検出されない場合、第2の修正されたコマンドが、ブロック822で実行されうる。方法800は次に、判定812に進むことができ、本明細書に記載のとおり継続することができる。
判定820に戻って、第3の後続のコマンドジェスチャが検出された場合、方法800はブロック823に移ることができる。ブロック823で、コマンド管理モジュールは、基本コマンドが、再度、さらに修正されたという指示をブロードキャストすることができる。例えば、その指示は、視覚的指示、可聴指示、またはそれらの組合せでもよい。視覚的指示は、修正されたコマンドの記号表現、修正されたコマンドの文章表現、修正されたコマンドの色表現、またはそれらの組合せでもよい。視覚的指示は、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときにさらに明るくなる、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに色を変える、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに色合いを変える、またはそれらの組合せのピクセルのクラスタでもよい。可聴指示は、ビープ、ディング、音声ストリング、またはそれらの組合せでもよい。可聴指示は、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに音が大きくなることができる。
ブロック823から、方法800はブロック824に進むことができ、第3の修正されたコマンドが実行されうる。その後、方法800は次に判定812に進むことができ、本明細書に記載のとおり継続することができる。
図9を参照すると、ユーザインターフェースコマンドを変更する方法の別の態様が示され、全体的に900で表されている。ブロック902で開始して、デバイスの電源がオンにされるとき、以下のステップが実行されうる。ブロック904で、タッチスクリーンユーザインターフェースが表示されうる。判定906で、コマンド管理モジュールは、1つまたは複数のコマンドジェスチャが検出されるかどうかを判定することができる。この態様で、1つまたは複数のコマンドジェスチャは、1回または複数回のハードボタンを押すこと、1回または複数回のタッチスクリーンへのタッチ、圧力センサを起動するためのデバイス筐体の異なるエリアまたは感圧材料の様々な位置の1回または複数回の圧迫、6軸センサによって感知されるデバイス筐体への1回または複数回のタップ、ライトの有無、全地球測位システム(GPS)を使用して判定される位置、カメラのビューファインダ内のオブジェクトの有無あるいはそれらの組合せを含みうる。
1つまたは複数のコマンドジェスチャが検出されない場合、方法900はブロック904に戻ることができ、本明細書に記載のとおり継続することができる。反対に、1つまたは複数のコマンドジェスチャが検出された場合、方法900は判定908に進むことができ、コマンド管理モジュールは、1つの、2つの、またはN個のコマンドジェスチャが検出されるかどうかを判定することができる。
1つのコマンドジェスチャが検出された場合、方法はブロック909に進むことができ、コマンド指示がユーザにブロードキャストされうる。例えば、コマンド指示は、視覚的指示、可聴指示、またはそれらの組合せでもよい。視覚的指示は、修正されたコマンドの記号表現、修正されたコマンドの文章表現、修正されたコマンドの色表現、またはそれらの組合せでもよい。視覚的指示は、基本コマンドが選択されるときに照らす、基本コマンドが選択されるときに色を変える、基本コマンドが選択されるときに色合いを変える、またはそれらの組合せのピクセルのクラスタでもよい。可聴指示は、ビープ、ディング、音声ストリング、またはそれらの組合せでもよい。ブロック910に移って、基本コマンドが実行されうる。
判定908に戻って、2つのコマンドジェスチャが検出された場合、方法400はブロック911に移ることができ、そして、修正されたコマンド指示がユーザにブロードキャストされうる。修正されたコマンド指示は、視覚的指示、可聴指示、またはそれらの組合せでもよい。視覚的指示は、修正されたコマンドの記号表現、修正されたコマンドの文章表現、修正されたコマンドの色表現、またはそれらの組合せでもよい。視覚的指示は、基本コマンドが修正されるときに明るくなる、基本コマンドが修正されるときに色を変える、基本コマンドが修正されるときに色合いを変える、またはそれらの組合せのピクセルのクラスタでもよい。可聴指示は、ビープ、ディング、音声ストリング、またはそれらの組合せでもよい。可聴指示は、基本コマンドが修正されるときに音が大きくなる、基本コマンドが修正されるときに音色を変える、基本コマンドが修正されるときにピッチを変える、またはそれらの組合せでもよい。ブロック912に進んで、第1の修正されたコマンドが実行されうる。
判定908に戻って、N個のコマンドジェスチャが検出された場合、方法900はブロック913に進むことができ、修正されたコマンド指示はブロードキャストされうる。修正されたコマンド指示は、視覚的指示、可聴指示、またはそれらの組合せでもよい。視覚的指示は修正されたコマンドの記号表現、修正されたコマンドの文章表現、修正されたコマンドの色表現、またはそれらの組合せでもよい。視覚的指示は、基本コマンドが修正されるときに明るくなる、基本コマンドがさらに修正されるときに色を変える、基本コマンドがさらに修正されるときに色合いを変える、またはそれらの組合せのピクセルのクラスタでもよい。可聴指示は、ビープ、ディング、音声ストリング、またはそれらの組合せでもよい。可聴指示は、基本コマンドがさらに修正されるときに音が大きくなる、基本コマンドがさらに修正されるときに音色を変える、基本コマンドがさらに修正されるときにピッチを変える、またはそれらの組合せでもよい。ブロック914に進むと、第Mの修正されたコマンドが実行されうる。
ブロック910、ブロック912、またはブロック914から、方法900は判定916に進むことができ、デバイスの電源がオフにされるかどうかが判定されうる。デバイスの電源がオフにされない場合、方法900はブロック904に戻ることができ、方法900は本明細書に記載のとおり継続することができる。反対に、デバイスの電源がオフにされる場合、方法900は終了することができる。
図10を参照すると、ユーザインターフェースコマンドを変更する方法のさらに別の態様が示され、全体的に1000で表されている。ブロック1002で始まり、デバイスの電源がオンにされるとき、以下のステップが実行されうる。ブロック1004で、ユーザインターフェースが表示されうる。判定1006で、コマンド管理モジュールはタッチジェスチャが検出されるかどうかを判定することができる。特定の一態様で、タッチジェスチャは、指、親指、スタイラス、またはそれらの組合せでのタッチスクリーンへのタッチでもよい。タッチジェスチャが検出されない場合、方法1000はブロック1004に戻ることができ、本明細書に記載のとおり継続することができる。他方では、タッチジェスチャが検出された場合、方法1000は判定1008に進むことができる。
判定1008で、コマンド管理モジュールは、第1の圧力ジェスチャが検出されるかどうかを判定することができる。第1の圧力ジェスチャは、タッチジェスチャとほぼ同時、または、10分の1秒、2分の1秒、1秒など、所定の期間内にタッチジェスチャに続いてもよい。特定の一態様で、第1の圧力ジェスチャは、圧力センサまたは感圧材料を起動するためのデバイス筐体の圧迫、6軸センサによって感知されるデバイス筐体へのタップ、またはそれらの組合せを含みうる。
第1の圧力ジェスチャが検出されない場合、基本コマンドが、ブロック1010で実行されうる。次に、方法1000は判定1012に移ることができ、デバイスの電源がオフにされるかどうかが判定されうる。デバイスの電源がオフにされない場合、方法1000はブロック1004に戻ることができ、方法1000は本明細書に記載のとおり継続することができる。反対に、デバイスの電源がオフにされる場合、方法1000は終了することができる。
判定1008に戻って、第1の圧力ジェスチャが所定の期間内に検出された場合、方法1000はブロック1015に移ることができる。ブロック1015で、コマンド管理モジュールは、基本コマンドが修正されたという指示をブロードキャストすることができる。例えば、その指示は、視覚的指示、可聴指示、またはそれらの組合せでもよい。視覚的指示は、修正されたコマンドの記号表現、修正されたコマンドの文章表現、修正されたコマンドの色表現、またはそれらの組合せでもよい。視覚的指示は、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときにさらに明るくなる、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに色を変える、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに色合いを変える、またはそれらの組合せのピクセルのクラスタでもよい。可聴指示は、ビープ、ディング、音声ストリング、またはそれらの組合せでもよい。可聴指示は、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに音が大きくなることができる。
ブロック1015から、方法1000は判定1016に進むことができる。判定1016で、コマンド管理モジュールは、第2の圧力ジェスチャが検出されるかどうかを判定することができる。第2の圧力ジェスチャは、タッチジェスチャおよび第1の圧力ジェスチャとほぼ同時でも、あるいは10分の1秒、2分の1秒、1秒など、所定の期間内にタッチジェスチャおよび第1の圧力ジェスチャに続いてもよい。特定の一態様で、第2の圧力ジェスチャは、圧力センサまたは感圧材料を起動するためのデバイス筐体への圧迫、6軸センサによって感知されるデバイス筐体へのタップ、またはそれらの組合せでもよい。
第2の圧力ジェスチャが所定の期間内に検出されない場合、方法1000はブロック1018に移ることができ、第1の修正されたコマンドが実行されうる。次に方法1000は判定1012に進むことができ、本明細書に記載のとおり継続することができる。判定1016に戻って、第2の圧力ジェスチャが所定の期間内に検出された場合、方法1000はブロック1019に移ることができる。ブロック1019で、コマンド管理モジュールは、基本コマンドがさらに修正されたという指示をブロードキャストすることができる。例えば、その指示は、視覚的指示、可聴指示、またはそれらの組合せでもよい。視覚的指示は、修正されたコマンドの記号表現、修正されたコマンドの文章表現、修正されたコマンドの色表現、またはそれらの組合せでもよい。視覚的指示は、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときにさらに明るくなる、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに色を変える、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに色合いを変える、またはそれらの組合せのピクセルのクラスタでもよい。可聴指示は、ビープ、ディング、音声ストリング、またはそれらの組合せでもよい。可聴指示は、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに音が大きくなることができる。
ブロック1019から、方法1000は判定1020に進むことができる。判定1020で、コマンド管理モジュールは、第3の圧力ジェスチャが検出されるかどうかを判定することができる。第3の圧力ジェスチャは、タッチジェスチャ、第1の圧力ジェスチャ、第2の圧力ジェスチャ、またはそれらの組合せとほぼ同時でも、あるいは10分の1秒、2分の1秒、1秒など、所定の期間内にタッチジェスチャ、第1の圧力ジェスチャ、第2の圧力、またはそれらの組合せに続いてもよい。特定の一態様で、第3の圧力ジェスチャは、圧力センサまたは感圧材料を起動するためのデバイス筐体への圧迫、6軸センサによって感知されるデバイス筐体へのタップ、またはそれらの組合せを含みうる。
第3の圧力ジェスチャが検出されない場合、第2の修正されたコマンドが、ブロック1022で、実行されうる。方法1000は次に判定1012に進むことができ、本明細書に記載のとおり継続することができる。
判定1020に戻って、第3の圧力ジェスチャが検出された場合、方法1000はブロック1023に移ることができる。ブロック1023で、コマンド管理モジュールは、基本コマンドが、再度、さらに修正されたという指示をブロードキャストすることができる。例えば、その指示は、視覚的指示、可聴指示、またはそれらの組合せでもよい。視覚的指示は、修正されたコマンドの記号表現、修正されたコマンドの文章表現、修正されたコマンドの色表現、またはそれらの組合せでもよい。視覚的指示は、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときにさらに明るくなる、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに色を変える、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに色合いを変える、またはそれらの組合せのピクセルのクラスタでもよい。可聴指示は、ビープ、ディング、音声ストリング、またはそれらの組合せでもよい。可聴指示は、基本コマンドが修正された(または以下に記載のようにさらに修正された)ときに音が大きくなることができる。
ブロック1023から、方法1000はブロック1024に進むことができ、第3の修正されたコマンドが実行されうる。その後、方法1000は次に判定1012に進むことができ、本明細書に記載のとおり継続することができる。
図11は、ユーザインターフェースコマンドを変更する方法のさらに別の態様を説明し、全体的に1100で表されている。ブロック1102で開始して、デバイスの電源がオンにされるとき、以下のステップが実行されうる。ブロック1104で、タッチスクリーンユーザインターフェースが表示されうる。判定1106で、コマンド管理モジュールは、1つまたは複数の圧力ジェスチャが検出されるかどうかを判定することができる。この態様で、1つまたは複数の圧力ジェスチャは、圧力センサを起動するためのデバイス筐体の異なるエリアまたは感圧材料の様々な位置への1回または複数回の圧迫、6軸センサによって感知されるデバイス筐体への1回または複数回のタップ、あるいはそれらの組合せを含みうる。
1つまたは複数の圧力ジェスチャが検出されない場合、方法1100は判定1108に移ることができ、そして、コマンド管理モジュールは、タッチジェスチャが検出されるかどうかを判定することができる。そうでない場合、方法1100はブロック1104に戻ることができ、本明細書に記載のとおり継続することができる。そうでない場合、タッチジェスチャが検出された場合、方法1100はブロック1120に続くことができ、基本コマンドが実行されうる。次に、方法1100は判定1112に進むことができ、デバイスの電源がオフにされるかどうかが判定されうる。デバイスの電源がオフにされる場合、方法1100は終了することができる。デバイスの電源がオフにされない場合、方法1100はブロック1104に戻ることができ、本明細書に記載のとおり継続することができる。
判定1106に戻って、圧力ジェスチャが検出された場合、方法1100はブロック1114に移ることができ、そしてコマンド管理モジュールは、基本コマンドを修正することができる。検出された圧力ジェスチャの数に応じて、基本コマンドは、第1の修正されたコマンド、第2の修正されたコマンド、第3の修正されたコマンド、第Nの修正されたコマンドなどに修正されうる。
ブロック1114から、方法1100はブロック1116に移ることができ、そして、修正されたコマンド指示がブロードキャストされうる。例えば、そのコマンド指示は、視覚的指示、可聴指示、またはそれらの組合せでもよい。視覚的指示は、修正されたコマンドの記号表現、修正されたコマンドの文章表現、修正されたコマンドの色表現、またはそれらの組合せでもよい。その視覚的指示は、基本コマンドが選択されるときに照らす、基本コマンドが選択されるときに色を変える、基本コマンドが選択されるときに色合いを変える、またはそれらの組合せのピクセルのクラスタでもよい。可聴指示は、ビープ、ディング、音声ストリング、またはそれらの組合せでもよい。
判定1118に移って、タッチジェスチャが検出されるかどうかが判定されうる。検出されない場合、方法1100はブロック1104に戻ることができ、本明細書に記載のとおり継続することができる。特定の一態様で、方法1100がブロック1104に戻る前に、修正された基本コマンドが基本コマンドにリセットされうる。
判定1118に戻って、タッチジェスチャが検出された場合、方法1100はブロック1120に続くことができ、修正されたコマンドが実行されうる。その後、方法1100は判定1112に移ることができ、本明細書に記載のとおり継続することができる。
本明細書に記載の方法のステップは必ずしも記載される順番で実行される必要はないことを理解されたい。さらに、「その後」、「そのとき」、「次」、などの言葉は、ステップの順番を限定するものではない。これらの言葉は、方法のステップの説明を通して読者を案内するために単に使用される。
本明細書で開示される方法は、コマンドを修正するためのやり方を提供する。例えば、ユーザによるシングルタッチなどのコマンドジェスチャに応答して通常は実行されるコマンドは、2本の指、または1本の指および親指、がタッチスクリーンユーザインターフェースに触れているように、ユーザによる第2のタッチで修正されうる。シングルタッチはテキストフィールド内にカーソルを置くことができ、同じ場所にある2本の指はカット機能またはコピー機能を起動することができる。また、3本の指の同時のタッチは、ペーストコマンドを表しうる。
別の態様で、タッチスクリーンディスプレイに表示されたマップで単一の指を動かすことは、マップをパンさせることができる。2本の指でマップに触れることは、マップをズームさせることができる。この態様は、写真を見るおよび操作するためにも使用されうる。ホームスクリーンがウィジェットおよび/またはガジェットを含む場合、シングルタッチは、例えばカーソルを置くまたは項目を選択するためなど、ウィジェット内のコマンドのために使用されうる。さらに、2本の指がウィジェットを新しい位置に動かすために使用されうる。
別の態様で、メインメニュ内のアプリケーションが1つのインスタンスをアプリケーションスタック内で開かせる場合、2本の指のタッチは、現在のインスタンスを開くのではなくて、アプリケーションの第2のインスタンスを開くことができる。さらに、別の態様で、コンタクトアプリケーションにおいて、シングルタッチはリスト項目を選択することができ、2本の指のタッチは編集モードを開くことができ、そして、3本の指のタッチは選択された連絡先に電話をかけることができる。また、別の態様で、スケジューラアプリケーションにおいて、イベントへのシングルタッチはイベントを開くことができ、2本の指のタッチは、それを暫定的にする、それを職場外にする、そのイベントをキャンセルする、そのイベントを却下するなど、イベントの状況に作用することができる。別の態様で、多数の電子メールを含む電子メールアプリケーションで、シングルタッチは、見るための電子メール項目を選択することができ、2本の指のタッチは、複数の削除、移動など、マークモードを入力することができる。
特定の一態様で、初期コマンドジェスチャはタッチスクリーンへのタッチでもよい。後続のコマンドジェスチャはタッチスクリーンへの追加のタッチを含みうる。別の態様で、後続のコマンドジェスチャは、圧力ジェスチャ、すなわち6軸センサアレイ内での1つまたは複数のセンサの起動、を含みうる。別の態様で、初期コマンドジェスチャは、圧力ジェスチャを含みうる。後続のコマンドジェスチャは、1回または複数回のタッチスクリーンへのタッチを含みうる。後続のコマンドジェスチャはまた、1つまたは複数の圧力ジェスチャを含みうる。
1つまたは複数の例示的な態様において、説明される機能は、ハードウェアで、ソフトウェアで、ファームウェアで、または以上の任意の組合せで実施されることが可能である。ソフトウェアで実施される場合、それらの機能は、マシン可読媒体、すなわち、コンピュータ可読媒体上に格納される、またはそのようなマシン可読媒体、すなわち、コンピュータ可読媒体上の1つまたは複数の命令もしくはコードとして伝送されることが可能である。コンピュータ可読媒体には、1つの場所から別の場所にコンピュータプログラムを移すことを円滑にする任意の媒体を含め、コンピュータ記憶媒体と通信媒体の両方が含まれる。記憶媒体は、コンピュータによってアクセスされることが可能である任意の利用可能な媒体であることが可能である。例として、限定としてではなく、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD-ROMまたは他の光ディスクストレージ、磁気ディスクストレージまたは他の磁気ストレージデバイス、あるいは命令またはデータ構造の形態で所望されるプログラムコードを伝送する、または格納するのに使用されることが可能であり、さらにコンピュータによってアクセスされることが可能である他の任意の媒体を備えることが可能である。また、任意の接続が、コンピュータ可読媒体と適切に呼ばれる。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、より対線、DSL(デジタル加入者線)、あるいは赤外線、電波、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他の遠隔ソースから伝送される場合、その同軸ケーブル、光ファイバケーブル、より対線、DSL、あるいは赤外線、電波、およびマイクロ波などのワイヤレス技術が、媒体の定義に含められる。本明細書で使用されるディスク(Disk)およびディスク(Disc)には、CD(コンパクトディスク)、レーザディスク、光ディスク、DVD(デジタルバーサタイルディスク)、フロッピー(登録商標)ディスク、およびブルーレイディスクが含まれ、ただし、ディスク(Disk)は、通常、データを磁気的に再現するのに対して、ディスク(Disc)は、データを、レーザを使用して光学的に再現する。また、以上の媒体の組合せも、コンピュータ可読媒体の範囲に含められなければならない。
選択された態様が、図示され、詳細に説明されてきたが、添付の特許請求の範囲によって規定される、本発明の趣旨および範囲を逸脱することなく、様々な代替および変更が行われうることが理解されよう。
322 オンチップのシステム
324 デジタル信号プロセッサ
326 アナログ信号プロセッサ
328 ディスプレイコントローラ
330 タッチスクリーンコントローラ
332 タッチスクリーンディスプレイ
334 ビデオエンコーダ
336 ビデオ増幅器
338 ビデオポート
340 USBコントローラ
342 USBポート
344、406、506、608 メモリ
346 加入者同定モジュール(SIM)カード
348 デジタルカメラ
350 ステレオオーディオCODEC
352 オーディオ増幅器
354、356 ステレオスピーカ
358 マイクロフォン増幅器
360 マイクロフォン
362 ラジオチューナ
364 アンテナ
366 ステレオヘッドフォン
368 ラジオ周波数(RF)トランシーバ
370 スイッチ
372 アンテナ
374 キーパッド
376 モノラルヘッドセット
378 振動デバイス
380 電源
382 コマンド管理モジュール
388 ネットワークカード

Claims (48)

  1. 携帯用コンピューティングデバイスでコマンドを修正する方法であって、
    初期コマンドジェスチャを検出するステップと、
    第1の後続のコマンドジェスチャが検出されるかどうかを判定するステップであって、前記第1の後続のコマンドジェスチャが前記携帯用コンピューティングデバイスの筐体への圧迫入力であり、前記筐体が、タッチスクリーンユーザインタフェイス以外の前記筐体上の位置における前記圧迫入力を検出するよう構成されており、
    前記第1の後続のコマンドジェスチャが検出されないときに基本コマンドを実行するステップと、
    前記第1の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第1の修正を実行するステップと
    を備える、方法。
  2. 第2の後続のコマンドジェスチャが検出されるかどうかを判定するステップと、
    前記第2の後続のコマンドジェスチャが検出されないときに前記基本コマンドの前記第1の修正を実行するステップと、
    前記第2の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第2の修正を実行するステップと
    をさらに備える、請求項1に記載の方法。
  3. 第3の後続のコマンドジェスチャが検出されるかどうかを判定するステップと、
    前記第3の後続のコマンドジェスチャが検出されないときに前記基本コマンドの前記第2の修正を実行するステップと、
    前記第3の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第3の修正を実行するステップと
    をさらに備える、請求項2に記載の方法。
  4. 前記初期コマンドジェスチャを検出するステップが、前記タッチスクリーンユーザインタフェイスへの第1のタッチを検出するステップを備える、請求項1に記載の方法。
  5. 前記第2の後続のコマンドジェスチャを検出するステップが、前記タッチスクリーンユーザインタフェイスへの第2のタッチを検出するステップを備える、請求項2に記載の方法。
  6. 前記第3の後続のコマンドジェスチャを検出するステップが、前記タッチスクリーンユーザインタフェイスへの第3のタッチを検出するステップを備える、請求項3に記載の方法。
  7. 初期コマンドジェスチャを検出する手段と、
    第1の後続のコマンドジェスチャが検出されるかどうかを判定する手段であって、前記第1の後続のコマンドジェスチャが携帯用コンピューティングデバイスの筐体への圧迫入力であり、前記筐体が、タッチスクリーンユーザインタフェイス以外の前記筐体上の位置における前記圧迫入力を検出するよう構成されており、
    前記第1の後続のコマンドジェスチャが検出されないときに基本コマンドを実行する手段と、
    前記第1の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第1の修正を実行する手段と
    を備える、携帯用コンピューティングデバイス。
  8. 第2の後続のコマンドジェスチャが検出されるかどうかを判定する手段と、
    前記第2の後続のコマンドジェスチャが検出されないときに前記基本コマンドの前記第1の修正を実行する手段と、
    前記第2の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第2の修正を実行する手段と
    をさらに備える、請求項7に記載の携帯用コンピューティングデバイス。
  9. 第3の後続のコマンドジェスチャが検出されるかどうかを判定する手段と、
    前記第3の後続のコマンドジェスチャが検出されないときに前記基本コマンドの前記第2の修正を実行する手段と、
    前記第3の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第3の修正を実行する手段と
    をさらに備える、請求項8に記載の携帯用コンピューティングデバイス。
  10. 前記初期コマンドジェスチャを検出する前記手段が、前記タッチスクリーンユーザインタフェイスへの第1のタッチを検出する手段を備える、請求項7に記載の携帯用コンピューティングデバイス。
  11. 前記第2の後続のコマンドジェスチャを検出する前記手段が、前記タッチスクリーンユーザインタフェイスへの第2のタッチを検出する手段を備える、請求項8に記載の携帯用コンピューティングデバイス。
  12. 前記第3の後続のコマンドジェスチャを検出する前記手段が、前記タッチスクリーンユーザインタフェイスへの第3のタッチを検出する手段を備える、請求項9に記載の携帯用コンピューティングデバイス。
  13. 初期コマンドジェスチャを検出する、
    第1の後続のコマンドジェスチャが検出されるかどうかを判定し、前記第1の後続のコマンドジェスチャが携帯用コンピューティングデバイスの筐体への圧迫入力であり、前記筐体が、タッチスクリーンユーザインタフェイス以外の前記筐体上の位置における前記圧迫入力を検出するよう構成されており、
    前記第1の後続のコマンドジェスチャが検出されないときに基本コマンドを実行する、および
    前記第1の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第1の修正を実行する
    ように動作可能なプロセッサ
    を備える、携帯用コンピューティングデバイス。
  14. 前記プロセッサがさらに、
    第2の後続のコマンドジェスチャが検出されるかどうかを判定する、
    前記第2の後続のコマンドジェスチャが検出されないときに前記基本コマンドの前記第1の修正を実行する、および、
    前記第2の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第2の修正を実行する
    ように動作可能な、請求項13に記載の携帯用コンピューティングデバイス。
  15. 前記プロセッサがさらに、
    第3の後続のコマンドジェスチャが検出されるかどうかを判定する、
    前記第3の後続のコマンドジェスチャが検出されないときに前記基本コマンドの前記第2の修正を実行する、および、
    前記第3の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第3の修正を実行する
    ように動作可能な、請求項14に記載の携帯用コンピューティングデバイス。
  16. 前記プロセッサが、前記初期コマンドジェスチャを検出するための前記タッチスクリーンユーザインタフェイスへの第1のタッチを検出するように動作可能な、請求項13に記載の携帯用コンピューティングデバイス。
  17. 前記プロセッサが、前記第2の後続のコマンドジェスチャを検出するための前記タッチスクリーンユーザインタフェイスへの第2のタッチを検出するように動作可能な、請求項14に記載の携帯用コンピューティングデバイス。
  18. 前記プロセッサが、前記第3の後続のコマンドジェスチャを検出するための前記タッチスクリーンユーザインタフェイスへの第3のタッチを検出するように動作可能な、請求項15に記載の携帯用コンピューティングデバイス。
  19. 携帯用コンピューティングデバイスのプロセッサに処理を行わせるよう構成されたプロセッサ実行可能な命令を有するコンピュータ読み出し可能な媒体であって、前記プロセッサの前記処理が、
    初期コマンドジェスチャを検出するステップと、
    第1の後続のコマンドジェスチャが検出されるかどうかを判定するステップであって、前記第1の後続のコマンドジェスチャが前記携帯用コンピューティングデバイスの筐体への圧迫入力であり、前記筐体が、タッチスクリーンユーザインタフェイス以外の前記筐体上の位置における前記圧迫入力を検出するよう構成されており、
    前記第1の後続のコマンドジェスチャが検出されないときに基本コマンドを実行するステップと、
    前記第1の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第1の修正を実行するステップと
    を備える、前記コンピュータ読み出し可能な媒体。
  20. 前記携帯用コンピューティングデバイスの前記プロセッサに処理を行わせるよう構成された前記プロセッサ実行可能な命令を有する請求項19に記載のコンピュータ読み出し可能な媒体であって、前記プロセッサの前記処理が、
    第2の後続のコマンドジェスチャが検出されるかどうかを判定するステップと、
    前記第2の後続のコマンドジェスチャが検出されないときに前記基本コマンドの前記第1の修正を実行するステップと、
    前記第2の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第2の修正を実行するステップと
    をさらに備える、前記コンピュータ読み出し可能な媒体。
  21. 前記携帯用コンピューティングデバイスの前記プロセッサに処理を行わせるよう構成された前記プロセッサ実行可能な命令を有する請求項20に記載のコンピュータ読み出し可能な媒体であって、前記プロセッサの前記処理が、
    第3の後続のコマンドジェスチャが検出されるかどうかを判定するステップと、
    前記第3の後続のコマンドジェスチャが検出されないときに前記基本コマンドの前記第2の修正を実行するステップと、
    前記第3の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第3の修正を実行するステップと
    をさらに備える、前記コンピュータ読み出し可能な媒体。
  22. 前記携帯用コンピューティングデバイスの前記プロセッサに処理を行わせるよう構成された前記プロセッサ実行可能な命令を有する請求項19に記載のコンピュータ読み出し可能な媒体であって、前記プロセッサの前記処理が、
    前記初期コマンドジェスチャを検出するための前記タッチスクリーンユーザインタフェイスへの第1のタッチを検出するステップをさらに備える、前記コンピュータ読み出し可能な媒体。
  23. 前記携帯用コンピューティングデバイスの前記プロセッサに処理を行わせるよう構成された前記プロセッサ実行可能な命令を有する請求項20に記載のコンピュータ読み出し可能な媒体であって、前記プロセッサの前記処理が、
    前記第2の後続のコマンドジェスチャを検出するための前記タッチスクリーンユーザインタフェイスへの第2のタッチを検出するステップをさらに備える、前記コンピュータ読み出し可能な媒体。
  24. 前記携帯用コンピューティングデバイスの前記プロセッサに処理を行わせるよう構成された前記プロセッサ実行可能な命令を有する請求項21に記載のコンピュータ読み出し可能な媒体であって、前記プロセッサの前記処理が、
    前記第3の後続のコマンドジェスチャを検出するための前記タッチスクリーンユーザインタフェイスへの第3のタッチを検出するステップをさらに備える、前記コンピュータ読み出し可能な媒体。
  25. コマンドを修正する方法であって、
    1つまたは複数のコマンドジェスチャを検出するステップと、
    コマンドジェスチャの数を判定するステップと、
    単一のコマンドジェスチャが検出されるときに基本コマンドを実行するステップと、
    2つのコマンドジェスチャが検出されるときに前記基本コマンドの第1の修正を実行するステップであって、前記2つのコマンドジェスチャのうちの少なくとも1つが携帯用コンピューティングデバイスの筐体への圧迫入力であり、前記筐体が、タッチスクリーンユーザインタフェイス以外の前記筐体上の位置における前記圧迫入力を検出するよう構成されている、ステップと
    を備える、方法。
  26. N個のコマンドジェスチャが検出されるときに前記基本コマンドの第Mの修正を実行するステップ
    をさらに備える、請求項25に記載の方法。
  27. 前記単一のコマンドジェスチャが、前記タッチスクリーンユーザインタフェイスへのシングルタッチを備える、請求項26に記載の方法。
  28. 前記N個のコマンドジェスチャが前記タッチスクリーンユーザインタフェイスへの N-1回のタッチを備える、請求項27に記載の方法。
  29. 1つまたは複数のコマンドジェスチャを検出する手段と、
    前記コマンドジェスチャの数を判定する手段と、
    単一のコマンドジェスチャが検出されるときに基本コマンドを実行する手段と、
    2つのコマンドジェスチャが検出されるときに前記基本コマンドの第1の修正を実行する手段であって、前記2つのコマンドジェスチャのうちの少なくとも1つが携帯用コンピューティングデバイスの筐体への圧迫入力であり、前記筐体が、タッチスクリーンユーザインタフェイス以外の前記筐体上の位置における前記圧迫入力を検出するよう構成されている、手段と
    を備える、携帯用コンピューティングデバイス。
  30. N個のコマンドジェスチャが検出されるときに前記基本コマンドの第Mの修正を実行する手段
    をさらに備える、請求項29に記載の携帯用コンピューティングデバイス。
  31. 前記単一のコマンドジェスチャが、前記タッチスクリーンユーザインタフェイスへのシングルタッチを備える、請求項30に記載の携帯用コンピューティングデバイス。
  32. 前記N個のコマンドジェスチャが、前記タッチスクリーンユーザインタフェイスへのN-1回のタッチを備える、請求項31に記載の携帯用コンピューティングデバイス。
  33. 1つまたは複数のコマンドジェスチャを検出する、
    前記コマンドジェスチャの数を判定する、
    単一のコマンドジェスチャが検出されるときに基本コマンドを実行する、および、
    2つのコマンドジェスチャが検出されるときに前記基本コマンドの第1の修正を実行し、前記2つのコマンドジェスチャのうちの少なくとも1つが携帯用コンピューティングデバイスの筐体への圧迫入力であり、前記筐体が、タッチスクリーンユーザインタフェイス以外の前記筐体上の位置における前記圧迫入力を検出するよう構成されたものである、
    ように動作可能なプロセッサ
    を備える、携帯用コンピューティングデバイス。
  34. 請求項33に記載の携帯用コンピューティングデバイスであって、
    N個のコマンドジェスチャが検出されるときに前記基本コマンドの第Mの修正を実行するように前記プロセッサが動作可能である、前記携帯用コンピューティングデバイス。
  35. 前記単一のコマンドジェスチャが、前記タッチスクリーンユーザインタフェイスへのシングルタッチを備える、
    請求項34に記載の携帯用コンピューティングデバイス。
  36. 前記N個のコマンドジェスチャが、前記タッチスクリーンユーザインタフェイスへのN-1回のタッチを備える、
    請求項35に記載の携帯用コンピューティングデバイス。
  37. 携帯用コンピューティングデバイスのプロセッサに処理を行わせるよう構成されたプロセッサ実行可能な命令を有するコンピュータ読み出し可能な媒体であって、
    1つまたは複数のコマンドジェスチャを検出するステップと、
    コマンドジェスチャの数を判定するステップと、
    単一のコマンドジェスチャが検出されるときに基本コマンドを実行するステップと、
    2つのコマンドジェスチャが検出されるときに前記基本コマンドの第1の修正を実行するステップであって、前記2つのコマンドジェスチャのうちの少なくとも1つが前記携帯用コンピューティングデバイスの筐体への圧迫入力であり、前記筐体が、タッチスクリーンユーザインタフェイス以外の前記筐体上の位置における前記圧迫入力を検出するよう構成されたものであるステップと
    を備える、前記コンピュータ読み出し可能な媒体。
  38. 前記携帯用コンピューティングデバイスの前記プロセッサに処理を行わせるよう構成された前記プロセッサ実行可能な命令を有する請求項37に記載のコンピュータ読み出し可能な媒体であって、
    N個のコマンドジェスチャが検出されるときに前記基本コマンドの第Mの修正を実行するための少なくとも1つの命令
    をさらに備える、前記コンピュータ読み出し可能な媒体。
  39. 前記携帯用コンピューティングデバイスの前記プロセッサに処理を行わせるよう構成された前記プロセッサ実行可能な命令を有する請求項38に記載のコンピュータ読み出し可能な媒体であって、
    前記単一のコマンドジェスチャが、前記タッチスクリーンユーザインタフェイスへのシングルタッチを備える、前記コンピュータ読み出し可能な媒体。
  40. 前記携帯用コンピューティングデバイスの前記プロセッサに処理を行わせるよう構成された前記プロセッサ実行可能な命令を有する請求項39に記載のコンピュータ読み出し可能な媒体であって、
    前記N個のコマンドジェスチャが、前記タッチスクリーンユーザインタフェイスへのN-1回のタッチを備える、前記コンピュータ読み出し可能な媒体。
  41. 前記第1の後続のコマンドジェスチャが検出されたとき、前記基本コマンドが修正されたことの指示をブロードキャストするステップを更に備える、請求項1に記載の方法。
  42. 前記指示が可聴指示である、請求項41に記載の方法。
  43. 前記指示が視覚的指示である、請求項41に記載の方法。
  44. 前記指示が可聴指示と視覚的指示との組み合わせである、請求項41に記載の方法。
  45. 前記第1の後続のコマンドジェスチャが検出されたとき、アプリケーションが前記携帯用コンピューティングデバイス上のアプリケーションスタック内に開いた第1のインスタンスを有するか否かを判断するステップを更に備え、
    前記基本コマンドが前記第1のインスタンスを開くコマンドであり、
    前記第1の後続のコマンドジェスチャが検出されるときに前記基本コマンドの前記第1の修正を実行する前記ステップが、前記第1の後続のコマンドジェスチャが検出されるとき、かつ、前記アプリケーションが開いた前記第1のインスタンスを有するときに、前記アプリケーションの第2のインスタンスを開くステップを備える、
    請求項1に記載の方法。
  46. 前記基本コマンドがテキストフィールドにカーソルを置くコマンドであり、
    前記基本コマンドの前記第1の修正が、カット機能、コピー機能、及び、ペースト機能の起動を行うコマンドである、
    請求項1に記載の方法。
  47. 前記基本コマンドがスケジューラアプリケーションにおいてイベントを開くコマンドであり、
    前記基本コマンドの前記第1の修正が、イベントの状態を暫定的、キャンセル、及び却下のうちの1つに変更するコマンドである、
    請求項1に記載の方法。
  48. 前記基本コマンドがウィジェットに関するコマンドであり、
    前記基本コマンドの前記第1の修正が、前記ウィジェットをディスプレイ上の新しい位置へ移動するコマンドである、
    請求項1に記載の方法。
JP2012541081A 2009-11-24 2010-10-19 タッチスクリーンユーザインターフェース上でコマンドを修正する方法 Expired - Fee Related JP5649240B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/625,182 US20110126094A1 (en) 2009-11-24 2009-11-24 Method of modifying commands on a touch screen user interface
US12/625,182 2009-11-24
PCT/US2010/053159 WO2011066045A1 (en) 2009-11-24 2010-10-19 Method of modifying commands on a touch screen user interface

Publications (2)

Publication Number Publication Date
JP2013512505A JP2013512505A (ja) 2013-04-11
JP5649240B2 true JP5649240B2 (ja) 2015-01-07

Family

ID=43708690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012541081A Expired - Fee Related JP5649240B2 (ja) 2009-11-24 2010-10-19 タッチスクリーンユーザインターフェース上でコマンドを修正する方法

Country Status (6)

Country Link
US (1) US20110126094A1 (ja)
EP (1) EP2504749A1 (ja)
JP (1) JP5649240B2 (ja)
KR (1) KR101513785B1 (ja)
CN (1) CN102667701B (ja)
WO (1) WO2011066045A1 (ja)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
US8266314B2 (en) * 2009-12-16 2012-09-11 International Business Machines Corporation Automated audio or video subset network load reduction
US8239785B2 (en) * 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US20110191719A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Cut, Punch-Out, and Rip Gestures
US9519356B2 (en) * 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9274682B2 (en) * 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US8799827B2 (en) * 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US8539384B2 (en) 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
US9075522B2 (en) 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
US20110209058A1 (en) * 2010-02-25 2011-08-25 Microsoft Corporation Multi-screen hold and tap gesture
US20110209089A1 (en) * 2010-02-25 2011-08-25 Hinckley Kenneth P Multi-screen object-hold and page-change gesture
US8707174B2 (en) * 2010-02-25 2014-04-22 Microsoft Corporation Multi-screen hold and page-flip gesture
US8751970B2 (en) * 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US20110209101A1 (en) * 2010-02-25 2011-08-25 Hinckley Kenneth P Multi-screen pinch-to-pocket gesture
US8473870B2 (en) 2010-02-25 2013-06-25 Microsoft Corporation Multi-screen hold and drag gesture
US20110314427A1 (en) * 2010-06-18 2011-12-22 Samsung Electronics Co., Ltd. Personalization using custom gestures
US8462106B2 (en) * 2010-11-09 2013-06-11 Research In Motion Limited Image magnification based on display flexing
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
EP2487577A3 (en) * 2011-02-11 2017-10-11 BlackBerry Limited Presenting buttons for controlling an application
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US8638385B2 (en) 2011-06-05 2014-01-28 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
US9395881B2 (en) * 2011-07-12 2016-07-19 Salesforce.Com, Inc. Methods and systems for navigating display sequence maps
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US20130147850A1 (en) * 2011-12-08 2013-06-13 Motorola Solutions, Inc. Method and device for force sensing gesture recognition
US9372978B2 (en) * 2012-01-20 2016-06-21 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
EP2631747B1 (en) 2012-02-24 2016-03-30 BlackBerry Limited Method and apparatus for providing a user interface on a device that indicates content operators
US8539375B1 (en) 2012-02-24 2013-09-17 Blackberry Limited Method and apparatus for providing a user interface on a device enabling selection of operations to be performed in relation to content
EP2631762A1 (en) * 2012-02-24 2013-08-28 Research In Motion Limited Method and apparatus for providing an option to enable multiple selections
US9507513B2 (en) 2012-08-17 2016-11-29 Google Inc. Displaced double tap gesture
CN102880422A (zh) * 2012-09-27 2013-01-16 深圳Tcl新技术有限公司 触摸屏智能设备文字处理方法和装置
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
KR20140065075A (ko) * 2012-11-21 2014-05-29 삼성전자주식회사 메시지 기반의 대화기능 운용방법 및 이를 지원하는 단말장치
US9715282B2 (en) 2013-03-29 2017-07-25 Microsoft Technology Licensing, Llc Closing, starting, and restarting applications
US20140372903A1 (en) * 2013-06-14 2014-12-18 Microsoft Corporation Independent Hit Testing for Touchpad Manipulations and Double-Tap Zooming
US20150091841A1 (en) * 2013-09-30 2015-04-02 Kobo Incorporated Multi-part gesture for operating an electronic personal display
TWI594180B (zh) 2014-02-27 2017-08-01 萬國商業機器公司 在圖形使用者介面上利用動作輸入分割/合併檔案的方法與電腦系統
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
JP6484079B2 (ja) * 2014-03-24 2019-03-13 株式会社 ハイディープHiDeep Inc. 感性伝達方法及びそのための端末機
JP6761225B2 (ja) * 2014-12-26 2020-09-23 和俊 尾花 手持ち型情報処理装置
CN108351747A (zh) * 2015-09-30 2018-07-31 福西尔集团公司 检测用户输入的系统、设备和方法
KR20170058051A (ko) 2015-11-18 2017-05-26 삼성전자주식회사 휴대 장치 및 휴대 장치의 화면 제어방법
DE112018000770T5 (de) 2017-02-10 2019-11-14 Panasonic Intellectual Property Management Co., Ltd. Fahrzeugeingabevorrichtung
US11960615B2 (en) 2021-06-06 2024-04-16 Apple Inc. Methods and user interfaces for voice-based user profile management

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08286807A (ja) * 1995-04-18 1996-11-01 Canon Inc データ処理装置及びそのジェスチャ認識方法
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US6396523B1 (en) * 1999-07-29 2002-05-28 Interlink Electronics, Inc. Home entertainment device remote control
WO2001026090A1 (en) * 1999-10-07 2001-04-12 Interlink Electronics, Inc. Home entertainment device remote control
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US20060242607A1 (en) * 2003-06-13 2006-10-26 University Of Lancaster User interface
JP2005141542A (ja) * 2003-11-07 2005-06-02 Hitachi Ltd 非接触入力インターフェース装置
US7114554B2 (en) * 2003-12-01 2006-10-03 Honeywell International Inc. Controller interface with multiple day programming
JP4015133B2 (ja) * 2004-04-15 2007-11-28 三菱電機株式会社 端末装置
US8954852B2 (en) * 2006-02-03 2015-02-10 Sonic Solutions, Llc. Adaptive intervals in navigating content and/or media
KR100783552B1 (ko) * 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
KR101304461B1 (ko) * 2006-12-04 2013-09-04 삼성전자주식회사 제스처 기반 사용자 인터페이스 방법 및 장치
KR100801650B1 (ko) * 2007-02-13 2008-02-05 삼성전자주식회사 휴대 단말기의 대기 화면에서의 기능 실행 방법
US8405621B2 (en) * 2008-01-06 2013-03-26 Apple Inc. Variable rate media playback methods for electronic devices with touch interfaces
US20090254855A1 (en) * 2008-04-08 2009-10-08 Sony Ericsson Mobile Communications, Ab Communication terminals with superimposed user interface
KR101482120B1 (ko) * 2008-08-01 2015-01-21 엘지전자 주식회사 스케줄 관리가 가능한 휴대 단말기 및 그 제어방법
US8547244B2 (en) * 2008-12-22 2013-10-01 Palm, Inc. Enhanced visual feedback for touch-sensitive input device
US8412531B2 (en) * 2009-06-10 2013-04-02 Microsoft Corporation Touch anywhere to speak
US8654524B2 (en) * 2009-08-17 2014-02-18 Apple Inc. Housing as an I/O device

Also Published As

Publication number Publication date
CN102667701B (zh) 2016-06-29
WO2011066045A1 (en) 2011-06-03
EP2504749A1 (en) 2012-10-03
KR20120096047A (ko) 2012-08-29
KR101513785B1 (ko) 2015-04-20
JP2013512505A (ja) 2013-04-11
CN102667701A (zh) 2012-09-12
US20110126094A1 (en) 2011-05-26

Similar Documents

Publication Publication Date Title
JP5649240B2 (ja) タッチスクリーンユーザインターフェース上でコマンドを修正する方法
US11269575B2 (en) Devices, methods, and graphical user interfaces for wireless pairing with peripheral devices and displaying status information concerning the peripheral devices
US11755273B2 (en) User interfaces for audio media control
RU2605359C2 (ru) Способ управления касанием и портативный терминал, поддерживающий его
JP6270982B2 (ja) バックグラウンドタスク用の対話式入力
US9519419B2 (en) Skinnable touch device grip patterns
TWI644248B (zh) 用於回應用戶的輸入而提供反饋的方法和實現其的終端
US20150346961A1 (en) Method, apparatus and computer program product for providing a recommendation for an application
KR20150070282A (ko) 문서에서의 썸네일 및 문서 맵 기반 내비게이션
WO2014164061A1 (en) Semantic zoom-based navigation of displayed content
KR102216123B1 (ko) 타스크 스위칭 방법 및 이를 위한 디바이스
CN103529934A (zh) 用于处理多个输入的方法和装置
WO2020192299A1 (zh) 信息显示方法及终端设备
JP2014229302A (ja) 電子装置の機能の実行方法及びその電子装置
US20240012605A1 (en) Data Processing Method and Mobile Device
CN107168566B (zh) 操作模式控制方法、装置及终端电子设备
US20130215071A1 (en) Electronic device and method of controlling same
WO2021057301A1 (zh) 文件控制方法及电子设备
CN105009038A (zh) 具有触敏用户界面的电子装置以及相关操作方法
KR20140105340A (ko) 휴대 단말기의 멀티 태스킹 운용 방법 및 장치
US20170357388A1 (en) Device, Method, and Graphical User Interface for Managing Data Stored at a Storage Location
CN107168631B (zh) 应用程序关闭方法、装置及终端电子设备
CN110888571B (zh) 一种文件选中方法及电子设备
KR102197912B1 (ko) 제스처 인식에 따른 기능 실행 방법, 장치 및 기록매체
KR100871296B1 (ko) 단말기 인터페이스 최적화 방법 및 시스템

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141014

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141110

R150 Certificate of patent or registration of utility model

Ref document number: 5649240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees