JP5310389B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP5310389B2
JP5310389B2 JP2009197002A JP2009197002A JP5310389B2 JP 5310389 B2 JP5310389 B2 JP 5310389B2 JP 2009197002 A JP2009197002 A JP 2009197002A JP 2009197002 A JP2009197002 A JP 2009197002A JP 5310389 B2 JP5310389 B2 JP 5310389B2
Authority
JP
Japan
Prior art keywords
function
state
time
increase
pressing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009197002A
Other languages
English (en)
Other versions
JP2011048666A (ja
Inventor
哲男 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009197002A priority Critical patent/JP5310389B2/ja
Priority to EP10166787A priority patent/EP2290506B1/en
Priority to AT10166787T priority patent/ATE536583T1/de
Priority to US12/859,031 priority patent/US9507511B2/en
Priority to CN201010260389.5A priority patent/CN102004575B/zh
Publication of JP2011048666A publication Critical patent/JP2011048666A/ja
Application granted granted Critical
Publication of JP5310389B2 publication Critical patent/JP5310389B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Numerical Control (AREA)
  • Machine Tool Sensing Apparatuses (AREA)

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、携帯電話や携帯情報端末等の電子機器には、入力デバイスとしてタッチパネルが多く用いられるようになってきている。タッチパネルは、液晶ディスプレイや有機エレクトロルミネッセンスディスプレイ等のディスプレイデバイスに設置される。タッチパネルの種類としては、例えば、抵抗膜方式、静電容量方式、及び光学式のタッチパネルが知られている。いずれの方式においても、ユーザは、ディスプレイデバイスに表示された操作オブジェクトを直接タッチしたり、スライドさせたりすることにより、所望の操作を行うことができる。そのため、非常に直感的な操作体系が実現される。
タッチパネルに関連する技術として、例えば、下記の特許文献1には、タッチスクリーンにタッチしている時間、及びタッチしている領域に応じてホールドと呼ばれる状態への遷移を実現する技術が開示されている。同文献に記載のホールドとは、所定の入力処理を行うための特別な状態にすることである。同文献に記載の方法によると、所定の領域に所定時間以上タッチし続けた場合に上記のホールド状態への遷移が実行される。同文献に記載の方法のように、通常とは異なる状態を定義することにより、同じ操作に状態に応じた異なる機能を対応付けることができるようになる。
特開平11−305933号公報
しかしながら、上記文献に記載の方法によると、ユーザは、ホールド状態へと切り替えるために、特定の領域に所定時間以上タッチし続ける必要がある。つまり、状態遷移に時間がかかる。このように時間のかかる操作は、例えば、変換文字の確定処理のように、即座に応答が必要な機能に対応付けることはできない。また、連続して実行すべき複数の処理を実行する際に、上記のような時間のかかる状態切り替え操作を行うと、著しく作業効率が低下してしまう。このような理由から、操作に時間がかからず、比較的シンプルで多くの機能を対応付けることが可能な操作体系の実現が求められている。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、比較的シンプルな操作で多くの機能を実現することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、画面上を押圧する操作体の位置を検知する位置検知部と、前記操作体による押圧強度を検知する押圧強度検知部と、前記位置検知部により検知された位置の情報に基づいて前記操作体の移動を検知する移動検知部と、前記移動検知部により前記操作体の静止状態又は細動状態が検知され、かつ、前記押圧強度検知部により検知された押圧強度が増大した場合、当該押圧強度の増大に対応する所定の機能を提供する機能提供部と、を備える、情報処理装置が提供される。
また、上記の情報処理装置は、増大後の前記押圧強度が維持される時間を計測する時間計測部をさらに備え、前記機能提供部は、前記時間計測部により計測された時間の長短に応じて異なる前記所定の機能を提供するように構成されていてもよい。
また、上記の情報処理装置は、前記移動検知部により前記操作体の静止状態又は細動状態が検知され、かつ、前記押圧強度検知部により検知される押圧強度が零にならずに増減を繰り返した場合、当該増減の繰り返し回数をカウントする増減カウンタをさらに備え、前記機能提供部は、前記増減カウンタによりカウントされた前記増減の繰り返し回数に応じて異なる前記所定の機能を提供するように構成されていてもよい。
また、前記操作体の移動により文字列の選択が行われた場合、前記機能提供部は、前記時間計測部により計測された時間が短い場合に、前記操作体の移動中に選択された文字列を処理するための前記所定の機能を提供し、前記時間計測部により計測された時間が長い場合に、前記操作体の移動中に選択された文字列に対する処理操作をキャンセルするように構成されていてもよい。
前記機能提供部は、前記時間計測部により計測された時間が短い場合に、翻訳対象として指定された文字列を前記増減カウンタによりカウントされた前記増減の繰り返し回数に応じて異なる言語に翻訳する機能を提供し、前記時間計測部により計測された時間が長い場合に、前記翻訳対象として指定された文字列に対する翻訳操作をキャンセルするように構成されていてもよい。
また、前記機能提供部は、前記時間計測部により計測された時間が短い場合に、指定された文字列を検索対象とし、前記増減カウンタによりカウントされた前記増減の繰り返し回数に応じて異なる検索エンジンにより情報を検索する機能を提供し、前記時間計測部により計測された時間が長い場合に、前記指定された文字列を検索対象とする検索操作をキャンセルするように構成されていてもよい。
また、前記機能提供部は、前記時間計測部により計測された時間が短い場合に、拡大対象の画像を前記増減カウンタによりカウントされた前記増減の繰り返し回数に応じて異なる拡大率で拡大表示する機能を提供し、前記時間計測部により計測された時間が長い場合に、前記拡大対象の画像に対する拡大操作をキャンセルするように構成されていてもよい。
また、上記の情報処理装置は、前記画面の内部から光を射出する光源と、前記光源から光が射出された際に前記画面上を押圧する操作体により反射された光の強度を検知することが可能な光センサと、をさらに備え、前記押圧強度検知部は、前記光センサにより検知された光の強度に基づき、前記光源から射出された光を強く反射した前記操作体の面積を検出し、当該面積の大きさに基づいて前記押圧強度を検知するように構成されていてもよい。
また、上記の情報処理装置は、前記画面上に、押圧力を検知することが可能な押圧力センサをさらに備え、前記押圧強度検知部は、前記押圧力センサにより検知された押圧力の大きさに基づいて前記操作体による押圧強度を検知するように構成されていてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、画面上を押圧する操作体の位置を検知する位置検知ステップと、前記操作体による押圧強度を検知する押圧強度検知ステップと、前記位置検知ステップで検知された位置の情報に基づいて前記操作体の移動を検知する移動検知ステップと、前記移動検知ステップで前記操作体の静止状態又は細動状態が検知され、かつ、前記押圧強度検知ステップで検知される押圧強度が増大した場合、当該押圧強度の増大に対応する所定の機能を提供する機能提供ステップと、を含む、情報処理方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、画面上を押圧する操作体の位置を検知する位置検知機能と、前記操作体による押圧強度を検知する押圧強度検知機能と、前記位置検知機能により検知された位置の情報に基づいて前記操作体の移動を検知する移動検知機能と、前記移動検知機能により前記操作体の静止状態又は細動状態が検知され、かつ、前記押圧強度検知機能により検知された押圧強度が増大した場合、当該押圧強度の増大に対応する所定の機能を提供する機能提供機能と、をコンピュータに実現させるためのプログラムが提供される。
また、上記課題を解決するために、本発明の別の観点によれば、上記のプログラムが記録された、コンピュータにより読み取り可能な記録媒体が提供される。
以上説明したように本発明によれば、比較的シンプルな操作で多くの機能を実現することが可能になる。
本発明の第1実施形態に係る情報処理装置の外観を示す説明図である。 本実施形態に係る情報処理装置の機能構成例を示す説明図である。 本実施形態に係る操作状態の状態遷移を示す説明図である。 本実施形態に係る入力パターン解析部の一部動作を示す説明図である。 本実施形態に係る入力パターン解析部の一部動作を示す説明図である。 本実施形態に係る入力パターン解析部の一部動作を示す説明図である。 本実施形態に係る情報処理装置による入力パターンの判定処理フローを示す説明図である。 本実施形態に係る情報処理方法の一例(文字列処理への応用)を示す説明図である。 本実施形態に係る情報処理方法の一例(翻訳アプリケーションへの応用)を示す説明図である。 本実施形態に係る情報処理方法の一例(検索アプリケーションへの応用)を示す説明図である。 本実施形態に係る情報処理方法の一例(地図アプリケーションへの応用)を示す説明図である。 本発明の第2実施形態に係る情報処理装置の機能構成例を示す説明図である。 本実施形態に係る情報処理装置が有する陰影画像面積計測部の一部動作を示す説明図である。 本発明の各実施形態に係る情報処理装置のハードウェア構成例を示す説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[説明の流れについて]
ここで、以下に記載する本発明の実施形態に関する説明の流れについて簡単に述べる。
まず、図1を参照しながら、本発明の第1実施形態に係る情報処理装置100の外観について説明する。次いで、図2を参照しながら、本実施形態に係る情報処理装置100の機能構成について説明する。次いで、図3を参照しながら、本実施形態に係る操作状態の状態遷移について説明する。次いで、図4A、図4B、図4Cを参照しながら、本実施形態に係る入力パターンの検知方法について説明する。次いで、図5を参照しながら、本実施形態に係る情報処理方法による入力パターンの判定処理フローについて説明する。
次いで、図6を参照しながら、本実施形態に係る情報処理方法の具体例として、文字列処理アプリケーションへの応用について説明する。次いで、図7Aを参照しながら、本実施形態に係る情報処理方法の具体例として、翻訳アプリケーションへの応用について説明する。次いで、図7Bを参照しながら、本実施形態に係る情報処理方法の具体例として、検索アプリケーションへの応用について説明する。次いで、図7Cを参照しながら、本実施形態に係る情報処理方法の具体例として、地図アプリケーションへの応用について説明する。
次いで、図8を参照しながら、本発明の第2実施形態に係る情報処理装置200の機能構成についえ説明する。次いで、図9を参照しながら、本実施形態に係る情報処理装置200が有する陰影画像面積計測部232の一部動作について説明する。次いで、図10を参照しながら、本発明の第1及び第2実施形態に係る情報処理装置100、200のハードウェア構成例について説明する。最後に、同実施形態の技術的思想について纏め、当該技術的思想から得られる作用効果について簡単に説明する。
(説明項目)
1:第1実施形態
1−1:情報処理装置100の構成
1−1−1:外観
1−1−2:機能構成
1−1−3:入力パターンの判定方法
1−1−4:文字列処理アプリケーションへの応用
1−1−5:翻訳アプリケーションへの応用
1−1−6:検索アプリケーションへの応用
1−1−7:地図アプリケーションへの応用
2:第2実施形態
2−1:情報処理装置200の構成
3:ハードウェア構成例
4:まとめ
<1:第1実施形態>
本発明の第1実施形態について説明する。本実施形態は、押圧強度を検知可能なタッチパネルを用いて複数の操作体(例えば、指やスタイラス等)による利便性の高い操作体系を実現するものである。なお、本実施形態においては、押圧強度を検知可能なタッチパネルとして、操作体の押圧力を検知可能な感圧型のタッチパネルを想定する。また、操作体がユーザの指であるものとして説明する。もちろん、本実施形態の技術を適用可能な操作体の種類はこれに限定されない。
[1−1:情報処理装置100の構成]
以下、本実施形態に係る情報処理装置100の構成について説明する。なお、情報処理装置100の機能は、例えば、PC(Personal Computer)、携帯電話、携帯情報端末、カーナビゲーションシステム、テレビジョン受像機、ディスプレイデバイス、携帯型オーディオデバイス、携帯型ゲーム機等を用いて実現可能である。但し、以下では携帯情報端末を想定して説明を行うことにする。
(1−1−1:外観)
まず、図1を参照しながら、本実施形態に係る情報処理装置100の外観、及び本実施形態に係る技術の概要について説明する。図1は、本実施形態に係る情報処理装置100の外観を示す説明図である。
図1に示すように、情報処理装置100は、タッチパネル102を有する。但し、このタッチパネル102は、ユーザが指でタッチした位置(以下、タッチ位置)及びタッチした際に得られる押圧力の強さ(以下、押圧強度)を検知することができる。そのため、情報処理装置100は、タッチ位置及び押圧強度の情報をユーザによる入力情報として利用することができる。本実施形態に係る技術は、これらの情報を利用して、より利便性の高い操作体系を実現することを目指している。
ここでは、具体的に、ソフトウェアキーボードKEY(図1を参照)を利用して文字入力する際の操作について考えてみよう。ソフトウェアキーボードKEYとは、情報処理装置100の筐体に物理的に設けられたキーボードではなく、物理的なキーボードを模してソフトウェアにより画面上に表示されたキーボードである。但し、情報処理装置100にはタッチパネル102が搭載されているため、指でソフトウェアキーボードKEYの文字キーをタッチすると、どの文字キーがタッチされたのかが情報処理装置100に伝達される。そのため、物理的なキーボードと同じ機能を実現することができる。
但し、ソフトウェアキーボードKEYの場合、物理的なキーボードとは異なり、キーをタッチしてもタッチした部分が押し込まれるようなことはない。また、物理的なキーボードのキーを押し込むとキーから反発力を受けるが、ソフトウェアキーボードKEYの場合にはタッチした部分で指に反発力を感じることはない。そのため、ソフトウェアキーボードKEYによる入力の際、隣り合うキーを誤ってタッチする機会が増えてしまう。
また、隣り合うキーを誤ってタッチしてしまったり、同時にタッチしてしまっても、誤った文字が実行画面APPに表示されるまでユーザが誤りに気づくことは少ない。こうした理由から、ソフトウェアキーボードKEYによる文字入力は、物理的なキーボードによる文字入力よりもキー操作に誤りが発生しやすい傾向にある。キー操作を誤ると、ユーザは入力文字の修正を行うことになる。誤って入力された文字の消去には、例えば、バックスペースキー(BS)等が用いられる。
ユーザは、バックスペースキーをタッチして誤った文字を消去し、再び正しい文字キーをタッチして文字入力を行う。このとき、バックスペースキーをタッチする際にユーザが再びキー操作を誤る可能性もある。つまり、キー操作の機会が増えると、キー操作の誤りが連鎖的に生じる可能性を増加させてしまう。このような誤操作の機会を減らすには、指がタッチする回数を減らせばよい。また、指がタッチする回数を減らすことができれば、その分だけ操作工程が減ることになり、効率的に入力操作を行うことが可能になる。
ここでは文字の修正を例に挙げたが、これ以外の操作においても、ソフトウェアキーボードKEYを用いることでキー操作の誤りが生じやすくなる事例が多々ある。例えば、ドラッグ操作により選択した文字列を削除する際のキー操作が一例として挙げられる。この例では文字列が削除されるまで選択文字列の状態が正しく維持されていることが重要である。しかし、文字列を選択した後、一旦指を離す瞬間に指の位置がぶれてしまい、選択範囲が変わってしまうことがある。
このような誤操作の機会を減らすには、指が離れる機会を減らせばよい。指が離れる機会を減らすことができれば、タッチする回数も減らすことができるため、誤操作の機会を大きく減らすことが可能になる。もちろん、選択文字列の削除に限らず、例えば、選択文字列のコピーやカット、選択文字列の翻訳、選択文字列をキーワードとする検索等の操作においても同様のことが言える。また、文字列の選択に限らず、例えば、画像の一部領域を選択してコピー、カット、拡大、縮小等を行う操作についても同様のことが言える。
こうした事情に鑑み、本件発明者は、押圧強度の変化パターンを利用し、タッチした指をタッチパネル102から離さずに所定の操作が行えるような仕組みを考案した。この仕組みを用いることにより、指をタッチパネル102から離さずに多くの操作を実行できるようになる。そのため、これまではタッチを繰り返して実行していた操作が指を離さずに実行できるようになり、タッチ回数が減り、操作効率が向上する。さらに、指を離す機会が減るため、情報処理装置100の筐体を安定して把持することができるようになる。
以上、情報処理装置100の外観、及び本実施形態に係る技術の概要について説明した。以下、本実施形態に係る技術の詳細について説明する。
(1−1−2:機能構成)
次に、図2を参照しながら、本実施形態に係る情報処理装置100の機能構成について説明する。図2は、本実施形態に係る情報処理装置100の機能構成例を示す説明図である。なお、図2に例示した情報処理装置100が有する機能は、図11に例示したハードウェア構成により実現することができる。
図2に示すように、情報処理装置100は、主に、タッチパネル102と、入力パターン解析部104と、コマンド実行部106と、記憶部108と、表示制御部110と、通信部112とにより構成される。但し、タッチパネル102は、表示部132と、タッチ位置検知部134と、押圧力検知部136とを有する。
表示部132は、例えば、LCD(Liquid Crystal Display)、ELD(Electro−Luminescence Display)、PDP(Plasma Display Panel)等のディスプレイデバイスである。また、タッチ位置検知部134は、タッチ位置を検知する手段である。そして、押圧力検知部136は、タッチ位置における押圧力の強さ(押圧強度)を検知する手段である。押圧力検知部136の機能は、例えば、圧力測定フィルムや面圧測定シート等により実現される。
まず、タッチパネル102がタッチされると、タッチ位置検知部134によりタッチ位置が検知される。また、検知されたタッチ位置における押圧強度が押圧力検知部136により検知される。タッチ位置検知部134により検知されたタッチ位置の情報は、コマンド実行部106、及び入力パターン解析部104に入力される。また、押圧力検知部136により検知された押圧力の情報は、入力パターン解析部104に入力される。タッチ位置及び押圧強度の情報が入力されると、入力パターン解析部104は、入力されたタッチ位置及び押圧強度の情報を解析し、タッチしている指の移動状態、及び押圧強度の変化パターンを検出する。
図3に示すように、タッチパネル102にタッチしている指の状態は、「X:指が動いている状態(以下、移動状態X)」と「Y:指が一定の範囲内に静止した状態(以下、静止状態Y)」とに分けることができる。移動状態Xと静止状態Yとは、タッチ位置検知部134により検知されたタッチ位置の情報により判別することができる。また、指の状態は、押圧強度の違いに応じて「P:強く押圧している状態(以下、押し込み状態P)」と「Q:弱く押圧している状態(以下、タッチ状態Q)」とに分けることができる。押し込み状態Pとタッチ状態Qとは、押圧力検知部136により検知された押圧強度の情報により判別することができる。
そこで、入力パターン解析部104は、タッチ位置の情報を解析し、タッチしている指が移動状態Xにあるか、静止状態Yにあるかを判別する。静止状態Yにある場合、入力パターン解析部104は、押圧強度の情報を解析し、タッチしている指が押し込み状態Pにあるか、タッチ状態Qにあるか、押し込み状態Pとタッチ状態Qとを繰り返しているかを判別する。押し込み状態Pにある場合、入力パターン解析部104は、押し込み状態Pが維持されている時間を計測する。また、押し込み状態Pとタッチ状態Qとが繰り返されている場合、入力パターン解析部104は、その繰り返し回数(以下、押し込み回数)をカウントする。
押し込み回数が所定回数に達した場合(図3の状態A)、入力パターン解析部104は、所定回数の押し込みがあった旨をコマンド実行部106に通知する。また、押し込み状態Pが所定時間維持された場合(図3の状態B)、入力パターン解析部104は、所定時間の押し込みがあった旨をコマンド実行部106に通知する。なお、所定回数及び所定時間は、予めコマンドに対応付けて登録されている。そして、その登録された所定回数及び所定時間の情報(以下、登録情報)は、記憶部108に記録されている。そのため、入力パターン解析部104は、記憶部108から、適宜、所定回数又は所定時間の情報を読み出して参照する。
入力パターン解析部104から押し込み回数が通知されると、コマンド実行部106は、記憶部108から読み出した登録情報を参照し、通知された押し込み回数に対応するコマンドを実行する。このとき、コマンド実行部106には、タッチ位置検知部134からタッチ位置の情報が入力されている。例えば、文字列の選択操作が行われ、その後に削除操作に対応する2回の押し込み操作が行われた場合、コマンド実行部106は、タッチ位置の情報に基づいて移動状態Xの間に選択された文字列を認識し、認識した文字列を削除するためのコマンドを実行する。このようにしてコマンドが実行されると、コマンドの実行に伴って更新される表示内容が表示制御部110に通知される。
同様に、入力パターン解析部104から押し込み時間が通知されると、コマンド実行部106は、記憶部108から読み出した登録情報を参照し、通知された押し込み時間に対応するコマンドを実行する。このとき、コマンド実行部106には、タッチ位置検知部134からタッチ位置の情報が入力されている。例えば、文字列の選択操作が行われ、その後に翻訳操作に対応する10秒の押し込みが維持された場合、コマンド実行部106は、タッチ位置の情報に基づいて移動状態Xの間に選択された文字列を認識し、認識した文字列を翻訳するためのコマンドを実行する。このようにしてコマンドが実行されると、コマンドの実行に伴って更新される表示内容が表示制御部110に通知される。
更新後の表示内容が通知されると、表示制御部110は、通知された更新後の表示内容を表示部132に表示させる。なお、コマンドの実行内容がWebページの移動等であり、ネットワーク10を通じて情報を取得する必要がある場合、表示制御部110は、通信部112を介して移動後のWebページ等、必要な情報を取得する。そして、通信部112を介して取得した情報を表示部132に表示させる。また、表示制御部110は、表示部132に表示されるウィンドウを管理する。例えば、表示制御部110は、新規ウィンドウを生成して情報を表示したり、既存のウィンドウの表示内容を更新したりする。
以上、本実施形態に係る情報処理装置100の機能構成について説明した。
(1−1−3:入力パターンの判定方法)
次に、図4A、図4B、図4Cを参照しながら、本実施形態に係る入力パターンの判定方法について説明する。さらに、図5を参照しながら、情報処理装置100による入力パターンの判定動作について説明する。図4A、図4B、図4Cは、本実施形態に係る入力パターンの判定方法を示す説明図である。また、図5は、情報処理装置100による入力パターンの判定動作フローを示す説明図である。
(判定方法:1回の押し込み操作)
まず、図4Aを参照する。図4Aの上段(Move−Time;以下、移動データ)には、タッチ位置の情報から得られる指の状態変化(H:移動状態X、L:静止状態Y)が示されている。また、図4Aの下段(Intensity−Time;以下、強度データ)には、押圧強度の情報から得られる指の状態変化(タッチ状態P/押し込み状態Q)が示されている。図4Aの例は、タッチした状態で指を移動させた後、静止した状態で指を押し込んだ場合に得られるものである。
なお、図中に記載されたThは、タッチ状態Pと押し込み状態Qとを判別するために用いられる所定の閾値を示している。この閾値Thは、ユーザ毎に予め決められる。例えば、情報処理装置100の起動時にユーザにタッチ状態Pの押圧強度と、押し込み状態Qの押圧強度とを登録して貰い、登録された押圧強度に基づいて閾値Thが決められる。また、情報処理装置100の起動後、ユーザにより行われた入力操作の際に得られる押圧強度の分布を利用して閾値Thの値が好適化されるようにしてもよい。但し、閾値Thを決定するタイミングについては、実施の態様に応じて適宜変更してもよい。
さて、ユーザがタッチパネル102にタッチすると(t)、タッチ位置検知部134によりタッチ位置が検知され、入力パターン解析部104に入力される。タッチ位置の情報が入力されると、入力パターン解析部104により、入力されたタッチ位置の変化が解析され、指の移動状態が移動状態Xであるか、静止状態Yであるかが判別される。
また、tの時点において押圧力検知部136により押圧強度が検知され、入力パターン解析部104に入力される。押圧強度の情報が入力されると、入力パターン解析部104により、入力された押圧強度が閾値Thを越えているか否かが判定され、指の押圧状態がタッチ状態Pであるか、押し込み状態Qであるかが判別される。図4Aの例では、tの時点で静止状態Y+タッチ状態Pであることが検出される。
次いで、タッチした状態で指が移動すると(t→t)、入力パターン解析部104は、タッチ位置検知部134から入力されるタッチ位置の情報に基づいて移動状態Xを検出する。例えば、入力パターン解析部104は、所定の範囲を超えるタッチ位置の大きな変化を検出した場合に指の状態が移動状態Xにあると判定する。
通常、指を完全に静止させた状態で維持することは難しく、静止を意識していても僅かではあるが動いてしまう。そのため、微少な指の動きを移動状態Xと誤判定してしまわないように所定の範囲が設定されている。例えば、静止状態Yの際にタッチ位置検知部134により得られたタッチ位置を中心とする所定半径の円形領域が所定の範囲として設定され、その範囲内にタッチ位置がある場合には静止状態Yにあるものと判定される。
図4Aの例では、tの時点からtの時点まで指が移動状態Xにあると判定される。この間、押圧力検知部136により押圧強度が検知されており、入力パターン解析部104により押圧強度が閾値Thを越えているか否かの判定が行われている。図4Aの例では、tの時点からtの時点まで押圧強度が閾値Thを越えることはない。そのため、入力パターン解析部104は、指がタッチ状態P+移動状態Xの状態にあると判別する。
次いで、ユーザにより指が押し込まれると(t)、入力パターン解析部104には、閾値Thを越える押圧強度を示す押圧強度の情報が入力される。そのため、入力パターン解析部104は、押圧力検知部136から入力される押圧強度の情報を用いて閾値判定を実施し、その判定結果に基づいて押し込み状態Qを検出する。
通常、指を押し込み場合には指の移動が停止する。図4Aの例においても、一旦指が停止した状態で押し込み動作が行われている。そのため、tの時点において入力パターン解析部104は、タッチ位置検知部134から入力されたタッチ位置の情報に基づいて静止状態Yを検出する。つまり、図4Aの例では、tの時点において入力パターン解析部104により指が押し込み状態Q+静止状態Yの状態にあると判別される。
また、入力パターン解析部104は、押し込み状態Q+静止状態Yの状態が継続している時間(以下、押し込み時間ΔT)を計測する。そして、入力パターン解析部104は、押し込み時間が所定時間ΔTthを超えるか否かを判定する。ここでは、所定時間ΔTth>|t−t|であるものと仮定する。図4Aの例では、tの時点で指がタッチパネル102から離される。そのため、押し込み時間ΔT=|t−t|<ΔTthとなるから、入力パターン解析部104により、押し込み時間が短いと判定される。
上記のようにして入力パターン解析部104により指の状態が判別される。なお、図4Aの例では、(1)t〜tの期間、タッチ状態P+静止状態Yが検出され、(2)t〜tの期間、タッチ状態P+移動状態Xが検出され、(3)t〜tの期間、タッチ状態P+静止状態Yが検出され、(4)t〜tの期間、押し込み状態Q+静止状態Yが検出される。(5)また、入力パターン解析部104により押し込み時間ΔTが測定され、所定時間ΔTthとの比較により押し込み時間が短いことが検出される。
このようにして検出された指の状態及び押し込み時間は、コマンド実行部106に通知される。指の状態及び押し込み時間が通知されると、コマンド実行部106は、指の状態、押し込み時間、及びタッチ位置検知部134から入力されたタッチ位置の情報に基づき、これらの入力情報に対応するコマンドを実行する。
(判定方法:複数回の押し込み操作)
次に、図4Bを参照する。図4Bの上段(Move−Time;移動データ)には、タッチ位置の情報から得られる指の状態変化(H:移動状態X、L:静止状態Y)が示されている。また、図4Bの下段(Intensity−Time;強度データ)には、押圧強度の情報から得られる指の状態変化(タッチ状態P/押し込み状態Q)が示されている。図4Bの例は、タッチした状態で指を移動させた後、静止した状態で指を複数回押し込んだ場合に得られるものである。
まず、ユーザがタッチパネル102にタッチすると(t)、タッチ位置検知部134によりタッチ位置が検知され、入力パターン解析部104に入力される。タッチ位置の情報が入力されると、入力パターン解析部104により、入力されたタッチ位置の変化が解析され、指の移動状態が移動状態Xであるか、静止状態Yであるかが判別される。
また、tの時点において押圧力検知部136により押圧強度が検知され、入力パターン解析部104に入力される。押圧強度の情報が入力されると、入力パターン解析部104により、入力された押圧強度が閾値Thを越えているか否かが判定され、指の押圧状態がタッチ状態Pであるか、押し込み状態Qであるかが判別される。図4Aの例では、tの時点で静止状態Y+タッチ状態Pであることが検出される。
次いで、タッチした状態で指が移動すると(t→t)、入力パターン解析部104は、タッチ位置検知部134から入力されるタッチ位置の情報に基づいて移動状態Xを検出する。この間、押圧力検知部136により押圧強度が検知されており、入力パターン解析部104により押圧強度が閾値Thを越えているか否かの判定が行われている。図4Bの例では、tの時点からtの時点まで押圧強度が閾値Thを越えることはない。そのため、入力パターン解析部104は、指がタッチ状態P+移動状態Xの状態にあると判別する。
次いで、ユーザにより指が押し込まれると(t)、入力パターン解析部104には、閾値Thを越える押圧強度を示す押圧強度の情報が入力される。そのため、入力パターン解析部104は、押圧力検知部136から入力される押圧強度の情報を用いて閾値判定を実施し、その判定結果に基づいて押し込み状態Qを検出する。また、入力パターン解析部104は、タッチ位置検知部134から入力されたタッチ位置の情報に基づいて静止状態Yを検出する。そのため、図4Bの例では、tの時点において入力パターン解析部104により指が押し込み状態Q+静止状態Yの状態にあると判別される。
図4Bの例では、時点tにおいて指が押し込まれた後、時点tまでの間に一旦指の押圧力が弱められ、再び押し込みが行われる。但し、t〜tの期間で指がタッチパネル102から離れてしまわないものとする。このような操作が行われると、入力パターン解析部104に入力される押圧強度は、時点tで閾値Thを下回り、時点tで閾値Thを上回る。そのため、入力パターン解析部104により、t〜tの期間で押し込み状態Q+静止状態Y、t〜tの期間でタッチ状態Q+静止状態Y、t〜tの期間で押し込み状態Q+静止状態Yが検出される。
そこで、入力パターン解析部104は、指が押し込まれてから離されるまでに検出されるタッチ状態P、押し込み状態Qの繰り返し回数(以下、押し込み回数)をカウントする。図4Bの例では、押し込み回数=2が検出される。
また、入力パターン解析部104は、押し込み状態Q+静止状態Yの状態が継続している時間(押し込み時間ΔT34、ΔT56)を計測する。但し、ΔT34は、t〜tの期間における押し込み時間を表す。また、ΔT56は、t〜tの期間における押し込み時間を表す。入力パターン解析部104は、押し込み時間が所定時間ΔTthを超えるか否かを判定する。但し、所定時間がΔTth>|t−t|、ΔTth>|t−t|であるものと仮定する。この場合、入力パターン解析部104は、第1回目の押し込み時間ΔT34、第2回目の押し込み時間ΔT56がいずれも短いと判定する。
上記のようにして入力パターン解析部104により指の状態が判別される。なお、図4Bの例では、(1)t〜tの期間、タッチ状態P+静止状態Yが検出され、(2)t〜tの期間、タッチ状態P+移動状態Xが検出され、(3)t〜tの期間、タッチ状態P+静止状態Yが検出される。さらに、(4)t〜tの期間、押し込み状態Q+静止状態Yが検出され、(5)t〜tの期間、タッチ状態P+静止状態Yが検出され、(6)t〜tの期間、押し込み状態Q+静止状態Yが検出される。
(7)また、入力パターン解析部104によりt〜tの期間で検出された押し込み状態Q、タッチ状態Pの繰り返し回数がカウントされ、繰り返し回数が検出される。(8)さらに、入力パターン解析部104により第1回目(t〜t)の押し込み時間ΔT34、及び第2回目(t〜t)の押し込み時間ΔT56が測定され、所定時間ΔTthとの比較により、いずれも短い押し込み時間であることが検出される。
このようにして検出された指の状態、押し込み回数、押し込み時間は、コマンド実行部106に通知される。指の状態、押し込み回数、押し込み時間が通知されると、コマンド実行部106は、指の状態、押し込み回数、押し込み時間、及びタッチ位置検知部134から入力されたタッチ位置の情報に基づき、これらの入力情報に対応するコマンドを実行する。
(判定方法:押し込み時間の長い操作)
次に、図4Cを参照する。図4Cの上段(Move−Time;移動データ)には、タッチ位置の情報から得られる指の状態変化(H:移動状態X、L:静止状態Y)が示されている。また、図4Cの下段(Intensity−Time;強度データ)には、押圧強度の情報から得られる指の状態変化(タッチ状態P/押し込み状態Q)が示されている。図4Cの例は、タッチした状態で指を移動させた後、長い時間、静止した状態で指を押し込んだ場合に得られるものである。
まず、ユーザがタッチパネル102にタッチすると(t)、タッチ位置検知部134によりタッチ位置が検知され、入力パターン解析部104に入力される。タッチ位置の情報が入力されると、入力パターン解析部104により、入力されたタッチ位置の変化が解析され、指の移動状態が移動状態Xであるか、静止状態Yであるかが判別される。
また、tの時点において押圧力検知部136により押圧強度が検知され、入力パターン解析部104に入力される。押圧強度の情報が入力されると、入力パターン解析部104により、入力された押圧強度が閾値Thを越えているか否かが判定され、指の押圧状態がタッチ状態Pであるか、押し込み状態Qであるかが判別される。図4Cの例では、tの時点で静止状態Y+タッチ状態Pであることが検出される。
次いで、タッチした状態で指が移動すると(t→t)、入力パターン解析部104は、タッチ位置検知部134から入力されるタッチ位置の情報に基づいて移動状態Xを検出する。例えば、入力パターン解析部104は、所定の範囲を超えるタッチ位置の大きな変化を検出した場合に指の状態が移動状態Xにあると判定する。
図4Cの例では、tの時点からtの時点まで指が移動状態Xにあると判定される。この間、押圧力検知部136により押圧強度が検知されており、入力パターン解析部104により押圧強度が閾値Thを越えているか否かの判定が行われている。図4Cの例では、tの時点からtの時点まで押圧強度が閾値Thを越えることはない。そのため、入力パターン解析部104は、指がタッチ状態P+移動状態Xの状態にあると判別する。
次いで、ユーザにより指が押し込まれると(t)、入力パターン解析部104には、閾値Thを越える押圧強度を示す押圧強度の情報が入力される。そのため、入力パターン解析部104は、押圧力検知部136から入力される押圧強度の情報を用いて閾値判定を実施し、その判定結果に基づいて押し込み状態Qを検出する。また、tの時点において入力パターン解析部104は、タッチ位置検知部134から入力されたタッチ位置の情報に基づいて静止状態Yを検出する。そのため、tの時点において入力パターン解析部104により、指が押し込み状態Q+静止状態Yの状態にあると判別される。
また、入力パターン解析部104は、押し込み状態Q+静止状態Yの状態が継続している時間(以下、押し込み時間ΔT)を計測する。そして、入力パターン解析部104は、押し込み時間が所定時間ΔTthを超えるか否かを判定する。ここでは、所定時間ΔTth<ΔTであるものと仮定する。図4Cの例では、tの時点で指がタッチパネル102から離される。そのため、押し込み時間ΔT=|t−t|<ΔTthとなるから、入力パターン解析部104により、押し込み時間が長いと判定される。
上記のようにして入力パターン解析部104により指の状態が判別される。なお、図4Cの例では、(1)t〜tの期間、タッチ状態P+静止状態Yが検出され、(2)t〜tの期間、タッチ状態P+移動状態Xが検出され、(3)t〜tの期間、タッチ状態P+静止状態Yが検出され、(4)t〜tの期間、押し込み状態Q+静止状態Yが検出される。(5)また、入力パターン解析部104により押し込み時間ΔTが測定され、所定時間ΔTthとの比較により押し込み時間が長いことが検出される。
このようにして検出された指の状態及び押し込み時間は、コマンド実行部106に通知される。指の状態及び押し込み時間が通知されると、コマンド実行部106は、指の状態、押し込み時間、及びタッチ位置検知部134から入力されたタッチ位置の情報に基づき、これらの入力情報に対応するコマンドを実行する。
(動作フロー)
次に、図5を参照しながら、指の状態判定に関する入力パターン解析部104の動作フローについて説明する。図5は、本実施形態に係る状態判定方法の一例を示す説明図である。なお、図5の例は、ドラッグ操作による範囲選択操作、及びその選択範囲に関する所定のコマンド実行操作を想定したものである。また、図5の動作フローは、ユーザの指がタッチパネル102にタッチしている状態で実行されるものである。
まず、入力パターン解析部104は、押圧力検知部136により入力される押圧強度の情報、又はタッチ位置検知部134により入力されるタッチ位置の情報の有無に基づき、指がタッチパネル102から離されたか否かを判定する(S102)。指が離された場合、入力パターン解析部104は、一連の判定処理を終了する。指が離されていない場合、入力パターン解析部104は、ステップS104の処理に進行する。
ステップS104の処理に進行した場合、入力パターン解析部104は、タッチ位置検知部134により入力されるタッチ位置の情報に基づき、指が動いているか否かを判定する(S104)。つまり、ステップS104において、移動状態X、静止状態Yの判別処理が実行される。指が移動状態Xの場合、入力パターン解析部104は、ステップS106の処理に進行する。一方、指が静止状態Yの場合、入力パターン解析部104は、ステップS108の処理に進行する。
ステップS106の処理に進行した場合、入力パターン解析部104は、タッチ位置検知部134により入力されるタッチ位置の情報に基づき、タッチ位置の移動に連動して選択範囲を変更する(S106)。例えば、文字列の選択操作が行われている場合、入力パターン解析部104は、指でなぞられた文字列を選択範囲に含めるよう、タッチ位置の移動に連動して選択文字列の範囲を変更する。また、画像範囲の選択操作が行われている場合、入力パターン解析部104は、タッチ位置の移動に連動して画像内の選択範囲を変更する。選択範囲の変更動作が完了すると、入力パターン解析部104は、再びステップS102の処理に進行する。
ステップS104においてステップS108の処理に進行した場合、入力パターン解析部104は、押圧力検知部136により入力される押圧強度の情報に基づいてタッチ状態P、押し込み状態Qの繰り返しを検出し、押し込み回数が所定回数をカウントする。そして、入力パターン解析部104は、押し込み回数が所定回数であるか否かを判定する(S108)。押し込み回数が所定回数である場合、入力パターン解析部104は、ステップS110の処理に進行する。一方、押し込み回数が所定回数ではない場合、入力パターン解析部104は、ステップS112の処理に進行する。
ステップS110の処理に進行した場合、入力パターン解析部104は、押し込み回数をコマンド実行部106に通知する。そして、コマンド実行部106により、その押し込み回数に割り当てられたコマンドが実行され(S110)、一連の判定処理が終了する。また、ステップS112の処理に進行した場合、入力パターン解析部104は、押し込み時間を計測し、押し込み時間が所定時間以上であるか否かを判定する(S112)。押し込み時間が所定時間以上である場合、入力パターン解析部104は、ステップS114の処理に進行する。一方、押し込み時間が所定時間未満である場合、入力パターン解析部104は、再びステップS102の処理に進行する。
ステップS114の処理に進行した場合、入力パターン解析部104は、押し込み時間が長いことをコマンド実行部106に通知する。そして、コマンド実行部106により、押し込み時間の長い操作に割り当てられたコマンドが実行され(S114)、一連の判定処理が終了する。このように、本実施形態に係る状態判定方法を適用すると、押し込み回数、及び押し込み時間に応じて異なるコマンドを実行できるようになる。そのため、ユーザは、選択範囲を変更した指をタッチパネル102から離さずにコマンドを実行することができるようになる。
(1−1−4:文字列処理アプリケーションへの応用)
次に、図6を参照しながら、文字列処理アプリケーションへの応用について説明する。図6は、テキスト操作を行うことが可能なアプリケーション(例えば、テキストエディタやメーラー等)への応用について説明するための説明図である。図6には、画面上に表示された文字列を指で選択する操作(以下、選択操作)と、選択された文字列に所定の処理を施すためのコマンドを実行する操作(以下、コマンド実行操作)とが例示されている。
まず、ユーザにより文字列が選択される。図6の例では、「Shirokiya Department」という文字列が選択される。この選択操作の最中は指が移動しており、指の状態は移動状態Xにある。そして、選択したい文字列の終端に指が達すると、指の状態は静止状態Yになる。この状態でタッチパネル102を強く押圧すると、入力パターン解析部104により押し込み状態Qが検出される。一旦タッチパネル102を押圧する力を抜き、再びタッチパネル102を強く押圧すると、入力パターン解析部104により再び押し込み状態Qが検出されると共に、押し込み回数がカウントされる。
例えば、押し込み回数が1回の場合(Q1)、コマンド実行部106により選択文字列をコピーするコマンドが実行され、選択文字列がコピーされる。また、押し込み回数が2回の場合(Q2)、コマンド実行部106により選択文字列をカットするコマンドが実行され、選択文字列がカットされる。選択文字列をカットするコマンドが実行されると、画面上から「Shirokiya Department」の文字が消去される。文字の消去は、表示制御部110により行われる。また、タッチパネル102を強く押圧した状態を暫く維持すると、入力パターン解析部104により押し込み時間が測定され、長い押し込み操作(以下、長押し込み)であると判定される。例えば、長押し込みであると判定された場合(Q3)、タッチ位置の近傍にメニューが表示される。
このように、文字列処理アプリケーションへと応用することにより、文字列の選択操作と、その文字列に関連するコマンド実行操作とが、タッチパネル102から指を離すこと無しに実現される。そのため、選択操作からコマンド実行操作へと移る際に選択範囲が意図せず変更されてしまう機会が格段に少なくなる。また、コマンドを実行するために選択操作とは別にタッチ操作を行う必要が無くなるため、タッチ操作のミスによる誤入力を避けることができる。また、指をタッチパネル102から離さずに、選択操作とコマンド実行操作とを連続して行うことが可能になるため、操作効率が格段に向上する。
なお、図6にはコマンドとして、コピー、カット、メニュー表示の3種類を例示したが、これに限定されない。例えば、選択文字列の削除、文字サイズの変更、フォントの変更、アンダーラインの付加、ハイライト表示、書体の変更、文字色の変更、背景色の変更等、各種の文字列操作や書式変更等に係るコマンドに適用することができる。また、図6の例では、押し込み回数が1回の場合と2回の場合とを例示したが、押し込み回数が3回以上の押し込み操作に対してコマンドを割り当てることも可能である。また、長押し込みの操作を無効化し、押し込み回数による操作のみを有効にしてもよい。
(1−1−5:翻訳アプリケーションへの応用)
次に、図7Aを参照しながら、翻訳アプリケーションへの応用について説明する。図7Aは、ある言語で表記された文字列を選択して他の言語に翻訳する翻訳アプリケーションへの応用例について説明するための説明図である。
まず、ユーザにより文字列が選択される。図7Aの例では、「Shirokiya Department」という文字列が選択されている。この選択操作の最中は指が移動しており、指の状態は移動状態Xにある。そして、選択したい文字列の終端に指が達すると、指の状態は静止状態Yになる。この状態でタッチパネル102を強く押圧すると、入力パターン解析部104により押し込み状態Qが検出される。一旦タッチパネル102を押圧する力を抜き、再びタッチパネル102を強く押圧すると、入力パターン解析部104により再び押し込み状態Qが検出されると共に、押し込み回数がカウントされる。
例えば、押し込み回数が1回の場合、コマンド実行部106により選択文字列を日本語へと翻訳するコマンドが実行され、選択文字列が日本語で表示される。また、押し込み回数が2回の場合、コマンド実行部106により選択文字列を韓国語へと翻訳するコマンドが実行され、選択文字列が韓国語で表示される。押し込み回数が3回の場合、コマンド実行部106により選択文字列をドイツ語へと翻訳するコマンドが実行され、選択文字列がドイツ語で表示される。押し込み回数が4回の場合、コマンド実行部106により選択文字列をフランス語へと翻訳するコマンドが実行され、選択文字列がフランス語で表示される。
また、タッチパネル102を強く押圧した状態を暫く維持すると、入力パターン解析部104により押し込み時間が測定され、長押し込みであると判定される。長押し込みであると判定された場合、例えば、押し込み操作による翻訳処理がキャンセルされる。例えば、1回押し込むと日本語への翻訳処理が開始されるが、そのまま長押し込み操作を行うことで日本語への翻訳処理がキャンセルされる。また、続けて2回押し込むと韓国語への翻訳処理が開始されるが、そのまま長押し込み操作を行うことで韓国語への翻訳処理がキャンセルされる。このように、長押し込みをキャンセルに割り当てることにより、所望しない操作を確定前に素早くキャンセルすることが可能になる。
このように、翻訳アプリケーションへと応用することにより、文字列の選択操作と、その文字列に対する翻訳コマンドの実行操作とが、タッチパネル102から指を離すこと無しに実現される。また、言語の種類を押し込み回数により選択することが可能になるため、言語の選択操作も含め、文字列の選択から翻訳までの操作が、タッチパネル102から指を離すこと無しに実現される。指をタッチパネル102から離さずに、一連の操作を連続して行うことが可能になるため、操作効率が格段に向上する。
なお、図7Aには言語として、日本語、韓国語、ドイツ語、フランス語を例示したが、これに限定されず、翻訳アプリケーションにて対応可能な任意の言語が利用可能である。また、図7Aの例では、押し込み回数が1〜4回の場合を例示したが、押し込み回数が5回以上の押し込み操作に対してコマンドを割り当てることも可能である。
(1−1−6:検索アプリケーションへの応用)
次に、図7Bを参照しながら、検索アプリケーションへの応用について説明する。図7Bは、文章中にある一部の文字列を選択し、選択した文字列をキーワードにしてWeb検索する検索アプリケーションへの応用例について説明するための説明図である。
まず、ユーザにより文字列が選択される。図7Bの例では、「Shirokiya Department」という文字列が選択されている。この選択操作の最中は指が移動しており、指の状態は移動状態Xにある。そして、選択したい文字列の終端に指が達すると、指の状態は静止状態Yになる。この状態でタッチパネル102を強く押圧すると、入力パターン解析部104により押し込み状態Qが検出される。一旦タッチパネル102を押圧する力を抜き、再びタッチパネル102を強く押圧すると、入力パターン解析部104により再び押し込み状態Qが検出されると共に、押し込み回数がカウントされる。
例えば、押し込み回数が1回の場合、コマンド実行部106により検索エンジンAが選択され、選択文字列をキーワードにして検索エンジンAを利用したWeb検索が実行される。また、押し込み回数が2回の場合、コマンド実行部106により検索エンジンBが選択され、選択文字列をキーワードにして検索エンジンBを利用したWeb検索が実行される。また、タッチパネル102を強く押圧した状態を暫く維持すると、入力パターン解析部104により押し込み時間が測定され、長押し込みであると判定される。長押し込みであると判定された場合、押し込み操作によるWeb検索の処理がキャンセルされる。
例えば、1回押し込むと検索エンジンAを利用したWeb検索が開始されるが、そのまま長押し込み操作を行うことでWeb検索の処理がキャンセルされる。また、続けて2回押し込むと検索エンジンBを利用したWeb検索が開始されるが、そのまま長押し込み操作を行うことで検索エンジンBを利用したWeb検索の処理がキャンセルされる。このように、長押し込みをキャンセルに割り当てることにより、Web検索を素早くキャンセルすることが可能になる。
このように、検索アプリケーションへと応用することにより、文字列の選択操作、及びその文字列をキーワードとするWeb検索コマンドの実行操作とが、タッチパネル102から指を離すこと無しに実現される。特に、検索エンジンの種類が押し込み回数に応じて選択されるため、検索エンジンの選択操作も含め、文字列の選択からWeb検索までの操作が、タッチパネル102から指を離すこと無しに実現される。指をタッチパネル102から離さずに、一連の操作を連続して行うことが可能になるため、操作効率が格段に向上する。なお、図7Bの例では、押し込み回数が1、2回の場合を例示したが、押し込み回数が3回以上の押し込み操作に他の検索エンジンを割り当てることも可能である。
(1−1−7:地図アプリケーションへの応用)
次に、図7Cを参照しながら、地図アプリケーションへの応用について説明する。図7Cは、画像を拡大又は縮小して表示することが可能な地図アプリケーションへの応用例について説明するための説明図である。なお、ここでは地図アプリケーションを例に挙げるが、画像を拡大又は縮小して表示することが可能な画像アプリケーションへも同様にして応用することができる。
まず、ユーザにより画像の一部が選択される。図7Cの例では画像の一部が既に選択されている。画像の一部を選択する際に指の状態は移動状態Xにあるが、図7Cの例では画像の選択が済んでいるため、指の状態は既に静止状態Yにある。この状態でタッチパネル102を強く押圧すると、入力パターン解析部104により押し込み状態Qが検出される。一旦タッチパネル102を押圧する力を抜き、再びタッチパネル102を強く押圧すると、入力パターン解析部104により再び押し込み状態Qが検出されると共に、押し込み回数がカウントされる。なお、選択された画像の一部を拡大領域と呼ぶことにする。
例えば、押し込み回数が1回の場合、コマンド実行部106により所定の倍率で拡大領域が拡大される。続けて押し込むと、拡大された拡大領域がコマンド実行部106により所定の倍率で更に拡大される。つまり、押し込み回数に応じて段階的に拡大領域が拡大表示される。また、タッチパネル102を強く押圧した状態を暫く維持すると、入力パターン解析部104により押し込み時間が測定され、長押し込みであると判定される。長押し込みであると判定された場合、拡大前の画像に縮小される。つまり、拡大操作がキャンセルされる。このように、長押し込みをキャンセルに割り当てることにより、素早く拡大前の元の表示状態に戻すことが可能になる。
上記のように、地図アプリケーションへと応用することにより、拡大領域の選択操作、及びその拡大領域の拡大操作とが、タッチパネル102から指を離すこと無しに実現される。特に、拡大率が押し込み回数に応じて増大するため、拡大率の調整を含む一連の操作が、タッチパネル102から指を離すこと無しに実現される。指をタッチパネル102から離さずに、一連の操作を連続して行うことが可能になるため、操作効率が格段に向上する。なお、図7Cの例では、押し込み回数が1、2回の場合を例示したが、押し込み回数が3回以上の場合、押し込み回数に応じて拡大領域が更に拡大するようにしてもよい。また、長押し込みにより、1段階前の拡大画像が表示されるようにしてもよい。
<2:第2実施形態>
次に、本発明の第2実施形態について説明する。本実施形態と上記の第1実施形態との主な違いはタッチパネルの構成にある。上記の第1実施形態においては、押圧強度を検知する手段として押圧力の強さを検知する押圧力検知部136が設けられていた。しかし、押圧強度は、実際に圧力を測定せずとも検知することができる。例えば、表示画面の内部に設けられた光源(例えば、バックライト等)と光センサとで構成される光学式タッチパネルを利用しても押圧強度を得ることができる。本実施形態は、このような光学式タッチパネルを利用するものである。
[2−1:情報処理装置200の構成]
まず、図8を参照しながら、本実施形態に係る情報処理装置200の機能構成について説明する。図8は、本実施形態に係る情報処理装置200の機能構成例を示す説明図である。なお、図8に例示した情報処理装置200が有する機能は、図10に示すハードウェア構成により実現することができる。また、上記の第1実施形態に係る情報処理装置100と実質的に同じ機能を有する構成要素については同一の符号を付することにより、詳細な説明を省略した。
図8に示すように、情報処理装置200は、主に、タッチパネル202と、入力パターン解析部104と、コマンド実行部106と、記憶部108と、表示制御部110と、通信部112と、により構成される。このように、上記の第1実施形態に係る情報処理装置100との違いは、主にタッチパネル202の構成にある。そこで、タッチパネル202の構成を中心に説明を行うことにする。
図8に示すように、タッチパネル202は、表示部132と、タッチ位置検知部134と、陰影画像面積計測部232とを有する。タッチパネル202における押圧強度の検知手段は陰影画像面積計測部232である。タッチパネル202は、光学式タッチパネルである。但し、タッチパネル202には、表示画面の内部から光を射出するための光源と、表示画面の表面から入射される光を検知する光センサとが含まれるものとする。
指が表示画面をタッチしている場合、光源から射出された光の一部は指により反射され、光センサに入射される。また、指により反射されなかった光は光センサにより受光されない。そのため、光センサに入射される光の分布から像を形成することにより、タッチパネル202の表面を押圧している指の形状が画像として得られる。例えば、反射光の強度が大きい部分を陰影にして表現すると、図9のような画像パターンが得られる。弱く押圧している部分には小さな陰影が得られ、押圧力が大きくなるにつれて指がタッチパネル202に押しつけられるため、陰影の面積が徐々に大きくなる。そのため、陰影の面積を計測することにより、各タッチ位置における押圧強度を検知することができる。
そこで、タッチ位置検知部134は、陰影が得られた位置をタッチ位置として検知し、その検知結果を入力パターン解析部104に入力する。また、陰影画像面積計測部232は、各陰影の面積を取得し、その面積の大きさを押圧強度の情報として入力パターン解析部104に入力する。このように、入力パターン解析部104には、タッチ位置の情報と押圧強度の情報とが入力される。そのため、上記の第1実施形態と同様にして入力パターンと登録パターンとのマッチングを実施することができる。なお、入力パターン解析部104の後段における処理は第1実施形態と同じであるため記載を省略する。
以上、本発明の第2実施形態について説明した。
<3:ハードウェア構成例>
上記の情報処理装置100、200が有する各構成要素の機能は、例えば、図10に示す情報処理装置のハードウェア構成を用いて実現することが可能である。つまり、当該各構成要素の機能は、コンピュータプログラムを用いて図10に示すハードウェアを制御することにより実現される。
なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
図10に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro−Luminescence Displayの略である。
記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。
接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は各種通信用のモデム等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
<4:まとめ>
最後に、本発明の第1及び第2実施形態に係る技術内容について簡単に纏める。ここで述べる技術内容は、例えば、PC、携帯電話、携帯ゲーム機、携帯情報端末、情報家電、カーナビゲーションシステム等、種々の情報処理装置に対して適用することができる。
上記の情報処理装置の機能構成は次のように表現することができる。当該情報処理装置は、画面上を押圧する操作体の位置を検知する位置検知部と、前記操作体による押圧強度を検知する押圧強度検知部と、前記位置検知部により検知された位置の情報に基づいて前記操作体の移動を検知する移動検知部と、前記移動検知部により前記操作体の静止状態又は細動状態が検知され、前記押圧強度検知部により検知された押圧強度が増大した場合、当該押圧強度の増大に対応する所定の機能を提供する機能提供部と、を有する。
このように、上記の情報処理装置は、操作体の位置を検知し、その検知結果に基づいて操作体の移動を検知することができる。また、上記の情報処理装置は、操作体の押圧強度を検知することができる。そして、上記の情報処理装置は、操作体が静止状態又は細動状態になり、かつ、押圧強度を増大させた場合に、その押圧強度を増大させる操作に対応する所定の機能を提供することができる。つまり、上記の情報処理装置は、ある押圧強度を維持しながら移動する操作体が、移動を停止させ、押圧強度を増大させるという操作に割り当てられた所定の機能を提供することができる。
そのため、操作体の移動により実現される機能とは別の機能が、操作体の押し込み操作により実現される。なお、押圧強度が増大しているのであるから、操作体が押圧対象から離れず、連続して移動操作及び押し込み操作が行われていることになる。このように操作体を押圧対象から離さずに連続する操作を実行できるようにすることで、誤操作の機会が低減すると共に、操作効率を格段に向上させることが可能になる。
(備考)
上記のタッチ位置検知部134は、位置検知部の一例である。上記の押圧力検知部136、陰影画像面積計測部232は、押圧強度検知部の一例である。上記の入力パターン解析部104は、移動検知部、機能提供部、時間計測部、増減カウンタ、の一例である。上記のコマンド実行部106、表示制御部110、通信部112は、機能提供部の一例である。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
上記説明においては、文字列処理アプリケーション、翻訳アプリケーション、検索アプリケーション、地図アプリケーションを例に挙げて説明したが、本実施形態に係る技術の適用範囲はこれらの例に限定されない。文字列の範囲や画像の範囲等を選択し、その選択範囲に関連して所定の処理を実行するような任意のアプリケーションに対して適用可能である。
また、押し込み回数に割り当てるコマンドの種類(機能)も、上記の例に限定されない。さらに、長押し込みに割り当てるコマンドの種類(機能)も、上記の例に限定されない。また、頻繁に行う操作を1回又は2回の押し込み操作に割り当て、他の全ての操作を長押し時にコンテキストメニューとして表示すると、より高速で利便性の高い操作体系を実現することが可能である。このような変形についても、当然に本実施形態に係る技術の適用範囲に含まれる。
100、200 情報処理装置
102、202 タッチパネル
104 入力パターン解析部
106 コマンド実行部
108 記憶部
110 表示制御部
112 通信部
132 表示部
134 タッチ位置検知部
136 押圧力検知部
232 陰影画像面積計測部
APP 実行画面
KEY ソフトウェアキーボード

Claims (8)

  1. 画面上を押圧する操作体の位置を検知する位置検知部と、
    前記操作体による押圧強度を検知する押圧強度検知部と、
    前記位置検知部により検知された位置の情報に基づいて前記操作体の移動を検知する移動検知部と、
    前記移動検知部により前記操作体の静止状態又は細動状態が検知され、かつ、前記押圧強度検知部により検知された押圧強度が増大した場合、当該押圧強度の増大に対応する所定の機能を提供する機能提供部と、
    増大後の前記押圧強度が維持される時間を計測する時間計測部と、
    を備え、
    前記機能提供部は、前記時間計測部により計測された時間の長短に応じて異なる前記所定の機能を提供し、
    前記移動検知部により前記操作体の静止状態又は細動状態が検知され、かつ、前記押圧強度検知部により検知される押圧強度が零にならずに増減を繰り返した場合、当該増減の繰り返し回数をカウントする増減カウンタをさらに備え、
    前記機能提供部は、前記増減カウンタによりカウントされた前記増減の繰り返し回数に応じて異なる前記所定の機能を提供し、
    前記機能提供部は、
    前記時間計測部により計測された時間が短い場合に、翻訳対象として指定された文字列を前記増減カウンタによりカウントされた前記増減の繰り返し回数に応じて異なる言語に翻訳する機能を提供し、
    前記時間計測部により計測された時間が長い場合に、前記翻訳対象として指定された文字列に対する翻訳操作をキャンセルする、情報処理装置。
  2. 前記機能提供部は、
    前記時間計測部により計測された時間が短い場合に、指定された文字列を検索対象とし、前記増減カウンタによりカウントされた前記増減の繰り返し回数に応じて異なる検索エンジンにより情報を検索する機能を提供し、
    前記時間計測部により計測された時間が長い場合に、前記指定された文字列を検索対象とする検索操作をキャンセルする、請求項に記載の情報処理装置。
  3. 前記機能提供部は、
    前記時間計測部により計測された時間が短い場合に、拡大対象の画像を前記増減カウンタによりカウントされた前記増減の繰り返し回数に応じて異なる拡大率で拡大表示する機能を提供し、
    前記時間計測部により計測された時間が長い場合に、前記拡大対象の画像に対する拡大操作をキャンセルする、請求項に記載の情報処理装置。
  4. 前記操作体の移動により文字列の選択が行われた場合、
    前記機能提供部は、
    前記時間計測部により計測された時間が短い場合に、前記操作体の移動中に選択された文字列を処理するための前記所定の機能を提供し、
    前記時間計測部により計測された時間が長い場合に、前記操作体の移動中に選択された文字列に対する処理操作をキャンセルする、請求項に記載の情報処理装置。
  5. 前記画面の内部から光を射出する光源と、
    前記光源から光が射出された際に前記画面上を押圧する操作体により反射された光の強度を検知することが可能な光センサと、
    をさらに備え、
    前記押圧強度検知部は、前記光センサにより検知された光の強度に基づき、前記光源から射出された光を強く反射した前記操作体の面積を検出し、当該面積の大きさに基づいて前記押圧強度を検知する、請求項1に記載の情報処理装置。
  6. 前記画面上に、押圧力を検知することが可能な押圧力センサをさらに備え、
    前記押圧強度検知部は、前記押圧力センサにより検知された押圧力の大きさに基づいて前記操作体による押圧強度を検知する、請求項1に記載の情報処理装置。
  7. 画面上を押圧する操作体の位置を検知する位置検知ステップと、
    前記操作体による押圧強度を検知する押圧強度検知ステップと、
    前記位置検知ステップで検知された位置の情報に基づいて前記操作体の移動を検知する移動検知ステップと、
    前記移動検知ステップで前記操作体の静止状態又は細動状態が検知され、かつ、前記押圧強度検知ステップで検知される押圧強度が増大した場合、当該押圧強度の増大に対応する所定の機能を提供する機能提供ステップと、
    増大後の前記押圧強度が維持される時間を計測する時間計測ステップと、
    を含み、
    前記機能提供ステップは、前記時間計測ステップにより計測された時間の長短に応じて異なる前記所定の機能を提供し、
    前記移動検知ステップにより前記操作体の静止状態又は細動状態が検知され、かつ、前記押圧強度検知ステップにより検知される押圧強度が零にならずに増減を繰り返した場合、当該増減の繰り返し回数をカウントする増減カウンタステップをさらに含み、
    前記機能提供ステップは、前記増減カウンタステップによりカウントされた前記増減の繰り返し回数に応じて異なる前記所定の機能を提供し、
    前記機能提供ステップは、
    前記時間計測ステップにより計測された時間が短い場合に、翻訳対象として指定された文字列を前記増減カウンタステップによりカウントされた前記増減の繰り返し回数に応じて異なる言語に翻訳する機能を提供し、
    前記時間計測ステップにより計測された時間が長い場合に、前記翻訳対象として指定された文字列に対する翻訳操作をキャンセルする、情報処理方法。
  8. 画面上を押圧する操作体の位置を検知する位置検知機能と、
    前記操作体による押圧強度を検知する押圧強度検知機能と、
    前記位置検知機能により検知された位置の情報に基づいて前記操作体の移動を検知する移動検知機能と、
    前記移動検知機能により前記操作体の静止状態又は細動状態が検知され、かつ、前記押圧強度検知機能により検知された押圧強度が増大した場合、当該押圧強度の増大に対応する所定の機能を提供する機能提供機能と、
    増大後の前記押圧強度が維持される時間を計測する時間計測機能と、
    をコンピュータに実現させ、
    前記機能提供機能は、前記時間計測機能により計測された時間の長短に応じて異なる前記所定の機能を提供し、
    前記移動検知機能により前記操作体の静止状態又は細動状態が検知され、かつ、前記押圧強度検知機能により検知される押圧強度が零にならずに増減を繰り返した場合、当該増減の繰り返し回数をカウントする増減カウンタ機能をさらに実現させ、
    前記機能提供機能は、前記増減カウンタ機能によりカウントされた前記増減の繰り返し回数に応じて異なる前記所定の機能を提供し、
    前記機能提供機能は、
    前記時間計測機能より計測された時間が短い場合に、翻訳対象として指定された文字列を前記増減カウンタ機能によりカウントされた前記増減の繰り返し回数に応じて異なる言語に翻訳する機能を提供し、
    前記時間計測機能により計測された時間が長い場合に、前記翻訳対象として指定された文字列に対する翻訳操作をキャンセルするためのプログラム。

JP2009197002A 2009-08-27 2009-08-27 情報処理装置、情報処理方法、及びプログラム Expired - Fee Related JP5310389B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009197002A JP5310389B2 (ja) 2009-08-27 2009-08-27 情報処理装置、情報処理方法、及びプログラム
EP10166787A EP2290506B1 (en) 2009-08-27 2010-06-22 Information processing apparatus, information processing method, and program
AT10166787T ATE536583T1 (de) 2009-08-27 2010-06-22 Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
US12/859,031 US9507511B2 (en) 2009-08-27 2010-08-18 Information processing apparatus, information processing method, and program
CN201010260389.5A CN102004575B (zh) 2009-08-27 2010-08-20 信息处理设备和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009197002A JP5310389B2 (ja) 2009-08-27 2009-08-27 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2011048666A JP2011048666A (ja) 2011-03-10
JP5310389B2 true JP5310389B2 (ja) 2013-10-09

Family

ID=43012529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009197002A Expired - Fee Related JP5310389B2 (ja) 2009-08-27 2009-08-27 情報処理装置、情報処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US9507511B2 (ja)
EP (1) EP2290506B1 (ja)
JP (1) JP5310389B2 (ja)
CN (1) CN102004575B (ja)
AT (1) ATE536583T1 (ja)

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8531417B2 (en) * 2010-09-02 2013-09-10 Blackberry Limited Location of a touch-sensitive control method and apparatus
JP5725899B2 (ja) * 2011-02-23 2015-05-27 京セラ株式会社 文字列検索装置
JP5722696B2 (ja) 2011-05-10 2015-05-27 京セラ株式会社 電子機器、制御方法及び制御プログラム
US8952987B2 (en) * 2011-05-19 2015-02-10 Qualcomm Incorporated User interface elements augmented with force detection
US9798408B2 (en) 2011-05-27 2017-10-24 Kyocera Corporation Electronic device
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
KR101962445B1 (ko) 2011-08-30 2019-03-26 삼성전자 주식회사 터치 스크린을 갖는 휴대 단말기 및 그의 사용자 인터페이스 제공 방법
JP6086689B2 (ja) * 2011-09-28 2017-03-01 京セラ株式会社 装置及びプログラム
CN103294706A (zh) * 2012-02-28 2013-09-11 腾讯科技(深圳)有限公司 触摸式终端中的文本搜索方法和装置
JP6210398B2 (ja) * 2012-04-25 2017-10-11 株式会社サン・フレア 翻訳支援装置、翻訳支援システム、及びそのプログラム
WO2013169846A1 (en) * 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying additional information in response to a user contact
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
EP2847661A2 (en) 2012-05-09 2015-03-18 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
EP3410287B1 (en) * 2012-05-09 2022-08-17 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
EP3185116B1 (en) 2012-05-09 2019-09-11 Apple Inc. Device, method and graphical user interface for providing tactile feedback for operations performed in a user interface
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169870A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for transitioning between display states in response to gesture
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
CN104471521B (zh) 2012-05-09 2018-10-23 苹果公司 用于针对改变用户界面对象的激活状态来提供反馈的设备、方法和图形用户界面
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
JP5468640B2 (ja) * 2012-05-31 2014-04-09 株式会社東芝 電子機器、電子機器の制御方法、電子機器の制御プログラム
KR20130142301A (ko) * 2012-06-19 2013-12-30 삼성전자주식회사 단말기의 메뉴환경 설정 장치 및 방법
WO2014002615A1 (ja) * 2012-06-27 2014-01-03 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、携帯端末装置の操作方法、及び携帯端末装置の操作プログラム
CN103529951B (zh) 2012-07-05 2017-09-15 腾讯科技(深圳)有限公司 字符输入方法及系统
JP2014032506A (ja) * 2012-08-02 2014-02-20 Sharp Corp 情報処理装置、選択操作検出方法およびプログラム
CN103677361A (zh) * 2012-09-11 2014-03-26 上海斐讯数据通信技术有限公司 一种移动终端及其控制方法
JP2014106802A (ja) * 2012-11-28 2014-06-09 Konami Digital Entertainment Co Ltd 移動制御装置、移動制御方法、プログラム
KR101958582B1 (ko) 2012-12-29 2019-07-04 애플 인크. 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
KR101755029B1 (ko) 2012-12-29 2017-07-06 애플 인크. 다중 접촉 제스처에 대한 촉각적 출력의 발생을 보류하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
CN109375853A (zh) 2012-12-29 2019-02-22 苹果公司 对用户界面分级结构导航的设备、方法和图形用户界面
CN107831991B (zh) 2012-12-29 2020-11-27 苹果公司 用于确定是滚动还是选择内容的设备、方法和图形用户界面
JP2014174666A (ja) * 2013-03-07 2014-09-22 Ricoh Co Ltd 画像処理システム、及び画像処理装置
EP3422170A1 (en) * 2013-07-08 2019-01-02 Elo Touch Solutions, Inc. Multi-user multi-touch projected capacitance touch sensor
US9294914B2 (en) 2013-08-27 2016-03-22 Symbol Technologies, Llc Localized visible light communications among wireless communication devices
JP6031080B2 (ja) * 2013-11-29 2016-11-24 株式会社 ハイディープHiDeep Inc. 仮想タッチパッド操作方法及びこれを行う端末機
US9965171B2 (en) * 2013-12-12 2018-05-08 Samsung Electronics Co., Ltd. Dynamic application association with hand-written pattern
JP5744252B2 (ja) * 2014-01-28 2015-07-08 株式会社東芝 電子機器、電子機器の制御方法、電子機器の制御プログラム
JP2015156135A (ja) * 2014-02-20 2015-08-27 株式会社東芝 表示装置、方法及びプログラム
WO2015186069A2 (en) * 2014-06-03 2015-12-10 Realitygate (Pty) Ltd Display and interaction method in a user interface
JP6197962B2 (ja) 2014-10-07 2017-09-20 株式会社村田製作所 タッチ式入力装置及びタッチ入力検出方法
KR101577277B1 (ko) * 2015-02-04 2015-12-28 주식회사 하이딥 터치종류 판별방법 및 이를 수행하는 터치 입력 장치
KR20160101605A (ko) * 2015-02-17 2016-08-25 삼성전자주식회사 제스처 입력 처리 방법 및 이를 지원하는 전자 장치
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
JP6566767B2 (ja) 2015-07-29 2019-08-28 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、コンピュータプログラム、及び記憶媒体
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US20170046058A1 (en) * 2015-08-10 2017-02-16 Apple Inc. Devices, Methods, and Graphical User Interfaces for Adjusting User Interface Objects
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
FR3040091B1 (fr) * 2015-08-10 2017-08-25 Sagemcom Broadband Sas Procede de parametrage de la reactivite d’un dispositif electronique observee suite a la reception d’une commande emise depuis un equipement de controle voisin et dispositif adapte pour la mise en oeuvre d’un tel procede
CN105246057A (zh) * 2015-08-27 2016-01-13 广东欧珀移动通信有限公司 一种短信处理方法及用户终端
KR102426695B1 (ko) * 2015-10-20 2022-07-29 삼성전자주식회사 화면 출력 방법 및 이를 지원하는 전자 장치
JP6723086B2 (ja) * 2016-06-20 2020-07-15 シャープ株式会社 タッチパネル付き表示装置、描画方法及びタッチパネル付き表示装置用プログラム
JP2018013745A (ja) * 2016-07-23 2018-01-25 キヤノン株式会社 電子機器およびその制御方法
DK201670728A1 (en) 2016-09-06 2018-03-19 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button
KR102557125B1 (ko) 2016-09-23 2023-07-20 삼성전자주식회사 전자 장치 및 그 제어 방법
JP6822232B2 (ja) * 2017-03-14 2021-01-27 オムロン株式会社 文字入力装置、文字入力方法、および、文字入力プログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3589435B2 (ja) * 1996-10-15 2004-11-17 シャープ株式会社 データ入力処理装置
JPH10269021A (ja) * 1997-03-25 1998-10-09 Sharp Corp タッチパネル入力装置
US7614008B2 (en) * 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
JP3385965B2 (ja) 1998-04-20 2003-03-10 セイコーエプソン株式会社 入力装置及び入力方法
US7859519B2 (en) * 2000-05-01 2010-12-28 Tulbert David J Human-machine interface
JP4115198B2 (ja) * 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
FI20031758A (fi) * 2003-12-02 2005-06-03 Nokia Corp Merkkijonojen muokkaaminen kosketusnäytöllä
US7629966B2 (en) * 2004-12-21 2009-12-08 Microsoft Corporation Hard tap
US7619616B2 (en) * 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
NL1028523C2 (nl) * 2005-03-11 2006-09-12 Marcel Petrus Simons Computermuis met pootjes voor een centrerende, gelijkmatige weerstand met de ondergrond.
US20090066660A1 (en) * 2007-09-06 2009-03-12 Ure Michael J Interface with and communication between mobile electronic devices
JP5016050B2 (ja) * 2007-08-10 2012-09-05 京セラ株式会社 入力装置
US8421483B2 (en) * 2008-06-13 2013-04-16 Sony Ericsson Mobile Communications Ab Touch and force sensing for input devices
US8605960B2 (en) * 2009-03-02 2013-12-10 Avago Technologies General Ip (Singapore) Pte. Ltd. Fingerprint sensing device
KR101561911B1 (ko) * 2009-03-23 2015-10-20 엘지전자 주식회사 키 입력 방법 및 그 장치
JP5304544B2 (ja) * 2009-08-28 2013-10-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
KR20110036463A (ko) * 2009-10-01 2011-04-07 엘지전자 주식회사 이동단말기 및 그의 브라우징 방법
EP4318463A3 (en) * 2009-12-23 2024-02-28 Google LLC Multi-modal input on an electronic device
US8615376B2 (en) * 2010-05-21 2013-12-24 Sure-Shot Medical Device Inc. Method and apparatus for dimensional measurement
JP5722696B2 (ja) * 2011-05-10 2015-05-27 京セラ株式会社 電子機器、制御方法及び制御プログラム

Also Published As

Publication number Publication date
CN102004575A (zh) 2011-04-06
US20110054837A1 (en) 2011-03-03
JP2011048666A (ja) 2011-03-10
ATE536583T1 (de) 2011-12-15
EP2290506B1 (en) 2011-12-07
US9507511B2 (en) 2016-11-29
EP2290506A1 (en) 2011-03-02
CN102004575B (zh) 2015-02-18

Similar Documents

Publication Publication Date Title
JP5310389B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5304544B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10114494B2 (en) Information processing apparatus, information processing method, and program
US9003320B2 (en) Image forming apparatus with touchscreen and method of editing input letter thereof
US10437360B2 (en) Method and apparatus for moving contents in terminal
TWI553541B (zh) 用於詞意圖像對比的方法及計算裝置
US8355007B2 (en) Methods for use with multi-touch displays for determining when a touch is processed as a mouse event
US8581869B2 (en) Information processing apparatus, information processing method, and computer program
US20140245229A1 (en) Method and apparatus for operating object in user device
TWI463355B (zh) 多點觸控介面之訊號處理裝置、訊號處理方法及使用者介面圖像選取方法
WO2011027611A1 (ja) 操作制御装置、操作制御方法およびコンピュータプログラム
JP2018077867A (ja) 携帯端末機のユーザインターフェース提供方法および装置
US9081497B2 (en) Information processing apparatus, information processing method, and program
JP2006164238A (ja) タッチパッド入力情報の処理方法及びタッチパッド入力情報の処理装置
KR20100029877A (ko) 터치스크린을 이용한 컨텐츠 탐색 및 실행방법과 이를 이용한 장치
JP2010067178A (ja) 複数点入力可能な入力装置及び複数点入力による入力方法
JP5963291B2 (ja) タッチセンシティブ・スクリーンからシンボルを入力する方法および装置
WO2018159414A1 (ja) 端末装置及び操作制御プログラム
TWI486814B (zh) 游標控制裝置以及方法
KR20150060475A (ko) 터치스크린 상에 수신된 입력 제어 방법 및 장치
US20140184529A1 (en) Image capturing method of touch display module and electronic device
JP2011076245A (ja) 情報処理装置、入力装置及び情報処理装置の入力方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130617

LAPS Cancellation because of no payment of annual fees