JP2015146177A - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
JP2015146177A
JP2015146177A JP2014228097A JP2014228097A JP2015146177A JP 2015146177 A JP2015146177 A JP 2015146177A JP 2014228097 A JP2014228097 A JP 2014228097A JP 2014228097 A JP2014228097 A JP 2014228097A JP 2015146177 A JP2015146177 A JP 2015146177A
Authority
JP
Japan
Prior art keywords
touch
input device
area
input
touch operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014228097A
Other languages
English (en)
Inventor
康生 政木
Yasuo Masaki
康生 政木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2014228097A priority Critical patent/JP2015146177A/ja
Priority to EP15150002.2A priority patent/EP2891961A3/en
Priority to CN201510002802.0A priority patent/CN104765487A/zh
Priority to US14/590,292 priority patent/US20150193037A1/en
Publication of JP2015146177A publication Critical patent/JP2015146177A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Abstract

【課題】ユーザが用いる入力手段(指やペンなど)に適した入力操作を受け付けることが可能な入力装置を提供する。【解決手段】このスマートフォン100は、タッチパネル2と、タッチパネル2を用いて、ユーザによる入力情報を取得するSOC1とを備え、SOC1は、タッチ面積Sまたはタッチ部分の形状の少なくとも一方を取得して、取得したタッチ面積S、タッチ面積の変化量またはタッチ部分の形状の少なくとも1つに基づいて、同時に行われる複数のタッチ操作を許可するか否かを判断するように構成されている。【選択図】図1

Description

この発明は、入力装置に関し、特に、タッチパネルを備える入力装置に関する。
従来、タッチパネルを備える入力装置が知られている(たとえば、特許文献1参照)。
上記特許文献1には、接触した指またはペンの接触位置と接触面積とを検出するタブレット(タッチパネル)を備えたコンピュータ入力装置が開示されている。このコンピュータ入力装置は、タブレットに接触した指またはペンの面積に比例した太さのデジタルインクにより文字または画像を表示する制御を行うように構成されている。
特開平11−272422号公報
しかしながら、上記特許文献1のコンピュータ入力装置では、タブレットに接触した指またはペンの面積に比例した太さのデジタルインクにより文字または画像を表示する制御を行うことが可能である一方、指先特有の入力操作や、ペン等の入力デバイスの入力操作に応じた制御を行うことができないという不都合があると考えられる。すなわち、ユーザが用いる入力手段(指やペンなど)に適した入力操作を受け付けることできないという問題点があると考えられる。
この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、ユーザが用いる入力手段(指やペンなど)に適した入力操作を受け付けることが可能な入力装置を提供することである。
この発明の一の局面による入力装置は、タッチパネルと、タッチパネルを用いて、ユーザによる入力情報を取得する制御部とを備え、制御部は、入力情報からタッチ面積またはタッチ部分の形状の少なくとも一方を取得して、取得したタッチ面積、タッチ面積の変化量またはタッチ部分の形状の少なくとも1つに基づいて、同時に行われる複数のタッチ操作を許可するか否かを判断するように構成されている。
この発明の一の局面による入力装置では、上記のように構成することにより、同時に行われる複数のタッチ操作を許可すると判断した場合には、たとえば、同時に行われる複数本の指先によるタッチ操作であるマルチタッチ操作による入力を受け付けるので、画面上のオブジェクトを選択するポインティング操作に加えて、指先操作特有の2本の指を用いて表示画像全体に対して拡大、縮小等をさせるようなジェスチャ操作(ピンチイン、ピンチアウトなど)を受け付けることができる。また、同時に行われる複数のタッチ操作を許可しないと判断した場合には、たとえば、同時に行われる複数本の入力デバイス(入力デバイスを持つユーザの手等)がタッチパネルに触れてもタッチ操作を受け付けないようにすることができる。その結果、ユーザが用いる入力手段に適した入力操作を受け付けることができる。
上記一の局面による入力装置において、好ましくは、制御部は、同時に行われる複数のタッチ操作を許可しないと判断した場合には、連続する複数のタッチ操作のうちの1回目のタッチ操作を有効にするとともに、1回目のタッチ操作が有効な状態における2回目以降のタッチ操作を無効にするように構成されている。このように構成すれば、同時に行われる複数のタッチ操作を許可しない場合、たとえば、入力デバイスがタッチパネルに触れた後に、入力デバイス以外の物(たとえば、入力デバイスを持つユーザの手)がタッチパネルに触れた場合であってもタッチ操作を受け付けないので、ユーザの意図しない入力操作を誤って受け付けてしまうのを抑制することができる。
上記一の局面による入力装置において、好ましくは、制御部は、タッチ面積が第1面積しきい値以上の場合には、同時に行われる複数のタッチ操作を許可すると判断して、タッチ面積が第1面積しきい値未満の場合には、同時に行われる複数のタッチ操作を許可しないと判断するように構成されている。ここで、たとえば、指先操作など同時に行われる複数のタッチ操作が行われる際には、タッチ面積が比較的大きくなる場合が多い。一方、入力デバイス操作など同時に行われる複数のタッチ操作が行われない時は、タッチ面積が比較的小さくなる場合が多い。この点に着目して、本発明では、タッチ面積と第1面積しきい値とを比較することによって、容易に、同時に行われる複数のタッチ操作を許可するか否かを判断することができる。
上記一の局面による入力装置において、好ましくは、入力情報は、タッチ操作の位置情報を含み、制御部は、タッチ操作が継続されながらタッチ操作の位置が移動する場合に、タッチ面積の変化量を取得して、取得した変化量が第1変化量しきい値未満の場合に、同時に行われる複数のタッチ操作を許可しないと判断するように構成されている。ここで、同時に行われる複数のタッチ操作を行う場合(たとえば、指先操作)は、タッチ面積の変化量が比較的大きくなる。一方、同時に行われる複数のタッチ操作を行わない場合(たとえば、入力デバイス操作)は、タッチ面積の変化量が比較的小さくなる。この点に対して、本発明では、タッチ面積と第1変化量しきい値とを比較することによって、容易に、同時に行われる複数のタッチ操作を許可するか否かを判断することができる。
上記一の局面による入力装置において、好ましくは、入力情報は、タッチ操作の位置情報を含み、制御部は、タッチ操作が継続されながらタッチ操作の位置が移動する場合に、タッチ面積の変化量を取得して、同時に行われる複数のタッチ操作を許可すると判断した場合でかつ変化量が第2変化量しきい値未満の場合、または、同時に行われる複数のタッチ操作を許可しないと判断した場合でかつ変化量が第3変化量しきい値以上の場合に、再度、タッチ面積に基づいて、同時に行われる複数のタッチ操作を許可するか否かの判断を行うように構成されている。このように構成すれば、一旦、同時に行われる複数のタッチ操作を許可するか否かの判断がなされた場合でも、タッチ面積の変化量に基づいて、再度、同時に行われる複数のタッチ操作を許可するか否かが判断されるので、ユーザが用いる入力手段に対して、より確実に適した入力操作を受け付けることができる。
上記一の局面による入力装置において、好ましくは、制御部は、タッチ操作の後、所定の時間が経過するまで、同時に行われる複数のタッチ操作を許可するか否かの判断の結果を維持するように構成されている。このように構成すれば、ユーザの指先または入力デバイスがタッチパネルから一時的に離間した場合でも、継続して同じ判断の結果を用いた制御を行うことができるので、ユーザの意図しない入力操作を受け付けてしまうことをより抑制することができる。たとえば、ユーザが入力デバイスを用いてタッチ操作を行った後、次に入力デバイスにより入力するまでの間に、入力デバイスがタッチパネルから一時的に離間して、ユーザの手がタッチパネルに触れた場合にも入力操作であると判断されないので、継続してユーザの意図した入力手段によるタッチ操作を受け付けることができる。
この場合、好ましくは、制御部は、所定の時間が経過後、同時に行われる複数のタッチ操作を許可するか否かの判断の結果を消去するように構成されている。このように構成すれば、所定の時間内では、ユーザの意図しない入力操作を抑制しながら、所定の時間が経過後は、判断の結果を消去することによって、ユーザが入力手段を変更した場合でも、適切に、ユーザが用いる入力手段に対応した入力操作を受け付けることができる。
上記一の局面による入力装置において、好ましくは、制御部は、タッチ面積が第1面積しきい値未満で、かつ、第2面積しきい値以上の場合には、タッチ操作が通常の入力デバイスとは異なる特殊な入力デバイスによる操作であると判断するように構成されている。このように構成すれば、同時に行われる複数のタッチ操作を許可しないと判断された場合に、タッチ面積と、第1面積しきい値および第2面積しきい値とを比較することによって、容易に、通常の入力デバイスによる入力操作または特殊な入力デバイスによる入力操作のうちのいずれによって行われたかを判別することができる。なお、本明細書では、たとえば、通常の入力デバイスを、ポインティング操作、描画操作およびジェスチャ操作などの入力操作を行うことを目的とした入力デバイスを意味するものとして、特殊な入力デバイスを、描画の消去操作などの入力操作を行うことを目的とした入力デバイスを意味するものとして記載している。
上記一の局面による入力装置において、好ましくは、制御部は、入力情報からタッチ部分の形状として円形度を算出するように構成されており、円形度が円形度しきい値未満の場合には、タッチ操作が筆ペンによるタッチ操作であると判断するように構成されている。このように構成すれば、一般的に、筆ペンの円形度は比較的小さいので、タッチ操作された部分の円形度と円形度しきい値とを比較することにより、容易に、タッチ操作が筆ペンによる入力操作か、その他の入力手段による入力操作かを判別することができる。
この場合、好ましくは、筆ペンは、筆腹部と筆先部とを有するペン先を含み、制御部は、タッチ操作が筆ペンによるタッチ操作であると判断した場合に、タッチ操作された部分の重心およびタッチ操作の移動方向の少なくとも一方の情報に基づいて、筆腹部と筆先部とを判別するように構成されている。このように構成すれば、容易に、筆腹部と筆先部とを判別することができるので、正確に、入力デバイス(筆ペン)の形状に従ったタッチ操作を受け付けることができる。
上記一の局面による入力装置において、好ましくは、制御部は、同時に行われる複数のタッチ操作を許可しないと判断した場合には、タッチ操作を検出する時間分解能を、同時に行われる複数のタッチ操作を許可すると判断した場合より、高くする制御を行うように構成されている。このように構成すれば、一般的に、同時に行われる複数のタッチ操作を許可しないと判断する場合(たとえば、指先以外の入力デバイスを用いてタッチ操作する場合)のタッチ速度(筆記速度)は、同時に行われる複数のタッチ操作を許可する場合(たとえば、指先操作の場合)のタッチ速度に比べて速いので、入力デバイスによる速いタッチ操作が行われた場合でも、正確に、タッチ操作を受け付けることができる。また、指先操作等によってタッチ操作が行われた場合には、時間分解能を低くする分、制御部の処理の負担を軽減することができる。
この場合、好ましくは、制御部は、描画用アプリケーションソフトと、非描画用アプリケーションソフトとを動作可能に構成されており、同時に行われる複数のタッチ操作を許可しないと判断した場合で、かつ、描画用アプリケーションソフトの動作時には、タッチ操作を検出する時間分解能を、同時に行われる複数のタッチ操作を許可すると判断した場合、または、非描画用アプリケーションソフトの動作時より、高くする制御を行うように構成されている。ここで、一般的に、描画用アプリケーションソフトを動作している場合における入力デバイスを用いたユーザのタッチ速度(筆記速度)は、非描画用アプリケーションソフトを動作している場合における指先または入力デバイスを用いたユーザのタッチ速度よりも速い。この点において、本発明では、同時に行われる複数のタッチ操作を許可しないと判断した場合で、かつ、描画用アプリケーションソフトが動作している場合には時間分解能を高くすることにより、入力デバイスを用いてユーザが速いタッチ操作を行った場合であっても、正確に、タッチ操作を受け付けることができる。また、非描画用アプリケーションソフトを動作している場合には、時間分解能を低くする分、制御部の処理の負担を軽減することができる。なお、描画用アプリケーションソフトとは、ユーザによるタッチ操作によって入力された情報に基づいて、イラストを描画するソフトや、描画された文字を認識して文字情報等を取得するソフト(筆記アプリケーションソフト)等を含む広い概念のソフトを意味する。
本発明によれば、上記のように、ユーザが用いる入力手段(指やペンなど)に適した入力操作を受け付けることが可能な入力装置を提供することができる。
本発明の第1実施形態による入力装置の全体構成を示したブロック図である。 本発明の第1実施形態によるタッチ面積(指先)を説明するための図である。 本発明の第1実施形態によるタッチ面積(ペン)を説明するための図である。 本発明の第1実施形態によるタッチ面積の変化量(指先)を説明するための図である。 本発明の第1実施形態によるタッチ面積の変化量(ペン)を説明するための図である。 本発明の第1実施形態によるマルチタッチ操作を説明するための図である。 本発明の第1実施形態による入力デバイス操作(ペン)を説明するための図である。 本発明の第1実施形態による所定の時間を説明するための図である。 本発明の第1実施形態によるタッチ操作を受け付ける時間分解能を説明するための図である。 本発明の第1実施形態による入力装置の入力デバイス判別処理フローを説明するためのフローチャートである。 本発明の第1実施形態による入力装置の指先入力モード処理フローを説明するためのフローチャートである。 本発明の第1実施形態による入力装置のペン入力モード処理フローを説明するためのフローチャートである。 本発明の第2実施形態による入力デバイス操作(消しゴム)を説明するための図である。 本発明の第2実施形態による入力装置の入力デバイス判別処理フローを説明するためのフローチャートである。 本発明の第2実施形態による入力装置の消しゴム入力モード処理フローを説明するためのフローチャートである。 本発明の第3実施形態によるタッチ操作された部分の円形度を説明するための図である。 本発明の第3実施形態による入力デバイス操作(筆ペン)を説明するための図である。 本発明の第3実施形態による入力装置の入力デバイス判別処理フローを説明するためのフローチャートである。 本発明の第3実施形態による入力装置の筆ペン入力モード処理フローを説明するためのフローチャートである。 本発明の第4実施形態による入力装置の入力デバイス判別処理フローを説明するためのフローチャートである。 本発明の第5実施形態による入力装置の入力デバイス判別処理フローを説明するためのフローチャートである。
以下、本発明を具体化した実施形態を図面に基づいて説明する。
(第1実施形態)
図1〜図9を参照して、本発明の第1実施形態によるスマートフォン100の構成を説明する。
本発明の第1実施形態によるスマートフォン100は、図1に示すように、SOC(System On a chip)1と、タッチパネル2と、表示部3と、通信部4とを備えている。なお、スマートフォン100は、本発明の「入力装置」の一例である。また、SOC1は、本発明の「制御部」の一例である。
また、図1に示すように、表示部3は、液晶パネル等で構成されており、SOC1から出力された画像を表示するように構成されている。また、通信部4は、電話回線(図示せず)を介して、他の電話機器と通信可能に構成されている。
次に、SOC1は、CPU11と、フラッシュメモリ12と、タッチ情報生成部13と、通信I/F(インターフェース)14と、タッチパネルI/F15と、表示制御回路16と、内部バス17とを含む。SOC1内の部品は、内部バス17によってそれぞれ結合可能に構成されている。そして、タッチパネルI/F15は、タッチパネル2とSOC1とを接続するように構成されている。また、通信I/F14は、通信部4とSOC1とを接続するように構成されている。また、表示制御回路16は、表示部3に画像を表示させるための回路として構成されている。たとえば、表示制御回路16は、CPU11から出力された画像信号に基づいて、表示部3の液晶パネルの液晶分子の向きを制御することにより、表示部3に画像を表示させる。フラッシュメモリ12は、オペレーティングシステムを構成するソフトと、タッチパネル2が受け付けた入力操作に基づいて、表示部3に描画を行う描画用アプリケーションソフト(以下、「描画用アプリ」という)と、フラッシュメモリ12内に別途記憶された映像コンテンツを再生するプログラムを有する映像コンテンツ再生アプリケーションソフト(以下、「映像アプリ」という)等とが予め記憶(インストール)されている。なお、描画用アプリは、本発明の「描画用アプリケーション」の一例である。また、映像アプリは、本発明の「非描画用アプリケーション」の一例である。
次に、図2に示すように、タッチパネル2は、2次元アレイ状(図2のXY軸方向)にタッチセンサ(図2(a))が配置された透明の投影型静電容量式タッチパネルを含み、表示部3と一体的に構成されている。そして、タッチパネル2は、表示部3に表示される画像等の位置に対応したタッチ操作を受け付け可能に構成されており、タッチ情報生成部13は、タッチパネルのタッチセンサアレイが検出したタッチパネル2の入力情報を2次元の入力情報(座標情報)として取得するように構成されている。たとえば、図2(a)に示すように、タッチ情報生成部13は、X軸方向にn番目、Y軸方向にm番目のタッチセンサがタッチ操作を検出した場合には、X軸方向n番目およびY軸方向m番目の座標情報を取得するように構成されている。そして、タッチ情報生成部13は、取得したタッチパネル2の入力情報に基づいて、タッチ面積Sを算出するとともに、タッチされた部分の形状の情報を生成するように構成されている。そして、CPU11は、タッチ情報生成部13により算出されたタッチ面積Sとタッチ操作された部分の形状の情報を取得するように構成されている。たとえば、図2(b)および図2(c)に示すように、タッチ情報生成部13は、ユーザの指先がタッチパネルに触れた位置(図2(b)の符号A)に対応するタッチパネル2の入力情報を2次元(XY軸方向座標)で取得して、タッチ面積S(図2(c)の符号S1)を算出するように構成されている。
また、図2に示すように、CPU11は、タッチ操作された部分の形状を、図2(d)に示すように、取得したタッチパネル2の入力情報に基づいて、円形近似を行うことにより半径情報を取得する、または、楕円近似を行うことにより長半径(図2(d)の符号R1)と短半径(図2(d)の符号R2)と長軸の向き(矢印R3)の情報とを取得するように構成されている。そして、CPU11は、描画用アプリ等を動作させている場合には、取得したタッチ操作された部分の形状の情報に基づいた描画を出力するように構成されている。たとえば、CPU11は、取得したタッチパネル2の入力情報に基づいて、円形近似を行うことにより半径情報を取得して、描画を出力する際には、取得した半径情報の真円を描画出力するように構成されている。
ここで、第1実施形態では、図2に示すように、CPU11は、タッチ面積Sが第1面積しきい値T1以上の場合には、タッチ操作は、指先操作であると判断するように構成されている。たとえば、図2(c)に示すように、CPU11は、ユーザの指先がタッチパネルに触れた面積であるタッチ面積S1を取得して、第1面積しきい値T1との比較を行うように構成されている。そして、タッチ面積S1が第1面積しきい値T1以上の場合には、CPU11は、タッチ操作(図2(c)の符号A)が指先操作である(同時に行われる複数のタッチ操作を許可する)と判断して、後述する指先入力モードを実行するように構成されている。
また、第1実施形態では、図3に示すように、CPU11は、タッチ面積Sが第1面積しきい値T1未満の場合には、タッチ操作が入力デバイス操作であると判断するように構成されている。たとえば、図3(a)および(b)に示すように、CPU11は、入力デバイスがタッチパネルに触れた面積であるタッチ面積S2を取得して、第1面積しきい値T1との比較を行うように構成されている。そして、タッチ面積S2が第1面積しきい値T1未満の場合には、CPU11は、タッチ操作(図3(b)の符号B)が入力デバイス(ペン)である(同時に行われる複数のタッチ操作を許可しない)と判断して、後述するペン入力モードを実行するように構成されている。なお、ペンは、本発明の「通常の入力デバイス」の一例である。
そして、第1実施形態では、図4に示すように、CPU11は、タッチ操作を受け付けた後、継続してタッチ操作が行われた場合、タッチ面積Sの変化量を取得するように構成されている。そして、取得したタッチ面積Sの変化量およびタッチ面積Sに基づいて、タッチ操作が指先操作と入力デバイス(ペン入力)操作とのいずれによって行われたかを判別するように構成されている。具体的には、図4(a)に示すように、タッチパネル2が、ユーザにより符号C方向に連続的に指先を移動させるようなタッチ操作を受け付けた場合、CPU11は、図4(b)に示すように、タッチ面積S1a〜S1dを取得するように構成されている。そして、取得したタッチ面積S1a〜S1dのそれぞれの差分を算出するように構成されている。そして、算出された差分と第2変化量しきい値T2との比較を行うように構成されている。たとえば、CPU11は、指先入力モードを実行中に、タッチ面積S1aとS1bとの差分の値が、第2変化量しきい値T2未満の場合には、指先入力モードをリセットするように構成されている。そして、CPU11は、指先入力モードをリセットした後にタッチ操作されたタッチ面積Sに基づいて、指先操作と入力デバイス操作との判別(同時に行われる複数のタッチ操作を許可するか否かの判断)を行うように構成されている。
また、CPU11は、描画用アプリ等を動作させている場合には、取得したタッチ面積Sの変化量に基づいた描画を出力するように構成されている。たとえば、CPU11は、取得したタッチ面積Sが時間とともに縮小している場合には、描画出力する画像の色の濃度を薄くするように構成されているとともに、取得したタッチ面積Sが時間とともに拡大している場合には、描画出力する画像の色の濃度を濃くするように構成されている。
また、図5に示すように、CPU11は、入力デバイス(ペン)によるタッチ操作を受け付けた後、継続してタッチ操作が行われた場合には、タッチ面積Sの変化量を取得するように構成されている。たとえば、CPU11は、ペン入力モードを実行中に、連続的にタッチ操作(図5の矢印D)された場合には、タッチ面積S2a〜S2dを取得するように構成されている。そして、CPU11は、タッチ面積S2aとS2bとの差分の値(タッチ面積Sの変化量)が、第3変化量しきい値T3以上の場合には、ペン入力モードをリセットするように構成されている。そして、CPU11は、ペン入力モードをリセットした後にタッチ操作されたタッチ面積Sに基づいて、指先操作と入力デバイス操作との判別(同時に行われる複数のタッチ操作を許可するか否かの判断)を行うように構成されている。
そして、第1実施形態では、図6に示すように、CPU11は、指先入力モードを実行している場合には、同時に複数の指先操作を受け付けるタッチ操作であるマルチタッチ操作と、2本の指を用いて表示部3に表示されている画像全体に対して拡大、縮小等をさせるようなジェスチャ操作とを受け付けるように構成されている。たとえば、図6(a)に示すように、ユーザの人差し指(図6(a)の符号A1)および親指(図6(a)の符号A2)の2本を、タッチパネル2にタッチした場合には、CPU11は、図6(b)に示すように、2つのタッチ操作の入力情報を取得するように構成されている。そして、ユーザの親指と人差しとの間隔を広げるように動かした場合(図6の矢印)には、CPU11は、図6(b)に示すように、取得した2つのタッチ操作の位置が近づくかまたは離れるかのいずれであるかを判別して、2つのタッチ操作の位置が近づく場合には、表示部3の画像を縮小して、2つのタッチ操作の座標が離れる場合には、表示部3の画像を拡大する制御を行うように構成されている。
一方、図7に示すように、CPU11がペン入力モードを実行している場合には、同時に行われる複数本の入力デバイスによるタッチ操作を受け付けない制御を行うように構成されている。具体的には、図7(b)に示すように、入力デバイス(ペン)によるタッチ操作(図7の符号B1)を行いながら、ユーザの手がタッチパネル2に触れた(図7の符号B2で面積S3)場合には、CPU11は、ユーザの手がタッチパネル2に触れることによるタッチ操作(図7の符号B2で面積S3)の情報による入力操作は受け付けない制御を行うように構成されている。
また、図8に示すように、CPU11は、タッチ操作が入力デバイス(ペン入力)操作であると判断した場合には、連続する複数のタッチ操作のうちの1回目のタッチ操作を有効にするとともに、1回目のタッチ操作が有効な状態における2回目以降のタッチ操作を無効にするように構成されている。具体的には、図8(a)に示すように、ペンによるタッチ操作(図8(a)の符号B1)をタッチパネル2が検出して、CPU11がペン入力モードを実行している際に、図8(b)に示すように、ペンによるタッチ操作(図8(b)の符号B1)が有効な状態における2回目以降のタッチ操作(図8(b)の符号B2)が行われた場合には、CPU11は、2回目以降のタッチ操作(図8(b)の符号B2)による入力操作は受け付けない(無効にする)制御を行うように構成されている。すなわち、CPU11は、ペン入力モードを実行している場合には、マルチタッチ操作を受け付けないように構成されている。
そして、第1実施形態では、図8に示すように、CPU11は、タッチ面積Sに基づいて、タッチ操作が、指先操作または入力デバイス操作のうちのいずれによって行われたかを判別した後、ユーザ指先または入力デバイスがタッチパネルから離間した場合でも、所定の時間が経過するまで、判別した結果を維持する制御を行うように構成されている。
具体的には、図8(a)に示すように、ペンによるタッチ操作(図8(a)の符号B1)をタッチパネル2が検出して、CPU11がペン入力モードの実行を開始した後に、図8(b)に示すように、ペンによるタッチ操作(図8(b)の符号B1)が有効な状態における2回目以降のタッチ操作(図8(b)の符号B2)が行われた場合には、上記したように、CPU11は、2回目以降のタッチ操作(図8(b)の符号B2)による入力操作は受け付けない(無効にする)制御を行うように構成されている。そして、CPU11は、2回目以降のタッチ操作(図8(b)の符号B2)が行われている状態において、図8(c)に示すように、タッチ操作(図8の符号B1)を行っていたペンを離間された場合には、所定の時間が経過するまでは、ペン入力モードの実行を継続するように構成されており、判断されたペン入力以外のタッチ操作(図8(b)の符号B2)による入力操作を行わないように構成されている。すなわち、CPU11は、所定の時間が経過するまでは、判別した結果を維持するように構成されている。また、図8(d)に示すように、CPU11は、所定の時間が経過するまでに、判断されたペン入力によるタッチ操作を再び受け付けた場合には、タッチ操作を再び受け付けた時点より改めて時間の経過を測定するように構成されている。なお、所定の時間は、ユーザの設定操作によって変更可能に構成されており、たとえば、2秒程度の時間により構成されている。
ここで、第1実施形態では、図9に示すように、CPU11は、描画用アプリと、映像アプリとを動作可能に構成されており、CPU11は、タッチ操作が入力デバイス(ペン入力)操作であると判断した場合で、かつ、描画用アプリが動作している場合、タッチパネル2が検出するタッチ操作の時間分解能を、映像アプリを動作している場合、および、指先操作によってタッチ操作が行われたと判断した場合よりも高くする制御を行うように構成されている。
具体的には、図9(a)に示すように、CPU11が描画用アプリを動作させている状態で、入力デバイス(ペン入力)操作によるタッチ操作を受け付けた場合には、図9(b)に示すように、指先操作によるタッチ操作を受け付けた場合よりも、CPU11は、タッチパネル2が検出するタッチ操作の時間分解能を高くする(検出周期を短くする)ように構成されている。そして、CPU11が、映像アプリを動作させている場合には、図9(c)および(d)に示すように、入力デバイス(ペン入力)操作によるタッチ操作(図9(c))を受け付けた場合と、指先操作によるタッチ操作(図9(d))を受け付けた場合とにおけるタッチパネル2が検出するタッチ操作の時間分解能は、等しくするように構成されている。
次に、図10を参照して、第1実施形態によるスマートフォン100の入力デバイス判別フローについて説明する。スマートフォン100における処理は、CPU11により行われる。
まず、図10に示すように、スマートフォン100では、ステップS1において、タッチパネル2がタッチ操作を受け付けたか否かが判断される。タッチ操作を受け付けるまでこの判断は繰り返され、タッチ操作を受け付けた場合、ステップS2に進む。そして、ステップS2において、タッチ面積Sの取得が行われる。その後、ステップS3に進む。
ここで、第1実施形態では、ステップS3において、タッチ面積Sが第1面積しきい値T1以上か否かが判断される。タッチ面積Sが第1面積しきい値T1以上の場合、ステップS4に進み、タッチ面積Sが第1面積しきい値T1未満の場合、ステップS5に進む。
そして、ステップS3においてタッチ面積Sが第1面積しきい値T1以上の場合であるステップS4において、後述する指先入力モード(図11参照)が実行される。その後、ステップS1に戻る。
また、ステップS3においてタッチ面積Sが第1面積しきい値T1未満の場合であるステップS5において、後述するペン入力モード(図12参照)が実行される。その後、ステップS1に戻る。
次に、図11を参照して、第1実施形態によるスマートフォン100の指先入力モードフローについて説明する。スマートフォン100における処理は、CPU11により行われる。
まず、図11に示すように、スマートフォン100では、ステップS11において、指先入力モードが実行される。指先入力モードでは、同時に行われる複数本の指先によるタッチ操作を受け付け可能にする制御が行われる。すなわち、上記したマルチタッチ操作およびジェスチャ操作による入力操作を受け付けるように制御が行われる。そして、ステップS12に進む。ステップS12において、タッチ操作が継続されているか否かが判断される。タッチパネル2が継続してタッチ操作を受け付けている場合には、ステップS15に進み、タッチ操作を受け付けていない場合は、ステップS13に進む。
そして、ステップS13において、所定の時間が経過したか否かが判断される。所定の時間が経過している場合には、ステップS17に進み、所定の時間が経過していない場合には、ステップS14に進む。
そして、ステップS14において、タッチパネル2がタッチ操作を受け付けたか否かが判断される。タッチパネル2がタッチ操作を受け付けている場合には、ステップS12に戻り、タッチ操作を受け付けていない場合は、ステップS13に戻る。
また、ステップS12においてタッチ操作が継続されていると判断された場合には、ステップS15において、タッチ面積Sの変化量が取得される。その後、ステップS16に進む。そして、ステップS16において、タッチ面積Sの変化量が第2変化量しきい値T2以上か否かが判断される。第2変化量しきい値T2以上の場合には、ステップS12に戻り、第2変化量しきい値T2以上でない場合は、ステップS17に進む。
そして、ステップS13において所定の時間が経過した場合、または、ステップS16においてタッチ面積Sの変化量が第2変化量しきい値T2以上でない場合、ステップS17において、指先入力モードのリセットが行われる。すなわち、所定の時間が経過後、同時に行われる複数のタッチ操作を許可するか否かの判断(入力デバイスの判別)の結果が消去され、指先入力モードの処理が終了される。つまり、上記した入力デバイス判別処理フロー(図10参照)におけるステップS4の処理が終了される。
次に、図12を参照して、第1実施形態によるスマートフォン100のペン入力モードフローについて説明する。スマートフォン100における処理は、CPU11により行われる。
まず、図12に示すように、スマートフォン100では、ステップS21において、ペン入力モードが実行される。ペン入力モードでは、同時に行われる複数本の入力デバイスによるタッチ操作を受け付けない制御が行われる。すなわち、上記したマルチタッチ操作およびジェスチャ操作による入力操作は受け付けないように制御が行われる。そして、ステップS22に進む。ステップS22において、タッチ操作が継続されているか否かが判断される。タッチパネル2が継続してタッチ操作を受け付けている場合には、ステップS25に進み、タッチ操作を受け付けていない場合は、ステップS23に進む。
そして、ステップS23において、所定の時間が経過したか否かが判断される。所定の時間が経過している場合には、ステップS27に進み、所定の時間が経過していない場合には、ステップS24に進む。
そして、ステップS24において、タッチパネル2がタッチ操作を受け付けたか否かが判断される。タッチパネル2がタッチ操作を受け付けている場合には、ステップS22に戻り、タッチ操作を受け付けていない場合は、ステップS23に戻る。
また、ステップS22においてタッチ操作が継続されていると判断された場合には、ステップS25において、タッチ面積Sの変化量が取得される。その後、ステップS26に進む。そして、ステップS26において、タッチ面積Sの変化量が第3変化量しきい値T3以上か否かが判断される。第3変化量しきい値T3以上の場合には、ステップS27に進み、第3変化量しきい値T3以上でない場合は、ステップS22に戻る。
そして、ステップS23において所定の時間が経過した場合、または、ステップS26においてタッチ面積Sの変化量が第3変化量しきい値T3以上の場合、ステップS27において、ペン入力モードのリセットが行われる。すなわち、所定の時間が経過後、同時に行われる複数のタッチ操作を許可するか否かの判断(入力デバイスの判別)の結果が消去され、ペン入力モードの処理が終了される。つまり、上記した入力デバイス判別処理フロー(図10参照)におけるステップS5の処理が終了される。
第1実施形態では、以下のような効果を得ることができる。
第1実施形態では、上記のように、SOC1を、タッチパネル2の入力情報からタッチ面積Sを取得して、取得したタッチ面積Sに基づいて、同時に行われる複数のタッチ操作を許可するか否かを判断するように構成する。これにより、同時に行われる複数のタッチ操作を許可すると判断した場合には、指先入力モードとして同時に行われる複数本の指先によるタッチ操作であるマルチタッチ操作による入力を受け付けるので、画面上のオブジェクトを選択するポインティング操作に加えて、指先操作特有の2本の指を用いて表示画像全体に対して拡大、縮小等をさせるようなジェスチャ操作(ピンチイン、ピンチアウトなど)を受け付けることができる。また、同時に行われる複数のタッチ操作を許可しないと判断した場合には、ペン入力モードとして同時に行われる複数本の入力デバイス(入力デバイスを持つユーザの手等)がタッチパネルに触れてもタッチ操作を受け付けないようにすることができる。その結果、ユーザが用いる入力手段に適した入力操作を受け付けることができる。
また、第1実施形態では、上記のように、SOC1を、同時に行われる複数のタッチ操作を許可しないと判断した場合(ペン入力モードの場合)には、連続する複数のタッチ操作のうちの1回目のタッチ操作を有効にするとともに、1回目のタッチ操作が有効な状態における2回目以降のタッチ操作を無効にするように構成する。これにより、入力デバイス(ペン)がタッチパネルに触れた後に、入力デバイス以外の物(たとえば、入力デバイスを持つユーザの手)がタッチパネルに触れた場合であってもタッチ操作を受け付けないので、ユーザの意図しない入力操作が入力操作であると誤って判断されてしまうのを抑制することができる。
また、第1実施形態では、上記のように、SOC1を、タッチ面積Sが第1面積しきい値T1以上の場合には、同時に行われる複数のタッチ操作を許可すると判断して、タッチ面積Sが第1面積しきい値T1未満の場合には、同時に行われる複数のタッチ操作を許可しないと判断するように構成する。ここで、たとえば、指先操作など同時に行われる複数のタッチ操作が行われる際には、タッチ面積Sが比較的大きくなる場合(図4参照)が多い。一方、入力デバイス操作(ペン入力)など同時に行われる複数のタッチ操作が行われない時は、タッチ面積Sが比較的小さくなる場合(図5参照)が多い。この点に着目して、第1実施形態では、タッチ面積Sと第1面積しきい値T1とを比較することによって、容易に、同時に行われる複数のタッチ操作を許可するか否かを判断することができる。
また、第1実施形態では、上記のように、入力装置100を、タッチパネル2の入力情報に、タッチ操作の2次元の入力情報(座標情報)を含むように構成する。また、SOC1を、タッチ操作が継続されながらタッチ操作の位置が移動する場合に、タッチ面積Sの変化量を取得して、同時に行われる複数のタッチ操作を許可すると判断した場合でかつ変化量が第2変化量しきい値T2未満の場合、または、同時に行われる複数のタッチ操作を許可しないと判断した場合でかつ変化量が第3変化量しきい値T3以上の場合に、再度、タッチ面積Sに基づいて、同時に行われる複数のタッチ操作を許可するか否かの判断を行うように構成する。これにより、一旦、同時に行われる複数のタッチ操作を許可するか否かの判断がなされた場合でも、タッチ面積Sの変化量に基づいて、再度、同時に行われる複数のタッチ操作を許可するか否かが判断されるので、ユーザが用いる入力手段に対して、より確実に適した入力操作を受け付けることができる。
また、第1実施形態では、上記のように、SOC1を、タッチ操作の後、所定の時間が経過するまで、同時に行われる複数のタッチ操作を許可するか否かの判断の結果を維持するように構成する。これにより、ユーザの指先または入力デバイスがタッチパネル2から一時的に離間した場合でも、継続して同じ判別結果を用いた制御を行うことができるので、ユーザの意図しない入力操作をより抑制することができる。ユーザが入力デバイスを用いてタッチ操作を行った後、次に入力デバイスにより入力するまでの間に、入力デバイスがタッチパネルから一時的に離間して、ユーザの手がタッチパネルに触れた場合(図7および図8参照)にも入力操作であると判断されないので、継続してユーザの意図した入力手段によるタッチ操作を行うことができる。
また、第1実施形態では、上記のように、SOC1を、所定の時間が経過後、同時に行われる複数のタッチ操作を許可するか否かの判断の結果を消去(リセット)するように構成する。これにより、所定の時間内では、ユーザの意図しない入力操作を抑制しながら、所定の時間が経過後は、判断の結果を消去する(入力モードをリセットする)ことによって、ユーザが入力手段を変更した場合でも、適切に、ユーザが用いる入力手段に対応した入力操作を受け付けることができる。
また、第1実施形態では、上記のように、SOC1を、同時に行われる複数のタッチ操作を許可しないと判断した場合(ペン入力モードの場合)には、タッチ操作を検出する時間分解能を、同時に行われる複数のタッチ操作を許可すると判断した場合(指先入力モード)より、高くする制御を行うように構成する。これにより、入力デバイス(ペン)による速いタッチ操作が行われた場合でも、正確に、タッチ操作を受け付けることができる。また、指先操作によってタッチ操作が行われた場合には、時間分解能を低くする分、SOC1の処理の負担を軽減することができる。
また、第1実施形態では、上記のように、SOC1を、描画用アプリと、映像アプリとを動作可能に構成して、同時に行われる複数のタッチ操作を許可しないと判断した場合で、かつ、描画用アプリの動作時には、タッチ操作を検出する時間分解能を、同時に行われる複数のタッチ操作を許可すると判断した場合、または、映像アプリの動作時より、高くする制御を行うように構成する。ここで、一般的に、描画用アプリを動作している場合における入力デバイス(ペン)を用いたユーザのタッチ速度(筆記速度)は、映像アプリを動作している場合における指先または入力デバイスを用いたユーザのタッチ速度よりも速い。この点において、第1実施形態では、同時に行われる複数のタッチ操作を許可しないと判断した場合で、かつ、描画用アプリが動作している場合には時間分解能を高くすることにより、入力デバイス(ペン)を用いてユーザが速いタッチ操作を行った場合であっても、正確に、タッチ操作を受け付けることができる。また、映像アプリを動作している場合には、時間分解能を低くする分、SOC1の処理の負担を軽減することができる。
(第2実施形態)
次に、図1および図13を参照して、第2実施形態によるスマートフォン101の構成について説明する。第2実施形態によるスマートフォン101は、取得したタッチ面積と第1面積しきい値との比較に基づいて入力操作デバイス(指先またはペンのうちのいずれか)の判別を行うように構成されていた第1実施形態によるスマートフォン100と異なり、取得したタッチ面積と第1面積しきい値との比較に加えて、取得したタッチ面積と第2面積しきい値との比較に基づいて入力操作デバイス(指先またはペンまたは消しゴムのうちのいずれか)の判別を行うように構成されている。なお、消しゴムは、本発明の「特殊な入力デバイス」の一例である。
図1に示すように、第2実施形態によるスマートフォン101は、SOC5を含み、SOC5は、CPU51を含む。
そして、第2実施形態では、図13に示すように、SOC5は、タッチ面積Sが第1面積しきい値T1未満であり、かつ、第2面積しきい値T4以上の場合には、タッチ操作は、消しゴムによる入力操作であると判断して、タッチ面積Sが第2面積しきい値T4未満の場合には、タッチ操作は、ペンによる入力操作であると判断するように構成されている。具体的には、図13(a)に示すように、CPU51は、タッチ操作(図13の符号B3)を受け付けた場合には、タッチ面積S4を取得して、タッチ面積S4が第1面積しきい値T1未満であり、かつ、第2面積しきい値T4以上の場合には、消しゴムによるタッチ操作が行われたと判断するように構成されている。
そして、CPU51は、描画用アプリ等を動作させている場合に、かつ、タッチ操作が消しゴムによって行われたと判断した場合には、タッチ操作された部分の位置に応じた表示部3の表示されている描画画像を消去する制御を行うように構成されている。また、第2実施形態によるスマートフォン101のその他の構成は、第1実施形態におけるスマートフォン100と同様である。
次に、図14を参照して、第2実施形態によるスマートフォン101の入力デバイス判別フローについて説明する。スマートフォン101における処理は、CPU51により行われる。
まず、図14に示すように、スマートフォン101では、ステップS1およびステップS2においては、第1実施形態における入力デバイス判別フローのステップS1およびステップS2と同様の処理を行う。ステップS2の処理の後、ステップS31に進む。ステップS31において、タッチ面積Sが第1面積しきい値T1以上か否かが判断される。タッチ面積Sが第1面積しきい値T1以上の場合、ステップS32に進み、タッチ面積Sが第1面積しきい値T1未満の場合、ステップS33に進む。
そして、ステップS32において、指先入力モード(図11参照)が実行される。その後、ステップS1に戻る。なお、指先入力モードにおける処理は、第1実施形態における指先入力モードにおける処理と同様である。
また、ステップS31においてタッチ面積Sが第1面積しきい値T1以上でないと判断された場合であるステップS33において、タッチ面積Sが第2面積しきい値T4以上か否かが判断される。タッチ面積Sが第2面積しきい値T4以上の場合、ステップS35に進み、タッチ面積Sが第2面積しきい値T4未満の場合、ステップS34に進む。
そして、ステップS34において、ペン入力モード(図12参照)が実行される。その後、ステップS1に戻る。なお、ペン入力モードにおける処理は、第1実施形態におけるペン入力モードにおける処理と同様である。
そして、ステップS33においてタッチ面積Sが第2面積しきい値T4以上であると判断された場合であるステップS35において、後述する消しゴム入力モード(図15参照)が実行される。その後、ステップS1に戻る。
次に、図15を参照して、第2実施形態によるスマートフォン101の消しゴム入力モードフローについて説明する。スマートフォン101における処理は、CPU51により行われる。
まず、図15に示すように、スマートフォン101では、ステップS41において、消しゴム入力モードが実行される。消しゴム入力モードでは、同時に行われる複数本の入力デバイスによるタッチ操作を受け付けない制御が行われる。すなわち、上記したマルチタッチ操作およびジェスチャ操作による入力操作は受け付けないように制御が行われる。そして、ステップS42に進む。ステップS42において、タッチ操作が継続されているか否かが判断される。タッチパネル2が継続してタッチ操作を受け付けている場合には、ステップS45に進み、タッチ操作を受け付けていない場合は、ステップS43に進む。
そして、ステップS43において、所定の時間が経過したか否かが判断される。所定の時間が経過している場合には、ステップS47に進み、所定の時間が経過していない場合には、ステップS44に進む。
そして、ステップS44において、タッチパネル2がタッチ操作を受け付けたか否かが判断される。タッチパネル2がタッチ操作を受け付けている場合には、ステップS42に戻り、タッチ操作を受け付けていない場合は、ステップS43に戻る。
また、ステップS42においてタッチ操作が継続されていると判断された場合には、ステップS45において、タッチ面積Sの変化量が取得される。その後、ステップS46に進む。そして、ステップS46において、タッチ面積の変化量が第4変化量しきい値以上か否かが判断される。第4変化量しきい値以上の場合には、ステップS47に進み、第4変化量しきい値以上でない場合は、ステップS42に戻る。
そして、ステップS43において所定の時間が経過した場合、または、ステップS46においてタッチ面積Sの変化量が第4変化量しきい値以上の場合、ステップS47において、消しゴム入力モードのリセットが行われる。すなわち、消しゴム入力モードの処理が終了され、上記した入力デバイス判別処理フロー(図14参照)におけるステップS35の処理が終了される。
第2実施形態では、以下のような効果を得ることができる。
第2実施形態では、上記のように、SOC5を、タッチ面積Sが第1面積しきい値T1未満で、かつ、第2面積しきい値T4以上の場合には、タッチ操作が通常の入力デバイス(ペン)とは異なる特殊な入力デバイス(消しゴム)による操作であると判断するように構成する。これにより、同時に行われる複数のタッチ操作を許可しないと判断された場合に、タッチ面積Sと、第1面積しきい値T1および第2面積しきい値T4とを比較することによって、容易に、通常の入力デバイス(ペン)による入力操作または特殊な入力デバイス(消しゴム)による入力操作のうちのいずれによって行われたかを判別することができる。また、第2実施形態によるスマートフォン101のその他の効果は、第1実施形態におけるスマートフォン100と同様である。
(第3実施形態)
次に、図1、図16および図17を参照して、第3実施形態によるスマートフォン102の構成について説明する。第3実施形態によるスマートフォン102は、取得したタッチ面積と第1面積しきい値との比較に基づいて入力操作デバイス(指先またはペンのうちのいずれか)の判別を行うように構成されていた、第1実施形態によるスマートフォン100と異なり、取得したタッチ面積と第1面積しきい値との比較に加えて、取得したタッチ操作された部分の円形度の情報に基づいて入力操作デバイス(指先または丸いペン先を有するペン(以下、丸ペン)または筆状のペン先を有するペン(以下、筆ペン)のうちのいずれか)の判別を行うように構成されている。
図1に示すように、第3実施形態によるスマートフォン102は、SOC6を含み、SOC6は、CPU61およびタッチ情報生成部62を含む。
そして、第3実施形態では、図16に示すように、タッチ情報生成部62は、タッチパネル2がタッチ操作を受け付けた場合、タッチ操作された部分の円形度Jを後述する円形度の算出方法に基づいて、算出するように構成されている。そして、CPU61は、タッチ面積Sに加えて、タッチ情報生成部62により算出されたタッチ操作された部分の円形度Jを取得するように構成されている。また、CPU61は、タッチ面積S5が第1面積しきい値T1以上の場合には、タッチ操作は、指先操作または筆ペン入力操作であると判断するように構成されている。そして、CPU61は、タッチ操作された部分の円形度Jが円形度しきい値T5以上の場合には、タッチ操作が指先操作によって行われたと判断して、タッチ操作された部分の円形度Jが円形度しきい値T5未満の場合には、タッチ操作が筆ペンによる操作によって行われたと判断する制御を行うように構成されている。
また、第3実施形態では、図17に示すように、筆ペンは、筆腹部(図17の符号E)と筆先部(図17の符号F)とを含み、CPU61は、タッチ操作が筆ペンによって行われたと判断した場合には、タッチ操作された部分の重心の位置に基づいて、筆腹部と筆先部とを判別するように構成されている。具体的には、タッチ情報生成部62は、タッチパネル2が受け付けた入力情報に基づいて、タッチ操作された部分の重心の位置(図17の符号G)を算出するように構成されており、CPU61は、算出されたタッチ操作された部分の重心の位置を取得するように構成されている。そして、CPU61は、タッチ操作された部分(図17の符号B4)のうち重心に近い部分を筆腹部と判断して、タッチ操作された部分(図17の符号B4)のうち重心から遠い部分を筆先部と判断するように構成されている。
また、第3実施形態では、図17に示すように、CPU61は、タッチ操作が筆ペンによって行われたと判断した場合には、タッチ操作された部分の移動方向の情報に基づいて、筆腹部と筆先部とを判別するように構成されている。具体的には、タッチ操作が継続して行われた場合には、CPU61は、タッチ操作された部分の移動方向の情報を取得するように構成されている。そして、CPU61は、受け付けた筆ペンによるタッチ操作のうち移動方向側(図17の矢印H方向)のタッチ操作を筆腹部によるタッチ操作と判断して、受け付けた筆ペンによるタッチ操作のうち移動方向の反対側(図17の矢印Hの反対方向)のタッチ操作を筆先部によるタッチ操作と判断するように構成されている。
そして、CPU61は、描画用アプリ等を動作させている場合に、かつ、タッチ操作が筆ペンによって行われたと判断した場合には、筆腹部によってタッチ操作された部分を濃い配色による描画を行うように描画出力を行い、筆先部によってタッチ操作された部分を薄い配色による描画を行うように描画出力をするように構成されている。また、第3実施形態によるスマートフォン102のその他の構成は、第1実施形態におけるスマートフォン100と同様である。
次に、図16を参照して、タッチ操作された部分の円形度の情報の取得方法について説明する。
図16(a)に示すように、タッチ操作が行われた場合には、タッチ情報生成部62は、タッチパネル2が検出した入力情報に基づいて、タッチ面積S6およびタッチ操作された部分の周囲長L1を算出する。そして、タッチ情報生成部62は、下記の式(1)に基づいて、タッチ操作された部分の円形度Jを算出する。なお、円形度Jは、真円の場合には、1.0であり、正方形の場合には、0.79であり、正三角形の場合には、0.60である。
円形度J=(4π×面積S)/(周囲長L)・・・(1)
そして、CPU61は、算出されたタッチ操作された部分の円形度Jを取得して、取得した円形度Jが円形度しきい値T5以上の場合、タッチ操作が指先操作であると判断する。一方、図16(b)に示すように、タッチ面積S5およびタッチ操作された部分の周囲長L2の円形度しきい値T5未満の円形度Jのタッチ操作が行われた場合には、CPU61は、タッチ操作が筆ペンによる操作であると判断する。
次に、図18を参照して、第3実施形態によるスマートフォン102の入力デバイス判別フローについて説明する。スマートフォン102における処理は、CPU61により行われる。
まず、図18に示すように、スマートフォン102では、ステップS51において、タッチ操作を受け付けたか否かが判断される。タッチ操作を受け付けるまでこの判断は繰り返され、タッチ操作を受け付けた場合、ステップS52に進む。そして、ステップS52において、タッチ面積Sおよびタッチ操作された部分の円形度Jが取得される。その後、ステップS53に進む。ステップS53において、タッチ面積Sが第1面積しきい値T1以上か否かが判断される。タッチ面積Sが第1面積しきい値T1以上の場合、ステップS55に進み、タッチ面積Sが第1面積しきい値T1未満の場合、ステップS54に進む。
そして、ステップS54において、ペン入力モード(図12参照)が実行される。その後、ステップS51に戻る。なお、ペン入力モードにおける処理は、第1実施形態におけるペン入力モードにおける処理と同様である。
また、ステップS53においてタッチ面積Sが第1面積しきい値T1以上であると判断された場合であるステップS55において、タッチ操作された部分の円形度Jが円形度しきい値T5以上か否かが判断される。タッチ操作された部分の円形度Jが円形度しきい値T5以上の場合、ステップS56に進み、タッチ操作された部分の円形度Jが円形度しきい値T5以上でない場合、ステップS57に進む。
そして、ステップS56において、指先入力モード(図11参照)が実行される。その後、ステップS51に戻る。なお、指先入力モードにおける処理は、第1実施形態における指先入力モードにおける処理と同様である。
そして、ステップS55においてタッチ操作された部分の円形度Jが円形度しきい値T5以上でないと判断された場合であるステップS57において、後述する筆ペン入力モード(図19参照)が実行される。その後、ステップS51に戻る。
次に、図19を参照して、第3実施形態によるスマートフォン102の筆ペン入力モードフローについて説明する。スマートフォン102における処理は、CPU61により行われる。
まず、図19に示すように、スマートフォン102では、ステップS61において、筆ペン入力モードが実行される。筆ペン入力モードでは、同時に行われる複数本の入力デバイスによるタッチ操作を受け付けない制御が行われる。すなわち、上記したマルチタッチ操作およびジェスチャ操作による入力操作は受け付けないように制御が行われる。そして、ステップS62に進む。ステップS62において、タッチ操作された部分の形状から筆腹部および筆先部が判別される。その後、ステップS63に進む。
次に、ステップS63において、タッチ操作が継続されているか否かが判断される。タッチパネル2が継続してタッチ操作を受け付けている場合には、ステップS66に進み、タッチ操作を受け付けていない場合は、ステップS64に進む。
そして、ステップS64において、所定の時間が経過したか否かが判断される。所定の時間が経過している場合には、ステップS68に進み、所定の時間が経過していない場合には、ステップS65に進む。
そして、ステップS65において、タッチパネル2がタッチ操作を受け付けたか否かが判断される。タッチパネル2がタッチ操作を受け付けた場合には、ステップS62に戻り、タッチ操作を受け付けていない場合は、ステップS64に戻る。
また、ステップS63においてタッチ操作が継続されていると判断された場合に進むステップS66において、タッチ操作された部分の移動方向が取得される。その後、ステップS67に進む。そして、ステップS67において、タッチ操作された部分の移動方向から筆腹部および筆先部が判別される。その後、ステップS63に戻る。
そして、ステップS63において所定の時間が経過した場合に進むステップS68において、筆ペン入力モードのリセットが行われる。すなわち、筆ペン入力モードの処理が終了され、上記した入力デバイス判別処理フロー(図18参照)におけるステップS57の処理が終了される。
第3実施形態では、以下のような効果を得ることができる。
第3実施形態では、上記のように、SOC6を、タッチパネル2の入力情報からタッチ部分の形状として円形度Jを算出するように構成する。また、SOC6を、円形度Jが円形度しきい値T5未満の場合には、タッチ操作が筆ペンによるタッチ操作であると判断するように構成する。これにより、一般的に、筆ペンの円形度Jは比較的小さいので、タッチ操作された部分の円形度Jと円形度しきい値T5とを比較することにより、容易に、タッチ操作が筆ペンによる入力操作か、その他の入力手段による入力操作(指先操作)かを判別することができる。
また、第3実施形態では、上記のように、SOC6を、タッチ操作が筆ペンによるタッチ操作であると判断した場合に、タッチ操作された部分の重心Gおよびタッチ操作の移動方向Hの少なくとも一方の情報に基づいて、筆腹部と筆先部とを判別するように構成する。これにより、容易に、筆腹部と筆先部とを判別することができるので、正確に、入力デバイス(筆ペン)の形状に従ったタッチ操作を受け付けることができる。また、第3実施形態によるスマートフォン102のその他の効果は、第1実施形態におけるスマートフォン100と同様である。
(第4実施形態)
次に、図1を参照して、第4実施形態によるスマートフォン103の構成について説明する。第4実施形態によるスマートフォン103は、取得したタッチ面積Sおよび円形度Jの両方に基づいて、タッチ操作が筆ペンによるものか否かの判断を行うように構成されていた、第3実施形態によるスマートフォン102と異なり、取得した円形度Jのみに基づいて、タッチ操作が筆ペンによるものか否かを判断するように構成されている。
図1に示すように、第4実施形態によるスマートフォン103は、SOC7を含み、SOC7は、CPU71およびタッチ情報生成部62を含む。なお、タッチ情報生成部62は、第3実施形態によるスマートフォン102のタッチ情報生成部62と同様に構成されており、タッチ部分の円形度Jを算出することが可能に構成されている。そして、SOC7は、円形度Jが円形度しきい値T5未満の場合には、タッチ操作が筆ペンによるタッチ操作であると判断するように構成されている。また、第4実施形態によるスマートフォン103のその他の構成は、第1実施形態におけるスマートフォン100と同様である。
次に、図20を参照して、第4実施形態によるスマートフォン103の入力デバイス判別フローについて説明する。スマートフォン103における処理は、CPU71により行われる。
まず、図20に示すように、スマートフォン103では、ステップS71において、タッチ操作を受け付けたか否かが判断される。タッチ操作を受け付けるまでこの判断は繰り返され、タッチ操作を受け付けた場合、ステップS72に進む。そして、ステップS72において、タッチ操作された部分の円形度Jが取得される。その後、ステップS73に進む。
そして、ステップS73において、円形度Jが円形度しきい値T5以上か否かが判断される。円形度Jが円形度しきい値T5以上の場合、ステップS75に進み、円形度Jが円形度しきい値T5未満の場合、ステップS74に進む。
そして、ステップS74において、筆ペン入力モード(図19参照)が実行される。その後、ステップS71に戻る。なお、筆ペン入力モードにおける処理は、第3実施形態における筆ペン入力モードにおける処理と同様である。
また、ステップS73において円形度Jが円形度しきい値T5以上であると判断された場合であるステップS75において、タッチ面積Sが第1面積しきい値T1以上か否かが判断される。タッチ面積Sが第1面積しきい値T1以上の場合、ステップS76に進み、タッチ面積Sが第1面積しきい値T1未満の場合、ステップS77に進む。
そして、ステップS76において、指先入力モード(図11参照)が実行される。その後、ステップS71に戻る。なお、指先入力モードにおける処理は、第1実施形態における指先入力モードにおける処理と同様である。
そして、ステップS75においてタッチ面積Sが第1面積しきい値T1未満と判断された場合であるステップS77において、ペン入力モード(図12参照)が実行される。その後、ステップS71に戻る。なお、ペン入力モードにおける処理は、第1実施形態におけるペン入力モードにおける処理と同様である。
第4実施形態では、以下のような効果を得ることができる。
第4実施形態では、上記のように、SOC7を、取得したタッチ部分の形状(たとえば、円形度J)に基づいて、同時に行われる複数のタッチ操作を許可するか否か(筆ペン入力モードにするか否か)を判断するように構成する。これにより、第4実施形態における入力装置103においても、ユーザが用いる入力手段に適した入力操作を受け付けることができる。
また、第4実施形態では、上記のように、SOC7を、タッチパネル2の入力情報からタッチ部分の形状として円形度Jを算出するように構成する。また、SOC7を、円形度Jが円形度しきい値T5未満の場合には、タッチ操作が筆ペンによるタッチ操作であると判断するように構成する。これにより、一般的に、筆ペンの円形度Jは比較的小さいので、タッチ操作された部分の円形度Jと円形度しきい値T5とを比較することにより、容易に、タッチ操作が筆ペンによる入力操作か、その他の入力手段による入力操作(指先操作およびペン入力による操作)かを判別することができる。また、第4実施形態によるスマートフォン103のその他の効果は、第1実施形態におけるスマートフォン100と同様である。
(第5実施形態)
次に、図1を参照して、第5実施形態によるスマートフォン104の構成について説明する。第5実施形態によるスマートフォン104は、取得したタッチ面積Sと第1面積しきい値T1との比較に基づいて、タッチ操作がペン入力であるか否かを判断するように構成されていた第1実施形態によるスマートフォン100と異なり、取得したタッチ面積Sの変化量に基づいて、タッチ操作がペン入力であるか否かを判断するように構成されている。
図1に示すように、第5実施形態によるスマートフォン104は、SOC8を含み、SOC8は、CPU81とタッチ情報生成部62とを含む。そして、SOC8は、タッチパネル2の入力情報からタッチ面積Sの変化量を取得して、取得したタッチ面積Sの変化量に基づいて、同時に行われる複数のタッチ操作を許可するか否かを判断するように構成されている。なお、タッチ情報生成部62は、第3実施形態によるスマートフォン102のタッチ情報生成部62と同様に構成されており、タッチ部分の円形度Jを算出することが可能に構成されている。また、第5実施形態によるスマートフォン104のその他の構成は、第1実施形態におけるスマートフォン100と同様である。
次に、図21を参照して、第5実施形態によるスマートフォン104の入力デバイス判別フローについて説明する。スマートフォン104における処理は、CPU81により行われる。
まず、図21に示すように、スマートフォン104では、ステップS81において、タッチ操作を受け付けたか否かが判断される。タッチ操作を受け付けるまでこの判断は繰り返され、タッチ操作を受け付けた場合、ステップS82に進む。そして、ステップS82において、タッチ面積Sが取得される。その後、ステップS83に進む。
そして、ステップS83において、タッチ操作が継続されているとともに、タッチ操作の位置が移動しているか否かが判断される。タッチ操作が継続されているとともに、タッチ操作の位置が移動している場合には、ステップS84に進み、タッチ操作が継続されていない、または、タッチ操作の位置が移動していない場合には、ステップS81に戻る。
そして、ステップS84において、タッチ面積Sの変化量の取得(図4および図5参照)が行われる。その後、ステップS85に進む。
そして、ステップS85において、タッチ面積Sの変化量が第1変化量しきい値T6以上か否かが判断される。タッチ面積Sの変化量が第1変化量しきい値T6以上の場合には、ステップS86に進み、タッチ面積Sの変化量が第1変化量しきい値T6未満の場合には、ステップS88に進む。
そして、ステップS86において、タッチ部分の円形度Jが円形度しきい値T5以上か否かが判断される。タッチ部分の円形度Jが円形度しきい値T5以上の場合には、ステップS87に進み、タッチ部分の円形度Jが円形度しきい値T5未満の場合には、ステップS89に進む。
そして、ステップS87において、指先入力モード(図11参照)が実行される。その後、ステップS81に戻る。なお、指先入力モードにおける処理は、第1実施形態における指先入力モードにおける処理と同様である。
また、ステップS85においてタッチ面積Sの変化量が第1変化量しきい値T6未満の場合に進むステップS88において、ペン入力モード(図12参照)が実行される。その後、ステップS81に戻る。なお、ペン入力モードにおける処理は、第1実施形態におけるペン入力モードにおける処理と同様である。
また、ステップS86においてタッチ部分の円形度Jが円形度しきい値T5未満の場合に進むステップS89において、筆ペン入力モード(図19参照)が実行される。その後、ステップS81に戻る。なお、筆ペン入力モードにおける処理は、第3実施形態における筆ペン入力モードにおける処理と同様である。
第5実施形態では、以下のような効果を得ることができる。
第5実施形態では、上記のように、SOC8を、タッチ面積Sの変化量を取得して、取得したタッチ面積Sの変化量に基づいて、同時に行われる複数のタッチ操作を許可するか否か(ペン入力モードにするか否か)を判断するように構成する。これにより、第5実施形態における入力装置104においても、ユーザが用いる入力手段に適した入力操作を受け付けることができる。
また、第5実施形態では、上記のように、SOC8を、タッチ操作が継続されながらタッチ操作の位置が移動する場合に、タッチ面積Sの変化量を取得して、取得した変化量が第1変化量しきい値T6未満の場合に、同時に行われる複数のタッチ操作を許可しないと判断するように構成する。ここで、同時に行われる複数のタッチ操作を行う場合(たとえば、指先操作)は、タッチ面積Sの変化量が比較的大きくなる。一方、同時に行われる複数のタッチ操作を行わない場合(たとえば、入力デバイス操作)は、タッチ面積Sの変化量が比較的小さくなる。この点に対して、第5実施形態では、タッチ面積Sと第1変化量しきい値T6とを比較することによって、容易に、同時に行われる複数のタッチ操作を許可するか否かを判断することができる。また、第5実施形態によるスマートフォン104のその他の効果は、第1実施形態におけるスマートフォン100と同様である。
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
たとえば、第1〜第5実施形態では、本発明の入力装置の一例として、スマートフォンに適用する例を示したが、本発明はこれに限られない。本発明は、スマートフォン以外の入力装置にも適用可能である。たとえば、タブレットやパーソナルコンピュータ用のタッチパネル操作機器などにも適用可能である。
また、第1〜第5実施形態では、タッチパネルの一例として、投影型静電タッチパネルを含む例を示したが、本発明はこれに限られない。本発明は、投影型静電タッチパネル以外の2次元タッチセンサアレイを備えたタッチパネルを用いてもよい。
また、第1〜第5実施形態では、本発明の入力デバイスの一例として、ペンと消しゴムと筆ペンとに適用する例を示したが、本発明はこれに限られない。本発明は、ペンと消しゴムと筆ペンと以外の入力デバイスにも適用可能である。たとえば、スタンプなどにも適用可能である。
また、第1〜第5実施形態では、第1面積しきい値および第2面積しきい値により指先操作と入力デバイスとの判別を行うように構成する例を示したが、本発明はこれに限られない。たとえば、さらに第3面積しきい値を用いて、指先よりも著しく大きい面積(図8の符号S3参照)等を受け付けないように構成してもよい。
また、第1〜第5実施形態では、非描画アプリケーションソフトの一例として、映像アプリを用いる例を示したが、本発明はこれに限られない。本発明は、映像アプリ以外の非描画アプリケーションソフトにも適用可能である。
また、第1〜第5実施形態では、所定の時間の一例として、指先操作と入力デバイスとに同じ所定の時間を用いたが、本発明はこれに限られない。本発明では、指先または入力デバイスの所定の時間をそれぞれ異なる値に構成してもよい。
また、第3実施形態では、タッチ操作された部分の重心の位置の情報を、筆状のペン先を有するペンにおける筆腹部および筆先部の判別に用いる例を示したが、本発明はこれに限られない。タッチ操作された部分の重心の位置の情報を指先操作と筆状のペン先を有するペンとの判別に用いてもよい。この場合、タッチ操作された部分の中心部分と重心との距離が所定のしきい値未満の場合には、指先操作と判断して、タッチ操作された部分の中心部分と重心との距離が所定のしきい値以上の場合には、筆状のペン先を有するペンによる操作が行われたと判断するように構成する。
また、第1〜第5実施形態を個別に構成する例を示したが、本発明はこれに限られない。本発明では、第1〜第5実施形態を組み合わせた構成にしてもよい。たとえば、第2実施形態におけるタッチ面積と2つの面積しきい値とを比較することによって、丸ペンと消しゴムと指先との判別を行うとともに、第3実施形態におけるタッチ操作された部分の円形度に基づいて、指先と筆ペンとを判別することによって、丸ペンと消しゴムと指先と筆ペンとを判別可能に構成してもよい。
また、第1〜第5実施形態では、説明の便宜上、本発明の制御部の処理を処理フローに沿って順番に処理を行うフロー駆動型のフローチャートを用いて説明したが、本発明はこれに限られない。本発明では、制御部の処理動作を、イベントごとに処理を実行するイベント駆動型(イベントドリブン型)の処理により行ってもよい。この場合、完全なイベント駆動型で行ってもよいし、イベント駆動およびフロー駆動を組み合わせて行ってもよい。
1、5、6、7、8 SOC(制御部)
2 タッチパネル
100、101、102、103、104 スマートフォン(入力装置)

Claims (12)

  1. タッチパネルと、
    前記タッチパネルを用いて、ユーザによる入力情報を取得する制御部とを備え、
    前記制御部は、前記入力情報からタッチ面積またはタッチ部分の形状の少なくとも一方を取得して、取得した前記タッチ面積、前記タッチ面積の変化量または前記タッチ部分の形状の少なくとも1つに基づいて、同時に行われる複数のタッチ操作を許可するか否かを判断するように構成されている、入力装置。
  2. 前記制御部は、前記同時に行われる複数のタッチ操作を許可しないと判断した場合には、連続する複数のタッチ操作のうちの1回目の前記タッチ操作を有効にするとともに、1回目の前記タッチ操作が有効な状態における2回目以降の前記タッチ操作を無効にするように構成されている、請求項1に記載の入力装置。
  3. 前記制御部は、前記タッチ面積が第1面積しきい値以上の場合には、前記同時に行われる複数のタッチ操作を許可すると判断して、前記タッチ面積が前記第1面積しきい値未満の場合には、前記同時に行われる複数のタッチ操作を許可しないと判断するように構成されている、請求項1または2に記載の入力装置。
  4. 前記入力情報は、前記タッチ操作の位置情報を含み、
    前記制御部は、前記タッチ操作が継続されながら前記タッチ操作の位置が移動する場合に、前記タッチ面積の変化量を取得して、取得した前記変化量が第1変化量しきい値未満の場合に、前記同時に行われる複数のタッチ操作を許可しないと判断するように構成されている、請求項1〜3のいずれか1項に記載の入力装置。
  5. 前記入力情報は、前記タッチ操作の位置情報を含み、
    前記制御部は、前記タッチ操作が継続されながら前記タッチ操作の位置が移動する場合に、前記タッチ面積の変化量を取得して、前記同時に行われる複数のタッチ操作を許可すると判断した場合でかつ前記変化量が第2変化量しきい値未満の場合、または、前記同時に行われる複数のタッチ操作を許可しないと判断した場合でかつ前記変化量が第3変化量しきい値以上の場合に、再度、前記タッチ面積に基づいて、前記同時に行われる複数のタッチ操作を許可するか否かの判断を行うように構成されている、請求項1〜4のいずれか1項に記載の入力装置。
  6. 前記制御部は、前記タッチ操作の後、所定の時間が経過するまで、前記同時に行われる複数のタッチ操作を許可するか否かの判断の結果を維持するように構成されている、請求項1〜5のいずれか1項に記載の入力装置。
  7. 前記制御部は、前記所定の時間が経過後、前記同時に行われる複数のタッチ操作を許可するか否かの判断の結果を消去するように構成されている、請求項6に記載の入力装置。
  8. 前記制御部は、前記タッチ面積が第1面積しきい値未満で、かつ、第2面積しきい値以上の場合には、前記タッチ操作が通常の入力デバイスとは異なる特殊な入力デバイスによる操作であると判断するように構成されている、請求項1〜7のいずれか1項に記載の入力装置。
  9. 前記制御部は、前記タッチ部分の形状として円形度を算出して、前記円形度が円形度しきい値未満の場合には、前記タッチ操作が筆ペンによる前記タッチ操作であると判断するように構成されている、請求項1〜8のいずれか1項に記載の入力装置。
  10. 前記筆ペンは、筆腹部と筆先部とを有するペン先を含み、
    前記制御部は、前記タッチ操作が前記筆ペンによる前記タッチ操作であると判断した場合に、前記タッチ操作された部分の重心および前記タッチ操作の移動方向の少なくとも一方の情報に基づいて、前記筆腹部と前記筆先部とを判別するように構成されている、請求項9に記載の入力装置。
  11. 前記制御部は、前記同時に行われる複数のタッチ操作を許可しないと判断した場合には、前記タッチ操作を検出する時間分解能を、前記同時に行われる複数のタッチ操作を許可すると判断した場合より、高くする制御を行うように構成されている、請求項1〜10のいずれか1項に記載の入力装置。
  12. 前記制御部は、描画用アプリケーションソフトと、非描画用アプリケーションソフトとを動作可能に構成されており、前記同時に行われる複数のタッチ操作を許可しないと判断した場合で、かつ、前記描画用アプリケーションソフトの動作時には、前記タッチ操作を検出する時間分解能を、前記同時に行われる複数のタッチ操作を許可すると判断した場合、または、前記非描画用アプリケーションソフトの動作時より、高くする制御を行うように構成されている、請求項11に記載の入力装置。
JP2014228097A 2014-01-06 2014-11-10 入力装置 Pending JP2015146177A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014228097A JP2015146177A (ja) 2014-01-06 2014-11-10 入力装置
EP15150002.2A EP2891961A3 (en) 2014-01-06 2015-01-02 Input apparatus
CN201510002802.0A CN104765487A (zh) 2014-01-06 2015-01-05 输入装置
US14/590,292 US20150193037A1 (en) 2014-01-06 2015-01-06 Input Apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014000516 2014-01-06
JP2014000516 2014-01-06
JP2014228097A JP2015146177A (ja) 2014-01-06 2014-11-10 入力装置

Publications (1)

Publication Number Publication Date
JP2015146177A true JP2015146177A (ja) 2015-08-13

Family

ID=52273014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014228097A Pending JP2015146177A (ja) 2014-01-06 2014-11-10 入力装置

Country Status (4)

Country Link
US (1) US20150193037A1 (ja)
EP (1) EP2891961A3 (ja)
JP (1) JP2015146177A (ja)
CN (1) CN104765487A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101575086B1 (ko) 2015-09-08 2015-12-07 주식회사 알지에스전자 초음파를 이용한 터치입력 처리시스템
KR20190097973A (ko) * 2018-02-13 2019-08-21 삼성전자주식회사 전자 장치 및 그 동작 방법
JP2019532361A (ja) * 2016-09-22 2019-11-07 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co.,Ltd. タッチパネル用のタッチ制御方法、タッチパネル、タッチパネル用のアクティブスタイラス及びタッチパネルを含むタッチ制御表示装置
JP2020160712A (ja) * 2019-03-26 2020-10-01 株式会社デンソー タッチ位置検出システム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015174110A1 (ja) * 2014-05-14 2017-04-20 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP6564249B2 (ja) * 2015-01-09 2019-08-21 シャープ株式会社 タッチパネルおよび操作判定方法
JP2016197284A (ja) * 2015-04-02 2016-11-24 富士通株式会社 電子機器、制御方法および制御プログラム
CN107003759B (zh) * 2015-08-31 2020-10-16 华为技术有限公司 一种选择文本的方法
CN110058782B (zh) * 2016-02-22 2020-11-24 广州视睿电子科技有限公司 基于交互式电子白板的触摸操作方法及其系统
JP6668972B2 (ja) * 2016-06-27 2020-03-18 富士ゼロックス株式会社 情報処理装置及びプログラム
JP6693300B2 (ja) 2016-06-27 2020-05-13 富士ゼロックス株式会社 情報処理装置及びプログラム
US10248226B2 (en) * 2017-02-10 2019-04-02 Microsoft Technology Licensing, Llc Configuring digital pens for use across different applications
CN110543246A (zh) * 2018-05-28 2019-12-06 深圳市鸿合创新信息技术有限责任公司 一种触控事件处理方法及触控屏装置
CN109298809A (zh) * 2018-07-24 2019-02-01 深圳市创易联合科技有限公司 一种触控动作识别方法、装置及终端设备
CN112817483B (zh) * 2021-01-29 2023-08-08 网易(杭州)网络有限公司 多点触控的处理方法、装置、设备及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272422A (ja) 1998-03-19 1999-10-08 Ricoh Co Ltd コンピュータ入力装置
US7511703B2 (en) * 2004-06-28 2009-03-31 Microsoft Corporation Using size and shape of a physical object to manipulate output in an interactive display application
JP5664147B2 (ja) * 2010-09-06 2015-02-04 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2012111010A1 (en) * 2011-02-15 2012-08-23 N-Trig Ltd. Tracking input to a multi-touch digitizer system
US9235340B2 (en) * 2011-02-18 2016-01-12 Microsoft Technology Licensing, Llc Modal touch input
FR2979025A1 (fr) * 2011-08-12 2013-02-15 Stantum Procede de caracterisation de toucher sur un ecran tactile
WO2013076725A1 (en) * 2011-11-21 2013-05-30 N-Trig Ltd. Customizing operation of a touch screen
KR20130123691A (ko) * 2012-05-03 2013-11-13 삼성전자주식회사 터치 입력 방법 및 이를 적용한 터치 디스플레이 장치

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101575086B1 (ko) 2015-09-08 2015-12-07 주식회사 알지에스전자 초음파를 이용한 터치입력 처리시스템
WO2017043759A1 (ko) * 2015-09-08 2017-03-16 주식회사 알지에스전자 초음파를 이용한 터치입력 처리시스템
JP2019532361A (ja) * 2016-09-22 2019-11-07 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co.,Ltd. タッチパネル用のタッチ制御方法、タッチパネル、タッチパネル用のアクティブスタイラス及びタッチパネルを含むタッチ制御表示装置
KR20190097973A (ko) * 2018-02-13 2019-08-21 삼성전자주식회사 전자 장치 및 그 동작 방법
KR102469754B1 (ko) * 2018-02-13 2022-11-22 삼성전자주식회사 전자 장치 및 그 동작 방법
JP2020160712A (ja) * 2019-03-26 2020-10-01 株式会社デンソー タッチ位置検出システム
WO2020195835A1 (ja) * 2019-03-26 2020-10-01 株式会社デンソー タッチ位置検出システム

Also Published As

Publication number Publication date
EP2891961A3 (en) 2015-07-15
US20150193037A1 (en) 2015-07-09
EP2891961A2 (en) 2015-07-08
CN104765487A (zh) 2015-07-08

Similar Documents

Publication Publication Date Title
JP2015146177A (ja) 入力装置
AU2021201777B2 (en) Devices, methods, and graphical user interfaces for wireless pairing with peripheral devices and displaying status information concerning the peripheral devices
EP3262499B1 (en) Device, method, and computer readable storage medium for providing and interacting with a virtual drawing aid
JP6341996B2 (ja) カメラインターフェース間で切り替えるためのデバイス、方法及びグラフィカルユーザインターフェース
US9665276B2 (en) Character deletion during keyboard gesture
CN110568965B (zh) 用于处理触敏表面多个区域上触摸输入的设备和方法
EP2847662B1 (en) Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
KR102129374B1 (ko) 사용자 인터페이스 제공 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
CN107683458B (zh) 用于操纵相关应用程序窗口的设备、方法和图形用户界面
CN107850978A (zh) 用于在文档编辑中提供手写支持的设备和方法
KR20150014083A (ko) 전자 장치 및 전자 장치의 입력 인식 방법
US10613732B2 (en) Selecting content items in a user interface display
JP2012252652A (ja) タッチパネル入力装置
JP6359862B2 (ja) タッチ操作入力装置、タッチ操作入力方法及びプログラム
US10318047B2 (en) User interface for electronic device, input processing method, and electronic device
JP2015088147A (ja) タッチパネル入力装置及び入力処理プログラム
US11287960B2 (en) Device, method, and graphical user interface for moving drawing objects
JP6408273B2 (ja) 情報処理装置、情報処理プログラムおよび情報処理方法
JP2013246482A (ja) 操作入力装置
JP2019079094A (ja) 入力装置及びプログラム
JP6659109B2 (ja) 電子機器、その制御方法、およびプログラム、並びに記憶媒体
JP6584876B2 (ja) 情報処理装置、情報処理プログラムおよび情報処理方法
JP2016181077A (ja) 情報処理装置、情報処理プログラムおよび情報処理方法