JP2004021933A - Input device and input method - Google Patents
Input device and input method Download PDFInfo
- Publication number
- JP2004021933A JP2004021933A JP2002180294A JP2002180294A JP2004021933A JP 2004021933 A JP2004021933 A JP 2004021933A JP 2002180294 A JP2002180294 A JP 2002180294A JP 2002180294 A JP2002180294 A JP 2002180294A JP 2004021933 A JP2004021933 A JP 2004021933A
- Authority
- JP
- Japan
- Prior art keywords
- input
- display
- screen
- key
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、タッチパネルを備える入力装置及び入力方法に関するものである。
【0002】
【従来の技術】
近年、無線通信ネットワークの発展に伴って電子機器の小型化が急速に進み、携帯性の優れたPDA(Personal Digital Assistants )や電子手帳等の電子機器が開発されている。このような電子機器においては、表示画面に重ねて設けられたタッチパネル式の入力装置が使用され、表示画面上に表示されるアイコンやキーボード画面等に直接触れることにより入力操作を行う。これにより、電子機器の筐体にキーボード等の入力装置を設ける必要がなく、小型化された電子機器の表示画面を極力大きく構成することが可能となっている。
【0003】
具体的には、この入力装置の表面において、手指や専用ペンの先端がアイコンやキーボード画面に触れると、タッチパネルがその位置座標を検出してCPUに出力し、CPUにより位置座標に対応する入力情報が取得され、入力操作に応じた各種処理が実行される。なお、この様なタッチパネルによる位置検出方式には、主として抵抗膜方式、静電容量方式、超音波方式、赤外線方式等がある。
【0004】
【発明が解決しようとする課題】
しかしながら、上述したような携帯性に優れた電子機器は表示画面が小さく、表示可能な領域に制限があるため、表示画面に表示されるメニュー、アイコンやキーボード画面は小さく表示される。したがって、例えば、キーボード画面においては、個々のキーが指より小さく表示されるため、手指で入力操作する際に、手指によりキーが隠されてしまう場合がある。このため、手指がどこをさしているかわかり難く、操作性が悪いという問題があった。また、専用ペンで入力操作する場合であっても、表示されているキーが小さい場合、視認性が悪く、入力間違いを起こしやすいという問題があった。
【0005】
本発明の課題は、タッチパネルを備える入力装置の視認性を向上させて、操作性のよい入力装置及び入力方法を提供することである。
【0006】
【課題を解決するための手段】
上記課題を解決するために、本発明に係る入力装置は、表示手段と、前記表示手段を覆うように設けられ、押圧指示位置の座標情報を出力するタッチパネルと、前記表示手段に情報入力用の入力画面を表示させる入力画面表示手段と、前記入力画面表示手段により表示された入力画面に対し、ユーザが押圧指示しようとする位置を検出する検出手段と、前記入力画面表示手段により表示されている入力画面のうち、前記検出手段により検出された押圧指示しようとする位置に対応する一部の画面を、押圧指示しようとする位置を示す表示体と共に入力ガイド表示として、入力画面と別に表示させる入力ガイド表示手段と、前記入力画面上での押圧指示に応じて前記タッチパネルが出力した座標情報に基づいて、所定の入力処理を行う入力手段とを備えることを特徴とする。
【0007】
したがって、本発明によれば、例えば、入力操作を行う際に、タッチパネルにより入力指示しようとした場合、その位置に表示されているキーやメニュー項目等の情報を、指示位置を示す表示体と共に入力ガイド表示として所定の領域に表示させることができ、入力対象となる情報を容易に認識することができる。これにより、表示手段が小さい入力装置であっても、視認性を向上させることができ、入力ミスを防止して操作性を向上させることができる。
【0008】
【発明の実施の形態】
以下、図を参照して本発明の実施の形態を詳細に説明する。ただし、発明の範囲は、図示例に限定されない。
【0009】
まず、構成を説明する。
図1は、本発明に係るデータ入力装置1の外観構成を示す図である。ここで、データ入力装置1は、例えば、PDA、電子手帳等の電子機器により構成され、図1に示すように、筐体10の外面には、タッチパネル12、表示部13、キーユニット14、センサユニット17を備えている。また、筐体10の内部には、図示しないCPU11、RAM15、記憶装置16が収められている。
【0010】
図2は、図1に示すデータ入力装置1の内部構成を示すブロック図である。図2に示すように、データ入力装置1は、CPU11、タッチパネル12、表示部13、キーユニット14、RAM15、記憶装置16、センサユニット17等により構成され、各部はバス18により接続されている。タッチパネル12は、表示部13の表示画面を覆うように設けられている。本実施の形態では、タッチパネルは、タッチされた位置に関するX,Y座標データ及びZ軸のデータ(押圧力)が得られる超音波表面弾性波方式のものを用いる。
【0011】
CPU11は、記憶装置16あるいは内蔵されるROM(図示せず)に記憶されているデータ入力装置1に対応する各種アプリケーションプログラムの中から指定されたアプリケーションプログラムをRAM15内のワークメモリエリアに格納し、RAM15内に格納したアプリケーションプログラムに従って各種処理を実行し、その処理結果をRAM15内のワークメモリエリアに格納する。
【0012】
具体的に、CPU11は、記憶装置16から入力処理プログラムを読み出して、後述する入力処理(図3参照)を実行する。以下の説明では、入力処理はキーボードを表示して、表示されたキーから1つのキーをユーザがタッチすることで入力する処理を例とするが、入力はキーボードに限らず、メニュー項目が表示されるメニューボードを用いた入力処理や、各種アイコンの表示を選択する入力処理にも適用できる。
【0013】
キー入力処理においては、CPU11は、必要に応じて表示部13にキーボード画面を表示させ、タッチ指示(押圧指示)が検出されると、タッチ指示の押圧力を示すZ値を検出して、Z値が所定値以上であるかを判断する。ここで、Z値が所定値以上である場合、CPU11は、タッチ指示が入力指示であると判断して、タッチ指示された位置座標(X、Y値)を取得する。また、CPU11は、取得した位置座標が入力画面のキーボード画面上であるかを判断し、タッチ指示がキーボード画面上で指示されている場合、位置座標に対応するキーを取得し、当該キーの入力を行う。
【0014】
一方、Z値が所定値以下である場合、CPU11は、ユーザが入力のために押圧指示しようとしていると判断し、つまり入力の前段階であると判断し、タッチ指示された位置座標(X、Y値)を取得する。そしてCPU11は、取得した位置座標がキーボード画面上であるかを判断し、タッチ指示がキーボード画面上で指示されている場合、指等で隠されたキーボードの一部を拡大して表示するための表示領域を決定する。
【0015】
ここで、CPU11は、表示領域を決定する際に、キー入力処理の一部として後述する拡大表示処理1〜3を実行する。なお、この拡大表示処理1〜3は、ユーザの設定により、拡大表示処理1〜3のいずれを実行するかが予め決定されおり、どの拡大表示処理を実行するかにより、所定の表示領域が決定され、拡大キーが表示される構成となっている。
【0016】
そして、CPU11は、拡大キーが表示されると、タッチ指示(ポイント指示)されている位置を示す表示体を拡大キーに重畳して表示させる。これはユーザに対して、入力しようとしているキーであって、ユーザの指等により見え難くなったキーを間違いなく指示する操作をガイドしたことになる。さらに、CPU11は、表示部13の表面におけるタッチ指示の押圧力を示すZ値が所定値以上になったか否かを判断して、Z値が所定値以上になった場合、タッチ指示が入力指示であると判断して、タッチ指示された位置座標(X、Y値)を取得する。ここで、CPU11は、取得した位置座標がキーボード画面上であるかを判断し、位置座標がキーボード画面上である場合、対応するキーの入力処理を行い、拡大キーを消去する。
【0017】
また、Z値が所定値以上になっていない場合、CPU11は、手指がタッチパネル12の表面から離れたかを判断し、手指がタッチパネル12の表面から離れた場合、拡大キーを消去する。或いは、手指がタッチパネル12から移動した場合、新たなタッチ指示の位置座標を検出して、拡大キーの表示を行う。
【0018】
次に、上述した拡大表示処理1〜3におけるCPU11の機能を説明する。まず、ユーザの設定により、拡大表示処理1を実行する場合、CPU11は、後述するセンサユニット17から入力される検出信号により、入力を行っている手指が左手であるか、右手であるかを判断する。詳細には、CPU11は、データ入力装置1の左右側面に設けられる赤外線センサ等から出力される検出信号により、データ入力装置1を保持している手指を判断し、これに基づいて入力を行っている手指を判断する。
【0019】
例えば、左側のセンサにより、手指の存在が検出された場合、データ入力装置1は、右手で保持されていると判断され、これにより、入力を行っている手指は、左手であると判断できる。また、右側のセンサにより、手指の存在が検出された場合、データ入力装置1は、左手で保持されていると判断され、これにより、入力を行っている手指は、右手であると判断できる。
【0020】
また、CPU11は、現在表示されている表示画面において、入力された情報を表示するための項目入力枠を入力領域として検出する。そして、左手で入力を行っている場合、左手に隠蔽されない画面の右側、かつ検出された入力領域に重畳しない領域を表示領域に決定して、拡大キーの表示を行う。一方、右手で入力を行っている場合、CPU11は、右手に隠蔽されない画面の左側、かつ検出された入力領域に重畳しない領域を表示領域に決定して、拡大キーの表示を行う。
【0021】
また、ユーザの設定により、拡大表示処理2を実行する場合、CPU11は、現在表示されている表示画面において、入力項目枠内の入力開始位置(例えば、カーソル表示位置)を検出する。さらに、CPU11は、キーボード画面においてタッチ指示されている位置を示すポイント位置を取得して、検出された入力開始位置に、ポイント位置を重畳させて拡大キーの表示を行う。
【0022】
さらに、ユーザの設定により、拡大表示処理3を実行する場合、CPU11は、現在表示されている表示画面において、入力項目枠内の入力開始位置(例えば、カーソル表示位置)を検出する。また、CPU11は、キーボード画面においてタッチ指示されている位置座標に対応するキーを取得して、検出された入力開始位置に、該当するキーの中心位置を重畳させて拡大キーの表示を行う。
【0023】
次にタッチパネル12に使用する超音波表面弾性波方式を用いて、タッチされた位置の座標値及びZ値(押圧力)を検出する方法を説明する。
【0024】
超音波表面弾性波方式のタッチパネル12は、発信子、受信子及び反射アレイ等を備えて構成され、タッチパネル12の端部にある発信子は、超音波を発信する。この超音波は、反射アレイにより反射されて、タッチパネル12の表面領域を表面弾性波として伝わり、反対側にある反射アレイで再度反射されて受信子に戻ってくる。
【0025】
この際、タッチパネル12の表面領域に手指がある場合、タッチパネル12の表面において、最短距離を通る表面弾性波と、最長距離を通る表面弾性波とでは、超音波が伝わる距離が異なるため、到達時間に差が生じる。したがって、超音波を発信してから反射して戻ってくるまでの時間を計測し、音速×時間により手指までの距離を測定して、手指の位置座標(X、Y値)を検出することができる。また、手指に吸収される表面弾性波の量を測定して、押圧力をZ座標のデータ(Z値)として検出することができる。
【0026】
表示部13は、表示画面の上側にタッチパネル12が一体的に形成された液晶表示パネル等により構成され、CPU11から入力される表示情報や、タッチパネル12を介して入力される入力情報を表示する。また、表示部13は、入力を行うためのキーボード画面を所定の表示領域に表示する。
【0027】
キーユニット14は、電源キー、カーソルキー、選択キー、及び各種機能キーを備えて構成され、ユーザの入力操作を検出すると、操作されたキーに対応する指示信号をCPU11に出力する。
【0028】
RAM(Random Access Memory)15は、前述の指定されたアプリケーションプログラム、入力指示及び処理結果等を格納するワークメモリエリアを有する。
【0029】
記憶装置16は、プログラムやデータ等が予め記憶されている記録媒体(図示せず)を備え、この記録媒体内に、CPU11により実行されるデータ入力装置1の各種アプリケーション及びこれらのプログラムに係るデータ等を記憶する。
【0030】
センサユニット17は、赤外線センサ等から構成され、左手保持又は右手保持を検出するため、データ入力装置1の左右側面に設けられている。このセンサユニット17は、発光部及び受光部を備えており、発光部から赤外線を発光し、その反射光を受光部で受光することにより、物体(例えば、ユーザの手指)の有無を検出し、その検出信号をCPU11に出力する。
【0031】
次に、本実施の形態の動作を説明する。
後述する各フローチャートに記述されている各機能を実現するためのプログラムは読み取り可能なプログラムコードの形態でデータ入力装置1の記録媒体に格納されており、データ入力装置1のCPU11は、該プログラムコードに従った動作を逐次実行する。また、CPU11は、伝送媒体を介して伝送される上記プログラムコードに従った動作を逐次実行することもできる。すなわち、記録媒体の他、伝送媒体を介して外部供給されたプログラムまたはデータを利用して本実施の形態特有の動作を実行することも可能である。
【0032】
図3は、CPU11により実行されるキー入力処理を示すフローチャートである。図3に示すように、CPU11は、データの入力が要求される場面で、自動的に、あるいはユーザの指示により、表示部13にキーボード画面を表示させる(ステップS1)。次いで、CPU11は、タッチパネル12により、タッチ指示が検出されたか否かを判断して(ステップS2)、タッチ指示が検出された場合(ステップS2;YES)、タッチ指示の押圧力を示すZ値が、所定値(例えば、α)以上であるか否かを判断する(ステップS3)。
【0033】
ここで、Z値がα以下である場合(ステップS3;NO)、CPU11は、検出されたタッチ指示の位置座標(X,Y値)を取得して(ステップS9)、X,Y値がキーボード画面の範囲内であるか否かを判断する(ステップS10)。そして、X,Y値がキーボード画面の範囲内でない場合(ステップS10;NO)、特に処理をすることなくステップS2に移行し、次のタッチ入力を待つ。一方、X,Y値がキーボード画面の範囲内である場合(ステップS10;YES)、CPU11は、ユーザが入力指示しようとしていると判断し、以下の入力ガイド表示を実行する。この処理では、まず、ユーザの設定に応じて、拡大表示処理1〜3を実行する(ステップS11)。
【0034】
ここで、CPU11は、ユーザにより拡大表示処理1を実行する設定が行われている場合、図4に示す拡大表示処理1を実行する。拡大表示処理1では、図4に示すように、CPU11は、センサユニット17から出力される検出信号に基づいて、データ入力装置1を保持している手指を検出する(ステップS21)。次いで、CPU11は、カーソルが表示されている入力項目枠を入力領域として検出する(ステップS22)。
【0035】
そして、CPU11は、データ入力装置1を保持している手指に基づいて、入力を行っている手指が右手であるか、左手であるかを判断する(ステップS23)。入力を行っている手指が左手である場合(ステップS23;YES)、CPU11は、操作する右手に隠蔽されない画面の左側で、検出された入力領域に重畳しない領域を表示領域に決定する(ステップS24)。そして、CPU11は、この表示領域に拡大キーを表示させて(ステップS26)、拡大表示処理1を終了し、キー入力処理に移行する。
【0036】
また、入力を行っている手指が左手である場合(ステップS23;NO)、CPU11は、左手に隠蔽されない画面の右側で、検出された入力領域に重畳しない領域を表示領域に決定する(ステップS25)。そして、CPU11は、この表示領域に拡大キーを表示させて(ステップS26)、拡大表示処理1を終了し、キー入力処理に移行する。
【0037】
一方、ユーザにより拡大表示処理2を実行する設定が行われている場合、CPU11は、図5に示す拡大表示処理2を実行する。この拡大表示処理2では、図5に示すように、CPU11は、表示部13に表示されている入力項目枠内のカーソル位置を入力開始位置として検出する(ステップS31)。次いで、CPU11は、キーボード画面上においてタッチ指示されている位置をポイント位置として検出する(ステップS32)。そして、CPU11は、検出された入力開始位置にポイント位置が重畳するように拡大キーを表示させ(ステップS33)、本拡大表示処理2を終了して、キー入力処理に移行する。
【0038】
また一方で、ユーザにより拡大表示処理3を実行する設定が行われている場合、CPU11は、図6に示す拡大表示処理3を実行する。この拡大表示処理3では、図6に示すように、CPU11は、表示部13に表示されている入力項目枠内のカーソル位置を入力開始位置として検出する(ステップS41)。次いで、CPU11は、タッチ指示の位置座標に対応するキーを指定キーとして検出する(ステップS42)。そして、CPU11は、検出された入力開始位置に指定キーの中心が重畳するように拡大キーを表示させ(ステップS43)、本拡大表示処理3を終了して、キー入力処理に移行する。
【0039】
拡大表示処理を終了し、所定の表示領域に拡大キーが表示されると(ステップS11)、続いて図3のステップS12に進み、CPU11は、拡大キーにポイント位置示す表示体を合成して表示する(ステップS12)。つまりこの段階で入力のガイド表示がなされたことになる。続いて、CPU11は、タッチ指示の押圧力を示すZ値がα以上になったか否かを判断して(ステップS13)、Z値がα以上になった場合(ステップS13;YES)、タッチ指示の位置座標(X,Y値)を取得する(ステップS4)。そして、取得したX,Y値がキーボード画面の範囲内であるか否かを判断し(ステップS5)、X,Y値がキーボード画面の範囲内である場合(ステップS5)、CPU11は、X,Y値に対応するキーを取得して、当該キーの入力処理を行う(ステップS6)。
【0040】
次いで、CPU11は、表示部13に拡大キーが表示されているか否かを判断して(ステップS7)、拡大キーが表示されている場合(ステップS7;YES)、拡大キーを消去して(ステップS8)、本キー入力処理を終了する。
【0041】
また、ステップS13に戻って、Z値がα以下である場合(ステップS13;NO)、CPU11は、タッチ指示を行っている手指がタッチパネル12から離れたか否かを判断する(ステップS14)。ここで、タッチ指示を行っている手指がタッチパネル12から離れた場合(ステップS14;YES)、CPU11は、拡大キーを消去して(ステップS15)、ステップS2に移行する。
【0042】
また、タッチ指示を行っている手指がタッチパネル12から離れていない場合(ステップS14;NO)、CPU11は、タッチ指示の位置座標を取得して、タッチ指示が移動しているか否かを判断する(ステップS16)。ここで、タッチ指示が移動している場合(ステップS16;YES)、ステップS10に移行して、タッチ指示の位置座標に応じた拡大キーの表示を行う。また、タッチ指示が移動していない場合(ステップS16;NO)、ステップS12に移行する。
【0043】
なお、ステップS3において、最初のタッチ指示におけるZ値がα以上であった場合(ステップS3;YES)、CPU11は、タッチ指示の位置座標(X,Y値)を取得して(ステップS4)、取得したX,Y値がキーボード画面の範囲以内であるか否かを判断し(ステップS5)、X,Y値がキーボード画面の範囲以内である場合(ステップS5;YES)、X,Y値に対応するキーを取得して、当該キーの入力処理を行う(ステップS6)。そして、拡大キーが表示されているか否かを判断し(ステップS7)、拡大キーが表示されていない場合(ステップS7;NO)、本キー入力処理を終了する。
【0044】
次に、図7を参照して、拡大表示処理1〜3により、表示部13に拡大キーが表示された場合の表示画面例について説明する。図7(a)は、拡大表示処理1により、拡大キーが表示部13に表示された表示画面例を示す図である。図7(a)に示すように、拡大キーは、表示部13の右側、かつ表示されている入力項目枠に重畳しない位置に表示されている。すなわち、ユーザによる入力は、左手により行われていることがわかる。
【0045】
次に、図7(b)は、拡大表示処理2により、拡大キーが表示部13に表示された表示画面例の一部を示す図である。図7(b)に示すように、拡大キーは、表示部13に表示されている項目入力枠内のカーソル位置に、ポイント位置が重畳するように表示されるとともに、ポイント位置が所定の表示体(図では黒丸)にて表示されている。
【0046】
また、図7(c)は、拡大表示処理3により、拡大キーが表示部13に表示された表示画面例の一部を示す図である。図7(c)に示すように、拡大キーは、表示部13に表示されている項目入力枠内のカーソル位置に、タッチ指示されたキーの中心が重畳するように表示されるとともに、ポイント位置が所定の表示体(図では黒丸印)にて表示されている。
【0047】
以上のように、本実施の形態のデータ入力装置1は、表示部13に表示されているキーボード画面上において、ユーザが入力指示しようとして、軽くタッチすると、所定値以下であるタッチ指示の押圧力が検出され、タッチされたキーを含む所定範囲の表示情報を取得して、キーボード画面と別の表示領域に拡大して表示するとともにタッチ位置も表示体で表示する。また、タッチ指示の押圧力が所定値以上になると、タッチ指示の位置座標に対応するキーを取得して、当該キーの入力を行う。
【0048】
これにより、比較的表示画面が小さいPDAや電子手帳等の携帯型電子機器において、表示部に表示されたキーボード画面からキー入力を行う際に、操作されそうなキーを別途拡大してポイント位置と共に表示するので、ユーザに対してはキーの入力ガイド表示となり、入力ミスを防ぐことができる。また、押圧力に応じて、拡大キーの表示、非表示を行うため、ユーザの操作に応じて、直接キーを入力するか、拡大キーを表示させてキーを入力するかを選択することができる。このため、必要な場合のみ、拡大キーを表示させることができ、操作効率が良い。
【0049】
また、ユーザの設定により、拡大キーの表示領域を選択でき、ユーザの使用目的に応じた汎用性の高いデータ入力装置を提供することができる。例えば、入力を行っている手指の種別を判断し、手指に隠蔽されない領域で、入力領域に重畳しない領域に拡大キーを表示させるため、比較的手指の大きいユーザは、入力を行っている手指により、入力したいキーが隠されてしまうことがなく、入力ミスを防ぐことができる。
【0050】
或いは、タッチ指示されている位置を示すポイント位置又はタッチ指示に対応するキーの中心位置を入力開始位置に重畳させて拡大キーを表示させるため、ユーザは、入力開始位置と、入力を行おうとしているキーを容易に認識することができ、入力画面の視認性を向上させることができる。
【0051】
さらに、タッチ指示されている位置を示すポイント位置を、拡大キーに重畳して表示するため、ユーザは、キーボード画面上において、自分のタッチしている位置を明確に認識することができ、容易に目的とするキーを選択して、入力を行うことができる。
【0052】
なお、上述した本実施の形態における記述は、本発明に係る好適なデータ入力装置1の一例であり、これに限定されるものではない。
例えば上述した実施の形態では、入力ガイド表示はキーボードの一部を拡大したが、元のキーボードが拡大しなくてもキーの種別が確認できる場合は、必ずしも拡大する必要はなく、同じ大きさで表示することもできる。
また、ユーザが押圧指示しようとする位置を検出する手段として、上記実施の形態では超音波表面弾性波方式のタッチパネルのZ値を利用したが、タッチパネルはX,Y座標を取得するだけの装置を用い、その上に光学的な座標検出装置を設けて、この光学的座標検出装置がユーザの指あるいは入力ペンを検出したときに、実際の入力操作の前段階を検出するようにしても良い。
【0053】
また、拡大キーの表示位置は、上述した位置に限らず、予め固定された領域に表示される構成であっても良く、所定の条件に応じて種々の領域に表示することが可能である。
さらに、入力を行っている手指の判断は、データ入力装置1を保持している手に基づいて判断する構成として説明を行ったが、センサユニット17の設置位置を変更することにより、直接入力を行っている手指を検出する構成であっても良い。
【0054】
その他、本実施の形態におけるデータ入力装置1の細部構成、及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能であることは勿論である。
【0055】
【発明の効果】
本発明によれば、例えば、入力操作を行う際に、タッチパネルで押圧指示しようとする場合、入力しようとする入力画面の一部をユーザの指示位置を示す表示体と共に入力ガイド表示として別途表示させるので、ユーザが入力画面の何を指定しているかを容易に認識することができる。これにより、表示手段が小さい入力装置であっても、視認性を向上させることができ、入力ミスを防止して操作性を向上させることができる。
【図面の簡単な説明】
【図1】本発明を適用した実施の形態におけるデータ入力装置1の外観構成を示す図である。
【図2】図1に示すデータ入力装置1の要部構成を示すブロック図である。
【図3】図2示すCPU11により実行されるキー入力処理を示すフローチャートである。
【図4】図3に示すキー入力処理の一部として、CPU11により実行される拡大表示処理1を示すフローチャートである。
【図5】図3に示すキー入力処理の一部として、CPU11により実行される拡大表示処理2を示すフローチャートである。
【図6】図3に示すキー入力処理の一部として、CPU11により実行される拡大表示処理2を示すフローチャートである。
【図7】(a)拡大表示処理1により、表示部13に表示される表示画面例を示す図である。
(b)拡大表示処理2により、表示部13に表示される表示画面例を示す図である。
(c)拡大表示処理3により、表示部13に表示される表示画面例を示す図である。
【符号の説明】
1 データ入力装置
11 CPU
12 タッチパネル
13 表示部
14 キーユニット
15 RAM
16 記憶装置
17 センサユニット
18 バス[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an input device including a touch panel and an input method.
[0002]
[Prior art]
2. Description of the Related Art In recent years, with the development of wireless communication networks, miniaturization of electronic devices has rapidly progressed, and electronic devices such as PDA (Personal Digital Assistants) and electronic notebooks having excellent portability have been developed. In such an electronic device, a touch panel type input device provided on a display screen is used, and an input operation is performed by directly touching an icon, a keyboard screen, or the like displayed on the display screen. Accordingly, it is not necessary to provide an input device such as a keyboard in the housing of the electronic device, and the display screen of the downsized electronic device can be configured as large as possible.
[0003]
Specifically, when the tip of a finger or a dedicated pen touches an icon or a keyboard screen on the surface of the input device, the touch panel detects the position coordinates and outputs the position coordinates to the CPU, and the CPU inputs the input information corresponding to the position coordinates. Are acquired, and various processes corresponding to the input operation are executed. Note that the position detection method using such a touch panel mainly includes a resistance film method, a capacitance method, an ultrasonic method, an infrared method, and the like.
[0004]
[Problems to be solved by the invention]
However, since the electronic device having excellent portability as described above has a small display screen and a limited displayable area, menus, icons, and keyboard screens displayed on the display screen are displayed small. Therefore, for example, on a keyboard screen, individual keys are displayed smaller than a finger, so that when performing an input operation with a finger, the key may be hidden by the finger. For this reason, there is a problem that it is difficult to understand where the finger is pointing and the operability is poor. In addition, even when an input operation is performed with a dedicated pen, if the displayed key is small, visibility is poor and an input error is likely to occur.
[0005]
An object of the present invention is to provide an input device and an input method with improved operability by improving the visibility of an input device including a touch panel.
[0006]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, an input device according to the present invention includes a display unit, a touch panel provided to cover the display unit, and outputs coordinate information of a pressed instruction position, and an input device for inputting information to the display unit. Input screen display means for displaying an input screen, detection means for detecting a position at which the user intends to press the input screen displayed by the input screen display means, and display by the input screen display means An input screen for displaying a part of the input screen corresponding to the position to be pressed and detected by the detection means as an input guide display together with a display indicating the position to be pressed and displayed separately from the input screen. Guide display means, and input means for performing a predetermined input process based on coordinate information output by the touch panel in response to a pressing instruction on the input screen Characterized in that it comprises a.
[0007]
Therefore, according to the present invention, for example, when performing an input operation using a touch panel when performing an input operation, information such as a key or a menu item displayed at the position is input together with a display object indicating the specified position. The information can be displayed in a predetermined area as a guide display, and information to be input can be easily recognized. Accordingly, even if the input device has a small display unit, the visibility can be improved, and an input error can be prevented to improve the operability.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the scope of the invention is not limited to the illustrated example.
[0009]
First, the configuration will be described.
FIG. 1 is a diagram showing an external configuration of a
[0010]
FIG. 2 is a block diagram showing an internal configuration of the
[0011]
The
[0012]
Specifically, the
[0013]
In the key input process, the
[0014]
On the other hand, if the Z value is equal to or less than the predetermined value, the
[0015]
Here, when determining the display area, the
[0016]
Then, when the enlargement key is displayed, the
[0017]
If the Z value is not equal to or greater than the predetermined value, the
[0018]
Next, functions of the
[0019]
For example, when the presence of a finger is detected by the sensor on the left side, the
[0020]
Further, the
[0021]
When the
[0022]
Further, when executing the
[0023]
Next, a method of detecting a coordinate value and a Z value (pressing force) of a touched position using an ultrasonic surface acoustic wave method used for the
[0024]
The ultrasonic surface acoustic
[0025]
At this time, when a finger is present in the surface area of the
[0026]
The
[0027]
The
[0028]
A RAM (Random Access Memory) 15 has a work memory area for storing the specified application program, input instructions, processing results, and the like.
[0029]
The
[0030]
The
[0031]
Next, the operation of the present embodiment will be described.
A program for realizing each function described in each flowchart described later is stored in a recording medium of the
[0032]
FIG. 3 is a flowchart showing a key input process executed by the
[0033]
Here, when the Z value is equal to or smaller than α (step S3; NO), the
[0034]
Here, the
[0035]
Then, the
[0036]
When the finger performing the input is the left hand (step S23; NO), the
[0037]
On the other hand, when the setting for executing the
[0038]
On the other hand, when the setting for executing the
[0039]
When the enlargement display process is completed and the enlargement key is displayed in the predetermined display area (step S11), the process proceeds to step S12 in FIG. 3, where the
[0040]
Next, the
[0041]
Returning to step S13, if the Z value is equal to or smaller than α (step S13; NO), the
[0042]
When the finger giving the touch instruction is not separated from the touch panel 12 (step S14; NO), the
[0043]
In step S3, if the Z value in the first touch instruction is equal to or more than α (step S3; YES), the
[0044]
Next, an example of a display screen when an enlargement key is displayed on the
[0045]
Next, FIG. 7B is a diagram illustrating a part of a display screen example in which an enlargement key is displayed on the
[0046]
FIG. 7C is a diagram illustrating a part of a display screen example in which an enlargement key is displayed on the
[0047]
As described above, on the keyboard screen displayed on the
[0048]
Thus, in a portable electronic device such as a PDA or an electronic organizer having a relatively small display screen, when a key is input from a keyboard screen displayed on the display unit, a key which is likely to be operated is separately enlarged and the key position is increased. Since it is displayed, the key input guide display is provided to the user, and an input error can be prevented. Also, since the enlargement key is displayed or hidden according to the pressing force, it is possible to select whether to directly input the key or to display the enlargement key and input the key according to the operation of the user. . Therefore, the enlargement key can be displayed only when necessary, and the operation efficiency is high.
[0049]
Further, the display area of the enlargement key can be selected by the setting of the user, and a highly versatile data input device according to the purpose of use of the user can be provided. For example, the type of the finger performing the input is determined, and an enlarged key is displayed in an area that is not concealed by the finger and is not superimposed on the input area. Therefore, a key to be input is not hidden, and an input error can be prevented.
[0050]
Alternatively, in order to display an enlarged key by superimposing a point position indicating the position where the touch is instructed or the center position of the key corresponding to the touch instruction on the input start position, the user attempts to perform the input with the input start position. The user can easily recognize the key that is present, and the visibility of the input screen can be improved.
[0051]
Furthermore, since the point position indicating the position where the touch is instructed is displayed so as to be superimposed on the enlargement key, the user can clearly recognize the position touched on the keyboard screen, and easily. A desired key can be selected and input can be performed.
[0052]
The description in the present embodiment described above is an example of a suitable
For example, in the above-described embodiment, the input guide display enlarges a part of the keyboard. However, if the type of the key can be confirmed without enlarging the original keyboard, it is not always necessary to enlarge the key. It can also be displayed.
In the above embodiment, the Z value of the ultrasonic surface acoustic wave type touch panel is used as a means for detecting the position where the user intends to give a pressing instruction. However, the touch panel is a device that only acquires X and Y coordinates. Alternatively, an optical coordinate detection device may be provided thereon, and when the optical coordinate detection device detects a user's finger or an input pen, a stage prior to an actual input operation may be detected.
[0053]
Further, the display position of the enlargement key is not limited to the above-described position, and may be configured to be displayed in a fixed area in advance, and may be displayed in various areas according to predetermined conditions.
Further, the determination of the finger performing the input has been described as a configuration in which the determination is made based on the hand holding the
[0054]
In addition, it goes without saying that the detailed configuration and the detailed operation of the
[0055]
【The invention's effect】
According to the present invention, for example, when an input operation is performed, when a pressing instruction is to be performed on a touch panel, a part of an input screen to be input is separately displayed as an input guide display together with a display body indicating a position indicated by a user. Therefore, it is possible to easily recognize what the user specifies on the input screen. Thus, even if the input device has a small display unit, the visibility can be improved, and an input error can be prevented to improve the operability.
[Brief description of the drawings]
FIG. 1 is a diagram showing an external configuration of a
FIG. 2 is a block diagram showing a main configuration of the
FIG. 3 is a flowchart showing a key input process executed by a
FIG. 4 is a flowchart showing an
FIG. 5 is a flowchart showing an
6 is a flowchart showing an
FIG. 7A is a diagram illustrating an example of a display screen displayed on the
(B) is a diagram illustrating an example of a display screen displayed on the
(C) is a diagram illustrating an example of a display screen displayed on the
[Explanation of symbols]
1 Data input device
11 CPU
12 Touch panel
13 Display
14 key unit
15 RAM
16 Storage device
17 Sensor unit
18 bus
Claims (8)
前記表示手段を覆うように設けられ、押圧指示位置の座標情報を出力するタッチパネルと、
前記表示手段に情報入力用の入力画面を表示させる入力画面表示手段と、
前記入力画面表示手段により表示された入力画面に対し、ユーザが押圧指示しようとする位置を検出する検出手段と、
前記入力画面表示手段により表示されている入力画面のうち、前記検出手段により検出された押圧指示しようとする位置に対応する一部の画面を、押圧指示しようとする位置を示す表示体と共に入力ガイド表示として、入力画面と別に表示させる入力ガイド表示手段と、
前記入力画面上での押圧指示に応じて前記タッチパネルが出力した座標情報に基づいて、所定の入力処理を行う入力手段と、
を備えることを特徴とする入力装置。Display means;
A touch panel that is provided so as to cover the display unit and outputs coordinate information of the pressed instruction position;
Input screen display means for displaying an input screen for information input on the display means,
Detection means for detecting a position at which the user intends to instruct the input screen displayed by the input screen display means,
A part of the input screen displayed by the input screen display means, which corresponds to the position to be pressed and detected by the detection means, is displayed together with a display object indicating the position to be pressed and input guide. An input guide display means for displaying the display separately from the input screen;
An input unit that performs a predetermined input process based on coordinate information output by the touch panel in response to a pressing instruction on the input screen,
An input device comprising:
入力画面に対してユーザが押圧指示操作を行おうとしている位置を検出する行程と、
前記押圧指示操作を行おうとしている位置が検出された場合に、当該検出位置に応じて、前記表示手段に表示されている入力画面の一部を、当該検出位置を示す表示体と共に入力ガイド表示として所定の領域に表示して、入力のガイドをする工程と、
を含むことを特徴とする入力方法。In an input method using a touch panel that is provided so as to cover a display unit on which an input screen is displayed, and outputs pressed position information,
A process of detecting a position at which the user intends to perform a pressing instruction operation on the input screen;
When a position at which the pressing instruction operation is to be performed is detected, a part of the input screen displayed on the display unit is displayed along with a display body indicating the detected position according to the detected position. Displaying in a predetermined area as a guide of input,
An input method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002180294A JP2004021933A (en) | 2002-06-20 | 2002-06-20 | Input device and input method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002180294A JP2004021933A (en) | 2002-06-20 | 2002-06-20 | Input device and input method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004021933A true JP2004021933A (en) | 2004-01-22 |
Family
ID=31177467
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002180294A Pending JP2004021933A (en) | 2002-06-20 | 2002-06-20 | Input device and input method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004021933A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005218779A (en) * | 2004-02-09 | 2005-08-18 | Nintendo Co Ltd | Game apparatus and game program |
JP2006285598A (en) * | 2005-03-31 | 2006-10-19 | Fujitsu Ten Ltd | Touch panel device, operation support method for touch panel device, and operation support program for touch panel device |
JP2010146279A (en) * | 2008-12-18 | 2010-07-01 | Sharp Corp | Information processor, information processing method, and information processing program |
JP2013511763A (en) * | 2009-11-24 | 2013-04-04 | サムスン エレクトロニクス カンパニー リミテッド | GUI providing method for guiding start position of user operation and digital device to which the method is applied |
JP2014042334A (en) * | 2005-03-04 | 2014-03-06 | Apple Inc | Multi-functional hand-held device |
JP2014206991A (en) * | 2014-06-10 | 2014-10-30 | 京セラ株式会社 | Mobile phone device |
US9047009B2 (en) | 2005-03-04 | 2015-06-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
JP2017010275A (en) * | 2015-06-22 | 2017-01-12 | 弘幸 山下 | Character input device, character input method, and program |
US9785258B2 (en) | 2003-09-02 | 2017-10-10 | Apple Inc. | Ambidextrous mouse |
US9811186B2 (en) | 2006-05-12 | 2017-11-07 | Microsoft Technology Licensing, Llc | Multi-touch uses, gestures, and implementation |
US10459613B2 (en) | 2009-02-25 | 2019-10-29 | Kyocera Corporation | Object display device |
US10895969B2 (en) | 2016-09-30 | 2021-01-19 | Brother Kogyo Kabushiki Kaisha | Input apparatus acceptable of input through enlarged images in a display and computer-readable storage medium therefor |
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
-
2002
- 2002-06-20 JP JP2002180294A patent/JP2004021933A/en active Pending
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9983742B2 (en) | 2002-07-01 | 2018-05-29 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
US9785258B2 (en) | 2003-09-02 | 2017-10-10 | Apple Inc. | Ambidextrous mouse |
US10474251B2 (en) | 2003-09-02 | 2019-11-12 | Apple Inc. | Ambidextrous mouse |
US10156914B2 (en) | 2003-09-02 | 2018-12-18 | Apple Inc. | Ambidextrous mouse |
US8337284B2 (en) | 2004-02-09 | 2012-12-25 | Nintendo Co., Ltd. | Game apparatus and storage medium having game program stored therein |
JP2005218779A (en) * | 2004-02-09 | 2005-08-18 | Nintendo Co Ltd | Game apparatus and game program |
JP2014042334A (en) * | 2005-03-04 | 2014-03-06 | Apple Inc | Multi-functional hand-held device |
JP2015133722A (en) * | 2005-03-04 | 2015-07-23 | アップル インコーポレイテッド | Multi-functional hand-held device |
US11360509B2 (en) | 2005-03-04 | 2022-06-14 | Apple Inc. | Electronic device having display and surrounding touch sensitive surfaces for user interface and control |
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
US10921941B2 (en) | 2005-03-04 | 2021-02-16 | Apple Inc. | Electronic device having display and surrounding touch sensitive surfaces for user interface and control |
US10386980B2 (en) | 2005-03-04 | 2019-08-20 | Apple Inc. | Electronic device having display and surrounding touch sensitive surfaces for user interface and control |
US9047009B2 (en) | 2005-03-04 | 2015-06-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
JP2006285598A (en) * | 2005-03-31 | 2006-10-19 | Fujitsu Ten Ltd | Touch panel device, operation support method for touch panel device, and operation support program for touch panel device |
US9811186B2 (en) | 2006-05-12 | 2017-11-07 | Microsoft Technology Licensing, Llc | Multi-touch uses, gestures, and implementation |
US9996176B2 (en) | 2006-05-12 | 2018-06-12 | Microsoft Technology Licensing, Llc | Multi-touch uses, gestures, and implementation |
JP2010146279A (en) * | 2008-12-18 | 2010-07-01 | Sharp Corp | Information processor, information processing method, and information processing program |
US10459613B2 (en) | 2009-02-25 | 2019-10-29 | Kyocera Corporation | Object display device |
JP2013511763A (en) * | 2009-11-24 | 2013-04-04 | サムスン エレクトロニクス カンパニー リミテッド | GUI providing method for guiding start position of user operation and digital device to which the method is applied |
JP2014206991A (en) * | 2014-06-10 | 2014-10-30 | 京セラ株式会社 | Mobile phone device |
JP2017010275A (en) * | 2015-06-22 | 2017-01-12 | 弘幸 山下 | Character input device, character input method, and program |
US10895969B2 (en) | 2016-09-30 | 2021-01-19 | Brother Kogyo Kabushiki Kaisha | Input apparatus acceptable of input through enlarged images in a display and computer-readable storage medium therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2184672B1 (en) | Information display apparatus, mobile information unit, display control method and display control program | |
US9927964B2 (en) | Customization of GUI layout based on history of use | |
US8775966B2 (en) | Electronic device and method with dual mode rear TouchPad | |
US6977643B2 (en) | System and method implementing non-physical pointers for computer devices | |
JP5977627B2 (en) | Information processing apparatus, information processing method, and program | |
US20110185308A1 (en) | Portable computer device | |
US20140380209A1 (en) | Method for operating portable devices having a touch screen | |
US20150234566A1 (en) | Electronic device, storage medium and method for operating electronic device | |
JP2013235588A (en) | Method for controlling terminal based on spatial interaction, and corresponding terminal | |
RU2008142904A (en) | MULTI-FUNCTION KEY WITH SCROLL | |
KR20120092686A (en) | Terminal device, link selection method, and computer-readable recording medium stored thereon display program | |
JP2004021933A (en) | Input device and input method | |
US10671269B2 (en) | Electronic device with large-size display screen, system and method for controlling display screen | |
JP2016126363A (en) | Touch screen input method, mobile electronic device, and computer program | |
JP2012174247A (en) | Mobile electronic device, contact operation control method, and contact operation control program | |
US20040041847A1 (en) | On-screen scrolling position method | |
JPH11191027A (en) | Computer presentation system | |
JP6183820B2 (en) | Terminal and terminal control method | |
TWI439922B (en) | Handheld electronic apparatus and control method thereof | |
JP4027937B2 (en) | Portable electronic devices | |
JP2004227365A (en) | Optical input device and method | |
KR100796131B1 (en) | Portable electronic device | |
KR100644643B1 (en) | Focusing area resizing apparatus and method therefor in portable information processing terminal | |
WO2013118227A1 (en) | Information processing device | |
JP6457170B2 (en) | Portable electronic devices |