JP2004021933A - Input device and input method - Google Patents

Input device and input method Download PDF

Info

Publication number
JP2004021933A
JP2004021933A JP2002180294A JP2002180294A JP2004021933A JP 2004021933 A JP2004021933 A JP 2004021933A JP 2002180294 A JP2002180294 A JP 2002180294A JP 2002180294 A JP2002180294 A JP 2002180294A JP 2004021933 A JP2004021933 A JP 2004021933A
Authority
JP
Japan
Prior art keywords
input
display
screen
key
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002180294A
Other languages
Japanese (ja)
Inventor
Fusao Nishiura
西浦 房夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2002180294A priority Critical patent/JP2004021933A/en
Publication of JP2004021933A publication Critical patent/JP2004021933A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To prevent an input error by improving the visibility of an input device having a touch panel. <P>SOLUTION: The data input device 1 determines pressing force for touch instructions when the touch instructions is detected on a keyboard screen displayed on a display section 13. When the pressing force is below the specified value, the display information of a specified range including an instructed key is obtained to display the display information on a display region different from the keyboard screen. When the pressing force for the touch instructions exceeds the specified value, a key corresponding to the position coordinate of the touch instructions is obtained to execute the input of the key. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、タッチパネルを備える入力装置及び入力方法に関するものである。
【0002】
【従来の技術】
近年、無線通信ネットワークの発展に伴って電子機器の小型化が急速に進み、携帯性の優れたPDA(Personal Digital Assistants )や電子手帳等の電子機器が開発されている。このような電子機器においては、表示画面に重ねて設けられたタッチパネル式の入力装置が使用され、表示画面上に表示されるアイコンやキーボード画面等に直接触れることにより入力操作を行う。これにより、電子機器の筐体にキーボード等の入力装置を設ける必要がなく、小型化された電子機器の表示画面を極力大きく構成することが可能となっている。
【0003】
具体的には、この入力装置の表面において、手指や専用ペンの先端がアイコンやキーボード画面に触れると、タッチパネルがその位置座標を検出してCPUに出力し、CPUにより位置座標に対応する入力情報が取得され、入力操作に応じた各種処理が実行される。なお、この様なタッチパネルによる位置検出方式には、主として抵抗膜方式、静電容量方式、超音波方式、赤外線方式等がある。
【0004】
【発明が解決しようとする課題】
しかしながら、上述したような携帯性に優れた電子機器は表示画面が小さく、表示可能な領域に制限があるため、表示画面に表示されるメニュー、アイコンやキーボード画面は小さく表示される。したがって、例えば、キーボード画面においては、個々のキーが指より小さく表示されるため、手指で入力操作する際に、手指によりキーが隠されてしまう場合がある。このため、手指がどこをさしているかわかり難く、操作性が悪いという問題があった。また、専用ペンで入力操作する場合であっても、表示されているキーが小さい場合、視認性が悪く、入力間違いを起こしやすいという問題があった。
【0005】
本発明の課題は、タッチパネルを備える入力装置の視認性を向上させて、操作性のよい入力装置及び入力方法を提供することである。
【0006】
【課題を解決するための手段】
上記課題を解決するために、本発明に係る入力装置は、表示手段と、前記表示手段を覆うように設けられ、押圧指示位置の座標情報を出力するタッチパネルと、前記表示手段に情報入力用の入力画面を表示させる入力画面表示手段と、前記入力画面表示手段により表示された入力画面に対し、ユーザが押圧指示しようとする位置を検出する検出手段と、前記入力画面表示手段により表示されている入力画面のうち、前記検出手段により検出された押圧指示しようとする位置に対応する一部の画面を、押圧指示しようとする位置を示す表示体と共に入力ガイド表示として、入力画面と別に表示させる入力ガイド表示手段と、前記入力画面上での押圧指示に応じて前記タッチパネルが出力した座標情報に基づいて、所定の入力処理を行う入力手段とを備えることを特徴とする。
【0007】
したがって、本発明によれば、例えば、入力操作を行う際に、タッチパネルにより入力指示しようとした場合、その位置に表示されているキーやメニュー項目等の情報を、指示位置を示す表示体と共に入力ガイド表示として所定の領域に表示させることができ、入力対象となる情報を容易に認識することができる。これにより、表示手段が小さい入力装置であっても、視認性を向上させることができ、入力ミスを防止して操作性を向上させることができる。
【0008】
【発明の実施の形態】
以下、図を参照して本発明の実施の形態を詳細に説明する。ただし、発明の範囲は、図示例に限定されない。
【0009】
まず、構成を説明する。
図1は、本発明に係るデータ入力装置1の外観構成を示す図である。ここで、データ入力装置1は、例えば、PDA、電子手帳等の電子機器により構成され、図1に示すように、筐体10の外面には、タッチパネル12、表示部13、キーユニット14、センサユニット17を備えている。また、筐体10の内部には、図示しないCPU11、RAM15、記憶装置16が収められている。
【0010】
図2は、図1に示すデータ入力装置1の内部構成を示すブロック図である。図2に示すように、データ入力装置1は、CPU11、タッチパネル12、表示部13、キーユニット14、RAM15、記憶装置16、センサユニット17等により構成され、各部はバス18により接続されている。タッチパネル12は、表示部13の表示画面を覆うように設けられている。本実施の形態では、タッチパネルは、タッチされた位置に関するX,Y座標データ及びZ軸のデータ(押圧力)が得られる超音波表面弾性波方式のものを用いる。
【0011】
CPU11は、記憶装置16あるいは内蔵されるROM(図示せず)に記憶されているデータ入力装置1に対応する各種アプリケーションプログラムの中から指定されたアプリケーションプログラムをRAM15内のワークメモリエリアに格納し、RAM15内に格納したアプリケーションプログラムに従って各種処理を実行し、その処理結果をRAM15内のワークメモリエリアに格納する。
【0012】
具体的に、CPU11は、記憶装置16から入力処理プログラムを読み出して、後述する入力処理(図3参照)を実行する。以下の説明では、入力処理はキーボードを表示して、表示されたキーから1つのキーをユーザがタッチすることで入力する処理を例とするが、入力はキーボードに限らず、メニュー項目が表示されるメニューボードを用いた入力処理や、各種アイコンの表示を選択する入力処理にも適用できる。
【0013】
キー入力処理においては、CPU11は、必要に応じて表示部13にキーボード画面を表示させ、タッチ指示(押圧指示)が検出されると、タッチ指示の押圧力を示すZ値を検出して、Z値が所定値以上であるかを判断する。ここで、Z値が所定値以上である場合、CPU11は、タッチ指示が入力指示であると判断して、タッチ指示された位置座標(X、Y値)を取得する。また、CPU11は、取得した位置座標が入力画面のキーボード画面上であるかを判断し、タッチ指示がキーボード画面上で指示されている場合、位置座標に対応するキーを取得し、当該キーの入力を行う。
【0014】
一方、Z値が所定値以下である場合、CPU11は、ユーザが入力のために押圧指示しようとしていると判断し、つまり入力の前段階であると判断し、タッチ指示された位置座標(X、Y値)を取得する。そしてCPU11は、取得した位置座標がキーボード画面上であるかを判断し、タッチ指示がキーボード画面上で指示されている場合、指等で隠されたキーボードの一部を拡大して表示するための表示領域を決定する。
【0015】
ここで、CPU11は、表示領域を決定する際に、キー入力処理の一部として後述する拡大表示処理1〜3を実行する。なお、この拡大表示処理1〜3は、ユーザの設定により、拡大表示処理1〜3のいずれを実行するかが予め決定されおり、どの拡大表示処理を実行するかにより、所定の表示領域が決定され、拡大キーが表示される構成となっている。
【0016】
そして、CPU11は、拡大キーが表示されると、タッチ指示(ポイント指示)されている位置を示す表示体を拡大キーに重畳して表示させる。これはユーザに対して、入力しようとしているキーであって、ユーザの指等により見え難くなったキーを間違いなく指示する操作をガイドしたことになる。さらに、CPU11は、表示部13の表面におけるタッチ指示の押圧力を示すZ値が所定値以上になったか否かを判断して、Z値が所定値以上になった場合、タッチ指示が入力指示であると判断して、タッチ指示された位置座標(X、Y値)を取得する。ここで、CPU11は、取得した位置座標がキーボード画面上であるかを判断し、位置座標がキーボード画面上である場合、対応するキーの入力処理を行い、拡大キーを消去する。
【0017】
また、Z値が所定値以上になっていない場合、CPU11は、手指がタッチパネル12の表面から離れたかを判断し、手指がタッチパネル12の表面から離れた場合、拡大キーを消去する。或いは、手指がタッチパネル12から移動した場合、新たなタッチ指示の位置座標を検出して、拡大キーの表示を行う。
【0018】
次に、上述した拡大表示処理1〜3におけるCPU11の機能を説明する。まず、ユーザの設定により、拡大表示処理1を実行する場合、CPU11は、後述するセンサユニット17から入力される検出信号により、入力を行っている手指が左手であるか、右手であるかを判断する。詳細には、CPU11は、データ入力装置1の左右側面に設けられる赤外線センサ等から出力される検出信号により、データ入力装置1を保持している手指を判断し、これに基づいて入力を行っている手指を判断する。
【0019】
例えば、左側のセンサにより、手指の存在が検出された場合、データ入力装置1は、右手で保持されていると判断され、これにより、入力を行っている手指は、左手であると判断できる。また、右側のセンサにより、手指の存在が検出された場合、データ入力装置1は、左手で保持されていると判断され、これにより、入力を行っている手指は、右手であると判断できる。
【0020】
また、CPU11は、現在表示されている表示画面において、入力された情報を表示するための項目入力枠を入力領域として検出する。そして、左手で入力を行っている場合、左手に隠蔽されない画面の右側、かつ検出された入力領域に重畳しない領域を表示領域に決定して、拡大キーの表示を行う。一方、右手で入力を行っている場合、CPU11は、右手に隠蔽されない画面の左側、かつ検出された入力領域に重畳しない領域を表示領域に決定して、拡大キーの表示を行う。
【0021】
また、ユーザの設定により、拡大表示処理2を実行する場合、CPU11は、現在表示されている表示画面において、入力項目枠内の入力開始位置(例えば、カーソル表示位置)を検出する。さらに、CPU11は、キーボード画面においてタッチ指示されている位置を示すポイント位置を取得して、検出された入力開始位置に、ポイント位置を重畳させて拡大キーの表示を行う。
【0022】
さらに、ユーザの設定により、拡大表示処理3を実行する場合、CPU11は、現在表示されている表示画面において、入力項目枠内の入力開始位置(例えば、カーソル表示位置)を検出する。また、CPU11は、キーボード画面においてタッチ指示されている位置座標に対応するキーを取得して、検出された入力開始位置に、該当するキーの中心位置を重畳させて拡大キーの表示を行う。
【0023】
次にタッチパネル12に使用する超音波表面弾性波方式を用いて、タッチされた位置の座標値及びZ値(押圧力)を検出する方法を説明する。
【0024】
超音波表面弾性波方式のタッチパネル12は、発信子、受信子及び反射アレイ等を備えて構成され、タッチパネル12の端部にある発信子は、超音波を発信する。この超音波は、反射アレイにより反射されて、タッチパネル12の表面領域を表面弾性波として伝わり、反対側にある反射アレイで再度反射されて受信子に戻ってくる。
【0025】
この際、タッチパネル12の表面領域に手指がある場合、タッチパネル12の表面において、最短距離を通る表面弾性波と、最長距離を通る表面弾性波とでは、超音波が伝わる距離が異なるため、到達時間に差が生じる。したがって、超音波を発信してから反射して戻ってくるまでの時間を計測し、音速×時間により手指までの距離を測定して、手指の位置座標(X、Y値)を検出することができる。また、手指に吸収される表面弾性波の量を測定して、押圧力をZ座標のデータ(Z値)として検出することができる。
【0026】
表示部13は、表示画面の上側にタッチパネル12が一体的に形成された液晶表示パネル等により構成され、CPU11から入力される表示情報や、タッチパネル12を介して入力される入力情報を表示する。また、表示部13は、入力を行うためのキーボード画面を所定の表示領域に表示する。
【0027】
キーユニット14は、電源キー、カーソルキー、選択キー、及び各種機能キーを備えて構成され、ユーザの入力操作を検出すると、操作されたキーに対応する指示信号をCPU11に出力する。
【0028】
RAM(Random Access Memory)15は、前述の指定されたアプリケーションプログラム、入力指示及び処理結果等を格納するワークメモリエリアを有する。
【0029】
記憶装置16は、プログラムやデータ等が予め記憶されている記録媒体(図示せず)を備え、この記録媒体内に、CPU11により実行されるデータ入力装置1の各種アプリケーション及びこれらのプログラムに係るデータ等を記憶する。
【0030】
センサユニット17は、赤外線センサ等から構成され、左手保持又は右手保持を検出するため、データ入力装置1の左右側面に設けられている。このセンサユニット17は、発光部及び受光部を備えており、発光部から赤外線を発光し、その反射光を受光部で受光することにより、物体(例えば、ユーザの手指)の有無を検出し、その検出信号をCPU11に出力する。
【0031】
次に、本実施の形態の動作を説明する。
後述する各フローチャートに記述されている各機能を実現するためのプログラムは読み取り可能なプログラムコードの形態でデータ入力装置1の記録媒体に格納されており、データ入力装置1のCPU11は、該プログラムコードに従った動作を逐次実行する。また、CPU11は、伝送媒体を介して伝送される上記プログラムコードに従った動作を逐次実行することもできる。すなわち、記録媒体の他、伝送媒体を介して外部供給されたプログラムまたはデータを利用して本実施の形態特有の動作を実行することも可能である。
【0032】
図3は、CPU11により実行されるキー入力処理を示すフローチャートである。図3に示すように、CPU11は、データの入力が要求される場面で、自動的に、あるいはユーザの指示により、表示部13にキーボード画面を表示させる(ステップS1)。次いで、CPU11は、タッチパネル12により、タッチ指示が検出されたか否かを判断して(ステップS2)、タッチ指示が検出された場合(ステップS2;YES)、タッチ指示の押圧力を示すZ値が、所定値(例えば、α)以上であるか否かを判断する(ステップS3)。
【0033】
ここで、Z値がα以下である場合(ステップS3;NO)、CPU11は、検出されたタッチ指示の位置座標(X,Y値)を取得して(ステップS9)、X,Y値がキーボード画面の範囲内であるか否かを判断する(ステップS10)。そして、X,Y値がキーボード画面の範囲内でない場合(ステップS10;NO)、特に処理をすることなくステップS2に移行し、次のタッチ入力を待つ。一方、X,Y値がキーボード画面の範囲内である場合(ステップS10;YES)、CPU11は、ユーザが入力指示しようとしていると判断し、以下の入力ガイド表示を実行する。この処理では、まず、ユーザの設定に応じて、拡大表示処理1〜3を実行する(ステップS11)。
【0034】
ここで、CPU11は、ユーザにより拡大表示処理1を実行する設定が行われている場合、図4に示す拡大表示処理1を実行する。拡大表示処理1では、図4に示すように、CPU11は、センサユニット17から出力される検出信号に基づいて、データ入力装置1を保持している手指を検出する(ステップS21)。次いで、CPU11は、カーソルが表示されている入力項目枠を入力領域として検出する(ステップS22)。
【0035】
そして、CPU11は、データ入力装置1を保持している手指に基づいて、入力を行っている手指が右手であるか、左手であるかを判断する(ステップS23)。入力を行っている手指が左手である場合(ステップS23;YES)、CPU11は、操作する右手に隠蔽されない画面の左側で、検出された入力領域に重畳しない領域を表示領域に決定する(ステップS24)。そして、CPU11は、この表示領域に拡大キーを表示させて(ステップS26)、拡大表示処理1を終了し、キー入力処理に移行する。
【0036】
また、入力を行っている手指が左手である場合(ステップS23;NO)、CPU11は、左手に隠蔽されない画面の右側で、検出された入力領域に重畳しない領域を表示領域に決定する(ステップS25)。そして、CPU11は、この表示領域に拡大キーを表示させて(ステップS26)、拡大表示処理1を終了し、キー入力処理に移行する。
【0037】
一方、ユーザにより拡大表示処理2を実行する設定が行われている場合、CPU11は、図5に示す拡大表示処理2を実行する。この拡大表示処理2では、図5に示すように、CPU11は、表示部13に表示されている入力項目枠内のカーソル位置を入力開始位置として検出する(ステップS31)。次いで、CPU11は、キーボード画面上においてタッチ指示されている位置をポイント位置として検出する(ステップS32)。そして、CPU11は、検出された入力開始位置にポイント位置が重畳するように拡大キーを表示させ(ステップS33)、本拡大表示処理2を終了して、キー入力処理に移行する。
【0038】
また一方で、ユーザにより拡大表示処理3を実行する設定が行われている場合、CPU11は、図6に示す拡大表示処理3を実行する。この拡大表示処理3では、図6に示すように、CPU11は、表示部13に表示されている入力項目枠内のカーソル位置を入力開始位置として検出する(ステップS41)。次いで、CPU11は、タッチ指示の位置座標に対応するキーを指定キーとして検出する(ステップS42)。そして、CPU11は、検出された入力開始位置に指定キーの中心が重畳するように拡大キーを表示させ(ステップS43)、本拡大表示処理3を終了して、キー入力処理に移行する。
【0039】
拡大表示処理を終了し、所定の表示領域に拡大キーが表示されると(ステップS11)、続いて図3のステップS12に進み、CPU11は、拡大キーにポイント位置示す表示体を合成して表示する(ステップS12)。つまりこの段階で入力のガイド表示がなされたことになる。続いて、CPU11は、タッチ指示の押圧力を示すZ値がα以上になったか否かを判断して(ステップS13)、Z値がα以上になった場合(ステップS13;YES)、タッチ指示の位置座標(X,Y値)を取得する(ステップS4)。そして、取得したX,Y値がキーボード画面の範囲内であるか否かを判断し(ステップS5)、X,Y値がキーボード画面の範囲内である場合(ステップS5)、CPU11は、X,Y値に対応するキーを取得して、当該キーの入力処理を行う(ステップS6)。
【0040】
次いで、CPU11は、表示部13に拡大キーが表示されているか否かを判断して(ステップS7)、拡大キーが表示されている場合(ステップS7;YES)、拡大キーを消去して(ステップS8)、本キー入力処理を終了する。
【0041】
また、ステップS13に戻って、Z値がα以下である場合(ステップS13;NO)、CPU11は、タッチ指示を行っている手指がタッチパネル12から離れたか否かを判断する(ステップS14)。ここで、タッチ指示を行っている手指がタッチパネル12から離れた場合(ステップS14;YES)、CPU11は、拡大キーを消去して(ステップS15)、ステップS2に移行する。
【0042】
また、タッチ指示を行っている手指がタッチパネル12から離れていない場合(ステップS14;NO)、CPU11は、タッチ指示の位置座標を取得して、タッチ指示が移動しているか否かを判断する(ステップS16)。ここで、タッチ指示が移動している場合(ステップS16;YES)、ステップS10に移行して、タッチ指示の位置座標に応じた拡大キーの表示を行う。また、タッチ指示が移動していない場合(ステップS16;NO)、ステップS12に移行する。
【0043】
なお、ステップS3において、最初のタッチ指示におけるZ値がα以上であった場合(ステップS3;YES)、CPU11は、タッチ指示の位置座標(X,Y値)を取得して(ステップS4)、取得したX,Y値がキーボード画面の範囲以内であるか否かを判断し(ステップS5)、X,Y値がキーボード画面の範囲以内である場合(ステップS5;YES)、X,Y値に対応するキーを取得して、当該キーの入力処理を行う(ステップS6)。そして、拡大キーが表示されているか否かを判断し(ステップS7)、拡大キーが表示されていない場合(ステップS7;NO)、本キー入力処理を終了する。
【0044】
次に、図7を参照して、拡大表示処理1〜3により、表示部13に拡大キーが表示された場合の表示画面例について説明する。図7(a)は、拡大表示処理1により、拡大キーが表示部13に表示された表示画面例を示す図である。図7(a)に示すように、拡大キーは、表示部13の右側、かつ表示されている入力項目枠に重畳しない位置に表示されている。すなわち、ユーザによる入力は、左手により行われていることがわかる。
【0045】
次に、図7(b)は、拡大表示処理2により、拡大キーが表示部13に表示された表示画面例の一部を示す図である。図7(b)に示すように、拡大キーは、表示部13に表示されている項目入力枠内のカーソル位置に、ポイント位置が重畳するように表示されるとともに、ポイント位置が所定の表示体(図では黒丸)にて表示されている。
【0046】
また、図7(c)は、拡大表示処理3により、拡大キーが表示部13に表示された表示画面例の一部を示す図である。図7(c)に示すように、拡大キーは、表示部13に表示されている項目入力枠内のカーソル位置に、タッチ指示されたキーの中心が重畳するように表示されるとともに、ポイント位置が所定の表示体(図では黒丸印)にて表示されている。
【0047】
以上のように、本実施の形態のデータ入力装置1は、表示部13に表示されているキーボード画面上において、ユーザが入力指示しようとして、軽くタッチすると、所定値以下であるタッチ指示の押圧力が検出され、タッチされたキーを含む所定範囲の表示情報を取得して、キーボード画面と別の表示領域に拡大して表示するとともにタッチ位置も表示体で表示する。また、タッチ指示の押圧力が所定値以上になると、タッチ指示の位置座標に対応するキーを取得して、当該キーの入力を行う。
【0048】
これにより、比較的表示画面が小さいPDAや電子手帳等の携帯型電子機器において、表示部に表示されたキーボード画面からキー入力を行う際に、操作されそうなキーを別途拡大してポイント位置と共に表示するので、ユーザに対してはキーの入力ガイド表示となり、入力ミスを防ぐことができる。また、押圧力に応じて、拡大キーの表示、非表示を行うため、ユーザの操作に応じて、直接キーを入力するか、拡大キーを表示させてキーを入力するかを選択することができる。このため、必要な場合のみ、拡大キーを表示させることができ、操作効率が良い。
【0049】
また、ユーザの設定により、拡大キーの表示領域を選択でき、ユーザの使用目的に応じた汎用性の高いデータ入力装置を提供することができる。例えば、入力を行っている手指の種別を判断し、手指に隠蔽されない領域で、入力領域に重畳しない領域に拡大キーを表示させるため、比較的手指の大きいユーザは、入力を行っている手指により、入力したいキーが隠されてしまうことがなく、入力ミスを防ぐことができる。
【0050】
或いは、タッチ指示されている位置を示すポイント位置又はタッチ指示に対応するキーの中心位置を入力開始位置に重畳させて拡大キーを表示させるため、ユーザは、入力開始位置と、入力を行おうとしているキーを容易に認識することができ、入力画面の視認性を向上させることができる。
【0051】
さらに、タッチ指示されている位置を示すポイント位置を、拡大キーに重畳して表示するため、ユーザは、キーボード画面上において、自分のタッチしている位置を明確に認識することができ、容易に目的とするキーを選択して、入力を行うことができる。
【0052】
なお、上述した本実施の形態における記述は、本発明に係る好適なデータ入力装置1の一例であり、これに限定されるものではない。
例えば上述した実施の形態では、入力ガイド表示はキーボードの一部を拡大したが、元のキーボードが拡大しなくてもキーの種別が確認できる場合は、必ずしも拡大する必要はなく、同じ大きさで表示することもできる。
また、ユーザが押圧指示しようとする位置を検出する手段として、上記実施の形態では超音波表面弾性波方式のタッチパネルのZ値を利用したが、タッチパネルはX,Y座標を取得するだけの装置を用い、その上に光学的な座標検出装置を設けて、この光学的座標検出装置がユーザの指あるいは入力ペンを検出したときに、実際の入力操作の前段階を検出するようにしても良い。
【0053】
また、拡大キーの表示位置は、上述した位置に限らず、予め固定された領域に表示される構成であっても良く、所定の条件に応じて種々の領域に表示することが可能である。
さらに、入力を行っている手指の判断は、データ入力装置1を保持している手に基づいて判断する構成として説明を行ったが、センサユニット17の設置位置を変更することにより、直接入力を行っている手指を検出する構成であっても良い。
【0054】
その他、本実施の形態におけるデータ入力装置1の細部構成、及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能であることは勿論である。
【0055】
【発明の効果】
本発明によれば、例えば、入力操作を行う際に、タッチパネルで押圧指示しようとする場合、入力しようとする入力画面の一部をユーザの指示位置を示す表示体と共に入力ガイド表示として別途表示させるので、ユーザが入力画面の何を指定しているかを容易に認識することができる。これにより、表示手段が小さい入力装置であっても、視認性を向上させることができ、入力ミスを防止して操作性を向上させることができる。
【図面の簡単な説明】
【図1】本発明を適用した実施の形態におけるデータ入力装置1の外観構成を示す図である。
【図2】図1に示すデータ入力装置1の要部構成を示すブロック図である。
【図3】図2示すCPU11により実行されるキー入力処理を示すフローチャートである。
【図4】図3に示すキー入力処理の一部として、CPU11により実行される拡大表示処理1を示すフローチャートである。
【図5】図3に示すキー入力処理の一部として、CPU11により実行される拡大表示処理2を示すフローチャートである。
【図6】図3に示すキー入力処理の一部として、CPU11により実行される拡大表示処理2を示すフローチャートである。
【図7】(a)拡大表示処理1により、表示部13に表示される表示画面例を示す図である。
(b)拡大表示処理2により、表示部13に表示される表示画面例を示す図である。
(c)拡大表示処理3により、表示部13に表示される表示画面例を示す図である。
【符号の説明】
1  データ入力装置
11  CPU
12  タッチパネル
13  表示部
14  キーユニット
15  RAM
16  記憶装置
17  センサユニット
18  バス
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an input device including a touch panel and an input method.
[0002]
[Prior art]
2. Description of the Related Art In recent years, with the development of wireless communication networks, miniaturization of electronic devices has rapidly progressed, and electronic devices such as PDA (Personal Digital Assistants) and electronic notebooks having excellent portability have been developed. In such an electronic device, a touch panel type input device provided on a display screen is used, and an input operation is performed by directly touching an icon, a keyboard screen, or the like displayed on the display screen. Accordingly, it is not necessary to provide an input device such as a keyboard in the housing of the electronic device, and the display screen of the downsized electronic device can be configured as large as possible.
[0003]
Specifically, when the tip of a finger or a dedicated pen touches an icon or a keyboard screen on the surface of the input device, the touch panel detects the position coordinates and outputs the position coordinates to the CPU, and the CPU inputs the input information corresponding to the position coordinates. Are acquired, and various processes corresponding to the input operation are executed. Note that the position detection method using such a touch panel mainly includes a resistance film method, a capacitance method, an ultrasonic method, an infrared method, and the like.
[0004]
[Problems to be solved by the invention]
However, since the electronic device having excellent portability as described above has a small display screen and a limited displayable area, menus, icons, and keyboard screens displayed on the display screen are displayed small. Therefore, for example, on a keyboard screen, individual keys are displayed smaller than a finger, so that when performing an input operation with a finger, the key may be hidden by the finger. For this reason, there is a problem that it is difficult to understand where the finger is pointing and the operability is poor. In addition, even when an input operation is performed with a dedicated pen, if the displayed key is small, visibility is poor and an input error is likely to occur.
[0005]
An object of the present invention is to provide an input device and an input method with improved operability by improving the visibility of an input device including a touch panel.
[0006]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, an input device according to the present invention includes a display unit, a touch panel provided to cover the display unit, and outputs coordinate information of a pressed instruction position, and an input device for inputting information to the display unit. Input screen display means for displaying an input screen, detection means for detecting a position at which the user intends to press the input screen displayed by the input screen display means, and display by the input screen display means An input screen for displaying a part of the input screen corresponding to the position to be pressed and detected by the detection means as an input guide display together with a display indicating the position to be pressed and displayed separately from the input screen. Guide display means, and input means for performing a predetermined input process based on coordinate information output by the touch panel in response to a pressing instruction on the input screen Characterized in that it comprises a.
[0007]
Therefore, according to the present invention, for example, when performing an input operation using a touch panel when performing an input operation, information such as a key or a menu item displayed at the position is input together with a display object indicating the specified position. The information can be displayed in a predetermined area as a guide display, and information to be input can be easily recognized. Accordingly, even if the input device has a small display unit, the visibility can be improved, and an input error can be prevented to improve the operability.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the scope of the invention is not limited to the illustrated example.
[0009]
First, the configuration will be described.
FIG. 1 is a diagram showing an external configuration of a data input device 1 according to the present invention. Here, the data input device 1 is configured by an electronic device such as a PDA or an electronic organizer, for example, and a touch panel 12, a display unit 13, a key unit 14, a sensor A unit 17 is provided. The casing 10 houses a CPU 11, a RAM 15, and a storage device 16 (not shown).
[0010]
FIG. 2 is a block diagram showing an internal configuration of the data input device 1 shown in FIG. As shown in FIG. 2, the data input device 1 includes a CPU 11, a touch panel 12, a display unit 13, a key unit 14, a RAM 15, a storage device 16, a sensor unit 17, and the like. The touch panel 12 is provided so as to cover the display screen of the display unit 13. In the present embodiment, an ultrasonic surface acoustic wave type touch panel that can obtain X and Y coordinate data and Z-axis data (pressing force) relating to a touched position is used.
[0011]
The CPU 11 stores an application program specified from various application programs corresponding to the data input device 1 stored in the storage device 16 or a built-in ROM (not shown) in a work memory area in the RAM 15, Various processes are executed in accordance with the application programs stored in the RAM 15, and the processing results are stored in a work memory area in the RAM 15.
[0012]
Specifically, the CPU 11 reads an input processing program from the storage device 16 and executes an input processing (see FIG. 3) described later. In the following description, the input processing is an example of processing in which a keyboard is displayed and a user touches one of the displayed keys to input data. However, the input is not limited to the keyboard, and menu items are displayed. The present invention can also be applied to input processing using a menu board or input processing for selecting display of various icons.
[0013]
In the key input process, the CPU 11 displays a keyboard screen on the display unit 13 as necessary, and when a touch instruction (pressing instruction) is detected, the CPU 11 detects a Z value indicating a pressing force of the touch instruction. It is determined whether the value is equal to or greater than a predetermined value. Here, if the Z value is equal to or greater than the predetermined value, the CPU 11 determines that the touch instruction is an input instruction, and acquires the position coordinates (X, Y values) at which the touch instruction was given. Further, the CPU 11 determines whether the acquired position coordinates are on the keyboard screen of the input screen. If a touch instruction is given on the keyboard screen, the CPU 11 acquires a key corresponding to the position coordinates, and inputs the key. I do.
[0014]
On the other hand, if the Z value is equal to or less than the predetermined value, the CPU 11 determines that the user is about to perform a pressing instruction for input, that is, determines that the user is in a stage before the input, and determines the position coordinates (X, Y value). Then, the CPU 11 determines whether the acquired position coordinates are on the keyboard screen, and when a touch instruction is given on the keyboard screen, the CPU 11 displays a part of the keyboard hidden by a finger or the like in an enlarged manner. Determine the display area.
[0015]
Here, when determining the display area, the CPU 11 executes enlarged display processes 1 to 3 to be described later as part of the key input process. In the enlarged display processes 1 to 3, which of the enlarged display processes 1 to 3 is to be executed is determined in advance by a user setting, and a predetermined display area is determined by which enlarged display process is executed. And an enlargement key is displayed.
[0016]
Then, when the enlargement key is displayed, the CPU 11 displays a display body indicating the position where the touch instruction (point instruction) is given, superimposed on the enlargement key. This guides the user to the operation of instructing the user to input a key that is to be input and that is difficult to see with the user's finger or the like. Further, the CPU 11 determines whether or not the Z value indicating the pressing force of the touch instruction on the surface of the display unit 13 is equal to or greater than a predetermined value. And the position coordinates (X, Y values) indicated by the touch are acquired. Here, the CPU 11 determines whether the acquired position coordinates are on the keyboard screen, and when the position coordinates are on the keyboard screen, performs input processing of a corresponding key and deletes the enlarged key.
[0017]
If the Z value is not equal to or greater than the predetermined value, the CPU 11 determines whether the finger has left the surface of the touch panel 12, and deletes the enlargement key if the finger has left the surface of the touch panel 12. Alternatively, when the finger moves from the touch panel 12, the position coordinates of the new touch instruction are detected, and the enlargement key is displayed.
[0018]
Next, functions of the CPU 11 in the above-described enlarged display processes 1 to 3 will be described. First, when executing the enlarged display processing 1 according to the setting of the user, the CPU 11 determines whether the input finger is the left hand or the right hand based on a detection signal input from the sensor unit 17 described later. I do. Specifically, the CPU 11 determines a finger holding the data input device 1 based on a detection signal output from an infrared sensor or the like provided on the left and right side surfaces of the data input device 1, and performs input based on the finger. Determine which finger you have.
[0019]
For example, when the presence of a finger is detected by the sensor on the left side, the data input device 1 is determined to be held by the right hand, and thus the finger performing input can be determined to be the left hand. When the right sensor detects the presence of a finger, the data input device 1 determines that the finger is being held by the left hand, and thus the finger performing input can be determined to be the right hand.
[0020]
Further, the CPU 11 detects, as an input area, an item input frame for displaying the input information on the currently displayed display screen. When the input is performed with the left hand, the right side of the screen that is not concealed by the left hand and the area that does not overlap the detected input area are determined as the display area, and the enlarged key is displayed. On the other hand, when the input is performed with the right hand, the CPU 11 determines the display area to be the left side of the screen that is not concealed by the right hand and that does not overlap the detected input area, and displays the enlargement key.
[0021]
When the enlarged display process 2 is executed by the user, the CPU 11 detects an input start position (for example, a cursor display position) in the input item frame on the currently displayed display screen. Further, the CPU 11 acquires a point position indicating the position where the touch is instructed on the keyboard screen, and displays the enlarged key by superimposing the point position on the detected input start position.
[0022]
Further, when executing the enlarged display processing 3 according to the user's setting, the CPU 11 detects an input start position (for example, a cursor display position) in the input item frame on the currently displayed display screen. Further, the CPU 11 obtains a key corresponding to the position coordinate pointed by the touch on the keyboard screen, and superimposes the center position of the corresponding key on the detected input start position to display the enlarged key.
[0023]
Next, a method of detecting a coordinate value and a Z value (pressing force) of a touched position using an ultrasonic surface acoustic wave method used for the touch panel 12 will be described.
[0024]
The ultrasonic surface acoustic wave touch panel 12 includes a transmitter, a receiver, a reflection array, and the like, and a transmitter at an end of the touch panel 12 transmits an ultrasonic wave. This ultrasonic wave is reflected by the reflection array, propagates on the surface area of the touch panel 12 as a surface acoustic wave, is reflected again by the reflection array on the opposite side, and returns to the receiver.
[0025]
At this time, when a finger is present in the surface area of the touch panel 12, the distance over which the ultrasonic wave travels on the surface of the touch panel 12 is different between the surface acoustic wave passing through the shortest distance and the surface acoustic wave passing through the longest distance. Is different. Therefore, it is possible to measure the time from the transmission of the ultrasonic wave to the reflection and return, measure the distance to the finger by the speed of sound × time, and detect the position coordinates (X, Y values) of the finger. it can. Further, the amount of surface acoustic waves absorbed by the finger can be measured, and the pressing force can be detected as Z coordinate data (Z value).
[0026]
The display unit 13 includes a liquid crystal display panel or the like in which the touch panel 12 is integrally formed on the upper side of the display screen, and displays display information input from the CPU 11 and input information input via the touch panel 12. The display unit 13 displays a keyboard screen for performing input in a predetermined display area.
[0027]
The key unit 14 includes a power key, a cursor key, a selection key, and various function keys. Upon detecting a user input operation, the key unit 14 outputs an instruction signal corresponding to the operated key to the CPU 11.
[0028]
A RAM (Random Access Memory) 15 has a work memory area for storing the specified application program, input instructions, processing results, and the like.
[0029]
The storage device 16 includes a recording medium (not shown) in which programs, data, and the like are stored in advance. In the recording medium, various applications of the data input device 1 executed by the CPU 11 and data related to these programs are stored. And so on.
[0030]
The sensor unit 17 includes an infrared sensor or the like, and is provided on the left and right side surfaces of the data input device 1 to detect left hand holding or right hand holding. The sensor unit 17 includes a light emitting unit and a light receiving unit. The light emitting unit emits infrared light, and the reflected light is received by the light receiving unit to detect the presence or absence of an object (for example, a user's finger). The detection signal is output to the CPU 11.
[0031]
Next, the operation of the present embodiment will be described.
A program for realizing each function described in each flowchart described later is stored in a recording medium of the data input device 1 in the form of a readable program code, and the CPU 11 of the data input device 1 stores the program code. Are sequentially executed. Further, the CPU 11 can also sequentially execute an operation according to the program code transmitted via the transmission medium. That is, it is also possible to execute an operation specific to the present embodiment using a program or data externally supplied via a transmission medium in addition to a recording medium.
[0032]
FIG. 3 is a flowchart showing a key input process executed by the CPU 11. As shown in FIG. 3, the CPU 11 causes the display unit 13 to display a keyboard screen automatically or in response to a user's instruction when data input is requested (step S1). Next, the CPU 11 determines whether or not a touch instruction is detected by the touch panel 12 (step S2). When the touch instruction is detected (step S2; YES), the Z value indicating the pressing force of the touch instruction is changed. It is determined whether the value is equal to or more than a predetermined value (for example, α) (step S3).
[0033]
Here, when the Z value is equal to or smaller than α (step S3; NO), the CPU 11 acquires the position coordinates (X, Y values) of the detected touch instruction (step S9), and sets the X, Y values to the keyboard. It is determined whether it is within the range of the screen (step S10). If the X and Y values are not within the range of the keyboard screen (step S10; NO), the process shifts to step S2 without performing any processing, and waits for the next touch input. On the other hand, when the X and Y values are within the range of the keyboard screen (step S10; YES), the CPU 11 determines that the user is instructing the input, and executes the following input guide display. In this process, first, the enlarged display processes 1 to 3 are executed according to the setting of the user (step S11).
[0034]
Here, the CPU 11 executes the enlarged display processing 1 shown in FIG. 4 when the setting for executing the enlarged display processing 1 is performed by the user. In the enlarged display processing 1, as shown in FIG. 4, the CPU 11 detects a finger holding the data input device 1 based on a detection signal output from the sensor unit 17 (step S21). Next, the CPU 11 detects the input item frame on which the cursor is displayed as an input area (step S22).
[0035]
Then, the CPU 11 determines whether the finger performing the input is the right hand or the left hand based on the finger holding the data input device 1 (step S23). If the finger performing the input is the left hand (step S23; YES), the CPU 11 determines, as a display area, a region that is not superimposed on the detected input region on the left side of the screen that is not hidden by the right hand to be operated (step S24). ). Then, the CPU 11 displays the enlargement key in this display area (step S26), ends the enlargement display processing 1, and shifts to the key input processing.
[0036]
When the finger performing the input is the left hand (step S23; NO), the CPU 11 determines, as the display area, a region that is not superimposed on the detected input region on the right side of the screen that is not hidden by the left hand (step S25). ). Then, the CPU 11 displays the enlargement key in this display area (step S26), ends the enlargement display processing 1, and shifts to the key input processing.
[0037]
On the other hand, when the setting for executing the enlarged display processing 2 is performed by the user, the CPU 11 executes the enlarged display processing 2 illustrated in FIG. In the enlarged display process 2, as shown in FIG. 5, the CPU 11 detects a cursor position in the input item frame displayed on the display unit 13 as an input start position (step S31). Next, the CPU 11 detects, as a point position, the position where the touch is instructed on the keyboard screen (step S32). Then, the CPU 11 displays the enlargement key so that the point position is superimposed on the detected input start position (step S33), ends the enlarged display processing 2, and shifts to the key input processing.
[0038]
On the other hand, when the setting for executing the enlarged display processing 3 is performed by the user, the CPU 11 executes the enlarged display processing 3 shown in FIG. In the enlarged display process 3, as shown in FIG. 6, the CPU 11 detects a cursor position in the input item frame displayed on the display unit 13 as an input start position (step S41). Next, the CPU 11 detects a key corresponding to the position coordinates of the touch instruction as a designation key (Step S42). Then, the CPU 11 causes the enlarged key to be displayed such that the center of the designated key is superimposed on the detected input start position (step S43), ends the enlarged display processing 3, and shifts to the key input processing.
[0039]
When the enlargement display process is completed and the enlargement key is displayed in the predetermined display area (step S11), the process proceeds to step S12 in FIG. 3, where the CPU 11 combines and displays the display body indicating the point position on the enlargement key. (Step S12). That is, at this stage, the input guide display is performed. Subsequently, the CPU 11 determines whether or not the Z value indicating the pressing force of the touch instruction is equal to or more than α (step S13). If the Z value is equal to or more than α (step S13; YES), the CPU 11 issues the touch instruction. The position coordinates (X, Y values) are obtained (step S4). Then, it is determined whether or not the obtained X, Y values are within the range of the keyboard screen (step S5). If the X, Y values are within the range of the keyboard screen (step S5), the CPU 11 The key corresponding to the Y value is obtained, and the key is input (step S6).
[0040]
Next, the CPU 11 determines whether or not the enlargement key is displayed on the display unit 13 (step S7). If the enlargement key is displayed (step S7; YES), the CPU 11 deletes the enlargement key (step S7). S8), the key input processing ends.
[0041]
Returning to step S13, if the Z value is equal to or smaller than α (step S13; NO), the CPU 11 determines whether the finger giving the touch instruction has left the touch panel 12 (step S14). If the finger giving the touch instruction has left the touch panel 12 (step S14; YES), the CPU 11 deletes the enlargement key (step S15), and proceeds to step S2.
[0042]
When the finger giving the touch instruction is not separated from the touch panel 12 (step S14; NO), the CPU 11 acquires the position coordinates of the touch instruction and determines whether or not the touch instruction is moving ( Step S16). Here, if the touch instruction is moving (step S16; YES), the process proceeds to step S10, where an enlarged key is displayed according to the position coordinates of the touch instruction. If the touch instruction has not been moved (step S16; NO), the process proceeds to step S12.
[0043]
In step S3, if the Z value in the first touch instruction is equal to or more than α (step S3; YES), the CPU 11 acquires the position coordinates (X, Y values) of the touch instruction (step S4). It is determined whether or not the acquired X and Y values are within the range of the keyboard screen (step S5). If the X and Y values are within the range of the keyboard screen (step S5; YES), the X and Y values are The corresponding key is obtained, and the key is input (step S6). Then, it is determined whether or not the enlargement key is displayed (step S7). If the enlargement key is not displayed (step S7; NO), the key input processing ends.
[0044]
Next, an example of a display screen when an enlargement key is displayed on the display unit 13 by the enlargement display processes 1 to 3 will be described with reference to FIG. FIG. 7A is a diagram illustrating an example of a display screen in which an enlargement key is displayed on the display unit 13 by the enlargement display process 1. As shown in FIG. 7A, the enlargement key is displayed on the right side of the display unit 13 and at a position that does not overlap the displayed input item frame. That is, it is understood that the input by the user is performed by the left hand.
[0045]
Next, FIG. 7B is a diagram illustrating a part of a display screen example in which an enlargement key is displayed on the display unit 13 by the enlargement display process 2. As shown in FIG. 7B, the enlargement key is displayed so that the point position is superimposed on the cursor position in the item input frame displayed on the display unit 13, and the point position is displayed on a predetermined display body. (Black circles in the figure).
[0046]
FIG. 7C is a diagram illustrating a part of a display screen example in which an enlargement key is displayed on the display unit 13 by the enlargement display process 3. As shown in FIG. 7C, the enlargement key is displayed such that the center of the touched key is superimposed on the cursor position in the item input frame displayed on the display unit 13 and the point position is displayed. Are displayed on a predetermined display (black circles in the figure).
[0047]
As described above, on the keyboard screen displayed on the display unit 13, the data input device 1 according to the present embodiment provides a pressing force of a touch instruction that is equal to or less than a predetermined value when the user touches lightly for an input instruction. Is detected, display information of a predetermined range including the touched key is obtained, displayed in an enlarged manner on a display area different from the keyboard screen, and the touch position is also displayed on the display. When the pressing force of the touch instruction becomes equal to or more than a predetermined value, a key corresponding to the position coordinate of the touch instruction is acquired, and the key is input.
[0048]
Thus, in a portable electronic device such as a PDA or an electronic organizer having a relatively small display screen, when a key is input from a keyboard screen displayed on the display unit, a key which is likely to be operated is separately enlarged and the key position is increased. Since it is displayed, the key input guide display is provided to the user, and an input error can be prevented. Also, since the enlargement key is displayed or hidden according to the pressing force, it is possible to select whether to directly input the key or to display the enlargement key and input the key according to the operation of the user. . Therefore, the enlargement key can be displayed only when necessary, and the operation efficiency is high.
[0049]
Further, the display area of the enlargement key can be selected by the setting of the user, and a highly versatile data input device according to the purpose of use of the user can be provided. For example, the type of the finger performing the input is determined, and an enlarged key is displayed in an area that is not concealed by the finger and is not superimposed on the input area. Therefore, a key to be input is not hidden, and an input error can be prevented.
[0050]
Alternatively, in order to display an enlarged key by superimposing a point position indicating the position where the touch is instructed or the center position of the key corresponding to the touch instruction on the input start position, the user attempts to perform the input with the input start position. The user can easily recognize the key that is present, and the visibility of the input screen can be improved.
[0051]
Furthermore, since the point position indicating the position where the touch is instructed is displayed so as to be superimposed on the enlargement key, the user can clearly recognize the position touched on the keyboard screen, and easily. A desired key can be selected and input can be performed.
[0052]
The description in the present embodiment described above is an example of a suitable data input device 1 according to the present invention, and the present invention is not limited to this.
For example, in the above-described embodiment, the input guide display enlarges a part of the keyboard. However, if the type of the key can be confirmed without enlarging the original keyboard, it is not always necessary to enlarge the key. It can also be displayed.
In the above embodiment, the Z value of the ultrasonic surface acoustic wave type touch panel is used as a means for detecting the position where the user intends to give a pressing instruction. However, the touch panel is a device that only acquires X and Y coordinates. Alternatively, an optical coordinate detection device may be provided thereon, and when the optical coordinate detection device detects a user's finger or an input pen, a stage prior to an actual input operation may be detected.
[0053]
Further, the display position of the enlargement key is not limited to the above-described position, and may be configured to be displayed in a fixed area in advance, and may be displayed in various areas according to predetermined conditions.
Further, the determination of the finger performing the input has been described as a configuration in which the determination is made based on the hand holding the data input device 1. However, the direct input can be performed by changing the installation position of the sensor unit 17. A configuration for detecting the finger that is performing may be used.
[0054]
In addition, it goes without saying that the detailed configuration and the detailed operation of the data input device 1 according to the present embodiment can be appropriately changed without departing from the spirit of the present invention.
[0055]
【The invention's effect】
According to the present invention, for example, when an input operation is performed, when a pressing instruction is to be performed on a touch panel, a part of an input screen to be input is separately displayed as an input guide display together with a display body indicating a position indicated by a user. Therefore, it is possible to easily recognize what the user specifies on the input screen. Thus, even if the input device has a small display unit, the visibility can be improved, and an input error can be prevented to improve the operability.
[Brief description of the drawings]
FIG. 1 is a diagram showing an external configuration of a data input device 1 according to an embodiment to which the present invention is applied.
FIG. 2 is a block diagram showing a main configuration of the data input device 1 shown in FIG.
FIG. 3 is a flowchart showing a key input process executed by a CPU 11 shown in FIG. 2;
FIG. 4 is a flowchart showing an enlarged display process 1 executed by the CPU 11 as a part of the key input process shown in FIG.
FIG. 5 is a flowchart showing an enlarged display process 2 executed by the CPU 11 as a part of the key input process shown in FIG.
6 is a flowchart showing an enlarged display process 2 executed by the CPU 11 as a part of the key input process shown in FIG.
FIG. 7A is a diagram illustrating an example of a display screen displayed on the display unit 13 by an enlarged display process 1.
(B) is a diagram illustrating an example of a display screen displayed on the display unit 13 by the enlarged display processing 2.
(C) is a diagram illustrating an example of a display screen displayed on the display unit 13 by the enlarged display process 3.
[Explanation of symbols]
1 Data input device
11 CPU
12 Touch panel
13 Display
14 key unit
15 RAM
16 Storage device
17 Sensor unit
18 bus

Claims (8)

表示手段と、
前記表示手段を覆うように設けられ、押圧指示位置の座標情報を出力するタッチパネルと、
前記表示手段に情報入力用の入力画面を表示させる入力画面表示手段と、
前記入力画面表示手段により表示された入力画面に対し、ユーザが押圧指示しようとする位置を検出する検出手段と、
前記入力画面表示手段により表示されている入力画面のうち、前記検出手段により検出された押圧指示しようとする位置に対応する一部の画面を、押圧指示しようとする位置を示す表示体と共に入力ガイド表示として、入力画面と別に表示させる入力ガイド表示手段と、
前記入力画面上での押圧指示に応じて前記タッチパネルが出力した座標情報に基づいて、所定の入力処理を行う入力手段と、
を備えることを特徴とする入力装置。
Display means;
A touch panel that is provided so as to cover the display unit and outputs coordinate information of the pressed instruction position;
Input screen display means for displaying an input screen for information input on the display means,
Detection means for detecting a position at which the user intends to instruct the input screen displayed by the input screen display means,
A part of the input screen displayed by the input screen display means, which corresponds to the position to be pressed and detected by the detection means, is displayed together with a display object indicating the position to be pressed and input guide. An input guide display means for displaying the display separately from the input screen;
An input unit that performs a predetermined input process based on coordinate information output by the touch panel in response to a pressing instruction on the input screen,
An input device comprising:
前記入力画面は、キーあるいはメニュー項目を入力する画面を含み、前記入力ガイド表示手段は、ユーザが入力指示しようとするキーあるいはメニュー項目を表示することを特徴とする請求項1に記載の入力装置。2. The input device according to claim 1, wherein the input screen includes a screen for inputting a key or a menu item, and the input guide display unit displays a key or a menu item that the user intends to input. . 前記入力ガイド表示手段は、操作するユーザの手で視認が妨げられない位置に入力ガイド表示画面を表示することを特徴とする請求項1又は2に記載の入力装置。3. The input device according to claim 1, wherein the input guide display unit displays the input guide display screen at a position where the visibility of the input guide display is not hindered by a user's hand. 前記入力ガイド表示手段は、キー入力される項目位置に入力ガイド表示画面を重畳して表示するようにしたことを特徴とする請求項2に記載の入力装置。3. The input device according to claim 2, wherein the input guide display unit displays an input guide display screen superimposed on an item position where a key is input. 前記入力ガイド表示手段は、入力ガイド表示画面を拡大して表示することを特徴とする請求項1から4のいずれか一項に記載の入力装置。The input device according to claim 1, wherein the input guide display unit displays the input guide display screen in an enlarged manner. 前記検出手段は、前記タッチパネルに対する押圧力を計測する手段を有し、前記入力ガイド表示手段は計測された押圧力が所定値以内である場合に、前記タッチパネルからの座標位置に応じて、入力画面の一部を入力ガイド表示することを特徴とする請求項1から5のいずれか一項に記載の入力装置。The detection unit includes a unit that measures a pressing force on the touch panel, and the input guide display unit displays an input screen according to a coordinate position from the touch panel when the measured pressing force is within a predetermined value. The input device according to claim 1, wherein a part of the input device is displayed as an input guide. 前記検出手段は、前記タッチパネルに接近したユーザの指の位置情報を検知する光学的検知手段を有し、前記入力ガイド表示手段は前記光学的検知手段が検知した接近した指の位置情報に応じて、入力画面の一部を入力ガイド表示することを特徴とする請求項1から5のいずれか一項に記載の入力装置。The detection means has optical detection means for detecting position information of the user's finger approaching the touch panel, and the input guide display means responds to the position information of the approached finger detected by the optical detection means. The input device according to any one of claims 1 to 5, wherein a part of the input screen is displayed as an input guide. 入力画面が表示される表示手段を覆うように設けられ、押圧位置情報を出力するタッチパネルを用いた入力方法において、
入力画面に対してユーザが押圧指示操作を行おうとしている位置を検出する行程と、
前記押圧指示操作を行おうとしている位置が検出された場合に、当該検出位置に応じて、前記表示手段に表示されている入力画面の一部を、当該検出位置を示す表示体と共に入力ガイド表示として所定の領域に表示して、入力のガイドをする工程と、
を含むことを特徴とする入力方法。
In an input method using a touch panel that is provided so as to cover a display unit on which an input screen is displayed, and outputs pressed position information,
A process of detecting a position at which the user intends to perform a pressing instruction operation on the input screen;
When a position at which the pressing instruction operation is to be performed is detected, a part of the input screen displayed on the display unit is displayed along with a display body indicating the detected position according to the detected position. Displaying in a predetermined area as a guide of input,
An input method comprising:
JP2002180294A 2002-06-20 2002-06-20 Input device and input method Pending JP2004021933A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002180294A JP2004021933A (en) 2002-06-20 2002-06-20 Input device and input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002180294A JP2004021933A (en) 2002-06-20 2002-06-20 Input device and input method

Publications (1)

Publication Number Publication Date
JP2004021933A true JP2004021933A (en) 2004-01-22

Family

ID=31177467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002180294A Pending JP2004021933A (en) 2002-06-20 2002-06-20 Input device and input method

Country Status (1)

Country Link
JP (1) JP2004021933A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005218779A (en) * 2004-02-09 2005-08-18 Nintendo Co Ltd Game apparatus and game program
JP2006285598A (en) * 2005-03-31 2006-10-19 Fujitsu Ten Ltd Touch panel device, operation support method for touch panel device, and operation support program for touch panel device
JP2010146279A (en) * 2008-12-18 2010-07-01 Sharp Corp Information processor, information processing method, and information processing program
JP2013511763A (en) * 2009-11-24 2013-04-04 サムスン エレクトロニクス カンパニー リミテッド GUI providing method for guiding start position of user operation and digital device to which the method is applied
JP2014042334A (en) * 2005-03-04 2014-03-06 Apple Inc Multi-functional hand-held device
JP2014206991A (en) * 2014-06-10 2014-10-30 京セラ株式会社 Mobile phone device
US9047009B2 (en) 2005-03-04 2015-06-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
JP2017010275A (en) * 2015-06-22 2017-01-12 弘幸 山下 Character input device, character input method, and program
US9785258B2 (en) 2003-09-02 2017-10-10 Apple Inc. Ambidextrous mouse
US9811186B2 (en) 2006-05-12 2017-11-07 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
US10459613B2 (en) 2009-02-25 2019-10-29 Kyocera Corporation Object display device
US10895969B2 (en) 2016-09-30 2021-01-19 Brother Kogyo Kabushiki Kaisha Input apparatus acceptable of input through enlarged images in a display and computer-readable storage medium therefor
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9983742B2 (en) 2002-07-01 2018-05-29 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US9785258B2 (en) 2003-09-02 2017-10-10 Apple Inc. Ambidextrous mouse
US10474251B2 (en) 2003-09-02 2019-11-12 Apple Inc. Ambidextrous mouse
US10156914B2 (en) 2003-09-02 2018-12-18 Apple Inc. Ambidextrous mouse
US8337284B2 (en) 2004-02-09 2012-12-25 Nintendo Co., Ltd. Game apparatus and storage medium having game program stored therein
JP2005218779A (en) * 2004-02-09 2005-08-18 Nintendo Co Ltd Game apparatus and game program
JP2014042334A (en) * 2005-03-04 2014-03-06 Apple Inc Multi-functional hand-held device
JP2015133722A (en) * 2005-03-04 2015-07-23 アップル インコーポレイテッド Multi-functional hand-held device
US11360509B2 (en) 2005-03-04 2022-06-14 Apple Inc. Electronic device having display and surrounding touch sensitive surfaces for user interface and control
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US10921941B2 (en) 2005-03-04 2021-02-16 Apple Inc. Electronic device having display and surrounding touch sensitive surfaces for user interface and control
US10386980B2 (en) 2005-03-04 2019-08-20 Apple Inc. Electronic device having display and surrounding touch sensitive surfaces for user interface and control
US9047009B2 (en) 2005-03-04 2015-06-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
JP2006285598A (en) * 2005-03-31 2006-10-19 Fujitsu Ten Ltd Touch panel device, operation support method for touch panel device, and operation support program for touch panel device
US9811186B2 (en) 2006-05-12 2017-11-07 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
US9996176B2 (en) 2006-05-12 2018-06-12 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
JP2010146279A (en) * 2008-12-18 2010-07-01 Sharp Corp Information processor, information processing method, and information processing program
US10459613B2 (en) 2009-02-25 2019-10-29 Kyocera Corporation Object display device
JP2013511763A (en) * 2009-11-24 2013-04-04 サムスン エレクトロニクス カンパニー リミテッド GUI providing method for guiding start position of user operation and digital device to which the method is applied
JP2014206991A (en) * 2014-06-10 2014-10-30 京セラ株式会社 Mobile phone device
JP2017010275A (en) * 2015-06-22 2017-01-12 弘幸 山下 Character input device, character input method, and program
US10895969B2 (en) 2016-09-30 2021-01-19 Brother Kogyo Kabushiki Kaisha Input apparatus acceptable of input through enlarged images in a display and computer-readable storage medium therefor

Similar Documents

Publication Publication Date Title
EP2184672B1 (en) Information display apparatus, mobile information unit, display control method and display control program
US9927964B2 (en) Customization of GUI layout based on history of use
US8775966B2 (en) Electronic device and method with dual mode rear TouchPad
US6977643B2 (en) System and method implementing non-physical pointers for computer devices
JP5977627B2 (en) Information processing apparatus, information processing method, and program
US20110185308A1 (en) Portable computer device
US20140380209A1 (en) Method for operating portable devices having a touch screen
US20150234566A1 (en) Electronic device, storage medium and method for operating electronic device
JP2013235588A (en) Method for controlling terminal based on spatial interaction, and corresponding terminal
RU2008142904A (en) MULTI-FUNCTION KEY WITH SCROLL
KR20120092686A (en) Terminal device, link selection method, and computer-readable recording medium stored thereon display program
JP2004021933A (en) Input device and input method
US10671269B2 (en) Electronic device with large-size display screen, system and method for controlling display screen
JP2016126363A (en) Touch screen input method, mobile electronic device, and computer program
JP2012174247A (en) Mobile electronic device, contact operation control method, and contact operation control program
US20040041847A1 (en) On-screen scrolling position method
JPH11191027A (en) Computer presentation system
JP6183820B2 (en) Terminal and terminal control method
TWI439922B (en) Handheld electronic apparatus and control method thereof
JP4027937B2 (en) Portable electronic devices
JP2004227365A (en) Optical input device and method
KR100796131B1 (en) Portable electronic device
KR100644643B1 (en) Focusing area resizing apparatus and method therefor in portable information processing terminal
WO2013118227A1 (en) Information processing device
JP6457170B2 (en) Portable electronic devices