JP5132028B2 - User interface device - Google Patents

User interface device Download PDF

Info

Publication number
JP5132028B2
JP5132028B2 JP2004174782A JP2004174782A JP5132028B2 JP 5132028 B2 JP5132028 B2 JP 5132028B2 JP 2004174782 A JP2004174782 A JP 2004174782A JP 2004174782 A JP2004174782 A JP 2004174782A JP 5132028 B2 JP5132028 B2 JP 5132028B2
Authority
JP
Japan
Prior art keywords
user
button
display
user access
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004174782A
Other languages
Japanese (ja)
Other versions
JP2005352924A (en
Inventor
智輝 束田
勉 松原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2004174782A priority Critical patent/JP5132028B2/en
Publication of JP2005352924A publication Critical patent/JP2005352924A/en
Application granted granted Critical
Publication of JP5132028B2 publication Critical patent/JP5132028B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ユーザインタフェース装置、特に数字キーや操作ボタン等を可変に表示可能な液晶パネル等を表示部として有するユーザインタフェース装置の操作性に関する。   The present invention relates to operability of a user interface device, particularly a user interface device having a liquid crystal panel or the like that can variably display numeric keys, operation buttons, and the like as a display unit.

例えばATM(Automatic Teller Machine)で代表されるように、従来から液晶パネルなどのディスプレイの表面にタッチパネルを配設したユーザインタフェース装置が実用化されている。このユーザインタフェース装置は、液晶パネルに表示するキー画像等をユーザ操作に応じて変更することができる。近年、タッチパネルを配設したユーザインタフェース装置は、携帯電話などの小型機器の操作手段としても利用されてきている。   For example, as represented by ATM (Automatic Teller Machine), a user interface device in which a touch panel is provided on the surface of a display such as a liquid crystal panel has been put into practical use. This user interface device can change a key image or the like displayed on the liquid crystal panel according to a user operation. In recent years, a user interface device provided with a touch panel has been used as an operation means for small devices such as a mobile phone.

ただ、このタイプのインタフェース装置を携帯電話等の小型機器に適用する場合には、操作領域が必然的に狭くなってしまうため、同等数の操作ボタンを表示しようとすると、各操作ボタンの大きさは相対的に小さくなってしまう。そうすると、この種のユーザインタフェースは、物理的な操作ボタン等と異なり凹凸を設けることができないため、ユーザは、操作しようとするキーの存在を触覚により確認することができない。このため、誤操作を招きやすくなる。   However, when this type of interface device is applied to a small device such as a mobile phone, the operation area is inevitably narrowed. Therefore, if an equivalent number of operation buttons is displayed, the size of each operation button is reduced. Will be relatively small. Then, since this type of user interface cannot be provided with unevenness unlike a physical operation button or the like, the user cannot confirm the presence of a key to be operated by touch. For this reason, it becomes easy to invite an erroneous operation.

このような誤操作を削減するために、従来においては、ユーザ操作を検出したときに操作された、若しくは操作されると思われるキー若しくはキー入力受付領域を拡大するなどしてデータ入力を容易にする入力装置が提案されている(例えば特許文献1,2)。   In order to reduce such erroneous operations, conventionally, data input is facilitated by expanding a key or a key input reception area that is operated or is supposed to be operated when a user operation is detected. Input devices have been proposed (for example, Patent Documents 1 and 2).

特開平5−73196号公報JP-A-5-73196 特開2002−91677号公報JP 2002-91677 A

しかしながら、特許文献1においては、キー画像の境界線が押下された場合に次回以降の入力ミスを低減させるためにキー入力受付領域を拡大変更するが、キー自体の表示を変更するものではない。また、「押下」という1回の操作に応じて操作されたキーの表示形態を変更することなく入力が確定されてしまうので、誤操作したことに気づかない場合も起こり得る。   However, in Patent Document 1, when the boundary of the key image is pressed, the key input reception area is enlarged and changed in order to reduce input mistakes after the next time, but the display of the key itself is not changed. In addition, since the input is confirmed without changing the display form of the key operated in response to one operation of “pressing”, there may be a case where the user does not notice that the operation is wrong.

これに対し、特許文献2においては、キーが選択されたときにその選択されたキー及びその周辺のキーを拡大表示するので、選択したキーをユーザに容易に確認させることができる。更に、ユーザは、選択したキーが誤っていた場合には指をずらすことで選択し直すことができるので、一見するとユーザフレンドリであるようにも考えられる。しかしながら、特許文献2においては、拡大表示した後に入力を中止したいときでも、タッチパネルから指を離した位置のキーで入力が無条件に確定されてしまうため、必ずしも使い勝手がよいとは言い難い。   On the other hand, in Patent Document 2, when a key is selected, the selected key and its surrounding keys are enlarged and displayed, so that the user can easily confirm the selected key. Furthermore, since the user can select again by moving his / her finger when the selected key is wrong, it can be considered that the user is user-friendly at first glance. However, in Patent Document 2, even when it is desired to cancel the input after the enlarged display, the input is unconditionally determined by the key at the position where the finger is released from the touch panel, and thus it is not necessarily easy to use.

本発明は、以上のような課題を解決するためになされたものであり、その目的は、誤操作の防止に、より適したユーザインタフェース装置を提供することにある。   The present invention has been made to solve the above-described problems, and an object thereof is to provide a user interface device that is more suitable for preventing erroneous operations.

本発明に係るユーザインタフェース装置は、ユーザにより操作される操作項目を表示するユーザ操作領域が設定された第1の表示手段と、前記第1表示手段に近接され、表示領域が設定された第2の表示手段と、ユーザ操作領域に対する第1のユーザアクセスを検出すると共に、第1のユーザアクセスより更にユーザ操作領域方向への移動を伴うユーザ操作領域に対する第2のユーザアクセスを検出する検出手段と、前記検出手段により検出された第2のユーザアクセスを、ユーザによる確定操作と判定する制御手段と、前記第1の表示手段に表示する操作項目の表示形態を制御する表示制御手段と、前記検出手段により第1のユーザアクセスが検出されたときに、ユーザ操作領域上における第1のユーザアクセス位置を特定する位置特定手段と、を有し、前記制御手段は、前記位置特定手段により特定された第1のユーザアクセス位置に対応した操作項目を特定し、前記表示制御手段は、前記検出手段により第1のユーザアクセスが検出されたときに、第1のユーザアクセス検出時点からの経過時間に応じて前記制御手段により特定された操作項目のみを前記第2の表示手段に設定された表示領域まで拡大表示するものである。

The user interface device according to the present invention includes a first display unit in which a user operation area for displaying an operation item operated by a user is set, and a second display unit in which the display area is set in proximity to the first display unit. And a detecting means for detecting a first user access to the user operation area and detecting a second user access to the user operation area with a further movement in the direction of the user operation area than the first user access. Control means for determining the second user access detected by the detection means as a confirming operation by a user, display control means for controlling a display form of operation items displayed on the first display means, and the detection A position specifying hand for specifying the first user access position on the user operation area when the first user access is detected by the means; The control means specifies an operation item corresponding to the first user access position specified by the position specifying means, and the display control means allows the first user access by the detection means. when it is detected, that only identified operation item to set the display area or in enlarging the image on the second display means by said control means in accordance with the elapsed time from the first user access detection time It is.

また、前記制御手段は、表示される操作項目毎に対応させて設定した反応領域と、前記位置特定手段により特定された第1のユーザアクセス位置とを照合することで、第1のユーザアクセス位置に対応した操作項目を特定する場合、前記検出手段により第1のユーザアクセスが検出されたときに前記位置特定手段により特定された第1のユーザアクセス位置に対応した操作項目に対応させて設定する反応領域の大きさを、当該操作項目の大きさより大きくするものである。 Further, the control means collates the reaction area set corresponding to each operation item to be displayed with the first user access position specified by the position specifying means, so that the first user access position is determined. When the operation item corresponding to the first user access is detected by the detection unit, the operation item is set corresponding to the operation item corresponding to the first user access position specified by the position specifying unit. The size of the reaction area is larger than the size of the operation item .

本発明によれば、第1及び第2という二段階のユーザアクセスを検出するように構成し、そのうち第1のユーザアクセスに続けて第2のユーザアクセスが行われてはじめてその第2のユーザアクセスを入力確定操作と判定するようにしたので、誤操作を効果的に防止することができる。   According to the present invention, it is configured to detect two-stage user access of first and second, and the second user access is not performed until the second user access is performed following the first user access. Is determined as an input confirmation operation, so that an erroneous operation can be effectively prevented.

また、第1のユーザアクセス検出の際に操作された操作項目が視認できるように、操作項目の表示形態を変更するようにしたので、ユーザ操作の確認を容易に行うことができ、また誤操作の防止を図ることができる。   In addition, since the display mode of the operation item is changed so that the operation item operated at the time of the first user access detection can be visually confirmed, the user operation can be easily confirmed, and an erroneous operation can be performed. Prevention can be achieved.

また、第1のユーザアクセス位置に対応した操作項目を拡大表示すると共に、当該操作項目の内容を示す情報を、拡大表示した操作項目表示領域内の操作部位からずれた位置に表示するようにしたので、どの操作項目を操作しているのかをユーザに容易に確認させることができる。   In addition, the operation item corresponding to the first user access position is displayed in an enlarged manner, and information indicating the contents of the operation item is displayed at a position shifted from the operation part in the enlarged operation item display area. Therefore, the user can easily confirm which operation item is being operated.

また、操作項目の拡大表示に合わせて当該操作項目に対応させて設定する反応領域の大きさも拡張するようにしたので、誤操作をより効果的に防止することができる。   In addition, since the size of the reaction area set corresponding to the operation item is expanded in accordance with the enlarged display of the operation item, erroneous operation can be prevented more effectively.

また、通知手段を設けたので、ユーザが操作項目以外の箇所を操作していることをユーザに知らせることができる。   In addition, since the notification means is provided, it is possible to notify the user that the user is operating a part other than the operation item.

以下、図面に基づいて、本発明の好適な実施の形態について説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

実施の形態1.
図1は、本発明に係るユーザインタフェース装置の一実施の形態を適用した携帯電話の概略構成図である。本実施の形態における携帯電話1には、2つの液晶画面2,3が形成されている。液晶画面2には、電話番号等をガイド表示する表示領域が形成される。液晶画面3には、操作項目を表示してユーザによる入力操作を受け付けるユーザ操作領域が形成される。本実施の形態では、液晶画面3に表示されユーザにより操作されるメニュー等のボタン4や数字キー等を「操作項目」と総称する。ただ、以下の説明では、便宜的に「ボタン」を代表して用いる。
Embodiment 1 FIG.
FIG. 1 is a schematic configuration diagram of a mobile phone to which an embodiment of a user interface device according to the present invention is applied. Two liquid crystal screens 2 and 3 are formed on the mobile phone 1 in the present embodiment. On the liquid crystal screen 2, a display area for displaying a telephone number or the like as a guide is formed. The liquid crystal screen 3 is formed with a user operation area that displays operation items and accepts an input operation by a user. In the present embodiment, the buttons 4 such as menus displayed on the liquid crystal screen 3 and operated by the user, numeric keys, and the like are collectively referred to as “operation items”. However, in the following description, “button” is used as a representative for convenience.

図2は、携帯電話1のユーザ操作領域が形成される液晶画面部分を横からみたときの構造を示した概略図である。図2(a)に示したように、液晶画面3は、携帯電話1の筐体内部においてタッチパネル5、液晶パネル6及びスイッチ7が積層された液晶タッチパネルとして形成される。液晶画面3に対する操作は、指先やペン先をタッチパネル5に接触させることで行われるが、タッチパネル5は、このユーザによる接触操作及びその接触位置を検出する。なお、携帯電話1に対しては、通常、指でボタン操作するので、本実施の形態でも、ユーザ操作は指先で行われるものとして説明する。液晶パネル6は、携帯電話1における表示制御に従ったボタン画像をユーザ操作領域内に表示する。スイッチ7は、液晶画面3が押下されたことを検出するオン/オフスイッチである。スイッチ7は、液晶パネル6と隙間を設けて配置され、液晶パネル6との接触を電気的に検出したり、あるいは液晶パネル6との接触により生じる圧力を検出するなどして、ユーザによる液晶画面3の押下を検出する。   FIG. 2 is a schematic diagram showing a structure when the liquid crystal screen portion on which the user operation area of the mobile phone 1 is formed is viewed from the side. As shown in FIG. 2A, the liquid crystal screen 3 is formed as a liquid crystal touch panel in which a touch panel 5, a liquid crystal panel 6, and a switch 7 are stacked inside the casing of the mobile phone 1. The operation on the liquid crystal screen 3 is performed by bringing a fingertip or a pen tip into contact with the touch panel 5. The touch panel 5 detects the contact operation and the contact position by the user. Note that the cellular phone 1 is usually operated with a button with a finger, and therefore in this embodiment, the user operation is performed with the fingertip. The liquid crystal panel 6 displays a button image in accordance with display control in the mobile phone 1 in the user operation area. The switch 7 is an on / off switch that detects that the liquid crystal screen 3 has been pressed. The switch 7 is arranged with a gap from the liquid crystal panel 6, and electrically detects a contact with the liquid crystal panel 6 or detects a pressure generated by the contact with the liquid crystal panel 6. 3 is detected.

液晶画面3は、周知な機構を用いて筐体内部方向に可動な状態で携帯電話1に取り付けられており、ユーザによりタッチパネル5側が押下されると、筐体内部方向に押し込まれる構造を有している。すなわち、この液晶画面部分の構造について図2を用いて説明すると、ユーザは、図2(a)に示したように液晶画面3のユーザ操作領域に表示されたいずれかのボタン(図示せず)を押下操作するとき、指先を液晶画面3に近づけるよう移動させる。指先は、その移動によっていずれ液晶画面3に接触することになる。なお、この液晶画面3への接触は、タッチパネル5により検出される。続いて、ユーザは、液晶画面3を更に押下すると、液晶画面3は、筐体内部方向に押し込まれる。図2(b)では、この押し込まれた状態を、タッチパネル5と携帯電話1の筐体との間の隙間8によって示している。スイッチ7は、このタッチパネル接触後に続いて行われる押下というユーザ操作を検出する。なお、指先が離れると、液晶画面3は、図2(a)に示した元の位置に戻る。   The liquid crystal screen 3 is attached to the mobile phone 1 so as to be movable toward the inside of the housing using a known mechanism, and has a structure that is pushed into the inside of the housing when the touch panel 5 is pressed by the user. ing. That is, the structure of the liquid crystal screen portion will be described with reference to FIG. 2. The user can select any button (not shown) displayed in the user operation area of the liquid crystal screen 3 as shown in FIG. When the button is pressed, the fingertip is moved closer to the liquid crystal screen 3. The fingertip will eventually come into contact with the liquid crystal screen 3 by the movement. The touch on the liquid crystal screen 3 is detected by the touch panel 5. Subsequently, when the user further presses the liquid crystal screen 3, the liquid crystal screen 3 is pushed toward the inside of the housing. In FIG. 2B, this depressed state is indicated by a gap 8 between the touch panel 5 and the casing of the mobile phone 1. The switch 7 detects a user operation of pressing that is subsequently performed after touching the touch panel. When the fingertip is released, the liquid crystal screen 3 returns to the original position shown in FIG.

本実施の形態における液晶画面3は、以上のような構造を有しているが、本実施の形態では、上記のようにタッチパネル5への接触操作と、その接触後において更にタッチパネル5を押し込む方向への指先の移動、すなわち押下操作という2段階のユーザ操作を検出できるように構成した。そして、タッチパネル5により検出された最初の接触操作を第1のユーザアクセスと、スイッチ7により検出された最初の接触後における押下操作を第2のユーザアクセスと称するならば、本実施の形態では、第1のユーザアクセス後に行われる第2のユーザアクセスをユーザによる確定操作としてみなすようにした。すなわち、本実施の形態では、液晶画面3への接触後に更に押し込むという二段操作若しくは二度押しというユーザインタフェースを提供し、その二段目(二度押し目)の操作をユーザによる確定操作として判定するようにしたことを特徴としている。   The liquid crystal screen 3 in the present embodiment has the above-described structure, but in the present embodiment, the touch operation to the touch panel 5 as described above, and the direction in which the touch panel 5 is further pushed after the touch is performed. It is configured to detect a two-stage user operation of a fingertip movement, that is, a pressing operation. Then, if the first contact operation detected by the touch panel 5 is referred to as first user access and the pressing operation after the first contact detected by the switch 7 is referred to as second user access, in the present embodiment, The second user access performed after the first user access is regarded as a confirmation operation by the user. In other words, in the present embodiment, a user interface of a two-step operation or a two-press operation of further pressing after touching the liquid crystal screen 3 is provided, and the second-step (second press) operation is determined as a confirmation operation by the user. It is characterized by doing so.

図3は、本実施の形態におけるユーザインタフェース装置のブロック構成図である。図3には、表示部10、表示制御部11、位置特定部12、第1操作検出部13、第2操作検出部14、制御部15及び通知部16が示されている。表示部10は、前述した液晶パネル6により実現される。表示制御部11は、携帯電話本体の表示制御機能から送られてくる表示データに基づいて、ユーザにより操作されるボタン等の操作項目を表示部10に設定されたユーザ操作領域に表示する。表示データには、液晶パネル6に表示する各操作項目の形状、表示位置、色等表示に必要なデータが含まれている。また、詳細は後述するが、表示制御部11は、操作項目の表示形態をユーザ操作に応じて変更するなどの表示制御を行う。検出手段17は、ユーザ操作領域に対する第1のユーザアクセスを検出する第1操作検出部13と、第1のユーザアクセス後のユーザ操作領域に対する第2のユーザアクセスを検出する第2操作検出部14とを有している。第1操作検出部13が検出する第1のユーザアクセスというのは、上記例示したタッチパネル5への接触操作に相当し、タッチパネル5により実現される。一方、第2操作検出部14は、タッチパネル5に対する押下操作に相当し、スイッチ7により実現される。   FIG. 3 is a block diagram of the user interface device according to the present embodiment. 3 shows a display unit 10, a display control unit 11, a position specifying unit 12, a first operation detection unit 13, a second operation detection unit 14, a control unit 15, and a notification unit 16. The display unit 10 is realized by the liquid crystal panel 6 described above. The display control unit 11 displays operation items such as buttons operated by the user in the user operation area set in the display unit 10 based on display data sent from the display control function of the mobile phone body. The display data includes data necessary for display such as the shape, display position, and color of each operation item displayed on the liquid crystal panel 6. Moreover, although mentioned later for details, the display control part 11 performs display control of changing the display form of an operation item according to user operation. The detection unit 17 includes a first operation detection unit 13 that detects a first user access to the user operation area, and a second operation detection unit 14 that detects a second user access to the user operation area after the first user access. And have. The first user access detected by the first operation detection unit 13 corresponds to the touch operation on the touch panel 5 exemplified above, and is realized by the touch panel 5. On the other hand, the second operation detection unit 14 corresponds to a pressing operation on the touch panel 5 and is realized by the switch 7.

位置特定部12は、第1のユーザアクセスが検出されたときに、ユーザ操作領域上における第1のユーザアクセスがされた位置を特定する。具体的に言うと、ユーザの指先が接触したタッチパネル5上の位置を特定可能な電気信号を出力する。位置特定部12は、タッチパネル5により実現される。制御部15は、位置特定部12から送られてくる信号データに基づき得たユーザ接触位置の座標データと、表示制御部11を介して取得した表示データから特定される各ボタンの表示位置とを比較照合してユーザが操作したボタン4を特定する。制御部15は、またその他ユーザインタフェース装置全体の動作制御を行う。通知部16は、制御部15が第1のユーザアクセス位置に対応したボタンを特定できなかったときにその旨をユーザに通知する。   The position specifying unit 12 specifies the position where the first user access is made on the user operation area when the first user access is detected. More specifically, an electrical signal that can specify the position on the touch panel 5 that is touched by the user's fingertip is output. The position specifying unit 12 is realized by the touch panel 5. The control unit 15 obtains the coordinate data of the user contact position obtained based on the signal data sent from the position specifying unit 12 and the display position of each button specified from the display data acquired via the display control unit 11. The button 4 operated by the user by comparison is identified. The control unit 15 also performs operation control of the entire other user interface device. The notification unit 16 notifies the user when the control unit 15 cannot identify the button corresponding to the first user access position.

なお、本実施の形態におけるユーザインタフェース装置の説明に必要な構成要素を図3に示したが、これらの構成要素は、携帯電話が持つ既存の構成要素に適宜組み込んで実現することができる。例えば、制御部15や表示制御部11が持つ処理機能は、携帯電話1に搭載されている制御回路に組み込んで実現できる。また、通知部16は、スピーカ等で実現できる。   In addition, although the component required for description of the user interface apparatus in this Embodiment was shown in FIG. 3, these components can be implement | achieved by suitably incorporating in the existing component which a mobile telephone has. For example, the processing functions of the control unit 15 and the display control unit 11 can be realized by being incorporated in a control circuit mounted on the mobile phone 1. The notification unit 16 can be realized by a speaker or the like.

次に、本実施の形態における動作について図4に示した画面表示例の遷移図を用いて説明する。   Next, the operation in the present embodiment will be described using the transition diagram of the screen display example shown in FIG.

図4(a)に示したように、液晶画面3のユーザ操作領域には“A”から“L”までの文字入力ボタンが表示されている。ここで、ユーザは、“B”を入力することを選択したとする。そこで、ユーザは、液晶画面3に表示された“B”ボタンを入力するために、“B”ボタンに指先を合わせて液晶画面3のタッチパネル5に接触する。第1操作検出部13は、この指先の接触を検出し、またこれと同時に位置特定部12はユーザ操作領域内の接触位置を特定する。制御部15は、位置特定部12により特定されたユーザ接触位置に基づいて、ユーザが操作しようとするボタンを次のようにして特定する。   As shown in FIG. 4A, character input buttons from “A” to “L” are displayed in the user operation area of the liquid crystal screen 3. Here, it is assumed that the user selects to input “B”. In order to input the “B” button displayed on the liquid crystal screen 3, the user touches the touch panel 5 of the liquid crystal screen 3 with the fingertip aligned with the “B” button. The first operation detection unit 13 detects the contact of the fingertip, and at the same time, the position specifying unit 12 specifies the contact position in the user operation area. Based on the user contact position specified by the position specifying unit 12, the control unit 15 specifies the button that the user intends to operate as follows.

制御部15は、ユーザ操作領域に表示するための表示データを表示制御部11から取得することで、ユーザ操作領域内における各ボタンの表示領域を位置座標データとして把握する。そして、ユーザ操作領域と同じ大きさを持つ別途用意した領域上に各ボタンの表示領域を投影する。これにより、ユーザ接触位置と比較照合するための領域情報を生成する。このユーザが操作した位置と比較照合するための領域情報を「反応領域」と称することにする。反応領域は、ボタン毎に生成され、ユーザが操作したボタンを特定するために制御部15によって用いられる座標データである。この点で表示制御部11が表示のために用いる表示データとは異なる。反応領域は、座標データにより範囲指定されるが、制御部15は、位置特定部12により特定されたユーザ接触位置に基づき得られる位置座標データと、表示されている各ボタンに対応した反応領域とを比較することでユーザ接触位置がどの反応領域に含まれるかを特定する。そして、特定した反応領域に対応するボタンがユーザにより操作されたボタンであると判定する。この制御部15における処理によって、図4に示した例によると、“B”ボタンが操作されたと特定することができる。   The control unit 15 obtains display data to be displayed in the user operation area from the display control unit 11, thereby grasping the display area of each button in the user operation area as position coordinate data. Then, the display area of each button is projected onto a separately prepared area having the same size as the user operation area. As a result, region information for comparison with the user contact position is generated. The area information for comparison with the position operated by the user is referred to as “reaction area”. The reaction area is coordinate data generated for each button and used by the control unit 15 to identify the button operated by the user. This is different from the display data used by the display control unit 11 for display. The reaction area is designated by the coordinate data, but the control unit 15 obtains the position coordinate data obtained based on the user contact position specified by the position specifying unit 12 and the reaction area corresponding to each displayed button. Are compared to specify which reaction region the user contact position is included in. And it determines with the button corresponding to the identified reaction area | region being the button operated by the user. According to the processing in the control unit 15, according to the example shown in FIG. 4, it can be specified that the “B” button has been operated.

ところで、ボタンには、通常、図4(a)に示したように各ボタンの内容を示す情報、この例の場合は“A”〜“L”という文字がボタン上に表示される。携帯電話1などの小型機器の場合は特にボタンを指で操作すると、ボタン上に表示される文字が指先で覆われ視認できなくなってしまう。そこで、本実施の形態においては、上記のように第1のユーザアクセスで“B”ボタンが操作されたと制御部15により特定されると、表示制御部11は、図4(b)に示したように該当する“B”ボタンを拡大表示する。図4(b)では、“A”ボタンが隠れる大きさに拡大しているが、“A”ボタンは選択されていないため隠れても問題ないと考えられる。そして、表示制御部11は、拡大表示した“B”ボタン上であって指先からずれた位置に文字“B”を表示する。これにより、ユーザは、操作したボタンが“B”ボタンであることを容易に視認することができる。   By the way, information indicating the contents of each button as shown in FIG. 4A, in this case, characters “A” to “L” are usually displayed on the button. In the case of a small device such as the cellular phone 1, especially when the button is operated with a finger, characters displayed on the button are covered with the fingertip and cannot be visually recognized. Therefore, in the present embodiment, when the control unit 15 specifies that the “B” button is operated in the first user access as described above, the display control unit 11 is shown in FIG. As shown, the corresponding “B” button is enlarged and displayed. In FIG. 4B, the “A” button is enlarged so as to be hidden. However, since the “A” button is not selected, it is considered that there is no problem even if it is hidden. Then, the display control unit 11 displays the character “B” on the enlarged “B” button at a position shifted from the fingertip. Thereby, the user can easily visually recognize that the operated button is the “B” button.

ボタンの拡大サイズ又は拡大率は、固定値として予め設定しておいてもよいが、ユーザの指先の位置は特定できるので、その位置と推測した操作部位(この例では指先)の大きさとから文字“B”の表示位置を計算により求めることができる。従って、文字“B”の表示位置が含まれるような大きさに “B”ボタンを拡大表示すればよい。これにより、ユーザは、文字“B”を常に視認することができる。   The enlargement size or enlargement ratio of the button may be set in advance as a fixed value. However, since the position of the user's fingertip can be specified, the character is determined from the position and the size of the estimated operation part (in this example, the fingertip) The display position of “B” can be obtained by calculation. Therefore, the “B” button may be enlarged and displayed so as to include the display position of the character “B”. Thereby, the user can always visually recognize the character “B”.

更に、小型機器の場合はボタン自体が小さいためにボタン上に表示される文字も小さい。従って、図4(b)に例示したように文字自体もボタンと共に拡大表示することがユーザにとっては好適である。なお、文字とボタンの拡大倍率は、同じでも別でもよい。   Furthermore, in the case of a small device, since the button itself is small, the characters displayed on the button are also small. Therefore, as illustrated in FIG. 4B, it is preferable for the user to display the characters themselves together with the buttons. Note that the magnification of the characters and buttons may be the same or different.

ユーザがタッチパネル5に接触操作すると、上記のようにして図4(b)が画面表示されることになる。ユーザは、入力しようとする“B”ボタンを操作できていることが確認できると、“B”ボタンを押下する。この押下操作をスイッチ7、すなわち第2操作検出部14が検出すると、制御部15は、この“B”ボタンに対する押下操作をユーザによる確定操作と判定する。なお、図4(c)における“Pi!”は、押下操作により確定されたことをユーザに聴覚にて知らせるための音を示している。他の図においても同様である。   When the user touches the touch panel 5, the screen shown in FIG. 4B is displayed as described above. When it is confirmed that the user can operate the “B” button to be input, the user presses the “B” button. When the switch 7, that is, the second operation detection unit 14 detects this pressing operation, the control unit 15 determines that the pressing operation on the “B” button is a confirmation operation by the user. Note that “Pi!” In FIG. 4C indicates a sound for informing the user that it has been confirmed by the pressing operation. The same applies to the other drawings.

以上のように、本実施の形態によれば、ユーザ操作領域に対する接触操作(第1のユーザアクセス)によりボタンを拡大表示するなどしてどのボタンが操作されているのかをユーザに確認させ、更にその接触操作に続いて行われるユーザ操作領域に対する押下操作(第2のユーザアクセス)により入力確定させる。ユーザからしてみれば、押下により入力を確定させる前にボタンに接触した時点で押下しようとしているボタンが拡大表示されるので、誤入力を防止することができる。仮に、ボタンを押下する前に、すなわちユーザ操作領域に接触した時点で誤ったボタンを操作しようとしていることを視認した場合には、操作をやり直せばよい。この際に指先が液晶画面3から離れたとしても、この操作を入力確定操作とみなされることはない。   As described above, according to the present embodiment, the user can confirm which button is being operated by, for example, enlarging and displaying the button by a contact operation (first user access) with respect to the user operation area. The input is confirmed by a pressing operation (second user access) on the user operation area performed following the contact operation. From the viewpoint of the user, since the button to be pressed is enlarged when the button is touched before the input is confirmed by pressing, an erroneous input can be prevented. If it is visually confirmed that an incorrect button is to be operated before the button is pressed, that is, when the user touches the user operation area, the operation may be performed again. Even if the fingertip moves away from the liquid crystal screen 3 at this time, this operation is not regarded as an input confirmation operation.

本実施の形態は、上記説明したとおり、ボタンの拡大表示等によるボタンの確認と、入力確定のために二段操作(二度押し操作)によるユーザインタフェースを提供するものである。しかし、二段階の操作をユーザに強要するものではない。すなわち、ユーザが確定のために押下操作をする際には、その押下操作より前に接触操作は常に行われることになるので、ユーザは、この二段階の操作を意識的に実行する必要はない。ユーザからしてみれば、一連の操作を行えばよく、本実施の形態におけるインタフェース装置が前述した内部処理にて二段階の操作として処理することになる。もちろん、ユーザは、意識的に接触操作をした時点で更なる押し込み操作をしないようにしてもよく、この場合は、ボタンの拡大表示が維持された状態になる。   As described above, the present embodiment provides a user interface by a two-step operation (double-pressing operation) for confirming a button by an enlarged display of the button or the like and confirming an input. However, it does not force the user to perform a two-step operation. That is, when the user performs a pressing operation for confirmation, the contact operation is always performed before the pressing operation, so the user does not need to consciously execute the two-stage operation. . From the user's point of view, a series of operations may be performed, and the interface device according to the present embodiment processes as a two-stage operation in the internal processing described above. Of course, the user may not perform further push-in operation when the user makes a conscious contact operation. In this case, the enlarged display of the button is maintained.

図5は、図4の変形例に相当する画面表示例の遷移図である。上記説明では、図4に示したようにユーザ操作領域が形成された液晶画面3の表示範囲内でボタンを拡大表示させていた。これに対し、図5は、ガイド表示領域が形成された液晶画面2まで拡大してボタンを表示させるようにした。このように、ユーザ操作領域に限定されずにボタンを拡大表示してもよい。   FIG. 5 is a transition diagram of a screen display example corresponding to the modification of FIG. In the above description, as shown in FIG. 4, the buttons are enlarged and displayed within the display range of the liquid crystal screen 3 on which the user operation area is formed. On the other hand, in FIG. 5, the buttons are displayed by enlarging the liquid crystal screen 2 on which the guide display area is formed. Thus, the button may be enlarged and displayed without being limited to the user operation area.

図6乃至図9は、更に異なる画面表示例を示した遷移図である。図4では、接触操作されたときにその操作されたボタンの表示形態を操作前と異ならせて表示するようにした。しかし、操作されたボタン以外のボタンの表示形態を変更するようにして操作されたボタンか否かを識別できるようにしてもよい。図6には、操作された“B”ボタン以外のボタンを淡く表示するようにした例が示されている。このように、操作されていないボタンの表示を淡くしたり、消去したり、あるいは色を変更するなどすることで操作されたボタンを目立たせることができ、これにより誤入力の防止効果を向上させることができる。   6 to 9 are transition diagrams showing further different screen display examples. In FIG. 4, when a touch operation is performed, the display mode of the operated button is displayed differently from that before the operation. However, it may be possible to identify whether the button is operated by changing the display form of buttons other than the operated button. FIG. 6 shows an example in which buttons other than the operated “B” button are displayed lightly. In this way, it is possible to make the operated button stand out by dimming the display of the button that has not been operated, deleting it, or changing the color, thereby improving the effect of preventing erroneous input. be able to.

図7には、操作されたボタンからの距離に応じてボタンの表示形態を決定するようにした例が示されている。すなわち、図7(b)に示した表示例によると、ユーザは“B”ボタンを操作しているが、それが誤操作だとすると、正しく選択されるべきボタンは、“B”ボタン周辺にあると考えられる。そこで、操作した“B”ボタンは上記と同様に拡大表示するが、その横隣にある“A”ボタンと“C”ボタンも拡大表示してボタンの存在をユーザに示す。ただ、操作された“B”ボタンとの区別が付けられるように拡大の程度を多少落とす。また、“B”ボタンの下段に位置する“D”〜“F”ボタンは、縮小表示する。“D”〜“F”ボタンの中に正しいボタンが存在する確率は、“A”,“C”ボタンより低いためである。更に、下段に位置する“G”〜“I”ボタンは淡く表示する。“G”〜“I”ボタンの中に正しいボタンが存在する確率は、“D”〜“F”ボタンより更に低いためである。つまり、重要度は更に低くなる。実際には、2段ずれた位置を押し間違いすることは通常はないと考えられるので、表示しなくてもよい。   FIG. 7 shows an example in which the button display form is determined according to the distance from the operated button. That is, according to the display example shown in FIG. 7B, the user operates the “B” button, but if it is an erroneous operation, the button to be correctly selected is considered to be around the “B” button. It is done. Therefore, the operated “B” button is enlarged and displayed in the same manner as described above, but the “A” and “C” buttons adjacent to the “B” button are also enlarged to indicate the existence of the button to the user. However, the degree of enlargement is slightly reduced so that it can be distinguished from the operated “B” button. Further, the “D” to “F” buttons located in the lower part of the “B” button are displayed in a reduced size. This is because the probability that a correct button exists among the “D” to “F” buttons is lower than those of the “A” and “C” buttons. Further, the “G” to “I” buttons located in the lower row are displayed lightly. This is because the probability that the correct button exists among the “G” to “I” buttons is lower than that of the “D” to “F” buttons. That is, the importance is further reduced. Actually, it is considered that it is not usually wrong to push a position shifted by two steps, so that it is not necessary to display it.

なお、本実施の形態は、操作されたボタンの位置からの距離に応じて表示形態を変更することを特徴とするものであり、例えば、“B”ボタンの直下の“E”ボタンは“A”,“C”ボタンと同様に拡大表示してもよいし、“B”ボタンの周囲に位置することから“D”〜“F”ボタンも拡大表示するようにしてもよい。   The present embodiment is characterized in that the display form is changed in accordance with the distance from the position of the operated button. For example, the “E” button directly below the “B” button is “A”. The buttons “D” to “F” may be enlarged and displayed because they are located around the “B” button.

図8には、図4等と同様に操作されたボタンを拡大表示するが、接触操作の検出時点からの経過時間に応じてボタンを徐々に拡大していくように表示する例が示されている。これにより、ユーザに確定操作を喚起することができる。なお、ボタンの表示形態を変化させる例として、ボタンの大きさを変化させる場合を図8に示したが、この他にも表示色等他の表示形態を変化させるようにしてもよい。   FIG. 8 shows an example in which a button operated in the same manner as in FIG. 4 or the like is displayed in an enlarged manner, but the button is displayed so as to gradually expand in accordance with the elapsed time from the detection time of the contact operation. Yes. Thereby, confirmation operation can be alerted to a user. As an example of changing the display form of the button, the case where the size of the button is changed is shown in FIG. 8, but other display forms such as the display color may be changed.

以上のように、本実施の形態では、操作されたボタンの表示形態を変更することで、どのボタンが操作されているのかをユーザに知らせることができるようにした。ボタンの表示形態を変更するためには、操作されたボタンを特定しなければならないが、この操作されたボタンは、ボタンのレイアウトが示された表示データから各ボタンの反応領域を生成し、この生成した各反応領域とユーザ接触位置とを比較することで特定している。この処理については前述している。但し、ユーザ接触位置がいずれの反応領域にも含まれない場合もあり得る。このように、ユーザ接触位置に対応したボタンが特定できなかったとき、制御部15は、表示制御部11にそのユーザ接触位置近傍のボタンを拡大表示させる。このときの画面表示例を図9に示す。図9(a)に示したように、“A”ボタンと“B”ボタンの上方であっていずれのボタンも操作していないとき、制御部15は、そのユーザ接触位置から接触位置近傍にある“A”,“B”ボタンを特定する。そして、表示制御部11は、その特定された“A”,“B”ボタンを図9(b)に例示したように拡大表示する。これにより、ユーザは、図9(c)に示したように選択しようとしていた“A”ボタンを押下することで入力を確定する。なお、図9(b)では、拡大表示したボタンを明確に示すために操作部位である指を図面から省略した。   As described above, in the present embodiment, it is possible to notify the user which button is being operated by changing the display form of the operated button. In order to change the button display form, the operated button must be specified. This operated button generates a reaction area for each button from the display data indicating the button layout, and It is specified by comparing each generated reaction area with the user contact position. This process has been described above. However, the user contact position may not be included in any reaction region. As described above, when the button corresponding to the user contact position cannot be specified, the control unit 15 causes the display control unit 11 to enlarge and display the button near the user contact position. An example of the screen display at this time is shown in FIG. As shown in FIG. 9A, when neither button is operated above the “A” button and the “B” button, the control unit 15 is in the vicinity of the contact position from the user contact position. Specify the “A” and “B” buttons. Then, the display control unit 11 enlarges and displays the specified “A” and “B” buttons as illustrated in FIG. 9B. As a result, the user confirms the input by pressing the “A” button to be selected as shown in FIG. In FIG. 9B, the finger as the operation part is omitted from the drawing in order to clearly show the enlarged button.

本実施の形態によれば、ボタンが表示されていないユーザ操作領域にユーザが触れたとき、どのボタンを操作しようとしたのかをそのユーザ接触位置に基づき推測し、そのボタンを拡大表示するようにしたので、ボタン操作が容易になり、誤操作防止に効果的である。なお、この例では、2つのボタンを拡大表示したが、拡大表示するボタン数は、ユーザの接触位置によって決まる。例えば、“A”ボタンの左上なら“A”ボタンのみを拡大表示する。また、“A”,“B”,“D”,“E”ボタンの間なら4つのボタンを拡大表示する。   According to the present embodiment, when a user touches a user operation area where no button is displayed, it is estimated which button is to be operated based on the user contact position, and the button is enlarged and displayed. As a result, button operation is facilitated, which is effective in preventing erroneous operation. In this example, two buttons are enlarged and displayed, but the number of buttons to be enlarged is determined by the contact position of the user. For example, in the upper left of the “A” button, only the “A” button is enlarged and displayed. In addition, four buttons are enlarged and displayed between the “A”, “B”, “D”, and “E” buttons.

また、制御部15は、ボタンが表示されていないユーザ操作領域にユーザが触れたとき、通知部16に通知指示を出す。通知部16は、制御部15からの指示に従い所定の方法でユーザにその旨を知らせる。所定の方法というのは、例えば、本実施の形態のように携帯電話1の場合は、音出力でもよいし、搭載されたバイブレータを駆動制御して振動させるようにしてもよい。また、発光など他の方法でユーザの五感を通じて知らせるようにしてもよい。タッチパネル5の場合、ボタン以外の箇所に触れても、そのことが触覚として伝わらないため、通知部16を設けてその旨をユーザに知らせるようにすることは効果的である。   Further, the control unit 15 issues a notification instruction to the notification unit 16 when the user touches a user operation area in which no button is displayed. The notification unit 16 notifies the user to that effect by a predetermined method in accordance with an instruction from the control unit 15. For example, in the case of the mobile phone 1 as in the present embodiment, the predetermined method may be sound output, or may be driven to vibrate and vibrate. Moreover, you may make it notify through a user's five senses by other methods, such as light emission. In the case of the touch panel 5, even if a part other than the button is touched, this is not transmitted as a tactile sense. Therefore, it is effective to provide the notification unit 16 to notify the user of that fact.

ところで、ユーザがアクセス(接触、押下)したボタンは、ユーザが操作した位置の座標データを、表示データから得られるボタンの表示領域と比較するのではなく、各ボタンの表示領域を投影することで生成した各反応領域と比較して特定していることは前述したとおりである。上記のように各ボタンの表示領域を投影することによって反応領域を生成した場合には、各ボタンの表示領域と反応領域の大きさは一致する。このため、ユーザは、ボタンの表示位置を操作すれば、実際にボタン操作を行うことができる。図4乃至図8を用いて説明したように、ボタンが拡大表示されることによって正しいボタンを操作していることが確認できると、ユーザは、接触位置から指先を動かすことなくその位置で押下操作を行うと推測できる。従って、ボタンの拡大表示に連動して必ずしも反応領域を拡大させる必要はない。しかしながら、ボタンサイズの拡大に連動させて反応領域も拡張すれば、都合のよい場合もある。例えば、図9に示したようにボタン以外の箇所を接触操作した後は、指先の位置を移動させなければならない。このような場合に拡大表示した“A”,“B”ボタンと表示領域(表示サイズ)と同じサイズで反応領域を生成すれば、誤操作を効果的に防止できる。なお、反応領域の生成に関しては、上記と同様で表示制御部11によって表示形態が変更されたときに、制御部15は、その表示データを表示制御部11から取得して反応領域を生成し直せばよい。   By the way, the button accessed by the user (contact, pressed) is not by comparing the coordinate data of the position operated by the user with the display area of the button obtained from the display data, but by projecting the display area of each button. As described above, it is specified in comparison with each reaction region generated. When the reaction area is generated by projecting the display area of each button as described above, the display area of each button and the size of the reaction area match. For this reason, the user can actually perform the button operation by operating the display position of the button. As described with reference to FIG. 4 to FIG. 8, when it is confirmed that the correct button is operated by the enlarged display of the button, the user performs a pressing operation at that position without moving the fingertip from the contact position. Can be guessed. Therefore, it is not always necessary to enlarge the reaction area in conjunction with the enlarged display of the button. However, it may be convenient if the reaction area is expanded in conjunction with the increase in button size. For example, as shown in FIG. 9, after touching a place other than the button, the position of the fingertip must be moved. In such a case, if the reaction area is generated with the same size as the enlarged display of the “A” and “B” buttons and the display area (display size), an erroneous operation can be effectively prevented. Regarding the generation of the reaction region, when the display form is changed by the display control unit 11 as described above, the control unit 15 can acquire the display data from the display control unit 11 and regenerate the reaction region. That's fine.

この反応領域の生成は、図9に限らず、時間の経過と共にボタンの大きさが変化する図8に示したような表示の場合にも適用可能である。図8に対応する反応領域を図10に示したが、図10から明らかなように、ボタンの大きさの変化に応じて反応領域を再生成することで、ボタンの表示領域と反応領域の大きさを常に一致させることができる。   The generation of the reaction region is not limited to FIG. 9, but can be applied to the display as shown in FIG. 8 in which the size of the button changes with time. The reaction area corresponding to FIG. 8 is shown in FIG. 10, but as is clear from FIG. 10, by regenerating the reaction area according to the change in the size of the button, the display area of the button and the size of the reaction area are shown. Can always be matched.

更に、反応領域の大きさは、ボタンの表示領域と必ずしも一致させる必要はなく、例えば表示領域より広くなるように生成してもよい。本実施の形態において例示した携帯電話、更にリモコンや車載情報機器など液晶画面を入力インタフェースとし、また表示する操作ボタン自体を小さくせざるを得ない小型機器においては、入力ミスの確率が必然的に高くなってしまう。特に、乗車中など静止していない状態、あるいは片手に持って連続して入力する頻度の高い携帯電話では、捜査中に指先がボタンからずれてしまう可能性がある。表示領域より反応領域の大きさを大きくすると、多少の操作位置のずれを許容することができるので、本実施の形態が提供するユーザインタフェースは誤操作防止に特に有効である。   Furthermore, the size of the reaction area does not necessarily have to coincide with the display area of the button. For example, the reaction area may be generated so as to be wider than the display area. In a small-sized device in which a liquid crystal screen such as a mobile phone exemplified in this embodiment and a remote control or an in-vehicle information device is used as an input interface and the operation buttons to be displayed must be made small, the probability of an input error is inevitably It will be high. In particular, in a mobile phone that is not stationary, such as when riding, or a mobile phone that is frequently input with a single hand, the fingertip may be displaced from the button during the investigation. If the size of the reaction area is made larger than the display area, a slight shift in the operation position can be allowed, so that the user interface provided by this embodiment is particularly effective in preventing erroneous operations.

なお、本実施の形態では、入力方式として二段操作(二度押し)というユーザインタフェースを提供することによって操作の確認を容易にし、かつ誤操作の防止を図ることができるようにした。上記例では、二段操作のうちユーザ操作領域に対する接触操作(第1のユーザアクセス)でボタンを拡大表示し、ユーザ操作領域に対して続けて行われる押下操作(第2のユーザアクセス)で入力確定としたが、例えば、第1のユーザアクセスが検出されたときに、当該ボタンに割り付けた情報を画面表示させるなど、各ユーザアクセスを他の処理と関連付けるようにしてもよい。   In this embodiment, a user interface called a two-stage operation (pressed twice) is provided as an input method, thereby facilitating confirmation of the operation and preventing an erroneous operation. In the above example, the button is enlarged and displayed by the touch operation (first user access) to the user operation area in the two-stage operation, and input is performed by the pressing operation (second user access) performed subsequently to the user operation area. Although it is determined, for example, when the first user access is detected, each user access may be associated with other processing such as displaying the information assigned to the button on the screen.

また、本実施の形態では、液晶パネル6の下方にスイッチ7を配設して第2のユーザアクセスを検出するように構成したが、この構成に限定する必要はない。例えば、携帯電話1の筐体とタッチパネル5との隙間8を検出するなど他の手段によって第2のユーザアクセスを検出するようにしてもよい。   In the present embodiment, the switch 7 is disposed below the liquid crystal panel 6 to detect the second user access. However, the present invention is not limited to this configuration. For example, the second user access may be detected by other means such as detecting a gap 8 between the casing of the mobile phone 1 and the touch panel 5.

実施の形態2.
実施の形態1では、液晶画面3を押し込むことで入力を確定させるタイプ、すなわちプッシュスイッチタイプのユーザインタフェースを示した。以下の説明する各実施の形態は、実施の形態1とは異なるタイプのインタフェースを提供するものである。なお、表示形態に関しては、実施の形態1と同じであるため説明を省略し、携帯電話1に組み込む液晶画面3部分の構造についてのみ説明する。
Embodiment 2. FIG.
In the first embodiment, a user interface of a type in which an input is confirmed by pressing the liquid crystal screen 3, that is, a push switch type user interface is shown. Each embodiment to be described below provides an interface of a type different from that of the first embodiment. Since the display form is the same as that of the first embodiment, the description thereof will be omitted, and only the structure of the liquid crystal screen 3 part incorporated in the mobile phone 1 will be described.

図11は、本実施の形態における液晶画面3を表面側から見たときの概念図である。図12は、携帯電話1の液晶画面3部分を横からみたときの構造を示した概略図であり、実施の形態1の説明に用いた図2に相当する図である。   FIG. 11 is a conceptual diagram when the liquid crystal screen 3 according to the present embodiment is viewed from the front side. FIG. 12 is a schematic diagram showing a structure when the liquid crystal screen 3 portion of the mobile phone 1 is viewed from the side, and corresponds to FIG. 2 used for the description of the first embodiment.

本実施の形態における液晶画面3は、タッチパネル5及び液晶パネル6で形成される。そして、赤外線22を発光する発光素子20と赤外線を受光する受光素子21とを組にして液晶画面3の表面側に配列する。発光素子20は、携帯電話1の使用中は赤外線22を常時発光しており、赤外線22が遮断されることによってタッチパネル5に接触しようとする指先を検出するように構成した。   The liquid crystal screen 3 in the present embodiment is formed by a touch panel 5 and a liquid crystal panel 6. Then, the light emitting element 20 that emits the infrared light 22 and the light receiving element 21 that receives the infrared light are combined and arranged on the surface side of the liquid crystal screen 3. The light emitting element 20 is configured to always emit the infrared light 22 while the mobile phone 1 is in use, and to detect a fingertip that tries to touch the touch panel 5 when the infrared light 22 is blocked.

すなわち、実施の形態1では、タッチパネル5に対する接触操作を第1のユーザアクセスとして検出したが、本実施の形態では、図12(b)に示したように、この接触操作を第2のユーザアクセスとして検出する。そして、多数の発光素子20と受光素子21との組を含む赤外線センサ手段による物体の検出を、図12(a)に示したように第2のユーザアクセスとして検出するように構成したことを特徴としている。   That is, in the first embodiment, the touch operation on the touch panel 5 is detected as the first user access. However, in the present embodiment, as shown in FIG. Detect as. Then, the configuration is such that the detection of the object by the infrared sensor means including a set of a large number of light emitting elements 20 and light receiving elements 21 is detected as the second user access as shown in FIG. It is said.

本実施の形態における装置のブロック構成は、図3で表すことができる。但し、本実施の形態の場合、第1操作検出部13及び位置特定部12は、発光素子20,受光素子21を含む赤外線センサ手段で実現され、第2操作検出部14は、タッチパネル5で実現される。   The block configuration of the apparatus in the present embodiment can be represented in FIG. However, in the case of the present embodiment, the first operation detection unit 13 and the position specifying unit 12 are realized by infrared sensor means including the light emitting element 20 and the light receiving element 21, and the second operation detection unit 14 is realized by the touch panel 5. Is done.

本実施の形態における作用は、基本的には実施の形態1と同じなので説明を省略するが、第1のユーザアクセス検出時では、ユーザの指先の検出位置を特定する必要があるので、液晶画面3の大きさ等を考慮して縦横に照射する赤外線数を調整することになる。第1のユーザアクセス検出時、縦横それぞれ少なくとも1本の赤外線が指先で遮断されることになるので、制御部15は、各受光素子21の受光状態を検出することでユーザアクセス位置を特定することができる。   Since the operation in the present embodiment is basically the same as that in the first embodiment, the description thereof will be omitted. However, when detecting the first user access, it is necessary to specify the detection position of the user's fingertip. In consideration of the size of 3 and the like, the number of infrared rays irradiated vertically and horizontally is adjusted. When detecting the first user access, at least one infrared ray is cut off by the fingertips in the vertical and horizontal directions, so that the control unit 15 identifies the user access position by detecting the light receiving state of each light receiving element 21. Can do.

実施の形態3.
図13は、本実施の形態における携帯電話1の液晶画面3部分を横からみたときの構造を示した概略図であり、実施の形態1の説明に用いた図2に相当する図である。本実施の形態における液晶画面3は、タッチパネル5及び液晶パネル6で形成される。そして、指先でタッチパネル5を押下するとき、指先のタッチパネル5との接触面の大きさは変化する。図13を用いてより詳細に説明すると、図13(a)に示したようにタッチパネル5に触れたときの指先の接触面30は、図13(b)に示したように小さい。図13(c)に示したようにユーザがタッチパネル5を更に押し込むように押下操作すると、タッチパネル5に触れたときの指先の接触面31は、図13(d)に示したように触れたときの接触面30の面積より大きくなる。
Embodiment 3 FIG.
FIG. 13 is a schematic view showing the structure of the mobile phone 1 according to the present embodiment when the liquid crystal screen 3 is viewed from the side, and corresponds to FIG. 2 used in the description of the first embodiment. The liquid crystal screen 3 in the present embodiment is formed by a touch panel 5 and a liquid crystal panel 6. When the touch panel 5 is pressed with the fingertip, the size of the contact surface of the fingertip with the touch panel 5 changes. Explaining in more detail using FIG. 13, the contact surface 30 of the fingertip when touching the touch panel 5 as shown in FIG. 13A is small as shown in FIG. 13B. When the user presses down the touch panel 5 as shown in FIG. 13 (c), the contact surface 31 of the fingertip when touching the touch panel 5 is touched as shown in FIG. 13 (d). The area of the contact surface 30 becomes larger.

すなわち、本実施の形態においては、指先がタッチパネル5に最初に触れたときの接触操作を第1のユーザアクセスとして検出する。この点は実施の形態1と同じである。但し、本実施の形態では、第1のユーザアクセス時のタッチパネル5に対する接触面積に対して、予め決められた基準値以上にタッチパネル5に対する接触面積が増加したときの接触操作を第2のユーザアクセスとして検出するようにした。予め決められた基準値以上にタッチパネル5に対する接触面積が増加したときというのは、第2のユーザアクセス時における接触面積が基準値(mm)以上になったとき、あるいは第1のユーザアクセス時において求めた接触面積に対して第2のユーザアクセス時における設置面積が基準値(増加率(%))以上に増加したときなどのことをいう。 That is, in the present embodiment, the contact operation when the fingertip first touches the touch panel 5 is detected as the first user access. This is the same as in the first embodiment. However, in the present embodiment, the contact operation when the contact area with respect to the touch panel 5 increases to a predetermined reference value or more with respect to the contact area with respect to the touch panel 5 at the time of the first user access is the second user access. Detected as. When the contact area on the touch panel 5 increases beyond a predetermined reference value, the contact area at the time of the second user access exceeds the reference value (mm 2 ), or at the time of the first user access. When the installation area at the time of the second user access is increased to a reference value (increase rate (%)) or more with respect to the contact area obtained in step (b).

本実施の形態における装置のブロック構成は、図3で表すことができる。但し、本実施の形態の場合、第2操作検出部14、第1操作検出部13及び位置特定部12は、タッチパネル5で実現されるが、第2のユーザアクセスの検出時点の判断は、検出手段であるタッチパネル5からの電気信号に基づき予め決められた基準値に従い制御部15によりなされる。   The block configuration of the apparatus in the present embodiment can be represented in FIG. However, in the case of the present embodiment, the second operation detection unit 14, the first operation detection unit 13, and the position specifying unit 12 are realized by the touch panel 5, but the determination of the detection time of the second user access is detected. This is done by the control unit 15 in accordance with a predetermined reference value based on an electrical signal from the touch panel 5 as means.

実施の形態4.
図14は、本実施の形態における携帯電話1の液晶画面3部分を横からみたときの構造を示した概略図であり、実施の形態1の説明に用いた図2に相当する図である。本実施の形態における液晶画面3は、タッチパネル40及び液晶パネル6で形成されるが、本実施の形態におけるタッチパネル40は、静電タイプのタッチパネルであり、触れられなくても指先が近づくと静電容量が変化する。
Embodiment 4 FIG.
FIG. 14 is a schematic view showing a structure of the liquid crystal screen 3 portion of the mobile phone 1 according to the present embodiment when viewed from the side, and corresponds to FIG. 2 used in the description of the first embodiment. The liquid crystal screen 3 in the present embodiment is formed by the touch panel 40 and the liquid crystal panel 6, but the touch panel 40 in the present embodiment is an electrostatic type touch panel, and is electrostatic when the fingertip approaches even if it is not touched. The capacity changes.

すなわち、本実施の形態においては、図14(a)に示したように、タッチパネル40に近づいて接触しようとした指先が静電容量の変化により検出されたとき、その接触しようとした非接触操作を第1のユーザアクセスとして検出する。そして、図14(b)に示したように、指先がタッチパネル40に更に近づきタッチパネル40に接触したとき、この接触操作を第2のユーザアクセスとして検出する。この第2のユーザアクセスの検出に関しては、実施の形態2と同じである。   That is, in the present embodiment, as shown in FIG. 14A, when a fingertip approaching and touching the touch panel 40 is detected due to a change in capacitance, the non-contact operation to be touched is detected. Is detected as the first user access. And as shown in FIG.14 (b), when a fingertip approaches further the touch panel 40 and contacts the touch panel 40, this contact operation is detected as a 2nd user access. This second user access detection is the same as in the second embodiment.

本実施の形態における装置のブロック構成は、図3で表すことができる。但し、本実施の形態の場合、第2操作検出部14、第1操作検出部13及び位置特定部12は、タッチパネル40で実現される。   The block configuration of the apparatus in the present embodiment can be represented in FIG. However, in the case of the present embodiment, the second operation detection unit 14, the first operation detection unit 13, and the position specifying unit 12 are realized by the touch panel 40.

以上、各実施の形態において4つのタイプのユーザインタフェースについて説明した。実施の形態1で示したスイッチタイプに限っては、液晶画面3のユーザ操作領域自体が指先と共に移動することになるが、いずれのタイプも指先が第1のユーザアクセスの検出位置から更に液晶画面3のユーザ操作領域方向に移動を伴う操作を第2のユーザアクセスとして検出した。このように、液晶画面3に向かったユーザ操作を2段階で検出するようにし、1段目で操作内容を確認させ、2段目で入力確定させるようなユーザインタフェースとしたので、操作の確認を容易にし、かつ誤操作を防止することができる。   As described above, the four types of user interfaces have been described in the respective embodiments. For the switch type shown in the first embodiment, the user operation area itself of the liquid crystal screen 3 moves together with the fingertip. In either type, the fingertip further moves from the first user access detection position to the liquid crystal screen. An operation involving movement in the direction 3 of the user operation area was detected as the second user access. In this way, the user interface directed to the liquid crystal screen 3 is detected in two stages, the operation content is confirmed in the first stage, and the input is confirmed in the second stage. It can be made easy and erroneous operation can be prevented.

なお、上記説明では、4タイプのユーザインタフェースについて説明したが、上記4タイプに限定されることなく、例えば指先の接触によるタッチパネルの温度変化を検出する感温式タイプを採用するなど本発明には種々の検出手段を適用することができる。   In the above description, four types of user interfaces have been described. However, the present invention is not limited to the above four types. For example, a temperature-sensitive type that detects a temperature change of the touch panel due to a fingertip contact is employed in the present invention. Various detection means can be applied.

本発明に係るユーザインタフェース装置の一実施の形態を適用した携帯電話の概略構成図である。1 is a schematic configuration diagram of a mobile phone to which an embodiment of a user interface device according to the present invention is applied. 実施の形態1における携帯電話のユーザ操作領域が形成される液晶画面部分を横からみたときの構造を示した概略図である。It is the schematic which showed the structure when the liquid crystal screen part in which the user operation area | region of the mobile telephone in Embodiment 1 is formed is seen from the side. 実施の形態1におけるユーザインタフェース装置のブロック構成図である。1 is a block configuration diagram of a user interface device according to Embodiment 1. FIG. 実施の形態1における携帯電話を操作したときの画面表示例の遷移を示した図である。6 is a diagram illustrating transition of a screen display example when the mobile phone in Embodiment 1 is operated. FIG. 実施の形態1における携帯電話を操作したときの他の画面表示例の遷移を示した図である。FIG. 10 is a diagram showing transition of another screen display example when the mobile phone in the first embodiment is operated. 実施の形態1における携帯電話を操作したときの他の画面表示例の遷移を示した図である。FIG. 10 is a diagram showing transition of another screen display example when the mobile phone in the first embodiment is operated. 実施の形態1における携帯電話を操作したときの画面表示例の遷移を示した図である。6 is a diagram illustrating transition of a screen display example when the mobile phone in Embodiment 1 is operated. FIG. 実施の形態1における携帯電話を操作したときの画面表示例の遷移を示した図である。6 is a diagram illustrating transition of a screen display example when the mobile phone in Embodiment 1 is operated. FIG. 実施の形態1における携帯電話を操作したときの画面表示例の遷移を示した図である。6 is a diagram illustrating transition of a screen display example when the mobile phone in Embodiment 1 is operated. FIG. 実施の形態1において携帯電話に対する操作を認識する反応領域を示した図である。3 is a diagram showing a reaction area for recognizing an operation on a mobile phone in the first embodiment. FIG. 実施の形態2における携帯電話のユーザ操作領域が形成される液晶画面部分を外部からみたときの概略図である。It is the schematic when the liquid crystal screen part in which the user operation area | region of the mobile telephone in Embodiment 2 is formed is seen from the outside. 実施の形態2における携帯電話のユーザ操作領域が形成される液晶画面部分を横からみたときの構造を示した概略図である。It is the schematic which showed the structure when the liquid crystal screen part in which the user operation area | region of the mobile telephone in Embodiment 2 is formed was seen from the side. 実施の形態3における携帯電話のユーザ操作領域が形成される液晶画面部分を横からみたときの構造を示した概略図である。FIG. 10 is a schematic diagram showing a structure when a liquid crystal screen portion on which a user operation area of a mobile phone in Embodiment 3 is formed is viewed from the side. 実施の形態4における携帯電話のユーザ操作領域が形成される液晶画面部分を横からみたときの構造を示した概略図である。FIG. 10 is a schematic diagram showing a structure when a liquid crystal screen portion on which a user operation area of a mobile phone in Embodiment 4 is formed is viewed from the side.

符号の説明Explanation of symbols

1 携帯電話、2,3 液晶画面、4 ボタン、5,40 タッチパネル、6 液晶パネル、7 スイッチ、8 隙間、10 表示部、11 表示制御部、12 位置特定部、13 第1操作検出部、14 第2操作検出部、15 制御部、16 通知部、17 検出手段、20 発光素子、21 受光素子、22 赤外線、30 接触面、31 接触面。   DESCRIPTION OF SYMBOLS 1 Mobile phone, 2,3 Liquid crystal screen, 4 buttons, 5,40 Touch panel, 6 Liquid crystal panel, 7 Switch, 8 Gap, 10 Display part, 11 Display control part, 12 Position specification part, 13 1st operation detection part, 14 2nd operation detection part, 15 control part, 16 notification part, 17 detection means, 20 light emitting element, 21 light receiving element, 22 infrared rays, 30 contact surface, 31 contact surface.

Claims (2)

ユーザにより操作される操作項目を表示するユーザ操作領域が設定された第1の表示手段と、
前記第1表示手段に近接され、表示領域が設定された第2の表示手段と、
ユーザ操作領域に対する第1のユーザアクセスを検出すると共に、第1のユーザアクセスより更にユーザ操作領域方向への移動を伴うユーザ操作領域に対する第2のユーザアクセスを検出する検出手段と、
前記検出手段により検出された第2のユーザアクセスを、ユーザによる確定操作と判定する制御手段と、
前記第1の表示手段に表示する操作項目の表示形態を制御する表示制御手段と、
前記検出手段により第1のユーザアクセスが検出されたときに、ユーザ操作領域上における第1のユーザアクセス位置を特定する位置特定手段と、
を有し、
前記制御手段は、前記位置特定手段により特定された第1のユーザアクセス位置に対応した操作項目を特定し、
前記表示制御手段は、前記検出手段により第1のユーザアクセスが検出されたときに、第1のユーザアクセス検出時点からの経過時間に応じて前記制御手段により特定された操作項目のみを前記第2の表示手段に設定された表示領域まで拡大表示することを特徴とするユーザインタフェース装置。
First display means in which a user operation area for displaying operation items operated by a user is set;
A second display means in proximity to the first display means and having a display area set;
Detecting means for detecting a first user access to the user operation area, and detecting a second user access to the user operation area accompanied by movement in the direction of the user operation area further than the first user access;
Control means for determining the second user access detected by the detection means as a confirmation operation by the user;
Display control means for controlling the display mode of the operation items displayed on the first display means;
A position specifying means for specifying a first user access position on the user operation area when a first user access is detected by the detecting means;
Have
The control means specifies an operation item corresponding to the first user access position specified by the position specifying means,
When the first user access is detected by the detection unit, the display control unit displays only the operation item specified by the control unit according to the elapsed time from the first user access detection time . user interface device, characterized in that the display area is set to the display means or in enlarging the image.
前記制御手段は、表示される操作項目毎に対応させて設定した反応領域と、前記位置特定手段により特定された第1のユーザアクセス位置とを照合することで、第1のユーザアクセス位置に対応した操作項目を特定する場合、前記検出手段により第1のユーザアクセスが検出されたときに前記位置特定手段により特定された第1のユーザアクセス位置に対応した操作項目に対応させて設定する反応領域の大きさを、当該操作項目の大きさより大きくすることを特徴とする請求項1記載のユーザインタフェース装置。   The control means corresponds to the first user access position by comparing the reaction area set corresponding to each displayed operation item with the first user access position specified by the position specifying means. In the case of specifying the operated item, the reaction area set in correspondence with the operation item corresponding to the first user access position specified by the position specifying unit when the first user access is detected by the detecting unit The user interface device according to claim 1, wherein the size of is larger than the size of the operation item.
JP2004174782A 2004-06-11 2004-06-11 User interface device Expired - Fee Related JP5132028B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004174782A JP5132028B2 (en) 2004-06-11 2004-06-11 User interface device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004174782A JP5132028B2 (en) 2004-06-11 2004-06-11 User interface device

Publications (2)

Publication Number Publication Date
JP2005352924A JP2005352924A (en) 2005-12-22
JP5132028B2 true JP5132028B2 (en) 2013-01-30

Family

ID=35587339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004174782A Expired - Fee Related JP5132028B2 (en) 2004-06-11 2004-06-11 User interface device

Country Status (1)

Country Link
JP (1) JP5132028B2 (en)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7694231B2 (en) * 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US10521022B2 (en) * 2006-03-17 2019-12-31 Conversant Wireless Licensing S.a.r.l. Mobile communication terminal and method therefor
JP4489719B2 (en) * 2006-03-28 2010-06-23 株式会社エヌ・ティ・ティ・ドコモ User interface
JP4929807B2 (en) 2006-04-13 2012-05-09 Nok株式会社 Vulcanized adhesive composition
JP2007334747A (en) * 2006-06-16 2007-12-27 Miyake Design Jimusho:Kk Information processor, portable telephone set, contact input picture forming apparatus, information processing program, and recording medium recording information processing program
US20090249203A1 (en) * 2006-07-20 2009-10-01 Akira Tsuruta User interface device, computer program, and its recording medium
JP2008033120A (en) * 2006-07-31 2008-02-14 Xanavi Informatics Corp Map display device
US7940250B2 (en) 2006-09-06 2011-05-10 Apple Inc. Web-clip widgets on a portable multifunction device
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US9304675B2 (en) 2006-09-06 2016-04-05 Apple Inc. Portable electronic device for instant messaging
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US8689132B2 (en) 2007-01-07 2014-04-01 Apple Inc. Portable electronic device, method, and graphical user interface for displaying electronic documents and lists
US8788954B2 (en) 2007-01-07 2014-07-22 Apple Inc. Web-clip widgets on a portable multifunction device
JP2008305174A (en) * 2007-06-07 2008-12-18 Sony Corp Information processor, information processing method, and program
US20080309519A1 (en) * 2007-06-15 2008-12-18 Sony Ericsson Mobile Communications Ab Device having precision input capability
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
JP5119763B2 (en) * 2007-06-25 2013-01-16 日本電気株式会社 Information device provided with touch panel, icon selection method and program used therefor
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US9043725B2 (en) * 2007-07-27 2015-05-26 Sony Corporation User interface with enlarged icon display of key function
KR101403079B1 (en) 2007-08-22 2014-06-02 엘지전자 주식회사 method for zooming in touchscreen and terminal using the same
US11126321B2 (en) 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
US9619143B2 (en) 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
JP4958005B2 (en) * 2007-09-20 2012-06-20 株式会社デンソー In-vehicle display device
TW200923758A (en) * 2007-11-27 2009-06-01 Wistron Corp A key-in method and a content display method of an electronic device, and the application thereof
JPWO2009069392A1 (en) * 2007-11-28 2011-04-07 日本電気株式会社 Input device, server, display management method, and recording medium
JP5030748B2 (en) * 2007-11-30 2012-09-19 アルパイン株式会社 Video display system
JP5025450B2 (en) * 2007-12-21 2012-09-12 三菱電機株式会社 Character input device
KR101387218B1 (en) 2008-02-29 2014-04-21 주식회사 케이티 Method of adjusting screen magnification ratio of mobile terminal using multi-touch input device and mobile terminal performing the same
US10983665B2 (en) 2008-08-01 2021-04-20 Samsung Electronics Co., Ltd. Electronic apparatus and method for implementing user interface
JP5160337B2 (en) * 2008-08-11 2013-03-13 ソニーモバイルコミュニケーションズ, エービー INPUT PROCESSING DEVICE, INPUT PROCESSING METHOD, INPUT PROCESSING PROGRAM, AND PORTABLE TERMINAL DEVICE
JP4752887B2 (en) 2008-09-12 2011-08-17 ソニー株式会社 Information processing apparatus, information processing method, and computer program
JP5280800B2 (en) * 2008-10-29 2013-09-04 京セラ株式会社 Portable device, operation detection method, and operation detection program
JP5248985B2 (en) * 2008-11-05 2013-07-31 オリンパスイメージング株式会社 Image display device
KR101542495B1 (en) 2008-12-02 2015-08-06 엘지전자 주식회사 Method for displaying information for mobile terminal and apparatus thereof
JP5217980B2 (en) * 2008-12-04 2013-06-19 セイコーエプソン株式会社 Data processing apparatus and data processing system
US20100149100A1 (en) * 2008-12-15 2010-06-17 Sony Ericsson Mobile Communications Ab Electronic Devices, Systems, Methods and Computer Program Products for Detecting a User Input Device Having an Optical Marker Thereon
US8289286B2 (en) * 2008-12-19 2012-10-16 Verizon Patent And Licensing Inc. Zooming keyboard/keypad
JP4683126B2 (en) 2008-12-26 2011-05-11 ブラザー工業株式会社 Input device
JP2010186254A (en) * 2009-02-10 2010-08-26 Panasonic Corp Display controller
JP5476790B2 (en) * 2009-05-13 2014-04-23 富士通株式会社 Electronic device, display method, and display program
JP5627212B2 (en) * 2009-10-08 2014-11-19 京セラ株式会社 Input device
JP5177765B2 (en) * 2009-11-13 2013-04-10 株式会社コナミデジタルエンタテインメント Input device, input method, and program
JP2011107804A (en) * 2009-11-13 2011-06-02 Fujitsu Toshiba Mobile Communications Ltd Information processor
US8736561B2 (en) 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
US8963832B2 (en) * 2010-03-05 2015-02-24 Lenovo Innovations Limited (Hong Kong) Mobile terminal
JP2011232988A (en) * 2010-04-28 2011-11-17 Brother Ind Ltd Input device and input control program
CN102906675B (en) 2010-06-03 2015-09-09 松下电器(美国)知识产权公司 Message input device, data inputting method
JP2012014519A (en) * 2010-07-01 2012-01-19 Canon Inc Display control device
EP2687958A4 (en) * 2011-03-15 2014-09-03 Panasonic Ip Corp America Input device
JP2012248061A (en) * 2011-05-30 2012-12-13 Ntt Docomo Inc Information processing device, key input method, and program
JP2013149049A (en) * 2012-01-19 2013-08-01 Kyocera Corp Touch panel type input device
JP5661056B2 (en) * 2012-02-13 2015-01-28 レノボ・イノベーションズ・リミテッド(香港) Information processing apparatus and program
JP5794937B2 (en) * 2012-03-13 2015-10-14 株式会社Nttドコモ Communication apparatus and communication control method
WO2013183370A1 (en) * 2012-06-05 2013-12-12 ソニー株式会社 Information processing device, information processing method and recording medium upon which computer program has been recorded
JP2013033553A (en) * 2012-11-19 2013-02-14 Hitachi Solutions Ltd Character data input device
JP2014191545A (en) * 2013-03-27 2014-10-06 Nec Commun Syst Ltd Input device, input method, and program
JP5695693B2 (en) * 2013-04-09 2015-04-08 オリンパスイメージング株式会社 Image display device and image display method
JP6525504B2 (en) * 2014-04-20 2019-06-05 アルパイン株式会社 Input device and operation input method
US11237709B2 (en) 2016-10-25 2022-02-01 Apple Inc. Systems and methods for enabling low-vision users to interact with a touch-sensitive secondary display
DK179492B1 (en) 2016-10-25 2019-01-08 Apple Inc. Systems and methods for enabling low-vision users to interact with a touch-sensitive secondary display
WO2018081112A1 (en) * 2016-10-25 2018-05-03 Apple Inc. Systems and methods for enabling low-vision users to interact with a touch-sensitive secondary display
KR102057566B1 (en) * 2016-11-24 2019-12-19 주식회사 하이딥 Touch input method for providing uer interface and apparatus
JP6409948B2 (en) * 2017-11-30 2018-10-24 ソニー株式会社 Information processing apparatus, information processing method, and program
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04278627A (en) * 1991-03-06 1992-10-05 Oki Electric Ind Co Ltd Touch panel device
JP2772153B2 (en) * 1991-04-12 1998-07-02 アルパイン株式会社 Data input device
JPH0950235A (en) * 1995-08-10 1997-02-18 Zanavy Informatics:Kk On-vehicle information device
JPH0991093A (en) * 1995-09-20 1997-04-04 Toshiba Corp Contact type input device and station service equipment
JP3235480B2 (en) * 1996-08-01 2001-12-04 日本電気株式会社 Touch panel input device
JP2000322169A (en) * 1999-04-30 2000-11-24 Internatl Business Mach Corp <Ibm> Hot spot selection method in graphical user interface
JP2003177848A (en) * 2001-12-12 2003-06-27 Hitachi Kokusai Electric Inc Key display method and character inputting device for software keyboard
JP2003271294A (en) * 2002-03-15 2003-09-26 Canon Inc Data input device, data input method and program
JP4177046B2 (en) * 2002-08-26 2008-11-05 ポリマテック株式会社 Composite pushbutton switch and computer program for its input control

Also Published As

Publication number Publication date
JP2005352924A (en) 2005-12-22

Similar Documents

Publication Publication Date Title
JP5132028B2 (en) User interface device
US9448649B2 (en) Input apparatus
US9465533B2 (en) Character input method and apparatus in portable terminal having touch screen
US20110138275A1 (en) Method for selecting functional icons on touch screen
TWI420889B (en) Electronic apparatus and method for symbol input
US20120154315A1 (en) Input apparatus
US10782874B2 (en) User interface and method for operating a system
US20110157028A1 (en) Text entry for a touch screen
WO2011027611A1 (en) Operation control device, operation control method and computer program
US20070236474A1 (en) Touch Panel with a Haptically Generated Reference Key
US20160018911A1 (en) Touch pen
JP2011221640A (en) Information processor, information processing method and program
WO2011118602A1 (en) Mobile terminal with touch panel function and input method for same
WO2011117462A1 (en) Apparatus and method for proximity based input
JP5556398B2 (en) Information processing apparatus, information processing method, and program
US20110025718A1 (en) Information input device and information input method
WO2012086133A1 (en) Touch panel device
KR20110104620A (en) Apparatus and method for inputing character in portable terminal
US9588584B2 (en) System and method for processing touch input
CN102667698A (en) Method of providing GUI for guiding start position of user operation and digital device using the same
JP5845585B2 (en) Information processing device
US20070262956A1 (en) Input method with a large keyboard table displaying on a small screen
KR20090049153A (en) Terminal with touchscreen and method for inputting letter
JP2006085218A (en) Touch panel operating device
KR20120081422A (en) Terminal having touch screen and method for inputting letter according to touch event thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111212

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20111220

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20120323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121019

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151116

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees