JP2012248061A - Information processing device, key input method, and program - Google Patents

Information processing device, key input method, and program Download PDF

Info

Publication number
JP2012248061A
JP2012248061A JP2011120298A JP2011120298A JP2012248061A JP 2012248061 A JP2012248061 A JP 2012248061A JP 2011120298 A JP2011120298 A JP 2011120298A JP 2011120298 A JP2011120298 A JP 2011120298A JP 2012248061 A JP2012248061 A JP 2012248061A
Authority
JP
Japan
Prior art keywords
key
keys
unit
displayed
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011120298A
Other languages
Japanese (ja)
Inventor
Nobuchika Taniguchi
信親 谷口
Takehiko Tokimasa
健彦 時政
Takatoshi Kato
貴俊 加藤
Akiko Sayama
暁子 佐山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2011120298A priority Critical patent/JP2012248061A/en
Publication of JP2012248061A publication Critical patent/JP2012248061A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform support so that even a person unfamiliar with operation can easily input a key without looking at the key.SOLUTION: A mobile phone is provided with a touch sensor so as to cover a keypad including numeric keys. The touch sensor detects a touch operation, and the keypad detects a depression operation. The mobile phone, when detecting the touch operation (S1), performs guide display of a key corresponding to a touch position (S2). Thereafter, the mobile phone, when detecting the depression operation, defines an input on the basis of the guide-displayed key, and outputs character information representing a character assigned to the key (S4).

Description

本発明は、UI(User Interface)に関する。   The present invention relates to a UI (User Interface).

携帯電話機などの情報処理装置において、キー入力を行う場合に、操作を案内する技術が知られている。例えば、特許文献1には、タッチパネル式の入力装置において、指先の移動を一定の時間停止させると、希望するボタン表示領域に指先が触れているか否かを音声案内する技術が記載されている。特許文献1に記載された技術は、視覚障害者の利便性を向上させるためのものである。   In an information processing apparatus such as a mobile phone, a technique for guiding an operation when performing key input is known. For example, Patent Document 1 describes a technology for voice guidance whether or not a fingertip touches a desired button display area when movement of the fingertip is stopped for a certain time in a touch panel type input device. The technique described in Patent Document 1 is for improving the convenience of the visually impaired.

特開2003−233465号公報JP 2003-233465 A

一方、晴眼者(視覚に障害がない者)においては、キー入力に際し、入力すべきキーを確認するためにキーパッド(又はキーボード)を見て、その後、入力内容を確認するためにディスプレイを見る、といった視点の移動が行われることがある。特に、いわゆるブラインドタッチができないような、キーの操作に不慣れな者は、このような視点移動を頻繁に行う必要がある。
そこで、本発明は、操作に不慣れな者であっても、キー入力をキーを見ずに行うことが容易になるように支援するための技術を提供することを目的とする。
On the other hand, a sighted person (person who has no visual impairment) looks at the keypad (or keyboard) to confirm the key to be input when entering a key, and then looks at the display to confirm the input content. The viewpoint may be moved. In particular, a person unaccustomed to the operation of the keys who cannot perform so-called blind touch needs to frequently perform such viewpoint movement.
Therefore, an object of the present invention is to provide a technique for assisting even a person unfamiliar with the operation to easily perform key input without looking at the key.

本発明の一態様に係る情報処理装置は、押下される複数のキーを有し、当該複数のキーの押下をそれぞれ検出するキー部と、前記複数のキーのユーザが触れる側の面に設けられ、ユーザが接触した位置を検出するタッチセンサ部と、ユーザの操作に係るキーを案内表示する表示部と、前記キー部及び前記タッチセンサ部による検出結果に応じた処理を実行する処理実行部とを備え、前記処理実行部は、前記タッチセンサ部が前記位置を検出すると、当該位置に対応する前記キーを前記表示部に案内表示させ、前記キー部が当該案内表示後に当該キーの押下を検出すると、当該キーに割り当てられた文字を表す文字情報を出力する構成を有する。   An information processing apparatus according to one embodiment of the present invention includes a plurality of keys to be pressed, a key unit that detects the pressing of the plurality of keys, and a surface on the side touched by a user of the plurality of keys. A touch sensor unit for detecting a position touched by the user, a display unit for guiding and displaying a key related to a user operation, and a process execution unit for executing a process according to a detection result by the key unit and the touch sensor unit. When the touch sensor unit detects the position, the processing execution unit guides and displays the key corresponding to the position on the display unit, and the key unit detects pressing of the key after the guidance display. Then, it has the structure which outputs the character information showing the character allocated to the said key.

好ましい態様において、前記処理実行部は、前記タッチセンサ部により複数の前記キー上において接触が検出された場合に、接触している面積又はその割合がより多いキーを案内表示させる。
別の好ましい態様において、前記処理実行部は、前記タッチセンサ部により複数の前記キーにまたがる範囲で接触が検出された場合に、当該範囲の重心に相当する位置にあるキーを案内表示させる。
さらに別の好ましい態様において、前記処理実行部は、前記案内表示後に当該案内表示されたキーと異なるキーの押下が検出された場合に、当該案内表示されたキーに割り当てられた前記文字情報を出力する。
さらに別の好ましい態様において、前記処理実行部は、前記案内表示後のあらかじめ決められた時間内に複数の前記キーの押下が検出された場合において、当該案内表示されたキーと異なるキーの押下が検出されたとき、当該キーに割り当てられた前記文字情報を出力しない。
さらに別の好ましい態様において、前記複数のキーは、一のキーに複数の前記文字情報が割り当てられ、前記処理実行部は、前記タッチセンサ部が前記位置を検出すると、当該位置に対応する前記キーに割り当てられた前記複数の文字情報を切り替えながら案内表示させ、前記キー部が当該案内表示後に当該キーの押下を検出すると、当該キーに割り当てられた前記複数の文字情報のうち、押下時に案内表示されていたものを出力する。
この場合において、前記処理実行部は、前記タッチセンサ部により検出された位置の移動に応じて、案内表示する前記文字情報を切り替えることも可能である。
In a preferred aspect, when the touch is detected on the plurality of keys by the touch sensor unit, the processing execution unit guides and displays a key having a larger area or a proportion thereof.
In another preferable aspect, when the touch is detected by the touch sensor unit in a range spanning the plurality of keys, the process execution unit guides and displays a key at a position corresponding to the center of gravity of the range.
In still another preferred aspect, the process execution unit outputs the character information assigned to the guide displayed key when a key press different from the guide displayed key is detected after the guide display. To do.
In still another preferred aspect, the process execution unit may detect a key press different from the guide displayed key when a plurality of key presses are detected within a predetermined time after the guide display. When detected, the character information assigned to the key is not output.
In yet another preferred aspect, the plurality of keys are assigned with a plurality of the character information to one key, and when the touch sensor unit detects the position, the processing execution unit detects the key corresponding to the position. When the key portion detects the pressing of the key after the guidance display, the guidance information is displayed when the key information is pressed among the plurality of character information assigned to the key. Output what was being done.
In this case, the process execution unit can switch the character information to be displayed for guidance according to the movement of the position detected by the touch sensor unit.

本発明の他の態様に係るキー入力方法は、押下される複数のキーを有し、当該複数のキーの押下をそれぞれ検出するキー部と、前記複数のキーのユーザが触れる側の面に設けられ、ユーザが接触した位置を検出するタッチセンサ部と、ユーザの操作に係るキーを案内表示する表示部とを有する情報処理装置において、前記タッチセンサ部が接触を検出すると、接触した位置に対応する前記キーを前記表示部が案内表示する第1のステップと、前記キー部が前記第1のステップによる案内表示後に当該案内表示された前記キーの押下を検出すると、当該キーに割り当てられた文字を表す文字情報を出力する第2のステップとを有する。   According to another aspect of the present invention, there is provided a key input method including a plurality of keys to be pressed, a key portion that detects the pressing of the plurality of keys, and a surface that is touched by a user of the plurality of keys. In an information processing apparatus having a touch sensor unit for detecting a position touched by a user and a display unit for guiding and displaying a key related to the user's operation, when the touch sensor unit detects a touch, the touched unit corresponds to the touched position A first step in which the display unit guides the key to be displayed, and a character assigned to the key when the key unit detects a press of the key displayed in the guide after the guidance display in the first step. And a second step of outputting character information representing.

本発明の他の態様に係るプログラムは、押下される複数のキーを有し、当該複数のキーの押下をそれぞれ検出するキー部と、前記複数のキーのユーザが触れる側の面に設けられ、ユーザが接触した位置を検出するタッチセンサ部と、ユーザの操作に係るキーを案内表示する表示部とを有する情報処理装置のコンピュータに、前記タッチセンサ部により検出された位置を表す座標情報を取得する第1のステップと、前記第1のステップにおいて取得された座標情報が表す位置に対応する前記キーを前記表示部に案内表示させる第2のステップと、前記第2のステップにおける案内表示後に、前記キー部により押下が検出されたキーを表すキー情報を取得する第3のステップと、前記第3のステップにおいて取得されたキー情報が表すキーが前記第2のステップにおいて案内表示されたキーである場合に、当該キーに割り当てられた文字を表す文字情報を出力する第4のステップとを実行させるためのものである。   A program according to another aspect of the present invention has a plurality of keys to be pressed, and is provided on a key part that detects the pressing of the plurality of keys, and a surface that is touched by a user of the plurality of keys, Coordinate information representing the position detected by the touch sensor unit is acquired in a computer of an information processing apparatus having a touch sensor unit that detects a position touched by a user and a display unit that displays a guide related to a user's operation. A second step of guiding and displaying the key corresponding to the position represented by the coordinate information acquired in the first step on the display unit, and after the guidance display in the second step, A third step of acquiring key information representing a key detected to be pressed by the key portion; and a key represented by the key information acquired in the third step When a key that is guidance display in two steps, is intended to execute a fourth step of outputting the character information representing the characters assigned to the key.

本発明によれば、操作に不慣れな者であっても、キー入力をキーを見ずに行うことが容易になるように支援することが可能である。   According to the present invention, it is possible to assist a person who is unfamiliar with the operation to easily perform key input without looking at the key.

携帯電話機の外観上の構成を示す図The figure which shows the structure on the external appearance of a mobile telephone キーパッドを正面から示す図Figure showing the keypad from the front キーパッドを側面から示す図Figure showing the keypad from the side 携帯電話機のハードウェア構成を示すブロック図Block diagram showing hardware configuration of mobile phone 携帯電話機の案内表示に係る機能的構成を示す機能ブロック図Functional block diagram showing a functional configuration related to guidance display of a mobile phone 携帯電話機によって案内表示時に実行される処理を示すフローチャートThe flowchart which shows the process performed at the time of guidance display with a mobile telephone 案内表示処理を示すフローチャートFlow chart showing guidance display processing 接触面積を説明するための図Diagram for explaining contact area 確定処理を示すフローチャートFlow chart showing the confirmation process 案内表示を例示する図Diagram illustrating guidance display 案内表示処理を示すフローチャートFlow chart showing guidance display processing 案内表示の切り替え例を示す図A diagram showing an example of switching the guidance display 案内表示を例示する図Diagram illustrating guidance display

[第1実施形態]
図1は、本発明の一実施形態である携帯電話機100の外観上の構成を示す図である。携帯電話機100は、日本語の入力が行えるように構成され、ユーザが指で操作することができる電話機である。携帯電話機100は、同図に示すように、キーパッド101と、表示面102とを備える。キーパッド101は、ユーザの操作を受け付ける部分であり、複数のキーを有する。表示面102は、画像を表示する部分である。表示面102は、携帯電話機100が実行するアプリケーションプログラム(以下単に「アプリケーション」という。)に応じた画像や、ユーザの操作に係るキーを表示する。なお、携帯電話機100は、キーパッド101以外のキーをさらに備えていてもよい。また、以下においては、携帯電話機100の図1に示した面のことを「正面」とする。
[First Embodiment]
FIG. 1 is a diagram showing an external configuration of a mobile phone 100 according to an embodiment of the present invention. The mobile phone 100 is configured to allow Japanese input and can be operated by a user with a finger. As shown in the figure, the cellular phone 100 includes a keypad 101 and a display surface 102. The keypad 101 is a part that receives a user operation and has a plurality of keys. The display surface 102 is a part that displays an image. The display surface 102 displays an image corresponding to an application program (hereinafter simply referred to as “application”) executed by the mobile phone 100 and keys related to user operations. Note that the mobile phone 100 may further include a key other than the keypad 101. In the following description, the surface of the mobile phone 100 shown in FIG.

図2は、キーパッド101をより詳細に示す図である。キーパッド101は、キーK1、K2、K3、K4、K5、K6、K7、K8、K9、K0、Ka、Kb、Kc、Kd、Keを有する。キーK1〜K0は、それぞれ、1〜0の数字に対応するキーである。キーKd、Keは、それぞれ、番号記号(井桁などともいう。)とアスタリスク(星印などともいう。)に対応するキーである。キーKa、Kcは、それぞれ、通話の開始、終了を指示するためのキーである。キーKbは、入力を確定させた文字を消去するためのキーである。以下においては、キーK1〜K0のことを、各々が対応している数字を用いて、「1キー」、「2キー」、…、「0キー」と表記し、これらを総称して「テンキー」という。   FIG. 2 shows the keypad 101 in more detail. The keypad 101 has keys K1, K2, K3, K4, K5, K6, K7, K8, K9, K0, Ka, Kb, Kc, Kd, and Ke. Keys K1 to K0 are keys corresponding to numbers 1 to 0, respectively. The keys Kd and Ke are keys corresponding to a number symbol (also referred to as a cross digit) and an asterisk (also referred to as an asterisk), respectively. Keys Ka and Kc are keys for instructing the start and end of a call, respectively. The key Kb is a key for erasing the character whose input has been confirmed. In the following, the keys K1 to K0 are expressed as “1 key”, “2 key”,..., “0 key” using numbers corresponding to each, and these are collectively referred to as “ten keys”. "

テンキーには、数字に加え、ひらがな、ローマ字及び記号(カンマ、ピリオドなど)の少なくともいずれかが割り当てられている。例えば、2キーには、「2」、「A」、「B」、「C」、「a」、「b」、「c」、「か」、「き」、「く」、「け」、「こ」の12種類の文字が割り当てられており、3キーには、「3」、「D」、「E」、「F」、「d」、「e」、「f」、「さ」、「し」、「す」、「せ」、「そ」の12種類の文字が割り当てられている。各々のキーには、割り当てられている文字の少なくともいずれかが印字又は刻印されている。なお、本発明において、文字とは、キーパッド101により入力可能なものであって、数字や記号(絵文字を含む。)を含むものである。   In addition to numerals, at least one of hiragana, romaji and symbols (comma, period, etc.) is assigned to the numeric keypad. For example, 2 keys include “2”, “A”, “B”, “C”, “a”, “b”, “c”, “ka”, “ki”, “ku”, “ke” , “Ko”, 12 types of characters are assigned, and “3”, “D”, “E”, “F”, “d”, “e”, “f”, “sa” are assigned to the 3 keys. ”,“ Shi ”,“ su ”,“ se ”, and“ so ”are assigned. Each key is printed or engraved with at least one of assigned characters. In the present invention, characters are those that can be input by the keypad 101 and include numbers and symbols (including pictographs).

図3は、キーパッド101の構造を側面から示した図である。キーパッド101は、各キーの正面側の面(すなわちユーザが触れる側の面)にタッチセンサ121を備える。タッチセンサ121は、キーパッド101の各キーを覆うように設けられ、ユーザによる接触を検出するマトリクス状のセンサである。タッチセンサ121は、タッチスクリーンのように光を透過し、各キーを視認できるようになっていることが望ましいが、その表面に文字等を形成することによって各キーを識別できるように構成されていれば、必ずしも透明である必要はない。また、各キーは、メタルドームスイッチなどの周知の構成により、外力により押下が検出され、押下後に元の位置に戻るように構成されている。なお、各キーは、圧力を検出する圧力センサによって、接触時よりも大きい外力が検出されるように構成されていてもよい。   FIG. 3 is a diagram showing the structure of the keypad 101 from the side. The keypad 101 includes a touch sensor 121 on the front surface of each key (that is, the surface touched by the user). The touch sensor 121 is a matrix-shaped sensor that is provided so as to cover each key of the keypad 101 and detects contact by the user. The touch sensor 121 preferably transmits light like a touch screen so that each key can be visually recognized, but is configured so that each key can be identified by forming characters or the like on the surface thereof. If it is, it does not necessarily need to be transparent. In addition, each key is configured to detect pressing by an external force by a known configuration such as a metal dome switch and return to the original position after pressing. Each key may be configured such that an external force larger than that at the time of contact is detected by a pressure sensor that detects pressure.

図4は、携帯電話機100の主要なハードウェア構成を示すブロック図である。携帯電話機100は、キー部110と、タッチセンサ部120と、制御部130と、表示部140と、記憶部150とを少なくとも備える。なお、携帯電話機100は、図4に示す構成のほかに、データを送受信する通信手段や、音声の入出力手段を備えるが、これらは本発明に必要な構成要素ではないため、図示が省略されている。   FIG. 4 is a block diagram illustrating a main hardware configuration of the mobile phone 100. The mobile phone 100 includes at least a key unit 110, a touch sensor unit 120, a control unit 130, a display unit 140, and a storage unit 150. The mobile phone 100 includes communication means for transmitting and receiving data and voice input / output means in addition to the structure shown in FIG. 4, but these are not necessary components of the present invention and are not shown. ing.

キー部110及びタッチセンサ部120は、ユーザの操作を検出する手段である。キー部110は、キーパッド101を有し、複数のキーの押下をそれぞれ検出する。キー部110は、ユーザによる押下を検出したキーを表すキー情報を制御部130に供給する。タッチセンサ部120は、タッチセンサ121を有し、ユーザが接触した位置を検出する。タッチセンサ部120は、ユーザによる接触を検出した位置(以下「接触位置」という。)を表す座標情報を制御部130に供給する。座標情報は、タッチセンサ121の所定の位置を原点とした2次元直交座標系によって位置を表す。なお、タッチセンサ部120は、ユーザが複数の接触位置に同時に接触した場合には、当該複数の接触位置のそれぞれを表す座標情報を制御部130に供給することができる。   The key unit 110 and the touch sensor unit 120 are means for detecting a user operation. The key unit 110 includes a keypad 101, and detects pressing of a plurality of keys. The key unit 110 supplies key information indicating the key detected by the user to be pressed to the control unit 130. The touch sensor unit 120 includes a touch sensor 121 and detects a position touched by the user. The touch sensor unit 120 supplies coordinate information representing a position (hereinafter referred to as “contact position”) at which contact by the user is detected to the control unit 130. The coordinate information represents a position by a two-dimensional orthogonal coordinate system with a predetermined position of the touch sensor 121 as an origin. The touch sensor unit 120 can supply coordinate information representing each of the plurality of contact positions to the control unit 130 when the user simultaneously contacts the plurality of contact positions.

以下においては、キー部110により検出される操作のことを「接触操作」といい、タッチセンサ部120により検出される操作のことを「押下操作」ということで、これらの2種類の操作を区別するものとする。ユーザが押下操作(すなわちキーの押下)を行うときには、それ以前に接触操作が必ず行われる。なぜならば、タッチセンサ121にまったく触れることなくキーを押下することはできないからである。   In the following, an operation detected by the key unit 110 is referred to as a “contact operation”, and an operation detected by the touch sensor unit 120 is referred to as a “pressing operation”, so that these two types of operations are distinguished. It shall be. When the user performs a pressing operation (that is, a key pressing), the contact operation is always performed before that. This is because the key cannot be pressed without touching the touch sensor 121 at all.

制御部130は、携帯電話機100の動作を制御する手段である。制御部130は、CPU(Central Processing Unit)などの演算処理装置とメモリ(主記憶装置)とを備え、プログラムを実行することによって各種機能を実現する。例えば、制御部130は、Webページを閲覧するためのWebブラウザや、アドレス帳の表示及び編集といった機能を実現可能である。また、制御部130は、キー部110からはキー情報を、タッチセンサ部120からは座標情報をそれぞれ取得し、取得したこれらの情報に応じた処理を実行する。   The control unit 130 is means for controlling the operation of the mobile phone 100. The control unit 130 includes an arithmetic processing device such as a CPU (Central Processing Unit) and a memory (main storage device), and implements various functions by executing programs. For example, the control unit 130 can implement functions such as a web browser for browsing web pages and display and editing of an address book. In addition, the control unit 130 acquires key information from the key unit 110 and coordinate information from the touch sensor unit 120, and executes processing according to the acquired information.

制御部130が実行する処理には、ユーザの操作に係るキーを案内表示するための処理が少なくとも含まれる。ここにおいて、ユーザの操作に係るキーとは、ユーザが入力しようとしているキーのことをいい、必ずしも入力されるキーではない。また、案内表示とは、ユーザに教え知らせるための表示をいう。   The processing executed by the control unit 130 includes at least processing for guiding and displaying keys related to user operations. Here, the key related to the user's operation refers to a key that the user intends to input, and is not necessarily a key that is input. The guidance display is a display for informing the user.

表示部140は、表示面102に画像を表示する手段である。表示部140は、液晶素子や有機EL(electroluminescence)素子により画像を表示する表示パネルと、この表示パネルを駆動する駆動回路などを備え、制御部130から供給される表示データに応じた画像を表示面102に表示させる。表示部140による表示には、案内表示とその他の表示とが含まれる。ここでいう「その他の表示」とは、例えば、電子メールの作成時にあて先や本文などを表示したり、WebブラウザによってWebページを表示したりするものである。   The display unit 140 is a means for displaying an image on the display surface 102. The display unit 140 includes a display panel that displays an image using a liquid crystal element or an organic EL (electroluminescence) element, a drive circuit that drives the display panel, and the like, and displays an image according to display data supplied from the control unit 130. It is displayed on the surface 102. The display by the display unit 140 includes a guidance display and other displays. “Other display” here refers to, for example, displaying a destination or a text when creating an e-mail, or displaying a web page by a web browser.

記憶部150は、データを記憶する手段である。記憶部150は、ハードディスクやフラッシュメモリによって構成される記憶媒体を備え、制御部130により読み書きされるデータを記憶する。記憶部150が記憶するデータは、例えば、制御部130により実行されるプログラムや、制御部130により生成又は取得されたデータである。   The storage unit 150 is a means for storing data. The storage unit 150 includes a storage medium including a hard disk and a flash memory, and stores data read and written by the control unit 130. The data stored in the storage unit 150 is, for example, a program executed by the control unit 130 or data generated or acquired by the control unit 130.

携帯電話機100のハードウェア構成は、以上のとおりである。この構成のもと、携帯電話機100は、文字入力を伴うアプリケーションを実行することができる。かかるアプリケーションは、例えば、Webブラウザ、電子メールクライアント(いわゆるメーラ)、テキストエディタである。   The hardware configuration of the mobile phone 100 is as described above. With this configuration, the mobile phone 100 can execute an application that involves character input. Such applications are, for example, web browsers, e-mail clients (so-called mailers), and text editors.

携帯電話機100は、このようなアプリケーションを実行するときに、ユーザの操作に係るキーを案内表示する。具体的には、携帯電話機100は、ユーザが文字等を入力しようとしてキーパッド101に接触すると、その接触位置に対応するキー(すなわち接触位置の直下にあるキー)がどのキーであるかを表示面102に表示する。このような案内表示は、表示面102の一部(例えば、上端部や下端部)において行われ、その他の表示を妨げないことが望ましい。   When the mobile phone 100 executes such an application, the mobile phone 100 guides and displays keys related to user operations. Specifically, when the user touches the keypad 101 to input a character or the like, the mobile phone 100 displays which key is the key corresponding to the contact position (that is, the key immediately below the contact position). Display on surface 102. Such guidance display is preferably performed on a part of the display surface 102 (for example, the upper end portion or the lower end portion) and does not interfere with other displays.

なお、本実施形態においては、文字の入力モードとして、「数字入力モード」、「かな入力モード」、「ローマ字入力モード」の3種類のモードが存在し、これらが所定の操作によって切り替えられるものとする。ここにおいて、数字入力モードとは、テンキーによって数字を入力することができるモードであり、例えば、1キーを押下すれば「1」、2キーを押下すれば「2」を入力することができるモードである。つまり、数字入力モードにおいては、1個のキーに1個の文字が割り当てられている。   In this embodiment, there are three types of character input modes, “number input mode”, “kana input mode”, and “romaji input mode”, which can be switched by a predetermined operation. To do. Here, the number input mode is a mode in which a number can be input using a numeric keypad. For example, a mode in which “1” can be input by pressing the 1 key and “2” can be input by pressing the 2 key. It is. That is, in the number input mode, one character is assigned to one key.

これに対し、かな入力モード及びローマ字入力モードにおいては、1個のキーに複数の文字が割り当てられている。例えば、かな入力モードにおいては、1キーに「あ」、「い」、「う」、「え」、「お」の5文字が割り当てられており、ローマ字入力モードにおいては、2キーに「A」、「B」、「C」、「a」、「b」、「c」の6文字が割り当てられている。本実施形態においては、「あ」を入力するためには1キーを1回、「い」を入力するためには1キーを2回、…「お」を入力するためには1キーを5回、というように、あるキーを所定の回数連続して押下することによって所望の文字(かな又はローマ字)が入力可能であるとする。   On the other hand, in the Kana input mode and the Roman character input mode, a plurality of characters are assigned to one key. For example, in the Kana input mode, five characters “A”, “I”, “U”, “E”, “O” are assigned to one key, and in the Romaji input mode, “A” is assigned to the two keys. ”,“ B ”,“ C ”,“ a ”,“ b ”, and“ c ”. In this embodiment, one key is input once to input “A”, one key is input twice to input “I”, and five keys are input to input “O”. It is assumed that a desired character (kana or romaji) can be input by continuously pressing a certain key a predetermined number of times.

図5は、携帯電話機100の案内表示に係る機能的構成を示す機能ブロック図である。携帯電話機100の制御部130は、所定のプログラムを実行することにより、同図に示すキー情報取得部131、座標情報取得部132及び処理実行部133に相当する機能を実現する。なお、図5に示す機能は、OS(Operating System)とアプリケーションのいずれによって実現されてもよい。   FIG. 5 is a functional block diagram showing a functional configuration related to the guidance display of the mobile phone 100. The control unit 130 of the mobile phone 100 realizes functions corresponding to the key information acquisition unit 131, the coordinate information acquisition unit 132, and the process execution unit 133 shown in FIG. Note that the function shown in FIG. 5 may be realized by either an OS (Operating System) or an application.

キー情報取得部131は、キー部110からキー情報を取得する。座標情報取得部132は、タッチセンサ部120から座標情報を取得する。キー情報取得部131及び座標情報取得部132は、それぞれ、互いの影響を受けることなく、独立に情報を取得することが可能である。処理実行部133は、キー情報取得部131及び座標情報取得部132により取得された情報に応じた処理を実行する。処理実行部133は、より詳細には、案内表示制御部134、文字判定部135及び文字情報出力部136に機能的に分類可能である。   The key information acquisition unit 131 acquires key information from the key unit 110. The coordinate information acquisition unit 132 acquires coordinate information from the touch sensor unit 120. The key information acquisition unit 131 and the coordinate information acquisition unit 132 can acquire information independently without being affected by each other. The process execution unit 133 executes a process according to the information acquired by the key information acquisition unit 131 and the coordinate information acquisition unit 132. More specifically, the process execution unit 133 can be functionally classified into a guidance display control unit 134, a character determination unit 135, and a character information output unit 136.

案内表示制御部134は、案内表示を制御する。案内表示制御部134は、具体的には、座標情報取得部132により取得された座標情報に基づいて、ユーザの操作に係るキーを案内表示するように表示部140を制御する。文字判定部135は、ユーザが入力しようとしている文字を判定する。文字判定部135は、具体的には、案内表示制御部134により表示部140に案内表示された文字と、キー情報取得部131により取得されたキー情報とに基づいて、そのときユーザが入力しようとしている文字を判定する。文字情報出力部136は、文字判定部135による判定結果を文字情報として出力する。文字情報出力部136は、例えば、上述した文字入力を伴うアプリケーションに文字情報を出力する。あるいは、文字情報出力部136は、文字判定部135による判定結果を表示部140に表示させるようにしてもよい。つまり、文字情報出力部136による「出力」とは、他のアプリケーションに値を引き渡すことであってもよいし、ユーザに報知することであってもよい。   The guidance display control unit 134 controls guidance display. Specifically, the guidance display control unit 134 controls the display unit 140 to guide and display keys related to user operations based on the coordinate information acquired by the coordinate information acquisition unit 132. The character determination unit 135 determines a character that the user is trying to input. Specifically, the character determination unit 135 is based on the characters displayed on the display unit 140 by the guidance display control unit 134 and the key information acquired by the key information acquisition unit 131, and the user will input at that time. The character that is being determined is determined. The character information output unit 136 outputs the determination result by the character determination unit 135 as character information. The character information output unit 136 outputs character information to, for example, the application that involves character input described above. Alternatively, the character information output unit 136 may display the determination result by the character determination unit 135 on the display unit 140. That is, the “output” by the character information output unit 136 may be to pass a value to another application or to notify the user.

なお、文字情報とは、ユーザが入力しようとしている文字を表す情報である。一方、キー情報は、キーを表す情報であり、文字情報とは必ずしも同一ではない。例えば、1個のキーに複数の文字が割り当てられている場合、あるキー情報は、当該複数の文字を表す文字情報のいずれにも対応する。ゆえに、1個のキーに複数の文字が割り当てられている場合には、文字情報がキー情報のみからは一意的に特定され得ない。   The character information is information representing the character that the user is trying to input. On the other hand, key information is information representing a key, and is not necessarily the same as character information. For example, when a plurality of characters are assigned to one key, certain key information corresponds to any of character information representing the plurality of characters. Therefore, when a plurality of characters are assigned to one key, the character information cannot be uniquely specified only from the key information.

図6は、携帯電話機100によって案内表示時に実行される処理を示すフローチャートである。同図に示すように、携帯電話機100の制御部130は、まず、接触操作が検出されたか否かを判断する(ステップS1)。この判断は、具体的には、座標情報を取得できたか否かによって行われる。制御部130は、座標情報を取得するまで、ステップS1の判断を繰り返す。   FIG. 6 is a flowchart showing processing executed when the mobile phone 100 displays guidance. As shown in the figure, the control unit 130 of the mobile phone 100 first determines whether or not a contact operation has been detected (step S1). Specifically, this determination is made based on whether coordinate information has been acquired. The control unit 130 repeats the determination in step S1 until the coordinate information is acquired.

制御部130は、接触操作を検出すると、後述する案内表示処理を実行し、ユーザの操作に係るキーを表示部140に案内表示させる(ステップS2)。続いて、制御部130は、ステップS2の案内表示後に押下操作が検出されたか否かを判断する(ステップS3)。この判断は、具体的には、キー情報を取得できたか否かによって行われる。制御部130は、押下操作を検出すると、後述する確定処理を実行し、ユーザが入力しようとしている文字を確定させる(ステップS4)。制御部130は、ユーザが入力しようとしている文字を確定させたら、案内表示を終了する(ステップS5)。   When detecting the contact operation, the control unit 130 executes a guidance display process to be described later, and causes the display unit 140 to guide and display a key related to the user's operation (step S2). Subsequently, the control unit 130 determines whether or not a pressing operation is detected after the guidance display in step S2 (step S3). Specifically, this determination is made based on whether or not key information has been acquired. When detecting the pressing operation, the control unit 130 executes a determination process described later to determine the character that the user is going to input (step S4). When the character that the user is going to input is confirmed, the control unit 130 ends the guidance display (step S5).

また、制御部130は、押下操作が検出されない場合には、接触操作が続行されているか否かを判断することにより、ユーザの指が離間したか否かを判断する(ステップS6)。そして、制御部130は、座標情報の供給が途絶え、ユーザの指が離間したと判断した場合には、案内表示をいったん終了する(ステップS5)。一方、座標情報の供給が続けられ、ユーザの指が接触したままであると判断した場合には、制御部130は、ステップS2以降の処理を再度実行する。   In addition, when the pressing operation is not detected, the control unit 130 determines whether or not the user's finger is separated by determining whether or not the contact operation is continued (step S6). When the control unit 130 determines that the supply of the coordinate information is interrupted and the user's finger is separated, the guidance display is temporarily terminated (step S5). On the other hand, when the supply of the coordinate information is continued and it is determined that the user's finger is still in contact, the control unit 130 executes the processes after step S2 again.

図7は、ステップS2の案内表示処理を示すフローチャートである。この案内表示処理において、制御部130は、まず、接触位置に対応するキーを特定する(ステップS21)。接触位置に対応するキーとは、基本的には、接触位置の真下にあるキーのことである。ただし、タッチセンサ121は、ユーザが指の腹のような比較的柔軟な部位で操作する場合や、複数の指で同時に触れられる場合のように、複数の接触位置を同時に検出する場合がある。このような場合、案内表示されるべきキーとして、複数のキーが考えられることがある。そこで、制御部130は、接触位置に対応するキーが単数であるか複数であるかを判断し(ステップS22)、その判断結果に応じて異なる処理を実行する。   FIG. 7 is a flowchart showing the guidance display process of step S2. In this guidance display process, the control unit 130 first specifies a key corresponding to the contact position (step S21). The key corresponding to the contact position is basically a key immediately below the contact position. However, the touch sensor 121 may detect a plurality of contact positions at the same time, such as when the user operates with a relatively flexible part such as the belly of a finger, or when the user touches the finger simultaneously with a plurality of fingers. In such a case, a plurality of keys may be considered as keys to be displayed for guidance. Therefore, the control unit 130 determines whether the key corresponding to the contact position is singular or plural (step S22), and executes different processes depending on the determination result.

接触位置に対応するキーが単数である場合、制御部130は、ステップS21において特定されたキーをそのまま案内表示させる(ステップS24)。一方、接触位置に対応するキーが複数ある場合、制御部130は、各々のキーにおける接触位置の面積(以下「接触面積」という。)を算出して接触面積を比較し、接触面積がより多いキーを特定する(ステップS23)。そして、制御部130は、ステップS23において特定されたキー、すなわち接触面積がより多いキーを案内表示させる(ステップS24)。   When there is a single key corresponding to the contact position, the control unit 130 guides and displays the key specified in step S21 as it is (step S24). On the other hand, when there are a plurality of keys corresponding to the contact position, the control unit 130 calculates the area of the contact position in each key (hereinafter referred to as “contact area”), compares the contact areas, and has a larger contact area. A key is specified (step S23). And the control part 130 carries out guidance display of the key identified in step S23, ie, a key with a larger contact area (step S24).

図8は、接触面積を例示する図である。この例は、ユーザの指が隣り合う4個のキーにまたがって接触した場合を示すものであり、A1、A2、A4、A5が、1キー、2キー、4キー、5キーの接触面積をそれぞれ表している。
なお、各キーの面積が同一でない場合、制御部130は、キーの表面(ユーザが触れる面)の面積に対する接触面積の割合を算出し、その割合がより多いキーを案内表示させてもよい。
FIG. 8 is a diagram illustrating the contact area. In this example, the user's finger is in contact with four adjacent keys, and A1, A2, A4, and A5 have a contact area of 1 key, 2 keys, 4 keys, and 5 keys. Represents each.
When the areas of the keys are not the same, the control unit 130 may calculate the ratio of the contact area with respect to the area of the key surface (the surface touched by the user), and may guide and display a key with a higher ratio.

次に、図9は、確定処理を示すフローチャートである。この確定処理において、制御部130は、ステップS3において押下操作が検出されたキーが複数あるか否かを判断する(ステップS41)。なぜならば、図8においても例示したように、ユーザは複数のキーに同時に触れる場合があり、この場合に複数のキーをほぼ同時に押下する可能性があるからである。ステップS41において、制御部130は、あらかじめ決められた時間(例えば、1秒)内に複数の押下操作が検出されるか否かを判断することにより、複数のキーがほぼ同時に押下されたか否かを判断する。   Next, FIG. 9 is a flowchart showing the confirmation process. In this determination process, the control unit 130 determines whether or not there are a plurality of keys for which the pressing operation is detected in step S3 (step S41). This is because, as illustrated in FIG. 8, the user may touch a plurality of keys at the same time, and in this case, the user may press the plurality of keys almost simultaneously. In step S41, the control unit 130 determines whether or not a plurality of keys are pressed almost simultaneously by determining whether or not a plurality of pressing operations are detected within a predetermined time (for example, 1 second). Judging.

押下操作が検出されたキーが1個である場合、制御部130は、当該キーが案内表示処理において案内表示されたキーと同一であるか否かを判断する(ステップS45)。制御部130は、これらのキーが同一であれば、押下操作が検出されたキーの文字情報を出力する(ステップS46)。一方、これらのキーが同一でない場合、制御部130は、押下操作が検出されたキーではなく、案内表示されたキーの文字情報を出力する(ステップS47)。   When the number of keys for which the pressing operation has been detected is one, the control unit 130 determines whether or not the key is the same as the key displayed for guidance in the guidance display process (step S45). If these keys are the same, control unit 130 outputs the character information of the key for which the pressing operation has been detected (step S46). On the other hand, when these keys are not the same, the control unit 130 outputs the character information of the guide-displayed key, not the key whose pressing operation has been detected (step S47).

また、押下操作が検出されたキーが複数個である場合、制御部130は、当該複数個のキーの中に案内表示処理において案内表示されたキーと同一のキーがあるか否かを判断する(ステップS42)。そして、制御部130は、案内表示したキーと同一のキーが押下されていた場合には、当該キーの文字情報を出力する一方、押下された他のキーの文字情報は出力しないように制御する(ステップS43)。また、制御部130は、案内表示したキーと同一のキーが押下されていない場合には、押下された複数個のキーに代えて、案内表示処理において案内表示されたキーの文字情報のみを出力する(ステップS44)。   In addition, when there are a plurality of keys for which a pressing operation has been detected, the control unit 130 determines whether there is a key that is the same as the key that has been guided and displayed in the guidance display processing among the plurality of keys. (Step S42). Then, when the same key as the guide-displayed key is pressed, the control unit 130 performs control so that the character information of the key is output while the character information of the other pressed keys is not output. (Step S43). In addition, when the same key as the guide-displayed key is not pressed, the control unit 130 outputs only the character information of the key that is guided and displayed in the guide display process instead of the plurality of pressed keys. (Step S44).

このように、制御部130は、ユーザが実際に押下したキーの如何によらず、1又は複数のキーのいずれかの押下が検出された場合には、その押下操作時に案内表示されていたキーの文字情報を出力し、ユーザが入力しようとした文字を確定させるようにしている。また、制御部130は、ユーザが押下したキーと案内表示されたキーとが異なる場合には、ユーザが押下したキーに割り当てられた文字情報を出力しないようにしている。   In this way, the control unit 130, when it is detected that one or a plurality of keys is pressed regardless of the key actually pressed by the user, the key displayed at the time of the pressing operation is displayed. The character information is output, and the character that the user tried to input is fixed. In addition, when the key pressed by the user is different from the key displayed in the guidance, the control unit 130 does not output the character information assigned to the key pressed by the user.

図10は、本実施形態における案内表示を例示する図である。図10(a)は、ユーザが2キーに触れ、「2」が案内表示されている場合を示し、図10(b)は、ユーザが図10(a)に示す状態で2キーを押下し、「2」の入力が確定した場合を示している。なお、図10の場合において、携帯電話機100は、かな入力モードであれば「か」と案内表示し、ローマ字入力モードであれば「A」と案内表示してもよい。しかし、ユーザがどのキーに触れているかを知ることができれば十分な場合であれば、これらの入力モードにおいても「2」と案内表示されても差し支えはない(ただし、この場合には、ユーザはテンキーの各キーとかな又はローマ字との対応付けを暗記しているものとする。)。   FIG. 10 is a diagram illustrating a guidance display in the present embodiment. FIG. 10A shows a case where the user touches the 2 key and “2” is displayed for guidance. FIG. 10B shows that the user presses the 2 key in the state shown in FIG. , “2” input is confirmed. In the case of FIG. 10, the mobile phone 100 may display a guidance “K” in the Kana input mode, and display a guidance “A” in the Roman character input mode. However, if it is sufficient if it is sufficient to know which key the user is touching, the guidance display “2” may be displayed in these input modes (however, in this case, the user can (It is assumed that the keypad is memorized in correspondence with Kana or Romaji.)

なお、案内表示の位置は、図10の例に限らない。案内表示の位置は、例えばカーソルの位置(すなわち、これから文字を入力しようとしている位置)の近傍のような、視点の移動がより少なくなるような位置であってもよい。   Note that the position of the guidance display is not limited to the example of FIG. The position of the guidance display may be a position where the movement of the viewpoint becomes smaller, for example, in the vicinity of the position of the cursor (that is, the position where characters are to be input).

以上のように、本実施形態の携帯電話機100によれば、ユーザは、どのキーを押下しようとしているかがキーパッド101を見なくてもわかるようになり、いわゆるブラインドタッチを容易に行うことが可能になる。このとき、ユーザは、視点を表示面102からキーパッド101へと移動させる必要がなくなるため、視点の移動を少なくすることが可能であり、疲労の軽減や入力作業の効率化を期待することができる。   As described above, according to the mobile phone 100 of the present embodiment, the user can know which key is to be pressed without looking at the keypad 101 and can easily perform so-called blind touch. become. At this time, since the user does not need to move the viewpoint from the display surface 102 to the keypad 101, the movement of the viewpoint can be reduced, and fatigue can be reduced and input work efficiency can be expected. it can.

[第2実施形態]
本実施形態は、上述した第1実施形態の動作の一部を変更したものであり、具体的には、一のキーに複数の文字(及び文字情報)が割り当てられている場合の案内表示処理が第1実施形態と異なるものである。なお、本実施形態の携帯電話機の構成については、第1実施形態の携帯電話機100と同様であるため、第1実施形態と同一の符号を用いて説明することとし、その詳細な説明を省略する。また、本実施形態は、1個のキーに複数の文字が割り当てられている場合、すなわちかな入力モードやローマ字入力モードで文字が入力される場合を想定したものである。
[Second Embodiment]
In the present embodiment, a part of the operation of the first embodiment described above is changed. Specifically, guidance display processing when a plurality of characters (and character information) are assigned to one key. Is different from the first embodiment. Note that the configuration of the mobile phone according to the present embodiment is the same as that of the mobile phone 100 according to the first embodiment, and therefore, the description thereof will be omitted using the same reference numerals as those in the first embodiment. . Further, the present embodiment assumes a case where a plurality of characters are assigned to one key, that is, a case where characters are input in the Kana input mode or the Roman character input mode.

図11は、本実施形態の案内表示処理を示すフローチャートである。図11に示すフローチャートは、第1実施形態の案内表示処理(図7参照)に対して、ステップS25及びS26の処理を追加したものである。なお、ステップS25以前のステップS21〜S24の処理は、第1実施形態において説明したとおりのものである。   FIG. 11 is a flowchart showing the guidance display process of the present embodiment. The flowchart shown in FIG. 11 is obtained by adding the processes of steps S25 and S26 to the guidance display process (see FIG. 7) of the first embodiment. In addition, the process of step S21-S24 before step S25 is as having demonstrated in 1st Embodiment.

ステップS25において、制御部130は、接触位置が案内表示後にあらかじめ決められた閾値以上移動したか否かを判断する。接触位置の移動量は、接触位置の輪郭のある1点の移動量であってもよいし、接触位置の重心に相当する位置の移動量であってもよい。ここにおいて、重心とは、接触位置が占める一定の範囲を質量分布が一様な平板状の物体であるとみなした場合の質量中心の位置である。   In step S25, the control unit 130 determines whether the contact position has moved by a predetermined threshold or more after the guidance display. The movement amount of the contact position may be a movement amount of one point with a contour of the contact position, or may be a movement amount of a position corresponding to the center of gravity of the contact position. Here, the center of gravity is the position of the center of mass when a certain range occupied by the contact position is regarded as a flat object having a uniform mass distribution.

ステップS26において、制御部130は、接触位置の移動に応じて案内表示を切り替える。具体的には、制御部130は、接触位置の移動量や移動方向に応じて案内表示する文字を切り替える。
図12は、案内表示の切り替え例を示す図であり、1キーに触れた場合の案内表示を例示するものである。なお、この例において、案内表示開始直後の最初の接触位置をP1とする。
In step S26, the control unit 130 switches the guidance display according to the movement of the contact position. Specifically, the control unit 130 switches characters for guidance display according to the moving amount and moving direction of the contact position.
FIG. 12 is a diagram illustrating an example of switching the guidance display, and illustrates the guidance display when one key is touched. In this example, the first contact position immediately after the start of guidance display is P1.

図12(a)は、案内表示される文字が接触位置の移動量によって変化する場合を示したものである。この場合、携帯電話機100は、最初に「あ」を案内表示し、ユーザが指を少しずつ右に移動させると、ある時点を境にして案内表示を「あ」から「い」に切り替え、さらに右に移動させると、案内表示を「い」から「う」、「う」から「え」、「え」から「お」、というように切り替える。なお、この場合における最大の移動量(すなわち案内表示を「あ」から「お」に切り替えるために必要な移動量)は、キー1個分のサイズを超えていてもよい。なぜならば、携帯電話機100は、押下されたキーが案内表示されたキーと異なっていた場合であっても、案内表示されたキーの文字情報を出力することができるからである。   FIG. 12A shows a case where the characters displayed for guidance change depending on the amount of movement of the contact position. In this case, the mobile phone 100 first displays “A” as guidance, and when the user moves his finger little by little to the right, the guidance display is switched from “A” to “I” at a certain point in time. When moved to the right, the guidance display is switched from “I” to “U”, “U” to “E”, “E” to “O”. In this case, the maximum movement amount (that is, the movement amount necessary for switching the guidance display from “A” to “O”) may exceed the size of one key. This is because the cellular phone 100 can output the character information of the displayed key even if the pressed key is different from the displayed key.

図12(b)は、案内表示される文字が接触位置の移動方向によって変化する場合を示したものである。この場合、携帯電話機100は、最初に「あ」を案内表示し、ユーザが指を上方向に移動させると「い」、左方向に移動させると「う」、右方向に移動させると「え」、下方向に移動させると「お」をそれぞれ案内表示する。   FIG. 12B shows a case where the characters displayed for guidance change depending on the moving direction of the contact position. In this case, the mobile phone 100 first displays “A” as a guide, and “Yes” when the user moves the finger upward, “Yes” when the user moves left, and “E” when the user moves right. “,” And “O” are displayed as guidance.

図12(c)は、案内表示される文字が接触位置の移動量と移動方向とによって変化する場合を示したものである。この場合、携帯電話機100は、最初に「あ」を案内表示し、ユーザが指を右に移動させると、ある時点を境にして案内表示を「あ」から「い」に切り替え、さらに右に移動させると、案内表示を「い」から「う」に切り替える。また、携帯電話機100は、ユーザが指を左に移動させると、ある時点を境にして案内表示を「あ」から「え」に切り替え、さらに左に移動させると、案内表示を「え」から「お」に切り替える。   FIG. 12C shows a case where the characters displayed for guidance change depending on the amount and direction of movement of the contact position. In this case, the mobile phone 100 first displays “A” as guidance, and when the user moves his / her finger to the right, the guidance display is switched from “A” to “I” at a certain point in time, and further to the right. When moved, the guidance display is switched from “I” to “U”. In addition, when the user moves his / her finger to the left, the mobile phone 100 switches the guidance display from “A” to “E” at a certain point in time, and further moves to the left to change the guidance display from “E”. Switch to “O”.

図13は、本実施形態における案内表示を例示する図である。携帯電話機100は、図13(a)に示すように、そのときキーを押下すると文字情報が出力される(すなわち入力が確定する)文字のみを表示面102に表示させてもよいし、図13(b)に示すように、キーを押下することによって確定させることができる文字をすべて表示させるとともに、そのときキーを押下すると入力が確定する文字のみを他の文字と区別できる態様で強調表示させてもよい。ここでいう強調表示は、例えば、下線を付したり、太字で表示したり、文字を点滅させたり、文字の色を変えたりするものである。   FIG. 13 is a diagram illustrating a guidance display in the present embodiment. As shown in FIG. 13 (a), the cellular phone 100 may display only the characters for which character information is output when the key is pressed (that is, the input is confirmed) on the display surface 102, as shown in FIG. As shown in (b), all the characters that can be confirmed by pressing a key are displayed, and only the characters that are confirmed to be input when the key is pressed are highlighted in a manner that can be distinguished from other characters. May be. The highlighting here is, for example, underlined, displayed in bold, blinking characters, or changing the color of the characters.

以上のように、本実施形態の案内表示処理によれば、ユーザは、これまで複数回の押下操作を要した文字を1回の押下操作で入力できるようになる。例えば、第1実施形態において、「お」を入力しようとした場合には、1キーを5回押下する必要があるが、本実施形態においては1回の押下で「お」を入力することが可能である。   As described above, according to the guidance display process of the present embodiment, the user can input characters that have so far required multiple pressing operations with a single pressing operation. For example, in the first embodiment, when “O” is to be input, it is necessary to press one key five times. However, in this embodiment, “O” can be input by one press. Is possible.

また、本実施形態のように携帯電話機100が動作する場合、ユーザは、キーパッド101に指を触れさせた後、その指を離間させることなく文字入力を続けることが可能である。つまり、ユーザは、キーパッド101上で指をなぞるように移動させていき、必要な位置で押下する、といった動作を繰り返すことで、複数の文字を入力することが可能である。   When the mobile phone 100 operates as in the present embodiment, the user can continue to input characters without touching the keypad 101 and then separating the fingers. That is, the user can input a plurality of characters by repeating the operation of moving the finger on the keypad 101 and pressing the keypad 101 at a necessary position.

[変形例]
本発明は、上述した各実施形態の態様に限らず、他の態様でも実施することができる。本発明は、例えば、以下の変形例に示す態様によっても実施可能である。なお、本発明は、これら複数の変形例を組み合わせた態様で実施されてもよい。
[Modification]
The present invention is not limited to the aspect of each embodiment described above, and can be implemented in other aspects. The present invention can also be implemented, for example, by the modes shown in the following modifications. In addition, this invention may be implemented in the aspect which combined these some modifications.

(1)制御部130は、接触位置に対応するキーが複数ある場合において、案内表示するキーを特定するとき、ユーザが接触した範囲の面積(すなわち接触面積)に代えて、当該範囲の重心の位置に基づいて案内表示するキーを特定してもよい。すなわち、制御部130は、ステップS23(図7参照)に代えて、ユーザが接触した範囲の重心の位置を算出し、ステップS24に代えて、重心に相当する位置にあるキー(重心と重なる位置にあるキー)を案内表示させるようにしてもよい。 (1) When there are a plurality of keys corresponding to the contact position, the control unit 130 specifies the key to be displayed for guidance, instead of the area of the range touched by the user (that is, the contact area). A key for guidance display may be specified based on the position. That is, instead of step S23 (see FIG. 7), the control unit 130 calculates the position of the center of gravity in the range in which the user has touched, and instead of step S24, the key located at the position corresponding to the center of gravity (the position overlapping the center of gravity) Key) may be displayed as guidance.

(2)本発明は、携帯電話機に限らず、さまざまな情報処理装置において適用可能である。また、本発明のキー部は、テンキーに限らず、いわゆるQWERTY配列のキーボードに対しても適用可能である。本発明が適用可能な情報処理装置は、例えば、パーソナルコンピュータ、電子辞書、電子書籍リーダ、ゲーム機などである。 (2) The present invention is not limited to a mobile phone and can be applied to various information processing apparatuses. The key unit of the present invention is not limited to the numeric keypad, but can be applied to a so-called QWERTY keyboard. Information processing apparatuses to which the present invention can be applied are, for example, personal computers, electronic dictionaries, electronic book readers, game machines, and the like.

(3)上述した実施形態において、タッチセンサ121は、キーパッド101の全面を覆うように設けられた1枚のシート状のセンサであった。しかし、本発明のタッチセンサ部は、キー毎に独立に設けられたセンサであってもよいし、必ずしもユーザが触れる側の面の全体にセンサが設けられていなくてもよい。 (3) In the embodiment described above, the touch sensor 121 is a single sheet-like sensor provided so as to cover the entire surface of the keypad 101. However, the touch sensor unit of the present invention may be a sensor provided independently for each key, or the sensor does not necessarily have to be provided on the entire surface that the user touches.

(4)本発明において、案内表示の切り替えは、接触位置の移動(すなわち変位)以外のパラメータに基づいて行われてもよい。例えば、制御部130は、接触位置の変化によらずに、所定の時間(例えば、1秒程度)が経過する毎に案内表示を切り替えてもよい。この場合、ユーザは、自身が入力しようとしている文字が案内表示されたタイミングで押下操作を行えばよい。 (4) In the present invention, switching of the guidance display may be performed based on parameters other than the movement (ie, displacement) of the contact position. For example, the control unit 130 may switch the guidance display every time a predetermined time (for example, about 1 second) elapses regardless of a change in the contact position. In this case, the user may perform the pressing operation at the timing when the character he / she wants to input is displayed for guidance.

(5)本発明において、ユーザの操作は、必ずしも指によって行われなくてもよい。本発明は、例えば、スタイラスなどの器具を用いた操作や、指以外の身体の部位を用いた操作に対しても適用可能である。 (5) In the present invention, the user's operation does not necessarily have to be performed with a finger. The present invention can be applied to, for example, an operation using an instrument such as a stylus or an operation using a body part other than a finger.

(6)本発明は、携帯電話機100をはじめとした情報処理装置としてだけではなく、情報処理装置におけるキー入力方法や、本発明の案内表示を伴うキー入力を情報処理装置に実現させるためのプログラムとしても提供され得るものである。また、本発明は、かかるキー入力を情報処理装置に実現させるためのプログラムを記録した記録媒体の形態でも提供され得る。かかるプログラムは、サーバ装置からネットワークを介してダウンロードされて情報処理装置にインストールされてもよい。 (6) The present invention is not limited to an information processing apparatus such as the mobile phone 100, but a key input method in the information processing apparatus and a program for causing the information processing apparatus to perform key input with guidance display according to the present invention. Can also be provided. The present invention can also be provided in the form of a recording medium that records a program for causing the information processing apparatus to perform such key input. Such a program may be downloaded from a server device via a network and installed in the information processing device.

100…携帯電話機、101…キーパッド、102…表示面、K1、K2、K3、K4、K5、K6、K7、K8、K9、K0、Ka、Kb、Kc、Kd、Ke…キー、110…キー部、120…タッチセンサ部、121…タッチセンサ、130…制御部、131…キー情報取得部、132…座標情報取得部、133…処理実行部、134…案内表示制御部、135…文字判定部、136…文字情報出力部、140…表示部、150…記憶部 DESCRIPTION OF SYMBOLS 100 ... Mobile phone, 101 ... Keypad, 102 ... Display surface, K1, K2, K3, K4, K5, K6, K7, K8, K9, K0, Ka, Kb, Kc, Kd, Ke ... key, 110 ... key 120 ... Touch sensor unit 121 ... Touch sensor 130 ... Control unit 131 ... Key information acquisition unit 132 ... Coordinate information acquisition unit 133 ... Process execution unit 134 ... Guidance display control unit 135 ... Character determination unit 136 ... Character information output unit, 140 ... Display unit, 150 ... Storage unit

Claims (9)

押下される複数のキーを有し、当該複数のキーの押下をそれぞれ検出するキー部と、
前記複数のキーのユーザが触れる側の面に設けられ、ユーザが接触した位置を検出するタッチセンサ部と、
ユーザの操作に係るキーを案内表示する表示部と、
前記キー部及び前記タッチセンサ部による検出結果に応じた処理を実行する処理実行部とを備え、
前記処理実行部は、
前記タッチセンサ部が前記位置を検出すると、当該位置に対応する前記キーを前記表示部に案内表示させ、前記キー部が当該案内表示後に当該キーの押下を検出すると、当該キーに割り当てられた文字を表す文字情報を出力する
ことを特徴とする情報処理装置。
A key portion that has a plurality of keys to be pressed, and that respectively detects pressing of the plurality of keys;
A touch sensor unit that is provided on a surface of the plurality of keys that is touched by a user and detects a position touched by the user;
A display unit for guiding and displaying keys related to user operations;
A process execution unit that executes a process according to a detection result by the key unit and the touch sensor unit;
The process execution unit
When the touch sensor unit detects the position, the key corresponding to the position is guided and displayed on the display unit, and when the key unit detects pressing of the key after the guidance display, the character assigned to the key is displayed. An information processing apparatus characterized by outputting character information representing the character.
前記処理実行部は、
前記タッチセンサ部により複数の前記キー上において接触が検出された場合に、接触している面積又はその割合がより多いキーを案内表示させる
ことを特徴とする請求項1に記載の情報処理装置。
The process execution unit
2. The information processing apparatus according to claim 1, wherein, when contact is detected on the plurality of keys by the touch sensor unit, a key having a larger area or a proportion of the contact is guided and displayed.
前記処理実行部は、
前記タッチセンサ部により複数の前記キーにまたがる範囲で接触が検出された場合に、当該範囲の重心に相当する位置にあるキーを案内表示させる
ことを特徴とする請求項1に記載の情報処理装置。
The process execution unit
2. The information processing apparatus according to claim 1, wherein, when contact is detected in a range that spans the plurality of keys by the touch sensor unit, a key located at a position corresponding to the center of gravity of the range is guided and displayed. .
前記処理実行部は、
前記案内表示後に当該案内表示されたキーと異なるキーの押下が検出された場合に、当該案内表示されたキーに割り当てられた前記文字情報を出力する
ことを特徴とする請求項1ないし3のいずれかに記載の情報処理装置。
The process execution unit
4. The character information assigned to the key displayed in the guidance is output when pressing of a key different from the key displayed in the guidance is detected after the guidance is displayed. 5. An information processing apparatus according to claim 1.
前記処理実行部は、
前記案内表示後のあらかじめ決められた時間内に複数の前記キーの押下が検出された場合において、当該案内表示されたキーと異なるキーの押下が検出されたとき、当該キーに割り当てられた前記文字情報を出力しない
ことを特徴とする請求項1ないし3のいずれかに記載の情報処理装置。
The process execution unit
In a case where a plurality of key presses are detected within a predetermined time after the guide display, the character assigned to the key is detected when a key press different from the guide displayed key is detected. The information processing apparatus according to any one of claims 1 to 3, wherein information is not output.
前記複数のキーは、一のキーに複数の前記文字情報が割り当てられ、
前記処理実行部は、
前記タッチセンサ部が前記位置を検出すると、当該位置に対応する前記キーに割り当てられた前記複数の文字情報を切り替えながら案内表示させ、
前記キー部が当該案内表示後に当該キーの押下を検出すると、当該キーに割り当てられた前記複数の文字情報のうち、押下時に案内表示されていたものを出力する
ことを特徴とする請求項1ないし5のいずれかに記載の情報処理装置。
The plurality of keys have a plurality of character information assigned to one key,
The process execution unit
When the touch sensor unit detects the position, guidance display is performed while switching the plurality of character information assigned to the key corresponding to the position,
When the key unit detects that the key is pressed after the guidance is displayed, the character information assigned to the key is output as being displayed when the key is pressed. 6. The information processing apparatus according to any one of 5 above.
前記処理実行部は、
前記タッチセンサ部により検出された位置の移動に応じて、案内表示する前記文字情報を切り替える
ことを特徴とする請求項6に記載の情報処理装置。
The process execution unit
The information processing apparatus according to claim 6, wherein the character information to be displayed for guidance is switched according to the movement of the position detected by the touch sensor unit.
押下される複数のキーを有し、当該複数のキーの押下をそれぞれ検出するキー部と、
前記複数のキーのユーザが触れる側の面に設けられ、ユーザが接触した位置を検出するタッチセンサ部と、
ユーザの操作に係るキーを案内表示する表示部とを有する情報処理装置において、
前記タッチセンサ部が接触を検出すると、接触した位置に対応する前記キーを前記表示部が案内表示する第1のステップと、
前記キー部が前記第1のステップによる案内表示後に当該案内表示された前記キーの押下を検出すると、当該キーに割り当てられた文字を表す文字情報を出力する第2のステップと
を有することを特徴とするキー入力方法。
A key portion that has a plurality of keys to be pressed, and that respectively detects pressing of the plurality of keys;
A touch sensor unit that is provided on a surface of the plurality of keys that is touched by a user and detects a position touched by the user;
In an information processing apparatus having a display unit for guiding and displaying keys related to user operations,
When the touch sensor unit detects contact, the display unit guides and displays the key corresponding to the touched position; and
A second step of outputting character information representing a character assigned to the key when the key unit detects pressing of the key displayed in the guidance after the guidance display in the first step. Key input method.
押下される複数のキーを有し、当該複数のキーの押下をそれぞれ検出するキー部と、
前記複数のキーのユーザが触れる側の面に設けられ、ユーザが接触した位置を検出するタッチセンサ部と、
ユーザの操作に係るキーを案内表示する表示部とを有する情報処理装置のコンピュータに、
前記タッチセンサ部により検出された位置を表す座標情報を取得する第1のステップと、
前記第1のステップにおいて取得された座標情報が表す位置に対応する前記キーを前記表示部に案内表示させる第2のステップと、
前記第2のステップにおける案内表示後に、前記キー部により押下が検出されたキーを表すキー情報を取得する第3のステップと、
前記第3のステップにおいて取得されたキー情報が表すキーが前記第2のステップにおいて案内表示されたキーである場合に、当該キーに割り当てられた文字を表す文字情報を出力する第4のステップと
を実行させるためのプログラム。
A key portion that has a plurality of keys to be pressed, and that respectively detects pressing of the plurality of keys;
A touch sensor unit that is provided on a surface of the plurality of keys that is touched by a user and detects a position touched by the user;
A computer of an information processing apparatus having a display unit for guiding and displaying keys related to user operations;
A first step of acquiring coordinate information representing a position detected by the touch sensor unit;
A second step of guiding and displaying the key corresponding to the position represented by the coordinate information acquired in the first step on the display unit;
A third step of obtaining key information representing a key detected to be pressed by the key part after the guidance display in the second step;
A fourth step of outputting character information representing a character assigned to the key when the key represented by the key information acquired in the third step is a key displayed and guided in the second step; A program for running
JP2011120298A 2011-05-30 2011-05-30 Information processing device, key input method, and program Pending JP2012248061A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011120298A JP2012248061A (en) 2011-05-30 2011-05-30 Information processing device, key input method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011120298A JP2012248061A (en) 2011-05-30 2011-05-30 Information processing device, key input method, and program

Publications (1)

Publication Number Publication Date
JP2012248061A true JP2012248061A (en) 2012-12-13

Family

ID=47468440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011120298A Pending JP2012248061A (en) 2011-05-30 2011-05-30 Information processing device, key input method, and program

Country Status (1)

Country Link
JP (1) JP2012248061A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015079578A1 (en) * 2013-11-29 2015-06-04 株式会社コアアプリ Input assistance computer program, input assistance computer system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127796A (en) * 1991-11-06 1993-05-25 Nec Corp Keyboard device
JP2002149308A (en) * 2000-11-10 2002-05-24 Nec Corp Information input method and input device
JP2004355289A (en) * 2003-05-28 2004-12-16 Nec Corp Cellular phone having learning type input determination circuit
JP2005352924A (en) * 2004-06-11 2005-12-22 Mitsubishi Electric Corp User interface device
JP2007133806A (en) * 2005-11-14 2007-05-31 Ntt Docomo Inc Terminal and control program for terminal
JP2008152685A (en) * 2006-12-20 2008-07-03 Casio Hitachi Mobile Communications Co Ltd Input device and program
US20090179860A1 (en) * 2007-12-27 2009-07-16 High Tech Computer, Corp. Electronic device, character input module and method for selecting characters thereof
JP2009289025A (en) * 2008-05-29 2009-12-10 Kyocera Corp Input device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127796A (en) * 1991-11-06 1993-05-25 Nec Corp Keyboard device
JP2002149308A (en) * 2000-11-10 2002-05-24 Nec Corp Information input method and input device
JP2004355289A (en) * 2003-05-28 2004-12-16 Nec Corp Cellular phone having learning type input determination circuit
JP2005352924A (en) * 2004-06-11 2005-12-22 Mitsubishi Electric Corp User interface device
JP2007133806A (en) * 2005-11-14 2007-05-31 Ntt Docomo Inc Terminal and control program for terminal
JP2008152685A (en) * 2006-12-20 2008-07-03 Casio Hitachi Mobile Communications Co Ltd Input device and program
US20090179860A1 (en) * 2007-12-27 2009-07-16 High Tech Computer, Corp. Electronic device, character input module and method for selecting characters thereof
JP2009289025A (en) * 2008-05-29 2009-12-10 Kyocera Corp Input device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015079578A1 (en) * 2013-11-29 2015-06-04 株式会社コアアプリ Input assistance computer program, input assistance computer system
JPWO2015079578A1 (en) * 2013-11-29 2017-03-16 株式会社コアアプリ Input support computer program and input support computer system

Similar Documents

Publication Publication Date Title
US10795486B2 (en) Input apparatus, input method and program
JP4863211B2 (en) Character data input device
CN102004577B (en) Operation control device and operation control method
JP4769552B2 (en) Terminal and terminal control program
JP5755219B2 (en) Mobile terminal with touch panel function and input method thereof
US20110209087A1 (en) Method and device for controlling an inputting data
JP5266320B2 (en) Portable device for controlling command execution using an actuator installed on the back side
JP2009288882A (en) Mobile terminal and information display method
JPWO2011135944A1 (en) Information processing terminal and operation control method thereof
CN101174190A (en) Software keyboard entry method for implementing composite key on screen of electronic equipments
JP2011034494A (en) Display apparatus, information input method, and program
JP2009181531A (en) Character input system
EP2827229A1 (en) Information processing device
CN102713797B (en) Use the method for touch-screen inputting korean characters
JP5092985B2 (en) Content decoration apparatus, content decoration method, and content decoration program
CN103425430A (en) Method and device for supporting one-hand text input in mobile terminal
US20060248457A1 (en) Input device
JP5660611B2 (en) Electronic device, character input method, and program
JP2012248061A (en) Information processing device, key input method, and program
KR100689515B1 (en) Transparent keyboard
JP4907296B2 (en) Input device
JP2014140236A (en) Character data input device
JP2013033553A (en) Character data input device
JP2007251670A (en) Character input device
WO2010149225A1 (en) User interface for a device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150217