JP6226057B2 - Character input device and program - Google Patents

Character input device and program Download PDF

Info

Publication number
JP6226057B2
JP6226057B2 JP2016213976A JP2016213976A JP6226057B2 JP 6226057 B2 JP6226057 B2 JP 6226057B2 JP 2016213976 A JP2016213976 A JP 2016213976A JP 2016213976 A JP2016213976 A JP 2016213976A JP 6226057 B2 JP6226057 B2 JP 6226057B2
Authority
JP
Japan
Prior art keywords
character
input
touch
characters
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016213976A
Other languages
Japanese (ja)
Other versions
JP2017084369A (en
Inventor
裕一 大川原
裕一 大川原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016213976A priority Critical patent/JP6226057B2/en
Publication of JP2017084369A publication Critical patent/JP2017084369A/en
Application granted granted Critical
Publication of JP6226057B2 publication Critical patent/JP6226057B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、文字入力装置及びプログラムに関する。   The present invention relates to a character input device and a program.

近年、スマートフォンやタブレット端末等、タッチパネルで操作することが可能な携帯端末が増加している。これらの機器では、表示画面上に仮想文字表としてのソフトウェアキーボードが表示され、ソフトウェアキーボード上の文字ボタンに対してタッチ操作を行ったり、フリック操作を行ったりすることで文字入力を行うことができる。   In recent years, mobile terminals that can be operated with a touch panel, such as smartphones and tablet terminals, are increasing. In these devices, a software keyboard as a virtual character table is displayed on the display screen, and characters can be input by touching or flicking the character buttons on the software keyboard. .

このようなソフトウェアキーボードは、実際のJIS(Japan Industrial Standard)規格のキーボードや携帯電話で用いられているテンキーを模した画像によって表される。ところで、実際のキーボードでは、「F」キーと「J」キーに突起が設けられ、いわゆるホームポジションを触覚のみによって認識することができ、ブラインドタッチを容易ならしめている。また、携帯電話では、テンキーにおける「5」キーに突起が設けられ、触覚による操作を容易ならしめている。一方、ソフトウェアキーボードにおいては、このような突起が設けられていないので、ユーザは、画面に表示されたソフトウェアキーボードにおける文字の位置を視認しながらタッチ操作することにより文字入力が行われることになる。したがって、実際のキーボードのような触感が得られないので、ユーザが所望とする位置とはずれた位置に対してタッチ操作を行って誤入力してしまうという問題がある。   Such a software keyboard is represented by an image imitating an actual JIS (Japan Industrial Standard) standard keyboard or a numeric keypad used in a mobile phone. By the way, in an actual keyboard, projections are provided on the “F” key and the “J” key, so that the so-called home position can be recognized only by tactile sense, and the blind touch is facilitated. Further, in the mobile phone, a projection is provided on the “5” key of the numeric keypad, thereby facilitating tactile operation. On the other hand, since such a projection is not provided in the software keyboard, the user performs character input by performing a touch operation while visually recognizing the position of the character on the software keyboard displayed on the screen. Therefore, since a tactile sensation like an actual keyboard cannot be obtained, there is a problem that a touch operation is performed at a position deviated from a position desired by the user and erroneous input is performed.

この問題に鑑み、従来の文字入力装置において、複数のキーを含むソフトウェアキーボードにおいて、ユーザによるキー入力を検知すると、入力検知したキーに隣接するキーを抽出し、入力検知したキーおよび抽出したキーを記憶するとともに、記憶したキーから変換候補を生成し、生成した変換候補を表示画面に表示するように構成したものがある(例えば、特許文献1)。   In view of this problem, in a conventional character input device, when a key input by a user is detected in a software keyboard including a plurality of keys, a key adjacent to the input detected key is extracted, and the input detected key and the extracted key are displayed. There is a configuration in which conversion candidates are generated from stored keys, and the generated conversion candidates are displayed on a display screen (for example, Patent Document 1).

特開2013−47872号公報JP 2013-47872 A

しかしながら、上記特許文献1に記載された発明は、キー入力が正確であるか否かに関わらず、条件に合致するすべての変換候補を表示画面に表示し、これら表示された変換候補からいずれかを選択するものであるので、ユーザの所望とする変換候補をいちいち探す手間がかかってしまう。また、誤入力であるか否かを迅速に認識させることができない。そのため、操作性がよくないという問題がある。   However, the invention described in Patent Document 1 displays all the conversion candidates that meet the conditions on the display screen regardless of whether or not the key input is accurate, and any one of these displayed conversion candidates. Therefore, it takes time and effort to search for conversion candidates desired by the user. In addition, it is not possible to quickly recognize whether there is an erroneous input. Therefore, there is a problem that operability is not good.

本発明の課題は、誤入力を速やかに認識させることである。   An object of the present invention is to promptly recognize an erroneous input.

以上の課題を解決するため、本発明の文字入力装置は、所定の文字に対応した第1選択キーがタッチ選択されることにより該タッチ選択された第1選択キーに対応する文字が属すグループの各文字をそれぞれが第2選択キーとなるように一覧表示させるとともに、該一覧表示された前記第2選択キーの何れかがタッチ選択された場合に該タッチ選択された第2選択キーに対応する文字を入力文字として特定する文字入力装置であって、前記第1選択キーに対するタッチ選択から前記第2選択キーに対するタッチ選択に至るまでのタッチ態様に基づいて文字の誤入力の可能性を示す評価値を入力文字毎に導出する導出手段と、前記導出手段により導出された評価値に基づいて誤入力の可能性が高い文字を識別表示させるとともに、前記誤入力の可能性が高い文字として識別表示された文字が入力文字として特定される際に前記第2選択キーとして一覧表示されていた各文字を、前記誤入力の可能性が高い文字と置き換える候補文字として表示させる表示制御手段と、を備えたことを特徴とする

In order to solve the above-described problems, the character input device according to the present invention includes a group of characters to which a character corresponding to the first selection key selected by touching the first selection key corresponding to the predetermined character belongs. Each character is displayed in a list so as to be a second selection key, and when any of the second selection keys displayed in the list is touch-selected, it corresponds to the touch-selected second selection key. An character input device for specifying a character as an input character, wherein the evaluation indicates a possibility of erroneous input of a character based on a touch mode from touch selection with respect to the first selection key to touch selection with respect to the second selection key Deriving means for deriving a value for each input character, and identifying and displaying characters having a high possibility of erroneous input based on the evaluation value derived by the deriving means. When a character identified and displayed as a high-performance character is specified as an input character, each character listed as the second selection key is displayed as a candidate character to replace the character with a high possibility of erroneous input And a display control means .

本発明によれば、誤入力を速やかに認識させることができる。   According to the present invention, it is possible to promptly recognize an erroneous input.

第1の実施の形態に係る情報端末装置の外観を表す正面図である。It is a front view showing the external appearance of the information terminal device which concerns on 1st Embodiment. 第1の実施の形態に係る情報端末装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the information terminal device which concerns on 1st Embodiment. 文字入力画面の一例を説明するための図である。It is a figure for demonstrating an example of a character input screen. 文字入力画面の一例を説明するための図である。It is a figure for demonstrating an example of a character input screen. 検出領域について説明する図である。It is a figure explaining a detection area. 入力処理について説明するフローチャートである。It is a flowchart explaining an input process. データテーブルの構成について説明する図である。It is a figure explaining the structure of a data table. 評価値の算出要領について説明する図である。It is a figure explaining the calculation point of an evaluation value. 評価値の算出要領について説明する図である。It is a figure explaining the calculation point of an evaluation value. 評価値の算出要領について説明する図である。It is a figure explaining the calculation point of an evaluation value. 文字入力画面の一例を説明するための図である。It is a figure for demonstrating an example of a character input screen. 文字入力画面の一例を説明するための図である。It is a figure for demonstrating an example of a character input screen. 文字入力画面の一例を説明するための図である。It is a figure for demonstrating an example of a character input screen. 検出領域について説明する図である。It is a figure explaining a detection area. 第2の実施の形態に係る情報端末装置の外観を表す正面図である。It is a front view showing the external appearance of the information terminal device which concerns on 2nd Embodiment. 第2の実施の形態に係る情報端末装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the information terminal device which concerns on 2nd Embodiment. 文字入力画面の一例を説明するための図である。It is a figure for demonstrating an example of a character input screen. 入力処理について説明するフローチャートである。It is a flowchart explaining an input process. データテーブルの構成について説明する図である。It is a figure explaining the structure of a data table. 評価値の算出要領について説明する図である。It is a figure explaining the calculation point of an evaluation value. 評価値の算出要領について説明する図である。It is a figure explaining the calculation point of an evaluation value. 文字入力画面の一例を説明するための図である。It is a figure for demonstrating an example of a character input screen. 文字入力画面の一例を説明するための図である。It is a figure for demonstrating an example of a character input screen. 検出領域について説明する図である。It is a figure explaining a detection area.

以下に、本発明を実施するための最良の形態について図面を用いて説明する。ただし、以下に述べる実施形態には、本発明を実施するための技術的に好ましい種々の限定が付されているが、発明の範囲を以下の実施形態及び図示例に限定するものではない。   The best mode for carrying out the present invention will be described below with reference to the drawings. However, although various technically preferable limitations for carrying out the present invention are given to the embodiments described below, the scope of the invention is not limited to the following embodiments and illustrated examples.

(第1の実施の形態)
まず、本発明の第1の実施の形態に係る情報端末装置の構成について説明する。
(First embodiment)
First, the configuration of the information terminal device according to the first embodiment of the present invention will be described.

図1に示すように、情報端末装置1は、例えば、電話機能を有するスマートフォンである。この情報端末装置1は、薄板状の本体2と、本体2の一面に配されたタッチパネル3とを備えている。タッチパネル3は、画像を表示する表示手段としての表示部3aと、表示部3aの表示画面上の全面に配され、指やタッチペン等で触れることにより直接入力を行うための入力手段としての入力部3bとを一体的に有している(図2参照)。また、表示部3aの上方には、受話を行うためのスピーカ4が設けられ、表示部3aの下方には、送話を行うためのマイクロフォン5が設けられている。また、本体2の上端面には、情報端末装置1の電源のON/OFFを行うための電源ボタン6が配され、側端面には、受話音量等の調整を行うための音量ボタン7a,7bが配されている。   As shown in FIG. 1, the information terminal device 1 is, for example, a smartphone having a telephone function. The information terminal device 1 includes a thin plate-like main body 2 and a touch panel 3 arranged on one surface of the main body 2. The touch panel 3 includes a display unit 3a as a display unit for displaying an image, and an input unit as an input unit that is provided on the entire surface of the display screen of the display unit 3a and performs direct input by touching with a finger or a touch pen. 3b (see FIG. 2). In addition, a speaker 4 for receiving a voice is provided above the display unit 3a, and a microphone 5 for transmitting a voice is provided below the display unit 3a. Further, a power button 6 for turning on / off the power of the information terminal device 1 is arranged on the upper end surface of the main body 2, and volume buttons 7a, 7b for adjusting the received sound volume etc. are arranged on the side end surface. Is arranged.

情報端末装置1は、通信および通話機能等に加えて文字を入力する文字入力装置としての機能を有している。   The information terminal device 1 has a function as a character input device for inputting characters in addition to the communication and call functions.

図2に示すように、情報端末装置1は、上述したタッチパネル3の他、CPU(Central Processing Unit)11と、RAM(Random Access Memory)12と、ROM(Read Only Memory)13と、フラッシュメモリ14と、通信部15とを備えて構成され、各部がバス16を介して接続される。   As shown in FIG. 2, the information terminal device 1 includes a touch panel 3, a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, a ROM (Read Only Memory) 13, and a flash memory 14. And a communication unit 15, and each unit is connected via a bus 16.

CPU11は、ROM13に記憶されているシステムプログラムを読み出し、RAM12のワークエリアに展開し、該システムプログラムに従って各部を制御する。また、CPU11は、ROM13に記憶されている処理プログラムを読み出してワークエリアに展開し、各種処理を実行する。   The CPU 11 reads a system program stored in the ROM 13, develops it in the work area of the RAM 12, and controls each unit according to the system program. Further, the CPU 11 reads out a processing program stored in the ROM 13 and develops it in the work area, and executes various processes.

タッチパネル3の表示部3aは、LCD(Liquid Crystal Display)等により構成され、CPU11から入力される表示信号の指示に従って、文字入力画面等の表示画面を表示する。すなわち、CPU11は表示部3aの表示制御を行う表示制御手段として機能する。
入力部3bは、指やタッチペンによる表示部3aの表示画面上における位置入力を受け付け、その位置(座標)情報をCPU11に出力する。
The display unit 3 a of the touch panel 3 is configured by an LCD (Liquid Crystal Display) or the like, and displays a display screen such as a character input screen in accordance with an instruction of a display signal input from the CPU 11. That is, the CPU 11 functions as a display control unit that performs display control of the display unit 3a.
The input unit 3b accepts a position input on the display screen of the display unit 3a by a finger or a touch pen, and outputs the position (coordinate) information to the CPU 11.

RAM12は、揮発性のメモリであり、実行される各種プログラムやこれら各種プログラムに係るデータ等を一時的に記憶するワークエリアを形成する。   The RAM 12 is a volatile memory, and forms a work area for temporarily storing various programs to be executed and data related to these various programs.

ROM13は、読み出し専用のメモリであり、各種処理を実行するためのプログラムや読み出し用のデータ等を記憶する。これらのプログラムは、コンピュータ読み取り可能なプログラムコードの形態でROM13に格納されている。   The ROM 13 is a read-only memory, and stores a program for executing various processes, data for reading, and the like. These programs are stored in the ROM 13 in the form of computer readable program codes.

フラッシュメモリ14は、情報を読み出し及び書き込み可能に記憶する不揮発性のメモリである。
通信部15は、外部との通話及び通信を行うためのデータを送受信する。情報端末装置1は、通信部15を介して、インターネットを含む通信ネットワークに接続可能に構成されている。
The flash memory 14 is a non-volatile memory that stores information in a readable and writable manner.
The communication unit 15 transmits and receives data for performing a call and communication with the outside. The information terminal device 1 is configured to be connectable to a communication network including the Internet via the communication unit 15.

本実施の形態における情報端末装置1は、例えば、図3に示すように、表示部3aの文字入力画面DP上に表示される仮想文字表としてのソフトウェアキーボードKBを用いて文字入力を行うことができる。具体的には、文字入力の際には、文字入力画面DPの上部に文字表示領域CRが形成され、文字入力画面DPの下部に表示されたソフトウェアキーボードKBに対するタッチ操作及びフリック(スライド)操作を行うことにより文字の入力を行うことができ、入力した文字が文字表示領域CRに表示される。ソフトウェアキーボードKBには、かな文字を入力するためのかなキー21a〜21jと、入力したかな文字に対する濁音・半濁音記号の付加や小書き文字に変換するためのオプションキー22と、記号を入力するための記号キー23と、スペースキー24と、エンターキー25とが配列されている。かなキー21aは、文字「あ」、「い」、「う」、「え」、「お」を入力するためのキーである。かなキー21bは、文字「か」、「き」、「く」、「け」、「こ」を入力するためのキーである。かなキー21cは、文字「さ」、「し」、「す」、「せ」、「そ」を入力するためのキーである。かなキー21dは、文字「た」、「ち」、「つ」、「て」、「と」を入力するためのキーである。かなキー21eは、文字「な」、「に」、「ぬ」、「ね」、「の」を入力するためのキーである。かなキー21fは、文字「は」、「ひ」、「ふ」、「へ」、「ほ」を入力するためのキーである。かなキー21gは、文字「ま」、「み」、「む」、「め」、「も」を入力するためのキーである。かなキー21hは、文字「や」、「ゆ」、「よ」を入力するためのキーである。かなキー21iは、文字「ら」、「り」、「る」、「れ」、「ろ」を入力するためのキーである。かなキー21jは、文字「わ」、「を」、「ん」を入力するためのキーである。   For example, as shown in FIG. 3, the information terminal device 1 according to the present embodiment performs character input using a software keyboard KB as a virtual character table displayed on the character input screen DP of the display unit 3a. it can. Specifically, when inputting characters, a character display area CR is formed at the top of the character input screen DP, and a touch operation and a flick (slide) operation on the software keyboard KB displayed at the bottom of the character input screen DP are performed. By doing so, it is possible to input characters, and the input characters are displayed in the character display area CR. The software keyboard KB inputs kana keys 21a to 21j for inputting kana characters, option keys 22 for adding muddy / semi-voiced symbols to the inputted kana characters and converting them to small characters, and symbols. A symbol key 23, a space key 24, and an enter key 25 are arranged. The Kana key 21a is a key for inputting the characters “A”, “I”, “U”, “E”, “O”. The kana key 21b is a key for inputting the characters “ka”, “ki”, “ku”, “ke”, and “ko”. The Kana key 21c is a key for inputting the characters “sa”, “shi”, “su”, “se”, and “so”. The Kana key 21d is a key for inputting the characters “ta”, “chi”, “tsu”, “te”, “to”. The kana key 21e is a key for inputting the characters “na”, “ni”, “nu”, “ne”, “no”. The Kana key 21f is a key for inputting the characters “ha”, “hi”, “fu”, “he”, “ho”. The kana key 21g is a key for inputting the characters “MA”, “MI”, “MU”, “ME”, “MO”. The Kana key 21h is a key for inputting the characters “ya”, “yu”, and “yo”. The kana key 21i is a key for inputting the characters “ra”, “ri”, “ru”, “re”, “ro”. The Kana key 21j is a key for inputting the characters “WA”, “O”, and “N”.

例えば、上述したソフトウェアキーボードKBを用いて、「ね」の文字を入力する場合には、図4(a)に示すように、かなキー21eに対してタッチする。すると、「な」の文字が表示された領域の四方にな行を構成する文字である「に」「ぬ」「ね」「の」が強調表示され、その他のキーについてはグレーアウトとなり、操作無効であることが示される。そして、タッチした指をタッチパネル3から離さずに「ね」が配置されている右方向にフリック操作し、「ね」の位置で指をタッチパネル3から離すと、「ね」の文字が入力され、文字表示領域CRに「ね」の文字が表示される。本実施の形態では、このようにして文字の入力を行うことができる。   For example, when inputting the character “Ne” using the above-described software keyboard KB, the kana key 21e is touched as shown in FIG. Then, “Ni”, “Nu”, “Ne” and “No”, which are the characters that make up the four lines in the area where the “N” character is displayed, are highlighted, and the other keys are grayed out and disabled. It is shown that. Then, by flicking the touched finger to the right where “Ne” is placed without releasing it from the touch panel 3 and releasing the finger from the touch panel 3 at the “Ne” position, the character “Ne” is input. A character “Ne” is displayed in the character display area CR. In this embodiment, characters can be input in this way.

ここで、各文字の検出領域について、図5を参照しながら説明する。かなキー21eがタッチされると、「な」が表示された領域と重畳する領域に文字「な」のタッチ検出範囲である「な」検出領域31aが設定される。また、「な」検出領域31aの左側には、「に」のタッチ検出範囲である「に」検出領域31bが設定され、「な」検出領域31aの上側には、「ぬ」のタッチ検出範囲である「ぬ」検出領域31cが設定され、「な」検出領域31aの右側には、「ね」のタッチ検出範囲である「ね」検出領域31dが形成され、「な」検出領域31aの下側には、「の」のタッチ検出範囲である「の」検出領域31eが形成される。「に」検出領域31b、「ぬ」検出領域31c、「ね」検出領域31d及び「の」検出領域31eは、それぞれ、外側に向けて漸次領域が拡大されてなる略台形に形成されている。   Here, the detection area of each character will be described with reference to FIG. When the kana key 21e is touched, a “na” detection area 31a that is a touch detection range of the character “na” is set in an area overlapping the area where “na” is displayed. In addition, a “ni” detection area 31b that is a touch detection range of “ni” is set on the left side of the “na” detection area 31a, and a “nu” touch detection range is set above the “na” detection area 31a. “N” detection area 31c is set, and on the right side of “N” detection area 31a, “N” detection area 31d, which is the “N” touch detection range, is formed, and below “N” detection area 31a. On the side, a “no” detection region 31e that is a touch detection range of “no” is formed. The “ni” detection region 31b, the “nu” detection region 31c, the “ne” detection region 31d, and the “no” detection region 31e are each formed in a substantially trapezoidal shape in which the region is gradually expanded outward.

本実施の形態では、各文字の検出領域が上述したように設定されているので、例えば、文字「ね」を入力する場合には、「な」検出領域31aに対するタッチ操作を行った後、「ね」検出領域31cの何れかの位置までフリック操作を行うことにより実現することができる。文字「に」、「ぬ」、「の」についても文字「ね」と同様の操作により入力することができる。文字「な」は、「な」検出領域31aに対するタッチ操作を行った後、フリックすることなく「な」検出領域31aにおいてタッチした指を離すことにより入力することができる。なお、他の行の文字についても同様にして入力することができる。   In the present embodiment, since the detection area of each character is set as described above, for example, when inputting the character “Ne”, after performing a touch operation on the “NA” detection area 31a, “ This can be realized by performing a flick operation up to any position in the detection area 31c. The characters “ni”, “nu”, and “no” can be input by the same operation as the character “ne”. The character “NA” can be input by performing a touch operation on the “NA” detection area 31a and then releasing the touched finger in the “NA” detection area 31a without flicking. In addition, it can input similarly about the character of another line.

ここで、ユーザがフリック操作の際に操作を誤って、意図した文字とは違う文字が入力されてしまう場合がある。例えば、図4(b)に示すように、ユーザは文字「ね」を入力しようとして、ユーザが「ね」検出領域31dへのフリック操作を行おうとしたところ、誤って「の」検出領域31eへフリックしてしまい、文字「の」が入力されてしまう場合がある。本実施の形態では、後述するように、ユーザによるタッチ操作の態様を評価して文字入力が正確でない可能性が高いものについて識別可能に表示するので、誤入力があった場合に、これを速やかにユーザに認識させることができる。   Here, when the user performs a flick operation, a character different from an intended character may be input by mistake. For example, as shown in FIG. 4B, when the user tries to input the character “Ne” and tries to flick the “Ne” detection area 31 d, the user erroneously enters the “N” detection area 31 e. There is a case where the character “NO” is input because of flicking. In this embodiment, as will be described later, the mode of the touch operation by the user is evaluated so that characters that are likely to be inaccurate are displayed in an identifiable manner. Can be recognized by the user.

次に、上述のようにして構成された情報端末装置1のCPU11にて実行される入力処理について図6を参照しながら説明する。入力処理は、例えば、ユーザによる文字の入力が行われたときに実行される。   Next, an input process executed by the CPU 11 of the information terminal device 1 configured as described above will be described with reference to FIG. The input process is executed, for example, when a character is input by the user.

まず、CPU11は、タッチパネル3への操作に関する入力データの保存を行う(ステップS101)。具体的には、ユーザによるタッチパネル3へのタッチ操作による入力を開始した位置の座標である入力起点座標と、ユーザによるタッチパネル3へのタッチ操作による入力を終了した位置の座標である入力終点座標と、入力起点座標から入力終点座標までの間のフリック操作における軌跡の各データを、図7に示すようなデータテーブルの形式にしてRAM12の所定の領域に保存する。
すなわち、CPU11は、入力手段にてタッチ入力が開始された時の入力起点位置と、該入力起点位置からスライド操作された後、タッチ入力が終了したときの入力終点位置とを入力対象文字毎に検出する位置検出手段として機能する。
First, the CPU 11 stores input data related to operations on the touch panel 3 (step S101). Specifically, the input start point coordinates that are the coordinates of the position where the input by the touch operation on the touch panel 3 by the user is started, and the input end point coordinates that are the coordinates of the position where the input by the touch operation on the touch panel 3 by the user is completed. Each data of the trajectory in the flick operation from the input start point coordinate to the input end point coordinate is stored in a predetermined area of the RAM 12 in the form of a data table as shown in FIG.
That is, the CPU 11 sets, for each input target character, the input start position when the touch input is started by the input means and the input end position when the touch input is ended after the slide operation is performed from the input start position. It functions as position detecting means for detecting.

次に、CPU11は、RAM12に保存された入力データから入力対象文字を決定する(ステップS102)。具体的には、CPU11は、RAM12に保存されたデータテーブルにおける入力起点座標と入力終点座標とに基づいて検出領域を特定し、これにより入力対象文字を決定する。例えば、図5において、入力起点座標が「な」検出領域31aに属し、入力終点座標が「ね」検出領域31dに属している場合には、入力対象文字は「ね」となる。決定された入力対象文字は、図7に示されるデータテーブルに保存されるとともに、文字入力画面DPの文字表示領域CRに当該文字が表示される。   Next, the CPU 11 determines an input target character from the input data stored in the RAM 12 (step S102). Specifically, the CPU 11 specifies a detection area based on the input start point coordinates and the input end point coordinates in the data table stored in the RAM 12, and thereby determines an input target character. For example, in FIG. 5, when the input start point coordinate belongs to the “na” detection region 31 a and the input end point coordinate belongs to the “ne” detection region 31 d, the input target character is “ne”. The determined input target character is stored in the data table shown in FIG. 7, and the character is displayed in the character display area CR of the character input screen DP.

次に、CPU11は、RAM12に保存された入力データに基づいて評価値を算出し、図7に示されるデータテーブルの所定のフィールドに保存する(ステップS103)。この評価値は、入力対象文字毎に求められる。   Next, the CPU 11 calculates an evaluation value based on the input data stored in the RAM 12, and stores it in a predetermined field of the data table shown in FIG. 7 (step S103). This evaluation value is obtained for each input target character.

ここで、本実施の形態における評価値の算出要領について具体的に説明する。
まず第1に、CPU11は、図8(a)に示すように、入力起点座標S(x,y)の属する文字の検出領域の中心から入力起点座標S(x,y)までの距離を求め、これに基づいて評価値の算出を行う。評価値の算出は、例えば、図8(b)に示すような、LUT(Look Up Table)等の変換テーブルを参照して求められる。この変換テーブルは、評価値を0から1までの値でとっており、中心からある程度までの距離については評価値が高く、それよりも大きい距離については評価値を大きく低下させるように重み付けされている。距離は、0から検出領域の一辺の長さ(t)の半分の長さまでの範囲でとっている。なお、変換テーブルは、図8(b)に示すようなものに限らず、種々のものが採用でき、例えば、評価値が距離に応じてリニアに減少するものであってもよい。
このように、CPU11は、入力手段にてタッチ入力された位置に対応する入力対象文字のタッチ検出範囲の中心位置から該タッチ入力された位置までの距離を算出する距離算出手段として機能する。
Here, a procedure for calculating the evaluation value in the present embodiment will be specifically described.
First, as shown in FIG. 8A, the CPU 11 obtains the distance from the center of the character detection area to which the input origin coordinates S (x, y) belong to the input origin coordinates S (x, y). Based on this, the evaluation value is calculated. The calculation of the evaluation value is obtained with reference to a conversion table such as an LUT (Look Up Table) as shown in FIG. This conversion table takes evaluation values from 0 to 1, weighted so that the evaluation value is high for a distance from the center to a certain extent, and the evaluation value is greatly reduced for distances greater than that. Yes. The distance is in the range from 0 to half the length (t) of one side of the detection area. Note that the conversion table is not limited to the one shown in FIG. 8B, and various types can be adopted. For example, the evaluation value may be linearly reduced according to the distance.
As described above, the CPU 11 functions as a distance calculation unit that calculates the distance from the center position of the touch detection range of the input target character corresponding to the position input by the input unit to the position input by the touch.

第2に、CPU11は、図9(a)に示すように、入力起点座標S(x,y)から入力終点座標E(x,y)までの距離を求め、これに基づいて評価値の算出を行う。評価値の算出は、例えば、図9(b)に示すような変換テーブルを参照して求められる。この変換テーブルは、評価値を0から1までの値でとっており、入力起点座標S(x,y)から入力終点座標E(x,y)までの距離に応じて変化する。この変換テーブルによれば、たとえば、入力文字が「な」の場合には、入力起点座標S(x,y)から入力終点座標E(x,y)までの距離が小さいほどよいので、距離が小さいほど評価値が高くなるようになっている。また、入力対象文字が「に」、「ぬ」、「ね」、「の」の場合には、入力起点座標S(x,y)から入力終点座標E(x,y)までの距離が文字「な」に対応する検出領域の一辺の長さ(t)分に近いほどよいので、当該距離に近似するほど評価値が高くなるようになっている。なお、変換テーブルは、図9(b)に示すようなものに限らず、種々のものが採用でき、例えば、入力起点座標S(x,y)から入力終点座標E(x,y)までの距離に応じて、評価値がリニアに増減するものであってもよい。
このように、CPU11は、入力手段にてタッチ入力が開始されたときの入力起点位置と、該入力起点位置からスライド操作された後、タッチ入力が終了したときの入力終点位置とを入力対象文字毎に検出する位置検出手段として機能する。
Secondly, as shown in FIG. 9A, the CPU 11 obtains the distance from the input start point coordinate S (x, y) to the input end point coordinate E (x, y), and calculates the evaluation value based on this. I do. For example, the evaluation value is calculated with reference to a conversion table as shown in FIG. In this conversion table, the evaluation value is a value from 0 to 1, and changes according to the distance from the input start point coordinate S (x, y) to the input end point coordinate E (x, y). According to this conversion table, for example, when the input character is “NA”, the smaller the distance from the input start point coordinate S (x, y) to the input end point coordinate E (x, y), the better. The smaller the value, the higher the evaluation value. When the input target character is “ni”, “nu”, “ne”, “no”, the distance from the input start point coordinate S (x, y) to the input end point coordinate E (x, y) is the character. The closer to the length (t) of one side of the detection region corresponding to “na”, the better. Therefore, the closer to the distance, the higher the evaluation value. The conversion table is not limited to that shown in FIG. 9B, and various types can be adopted. For example, from the input start point coordinate S (x, y) to the input end point coordinate E (x, y). The evaluation value may be linearly increased or decreased according to the distance.
As described above, the CPU 11 uses the input start point position when the touch input is started by the input unit and the input end point position when the touch input is ended after the slide operation is performed from the input start position. It functions as position detecting means for detecting each time.

第3に、CPU11は、図10(a)に示すように、入力起点座標S(x,y)と入力終点座標E(x,y)とを通過する直線と、水平線とがなす角度θを求め、これに基づいて評価値の算出を行う。評価値の算出は、例えば、図10(b)に示すような変換テーブルを参照して求められる。この変換テーブルは、評価値を0から1までの値でとっており、角度θに応じて変換する。すなわち、入力起点座標S(x,y)と入力終点座標E(x,y)とを通過する直線が、水平または垂直に近いほど評価値が高く、斜め方向になるほど評価値が低くなるようになっている。なお、変換テーブルは、図10(b)に示すようなものに限らず、種々のものが採用でき、例えば、角度θに応じて、評価値がリニアに増減するものであってもよい。
このように、CPU11は、検出手段により検出された入力起点位置と入力終点位置とを結ぶ直線の角度を検出する角度検出手段として機能する。
Thirdly, as shown in FIG. 10A, the CPU 11 determines an angle θ formed by a straight line passing through the input start point coordinate S (x, y) and the input end point coordinate E (x, y) and the horizontal line. The evaluation value is calculated based on this. For example, the evaluation value is calculated with reference to a conversion table as shown in FIG. This conversion table takes evaluation values as values from 0 to 1, and converts them according to the angle θ. That is, the evaluation value is higher as the straight line passing through the input start point coordinate S (x, y) and the input end point coordinate E (x, y) is closer to the horizontal or vertical, and the evaluation value is lower as it is inclined. It has become. Note that the conversion table is not limited to that shown in FIG. 10B, and various types can be adopted. For example, the evaluation value may be linearly increased or decreased according to the angle θ.
As described above, the CPU 11 functions as an angle detection unit that detects an angle of a straight line connecting the input start point position and the input end point position detected by the detection unit.

上述したようにして3つの評価値をそれぞれ算出した後、各評価値の平均を求め、求めた平均の評価値がデータテーブルに保存される。
なお、上述した3つの評価値のうちの1つあるいは2つからデータテーブルに保存する評価値を求めるようにしてもよい。
また、評価値の求め方については、上述したものに限定されず、タッチ入力されたときの入力態様に対して評価することができる種々のものが採用可能である。
このように、CPU11は、入力手段にてタッチ入力されたときの入力態様に基づいて入力対象文字毎の評価値を求める評価手段として機能する。
After each of the three evaluation values is calculated as described above, the average of the evaluation values is obtained, and the obtained average evaluation value is stored in the data table.
Note that an evaluation value stored in the data table may be obtained from one or two of the three evaluation values described above.
In addition, the method of obtaining the evaluation value is not limited to the above-described method, and various methods that can evaluate the input mode when the touch input is performed can be employed.
As described above, the CPU 11 functions as an evaluation unit that calculates an evaluation value for each input target character based on an input mode when a touch input is made by the input unit.

図6に戻って説明を続けると、次に、CPU11は、図7に示されるデータテーブルを参照して評価値が閾値未満である入力対象文字があるか否かを判定する(ステップS104)。本実施の形態では、閾値を、例えば、「5」としているが、適宜の値に設定することができる。   Returning to FIG. 6, the description continues. Next, the CPU 11 refers to the data table shown in FIG. 7 to determine whether there is an input target character whose evaluation value is less than the threshold (step S104). In the present embodiment, the threshold is set to “5”, for example, but can be set to an appropriate value.

CPU11は、評価値が閾値未満である入力対象文字があると判定したときは(ステップS104:Y)、評価値が最小である入力対象文字を訂正対象文字として抽出する(ステップS105)。評価値が最小である入力対象文字は、誤入力の可能性の最も高い文字であるため、本実施の形態では、これを抽出するようにしている。
このように、CPU11は、評価手段により求められた入力対象文字毎の評価値に基づいて、入力対象文字の中から訂正対象文字を判定する訂正判定手段として機能する。
When the CPU 11 determines that there is an input target character whose evaluation value is less than the threshold (step S104: Y), the CPU 11 extracts the input target character having the minimum evaluation value as a correction target character (step S105). Since the input target character with the smallest evaluation value is the character with the highest possibility of erroneous input, in the present embodiment, it is extracted.
As described above, the CPU 11 functions as a correction determination unit that determines a correction target character from the input target characters based on the evaluation value for each input target character obtained by the evaluation unit.

続いて、CPU11は、訂正候補ボタンを文字入力画面に表示する(ステップS106)。具体的には、CPU11は、例えば、図7に示すように、評価値が最小である入力対象文字が「の」である場合には、図11に示すように、文字表示領域CRに表示された「のっとわーく」の文字列のうち、文字「の」について、訂正対象の文字であることが認識できるように、強調表示を行う。そして、「のっとわーく」の文字列の近傍に、文字「の」に対応する訂正候補ボタンTSを表示する。訂正候補ボタンTSは、文字「の」に対応する置換文字候補としての「な」、「に」、「ぬ」、「ね」、「の」の各文字ボタンにより構成されている。   Subsequently, the CPU 11 displays a correction candidate button on the character input screen (step S106). Specifically, for example, as illustrated in FIG. 7, when the input target character having the smallest evaluation value is “NO”, the CPU 11 displays the character display area CR as illustrated in FIG. 11. In addition, among the character strings of “Not Wak”, the character “no” is highlighted so that it can be recognized as a correction target character. Then, a correction candidate button TS corresponding to the character “NO” is displayed in the vicinity of the character string “NOT WAKE”. The correction candidate button TS is composed of character buttons “NA”, “NI”, “NU”, “NE”, “NO” as replacement character candidates corresponding to the character “NO”.

CPU11は、訂正候補ボタンTSを構成する文字ボタンの何れかに対してタッチ操作されたか否かを判定する(ステップS107)。CPU11は、訂正候補ボタンTSを構成する文字ボタンの何れかに対してタッチ操作されたと判定したときは(ステップS107:Y)、対象の入力対象文字をタッチ操作された文字ボタンに対応する文字に置き換える(ステップS108)。例えば、図11において、訂正候補ボタンTSにおける文字ボタン「ね」に対するタッチ操作が行われた場合には、図12に示すように、入力対象文字「の」が「ね」に訂正される。また、データテーブルに保存されている入力対象文字についても「の」から「ね」に訂正される。
このように、CPU11は、訂正対象文字と判定された入力対象文字に対する入力手段のタッチ入力による入力対象文字の訂正入力を受け付ける訂正入力受付手段として機能する。
The CPU 11 determines whether a touch operation has been performed on any of the character buttons constituting the correction candidate button TS (step S107). When the CPU 11 determines that a touch operation has been performed on any of the character buttons constituting the correction candidate button TS (step S107: Y), the target input target character is changed to a character corresponding to the touch-operated character button. Replace (step S108). For example, in FIG. 11, when a touch operation is performed on the character button “Ne” in the correction candidate button TS, the input target character “NO” is corrected to “Ne” as shown in FIG. 12. In addition, the input target character stored in the data table is also corrected from “NO” to “NE”.
As described above, the CPU 11 functions as a correction input receiving unit that receives a correction input of the input target character by a touch input of the input unit with respect to the input target character determined to be the correction target character.

CPU11は、訂正対象である入力対象文字の評価値を最大値にした後(ステップS109)、ステップS104の処理を実行する。具体的には、CPU11は、データテーブルに保存されている、訂正された入力対象文字に対応する評価値を最大値である「1」に書き換える。   The CPU 11 executes the process of step S104 after setting the evaluation value of the input target character to be corrected to the maximum value (step S109). Specifically, the CPU 11 rewrites the evaluation value corresponding to the corrected input target character stored in the data table to “1” which is the maximum value.

一方、CPU11は、ステップS107において、訂正候補ボタンTSを構成する文字ボタンの何れかに対してタッチ操作されたと判定しないときは(ステップS107:N)、訂正ボタンPに対するタッチ操作が行われたか否かを判定する(ステップS110)。具体的には、図11に示すように、文字入力画面DPの文字表示領域CRに表示された訂正候補ボタンTSの右側に表示された訂正ボタンPに対するタッチ操作が行われたか否かにより判定を行うことができる。   On the other hand, when the CPU 11 does not determine in step S107 that a touch operation has been performed on any of the character buttons constituting the correction candidate button TS (step S107: N), whether or not the touch operation has been performed on the correction button P. Is determined (step S110). Specifically, as shown in FIG. 11, the determination is made based on whether or not a touch operation has been performed on the correction button P displayed on the right side of the correction candidate button TS displayed in the character display area CR of the character input screen DP. It can be carried out.

CPU11は、訂正ボタンPに対するタッチ操作が行われたと判定したときは(ステップS110:Y)、訂正候補ボタンTSの表示を終了した後(ステップS111)、訂正対象の文字以外の文字について訂正を行う訂正モードを実行し(ステップS112)、この処理を終了する。訂正モードでは、例えば、カーソルキーの前後、「DEL」キー等、図3におけるソフトウェアキーボードKBの操作により文字の訂正を行うことができる。   When the CPU 11 determines that a touch operation has been performed on the correction button P (step S110: Y), the CPU 11 ends the display of the correction candidate button TS (step S111), and then corrects characters other than the correction target character. The correction mode is executed (step S112), and this process ends. In the correction mode, for example, characters can be corrected by operating the software keyboard KB in FIG. 3 such as before and after the cursor key, and the “DEL” key.

一方、CPU11は、ステップS110において、訂正ボタンPに対するタッチ操作が行われたと判定しないときは(ステップS110:N)、確定ボタンQに対するタッチ操作が行われたか否かを判定する(ステップS113)。具体的には、図11に示すように、文字入力画面DPの文字表示領域CRに表示された訂正候補ボタンTSの右側に表示された確定ボタンQに対するタッチ操作が行われたか否かにより判定を行うことができる。   On the other hand, when the CPU 11 does not determine in step S110 that a touch operation has been performed on the correction button P (step S110: N), the CPU 11 determines whether a touch operation has been performed on the confirmation button Q (step S113). Specifically, as shown in FIG. 11, the determination is made based on whether or not a touch operation is performed on the confirmation button Q displayed on the right side of the correction candidate button TS displayed in the character display area CR of the character input screen DP. It can be carried out.

CPU11は、確定ボタンQに対するタッチ操作が行われたと判定したときは(ステップS113:Y)、訂正候補ボタンTSの表示を終了して入力を確定した後(ステップS114)、この処理を終了する。   When the CPU 11 determines that the touch operation has been performed on the confirmation button Q (step S113: Y), the CPU 11 terminates the display of the correction candidate button TS and confirms the input (step S114), and then terminates this process.

一方、CPU11は、確定ボタンQに対するタッチ操作が行われたと判定しないときは(ステップS113:N)、ステップS107の処理を実行する。   On the other hand, when the CPU 11 does not determine that the touch operation on the confirmation button Q has been performed (step S113: N), the CPU 11 executes the process of step S107.

また、CPU11は、ステップS104において、評価値が閾値未満である入力対象文字があると判定しないときは(ステップS104:N)、ステップS112の処理を実行する。   Further, when the CPU 11 does not determine in step S104 that there is an input target character whose evaluation value is less than the threshold value (step S104: N), the CPU 11 executes the process of step S112.

なお、文字入力が続いて行われた場合には、入力処理が再度起動されることとなる。   If the character input is subsequently performed, the input process is activated again.

CPU11は、上述した入力処理が実行された後、所定の変換操作が行われることにより、図13に示すように、文字入力画面DPの文字表示領域CRに表示された「ねっとわーく」の文字列を「ネットワーク」に変換する。   After the input process described above is executed, the CPU 11 performs a predetermined conversion operation, and as shown in FIG. 13, the “NETWORK” displayed in the character display area CR of the character input screen DP is displayed. Convert string to "network".

なお、本実施の形態では、評価値が最小である入力対象文字を訂正対象文字として抽出するようにしたが、訂正対象文字として抽出する数は1つに限らず適宜設定することができる。また、評価値が閾値未満である入力対象文字の全てを訂正対象文字として抽出するようにしてもよい。   In this embodiment, the input target character having the smallest evaluation value is extracted as the correction target character. However, the number of characters to be extracted as the correction target character is not limited to one and can be set as appropriate. Further, all input target characters whose evaluation value is less than the threshold value may be extracted as correction target characters.

また、本実施の形態において、CPU11が検出範囲拡大手段として機能して、訂正が行われた際に、訂正前後の文字に対応する検出領域の範囲を変更するように制御してもよい。具体的には、CPU11は、入力対象文字の訂正が行われた際に、訂正前の入力対象文字が「の」で、訂正後の入力対象文字が「ね」である場合には、図14に示されるように、「ね」検出領域31dの範囲を拡大し、「の」検出領域31eの範囲を縮小するように検出領域の範囲を変更する。これにより、ユーザの誤入力を改善することができる。
このように、CPU11は、訂正入力受付手段によって訂正入力が受け付けられた入力対象文字のタッチ検出範囲を拡大する検出範囲拡大手段として機能する。
なお、検出領域の範囲を変更するタイミングは、一の文字にについて訂正が1回行われたときでもよいし、複数回行われたときでもよい。また、訂正回数に応じて、検出領域の範囲の変更量を可変するようにしてもよい。また、入力起点座標、入力終点座標及び軌跡に応じて、検出領域の範囲の変更量を可変するようにしてもよい。また、評価値に応じて、検出領域の範囲の変更量を可変するようにしてもよい。
Further, in the present embodiment, the CPU 11 may function as a detection range expansion unit, and control may be performed so as to change the range of the detection area corresponding to the characters before and after correction when correction is performed. Specifically, when the input target character is corrected, the CPU 11 determines that the input target character before correction is “NO” and the corrected input target character is “NE”. As shown in the figure, the range of the detection area is changed so that the range of the “ne” detection area 31d is enlarged and the range of the “no” detection area 31e is reduced. Thereby, a user's erroneous input can be improved.
Thus, the CPU 11 functions as a detection range expansion unit that expands the touch detection range of the input target character for which the correction input is received by the correction input reception unit.
Note that the timing of changing the range of the detection area may be when correction is performed once for one character or when it is performed a plurality of times. Further, the amount of change in the detection area range may be varied according to the number of corrections. Further, the change amount of the detection area range may be varied according to the input start point coordinates, the input end point coordinates, and the trajectory. Further, the change amount of the detection area range may be varied according to the evaluation value.

(第2の実施の形態)
次に、本発明の第2の実施の形態に係る情報端末装置の構成について説明する。
(Second Embodiment)
Next, the configuration of the information terminal device according to the second embodiment of the present invention will be described.

図15に示すように、情報端末装置100は、例えば、タブレット端末である。この情報端末装置100は、薄板状の本体102と、本体102の一面に配されたタッチパネル103とを備えている。タッチパネル103は、画像を表示する表示手段としての表示部103aと、表示部103aの表示画面上の全面に配され、指やタッチペン等で触れることにより直接入力を行うための入力手段としての入力部103bとを一体的に有している(図16参照)。   As illustrated in FIG. 15, the information terminal device 100 is, for example, a tablet terminal. The information terminal device 100 includes a thin plate-like main body 102 and a touch panel 103 disposed on one surface of the main body 102. The touch panel 103 is arranged on the entire display screen of the display unit 103a as a display unit for displaying an image, and an input unit as an input unit for directly inputting by touching with a finger, a touch pen, or the like. 103b (see FIG. 16).

情報端末装置100は、通信機能等に加えて文字を入力する文字入力装置としての機能を有している。   The information terminal device 100 has a function as a character input device for inputting characters in addition to a communication function and the like.

図16に示すように、情報端末装置100は、上述したタッチパネル103の他、CPU111と、RAM112と、ROM113と、フラッシュメモリ114とを備えて構成され、各部がバス116を介して接続される。なお、タッチパネル103、CPU111、RAM112、ROM113及びフラッシュメモリ114の各機能は、上述した第1の実施の形態における情報端末装置1と同様であるため、詳しい説明については省略する。   As shown in FIG. 16, the information terminal device 100 includes a CPU 111, a RAM 112, a ROM 113, and a flash memory 114 in addition to the touch panel 103 described above, and each unit is connected via a bus 116. Note that the functions of the touch panel 103, the CPU 111, the RAM 112, the ROM 113, and the flash memory 114 are the same as those of the information terminal device 1 in the first embodiment described above, and thus detailed description thereof is omitted.

本実施の形態における情報端末装置100は、例えば、図17(a)に示すように、表示部3aの文字入力画面DP上に表示される仮想文字表としてのソフトウェアキーボードKBを用いて文字入力を行うことができる。具体的には、文字入力の際には、文字入力画面DPの上部に文字表示領域CRが形成され、文字入力画面DPの下部に表示されたソフトウェアキーボードKBに対するタッチ操作を行うことにより文字の入力を行うことができ、入力した文字が文字表示領域CRに表示される。ソフトウェアキーボードKBは、QWERTY配列を有するソフトウェアキーボードであり、ローマ字を入力するためのローマ字キー121a〜121zと、シフトキー122,122と、記号を入力するための記号キー123a,123bと、スペースキー124と、エンターキー125とが配列されている。   For example, as shown in FIG. 17A, the information terminal device 100 according to the present embodiment performs character input using a software keyboard KB as a virtual character table displayed on the character input screen DP of the display unit 3a. It can be carried out. Specifically, when inputting characters, a character display area CR is formed at the top of the character input screen DP, and characters are input by performing a touch operation on the software keyboard KB displayed at the bottom of the character input screen DP. The entered characters are displayed in the character display area CR. The software keyboard KB is a software keyboard having a QWERTY layout. Romaji keys 121a to 121z for inputting Roman characters, shift keys 122 and 122, symbol keys 123a and 123b for inputting symbols, and a space key 124 , And enter key 125 are arranged.

本実施の形態では、各文字の検出領域が各文字キーに重畳するように設定されている。そのため、例えば、図17(a)に示すように、ソフトウェアキーボードKBにおける「C」キー121c、「O」キー121o、「M」キー121m、「P」キー121p、「U」キー121u、「T」キー121t、「E」キー121e、「R」キー121rをこの順にタッチ操作することにより、各文字の検出領域に対するタッチ操作が検出され、文字「C」「O」「M」「P」「U」「T」「E」「R」がそれぞれ入力されて、文字表示領域CRに「COMPUTER」の文字列が表示される。本実施の形態では、このようにして文字の入力を行うことができる。   In the present embodiment, each character detection area is set to overlap each character key. Therefore, for example, as shown in FIG. 17A, the “C” key 121c, “O” key 121o, “M” key 121m, “P” key 121p, “U” key 121u, “T” on the software keyboard KB. ”Key 121 t,“ E ”key 121 e, and“ R ”key 121 r are touched in this order to detect a touch operation on each character detection area. Characters“ C ”,“ O ”,“ M ”,“ P ”,“ U, “T”, “E”, and “R” are respectively input, and the character string “COMPUTER” is displayed in the character display area CR. In this embodiment, characters can be input in this way.

ここで、ユーザがタッチ操作を誤って、意図した文字とは違う文字が入力されてしまう場合がある。例えば、図17(b)に示すように、ユーザは「COMPUTER」と入力しようとして、タッチ位置R1〜R8に対して順にタッチ操作を行ったが、タッチ位置R1が「C」キー121cではなく「X」キー121xであるため、「XOMPUTER」と入力されてしまう場合がある。すなわち、ユーザは、「C」キー121cをタッチ操作したつもりが「X」キー121xをタッチ操作してしまい、誤入力が生じてしまっている。これは、実際のキーボードとは異なり、凹凸部分がないため、触感によって正しいキーの位置を見つけるのが困難であることに起因するものである。本実施の形態では、後述するように、ユーザによるタッチ操作の態様を評価して文字入力が正確でない可能性が高いものについて識別可能に表示するので、誤入力があった場合に、これを速やかにユーザに認識させることができる。   Here, there is a case where a character wrong from an intended character is input by mistake of a touch operation by the user. For example, as illustrated in FIG. 17B, the user performs touch operations on the touch positions R1 to R8 in order to input “COMPUTER”, but the touch position R1 is not “C” key 121c but “ Since the “X” key 121x, “XOMPUTER” may be input. That is, the user intends to touch the “C” key 121c, but touches the “X” key 121x, and an erroneous input has occurred. This is because, unlike an actual keyboard, there is no uneven portion, and it is difficult to find the correct key position by touch. In this embodiment, as will be described later, the mode of the touch operation by the user is evaluated so that characters that are likely to be inaccurate are displayed in an identifiable manner. Can be recognized by the user.

次に、上述のようにして構成された情報端末装置100のCPU111にて実行される入力処理について図18を参照しながら説明する。入力処理は、例えば、ユーザによる文字の入力が行われたときに実行される。   Next, input processing executed by the CPU 111 of the information terminal device 100 configured as described above will be described with reference to FIG. The input process is executed, for example, when a character is input by the user.

まず、CPU111は、タッチパネル103への操作に関する入力データの保存を行う(ステップS201)。具体的には、入力起点座標及び入力終点座標の各データを、図19に示すようなデータテーブルの形式にしてRAM112の所定の領域に保存する。入力起点座標及び入力終点座標の取得方法については、上述した第1の実施の形態と同様である。   First, the CPU 111 stores input data related to an operation on the touch panel 103 (step S201). Specifically, each data of the input start point coordinates and the input end point coordinates is stored in a predetermined area of the RAM 112 in the form of a data table as shown in FIG. The method for obtaining the input start point coordinates and the input end point coordinates is the same as in the first embodiment described above.

次に、CPU111は、RAM112に保存された入力データから入力対象文字を決定する(ステップS202)。具体的には、CPU111は、RAM112に保存されたデータテーブルにおける入力終点座標がいずれの文字の検出領域に属するかを特定し、これにより入力対象文字を決定する。決定された入力対象文字は、図19に示されるデータテーブルに保存されるとともに、文字入力画面DPの文字表示領域CRに当該文字が表示される。   Next, the CPU 111 determines an input target character from the input data stored in the RAM 112 (step S202). Specifically, the CPU 111 identifies which character detection area the input end point coordinates in the data table stored in the RAM 112 belong to, and thereby determines the input target character. The determined input target character is stored in the data table shown in FIG. 19, and the character is displayed in the character display area CR of the character input screen DP.

次に、CPU111は、RAM112に保存された入力データに基づいて評価値を算出し、図19に示されるデータテーブルの所定のフィールドに保存する(ステップS203)。この評価値は、入力対象文字毎に求められる。   Next, the CPU 111 calculates an evaluation value based on the input data stored in the RAM 112, and stores it in a predetermined field of the data table shown in FIG. 19 (step S203). This evaluation value is obtained for each input target character.

ここで、本実施の形態における評価値の算出要領について具体的に説明する。
まず、第1に、CPU111は、図20(a)に示すように、入力起点座標S(x,y)の属する文字の検出領域の中心から入力起点座標S(x,y)までの距離を求め、これに基づいて評価値の算出を行う。評価値の算出は、例えば、図20(b)に示すような変換テーブルを参照して求められる。この変換テーブルは、評価値を0から1までの値でとっており、検出領域の中心から入力起点座標S(x,y)までの距離に応じて変化する。距離は、0から検出領域の一辺の長さ(t)の半分の長さまでの範囲でとっている。なお、変換テーブルは、図20(b)に示すようなものに限らず、種々のものが採用でき、例えば、評価値が距離に応じてリニアに減少するものであってもよい。
Here, a procedure for calculating the evaluation value in the present embodiment will be specifically described.
First, as shown in FIG. 20A, the CPU 111 first determines the distance from the center of the character detection area to which the input origin coordinates S (x, y) belong to the input origin coordinates S (x, y). The evaluation value is calculated based on this. For example, the evaluation value is calculated with reference to a conversion table as shown in FIG. This conversion table takes evaluation values as values from 0 to 1, and changes according to the distance from the center of the detection area to the input starting point coordinates S (x, y). The distance is in the range from 0 to half the length (t) of one side of the detection area. Note that the conversion table is not limited to that shown in FIG. 20B, and various conversion tables may be employed. For example, the evaluation value may be linearly reduced according to the distance.

第2に、CPU111は、図21(a)に示すように、入力起点座標S(x,y)から入力終点座標E(x,y)までの距離を求め、これに基づいて評価値の算出を行う。すなわち、CPU11は、入力起点座標S(x,y)から入力終点座標E(x,y)までの間においてスライド操作された長さから評価値を求める。評価値の算出は、例えば、図21(b)に示すような変換テーブルを参照して用いられる。この変換テーブルは、評価値を0から1までの値でとっており、入力起点座標S(x,y)から入力終点座標E(x,y)までの距離に応じて変化する。この変換テーブルによれば、入力起点座標S(x,y)から入力終点座標E(x,y)までの距離が小さいほど、すなわち、タッチ操作した指等の移動量が小さいほどよいので、距離が小さいほど評価値が高くなるようになっている。なお、変換テーブルは、図21(b)に示すようなものに限らず、種々のものが採用でき、例えば、入力起点座標S(x,y)から入力終点座標E(x,y)までの距離に応じて、評価値がリニアに減少するものであってもよい。
このように、CPU111は、位置検出手段により検出された入力起点位置から入力終点位置までの間においてスライド操作された長さを検出する長さ検出手段として機能する。
Second, as shown in FIG. 21A, the CPU 111 obtains the distance from the input start point coordinate S (x, y) to the input end point coordinate E (x, y), and calculates the evaluation value based on this. I do. That is, the CPU 11 obtains an evaluation value from the length of the sliding operation from the input start point coordinate S (x, y) to the input end point coordinate E (x, y). The calculation of the evaluation value is used with reference to a conversion table as shown in FIG. In this conversion table, the evaluation value is a value from 0 to 1, and changes according to the distance from the input start point coordinate S (x, y) to the input end point coordinate E (x, y). According to this conversion table, the smaller the distance from the input start point coordinate S (x, y) to the input end point coordinate E (x, y), that is, the smaller the movement amount of the touched finger or the like, the better. The smaller the value is, the higher the evaluation value becomes. Note that the conversion table is not limited to that shown in FIG. 21B, and various conversion tables can be employed. The evaluation value may decrease linearly according to the distance.
As described above, the CPU 111 functions as a length detection unit that detects the length of the slide operation between the input start point position detected by the position detection unit and the input end point position.

上述したようにして2つの評価値をそれぞれ算出した後、各評価値の平均を求め、求めた平均の評価値がデータテーブルに保存される。
なお、上述した2つの評価値のうちの1つからデータテーブルに保存する評価値を求めるようにしてもよい。
また、評価値の求め方については、上述したものに限定されず、タッチ入力されたときの入力態様に対して評価することができる種々のものが採用可能である。
After calculating the two evaluation values as described above, the average of the evaluation values is obtained, and the obtained average evaluation value is stored in the data table.
Note that an evaluation value stored in the data table may be obtained from one of the two evaluation values described above.
In addition, the method of obtaining the evaluation value is not limited to the above-described method, and various methods that can evaluate the input mode when the touch input is performed can be employed.

図18に戻って説明を続けると、次に、CPU111は、図19に示されるデータテーブルを参照して評価値が閾値未満である入力対象文字があるか否かを判定する(ステップS204)。本実施の形態では、閾値を、例えば、「5」としているが、適宜の値に設定することができる。   Returning to FIG. 18, the description continues. Next, the CPU 111 refers to the data table shown in FIG. 19 to determine whether there is an input target character whose evaluation value is less than the threshold (step S204). In the present embodiment, the threshold is set to “5”, for example, but can be set to an appropriate value.

CPU111は、評価値が閾値未満である入力対象文字があると判定したときは(ステップS204:Y)、評価値の低い順に3つの入力対象文字を訂正対象文字として抽出する(ステップS205)。例えば、図19に示すように、評価値の低い3つの入力対象文字は、「X」、「P」及び「R」であり、これらが訂正対象文字として抽出される。これらの入力対象文字は、誤入力の可能性の高い文字であるため、本実施の形態では、これを抽出するようにしている。   When the CPU 111 determines that there is an input target character whose evaluation value is less than the threshold (step S204: Y), the CPU 111 extracts three input target characters as correction target characters in order of the low evaluation value (step S205). For example, as shown in FIG. 19, the three input target characters having low evaluation values are “X”, “P”, and “R”, and these are extracted as correction target characters. Since these input target characters are characters with a high possibility of erroneous input, in the present embodiment, these are extracted.

続いて、CPU111は、訂正候補ボタンを文字入力画面に表示する(ステップS206)。具体的には、CPU111は、例えば、図22に示すように、文字表示領域CRに表示された「XOMPUTER」の文字列のうち、評価値の低い3つの入力対象文字である「X」、「P」及び「R」について、訂正対象の文字であることが認識できるように、強調表示を行う。そして、「XOMPUTER」の文字列の近傍に、文字「X」に対応する訂正候補ボタンTS1、文字「P」に対応する訂正候補ボタンTS2及び文字「R」に対応する訂正候補ボタンTS3をそれぞれ表示する。訂正候補ボタンTS1は、文字「X」に対応する置換文字候補としての「X」、「C」の各文字ボタンにより構成されている。訂正候補ボタンTS2は、文字「P」に対応する置換文字候補としての「O」、「P」の各文字ボタンにより構成されている。訂正候補ボタンTS3は、文字「R」に対応する置換文字候補としての「D」、「F」、「R」の各文字ボタンにより構成されている。これらの訂正候補ボタンTS1〜TS3には、タッチ操作が行われた位置が認識可能に表示されている。これにより、ユーザにタッチ操作が行われた位置を認識させることができる。なお、タッチ操作が行われた位置を表示しないようにしてもよい。   Subsequently, the CPU 111 displays a correction candidate button on the character input screen (step S206). Specifically, for example, as illustrated in FIG. 22, the CPU 111 selects “X”, “X”, which are three input target characters having a low evaluation value from the character string “XOMPUTER” displayed in the character display area CR. Highlighting is performed for “P” and “R” so that they can be recognized as characters to be corrected. Then, a correction candidate button TS1 corresponding to the character “X”, a correction candidate button TS2 corresponding to the character “P”, and a correction candidate button TS3 corresponding to the character “R” are displayed in the vicinity of the character string “XOMPUTER”. To do. The correction candidate button TS1 includes character buttons “X” and “C” as replacement character candidates corresponding to the character “X”. The correction candidate button TS2 is composed of character buttons “O” and “P” as replacement character candidates corresponding to the character “P”. The correction candidate button TS3 includes character buttons “D”, “F”, and “R” as replacement character candidates corresponding to the character “R”. On these correction candidate buttons TS1 to TS3, the position where the touch operation is performed is displayed in a recognizable manner. Thereby, the user can recognize the position where the touch operation is performed. Note that the position where the touch operation is performed may not be displayed.

次に、CPU111は、訂正候補ボタンTS1〜TS3を構成する文字ボタンの何れかに対してタッチ操作されたか否かを判定する(ステップS207)。CPU111は、訂正候補ボタンTS1〜TS3を構成する文字ボタンの何れかに対してタッチ操作されたと判定したときは(ステップS207:Y)、タッチ操作した文字ボタンに対応する入力対象文字をタッチ操作された文字ボタンに対応する文字に置き換える(ステップS208)。例えば、図22において、訂正候補ボタンTS1における文字ボタン「C」に対するタッチ操作が行われた場合には、図23に示すように、入力対象文字「X」が「C」に訂正される。また、データテーブルに保存されている入力対象文字についても「X」から「C」に訂正される。   Next, the CPU 111 determines whether or not a touch operation has been performed on any of the character buttons constituting the correction candidate buttons TS1 to TS3 (step S207). When the CPU 111 determines that a touch operation has been performed on any of the character buttons constituting the correction candidate buttons TS1 to TS3 (step S207: Y), the input target character corresponding to the touched character button is touch-operated. The character button is replaced with the character corresponding to the character button (step S208). For example, in FIG. 22, when the touch operation is performed on the character button “C” in the correction candidate button TS1, the input target character “X” is corrected to “C” as shown in FIG. Further, the input target character stored in the data table is also corrected from “X” to “C”.

CPU111は、訂正対象である入力対象文字の評価値を最大値にした後(ステップS209)、ステップS204の処理を実行する。   The CPU 111 executes the process of step S204 after setting the evaluation value of the input target character to be corrected to the maximum value (step S209).

一方、CPU111は、ステップS207において、訂正候補ボタンTS1〜TS3を構成する文字ボタンの何れかに対してタッチ操作されたと判定しないときは(ステップS207:N)、訂正ボタンPに対するタッチ操作が行われたか否かを判定する(ステップS210)。具体的には、図22に示すように、文字入力画面DPの文字表示領域CRに表示された訂正候補ボタンTS3の右側に表示された訂正ボタンPに対するタッチ操作が行われたか否かにより判定を行うことができる。   On the other hand, when the CPU 111 does not determine in step S207 that a touch operation has been performed on any of the character buttons constituting the correction candidate buttons TS1 to TS3 (step S207: N), the touch operation on the correction button P is performed. It is determined whether or not (step S210). Specifically, as shown in FIG. 22, the determination is made based on whether or not a touch operation has been performed on the correction button P displayed on the right side of the correction candidate button TS3 displayed in the character display area CR of the character input screen DP. It can be carried out.

CPU111は、訂正ボタンPに対するタッチ操作が行われたと判定したときは(ステップS210:Y)、訂正候補ボタンTS1〜TS3の表示を終了した後(ステップS211)、訂正対象の文字以外の文字について訂正を行う訂正モードを実行し(ステップS212)、この処理を終了する。訂正モードでは、例えば、カーソルキーの前後、「DEL」キー等、図17におけるソフトウェアキーボードKBの操作により文字の訂正を行うことができる。   When the CPU 111 determines that a touch operation has been performed on the correction button P (step S210: Y), the CPU 111 ends the display of the correction candidate buttons TS1 to TS3 (step S211), and then corrects characters other than the correction target characters. Is executed (step S212), and this process is terminated. In the correction mode, for example, characters can be corrected by operating the software keyboard KB in FIG. 17 such as before and after the cursor key and the “DEL” key.

一方、CPU111は、訂正ボタンPに対するタッチ操作が行われたと判定しないときは(ステップS210:N)、確定ボタンQに対するタッチ操作が行われたか否かを判定する(ステップS213)。具体的には、図22に示すように、文字入力画面DPの文字表示領域CRに表示された訂正候補ボタンTS3の右側に表示された確定ボタンQに対するタッチ操作が行われたか否かにより判定を行うことができる。   On the other hand, when the CPU 111 does not determine that the touch operation has been performed on the correction button P (step S210: N), the CPU 111 determines whether or not the touch operation has been performed on the confirmation button Q (step S213). Specifically, as shown in FIG. 22, the determination is made based on whether or not a touch operation is performed on the confirmation button Q displayed on the right side of the correction candidate button TS3 displayed in the character display area CR of the character input screen DP. It can be carried out.

CPU111は、確定ボタンQに対するタッチ操作が行われたと判定したときは(ステップS213:Y)、訂正候補ボタンTSの表示を終了して入力を確定した後(ステップS214)、この処理を終了する。   When the CPU 111 determines that a touch operation has been performed on the confirmation button Q (step S213: Y), the CPU 111 ends the display of the correction candidate button TS and confirms the input (step S214), and then ends this process.

一方、CPU111は、確定ボタンQに対するタッチ操作が行われたと判定しないときは(ステップS213:N)、ステップS207の処理を実行する。   On the other hand, when the CPU 111 does not determine that the touch operation on the confirmation button Q has been performed (step S213: N), the CPU 111 executes the process of step S207.

また、CPU111は、ステップS204において、評価値が閾値未満である入力対象文字があると判定しないときは(ステップS204:N)、ステップS212の処理を実行する。   Further, when the CPU 111 does not determine in step S204 that there is an input target character whose evaluation value is less than the threshold (step S204: N), the CPU 111 executes the process of step S212.

なお、文字入力が続いて行われた場合には、入力処理が再度起動されることとなる。   If the character input is subsequently performed, the input process is activated again.

なお、本実施の形態では、評価値の低い順に3つの入力対象文字を訂正対象文字として抽出するようにしたが、訂正対象文字として抽出する数については適宜設定することができる。また、評価値が閾値未満である入力対象文字の全てを訂正対象文字として抽出するようにしてもよい。   In the present embodiment, the three input target characters are extracted as correction target characters in order from the lowest evaluation value, but the number to be extracted as correction target characters can be set as appropriate. Further, all input target characters whose evaluation value is less than the threshold value may be extracted as correction target characters.

また、本実施の形態において、訂正が行われた際に、訂正前後の文字に対応する検出領域の範囲を変更するように制御してもよい。具体的には、CPU111は、入力対象文字の訂正が行われた際に、訂正前の入力対象文字が「X」で、訂正後の入力対象文字が「C」である場合には、図24(a)に示すように設定された「X」キー121xに対応する「X」検出領域131xと「C」キー121cに対応する「C」検出領域131cの範囲を、図24(b)に示すようにそれぞれ変更し、「X」検出領域131xの範囲を小さくして、「C」検出領域131cの範囲を大きくする。これにより、ユーザの誤入力を改善することができる。
なお、検出領域の範囲を変更するタイミングは、訂正が1回行われたときでもよいし、複数回行われたときでもよい。また、訂正回数に応じて、検出領域の範囲の変更量を可変するようにしてもよい。また、評価値に応じて、検出領域の範囲の変更量を可変するようにしてもよい。また、タッチ操作の位置に応じて検出領域の範囲の変更量を可変するようにしてもよい。
In the present embodiment, when correction is performed, control may be performed so as to change the range of the detection area corresponding to the characters before and after correction. Specifically, the CPU 111 corrects the input target character when the input target character before correction is “X” and the input target character after correction is “C”. FIG. 24B shows the range of the “X” detection area 131x corresponding to the “X” key 121x set as shown in (a) and the “C” detection area 131c corresponding to the “C” key 121c. As described above, the range of the “X” detection region 131x is reduced and the range of the “C” detection region 131c is increased. Thereby, a user's erroneous input can be improved.
The timing for changing the range of the detection area may be when correction is performed once or when it is performed a plurality of times. Further, the amount of change in the detection area range may be varied according to the number of corrections. Further, the change amount of the detection area range may be varied according to the evaluation value. Further, the change amount of the detection area range may be varied according to the position of the touch operation.

以上説明したように、本実施の形態によれば、タッチパネル3(103)は、画面表示を行う表示部3a(103a)と、表示部3a(103a)に表示された画面の位置のタッチ入力を受け付ける入力部3b(103b)とを一体的に備える。CPU11(111)は、文字表示領域CRを有する文字入力画面DPを表示部3a(103a)に表示させ、複数文字を配置したソフトウェアキーボードKBをタッチパネル3(103)に対応付け、入力部3b(103b)にてタッチ入力された位置に対応するソフトウェアキーボードKBの文字を入力対象文字として文字表示領域CRに表示させる。CPU11(111)は、入力部3b(103b)にてタッチ入力されたときの入力態様に基づいて入力対象文字毎の評価値を求める。CPU11(111)は、求められた入力対象文字毎の評価値に基づいて、入力対象文字の中から訂正対象文字を判定する。CPU11(111)は、判定された訂正対象文字を表示部3a(103a)に識別可能に表示させる。その結果、誤入力を速やかに認識させることができる。   As described above, according to the present embodiment, the touch panel 3 (103) has the display unit 3a (103a) that performs screen display and the touch input of the position of the screen displayed on the display unit 3a (103a). An input unit 3b (103b) is integrally provided. The CPU 11 (111) displays the character input screen DP having the character display area CR on the display unit 3a (103a), associates the software keyboard KB on which a plurality of characters are arranged with the touch panel 3 (103), and inputs the input unit 3b (103b). The character of the software keyboard KB corresponding to the position input by touching is displayed in the character display area CR as an input target character. CPU11 (111) calculates | requires the evaluation value for every input object character based on the input mode when a touch input is performed in the input part 3b (103b). The CPU 11 (111) determines a correction target character from the input target characters based on the obtained evaluation value for each input target character. The CPU 11 (111) displays the determined correction target character on the display unit 3a (103a) in an identifiable manner. As a result, it is possible to promptly recognize an erroneous input.

また、本実施の形態によれば、CPU11(111)は、入力部3b(103b)にてタッチ入力された位置に対応する入力対象文字のタッチ検出範囲の中心位置からタッチ入力された位置までの距離を算出する。CPU11(111)は、算出された距離に基づいて入力対象文字毎の評価値を求める。その結果、誤入力を適切に検出できるようになる。   Further, according to the present embodiment, the CPU 11 (111) moves from the center position of the touch detection range of the input target character corresponding to the position touch-inputted by the input unit 3b (103b) to the position touch-input. Calculate the distance. CPU11 (111) calculates | requires the evaluation value for every input object character based on the calculated distance. As a result, erroneous input can be detected appropriately.

また、本実施の形態によれば、CPU11(111)は、入力部3b(103b)にてタッチ入力が開始されたときの入力起点位置と、入力起点位置からスライド操作された後、タッチ入力が終了したときの入力終点位置とを入力対象文字毎に検出する。CPU11(111)は、検出結果に基づいて入力対象文字毎の評価値を求める。その結果、誤入力を適切に検出できるようになる。   Further, according to the present embodiment, the CPU 11 (111) performs the touch input after the input start position when the touch input is started by the input unit 3b (103b) and the slide operation from the input start position. The input end point position at the end is detected for each input target character. CPU11 (111) calculates | requires the evaluation value for every input object character based on a detection result. As a result, erroneous input can be detected appropriately.

また、本実施の形態によれば、CPU11(111)は、検出された入力起点位置から入力終点位置までの間においてスライド操作された長さを検出する。CPU11(111)は、検出された長さに基づいて入力対象文字毎の評価値を求める。その結果、誤入力を適切に検出できるようになる。   Further, according to the present embodiment, the CPU 11 (111) detects the length of the sliding operation from the detected input start position to the input end position. CPU11 (111) calculates | requires the evaluation value for every input object character based on the detected length. As a result, erroneous input can be detected appropriately.

また、本実施の形態によれば、CPU11は、検出された入力起点位置と入力終点位置とを結ぶ直線の角度を検出する。CPU11は、検出された角度に基づいて入力対象文字毎の評価値を求める。その結果、誤入力を適切に検出できるようになる。   Further, according to the present embodiment, the CPU 11 detects the angle of a straight line connecting the detected input start position and input end position. CPU11 calculates | requires the evaluation value for every input object character based on the detected angle. As a result, erroneous input can be detected appropriately.

また、本実施の形態によれば、CPU11(111)は、少なくとも評価値が最小である入力対象文字を訂正対象文字として判定する。その結果、誤入力の蓋然性が高い入力対象文字についてより正確に認識させることができる。   Further, according to the present embodiment, the CPU 11 (111) determines an input target character having at least a minimum evaluation value as a correction target character. As a result, it is possible to more accurately recognize an input target character having a high probability of erroneous input.

また、本実施の形態によれば、CPU11(111)は、訂正対象文字と判定された入力対象文字に対する入力部3b(103b)のタッチ入力による入力対象文字の訂正入力を受け付ける。CPU11(111)は、表示部3a(103a)に表示された訂正対象文字と判定された入力対象文字を訂正入力が受け付けられた入力対象文字に置き換える。その結果、誤入力があった場合にこれを適切に訂正することができる。   Further, according to the present embodiment, the CPU 11 (111) receives a correction input of the input target character by the touch input of the input unit 3b (103b) for the input target character determined to be the correction target character. The CPU 11 (111) replaces the input target character determined as the correction target character displayed on the display unit 3a (103a) with the input target character for which the correction input has been accepted. As a result, when there is an erroneous input, this can be corrected appropriately.

また、本実施の形態によれば、CPU11(111)は、訂正対象文字と判定された入力対象文字に対応する置換文字候補を文字表示領域CRに表示された訂正対象文字の近傍に表示させる。CPU11(111)は、置換文字候補の表示に対応する位置に対するタッチ入力が行われたとき、当該置換文字候補の文字を置き換える入力対象文字として受け付ける。その結果、簡便な操作により効率よく訂正を行うことができる。   Further, according to the present embodiment, the CPU 11 (111) displays the replacement character candidate corresponding to the input target character determined as the correction target character in the vicinity of the correction target character displayed in the character display area CR. When a touch input is performed on a position corresponding to the display of the replacement character candidate, the CPU 11 (111) accepts it as an input target character that replaces the character of the replacement character candidate. As a result, correction can be performed efficiently by a simple operation.

また、本実施の形態によれば、CPU11(111)は、訂正入力が受け付けられた入力対象文字のタッチ検出範囲を拡大する。その結果、その後の誤入力を抑制することができる。   Further, according to the present embodiment, the CPU 11 (111) expands the touch detection range of the input target character for which the correction input has been accepted. As a result, subsequent erroneous input can be suppressed.

また、本実施の形態によれば、CPU11(111)は、一の文字についての訂正入力の回数が所定回数となったときに当該訂正入力が受け付けられた入力対象文字のタッチ検出範囲を拡大する。その結果、ユーザのタッチ操作の態様に対応して適切にタッチ検出範囲を拡大することができる。   Further, according to the present embodiment, the CPU 11 (111) expands the touch detection range of the input target character for which the correction input is accepted when the number of correction inputs for one character reaches a predetermined number. . As a result, the touch detection range can be appropriately expanded in accordance with the mode of the user's touch operation.

なお、上記実施形態における記述内容は、本発明に係る情報端末装置の好適な一例であり、これに限定されるものではない。   In addition, the description content in the said embodiment is a suitable example of the information terminal device which concerns on this invention, and is not limited to this.

また、本実施の形態では、閾値未満である評価値がある場合に評価値が最小である入力対象文字を訂正対象文字として抽出して、これを表示するようにしたが、評価値が閾値未満であるか否かに関わらず、最小である評価値の入力対象文字を訂正対象文字として抽出して、これを表示するようにしてもよい。   In this embodiment, when there is an evaluation value that is less than the threshold, the input target character having the smallest evaluation value is extracted as the correction target character and displayed, but the evaluation value is less than the threshold. Regardless of whether or not, the input target character of the smallest evaluation value may be extracted as the correction target character and displayed.

また、本実施の形態では、訂正候補ボタンを文字入力画面に表示し、これにより文字の訂正入力を行うようにしたが、訂正候補ボタンを表示しないで、ソフトウェアキーボードKBにより訂正入力を行わせる態様であってもよい。   In this embodiment, the correction candidate button is displayed on the character input screen, and the correction input of the character is thereby performed. However, the correction input is not performed and the correction input is performed by the software keyboard KB. It may be.

また、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Also, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory, a portable recording medium such as a CD-ROM, in addition to a ROM, a hard disk, etc. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

その他、情報端末装置を構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of each device constituting the information terminal device can be changed as appropriate without departing from the spirit of the invention.

本発明の実施の形態及び変形例を説明したが、本発明の範囲は、上述の実施の形態及び変形例に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
画面表示を行う表示手段と、前記表示手段に表示された画面の位置のタッチ入力を受け付ける入力手段とを一体的に備えるタッチパネルと、
文字表示領域を有する文字入力画面を前記表示手段に表示させ、複数文字を配置した仮想文字表を前記タッチパネルに対応付け、前記入力手段にてタッチ入力された位置に対応する前記仮想文字表の文字を入力対象文字として前記文字表示領域に表示させる表示制御手段と、
前記入力手段にてタッチ入力されたときの入力態様に基づいて前記入力対象文字毎の評価値を求める評価手段と、
前記評価手段により求められた前記入力対象文字毎の評価値に基づいて、前記入力対象文字の中から訂正対象文字を判定する訂正判定手段と、
を備え、
前記表示制御手段は、前記訂正判定手段によって判定された訂正対象文字を前記表示手段に識別可能に表示させることを特徴とする文字入力装置。
<請求項2>
前記入力手段にてタッチ入力された位置に対応する前記入力対象文字のタッチ検出範囲の中心位置から該タッチ入力された位置までの距離を算出する距離算出手段を備え、
前記評価手段は、前記距離算出手段によって算出された距離に基づいて前記入力対象文字毎の評価値を求めることを特徴とする請求項1に記載の文字入力装置。
<請求項3>
前記入力手段にてタッチ入力が開始されたときの入力起点位置と、該入力起点位置からスライド操作された後、タッチ入力が終了したときの入力終点位置とを前記入力対象文字毎に検出する位置検出手段を備え、
前記評価手段は、前記位置検出手段による検出結果に基づいて前記入力対象文字毎の評価値を求めることを特徴とする請求項1又は2に記載の文字入力装置。
<請求項4>
前記位置検出手段により検出された前記入力起点位置から前記入力終点位置までの間においてスライド操作された長さを検出する長さ検出手段を備え、
前記評価手段は、前記長さ検出手段によって検出された長さに基づいて前記入力対象文字毎の評価値を求めることを特徴とする請求項3に記載の文字入力装置。
<請求項5>
前記検出手段により検出された前記入力起点位置と前記入力終点位置とを結ぶ直線の角度を検出する角度検出手段を備え、
前記評価手段は、前記角度検出手段によって検出された角度に基づいて前記入力対象文字毎の評価値を求めることを特徴とする請求項3又は4に記載の文字入力装置。
<請求項6>
前記訂正判定手段は、少なくとも評価値が最小である入力対象文字を訂正対象文字として判定することを特徴とする請求項1〜5の何れか一項に記載の文字入力装置。
<請求項7>
前記訂正対象文字と判定された入力対象文字に対する前記入力手段のタッチ入力による入力対象文字の訂正入力を受け付ける訂正入力受付手段を備え、
前記表示制御手段は、前記表示手段に表示された前記訂正対象文字と判定された入力対象文字を前記訂正入力受付手段によって訂正入力が受け付けられた入力対象文字に置き換えることを特徴とする請求項1〜6の何れか一項に記載の文字入力装置。
<請求項8>
前記表示制御手段は、前記訂正判定手段により前記訂正対象文字と判定された入力対象文字に対応する置換文字候補を前記文字表示領域に表示された前記訂正対象文字の近傍に表示させ、
前記訂正入力受付手段は、前記置換文字候補の表示に対応する位置に対するタッチ入力が行われたとき、当該置換文字候補の文字を置き換える入力対象文字として受け付けることを特徴とする請求項7に記載の文字入力装置。
<請求項9>
前記訂正入力受付手段によって訂正入力が受け付けられた入力対象文字のタッチ検出範囲を拡大する検出範囲拡大手段を備えたことを特徴とする請求項7又は8に記載の文字入力装置。
<請求項10>
前記検出範囲拡大手段は、一の文字についての訂正入力の回数が所定回数となったときに当該訂正入力が受け付けられた入力対象文字のタッチ検出範囲を拡大することを特徴とする請求項9に記載の文字入力装置。
<請求項11>
画面表示を行う表示手段と、前記表示手段に表示された画面の位置のタッチ入力を受け付ける入力手段とを一体的に備えるタッチパネルを備えた文字入力装置のコンピュータを制御するためのプログラムであって、
前記コンピュータを、
文字表示領域を有する文字入力画面を前記表示手段に表示させ、複数文字を配置した仮想文字表を前記タッチパネルに対応付け、前記入力手段にてタッチ入力された位置に対応する前記仮想文字表の文字を入力対象文字として前記文字表示領域に表示させる表示制御手段、
前記入力手段にてタッチ入力されたときの入力態様に基づいて前記入力対象文字毎の評価値を求める評価手段、
前記評価手段により求められた前記入力対象文字毎の評価値に基づいて、前記入力対象文字の中から訂正対象文字を判定する訂正判定手段、
前記訂正判定手段によって判定された訂正対象文字を前記表示手段に識別可能に表示させる訂正対象表示制御手段、
として機能させるためのプログラム。
Although the embodiments and modifications of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments and modifications, and the scope of the invention described in the claims and equivalents thereof are described. Includes range.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
A touch panel that integrally includes display means for performing screen display, and input means for receiving a touch input of the position of the screen displayed on the display means;
A character input screen having a character display area is displayed on the display means, a virtual character table in which a plurality of characters are arranged is associated with the touch panel, and characters in the virtual character table corresponding to a position touch-input by the input means Display control means for displaying in the character display area as an input target character;
Evaluation means for obtaining an evaluation value for each input target character based on an input mode when touch input is performed by the input means;
Correction determination means for determining a correction target character from the input target characters based on an evaluation value for each input target character obtained by the evaluation means;
With
The display control means causes the display means to display the correction target character determined by the correction determination means in an identifiable manner.
<Claim 2>
A distance calculating unit that calculates a distance from a center position of the touch detection range of the input target character corresponding to the position input by the input unit to the position input by the touch;
The character input device according to claim 1, wherein the evaluation unit obtains an evaluation value for each input target character based on the distance calculated by the distance calculation unit.
<Claim 3>
Position for detecting, for each input target character, an input start position when touch input is started by the input means, and an input end position when touch input is ended after a slide operation is performed from the input start position. A detection means,
The character input device according to claim 1, wherein the evaluation unit obtains an evaluation value for each input target character based on a detection result by the position detection unit.
<Claim 4>
A length detection means for detecting a length of a slide operation between the input start position detected by the position detection means and the input end position;
The character input device according to claim 3, wherein the evaluation unit obtains an evaluation value for each input target character based on the length detected by the length detection unit.
<Claim 5>
An angle detection means for detecting an angle of a straight line connecting the input start position detected by the detection means and the input end position;
The character input device according to claim 3, wherein the evaluation unit obtains an evaluation value for each of the input target characters based on the angle detected by the angle detection unit.
<Claim 6>
The character input device according to claim 1, wherein the correction determination unit determines an input target character having a minimum evaluation value as a correction target character.
<Claim 7>
A correction input receiving means for receiving a correction input of the input target character by touch input of the input means for the input target character determined to be the correction target character;
The display control means replaces an input target character determined to be the correction target character displayed on the display means with an input target character whose correction input has been received by the correction input receiving means. The character input device according to any one of?
<Claim 8>
The display control means displays a replacement character candidate corresponding to the input target character determined as the correction target character by the correction determination means in the vicinity of the correction target character displayed in the character display area,
The correction input accepting unit accepts an input target character that replaces a character of the replacement character candidate when a touch input is performed on a position corresponding to the display of the replacement character candidate. Character input device.
<Claim 9>
9. The character input device according to claim 7, further comprising detection range expansion means for expanding a touch detection range of an input target character whose correction input has been received by the correction input reception means.
<Claim 10>
10. The detection range expansion unit expands a touch detection range of an input target character for which the correction input is accepted when the number of correction inputs for one character reaches a predetermined number. The character input device described.
<Claim 11>
A program for controlling a computer of a character input device including a touch panel that integrally includes display means for performing screen display and input means for receiving a touch input of the position of the screen displayed on the display means,
The computer,
A character input screen having a character display area is displayed on the display means, a virtual character table in which a plurality of characters are arranged is associated with the touch panel, and characters in the virtual character table corresponding to a position touch-input by the input means Display control means for displaying as an input target character in the character display area,
Evaluation means for obtaining an evaluation value for each input target character based on an input mode when touch input is performed by the input means;
Correction determination means for determining a correction target character from the input target characters based on an evaluation value for each input target character obtained by the evaluation means;
Correction target display control means for displaying the correction target character determined by the correction determination means in an identifiable manner on the display means;
Program to function as.

1 情報端末装置
3 タッチパネル
3a 表示部
3b 入力部
11 CPU
DP 文字入力画面
KB ソフトウェアキーボード
CR 文字表示領域
100 情報端末装置
103 タッチパネル
103a 表示部
103b 入力部
111 CPU
DESCRIPTION OF SYMBOLS 1 Information terminal device 3 Touch panel 3a Display part 3b Input part 11 CPU
DP character input screen KB software keyboard CR character display area 100 information terminal device 103 touch panel 103a display unit 103b input unit 111 CPU

Claims (4)

所定の文字に対応した第1選択キーがタッチ選択されることにより該タッチ選択された第1選択キーに対応する文字が属すグループの各文字をそれぞれが第2選択キーとなるように一覧表示させるとともに、該一覧表示された前記第2選択キーの何れかがタッチ選択された場合に該タッチ選択された第2選択キーに対応する文字を入力文字として特定する文字入力装置であって、
前記第1選択キーに対するタッチ選択から前記第2選択キーに対するタッチ選択に至るまでのタッチ態様に基づいて文字の誤入力の可能性を示す評価値を入力文字毎に導出する導出手段と、
前記導出手段により導出された評価値に基づいて誤入力の可能性が高い文字を識別表示させるとともに、前記誤入力の可能性が高い文字として識別表示された文字が入力文字として特定される際に前記第2選択キーとして一覧表示されていた各文字を、前記誤入力の可能性が高い文字と置き換える候補文字として表示させる表示制御手段と、
を備えたことを特徴とする文字入力装置。
When the first selection key corresponding to the predetermined character is touch-selected, each character of the group to which the character corresponding to the touch-selected first selection key belongs is displayed in a list so that each character becomes a second selection key. And a character input device that identifies, as an input character, a character corresponding to the second selection key selected by touch when any of the second selection keys displayed in the list is touch-selected,
Derivation means for deriving, for each input character, an evaluation value indicating the possibility of erroneous input of a character based on a touch mode from touch selection for the first selection key to touch selection for the second selection key;
When characters having a high possibility of erroneous input are identified and displayed based on the evaluation value derived by the deriving means, and characters identified and displayed as characters having a high possibility of erroneous input are specified as input characters Display control means for displaying each character displayed as a list as the second selection key as a candidate character to be replaced with a character having a high possibility of erroneous input;
A character input device comprising:
前記表示制御手段は、前記訂正文字候補を表示させる際は、前記識別表示された文字が入力文字として特定されたときのレイアウトで前記候補文字を表示させることを特徴とする請求項1に記載の文字入力装置。 2. The display control unit according to claim 1, wherein when displaying the corrected character candidate, the display control unit displays the candidate character in a layout when the identified and displayed character is specified as an input character . Character input device. 前記表示制御手段は、前記訂正文字候補を表示させる際は、前記識別表示された文字が入力文字として特定されたときの表示位置とは異なる位置に前記候補文字を表示させることを特徴とする請求項2に記載の文字入力装置。 Wherein the display control unit, wherein when displaying the corrected character candidate claims, characterized in that for displaying the candidate character in a position different from the display position when the identification character is identified as the input character Item 3. The character input device according to Item 2 . コンピュータを、所定の文字に対応した第1選択キーがタッチ選択されることにより該タッチ選択された第1選択キーに対応する文字が属すグループの各文字をそれぞれが第2選択キーとなるように一覧表示させるとともに、該一覧表示された前記第2選択キーの何れかがタッチ選択された場合に該タッチ選択された第2選択キーに対応する文字を入力文字として特定する文字入力手段として機能させるプログラムであって、When the computer selects the first selection key corresponding to a predetermined character by touching, the characters of the group to which the character corresponding to the touch-selected first selection key belongs become the second selection key. A list is displayed, and when any one of the second selection keys displayed in the list is touch-selected, the character corresponding to the touch-selected second selection key is specified as an input character. A program,
前記第1選択キーに対するタッチ選択から前記第2選択キーに対するタッチ選択に至るまでのタッチ態様に基づいて文字の誤入力の可能性を示す評価値を入力文字毎に導出する導出手段、Deriving means for deriving, for each input character, an evaluation value indicating the possibility of erroneous input of a character based on a touch mode from touch selection for the first selection key to touch selection for the second selection key;
前記導出手段により導出された評価値に基づいて誤入力の可能性が高い文字を識別表示させるとともに、前記誤入力の可能性が高い文字として識別表示された文字が入力文字として特定される際に前記第2選択キーとして一覧表示されていた各文字を、前記誤入力の可能性が高い文字と置き換える候補文字として表示させる表示制御手段、When characters having a high possibility of erroneous input are identified and displayed based on the evaluation value derived by the deriving means, and characters identified and displayed as characters having a high possibility of erroneous input are specified as input characters Display control means for displaying each character displayed as a list as the second selection key as a candidate character to replace the character with a high possibility of erroneous input;
として機能させるためのプログラム。Program to function as.
JP2016213976A 2016-11-01 2016-11-01 Character input device and program Active JP6226057B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016213976A JP6226057B2 (en) 2016-11-01 2016-11-01 Character input device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016213976A JP6226057B2 (en) 2016-11-01 2016-11-01 Character input device and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013171372A Division JP2015041845A (en) 2013-08-21 2013-08-21 Character input device and program

Publications (2)

Publication Number Publication Date
JP2017084369A JP2017084369A (en) 2017-05-18
JP6226057B2 true JP6226057B2 (en) 2017-11-08

Family

ID=58711962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016213976A Active JP6226057B2 (en) 2016-11-01 2016-11-01 Character input device and program

Country Status (1)

Country Link
JP (1) JP6226057B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109562327B (en) * 2016-08-17 2022-06-03 三菱化学可菱水株式会社 Hollow fiber membrane module, degassing and gas supply device, inkjet printer, and carbonated spring manufacturing device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101785001B (en) * 2007-08-23 2013-09-18 京瓷株式会社 Input device
JP5623053B2 (en) * 2009-10-08 2014-11-12 京セラ株式会社 Input device
JP2012243229A (en) * 2011-05-24 2012-12-10 Sharp Corp Display device and display method for input correction
JP2013041567A (en) * 2011-07-21 2013-02-28 Sharp Corp Character input device
JP5102894B1 (en) * 2011-08-30 2012-12-19 シャープ株式会社 Character input device and portable terminal device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109562327B (en) * 2016-08-17 2022-06-03 三菱化学可菱水株式会社 Hollow fiber membrane module, degassing and gas supply device, inkjet printer, and carbonated spring manufacturing device

Also Published As

Publication number Publication date
JP2017084369A (en) 2017-05-18

Similar Documents

Publication Publication Date Title
JP2015041845A (en) Character input device and program
US9201510B2 (en) Method and device having touchscreen keyboard with visual cues
JP5572059B2 (en) Display device
KR20150104619A (en) Typing method and typing device for circular touch-sensitive keyboard
JP2010108118A (en) Mobile terminal and character display program
KR20140136066A (en) Smart user-customized virtual keyboard
JP2009205303A (en) Input method and input device
JP2015200948A (en) System and method for entering one or more inputs associated with multi-input targets
WO2012086133A1 (en) Touch panel device
US20130300688A1 (en) Information processing apparatus, information processing method, and program
JP5102894B1 (en) Character input device and portable terminal device
JP5931627B2 (en) Portable terminal device, program, and input correction method
JP2007287015A (en) Input device for selecting item described in a hierarchical structure, character input device, and input program
US10338809B2 (en) Program for character input system, character input device, and information processing device
JP6226057B2 (en) Character input device and program
JP5455343B2 (en) Input device
JP6085529B2 (en) Character input device
JP2006293987A (en) Apparatus, method and program for character input, document creation apparatus, and computer readable recording medium stored with the program
JP2014048783A (en) Input device
JP2014167712A (en) Information processing device, information processing method, and program
JP6135242B2 (en) Terminal device, key input method, and key input program
JP5521643B2 (en) Mobile terminal device
JP6086035B2 (en) Portable electronic device and character input support program
US20120331383A1 (en) Apparatus and Method for Input of Korean Characters
JP6094394B2 (en) Portable electronic device and character input support program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170925

R150 Certificate of patent or registration of utility model

Ref document number: 6226057

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150