JP5627372B2 - Character input device, character input method, and character input program - Google Patents

Character input device, character input method, and character input program Download PDF

Info

Publication number
JP5627372B2
JP5627372B2 JP2010217246A JP2010217246A JP5627372B2 JP 5627372 B2 JP5627372 B2 JP 5627372B2 JP 2010217246 A JP2010217246 A JP 2010217246A JP 2010217246 A JP2010217246 A JP 2010217246A JP 5627372 B2 JP5627372 B2 JP 5627372B2
Authority
JP
Japan
Prior art keywords
text
touch panel
detected
character
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010217246A
Other languages
Japanese (ja)
Other versions
JP2012073757A (en
Inventor
須藤 智浩
智浩 須藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2010217246A priority Critical patent/JP5627372B2/en
Publication of JP2012073757A publication Critical patent/JP2012073757A/en
Application granted granted Critical
Publication of JP5627372B2 publication Critical patent/JP5627372B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、文字入力装置、文字入力方法および文字入力プログラムに関する。   The present invention relates to a character input device, a character input method, and a character input program.

近年、直感的な操作を可能にするとともに、キーボードのように物理的に大きな面積を必要とするデバイスを具備しない小型の文字入力装置を実現するために、タッチパネルが広く利用されるようになっている。タッチパネルを用いて文字を入力するための技術として、タッチパネル上で文字を手書き入力する技術(例えば、特許文献1)と、タッチパネル上に表示された仮想的なキーボード(以下、「仮想キーボード」という)を用いて文字を入力する技術(例えば、特許文献2)が知られている。   In recent years, touch panels have been widely used to realize a small character input device that enables intuitive operation and does not include a device that requires a physically large area such as a keyboard. Yes. As a technique for inputting characters using the touch panel, a technique for inputting characters by handwriting on the touch panel (for example, Patent Document 1) and a virtual keyboard (hereinafter referred to as “virtual keyboard”) displayed on the touch panel. A technique (for example, Patent Document 2) for inputting characters using a character is known.

特開2003−141448号公報JP 2003-141448 A 特開2008−108233号公報JP 2008-108233 A

しかしながら、タッチパネル上で文字を手書き入力する従来技術には、入力と文字認識処理に時間がかかるため高速な文字入力が困難であるという問題があった。また、仮想キーボードを用いて文字を入力する従来技術でも、入力したい文字に対応するキーごとに指をタッチパネルに対して上げ下げする動作を繰り返す必要があったため、高速な文字入力が困難であった。   However, the conventional technique for inputting characters by handwriting on the touch panel has a problem that it is difficult to input characters at high speed because input and character recognition processing take time. Further, even in the conventional technique for inputting characters using a virtual keyboard, it is necessary to repeat the operation of raising and lowering the finger with respect to the touch panel for each key corresponding to the character to be input, so that high-speed character input is difficult.

本発明は、上記に鑑みてなされたものであって、タッチパネル上で高速に文字を入力することを可能にする文字入力装置、文字入力方法および文字入力プログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a character input device, a character input method, and a character input program that enable high-speed character input on a touch panel.

上述した課題を解決し、目的を達成するために、本発明は、文字入力装置であって、表面に対する動作を検出するタッチパネルと、前記タッチパネル上にテキストを表示させる制御部とを備え、前記制御部は、前記テキストの表示領域において前記タッチパネルの表面に接触したままで行われる特定の動作が検出された場合に、前記テキストのうち、前記所定動作が検出された位置に対応する部分を編集箇所の基準として、前記テキストの編集処理を行うことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is a character input device, which includes a touch panel that detects an operation on a surface, and a control unit that displays text on the touch panel. When a specific action performed while touching the surface of the touch panel is detected in the text display area, the part edits a portion of the text corresponding to the position where the predetermined action is detected. As a criterion for the above, the text editing process is performed.

ここで、前記制御部は、前記タッチパネル上にそれぞれが特定の文字と対応づけられた複数のボタンを表示させ、前記タッチパネルの表面の第1の位置で接触が開始され、前記タッチパネルの表面の第2の位置まで接触を維持する接触動作が前記タッチパネルによって検出された場合に、前記第1の位置で接触が開始されてから前記第2の位置まで接触が維持される間に接触が検出された各位置を結ぶ軌跡上に表示されているボタンに対応する文字を含む文字列を入力として受け付け、入力として受け付けた文字列を連結して前記テキストとして表示させることが好ましい。   Here, the control unit displays a plurality of buttons each associated with a specific character on the touch panel, and contact is started at a first position on the surface of the touch panel. When a contact operation that maintains contact up to position 2 is detected by the touch panel, contact is detected while contact is maintained up to the second position after contact is started at the first position. It is preferable that a character string including characters corresponding to the buttons displayed on the trajectory connecting the positions is received as an input, and the character strings received as the input are connected and displayed as the text.

また、前記制御部は、前記編集処理として、前記テキストのうち、前記所定動作が検出された位置に対応する部分に、新たに入力を受け付けた文字列を挿入することが好ましい。   Further, it is preferable that the control unit inserts a character string that has been newly accepted into a portion of the text corresponding to the position where the predetermined action is detected as the editing process.

また、前記制御部は、前記編集処理として、前記テキストのうち、第1の所定動作が検出された位置に対応する第1の部分と第2の所定動作が検出された位置に対応する第2の部分とに囲まれた部分を、新たに入力を受け付けた文字列と置換することが好ましい。   Further, the control unit, as the editing process, includes a first portion corresponding to a position where a first predetermined action is detected and a second position corresponding to a position where a second predetermined action is detected in the text. It is preferable to replace the part surrounded by the part with a character string that has been newly input.

また、前記制御部は、前記編集処理として、前記テキストのうち、第1の所定動作が検出された位置に対応する第1の部分と第2の所定動作が検出された位置に対応する第2の部分とに囲まれた部分を、当該部分の変換前の文字列に基づく変換処理によって得られた文字列と置換することが好ましい。   Further, the control unit, as the editing process, includes a first portion corresponding to a position where a first predetermined action is detected and a second position corresponding to a position where a second predetermined action is detected in the text. It is preferable to replace the part surrounded by the part with a character string obtained by conversion processing based on the character string before conversion of the part.

また、前記制御部は、前記第2の所定動作が検出された場合に、前記テキストのうち、前記第1の部分と前記第2の部分とに囲まれた部分を他の部分と異なる態様で表示させることが好ましい。   In addition, when the second predetermined action is detected, the control unit is configured to make a part of the text surrounded by the first part and the second part different from other parts. It is preferable to display.

また、前記制御部は、移動方向を変化させる動作を前記所定動作の1つとして検出することが好ましい。   Moreover, it is preferable that the said control part detects the operation | movement which changes a moving direction as one of the said predetermined operation | movements.

また、前記制御部は、特定の形状の軌跡を描く動作を前記所定動作の1つとして検出することが好ましい。   Moreover, it is preferable that the said control part detects the operation | movement which draws the locus | trajectory of a specific shape as one of the said predetermined operation | movement.

また、前記制御部は、所定以上の期間特定の位置にとどまる動作を前記所定動作の1つとして検出することが好ましい。   Moreover, it is preferable that the said control part detects the operation | movement which stays in a specific position for a predetermined period or more as one of the said predetermined operation | movement.

また、上述した課題を解決し、目的を達成するために、本発明は、表面に対する接触を検出するタッチパネルを有する文字入力装置によって実行される文字入力方法であって、前記タッチパネル上にテキストを表示させるステップと、前記テキストの表示領域において前記タッチパネルの表面に接触したままで行われる所定動作を検出するステップと、前記テキストのうち、前記所定動作が検出された位置に対応する部分を編集箇所の基準として、前記テキストの編集処理を行うステップとを含むことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is a character input method executed by a character input device having a touch panel for detecting contact with a surface, and displays text on the touch panel. A step of detecting a predetermined action performed while touching the surface of the touch panel in the text display area; and a portion of the text corresponding to the position where the predetermined action is detected And a step of editing the text as a reference.

また、上述した課題を解決し、目的を達成するために、本発明は、文字入力プログラムであって、表面に対する接触を検出するタッチパネルを有する文字入力装置に、前記タッチパネル上にテキストを表示させるステップと、前記テキストの表示領域において前記タッチパネルの表面に接触したままで行われる所定動作を検出するステップと、前記テキストのうち、前記所定動作が検出された位置に対応する部分を編集箇所の基準として、前記テキストの編集処理を行うステップとを実行させることを特徴とする。   Further, in order to solve the above-described problems and achieve the object, the present invention is a character input program for displaying text on the touch panel on a character input device having a touch panel for detecting contact with the surface. And a step of detecting a predetermined action performed while touching the surface of the touch panel in the text display area, and a portion of the text corresponding to a position where the predetermined action is detected is used as a reference of an editing portion. And a step of performing the text editing process.

本発明に係る文字入力装置、文字入力方法および文字入力プログラムは、タッチパネル上で高速に文字を入力することを可能にするという効果を奏する。   The character input device, the character input method, and the character input program according to the present invention have the effect of allowing characters to be input at high speed on the touch panel.

図1は、携帯電話端末の外観を示す正面図である。FIG. 1 is a front view showing an appearance of a mobile phone terminal. 図2は、タッチパネル上に表示される仮想キーボードを示す図である。FIG. 2 is a diagram illustrating a virtual keyboard displayed on the touch panel. 図3は、ボタン領域内を指が通過した例を示す図である。FIG. 3 is a diagram illustrating an example in which a finger passes through the button area. 図4は、ボタン領域内で指の移動方向が変化した例を示す図である。FIG. 4 is a diagram illustrating an example in which the moving direction of the finger is changed in the button area. 図5は、ボタン領域内で指が回転する軌跡を描いた例を示す図である。FIG. 5 is a diagram illustrating an example of a trajectory in which a finger rotates within a button area. 図6は、候補を選択する場合の操作例を示す図である。FIG. 6 is a diagram illustrating an operation example when a candidate is selected. 図7は、入力済みのテキストに文字列を追加する場合の操作例を示す図である。FIG. 7 is a diagram illustrating an operation example when a character string is added to the input text. 図8は、入力済みのテキストの一部を編集する場合の操作例を示す図である。FIG. 8 is a diagram illustrating an operation example when editing a part of the input text. 図9は、携帯電話端末の機能の概略構成を示すブロック図である。FIG. 9 is a block diagram showing a schematic configuration of functions of the mobile phone terminal. 図10は、仮想キーボードデータの一例を示す図である。FIG. 10 is a diagram illustrating an example of virtual keyboard data. 図11は、携帯電話端末による文字入力処理の処理手順を示すフロー図である。FIG. 11 is a flowchart showing a processing procedure of character input processing by the mobile phone terminal. 図12は、特定動作検出処理の処理手順を示すフロー図である。FIG. 12 is a flowchart showing the procedure of the specific operation detection process. 図13は、特定の動作を検出する領域を示す図である。FIG. 13 is a diagram illustrating a region in which a specific operation is detected. 図14は、予測変換における単語の区切り位置を変更する場合の操作例を示す図である。FIG. 14 is a diagram illustrating an operation example in the case of changing the word break position in the predictive conversion. 図15は、入力済みのテキストの一部を再変換する場合の操作例を示す図である。FIG. 15 is a diagram illustrating an operation example when re-converting a part of the input text. 図16は、特定の動作によって指定した範囲に関する処理を選択するためのメニューの一例を示す図である。FIG. 16 is a diagram illustrating an example of a menu for selecting processing related to a range designated by a specific operation.

以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、文字入力装置として携帯電話端末を例として説明するが、本発明の適用対象は携帯電話端末に限定されるものではなく、タッチパネルを備える各種装置、例えば、PHS(Personal Handyphone System)、PDA、ポータブルナビゲーション装置、パーソナルコンピュータ、ゲーム機等に対しても本発明は適用できる。   Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. In the following, a mobile phone terminal will be described as an example of a character input device, but the application target of the present invention is not limited to a mobile phone terminal, and various devices including a touch panel, such as a PHS (Personal Handyphone System), The present invention can also be applied to PDAs, portable navigation devices, personal computers, game machines, and the like.

(実施形態)
図1は、本発明の文字入力装置の一実施形態である携帯電話端末1の外観を示す正面図である。携帯電話端末1は、タッチパネル2と、ボタン3A、ボタン3Bおよびボタン3Cからなる入力部3を備える。タッチパネル2は、文字、図形、画像等を表示するとともに、指、スタイラス、ペン等(以下、単に「指」という)を用いてタッチパネル2に対して行われる各種動作を検出する。入力部3は、いずれかのボタンが押下された場合に、押下されたボタンに対応する機能を起動させる。
(Embodiment)
FIG. 1 is a front view showing an appearance of a mobile phone terminal 1 which is an embodiment of the character input device of the present invention. The mobile phone terminal 1 includes a touch panel 2 and an input unit 3 including a button 3A, a button 3B, and a button 3C. The touch panel 2 displays characters, figures, images, and the like, and detects various operations performed on the touch panel 2 using a finger, stylus, pen, or the like (hereinafter simply referred to as “finger”). When any button is pressed, the input unit 3 activates a function corresponding to the pressed button.

携帯電話端末1は、利用者から文字の入力を受け付ける場合に、図2に示すように、タッチパネル2上に入力文字列候補表示領域14とテキスト表示領域15とを設けるとともに、仮想キーボード4を表示させる。入力文字列候補表示領域14は、仮想キーボード4を用いて入力された文字を含む単語等が、利用者が入力しようとしている文字列の候補として表示される領域である。テキスト表示領域15は、入力が確定した文字からなるテキストが表示される領域である。   When receiving an input of characters from a user, the mobile phone terminal 1 provides an input character string candidate display area 14 and a text display area 15 on the touch panel 2 and displays a virtual keyboard 4 as shown in FIG. Let The input character string candidate display area 14 is an area in which words and the like including characters input using the virtual keyboard 4 are displayed as candidates for the character string that the user intends to input. The text display area 15 is an area where text composed of characters whose input has been confirmed is displayed.

仮想キーボード4は、物理的なキーボードのキーを模した複数の仮想的なボタンを含む。例えば、利用者が仮想キーボード4内の「Q」のボタンに指を置いて(接触して)離す動作をすると、その動作がタッチパネル2によって検出され、携帯電話端末1は、「Q」という文字を入力として受け付ける。なお、図2では、仮想キーボード4上に各アルファベットに対応するボタンがQWERY配列で配置されているが、ボタンの配置は任意でよい。   The virtual keyboard 4 includes a plurality of virtual buttons that imitate physical keyboard keys. For example, when the user puts a finger on (touches) and releases the button “Q” in the virtual keyboard 4, the operation is detected by the touch panel 2, and the mobile phone terminal 1 displays the character “Q”. Is accepted as input. In FIG. 2, buttons corresponding to each alphabet are arranged on the virtual keyboard 4 in a QWERY arrangement, but the buttons may be arranged arbitrarily.

携帯電話端末1は、さらに、仮想キーボード4上での連続方式による文字の入力を受け付ける。連続方式とは、利用者が指をタッチパネル2に接触させたまま仮想キーボード4上を移動させることによって複数の文字を連続して入力することを可能にする方式である。連続方式では、利用者は、例えば、指をタッチパネル2に接触させたままで、「W」のボタン、「E」のボタン、「T」のボタンの順に滑るように移動させることで「WET」という文字列を入力することができる。   The cellular phone terminal 1 further accepts input of characters by a continuous method on the virtual keyboard 4. The continuous method is a method that allows a user to continuously input a plurality of characters by moving the virtual keyboard 4 while keeping a finger in contact with the touch panel 2. In the continuous method, for example, a user keeps a finger in contact with the touch panel 2 and moves the user to slide in the order of a “W” button, an “E” button, and a “T” button. You can enter a string.

このように、連続方式では、ボタン毎に指を上げ下げする動作を行わずに、タッチパネル2上で指を滑るように移動させるだけで複数の文字を入力することができるため、非常に高速に文字を入力することができる。   In this way, in the continuous method, a plurality of characters can be input simply by sliding the finger on the touch panel 2 without performing the operation of raising and lowering the finger for each button. Can be entered.

ただし、連続方式では、利用者が指を移動させた軌跡上にある各ボタンについて、利用者がそのボタンに対応する文字を入力するために意図的に触れたのか、あるいは、利用者が他のボタン上へ指を移動させるために単にその上を通過させたに過ぎないのかを判定する必要がある。例えば、仮想キーボード4の配列がQWERTY配列であり、利用者が上記の「WET」という単語を入力したいものとする。この場合、利用者の指は「E」のボタンから「T」のボタンへ移動する際に、それらのボタンの間にある「R」のボタン上を通過することになる。このため、「R」のボタンについては意図的に触れたわけではないと判定できなかった場合には、利用者の意図に反して「WERT」という文字列が入力として受け付けられてしまう。   However, in the continuous method, for each button on the locus where the user moves his / her finger, the user has intentionally touched to input the character corresponding to the button, or the user In order to move a finger over the button, it is necessary to determine if it was simply passed over it. For example, it is assumed that the arrangement of the virtual keyboard 4 is the QWERTY arrangement and the user wants to input the word “WET”. In this case, when the user's finger moves from the “E” button to the “T” button, the user's finger passes over the “R” button between the buttons. For this reason, if it cannot be determined that the “R” button is not intentionally touched, the character string “WERT” is accepted as an input against the user's intention.

そこで、携帯電話端末1は、利用者が指を移動させた軌跡上にあるボタンのうち、特定の動作(所定動作)がタッチパネル2によって検出された位置に表示されているボタンを、利用者が文字を入力するために意図的に触れたものであると判定する。具体的には、携帯電話端末1は、指の接触を開始する動作がタッチパネル2によって検出された場合、接触の開始が検出された位置にボタンがあれば、そのボタンは意図的に触れられたと判定する。また、携帯電話端末1は、指の移動が終了しタッチパネル2から離れる動作がタッチパネル2によって検出された場合、接触の終了が検出された位置にボタンがあれば、そのボタンは意図的に触れられたと判定する。   Therefore, the mobile phone terminal 1 displays a button displayed at a position where a specific operation (predetermined operation) is detected by the touch panel 2 among the buttons on the locus where the user moves the finger. It is determined that the character is intentionally touched to input a character. Specifically, when the touch panel 2 detects an operation for starting finger contact, the mobile phone terminal 1 is said to be touched intentionally if there is a button at a position where the start of contact is detected. judge. Further, when the touch panel 2 detects an operation of moving the finger and moving away from the touch panel 2, the mobile phone terminal 1 is intentionally touched if there is a button at the position where the end of contact is detected. It is determined that

また、携帯電話端末1は、指がタッチパネル2に触れたまま移動方向を変更する動作がタッチパネル2によって検出された場合、移動方向の変更が検出された位置にボタンがあれば、そのボタンは意図的に触れられたと判定する。具体的には、携帯電話端末1は、指がボタンに進入したときの移動方向と指がボタンから出るときの移動方向とを比較し、移動方向の角度差が閾値よりも大きければ、利用者が意図的にそのボタンに触れたと判定する。   Further, when an operation for changing the movement direction is detected by the touch panel 2 while the finger is touching the touch panel 2, if the mobile phone terminal 1 has a button at a position where the change of the movement direction is detected, the button is intended. It is determined that it has been touched. Specifically, the mobile phone terminal 1 compares the moving direction when the finger enters the button and the moving direction when the finger comes out of the button, and if the angle difference between the moving directions is larger than the threshold, the user Determines that the button is intentionally touched.

これは、他のボタンへの移動中において、単に通過するに過ぎない場合、指はボタン上を一定方向へ移動し、図3に示すように進入時の移動方向(ベクトル)を示すV1と脱出時の移動方向を示すV2の角度差は小さくなると考えられるためである。また、図4に示すように進入時の移動方向を示すV3と脱出時の移動方向を示すV4の角度差の角度差が大きい場合、利用者が意図的にそのボタンに触れた後に他のボタンに触れるために移動方向を変更した可能性が高いためである。つまり、このボタンが目的ボタンの一つであったと判定できる。   This is because if the finger simply passes while moving to another button, the finger moves in a certain direction on the button, and as shown in FIG. 3, escapes with V1 indicating the moving direction (vector) at the time of entry. This is because the angular difference of V2 indicating the moving direction at that time is considered to be small. In addition, as shown in FIG. 4, when the angle difference between V3 indicating the moving direction at the time of entry and V4 indicating the moving direction at the time of exit is large, another button after the user intentionally touches the button. This is because there is a high possibility that the moving direction has been changed to touch. That is, it can be determined that this button is one of the purpose buttons.

また、携帯電話端末1は、図5に示すように、指がタッチパネル2に触れたままあるボタン領域内で回転する軌跡を描いて移動する動作がタッチパネル2によって検出された場合に、利用者が意図的にそのボタンに触れたと判定する。単に通過するに過ぎない場合に指がこのような軌跡を描いて移動することはないと考えられるためである。なお、回転する軌跡に限らずに、山型や波状等の特徴的な形状の軌跡が指によってボタン領域内で描かれた場合に、利用者が意図的にそのボタンに触れたと判定することとしてもよい。   In addition, as shown in FIG. 5, when the touch panel 2 detects that the mobile phone terminal 1 moves while drawing a trajectory that rotates in a button area where the finger is still touching the touch panel 2, It is determined that the button is intentionally touched. This is because it is considered that the finger does not move along such a locus when it merely passes. In addition, it is determined that the user has intentionally touched the button when a trajectory of a characteristic shape such as a mountain shape or a wave shape is drawn with a finger in the button area, not limited to a rotating trajectory. Also good.

このようにボタン領域内で特徴的な形状の軌跡を描く指の移動が検出された場合にそのボタンが意図的に触れられたと判定することにより、利用者は同じ文字を容易に連続して入力することが可能になる。例えば、「W」という文字を3回連続して入力したい場合、利用者は「W」のボタン領域内で円を3回描くように指を移動させればよい。ここで、例えば、ボタン領域内での指の移動ベクトルの角度の総計が360度を超える度に1回転とカウントすることにより、回転数をカウントすることができる。   Thus, when the movement of a finger that draws a trajectory of a characteristic shape in the button area is detected, it is determined that the button has been intentionally touched, so that the user can easily input the same character continuously. It becomes possible to do. For example, if the user wishes to input the letter “W” three times in succession, the user may move his / her finger to draw a circle three times within the “W” button area. Here, for example, the number of rotations can be counted by counting one rotation every time the total angle of finger movement vectors in the button region exceeds 360 degrees.

また、携帯電話端末1は、指がタッチパネル2に触れたままあるボタン領域内に所定以上の期間留まった場合に、利用者が意図的にそのボタンに触れたと判定する。ここでいう所定以上の期間は、単に指がボタン領域を通過する場合に要する時間よりも十分に長い時間であり、例えば、0.5秒程度の期間でよい。   The mobile phone terminal 1 determines that the user has intentionally touched the button when the finger remains on the touch panel 2 and stays in the button area for a predetermined period or longer. The period longer than the predetermined time here is a time sufficiently longer than the time required for the finger to simply pass through the button region, and may be a period of about 0.5 seconds, for example.

このように利用者が意図する位置を特定の動作の検出によって特定する技術は、図6から図8に示すように、候補を選択する場合や、入力済みのテキストを編集する場合にも利用される。なお、以下に示す例は、ローマ字入力によって日本語が入力される場合の例である。   In this way, the technique for specifying the position intended by the user by detecting a specific action is also used when selecting a candidate or editing input text, as shown in FIGS. The In addition, the example shown below is an example in case Japanese is input by the Roman character input.

図6は、候補を選択する場合の操作例を示す図である。ステップS11では、「E」のボタン領域内に指が置かれた後、指がタッチパネル2に触れたまま、「R」、「E」、「H」、「J」、「K」の順にボタン領域を通過し、「U」のボタン領域に所定以上の期間留まっている。この場合、携帯電話端末1は、指が置かれた「E」のボタンと、進入方向と脱出方向の角度差が閾値よりも大きい「R」、「E」および「K」のボタンと、滞在期間が所定以上である「U」のボタンとが意図的に触れられたと判定する。   FIG. 6 is a diagram illustrating an operation example when a candidate is selected. In step S11, after the finger is placed in the button area of “E”, the buttons are touched in the order of “R”, “E”, “H”, “J”, “K” while the finger is touching the touch panel 2. It passes through the area and stays in the “U” button area for a predetermined period or longer. In this case, the mobile phone terminal 1 has the “E” button on which the finger is placed, the “R”, “E” and “K” buttons whose angle difference between the entry direction and the exit direction is larger than the threshold, It is determined that the “U” button whose period is equal to or longer than the predetermined time is intentionally touched.

そして、携帯電話端末1は、これらのボタンに対応する文字を連結した「EREKU」をローマ字変換して得られる「えれく」をテキスト表示領域15に表示する。この表示は、どのボタンが意図的に触れられたと判定したかを利用者に示すために行われ、「えれく」には、この文字列が未確定な文字列であることを表す下線が付される。このとき、テキスト表示領域15では、新たに文字が追加される位置を示すカーソル(図中では黒塗りの三角形として表示)が、「えれく」の直前に表示される。また、改行位置を示す改行記号が、「えれく」の直後に表示される。   Then, the cellular phone terminal 1 displays “Ereku” obtained by converting “EREKU” in which characters corresponding to these buttons are concatenated into Roman characters in the text display area 15. This display is performed to indicate to the user which button has been intentionally touched, and “Eraku” is underlined to indicate that this character string is an undetermined character string. Is done. At this time, in the text display area 15, a cursor (displayed as a black triangle in the figure) indicating a position where a character is newly added is displayed immediately before “Eraku”. In addition, a line feed symbol indicating a line feed position is displayed immediately after “Eraku”.

また、携帯電話端末1は、「えれく」を予測変換して得られた「エレクトーン」および「エレクトロニクス」という2つの文字列を入力文字列の候補として、入力文字列候補表示領域14に表示する。予測変換とは、入力済みの文字との結びつきの強さや使用頻度等に基づいて、入力途中の文字から、利用者が入力しようとしている文字列を予測する技術である。   Further, the cellular phone terminal 1 displays two character strings “Electone” and “Electronics” obtained by predictive conversion of “Eraku” as input character string candidates in the input character string candidate display area 14. . Predictive conversion is a technique for predicting a character string that a user is about to input from characters that are being input based on the strength of connection with the input characters and the frequency of use.

続いて、ステップS12では、指がタッチパネル2に触れたまま、入力文字列候補表示領域14内の「エレクトロニクス」の表示領域に入った後、進行方向を変更して表示領域の外部へ移動している。この場合、携帯電話端末1は、「エレクトロニクス」の表示領域への進入方向と脱出方向の角度差が閾値よりも大きいため、「エレクトロニクス」が選択されたと判定する。   Subsequently, in step S12, after entering the “electronics” display area in the input character string candidate display area 14 with the finger touching the touch panel 2, the traveling direction is changed to move outside the display area. Yes. In this case, the mobile phone terminal 1 determines that “electronics” has been selected because the angle difference between the entry direction to the display area of “electronics” and the escape direction is larger than the threshold value.

そして、ステップS13において、携帯電話端末1は、未確定な文字列であった「えれく」を消去して、選択された「エレクトロニクス」をカーソルの直後に表示させる。そして、携帯電話端末1は、新たに入力される文字が「エレクトロニクス」の後に追加されることを示すために、カーソルを「エレクトロニクス」の直後に移動させる。   In step S <b> 13, the cellular phone terminal 1 deletes “Eraku”, which is an undetermined character string, and displays the selected “electronics” immediately after the cursor. Then, the cellular phone terminal 1 moves the cursor immediately after “electronics” to indicate that a newly input character is added after “electronics”.

このように、入力文字列候補表示領域14に表示されている入力文字列の候補のいずれが選択されたかを特定の動作が検出された位置に基づいて判定することにより、利用者は、指をタッチパネル2に触れさせたままで、入力文字列をスムーズに選択することができる。   Thus, by determining which of the input character string candidates displayed in the input character string candidate display area 14 is selected based on the position where the specific action is detected, the user can The input character string can be selected smoothly while touching the touch panel 2.

図7は、入力済みのテキストに文字列を追加する場合の操作例を示す図である。ステップS21は、図6に示したような操作によって「エレクトロニクスの発達により」というテキストの入力が済んでいる場面を示している。この場面では、「エレクトロニクスの発達により」というテキストがテキスト表示領域15に表示され、そのテキストの直後にカーソルおよび改行記号が表示されている。また、利用者の指は、タッチパネル2に触れたまま、仮想キーボード4内に置かれている。   FIG. 7 is a diagram illustrating an operation example when a character string is added to the input text. Step S21 shows a scene in which the text "Due to the development of electronics" has been input by the operation shown in FIG. In this scene, the text “Due to the development of electronics” is displayed in the text display area 15, and a cursor and a line feed symbol are displayed immediately after the text. The user's finger is placed in the virtual keyboard 4 while touching the touch panel 2.

ここで、利用者が、入力済の「エレクトロニクス」と「の」の間に、「産業」の文字列を追加する編集を行いたいものとする。この場合、利用者は、ステップS22として、指をタッチパネル2に触れさせたままで、テキスト表示領域15に表示されている「エレクトロニクス」と「の」の間に移動させた後、進行方向を変更して仮想キーボード4内へ戻す。   Here, it is assumed that the user wants to perform editing by adding a character string “industrial” between the input “electronics” and “no”. In this case, the user changes the direction of travel after moving it between “electronics” and “no” displayed in the text display area 15 while keeping the finger touching the touch panel 2 in step S22. Return to the virtual keyboard 4.

すると、携帯電話端末1は、「エレクトロニクス」と「の」間の空間への進入方向と脱出方向の角度差が閾値よりも大きいため、「エレクトロニクス」と「の」の間が選択されたと判定する。そして、携帯電話端末1は、ステップS23として、選択された位置が新たに入力される文字の挿入位置となったことを示すために、カーソルを、「エレクトロニクス」と「の」間へ移動させる。   Then, the mobile phone terminal 1 determines that the area between “electronics” and “no” is selected because the angle difference between the direction of entering and exiting the space between “electronics” and “no” is larger than the threshold value. . In step S23, the cellular phone terminal 1 moves the cursor between “electronics” and “no” to indicate that the selected position is the insertion position of a newly input character.

続いて、利用者は、ステップS24として、上述した連続方式により「さんぎ(SANGI)」と入力する。すると、携帯電話端末1は、「さんぎ」を、未確定であることを示す下線を付して、テキスト表示領域15内のカーソルの直後に挿入して表示する。また、携帯電話端末1は、「さんぎ」を予測変換して得られた「産業」および「三行」という2つの文字列を入力文字列の候補として、入力文字列候補表示領域14に表示する。   Subsequently, in step S24, the user inputs “SANGI” by the above-described continuous method. Then, the cellular phone terminal 1 displays “Sangi” by inserting an underline indicating that it is unconfirmed and inserting it immediately after the cursor in the text display area 15. In addition, the cellular phone terminal 1 displays two character strings “industry” and “three lines” obtained by predictive conversion of “Sangi” in the input character string candidate display area 14 as input character string candidates. To do.

続いて、利用者は、ステップS25として、指をタッチパネル2に触れさせたままで、入力文字列候補表示領域14内の「産業」の表示領域内へ移動させた後、進行方向を変更して表示領域の外部へ移動させている。すると、携帯電話端末1は、「産業」の表示領域への進入方向と脱出方向の角度差が閾値よりも大きいため、「産業」が選択されたと判定する。   Subsequently, in step S25, the user moves the display to the “industry” display area in the input character string candidate display area 14 while keeping the finger touching the touch panel 2, and then displays the display by changing the traveling direction. It is moved outside the area. Then, the mobile phone terminal 1 determines that “industry” is selected because the angle difference between the entry direction and the exit direction to the display area of “industry” is larger than the threshold value.

そして、ステップS26において、携帯電話端末1は、未確定な文字列であった「さんぎ」を消去して、選択された「産業」をカーソルの直後に表示させる。そして、携帯電話端末1は、新たに入力される文字が「産業」の後に追加されることを示すために、カーソルを「産業」の直後に移動させる。   In step S <b> 26, the cellular phone terminal 1 deletes “Sangi”, which is an undetermined character string, and displays the selected “Industry” immediately after the cursor. Then, the mobile phone terminal 1 moves the cursor immediately after “Industry” to indicate that a newly input character is added after “Industry”.

このように、テキスト表示領域15に表示されている入力済みのテキストに文字列を挿入する位置を特定の動作が検出された位置に基づいて特定することにより、利用者は、指をタッチパネル2に触れさせたままで、挿入位置をスムーズに指定することができる。   In this way, by specifying the position where the character string is inserted into the input text displayed in the text display area 15 based on the position where the specific action is detected, the user can place the finger on the touch panel 2. The insertion position can be designated smoothly while touching.

図8は、入力済みのテキストの一部を編集する場合の操作例を示す図である。ステップS31は、図6に示したような操作によって「エレクトロニクス三行の発達により」というテキストの入力が済んでいる場面を示している。この場面では、「エレクトロニクス三行の発達により」というテキストがテキスト表示領域15に表示され、そのテキストの直後にカーソルおよび改行記号が表示されている。また、利用者の指は、タッチパネル2に触れたまま、仮想キーボード4内に置かれている。   FIG. 8 is a diagram illustrating an operation example when editing a part of the input text. Step S31 shows a scene in which the text “Due to the development of three electronics lines” has been input by the operation shown in FIG. In this scene, the text “Due to the development of three lines of electronics” is displayed in the text display area 15, and a cursor and a line feed symbol are displayed immediately after the text. The user's finger is placed in the virtual keyboard 4 while touching the touch panel 2.

ここで、利用者が、入力済の「三行」を「産業」へ修正したいものとする。この場合、利用者は、ステップS32として、指をタッチパネル2に触れさせたままで、テキスト表示領域15に表示されている「エレクトロニクス」と「三行」の間に移動させた後、進行方向を変更して、指を「三行」と「の」の間まで移動させる。さらに、利用者は、進行方向を変更して仮想キーボード4内へ戻す。   Here, it is assumed that the user wants to correct the input “three lines” to “industry”. In this case, the user changes the direction of travel after moving between “electronics” and “three lines” displayed in the text display area 15 while keeping the finger touching the touch panel 2 in step S32. Then, move the finger between “three lines” and “no”. Further, the user changes the traveling direction and returns it to the virtual keyboard 4.

すると、携帯電話端末1は、「エレクトロニクス」と「三行」間の空間への進入方向と脱出方向の角度差が閾値よりも大きく、また、「三行」と「の」間の空間への進入方向と脱出方向の角度差が閾値よりも大きいため、「エレクトロニクス」と「三行」の間と、「三行」と「の」の間とが選択されたと判定する。このように2カ所が連続して選択された場合、携帯電話端末1は、その2カ所に挟まれる範囲を選択範囲として、他の部分と異なる態様で表示させるとともに、選択範囲の開始位置にカーソルを移動させる。図8の例では、携帯電話端末1は、ステップS33として、「三行」の部分を選択範囲として反転表示させ、その部分の直前の位置にカーソルを移動させている。   Then, the cellular phone terminal 1 has an angle difference between the direction of entering and exiting the space between “electronics” and “three rows” larger than the threshold, and the space between “three rows” and “no” Since the angle difference between the approach direction and the exit direction is larger than the threshold value, it is determined that “electronics” and “three lines” and “three lines” and “no” are selected. When two places are selected in succession in this way, the mobile phone 1 displays the range between the two places as a selection range and displays it in a different manner from the other parts, and moves the cursor to the start position of the selection range. Move. In the example of FIG. 8, in step S33, the cellular phone terminal 1 highlights the “three rows” portion as a selection range, and moves the cursor to a position immediately before that portion.

続いて、利用者は、ステップS34として、上述した連続方式により「さんぎ(SANGI)」と入力する。すると、携帯電話端末1は、選択範囲となっている「三行」に代えて、「さんぎ」を、未確定であることを示す下線を付して表示する。また、携帯電話端末1は、「さんぎ」を予測変換して得られた「産業」および「三行」という2つの文字列を入力文字列の候補として、入力文字列候補表示領域14に表示する。   Subsequently, in step S34, the user inputs “SANGI” by the continuous method described above. Then, the mobile phone terminal 1 displays “Sangi” with an underline indicating that it is unconfirmed instead of “three rows” as the selection range. In addition, the cellular phone terminal 1 displays two character strings “industry” and “three lines” obtained by predictive conversion of “Sangi” in the input character string candidate display area 14 as input character string candidates. To do.

続いて、利用者は、ステップS35として、指をタッチパネル2に触れさせたままで、入力文字列候補表示領域14内の「産業」の表示領域内へ移動させた後、進行方向を変更して表示領域の外部へ移動させている。すると、携帯電話端末1は、「産業」の表示領域への進入方向と脱出方向の角度差が閾値よりも大きいため、「産業」が選択されたと判定する。   Subsequently, in step S35, the user moves the display to the “industry” display area in the input character string candidate display area 14 while keeping the finger touching the touch panel 2, and then displays the display while changing the traveling direction. It is moved outside the area. Then, the mobile phone terminal 1 determines that “industry” is selected because the angle difference between the entry direction and the exit direction to the display area of “industry” is larger than the threshold value.

そして、ステップS36において、携帯電話端末1は、未確定な文字列であった「さんぎ」を消去して、選択された「産業」をカーソルの直後に表示させる。そして、携帯電話端末1は、新たに入力される文字が「産業」の後に追加されることを示すために、カーソルを「産業」の直後に移動させる。   In step S <b> 36, the mobile phone terminal 1 deletes “Sangi”, which was an undefined character string, and displays the selected “Industry” immediately after the cursor. Then, the mobile phone terminal 1 moves the cursor immediately after “Industry” to indicate that a newly input character is added after “Industry”.

このように、テキスト表示領域15に表示されている入力済みのテキストの置換範囲を特定の動作が検出された位置に基づいて特定することにより、利用者は、指をタッチパネル2に触れさせたままで、置換範囲をスムーズに指定することができる。   In this way, by specifying the replacement range of the input text displayed in the text display area 15 based on the position where the specific action is detected, the user can keep the finger touching the touch panel 2. The replacement range can be specified smoothly.

次に、携帯電話端末1の機能と制御部との関係を説明する。図9は、図1に示す携帯電話端末1の機能の概略構成を示すブロック図である。図9に示すように携帯電話端末1は、タッチパネル2と、入力部3と、電源部5と、通信部6と、スピーカ7と、マイク8と、記憶部9と、主制御部10と、RAM(Random Access Memory)11とを有する。   Next, the relationship between the function of the mobile phone terminal 1 and the control unit will be described. FIG. 9 is a block diagram showing a schematic configuration of functions of the mobile phone terminal 1 shown in FIG. As shown in FIG. 9, the mobile phone terminal 1 includes a touch panel 2, an input unit 3, a power supply unit 5, a communication unit 6, a speaker 7, a microphone 8, a storage unit 9, a main control unit 10, A RAM (Random Access Memory) 11 is included.

タッチパネル2は、表示部2Bと、表示部2Bに重畳されたタッチセンサ2Aとを有する。タッチセンサ2Aは、指を用いてタッチパネル2に対して行われた各種動作を、動作が行われた場所のタッチパネル2上での位置とともに検出する。タッチセンサ2Aによって検出される動作には、指をタッチパネル2の表面に接触させる動作や、指をタッチパネル2の表面に接触させたまま移動させる動作や、指をタッチパネル2の表面から離す動作が含まれる。なお、タッチセンサ2Aは、感圧式、静電式等のいずれの検出方式を採用していてもよい。表示部2Bは、例えば、液晶ディスプレイ(LCD、Liquid Crystal Display)や、有機EL(Organic Electro−Luminescence)パネルなどで構成され、文字、図形、画像等を表示する。   The touch panel 2 includes a display unit 2B and a touch sensor 2A superimposed on the display unit 2B. The touch sensor 2A detects various operations performed on the touch panel 2 using a finger together with the position on the touch panel 2 where the operation is performed. The operations detected by the touch sensor 2 </ b> A include an operation of bringing a finger into contact with the surface of the touch panel 2, an operation of moving the finger while keeping the surface in contact with the touch panel 2, and an operation of moving the finger away from the surface of the touch panel 2. It is. The touch sensor 2A may employ any detection method such as a pressure-sensitive method or an electrostatic method. The display unit 2B includes, for example, a liquid crystal display (LCD), an organic EL (Organic Electro-Luminescence) panel, and the like, and displays characters, figures, images, and the like.

入力部3は、物理的なボタン等を通じて利用者の操作を受け付け、受け付けた操作に対応する信号を主制御部10へ送信する。電源部5は、蓄電池または外部電源から得られる電力を、主制御部10を含む携帯電話端末1の各機能部へ供給する。通信部6は、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA方式などによる無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。スピーカ7は、電話通信における相手側の音声や着信音等を出力する。マイク8は、利用者等の音声を電気的な信号へ変換する。   The input unit 3 receives a user operation through a physical button or the like, and transmits a signal corresponding to the received operation to the main control unit 10. The power supply unit 5 supplies power obtained from a storage battery or an external power supply to each functional unit of the mobile phone terminal 1 including the main control unit 10. The communication unit 6 establishes a radio signal line by a CDMA system or the like with a base station via a channel assigned by the base station, and performs telephone communication and information communication with the base station. The speaker 7 outputs the other party's voice, ringtone, and the like in telephone communication. The microphone 8 converts the voice of the user or the like into an electrical signal.

記憶部9は、例えば、不揮発性メモリや磁気記憶装置であり、主制御部10での処理に利用されるプログラムやデータを保存する。具体的には、記憶部9は、メールの送受信や閲覧のためのメールプログラム9Aや、WEBページの閲覧のためのブラウザプログラム9Bや、上述した連続方式での文字入力処理と特定の動作による位置指定に基づく編集処理とを実行する文字入力プログラム9Cや、文字入力時にタッチパネル2に表示される仮想キーボードに関する定義を含む仮想キーボードデータ9Dや、正当な文字列が登録された辞書データ9Eを記憶する。記憶部9には、携帯電話端末1の基本的な機能を実現するオペレーティングシステムプログラムや、氏名、電話番号、メールアドレス等が登録されたアドレス帳データ等の他のプログラムやデータも記憶される。   The storage unit 9 is, for example, a nonvolatile memory or a magnetic storage device, and stores programs and data used for processing in the main control unit 10. Specifically, the storage unit 9 includes a mail program 9A for sending / receiving and browsing mail, a browser program 9B for browsing a WEB page, and a position based on character input processing and a specific operation in the continuous mode described above. Stores a character input program 9C for executing editing processing based on designation, virtual keyboard data 9D including definitions related to a virtual keyboard displayed on the touch panel 2 when characters are input, and dictionary data 9E in which valid character strings are registered. . The storage unit 9 also stores an operating system program that realizes basic functions of the mobile phone terminal 1 and other programs and data such as address book data in which names, telephone numbers, mail addresses, and the like are registered.

主制御部10は、例えば、CPU(Central Processing Unit)であり、携帯電話端末1の動作を統括的に制御する。具体的には、主制御部10は、記憶部9に記憶されているデータを必要に応じて参照しつつ、記憶部9に記憶されているプログラムを実行して、タッチパネル2、通信部6等を制御することによって各種処理を実行する。主制御部10は、記憶部9に記憶されているプログラムや、処理を実行することによって取得/生成/加工されたデータを、一時的な記憶領域を提供するRAM11に必要に応じて展開する。なお、主制御部10が実行するプログラムや参照するデータは、通信部6による無線通信でサーバ装置からダウンロードすることとしてもよい。   The main control unit 10 is, for example, a CPU (Central Processing Unit), and comprehensively controls the operation of the mobile phone terminal 1. Specifically, the main control unit 10 executes the program stored in the storage unit 9 while referring to the data stored in the storage unit 9 as necessary, so that the touch panel 2, the communication unit 6, etc. Various processes are executed by controlling. The main control unit 10 expands the program stored in the storage unit 9 and the data acquired / generated / processed by executing the process to the RAM 11 that provides a temporary storage area as necessary. The program executed by the main control unit 10 and the data to be referred to may be downloaded from the server device by wireless communication by the communication unit 6.

ここで、記憶部9が記憶する仮想キーボードデータ9Dの一例を図10に示す。図10の例に示すように、仮想キーボードデータ9Dには、仮想キーボードに含まれるボタン毎に、ボタンに対応する文字、ボタンの位置(例えば、左上座標)、幅、高さ等が登録される。図10に示す例では、あるボタンに対応する文字が「Q」であり、そのボタンの左上座標がX=10、Y=10であり、そのボタンの幅と高さが20と40であること等が登録されている。   An example of the virtual keyboard data 9D stored in the storage unit 9 is shown in FIG. As shown in the example of FIG. 10, in the virtual keyboard data 9D, for each button included in the virtual keyboard, a character corresponding to the button, a position of the button (for example, upper left coordinates), a width, a height, and the like are registered. . In the example shown in FIG. 10, the character corresponding to a certain button is “Q”, the upper left coordinates of the button are X = 10, Y = 10, and the width and height of the button are 20 and 40. Etc. are registered.

次に、携帯電話端末1が文字の入力を受け付ける場合の動作について説明する。図11は、携帯電話端末1による文字入力処理の処理手順を示すフロー図である。図11に示す文字入力処理は、主制御部10が記憶部9から文字入力プログラム9Cを読み出して実行することにより実現され、仮想キーボード4がタッチパネル2上に表示されている間、繰り返し実行される。なお、仮想キーボード4は、主制御部10が文字入力プログラム9Cまたは他のプログラムを実行することにより、タッチパネル2上に表示される。   Next, the operation when the cellular phone terminal 1 accepts input of characters will be described. FIG. 11 is a flowchart showing a processing procedure of character input processing by the mobile phone terminal 1. The character input process shown in FIG. 11 is realized by the main control unit 10 reading and executing the character input program 9C from the storage unit 9, and is repeatedly executed while the virtual keyboard 4 is displayed on the touch panel 2. . The virtual keyboard 4 is displayed on the touch panel 2 when the main control unit 10 executes the character input program 9C or another program.

まず、主制御部10は、ステップS41として、検出フラグを0に設定する。検出フラグは、上述した特定の動作が検出された場合に1に設定されるフラグであり、RAM11に設けられる。続いて、主制御部10は、ステップS42として、特定動作検出処理を実行して、タッチパネル2にて特定の動作が検出されたかを判定する。特定動作検出処理の実行後も検出フラグが0のままの場合、すなわち、特定の動作が検出されない場合(ステップS43,No)、主制御部10は、ステップS42に戻って、特定動作検出処理を再実行する。なお、特定動作検出処理の詳細については後述する。   First, the main control unit 10 sets a detection flag to 0 as step S41. The detection flag is a flag that is set to 1 when the specific operation described above is detected, and is provided in the RAM 11. Subsequently, in step S42, the main control unit 10 executes a specific operation detection process and determines whether a specific operation is detected on the touch panel 2. If the detection flag remains 0 after execution of the specific action detection process, that is, if a specific action is not detected (No in step S43), the main control unit 10 returns to step S42 and performs the specific action detection process. Try again. Details of the specific operation detection process will be described later.

特定動作検出処理の実行後に検出フラグが1へ変化していた場合、すなわち、特定の動作が検出された場合(ステップS43,Yes)、主制御部10は、ステップS44として、特定の動作が検出された位置が仮想キーボード4内であるかを判定する。   When the detection flag has changed to 1 after execution of the specific operation detection process, that is, when a specific operation is detected (Yes in step S43), the main control unit 10 detects a specific operation as step S44. It is determined whether the set position is within the virtual keyboard 4.

特定の動作が検出された位置が仮想キーボード4内である場合(ステップS44,Yes)、主制御部10は、ステップS45として、特定の動作が検出された位置に表示されているボタンに対応する文字を仮入力バッファに追加する。仮入力バッファは、仮想キーボードを用いて入力された文字が時系列に格納されるバッファである。仮入力バッファは、RAM11に設けられ、予め空に初期化される。   When the position where the specific action is detected is in the virtual keyboard 4 (step S44, Yes), the main control unit 10 corresponds to the button displayed at the position where the specific action is detected as step S45. Appends characters to the temporary input buffer. The temporary input buffer is a buffer in which characters input using the virtual keyboard are stored in time series. The temporary input buffer is provided in the RAM 11 and is initialized to empty beforehand.

そして、主制御部10は、ステップS46として、仮入力バッファに格納されている文字を格納順に連結した文字列に基づいて予測変換処理を実行して、入力文字列の候補を取得する。ここで、予測変換処理は、例えば、仮入力バッファに格納されている文字を格納順に連結した文字列を、辞書データ9Eに登録されている文字列と照合することによって実現される。予測変換処理によって得られた入力文字列の候補(以下、「予測変換候補」という)のそれぞれは、入力文字列候補表示領域14での表示位置を特定するための情報(例えば、表示領域の左上座標、幅および高さ)と対応づけて、RAM11に格納される。   In step S46, the main control unit 10 executes a predictive conversion process based on a character string obtained by concatenating characters stored in the temporary input buffer in the order of storage, and obtains an input character string candidate. Here, the predictive conversion process is realized, for example, by collating a character string obtained by concatenating characters stored in the temporary input buffer in the storage order with a character string registered in the dictionary data 9E. Each of the input character string candidates (hereinafter referred to as “predictive conversion candidates”) obtained by the predictive conversion process is information for specifying the display position in the input character string candidate display area 14 (for example, the upper left of the display area). The coordinates are stored in the RAM 11 in association with the coordinates, width and height.

続いて、主制御部10は、ステップS47として、選択開始フラグを0に設定する。選択開始フラグは、テキスト表示領域15に表示されているテキストに選択範囲を設定するための操作を検出するために用いられるフラグであり、RAM11に設けられる。   Subsequently, the main control unit 10 sets a selection start flag to 0 as step S47. The selection start flag is a flag used for detecting an operation for setting a selection range for the text displayed in the text display area 15, and is provided in the RAM 11.

選択開始フラグは、予め0に初期設定され、テキスト表示領域15内において特定の動作が検出された場合に1に設定される。そして、選択開始フラグが1に設定されている間に再びテキスト表示領域15内において特定の動作が検出された場合に、2つの特定の動作が検出された位置に挟まれた範囲が選択範囲として設定される。一方、選択開始フラグが1に設定されている間にテキスト表示領域15以外で特定の動作が検出された場合、選択開始フラグは0に戻される。このように、選択範囲は、テキスト表示領域15内において特定の動作が2回連続して検出された場合に設定される。   The selection start flag is initially set to 0 in advance, and is set to 1 when a specific operation is detected in the text display area 15. When a specific action is detected again in the text display area 15 while the selection start flag is set to 1, a range sandwiched between the positions where two specific actions are detected is set as the selection range. Is set. On the other hand, if a specific operation is detected outside the text display area 15 while the selection start flag is set to 1, the selection start flag is returned to 0. Thus, the selection range is set when a specific operation is detected twice in succession in the text display area 15.

ここで、主制御部10は、ステップS48として、テキスト表示領域15に表示されているテキストに選択範囲が設定されているかを判定する。そして、選択範囲が設定されている場合(ステップS48,Yes)、図8で示したように選択範囲は置換対象であるため、主制御部10は、ステップS49として、確定入力バッファから選択範囲に対応する文字を削除する。   Here, the main control part 10 determines whether the selection range is set to the text currently displayed on the text display area 15 as step S48. If the selection range is set (step S48, Yes), the selection range is a replacement target as shown in FIG. 8, and therefore the main control unit 10 changes from the fixed input buffer to the selection range as step S49. Delete the corresponding character.

確定入力バッファは、連続方式等で入力された文字列からなるテキストが格納されるバッファであり、RAM11に設けられる。確定入力バッファに格納されているテキストは、主制御部10の制御によってテキスト表示領域15に表示される。確定入力バッファに格納されているテキストを構成する各文字がテキスト表示領域15内で表示される位置は、予め設定されている書体の種類と大きさ、行間の高さ、禁則処理規則等に基づいて算出される。   The definite input buffer is a buffer that stores text composed of character strings input by a continuous method or the like, and is provided in the RAM 11. The text stored in the fixed input buffer is displayed in the text display area 15 under the control of the main control unit 10. The position where each character constituting the text stored in the fixed input buffer is displayed in the text display area 15 is based on the type and size of the typeface set in advance, the height between lines, the prohibition processing rule, and the like. Is calculated.

RAM11には、確定入力バッファに関連する情報として、カーソルの位置を特定するための情報が格納される。カーソルの位置を特定するための情報は、連続方式等で新たに入力された文字列を確定入力バッファに格納されているテキストのどこに挿入するかを決定するために用いられる。カーソルの位置を特定するための情報は、確定入力バッファに格納されているテキストの末尾に文字列が追加されるように予め初期設定される。   The RAM 11 stores information for specifying the cursor position as information related to the fixed input buffer. Information for specifying the position of the cursor is used to determine where in the text stored in the definite input buffer a character string newly input by a continuous method or the like is to be inserted. Information for specifying the position of the cursor is initialized in advance so that a character string is added to the end of the text stored in the fixed input buffer.

また、RAM11には、確定入力バッファに関連する情報として、選択範囲を特定するための情報が格納される。選択範囲を特定するための情報は、確定入力バッファに格納されているテキストのどこからどこまでを選択範囲として扱うかを決定するために用いられる。選択範囲を特定するための情報は、確定入力バッファに格納されているテキストのどの部分も選択範囲として扱われないように予め初期設定される。   Further, the RAM 11 stores information for specifying the selection range as information related to the confirmed input buffer. Information for specifying the selection range is used to determine from where to where in the text stored in the definite input buffer is handled as the selection range. Information for specifying the selection range is initially set in advance so that no part of the text stored in the fixed input buffer is treated as the selection range.

そして、主制御部10は、ステップS63として、タッチパネル2の表示内容を更新して文字入力処理を完了させる。具体的には、主制御部10は、RAM11に格納されている予測変換候補を、表示位置を特定するための情報に従って入力文字列候補表示領域14に表示する。また、主制御部10は、確定入力バッファに格納されているテキストに含まれる各文字を、上述したように、書体の種類と大きさ、行間の高さ、禁則処理規則等に基づいて表示位置を算出しながらテキスト表示領域15に表示する。このとき、主制御部10は、仮入力バッファに格納されている文字を格納順に連結した文字列を、カーソルの位置を特定するための情報が示す位置に挿入して、下線を付して表示する。なお、ローマ字変換が有効な場合は、仮入力バッファに格納されている文字を格納順に連結した文字列に代えて、その文字列をローマ字変換した文字列が挿入される。   Then, in step S63, the main control unit 10 updates the display content of the touch panel 2 and completes the character input process. Specifically, the main control unit 10 displays the predictive conversion candidates stored in the RAM 11 in the input character string candidate display area 14 according to information for specifying the display position. In addition, the main control unit 10 displays each character included in the text stored in the fixed input buffer based on the type and size of the typeface, the height between lines, the prohibition processing rule, and the like as described above. Is displayed in the text display area 15 while calculating. At this time, the main control unit 10 inserts a character string obtained by concatenating characters stored in the temporary input buffer in the order of storage at the position indicated by the information for specifying the cursor position, and displays it with an underline. To do. When the Roman character conversion is valid, a character string obtained by converting the character string into a Roman character is inserted instead of the character string obtained by concatenating the characters stored in the temporary input buffer in the order of storage.

また、選択範囲を特定するための情報が、確定入力バッファに格納されているテキストのうち選択範囲として扱う部分があることを示している場合、主制御部10は、当該部分に対応する文字を反転表示する等して他の部分と異なる態様で表示させる。また、主制御部10は、カーソルの位置を特定するための情報に従ってカーソルを表示し、確定入力バッファに格納されているテキストの改行位置に改行記号を表示する。   In addition, when the information for specifying the selection range indicates that there is a part to be handled as the selection range in the text stored in the fixed input buffer, the main control unit 10 selects a character corresponding to the part. It is displayed in a different manner from the other parts, such as by displaying it in reverse video. Further, the main control unit 10 displays the cursor according to the information for specifying the position of the cursor, and displays a line feed symbol at the line feed position of the text stored in the fixed input buffer.

特定動作検出処理において特定の動作が検出された位置が仮想キーボード4内でない場合(ステップS44,No)、主制御部10は、ステップS50として、特定の動作が検出された位置がテキスト表示領域15内であるかを判定する。特定の動作が検出された位置がテキスト表示領域15である場合(ステップS50,Yes)、主制御部10は、ステップS51として、選択開始フラグが0であるか否かを判定する。   When the position where the specific action is detected in the specific action detection process is not in the virtual keyboard 4 (No at Step S44), the main control unit 10 sets the position where the specific action is detected as the text display area 15 as Step S50. It is determined whether it is within. When the position where the specific action is detected is the text display area 15 (step S50, Yes), the main control unit 10 determines whether or not the selection start flag is 0 as step S51.

選択開始フラグが0である場合(ステップS51,Yes)、主制御部10は、ステップS52として、特定の動作が検出された位置へカーソルが移動するように、カーソルの位置を特定するための情報を更新する。例えば、確定入力バッファに格納されているテキストの5番目の文字の表示位置と6番目の文字の表示位置の間で特定の動作が検出された場合、カーソルの位置を特定するための情報は、5番目の文字の表示位置と6番目の文字の表示位置の間にカーソルが表示されるように更新される。   When the selection start flag is 0 (step S51, Yes), the main control unit 10 as step S52, information for specifying the position of the cursor so that the cursor moves to the position where the specific operation is detected. Update. For example, when a specific action is detected between the display position of the fifth character and the display position of the sixth character of the text stored in the fixed input buffer, the information for specifying the cursor position is: The cursor is updated so that the cursor is displayed between the display position of the fifth character and the display position of the sixth character.

続いて、主制御部10は、ステップS53として、選択開始フラグを1に設定する。そして、主制御部10は、選択範囲が設定された場合に未確定な文字列が残っていると処理が煩雑になるため、ステップS54として、仮入力バッファをクリアし、ステップS55として、予測変換候補を削除する。また、主制御部10は、ステップS56として、選択範囲が既に設定されていれば、選択範囲が解除されるように選択範囲を特定するための情報を更新する。   Subsequently, the main control unit 10 sets a selection start flag to 1 in step S53. Then, the main control unit 10 clears the temporary input buffer as step S54 and predictive conversion as step S55 because the process becomes complicated if an undetermined character string remains when the selection range is set. Delete a candidate. In step S56, if the selection range has already been set, the main control unit 10 updates information for specifying the selection range so that the selection range is canceled.

そして、主制御部10は、ステップS63として、上述したようにしてタッチパネル2の表示内容を更新し、文字入力処理を完了させる。   In step S63, the main control unit 10 updates the display content of the touch panel 2 as described above, and completes the character input process.

一方、選択開始フラグが0でない場合、すなわち、選択範囲の始点となる位置にカーソルが設定されている場合(ステップS51,No)、主制御部10は、ステップS57として、カーソルの位置から特定の動作が今回検出された位置までが選択範囲となるように、選択範囲を特定するための情報を更新する。そして、主制御部10は、ステップS58として、選択開始フラグを0に戻す。なお、ここで、始点となる位置を再設定することなく選択範囲を再設定することができるように、選択開始フラグを0に戻さずに、1のままにしておくこととしてもよい。   On the other hand, when the selection start flag is not 0, that is, when the cursor is set at the position that is the start point of the selection range (step S51, No), the main control unit 10 determines a specific position from the cursor position as step S57. Information for specifying the selection range is updated so that the range up to the position where the motion is detected this time is the selection range. Then, the main control unit 10 returns the selection start flag to 0 as step S58. Here, the selection start flag may be set to 1 without returning to 0 so that the selection range can be reset without resetting the position to be the starting point.

そして、主制御部10は、ステップS63として、上述したようにしてタッチパネル2の表示内容を更新し、文字入力処理を完了させる。   In step S63, the main control unit 10 updates the display content of the touch panel 2 as described above, and completes the character input process.

特定動作検出処理において特定の動作が検出された位置が仮想キーボード4内でもテキスト表示領域15内でもない場合、すなわち、特定の動作が検出された位置が入力文字列候補表示領域14である場合(ステップS50,No)、主制御部10は、ステップS59として、特定の動作が検出された位置に表示されている予測変換候補を確定入力バッファに挿入する。ここで、特定の動作が検出された位置に表示されている予測変換候補は、自らが入力しようとしている文字として利用者によって選択された文字列である。特定の動作が検出された位置に表示されている予測変換候補は、カーソルの位置を特定するための情報が示す位置の直前に挿入され、カーソルの位置を特定するための情報は、挿入された予測変換候補の直後に表示されるように更新される。   When the position where the specific action is detected in the specific action detection process is neither within the virtual keyboard 4 nor the text display area 15, that is, when the position where the specific action is detected is the input character string candidate display area 14 ( In step S50, No), the main control unit 10 inserts the predictive conversion candidate displayed at the position where the specific action is detected, into the definite input buffer as step S59. Here, the predictive conversion candidate displayed at the position where the specific action is detected is a character string selected by the user as a character to be input by the user. The prediction conversion candidate displayed at the position where the specific action is detected is inserted immediately before the position indicated by the information for specifying the cursor position, and the information for specifying the cursor position is inserted. It is updated so that it is displayed immediately after the predictive conversion candidate.

続いて、主制御部10は、ステップS60として、選択開始フラグを0に設定する。そして、主制御部10は、未確定な文字列が確定されたため、ステップS61として、仮入力バッファをクリアし、ステップS62として、予測変換候補を削除する。そして、主制御部10は、ステップS63として、上述したようにしてタッチパネル2の表示内容を更新し、文字入力処理を完了させる。   Subsequently, the main control unit 10 sets a selection start flag to 0 as step S60. Then, the main control unit 10 clears the temporary input buffer as Step S61 and deletes the predictive conversion candidate as Step S62 because the undetermined character string is confirmed. In step S63, the main control unit 10 updates the display content of the touch panel 2 as described above, and completes the character input process.

次に、図11のステップS42で実行される特定動作検出処理の詳細について、図12を参照しながら説明する。図12は、特定動作検出処理の処理手順を示すフロー図である。図12に示すように、主制御部10は、まず、ステップS71として、タッチパネル2の検出結果を取得する。   Next, details of the specific action detection process executed in step S42 of FIG. 11 will be described with reference to FIG. FIG. 12 is a flowchart showing the procedure of the specific operation detection process. As shown in FIG. 12, the main control unit 10 first acquires the detection result of the touch panel 2 as step S71.

検出された動作がタッチパネル2への接触を開始する動作であった場合(ステップS72,Yes)、主制御部10は、ステップS73として、接触が開始された位置がいずれかの領域内であったかを判定する。   When the detected operation is an operation for starting contact with the touch panel 2 (Yes at Step S72), the main control unit 10 determines whether the position where the contact is started is within any region as Step S73. judge.

ここで、図12に示す処理手順における「領域」について、図13を参照しながら説明する。図12に示す処理手順における「領域」には、仮想キーボード4内のボタンの表示領域と、入力文字列候補表示領域14内の予測変換候補の表示領域と、テキスト表示領域15内のカーソル設定可能領域とが含まれる。   Here, the “region” in the processing procedure shown in FIG. 12 will be described with reference to FIG. In the “area” in the processing procedure shown in FIG. 12, a button display area in the virtual keyboard 4, a prediction conversion candidate display area in the input character string candidate display area 14, and a cursor in the text display area 15 can be set. And area.

仮想キーボード4内のボタンの表示領域は、例えば、図13に示す「Q」のボタンの表示領域や、「W」のボタンの表示領域である。仮想キーボード4内の各ボタンの表示領域の位置と大きさは、仮想キーボードデータ9Dに設定されている。   The button display area in the virtual keyboard 4 is, for example, the display area of the “Q” button or the display area of the “W” button shown in FIG. The position and size of the display area of each button in the virtual keyboard 4 are set in the virtual keyboard data 9D.

入力文字列候補表示領域14内の予測変換候補の表示領域は、例えば、図13に示す「産業」という文字列の表示領域や、「三行」という文字列の表示領域である。入力文字列候補表示領域14内の各予測変換候補の表示領域の位置と大きさは、表示位置を特定するための情報から求めることができる。表示位置を特定するための情報は、上述したように、予測変換候補と対応付けてRAM11に格納されている。   The predictive conversion candidate display area in the input character string candidate display area 14 is, for example, the display area of the character string “Industry” or the display area of the character string “3 lines” shown in FIG. The position and size of the display area of each prediction conversion candidate in the input character string candidate display area 14 can be obtained from information for specifying the display position. As described above, the information for specifying the display position is stored in the RAM 11 in association with the prediction conversion candidate.

テキスト表示領域15内のカーソル設定可能領域は、カーソルが設定される可能性のある位置の近傍に設定される不可視な領域であり、具体的には、テキスト表示領域15に表示されるテキストの先頭および改行部分と、テキストに前後して含まれる文字の表示位置間に設定される。テキスト表示領域15内のカーソル設定可能領域は、例えば、図13に示すテキスト表示領域15内に点線で示した矩形領域に相当する。テキスト表示領域15内のカーソル設定可能領域の位置と大きさは、テキストに含まれる文字の表示位置を算出するための基準である書体の種類と大きさ、行間の高さ、禁則処理規則等に基づいて求めることができる。なお、テキスト表示領域15内のカーソル設定可能領域は、互いに重複内程度に広いことが好ましい。   The cursor settable area in the text display area 15 is an invisible area set in the vicinity of the position where the cursor may be set. Specifically, the head of the text displayed in the text display area 15 is set. It is set between the line feed part and the display position of the characters included before and after the text. The cursor settable area in the text display area 15 corresponds to, for example, a rectangular area indicated by a dotted line in the text display area 15 shown in FIG. The position and size of the cursor settable area in the text display area 15 depends on the type and size of the typeface used as a reference for calculating the display position of the character included in the text, the height between lines, the prohibition processing rule, etc. Can be based on. It should be noted that the cursor settable areas in the text display area 15 are preferably wide enough to overlap each other.

図12の説明に戻って、接触が開始された位置がいずれかの領域内であった場合(ステップS73,Yes)、その領域は意図して触れられたと考えられるので、主制御部10は、ステップS74として、検出フラグを1に設定し、ステップS75として、出力フラグを1に設定して、特定動作検出処理を完了させる。   Returning to the explanation of FIG. 12, when the position where the contact is started is in any region (step S <b> 73, Yes), it is considered that the region has been touched intentionally. In step S74, the detection flag is set to 1. In step S75, the output flag is set to 1, and the specific operation detection process is completed.

出力フラグは、RAM11に設けられ、指が現在接触している領域において特定の動作を検出済みであるか否かを判定するために用いられる。出力フラグの値が0であることは、指が現在接触している領域において特定の動作がまだ検出されていないことを示す。出力フラグの値が1であることは、指が現在接触している領域において特定の動作が検出済みであることを示す。   The output flag is provided in the RAM 11 and is used to determine whether or not a specific action has been detected in the region where the finger is currently in contact. A value of the output flag being 0 indicates that a specific action has not yet been detected in the region where the finger is currently in contact. The value of the output flag being 1 indicates that a specific action has been detected in the region where the finger is currently in contact.

ステップS73において、接触が開始された位置がいずれかの領域内でなかった場合(ステップS73,No)、主制御部10は、特に処理を行わずに特定動作検出処理を完了させる。   In step S73, when the position where the contact is started is not in any region (No in step S73), the main control unit 10 completes the specific operation detection process without performing any particular process.

ステップS72において、タッチパネル2で検出された動作がタッチパネル2への接触を開始する動作でなかった場合(ステップS72,No)、主制御部10は、ステップS76として、タッチパネル2で検出された動作がタッチパネル2への接触を保ったまま指を領域内に進入させる動作であったかを、タッチパネル2の検出結果に基づいて判定する。検出された動作がタッチパネル2への接触を保ったまま指を領域内に進入させる動作であったか否かは、タッチパネル2の最新の検出結果が示す接触位置とその直前の検出結果が示す接触位置とを各領域の位置および大きさと照合することによって判定される。   In step S72, when the operation detected on the touch panel 2 is not an operation for starting contact with the touch panel 2 (No in step S72), the main control unit 10 performs the operation detected on the touch panel 2 as step S76. It is determined based on the detection result of the touch panel 2 whether the operation is to move the finger into the area while keeping the touch to the touch panel 2. Whether or not the detected operation is an operation of causing a finger to enter the area while maintaining contact with the touch panel 2 depends on the contact position indicated by the latest detection result of the touch panel 2 and the contact position indicated by the immediately preceding detection result. Is compared with the position and size of each region.

検出された動作がタッチパネル2への接触を保ったまま指を領域内に進入させる動作であった場合(ステップS76,Yes)、主制御部10は、ステップS77として、移動方向履歴をクリアする。移動方向履歴は、領域内で指がどの方向へ移動したかを示す方向ベクトルが時系列に記録されるデータであり、RAM11に記憶される。   When the detected operation is an operation that causes the finger to enter the region while maintaining contact with the touch panel 2 (Yes in Step S76), the main control unit 10 clears the movement direction history as Step S77. The movement direction history is data in which a direction vector indicating in which direction the finger has moved in the region is recorded in time series, and is stored in the RAM 11.

続いて、主制御部10は、ステップS78として、指が領域内に進入した方向を示す方向ベクトルを取得して、取得した方向ベクトルを移動方向履歴に追加する。そして、主制御部10は、ステップS79として、出力フラグを0に設定して特定動作検出処理を完了させる。   Subsequently, in step S78, the main control unit 10 acquires a direction vector indicating the direction in which the finger has entered the area, and adds the acquired direction vector to the movement direction history. Then, in step S79, the main control unit 10 sets the output flag to 0 and completes the specific operation detection process.

なお、タッチパネル2の検出結果に指の移動方向を示す情報が含まれている場合、方向ベクトルは、タッチパネル2の検出結果から取得される。タッチパネル2の検出結果に指の移動方向を示す情報が含まれていない場合、方向ベクトルは、タッチパネル2の最新の検出結果が示す接触位置とその直前の検出結果が示す接触位置とから算出される。   Note that when the detection result of the touch panel 2 includes information indicating the moving direction of the finger, the direction vector is acquired from the detection result of the touch panel 2. When the detection result of the touch panel 2 does not include information indicating the moving direction of the finger, the direction vector is calculated from the contact position indicated by the latest detection result of the touch panel 2 and the contact position indicated by the detection result immediately before that. .

ステップS76において、タッチパネル2で検出された動作がタッチパネル2への接触を保ったまま指を領域内に進入させる動作でなかった場合(ステップS76,No)、主制御部10は、ステップS80として、タッチパネル2で検出された動作がタッチパネル2への接触を保ったまま指を領域の外へ出す動作であったかを、タッチパネル2の検出結果に基づいて判定する。検出された動作がタッチパネル2への接触を保ったまま指を領域の外へ出す動作であったか否かは、タッチパネル2の最新の検出結果が示す接触位置とその直前の検出結果が示す接触位置とを各領域の位置および大きさと照合することによって判定される。   In step S76, when the operation detected by the touch panel 2 is not an operation of moving a finger into the region while maintaining contact with the touch panel 2 (step S76, No), the main control unit 10 determines as step S80. It is determined based on the detection result of the touch panel 2 whether the operation detected by the touch panel 2 is an operation of moving a finger out of the region while maintaining contact with the touch panel 2. Whether or not the detected operation is an operation of moving a finger out of the area while maintaining contact with the touch panel 2 is determined based on the contact position indicated by the latest detection result of the touch panel 2 and the contact position indicated by the immediately preceding detection result. Is compared with the position and size of each region.

検出された動作がタッチパネル2への接触を保ったまま指を領域の外へ出す動作であった場合(ステップS80,Yes)、主制御部10は、ステップS81として、出力フラグが0であるかを判定する。ここで、出力フラグが0でなかった場合、すなわち、指がそれまで内部に位置していた領域で特定の動作を検出済みの場合(ステップS81,No)、主制御部10は、特に処理を行わずに特定動作検出処理を完了させる。   When the detected operation is an operation of moving the finger out of the region while maintaining contact with the touch panel 2 (step S80, Yes), the main control unit 10 determines whether the output flag is 0 as step S81. Determine. Here, when the output flag is not 0, that is, when a specific action has been detected in the area where the finger has been positioned so far (No in step S81), the main control unit 10 performs the processing in particular. The specific action detection process is completed without performing it.

一方、出力フラグが0であった場合(ステップS81,Yes)、主制御部10は、ステップS82として、最新の移動ベクトル、すなわち、指が領域の外へ出た方向を示す方向ベクトルを取得し、移動方向履歴の先頭の方向ベクトルとの角度差を算出する。ここで算出された角度差は、指が領域に進入したときの方向と指が領域から脱出したときの方向の相違の大きさを表す。   On the other hand, when the output flag is 0 (Yes in step S81), the main control unit 10 acquires the latest movement vector, that is, a direction vector indicating the direction in which the finger goes out of the region, in step S82. Then, the angle difference from the head direction vector of the movement direction history is calculated. The angle difference calculated here represents the magnitude of the difference between the direction when the finger enters the area and the direction when the finger exits the area.

算出された角度差が所定の閾値以下の場合(ステップS83,No)、指は単に領域を通過したに過ぎないと考えられるため、主制御部10は、特に処理を行わずに特定動作検出処理を完了させる。   When the calculated angle difference is equal to or smaller than the predetermined threshold (No in step S83), the main control unit 10 does not perform any particular processing, because the finger is considered to have simply passed through the region. To complete.

一方、算出された角度差が所定の閾値より大きい場合(ステップS83,Yes)、領域は意図的に触れられたと考えられるため、主制御部10は、ステップS84として、検出フラグを1に設定して、特定動作検出処理を完了させる。   On the other hand, when the calculated angle difference is larger than the predetermined threshold (step S83, Yes), the region is considered to have been touched intentionally, so the main control unit 10 sets the detection flag to 1 as step S84. Then, the specific operation detection process is completed.

ステップS80において、タッチパネル2で検出された動作がタッチパネル2への接触を保ったまま指を領域の外へ出す動作でなかった場合(ステップS80,No)、主制御部10は、ステップS85として、タッチパネル2で検出された動作がタッチパネル2への接触を終了させる動作、すなわち、指をタッチパネル2から離す動作であったかを、タッチパネル2の検出結果に基づいて判定する。   In step S80, when the operation detected on the touch panel 2 is not an operation of moving a finger out of the region while maintaining contact with the touch panel 2 (No in step S80), the main control unit 10 performs step S85. Based on the detection result of the touch panel 2, it is determined whether the operation detected by the touch panel 2 is an operation for ending contact with the touch panel 2, that is, an operation for releasing a finger from the touch panel 2.

検出された動作がタッチパネル2への接触を終了させる動作であった場合(ステップS85,Yes)、主制御部10は、ステップS86として、出力フラグが0であるかを判定する。ここで、出力フラグが0でなかった場合、すなわち、指がそれまで接触していた領域で特定の動作を検出済みの場合(ステップS86,No)、主制御部10は、特に処理を行わずに特定動作検出処理を完了させる。   When the detected operation is an operation for ending contact with the touch panel 2 (step S85, Yes), the main control unit 10 determines whether the output flag is 0 as step S86. Here, if the output flag is not 0, that is, if a specific action has been detected in the area where the finger has been in contact (No in step S86), the main control unit 10 does not perform any particular processing. To complete the specific action detection process.

一方、出力フラグが0であった場合(ステップS86,Yes)、主制御部10は、ステップS87として、接触が終了された位置がいずれかの領域内であったかを判定する。接触が終了された位置がいずれかの領域内であった場合(ステップS87,Yes)、領域は意図して触れられたと考えられるため、主制御部10は、ステップS88として、検出フラグを1に設定して、特定動作検出処理を完了させる。   On the other hand, when the output flag is 0 (step S86, Yes), the main control unit 10 determines in step S87 whether the position where the contact has ended is in any region. If the position where the contact is terminated is in any of the regions (Yes in step S87), the region is considered to have been touched intentionally, so the main control unit 10 sets the detection flag to 1 in step S88. Set to complete the specific action detection process.

接触が終了された位置がいずれかの領域内でなかった場合(ステップS87,No)、主制御部10は、特に処理を行わずに特定動作検出処理を完了させる。   When the position where the contact is terminated is not in any region (No in step S87), the main control unit 10 completes the specific operation detection process without performing any particular process.

ステップS85において、タッチパネル2で検出された動作がタッチパネル2への接触を終了させる動作でなかった場合(ステップS85,No)、主制御部10は、ステップS89として、タッチパネル2で検出された接触の位置がいずれかの領域内であったかを、タッチパネル2の検出結果に基づいて判定する。   In step S85, when the operation detected on the touch panel 2 is not an operation for ending the touch on the touch panel 2 (No in step S85), the main control unit 10 determines the contact detected on the touch panel 2 as step S89. It is determined based on the detection result of the touch panel 2 whether the position is in any region.

接触の位置がいずれかの領域内であった場合(ステップS89,Yes)、主制御部10は、ステップS90として、指が領域内で移動した方向を示す方向ベクトルを取得して、取得した方向ベクトルを移動方向履歴に追加する。そして、主制御部10は、ステップS91として、移動方向履歴に記録されている各方向ベクトルを参照して、指がタッチパネル2に触れたまま領域内で回転する軌跡を描いて移動したかを判定する。   When the position of the contact is in any region (step S89, Yes), the main control unit 10 acquires a direction vector indicating the direction in which the finger has moved in the region as step S90, and acquires the acquired direction. Add vector to direction history. Then, in step S91, the main control unit 10 refers to each direction vector recorded in the movement direction history and determines whether the finger has moved while drawing a trajectory that rotates within the area while touching the touch panel 2. To do.

ここで、指がタッチパネル2に触れたまま領域内で回転する軌跡を描いて移動していた場合(ステップS91,Yes)、領域は意図的に触れられたと考えられるため、主制御部10は、ステップS94として、検出フラグを1に設定する。そして、主制御部10は、ステップS95として、出力フラグを1に設定し、ステップS96として、移動方向履歴をクリアして、特定動作検出処理を完了させる。   Here, when the finger is moving while drawing a trajectory that rotates in the region while touching the touch panel 2 (step S91, Yes), the region is considered to have been intentionally touched. In step S94, the detection flag is set to 1. Then, the main control unit 10 sets the output flag to 1 in step S95, clears the movement direction history in step S96, and completes the specific operation detection process.

ステップS91において、指がタッチパネル2に触れたまま領域内で回転する軌跡を描いて移動していなかった場合(ステップS91,No)、主制御部10は、ステップS92として、出力フラグが0であるかを判定する。ここで、出力フラグが0でなかった場合、すなわち、指が滞在している領域で特定の動作を検出済みの場合(ステップS92,No)、主制御部10は、特に処理を行わずに特定動作検出処理を完了させる。   In step S91, when the finger has not touched the touch panel 2 and moved while drawing a trajectory rotating in the region (No in step S91), the main control unit 10 has an output flag of 0 as step S92. Determine whether. Here, if the output flag is not 0, that is, if a specific action has already been detected in the region where the finger is staying (step S92, No), the main control unit 10 specifies without performing any particular processing. Complete the motion detection process.

一方、出力フラグが0であった場合(ステップS92,Yes)、主制御部10は、ステップS93として、指が現在の領域に滞在している時間が所定以上であるかを判定する。ここで、滞在時間は移動方向履歴に含まれる方向ベクトルの数に基づいて求めてもよい。滞在時間が所定以上の場合(ステップS93,Yes)、領域は意図して触れられたと考えられるため、主制御部10は、ステップS94として、検出フラグを1に設定する。そして、主制御部10は、ステップS95として、出力フラグを1に設定し、ステップS96として、移動方向履歴をクリアして、特定動作検出処理を完了させる。   On the other hand, when the output flag is 0 (step S92, Yes), the main control unit 10 determines whether or not the time during which the finger stays in the current area is greater than or equal to a predetermined time as step S93. Here, the staying time may be obtained based on the number of direction vectors included in the movement direction history. If the staying time is equal to or longer than the predetermined time (step S93, Yes), the main control unit 10 sets the detection flag to 1 as step S94 because the area is considered to have been touched intentionally. Then, the main control unit 10 sets the output flag to 1 in step S95, clears the movement direction history in step S96, and completes the specific operation detection process.

滞在時間が所定以上でなかった場合(ステップS93,No)、領域が意図して触れられたか不明であるため、主制御部10は、特に処理を行わずに特定動作検出処理を完了させる。   If the stay time is not equal to or longer than the predetermined time (No at Step S93), it is unclear whether the area has been touched intentionally, so the main control unit 10 completes the specific action detection process without performing any particular process.

ステップS89において、接触の位置がいずれかの領域内でなかった場合(ステップS89,No)、主制御部10は、特に処理を行わずに特定動作検出処理を完了させる。   In step S89, when the contact position is not in any region (step S89, No), the main control unit 10 completes the specific action detection process without performing any particular process.

上述してきたように、携帯電話端末1は、指をタッチパネル2から離すことなく、文字の入力や、文字の挿入位置の指定等を行うことができるように構成されているので、タッチパネル上で高速に文字を入力することを可能にする。   As described above, the mobile phone terminal 1 is configured to be able to input characters, specify the insertion position of the characters, and the like without releasing the finger from the touch panel 2. Allows you to enter characters.

なお、上記の実施形態で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができる。例えば、上記の実施形態では、テキスト表示領域15で検出された特定の動作に基づいて、文字列の挿入位置や置換範囲を判定することとしたが、テキスト表示領域15で検出された特定の動作に基づいて、予測変換における単語の区切り位置を変更できるようにしてもよい。   In addition, the aspect of this invention shown by said embodiment can be arbitrarily changed in the range which does not deviate from the summary of this invention. For example, in the above embodiment, the insertion position and the replacement range of the character string are determined based on the specific operation detected in the text display area 15, but the specific operation detected in the text display area 15 Based on the above, the word break position in the predictive conversion may be changed.

図14は、予測変換における単語の区切り位置を変更する場合の操作例を示す図である。ステップS101は、利用者が、「エレクトロニクス産業の発達により、」というテキストの後に、「国際的」と入力しようとしている場面を示している。この場面では、利用者は、「こくさいてき(KOKUSAITEKI)」と入力したものの、単語の区切りが「こく」と「さいてき」の間にあると誤って解釈されたために、予測変換候補として「濃く最適」および「告最適」という不適切な文字が表示されている。日本語では、英語等と異なって単語間を区切る空白文字がないため、このように単語の区切り位置が誤って解釈される場合がある。   FIG. 14 is a diagram illustrating an operation example in the case of changing the word break position in the predictive conversion. Step S101 shows a scene in which the user intends to input “international” after the text “Due to the development of the electronics industry”. In this scene, the user inputs “KOKUSAITEKI”, but the word break is misinterpreted as being between “Koku” and “Saisui”. Inappropriate characters such as “Darker optimal” and “Notice optimal” are displayed. In Japanese, unlike English and the like, there is no space character that separates words, and thus the word separation position may be misinterpreted in this way.

この場合、利用者は、ステップS102として、指をタッチパネル2に触れさせたままで、テキスト表示領域15に表示されている「こくさい」と「てき」の間に移動させた後、進行方向を変更する。   In this case, the user changes the traveling direction after moving the finger between “Kokusai” and “Ki” displayed in the text display area 15 while keeping the finger touching the touch panel 2 in Step S102. To do.

すると、携帯電話端末1は、「こくさい」と「てき」間の空間への進入方向と脱出方向の角度差が閾値よりも大きいため、「こくさい」と「てき」の間が意図的に触れられたと判定する。このように、変換途中の未確定な文字列の表示領域で特定の動作が検出された場合、携帯電話端末1は、その動作が検出された位置が単語の区切り位置であるものとして、予測変換を実行し直す。   Then, the cellular phone terminal 1 deliberately has a difference between “Kokusai” and “Ki” because the angle difference between the direction of entering and leaving the space between “Kokusai” and “Ki” is larger than the threshold value. It is determined that it has been touched. As described above, when a specific action is detected in the display area of an undetermined character string in the middle of conversion, the mobile phone terminal 1 assumes that the position where the action is detected is a word break position, and predictive conversion Try again.

その結果、ステップS103では、「国際的」という所望の文字列を含む予測変換候補が、入力文字列候補表示領域14に表示されている。そして、ステップS104では、利用者は、指をタッチパネル2に触れさせたままで、入力文字列候補表示領域14内の「国際的」の表示領域内へ移動させた後、進行方向を変更して表示領域の外部へ移動させている。すると、携帯電話端末1は、「国際的」の表示領域への進入方向と脱出方向の角度差が閾値よりも大きいため、「国際的」が選択されたと判定する。   As a result, in step S <b> 103, the predicted conversion candidate including the desired character string “international” is displayed in the input character string candidate display area 14. In step S104, the user moves the finger to the “international” display area in the input character string candidate display area 14 while keeping the finger touching the touch panel 2, and then displays the display while changing the traveling direction. It is moved outside the area. Then, the mobile phone terminal 1 determines that “international” is selected because the angle difference between the entry direction and the exit direction to the “international” display area is larger than the threshold value.

そして、ステップS105において、携帯電話端末1は、未確定な文字列であった「こくさいてき」を消去して、選択された「国際的」をカーソルの直後に表示させる。そして、携帯電話端末1は、新たに入力される文字が「国際的」の後に追加されることを示すために、カーソルを「国際的」の直後に移動させる。   In step S <b> 105, the mobile phone terminal 1 deletes “Kokusai come”, which is an undetermined character string, and displays the selected “international” immediately after the cursor. Then, the cellular phone terminal 1 moves the cursor immediately after “international” to indicate that a newly input character is added after “international”.

このように、単語の区切り位置を特定の動作が検出された位置に基づいて特定することにより、利用者は、指をタッチパネル2に触れさせたままで、区切り位置をスムーズに指定することができる。   Thus, by specifying the word break position based on the position where the specific action is detected, the user can smoothly specify the break position while keeping the finger touching the touch panel 2.

また、上記の実施形態では、テキスト表示領域15で検出された特定の動作に基づいて、文字列の挿入位置や置換範囲を判定することとしたが、テキスト表示領域15で検出された特定の動作に基づいて、再変換を行う範囲を指定できるようにしてもよい。   In the above embodiment, the insertion position and replacement range of the character string are determined based on the specific operation detected in the text display area 15. However, the specific operation detected in the text display area 15 is determined. Based on the above, it may be possible to designate a range for performing reconversion.

図15は、入力済みのテキストの一部を再変換する場合の操作例を示す図である。ステップS111は、図6に示したような操作によって「エレクトロニクス三行の発達により」というテキストの入力が済んでいる場面を示している。この場面では、「エレクトロニクス三行の発達により」というテキストがテキスト表示領域15に表示され、そのテキストの直後にカーソルおよび改行記号が表示されている。また、利用者の指は、タッチパネル2に触れたまま、仮想キーボード4内に置かれている。   FIG. 15 is a diagram illustrating an operation example when re-converting a part of the input text. Step S111 shows a scene in which the text “Due to the development of three lines of electronics” has been input by the operation shown in FIG. In this scene, the text “Due to the development of three lines of electronics” is displayed in the text display area 15, and a cursor and a line feed symbol are displayed immediately after the text. The user's finger is placed in the virtual keyboard 4 while touching the touch panel 2.

ここで、利用者が、入力済の「三行」を「産業」へ再変換したいものとする。この場合、利用者は、ステップS112として、指をタッチパネル2に触れさせたままで、テキスト表示領域15に表示されている「エレクトロニクス」と「三行」の間に移動させた後、進行方向を変更して、指を「三行」と「の」の間まで移動させる。   Here, it is assumed that the user wants to reconvert the input “three lines” into “industry”. In this case, in step S112, the user changes the traveling direction after moving between “electronics” and “three lines” displayed in the text display area 15 while keeping the finger touching the touch panel 2. Then, move the finger between “three lines” and “no”.

すると、携帯電話端末1は、「エレクトロニクス」と「三行」間の空間への進入方向と脱出方向の角度差が閾値よりも大きいため、「エレクトロニクス」と「三行」の間が再変換範囲の始点として選択されたと判定する。そして、携帯電話端末1は、「エレクトロニクス」と「三行」の間が選択された後に指が通過した部分を、他の部分と異なる態様で表示させる。図15の例では、携帯電話端末1は、「三行」の部分を反転表示させている。   Then, since the angle difference between the direction of entering and exiting the space between “electronics” and “three rows” is larger than the threshold, the mobile phone terminal 1 has a reconversion range between “electronics” and “three rows”. It is determined that the start point is selected. Then, the cellular phone terminal 1 displays a portion where the finger has passed after “electronics” and “three rows” are selected in a manner different from the other portions. In the example of FIG. 15, the mobile phone terminal 1 highlights the “three rows” portion.

そして、利用者は、ステップS113として、指をタッチパネル2に触れさせたままで、進行方向を変更させる。すると、携帯電話端末1は、「三行」と「の」間の空間への進入方向と脱出方向の角度差が閾値よりも大きいため、「三行」と「の」の間が再変換範囲の終点として選択されたと判定する。   Then, in step S113, the user changes the traveling direction while keeping the finger touching the touch panel 2. Then, since the mobile phone terminal 1 has an angle difference between the direction of entering and exiting the space between “three rows” and “no” greater than the threshold, the range between “three rows” and “ It is determined that it has been selected as the end point.

こうして、再変換範囲の始点および終点が特定されると、携帯電話端末1は、再変換範囲である「三行」の変換前の文字列を取得する。ここで、変換前の文字列は、変換後の文字列を辞書データ9Eと照合して取得することとしてもよいし、予測変換の実行時に変換前の文字列と変換後の文字列とを対応付けて記憶部9等に記憶させておくこととし、その記憶させておいた情報に基づいて取得することとしてもよい。そして、携帯電話端末1は、変換前の文字列に基づいて予測変換を再実行する。   When the start point and end point of the reconversion range are specified in this way, the mobile phone terminal 1 acquires the pre-conversion character string of “three lines” as the reconversion range. Here, the character string before conversion may be obtained by comparing the converted character string with the dictionary data 9E, and the character string before conversion corresponds to the character string after conversion at the time of predictive conversion. In addition, it may be stored in the storage unit 9 or the like, and may be acquired based on the stored information. And the mobile telephone terminal 1 re-executes prediction conversion based on the character string before conversion.

そして、携帯電話端末1は、ステップS114において、再変換範囲である「三行」に代えて、変換前の文字列である「さんぎょう」を、未確定であることを示す下線を付して表示する。また、携帯電話端末1は、「さんぎょう」を予測変換して得られた「産業」および「三行」という2つの文字列を入力文字列の候補として、入力文字列候補表示領域14に表示する。   In step S114, the mobile phone terminal 1 adds an underline indicating that the character string before conversion is “unfixed” instead of “three lines” that is the re-conversion range. To display. In addition, the mobile phone terminal 1 uses the two character strings “industry” and “three lines” obtained by predictive conversion of “sangyo” as input character string candidates in the input character string candidate display area 14. indicate.

続いて、利用者は、ステップS115として、指をタッチパネル2に触れさせたままで、入力文字列候補表示領域14内の「産業」の表示領域内へ移動させた後、進行方向を変更して表示領域の外部へ移動させている。すると、携帯電話端末1は、「産業」の表示領域への進入方向と脱出方向の角度差が閾値よりも大きいため、「産業」が選択されたと判定する。   Subsequently, in step S115, the user moves the display to the "industry" display area in the input character string candidate display area 14 while keeping the finger touching the touch panel 2, and then displays the display by changing the traveling direction. It is moved outside the area. Then, the mobile phone terminal 1 determines that “industry” is selected because the angle difference between the entry direction and the exit direction to the display area of “industry” is larger than the threshold value.

そして、ステップS116において、携帯電話端末1は、未確定な文字列であった「さんぎょう」を消去して、選択された「産業」をカーソルの直後に表示させる。そして、携帯電話端末1は、新たに入力される文字が「産業」の後に追加されることを示すために、カーソルを「産業」の直後に移動させる。   In step S116, the cellular phone terminal 1 deletes “Sangyo”, which is an undefined character string, and displays the selected “Industry” immediately after the cursor. Then, the mobile phone terminal 1 moves the cursor immediately after “Industry” to indicate that a newly input character is added after “Industry”.

このように、テキスト表示領域15に表示されている入力済みのテキストの再変換範囲を特定の動作が検出された位置に基づいて特定することにより、利用者は、指をタッチパネル2に触れさせたままで、再変換範囲をスムーズに指定することができる。   In this way, by specifying the reconversion range of the input text displayed in the text display area 15 based on the position where the specific action is detected, the user keeps the finger touching the touch panel 2. The re-conversion range can be specified smoothly.

なお、特定の動作によって指定した範囲を置換範囲として扱うか、再変換範囲として扱うかを利用者が選択できるようにしてもよい。このような選択は、例えば、特定の動作によって範囲が指定された場合に、図16に示すようなメニューをタッチパネル2に表示させることで実現することができる。すなわち、テキスト表示領域15に表示されているテキストのうち「三行」の部分が特定の動作によって範囲指定された場合に、図16に示すようにメニューを表示するように携帯電話端末1を構成する。そして、特定の動作によって「再変換」の項目が選択された場合には、図15に示したような動作を行い、いずれの項目も選択されることなく仮想キーボード4を用いて新たに文字列が入力された場合には、図8に示したような動作を行うようにする。   Note that the user may be able to select whether the range specified by a specific operation is handled as a replacement range or a reconversion range. Such a selection can be realized by, for example, displaying a menu as shown in FIG. 16 on the touch panel 2 when a range is designated by a specific operation. That is, the mobile phone terminal 1 is configured to display a menu as shown in FIG. 16 when the range of “three lines” of the text displayed in the text display area 15 is designated by a specific operation. To do. Then, when the “reconversion” item is selected by a specific operation, the operation shown in FIG. 15 is performed, and a new character string is created using the virtual keyboard 4 without selecting any item. Is input, the operation as shown in FIG. 8 is performed.

また、図16に示すようなメニューを表示する場合、「削除」の項目が選択されると、範囲指定された部分を削除することとしてもよい。また、「切り取り」または「コピー」の項目が選択されると、範囲指定された部分を対象としてカット&ペースト操作またはコピー&ペースト動作を行うこととしてもよい。カット&ペースト操作またはコピー&ペースト動作によって選択範囲が挿入される位置は、メニューの項目の選択の後に特定の動作によって指定されることとしてもよい。   Further, when a menu as shown in FIG. 16 is displayed, when a “delete” item is selected, a range-designated portion may be deleted. Further, when the item “Cut” or “Copy” is selected, a cut and paste operation or a copy and paste operation may be performed on a range-specified portion. The position where the selection range is inserted by the cut and paste operation or the copy and paste operation may be specified by a specific operation after the selection of the menu item.

また、上述した実施形態では、仮想キーボード4を用いて入力された文字列に基づいて予測変換処理を行うこととしたが、予測変換処理ではなく、仮名漢字変換または補正/補完処理を行うこととしてもよい。ここで、補正/補完処理とは、入力された文字列と類似する単語を辞書データ9Eと照合する等して取得し、入力された文字列が正しい単語となるように誤っている文字を補正したり、不足している文字を補完したりする処理である。   Further, in the above-described embodiment, the predictive conversion process is performed based on the character string input using the virtual keyboard 4, but the kana-kanji conversion or the correction / complement process is performed instead of the predictive conversion process. Also good. Here, the correction / complement processing is obtained by collating a word similar to the input character string with the dictionary data 9E and correcting the erroneous character so that the input character string becomes a correct word. Or the process of complementing missing characters.

また、上述した実施形態では、文字入力プログラム9Cが提供する画面に表示されるテキストを対象として文字列の挿入等を行うこととしたが、メールプログラム9A等の他のプログラムが提供する画面に表示されるテキストを対象として文字列の挿入等を行うこととしてもよい。この場合、図11および図12に示した処理手順は、文字入力プログラム9Cが提供する機能と、他のプログラムが提供する機能との協業によって実現される。また、文字入力プログラム9Cは、複数のプログラムに分割されていてもよいし、他のプログラムと統合されていてもよい。   In the above-described embodiment, the text string is inserted for the text displayed on the screen provided by the character input program 9C. However, it is displayed on the screen provided by another program such as the mail program 9A. It is also possible to insert a character string for the text to be processed. In this case, the processing procedure shown in FIG. 11 and FIG. 12 is realized by cooperation of the function provided by the character input program 9C and the function provided by another program. The character input program 9C may be divided into a plurality of programs or may be integrated with other programs.

以上のように、本発明に係る文字入力装置、文字入力方法および文字入力プログラムは、文字の入力に有効であり、タッチパネルを用いて文字を高速に入力することが必要な場合に特に適している。   As described above, the character input device, the character input method, and the character input program according to the present invention are effective for inputting characters, and are particularly suitable when it is necessary to input characters at high speed using a touch panel. .

1 携帯電話端末
2 タッチパネル
2A タッチセンサ
2B 表示部
3 入力部
3A、3B、3C ボタン
4 仮想キーボード
5 電源部
6 通信部
7 スピーカ
8 マイク
9 記憶部
9A メールプログラム
9B ブラウザプログラム
9C 文字入力プログラム
9D 仮想キーボードデータ
9E 辞書データ
10 主制御部
11 RAM
14 入力文字列候補表示領域
15 テキスト表示領域
DESCRIPTION OF SYMBOLS 1 Cellular phone terminal 2 Touch panel 2A Touch sensor 2B Display part 3 Input part 3A, 3B, 3C Button 4 Virtual keyboard 5 Power supply part 6 Communication part 7 Speaker 8 Microphone 9 Storage part 9A Mail program 9B Browser program 9C Character input program 9D Virtual keyboard Data 9E Dictionary data 10 Main controller 11 RAM
14 Input character string candidate display area 15 Text display area

Claims (11)

表面に対する動作を検出するタッチパネルと、
前記タッチパネル上にテキストを表示させる制御部とを備え、
当該前記制御部は、
前記タッチパネル上にそれぞれが特定の文字と対応づけられた複数のボタンを含むキーボード領域を表示させ、
前記複数のボタンを介してテキストを入力している際に、前記キーボード領域から開始して前記テキストの表示領域にかけて、前記タッチパネルの表面に接触したままで行われる所定動作が検出された場合に、前記テキストのうち、前記所定動作が検出された位置に対応する部分を編集箇所の基準として、前記テキストの編集処理を行うことを特徴とする文字入力装置。
A touch panel that detects movement on the surface;
A control unit for displaying text on the touch panel,
The control unit
Displaying a keyboard area including a plurality of buttons each associated with a specific character on the touch panel;
When you are entering text via the plurality of buttons, said starting from keyboard area over the display area of the text, when a predetermined operation performed while in contact with the surface of the touch panel is detected In addition, the text input device performs the text editing process by using a portion of the text corresponding to the position where the predetermined motion is detected as a reference of an editing portion.
記タッチパネルの表面の第1の位置で接触が開始され、前記タッチパネルの表面の第2の位置まで接触を維持する接触動作が前記タッチパネルによって検出された場合に、前記第1の位置で接触が開始されてから前記第2の位置まで接触が維持される間に接触が検出された各位置を結ぶ軌跡上に表示されているボタンに対応する文字を含む文字列を入力として受け付け、
入力として受け付けた文字列を連結して前記テキストとして表示させることを特徴とする請求項1に記載の文字入力装置。
Before SL is contacted starts at the first position on the surface of the touch panel, when the contact operation to maintain contact to a second position of the surface of the touch panel is detected by the touch panel, the contact in the first position Accepting as input a character string including characters corresponding to the buttons displayed on the trajectory connecting the positions where contact was detected while contact was maintained from the start to the second position;
The character input device according to claim 1, wherein character strings received as input are connected and displayed as the text.
前記制御部は、前記編集処理として、前記テキストのうち、前記所定動作が検出された位置に対応する部分に、新たに入力を受け付けた文字列を挿入することを特徴とする請求項1または2に記載の文字入力装置。   The control unit inserts a character string newly accepted as input into a portion of the text corresponding to a position where the predetermined action is detected as the editing process. The character input device described in 1. 前記制御部は、前記編集処理として、前記テキストのうち、第1の所定動作が検出された位置に対応する第1の部分と第2の所定動作が検出された位置に対応する第2の部分とに囲まれた部分を、新たに入力を受け付けた文字列と置換することを特徴とする請求項1または2に記載の文字入力装置。   The control unit, as the editing process, includes a first part corresponding to a position where a first predetermined action is detected and a second part corresponding to a position where a second predetermined action is detected in the text. The character input device according to claim 1, wherein a portion surrounded by the character string is replaced with a character string newly accepted. 前記制御部は、前記編集処理として、前記テキストのうち、第1の所定動作が検出された位置に対応する第1の部分と第2の所定動作が検出された位置に対応する第2の部分とに囲まれた部分を、当該部分の変換前の文字列に基づく変換処理によって得られた文字列と置換することを特徴とする請求項1または2に記載の文字入力装置。   The control unit, as the editing process, includes a first part corresponding to a position where a first predetermined action is detected and a second part corresponding to a position where a second predetermined action is detected in the text. The character input device according to claim 1, wherein a part surrounded by is replaced with a character string obtained by a conversion process based on a character string before conversion of the part. 前記制御部は、前記第2の所定動作が検出された場合に、前記テキストのうち、前記第1の部分と前記第2の部分とに囲まれた部分を他の部分と異なる態様で表示させることを特徴とする請求項4または5に記載の文字入力装置。   When the second predetermined action is detected, the control unit displays a part of the text surrounded by the first part and the second part in a manner different from other parts. The character input device according to claim 4, wherein the character input device is a character input device. 前記制御部は、移動方向を変化させる動作を前記所定動作の1つとして検出することを特徴とする請求項1から6のいずれか1項に記載の文字入力装置。   The character input device according to claim 1, wherein the control unit detects an operation for changing a moving direction as one of the predetermined operations. 前記制御部は、特定の形状の軌跡を描く動作を前記所定動作の1つとして検出することを特徴とする請求項1から7のいずれか1項に記載の文字入力装置。   The character input device according to claim 1, wherein the control unit detects an operation of drawing a trajectory of a specific shape as one of the predetermined operations. 前記制御部は、所定以上の期間特定の位置にとどまる動作を前記所定動作の1つとして検出することを特徴とする請求項1から8のいずれか1項に記載の文字入力装置。   The character input device according to claim 1, wherein the control unit detects an operation that remains at a specific position for a predetermined period or longer as one of the predetermined operations. 表面に対する接触を検出するタッチパネルを有する文字入力装置によって実行される文字入力方法であって、
前記タッチパネル上にテキストを表示させるステップと、
前記タッチパネル上にそれぞれが特定の文字と対応づけられた複数のボタンを含むキーボード領域を表示させるステップと、
前記複数のボタンを介してテキストを入力している際に、前記キーボード領域から開始して前記テキストの表示領域にかけて前記タッチパネルの表面に接触したままで行われる所定動作を検出するステップと、
前記テキストのうち、前記所定動作が検出された位置に対応する部分を編集箇所の基準として、前記テキストの編集処理を行うステップと
を含むことを特徴とする文字入力方法。
A character input method executed by a character input device having a touch panel for detecting contact with a surface,
Displaying text on the touch panel;
Displaying a keyboard region including a plurality of buttons each associated with a specific character on the touch panel;
Detecting when you are entering text, the predetermined operation performed while starting in contact with the surface of the touch panel over a display region of the text from the keyboard area through the plurality of buttons,
And a step of editing the text using a portion of the text corresponding to the position where the predetermined motion is detected as a reference of an editing portion.
表面に対する接触を検出するタッチパネルを有する文字入力装置に、
前記タッチパネル上にテキストを表示させるステップと、
前記タッチパネル上にそれぞれが特定の文字と対応づけられた複数のボタンを含むキーボード領域を表示させるステップと、
前記複数のボタンを介してテキストを入力している際に、前記キーボード領域から開始して前記テキストの表示領域にかけて前記タッチパネルの表面に接触したままで行われる所定動作を検出するステップと、
前記テキストのうち、前記所定動作が検出された位置に対応する部分を編集箇所の基準として、前記テキストの編集処理を行うステップと
を実行させることを特徴とする文字入力プログラム。
In a character input device having a touch panel that detects contact with the surface,
Displaying text on the touch panel;
Displaying a keyboard region including a plurality of buttons each associated with a specific character on the touch panel;
Detecting when you are entering text, the predetermined operation performed while starting in contact with the surface of the touch panel over a display region of the text from the keyboard area through the plurality of buttons,
And a step of performing an editing process on the text with a portion corresponding to a position where the predetermined action is detected as a reference of an editing portion.
JP2010217246A 2010-09-28 2010-09-28 Character input device, character input method, and character input program Expired - Fee Related JP5627372B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010217246A JP5627372B2 (en) 2010-09-28 2010-09-28 Character input device, character input method, and character input program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010217246A JP5627372B2 (en) 2010-09-28 2010-09-28 Character input device, character input method, and character input program

Publications (2)

Publication Number Publication Date
JP2012073757A JP2012073757A (en) 2012-04-12
JP5627372B2 true JP5627372B2 (en) 2014-11-19

Family

ID=46169875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010217246A Expired - Fee Related JP5627372B2 (en) 2010-09-28 2010-09-28 Character input device, character input method, and character input program

Country Status (1)

Country Link
JP (1) JP5627372B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103064530B (en) * 2012-12-31 2017-03-08 华为技术有限公司 input processing method and device
JP2014186558A (en) * 2013-03-22 2014-10-02 Sharp Corp Information processing device and control method for information processing device
JP6725828B2 (en) * 2015-10-23 2020-07-22 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02257210A (en) * 1989-02-03 1990-10-18 Sharp Corp Character-string reinputting method
JPH05314098A (en) * 1992-05-13 1993-11-26 Mitsubishi Electric Corp Document preparing device
JPH0834766B2 (en) * 1992-09-25 1996-03-29 カシオ計算機株式会社 Display data editing method
JP3353957B2 (en) * 1992-12-04 2002-12-09 ソニー株式会社 Handwritten input display device and method
JPH0830615A (en) * 1994-07-20 1996-02-02 Sharp Corp Information processor
US7250938B2 (en) * 2004-01-06 2007-07-31 Lenovo (Singapore) Pte. Ltd. System and method for improved user input on personal computing devices
JP2009205304A (en) * 2008-02-26 2009-09-10 Ntt Docomo Inc Device and method for controlling touch panel, and computer program

Also Published As

Publication number Publication date
JP2012073757A (en) 2012-04-12

Similar Documents

Publication Publication Date Title
JP5697521B2 (en) Character input device, character input control method, and character input program
JP5615583B2 (en) Character input device, character input method, and character input program
KR101349230B1 (en) Mobile terminal
US20120056814A1 (en) Character input device and character input method
EP3037948B1 (en) Portable electronic device and method of controlling display of selectable elements
US9256363B2 (en) Information processing device and character input method
JP5794822B2 (en) Electronic device, screen control method, and screen control program
US9703418B2 (en) Mobile terminal and display control method
JP5077210B2 (en) Portable information processing device
EP3059668B1 (en) Portable electronic device including touch-sensitive display and method of controlling selection of information
WO2011129398A1 (en) Character input device and character input method
JP5931627B2 (en) Portable terminal device, program, and input correction method
JP2012088750A (en) Electronic apparatus and character input program for electronic apparatus
JP5627372B2 (en) Character input device, character input method, and character input program
JP2011192173A (en) Information processor and touch panel operation method
JP5667632B2 (en) Electronic device and control method thereof
JP2012208614A (en) Portable electronic equipment
JP5697491B2 (en) Electronic device, display method and program
JP5503486B2 (en) Character input device, character input method, and character editing program
WO2012026590A1 (en) Character input device, character input method, and character input program
JP7036862B2 (en) Electronics, control methods, and programs
JP2011237876A (en) Character input device, character input method, and character input program
JP6925789B2 (en) Electronics, control methods, and programs
JP5615579B2 (en) Character input device, character input method, and character input program
KR101149892B1 (en) Mobile device, letter input method thereof and

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140930

R150 Certificate of patent or registration of utility model

Ref document number: 5627372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees