JP5994374B2 - Character processing apparatus and program - Google Patents

Character processing apparatus and program Download PDF

Info

Publication number
JP5994374B2
JP5994374B2 JP2012107506A JP2012107506A JP5994374B2 JP 5994374 B2 JP5994374 B2 JP 5994374B2 JP 2012107506 A JP2012107506 A JP 2012107506A JP 2012107506 A JP2012107506 A JP 2012107506A JP 5994374 B2 JP5994374 B2 JP 5994374B2
Authority
JP
Japan
Prior art keywords
character
displayed
display
image
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012107506A
Other languages
Japanese (ja)
Other versions
JP2013235429A (en
Inventor
村石 理恵
理恵 村石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2012107506A priority Critical patent/JP5994374B2/en
Publication of JP2013235429A publication Critical patent/JP2013235429A/en
Application granted granted Critical
Publication of JP5994374B2 publication Critical patent/JP5994374B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、文字処理装置及びプログラムに関する。   The present invention relates to a character processing device and a program.

文字入力の発明として例えば特許文献1,2に開示された装置がある。特許文献1に開示された装置では、50音のあ段の平仮名がタッチパネルに表示され、表示された平仮名のいずれかにユーザが指で触れると50音の行が選択される。また、この選択後に指をタッチパネル上で動かすと、選択された行に含まれる平仮名のいずれかが指のY方向への移動距離に応じて選択され、選択された平仮名の属性(濁音、半濁音、小文字、長音、促音など)が指のX方向への移動距離に応じて選択される。また、特許文献2に開示された装置は、50音のあ段の平仮名が配置されたキーが押された回数に応じて清音を選択し、清音を選択した後にキーが押され続けた時間に応じて小文字への変換や濁音、半濁音の追加を行う。   As an invention of character input, for example, there are devices disclosed in Patent Documents 1 and 2. In the apparatus disclosed in Patent Document 1, a hiragana with 50 syllables is displayed on a touch panel, and when a user touches one of the displayed hiragana with a finger, a line of 50 syllabary is selected. When the finger is moved on the touch panel after this selection, one of the hiragana characters included in the selected row is selected according to the movement distance of the finger in the Y direction, and the attribute of the selected hiragana character (turbid sound, semi-voiced sound) , Small letters, long sounds, prompt sounds, etc.) are selected according to the distance of movement of the finger in the X direction. In addition, the device disclosed in Patent Document 2 selects a clear sound according to the number of times a key on which a hiragana with 50 dans is placed is pressed, and after a clear sound is selected, the key continues to be pressed. Correspondingly, conversion to lower case and addition of muddy and semi-voiced sounds are performed.

特開2009−199323号公報JP 2009-199323 A 特開2002−82760号公報JP 2002-82760 A

本発明は、上述した背景の下になされたものであり、文字変換のためのユーザインターフェースの画像を操作しなくても文字変換を行えるようにすることを目的とする。   The present invention has been made under the background described above, and an object thereof is to enable character conversion without operating an image of a user interface for character conversion.

本発明の請求項1に係る文字処理装置は、画像を表示する表示手段と、予め定められた各々異なる複数の文字が前記表示手段に表示されるように前記表示手段を制御する第1制御手段と、前記表示手段の表示面上における指示体の動作と当該指示体の位置とを検出する検出手段と、前記検出手段が検出した動作が、表示された前記複数の文字のいずれかを指定する動作である場合、指定された文字が前記表示手段の予め定められた領域に表示されるように前記表示手段を制御する第2制御手段と、前記検出手段が検出した位置が前記領域内であり、前記検出手段が検出した動作が予め定められた複数の動作のうちのいずれかの動作である場合、前記領域に表示されて選択されている文字を当該動作に対応付けられた変換規則に従って変換する変換手段とを備え、前記検出手段は、複数の指示体の動作及び位置を検出し、前記検出手段が検出した前記複数の指示体のいずれかの動作が前記複数の文字のいずれかを指定する動作であり、文字を指定した指示体以外の指示体の動作が文字を指定した指示体との距離を変更する動作又は前記表示面を叩く動作である場合、指示体で指定されている文字を当該動作に対応付けられた変換規則に従って変換し、変換後の文字が表示されるように前記表示手段を制御する構成を有する。 The character processing device according to claim 1 of the present invention includes a display unit that displays an image, and a first control unit that controls the display unit so that a plurality of predetermined different characters are displayed on the display unit. And a detecting means for detecting the movement of the indicator on the display surface of the display means and the position of the pointer, and the action detected by the detecting means designates one of the displayed characters. If it is an action, the second control means for controlling the display means so that the designated character is displayed in a predetermined area of the display means, and the position detected by the detection means is within the area. When the action detected by the detecting means is one of a plurality of predetermined actions, the character displayed and selected in the area is converted according to a conversion rule associated with the action. Do And a switch means, said detecting means detects the operation and positions of a plurality of pointer, one of the operation of said plurality of pointer detected by the detection means to specify one of the plurality of characters If the action of the indicator other than the indicator specifying the character is an operation of changing the distance from the indicator specifying the character or an operation of hitting the display surface, the character specified by the indicator The display unit is controlled according to a conversion rule associated with the operation, and the display means is controlled so that the converted character is displayed .

本発明の請求項に係るプログラムは、コンピュータを、予め定められた各々異なる複数の文字が画像を表示する表示手段に表示されるように前記表示手段を制御する第1制御手段と、前記表示手段の表示面上における指示体の動作と当該指示体の位置とを検出する手段であって、複数の指示体の動作及び位置を検出する検出手段と、前記検出手段が検出した動作が、表示された前記複数の文字のいずれかを指定する動作である場合、指定された文字が前記表示手段の予め定められた領域に表示されるように前記表示手段を制御する第2制御手段と、前記検出手段が検出した位置が前記領域内であり、前記検出手段が検出した動作が予め定められた複数の動作のうちのいずれかの動作である場合、前記領域に表示されて選択されている文字を当該動作に対応付けられた変換規則に従って変換する変換手段と、前記検出手段が検出した前記複数の指示体のいずれかの動作が前記複数の文字のいずれかを指定する動作であり、文字を指定した指示体以外の指示体の動作が文字を指定した指示体との距離を変更する動作又は前記表示面を叩く動作である場合、指示体で指定されている文字を当該動作に対応付けられた変換規則に従って変換し、変換後の文字が表示されるように前記表示手段を制御する手段として機能させる。 According to a second aspect of the present invention, there is provided a program for causing a computer to control the display unit such that a plurality of predetermined different characters are displayed on a display unit that displays an image; Means for detecting the action of the indicator on the display surface of the means and the position of the indicator, the detecting means for detecting the action and position of the plurality of indicators, and the action detected by the detecting means are displayed. A second control means for controlling the display means so that the designated character is displayed in a predetermined area of the display means, when the operation is to designate any one of the plurality of characters, When the position detected by the detecting means is within the area, and the action detected by the detecting means is one of a plurality of predetermined actions, the character displayed and selected in the area The Conversion means for converting according to the conversion rule associated with said operating is an operation in which one of the operation of said plurality of pointer detected by the detection means to specify one of the plurality of characters, specifies the character When the action of the indicator other than the designated indicator is an action of changing the distance from the indicator specifying the character or an action of hitting the display surface, the character specified by the indicator is associated with the action. Conversion is performed according to the conversion rule, and the display unit is caused to function so as to display the converted character .

請求項1,の構成によれば、文字変換のためのユーザインターフェースの画像を操作しなくても文字変換を行うことが可能である According to the first and second aspects, it is possible to perform character conversion without operating the user interface image for character conversion .

本発明の一実施形態に係る画像形成装置のハードウェアの構成を示したブロック図。1 is a block diagram showing a hardware configuration of an image forming apparatus according to an embodiment of the present invention. 制御部102において実現する機能の構成を示したブロック図。The block diagram which showed the structure of the function implement | achieved in the control part. 制御部102が行う処理の流れを示したフローチャート。The flowchart which showed the flow of the process which the control part 102 performs. 制御部102が行う処理の流れを示したフローチャート。The flowchart which showed the flow of the process which the control part 102 performs. 制御部102が行う処理の流れを示したフローチャート。The flowchart which showed the flow of the process which the control part 102 performs. 制御部102が行う処理の流れを示したフローチャート。The flowchart which showed the flow of the process which the control part 102 performs. 制御部102が行う処理の流れを示したフローチャート。The flowchart which showed the flow of the process which the control part 102 performs. 制御部102が行う処理の流れを示したフローチャート。The flowchart which showed the flow of the process which the control part 102 performs. 制御部102が行う処理の流れを示したフローチャート。The flowchart which showed the flow of the process which the control part 102 performs. 表示部1042に表示される画面の一例を示した図。FIG. 10 shows an example of a screen displayed on the display unit 1042. 表示部1042に表示される画面の一例を示した図。FIG. 10 shows an example of a screen displayed on the display unit 1042. 変形例において表示される画面の一例を示した図。The figure which showed an example of the screen displayed in a modification.

[実施形態]
図1は、本発明の一実施形態に係る画像形成装置1のハードウェア構成を示した図である。本実施形態に係る画像形成装置1は電子写真方式の画像形成装置である。画像形成装置1は、他のコンピュータ装置から送られたデータに従って用紙に画像を形成する画像形成機能、文書を複写する複写機能、用紙に形成されている画像を読み取るスキャン機能、ファクシミリ機能などを備えている。なお、画像形成装置1は、上述した機能を全て備えているものに限定されず、例えば、画像形成機能および複写機能を備えており、他の機能を備えていない構成であってもよい。
[Embodiment]
FIG. 1 is a diagram showing a hardware configuration of an image forming apparatus 1 according to an embodiment of the present invention. The image forming apparatus 1 according to the present embodiment is an electrophotographic image forming apparatus. The image forming apparatus 1 has an image forming function for forming an image on a sheet in accordance with data sent from another computer apparatus, a copying function for copying a document, a scanning function for reading an image formed on the sheet, a facsimile function, and the like. ing. Note that the image forming apparatus 1 is not limited to the one having all the functions described above, and may be configured to have, for example, an image forming function and a copying function, and no other functions.

図に示したように画像形成装置1の各部はバス101に接続され、バス101を介して各部間でデータのやり取りを行う。
本実施形態の操作部104は、画像形成装置1を操作するための複数のボタンを備えている。また、操作部104は、画像を表示する表示手段の一例である表示部1042と、表示部1042の表面に設けられ、表示部1042が表示した画像を透過し、指示体の一例である指が触れた位置を検知する検知部1041とが一体化したタッチスクリーン104Aを備えている。なお、表示部1042としては、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイが用いられる。また、検知部1041としては、触れている複数の指の位置を検知するもの(例えば静電容量方式のもの)が用いられる。
As shown in the figure, each unit of the image forming apparatus 1 is connected to the bus 101, and exchanges data between each unit via the bus 101.
The operation unit 104 of this embodiment includes a plurality of buttons for operating the image forming apparatus 1. In addition, the operation unit 104 is provided on the surface of the display unit 1042 that is an example of a display unit that displays an image and the display unit 1042, and the finger that is an example of an indicator is transmitted through the image displayed on the display unit 1042. A touch screen 104A integrated with a detection unit 1041 that detects a touched position is provided. As the display unit 1042, a liquid crystal display or an organic EL (Electro Luminescence) display is used. In addition, as the detection unit 1041, a detection unit (for example, a capacitance type) that detects the positions of a plurality of touching fingers is used.

本実施形態の通信部109は、通信ケーブルで通信回線に接続され、通信回線に接続されている他の装置とデータ通信を行う。なお、通信回線としては、電話回線やLAN(local Area Network)等が挙げられる。通信部109は、例えば用紙に形成する画像を表す画像データを受信する。通信部109が受信した画像データは、画像処理部108へ供給される。   The communication unit 109 according to the present embodiment is connected to a communication line with a communication cable and performs data communication with other devices connected to the communication line. Examples of the communication line include a telephone line and a LAN (local area network). For example, the communication unit 109 receives image data representing an image to be formed on a sheet. The image data received by the communication unit 109 is supplied to the image processing unit 108.

読取部106は、用紙上に形成されている文字や画像を光学的に読み取り、読み取った画像を表す画像データを生成する画像読取装置(図示略)を備えている。読取部106は、生成した画像データを画像処理部108へ供給する。
画像処理部108は、供給される画像データに各種処理を施すものである。画像処理部108は、供給される画像データが表す画像に色補正や階調補正等の画像処理を施し、画像処理が施された画像からY(Yellow),M(Magenta),C(Cyan),K(Key tone:本実施形態では黒)の各色の画像の画像データを生成して画像形成部107へ出力する。
The reading unit 106 includes an image reading device (not shown) that optically reads characters and images formed on a sheet and generates image data representing the read image. The reading unit 106 supplies the generated image data to the image processing unit 108.
The image processing unit 108 performs various processes on the supplied image data. The image processing unit 108 performs image processing such as color correction and gradation correction on the image represented by the supplied image data, and Y (Yellow), M (Magenta), and C (Cyan) from the image subjected to the image processing. , K (Key tone: black in this embodiment), image data of each color image is generated and output to the image forming unit 107.

本実施形態の画像形成部107は、電子写真方式によって用紙にトナー像を形成する。具体的には、画像形成部107は、上記のY,M,C及びKの色毎に、トナー像を形成する画像形成部を備えている。各画像形成部は、画像処理部108から供給される画像データに従って感光体上に静電潜像を形成した後、感光体表面にトナーを付着させてトナー像を形成し、このトナー像を用紙に転写する。そして、用紙に転写されたトナー像に熱と圧力を加えて定着させた後、トナー像が形成された用紙を画像形成装置1の外へ排出する。
なお、本実施形態においてはトナーを用いて用紙に画像を形成するが、インクジェット方式などのインクを用いて用紙に画像を形成する構成としてもよい。
The image forming unit 107 according to this embodiment forms a toner image on a sheet by an electrophotographic method. Specifically, the image forming unit 107 includes an image forming unit that forms a toner image for each of the Y, M, C, and K colors. Each image forming unit forms an electrostatic latent image on the photoconductor according to the image data supplied from the image processing unit 108, and then forms a toner image by attaching toner to the surface of the photoconductor. Transcript to. The toner image transferred onto the paper is fixed by applying heat and pressure, and then the paper on which the toner image is formed is discharged out of the image forming apparatus 1.
In this embodiment, an image is formed on a sheet using toner, but an image may be formed on a sheet using ink such as an ink jet method.

本実施形態の記憶部103は、電力を供給しなくともデータを保持する記憶装置(例えば、ハードディスク装置)を具備しており、通信部109で受信した画像データや読取部106で生成された画像データなどを記憶する。
本実施形態の制御部102は、CPU(Central Processing Unit)102A、ROM(Read Only Memory)102BおよびRAM(Random Access Memory)102C等を備えた、所謂マイクロコンピュータである。CPU102Aが、ROM102Bに記憶されているプログラムを実行すると、上述した画像形成機能、複写機能、ファクシミリ機能およびスキャン機能などが実現する。また、CPU102Aが、ROM102Bに記憶されているプログラムを実行すると、文字入力や文字変換の機能が実現する。つまり本実施形態に係る画像形成装置1は、文字入力や文字変換など文字を処理する文字処理装置の一例である。
The storage unit 103 according to the present embodiment includes a storage device (for example, a hard disk device) that retains data without supplying power. The image data received by the communication unit 109 and the image generated by the reading unit 106 are included. Store data etc.
The control unit 102 of this embodiment is a so-called microcomputer including a CPU (Central Processing Unit) 102A, a ROM (Read Only Memory) 102B, a RAM (Random Access Memory) 102C, and the like. When the CPU 102A executes the program stored in the ROM 102B, the above-described image forming function, copying function, facsimile function, scanning function, and the like are realized. Further, when the CPU 102A executes a program stored in the ROM 102B, functions for character input and character conversion are realized. That is, the image forming apparatus 1 according to the present embodiment is an example of a character processing device that processes characters such as character input and character conversion.

(画像形成装置1の機能構成)
図2は、制御部102において実現する機能のうち、文字入力や文字変換の機能に係る機能の構成を示したブロック図である。
検出部202は、検知部1041が検知した位置を用いて、指示体の動作と指示体の位置とを検出する。検出部202は、指示体の動作と位置とを検出する検出手段の一例である。
第1制御部200は、予め定められた各々異なる複数の文字が表示部1042に表示されるように、表示部1042を制御する。例えば、第1制御部200は、図10に示したように、表示画面内の領域A1に50音の清音の文字(予め定められた各々異なる複数の文字)の画像が表示されるように表示部1042を制御する。第1制御部200は、表示部1042(表示手段)の予め定めれた領域に予め定められた各々異なる複数の文字が表示されるように表示部1042を制御する第1制御手段の一例である。
(Functional configuration of image forming apparatus 1)
FIG. 2 is a block diagram showing a configuration of functions related to the character input and character conversion functions among the functions realized by the control unit 102.
The detection unit 202 uses the position detected by the detection unit 1041 to detect the operation of the indicator and the position of the indicator. The detection unit 202 is an example of a detection unit that detects the operation and position of the indicator.
The first control unit 200 controls the display unit 1042 such that a plurality of different predetermined characters are displayed on the display unit 1042. For example, as shown in FIG. 10, the first control unit 200 displays so that an image of 50 tones of clear sound (a plurality of predetermined different characters) is displayed in the area A1 in the display screen. The unit 1042 is controlled. The first control unit 200 is an example of a first control unit that controls the display unit 1042 such that a plurality of different predetermined characters are displayed in a predetermined region of the display unit 1042 (display unit). .

第2制御部201は、検出部202が検知した動作が領域A1に表示された文字を指定する動作である場合、指定された文字が表示部1042領域A2に表示されるように表示部1042を制御する。第2制御部201は、指定された文字が表示されるように表示部1042を制御する第2制御手段の一例である。
変換部203は、検出部202が検知した位置が領域A2内であり、検出した動作が予め定められた複数の動作のうちのいずれかの動作である場合、領域A2に表示されて選択されている文字を当該動作に対応付けられた変換規則に従って変換する。変換部203は、文字を変換する変換手段の一例である。
When the operation detected by the detection unit 202 is an operation for designating a character displayed in the area A1, the second control unit 201 sets the display unit 1042 so that the designated character is displayed in the display unit 1042 area A2. Control. The second control unit 201 is an example of a second control unit that controls the display unit 1042 so that a designated character is displayed.
When the position detected by the detection unit 202 is in the area A2 and the detected action is one of a plurality of predetermined actions, the conversion unit 203 is displayed and selected in the area A2. Is converted according to the conversion rule associated with the action. The conversion unit 203 is an example of a conversion unit that converts characters.

(画像形成装置1の動作)
次に画像形成装置1の動作の一例について説明する。ファクシミリ機能を備える画像形成装置1においては、宛先名とFAX番号を登録し、登録された宛先名をユーザが選択すると、選択された宛先名に対応付けられたFAX番号で文書を送信する機能がある。ここで、宛先名を登録するときに文字入力が行われ、入力された文字列が宛先名として登録される。
(Operation of Image Forming Apparatus 1)
Next, an example of the operation of the image forming apparatus 1 will be described. The image forming apparatus 1 having a facsimile function has a function of registering a destination name and a FAX number, and when a user selects the registered destination name, a document is transmitted with the FAX number associated with the selected destination name. is there. Here, characters are input when registering the destination name, and the input character string is registered as the destination name.

宛先名を入力する際には、図10に例示した画像が表示部1042にされる。図10の画像においては、領域A1と領域A2とが設けられている。領域A1は、文字入力のためのキーの画像が表示される領域である。平仮名を入力する際には、領域A1においては清音の平仮名が対応付けられた複数のキーが表示される。なお、片仮名を入力する際には、領域A1においては清音の片仮名が対応付けられた複数のキーが表示され、ラテン文字を入力する際には、ラテン文字が対応付けられた複数のキーが表示される。領域A2は、検知部1041において行われた操作により入力された文字が表示される領域である。   When the destination name is input, the image illustrated in FIG. In the image of FIG. 10, an area A1 and an area A2 are provided. The area A1 is an area where a key image for character input is displayed. When inputting hiragana, a plurality of keys associated with Kiyone hiragana are displayed in area A1. When inputting a katakana, a plurality of keys associated with Kiyone Katakana are displayed in the area A1, and when inputting a Latin character, a plurality of keys associated with a Latin character are displayed. Is done. An area A2 is an area in which characters input by an operation performed in the detection unit 1041 are displayed.

ユーザが、検知部1041に触れると、指が触れた位置を表すデータが操作部104から制御部102へ送られる。制御部102は、操作部104から送られたデータを用い、検知部1041でユーザが行った動作を特定する(図3:ステップSA1)。なお、特定される動作としては、検知部1041を一本の指で叩く動作(以下、第1動作と称する)、検知部1041を二本の指で叩く動作(以下、第2動作と称する)、検知部1041に一本の指で触れ、触れた指を移動させる動作(以下、第3動作と称する)、検知部1041に二本の指で触れ、触れた指の距離を短くする動作(以下、第4動作と称する)、検知部1041に二本の指で触れ、触れた指の距離を長くする動作(以下、第5動作と称する)などがある。また、制御部102は、操作部104から送られたデータが表す位置が、領域A1と領域A2のいずれの領域であるか特定する(ステップSA2)。   When the user touches the detection unit 1041, data representing the position touched by the finger is sent from the operation unit 104 to the control unit 102. The control unit 102 uses the data sent from the operation unit 104 to specify the operation performed by the user in the detection unit 1041 (FIG. 3: step SA1). Note that the identified actions include an action of hitting the detection unit 1041 with one finger (hereinafter referred to as a first action), and an action of hitting the detection unit 1041 with two fingers (hereinafter referred to as a second action). An operation of touching the detection unit 1041 with one finger and moving the touched finger (hereinafter referred to as a third operation), an operation of touching the detection unit 1041 with two fingers and shortening the distance between the touched fingers ( (Hereinafter referred to as a fourth operation), an operation of touching the detection unit 1041 with two fingers, and increasing the distance between the touched fingers (hereinafter referred to as a fifth operation). Further, the control unit 102 specifies whether the position represented by the data sent from the operation unit 104 is the area A1 or the area A2 (step SA2).

制御部102は、ユーザの動作を特定すると、ステップSA2で特定した領域が領域A1であるか判断する。制御部102は、ステップSA2で特定した領域が領域A1である場合(ステップSA3でYES)、ステップSA4で図4に示した処理を行う。
具体的には、制御部102は、ステップSA1で特定した動作が第1動作である場合(ステップSB1でYES)、操作部104から送られたデータが表す位置が、清音の仮名が対応付けられているキーの画像の位置であるか判断する。ここで、制御部102は、操作部104から送られたデータが表す位置が、清音の仮名が対応付けられているキーの画像の位置である場合(ステップSB2でYES)、操作部104から送られたデータが表す位置と当該位置に表示されている画像とに基づいて、ユーザが入力した文字を特定する(ステップSB3)。制御部102は、ユーザが入力した文字を特定すると、特定した文字を表示部1042を制御して領域A2に表示させる(ステップSB4)。
When the control unit 102 specifies the user's action, the control unit 102 determines whether the region specified in step SA2 is the region A1. If the area identified in step SA2 is area A1 (YES in step SA3), control unit 102 performs the process shown in FIG. 4 in step SA4.
Specifically, when the action specified in step SA1 is the first action (YES in step SB1), the control unit 102 associates the position represented by the data sent from the operation unit 104 with the kana of clear sound. It is determined whether it is the position of the key image. Here, when the position represented by the data sent from the operation unit 104 is the position of the key image associated with the pseudonym kana (YES in step SB2), the control unit 102 sends it from the operation unit 104. Based on the position represented by the received data and the image displayed at the position, the character input by the user is specified (step SB3). When the control unit 102 specifies the character input by the user, the control unit 102 controls the display unit 1042 to display the specified character in the area A2 (step SB4).

例えば、ユーザが検知部1041において「は」のキーの画像が透過している位置に指で触れると、「は」が表示されている位置を表すデータが操作部104から制御部102へ送られる。制御部102は、送られたデータが表す位置に表示されている画像を特定する。ここでは、操作部104から送られたデータが表す位置に「は」のキーの画像が表示されているため、制御部102は、ユーザが入力した文字が「は」であると特定する。制御部102は、ユーザが入力した文字を特定すると、表示部1042を制御し、特定した文字の「は」を図11の(a)に示したように領域A2に表示させる。   For example, when the user touches a position where the image of the “ha” key is transparent in the detection unit 1041, data indicating the position where “ha” is displayed is sent from the operation unit 104 to the control unit 102. . The control unit 102 specifies the image displayed at the position represented by the transmitted data. Here, since the image of the “ha” key is displayed at the position represented by the data sent from the operation unit 104, the control unit 102 specifies that the character input by the user is “ha”. When the control unit 102 specifies a character input by the user, the control unit 102 controls the display unit 1042 to display “ha” of the specified character in the area A2 as shown in FIG.

なお、制御部102は、ステップSB2でNOと判断した場合、操作部104から送られたデータが表す位置にあるキーの画像に対応した処理を実行する(ステップSB5)。例えば、操作部104から送られたデータが表す位置が「カタカナ」キーの画像の位置である場合、領域A1に清音の片仮名が対応付けられた複数のキーが表示される。また、操作部104から送られたデータが表す位置が「英/数」キーの画像の位置である場合、領域A1にラテン文字や数字が対応付けられた複数のキーが表示される。   If it is determined NO in step SB2, the control unit 102 executes processing corresponding to the key image at the position represented by the data sent from the operation unit 104 (step SB5). For example, when the position represented by the data sent from the operation unit 104 is the position of the “Katakana” key image, a plurality of keys associated with the Katakana character of the sound are displayed in the area A1. Further, when the position represented by the data sent from the operation unit 104 is the position of the “English / Numeric” key image, a plurality of keys associated with Latin characters and numbers are displayed in the area A1.

次に、制御部102は、指が触れた位置が領域A2内であり(ステップSA3でNO)、行われた動作が第1動作である場合(ステップSA5でYES)、ステップSA6で図5に示した処理を行う。
具体的には、まず制御部102は、表示されている文字列の後端の文字(本実施形態においては右端の文字)が、「は行」の清音であるか判断する。ここで、表示されている文字列の後端の文字が「は行」の清音である場合(ステップSC1でYES)、制御部102は、入力された文字列の後端の文字を半濁音に変換し、変換後の半濁音が表示されるように表示部1042を制御する(ステップSC2)。例えば、入力された文字列の後端の文字が「は」である場合、図11の(b)に示したように、「は」が「ぱ」に変換される。なお、後端の文字が「ぱ行」の文字の状態で領域A2においてユーザが第1動作を行うと、半濁音である後端の文字が清音に変換されて表示される(ステップSC3でYES、ステップSC4)。つまり、第1動作に対しては、「は行」の清音を半濁音に変換し、「ぱ行」の文字を「は行」の清音に変換するという変換規則が対応付けられている。
Next, when the position touched by the finger is within the area A2 (NO in step SA3) and the operation performed is the first operation (YES in step SA5), the control unit 102 returns to FIG. 5 in step SA6. Perform the indicated process.
Specifically, first, the control unit 102 determines whether or not the character at the rear end of the displayed character string (the character at the right end in the present embodiment) is a clear sound of “ha”. Here, when the character at the rear end of the displayed character string is a clear sound of “ha line” (YES in step SC1), the control unit 102 changes the character at the rear end of the input character string to a semi-voiced sound. The display unit 1042 is controlled so as to display the translucent sound after the conversion (step SC2). For example, when the character at the end of the input character string is “ha”, “ha” is converted to “pa” as shown in FIG. When the user performs the first operation in the area A2 with the rear end character being “PA Line”, the rear end character that is a semi-voiced sound is converted into a clear sound and displayed (YES in step SC3). Step SC4). In other words, the first operation is associated with a conversion rule that converts the voice of “ha line” into a semi-turbid sound and converts the characters of “pa line” into the voice of “ha line”.

また、制御部102は、指が触れた位置が領域A2内であり(ステップSA3でNO)、行われた動作が第2動作である場合(ステップSA7でYES)、ステップSA8で図6に示した処理を行う。
具体的には、まず制御部102は、表示されている文字列の後端の文字が、「か行」、「さ行」、「た行」、又は「は行」の清音であるか、つまり濁音になり得る文字であるか判断する。ここで、制御部102は、表示されている文字列の後端の文字が上記の行の清音である場合(ステップSD1でYES)、入力された文字列の後端の文字を濁音に変換し、変換後の濁音が表示されるように表示部1042を制御する(ステップSD2)。例えば、入力された文字列の後端の文字が「は」である場合、図11の(c)に示したように、「は」が「ば」に変換される。なお、後端の文字が「ば」の状態で領域A2においてユーザが第2動作を行うと、濁音である後端の文字が清音に変換されて表示される(ステップSD3でYES、ステップSD4)。つまり、第2動作に対しては、清音から濁音又は濁音から清音に変換するという変換規則が対応付けられている。
Further, when the position touched by the finger is within the area A2 (NO in step SA3) and the performed action is the second action (YES in step SA7), the control unit 102 indicates in step SA8 in FIG. Process.
Specifically, the control unit 102 first determines whether the character at the end of the displayed character string is a sound of “ka line”, “sa line”, “ta line”, or “ha line”, In other words, it is determined whether the character can be muddy. Here, when the character at the rear end of the displayed character string is the clear sound of the above line (YES in step SD1), the control unit 102 converts the character at the rear end of the input character string into muddy sound. The display unit 1042 is controlled so that the converted muddy sound is displayed (step SD2). For example, when the character at the end of the input character string is “ha”, “ha” is converted to “ba” as shown in FIG. When the user performs the second operation in the area A2 in the state where the rear end character is “B”, the rear end character that is muddy is converted to a clear sound and displayed (YES in step SD3, step SD4). . In other words, the second operation is associated with a conversion rule for converting clear sound to muddy sound or muddy sound to clear sound.

また、制御部102は、指が触れた位置が領域A2内であり(ステップSA3でNO)、行われた動作が第3動作である場合(ステップSA9でYES)、ステップSA10で図7に示した処理を行う。
具体的には、まず制御部102は、表示されている文字列の後端の文字が濁音又は半濁音であるか判断する。ここで、制御部102は、表示されている文字列の後端の文字が濁音又は半濁音である場合(ステップSE1でYES)、入力された文字列の後端の文字を清音に変換し、変換後の清音が表示されるように表示部1042を制御する(ステップSE2)。例えば「ぱ」又は「ば」が表示されていた場合、ユーザが領域A2において第3動作を行うと、「ぱ」又は「ば」が「は」に変換されて表示される。つまり、第3動作に対しては、半濁音又は濁音を清音に変換するという変換規則が対応付けられている。
In addition, when the position touched by the finger is in the area A2 (NO in step SA3) and the performed operation is the third operation (YES in step SA9), the control unit 102 indicates in step SA10 in FIG. Process.
Specifically, the control unit 102 first determines whether the character at the rear end of the displayed character string is muddy or semi-voiced. Here, when the character at the rear end of the displayed character string is muddy or semi-voiced (YES in step SE1), the control unit 102 converts the character at the rear end of the input character string into a clear sound, The display unit 1042 is controlled so that the converted sound is displayed (step SE2). For example, when “pa” or “ba” is displayed, when the user performs the third operation in the area A2, “pa” or “ba” is converted into “ha” and displayed. That is, the third operation is associated with a conversion rule for converting semi-turbid sound or muddy sound into clear sound.

また、制御部102は、指が触れた位置が領域A2内であり(ステップSA3でNO)、行われた動作が第4動作である場合(ステップSA11でYES)、ステップSA12で図8に示した処理を行う。
具体的には、まず制御部102は、表示されている文字列の後端の文字が、「あ」、「い」、「う」、「え」、「お」、「つ」、「や」、「ゆ」、「よ」又は「わ」のいずれかの文字であるか、つまり捨て仮名になり得る文字であるか判断する。ここで、制御部102は、表示されている文字列の後端の文字が上記の予め定められた文字のうちのいずれかの文字である場合(ステップSF1でYES)、入力された文字列の後端の文字を小文字、即ち捨て仮名に変換して表示する(ステップSF2)。例えば、図11の(d)に示したように、表示されている文字列の後端の文字が「あ」であった場合、「あ」が「ぁ」に変換されて表示される。つまり、第4動作に対しては、大文字から小文字に変換するという変換規則が対応付けられている。
In addition, when the position touched by the finger is within the area A2 (NO in step SA3) and the performed operation is the fourth operation (YES in step SA11), the control unit 102 indicates in step SA12 in FIG. Process.
Specifically, the control unit 102 first determines that the last character of the displayed character string is “a”, “i”, “u”, “e”, “o”, “tsu”, “ya” ”,“ Yu ”,“ Yo ”or“ Wa ”, that is, a character that can be abandoned kana. Here, when the character at the end of the displayed character string is one of the above-described predetermined characters (YES in step SF1), the control unit 102 determines the character string of the input character string. The rearmost character is converted into a lower case letter, that is, discarded kana and displayed (step SF2). For example, as shown in FIG. 11D, when the character at the end of the displayed character string is “A”, “A” is converted to “A” and displayed. That is, the fourth operation is associated with a conversion rule for converting from uppercase letters to lowercase letters.

また、制御部102は、指が触れた位置が領域A2内であり(ステップSA3でNO)、行われた動作が第5動作である場合(ステップSA13でYES)、ステップSA14で図9に示した処理を行う。
具体的には、まず制御部102は、表示されている文字列の後端の文字が、「ぁ」、「ぃ」、「ぅ」、「ぇ」、「ぉ」、「っ」、「ゃ」、「ゅ」、「ょ」又は「ゎ」のいずれかの文字であるか、つまり捨て仮名であるか判断する。ここで、制御部102は、表示されている文字列の後端の文字が上記の予め定められたいずれかの文字である場合(ステップSG1でYES)、入力された文字列の後端の文字を大文字、即ち捨て仮名から清音の文字に変換する(ステップSG2)。例えば、図11の(e)に示したように、表示されている文字列の後端の文字が「ぁ」であった場合、「ぁ」が「あ」に変換されて表示される。つまり、第5動作に対しては、小文字から大文字に変換するという変換規則が対応付けられている。
In addition, when the position touched by the finger is in the area A2 (NO in step SA3) and the performed operation is the fifth operation (YES in step SA13), the control unit 102 indicates in step SA14 in FIG. Process.
Specifically, first, the control unit 102 determines that the last character of the displayed character string is “a”, “i”, “ぅ”, “e”, “ぉ”, “tsu”, “ya”. ”,“ Yu ”,“ yo ”, or“ ゎ ”, that is, whether it is a discarded kana. Here, when the character at the rear end of the displayed character string is one of the predetermined characters (YES in step SG1), the control unit 102 determines the character at the rear end of the input character string. Is converted from uppercase letters, that is, abandoned kana characters to Kiyane characters (step SG2). For example, as shown in FIG. 11E, when the character at the end of the displayed character string is “A”, “A” is converted to “A” and displayed. In other words, the fifth operation is associated with a conversion rule for converting from lowercase letters to uppercase letters.

本実施形態においては、濁音、半濁音、捨て仮名に対応したキーを設けなくとも、清音以外の文字が入力され、濁音、半濁音、捨て仮名に対応したキーを設ける場合と比較すると、少ないキーで濁音、半濁音、捨て仮名が入力される。なお、上述した実施形態においては、平仮名を変換しているが、片仮名についても濁音、半濁音、捨て仮名への変換を行うようにしてもよい。   In this embodiment, even if a key corresponding to muddy sound, semi-voiced sound, and abandoned kana is not provided, characters other than clear sound are input, and fewer keys are compared with the case where a key corresponding to muddy sound, semi-voiced sound, and abandoned kana is provided. The muddy sound, semi-voiced sound, and abandoned kana are entered. In the above-described embodiment, hiragana is converted, but katakana may also be converted into muddy sound, semi-voiced sound, and abandoned kana.

[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した実施形態及び以下の変形例は、各々を組み合わせてもよい。
[Modification]
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with another various form. For example, the present invention may be implemented by modifying the above-described embodiment as follows. In addition, you may combine each of embodiment mentioned above and the following modifications.

(1)
上述した実施形態においては、表示されている文字列の後端の文字に対して濁音への変換、半濁音への変換又は捨て仮名への変換が行われているが、これらの変換が行われる文字は、文字列の後端の文字に限定されるものではない。例えば、矢印が対応付けられたキーに触れて選択されている文字の位置を表すカーソルの位置を移動させ、カーソルの位置にある文字に対して上記の変換を行うようにしてもよい。
(1)
In the embodiment described above, the character at the rear end of the displayed character string is converted to muddy sound, converted to semi-voiced sound, or converted to abandoned kana, but these conversions are performed. The character is not limited to the character at the end of the character string. For example, the above-described conversion may be performed on the character at the cursor position by moving the cursor position indicating the position of the selected character by touching the key associated with the arrow.

(2)
文字を変換するための動作は、上述した実施形態の動作に限定されるものではない。例えば、三本の指がタッチスクリーン104Aに触れた場合に濁音や半濁音を清音に変換するようにしてもよい。また、一本の指でタッチスクリーンを二回叩く動作を行った場合、変換する文字が清音である場合には清音から濁音へ変換し、変換する文字が濁音である場合には濁音から清音へ変換するようにしてもよい。
(2)
The operation for converting characters is not limited to the operation of the above-described embodiment. For example, when three fingers touch the touch screen 104A, a muddy sound or a semi-turbid sound may be converted into a clear sound. In addition, when the touch screen is tapped twice with one finger, if the character to be converted is a clear sound, it is converted from a clear sound to a muddy sound, and if the character to be converted is a muddy sound, it is changed from a muddy sound to a clear sound. You may make it convert.

(3)
上述した実施形態においては、平仮名や片仮名を変換しているが、文字の変換は平仮名や片仮名に限定されるものではなく、例えば、ラテン文字など、他の文字について各種変換を行うようにしてもよい。例えば、ラテン文字を入力する場合、二本の指をタッチスクリーン104Aに接触させたまま移動させ、指が触れている位置間の距離が長くなった場合には大文字に変換し、距離が短くなった場合には小文字に変換するようにしてもよい。
また、実施形態のいずれかの動作でアキュート・アクセントが付いた文字に変換してもよく、実施形態のいずれかの動作でグレイヴ・アクセントが付いた文字に変換してもよい。また、実施形態のいずれかの動作でサーカムフレックスが付いた文字に変換してもよく、実施形態のいずれかの動作でウムラウト記号が付いた文字に変換してもよい。また、実施形態のいずれかの動作でダイアクリティカルマークが付いた文字に変換してもよい。
なお、ラテン文字に限定されるものではなく、ギリシャ文字など他の文字であってもよい。
(3)
In the embodiment described above, hiragana and katakana are converted, but character conversion is not limited to hiragana or katakana, and various conversions may be performed on other characters such as Latin characters, for example. Good. For example, when inputting Latin characters, two fingers are moved while being in contact with the touch screen 104A, and when the distance between the positions touched by the fingers is increased, the distance is shortened. If it is, it may be converted to lower case.
In addition, the character may be converted to a character with an acute accent by any operation of the embodiment, or may be converted to a character with a grave accent by any operation of the embodiment. Moreover, it may be converted into a character with a circumflex by any operation of the embodiment, or may be converted into a character with an umlaut symbol by any operation of the embodiment. Moreover, you may convert into the character with a diacritical mark by the operation | movement in any one of embodiment.
The character is not limited to Latin characters, and may be other characters such as Greek characters.

(4)
上述した実施形態においては、制御部102が表示部1042を制御して文字の変換の動作を表す画像を表示するようにしてもよい。例えば、画像形成装置1は、半濁音への変換方法を表す画像として図12の(a)の画像G1を表示し、半濁音への変換方法を表す画像として図12の(a)の画像G2を表示する。また、画像形成装置1は、捨て仮名への変換方法を表す画像として図12の(b)の画像G3を表示し、捨て仮名から清音への変換方法を表す画像として図12の(c)の画像G4を表示する。
(4)
In the embodiment described above, the control unit 102 may control the display unit 1042 to display an image representing the character conversion operation. For example, the image forming apparatus 1 displays the image G1 in FIG. 12A as an image representing a method for converting to semi-turbid sound, and the image G2 in FIG. 12A as an image representing the method for converting to semi-turbid sound. Is displayed. Further, the image forming apparatus 1 displays the image G3 in FIG. 12B as an image representing the conversion method to the abandoned kana, and displays the image G3 in FIG. The image G4 is displayed.

(5)
上述した実施形態においては、指で検知部1041に触れているが、文字の入力を行うために用いるのは指に限定されるものではなく、例えば、支持体の一例であってタッチスクリーンに対応したペンなどで検知部1041に触れて文字の入力を行うようにしてもよい。
(5)
In the embodiment described above, the detection unit 1041 is touched with a finger, but the use for inputting characters is not limited to the finger. For example, the support unit is an example of a support and corresponds to a touch screen. A character may be input by touching the detection unit 1041 with a pen or the like.

(6)
上述した実施形態においては、領域A2で行われた第4動作に応じて捨て仮名への変換が行われているが、捨て仮名の入力方法はこの方法に限定されるものではない。
例えば、二本の指で領域A1に触り、一方の指で「あ」、「い」、「う」、「え」、「お」、「つ」、「や」、「ゆ」、「よ」又は「わ」のいずれかの文字のキーの画像に触れつつ、他方の指を一方の指に近づける動作を行った場合、一方の指が触れている位置にある平仮名の捨て仮名を表示するようにしてもよい。この構成の場合、例えば、人差し指で「よ」に触れつつ、親指を「よ」に近づける動作を行った場合、領域A2には、「ょ」が表示される。
なお、ラテン文字の大文字のキーの画像を表示している場合、一方の指で文字のキーの画像に触れつつ、他方の指を一方の指に近づける動作を行うと小文字を表示し、ラテン文字の小文字のキーの画像を表示している場合、一方の指で文字のキーの画像に触れつつ、他方の指を一方の指から離す動作を行うと大文字を表示するようにしてもよい。
また、本変形例においては、「か行」、「さ行」、「た行」、又は「は行」の文字のキーの画像の位置に一方の指が触れ、他方の指で第1動作が行われた場合には、一方の指が触れている位置にあるキーの画像の文字を濁音に変換するようにしてもよい。
(6)
In the above-described embodiment, the conversion to the abandoned kana is performed according to the fourth operation performed in the area A2, but the input method of the abandoned kana is not limited to this method.
For example, touch the area A1 with two fingers and “a”, “i”, “u”, “e”, “o”, “tsu”, “ya”, “yu”, “yo” with one finger ”Or“ Wa ”When touching the key image of the character and moving the other finger closer to one finger, the hiragana characters in the position where one finger is touching are displayed. You may do it. In the case of this configuration, for example, when an operation of bringing the thumb close to “good” while touching “good” with the index finger is performed, “表示” is displayed in the area A2.
In addition, when displaying an image of a Latin capital letter key, touching the letter key image with one finger and moving the other finger closer to one finger will display a lower case letter. When an image of a lowercase key is displayed, an uppercase letter may be displayed by performing an operation of touching the character key image with one finger and releasing the other finger from the other finger.
Further, in this modification, one finger touches the position of the key image of the characters “ka line”, “sa line”, “ta line”, or “ha line”, and the first finger operates with the other finger. May be converted to muddy sound in the image of the key at the position touched by one finger.

(7)
上述した実施形態においては、文字入力が画像形成装置1において行われているが、上述した文字入力の構成は、画像形成装置1にのみ採用されるものではない。例えば、スマートホンやタブレット型の端末、現金自動預け払い機など、他のコンピュータ装置においても、上述した実施形態の構成を採用して文字入力を行うようにしてもよい。
(7)
In the above-described embodiment, character input is performed in the image forming apparatus 1, but the above-described character input configuration is not employed only in the image forming apparatus 1. For example, in other computer devices such as a smart phone, a tablet-type terminal, and an automated teller machine, the character input may be performed by adopting the configuration of the above-described embodiment.

(8)
上述したROM102Bに記憶されているプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD(Hard Disk Drive)、FD(Flexible Disk)))など、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータ読取り可能な記録媒体に記憶した状態で提供し、画像形成装置1にインストールしてもよい。また、通信回線を介して画像形成装置1にダウンロードしてインストールしてもよい。
(8)
The programs stored in the ROM 102B described above include magnetic recording media (magnetic tape, magnetic disk (HDD (Hard Disk Drive), FD (Flexible Disk))), optical recording media (optical disks, etc.), magneto-optical recording media, It may be provided in a state stored in a computer-readable recording medium such as a semiconductor memory and installed in the image forming apparatus 1. Alternatively, it may be downloaded and installed in the image forming apparatus 1 via a communication line.

1…画像形成装置、101…バス、102…制御部、102A…CPU、102B…ROM、102C…RAM、103…記憶部、104…操作部、106…読取部、107…画像形成部、108…画像処理部、109…通信部、200…第1制御部、201…第2制御部、202…検出部、203…変換部 DESCRIPTION OF SYMBOLS 1 ... Image forming apparatus, 101 ... Bus, 102 ... Control part, 102A ... CPU, 102B ... ROM, 102C ... RAM, 103 ... Memory | storage part, 104 ... Operation part, 106 ... Reading part, 107 ... Image forming part, 108 ... Image processing unit 109 ... communication unit 200 ... first control unit 201 ... second control unit 202 ... detection unit 203 ... conversion unit

Claims (2)

画像を表示する表示手段と、
予め定められた各々異なる複数の文字が前記表示手段に表示されるように前記表示手段を制御する第1制御手段と、
前記表示手段の表示面上における指示体の動作と当該指示体の位置とを検出する検出手段と、
前記検出手段が検出した動作が、表示された前記複数の文字のいずれかを指定する動作である場合、指定された文字が前記表示手段の予め定められた領域に表示されるように前記表示手段を制御する第2制御手段と、
前記検出手段が検出した位置が前記領域内であり、前記検出手段が検出した動作が予め定められた複数の動作のうちのいずれかの動作である場合、前記領域に表示されて選択されている文字を当該動作に対応付けられた変換規則に従って変換する変換手段と
を備え
前記検出手段は、複数の指示体の動作及び位置を検出し、
前記検出手段が検出した前記複数の指示体のいずれかの動作が前記複数の文字のいずれかを指定する動作であり、文字を指定した指示体以外の指示体の動作が文字を指定した指示体との距離を変更する動作又は前記表示面を叩く動作である場合、指示体で指定されている文字を当該動作に対応付けられた変換規則に従って変換し、変換後の文字が表示されるように前記表示手段を制御する
文字処理装置。
Display means for displaying an image;
First control means for controlling the display means such that a plurality of predetermined different characters are displayed on the display means;
Detecting means for detecting the operation of the indicator on the display surface of the display means and the position of the indicator;
When the operation detected by the detection unit is an operation of designating any of the displayed characters, the display unit is configured to display the designated character in a predetermined area of the display unit. Second control means for controlling
When the position detected by the detection means is within the area and the action detected by the detection means is any of a plurality of predetermined actions, the position is displayed and selected in the area. Conversion means for converting characters according to the conversion rules associated with the action, and
The detection means detects the movement and position of a plurality of indicators,
The operation of any of the plurality of indicators detected by the detecting means is an operation of designating any of the plurality of characters, and the operation of an indicator other than the indicator designating a character designates a character If the action is to change the distance to the action or to hit the display surface, the character specified by the indicator is converted according to the conversion rule associated with the action so that the converted character is displayed. A character processing device for controlling the display means .
コンピュータを、
予め定められた各々異なる複数の文字が画像を表示する表示手段に表示されるように前記表示手段を制御する第1制御手段と、
前記表示手段の表示面上における指示体の動作と当該指示体の位置とを検出する手段であって、複数の指示体の動作及び位置を検出する検出手段と、
前記検出手段が検出した動作が、表示された前記複数の文字のいずれかを指定する動作である場合、指定された文字が前記表示手段の予め定められた領域に表示されるように前記表示手段を制御する第2制御手段と、
前記検出手段が検出した位置が前記領域内であり、前記検出手段が検出した動作が予め定められた複数の動作のうちのいずれかの動作である場合、前記領域に表示されて選択されている文字を当該動作に対応付けられた変換規則に従って変換する変換手段と
前記検出手段が検出した前記複数の指示体のいずれかの動作が前記複数の文字のいずれかを指定する動作であり、文字を指定した指示体以外の指示体の動作が文字を指定した指示体との距離を変更する動作又は前記表示面を叩く動作である場合、指示体で指定されている文字を当該動作に対応付けられた変換規則に従って変換し、変換後の文字が表示されるように前記表示手段を制御する手段
として機能させるためのプログラム。
Computer
First control means for controlling the display means such that a plurality of predetermined different characters are displayed on the display means for displaying an image;
Means for detecting the movement of the indicator on the display surface of the display means and the position of the indicator, and detecting means for detecting the movement and position of a plurality of indicators;
When the operation detected by the detection unit is an operation of designating any of the displayed characters, the display unit is configured to display the designated character in a predetermined area of the display unit. Second control means for controlling
When the position detected by the detection means is within the area and the action detected by the detection means is any of a plurality of predetermined actions, the position is displayed and selected in the area. Conversion means for converting characters according to a conversion rule associated with the action ;
The operation of any of the plurality of indicators detected by the detecting means is an operation of designating any of the plurality of characters, and the operation of an indicator other than the indicator designating a character designates a character If the action is to change the distance to the action or to hit the display surface, the character specified by the indicator is converted according to the conversion rule associated with the action so that the converted character is displayed. A program for functioning as means for controlling the display means .
JP2012107506A 2012-05-09 2012-05-09 Character processing apparatus and program Active JP5994374B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012107506A JP5994374B2 (en) 2012-05-09 2012-05-09 Character processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012107506A JP5994374B2 (en) 2012-05-09 2012-05-09 Character processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2013235429A JP2013235429A (en) 2013-11-21
JP5994374B2 true JP5994374B2 (en) 2016-09-21

Family

ID=49761507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012107506A Active JP5994374B2 (en) 2012-05-09 2012-05-09 Character processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5994374B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6076320B2 (en) * 2014-11-28 2017-02-08 京セラドキュメントソリューションズ株式会社 Image forming apparatus and input method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266494A (en) * 1993-03-12 1994-09-22 Toshiba Corp Method and device for information processing in pen input system
JPH1069479A (en) * 1996-08-29 1998-03-10 Sharp Corp Document preparation method and medium recording document preparat ton program
JP2007531081A (en) * 2003-07-17 2007-11-01 エックスアール ゴミックス プライベート リミテッド Character and word selection text input method for keyboard and simplified keyboard system
JP4694579B2 (en) * 2007-04-11 2011-06-08 株式会社フェイビー Character input system
JP2010055207A (en) * 2008-08-26 2010-03-11 Ricoh Co Ltd Character input device, character input method, program, and storage medium
JP2011192179A (en) * 2010-03-16 2011-09-29 Kyocera Corp Device, method and program for inputting character
US8928610B2 (en) * 2010-03-23 2015-01-06 Sharp Kabushiki Kaisha Information display device and document data editing method
JP5477203B2 (en) * 2010-07-01 2014-04-23 株式会社ニコン Input device
JP2012083838A (en) * 2010-10-07 2012-04-26 Nec Casio Mobile Communications Ltd Character input device and character input method
JP5915282B2 (en) * 2012-03-14 2016-05-11 オムロン株式会社 Character input program and character input device

Also Published As

Publication number Publication date
JP2013235429A (en) 2013-11-21

Similar Documents

Publication Publication Date Title
TWI438646B (en) Wireless handheld device able to accept text input and methods for inputting text on a wireless handheld device
EP1953623B1 (en) Apparatus and method for inputting characters on touch keyboard
JP6000385B2 (en) Multilingual key input device and method
US6295052B1 (en) Screen display key input unit
US9304602B2 (en) System for capturing event provided from edge of touch screen
US20110141027A1 (en) Data entry system
JP4316687B2 (en) Screen touch input device
JP5372605B2 (en) Input device
JP5512379B2 (en) Input device, input method, and input program
JP5994374B2 (en) Character processing apparatus and program
JP2012156607A (en) Mobile terminal device for visually-challenged person
JP3738066B2 (en) Screen touch input device
JP2009080664A (en) Character input device, image forming apparatus and electronic equipment
KR100927183B1 (en) How to enter symbols using the touch screen
KR102584417B1 (en) Japanese text inputting method and apparatus for mobile device
KR20090016209A (en) Method for inputting a character, and apparatus for implementing the same
WO2016108780A1 (en) A mobile device for enabling visually-impaired users to make text entry
KR101255801B1 (en) Mobile terminal capable of inputting hangul and method for displaying keypad thereof
KR20110051321A (en) Hangeul input interface for efficiency and user convenience on the device with touch screen
JP2013239112A (en) Information processing apparatus and program
JP4395177B2 (en) keyboard
JP2006279103A (en) Character input unit
KR101410613B1 (en) Mobile phone
JP3201735U (en) Key input device
KR20120121869A (en) Multi-functional mobile phone

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160808

R150 Certificate of patent or registration of utility model

Ref document number: 5994374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350