WO2007007573A1 - 文字入力装置、文字入力装置の制御方法及び情報記憶媒体 - Google Patents

文字入力装置、文字入力装置の制御方法及び情報記憶媒体 Download PDF

Info

Publication number
WO2007007573A1
WO2007007573A1 PCT/JP2006/313208 JP2006313208W WO2007007573A1 WO 2007007573 A1 WO2007007573 A1 WO 2007007573A1 JP 2006313208 W JP2006313208 W JP 2006313208W WO 2007007573 A1 WO2007007573 A1 WO 2007007573A1
Authority
WO
WIPO (PCT)
Prior art keywords
character
input
character group
group
input candidate
Prior art date
Application number
PCT/JP2006/313208
Other languages
English (en)
French (fr)
Inventor
Tadashi Nakamura
Kojiro Umemura
Original Assignee
Sony Computer Entertainment Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc. filed Critical Sony Computer Entertainment Inc.
Priority to US11/719,872 priority Critical patent/US8274474B2/en
Publication of WO2007007573A1 publication Critical patent/WO2007007573A1/ja
Priority to US13/567,369 priority patent/US8519955B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items

Definitions

  • the present invention relates to a character input device, a method for controlling a character input device, and an information storage medium.
  • the present invention has been made in view of the above problems, and its purpose is to first select a shift from a plurality of character groups each of which is associated with a plurality of characters, Character input device and character input that enable the user to smoothly perform “character input performed by selecting any of the characters associated with the character group and determining them as input characters”
  • An apparatus control method and an information storage medium may be provided.
  • a character input device is a character input device that determines an input character from a plurality of characters, wherein each of the plurality of characters is assigned to a plurality of character groups.
  • Character storage means for storing in association with at least one of them, and a target character group for storing target character group specifying information for specifying as a target character group any of! /
  • the character group identification information updating means for updating the character group identification information to be noticed so as to be another character group of the plurality of character groups, and a character group identified by the character group identification information of interest.
  • Current selection input candidate specification information storage means for storing current selection input candidate specification information for specifying any of the characters stored in association with each other as the current selection input candidate is different from the attention point movement operation.
  • the character specified by the current selection input candidate specifying information is different from the other characters stored in association with the character group specified by the character group specifying information of interest.
  • the current selection input candidate specification information updating means for updating the current selection input candidate specification information and the current character input operation according to the input character determination operation.
  • Input character determining means for determining the character specified by the selection input candidate specifying information as the input character, a character group corresponding image corresponding to the plurality of character groups, and a character group specified by the target character group specifying information.
  • An input candidate guidance image for guiding a character stored correspondingly, and the character corresponding to the character group identified by the character group identification information of the character group correspondence image Display control means for displaying on the display means a character input screen in which the group-corresponding images are displayed in a distinguishable manner and the characters specified by the current selection input candidate specifying information are displayed in the input candidate guidance images
  • the display control means includes the noticeable character group specifying information update means and the noticeable character group. When the group specifying information is updated, the character group corresponding image corresponding to the character group specified by the updated character group specifying information is displayed so as to be distinguished from each other.
  • the character input screen When the character input screen is updated, and the current selection input candidate specification information is updated by the current selection input candidate specification information update unit, the character specified by the updated current selection input candidate specification information is input.
  • the character input screen displayed on the display means is updated so that the candidate guidance images are distinguished and displayed.
  • the method for controlling a character input device stores each of a plurality of characters in association with at least one of a plurality of character groups, and determines an input character from the plurality of characters.
  • the plurality of character groups Of the attention character group specifying information storage means for storing the attention character group specifying information for specifying the! / ⁇ of the character as the attention character group according to the attention point moving operation.
  • the attention character group identification information updating step for updating the character group identified by the character group identification information so as to be another character group of the plurality of character groups, and the identification using the attention character group identification information Stored in current selection input candidate specifying information storage means for storing current selection input candidate specifying information for specifying any of the characters stored in association with the character group to be selected as the current selection input candidate
  • current selection input candidate specifying information for updating to be another character among the characters stored in association with the character group specified by the target character group specification information.
  • An input character determining step for determining a character specified by the current selection input candidate specifying information as the input character; a character group corresponding image corresponding to the plurality of character groups; An input candidate guide image for guiding characters stored in association with the character group specified by the character specification information, specified by the character group specification information of the character group correspondence image.
  • the image corresponding to the character group corresponding to the character group to be displayed is distinguished and displayed in the current selection input candidate specifying information.
  • Display control step for causing the display means to display a character input screen in which the character specified by the input candidate guidance image is displayed in a distinguishable manner in the input candidate guidance image, and the display control step includes the attention character group specifying information update step.
  • the program according to the present invention is a portable game machine, a home game machine, an arcade game machine, a mobile phone, a personal digital assistant (PDA) or a personal computer as a character input device that determines an input character from a plurality of characters.
  • the current selection input character specifying information is selected so that the character specified by the current selection input candidate specifying information is another character among the characters stored in association with the character group specified by the target character group specifying information.
  • Current selection input candidate specification information updating means for updating input candidate specification information, input character determination means for determining a character specified by the current selection input candidate specification information as the input character in response to an input character determination operation;
  • a screen including a character group corresponding image corresponding to the plurality of character groups and an input candidate guide image for guiding characters stored in association with the character group specified by the character group specifying information of interest. The character corresponding to the character group specified by the character group specifying information in the character group corresponding image.
  • Display control means for displaying on a display means a character input screen in which a loop-corresponding image is displayed in a distinguishable manner and characters specified by the currently selected input candidate specifying information are displayed in the input candidate guidance image.
  • the display control means corresponds to the character group specified by the updated notice character group specification information.
  • the image corresponding to the character group When the character input screen displayed on the display means is updated so that it is displayed separately, and the current selection input candidate specification information is updated by the current selection input candidate specification information update means, the updated current input screen is displayed.
  • the program is characterized in that the character input screen displayed on the display means is updated so that the character specified by the selected input candidate specifying information is displayed in a distinguishable manner in the input candidate guide image.
  • An information storage medium is a computer-readable information storage medium storing the above program.
  • the present invention relates to a character input device that determines an input character from a plurality of characters.
  • each of the plurality of characters is stored in association with at least one of the plurality of character groups.
  • attention character group specifying information for specifying any one of the plurality of character groups as the attention character group is stored.
  • the attention character group identification information is updated so that the character group identified by the attention character group identification information becomes another character group of the plurality of character groups in accordance with the attention point movement operation.
  • current selection input candidate specification information for specifying any one of the characters stored in association with the character group specified by the target character group specification information as the current selection input candidate is stored.
  • the character specified by the currently selected input candidate specifying information is specified by the attention character group specifying information in response to an input character selecting operation different from the attention point moving operation. Updated to be another character of the character stored in association with the character group. Further, the character specified by the current selection input candidate specifying information is determined as an input character in accordance with the input character determination operation.
  • “a character group corresponding image corresponding to a plurality of character groups, an input candidate candidate image for guiding characters stored in association with the character group specified by the target character group specifying information, The character group-corresponding image corresponding to the character group identified by the target character group identifying information in the character group-corresponding image is displayed separately, and identified by the current selection input candidate identifying information.
  • a “character input screen in which characters are displayed in a different manner in the input candidate guidance image” is displayed on the display means.
  • This character input screen displays the updated notice text when the notice character group identification information is updated.
  • the character group-corresponding image corresponding to the character group specified by the character group specifying information is updated so as to be displayed separately.
  • the character input screen is updated so that the characters specified by the updated current selected input candidate specifying information are displayed in a distinguished manner in the input candidate guidance image.
  • “one of a plurality of character groups each of which is associated with a plurality of characters is first selected, and one of the characters associated with the character group is further selected. Therefore, the user can smoothly perform “character input performed by determining the input character”.
  • characters include kanji, hiragana, katakana, numbers, and the like. Also, for example, those corresponding to languages other than Japanese such as alphabetic characters, Cyrillic characters, Korean characters, Thai characters, traditional characters and simplified characters are included. Furthermore, it includes things such as punctuation (symbols) such as “(” and “)”, and blanks.
  • the display control unit acquires a position on the character input screen of the character group corresponding image corresponding to the character group specified by the target character group specifying information.
  • the display position of the input candidate guidance image may be determined based on the acquired position.
  • the character input screen includes a display area for displaying the character determined as the input character by the input character determination unit
  • the display control unit includes Any of the characters stored in association with the character group specified by the character group specifying information of interest is determined as the input character by the input character determining means Means for acquiring a position where the character is to be displayed, and the display position of the input candidate candidate image is determined based on the acquired position.
  • an input character storage unit that stores a character determined as the input character by the input character determination unit, a predicted character string storage unit that stores a predicted character string, and the prediction At least one of the predicted character strings stored in the character string storage means is stored in association with the storage contents of the input character storage means and the character group specified by the attention character group specifying information.
  • the current selection input candidate specifying information is acquired by the character stored in association with the character group specified by the target character group specifying information and the predicted character string acquiring unit.
  • the current selection input candidate specification information updating means is configured to select the current selection input according to the input character selection operation.
  • a character or predicted character string specified by candidate specifying information is stored in association with a character group specified by the target character group specifying information and a predicted character string acquired by the predicted character string acquiring means
  • the current selection input candidate specifying information is updated so as to be another character or a predicted character string
  • the input character determination means When a predicted character string is specified as the current selection input candidate by complement specifying information, at least a part of characters included in the predicted character string is determined as the input character, and the display control means Including the input candidate guidance image for guiding the predicted character string acquired by the column acquisition means together with the character stored in association with the character group specified by the character group specifying information of interest, and
  • the character input screen on which the character or predicted character string specified by the input candidate specifying information is displayed in the input candidate guidance image is displayed on the display means, and the current selection input candidate specifying information update means displays the character input screen.
  • a character string includes one or more characters.
  • FIG. 1 is an external view of a portable electronic device used as a character input device according to the present embodiment.
  • FIG. 2 is a diagram showing a hardware configuration of a portable electronic device used as a character input device according to the present embodiment.
  • FIG. 3 is a diagram showing an example of a character input screen.
  • FIG. 4 is a diagram showing an example of character group information.
  • FIG. 5 is a diagram showing an example of key image information related to an alphabet input mode.
  • FIG. 6 is a diagram showing an example of a character input screen in alphabet input mode.
  • FIG. 7 is a diagram showing an example of a character input screen in alphabet input mode.
  • FIG. 8 is a diagram showing an example of a character input screen in alphabet input mode.
  • FIG. 9 is a diagram showing another example of the character input screen in the alphabet input mode.
  • FIG. 10 is a diagram showing another example of a character input screen in alphabet input mode.
  • FIG. 11 is a diagram showing another example of the character input screen in the alphabet input mode.
  • FIG. 12 shows an example of predicted character string data.
  • FIG. 13 is a diagram showing an example of a character input screen in the Kanji / Hiragana input mode.
  • FIG. 14 is a diagram showing an example of key image information related to the Kanji hiragana input mode.
  • FIG. 15 is a functional block diagram of a portable electronic device used as a character input device according to the present embodiment.
  • FIG. 16 is a diagram showing an example of a character string.
  • FIG. 17 is a diagram showing an example of a phonetic pseudonym.
  • FIG. 18 is a diagram showing an example of hiragana characters.
  • FIG. 19 is a diagram showing an example of hiragana characters.
  • FIG. 20 shows an example of kanji.
  • the character input device can be realized by using, for example, a portable electronic device functioning as a portable game machine, a portable music player, or a portable information terminal (PDA).
  • a portable electronic device functioning as a portable game machine, a portable music player, or a portable information terminal (PDA).
  • PDA portable information terminal
  • FIG. 1 is a front external view of a portable electronic device used as a character input device according to an embodiment of the present invention.
  • the portable electronic device 10 shown in the figure is a thin, horizontally-long box-shaped housing having a shape in which both left and right sides are rounded in an arc shape, and a liquid crystal display 12 is provided at the center. .
  • Buttons 16a, 16b, 16c, 16d are provided on the right side of the liquid crystal display 12, and direction keys 18u, 18r, 18d, 181 are provided on the left side.
  • the buttons 16a, 16b, 16c, 16 The d and direction keys 18u, 18r, 18d, and 181 can be operated.
  • Buttons 14L and 14R are also provided on the top left and right of the housing, and these can be operated with the user's index finger.
  • a pad 20 is provided below the direction keys 18u, 18r, 18d, 181.
  • the node 20 can be arbitrarily slid in all directions parallel to the front of the casing, and operation data indicating the sliding direction and sliding amount can be input to the portable electronic device 10.
  • a speaker 26L force is provided on the left side of the liquid crystal display 12, and a speaker 26R is provided on the right side, so that stereo sound can be output.
  • volume buttons 38m and 38p are provided on the lower side of the liquid crystal display 12.
  • Volume buttons 38m and 38p are used to adjust the volume of sound output from speakers 26L and 26R.
  • the screen button 40 is a button for adjusting the brightness of the liquid crystal display 12, and when the screen button 40 is pressed, the brightness of the liquid crystal display 12 can be changed in the order of low brightness, medium brightness, and high brightness.
  • the sound button 42 is a button for turning on and off the sound output from the speakers 26L and 26R
  • the select button 44 is a button for selecting a menu item displayed on the liquid crystal display 12
  • the start button 46 is a main button. This button is used to start a game when the mobile electronic device 10 is executing a game program.
  • FIG. 2 is a diagram illustrating a hardware configuration of the portable electronic device 10.
  • the portable electronic device 10 includes a control unit 50, an interface unit 52, an operation unit 54, a wireless communication module 56, a disk drive 58, a storage unit 60, and a voice input unit 62.
  • the image processing unit 64, the liquid crystal display 12, the sound processing unit 66, the sound output unit 68, and the power supply control unit 70 are included.
  • the operation unit 54, the wireless communication module 56, the disk drive 58, the storage unit 60, and the voice input unit 62 are connected to the control unit 50 via the interface unit 52. Further, the power control unit 70, the image processing unit 64 and the sound processing unit 66 are connected to the control unit 50. A liquid crystal display 12 is connected to the image processing unit 64. In addition, an audio output unit 68 is connected to the audio processing unit 66.
  • the control unit 50 is an MPU (Micro Processing Unit) or the like, and based on an external storage medium set in the disk drive 58 or a program stored in the storage unit 60, each unit of the portable electronic device 10 To control.
  • MPU Micro Processing Unit
  • the interface unit 52 distributes the signal output from the control unit 50 to any one of the wireless communication module 56, the disk drive 58, or the storage unit 60 in accordance with an instruction input from the control unit 50, and outputs the signal. Further, the interface unit 52 outputs signals from the operation unit 54, the wireless communication module 56, the disk drive 58, the storage unit 60, or the audio input 62 to the control unit 50 to the control unit 50 while arbitrating.
  • the operation unit 54 is an input means for the user to perform various operations.
  • the buttons 14L, 14R, 16a, 16b, 16c, 16d, direction keys 18u, 18d, 181, 18r, node 20, volume buttons 38 , Operating buttons such as screen button 40, sound button 42, select button 44, start button 46, etc. are included.
  • Operation data (operation signal) indicating the operation content (for example, presence / absence of operation, operation amount, operation direction) for these operation members is supplied to the control unit 50 via the interface 52.
  • the wireless communication module 56 is a wireless communication device defined as, for example, 802. ib or g, and in accordance with an instruction input from the control unit 50, wirelessly radiates and transmits data to be transmitted. To do. Also, a signal arriving at an antenna (not shown) is received and output to the control unit 50.
  • the disk drive 58 reads the data of the set external storage medium force according to the instruction input from the control unit 50 and outputs the data to the control unit 50.
  • the storage unit 60 is a storage element such as a random access memory (RAM) or a read only memory (ROM), holds a program executed by the control unit 50, and also operates as a work memory of the control unit 50.
  • the image processing unit 64 includes a VRAM (Video Random Access Memory).
  • the image processing unit 64 draws a screen to be displayed on the liquid crystal display 12 on the VRAM in accordance with an instruction input from the control unit 50. Further, the image processing unit 64 outputs a video signal for displaying a screen drawn on the VRAM to the liquid crystal display 12.
  • the liquid crystal display 12 receives the video signal input from the image processing unit 64. Based on this, the liquid crystal is controlled to display an image.
  • the audio processing unit 66 synthesizes audio in accordance with instructions input from the control unit 50 and outputs a synthesized audio signal to the audio output unit 68.
  • the sound represents various sounds such as a beep sound, a musical instrument sound, and a human voice.
  • the audio output unit 68 is, for example, a speaker power 26L, 26R or a headphone terminal.
  • the audio output unit 68 sounds the speakers 26L, 26R based on the audio signal input from the audio processing unit 66, or outputs the audio signal. Output to the dphone terminal.
  • the audio input unit 62 is, for example, a microphone, and converts surrounding audio into an audio signal that is an electrical signal and outputs the audio signal.
  • the power control unit 70 supplies power to each unit.
  • a program for causing portable electronic device 10 to function as a character input device is stored in storage unit 60 and executed by control unit 50.
  • the above program is stored in the storage unit 60 at the time of shipment from the factory.
  • the program provided via the communication network is stored in the storage unit 60 via the wireless communication module 56.
  • the program stored in the external storage medium is read via the disk drive 58 and stored in the storage unit 60.
  • the character input screen includes an alphabet input mode for entering alphabets, symbols and numbers, a kanji / hiragana input mode for inputting kanji and hiragana, and a katakana input mode for inputting katakana. These input modes are switched when the select button 44 is pressed.
  • the alphabet input mode and kanji hiragana input mode will be mainly described.
  • Figure 3 shows an example of the character input screen in alphabet input mode.
  • the character input screen 80 includes a blank key image 82, a confirm key image 84, a stop key image 86, direction key images 881, 88 u, 88d, 88r, and a delete key image 90.
  • Help key image 92 and character key image 94 1 , 94 10 large / small conversion key image 96, line feed key image 98, input status guidance form 102, and input mode guidance image 106 are included.
  • an input character string 103 having a character power already input by the user is displayed with left justification.
  • the input status guidance form 102 displays a cursor 104 indicating the position where the character to be input next is added.
  • the input mode plan image 106 shows the current input mode.
  • the key image is for allowing the user to input various instructions related to character input.
  • the blank key image 82 is used to instruct the input of a blank character.
  • the confirmation key image 84 is used to instruct the completion of character input.
  • the stop key image 86 is used to instruct to stop inputting characters.
  • Direction key images 881, 88u, 88d, and 88r are for instructing movement of the cursor 104.
  • the delete key image 90 is for instructing to delete the character immediately before the cursor 104.
  • the help key image 92 is used to instruct the display of the help screen.
  • Character key images 94-1 to 94-10 are used to instruct the input of characters.
  • the large / small conversion key image 96 is used to instruct conversion to uppercase or lowercase.
  • the line feed key image 98 is used to instruct a line feed.
  • a key focus 100 indicating that the key image is in a selected state is formed on any key image.
  • the key focus 100 is on the blank key image 82, and the blank key image 82 is displayed in a distinguishable manner.
  • the key focus 100 moves in the direction corresponding to the pressed content.
  • the key focus 100 moves onto the confirmation key image 84 on the right side of the blank key image 82.
  • the key focus 100 may be moved according to an operation on the pad 20, or may be moved according to an operation on the buttons 14L and 14R.
  • a selection operation button for example, button 16b or button 16a
  • processing corresponding to the key image that is distinguished and displayed by the key focus 100 at that time is performed.
  • a selection operation button for example, button 16b or button 16a
  • processing corresponding to the key image that is distinguished and displayed by the key focus 100 at that time is performed.
  • the selection operation button is pressed while the key focus 100 is on the blank key image 82
  • a blank character is input.
  • a plurality of characters are associated with each of the character key images 94-1 to 94-10.
  • character group information as shown in FIG. 4 is held.
  • This character group information is information obtained by associating character group identification information (character group ID) with characters belonging to the character group, and indicates character grouping.
  • Each character group has a plurality of characters associated with it in a predetermined order.
  • the portable electronic device 10 holds key image information as shown in FIG. 5, for example.
  • the key image information stores the type of key image displayed on the character input screen 80 in the alphabet input mode and the display position thereof.
  • each character key image is associated with a character group ID so that there is no duplication.
  • the character group “A1” is associated with the character key image “. @ 1” (character key image 94-1), and the character group “ABC2” (character key image 94 2) "A2" indicates that it can be associated. That is, the character group “An” is associated with the character key image 94-n.
  • each character key image displayed on the character input screen 80 represents at least a part of the characters associated with the character key image.
  • FIG. 6 shows a state in which the key focus 100 is moved onto the character key image 94-1.
  • an input candidate proposal image 108 is displayed on the character input screen 80 in this case.
  • characters associated with the character key image 94-1 are displayed in a predetermined order.
  • the character key image represents at least part of the characters associated with the character key image
  • the input instruction target character is an alphabet or a number.
  • the user can rely on this to match the input instruction target character.
  • the key image can be known or guessed.
  • the input instruction target character force is a symbol such as “”
  • the user may not be able to know and guess the character key image associated with the symbol.
  • the input candidate guidance image 108 indicating the character associated with the character key image is displayed, so the user can select the character associated with the input instruction target character. Key images can be found easily.
  • the user moves the key focus 100 to the character key image 94-1 (character key image to which the input instruction target character ":” is associated), and then the character associated with the character key image 94 1
  • the input instruction target character “:” is selected from the list.
  • the selection operation button for example, button 16b or button 16a
  • the first character “.” Of the characters associated with the character key image 94 1 is selected.
  • the selection button once more, the second character ",” is selected. That is, each time the user presses the selection operation button, one of the characters associated with the character key image 94-1 is sequentially selected according to a predetermined order. ing.
  • the character corresponding to the number of pressings of the selection operation button (the number of pressings after the key focus 100 is moved to the character key image 941) is selected. It becomes like this. If the selection operation button is pressed when the last character “1” is selected, the first character “.” Is selected.
  • FIG. 7 shows a state where the selection operation button is pressed four times.
  • a current selection input candidate 112 indicating the selected character “?” Is displayed in place of the cursor 104 on the input status guidance form 102. That is, the current selection input candidate 112 is displayed at the additional position of the next character to be input.
  • an input candidate focus 110 indicating that the character is selected is formed on any character, and the selected character is displayed in a distinguishable manner. Yes.
  • the character “?” In the selected state is displayed in a distinguished manner.
  • the current selection input candidate 112 is updated, and the input candidate focus 110 moves to distinguish and display the next character.
  • the selection state Since the characters in the state are distinguished, the user can grasp at a glance how many times the selection operation button should be pressed to select the desired character. The user can smoothly input characters.
  • the key focus 100 is set to another key image (for example, another character key image or direction key image).
  • the select operation button moves up and press the select operation button to determine the character ":" as the input character.
  • the character input screen 80 is displayed as shown in FIG. Is updated. That is, a character string in which “a character newly determined as an input character for the original input character string“ http ”” is added at the position indicated by the cursor 104 (or the currently selected input candidate 112). "http:" Entered string 103 is updated to indicate J.
  • the display position of the input candidate guidance image 108 is determined based on the “additional position of the next character to be input” (position of the cursor 104 or the current selection input candidate 112) in the input situation guidance form 102. You may do it.
  • the input candidate guide image 108 is displayed so that the position of the input candidate focus 110 in the input candidate guide image 108 is a predetermined position below the currently selected input candidate 112. Also good.
  • the position of the input candidate focus 110 after the movement is the current selected input candidate 112.
  • the input candidate guide image 108 may slide to the left so that it is at a predetermined position below.
  • an input candidate guidance image 108a may be displayed instead of the current selection input candidate 112.
  • the display position of the input candidate guide image 108 may be determined based on the position of the character key image displayed in a distinguishable manner by the key focus 100.
  • the input candidate guidance image 108 may be displayed in a predetermined position below the character key image, which is distinguished and displayed by the key focus 100.
  • the character input screen 80 is as shown in FIGS. 9 to 11, the user must pay attention when inputting characters! /, Because the area is limited, the user can input characters more comfortably. Can be done.
  • the character input screen 80 according to the present embodiment has an input prediction function.
  • the input prediction function When a predetermined operation is performed by the user and the input prediction function is enabled, the character string that the user is going to input is predicted, and the predicted character string (predicted character string) is guided. Yes.
  • the user can input a desired character string quickly!
  • predicted character string data as shown in FIG. 12, for example, is stored in the storage unit 60.
  • the predicted character string data for example, a character string input in the past by the user is stored.
  • the input prediction function one or more predicted character strings included in the predicted character string data are acquired and guided based on the user's character input status. More specifically, the predicted character string data is based on the input character string and the character associated with the character key image displayed with the key focus 100. The power is acquired and guided.
  • the user inputs the first character (when the input character string is a character string with a length of 0), "a character key image distinguished and displayed by the key focus 100" ⁇ Predicted character string starting with 1 character misaligned as the first character '' is acquired as the predicted character string data, and the predicted character string is input candidate along with the character associated with the character key image.
  • the guidance image 108 is displayed. For example, when the predicted character string data shown in FIG. 12 is stored and the character key image 94-4 is displayed separately, the character “G” associated with the character key image 94-4 is displayed.
  • a predicted character string starting with a character that is not the target of the alphabet input mode may be displayed on the input candidate guidance image 108.
  • a character that is not the target of the alphabet input mode for example, kanji, hiragana or katakana
  • the character key image (characters) displayed on the character input screen (see Fig. 13) in the Kanji hiragana input mode at the same Cf as the display position of the character key image 94 4 on the character input screen 80 in the alphabet input mode.
  • the character associated with the key image 94 4a) (characters belonging to the character group ⁇ H4 '') and the character as the first character
  • the predicted character string (the predicted character string with the predicted character string ID “S18”) to be displayed may be displayed on the input candidate guidance image 108.
  • the predicted character string that matches the character string image that is associated with the character key image that is distinguished and displayed by the key focus 100 at the end of the character string is the predicted character string. It comes to be acquired from data. At this time, the uppercase and lowercase letters of the alphabet are not distinguished.
  • the predicted character string is displayed on the input candidate guide image 108 together with the character associated with the character key image that is displayed by being distinguished by the key focus 100. For example, in the case where the predicted character string data shown in FIG. 12 is stored and the character input screen 80 is in the state shown in FIG.
  • the predicted character string is displayed separately in a part corresponding to the input character string and the other part.
  • the part corresponding to the input character string and the other part are distinguished by force ("[" and "]”).
  • the predicted string “http: ZZxxxl.xx.xx” is displayed as “http [: //xxxl.xx.xx]”
  • the predicted string “HTTP (HyperText Transfer Protocol)” is displayed, for example, so that the part corresponding to the entered character string and the other part are displayed in different colors.
  • the background of the portion corresponding to the input character string portion may be displayed in a different color from the background of the other portion, for example, corresponding to the input character string.
  • the underline may be displayed in a portion other than the portion, or may be combined, for example, or only the portion other than the portion corresponding to the input character string may be input candidate guidance images. Even if it is displayed in 108. [0050] If the added position of the character to be input next is not the end of the input character string, the portion before the added position of the input character string is regarded as the input character string, and the predicted sentence Acquisition and guidance of character strings may be performed.
  • a character string in which a deviation of a character associated with a character key image that is distinguished and displayed by the key focus 100 is added to the added position of the input character string is forwardly matched. Even if the predicted character string is acquired and guided, the predicted character string data is acquired.
  • the predicted character string displayed on the input candidate guidance image 108 is equivalent to the character displayed on the input candidate guidance image 108 (the character associated with the character key image displayed with distinction by the key focus 100).
  • the user can select. That is, when the user presses the selection operation button, the input candidate focus 110 is moved onto the predicted character string in the input candidate guidance image 108, and the predicted character string is selected. Then, when the predicted character string is in the selected state, for example, when the user performs a predetermined operation to start inputting the next character, the predicted character string is determined as the input character string, and the input status guidance frame 102 is displayed. The entered character string 103 is displayed.
  • the input character string power is 'http'
  • the predicted character string “HTTP (HyperText Transfer Protocol)” is determined as the input character string
  • the input character string 103 is input to the input status information frame 102.
  • HTTP (HyperText Transfer Protocol)” is displayed as a part of the input status information frame 102 except for the part corresponding to the input character string of the predicted character string.
  • http HyperText Transfer Protocol
  • the guidance display of the predicted character string as described above is performed together with the guidance display of the character associated with the character key image when the key focus 100 is moved on the character key image. It ’s like that.
  • the guidance display of the predicted character string may be performed only when the user specifically instructs. For example, it may be performed in response to a user pressing a predetermined button (eg, button 16c)! ,.
  • FIG. 13 shows a character input screen in the Chinese character hiragana input mode.
  • the character input screen 80a in this case is a character key image 94-la to 94 10a in which hiragana characters are associated as compared with the character input screen 80 in the alphabet input mode. The difference is that it is provided in place of 94-1 to 94-10 and that the cloud point key image 96a is provided in place of the size conversion key image 96. Hiragana characters are grouped as shown in Fig. 4, for example.
  • key image information as shown in FIG. 14 is held. This key image information is the same information as the key image shown in FIG. 5, and the type and display position of the key image displayed on the character input screen 80a in the Chinese character hiragana input mode are stored.
  • each character key image is associated so that any character group ID does not overlap.
  • the input candidate indicating the character corresponding to the character key image A guide image 108 is displayed.
  • the input candidate guide image 108 for guiding the character associated with the character key image 94la is displayed. It has become.
  • the cloud point key image 96a is used to instruct the addition of a cloud point or a semi-cloud point.
  • Kanji / Hiragana input mode when the user performs a predetermined operation (for example, pressing the button 16d), a list of Kanji characters (not shown) that can be converted into Hiragana characters already entered is displayed on the character input screen 80a.
  • a predetermined operation for example, pressing the button 16d
  • Kanji characters not shown
  • the input hiragana characters are converted to kanji.
  • the Kanji / Hiragana input mode as in the alphabet input mode, when the input prediction function is enabled, one or a plurality of predicted character strings included in the predicted character string data are based on the user's character input status. Acquired and guided. That is, the acquisition of the predicted character string from the predicted character string data is identified and displayed by the input character string and the key focus 100, as in the alphabet input mode. The character associated with the character key image is used for the character key image.
  • the first character indicates whether the character key image that is distinguished and displayed by the key focus 100!
  • the predicted character string is obtained as a predicted character string data, and the predicted character string is displayed on the input candidate guide image 108 together with the character associated with the character key image.
  • the predicted character string data shown in FIG. 12 is stored, if the character key image 94-la is distinguished and displayed, the character associated with the character key image 94-la (that is, The predicted character strings with predicted character string IDs “S 15” and “S 17” are displayed on the input candidate guide image 108 together with the characters belonging to the character group “H1”.
  • the predicted character string that matches the character string image that is associated with the character key image that is distinguished and displayed by the key focus 100 at the end of the character string is the predicted character string. Obtained from the data.
  • the predicted character string is displayed on the input candidate guide image 108 together with the character associated with the target character key image. For example, in the case where the predicted character string data shown in FIG. 12 is stored, if the character string shown in FIG.
  • Acquisition of the predicted character string from the predicted character string data may be performed based only on the input character string.
  • a predicted character string that matches the input character string in the forward direction may also be acquired on the predicted character string data and displayed on the input candidate guide image 108.
  • the entered string is "http”
  • Xx xx ",” H TTP (HyperText Transfer Protocol), “httpd” may also be used to obtain predicted character string data (FIG. 12) and display it on the input candidate guidance image 108.
  • H TTP HyperText Transfer Protocol
  • the predicted character strings with predicted character string IDs “S 9”, rsi lj, “S12”, and “S14” are predicted character string data ( It may be obtained from Fig. 12) and displayed on the input candidate guidance image 108.
  • the guidance display of the predicted character string may be performed only when the user specifically instructs. For example, it may be performed in response to a user pressing a predetermined button (for example, button 16c). Also, for example, when a prediction key image for instructing the guidance display of the predicted character string is provided on the character input screens 80 and 80a, the user moves the key focus 100 to the predicted key image, and presses the selection operation button. It may be done. In this aspect, when the user inputs the first character, all predicted character strings stored in the predicted character string data may be guided.
  • a predetermined button for example, button 16c
  • each predicted character string may be associated with at least one character duplication ID.
  • the predicted character string data associated with the character group ID associated with the character key image that is distinguished and displayed by the key focus 100 may also be acquired and displayed on the input candidate guide image 108.
  • the character string ID “H1” is associated with the predicted character string of the predicted character string ID “S9” in the predicted character string data
  • the character key image 94 la character group ID “H 1” Is displayed in a distinguished manner
  • the predicted character string with the predicted character string ID “S9” is displayed in the input candidate guidance image 108.
  • the predicted character string can be guided in consideration of the fact that characters input by the user are converted into kanji.
  • a kana may be associated with each predicted character string.
  • Kanji / Hiragana input mode for example, when the user inputs the first character, a kana character whose head character is the character associated with the character key image that is distinguished and displayed by the key focus 100 is acquired.
  • a predicted character string associated with the phonetic name may be acquired and displayed on the input candidate guidance image 108.
  • one or more hiragana characters may be displayed by the user. If the input position of the next character to be input is at the end of the input character string, it will be displayed with the key focus 100 at the end of the input character string.
  • After obtaining a kana name that matches the prefix ⁇ character string formed by combining any of the characters associated with the character key image '' obtain the predicted character string associated with the kana and input it. You may make it display on the candidate guidance image 108.
  • the kanji that can be converted is acquired based on the character associated with the character key image displayed by the key focus 100.
  • a predicted character string having the kanji as the first character may be displayed on the input candidate proposal image 108.
  • the user inputs the second and subsequent characters added to the end of the input character string it can be converted based on the characters associated with the character key image displayed separately by the key focus 100.
  • a kanji character is obtained, and a predicted character string that matches the “character string formed by combining one of the acquired kanji characters at the end of the input character string” is displayed on the input candidate guidance image 108. Also good.
  • each kanji is associated with at least the first character (hiragana) of the reading kana is stored in the storage unit 60.
  • the character key image 94 la is displayed when the user inputs the first character.
  • the character key image associated with the character to be displayed is distinguished, the Chinese character associated with one of the characters related to the character key image 94 la (for example, the character shown in FIG. 18) (for example, 20), the predicted character string (for example, the predicted character string with the predicted character string ID “S9”) that has the first character as the first character is also acquired, and the predicted character string data is also obtained.
  • the character string is displayed on the input candidate guidance image 108.
  • meta information such as “historical person”, “historical work” and “nouns composed of kanji” is added to each predicted character string. You may make it correspond.
  • the user uses the input prediction function, the user is guided to specify the meta information, and the predicted character string associated with the meta information specified by the user is displayed on the input candidate guide image 108. Good. For example, if the predicted character string IDs “S10” and “S13J predicted character strings are associated with the meta information“ historical person ”, the user specifies the meta information“ historical person ”. These predicted character strings are displayed on the input candidate proposal image 108.
  • the mobile electronic device 10 may include all the input prediction functions described above.
  • the user can set whether or not to enable the input prediction function by performing a predetermined operation. When the input prediction function is enabled, which mode of the input prediction function is used. May be set.
  • FIG. 15 is a diagram mainly showing functions related to the present invention among the functions realized by the portable electronic device 10.
  • the portable electronic device 10 includes a character storage unit 120, a key image information storage unit 122, an attention character group specification information storage unit 124, a currently selected input candidate specification information storage unit 126, and an input character storage. 128, predicted character string storage unit 130, predicted character string acquisition unit 132, attention character group identification information update unit 134, current selection input candidate identification information update unit 136, The input character determination unit 138 and the display control unit 140 are included. These functions are realized by the program stored in the storage unit 60 being executed by the control unit 50.
  • the character storage unit 120 is realized mainly by the storage unit 60. Character storage unit 120 stores each of the plurality of characters in association with at least one of the plurality of character groups. The character storage unit 120 stores, for example, character group information as shown in FIG.
  • the key image information storage unit 122 is realized mainly by the storage unit 60.
  • the key image information storage unit 122 stores key image information for each input mode as shown in FIGS. 5 and 14, for example.
  • the attention character group identification information storage unit 124 is realized mainly by the storage unit 60.
  • the noticeable character group identification information storage unit 124 stores the key image IDs of the key images that are to be distinguished and displayed by the key focus 100 among the key images displayed on the character input screens 80 and 80a. For example, when the key focus 100 is positioned on the character key image 941 in the alphabet input mode, the key image ID “001” of the character key image 94-1 is stored in the attention character group specifying information storage unit 124. Is done.
  • the key image information stored in the key image information storage unit 122 is associated with the key image ID of the character key image and the character group ID.
  • the key image ID stored in the information storage unit 124 is information (identified character group identification information) for identifying a character group (attention character group) associated with a key image that is distinguished and displayed by the key focus 100. Play the role of
  • the current selection input candidate specifying information storage unit 126 is realized mainly by the storage unit 60.
  • the current selection input candidate specifying information storage unit 126 includes a character stored in association with the character group ID associated with the key image ID stored in the target character group specifying information storage unit 124, and a predicted character string to be described later Input from the predicted character string acquired by the acquisition unit 132 Characters or predicted character strings to be displayed in distinction by candidate focus 110 (current selection input candidate
  • the currently selected input candidate specifying information storage unit 126 stores a character or a predicted character string itself to be displayed with the input candidate focus 110. That is, the currently selected input candidate specifying information storage unit 126 stores a character or a predicted character string that is selected in the input candidate guidance image 108.
  • the current character selection input candidate specifying information storage unit 126 stores the character or predicted character string in the current character selection input candidate specifying information storage unit 126 at the timing when the character or predicted character string is written.
  • the stored key image ID is also stored. That is, when a character or predicted character string is in a selected state, it is distinguished by the key focus 100! /, And is stored in the key image ID power of the key image currently selected input candidate specifying information storage unit 126. Become! /
  • the input character storage unit 128 is realized mainly by the storage unit 60.
  • the input character storage unit 128 stores the character determined as the input character by the input character determination unit 138 described later. In other words, the input character storage unit 128 stores a character string displayed as the input character string 103 in the input status guide form 102.
  • the input character storage unit 128 stores information (additional position information) indicating a position in the input character string to which a character to be input next is added. This additional position information is determined when the selection operation button is pressed while the key focus 100 is on the direction key images 881, 88u, 88d, 88r, or when the input character is determined by the input character determination unit 138 described later. It will be updated if
  • the predicted character string storage unit 130 is realized mainly by the storage unit 60.
  • the predicted character string storage unit 130 stores the predicted character string.
  • the predicted character string storage unit 130 stores predicted character string data as shown in FIG. 12, for example.
  • the attention character group identification information updating unit 134 is realized mainly by the control unit 50. Attention The character group identification information updating unit 134 determines whether or not the operation of moving the key focus 100 (attention point movement operation) has been performed based on the operation data output from the operation unit 54 for a predetermined time (this embodiment In the form, it is determined every 1Z60 seconds). That is, the attention character group identification information updating unit 134 determines whether or not the operation data indicating the operation on the direction keys 18u, 18d, 181, and 18r is output from the operation unit 54, and the direction keys 18u, 18d. , 181, 18r Operation contents (directions indicated by direction keys 18u, 18d, 181, 18r) are acquired.
  • the destination key image includes, for example, a key image ID stored in the target character group identification information storage unit 124 (that is, a key image ID of the key image where the key focus 100 is currently located) and direction keys 18u, 18d. , 181, 18r, and key image information (display position information of each key image) stored in the key image information storage unit 122.
  • the target character group specifying information updating unit 134 specifies the destination key image
  • the key image ID stored in the target character group specifying information storage unit 124 becomes the key image ID of the destination key image.
  • the storage contents of the attention character group specifying information storage unit 124 are updated.
  • the predicted character string acquisition unit 132 is realized mainly by the control unit 50.
  • the predicted character string acquisition unit 132 receives at least one of the predicted character strings stored in the predicted character string storage unit 130 in the storage contents of the input character storage unit 128 and the attention character group identification information storage unit 124. Based on the character stored in association with the character group specified by the stored key image ID.
  • the current selection input candidate specifying information updating unit 136 is realized mainly by the control unit 50.
  • the current selection input candidate specifying information updating unit 136 presses the selection operation button when the key image related to the key image ID stored in the target character group specifying information storage unit 124 is a character key image (input character selecting operation). Operation that is output from the operation unit 54 A determination is made at predetermined time intervals (1Z60 seconds in this embodiment) based on the data.
  • the current selection input candidate identification information updating unit 136 determines that the selection operation button has been pressed, the character or the predicted character string held by the current selection input candidate identification information storage unit 126 is the character group identification of interest.
  • the current selection input candidate specification information update unit 136 stores the current selection input candidate specification information storage unit 126 when the character or the predicted character string stored in the current selection input candidate specification information storage unit 126 is updated.
  • the key image ID to be updated is updated to the key image ID stored in the target character group identification information storage unit 124 at that timing.
  • the input character determination unit 138 is realized mainly by the control unit 50.
  • the input character determination unit 138 determines whether or not the key focus 100 has been moved onto another key image and the selection operation button has been pressed when any character or predicted character string is selected. The determination is made every predetermined time (1Z60 seconds in this embodiment). Specifically, the input character determination unit 138 determines that the selection operation button is pressed (input character determination operation) when a character or a predicted character string is held in the current selection input candidate identification information storage unit 126! Whether or not the force is applied is determined based on the operation data output from the operation unit 54.
  • the input character determination unit 138 determines that the selection operation button has been pressed, the input character determination unit 138 stores the key image ID stored in the target character overlap specification information storage unit 124 and the currently selected input candidate specification information storage. It is determined whether or not the key image ID stored in section 126 is different in force.
  • the key image ID stored in the target character group specifying information storage unit 124 indicates the key image ID of the key image that is currently distinguished and displayed.
  • the key image ID stored in the current selection input candidate specific information storage unit 126 is displayed in a distinguished manner when the character or the predicted character string held in the current selection input candidate specification information storage unit 126 is selected. It shows the key image ID of the key image that was inserted. Therefore, when these key image IDs are different, the selection operation button is moved after the key focus 100 is moved onto another key image. It is determined that the button has been pressed.
  • the input character determination unit 138 determines that the key image IDs are different from each other, the input character (input character string) is input to the character or the predicted character string held in the currently selected input candidate specifying information storage unit 126. Determine as. That is, the input character determination unit 138 determines a character or a predicted character string (a character or a predicted character string in a selected state) that is displayed in a distinguished manner in the input candidate guidance image 108 as an input character (input character string). For example, when a character is held in the current selection input candidate specifying information storage unit 126, the input character determination unit 138 acquires the input character string and the additional position information from the input character storage unit 128, and displays “current selection”.
  • a character string formed by adding the character held in the input candidate specifying information storage unit 126 to the position of the input character string indicated by the additional position information ” is stored in the input character storage unit 128 as the input character string. Make it. Further, for example, when the predicted character string is held in the currently selected input candidate specifying information storage unit 126, the input character determination unit 138 replaces the input character string held in the input character storage unit 128 with the predicted character string. The column is stored in the input character storage unit 128 as an input character string. Alternatively, the input character determination unit 138 obtains the input character string from the input character storage unit 128, and “excludes the input character string from the predicted character string held in the current selection input candidate specifying information storage unit 126. The character string formed by adding the partial character string to the input character string ”is stored in the input character storage unit 128 as the input character string.
  • the input character determination unit 138 initializes the storage contents of the current selection input candidate specification information storage unit 126, and the current selection input candidate specification information storage unit In 126, the character, predicted character string, and key image ID are not held. Further, the input character determining unit 138 updates the additional position information stored in the input character storage unit 128.
  • the display control unit 140 is realized mainly by the control unit 50 and the image processing unit 64.
  • the display control unit 140 includes the character storage unit 120, the key image information storage unit 122, the attention character group specification information storage unit 124, the currently selected input candidate specification information storage unit 126, and the storage contents of the input character storage unit 128 and the prediction.
  • a character input screen as shown in FIGS. In the form, it is generated every 1Z60 seconds) and displayed on the liquid crystal display 12.
  • the display control unit 140 displays each key image, the input status guide form 102, and the input mode guide image 106 at predetermined positions based on the key image information stored in the key image information storage unit 122.
  • the resulting character input screen is drawn on VRAM.
  • the display control unit 140 displays the input character string as the input status guide form. 102 is displayed.
  • the display control unit 140 holds both the character and the predicted character string in the current selection input candidate specifying information storage unit 126. In this case, based on the additional position information stored in the input character storage unit 128, The cursor 104 is displayed on the input status guidance form 102.
  • the display control unit 140 displays the current selection input candidate 112 indicating the character as additional position information stored in the input character storage unit 128. Is displayed on the input status guidance form 102 based on the above.
  • the display control unit 140 displays the current selection input candidate 112 indicating a portion other than the input character string in the predicted character string. Is based on the additional position information stored in the input character storage unit 128! / Displayed on the input status guidance form 102.
  • the display control unit 140 acquires a key image ID stored in the character group identification information storage unit 124 of interest. Then, the display part of the key image associated with the key image ID of the character input screen drawn on the VRAM is specified based on the key image information stored in the key image information storage unit 122, and the display part is identified. To make a predetermined image (key focus image) translucent. In this way, the display control unit 140 forms the key focus 100 on the key image associated with the key image ID stored in the target character group specifying information storage unit 124. Note that the display control unit 140 distinguishes the key image related to the key image ID stored in the character group identification information storage unit 124 and displays the display mode (color, brightness, etc.) and shape of the key image. Try to make it different from other key images.
  • the display control unit 140 is a character group associated with the key image ID. Whether the ID is key image information stored in the key image information storage unit 122 Get from. Next, the display control unit 140 acquires the character associated with the character group ID based on the character group information stored in the character storage unit 120. Also, the display control unit 140 causes the predicted character string acquisition unit 132 to acquire the predicted character string. Then, the display control unit 140 generates the input candidate guide image 108 based on the acquired character and the predicted character string acquired by the predicted character string acquiring unit 132, and this is displayed as the character drawn on the VRAM. Overwrites the specified position on the input screen.
  • the display control unit 140 displays the key image display position related to the key image ID stored in the character group identification information storage unit 124 as key image information stored in the key image information storage unit 122.
  • the input candidate guide image 108 may be overwritten and synthesized at the position determined based on the display position and determined based on the display position (see FIG. 11).
  • the display control unit 140 acquires a position where the character to be input next in the input status guidance form 102 is displayed based on the stored contents of the input character storage unit 128, and the position is displayed at the position.
  • the input candidate guide image 108 may be overwritten and synthesized at a position determined based on the reference (see FIGS. 9 and 10).
  • the display control unit 140 displays a display portion of the input candidate guide image 108 corresponding to the character or the predicted character string. Is specified, and a predetermined image (input candidate focus image) is translucently combined with the display portion. That is, the display control unit 140 forms the input candidate focus 110 on the character or the predicted character string held in the currently selected input candidate specifying information storage unit 126 in the input candidate guidance image 108. In order to distinguish and display the character or the predicted character string held in the currently selected input candidate specifying information storage unit 126 in the input candidate guidance image 108, the display control unit 140 displays the display portion of the character or the predicted character string.
  • the display mode (color and brightness) may be different.
  • the character input screen drawn on the VRAM as described above is output to the liquid crystal display 12 at a predetermined timing.
  • the user moves key focus 100 on the character key image, and from among the characters associated with the character key image.
  • the character input is performed It has become.
  • the user needs to know the power of the character key image displayed on the character input screen to be the “character key image associated with the desired character” when performing character input. If the “character key image associated with the desired character” does not have enough power, it will take time to input the character.
  • the input candidate guide image 108 for guiding the character associated with the character key image is displayed.
  • the character key image associated with the desired character can be quickly known, and character input can be performed smoothly.
  • the selected character is displayed in the input candidate guidance image 108, the user can press the selection operation button more times to select the desired character. At first glance, it is possible to grasp the kana, so that the user can input characters smoothly.
  • the character input device according to the embodiment of the present invention is realized using the portable electronic device 10 .
  • the character input device according to the embodiment of the present invention is, for example, a television receiver. This is realized by using a game system in which a home game machine is connected to a monitor such as the above, or another computer system such as a personal computer system.
  • the alphabet input mode and the kanji hiragana input mode on the character input screen 80 have been described as examples. However, for other input modes such as the katakana input mode, the alphabet input mode and the kanji are also used. Similar to the hiragana input mode, the user can smoothly input characters.
  • the portable electronic device 10 may be provided with a character input mode corresponding to other languages such as Cyrillic, Korean, Thai, traditional and simplified characters.
  • the input mode the user can smoothly input characters in the same manner as the alphabet input mode and kanji hiragana input mode described above.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

明 細 書
文字入力装置、文字入力装置の制御方法及び情報記憶媒体
技術分野
[0001] 本発明は文字入力装置、文字入力装置の制御方法及び情報記憶媒体に関する。
背景技術
[0002] 各々に複数の文字が対応づけられた複数の文字グループのうち力 いずれかをま ず選択し、その文字グループに対応づけられた文字のうちのいずれかをさらに選択 し、入力文字として決定することによって文字入力を行う文字入力装置が知られてい る。
発明の開示
発明が解決しょうとする課題
[0003] 以上のような文字入力装置では、ユーザが所望の文字を入力するにあたり、所望の 文字が 、ずれの文字グループに対応づけられて 、るかをすぐに認識することができ ず、文字入力に手間取ってしまう場合がある。
[0004] 本発明は上記課題に鑑みてなされたものであって、その目的は、「各々に複数の文 字が対応づけられた複数の文字グループのうちから 、ずれかをまず選択し、その文 字グループに対応づけられた文字のうちのいずれかをさらに選択し、入力文字として 決定することにより行われる文字入力」をユーザが円滑に行えるよう図ることが可能に なる文字入力装置、文字入力装置の制御方法及び情報記憶媒体を提供すること〖こ ある。
課題を解決するための手段
[0005] 上記課題を解決するために、本発明に係る文字入力装置は、複数の文字のうちか ら入力文字を決定する文字入力装置において、前記複数の文字の各々を複数の文 字グループのうちの少なくとも 1つに対応づけて記憶する文字記憶手段と、前記複数 の文字グループのうちの!/、ずれかを注目文字グループとして特定するための注目文 字グループ特定情報を記憶する注目文字グループ特定情報記憶手段と、注目点移 動操作に応じて、前記注目文字グループ特定情報によって特定される文字グループ が前記複数の文字グループのうちの他の文字グループとなるように、前記注目文字 グループ特定情報を更新する注目文字グループ特定情報更新手段と、前記注目文 字グループ特定情報によって特定される文字グループに対応づけて記憶される文字 のうちのいずれかを現選択入力候補として特定するための現選択入力候補特定情 報を記憶する現選択入力候補特定情報記憶手段と、前記注目点移動操作とは異な る入力文字選択操作に応じて、前記現選択入力候補特定情報によって特定される 文字が、前記注目文字グループ特定情報によって特定される文字グループに対応 づけて記憶される文字のうちの他の文字となるように、前記現選択入力候補特定情 報を更新する現選択入力候補特定情報更新手段と、入力文字決定操作に応じて、 前記現選択入力候補特定情報によって特定される文字を前記入力文字として決定 する入力文字決定手段と、前記複数の文字グループに対応する文字グループ対応 画像と、前記注目文字グループ特定情報によって特定される文字グループに対応づ けて記憶される文字を案内する入力候補案内画像と、を含む画面であって、前記文 字グループ対応画像のうちの前記注目文字グループ特定情報によって特定される 文字グループに対応する前記文字グループ対応画像が区別表示されるとともに、前 記現選択入力候補特定情報によって特定される文字が前記入力候補案内画像にお いて区別表示された文字入力画面、を表示手段に表示させる表示制御手段と、を含 み、前記表示制御手段は、前記注目文字グループ特定情報更新手段によって前記 注目文字グループ特定情報が更新された場合、更新後の前記注目文字グループ特 定情報によって特定される文字グループに対応する前記文字グループ対応画像が 区別表示されるように、前記表示手段に表示される前記文字入力画面を更新し、前 記現選択入力候補特定情報更新手段によって前記現選択入力候補特定情報が更 新された場合、更新後の前記現選択入力候補特定情報によって特定される文字が 前記入力候補案内画像において区別表示されるように、前記表示手段に表示される 前記文字入力画面を更新することを特徴とする。
また、本発明に係る文字入力装置の制御方法は、複数の文字の各々を複数の文 字グループのうちの少なくとも 1つに対応づけて記憶し、前記複数の文字のうちから 入力文字を決定する文字入力装置の制御方法にお!、て、前記複数の文字グループ のうちの!/ヽずれかを注目文字グループとして特定するための注目文字グループ特定 情報を記憶してなる注目文字グループ特定情報記憶手段の記憶内容を、注目点移 動操作に応じて、前記注目文字グループ特定情報によって特定される文字グループ が前記複数の文字グループのうちの他の文字グループとなるように更新するための 注目文字グループ特定情報更新ステップと、前記注目文字グループ特定情報によ つて特定される文字グループに対応づけて記憶される文字のうちのいずれかを現選 択入力候補として特定するための現選択入力候補特定情報を記憶してなる現選択 入力候補特定情報記憶手段の記憶内容を、前記注目点移動操作とは異なる入力文 字選択操作に応じて、前記現選択入力候補特定情報によって特定される文字が、前 記注目文字グループ特定情報によって特定される文字グループに対応づけて記憶 される文字のうちの他の文字となるように更新するための現選択入力候補特定情報 更新ステップと、入力文字決定操作に応じて、前記現選択入力候補特定情報によつ て特定される文字を前記入力文字として決定するための入力文字決定ステップと、 前記複数の文字グループに対応する文字グループ対応画像と、前記注目文字ダル ープ特定情報によって特定される文字グループに対応づけて記憶される文字を案内 する入力候補案内画像と、を含む画面であって、前記文字グループ対応画像のうち の前記注目文字グループ特定情報によって特定される文字グループに対応する前 記文字グループ対応画像が区別表示されるとともに、前記現選択入力候補特定情 報によって特定される文字が前記入力候補案内画像において区別表示された文字 入力画面、を表示手段に表示させるための表示制御ステップと、を含み、前記表示 制御ステップは、前記注目文字グループ特定情報更新ステップによって前記注目文 字グループ特定情報が更新された場合、更新後の前記注目文字グループ特定情報 によって特定される文字グループに対応する前記文字グループ対応画像が区別表 示されるように、前記表示手段に表示される前記文字入力画面を更新し、前記現選 択入力候補特定情報更新ステップによって前記現選択入力候補特定情報が更新さ れた場合、更新後の前記現選択入力候補特定情報によって特定される文字が前記 入力候補案内画像において区別表示されるように、前記表示手段に表示される前記 文字入力画面を更新するためのステップを含むことを特徴とする。 また、本発明に係るプログラムは、複数の文字のうちから入力文字を決定する文字 入力装置として、携帯ゲーム機、家庭用ゲーム機、業務用ゲーム機、携帯電話機、 携帯情報端末 (PDA)やパーソナルコンピュータ等のコンピュータを機能させるため のプログラムであって、前記複数の文字の各々を複数の文字グループのうちの少なく とも 1つに対応づけて記憶する文字記憶手段、前記複数の文字グループのうちの!/ヽ ずれかを注目文字グループとして特定するための注目文字グループ特定情報を記 憶する注目文字グループ特定情報記憶手段、注目点移動操作に応じて、前記注目 文字グループ特定情報によって特定される文字グループが前記複数の文字グルー プのうちの他の文字グループとなるように、前記注目文字グループ特定情報を更新 する注目文字グループ特定情報更新手段、前記注目文字グループ特定情報によつ て特定される文字グループに対応づけて記憶される文字のうちのいずれかを現選択 入力候補として特定するための現選択入力候補特定情報を記憶する現選択入力候 補特定情報記憶手段、前記注目点移動操作とは異なる入力文字選択操作に応じて
、前記現選択入力候補特定情報によって特定される文字が、前記注目文字グルー プ特定情報によって特定される文字グループに対応づけて記憶される文字のうちの 他の文字となるように、前記現選択入力候補特定情報を更新する現選択入力候補 特定情報更新手段、入力文字決定操作に応じて、前記現選択入力候補特定情報に よって特定される文字を前記入力文字として決定する入力文字決定手段、及び、前 記複数の文字グループに対応する文字グループ対応画像と、前記注目文字グルー プ特定情報によって特定される文字グループに対応づけて記憶される文字を案内す る入力候補案内画像と、を含む画面であって、前記文字グループ対応画像のうちの 前記注目文字グループ特定情報によって特定される文字グループに対応する前記 文字グループ対応画像が区別表示されるとともに、前記現選択入力候補特定情報 によって特定される文字が前記入力候補案内画像において区別表示された文字入 力画面、を表示手段に表示させる表示制御手段、として前記コンピュータを機能させ 、前記表示制御手段は、前記注目文字グループ特定情報更新手段によって前記注 目文字グループ特定情報が更新された場合、更新後の前記注目文字グループ特定 情報によって特定される文字グループに対応する前記文字グループ対応画像が区 別表示されるように、前記表示手段に表示される前記文字入力画面を更新し、前記 現選択入力候補特定情報更新手段によって前記現選択入力候補特定情報が更新 された場合、更新後の前記現選択入力候補特定情報によって特定される文字が前 記入力候補案内画像において区別表示されるように、前記表示手段に表示される前 記文字入力画面を更新することを特徴とするプログラムである。
[0008] また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み 取り可能な情報記憶媒体である。
[0009] 本発明は、複数の文字のうちから入力文字を決定する文字入力装置に関するもの である。本発明では、複数の文字の各々が複数の文字グループのうちの少なくとも 1 つに対応づけて記憶される。また、複数の文字グループのうちのいずれかを注目文 字グループとして特定するための注目文字グループ特定情報が記憶される。この注 目文字グループ特定情報は、注目点移動操作に応じて、注目文字グループ特定情 報によって特定される文字グループが複数の文字グループのうちの他の文字グルー プとなるように更新される。また、本発明では、注目文字グループ特定情報によって 特定される文字グループに対応づけて記憶される文字のうちのいずれかを現選択入 力候補として特定するための現選択入力候補特定情報が記憶される。この現選択入 力候補特定情報は、注目点移動操作とは異なる入力文字選択操作に応じて、現選 択入力候補特定情報によって特定される文字が、注目文字グループ特定情報によ つて特定される文字グループに対応づけて記憶される文字のうちの他の文字となるよ うに更新される。また、この現選択入力候補特定情報によって特定される文字は、入 力文字決定操作に応じて入力文字として決定される。そして、本発明では、「複数の 文字グループに対応する文字グループ対応画像と、注目文字グループ特定情報に よって特定される文字グループに対応づけて記憶される文字を案内する入力候補案 内画像と、を含む画面であって、文字グループ対応画像のうちの注目文字グループ 特定情報によって特定される文字グループに対応する文字グループ対応画像が区 別表示されるとともに、現選択入力候補特定情報によって特定される文字が入力候 補案内画像において区別表示される文字入力画面」が表示手段に表示される。この 文字入力画面は、注目文字グループ特定情報が更新された場合、更新後の注目文 字グループ特定情報によって特定される文字グループに対応する文字グループ対 応画像が区別表示されるように更新される。また、この文字入力画面は、現選択入力 候補特定情報が更新された場合、更新後の現選択入力候補特定情報によって特定 される文字が入力候補案内画像において区別表示されるように更新される。本発明 によれば、「各々に複数の文字が対応づけられた複数の文字グループのうちからい ずれかをまず選択し、その文字グループに対応づけられた文字のうちのいずれかを さらに選択し、入力文字として決定することにより行われる文字入力」をユーザが円滑 に行えるよう図ることが可能になる。なお、本明細書において、文字とは漢字、ひらが な、カタカナや数字等を含むものである。また、例えばアルファベット文字、キリル文 字、ハングル文字、タイ語文字、繁体文字ゃ簡体文字等の日本語以外の言語に対 応したものを含むものである。さらに、例えば"("や")"等の約物(記号)や空白等を 含むものである。
[0010] また、本発明の一態様では、前記表示制御手段は、前記注目文字グループ特定 情報によって特定される文字グループに対応する前記文字グループ対応画像の前 記文字入力画面における位置を取得する手段を含み、該取得された位置に基づ ヽ て前記入力候補案内画像の表示位置を決定するようにしてもょ 、。
[0011] また、本発明の一態様では、前記文字入力画面は、前記入力文字決定手段によつ て前記入力文字として決定された文字を表示するための表示領域を含み、前記表示 制御手段は、前記表示領域内の位置であって、前記注目文字グループ特定情報に よって特定される文字グループに対応づけて記憶される文字のいずれかが前記入力 文字決定手段によって前記入力文字として決定された場合に該文字が表示されるこ とになる位置を取得する手段を含み、該取得された位置に基づ 、て前記入力候補案 内画像の表示位置を決定するようにしてもょ 、。
[0012] また、本発明の一態様では、前記入力文字決定手段によって前記入力文字として 決定された文字を記憶する入力文字記憶手段と、予測文字列を記憶する予測文字 列記憶手段と、前記予測文字列記憶手段に記憶される予測文字列のうちの少なくと も 1つを、前記入力文字記憶手段の記憶内容と、前記注目文字グループ特定情報 によって特定される文字グループに対応づけて記憶される文字と、に基づ!/ヽて取得 する予測文字列取得手段と、を含み、前記現選択入力候補特定情報は、前記注目 文字グループ特定情報によって特定される文字グループに対応づけて記憶される文 字及び前記予測文字列取得手段によって取得される予測文字列のうちのいずれか を前記現選択入力候補として特定するための情報であり、前記現選択入力候補特 定情報更新手段は、前記入力文字選択操作に応じて、前記現選択入力候補特定情 報によって特定される文字又は予測文字列が、前記注目文字グループ特定情報に よって特定される文字グループに対応づけて記憶される文字及び前記予測文字列 取得手段によって取得される予測文字列のうちの他の文字又は予測文字列となるよ うに、前記現選択入力候補特定情報を更新し、前記入力文字決定手段は、前記現 選択入力候補特定情報によって前記現選択入力候補として予測文字列が特定され る場合、該予測文字列に含まれる文字のうちの少なくとも一部を前記入力文字として 決定し、前記表示制御手段は、前記予測文字列取得手段によって取得される予測 文字列を、前記注目文字グループ特定情報によって特定される文字グループに対 応づけて記憶される文字とともに案内する前記入力候補案内画像を含み、かつ、前 記現選択入力候補特定情報によって特定される文字又は予測文字列が前記入力候 補案内画像において区別表示される前記文字入力画面、を前記表示手段に表示さ せ、前記現選択入力候補特定情報更新手段によって前記現選択入力候補特定情 報が更新された場合には、更新後の前記現選択入力候補特定情報によって特定さ れる文字又は予測文字列が前記入力候補案内画像において区別表示されるように 、前記表示手段に表示される前記文字入力画面を更新するようにしてもよい。なお、 本明細書において、文字列とは 1又は複数の文字を含んで構成されるものである。 図面の簡単な説明
[図 1]本実施の形態に係る文字入力装置として用いられる携帯電子装置の外観図で ある。
[図 2]本実施の形態に係る文字入力装置として用いられる携帯電子装置のハードウ エア構成を示す図である。
[図 3]文字入力画面の一例を示す図である。
[図 4]文字グループ情報の一例を示す図である。 [図 5]アルファベット入力モードに関するキー画像情報の一例を示す図である。
[図 6]アルファベット入力モード時の文字入力画面の一例を示す図である。
[図 7]アルファベット入力モード時の文字入力画面の一例を示す図である。
[図 8]アルファベット入力モード時の文字入力画面の一例を示す図である。
[図 9]アルファベット入力モード時の文字入力画面の他の一例を示す図である。
[図 10]アルファベット入力モード時の文字入力画面の他の一例を示す図である。
[図 11]アルファベット入力モード時の文字入力画面の他の一例を示す図である。
[図 12]予測文字列データの一例を示す図である。
[図 13]漢字ひらがな入力モード時の文字入力画面の一例を示す図である。
[図 14]漢字ひらがな入力モード時に関するキー画像情報の一例を示す図である。
[図 15]本実施の形態に係る文字入力装置として用いられる携帯電子装置の機能プロ ック図である。
[図 16]文字列の一例を示す図である。
[図 17]振り仮名の一例を示す図である。
[図 18]ひらがな文字の一例を示す図である。
[図 19]ひらがな文字の一例を示す図である。
[図 20]漢字の一例を示す図である。
発明を実施するための最良の形態
[0014] 以下、本発明の実施形態の一例について図面に基づき詳細に説明する。本発明 の実施形態に係る文字入力装置は、例えば携帯ゲーム機、携帯音楽プレーヤゃ携 帯情報端末 (PDA)として機能する携帯電子装置を用いて実現することができる。
[0015] 図 1は、本発明の実施形態に係る文字入力装置として用いられる携帯電子装置の 正面外観図である。同図に示す携帯電子装置 10は、薄い横長の箱形であって左右 両側部が円弧状に丸められた形状の筐体を有しており、中央には液晶ディスプレイ 1 2が備えられている。
[0016] 液晶ディスプレイ 12の右脇にはボタン 16a, 16b, 16c, 16dが備えられ、左脇には 方向キー 18u, 18r, 18d, 181が備えられている。ユーザは筐体の両側部を両手で 掴むと、液晶ディスプレイ 12を見ながら、各親指でこれらボタン 16a, 16b, 16c, 16 d及び方向キー 18u, 18r, 18d, 181をそれぞれ操作できるようになつている。筐体の 上部左右にもボタン 14L, 14Rが備えられており、これらはユーザの各人差し指で操 作できるようになつている。その他、方向キー 18u, 18r, 18d, 181の下側にはパッド 20が設けられている。ノ ッド 20は筐体正面に平行な全方向に任意にスライドさせるこ とができ、そのスライド方向及びスライド量を示す操作データを携帯電子装置 10に入 力できるようになつている。
[0017] 液晶ディスプレイ 12の左脇にはスピーカ 26L力 右脇にはスピーカ 26Rが設けられ ており、これによりステレオ音声を出力できるようになって!/、る。
[0018] 液晶ディスプレイ 12の下側には音量ボタン 38m並びに 38p、スクリーンボタン 40、 サウンドボタン 42、セレクトボタン 44、スタートボタン 46が設けられている。音量ボタン 38m及び 38pはスピーカ 26L及び 26Rから出力される音の音量を調節するボタンで ある。スクリーンボタン 40は液晶ディスプレイ 12の輝度を調節するボタンであり、スクリ ーンボタン 40を押下すると低輝度、中輝度、高輝度の順に液晶ディスプレイ 12の輝 度を変更できるようになつている。サウンドボタン 42は、スピーカ 26L, 26Rからの音 声出力をオンオフするボタンであり、セレクトボタン 44は液晶ディスプレイ 12に表示さ れるメニューの項目を選択するためのボタンであり、スタートボタン 46は、主にゲーム プログラムを携帯電子装置 10で実行しているときにゲームをスタートさせるボタンであ る。
[0019] 図 2は、携帯電子装置 10のハードウェア構成を示す図である。同図に示すように、 携帯電子装置 10は、制御部 50と、インタフェースユニット 52と、操作ユニット 54と、無 線通信モジュール 56と、ディスクドライブ 58と、記憶部 60と、音声入力部 62と、画像 処理ユニット 64と、液晶ディスプレイ 12と、音声処理ユニット 66と、音声出力部 68と、 電源制御部 70と、を含んでいる。
[0020] 操作ユニット 54と、無線通信モジュール 56と、ディスクドライブ 58と、記憶部 60と、 音声入力部 62とは、インタフェースユニット 52を介して制御部 50に接続される。また 、電源制御部 70、画像処理ユニット 64及び音声処理ユニット 66は、制御部 50に接 続されている。画像処理ユニット 64には液晶ディスプレイ 12が接続される。また、音 声処理ユニット 66には音声出力部 68が接続される。 [0021] 制御部 50は、 MPU (Micro Processing Unit)等であり、ディスクドライブ 58に セットされた外部記憶媒体、又は記憶部 60に格納されたプログラムに基づいて、携 帯型電子装置 10の各部を制御する。
[0022] インタフェースユニット 52は、制御部 50が出力する信号を、制御部 50から入力され る指示に従って、無線通信モジュール 56、ディスクドライブ 58、又は記憶部 60のい ずれかに振り分けて出力する。また、このインタフェースユニット 52は、操作ユニット 5 4、無線通信モジュール 56、ディスクドライブ 58、記憶部 60、又は音声入力 62から 制御部 50への信号を、それぞれ調停しながら制御部 50に出力する。
[0023] 操作ユニット 54はユーザが各種操作をするための入力手段であり、ボタン 14L, 14 R, 16a, 16b, 16c, 16d、方向キー 18u, 18d, 181, 18r、ノッド 20、音量ボタン 38 、スクリーンボタン 40、サウンドボタン 42、セレクトボタン 44、スタートボタン 46等の操 作部材が含まれる。これら操作部材に対する操作内容 (例えば操作の有無、操作量 、操作方向等)を示す操作データ (操作信号)は、インターフェース 52を介して制御 部 50に供給される。
[0024] 無線通信モジュール 56は、例えば 802. l ibまたは g等として規定された無線通信 機器であり、制御部 50から入力される指示に従って、送信対象となるデータを無線 にて放射して送信する。また、アンテナ (不図示)に到来した信号を受信して、制御部 50に出力する。
[0025] ディスクドライブ 58は、制御部 50から入力される指示により、セットされた外部記憶 媒体力もデータを読み出して、制御部 50に出力する。記憶部 60は RAM (Random Access Memory)や ROM (Read Only Memory)などの記憶素子であり、制 御部 50によって実行されるプログラムを保持し、また、制御部 50のワークメモリとして も動作する。
[0026] 画像処理ユニット 64は、 VRAM (Video Random Access Memory)を含んで 構成される。画像処理ユニット 64は、制御部 50から入力される指示に従って、液晶 ディスプレイ 12に表示するべき画面を VRAM上に描画する。また、画像処理ユニット 64は、 VRAM上に描画した画面を表示するための映像信号を液晶ディスプレイ 12 に出力する。液晶ディスプレイ 12は、画像処理ユニット 64から入力される映像信号に 基づいて液晶を制御して、映像を表示する。
[0027] 音声処理ユニット 66は、制御部 50から入力される指示に従って、音声を合成し、合 成した音声の信号を音声出力部 68に出力する。ここで音声は、例えばビープ音や楽 器音、さらには、人の声など種々の音を表すものである。音声出力部 68は、例えばス ピー力 26L, 26Rやヘッドフォン端子などであり、音声処理ユニット 66から入力される 音声の信号に基づいてスピーカ 26L, 26Rを鳴動し、または、当該音声の信号をへ ッドフォン端子に出力する。
[0028] 音声入力部 62は、例えばマイクロフォンであり、周辺の音声を電気信号である音声 信号に変換して出力する。また、電源制御部 70は各部に電源を供給する。
[0029] 本実施の形態では、携帯電子装置 10を文字入力装置として機能させるためのプロ グラムが記憶部 60に格納されており、制御部 50によって実行される。上記プログラム は工場出荷時に記憶部 60に格納される。または、通信ネットワークを介して提供され る上記プログラムが無線通信モジュール 56を介して記憶部 60に格納される。または 、外部記憶媒体に記憶される上記プログラムがディスクドライブ 58を介して読み出さ れて記憶部 60に格納される。
[0030] 以下に、以上の構成を備える携帯電子装置 10において、ユーザが操作ユニット 54 を用いて文字を円滑に入力できるようにするための技術について説明する。
[0031] まず、液晶ディスプレイ 12に表示される文字入力画面について説明する。文字入 力画面では、アルファベット、記号や数字を入力するためのアルファベット入力モード 、漢字やひらがなを入力するための漢字ひらがな入力モードや、カタカナを入力する ためのカタカナ入力モード等が用意されている。これらの入力モードは、セレクトボタ ン 44の押下に応じて切り替わるようになつている。ここでは、アルファベット入力モー ド及び漢字ひらがな入力モードについて主として説明する。
[0032] [アルファベット入力モード]
まず、アルファベット入力モードについて説明する。図 3はアルファベット入力モード 時の文字入力画面の一例を示している。同図に示すように、文字入力画面 80には、 空白キー画像 82と、確定キー画像 84と、中止キー画像 86と、方向キー画像 881, 88 u, 88d, 88rと、削除キー画像 90と、ヘルプキー画像 92と、文字キー画像 94 1乃 至 94 10と、大小変換キー画像 96と、改行キー画像 98と、入力状況案内フォーム 102と、入力モード案内画像 106と、が含まれている。
[0033] 入力状況案内フォーム 102には、ユーザによって既に入力された文字力もなる入 力済み文字列 103が左詰で表示される。また、入力状況案内フォーム 102には、次 に入力される文字の追加位置を示すカーソル 104が表示される。また、入力モード案 内画像 106は現在の入力モードを示している。
[0034] キー画像は、文字入力に関連する各種指示をユーザが入力できるようにするため のものである。空白キー画像 82は空白文字の入力を指示するためのものである。確 定キー画像 84は文字入力の完了を指示するためのものである。中止キー画像 86は 文字入力を中止を指示するためのものである。方向キー画像 881, 88u, 88d, 88r はカーソル 104の移動を指示するためのものである。削除キー画像 90は、カーソル 1 04の 1つ前の文字の削除を指示するためのものである。ヘルプキー画像 92はヘル プ画面の表示を指示するためのものである。文字キー画像 94— 1乃至 94— 10は文 字の入力を指示するためのものである。大小変換キー画像 96は大文字又は小文字 への変換を指示するためのものである。改行キー画像 98は改行を指示するためのも のである。
[0035] 文字入力画面 80では、いずれかのキー画像上にそのキー画像が選択状態になつ ていることを示すキーフォーカス 100が形成される。図 3に示す例ではキーフォーカス 100が空白キー画像 82上にあり、空白キー画像 82が区別表示されている。ユーザ が方向キー 18u, 18d, 181, 18rを押下すると、キーフォーカス 100はその押下内容 に対応する方向に移動する。例えば同図に示す状態で方向キー 18rが押下されると 、キーフォーカス 100は空白キー画像 82の右隣の確定キー画像 84上に移動する。 なお、キーフォーカス 100は、パッド 20に対する操作に応じて移動するようにしてもよ いし、ボタン 14L及び 14Rに対する操作に応じて移動するようにしてもよい。また、ュ 一ザが、選択操作に用いられる選択操作ボタン (例えばボタン 16bやボタン 16a)を 押下すると、その時点でキーフォーカス 100により区別表示されているキー画像に対 応する処理が行われる。例えば、キーフォーカス 100が空白キー画像 82上にある状 態で選択操作ボタンが押下されると、空白文字が入力される。 [0036] 文字キー画像 94—1乃至 94— 10の各々には複数の文字が対応づけられている。 本実施の形態に係る携帯電子装置 10では、例えば図 4に示すような文字グループ 情報が保持されて 、る。この文字グループ情報は文字グループの識別情報 (文字グ ループ ID)とその文字グループに属する文字とを対応づけてなる情報であり、文字の グループ分けを示して 、る。各文字グループには複数の文字が所定の順序で対応 づけられている。また、携帯電子装置 10では、例えば図 5に示すようなキー画像情報 が保持されている。このキー画像情報には、アルファベット入力モード時の文字入力 画面 80に表示されるキー画像の種類及びその表示位置が記憶される。また、このキ 一画像情報では各文字キー画像に 、ずれかの文字グループ IDが重複しな 、ように 対応づけられている。同図の例は、文字キー画像「. @ 1」(文字キー画像 94—1)に 文字グループ「A1」が対応づけられ、文字キー画像「ABC2」(文字キー画像 94 2 )に文字グループ「A2」が対応づけられることを示している。すなわち、文字キー画像 94—nに文字グループ「An」が対応づけられることを示している。なお、図 3に示すよ うに、文字入力画面 80に表示される各文字キー画像には、その文字キー画像に対 応づけられた文字のうちの少なくとも一部が表される。
[0037] 次に、この文字入力画面 80においてユーザが行う操作について説明する。ここで は、ユーザが入力しょうとしている文字 (以下、入力指示対象文字と呼ぶ。)が":"で ある場合を例として説明する。
[0038] まず、ユーザは、入力指示対象文字": "が対応づけられた文字キー画像にキーフ オーカス 100を移動させる。本実施の形態では、文字キー画像上にキーフォーカス 1 00が移動すると、その文字キー画像に対応づけられた文字 (入力候補)が案内され るようになっている。図 6は、キーフォーカス 100が文字キー画像 94— 1上に移動した 状態を示している。同図に示すように、この場合の文字入力画面 80には入力候補案 内画像 108が表示される。この入力候補案内画像 108には、文字キー画像 94— 1に 対応づけられた文字があら力じめ定められた順序で表示される。
[0039] 上述したように、文字キー画像には、その文字キー画像に対応づけられた文字のう ちの少なくとも一部が表されるため、例えば入力指示対象文字がアルファベットや数 字である場合には、ユーザはこれを頼りに入力指示対象文字が対応づけられた文字 キー画像を知得又は推測することができる。しかしながら、例えば入力指示対象文字 力 : "等の記号である場合には、その記号が対応づけられた文字キー画像をユーザ が知得及び推測できない場合がある。この点、本実施の形態では、文字キー画像上 にキーフォーカス 100を移動させることによって、その文字キー画像に対応づけられ た文字を示す入力候補案内画像 108が表示されるため、ユーザは入力指示対象文 字が対応づけられた文字キー画像を容易に見つけ出せるようになる。
[0040] ユーザはキーフォーカス 100を文字キー画像 94— 1 (入力指示対象文字": "が対 応づけられた文字キー画像)に移動させた後、文字キー画像 94 1に対応づけられ た文字のうちから入力指示対象文字":"を選択する。本実施の形態では、ユーザが 選択操作ボタン (例えばボタン 16bやボタン 16a)を 1回押下すると、文字キー画像 94 1に対応づけられた文字のうちの最初の文字". "が選択状態になり、ユーザが選 択操作ボタンをさらに 1回押下すると、 2番目の文字", "が選択状態となるようになつ ている。すなわち、ユーザが選択操作ボタンを押下するごとに、文字キー画像 94— 1 に対応づけられた文字のうちのいずれかがあら力じめ定められた順序に従って、順 次選択状態となるようになつている。言い換えれば、文字キー画像に対応づけられた 文字のうちの、選択操作ボタンの押下回数(キーフォーカス 100を文字キー画像 94 1に移動させた後の押下回数)に対応する文字が選択状態になるようになって 、る 。なお、最後の文字" 1"が選択状態になっている場合に選択操作ボタンが押下され た場合には、最初の文字". "が選択状態になるようになつている。
[0041] 図 7は選択操作ボタンが 4回押下された状態を示している。同図に示すように、入力 状況案内フォーム 102には、選択状態にある文字"? "を示す現選択入力候補 112 がカーソル 104に代えて表示される。すなわち、次に入力される文字の追加位置に 現選択入力候補 112が表示される。また、入力候補案内画像 108では、いずれかの 文字上にその文字が選択状態になっていることを示す入力候補フォーカス 110が形 成され、選択状態にある文字が区別表示されるようになっている。同図に示す例では 、選択状態にある文字"?"が区別表示されている。ユーザが選択操作ボタンを押下 するごとに、現選択入力候補 112は更新され、入力候補フォーカス 110は次の文字 を区別表示するべく移動していく。このように、入力候補案内画像 108では、選択状 態にある文字が区別表示されるため、ユーザは所望の文字を選択状態にするために 、選択操作ボタンをあと何回押下すればょ 、かを一見して把握できるようになってお り、ユーザが円滑に文字入力を行えるよう図られている。
[0042] ユーザが、選択操作ボタンを 9回押下することによって入力指示対象文字": "を選 択状態にした後、キーフォーカス 100を他のキー画像 (例えば他の文字キー画像や 方向キー画像)上に移動させ、選択操作ボタンを押下すると、文字":"が入力文字と して決定される。例えば、ユーザが次の所望文字" Z"の入力を開始するべぐキーフ オーカス 100を文字キー画像 94— 10上に移動させ、選択操作ボタンを押下すると、 図 8に示すように文字入力画面 80が更新される。すなわち、「元の入力済み文字列" http"に対し、新たに入力文字として決定された文字": "がカーソル 104 (又は現選 択入力候補 112)により示される位置に追加されてなる文字列" http: "Jを示すように 入力済み文字列 103が更新される。
[0043] なお、入力候補案内画像 108の表示位置は、入力状況案内フォーム 102における 「次に入力される文字の追加位置」(カーソル 104又は現選択入力候補 112の位置) に基づいて決定されるようにしてもよい。例えば図 9に示すように、入力候補案内画 像 108における入力候補フォーカス 110の位置が現選択入力候補 112の下の所定 位置になるようにして、入力候補案内画像 108が表示されるようにしてもよい。この場 合、ユーザが選択操作ボタンを押下することにより、入力候補フォーカス 110が次の 文字" C"上に移動した場合には、移動後の入力候補フォーカス 110の位置が現選 択入力候補 112の下の所定位置になるように、入力候補案内画像 108が左側にスラ イド移動するようにしてもよい。また例えば図 10に示すように、入力候補案内画像 10 8aが現選択入力候補 112に代えて表示されるようにしてもよい。また、入力候補案内 画像 108の表示位置は、キーフォーカス 100により区別表示されている文字キー画 像の位置に基づいて決定されるようにしてもよい。例えば図 11に示すように、キーフ オーカス 100により区別表示されて 、る文字キー画像の下の所定位置に、入力候補 案内画像 108が表示されるようにしてもよい。文字入力画面 80を例えば図 9乃至図 1 1に示すようにすれば、ユーザが文字入力を行う際に注目しなければならな!/、領域が 制限されるため、ユーザがより快適に文字入力を行えるようになる。 [0044] 本実施の形態に係る文字入力画面 80には入力予測機能が用意されている。ユー ザによって所定操作が行われ、入力予測機能が有効にされると、ユーザが入力しょう としている文字列が予測され、その予測された文字列(予測文字列)が案内されるよう になっている。この入力予測機能を利用することにより、ユーザは所望の文字列を速 やかに入力できるようになって!/、る。
[0045] 本実施の形態では、例えば図 12に示すような予測文字列データが記憶部 60に記 憶されている。予測文字列データには、例えばユーザによって過去に入力された文 字列が記憶されている。入力予測機能では、予測文字列データに含まれる 1又は複 数の予測文字列がユーザの文字入力状況に基づいて取得され、案内されるようにな つている。より具体的には、予測文字列が、入力済み文字列と、キーフォーカス 100 によって区別表示されて ヽる文字キー画像に対応づけられた文字と、に基づ!/ヽて予 測文字列データ力 取得され、案内されるようになって 、る。
[0046] 例えば、ユーザが 1文字目の文字を入力する場合 (入力済みの文字列が長さ 0の 文字列である場合)には、「キーフォーカス 100によって区別表示されている文字キ 一画像に対応づけられた文字の 1ヽずれかを先頭文字とする予測文字列」が予測文 字列データ力 取得され、その文字キー画像に対応づけられた文字とともに、その予 測文字列が入力候補案内画像 108に表示されるようになっている。例えば、図 12に 示す予測文字列データが記憶されている場合において、文字キー画像 94— 4が区 別表示されている場合には、文字キー画像 94— 4に対応づけられた文字" G", "H" , "I", "4", "g", "h", "i,,とともに、予 SU文字歹 U"good,,, "http : //xxxl. xx. xx , http : Zz xxx2. xx. xx , 'HTTP (HyperText Transier Protocol) , 'n ttpd", "imagination"が入力候補案内画像 108に表示されることになる。
[0047] このとき、アルファベット入力モードの対象となっていない文字 (例えば漢字、ひらが なやカタカナ等)を先頭文字とする予測文字列が入力候補案内画像 108に表示され るようにしてもよい。例えば、アルファベット入力モード時の文字入力画面 80における 文字キー画像 94 4の表示位置と同 Cf立置に、漢字ひらがな入力モード時の文字 入力画面(図 13参照)において表示される文字キー画像 (文字キー画像 94 4a)に 対応づけられた文字 (文字グループ「H4」に属する文字)や、その文字を先頭文字と する予測文字列 (予測文字列 ID「S18」の予測文字列)が、入力候補案内画像 108 に表示されるようにしてもょ 、。
[0048] また例えば、ユーザによって 1又は複数の文字がすでに入力されている場合であつ て、次に入力される文字の追加位置が入力済み文字列の末尾である場合には、「入 力済み文字列の末尾に、キーフォーカス 100によって区別表示される文字キー画像 に対応づけられた文字の 、ずれかが結合されてなる文字列」と前方一致するような予 測文字列が、予測文字列データから取得されるようになっている。このとき、アルファ ベットの大文字及び小文字の違いは区別されないようになっている。そして、キーフォ 一カス 100によって区別表示される文字キー画像に対応づけられた文字とともに、そ の予測文字列が入力候補案内画像 108に表示されるようになっている。例えば、図 1 2に示す予測文字列データが記憶されている場合において、文字入力画面 80が図 6に示す状態である場合には、文字キー画像 94 1に対応づけられた文字とともに、 fWl ^Whtt //xxxl . XX. xx,,, "http : //xxx2. xx. xx", "HTTP (Hy perText Transfer Protocol) "が入力候補案内画像 108に表示されることになる
[0049] このとき、入力候補案内画像 108では、予測文字列が入力済み文字列に対応する 部分とそれ以外の部分とに区別して表示されるようになっている。具体的には、入力 済み文字列に対応する部分とそれ以外の部分が力つこ("["及び"]")によって区別 されるようになつている。例えば、予測文字列" http : ZZxxxl. xx. xx"については 、 "http [ : //xxxl. xx. xx],,と表示され、予測文字列" HTTP (HyperText Tra nsfer Protocol) "につ 、ては、 "HTTP [ (HyperText Transfer Protocol) ] "と 表示されるようになっている。なお、例えば、入力済み文字列に対応する部分とそれ 以外の部分とが異なる色で表示されるようにしてもよい。また例えば、入力済み文字 列部分に対応する部分の背景とそれ以外の部分の背景とが異なる色で表示されるよ うにしてもよい。また例えば、入力済み文字列に対応する部分以外の部分にアンダ 一ラインが表示されるようにしてもよい。また例えば、これらを組み合わせるようにして もよい。また、入力済み文字列に対応する部分以外の部分のみが入力候補案内画 像 108に表示されるようにしてもょ 、。 [0050] なお、次に入力される文字の追加位置が入力済み文字列の末尾でない場合には、 入力済み文字列の該追加位置よりも前の部分を入力済み文字列とみなして、予測文 字列の取得及び案内が行われるようにしてもよい。または、「入力済み文字列の該追 加位置に、キーフォーカス 100によって区別表示される文字キー画像に対応づけら れた文字の 、ずれかが追加されてなる文字列」と前方一致するような予測文字列が 予測文字列データ力 取得され、案内されるようにしてもょ 、。
[0051] 入力候補案内画像 108に表示される予測文字列は、入力候補案内画像 108に表 示される文字 (キーフォーカス 100によって区別表示される文字キー画像に対応づけ られた文字)と同等のものとして、ユーザが選択できるようになつている。すなわち、ュ 一ザが選択操作ボタンを押下することによって、入力候補案内画像 108において入 力候補フォーカス 110が予測文字列上に移動し、予測文字列が選択状態になるよう になっている。そして、予測文字列が選択状態にある場合において、ユーザが例え ば次の文字の入力を開始するべく所定操作を行うと、その予測文字列が入力文字列 として決定され、入力状況案内フレーム 102に入力済み文字列 103として表示される ようになつている。例えば、入力済み文字列力 ' http"である場合において、予測文 字列" HTTP (HyperText Transfer Protocol) "が入力文字列として決定された 場合には、入力状況案内フレーム 102に入力済み文字列 103として" HTTP (Hype rText Transfer Protocol) "が表示されるようになっている。なお、入力状況案内 フレーム 102に、予測文字列の入力済み文字列に対応する部分以外の部分が新た に追加されて表示されるようにしてもよい。例えば、上記の場合には、入力状況案内 フレーム 102に入力済み文字列 103として" http (HyperText Transfer Protoc ol) "が表示されるようにしてもよ!、。
[0052] 以上に説明したような予測文字列の案内表示は、文字キー画像上にキーフオーカ ス 100が移動した場合に、その文字キー画像に対応づけられた文字の案内表示とと もに行われるようになつている。なお、ユーザが特に指示した場合にのみ、予測文字 列の案内表示が行われるようにしてもよい。例えば、ユーザによる所定ボタン (例えば ボタン 16c)の押下に応じて行われるようにしてもよ!、。
[0053] [漢字ひらがな入力モード] 次に、漢字ひらがな入力モードについて説明する。漢字ひらがな入力モードは以 上に説明したアルファベット入力モードと同様に実現されている。
[0054] 図 13は漢字ひらがな入力モード時の文字入力画面を示している。同図に示すよう に、この場合の文字入力画面 80aは、アルファベット入力モード時の文字入力画面 8 0に比べて、ひらがな文字が対応づけられた文字キー画像 94— la乃至 94 10aが 文字キー画像 94— 1乃至 94— 10に代えて設けられる点と、濁点キー画像 96aが大 小変換キー画像 96に代えて設けられる点と、で異なっている。ひらがな文字は例え ば図 4に示すようにグループ分けされている。また、本実施の形態に係る携帯電子装 置 10では、図 14に示すようなキー画像情報が保持されている。このキー画像情報は 図 5に示すキー画像と同様の情報であり、漢字ひらがな入力モード時の文字入力画 面 80aに表示されるキー画像の種類及びその表示位置が記憶される。また、各文字 キー画像に 、ずれかの文字グループ IDが重複しな 、ように対応づけられて 、る。
[0055] そして、漢字ひらがな入力モード時の文字入力画面 80aにおいても、キーフオーカ ス 100がいずれかの文字キー画像上にある場合には、その文字キー画像に対応づ けられた文字を示す入力候補案内画像 108が表示されるようになっている。例えば 図 13に示すように、キーフォーカス 100が文字キー画像 94— la上にある場合には、 文字キー画像 94 laに対応づけられた文字を案内する入力候補案内画像 108が 表示されるようになっている。なお、濁点キー画像 96aは、濁点や半濁点の付加等を 指示するためのものである。また、漢字ひらがな入力モードでは、ユーザが所定操作 (例えばボタン 16dの押下)を行うことにより、入力済みのひらがな文字を変換可能な 漢字のリスト(図示せず)が文字入力画面 80aに表示され、ユーザが所望の漢字を選 択及び決定することによって、入力済みのひらがな文字が漢字に変換されるようにな つている。
[0056] 漢字ひらがな入力モードにおいてもアルファベット入力モードと同様に、入力予測 機能が有効にされることにより、予測文字列データに含まれる 1又は複数の予測文字 列がユーザの文字入力状況に基づいて取得され、案内されるようになっている。すな わち、予測文字列データからの予測文字列の取得が、アルファベット入力モードの場 合と同様に、入力済みの文字列と、キーフォーカス 100によって識別表示されている 文字キー画像に対応づけられた文字と、 、て行われるようになって ヽる。
[0057] 例えば、ユーザが 1文字目の文字を入力する場合には、「キーフォーカス 100によ つて区別表示されて!ヽる文字キー画像に対応づけられた文字の ヽずれかを先頭文 字とする予測文字列」が予測文字列データ力 取得され、その文字キー画像に対応 づけられた文字とともに、その予測文字列が入力候補案内画像 108に表示されるよう になっている。例えば、図 12に示す予測文字列データが記憶されている場合におい て、文字キー画像 94— laが区別表示されている場合には、文字キー画像 94— la に対応づけられた文字 (すなわち、文字グループ「H1」に属する文字)とともに、予測 文字列 ID「S 15」及び「S 17」の予測文字列が入力候補案内画像 108に表示される ことになる。
[0058] また例えば、ユーザによって 1又は複数の文字がすでに入力されている場合であつ て、次に入力される文字の追加位置が入力済み文字列の末尾である場合には、「入 力済み文字列の末尾に、キーフォーカス 100によって区別表示されている文字キー 画像に対応づけられた文字の 、ずれかが結合されてなる文字列」と前方一致するよ うな予測文字列が、予測文字列データから取得される。そして、注目文字キー画像に 対応づけられた文字とともに、その予測文字列が入力候補案内画像 108に表示され るようになっている。例えば、図 12に示す予測文字列データが記憶されている場合 において、図 16に示す文字列がユーザによって既に入力されており、キーフオーカ ス 100が文字キー画像 94— 6a上にある場合には、文字キー画像 94— 6aに対応づ けられた文字 (すなわち、文字グループ「H6」に属する文字)とともに、予測文字列 I D「S12」の予測文字列が入力候補案内画像 108に表示されることになる。
[0059] [入力予測機能の他の態様]
ここで、入力予測機能の他の態様について説明する。
[0060] 予測文字列データからの予測文字列の取得は、入力済み文字列のみに基づいて 行われるようにしてもよい。例えば、入力済み文字列に前方一致する予測文字列を 予測文字列データ力も取得し、入力候補案内画像 108に表示するようにしてもよい。 例えば入力済み文字列が "http"である場合には、入力済み文字列 "http"に前方 — ^^'J"http: //xxxl . xx. xx,,, "http : //xxx2. xx. xx", "H TTP (HyperText Transfer Protocol) , "httpd"が予測文字列データ(図 12) 力も取得され、入力候補案内画像 108に表示されるようにしてもよい。また例えば、図 16に示す文字列がユーザによって既に入力されている場合には、予測文字列 ID「S 9」, rsi lj , 「S12」及び「S14」の予測文字列が予測文字列データ(図 12)から取得 され、入力候補案内画像 108に表示されるようにしてもょ ヽ。
[0061] この態様では、予測文字列の案内表示が、ユーザが特に指示した場合にのみ行わ れるようにしてもよい。例えば、ユーザによる所定ボタン (例えばボタン 16c)の押下に 応じて行われるようにしてもよい。また例えば、文字入力画面 80, 80aに予測文字列 の案内表示を指示するための予測キー画像を設けておき、ユーザが予測キー画像 にキーフォーカス 100を移動させ、選択操作ボタンを押下した場合に行われるように してもよい。また、この態様では、ユーザが 1文字目の文字を入力する場合に、予測 文字列データに記憶されるすべての予測文字列が案内されるようにしてもよい。
[0062] また、予測文字列データ(図 12)では、各予測文字列に少なくとも 1つの文字ダル ープ IDを対応づけておくようにしてもよい。そして、キーフォーカス 100によって区別 表示される文字キー画像に係る文字グループ IDに対応づけられた予測文字列を予 測文字列データ力も取得し、入力候補案内画像 108に表示するようにしてもよい。例 えば、予測文字列データにおいて、予測文字列 ID「S9」の予測文字列に文字ダル ープ ID「H1」が対応づけられていれば、文字キー画像 94 la (文字グループ ID「H 1」が対応づけられた文字キー画像)が区別表示されている場合には、予測文字列 I D「S9」の予測文字列が入力候補案内画像 108に表示されることになる。こうすれば 、漢字ひらがな入力モードにおいて、ユーザによって入力された文字が漢字に変換 されることを考慮に入れて、予測文字列の案内を行えるようになる。
[0063] また、予測文字列データ(図 12)では、各予測文字列に振り仮名(ひらがな)を対応 づけておくようにしてもよい。そして、漢字ひらがな入力モードにおいて、例えばユー ザが 1文字目の文字を入力する場合には、キーフォーカス 100によって区別表示さ れる文字キー画像に対応づけられた文字を先頭文字とする振り仮名を取得した後に
、その振り仮名に対応づけられた予測文字列を取得し、入力候補案内画像 108に表 示するようにしてもよい。また例えば、ユーザによって 1又は複数のひらがな文字がす でに入力されている場合であって、次に入力される文字の追加位置が入力済み文字 列の末尾である場合には、「入力済み文字列の末尾に、キーフォーカス 100によって 区別表示される文字キー画像に対応づけられた文字のいずれかが結合されてなる 文字列」と前方一致するような振り仮名を取得した後に、その振り仮名に対応づけら れた予測文字列を取得し、入力候補案内画像 108に表示するようにしてもよい。
[0064] この場合、例えば、予測文字列 ID「S9」の予測文字列に、図 17に示す振り仮名が 対応づけられていると、ユーザが 1文字目の文字を入力する場合であって、文字キー 画像 94 la (図 18に示す文字が対応づけられた文字キー画像)が区別表示されて Vヽる場合や、図 18に示す文字をユーザが 1文字目の文字として入力した後に 2文字 目の文字を入力する場合であって、文字キー画像 94 2a (図 19に示す文字が対応 づけられた文字キー画像)が区別表示されている場合等には、予測文字列 ID「S9」 の予測文字列が入力候補案内画像 108に表示されることになる。
[0065] こうしても、漢字ひらがな入力モードにおいて、ユーザによって入力された文字が漠 字に変換されることを考慮に入れて、予測文字列の案内を行えるようになる。なお、こ の態様では、ユーザが 1文字目の文字を入力する場合にのみ予測文字列の案内を 行うようにしてもよぐその場合には、予測文字列データ(図 12)において、各予測文 字列に振り仮名の先頭文字だけを対応づけておけばょ 、。
[0066] また、漢字ひらがなモードにおいてユーザが 1文字目の文字を入力する場合、キー フォーカス 100によって区別表示される文字キー画像に対応づけられた文字に基づ き変換され得る漢字を取得し、その漢字を先頭文字とする予測文字列を入力候補案 内画像 108に表示するようにしてもよい。また、入力済み文字列の末尾に追加される 2文字目以降の文字をユーザが入力する場合には、キーフォーカス 100によって区 別表示される文字キー画像に対応づけられた文字に基づき変換され得る漢字を取 得し、「入力済み文字列の末尾に、取得された漢字のいずれかが結合されてなる文 字列」に前方一致する予測文字列を入力候補案内画像 108に表示するようにしても よい。
[0067] この態様では、例えば、各漢字とその読み仮名の少なくとも先頭文字 (ひらがな)と が対応づけられたデータを記憶部 60に記憶させておくようにすればょ 、。例えばこ のデータにおいて、図 20に示す漢字と図 18に示す文字(ひらがな)とが対応づけら れていれば、ユーザが 1文字目の文字を入力する場合において、文字キー画像 94 la (図 18に示す文字が対応づけられた文字キー画像)が区別表示されている場 合には、文字キー画像 94 laに係る文字のいずれか (例えば、図 18に示す文字) に対応づけられた漢字 (例えば、図 20に示す漢字)が取得された後、その漢字を先 頭文字とする予測文字列 (例えば、予測文字列 ID「S9」の予測文字列)が予測文字 列データ力も取得され、その予測文字列が入力候補案内画像 108に表示されること になる。
[0068] こうしても、漢字ひらがな入力モードにおいて、ユーザによって入力された文字が漠 字に変換されることを考慮に入れて、予測文字列の案内を行えるようになる。
[0069] また、予測文字列データ(図 12)では、各予測文字列に、例えば「歴史上の人物」、 「歴史上の著作物」や「漢字で構成された名詞」等のメタ情報を対応づけておくように してもよい。そして、ユーザが入力予測機能を利用する場合にはメタ情報を指定する よう案内し、ユーザによって指定されたメタ情報に対応づけられた予測文字列を入力 候補案内画像 108に表示するようにしてもよい。例えば、予測文字列 ID「S10」及び「 S13Jの予測文字列にメタ情報「歴史上の人物」が対応づけられて 、れば、ユーザが メタ情報「歴史上の人物」を指定した場合には、それらの予測文字列が入力候補案 内画像 108に表示されることになる。
[0070] なお、携帯電子装置 10は、以上に説明したすべての態様の入力予測機能を備え るようにしてもよい。そして、ユーザが所定操作を行うことにより、入力予測機能を有効 にする力否かを設定できるようにするとともに、入力予測機能を有効にする場合には 、どの態様の入力予測機能を使用するかを設定できるようにしてもよい。
[0071] 次に、携帯電子装置 10で実現される機能について説明する。図 15は、携帯電子 装置 10で実現される機能のうち、本発明に関連するものを主として示す図である。同 図に示すように、携帯電子装置 10は文字記憶部 120と、キー画像情報記憶部 122と 、注目文字グループ特定情報記憶部 124と、現選択入力候補特定情報記憶部 126 と、入力文字記憶部 128と、予測文字列記憶部 130と、予測文字列取得部 132と、 注目文字グループ特定情報更新部 134と、現選択入力候補特定情報更新部 136と 、入力文字決定部 138と、表示制御部 140と、を含んでいる。これらの機能は、記憶 部 60に格納されるプログラムが制御部 50によって実行されることによって実現される
[0072] [文字記憶部]
文字記憶部 120は記憶部 60を主として実現される。文字記憶部 120は、複数の文 字の各々を複数の文字グループのうちの少なくとも 1つに対応づけて記憶する。文字 記憶部 120は例えば図 4に示すような文字グループ情報を記憶する。
[0073] [キー画像情報記憶部]
キー画像情報記憶部 122は記憶部 60を主として実現される。キー画像情報記憶部 122は、例えば図 5や図 14に示すような各入力モードごとのキー画像情報を記憶す る。
[0074] [注目文字グループ特定情報記憶部]
注目文字グループ特定情報記憶部 124は記憶部 60を主として実現される。注目 文字グループ特定情報記憶部 124は、文字入力画面 80, 80aに表示されるキー画 像のうち、キーフォーカス 100によって区別表示させるキー画像のキー画像 IDを記 憶する。例えば、アルファベット入力モードにおいてキーフォーカス 100が文字キー 画像 94 1上に位置して 、る場合、注目文字グループ特定情報記憶部 124には文 字キー画像 94— 1のキー画像 ID「001」が記憶される。本実施の形態では、キー画 像情報記憶部 122に記憶されるキー画像情報にお 、て、文字キー画像のキー画像 I Dと文字グループ IDとが対応づけられて 、るため、注目文字グループ特定情報記憶 部 124に記憶されるキー画像 IDは、キーフォーカス 100によって区別表示されるキ 一画像に対応づけられた文字グループ (注目文字グループ)を特定するための情報 (注目文字グループ特定情報)としての役割を果たして 、る。
[0075] [現選択入力候補特定情報記憶部]
現選択入力候補特定情報記憶部 126は記憶部 60を主として実現される。現選択 入力候補特定情報記憶部 126は、注目文字グループ特定情報記憶部 124に記憶さ れるキー画像 IDに対応づけられた文字グループ IDに対応づけて記憶される文字、 及び、後述の予測文字列取得部 132によって取得される予測文字列のうちの、入力 候補フォーカス 110によって区別表示させる文字又は予測文字列 (現選択入力候補
)を特定するための情報 (現選択入力候補情報)を記憶する。本実施の形態では、現 選択入力候補特定情報記憶部 126には、入力候補フォーカス 110によって区別表 示させる文字又は予測文字列自体が記憶される。すなわち、現選択入力候補特定 情報記憶部 126には、入力候補案内画像 108において選択状態にある文字又は予 測文字列が記憶されることになる。
[0076] なお、現選択入力候補特定情報記憶部 126には、現選択入力候補特定情報記憶 部 126に文字又は予測文字列の書き込みが行われたタイミングにおいて、注目文字 グループ特定情報記憶部 124に記憶されて ヽたキー画像 IDも記憶される。すなわち 、文字又は予測文字列が選択状態になった際にキーフォーカス 100によって区別表 示されて!/、たキー画像のキー画像 ID力 現選択入力候補特定情報記憶部 126に記 憶されるようになって!/、る。
[0077] [入力文字記憶部]
入力文字記憶部 128は記憶部 60を主として実現される。入力文字記憶部 128は、 後述の入力文字決定部 138によって入力文字として決定された文字を記憶する。す なわち、入力文字記憶部 128には、入力状況案内フォーム 102に入力済み文字列 1 03として表示される文字列が記憶される。
[0078] なお、入力文字記憶部 128には、次に入力される文字を入力済み文字列のどの位 置に追加するかを示す情報 (追加位置情報)が記憶される。この追加位置情報は、キ 一フォーカス 100が方向キー画像 881, 88u, 88d, 88r上にある状態で選択操作ボ タンが押下された場合や、後述の入力文字決定部 138によって入力文字が決定され た場合に更新される。
[0079] [予測文字列記憶部]
予測文字列記憶部 130は記憶部 60を主として実現される。予測文字列記憶部 13 0は予測文字列を記憶する。本実施の形態では、予測文字列記憶部 130は例えば 図 12に示すような予測文字列データを記憶する。
[0080] [注目文字グループ特定情報更新部]
注目文字グループ特定情報更新部 134は制御部 50を主として実現される。注目 文字グループ特定情報更新部 134は、キーフォーカス 100を移動させる操作 (注目 点移動操作)が行われたカゝ否かを操作ユニット 54から出力される操作データに基づ いて所定時間 (本実施の形態では 1Z60秒)ごとに判定する。すなわち、注目文字グ ループ特定情報更新部 134は、方向キー 18u, 18d, 181, 18rに対する操作を示す 操作データが操作ユニット 54から出力された力否かを判定するとともに、方向キー 18 u, 18d, 181, 18rに対する操作内容(方向キー 18u, 18d, 181, 18rによって指示さ れた方向)を取得する。
[0081] そして、注目文字グループ特定情報更新部 134は、方向キー 18u, 18d, 181, 18 rに対する操作が行われたと判定した場合、キーフォーカス 100の移動先となるキー 画像を特定する。移動先のキー画像は、例えば注目文字グループ特定情報記憶部 124に記憶されるキー画像 ID (すなわち、キーフォーカス 100が現在位置しているキ 一画像のキー画像 ID)と、方向キー 18u, 18d, 181, 18rに対する操作内容と、キー 画像情報記憶部 122に記憶されるキー画像情報 (各キー画像の表示位置情報)と、 に基づいて特定される。注目文字グループ特定情報更新部 134は、移動先のキー 画像を特定した場合、注目文字グループ特定情報記憶部 124に記憶されるキー画 像 IDが移動先のキー画像のキー画像 IDとなるように、注目文字グループ特定情報 記憶部 124の記憶内容を更新する。
[0082] [予測文字列取得部]
予測文字列取得部 132は制御部 50を主として実現される。予測文字列取得部 13 2は、予測文字列記憶部 130に記憶される予測文字列のうちの少なくとも 1つを、入 力文字記憶部 128の記憶内容と、注目文字グループ特定情報記憶部 124に記憶さ れるキー画像 IDによって特定される文字グループに対応づけて記憶される文字と、 に基づいて取得する。
[0083] [現選択入力候補特定情報更新部]
現選択入力候補特定情報更新部 136は制御部 50を主として実現される。現選択 入力候補特定情報更新部 136は、注目文字グループ特定情報記憶部 124に記憶さ れるキー画像 IDに係るキー画像が文字キー画像である場合に、選択操作ボタンの 押下 (入力文字選択操作)が行われたカゝ否かを操作ユニット 54から出力される操作 データに基づいて所定時間 (本実施の形態では 1Z60秒)ごとに判定する。そして、 現選択入力候補特定情報更新部 136は、選択操作ボタンの押下が行われたと判断 した場合、現選択入力候補特定情報記憶部 126によって保持される文字又は予測 文字列が、注目文字グループ特定情報記憶部 124に記憶されるキー画像 IDによつ て特定される文字グループに対応づけて記憶される文字、及び、予測文字列取得部 132によって取得される予測文字列のうちの次の文字又は予測文字列になるように、 現選択入力候補特定情報記憶部 126の記憶内容を更新する。
[0084] また、現選択入力候補特定情報更新部 136は、現選択入力候補特定情報記憶部 126に記憶される文字又は予測文字列を更新した場合、現選択入力候補特定情報 記憶部 126に記憶されるキー画像 IDを、そのタイミングにお 、て注目文字グループ 特定情報記憶部 124に記憶されているキー画像 IDに更新する。
[0085] [入力文字決定部]
入力文字決定部 138は制御部 50を主として実現される。入力文字決定部 138は、 いずれかの文字又は予測文字列が選択状態にある場合において、他のキー画像上 にキーフォーカス 100が移動され、かつ、選択操作ボタンの押下が行われたか否か を所定時間 (本実施の形態では 1Z60秒)ごとに判定する。具体的には、入力文字 決定部 138は、現選択入力候補特定情報記憶部 126に文字又は予測文字列が保 持されて!、る場合に、選択操作ボタンの押下 (入力文字決定操作)が行われた力否 かを操作ユニット 54から出力される操作データに基づいて判定する。そして、入力文 字決定部 138は、選択操作ボタンの押下が行われたと判定した場合、注目文字ダル ープ特定情報記憶部 124に記憶されるキー画像 IDと、現選択入力候補特定情報記 憶部 126に記憶されるキー画像 IDと、が異なる力否かを判定する。上述のように、注 目文字グループ特定情報記憶部 124に記憶されるキー画像 IDは、現時点において 区別表示されているキー画像のキー画像 IDを示している。また、現選択入力候補特 定情報記憶部 126に記憶されるキー画像 IDは、現選択入力候補特定情報記憶部 1 26に保持される文字又は予測文字列が選択状態になった時点において区別表示さ れていたキー画像のキー画像 IDを示している。このため、これらのキー画像 IDが異 なる場合には、他のキー画像上にキーフォーカス 100が移動された後に選択操作ボ タンの押下が行われたと判定される。
[0086] 入力文字決定部 138は、それらのキー画像 IDが異なると判定した場合、現選択入 力候補特定情報記憶部 126に保持される文字又は予測文字列を入力文字 (入力文 字列)として決定する。すなわち、入力文字決定部 138は、入力候補案内画像 108 において区別表示される文字又は予測文字列 (選択状態にある文字又は予測文字 列)を入力文字 (入力文字列)として決定する。例えば、現選択入力候補特定情報記 憶部 126に文字が保持されている場合、入力文字決定部 138は、入力済み文字列 と追加位置情報とを入力文字記憶部 128から取得し、「現選択入力候補特定情報記 憶部 126に保持された文字を、該追加位置情報によって示される入力済み文字列の 位置に追加してなる文字列」を入力済み文字列として入力文字記憶部 128に保持さ せる。また例えば、現選択入力候補特定情報記憶部 126に予測文字列が保持され ている場合、入力文字決定部 138は、入力文字記憶部 128に保持される入力済み 文字列に代えて、その予測文字列を入力済み文字列として入力文字記憶部 128に 保持させる。或いは、入力文字決定部 138は、入力済み文字列を入力文字記憶部 1 28から取得し、「現選択入力候補特定情報記憶部 126に保持された予測文字列か ら入力済み文字列を除いた部分文字列を入力済み文字列に付加してなる文字列」 を入力済み文字列として入力文字記憶部 128に保持させる。
[0087] なお、入力文字決定部 138は、入力文字 (入力文字列)を決定した場合、現選択入 力候補特定情報記憶部 126の記憶内容を初期化し、現選択入力候補特定情報記 憶部 126に文字及び予測文字列とキー画像 IDとが保持されていない状態にする。ま た、入力文字決定部 138は、入力文字記憶部 128に記憶される追加位置情報を更 新する。
[0088] [表示制御部]
表示制御部 140は制御部 50及び画像処理ユニット 64を主として実現される。表示 制御部 140は、文字記憶部 120、キー画像情報記憶部 122、注目文字グループ特 定情報記憶部 124、現選択入力候補特定情報記憶部 126及び入力文字記憶部 12 8の記憶内容と、予測文字列取得部 132によって取得される予測文字列と、に基づ いて、例えば図 3, 6乃至 11, 13に示すような文字入力画面を所定時間(本実施の 形態では 1Z60秒)ごとに生成し、液晶ディスプレイ 12に表示させる。
[0089] まず、表示制御部 140は、キー画像情報記憶部 122に記憶されるキー画像情報に 基づいて、各キー画像、入力状況案内フォーム 102や入力モード案内画像 106が各 々所定位置に表示されてなる文字入力画面を VRAM上に描画する。この場合、表 示制御部 140は、ユーザによって既に入力された文字 (入力済み文字列)が入力文 字記憶部 128に記憶されている場合には、その入力済み文字列を入力状況案内フ オーム 102に表示させる。さらに、表示制御部 140は、現選択入力候補特定情報記 憶部 126に文字も予測文字列も保持されて 、な 、場合、入力文字記憶部 128に記 憶される追加位置情報に基づいて、入力状況案内フォーム 102にカーソル 104を表 示させる。また、表示制御部 140は、現選択入力候補特定情報記憶部 126に文字が 保持されている場合、その文字を示す現選択入力候補 112を、入力文字記憶部 12 8に記憶される追加位置情報に基づいて入力状況案内フォーム 102に表示させる。 また、表示制御部 140は、現選択入力候補特定情報記憶部 126に予測文字列が保 持されている場合、その予測文字列のうちの入力済み文字列以外の部分を示す現 選択入力候補 112を、入力文字記憶部 128に記憶される追加位置情報に基づ!/、て 入力状況案内フォーム 102に表示させる。
[0090] 次に、表示制御部 140は、注目文字グループ特定情報記憶部 124に記憶されるキ 一画像 IDを取得する。そして、 VRAM上に描画された文字入力画面の、そのキー 画像 IDに係るキー画像の表示部分を、キー画像情報記憶部 122に記憶されるキー 画像情報に基づいて特定し、その表示部分に対して所定画像 (キーフォーカス画像 )を半透明合成する。こうして、表示制御部 140は、注目文字グループ特定情報記憶 部 124に記憶されるキー画像 IDに係るキー画像上にキーフォーカス 100を形成する 。なお、表示制御部 140は、注目文字グループ特定情報記憶部 124に記憶されるキ 一画像 IDに係るキー画像を区別表示させるために、該キー画像の表示態様 (色や 輝度等)や形状を他のキー画像と異ならせるようにしてもょ 、。
[0091] また、表示制御部 140は、注目文字グループ特定情報記憶部 124に記憶されるキ 一画像 IDに係るキー画像が文字キー画像である場合、そのキー画像 IDに対応づけ られた文字グループ IDを、キー画像情報記憶部 122に記憶されるキー画像情報か ら取得する。次に、表示制御部 140は、その文字グループ IDに対応づけられた文字 を、文字記憶部 120に記憶された文字グループ情報に基づいて取得する。また、表 示制御部 140は予測文字列取得部 132に予測文字列を取得させる。そして、表示 制御部 140は、取得した文字と、予測文字列取得部 132によって取得された予測文 字列と、に基づいて入力候補案内画像 108を生成し、これを VRAM上に描画された 文字入力画面の所定位置に上書き合成する。
[0092] なお、表示制御部 140は、注目文字グループ特定情報記憶部 124に記憶されるキ 一画像 IDに係るキー画像の表示位置を、キー画像情報記憶部 122に記憶されるキ 一画像情報に基づ 、て取得し、該表示位置に基づ 、て決定される位置に入力候補 案内画像 108を上書き合成するようにしてもよい(図 11参照)。または、表示制御部 1 40は、入力文字記憶部 128の記憶内容に基づいて、入力状況案内フォーム 102内 の、次に入力される文字が表示されることになる位置を取得し、該位置に基づいて決 定される位置に入力候補案内画像 108を上書き合成するようにしてもよい(図 9及び 図 10参照)。
[0093] また、表示制御部 140は、現選択入力候補特定情報記憶部 126に文字又は予測 文字列が保持される場合、該文字又は予測文字列に対応する入力候補案内画像 1 08の表示部分を特定し、該表示部分に対して所定画像 (入力候補フォーカス画像) を半透明合成する。すなわち、表示制御部 140は、入力候補案内画像 108において 、現選択入力候補特定情報記憶部 126に保持される文字又は予測文字列上に入力 候補フォーカス 110を形成する。なお、表示制御部 140は、入力候補案内画像 108 において、現選択入力候補特定情報記憶部 126に保持される文字又は予測文字列 を区別表示するために、該文字又は予測文字列の表示部分の表示態様 (色や輝度 )を異ならせるようにしてもよ 、。
[0094] 以上のようにして VRAM上に描画された文字入力画面は所定のタイミングで液晶 ディスプレイ 12に出力される。
[0095] 以上説明したように、本実施の形態に係る携帯電子装置 10では、ユーザが文字キ 一画像上にキーフォーカス 100を移動させ、その文字キー画像に対応づけられた文 字のうちから入力文字を選択及び決定することによって、文字入力が行われるように なっている。このため、ユーザは文字入力を行うにあたり、文字入力画面に表示され る文字キー画像のうちの 、ずれが「所望の文字が対応づけられた文字キー画像」で ある力を知る必要があり、「所望の文字が対応づけられた文字キー画像」が分力もな いと文字入力に手間取ってしまうことになる。この点、携帯電子装置 10では、ユーザ が文字キー画像上にキーフォーカス 100を移動させると、その文字キー画像に対応 づけられた文字を案内する入力候補案内画像 108が表示されるため、ユーザは所望 の文字に対応づけられた文字キー画像を速やかに知ることができるようになり、文字 入力を円滑に行えるようになる。また、携帯電子装置 10では、入力候補案内画像 10 8において、選択状態にある文字が区別表示されるため、ユーザは、所望の文字を 選択状態にするために選択操作ボタンをあと何回押下すればょ 、かを一見して把握 できるようになっており、ユーザが円滑に文字入力を行えるよう図られている。
[0096] なお、本発明は以上説明した実施の形態に限定されるものではない。
[0097] 例えば、以上では、本発明の実施形態に係る文字入力装置を携帯電子装置 10を 用いて実現する場合について説明したが、本発明の実施形態に係る文字入力装置 は、例えばテレビ受像機等のモニタに家庭用ゲーム機が接続されてなるゲームシス テムや、パーソナルコンピュータシステムなどの他のコンピュータシステムを用いて実 現することちでさる。
[0098] また例えば、以上では、文字入力画面 80のアルファベット入力モード及び漢字ひら がな入力モードを例として説明したが、例えばカタカナ入力モード等の他の入力モー ドについても、アルファベット入力モード及び漢字ひらがな入力モードと同様にして、 ユーザが円滑に文字入力を行えるように図ることができる。
[0099] また例えば、携帯電子装置 10は、キリル文字、ハングル文字、タイ語文字、繁体文 字ゃ簡体文字等の他の言語に対応した文字の入力モードを備えるようにしてもよぐ これらの入力モードについても、以上で説明したアルファベット入力モードや漢字ひ らがな入力モードと同様にして、ユーザが円滑に文字入力を行えるように図ることが できる。

Claims

請求の範囲
複数の文字のうちから入力文字を決定する文字入力装置において、
前記複数の文字の各々を複数の文字グループのうちの少なくとも 1つに対応づけ て記憶する文字記憶手段と、
前記複数の文字グループのうちの 、ずれかを注目文字グループとして特定するた めの注目文字グループ特定情報を記憶する注目文字グループ特定情報記憶手段と 注目点移動操作に応じて、前記注目文字グループ特定情報によって特定される文 字グループが前記複数の文字グループのうちの他の文字グループとなるように、前 記注目文字グループ特定情報を更新する注目文字グループ特定情報更新手段と、 前記注目文字グループ特定情報によって特定される文字グループに対応づけて 記憶される文字のうちのいずれかを現選択入力候補として特定するための現選択入 力候補特定情報を記憶する現選択入力候補特定情報記憶手段と、
前記注目点移動操作とは異なる入力文字選択操作に応じて、前記現選択入力候 補特定情報によって特定される文字が、前記注目文字グループ特定情報によって特 定される文字グループに対応づけて記憶される文字のうちの他の文字となるように、 前記現選択入力候補特定情報を更新する現選択入力候補特定情報更新手段と、 入力文字決定操作に応じて、前記現選択入力候補特定情報によって特定される 文字を前記入力文字として決定する入力文字決定手段と、
前記複数の文字グループに対応する文字グループ対応画像と、前記注目文字グ ループ特定情報によって特定される文字グループに対応づけて記憶される文字を案 内する入力候補案内画像と、を含む画面であって、前記文字グループ対応画像のう ちの前記注目文字グループ特定情報によって特定される文字グループに対応する 前記文字グループ対応画像が区別表示されるとともに、前記現選択入力候補特定 情報によって特定される文字が前記入力候補案内画像において区別表示された文 字入力画面、を表示手段に表示させる表示制御手段と、を含み、
前記表示制御手段は、前記注目文字グループ特定情報更新手段によって前記注 目文字グループ特定情報が更新された場合、更新後の前記注目文字グループ特定 情報によって特定される文字グループに対応する前記文字グループ対応画像が区 別表示されるように、前記表示手段に表示される前記文字入力画面を更新し、前記 現選択入力候補特定情報更新手段によって前記現選択入力候補特定情報が更新 された場合、更新後の前記現選択入力候補特定情報によって特定される文字が前 記入力候補案内画像において区別表示されるように、前記表示手段に表示される前 記文字入力画面を更新する、
ことを特徴とする文字入力装置。
[2] 請求の範囲第 1項に記載の文字入力装置において、
前記表示制御手段は、前記注目文字グループ特定情報によって特定される文字 グループに対応する前記文字グループ対応画像の前記文字入力画面における位置 を取得する手段を含み、該取得された位置に基づ!ヽて前記入力候補案内画像の表 示位置を決定することを特徴とする文字入力装置。
[3] 請求の範囲第 1項に記載の文字入力装置において、
前記文字入力画面は、前記入力文字決定手段によって前記入力文字として決定さ れた文字を表示するための表示領域を含み、
前記表示制御手段は、前記表示領域内の位置であって、前記注目文字グループ 特定情報によって特定される文字グループに対応づけて記憶される文字のいずれか が前記入力文字決定手段によって前記入力文字として決定された場合に該文字が 表示されることになる位置を取得する手段を含み、該取得された位置に基づ 、て前 記入力候補案内画像の表示位置を決定する、
ことを特徴とする文字入力装置。
[4] 請求の範囲第 1項乃至第 3項のいずれかに記載の文字入力装置において、
前記入力文字決定手段によって前記入力文字として決定された文字を記憶する入 力文字記憶手段と、
予測文字列を記憶する予測文字列記憶手段と、
前記予測文字列記憶手段に記憶される予測文字列のうちの少なくとも 1つを、前記 入力文字記憶手段の記憶内容と、前記注目文字グループ特定情報によって特定さ れる文字グループに対応づけて記憶される文字と、に基づ!、て取得する予測文字列 取得手段と、を含み、
前記現選択入力候補特定情報は、前記注目文字グループ特定情報によって特定 される文字グループに対応づけて記憶される文字及び前記予測文字列取得手段に よって取得される予測文字列のうちのいずれかを前記現選択入力候補として特定す るための情報であり、
前記現選択入力候補特定情報更新手段は、前記入力文字選択操作に応じて、前 記現選択入力候補特定情報によって特定される文字又は予測文字列が、前記注目 文字グループ特定情報によって特定される文字グループに対応づけて記憶される文 字及び前記予測文字列取得手段によって取得される予測文字列のうちの他の文字 又は予測文字列となるように、前記現選択入力候補特定情報を更新し、
前記入力文字決定手段は、前記現選択入力候補特定情報によって前記現選択入 力候補として予測文字列が特定される場合、該予測文字列に含まれる文字のうちの 少なくとも一部を前記入力文字として決定し、
前記表示制御手段は、前記予測文字列取得手段によって取得される予測文字列 を、前記注目文字グループ特定情報によって特定される文字グループに対応づけて 記憶される文字とともに案内する前記入力候補案内画像を含み、かつ、前記現選択 入力候補特定情報によって特定される文字又は予測文字列が前記入力候補案内画 像において区別表示された前記文字入力画面、を前記表示手段に表示させ、前記 現選択入力候補特定情報更新手段によって前記現選択入力候補特定情報が更新 された場合には、更新後の前記現選択入力候補特定情報によって特定される文字 又は予測文字列が前記入力候補案内画像において区別表示されるように、前記表 示手段に表示される前記文字入力画面を更新する、
ことを特徴とする文字入力装置。
複数の文字の各々を複数の文字グループのうちの少なくとも 1つに対応づけて記 憶し、前記複数の文字のうちから入力文字を決定する文字入力装置の制御方法に おいて、
前記複数の文字グループのうちの 、ずれかを注目文字グループとして特定するた めの注目文字グループ特定情報を記憶してなる注目文字グループ特定情報記憶手 段の記憶内容を、注目点移動操作に応じて、前記注目文字グループ特定情報によ つて特定される文字グループが前記複数の文字グループのうちの他の文字グルー プとなるように更新するための注目文字グループ特定情報更新ステップと、
前記注目文字グループ特定情報によって特定される文字グループに対応づけて 記憶される文字のうちのいずれかを現選択入力候補として特定するための現選択入 力候補特定情報を記憶してなる現選択入力候補特定情報記憶手段の記憶内容を、 前記注目点移動操作とは異なる入力文字選択操作に応じて、前記現選択入力候補 特定情報によって特定される文字が、前記注目文字グループ特定情報によって特定 される文字グループに対応づけて記憶される文字のうちの他の文字となるように更新 するための現選択入力候補特定情報更新ステップと、
入力文字決定操作に応じて、前記現選択入力候補特定情報によって特定される 文字を前記入力文字として決定するための入力文字決定ステップと、
前記複数の文字グループに対応する文字グループ対応画像と、前記注目文字グ ループ特定情報によって特定される文字グループに対応づけて記憶される文字を案 内する入力候補案内画像と、を含む画面であって、前記文字グループ対応画像のう ちの前記注目文字グループ特定情報によって特定される文字グループに対応する 前記文字グループ対応画像が区別表示されるとともに、前記現選択入力候補特定 情報によって特定される文字が前記入力候補案内画像において区別表示された文 字入力画面、を表示手段に表示させるための表示制御ステップと、を含み、 前記表示制御ステップは、前記注目文字グループ特定情報更新ステップによって 前記注目文字グループ特定情報が更新された場合、更新後の前記注目文字グルー プ特定情報によって特定される文字グループに対応する前記文字グループ対応画 像が区別表示されるように、前記表示手段に表示される前記文字入力画面を更新し 、前記現選択入力候補特定情報更新ステップによって前記現選択入力候補特定情 報が更新された場合、更新後の前記現選択入力候補特定情報によって特定される 文字が前記入力候補案内画像において区別表示されるように、前記表示手段に表 示される前記文字入力画面を更新するためのステップを含む、
ことを特徴とする文字入力装置の制御方法。 複数の文字のうちから入力文字を決定する文字入力装置としてコンピュータを機能 させるためのプログラムを記録したコンピュータ読み取り可能な情報記憶媒体であつ て、
前記複数の文字の各々を複数の文字グループのうちの少なくとも 1つに対応づけ て記憶する文字記憶手段、
前記複数の文字グループのうちの 、ずれかを注目文字グループとして特定するた めの注目文字グループ特定情報を記憶する注目文字グループ特定情報記憶手段、 注目点移動操作に応じて、前記注目文字グループ特定情報によって特定される文 字グループが前記複数の文字グループのうちの他の文字グループとなるように、前 記注目文字グループ特定情報を更新する注目文字グループ特定情報更新手段、 前記注目文字グループ特定情報によって特定される文字グループに対応づけて 記憶される文字のうちのいずれかを現選択入力候補として特定するための現選択入 力候補特定情報を記憶する現選択入力候補特定情報記憶手段、
前記注目点移動操作とは異なる入力文字選択操作に応じて、前記現選択入力候 補特定情報によって特定される文字が、前記注目文字グループ特定情報によって特 定される文字グループに対応づけて記憶される文字のうちの他の文字となるように、 前記現選択入力候補特定情報を更新する現選択入力候補特定情報更新手段、 入力文字決定操作に応じて、前記現選択入力候補特定情報によって特定される 文字を前記入力文字として決定する入力文字決定手段、及び、
前記複数の文字グループに対応する文字グループ対応画像と、前記注目文字グ ループ特定情報によって特定される文字グループに対応づけて記憶される文字を案 内する入力候補案内画像と、を含む画面であって、前記文字グループ対応画像のう ちの前記注目文字グループ特定情報によって特定される文字グループに対応する 前記文字グループ対応画像が区別表示されるとともに、前記現選択入力候補特定 情報によって特定される文字が前記入力候補案内画像において区別表示された文 字入力画面、を表示手段に表示させる表示制御手段、として前記コンピュータを機 能させ、
前記表示制御手段は、前記注目文字グループ特定情報更新手段によって前記注 目文字グループ特定情報が更新された場合、更新後の前記注目文字グループ特定 情報によって特定される文字グループに対応する前記文字グループ対応画像が区 別表示されるように、前記表示手段に表示される前記文字入力画面を更新し、前記 現選択入力候補特定情報更新手段によって前記現選択入力候補特定情報が更新 された場合、更新後の前記現選択入力候補特定情報によって特定される文字が前 記入力候補案内画像において区別表示されるように、前記表示手段に表示される前 記文字入力画面を更新する、
ことを特徴とするプログラムを記録したコンピュータ読み取り可能な情報記憶媒体。
PCT/JP2006/313208 2005-07-13 2006-07-03 文字入力装置、文字入力装置の制御方法及び情報記憶媒体 WO2007007573A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/719,872 US8274474B2 (en) 2005-07-13 2006-07-03 Character input device, character input device control method, and information storage medium
US13/567,369 US8519955B2 (en) 2005-07-13 2012-08-06 Character input device, character input device control method, and information storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-203915 2005-07-13
JP2005203915A JP4040643B2 (ja) 2005-07-13 2005-07-13 文字入力装置、文字入力装置の制御方法及びプログラム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US11/719,872 A-371-Of-International US8274474B2 (en) 2005-07-13 2006-07-03 Character input device, character input device control method, and information storage medium
US13/567,369 Continuation US8519955B2 (en) 2005-07-13 2012-08-06 Character input device, character input device control method, and information storage medium

Publications (1)

Publication Number Publication Date
WO2007007573A1 true WO2007007573A1 (ja) 2007-01-18

Family

ID=37636969

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/313208 WO2007007573A1 (ja) 2005-07-13 2006-07-03 文字入力装置、文字入力装置の制御方法及び情報記憶媒体

Country Status (3)

Country Link
US (2) US8274474B2 (ja)
JP (1) JP4040643B2 (ja)
WO (1) WO2007007573A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008136439A1 (ja) * 2007-04-26 2008-11-13 Access Co., Ltd. 入力候補提供装置、入力候補提供システム、入力候補提供方法、および入力候補提供プログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080115072A1 (en) * 2006-11-09 2008-05-15 International Business Machines Corporation Method and apparatus for visually assisting language input mode indentification
CN101436193B (zh) * 2007-11-14 2011-05-04 深圳富泰宏精密工业有限公司 文字编辑器预测输入系统及方法
US20090213079A1 (en) * 2008-02-26 2009-08-27 Microsoft Corporation Multi-Purpose Input Using Remote Control
US8564461B2 (en) * 2008-05-09 2013-10-22 Blackberry Limited Handheld electronic device and associated method enabling text input in a language employing non-roman characters
US8400405B2 (en) * 2008-05-09 2013-03-19 Research In Motion Limited Handheld electronic device and associated method enabling text input in a language employing non-roman characters
US9716774B2 (en) * 2008-07-10 2017-07-25 Apple Inc. System and method for syncing a user interface on a server device to a user interface on a client device
EP2394945A1 (en) * 2009-02-05 2011-12-14 Mitsubishi Electric Corporation Console panel of elevator
JP5247559B2 (ja) * 2009-03-27 2013-07-24 中国電力株式会社 入力画面表示装置
RU2562364C2 (ru) * 2009-07-10 2015-09-10 Конинклейке Филипс Электроникс Н.В. Удобный для пользователя ввод текстовых элементов
CN101609365B (zh) * 2009-07-21 2012-10-31 上海合合信息科技发展有限公司 字符输入方法及系统、电子设备及其键盘
WO2012159246A1 (en) * 2011-05-20 2012-11-29 Microsoft Corporation Displaying and inputting symbols
US8826190B2 (en) 2011-05-27 2014-09-02 Google Inc. Moving a graphical selector
US8922490B2 (en) * 2011-06-03 2014-12-30 Apple Inc. Device, method, and graphical user interface for entering alternate characters with a physical keyboard
JP5962249B2 (ja) * 2012-06-21 2016-08-03 富士通株式会社 文字入力プログラム、情報処理装置および文字入力方法
US9804777B1 (en) * 2012-10-23 2017-10-31 Google Inc. Gesture-based text selection
CA154923S (en) * 2013-08-09 2014-11-27 Sony Computer Entertainment Inc Portable electronic multimedia device
US20160364140A1 (en) * 2015-06-15 2016-12-15 Gary Shkedy Prompted touchscreen for teaching user input and data entry

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030442A (ja) * 2002-06-27 2004-01-29 Kyocera Corp かな/カナ文字入力装置
JP2004310543A (ja) * 2003-04-08 2004-11-04 Sharp Corp キャラクター入力装置、キャラクター入力方法、キャラクター入力プログラム、およびコンピュータ読み取り可能な記録媒体
JP2005092521A (ja) * 2003-09-17 2005-04-07 Sony Ericsson Mobilecommunications Japan Inc 文字入力装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030050741A (ko) * 2001-12-19 2003-06-25 삼성전자주식회사 화면 크기와 입력키의 수가 제한되는 휴대용 기기에서의빠르고 간편한 캐릭터 입력 방법 및 이를 이용하는 휴대용기기

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030442A (ja) * 2002-06-27 2004-01-29 Kyocera Corp かな/カナ文字入力装置
JP2004310543A (ja) * 2003-04-08 2004-11-04 Sharp Corp キャラクター入力装置、キャラクター入力方法、キャラクター入力プログラム、およびコンピュータ読み取り可能な記録媒体
JP2005092521A (ja) * 2003-09-17 2005-04-07 Sony Ericsson Mobilecommunications Japan Inc 文字入力装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008136439A1 (ja) * 2007-04-26 2008-11-13 Access Co., Ltd. 入力候補提供装置、入力候補提供システム、入力候補提供方法、および入力候補提供プログラム
US8359371B2 (en) 2007-04-26 2013-01-22 Access Co., Ltd. Input candidate providing device, input candidate providing system, input candidate providing method, and input candidate providing program
JP5133984B2 (ja) * 2007-04-26 2013-01-30 株式会社Access 入力候補提供装置、入力候補提供システム、入力候補提供方法、および入力候補提供プログラム

Also Published As

Publication number Publication date
US8274474B2 (en) 2012-09-25
JP2007025844A (ja) 2007-02-01
US20130038523A1 (en) 2013-02-14
JP4040643B2 (ja) 2008-01-30
US20080062136A1 (en) 2008-03-13
US8519955B2 (en) 2013-08-27

Similar Documents

Publication Publication Date Title
JP4040643B2 (ja) 文字入力装置、文字入力装置の制御方法及びプログラム
US6882975B2 (en) Method, storage medium, apparatus, server and program for providing an electronic chat
JP4369245B2 (ja) 携帯電話装置及びテキストを入力する方法
US20160041965A1 (en) Improved data entry systems
JP2008059568A (ja) 数字キーを用いる文字入力装置及び文字入力方法
KR100579814B1 (ko) 이동 단말기용 문자 입력 시스템과 이를 이용한 이동 단말기
JP2013033395A (ja) 文字入力装置および文字入力装置のフリック入力選択候補の表示方法、およびプログラム
CN105119815A (zh) 在即时通信界面实现音乐播放的方法及装置
JP6036911B2 (ja) 情報表示制御装置、情報表示制御方法、およびプログラム
JP2006243917A (ja) 操作端末、操作誘導方法、及びプログラム
JP2002153678A (ja) 情報配信システムおよび情報記憶媒体
EP3673477A1 (en) Device to teach an alphabet
JP2006162931A (ja) 遊技機
CN110990419A (zh) 电子辞典装置、电子辞典的检索方法
JP2001204970A (ja) ゲームシステム、情報配信システムおよび情報記憶媒体
JP7298958B1 (ja) 外国語動詞学習支援装置及び外国語動詞学習支援プログラム
JP7037451B2 (ja) 表示装置、表示制御方法および表示制御プログラム。
JP5303900B2 (ja) 携帯端末装置、文字列入力方法、文字列入力プログラム及び記録媒体
JP7127462B2 (ja) 辞書機能を備える電子機器、辞書検索の履歴表示方法及びそのプログラム
KR101148827B1 (ko) 디스플레이 기능을 갖는 버튼을 구비한 단말기 및 이를위한 디스플레이 방법
JP6417754B2 (ja) 組合せ単語登録装置およびプログラム
JP4247875B2 (ja) ゲームシステムおよび情報記憶媒体
JP2007219141A (ja) 音声学習器、音声学習器の制御方法及び制御プログラム
KR100691815B1 (ko) 모션 센서를 이용한 키 입력 방법 및 장치
JP2003196009A (ja) 表示制御装置、表示システム及び表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11719872

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06780712

Country of ref document: EP

Kind code of ref document: A1