WO2012140935A1 - 情報入力装置 - Google Patents

情報入力装置 Download PDF

Info

Publication number
WO2012140935A1
WO2012140935A1 PCT/JP2012/052138 JP2012052138W WO2012140935A1 WO 2012140935 A1 WO2012140935 A1 WO 2012140935A1 JP 2012052138 W JP2012052138 W JP 2012052138W WO 2012140935 A1 WO2012140935 A1 WO 2012140935A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
input
displayed
pictogram
conversion
Prior art date
Application number
PCT/JP2012/052138
Other languages
English (en)
French (fr)
Inventor
章照 國分
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to EP12770815.4A priority Critical patent/EP2698725A4/en
Priority to US14/110,912 priority patent/US20140040732A1/en
Priority to JP2013509811A priority patent/JP5862659B2/ja
Publication of WO2012140935A1 publication Critical patent/WO2012140935A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/274Converting codes to words; Guess-ahead of partial word inputs

Definitions

  • the present invention relates to an information input device, an information input method, and a program for inputting information.
  • HTML mail is not used because it is not easy to decorate the whole body of e-mail, and it takes time and effort to decorate.
  • HTML pictograms pictograms with expanded pictograms
  • This HTML pictograph is an animation GIF (Graphics Interchange Format) format that can be inserted into an e-mail as an HTML mail, and has a vertical and horizontal size determined.
  • HTML pictograms are not only built in the mobile terminal in advance, but also can be downloaded from WEB or included in received e-mails, and are highly versatile. .
  • pictograms hereinafter referred to as meanings of both general pictograms and HTML pictograms
  • a list of pictograms is called from the dedicated input mode, Select the emoji you want to use and insert it into the e-mail text.
  • An object of the present invention is to provide an information input device, an information input method, and a program that solve the above-described problems.
  • the information input device of the present invention is A display unit; An input unit for inputting information; A first storage unit for storing conversion candidates for the information as first information; A second storage unit that stores the first information and the second information in association with each other; The first information that is a candidate for conversion of information input to the input unit is read from the first storage unit, the read first information is displayed as a conversion candidate on the display unit, and the display unit When the displayed first information is selected, the second information associated with the selected first information is read from the second storage unit, and the second information and the And a control unit that causes the display unit to display the third information obtained by adding the second information to the first information as a conversion candidate.
  • the information input method of the present invention includes: Processing to input information to the device; A process of reading first information that is a candidate for conversion of the input information from a first storage unit storing the first information; Processing for displaying the first information read from the first storage unit as a conversion candidate; When the displayed first information is selected, the second information associated with the selected first information is associated with the first information and the second information. Processing to read from the second storage unit The second information read from the second storage unit and the third information obtained by adding the second information to the first information are displayed as conversion candidates.
  • the program of the present invention is A program for causing a computer to execute, Steps to enter information, A procedure for reading first information that is a candidate for conversion of the input information from a first storage unit that stores the first information; Displaying the first information read from the first storage unit as a conversion candidate; When the displayed first information is selected, the second information associated with the selected first information is associated with the first information and the second information. Reading from the second storage unit stored in the The second information read from the second storage unit and the third information obtained by adding the second information to the first information are displayed as conversion candidates.
  • FIG. 1 shows one Embodiment of the information input device of this invention. It is a figure which shows an example of the 1st information memorize
  • FIG. 1 It is a figure which shows an example of the display in a display part when a cursor moves and "car" is selected. It is a figure which shows an example of the display in a display part when a pictogram list is called. It is a figure which shows an example of the display which one was selected from the pictograms displayed on the display part shown in FIG. 1, and registration was completed. It is a flowchart for demonstrating an example of the process of the control part for making a display part shown in FIG. 1 display a pictograph as a prediction conversion candidate. It is a figure which shows an example of the updated prediction conversion candidate. It is a figure which shows an example of the prediction conversion candidate displayed on the display part in step 16.
  • FIG. 1 It is a figure which shows an example of the display in a display part when a cursor moves and "car" is selected. It is a figure which shows an example of the display in a display part when a pictogram list is called. It is a figure which shows an example of the display which one
  • FIG. It is a figure which shows an example of the pictogram displayed on the display part in step 31.
  • FIG. It is a figure which shows an example of the character pictogram displayed on the display part in step 32.
  • FIG. It is a figure which shows an example of the character displayed on the display part in step 33.
  • FIG. It is a flowchart for demonstrating the other example of the process which registers a character and a pictogram conversion candidate in the pictogram conversion candidate memory
  • FIG. 1 It is a figure which shows an example of the display in a display part when one pictogram is contacted among the pictograms displayed on the display part shown in FIG. It is a figure which shows an example of the display which registration of the selected pictogram was completed. It is a flowchart for demonstrating an example of a process of the control part until a user confirms an input by touching the pictogram currently displayed on the display part. It is a figure which shows a mode when contact is made to the position where "car" is displayed among the displayed conversion candidates. It is a figure which shows an example of a display of a display part when there exists a flick from the bottom to the top.
  • FIG. 1 It is a figure which shows an example of a display of a display part when there exists a flick from the top to the downward direction. It is a figure which shows an example of the pictogram displayed on the display part in step 63. FIG. It is a figure which shows an example of the character pictogram displayed on the display part in step 64. FIG. It is a figure which shows an example of the character displayed on the display part in step 65. FIG.
  • FIG. 1 is a diagram showing an embodiment of an information input device of the present invention.
  • the information input apparatus 100 includes a display unit 110, an input unit 120, a character conversion candidate storage unit 130 that is a first storage unit, and a pictographic conversion that is a second storage unit.
  • a candidate storage unit 140 and a control unit 150 are provided.
  • the information input device 100 can be applied to devices such as mobile phones, tablet-type and notebook-type PCs (Personal Computers), smartphones, PDAs (Personal Digital Assistants), and game machines.
  • FIG. 1 shows only the components related to the present invention among the components included in the information input device 100.
  • the information input device 100 may include a communication unit that communicates with other communication devices, an audio output unit such as a speaker, and the like, which are omitted in FIG.
  • the display unit 110 is a display such as a color liquid crystal panel or an organic EL (Electro-Luminescence) that displays character data or pictographic data.
  • the display unit 110 may have a touch panel function.
  • the input unit 120 is operated by a user of the information input device 100 to input information to the information input device 100 from the outside of the information input device 100.
  • the input unit 120 may be a button key, or may serve as the display unit 110 when the display unit 110 has a touch panel function.
  • the character conversion candidate storage unit 130 is a database that stores conversion candidates for information input by the input unit 120 as first information.
  • FIG. 2 is a diagram showing an example of the first information stored in the character conversion candidate storage unit 130 shown in FIG.
  • the character conversion candidate storage unit 130 shown in FIG. 1 stores input information (input information) and words that are conversion candidates in association with each other. This may be stored in advance, or may be stored using a commonly used conversion learning function or the like. Further, the input information and conversion candidates are not stored in the character conversion candidate storage unit 130 (for example, stored in an external memory or the like), and only information indicating the association between the input information and the conversion candidates is converted into characters. It may be stored in the candidate storage unit 130. In other words, any information can be used as long as input information can be used as a search key and corresponding conversion candidates can be acquired.
  • input information “Kuru” and conversion candidates “Group”, “Car”, “Kuru”, and the like are stored in association with each other.
  • the conversion candidates are “group”, “car”, “coming”, and the like, which are displayed on the display unit 110.
  • the first information is character data.
  • the pictographic conversion candidate storage unit 140 stores the first information that is the conversion candidate stored in the character conversion candidate storage unit 130 and the second information that is the pictographic conversion candidate in association with each other.
  • FIG. 3 is a diagram illustrating an example of the first information and the second information stored in the pictogram conversion candidate storage unit 140 illustrated in FIG.
  • the pictogram conversion candidate storage unit 140 shown in FIG. 1 stores first information (characters) and pictograms that are pictogram conversion candidates in association with each other. This may be stored in advance or may be registered by the user. In addition, characters and pictogram conversion candidates are not stored in the pictogram conversion candidate storage unit 140 (for example, stored in an external memory or the like), and only information indicating the association between characters and pictogram conversion candidates is converted to pictograms. It may be stored in the candidate storage unit 140. In other words, any character can be used as long as it can acquire a pictogram conversion candidate corresponding to the character as a search key.
  • the character “meal” and one pictogram conversion candidate are stored in association with each other.
  • the character “meal” is selected from the conversion candidates for the information input by the input unit 120 and converted into pictograms
  • the picture of the spoon and fork is set as a pictogram conversion candidate.
  • the character “car” and three pictogram conversion candidates are stored in association with each other.
  • the characters of these three cars are set as pictogram conversion candidates.
  • the character “heart” and two pictogram conversion candidates are stored in association with each other.
  • the character “heart” is selected from the conversion candidates for the information input by the input unit 120 and converted to pictograms
  • the two heart pictures are set as pictogram conversion candidates.
  • the second information is pictographic data.
  • the control unit 150 reads out conversion candidates for information input to the input unit 120 from the character conversion candidate storage unit 130.
  • the control unit 150 causes the display unit 110 to display the conversion candidates read from the character conversion candidate storage unit 130.
  • the control unit 150 reads out the second information associated with the selected first information from the pictogram conversion candidate storage unit 140 among the first information displayed on the display unit 110.
  • the selection is performed based on an input corresponding to a user's operation on the input unit 120 such as cursor movement.
  • the control unit 150 causes the display unit 110 to display the second information read from the pictogram conversion candidate storage unit 140 and the third information obtained by adding the second information to the first information as conversion candidates.
  • FIG. 4 is a flowchart for explaining an example of processing for registering characters and pictogram conversion candidates in the pictogram conversion candidate storage unit 140 shown in FIG.
  • step 1 the control unit 150 determines whether or not the conversion candidate displayed on the display unit 110 has been selected for the character (information) input by the input unit 120.
  • FIG. 5A is a diagram illustrating an example of display on the display unit 110 when “coming” is input from the input unit 120 illustrated in FIG. 1.
  • conversion candidates associated with “coming” as shown in FIG. 2 and stored in the character conversion candidate storage unit 130 are displayed on the display unit 110. Is done.
  • the cursor moves and one of conversion candidates can be selected.
  • “Group” is selected.
  • step 2 If it is determined that the conversion candidate displayed on the display unit 110 has been selected, it is determined in step 2 whether or not the pictogram list has been called by the control unit 150.
  • FIG. 5B is a diagram illustrating an example of display on the display unit 110 when the cursor is moved and “car” is selected.
  • FIG. 5C is a diagram illustrating an example of display on the display unit 110 when the pictogram list is called up.
  • the pictograms are listed on the display unit 110 as shown in FIG. 5C. Displayed.
  • these pictograms may be stored in advance in the information input device 100, may be those that call up those stored in other memories, or information input
  • the apparatus 100 may be downloaded from a predetermined server and acquired using the communication function.
  • the operation performed by the user to display the pictograph on the display unit 110 is not particularly defined here.
  • step 3 thereafter, according to the user's operation, whether or not one pictogram is selected from the pictograms displayed as shown in FIG. 5C is determined by the control unit 150 in step 3, and one pictogram is selected.
  • the selected pictograph is registered. In this registration, the selected pictogram is stored in the pictogram conversion candidate storage unit 140 in association with the selected conversion candidate.
  • FIG. 5D is a diagram showing an example of a display in which one of the pictographs displayed on the display unit 110 shown in FIG. 1 is selected and registration is completed.
  • the registered pictogram and its conversion candidate are displayed on the display unit 110 together with the completion of registration.
  • FIG. 6 is a flowchart for explaining an example of processing of the control unit 150 for causing the display unit 110 shown in FIG. 1 to display pictograms as predictive conversion candidates.
  • the main body that performs the processing is the control unit 150.
  • step 11 it is determined whether or not a character (information) is input to the input unit 120 by a user's key input or touch operation.
  • step 12 If it is determined that a character has been input, it is determined in step 12 whether there is a predictive conversion candidate for the character. Specifically, it is determined whether or not the conversion candidate associated with the character is stored in the character conversion candidate storage unit 130.
  • step 13 list data of the predicted conversion candidates is created.
  • the corresponding conversion candidate shown in FIG. 2 becomes the list data of the prediction conversion candidates.
  • step 14 for each conversion candidate included in the list of prediction conversion candidates, a search is performed as to whether a pictographic conversion candidate is stored in the pictographic conversion candidate storage unit 140.
  • the list of prediction conversion candidates is updated in step 15.
  • the conversion candidates stored in the pictogram conversion candidate storage unit 140 can be identified from the conversion candidates stored in the pictogram conversion candidate storage unit 140 (that is, the pictogram conversion candidates are not stored in the pictogram conversion candidate storage unit 140).
  • the list is updated to a list in which identification information such as a flag is added to the conversion candidate.
  • FIG. 7 is a diagram illustrating an example of the updated predictive conversion candidate.
  • a pictographic conversion candidate of “car” is stored in the pictographic conversion candidate storage unit 140 using the registration process described above.
  • an asterisk is given as identification information (flag) in association with “car” among the conversion candidates.
  • identification information flag
  • the conversion candidates in which pictographs are registered can be identified as conversion candidates in which pictographs are not registered.
  • step 16 the prediction conversion candidate is displayed on the display unit 110. At this time, among the prediction conversion candidates, those to which the above-described identification information (stars in FIG. 7) is assigned are displayed in a different form from those to which no identification information is assigned.
  • FIG. 8 is a diagram illustrating an example of the predictive conversion candidate displayed on the display unit 110 in step 16.
  • the pictogram conversion candidate is not stored in the pictogram conversion candidate storage unit 140 for each conversion candidate included in the list of prediction conversion candidates in step 14, the process of step 15 is not performed, and Processing is performed.
  • step 17 it is determined whether there is continuous character input. For example, in FIG. 8, there is a possibility that “ma” is input after the input until “coming”.
  • step 12 When further input is performed on the input unit 120, it is determined that there is a continuous character input, and the process of step 12 is performed.
  • step 18 it is determined in step 18 whether or not the character input is confirmed by a predetermined operation of the user.
  • step 11 is performed.
  • step 17 is performed.
  • FIG. 9 is a flowchart for explaining an example of processing of the control unit 150 until the user selects a pictograph and confirms the input.
  • the main body that performs the processing is the control unit 150.
  • step 21 it is determined whether or not a predictive conversion candidate for character input has been selected in accordance with a user operation.
  • the cursor for selecting a predictive conversion candidate is at the “group” position, and “group” is temporarily selected.
  • step 22 it is determined whether or not the cursor has moved to a conversion candidate to be a pictograph conversion among the displayed conversion candidates.
  • a pictograph corresponding to the conversion candidate is called in step 23. That is, a pictographic conversion candidate is read out from the pictographic conversion candidate storage unit 140 using the conversion candidate as a search key.
  • the read pictogram conversion candidates are displayed on the display unit 110 in step 24.
  • FIG. 10A is a diagram illustrating an example of a screen of the display unit 110 on which pictograph conversion candidates are displayed.
  • the pictographic conversion candidate storage unit 140 stores pictographs of three cars in association with “cars”.
  • a pictographic window displaying only a pictographic candidate (second information) corresponding to “car”, and a pictographic candidate corresponding to “car” (character “first”) (first information)
  • second information a pictographic candidate corresponding to “car”
  • first information a pictographic candidate corresponding to “car”
  • second information a pictographic candidate corresponding to “car”
  • third information a pictographic window displaying the third information to which the second information is added.
  • the third information “car” as the first information is displayed at the head, and subsequently, three pictograms as the second information are displayed.
  • step 25 it is determined whether or not the cursor has moved from the current position (in the case of FIG. 10A, the position of “car”).
  • the currently displayed pictogram window is erased (not displayed), and the process of step 22 is performed.
  • the cursor moves to “Kuru” and the pictogram window is deleted.
  • step 26 it is determined in step 26 whether or not the character at the cursor display position has been selected. For example, in the state shown in FIG. 10A, it is determined whether or not a character is selected by pressing the selection key as it is.
  • step 27 it is determined in step 27 whether one of the two displayed pictogram windows has been selected. This is determined by whether or not the cursor has moved to one of the two displayed pictogram windows.
  • the cursor moves to the pictogram window containing only the pictogram displayed above the “car” character.
  • the cursor moves to a pictogram window of a character pictogram composed of characters and pictograms displayed below the “car” character.
  • FIG. 10B is a diagram illustrating an example of display on the display unit 110 when the cursor moves to the pictogram window of only the pictogram displayed on the upper side of the character “car”.
  • the cursor moves to the pictogram in the pictogram window of the pictogram only displayed on the upper side of the character “car”.
  • FIG. 10C is a diagram illustrating an example of display on the display unit 110 when the cursor moves to a pictogram window of a character pictogram composed of characters and pictograms displayed below the “car” character.
  • the cursor moves to a pictograph in a pictograph window of a text pictograph composed of a character and a pictograph displayed below the character “car”.
  • step 25 If one of the two displayed pictogram windows is not selected, the process of step 25 is performed.
  • step 28 it is determined in step 28 whether or not a clear (cancel) process has been generated by the user's operation.
  • the process returns to the state before the transition to the display of the pictogram window (the state shown in FIG. 10A), and the process of step 25 is performed.
  • step 29 it is determined in step 29 whether or not the displayed pictogram has been selected. This is to determine whether or not the cursor is moved by the user's operation and the pictogram displayed at the moved position is selected by the selection of the selection key or the like.
  • step 28 is performed.
  • the selected pictogram is a pictogram in the pictogram window of only the pictogram, or the pictogram window of the text pictogram consisting of the character and the pictogram is displayed. It is determined whether it is an emoji inside.
  • the selected pictogram is a pictogram in the pictogram window of pictograms only, only the selected pictogram is displayed on the display unit 110 in step 31.
  • FIG. 10D is a diagram illustrating an example of the pictograph displayed on the display unit 110 in step 31.
  • the display unit 110 displays only the pictograph of the car.
  • the selected pictogram is a pictogram in the pictogram window of the text pictogram made up of characters and pictograms in step 30
  • the selected pictogram and conversion candidates are displayed as text pictograms in step 32. Displayed on the section 110.
  • FIG. 10E is a diagram illustrating an example of the character pictogram displayed on the display unit 110 in step 32.
  • the display unit 110 displays character pictograms of “car” and car pictograms.
  • step 26 If a character at the cursor display position is selected in step 26, the character is displayed on the display unit 110 in step 33.
  • FIG. 10F is a diagram illustrating an example of characters displayed on the display unit 110 in step 33.
  • the characters “car” are displayed on the display unit 110.
  • the second information may be displayed as an upper layer and the third information may be displayed as a lower layer. That is, in step 24, the second information and the third information are not displayed on the display unit 110 as shown in FIG. 10A.
  • the second information is displayed on the display unit 110, and the second information is displayed. If the information window is selected, the third information may also be displayed. Further, the number of windows may be three or more.
  • FIG. 11 is a flowchart for explaining another example of processing for registering characters and pictogram conversion candidates in the pictogram conversion candidate storage unit 140 shown in FIG.
  • step 41 the control unit 150 determines whether or not the conversion candidate displayed on the display unit 110 with respect to the character (information) input to the input unit 120 is selected by being touched (touched).
  • FIG. 12A is a diagram illustrating an example of display on the display unit 110 when “coming” is input from the input unit 120 illustrated in FIG. 1.
  • conversion candidates associated with “coming” as shown in FIG. 2 and stored in the character conversion candidate storage unit 130 are displayed on the display unit 110. Is done. The user can select one of the conversion candidates by touching the position where the desired conversion candidate is displayed. In FIG. 12A, “group” is selected.
  • step 42 If it is determined that the conversion candidate displayed on the display unit 110 has been selected, it is determined in step 42 whether or not the pictogram list has been called by the control unit 150.
  • FIG. 12B is a diagram illustrating an example of display on the display unit 110 when “car” is selected by touching a position where “car” is displayed.
  • FIG. 12B when “car” is selected by touching a position where “car” is displayed, a pictogram list corresponding to “car” is called, and the pictogram is displayed on the display unit 110. Is displayed.
  • the calling and display of this pictogram list is the same as the above-described example (the pictogram display is shown in FIG. 5C).
  • step 43 the control unit 150 determines whether one pictograph is touched from the pictographs displayed on the display unit 110.
  • FIG. 12C is a diagram illustrating an example of display on the display unit 110 when one pictogram is touched from the pictograms displayed on the display unit 110 illustrated in FIG. 1.
  • the pictogram displayed at the touched position is selected in step 44. It is determined that it has been registered.
  • the registration method is the same as in Step 4.
  • FIG. 12D is a diagram showing an example of a display in which registration of the selected pictograph is completed.
  • the registered pictograms and their conversion candidates are displayed on the display unit 110 together with the completion of registration.
  • FIG. 13 is a flowchart for explaining an example of processing of the control unit 150 until the user confirms an input by touching a pictograph displayed on the display unit 110.
  • the main body that performs the processing is the control unit 150.
  • step 51 it is determined whether or not a predictive conversion candidate for character input has been selected in accordance with a user operation.
  • step 52 it is determined whether or not contact has been made with respect to a position where a conversion candidate to be subjected to pictogram conversion is displayed among the displayed conversion candidates.
  • FIG. 14A is a diagram illustrating a state in which contact is made to a position where “car” is displayed among the displayed conversion candidates.
  • “car” is a target of pictogram conversion.
  • step 53 it is determined whether or not the contact pattern is touch selection.
  • step 54 If the contact pattern is not a touch selection, it is determined in step 54 whether or not the contact pattern is a flick contact from the bottom to the top (first contact pattern).
  • step 55 a pictograph candidate associated with the conversion candidate is read from the pictograph conversion candidate storage unit 140.
  • step 56 a pictograph window including only the read pictograph conversion candidates is displayed on the display unit 110.
  • FIG. 14B is a diagram illustrating an example of display on the display unit 110 when there is a flick from the bottom to the top.
  • a pictograph window including only the read pictograph conversion candidates is displayed on the display unit 110 on the character “car”.
  • the contact pattern is not a flick contact from the bottom to the top in step 54, is the flick contact (second contact pattern) from the top to the bottom in step 57? Whether it is determined.
  • step 58 a pictographic candidate associated with the conversion candidate is read from the pictographic conversion candidate storage unit 140.
  • step 59 a pictographic window including the conversion candidate and the read pictographic conversion candidate is displayed on the display unit 110.
  • FIG. 14C is a diagram illustrating an example of display on the display unit 110 when there is a flick from the top to the bottom.
  • a pictograph window including the conversion candidate and the read pictograph conversion candidate is displayed on the display unit 110 under the character “car”.
  • step 60 it is determined whether or not a clear (cancel) process has been generated by the user's operation.
  • step 52 is performed.
  • step 61 it is determined in step 61 whether or not the displayed pictogram is touch-selected, that is, whether or not any of the displayed pictograms has been touched.
  • step 60 If the displayed pictograph is not touch-selected, the process of step 60 is performed.
  • the touch-selected pictogram is the pictogram displayed in the pictogram window of only the pictogram, or from the character and the pictogram. It is discriminated whether it is a pictogram displayed in the pictogram window of the character pictogram.
  • the touch-selected pictogram is the pictogram displayed in the pictogram window with only pictograms, only the pictogram touch-selected is displayed on the display unit 110 in step 63.
  • FIG. 14D is a diagram illustrating an example of the pictograph displayed on the display unit 110 in step 63.
  • the display unit 110 displays only the pictograph of the car.
  • the pictograph touch-selected in step 62 is a pictograph displayed in the pictograph window of the text pictograph composed of the letters and pictograms
  • the pictograph touch-selected and the conversion candidate are selected in step 64.
  • FIG. 14E is a diagram illustrating an example of the character pictogram displayed on the display unit 110 in step 64.
  • the display unit 110 displays character pictograms of “car” and car pictograms.
  • step 53 if the contact pattern is touch selection, in step 65, the characters displayed at the touch-selected position are displayed on the display unit 110.
  • FIG. 14F is a diagram illustrating an example of characters displayed on the display unit 110 in step 65.
  • the characters “car” are displayed on the display unit 110.
  • the display order of conversion candidates may be according to a predetermined rule, or may be rearranged according to the selected frequency or the selected order.
  • the pictographic data includes other information such as emoticons, symbols, and image data for Decome.
  • the present invention has the following effects.
  • the processing performed by each component provided in the information input device 100 described above may be performed by a logic circuit that is produced according to the purpose.
  • a computer program (hereinafter referred to as a program) in which processing contents are described as a procedure is recorded on a recording medium readable by the information input device 100, and the program recorded on the recording medium is read by the information input device 100. , May be executed.
  • the recording medium readable by the information input device 100 includes a transferable recording medium such as a floppy (registered trademark) disk, a magneto-optical disk, a DVD, and a CD, as well as a ROM, a RAM, and the like built in the information input device 100. Memory, HDD, etc.
  • the program recorded on the recording medium is read by the control unit 150 provided in the information input device 100, and the same processing as described above is performed under the control of the control unit 150.
  • the control unit 150 operates as a computer that executes a program read from a recording medium on which the program is recorded.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Document Processing Apparatus (AREA)
  • Position Input By Displaying (AREA)

Abstract

 制御部(150)が、入力部(120)に入力された情報の変換候補である第1の情報を文字変換候補記憶部(130)から読み出し、読み出した第1の情報を変換候補として表示部(110)に表示させ、表示部(110)が表示している第1の情報が選択された場合、選択された第1の情報と対応付けられている第2の情報を絵文字変換候補記憶部(140)から読み出し、読み出した第2の情報と、第1の情報に第2の情報を付加した第3の情報とを変換候補として表示部(110)に表示させる。

Description

情報入力装置
 本発明は、情報を入力する情報入力装置、情報入力方法およびプログラムに関する。
 携帯端末を利用して、当該携帯端末から電子メールを送信したり、当該携帯端末にて電子メールを受信したりすることが日常一般的になっている。その電子メールを構成する文章に、入力した文字から変換された絵文字を挿入する技術が考えられている(例えば、特許文献1~3参照。)。さらに、最近では、絵文字を含む文字だけでなく、画像を挿入して、電子メール本文の内容を装飾することができるHTML(HyperText Markup Language)メール機能を搭載した携帯端末も市場に出回っている。
 HTMLメールは、電子メール本文全体を装飾するのは大袈裟だったり、また装飾するのも手間がかかったりするために、利用されない面もある。しかしながら、その一方で、通常の絵文字だけではバリエーションが少ないために物足りないと感じる利用者の間では、絵文字を拡張した絵文字(以後、HTML絵文字と称する)を使ったHTMLメールの利用機会やニーズが増えてきている。
 このHTML絵文字は、電子メールにHTMLメールとして挿入することができるアニメーションGIF(Graphics Interchange Format)形式で、縦横のサイズが決まったファイルである。また、HTML絵文字は、あらかじめ携帯端末に内蔵されているだけでなく、WEBからダウンロードされたものや、受信した電子メールに含まれるものを利用することができ、汎用性の高いものとなっている。
 電子メールの文章を作成中に絵文字(以下、一般的な絵文字とHTML絵文字との双方の意味を含むものとする)を入力するためには、専用の入力モードから絵文字の一覧を呼び出し、その一覧の中から使いたい絵文字を選択して電子メールの文章に挿入する。
 この絵文字の挿入について、以下のような文章を電子メールの本文として入力する場合を例に挙げて説明する。
 「明日、車で行こう。」
 ここで、ある利用者が、「車」という文字部分を、「車」と見て分かる絵文字に置き換えて使いたい場合、
 「明日、<車を示す絵文字>で行こう。」
と入力する(ケース1)。
 一方で、他の利用者が、「車」という文字を残しつつ、続けて「車」と見て分かる絵文字を使いたい場合、
 「明日、車<車を示す絵文字>で行こう。」
と入力する(ケース2)。
特開2008-129687号公報 特開2010-026909号公報 特開2010-079782号公報
 上述したケース1の場合、「明日、」と入力した後に、絵文字一覧を呼び出し、その一覧の中から「車」と見て分かる絵文字を選択して入力する。
 また、ケース2の場合、「明日、」と入力した後に、「車」と入力確定した後に、さらに絵文字一覧を呼び出し、その一覧の中から「車」と見て分かる絵文字を選択して入力する。
 このように、ケース1とケース2とで絵文字の入力方法が異なるため、入力方法を使い分けなければならなく、その手間がかかってしまうという問題点がある。
 本発明の目的は、上述した課題を解決する情報入力装置、情報入力方法およびプログラムを提供することである。
 本発明の情報入力装置は、
 表示部と、
 情報を入力する入力部と、
 前記情報の変換候補を第1の情報として記憶する第1の記憶部と、
 前記第1の情報と第2の情報とを対応付けて記憶する第2の記憶部と、
 前記入力部に入力された情報の変換候補である前記第1の情報を前記第1の記憶部から読み出し、該読み出した第1の情報を変換候補として前記表示部に表示させ、前記表示部が表示している第1の情報が選択された場合、該選択された第1の情報と対応付けられている前記第2の情報を前記第2の記憶部から読み出し、前記第2の情報と前記第1の情報に前記第2の情報を付加した第3の情報とを変換候補として前記表示部に表示させる制御部とを有する。
 また、本発明の情報入力方法は、
 情報を装置へ入力する処理と、
 前記入力された情報の変換候補である第1の情報を、該第1の情報を記憶している第1の記憶部から読み出す処理と、
 前記第1の記憶部から読み出した第1の情報を変換候補として表示する処理と、
 前記表示している第1の情報が選択された場合、該選択された第1の情報と対応付けられている第2の情報を、前記第1の情報と前記第2の情報とを対応付けて記憶している第2の記憶部から読み出す処理と、
 前記第2の記憶部から読み出した第2の情報と、前記第1の情報に前記第2の情報を付加した第3の情報とを変換候補として表示する処理とを行う。
 また、本発明のプログラムは、
 コンピュータに実行させるためのプログラムであって、
 情報を入力する手順と、
 前記入力された情報の変換候補である第1の情報を、該第1の情報を記憶している第1の記憶部から読み出す手順と、
 前記第1の記憶部から読み出した第1の情報を変換候補として表示する手順と、
 前記表示している第1の情報が選択された場合、該選択された第1の情報と対応付けられている第2の情報を、前記第1の情報と前記第2の情報とを対応付けて記憶している第2の記憶部から読み出す手順と、
 前記第2の記憶部から読み出した第2の情報と、前記第1の情報に前記第2の情報を付加した第3の情報とを変換候補として表示する手順とを実行させる。
 以上説明したように、本発明においては、文字と絵文字とが混在された文章の入力を容易に行うことができる。
本発明の情報入力装置の実施の一形態を示す図である。 図1に示した文字変換候補記憶部に記憶されている第1の情報の一例を示す図である。 図1に示した絵文字変換候補記憶部に記憶されている第1の情報と第2の情報との一例を示す図である。 図1に示した絵文字変換候補記憶部に、文字と絵文字変換候補とを登録する処理の一例を説明するためのフローチャートである。 図1に示した入力部にて「くる」が入力された場合の表示部における表示の一例を示す図である。 カーソルが移動して、「車」が選択されたときの表示部における表示の一例を示す図である。 絵文字一覧が呼び出された場合の表示部における表示の一例を示す図である。 図1に示した表示部に表示された絵文字の中から1つが選択され、登録が完了した表示の一例を示す図である。 絵文字を予測変換候補として、図1に示した表示部に表示させるための制御部の処理の一例を説明するためのフローチャートである。 更新された予測変換候補の一例を示す図である。 ステップ16にて表示部に表示された予測変換候補の一例を示す図である。 利用者が絵文字を選択し、入力確定するまでの制御部の処理の一例を説明するためのフローチャートである。 絵文字変換候補が表示された表示部の画面の一例を示す図である。 「車」の文字の上側に表示されている絵文字のみの絵文字ウィンドウへカーソルが移動したときの表示部の表示の一例を示す図である。 「車」の文字の下側に表示されている文字と絵文字とからなる文字絵文字の絵文字ウィンドウへカーソルが移動したときの表示部の表示の一例を示す図である。 ステップ31にて表示部に表示された絵文字の一例を示す図である。 ステップ32にて表示部に表示された文字絵文字の一例を示す図である。 ステップ33にて、表示部に表示された文字の一例を示す図である。 図1に示した絵文字変換候補記憶部に、文字と絵文字変換候補とを登録する処理の他の例を説明するためのフローチャートである。 図1に示した入力部にて「くる」が入力された場合の表示部における表示の一例を示す図である。 「車」が表示されている位置に指が触れることで、「車」が選択されたときの表示部における表示の一例を示す図である。 図1に示した表示部に表示されている絵文字の中から、1つの絵文字へ接触があった場合の表示部における表示の一例を示す図である。 選択された絵文字の登録が完了した表示の一例を示す図である。 利用者が表示部に表示されている絵文字に触れることで、入力確定するまでの制御部の処理の一例を説明するためのフローチャートである。 表示されている変換候補のうち、「車」が表示されている位置へ接触が行われた場合の様子を示す図である。 下から上方向へのフリックがあった場合の表示部の表示の一例を示す図である。 上から下方向へのフリックがあった場合の表示部の表示の一例を示す図である。 ステップ63にて表示部に表示された絵文字の一例を示す図である。 ステップ64にて表示部に表示された文字絵文字の一例を示す図である。 ステップ65にて、表示部に表示された文字の一例を示す図である。
 以下に、本発明の実施の形態について図面を参照して説明する。なお、以下の説明における文字変換は、入力される言語が日本語である場合を例に挙げたものである。入力される言語が日本語以外の言語である場合は、その言語の特性に応じた入力、表示および文字変換がされる際、以下に述べる処理(絵文字単独の入力や、単語とその単語に関連する絵文字とを足し合わせた文字の入力の処理)と同様の処理が行われる。
 図1は、本発明の情報入力装置の実施の一形態を示す図である。
 本形態における情報入力装置100には図1に示すように、表示部110と、入力部120と、第1の記憶部である文字変換候補記憶部130と、第2の記憶部である絵文字変換候補記憶部140と、制御部150とが設けられている。なお、この情報入力装置100は、携帯電話機、タブレット型やノート型のPC(Personal Computer)、スマートフォン、PDA(Personal Digital Assistants)、ゲーム機等の装置に適用することが可能である。なお、図1には、情報入力装置100が具備する構成要素のうち、本発明に関わるもののみを示した。例えば、情報入力装置100が、他の通信装置と通信を行う通信部や、スピーカ等の音声出力部等を具備するものであっても良いが、これらは図1においては省略した。
 表示部110は、文字データや絵文字データを表示するカラー液晶パネルや有機EL(Electro-Luminescence)等のディスプレイである。また、表示部110は、タッチパネル機能を具備したものであっても良い。
 入力部120は、情報入力装置100の利用者が操作することで、情報入力装置100の外部から情報入力装置100へ情報を入力する。例えば、入力部120は、ボタンキーであっても良いし、表示部110がタッチパネル機能を具備している場合は、表示部110を兼ねたものであっても良い。
 文字変換候補記憶部130は、入力部120にて入力される情報の変換候補を第1の情報として記憶するデータベースである。
 図2は、図1に示した文字変換候補記憶部130に記憶されている第1の情報の一例を示す図である。
 図1に示した文字変換候補記憶部130には図2に示すように、入力される情報(入力情報)と、それに対して変換候補となる単語とが対応付けられて記憶されている。これは、あらかじめ記憶されているものであっても良いし、一般的に利用されている変換学習機能等を用いて記憶されるものであっても良い。また、入力情報および変換候補が文字変換候補記憶部130に記憶されておらず(例えば、外部のメモリ等に記憶されている)、入力情報と変換候補との紐付けを示す情報のみが文字変換候補記憶部130に記憶されているものであっても良い。つまり、入力情報を検索キーとして、それに対応する変換候補が取得できるものであれば良い。
 例えば図2に示すように、入力情報「くる」と、変換候補「グループ」、「車」、「くる」等とが対応付けられて記憶されている。この場合、入力部120にて「くる」が入力された場合、その変換候補は「グループ」、「車」、「くる」等であり、それらが表示部110に表示される。このように、第1の情報は、文字データである。
 絵文字変換候補記憶部140は、文字変換候補記憶部130に記憶されている変換候補である第1の情報と、絵文字変換候補である第2の情報とを対応付けて記憶する。
 図3は、図1に示した絵文字変換候補記憶部140に記憶されている第1の情報と第2の情報との一例を示す図である。
 図1に示した絵文字変換候補記憶部140には図3に示すように、第1の情報(文字)と、それに対して絵文字変換候補となる絵文字とが対応付けられて記憶されている。これは、あらかじめ記憶されているものであっても良いし、利用者が登録したものであっても良い。また、文字および絵文字変換候補が絵文字変換候補記憶部140に記憶されておらず(例えば、外部のメモリ等に記憶されている)、文字と絵文字変換候補との紐付けを示す情報のみが絵文字変換候補記憶部140に記憶されているものであっても良い。つまり、文字を検索キーとして、それに対応する絵文字変換候補が取得できるものであれば良い。
 例えば図3に示すように、文字「食事」と、1つの絵文字変換候補(スプーンとフォークの絵)とが対応付けられて記憶されている。この場合、入力部120にて入力された情報に対する変換候補の中から文字「食事」が選択されて絵文字へ変換する場合、このスプーンとフォークの絵が絵文字変換候補とされる。また、文字「車」と、3つの絵文字変換候補(自動車の絵)とが対応付けられて記憶されている。この場合、入力部120にて入力された情報に対する変換候補の中から文字「車」が選択されて絵文字へ変換する場合、この3つの自動車の絵が絵文字変換候補とされる。また、文字「ハート」と、2つの絵文字変換候補(ハートの絵)とが対応付けられて記憶されている。この場合、入力部120にて入力された情報に対する変換候補の中から文字「ハート」が選択されて絵文字へ変換する場合、この2つのハートの絵が絵文字変換候補とされる。このように、第2の情報は、絵文字データである。
 制御部150は、入力部120に入力された情報の変換候補を文字変換候補記憶部130から読み出す。また、制御部150は、文字変換候補記憶部130から読み出した変換候補を表示部110に表示させる。また、制御部150は、表示部110が表示している第1の情報の中で、選択された第1の情報と対応付けられている第2の情報を絵文字変換候補記憶部140から読み出す。ここで、表示部110が表示している第1の情報の中から1つを選択するには、例えば、カーソル移動のように利用者の入力部120への操作に応じた入力に基づいて行っても良いし、表示部110がタッチパネル機能を具備するものである場合は、表示部110への接触に基づいて行っても良い。また、制御部150は、絵文字変換候補記憶部140から読み出した第2の情報と、第1の情報に第2の情報を付加した第3の情報とを変換候補として表示部110に表示させる。
 以下に、図1に示した情報入力装置100における情報入力方法について説明する。まずは、図1に示した絵文字変換候補記憶部140に、文字と絵文字変換候補とを登録する処理について説明する。
 図4は、図1に示した絵文字変換候補記憶部140に、文字と絵文字変換候補とを登録する処理の一例を説明するためのフローチャートである。
 まず、入力部120にて入力された文字(情報)に対して表示部110に表示された変換候補が選択されたかどうかが、ステップ1にて、制御部150によって判別される。
 図5Aは、図1に示した入力部120にて「くる」が入力された場合の表示部110における表示の一例を示す図である。
 図5Aに示すように、「くる」が入力されると、図2に示したような「くる」と対応付けられて文字変換候補記憶部130に記憶されている変換候補が表示部110に表示される。利用者の操作に応じた入力が入力部120にされると、カーソルが移動して、変換候補のいずれかを選択できる。図5Aでは、「グループ」が選択されている。
 表示部110に表示された変換候補が選択されたと判別された場合、ステップ2にて、制御部150によって絵文字一覧が呼び出されたかどうかが判別される。
 図5Bは、カーソルが移動して、「車」が選択されたときの表示部110における表示の一例を示す図である。
 図5Cは、絵文字一覧が呼び出された場合の表示部110における表示の一例を示す図である。
 図5Bに示すように、表示部110に表示された変換候補のうち、「車」が選択された後、絵文字一覧が呼び出されると、図5Cに示すように表示部110に絵文字が一覧となって表示される。ここで、これらの絵文字は、情報入力装置100にあらかじめ記憶されているものであっても良いし、他のメモリに記憶されているものを呼び出してくるものであっても良いし、または情報入力装置100が通信機能を具備している場合、その通信機能を用いて、所定のサーバからダウンロードして取得してくるものであっても良い。また、絵文字を表示部110に表示させるために利用者が行う操作は、ここでは特に規定しない。
 その後、利用者の操作に応じて、図5Cに示すように表示された絵文字の中から、1つの絵文字が選択されたかどうかが、ステップ3にて、制御部150によって判別され、1つの絵文字が選択されると、ステップ4にて、選択された絵文字が登録される。この登録は、選択された絵文字が、選択された変換候補と対応付けられて絵文字変換候補記憶部140に記憶されるものである。
 図5Dは、図1に示した表示部110に表示された絵文字の中から1つが選択され、登録が完了した表示の一例を示す図である。
 図5Dに示すように、登録された絵文字と、その変換候補とが、登録が完了した旨と併せて表示部110に表示される。
 次に、絵文字を予測変換候補として表示部110に表示させるための制御部150の処理について説明する。
 図6は、絵文字を予測変換候補として、図1に示した表示部110に表示させるための制御部150の処理の一例を説明するためのフローチャートである。以下、処理を行う主体は制御部150である。
 まず、ステップ11にて、利用者のキー入力やタッチ操作で入力部120に文字(情報)の入力があるかどうかが判別される。
 文字の入力があったと判別された場合、ステップ12にて、当該文字に対して予測変換候補があるかどうかが判別される。具体的には、その文字と対応付けられている変換候補が文字変換候補記憶部130に記憶されているかどうかが判別される。
 変換候補が文字変換候補記憶部130に記憶されている場合、ステップ13にて、その予測変換候補の一覧データが作成される。
 例えば、「くる」が入力された場合、図2に示した対応付けの変換候補が予測変換候補の一覧データとなる。
 続いて、ステップ14にて、予測変換候補の一覧に含まれるそれぞれの変換候補について、絵文字変換候補が絵文字変換候補記憶部140に記憶されているかどうかが検索される。
 検索の結果、予測変換候補の一覧に含まれる変換候補について、絵文字変換候補が絵文字変換候補記憶部140に記憶されている場合、ステップ15にて、予測変換候補の一覧が更新される。具体的には、絵文字変換候補が絵文字変換候補記憶部140に記憶されている変換候補を他の変換候補(絵文字変換候補が絵文字変換候補記憶部140に記憶されていないもの)と識別できるように、当該変換候補にフラグ等の識別情報を付与した一覧に更新される。
 図7は、更新された予測変換候補の一例を示す図である。ここでは、上述した登録処理を用いて「車」の絵文字変換候補が絵文字変換候補記憶部140に記憶された場合を例に挙げて説明する。
 図7に示すように、変換候補のうち「車」と対応付けて、星印が識別情報(フラグ)として付与されている。このように、絵文字が登録されている変換候補を、絵文字が登録されていない変換候補と識別できるような一覧となる。
 そして、ステップ16にて、予測変換候補が表示部110に表示される。このとき、予測変換候補のうち、上述した識別情報(図7において星印)が付与されているものは、識別情報が付与されていないものとは異なる態様で表示される。
 図8は、ステップ16にて表示部110に表示された予測変換候補の一例を示す図である。
 ここで、図7に示した予測変換候補である場合を例に挙げると、図8に示すように、識別情報が付与された「車」が太字で表示される。なお、太字で表示されるもの以外であっても、例えば、他の予測変換候補の色とは異なる色で表示するものであっても良く、他の予測変換候補(識別情報が付与されていない)から識別できる表示であれば良い。
 一方、ステップ14にて、予測変換候補の一覧に含まれるそれぞれの変換候補について、絵文字変換候補が絵文字変換候補記憶部140に記憶されていない場合は、ステップ15の処理は行われず、ステップ16の処理が行われる。
 その後、ステップ17にて、連続文字入力があるかどうかが判別される。例えば、図8では、「くる」まで入力している途中であるため、この後に「ま」を入力する可能性がある。
 入力部120にさらなる入力が行われると、連続文字入力があったと判別され、ステップ12の処理が行われる。
 一方、連続文字入力がないと判別された場合、ステップ18にて、利用者の所定の操作で文字入力が確定されるかどうかが判別される。
 文字入力が確定された場合、ステップ11の処理が行われる。
 一方、文字入力が確定しない場合は、ステップ17の処理が行われる。
 次に、利用者が絵文字を選択し、入力確定するまでの制御部150の処理について説明する。
 図9は、利用者が絵文字を選択し、入力確定するまでの制御部150の処理の一例を説明するためのフローチャートである。以下、処理を行う主体は制御部150である。
 まず、ステップ21にて、利用者の操作に応じて、文字入力の予測変換候補が選択されたかどうかが判別される。
 図8に示した例では、予測変換候補を選択するためのカーソルが「グループ」の位置にあり、「グループ」を一時的に選択している状態である。
 その後、ステップ22にて、表示されている変換候補のうち、絵文字変換の対象となる変換候補へカーソルが移動したかどうかが判別される。
 絵文字変換の対象となる変換候補へカーソルが移動したと判別された場合、ステップ23にて、その変換候補に応じた絵文字が呼び出される。つまり、当該変換候補を検索キーとして、絵文字変換候補記憶部140の中から絵文字変換候補が読み出される。
 すると、読み出された絵文字変換候補は、ステップ24にて、表示部110に表示される。
 図10Aは、絵文字変換候補が表示された表示部110の画面の一例を示す図である。ここでは、「車」へカーソルが移動した場合を例に挙げている。また、絵文字変換候補記憶部140には、「車」と対応付けて3つの車の絵文字が記憶されている場合である。
 図10Aに示すように、「車」に応じた絵文字候補(第2の情報)のみを表示する絵文字ウィンドウと、「車」という文字(第1の情報)に「車」に応じた絵文字候補(第2の情報)を付加した第3の情報を表示する絵文字ウィンドウとの、2つの絵文字ウィンドウが表示される。なお、第3の情報は、先頭に第1の情報である「車」が表示され、それに続いて第2の情報である3つの絵文字が表示される。
 その後、ステップ25にて、カーソルが現在の位置(図10Aの場合、「車」の位置)から移動したかどうかが判別される。
 カーソルの位置が移動した場合、現在表示している絵文字ウィンドウが消去(非表示)されて、ステップ22の処理が行われる。例えば、図10Aに示した状態から、利用者が右キー等を操作すると、カーソルが「くる」へ移動し、絵文字ウィンドウが消去される。
 一方、カーソルの位置が移動しない場合、ステップ26にて、カーソルの表示位置の文字が選択されたかどうかが判別される。例えば、図10Aに示した状態で、そのまま選択キー押下等で文字が選択されるかどうかが判別される。
 カーソルの表示位置の文字が選択されない場合、ステップ27にて、表示されている2つの絵文字ウィンドウのいずれかが選択されたかどうかが判別される。これは、カーソルの位置が、表示されている2つの絵文字ウィンドウのいずれかの位置へ移動したかどうかで判別される。図10Aに示した状態で、利用者が上キー等を操作すると、「車」の文字の上側に表示されている絵文字のみの絵文字ウィンドウへカーソルが移動する。また、図10Aに示した状態で、利用者が下キー等を操作すると、「車」の文字の下側に表示されている文字と絵文字とからなる文字絵文字の絵文字ウィンドウへカーソルが移動する。
 図10Bは、「車」の文字の上側に表示されている絵文字のみの絵文字ウィンドウへカーソルが移動したときの表示部110の表示の一例を示す図である。
 図10Bに示すように、「車」の文字の上側に表示されている絵文字のみの絵文字ウィンドウの中の絵文字にカーソルが移動する。
 図10Cは、「車」の文字の下側に表示されている文字と絵文字とからなる文字絵文字の絵文字ウィンドウへカーソルが移動したときの表示部110の表示の一例を示す図である。
 図10Cに示すように、「車」の文字の下側に表示されている文字と絵文字とからなる文字絵文字の絵文字ウィンドウの中の絵文字にカーソルが移動する。
 また、表示されている2つの絵文字ウィンドウのいずれかが選択されない場合、ステップ25の処理が行われる。
 一方、表示されている2つの絵文字ウィンドウのいずれかが選択された場合は、ステップ28にて、利用者の操作でクリア(キャンセル)処理が発生したかどうかが判別される。
 クリア処理が発生した場合、絵文字ウィンドウの表示へ遷移する前の状態(図10Aに示した状態)へ戻り、ステップ25の処理が行われる。
 一方、クリア処理が発生しない場合は、ステップ29にて、表示されている絵文字が選択されたかどうかが判別される。これは、利用者の操作でカーソルが移動して、移動した位置に表示されている絵文字が選択キー等の選択で選択されたかどうかが判別されるものである。
 表示されている絵文字が選択されない場合、ステップ28の処理が行われる。
 一方、表示されている絵文字が選択された場合、ステップ30にて、その選択された絵文字が、絵文字のみの絵文字ウィンドウの中の絵文字であるか、文字と絵文字とからなる文字絵文字の絵文字ウィンドウの中の絵文字であるかが判別される。
 選択された絵文字が、絵文字のみの絵文字ウィンドウの中の絵文字である場合、ステップ31にて、選択された絵文字のみが表示部110に表示される。
 図10Dは、ステップ31にて表示部110に表示された絵文字の一例を示す図である。
 図10Dに示すように、表示部110には、車の絵文字のみが表示される。
 一方、ステップ30にて、選択された絵文字が、文字と絵文字とからなる文字絵文字の絵文字ウィンドウの中の絵文字である場合、ステップ32にて、選択された絵文字と変換候補とが文字絵文字として表示部110に表示される。
 図10Eは、ステップ32にて表示部110に表示された文字絵文字の一例を示す図である。
 図10Eに示すように、表示部110には、「車」の文字と車の絵文字との文字絵文字が表示される。
 また、ステップ26にて、カーソルの表示位置の文字が選択された場合、ステップ33にて、その文字が表示部110に表示される。
 図10Fは、ステップ33にて、表示部110に表示された文字の一例を示す図である。
 図10Fに示すように、表示部110には、「車」の文字が表示される。
 なお、第2の情報を上位階層として表示し、第3の情報をその下位階層として表示するものであっても良い。つまり、ステップ24にて、表示部110に第2の情報と第3の情報とを図10Aに示したように表示するものでなく、まずは第2の情報を表示部110に表示し、第2の情報のウィンドウが選択された場合に、第3の情報も表示するものであっても良い。また、ウィンドウの数は3つ以上であっても良い。
 以上、カーソルの移動を用いて、変換候補を選択する場合を例に挙げて説明したが、表示部110がタッチパネル機能を具備している場合、表示部110への接触に基づく処理を行うものであっても良い。この接触に基づく情報入力処理を他の例として、以下に説明する。
 まずは、図1に示した絵文字変換候補記憶部140に、文字と絵文字変換候補とを登録する処理について説明する。
 図11は、図1に示した絵文字変換候補記憶部140に、文字と絵文字変換候補とを登録する処理の他の例を説明するためのフローチャートである。
 まず、ステップ41にて、入力部120に入力された文字(情報)に対して表示部110に表示された変換候補が、接触(タッチ)されて選択されたかどうかが制御部150にて判別される。
 図12Aは、図1に示した入力部120にて「くる」が入力された場合の表示部110における表示の一例を示す図である。
 図12Aに示すように、「くる」が入力されると、図2に示したような「くる」と対応付けられて文字変換候補記憶部130に記憶されている変換候補が表示部110に表示される。利用者が所望の変換候補が表示されている位置に触れることで、変換候補のいずれかを選択できる。図12Aでは、「グループ」が選択されている。
 表示部110に表示された変換候補が選択されたと判別された場合、ステップ42にて、制御部150にて絵文字一覧が呼び出されたかどうかが判別される。
 図12Bは、「車」が表示されている位置に指が触れることで、「車」が選択されたときの表示部110における表示の一例を示す図である。
 図12Bに示すように、「車」が表示されている位置に指が触れることで、「車」が選択されると、「車」に応じた絵文字一覧が呼び出され、その絵文字が表示部110に表示される。この絵文字一覧の呼び出し、および表示については、上述した例(絵文字の表示については、図5C)と同じである。
 その後、ステップ43にて、表示部110に表示されている絵文字の中から、1つの絵文字へ接触があったかどうかが制御部150にて判別される。
 図12Cは、図1に示した表示部110に表示されている絵文字の中から、1つの絵文字へ接触があった場合の表示部110における表示の一例を示す図である。
 図12Cに示すように、表示部110に表示されている絵文字の中から、1つの絵文字へ接触があった場合、ステップ44にて、接触があった位置に表示されている絵文字は、選択されたと判別されて登録される。登録の方法については、ステップ4と同じである。
 図12Dは、選択された絵文字の登録が完了した表示の一例を示す図である。
 図12Dに示すように、登録された絵文字と、その変換候補とが、登録が完了した旨と併せて表示部110に表示される。
 次に、利用者が表示部110に表示されている絵文字に触れることで、入力確定するまでの制御部150の処理について説明する。
 図13は、利用者が表示部110に表示されている絵文字に触れることで、入力確定するまでの制御部150の処理の一例を説明するためのフローチャートである。以下、処理を行う主体は制御部150である。
 まず、ステップ51にて、利用者の操作に応じて、文字入力の予測変換候補が選択されたかどうかが判別される。
 その後、ステップ52にて、表示されている変換候補のうち、絵文字変換の対象となる変換候補が表示されている位置へ接触が行われたかどうかが判別される。
 図14Aは、表示されている変換候補のうち、「車」が表示されている位置へ接触が行われた場合の様子を示す図である。ここで、「車」は絵文字変換の対象となるものである。
 図14Aに示すように、絵文字変換の対象となる変換候補(ここでは「車」)が表示されている位置へ接触が行われたと判別された場合、その接触パターンに応じた処理が行われる。
 まず、ステップ53にて、その接触パターンがタッチ選択であるかどうかが判別される。
 接触パターンがタッチ選択ではない場合、ステップ54にて、当該接触パターンが下から上方向へのフリック(はらう)接触(第1の接触パターン)であるかどうかが判別される。
 当該接触パターンが下から上方向へのフリック接触である場合、ステップ55にて、その変換候補と対応付けられた絵文字候補が絵文字変換候補記憶部140から読み出される。そして、ステップ56にて、読み出された絵文字変換候補のみが含まれる絵文字ウィンドウが表示部110に表示される。
 図14Bは、下から上方向へのフリックがあった場合の表示部110の表示の一例を示す図である。
 図14Bに示すように、読み出された絵文字変換候補のみが含まれる絵文字ウィンドウが、「車」の文字の上に表示部110に表示される。
 一方、ステップ54にて、当該接触パターンが下から上方向へのフリック接触ではない場合、ステップ57にて、当該接触パターンが上から下方向へのフリック接触(第2の接触パターン)であるかどうかが判別される。
 当該接触パターンが上から下方向へのフリック接触である場合、ステップ58にて、その変換候補と対応付けられた絵文字候補が絵文字変換候補記憶部140から読み出される。そして、ステップ59にて、変換候補と読み出された絵文字変換候補とが含まれる絵文字ウィンドウが表示部110に表示される。
 図14Cは、上から下方向へのフリックがあった場合の表示部110の表示の一例を示す図である。
 図14Cに示すように、変換候補と読み出された絵文字変換候補とが含まれる絵文字ウィンドウが、「車」の文字の下に表示部110に表示される。
 その後、ステップ60にて、利用者の操作でクリア(キャンセル)処理が発生したかどうかが判別される。
 クリア処理が発生した場合、表示されている絵文字ウィンドウが表示部110から消去されて、ステップ52の処理が行われる。
 一方、クリア処理が発生しない場合は、ステップ61にて、表示されている絵文字がタッチ選択されたかどうか、つまり、表示されている絵文字のいずれかに接触があったかどうかが判別される。
 表示されている絵文字がタッチ選択されない場合、ステップ60の処理が行われる。
 一方、表示されている絵文字がタッチ選択された場合、ステップ62にて、そのタッチ選択された絵文字が、絵文字のみの絵文字ウィンドウの中に表示されている絵文字であるか、それとも文字と絵文字とからなる文字絵文字の絵文字ウィンドウの中に表示されている絵文字であるかが判別される。
 タッチ選択された絵文字が、絵文字のみの絵文字ウィンドウの中に表示されている絵文字である場合、ステップ63にて、タッチ選択された絵文字のみが表示部110に表示される。
 図14Dは、ステップ63にて表示部110に表示された絵文字の一例を示す図である。
 図14Dに示すように、表示部110には、車の絵文字のみが表示される。
 一方、ステップ62にて、タッチ選択された絵文字が、文字と絵文字とからなる文字絵文字の絵文字ウィンドウの中に表示されている絵文字である場合、ステップ64にて、タッチ選択された絵文字と変換候補とが文字絵文字として表示部110に表示される。
 図14Eは、ステップ64にて表示部110に表示された文字絵文字の一例を示す図である。
 図14Eに示すように、表示部110には、「車」の文字と車の絵文字との文字絵文字が表示される。
 また、ステップ53にて、接触パターンがタッチ選択である場合、ステップ65にて、タッチ選択されている位置に表示されている文字が表示部110に表示される。
 図14Fは、ステップ65にて、表示部110に表示された文字の一例を示す図である。
 図14Fに示すように、表示部110には、「車」の文字が表示される。
 なお、変換候補の表示順序は、所定の規則にしたがったものであっても良いし、選択された頻度や選択された順序に応じて並べ替えるものであっても良い。
 また、絵文字データは、顔文字や記号、デコメ用の画像データ等、他の情報も含まれる。
 以上説明したように、本発明においては、以下に記載するような効果を奏する。
 まずは、絵文字の単独入力および入力された単語とその単語に関連する絵文字とを足し合わせた文字の入力が同様の入力方法のため、使い勝手良く分かり易い。
 また、絵文字の単独入力および入力された単語とその単語に関連する絵文字とを足し合わせた文字の入力が同様の入力方法のため、利用者の操作で入力された単語とその単語に関連する絵文字とを足し合わせた文字の入力を利用する機会が増加する。
 さらに、これらの効果により、使用者が絵文字を利用する機会が増えると、電子メールを送信する際にパケットサイズが増加し、電話通信会社のARPU(Average Revenue Per User)の増加につながる。
 上述した情報入力装置100に設けられた各構成要素が行う処理は、目的に応じてそれぞれ作製された論理回路で行うようにしても良い。また、処理内容を手順として記述したコンピュータプログラム(以下、プログラムと称する)を情報入力装置100にて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムを情報入力装置100に読み込ませ、実行するものであっても良い。情報入力装置100にて読取可能な記録媒体とは、フロッピー(登録商標)ディスク、光磁気ディスク、DVD、CDなどの移設可能な記録媒体の他、情報入力装置100に内蔵されたROM、RAM等のメモリやHDD等を指す。この記録媒体に記録されたプログラムは、情報入力装置100に設けられた制御部150にて読み込まれ、制御部150の制御にて、上述したものと同様の処理が行われる。ここで、制御部150は、プログラムが記録された記録媒体から読み込まれたプログラムを実行するコンピュータとして動作するものである。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2011年4月11日に出願された日本出願特願2011-087429を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (8)

  1.  表示部と、
     情報を入力する入力部と、
     前記情報の変換候補を第1の情報として記憶する第1の記憶部と、
     前記第1の情報と第2の情報とを対応付けて記憶する第2の記憶部と、
     前記入力部に入力された情報の変換候補である前記第1の情報を前記第1の記憶部から読み出し、該読み出した第1の情報を変換候補として前記表示部に表示させ、前記表示部が表示している第1の情報が選択された場合、該選択された第1の情報と対応付けられている前記第2の情報を前記第2の記憶部から読み出し、前記第2の情報と前記第1の情報に前記第2の情報を付加した第3の情報とを変換候補として前記表示部に表示させる制御部とを有する情報入力装置。
  2.  請求項1に記載の情報入力装置において、
     前記制御部は、前記入力部への入力に基づいて、前記表示部が表示している第1の情報が選択されたかどうかを判別することを特徴とする情報入力装置。
  3.  請求項2に記載の情報入力装置において、
     前記表示部は、タッチパネル機能を具備し、
     前記制御部は、前記表示部への接触を前記入力部への入力とすることを特徴とする情報入力装置。
  4.  請求項3に記載の情報入力装置において、
     前記制御部は、前記表示部への接触が第1の接触パターンである場合、前記第2の情報を前記表示部に表示させ、前記表示部への接触が第2の接触パターンである場合、前記第3の情報を前記表示部に表示させることを特徴とする情報入力装置。
  5.  請求項1乃至4のいずれか1項に記載の情報入力装置において、
     前記制御部は、前記第2の記憶部に記憶されている前記第1の情報を、前記第2の記憶部に記憶されていない前記第1の情報の表示の態様とは異なる態様で前記表示部に表示させることを特徴とする情報入力装置。
  6.  請求項1乃至5のいずれか1項に記載の情報入力装置において、
     前記第1の情報は文字データであり、前記第2の情報は絵文字データであることを特徴とする情報入力装置。
  7.  情報を装置へ入力する処理と、
     前記入力された情報の変換候補である第1の情報を、該第1の情報を記憶している第1の記憶部から読み出す処理と、
     前記第1の記憶部から読み出した第1の情報を変換候補として表示する処理と、
     前記表示している第1の情報が選択された場合、該選択された第1の情報と対応付けられている第2の情報を、前記第1の情報と前記第2の情報とを対応付けて記憶している第2の記憶部から読み出す処理と、
     前記第2の記憶部から読み出した第2の情報と、前記第1の情報に前記第2の情報を付加した第3の情報とを変換候補として表示する処理とを行う情報入力方法。
  8.  コンピュータに、
     情報を入力する手順と、
     前記入力された情報の変換候補である第1の情報を、該第1の情報を記憶している第1の記憶部から読み出す手順と、
     前記第1の記憶部から読み出した第1の情報を変換候補として表示する手順と、
     前記表示している第1の情報が選択された場合、該選択された第1の情報と対応付けられている第2の情報を、前記第1の情報と前記第2の情報とを対応付けて記憶している第2の記憶部から読み出す手順と、
     前記第2の記憶部から読み出した第2の情報と、前記第1の情報に前記第2の情報を付加した第3の情報とを変換候補として表示する手順とを実行させるためのプログラム。
PCT/JP2012/052138 2011-04-11 2012-01-31 情報入力装置 WO2012140935A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP12770815.4A EP2698725A4 (en) 2011-04-11 2012-01-31 INFORMATION INPUT DEVICE
US14/110,912 US20140040732A1 (en) 2011-04-11 2012-01-31 Information input devices
JP2013509811A JP5862659B2 (ja) 2011-04-11 2012-01-31 情報入力装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011087429 2011-04-11
JP2011-087429 2011-04-11

Publications (1)

Publication Number Publication Date
WO2012140935A1 true WO2012140935A1 (ja) 2012-10-18

Family

ID=47009121

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/052138 WO2012140935A1 (ja) 2011-04-11 2012-01-31 情報入力装置

Country Status (4)

Country Link
US (1) US20140040732A1 (ja)
EP (1) EP2698725A4 (ja)
JP (1) JP5862659B2 (ja)
WO (1) WO2012140935A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019511771A (ja) * 2016-04-20 2019-04-25 グーグル エルエルシー グラフィカルキーボード内での図像シンボル検索
JP2021168159A (ja) * 2013-06-09 2021-10-21 アップル インコーポレイテッドApple Inc. リアルタイム手書き認識の管理
US11620046B2 (en) 2019-06-01 2023-04-04 Apple Inc. Keyboard management user interfaces
US11640237B2 (en) 2016-06-12 2023-05-02 Apple Inc. Handwriting keyboard for screens
US11816326B2 (en) 2013-06-09 2023-11-14 Apple Inc. Managing real-time handwriting recognition

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140114925A1 (en) * 2012-10-22 2014-04-24 Nariaki Miura Pictorial symbol registration apparatus and pictorial symbol registration method
KR20150007577A (ko) * 2013-07-11 2015-01-21 삼성전자주식회사 데이터 병합을 제어하는 휴대 단말 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0696056A (ja) * 1992-09-11 1994-04-08 Hitachi Ltd 文字入力装置
JP2005128883A (ja) * 2003-10-24 2005-05-19 Sony Ericsson Mobilecommunications Japan Inc 文字検索方法及び装置、並びに携帯端末装置
JP2008129687A (ja) 2006-11-17 2008-06-05 Nec Saitama Ltd 特殊文字入力支援装置及びこれを備える電子機器
JP2010026909A (ja) 2008-07-23 2010-02-04 Sharp Corp 携帯端末装置及びプログラム
JP2010079782A (ja) 2008-09-29 2010-04-08 Kyocera Corp 携帯電子機器
JP2010287961A (ja) * 2009-06-09 2010-12-24 Sharp Corp 文字情報作成装置、文字情報作成装置の制御方法、文字情報作成装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050027703A1 (en) * 2003-07-28 2005-02-03 Inventec Appliances Corp. Method of converting data containing characters into corresponding icon on a portable platform
US7574672B2 (en) * 2006-01-05 2009-08-11 Apple Inc. Text entry interface for a portable communication device
JP5181502B2 (ja) * 2007-03-14 2013-04-10 日本電気株式会社 文字処理装置、文字処理方法及びプログラム
US20080244446A1 (en) * 2007-03-29 2008-10-02 Lefevre John Disambiguation of icons and other media in text-based applications
US20100121870A1 (en) * 2008-07-03 2010-05-13 Erland Unruh Methods and systems for processing complex language text, such as japanese text, on a mobile device
US20120146955A1 (en) * 2010-12-10 2012-06-14 Research In Motion Limited Systems and methods for input into a portable electronic device
JP5674140B2 (ja) * 2011-02-28 2015-02-25 Necカシオモバイルコミュニケーションズ株式会社 テキスト入力装置、テキスト入力受付方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0696056A (ja) * 1992-09-11 1994-04-08 Hitachi Ltd 文字入力装置
JP2005128883A (ja) * 2003-10-24 2005-05-19 Sony Ericsson Mobilecommunications Japan Inc 文字検索方法及び装置、並びに携帯端末装置
JP2008129687A (ja) 2006-11-17 2008-06-05 Nec Saitama Ltd 特殊文字入力支援装置及びこれを備える電子機器
JP2010026909A (ja) 2008-07-23 2010-02-04 Sharp Corp 携帯端末装置及びプログラム
JP2010079782A (ja) 2008-09-29 2010-04-08 Kyocera Corp 携帯電子機器
JP2010287961A (ja) * 2009-06-09 2010-12-24 Sharp Corp 文字情報作成装置、文字情報作成装置の制御方法、文字情報作成装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2698725A4

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021168159A (ja) * 2013-06-09 2021-10-21 アップル インコーポレイテッドApple Inc. リアルタイム手書き認識の管理
JP7011747B2 (ja) 2013-06-09 2022-01-27 アップル インコーポレイテッド リアルタイム手書き認識の管理
JP2022062064A (ja) * 2013-06-09 2022-04-19 アップル インコーポレイテッド リアルタイム手書き認識の管理
JP7078808B2 (ja) 2013-06-09 2022-05-31 アップル インコーポレイテッド リアルタイム手書き認識の管理
US11816326B2 (en) 2013-06-09 2023-11-14 Apple Inc. Managing real-time handwriting recognition
JP2019511771A (ja) * 2016-04-20 2019-04-25 グーグル エルエルシー グラフィカルキーボード内での図像シンボル検索
US11640237B2 (en) 2016-06-12 2023-05-02 Apple Inc. Handwriting keyboard for screens
US11941243B2 (en) 2016-06-12 2024-03-26 Apple Inc. Handwriting keyboard for screens
US11620046B2 (en) 2019-06-01 2023-04-04 Apple Inc. Keyboard management user interfaces
US11842044B2 (en) 2019-06-01 2023-12-12 Apple Inc. Keyboard management user interfaces

Also Published As

Publication number Publication date
JP5862659B2 (ja) 2016-02-16
EP2698725A1 (en) 2014-02-19
JPWO2012140935A1 (ja) 2014-07-28
US20140040732A1 (en) 2014-02-06
EP2698725A4 (en) 2014-12-24

Similar Documents

Publication Publication Date Title
JP5862659B2 (ja) 情報入力装置
AU2019202554B2 (en) Context-aware field value suggestions
US10140017B2 (en) Graphical keyboard application with integrated search
CN205038557U (zh) 电子设备
KR101668398B1 (ko) 터치 스크린과의 사용자 상호작용을 입력 커맨드로 번역
US9417788B2 (en) Method and apparatus for providing user interface
TWI241511B (en) Alphanumeric keyboard input system using a game controller
US9477392B2 (en) Presentation of tabular information
EP3479213A1 (en) Image search query predictions by a keyboard
US9965530B2 (en) Graphical keyboard with integrated search features
KR101633842B1 (ko) 연속적인 제스쳐 입력을 위한 복수의 그래픽 키보드들
WO2010099835A1 (en) Improved text input
US9199155B2 (en) Morpheme-level predictive graphical keyboard
KR20160060110A (ko) 온스크린 키보드에 대한 빠른 작업
US20140164981A1 (en) Text entry
US20190121514A1 (en) Method and apparatus for providing user interface of portable device
CN107678658A (zh) 用于终端设备的信息输入方法和装置
KR20180035874A (ko) 프롬프트 메시지 디스플레이를 위한 방법 및 시스템
JP5938897B2 (ja) 情報表示装置、情報表示プログラム及び情報表示方法
US11086410B2 (en) Apparatus for text entry and associated methods
JP2012181593A (ja) テキスト入力装置、テキスト入力受付方法及びプログラム
KR101269883B1 (ko) 단어 학습 방법 및 그 장치
KR101103659B1 (ko) 터치스크린 디바이스의 터치스크린 인터페이스 제공방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12770815

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013509811

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14110912

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE