WO2013146938A1 - 入力支援プログラム及び入力支援装置 - Google Patents

入力支援プログラム及び入力支援装置 Download PDF

Info

Publication number
WO2013146938A1
WO2013146938A1 PCT/JP2013/059121 JP2013059121W WO2013146938A1 WO 2013146938 A1 WO2013146938 A1 WO 2013146938A1 JP 2013059121 W JP2013059121 W JP 2013059121W WO 2013146938 A1 WO2013146938 A1 WO 2013146938A1
Authority
WO
WIPO (PCT)
Prior art keywords
key
input
unit
character
word
Prior art date
Application number
PCT/JP2013/059121
Other languages
English (en)
French (fr)
Inventor
敦 友枝
文彦 川島
Original Assignee
みずほ情報総研 株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by みずほ情報総研 株式会社 filed Critical みずほ情報総研 株式会社
Publication of WO2013146938A1 publication Critical patent/WO2013146938A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes

Definitions

  • the present invention relates to an input support program and an input support apparatus for supporting key input in a computer terminal.
  • JP 2011-150489 A (first page, FIG. 1)
  • the input tendency such as the touch position of the user may be different for each user and depending on the input situation and the use environment.
  • the shape of the displayed software keyboard is always the same, an increase in erroneous input and a decrease in operability may occur.
  • An object of the present invention is to provide an input support program and an input support apparatus for realizing efficient key input according to a user.
  • a program for supporting key input in a computer terminal includes a display unit (display unit), an input unit (input unit), a key arrangement storage unit (key arrangement storage unit) that stores recognition coordinate information of each key constituting the software keyboard, and the input unit
  • the control part control means which outputs the information input in said to a said display part is provided.
  • the program is stored in a non-transitory computer readable recording medium.
  • the program specifies, when executed in the computer terminal, the control unit, an output unit (output means) for outputting the software keyboard to the display unit, an original key to be selected on the software keyboard, and the original key
  • the identification unit identification means for identifying the actual touch position touched with respect to the touch position and the recognition coordinate information recorded in the key arrangement storage unit, and according to the result of the comparison, And a command to function as an updating unit (updating unit) that updates the recognition coordinate information of the original key recorded in the key arrangement storage unit.
  • the key arrangement storage unit stores the key recognition coordinate information in association with the key input status information.
  • the program corresponds to the key input acquisition unit (key input acquisition unit) for acquiring the key input status information together with the touch position, and the acquired input status information when executed on the computer terminal.
  • the computer terminal further includes an example sentence storage unit (example sentence storage means) in which an example sentence used for specifying key recognition coordinate information is stored.
  • the program causes the control unit to further function as an input prompt unit (input prompt unit) that displays the example sentence stored in the example sentence storage unit and prompts key input for the example sentence when executed on the computer terminal.
  • the specifying unit specifies a key corresponding to a character constituting the example sentence as an original key.
  • the specifying unit when the specified unit detects a corrected character, specifies the key corresponding to the corrected character as the original key, and the touch position touched when the uncorrected character is input. Is identified as the actual touch.
  • the specifying unit predicts a word according to an input character, and originally specifies a key corresponding to a character constituting the predicted word as a key.
  • the computer terminal may further include a dictionary storage unit (dictionary storage means) that stores input word candidates.
  • the specifying unit may collate an input character string with a character string of a word registered in the dictionary, and perform prediction of the word based on a result of the collation.
  • the computer terminal includes a character trajectory pattern storage unit (character trajectory pattern storage unit) that stores a dictionary in which a character trajectory pattern at the time of input is registered for an input word according to a key arrangement of characters constituting the word. Further, it may be provided.
  • the specifying unit may collate the acquired input locus pattern of the touch position with the character locus pattern recorded in the character locus pattern storage unit, and perform prediction of the word based on the result of the matching.
  • the computer terminal may further include a reference word storage unit (reference word storage means) that stores a reference word.
  • a reference word storage unit reference word storage means
  • the program is further configured as a grammar rule determination unit (grammar rule determination unit) that, when executed on the computer terminal, predicts a part of speech of an input word based on a grammar rule at the time of writing a sentence. Includes instructions to make it work.
  • the specifying unit acquires part-of-speech information of the input word from the grammar rule determining unit according to a character input situation, and specifies the word using the part-of-speech information.
  • the key arrangement storage unit stores recognition coordinate information of each key in association with a user identifier.
  • the control unit specifies a user identifier of the user, and records the recognized coordinate information of each key in the key arrangement storage unit in association with the user identifier.
  • a command for further functioning as a section (recording means) is included.
  • the program when executed on the computer terminal, acquires the control unit, a second information acquisition unit (second information acquisition unit) that specifies recognition coordinate information of a user's key to be used, and A caution mode processing unit (attention mode processing) that calculates a deviation amount between the touch position and the recognized coordinate information and executes a caution mode process when the deviation amount exceeds a determination reference value for determining the same user. And a command for further functioning as means.
  • a second information acquisition unit that specifies recognition coordinate information of a user's key to be used
  • a caution mode processing unit (attention mode processing) that calculates a deviation amount between the touch position and the recognized coordinate information and executes a caution mode process when the deviation amount exceeds a determination reference value for determining the same user.
  • a command for further functioning as means when executed on the computer terminal, acquires the control unit, a second information acquisition unit (second information acquisition unit) that specifies recognition coordinate information of a user's key to be used, and A caution mode processing unit (attention mode processing) that calculates a deviation
  • a display unit In another aspect of the present invention, a display unit, an input unit, a key arrangement storage unit that stores recognition coordinate information of each key constituting the software keyboard, and information input in the input unit is output to the display unit
  • An input support apparatus including a control unit is provided.
  • the control unit specifies an output unit that outputs the software keyboard to the display unit, an original key to be selected on the software keyboard, and an actual touch position touched with respect to the original key
  • an update unit that updates the recognition coordinate information of the original key recorded in the key arrangement storage unit according to a result of comparing the touch position with the recognition coordinate information recorded in the key arrangement storage unit.
  • the control unit outputs the software keyboard to the display unit.
  • the control unit specifies an original key to be selected on the software keyboard, and specifies an actual touch position touched on the original key.
  • the control unit updates the recognition coordinate information of the original key recorded in the key arrangement storage unit according to the result of comparing the touch position with the recognition coordinate information recorded in the key arrangement storage unit.
  • the key recognition coordinate information the coordinates (coordinate group) for specifying the center position of the key area, the shape of the key area, the key range, and the like can be used.
  • control unit acquires key input status information together with the touch position.
  • a control part specifies the recognition coordinate information of the key corresponding to the acquired input condition information in a key arrangement
  • the key recognition area can be set in consideration of the tendency of the key input according to the input situation.
  • the key recognition area is changed and the same position is touched, different key inputs according to the input situation can be realized.
  • control unit displays an example sentence stored in the example sentence storage unit, and prompts key input for the example sentence.
  • a control part specifies the key corresponding to the character which comprises an example sentence as an original key.
  • control unit when the control unit detects a corrected character, the control unit identifies the key corresponding to the corrected character as the original key, and determines the touch position touched when the uncorrected character is input. Specify as an actual touch. Accordingly, it is possible to identify a tendency of key input in a user's erroneous input for each correction based on the touch position of the character before correction, and set a key recognition area in consideration of this tendency.
  • control unit predicts a word according to an input character, and specifies a key corresponding to the character constituting the predicted word as the original key. Thereby, when the predicted character is different from the input character, it is possible to identify an erroneous input by the user based on the actual touch position and the predicted word. It is possible to identify a key input tendency in the case of a user's erroneous input and set a key recognition area in consideration of this tendency.
  • control unit predicts a word based on a result of matching between the input character string and the word character string registered in the dictionary. As a result, it is possible to identify the key of the character that the user intends to input from the words registered in the dictionary and set the key recognition area in consideration of the tendency of the key input.
  • control unit predicts the word based on a result of matching between the acquired input locus pattern of the touch position and the character locus pattern recorded in the character locus pattern storage unit. As a result, it is possible to identify the key of the character that the user intends to input from the character trajectory pattern and set the key recognition area in consideration of the tendency of the key input.
  • each time the control unit detects that the reference word stored in the reference word storage unit is input the key of each character constituting the reference word is identified as the original key.
  • the key recognition coordinate information can be updated to identify the user's key input tendency, and the key recognition area can be set in consideration of this tendency.
  • control unit predicts the part of speech of the input word according to the grammatical rules at the time of sentence creation.
  • the control unit acquires part-of-speech information of the word input from the grammar rule determination unit according to the character input situation, and specifies the word using the part-of-speech information.
  • a word can be narrowed down by the part of speech of an input word using a grammar rule. Therefore, the original word can be specified more accurately by this narrowing down.
  • control unit specifies a user identifier of the user, and records the recognition coordinate information of each key in the key arrangement storage unit in association with the user identifier.
  • the key recognition coordinate information can be stored according to each user, the key recognition area can be set in consideration of the input tendency for each user.
  • the control unit specifies recognition coordinate information of a user's key to be used, calculates a deviation amount between the acquired touch position and the recognition coordinate information, and determines a user having the same deviation amount.
  • the determination reference value is exceeded, the attention mode process is executed. Since the recognized coordinate information reflects the input tendency of the user, when the difference from the recognized coordinate information is large, it can be determined that the recognized coordinate information is used by others. In this case, attention mode processing different from the normal usage mode is executed. Thereby, for example, the update of the recognition coordinate information can be stopped, the use can be restricted, and the alert can be issued.
  • Explanatory drawing of the functional block of the input assistance apparatus of 1st Embodiment Explanatory drawing of the process sequence of the arrangement
  • the tablet terminal 20 is a computer terminal used by a user. Various applications can be executed on the tablet terminal 20. Information is output or input to the tablet terminal 20 via these applications.
  • the tablet terminal 20 includes a controller 21, a dictionary storage unit 22, a key arrangement storage unit 23, an example sentence storage unit 24, and a touch panel display 30.
  • the touch panel display 30 functions as a display unit and an input unit. Specifically, the touch panel display 30 outputs information on the panel, that is, displays information, detects an operation (tap) of the user tapping the surface of the panel, and performs various operations based on the display content of the tapped screen position. It can operate to execute processing corresponding to (pointing, key input, etc.).
  • a software keyboard 500 is displayed on the touch panel display 30.
  • the software keyboard 500 includes keys for executing processing corresponding to operations such as character input, deletion, and cursor movement.
  • the controller 21 includes control means (CPU, RAM, ROM, etc.), and performs processing described later (display control stage, touch control stage, application execution stage, keyboard control stage, key arrangement learning stage, etc.).
  • the controller 21 functions as a display control unit (display control unit) 211, a touch control unit (touch control unit) 212, an application execution unit (application execution unit) 213, and a keyboard control unit (keyboard control unit) 214, and supports input. By executing the program, it functions as a key arrangement learning unit (key arrangement learning means) 215.
  • the display control unit 211 executes processing for controlling display on the touch panel display 30.
  • the touch control unit 212 executes processing for detecting a tap on the touch panel display 30.
  • the touch control unit 212 specifies the tap position.
  • the tap position is represented by coordinates corresponding to the position on the screen actually touched by the tap.
  • the application execution unit 213 manages the activation and execution of applications (for example, sentence creation, spreadsheet, browser, etc.) stored in the tablet terminal 20.
  • applications for example, sentence creation, spreadsheet, browser, etc.
  • a key input screen that is a key input target is output to the touch panel display 30, that is, data for displaying the key input screen that is a key input target on the touch panel display 30 is Output to the touch panel display 30.
  • the keyboard control unit 214 executes processing for outputting the software keyboard 500 to the touch panel display 30. For this reason, the keyboard control unit 214 stores key display data including key arrangement information.
  • This key display data is data for displaying on the touch panel display 30 the keys arranged in accordance with a predetermined keyboard layout. In this embodiment, each key of this display data is displayed corresponding to the general recognition area.
  • the general recognition area is a default key arrangement area (coordinate information of an area for recognizing each key) stored in advance in the key arrangement storage unit 23 on the display screen.
  • the keyboard control unit 214 specifies the input key based on the tap position. In the present embodiment, the keyboard control unit 214 specifies the selected key based on the relative coordinates on the software keyboard 500. Further, the keyboard control unit 214 includes an input memory. In this input memory, contents (operations and characters) input using the software keyboard 500 are temporarily stored.
  • the key arrangement learning unit 215 functions as a specifying unit and an updating unit, and executes a process of learning each key area (individual recognition area) constituting the software keyboard 500 according to a user input. This individual recognition area is an arrangement area of each key specified according to the user.
  • the key arrangement learning unit 215 acquires the tap position from the touch control unit 212. Furthermore, the key arrangement learning unit 215 performs a time period (tap time period) when touch input is performed, the number of times tapped within a predetermined time period (tap speed), and a period during which keyboard input is performed (input).
  • the key arrangement learning unit 215 acquires key arrangement information on the software keyboard 500 from the keyboard control unit 214.
  • the key arrangement learning unit 215 includes a tap information memory. This tap information memory temporarily stores the tap position in association with the input status.
  • the key arrangement learning unit 215 stores data related to the correction target reference range.
  • This correction target reference range is a reference range for determining whether or not the key position needs to be corrected. For example, a display range of one key, that is, a size expanded with a width about half the size of the key. Set it.
  • the key arrangement learning unit 215 uses this tap position for updating the individual recognition area only when the tap position is within the correction target reference range with respect to the general recognition area.
  • the controller 21 functions as user authentication means (user authentication unit) for authenticating the user. Therefore, the controller 21 stores user information for authenticating the user of the tablet terminal 20, such as a user identifier (ID) and a password.
  • ID user identifier
  • the controller 21 includes a delimiter storage unit that stores delimiters.
  • this delimiter storage unit for example, data related to delimiters such as spaces, commas, and periods is stored.
  • the dictionary storage unit 22 functions as dictionary storage means.
  • the dictionary storage unit 22 stores dictionary data that spells commonly used words (headwords).
  • the key arrangement storage unit 23 functions as key arrangement storage means.
  • the key arrangement storage unit 23 stores a recognition area for each key.
  • a general recognition area and an individual recognition area are stored.
  • the individual recognition area is a recognition area associated with the user ID according to the user. This individual recognition area is further associated with the input status.
  • This individual recognition area is specified and recorded by the arrangement setting process according to the tap position.
  • an example sentence is input as initial learning, and is recorded by an arrangement setting process performed based on the tap position acquired here.
  • the example sentence storage unit 24 functions as example sentence storage means.
  • the example sentence storage unit 24 stores data relating to example sentences used for specifying the individual recognition area.
  • a sequence of arbitrary characters, a sequence of a plurality of words, a sentence composed of a plurality of words, or the like can be used.
  • the controller 21 first executes a user specifying process. Specifically, the controller 21 outputs a user authentication screen to the touch panel display 30. This user authentication screen is provided with an input field for inputting a user ID and a password.
  • the controller 21 collates with the stored user ID and password.
  • the controller 21 causes the display control unit 211 to display an application selection screen on the touch panel display 30. On this application selection screen, icons of various applications that can be activated are displayed. By selecting each icon, the corresponding application can be activated.
  • the user selects an icon of the initial learning application on the selection screen of the touch panel display 30.
  • the controller 21 of the tablet terminal 20 performs the starting process of the initial learning application.
  • the application execution unit 213 of the controller 21 outputs the software keyboard 500 and the initial arrangement setting screen (key input screen) to the touch panel display 30.
  • the application execution unit 213 of the controller 21 displays an initial arrangement setting screen on the touch panel display 30 via the display control unit 211.
  • the application execution unit 213 instructs the keyboard control unit 214 to display the software keyboard 500.
  • the keyboard control unit 214 displays the stored key display data on the touch panel display 30 via the display control unit 211.
  • the initial arrangement setting screen includes an input content display area and an example sentence display area.
  • characters and the like input using the software keyboard 500 are displayed.
  • example sentence display area headwords (character strings) extracted from the example sentence storage unit 24 are displayed.
  • the controller 21 of the tablet terminal 20 executes a character input tap process of an example sentence (step S1-1). Specifically, the application execution unit 213 of the controller 21 extracts one example sentence stored in the example sentence storage unit 24. The application execution unit 213 displays the extracted example sentence in the example sentence display area of the initial arrangement setting screen via the display control unit 211.
  • the user inputs the characters of the example sentence displayed in the example sentence display area by tapping the keys of the software keyboard 500.
  • the touch control unit 212 of the controller 21 detects a tap on the software keyboard 500
  • the touch position is supplied to the keyboard control unit 214 and the key arrangement learning unit 215.
  • the key arrangement learning unit 215 specifies the tap time zone based on the system timer and calculates the tap speed. Furthermore, the key arrangement learning unit 215 calculates the elapsed time from the start of example sentence input.
  • the keyboard control unit 214 compares the tap position with the general recognition area, identifies the character corresponding to the selected key based on the comparison result, and temporarily stores it in the input memory.
  • the keyboard control unit 214 displays the temporarily stored characters in the input content display area of the initial arrangement setting screen via the display control unit 211. Further, the keyboard control unit 214 supplies the temporarily stored characters to the key arrangement learning unit 215.
  • step S1-2 the controller 21 of the tablet terminal 20 executes a tap position and input status recording process (step S1-2). Specifically, the key arrangement learning unit 215 of the controller 21 stores the acquired input state in the tap information memory in association with the acquired tap position and character.
  • the application execution unit 213 of the controller 21 executes the processes of steps S1-1 and S1-2 described above for all example sentences stored in the example sentence storage unit 24. When the processing for all the example sentences is completed, the application execution unit 213 closes the software keyboard 500 and the initial arrangement setting screen.
  • the controller 21 of the tablet terminal 20 compares the tap position with the original key position (step S1-3). Specifically, the key arrangement learning unit 215 of the controller 21 acquires the tap position from the tap information memory and also acquires the general recognition area of the key of the example sentence character from the key arrangement storage unit 23. The key arrangement learning unit 215 compares the general recognition area of each key with the tap position.
  • step S1-4 the controller 21 of the tablet terminal 20 executes a determination process as to whether or not the tap position is accurate. Specifically, when the tap position is included in the general recognition area, the tap position is determined to be accurate. In this case (in the case of “YES” in step S1-4), the controller 21 of the tablet terminal 20 ends the arrangement setting process by the initial learning.
  • the controller 21 of the tablet terminal 20 associates with the input status.
  • the original key position correction process is executed (step S1-5).
  • the key arrangement learning unit 215 of the controller 21 specifies an individual recognition area for the example sentence character key based on the tap position. For example, an area including the tap position with respect to the general recognition area is specified as an individual recognition area.
  • the key arrangement learning unit 215 does not perform the key position correction process using this input.
  • the key arrangement learning unit 215 stores this individual recognition area in the key arrangement storage unit 23 in association with the user ID and the input status.
  • the controller 21 of the tablet terminal 20 uses the recognition area stored in the key arrangement storage unit 23. Specifically, the touch control unit 212 supplies the tap position to the keyboard control unit 214.
  • the keyboard control unit 214 specifies the input situation (preceding character, character speed, etc.) at this time, and specifies the input key using the individual recognition area corresponding to this input situation. In addition, when the individual recognition area corresponding to the input state at this time is not recorded, the keyboard control unit 214 specifies the input key using the general recognition area.
  • the keyboard control unit 214 supplies input characters based on the identified key to the application execution unit 213.
  • the application execution unit 213 displays the acquired input characters on the touch panel display 30 via the display control unit 211.
  • the controller 21 of the tablet terminal 20 when the controller 21 of the tablet terminal 20 detects a tap, the controller 21 of the tablet terminal 20 uses an individual recognition area corresponding to the input situation at this time, or there is no individual recognition area corresponding to this input situation.
  • the input key is specified using the general recognition area.
  • the key selected by the user can be identified using the key recognition range according to the input status, and thus efficient key input can be performed according to the user.
  • the key specified according to an input condition will differ, and a key can be specified in consideration of an input condition.
  • the controller 21 of the tablet terminal 20 executes the tap processing for character input of the example sentence, and executes the tap position and input status recording processing (steps S1-1 and S1-2).
  • the controller 21 of the tablet terminal 20 determines that the tap position is not accurate (in the case of “NO” in step S1-4)
  • the controller 21 executes the original key position correction process in association with the input situation (step S1). -5).
  • the character of the example sentence can be specified as the original key, and the recognition range of the key can be set by using the actual tap position for the key.
  • the arrangement setting is performed by initial learning.
  • the arrangement setting is performed using the correction of the user.
  • the key recognition area is adjusted.
  • the same parts as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the controller 21 when the tablet terminal 20 is used, the controller 21 temporarily stores the collated user ID by executing the user specifying process.
  • the controller 21 of the tablet terminal 20 executes activation processing of the instructed application.
  • an application for inputting characters for example, a document creation application
  • the application execution unit 213 of the controller 21 outputs a display screen (key input screen) to the touch panel display 30.
  • the keyboard control unit 214 of the controller 21 displays the software keyboard 500 on the touch panel display 30 via the display control unit 211.
  • the controller 21 of the tablet terminal 20 executes a character input tap process (step S2-1). Specifically, the user inputs characters using the keys of the software keyboard 500 on the display screen.
  • the touch control unit 212 of the controller 21 detects a tap on the software keyboard 500
  • the touch control unit 212 supplies the tap position to the keyboard control unit 214 and the key arrangement learning unit 215.
  • the key arrangement learning unit 215 specifies the tap speed according to the tap time period, the character input immediately before this key input (preceding character), or the number of taps within a predetermined time as the input status.
  • the keyboard control unit 214 identifies a recognition area according to the input situation, and identifies the character of the key selected by the user from the recognition area and the tap coordinates.
  • the keyboard control unit 214 supplies the specified key character to the application execution unit 213 and the key arrangement learning unit 215.
  • the application execution unit 213 specifies the display position of the specified character and supplies it to the display control unit 211 and the key arrangement learning unit 215.
  • the display control unit 211 displays the specified character at the display position on the touch panel display 30 in accordance with an instruction from the application execution unit 213.
  • the key arrangement learning unit 215 receives a character (deleted character) deleted after input from the application execution unit 213, a character inserted instead of the deleted character (corrected character), and a character by this deletion and insertion. Get the replaced position.
  • the controller 21 of the tablet terminal 20 executes the recording process of the input status and the tap position (coordinates) (step S2-2). Specifically, the key layout learning unit 215 of the controller 21 stores the tap position and input status (touch speed, preceding character, etc.) in the tap information memory in association with the input character and display position.
  • step S2-3) the controller 21 of the tablet terminal 20 executes a determination process as to whether or not there has been a correction. Specifically, the key layout learning unit 215 of the controller 21 determines that there is a correction when the deleted character is replaced with a corrected character. Note that the key arrangement learning unit 215 determines that no correction has been made when no character has been deleted or when it has been determined that no corrected character has been input. In this case (in the case of “NO” in step S2-3), the controller 21 of the tablet terminal 20 repeats the processing after step S2-1.
  • step S2-3 the controller 21 of the tablet terminal 20 executes a process for specifying the corrected character (step S2-4). Specifically, the key layout learning unit 215 of the controller 21 specifies a newly input corrected character instead of the deleted character.
  • the controller 21 of the tablet terminal 20 executes a key area setting process corresponding to the tap position (step S2-5). Specifically, first, the key arrangement learning unit 215 of the controller 21 determines whether or not the deleted character key and the corrected character key are adjacent to each other using the key arrangement information. When the key of the deleted character and the key of the corrected character are adjacent to each other, the key arrangement learning unit 215 determines that the tap position of the key used for the deleted character is in the recognition area of the key used for the corrected character. Change the individual recognition area of the key so that it is included. In this case, the size of the individual recognition area is changed so that the identified tap position is included in the individual recognition area with respect to the stored individual recognition area.
  • the key arrangement learning unit 215 stores the changed key individual recognition area in the key arrangement storage unit 23. In this case, the key arrangement learning unit 215 records the changed key individual recognition area in association with the input status and user ID associated with the deleted character. If the deleted character key and the corrected character key are not adjacent to each other, the key position correction processing is not performed.
  • Step S2-3 when the input character is corrected (in the case of “YES” in step S2-3), the controller 21 of the tablet terminal 20 executes the key area setting process corresponding to the tap position. (Step S2-5).
  • the controller 21 recognizes the individual keys after the correction character has been tapped. Change to include in region.
  • the key can be originally specified by the character corrected by the user, so the key recognition range is set by specifying the relationship between the key and the tap position and taking into account the tendency of erroneous input by the user. can do.
  • the controller 21 of the tablet terminal 20 temporarily stores the collated user ID, then executes an application activation process, and displays a display screen including the software keyboard 500 on the touch panel. Output to the display 30.
  • the controller 21 of the tablet terminal 20 executes a character input tap process (step S3-1). Specifically, the touch control unit 212 of the controller 21 supplies the tap coordinates to the keyboard control unit 214 and the key arrangement learning unit 215 when a tap is detected on the software keyboard 500 as in step S2-1. . Also, the keyboard control unit 214 specifies a character corresponding to the selected key, temporarily stores it in the input memory, and supplies this character to the key arrangement learning unit 215. The key arrangement learning unit 215 performs a tap time zone, identification of a preceding character, and calculation of a touch speed.
  • the controller 21 of the tablet terminal 20 executes a recording process of the input status and the tap position (coordinates) (step S3-2). Specifically, the key arrangement learning unit 215 of the controller 21 stores the tap position, the input status, and the display position in the tap information memory in association with the input character as in step S2-2.
  • Steps S3-1 and S3-2 are repeated until a delimiter is input.
  • the controller 21 of the tablet terminal 20 performs a character string prediction process using the word dictionary (step S3-3). Specifically, the key layout learning unit 215 of the controller 21 searches the dictionary storage unit 22 for a headword consisting of characters common to a series of input character groups input from the start of input to the delimiter character. In this case, for example, even a single character difference is searched as a headword consisting of common characters. The key arrangement learning unit 215 predicts the original character string based on the extracted headword.
  • step S3-4 the controller 21 of the tablet terminal 20 executes a determination process as to whether or not there is an erroneous input. Specifically, the key layout learning unit 215 of the controller 21 determines that there is no erroneous input when a headword that matches the input character group is extracted. Further, it is determined that there is no erroneous input even when a headword common to the input character group cannot be extracted. Further, even if the mismatched characters in the headword and the input character group are not adjacent in the key layout on the software keyboard 500, it is determined that there is no erroneous input. In these cases (in the case of “NO” in step S3-4), the processing after step S3-1 is executed.
  • step S3-4 the controller 21 of the tablet terminal 20 executes a correct character specifying process (step S3-5). Specifically, the key layout learning unit 215 of the controller 21 specifies a mismatched character in the entry word as a correct character.
  • the controller 21 of the tablet terminal 20 executes a key area setting process corresponding to the tap position (step S3-6). Specifically, the key layout learning unit 215 of the controller 21 acquires the tap position and input status of the input character from the tap information memory. The key layout learning unit 215 changes the individual recognition area of the key identified as the correct character so as to include the tap position of the input character, and stores the changed key recognition storage unit 23. In this case, the key arrangement learning unit 215 records the input state of the input character and the user ID in association with each other in the individual recognition area of this key.
  • the key arrangement of the mismatched characters in the headword and the input character group are adjacent to each other, and when it is determined that the input is incorrect (in the case of “YES” in step S3-4), the tablet terminal
  • the controller 20 of 20 executes correct character identification processing (step S3-5) and key area setting processing (step S3-6) corresponding to the tap position.
  • the controller 21 includes a character trajectory pattern dictionary storage unit as character trajectory pattern storage means.
  • the character trajectory pattern dictionary storage unit stores a character trajectory pattern dictionary composed of character trajectory patterns of headwords. This character trajectory pattern is an input trajectory on the key layout when inputting a character string constituting each reference word.
  • the character trajectory pattern includes data related to information for specifying a relative arrangement on the software keyboard 500.
  • the relative arrangement information for example, on the software keyboard 500, the coordinates of the first tap position of the locus, a predetermined range from these coordinates, and the like are used. With this relative arrangement, the original word can be specified even when there are a plurality of words whose shape of the character locus pattern is approximate.
  • the controller 21 stores a pattern determination allowable range (relative coordinate amount) for determining that the character trajectory pattern matches the input trajectory pattern.
  • This allowable range for pattern determination includes the degree of approximation of the pattern position and the degree of approximation of the locus pattern shape.
  • the controller 21 of the tablet terminal 20 executes a process for specifying characters that constitute a word (step S4-1). Specifically, the key arrangement learning unit 215 of the controller 21 specifies each character (component character) constituting the headword recorded in the dictionary storage unit 22.
  • the controller 21 of the tablet terminal 20 executes a process for specifying the layout of the constituent characters on the keyboard (step S4-2). Specifically, the key arrangement learning unit 215 of the controller 21 specifies the position of the key corresponding to each specified character using the general recognition area stored in the key arrangement storage unit 23.
  • the controller 21 of the tablet terminal 20 executes a character locus pattern specifying process according to the order of the constituent characters (step S4-3). Specifically, the key layout learning unit 215 of the controller 21 specifies the character trajectory pattern by connecting the center positions of the general recognition areas of the specified characters in the order of the characters constituting the word.
  • step S4-4 the controller 21 of the tablet terminal 20 executes a character locus pattern registration process. Specifically, the key arrangement learning unit 215 of the controller 21 stores the identified character locus pattern in the character locus pattern dictionary storage unit in association with the headword.
  • the controller 21 of the tablet terminal 20 temporarily stores the collated user ID, then executes an application activation process, and displays a display screen including the software keyboard 500 on the touch panel. Output to the display 30.
  • the controller 21 of the tablet terminal 20 executes a character input tap process (step S5-1).
  • step S2-1 the controller 21 specifies the tap position, the character of the key selected by the user, and the display position of the character when a tap is detected.
  • step S2-1 the controller 21 specifies the tap position, the character of the key selected by the user, and the display position of the character when a tap is detected.
  • step S2-1 the controller 21 specifies the tap position, the character of the key selected by the user, and the display position of the character when a tap is detected.
  • step S2 displays the specified character at the display position on the touch panel display 30.
  • the key arrangement learning unit 215 of the controller 21 calculates the tap time zone, the preceding character, and the touch speed.
  • the controller 21 of the tablet terminal 20 executes the recording process of the input status and the tap position (coordinates) (step S5-2). Specifically, the key arrangement learning unit 215 of the controller 21 stores the tap position, the input status, and the display position in the tap information memory in association with the input character as in step S2-2.
  • step S5-3 the controller 21 of the tablet terminal 20 executes a determination process as to whether or not it is a delimiter input (step S5-3). Specifically, the key layout learning unit 215 of the controller 21 compares the input character with a delimiter character. As a result of the comparison, when the input character is not a delimiter (“NO” in step S5-3), the key arrangement learning unit 215 repeats the processing from step S5-1.
  • step S5-3 when a delimiter is input (in the case of “YES” in step S5-3), the controller 21 of the tablet terminal 20 executes an input locus specifying process at the time of keyboard input (step S5-4). Specifically, the key arrangement learning unit 215 of the controller 21 specifies the previous delimiter character from the tap position and the display position, and specifies the tap position of each character from the previous delimiter character to the current delimiter character. By connecting the tap positions in the tap order, the input locus at the time of keyboard input is specified.
  • the controller 21 of the tablet terminal 20 executes a pattern matching process (step S5-5). Specifically, the key arrangement learning unit 215 of the controller 21 searches the character locus pattern dictionary storage unit for a character locus pattern that matches the specified input locus. In this case, the key arrangement learning unit 215 determines that they match when the deviation between the similar shape of the character locus pattern and the input locus is within the allowable range for pattern determination. In this case, the deviation between the character trajectory pattern and the input trajectory is determined to be the same even in the case of magnitude (similarity), rotation, and partial deformation.
  • step S5-6 the controller 21 of the tablet terminal 20 executes a determination process as to whether or not there is any correction. Specifically, if the key layout learning unit 215 of the controller 21 determines that a corrected character has been input at the same display position as the deleted character, it determines that there has been a correction.
  • step S5-6 If there is a correction (in the case of “NO” in step S5-6), the controller 21 of the tablet terminal 20 executes a process for specifying the corrected character (step S5-7). Specifically, the key arrangement learning unit 215 of the controller 21 specifies a newly input corrected character instead of the deleted character as in step S2-4.
  • step S5-6 the controller 21 of the tablet terminal 20 skips the process of specifying the corrected character (step S5-7).
  • the controller 21 of the tablet terminal 20 executes a key arrangement changing process (step S5-8). Specifically, the key arrangement learning unit 215 of the controller 21 moves the software keyboard 500 so that the tap coordinates of each character in the input locus coincide with the character locus pattern. In this case, the software keyboard 500 is enlarged and reduced to change the key arrangement. When there is a corrected character, the key layout learning unit 215 determines that the tap position of each character in the input locus specified using the character string including the character matches the character locus pattern. The software keyboard 500 is moved.
  • the controller 21 of the tablet terminal 20 executes a key area setting process corresponding to the tap position (step S5-9). Specifically, the key arrangement learning unit 215 of the controller 21 specifies a word of the input trajectory pattern, and specifies the key of each character constituting this word. The key arrangement learning unit 215 changes the individual recognition area for each key of the specified character so that the tap position of the input character is the center of the key. The processing returns to step S5-1 and the subsequent steps.
  • the controller 21 of the tablet terminal 20 executes a pattern matching process between the registered input locus pattern and the input locus pattern at the time of keyboard input (step S5-5).
  • the controller 21 detects a character trajectory pattern that matches the specified input trajectory, the controller 21 executes a key arrangement changing process (step S5-8) and a key area setting process corresponding to the tap position (step S5-9). To do.
  • the tap position can be specified by the character trajectory pattern, so that the key recognition range can be set in consideration of the input tendency of the user.
  • the tablet terminal 20 is used as the input support device, but the present invention is not limited to this.
  • the present invention can be applied to a smartphone that can be touch-input.
  • the key arrangement is set according to the input status.
  • the tap time zone, the tap speed, the elapsed time from the start of key input, and the preceding input character immediately before the input character were used.
  • the input situation for associating the key arrangement is not limited thereto, and for example, an input environment, tap strength, tap time, or the like may be used.
  • the input environment for example, the inclination of the tablet terminal 20 specified from the acceleration detected by the acceleration sensor provided in the tablet terminal 20 can be used.
  • the touch pressure detected by the pressure sensor of the touch panel display 30 can be used as the strength of the tap.
  • the tap time the time (long press time) in which the same tap position is touched can be used.
  • the controller 21 determines that the key tap position used for the deleted character is included in the key recognition area used for the corrected character. Changed recognition area.
  • the size of the individual recognition area is changed so as to include the specified tap position.
  • the method for changing the individual recognition area is not limited to such a method.
  • the key recognition range may be determined using a plurality of key inputs for one key.
  • the controller 21 of the tablet terminal 20 generates, for each key, a touch frequency map that records the touch position for a predetermined period in association with the input state.
  • the controller 21 uses the touch frequency map to calculate a statistical position for a predetermined number of touch positions.
  • a statistical position for example, a touch area with a predetermined frequency or more, or the center of gravity of the distribution of touch positions can be used.
  • the key recognition range is changed from the statistical position corresponding to the input situation.
  • the controller 21 of the tablet terminal 20 performs a determination process as to whether there has been a correction (step S2-3).
  • the controller 21 of the tablet terminal 20 specifies the corrected character (step S2-4), and sets the key area corresponding to the tap position.
  • the process (step S2-5) is executed.
  • the movement of the entire keyboard and the individual recognition area of each key may be identified or corresponded. For example, when a plurality of key inputs of a reference number or more are corrected at a time in one word, the controller 21 of the tablet terminal 20 determines the center of gravity of the individual recognition area of each key in order to determine the movement of the entire keyboard.
  • the position is specified, and the tendency of the positional relationship (displacement) between the gravity center position and the touch position is calculated.
  • the individual recognition area of each key is changed independently. Instead, the entire keyboard is moved (translated or rotated) according to the misalignment between the erroneous input key and the correction key.
  • the controller 21 of the tablet terminal 20 sets the key area corresponding to the tap position. Processing is executed (step S2-5).
  • the timing for setting the key area is not limited to the case where the key input is corrected.
  • the entire keyboard may be moved (translated or rotated) according to the degree of deviation at the time of matching between the character trajectory pattern and the input trajectory pattern or at the time of detecting a reference word registered in advance.
  • the key arrangement is set according to the input status.
  • the individual recognition range of the key may be changed according to the hand (right hand or left hand) used for key input.
  • the controller 21 of the tablet terminal 20 specifies whether the hand used for inputting each key is the right hand or the left hand.
  • the shaking of the tablet terminal 20 varies depending on the holding method of the tablet terminal 20. Specifically, when holding the tablet terminal 20 with the left hand and inputting keys with the right hand, holding the tablet terminal 20 with the right hand and inputting keys with the left hand, holding the tablet terminal 20 with both hands and inputting keys from both sides There is a case. Therefore, information specifying the hand (right hand or left hand) used for input is stored in the tablet terminal 20 in association with the acceleration pattern.
  • the controller 21 of the tablet terminal 20 specifies an acceleration pattern from the acceleration detected by the acceleration sensor provided in the tablet terminal 20, and specifies the hand (right hand or left hand) used for input according to this acceleration pattern.
  • the individual recognition range of the key may be changed according to the input situation based on the relationship between the finger used for inputting the preceding character and the finger used for inputting the subsequent character.
  • a table in which a finger used for key input is recorded is prepared for each key.
  • the individual recognition range of each subsequent key is recorded according to the finger used for the preceding key input.
  • the individual recognition range of each key is grouped according to the finger used for input.
  • an individual recognition range of each subsequent key may be registered for a finger generally used for inputting each key.
  • the finger used for the preceding character input is specified based on the touch position, and the individual recognition range of each subsequent key is specified correspondingly.
  • the specified individual recognition range is changed according to the subsequent character input and the touch position.
  • the hand (right hand or left hand) to be used may be specified for each input key.
  • the hand (right hand or left hand) used for each key is specified and recorded as the usage status.
  • the example sentences include characters of keys (for example, the center key of the keyboard) that can be input with either the right hand or the left hand.
  • the hand used for the input is specified from the input state of the key input corresponding to the example sentence. For example, based on the elapsed time pattern (speed pattern of continuous key input) from the previous key input to this key input, it is specified whether the input is performed by the same hand or by different hands. For each key, the hand (right hand or left hand) used for key input is recorded.
  • the position of the right hand or the left hand may gradually shift.
  • the touch positions of a plurality of keys input with the same hand (right hand or left hand) are shifted in the same direction, and the range of a plurality of key inputs input with the same hand has been enlarged or reduced.
  • the individual recognition areas of other keys that are input with the same hand are also adjusted in accordance with the shift or enlargement / reduction.
  • the controller 21 of the tablet terminal 20 specifies a hand (right hand or left hand) used for key input by initial learning, and records this information as an input status.
  • the key arrangement learning unit 215 records this change history when changing the key recognition area in the key area setting process. Furthermore, the key arrangement learning unit 215 specifies a change history within a predetermined period in a plurality of key inputs input with the same hand (right hand or left hand). Next, the key arrangement learning unit 215 determines whether or not the change tendency (change direction and change amount of the recognition area) is common within a predetermined error range in the change history. If it is determined that the change tendency is common, the individual recognition areas of all keys input with this hand (right hand or left hand) are changed according to this change tendency. Thereby, it is possible to support the user's key input in consideration of the input tendency by the left and right manual input.
  • the controller 21 of the tablet terminal 20 determines that a shift has occurred in a plurality of keys in the right hand or the left hand, the keyboard area in the right hand or the left hand is shifted as a whole according to the amount of the shift. Also good. For example, the controller 21 predicts the overall tendency of the keyboard area in the right hand or the left hand (not only the change direction and change amount but also the enlargement / reduction and rotation) from the change history when the key recognition area is changed. The other key recognition areas may be changed accordingly.
  • the key input character is not limited to English characters, and can be applied to Japanese input such as kana characters.
  • the input key (key before conversion) is specified according to the input method such as Kana input method or Roman character input method, and each key is recognized individually. Identify the area.
  • the controller 21 of the tablet terminal 20 displays the software keyboard 500 on the touch panel display 30 and sets the key recognition range according to the user.
  • the key arrangement of the software keyboard 500 may be changed according to the individual recognition area of the key.
  • the keyboard control unit 214 displays the software keyboard 500 having a key arrangement corresponding to the individual recognition area on the touch panel display 30.
  • the recognition area of this key is adjusted.
  • the correction for adjusting the key recognition area is not limited to the case where the erroneous input is an adjacent key.
  • the controller 21 of the tablet terminal 20 determines that there is an obvious error (spelling error)
  • the erroneously input character is corrected to correct the error and the key recognition area is corrected based on the error input. May be adjusted.
  • the controller 21 of the tablet terminal 20 converts the touch position of the erroneous input into the original word. You may make it memorize
  • the key arrangement learning unit 215 performs key area setting processing corresponding to the tap position during the operation of the application (steps S2-5, S3-6, S5). -9).
  • an off setting that does not execute the key area setting process corresponding to the tap position may be performed.
  • the off setting is performed. Thereby, it is possible to prevent key area setting based on a tendency different from the tendency of the user's key input.
  • the controller 21 of the tablet terminal 20 performs the character string prediction process (step S3-3) using the word dictionary.
  • the controller 21 of the tablet terminal 20 executes the pattern matching process (step S5-5).
  • word narrowing may be executed according to the character input status.
  • the controller 21 is further caused to function as a grammatical rule determining means for predicting the part of speech of the input word based on the grammatical rules at the time of writing.
  • the key arrangement learning unit 215 of the controller 21 acquires part-of-speech information of the next input word from the grammar rule determination unit according to the character input situation.
  • the key arrangement learning unit 215 specifies a word using this part of speech information.
  • the key arrangement learning unit 215 of the controller 21 specifies part-of-speech information of a word by using phrases and phrases registered in a corpus in which natural language sentences are structured and accumulated instead of grammatical rules.
  • the word may be predicted after specifying the part of speech information.
  • the controller 21 determines that, in the pattern matching process (step S5-5), the deviation between the character locus pattern (similar shape, its position, etc.) and the input locus is within the pattern determination allowable range. Are determined to match, and the key arrangement changing process is executed (step S5-8).
  • the controller 21 specifies a word corresponding to the input character locus pattern from the degree of approximation based on the deviation, and displays it as an input candidate.
  • the controller 21 executes a key area setting process corresponding to the tap position using a word selected from input candidates by the user.
  • the controller 21 of the tablet terminal 20 has executed an arrangement setting process by initial learning, an arrangement setting process by correction input, an arrangement setting process by input prediction, and an arrangement setting process by trajectory input, respectively.
  • the controller 21 of the tablet terminal 20 may execute an arrangement setting process using both of them.
  • the tablet terminal 20 stores the individual recognition area of the key in association with the user ID.
  • the information is not limited to the user ID as long as it can be identified as a user.
  • the individual recognition area of the key may be stored for each tablet terminal 20. It is also possible to store the individual recognition area in association with the terminal identifier of the tablet terminal 20.
  • the mode is shifted to a mode different from the normal usage mode. May be.
  • the controller 21 of the tablet terminal 20 executes a caution mode process different from the normal process.
  • this caution mode process for example, deletion of stored information, screen lock, user authentication for continuing use, restriction on use of the tablet terminal 20, stop of updating of the individual recognition area, and the like are performed.
  • the controller 21 stores a determination reference value for determining the same user.
  • the controller 21 monitors the input tendency while comparing the input series of key inputs with the individual recognition areas and character trajectory patterns of each key (or each key of the reference word) registered for the user. When the deviation amount between the two continuously exceeds the determination reference value for a predetermined period, the controller 21 determines that the user is not the original user. In this case, the controller 21 executes the above-described attention mode process. Thereby, in the tablet terminal 20, a usage mode can be changed in consideration of an original user's input tendency. Therefore, it is possible to prevent the individual user's individual recognition area from becoming inaccurate or being used by a person other than the original user without permission due to the input tendency of other users.
  • the tablet terminal 20 stores the individual recognition area of the key in association with the user ID.
  • the alert mode may be set. Specifically, if a key input that is different from the individual user's individual recognition area exceeds the allowable range, it is determined that the key is used by a person other than the original user, and the input and display are restricted. . Thereby, the security of the tablet terminal 20 can be ensured using the individual recognition area.
  • the character of the example sentence in the initial learning, the corrected character, and the character specified based on the locus are specified as the original key, and the key recognition range is set.
  • the key is not limited to these.
  • it may be executed every time a reference word registered in advance is detected.
  • the tablet terminal 20 is provided with reference word storage means for registering reference words.
  • the reference word for example, a simple and frequently occurring word or word may be used. Examples of this word include pronouns such as “he” and “that”, basic verbs such as “is” and “does” and negative forms thereof, or frequently used particles such as “on” and “in”, Examples include articles such as “the”.
  • the controller 21 of the tablet terminal 20 detects a reference word between delimiters, it identifies the tap position of the character included in this reference word and sets the key recognition range. Specifically, the controller 21 adjusts the key recognition range so that the tap position of the character constituting the detected reference word is at the center of the key recognition region corresponding to this character.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

 コンピュータ端末は、表示部と、入力部と、キー配置記憶部と、制御部とを備える。制御部は、ソフトウェアキーボードを表示部に出力し、該ソフトウェアキーボードにおいて選択されるべき本来キーを特定し、この本来キーに対してタッチされた実際のタッチ位置を特定し、該タッチ位置をキー配置記憶部に記録された認識座標情報と比較し、該比較の結果に応じて、キー配置記憶部に記録された本来キーの認識座標情報を更新する。

Description

入力支援プログラム及び入力支援装置
 本発明は、コンピュータ端末においてキー入力を支援するための入力支援プログラムと、入力支援装置とに関する。
 タブレット端末等のコンピュータ端末において、キーボードを画面上に表示し、その画面上でカーソルを移動させて文字に対応するキーを選択することによって文字を入力するソフトウェアキーボードが提案されている(例えば、特許文献1を参照。)。特許文献1に記載された技術では、表示画面上にソフトウェアキーボードが表示され、利用者は画面を触れることによって情報を入力する。更に、この技術では、利用者の各キーの操作位置のバラツキに基づいて、各キーを異なって表示させることが記載されている。
特開2011-150489号公報(第1頁、図1)
 しかし、利用者のタッチ位置等の入力の傾向は、利用者毎に、また入力状況や利用環境に応じて、異なることがある。この場合、表示されるソフトウェアキーボードの形状が常に同じであると、誤入力の増加や操作性の低下が生じることがある。
 本発明の目的は、利用者に応じて効率的なキー入力を実現するための入力支援プログラム及び入力支援装置を提供することにある。
 上記目的を達成するため、本発明の一態様では、コンピュータ端末においてキー入力を支援するためのプログラムを提供する。該コンピュータ端末は、表示部(表示手段)と、入力部(入力手段)と、ソフトウェアキーボードを構成する各キーの認識座標情報を記憶するキー配置記憶部(キー配置記憶手段)と、前記入力部において入力された情報を前記表示部に出力する制御部(制御手段)とを備える。前記プログラムは、非一時的なコンピュータ可読記録媒体に記憶される。前記プログラムは、前記コンピュータ端末における実行時に、前記制御部を、前記ソフトウェアキーボードを前記表示部に出力する出力部(出力手段)、前記ソフトウェアキーボードにおいて選択されるべき本来キーを特定し、この本来キーに対してタッチされた実際のタッチ位置を特定する特定部(特定手段)、及び前記タッチ位置を前記キー配置記憶部に記録された認識座標情報と比較し、該比較の結果に応じて、前記キー配置記憶部に記録された前記本来キーの認識座標情報を更新する更新部(更新手段)として機能させる命令を含む。
 一実施形態では、前記キー配置記憶部には、キーの入力状況情報に関連付けて前記キーの認識座標情報が記憶されている。前記プログラムは、前記コンピュータ端末における実行時に、前記制御部を、前記タッチ位置とともに、キーの入力状況情報を取得するキー入力取得部(キー入力取得手段)、及び前記取得した入力状況情報に対応する前記キーの認識座標情報を前記キー配置記憶部において特定する第1情報取得部(第1情報取得手段)として更に機能させる命令を含む。
 一実施形態では、前記コンピュータ端末は、キーの認識座標情報を特定するために用いる例文が記憶された例文記憶部(例文記憶手段)を更に備える。前記プログラムは、前記コンピュータ端末における実行時に、前記制御部を、前記例文記憶部に記憶された例文を表示して、この例文についてのキー入力を促す入力プロンプト部(入力プロンプト手段)として更に機能させる命令を含む。前記特定部は、前記例文を構成する文字に対応するキーを本来キーとして特定する。
 一実施形態では、前記特定部は、修正された文字を検知した場合に、修正後の文字に対応するキーを本来キーとして特定し、修正前の文字が入力されたときにタッチされたタッチ位置を実際のタッチとして特定する。
 一実施形態では、前記特定部は、入力文字に応じて単語を予測し、予測した単語を構成する文字に対応するキーを本来キーとして特定する。
 前記コンピュータ端末は、入力される単語候補を記憶した辞書記憶部(辞書記憶手段)を更に備えてよい。前記特定部は、入力された文字列と、前記辞書に登録された単語の文字列とを照合し、該照合の結果に基づき、前記単語の予測を行ってよい。
 前記コンピュータ端末は、入力される単語について、前記単語を構成する文字のキー配置に応じて、入力時の文字軌跡パターンを登録した辞書を記憶した文字軌跡パターン記憶部(文字軌跡パターン記憶手段)を更に備えてよい。前記特定部は、取得したタッチ位置の入力軌跡パターンと、前記文字軌跡パターン記憶部に記録された前記文字軌跡パターンとを照合し、該照合の結果に基づき、前記単語の予測を行ってよい。
 前記コンピュータ端末は、基準単語を記憶した基準単語記憶部(基準単語記憶手段)を更に備えてよい。前記特定部は、前記基準単語記憶部に記憶された基準単語が入力されたことを検出する度に、この基準単語を構成する各文字のキーを本来キーとして特定してよい。
 一実施形態では、前記プログラムは、前記コンピュータ端末における実行時に、前記制御部を、文章作成時の文法規則により、入力される単語の品詞を予測する文法規則判定部(文法規則判定手段)として更に機能させる命令を含む。前記特定部は、文字入力状況に応じて、前記文法規則判定部から、入力された単語の品詞情報を取得し、前記品詞情報を用いて前記単語を特定する。
 一実施形態では、前記キー配置記憶部には、利用者識別子に関連付けて各キーの認識座標情報が記憶されている。前記プログラムは、前記コンピュータ端末における実行時に、前記制御部を、前記利用者の利用者識別子を特定し、この利用者識別子に関連付けて各キーの認識座標情報を前記キー配置記憶部に記録する記録部(記録手段)として更に機能させる命令を含む。
 一実施形態では、前記プログラムは、前記コンピュータ端末における実行時に、前記制御部を、使用する利用者のキーの認識座標情報を特定する第2情報取得部(第2情報取得手段)、及び取得したタッチ位置と前記認識座標情報とのずれ量を算出し、前記ずれ量が同一利用者を判定するための判定基準値を超える場合には、注意モード処理を実行する注意モード処理部(注意モード処理手段)として更に機能させる命令を含む。
 本発明の別の態様では、表示部と、入力部と、ソフトウェアキーボードを構成する各キーの認識座標情報を記憶するキー配置記憶部と、前記入力部において入力された情報を前記表示部に出力する制御部を備えた入力支援装置を提供する。前記制御部は、前記ソフトウェアキーボードを前記表示部に出力する出力部と、前記ソフトウェアキーボードにおいて選択されるべき本来キーを特定し、この本来キーに対してタッチされた実際のタッチ位置を特定する特定部と、前記タッチ位置を前記キー配置記憶部に記録された認識座標情報と比較した結果に応じて、前記キー配置記憶部に記録された前記本来キーの認識座標情報を更新する更新部とを備える。
 (作用)
 本発明によれば、制御部が、ソフトウェアキーボードを表示部に出力する。制御部が、ソフトウェアキーボードにおいて選択されるべき本来キーを特定し、この本来キーに対してタッチされた実際のタッチ位置を特定する。制御部が、タッチ位置をキー配置記憶部に記録された認識座標情報と比較した結果に応じて、キー配置記憶部に記録された本来キーの認識座標情報を更新する。これにより、キー入力時の実際のタッチ位置に基づいてキーの認識領域を設定するので、利用者の癖等のキー入力の傾向を考慮して効率的なキー入力を実現することができる。ここで、キーの認識座標情報としては、キー領域の中心位置や、キー領域の形状やキー範囲等を特定するための座標(座標群)を用いることができる。
 一実施形態では、制御部が、タッチ位置とともに、キーの入力状況情報を取得する。制御部が、取得した入力状況情報に対応するキーの認識座標情報をキー配置記憶部において特定する。入力状況に応じて、利用者のキー入力の傾向が異なることがある。従って、この入力状況に応じたキー入力の傾向を考慮して、キーの認識領域を設定することができる。入力状況によってはキーの認識領域を変更して、同じ位置をタッチした場合であっても、入力状況に応じた異なるキー入力を実現することができる。
 一実施形態では、制御部が、例文記憶部に記憶された例文を表示して、この例文についてのキー入力を促す。制御部が、例文を構成する文字に対応するキーを本来キーとして特定する。これにより、例文に対して実際に入力されたキーのタッチ位置に基づいて、利用者のキー入力の傾向を特定し、この傾向を考慮したキーの認識領域を設定することができる。
 一実施形態では、制御部が、修正された文字を検知した場合に、修正後の文字に対応するキーを本来キーとして特定し、修正前の文字が入力されたときにタッチされたタッチ位置を実際のタッチとして特定する。これにより、修正前の文字のタッチ位置に基づいて、修正のたびに、利用者の誤入力におけるキー入力の傾向を特定し、この傾向を考慮したキーの認識領域を設定することができる。
 一実施形態では、制御部が入力文字に応じて単語を予測し、予測した単語を構成する文字に対応するキーを本来キーとして特定する。これにより、予測した文字と、入力された文字が異なる場合には、実際のタッチ位置と、予測した単語に基づいて、利用者の誤入力を特定することができる。利用者の誤入力におけるキー入力の傾向を特定し、この傾向を考慮したキーの認識領域を設定することができる。
 一実施形態では、制御部が、入力された文字列と、辞書に登録された単語の文字列との照合の結果に基づき、単語の予測を行う。これにより、辞書に登録された単語から、利用者が入力しようとした文字のキーを特定し、このキー入力の傾向を考慮してキーの認識領域を設定することができる。
 一実施形態では、制御部が、取得したタッチ位置の入力軌跡パターンと、文字軌跡パターン記憶部に記録された文字軌跡パターンとの照合の結果に基づき、前記単語の予測を行う。これにより、文字軌跡パターンから、利用者が入力しようとした文字のキーを特定し、このキー入力の傾向を考慮したキーの認識領域を設定することができる。
 一実施形態では、制御部が、基準単語記憶部に記憶された基準単語が入力されたことを検出する度に、この基準単語を構成する各文字のキーを本来キーとして特定する。これにより、基準単語が検出されるたびに、キーの認識座標情報を更新して、利用者のキー入力の傾向を特定し、この傾向を考慮したキーの認識領域を設定することができる。
 一実施形態では、制御部が、文章作成時の文法規則により、入力される単語の品詞を予測する。制御部は、文字入力状況に応じて、文法規則判定部から入力された単語の品詞情報を取得し、品詞情報を用いて単語を特定する。これにより、文法規則を用いて入力単語の品詞により単語を絞り込むことができる。従って、この絞込みにより、本来の単語を、より的確に特定することができる。
 一実施形態では、制御部が、利用者の利用者識別子を特定し、この利用者識別子に関連付けて各キーの認識座標情報をキー配置記憶部に記録する。これにより、各利用者に応じてキーの認識座標情報を記憶しておくことができるので、利用者毎の入力の傾向を考慮してキーの認識領域を設定することができる。
 一実施形態では、制御部が、使用する利用者のキーの認識座標情報を特定し、取得したタッチ位置と前記認識座標情報とのずれ量を算出し、ずれ量が同一利用者を判定するための判定基準値を超える場合には、注意モード処理を実行する。認識座標情報は、利用者の入力傾向を反映したものであるため、認識座標情報との違いが大きい場合には、他者の利用と判断することができる。この場合には、通常の利用モードとは異なる注意モード処理を実行する。これにより、例えば、認識座標情報の更新の停止、利用制限や注意喚起を行うことができる。
第1の実施形態の入力支援装置の機能ブロックの説明図。 第1の実施形態の初期学習による配置設定処理の処理手順の説明図。 第2の実施形態の修正入力による配置設定処理の処理手順の説明図。 第3の実施形態の入力予測による配置設定処理の処理手順の説明図。 第4の実施形態の文字軌跡パターン辞書の作成処理及び軌跡入力による配置設定処理の処理手順の説明図。
 (第1の実施形態)
 以下、本発明を具体化した入力支援装置の一実施形態を図1~図2に従って説明する。本実施形態では、図1に示すように、タブレット端末20に入力を行う場合を説明する。また、本実施形態では、文字入力においては、各キーに対応する英文字を入力する場合を想定する。
 タブレット端末20は、利用者が用いるコンピュータ端末である。タブレット端末20上では各種アプリケーションを実行させることが可能である。それらのアプリケーションを介して、タブレット端末20に情報が出力や入力される。本実施形態では、このタブレット端末20は、コントローラ21、辞書記憶部22、キー配置記憶部23、例文記憶部24、タッチパネルディスプレイ30を備えている。
 タッチパネルディスプレイ30は、表示手段及び入力手段として機能する。具体的には、タッチパネルディスプレイ30は、パネル上に情報を出力すなわち表示するとともに、利用者がパネル表面を軽く叩く操作(タップ)を検知し、タップされた画面位置の表示内容に基づいて各種操作(ポインティング、キー入力等)に対応した処理を実行するように動作できる。本実施形態では、このタッチパネルディスプレイ30には、ソフトウェアキーボード500が表示される。このソフトウェアキーボード500には、文字の入力や、削除やカーソル移動等の操作に対応した処理を実行させるためのキーが含まれている。
 コントローラ21は、制御手段(CPU、RAM、ROM等)を備え、後述する処理(表示制御段階、タッチ制御段階、アプリケーション実行段階、キーボード制御段階、キー配置学習段階等の各処理等)を行う。コントローラ21は、表示制御部(表示制御手段)211、タッチ制御部(タッチ制御手段)212、アプリケーション実行部(アプリケーション実行手段)213、キーボード制御部(キーボード制御手段)214として機能するとともに、入力支援プログラムを実行することにより、キー配置学習部(キー配置学習手段)215として機能する。
 表示制御部211は、タッチパネルディスプレイ30における表示を制御する処理を実行する。
 タッチ制御部212は、タッチパネルディスプレイ30におけるタップを検知する処理を実行する。この場合、タッチ制御部212は、タップ位置を特定する。タップ位置は、タップにより実際にタッチされた画面上の位置に対応する座標によって表される。
 アプリケーション実行部213は、タブレット端末20に格納されたアプリケーション(例えば、文章作成、表計算、ブラウザ等)の起動、実行等の管理を行う。本実施形態においては、このアプリケーションの実行により、キー入力対象であるキー入力画面をタッチパネルディスプレイ30に出力する、すなわち、キー入力対象であるキー入力画面をタッチパネルディスプレイ30に表示するためのデータを、タッチパネルディスプレイ30に出力する。
 キーボード制御部214は、タッチパネルディスプレイ30に、ソフトウェアキーボード500を出力する処理を実行する。このため、キーボード制御部214は、キー配置情報を含むキー表示データを記憶している。このキー表示データは、所定のキーボード配列に従って並んだ各キーを、タッチパネルディスプレイ30に表示するためのデータである。本実施形態では、この表示データの各キーは、一般認識領域に対応して表示される。この一般認識領域は、キー配置記憶部23に予め記憶されている、表示画面上のデフォルトの各キーの配置領域(各キーを認識する領域の座標情報)である。
 更に、キーボード制御部214は、タップ位置に基づいて、入力されたキーを特定する。本実施形態では、キーボード制御部214は、ソフトウェアキーボード500上の相対座標により、選択されたキーを特定する。更に、キーボード制御部214は、入力メモリを備える。この入力メモリには、ソフトウェアキーボード500を用いて入力された内容(操作や文字)が仮記憶される。
 キー配置学習部215は、特定手段及び更新手段として機能し、ソフトウェアキーボード500を構成する各キー領域(個別認識領域)を、利用者の入力に応じて学習する処理を実行する。この個別認識領域は、利用者に応じて特定される各キーの配置領域である。このキー配置学習部215は、タッチ制御部212からタップ位置を取得する。更に、キー配置学習部215は、タッチ入力が行われた時間帯(タップ時間帯)や、所定時間内にタップされた回数(タップ速度)、継続してキーボードの入力が行われた期間(入力同士の間隔が所定時間内であった期間)、同期間におけるタップ回数、単語の頭文字の入力開始からの経過時間、先行文字等を入力状況として特定する。また、このキー配置学習部215は、キーボード制御部214からソフトウェアキーボード500におけるキー配置情報を取得する。キー配置学習部215は、タップ情報メモリを備える。このタップ情報メモリには、入力状況に関連付けて、タップ位置が仮記憶される。
 また、このキー配置学習部215は、修正対象基準範囲に関するデータを記憶している。この修正対象基準範囲は、キー位置の修正の要否を決定する基準範囲であり、例えば一つのキーの表示範囲すなわち大きさに対し、そのキーの大きさの半分程度の幅で拡張した範囲を設定しておく。キー配置学習部215は、一般認識領域に対してタップ位置が修正対象基準範囲内にある場合のみ、このタップ位置を個別認識領域の更新に利用する。
 更に、コントローラ21は、利用者を認証する利用者認証手段(利用者認証部)として機能する。このため、コントローラ21は、このタブレット端末20の利用者を認証するための利用者情報、例えば、利用者識別子(ID)、パスワードなど、を記憶している。
 また、コントローラ21は、区切り文字を記憶した区切り文字記憶部を備えている。この区切り文字記憶部には、例えば、スペース、カンマ、ピリオド等の区切り文字に関するデータが記憶されている。
 辞書記憶部22は、辞書記憶手段として機能する。辞書記憶部22には、一般的に用いられる単語(見出し語)をスペル表記した辞書データが記録されている。
 キー配置記憶部23は、キー配置記憶手段として機能する。キー配置記憶部23には、各キーの認識領域が記憶されている。本実施形態では、一般認識領域と、個別認識領域とが記憶されている。また、個別認識領域は、利用者に応じて、利用者IDに関連付けられた認識領域である。この個別認識領域は、更に入力状況にも関連付けられている。この個別認識領域は、タップ位置に応じた配置設定処理によって特定されて記録される。本実施形態では、初期学習として例文入力を行い、ここで取得したタップ位置に基づいて行われる配置設定処理によって記録される。
 例文記憶部24は、例文記憶手段として機能する。例文記憶部24には、個別認識領域を特定するために用いる場合に用いる例文に関するデータを記憶している。この例文においては、任意の文字の羅列や複数の単語の羅列、複数の単語からなる文章等を用いることができる。
 (初期学習による配置設定処理)
 次に、このタブレット端末20における初期学習による配置設定処理について、図2を用いて説明する。ここで、タブレット端末20の使用時には、コントローラ21は、まず、利用者の特定処理を実行する。具体的には、コントローラ21は、利用者認証画面をタッチパネルディスプレイ30に出力する。この利用者認証画面には、利用者ID、パスワードを入力するための入力欄が設けられている。ここで、利用者ID、パスワードが入力された場合、コントローラ21は、記憶している利用者ID、パスワードと照合する。コントローラ21は、照合を完了した場合、表示制御部211により、タッチパネルディスプレイ30にアプリケーション選択画面を表示する。このアプリケーション選択画面には、起動可能な各種アプリケーションのアイコンが表示されており、各アイコンを選択することにより、対応するアプリケーションを起動することができる。
 ここで、利用者は、タッチパネルディスプレイ30の選択画面において、初期学習アプリケーションのアイコンを選択する。これにより、タブレット端末20のコントローラ21は、初期学習アプリケーションの起動処理を実行する。この場合、コントローラ21のアプリケーション実行部213は、タッチパネルディスプレイ30に、ソフトウェアキーボード500及び初期配置設定画面(キー入力画面)を出力する。具体的には、コントローラ21のアプリケーション実行部213は、表示制御部211を介して、初期配置設定画面をタッチパネルディスプレイ30に表示する。また、アプリケーション実行部213は、キーボード制御部214に対してソフトウェアキーボード500の表示を指示する。キーボード制御部214は、記憶しているキー表示データを、表示制御部211を介して、タッチパネルディスプレイ30に表示する。
 また、初期配置設定画面(キー入力画面)には、入力内容表示エリア及び例文表示エリアが含まれる。入力内容表示エリアには、ソフトウェアキーボード500を用いて入力された文字等が表示される。例文表示エリアには、例文記憶部24から抽出した見出し語(文字列)が表示される。
 タブレット端末20のコントローラ21は、例文の文字入力タップ処理を実行する(ステップS1-1)。具体的には、コントローラ21のアプリケーション実行部213は、例文記憶部24に記憶されている1つの例文を抽出する。アプリケーション実行部213は、この抽出した例文を、表示制御部211を介して、初期配置設定画面の例文表示エリアに表示する。
 利用者は、例文表示エリアに表示された例文の文字を、ソフトウェアキーボード500のキーをタップすることにより入力する。ここで、コントローラ21のタッチ制御部212は、ソフトウェアキーボード500上におけるタップを検知した場合、このタップ位置を、キーボード制御部214及びキー配置学習部215に供給する。キー配置学習部215は、タップ時間帯をシステムタイマに基づき特定するとともに、タップ速度を算出する。更に、キー配置学習部215は、例文入力開始からの経過時間を算出する。
 また、キーボード制御部214は、タップ位置を一般認識領域と比較して、該比較の結果に基づき、選択されたキーに対応する文字を特定し、入力メモリに仮記憶する。キーボード制御部214は、仮記憶した文字を、表示制御部211を介して、初期配置設定画面の入力内容表示エリアに表示する。更に、キーボード制御部214は、仮記憶した文字を、キー配置学習部215に供給する。
 次に、タブレット端末20のコントローラ21は、タップ位置及び入力状況の記録処理を実行する(ステップS1-2)。具体的には、コントローラ21のキー配置学習部215は、取得した入力状況を、取得したタップ位置及び文字に関連付けて、タップ情報メモリに記憶する。
 コントローラ21のアプリケーション実行部213は、以上のステップS1-1及びS1-2の処理を、例文記憶部24に記憶されているすべての例文について実行する。すべての例文についての処理が終了した場合、アプリケーション実行部213は、ソフトウェアキーボード500及び初期配置設定画面を閉じる。
 次に、タブレット端末20のコントローラ21は、タップ位置を本来のキー位置と比較する(ステップS1-3)。具体的には、コントローラ21のキー配置学習部215は、タップ情報メモリからタップ位置を取得するとともに、キー配置記憶部23から、例文文字のキーの一般認識領域を取得する。キー配置学習部215は、各キーの一般認識領域をタップ位置と比較する。
 次に、タブレット端末20のコントローラ21は、タップ位置は正確かどうかについての判定処理を実行する(ステップS1-4)。具体的には、タップ位置が一般認識領域内に含まれている場合には、タップ位置は正確と判定する。この場合(ステップS1-4において「YES」の場合)、タブレット端末20のコントローラ21は、初期学習による配置設定処理を終了する。
 一方、タップ位置が一般認識領域内に含まれておらず、正確でないと判定した場合(ステップS1-4において「NO」の場合)には、タブレット端末20のコントローラ21は、入力状況に関連付けて本来のキー位置の修正処理を実行する(ステップS1-5)。具体的には、コントローラ21のキー配置学習部215は、例文文字のキーについて、タップ位置に基づいて個別認識領域を特定する。例えば、一般認識領域に対してタップ位置を含む領域を個別認識領域として特定する。なお、一般認識領域に対してタップ位置が修正対象基準範囲を超えて離れている場合には、キー配置学習部215は、この入力を用いてのキー位置の修正処理を行わない。キー配置学習部215は、利用者ID及び入力状況に関連付けて、この個別認識領域を、キー配置記憶部23に記憶する。
 以上により、初期学習による配置設定処理が終了する。
 その後、他のアプリケーションにおいて、ソフトウェアキーボード500を用いる場合、タブレット端末20のコントローラ21は、キー配置記憶部23に記憶されている認識領域を用いる。具体的には、タッチ制御部212は、タップ位置をキーボード制御部214に供給する。キーボード制御部214は、このときの入力状況(先行文字や文字速度等)を特定し、この入力状況に対応する個別認識領域を用いて、入力されたキーを特定する。また、キーボード制御部214は、このときの入力状況に対応する個別認識領域が記録されてない場合には、一般認識領域を用いて、入力されたキーを特定する。キーボード制御部214は、特定したキーに基づいた入力文字をアプリケーション実行部213に供給する。アプリケーション実行部213は、取得した入力文字を、表示制御部211を介して、タッチパネルディスプレイ30に表示する。
 本実施形態によれば、以下に示す利点を得ることができる。
 (1)本実施形態では、タブレット端末20のコントローラ21は、タップを検知した場合、このときの入力状況に対応する個別認識領域を用いて、又は、この入力状況に対応する個別認識領域がない場合には一般認識領域を用いて、入力されたキーを特定する。これにより、入力状況に応じたキーの認識範囲を用いて、利用者が選択したキーを特定することができるので、利用者に応じて効率的なキー入力を行うことができる。この場合、タッチパネルディスプレイ30上における同じ座標であっても、入力状況に応じて特定されるキーが異なることになり、入力状況を考慮してキーを特定することができる。
 (2)本実施形態では、タブレット端末20のコントローラ21は、例文の文字入力のタップ処理を実行し、タップ位置及び入力状況の記録処理を実行する(ステップS1-1,S1-2)。タブレット端末20のコントローラ21は、タップ位置が正確でないと判定した場合(ステップS1-4において「NO」の場合)には、入力状況に関連付けて本来のキー位置の修正処理を実行する(ステップS1-5)。これにより、例文の文字を本来のキーとして特定し、これに対する実際のタップ位置を用いてキーの認識範囲を設定することができる。
 (第2の実施形態)
 次に、本発明を具体化した第2の実施形態を図3に従って説明する。第1の実施形態においては、初期学習によって配置設定を行ったが、第2の実施形態においては、利用者の修正を利用して配置設定を行う。本実施形態では、誤入力が隣接キーの場合には、このキーの認識領域の調整を行う。また、第2の実施形態において、第1の実施形態と同様の部分については、同一の符号を用いて、詳細な説明は省略する。
 本実施形態においても、上記実施形態と同様に、タブレット端末20の使用時には、コントローラ21は、利用者の特定処理を実行することにより、照合した利用者IDを仮記憶する。
 タッチパネルディスプレイ30の選択画面において、所望のアプリケーションの起動指示が行われた場合、タブレット端末20のコントローラ21は、指示されたアプリケーションの起動処理を実行する。ここでは、文字入力を行うアプリケーション(例えば文書作成アプリケーション)を起動する場合を想定する。
 この場合、コントローラ21のアプリケーション実行部213は、タッチパネルディスプレイ30に表示画面(キー入力画面)を出力する。文字入力を行う場合、コントローラ21のキーボード制御部214は、ソフトウェアキーボード500を、表示制御部211を介してタッチパネルディスプレイ30に表示させる。
 タブレット端末20のコントローラ21は、文字入力タップ処理を実行する(ステップS2-1)。具体的には、利用者は、表示画面において、ソフトウェアキーボード500のキーを用いて文字を入力する。ここで、コントローラ21のタッチ制御部212は、ソフトウェアキーボード500においてタップを検知した場合、キーボード制御部214及びキー配置学習部215に、タップ位置を供給する。キー配置学習部215は、入力状況として、タップ時間帯、このキー入力に先行して直前に入力された文字(先行文字)や、所定時間内のタップ回数に応じてタップ速度を特定する。
 キーボード制御部214は、入力状況に応じて認識領域を特定し、この認識領域とタップ座標とから、利用者が選択されたキーの文字を特定する。キーボード制御部214は、特定したキーの文字をアプリケーション実行部213及びキー配置学習部215に供給する。
 アプリケーション実行部213は、特定された文字の表示位置を特定し、表示制御部211及びキー配置学習部215に供給する。表示制御部211は、アプリケーション実行部213の指示に応じて、特定された文字を、タッチパネルディスプレイ30上の表示位置に表示する。なお、キー配置学習部215は、アプリケーション実行部213から、入力後に削除された文字(削除文字)や、この削除文字の代わりに挿入された文字(修正文字)、及びこの削除及び挿入によって文字が置換された位置を取得する。
 次に、タブレット端末20のコントローラ21は、入力状況及びタップ位置(座標)の記録処理を実行する(ステップS2-2)。具体的には、コントローラ21のキー配置学習部215は、タップ位置、入力状況(タッチ速度や先行文字等)を、入力された文字及び表示位置に関連付けて、タップ情報メモリに記憶する。
 次に、タブレット端末20のコントローラ21は、修正があったかどうかについての判定処理を実行する(ステップS2-3)。具体的には、コントローラ21のキー配置学習部215は、削除された文字が修正文字に置換された場合、修正があったと判定する。なお、キー配置学習部215は、文字が削除されていない場合や修正文字が入力されていないと判定した場合には、修正がなかったと判定する。この場合(ステップS2-3において「NO」の場合)には、タブレット端末20のコントローラ21は、ステップS2-1以降の処理を繰り返す。
 修正があったと判定した場合(ステップS2-3において「YES」の場合)、タブレット端末20のコントローラ21は、修正された文字の特定処理を実行する(ステップS2-4)。具体的には、コントローラ21のキー配置学習部215は、削除された文字の代わりに新たに入力された修正文字を特定する。
 次に、タブレット端末20のコントローラ21は、タップ位置に対応したキー領域設定処理を実行する(ステップS2-5)。具体的には、まず、コントローラ21のキー配置学習部215は、削除文字のキーと修正文字のキーとが隣接しているか否かを、キー配置情報を用いて判定する。ここで、削除文字のキーと修正文字のキーとが隣接している場合には、キー配置学習部215は、削除文字に用いられるキーのタップ位置が、修正文字に用いられるキーの認識領域に含まれるように、キーの個別認識領域を変更する。この場合、記憶されている個別認識領域に対して、特定したタップ位置が個別認識領域に含まれるように、個別認識領域の大きさを変更する。キー配置学習部215は、変更したキーの個別認識領域を、キー配置記憶部23に記憶する。この場合、キー配置学習部215は、変更したキーの個別認識領域を、削除文字に関連付けられている入力状況及び利用者IDに関連付けて記録する。なお、削除文字のキーと修正文字のキーとが隣接していない場合には、キー位置の修正処理を行わない。
 本実施形態によれば、上記(1)の利点に加えて、次の利点を得ることができる。
 (3)本実施形態では、入力文字に修正があった場合(ステップS2-3において「YES」の場合)には、タブレット端末20のコントローラ21は、タップ位置に対応したキー領域設定処理を実行する(ステップS2-5)。この場合、コントローラ21は、修正される前の削除文字のキーと、修正された後の修正文字のキーとが隣接する位置にある場合に、修正文字のタップ位置が修正後のキーの個別認識領域に含まれるように変更する。これにより、利用者によって修正された文字により本来キーを特定できるので、この本来キーとタップ位置との関係を特定して、利用者の誤入力の傾向を考慮して、キーの認識範囲を設定することができる。
 (第3の実施形態)
 次に、本発明を具体化した第3の実施形態を図4に従って説明する。第2の実施形態においては、利用者の修正に応じて配置設定を行ったが、第3の実施形態では、入力文字から予測した単語を用いて修正することにより配置設定を行う。また、本実施形態において、上記実施形態と同様の部分については、同一の符号を用いて、詳細な説明は省略する。
 本実施形態において、第2の実施形態と同様に、タブレット端末20のコントローラ21は、照合した利用者IDを仮記憶した後、アプリケーションの起動処理を実行し、ソフトウェアキーボード500を含む表示画面をタッチパネルディスプレイ30に出力する。
 タブレット端末20のコントローラ21は、文字入力タップ処理を実行する(ステップS3-1)。具体的には、コントローラ21のタッチ制御部212は、ステップS2-1と同様に、ソフトウェアキーボード500においてタップを検知した場合、このタップ座標を、キーボード制御部214及びキー配置学習部215に供給する。また、キーボード制御部214は、選択されたキーに応じた文字を特定し、入力メモリに仮記憶するとともに、この文字をキー配置学習部215に供給する。キー配置学習部215は、タップ時間帯、先行文字の特定、タッチ速度の算出を行う。
 次に、タブレット端末20のコントローラ21は、入力状況及びタップ位置(座標)の記録処理を実行する(ステップS3-2)。具体的には、コントローラ21のキー配置学習部215は、ステップS2-2と同様に、入力された文字に関連付けて、タップ位置、入力状況、表示位置を、タップ情報メモリに記憶する。
 ステップS3-1,S3-2の処理を、区切り文字が入力されるまで、繰り返す。
 区切り文字の入力を検知した場合、タブレット端末20のコントローラ21は、単語辞書を用いて文字列の予測処理を実行する(ステップS3-3)。具体的には、コントローラ21のキー配置学習部215は、入力開始から区切り文字までに入力された一連の入力文字群と共通する文字からなる見出し語を、辞書記憶部22において検索する。この場合、例えば、一文字違いも、共通する文字からなる見出し語として検索する。キー配置学習部215は、抽出できた見出し語に基づいて本来の文字列の予測を行う。
 次に、タブレット端末20のコントローラ21は、誤入力かどうかについての判定処理を実行する(ステップS3-4)。具体的には、コントローラ21のキー配置学習部215は、入力文字群に一致する見出し語を抽出した場合には、誤入力ではないと判定する。また、入力文字群と共通する見出し語が抽出できない場合にも誤入力ではないと判定する。更に、見出し語と入力文字群とにおける不一致文字が、ソフトウェアキーボード500上のキー配置において隣接していない場合も誤入力ではないと判定する。これらの場合(ステップS3-4において「NO」の場合)には、ステップS3-1以降の処理を実行する。
 一方、見出し語と入力文字群とにおける不一致文字のキー配置が隣接している場合には、誤入力と判定する。この場合(ステップS3-4において「YES」の場合)には、タブレット端末20のコントローラ21は、正しい文字の特定処理を実行する(ステップS3-5)。具体的には、コントローラ21のキー配置学習部215は、見出し語における不一致文字を正しい文字として特定する。
 次に、タブレット端末20のコントローラ21は、タップ位置に対応したキー領域設定処理を実行する(ステップS3-6)。具体的には、コントローラ21のキー配置学習部215は、入力文字のタップ位置、入力状況をタップ情報メモリから取得する。キー配置学習部215は、この入力文字のタップ位置が含まれるように、正しい文字と特定したキーの個別認識領域を変更し、キー配置記憶部23に記憶する。この場合、キー配置学習部215は、このキーの個別認識領域に、入力文字の入力状況と、利用者IDとを関連付けて記録する。
 本実施形態によれば、上記(1)の利点に加えて、次の利点を得ることができる。
 (4)上記実施形態では、見出し語と入力文字群とにおける不一致文字のキー配置が隣接しており、誤入力と判定した場合(ステップS3-4において「YES」の場合)には、タブレット端末20のコントローラ21は、正しい文字の特定処理(ステップS3-5)、タップ位置に対応したキー領域設定処理(ステップS3-6)を実行する。これにより、辞書記憶部22に登録された単語を用いて本来キーを特定することができるので、利用者の誤入力の傾向を考慮して、キーの認識範囲を設定することができる。
 (第4の実施形態)
 次に、本発明を具体化した第4の実施形態を図5に従って説明する。第3の実施形態においては、辞書に登録された単語を用いて修正したが、第4の実施形態では、登録された文字軌跡パターンを用いて修正することにより配置設定を行う。また、本実施形態において、上記実施形態と同様の部分については、同一の符号を用いて、詳細な説明は省略する。
 更に、コントローラ21は、文字軌跡パターン記憶手段としての文字軌跡パターン辞書記憶部を備えている。この文字軌跡パターン辞書記憶部には、見出し語の文字軌跡パターンから構成される文字軌跡パターン辞書が記憶されている。この文字軌跡パターンは、各基準単語を構成する文字列を入力する場合における、キー配置上の入力軌跡である。この文字軌跡パターンには、ソフトウェアキーボード500上における相対的な配置を特定する情報に関するデータも含まれる。相対的な配置情報としては、例えば、ソフトウェアキーボード500上で、軌跡の最初のタップ位置の座標や、この座標からの所定範囲等を用いる。この相対的な配置により、文字軌跡パターンの形状が近似している単語が複数ある場合にも、本来の単語を特定することができる。
 また、コントローラ21は、文字軌跡パターンと、入力された軌跡パターンとが一致していると判定するためのパターン判定用許容範囲(相対座標量)を記憶している。このパターン判定用許容範囲には、パターンの位置の近似度と、軌跡パターン形状の近似度とが含まれる。
 (文字軌跡パターン辞書の作成処理)
 次に、この文字軌跡パターン辞書の作成処理について説明する。
 まず、タブレット端末20のコントローラ21は、単語を構成する文字の特定処理を実行する(ステップS4-1)。具体的には、コントローラ21のキー配置学習部215は、辞書記憶部22に記録されている見出し語を構成する各文字(構成文字)を特定する。
 次に、タブレット端末20のコントローラ21は、構成文字についてキーボード上の配置の特定処理を実行する(ステップS4-2)。具体的には、コントローラ21のキー配置学習部215は、特定した各文字に対応するキーの位置を、キー配置記憶部23に記憶されている一般認識領域を用いて特定する。
 次に、タブレット端末20のコントローラ21は、構成文字の順番に応じて文字軌跡パターンの特定処理を実行する(ステップS4-3)。具体的には、コントローラ21のキー配置学習部215は、特定した各文字の一般認識領域の中心位置を、単語を構成する文字の順番に連結することにより、文字軌跡パターンを特定する。
 次に、タブレット端末20のコントローラ21は、文字軌跡パターンの登録処理を実行する(ステップS4-4)。具体的には、コントローラ21のキー配置学習部215は、特定した文字軌跡パターンを、見出し語に関連付けて文字軌跡パターン辞書記憶部に記憶する。
 (軌跡入力による配置設定)
 次に、軌跡入力による配置設定処理について説明する。本実施形態において、第2の実施形態と同様に、タブレット端末20のコントローラ21は、照合した利用者IDを仮記憶した後、アプリケーションの起動処理を実行し、ソフトウェアキーボード500を含む表示画面をタッチパネルディスプレイ30に出力する。
 タブレット端末20のコントローラ21は、文字入力タップ処理を実行する(ステップS5-1)。ここで、コントローラ21は、ステップS2-1と同様に、タップを検知した場合、タップ位置、利用者が選択されたキーの文字、文字の表示位置を特定する。次に、コントローラ21は、特定した文字をタッチパネルディスプレイ30上の表示位置に表示する。コントローラ21のキー配置学習部215は、タップ時間帯、先行文字の特定、タッチ速度の算出を行う。
 次に、タブレット端末20のコントローラ21は、入力状況及びタップ位置(座標)の記録処理を実行する(ステップS5-2)。具体的には、コントローラ21のキー配置学習部215は、ステップS2-2と同様に、入力された文字に関連付けて、タップ位置、入力状況、表示位置を、タップ情報メモリに記憶する。
 次に、タブレット端末20のコントローラ21は、区切り入力かどうかについての判定処理を実行する(ステップS5-3)。具体的には、コントローラ21のキー配置学習部215は、入力された文字を区切り文字と比較する。比較した結果、キー配置学習部215は、入力された文字が区切り文字でない場合(ステップS5-3において「NO」の場合)には、ステップS5-1以降の処理を繰り返す。
 一方、区切り文字が入力された場合(ステップS5-3において「YES」の場合)には、タブレット端末20のコントローラ21は、キーボード入力時の入力軌跡の特定処理を実行する(ステップS5-4)。具体的には、コントローラ21のキー配置学習部215は、タップ位置及び表示位置から、前回の区切り文字を特定し、前回の区切り文字から今回の区切り文字までの各文字のタップ位置を特定する。タップ順に、各タップ位置を結ぶことにより、キーボード入力時の入力軌跡を特定する。
 次に、タブレット端末20のコントローラ21は、パターンマッチング処理を実行する(ステップS5-5)。具体的には、コントローラ21のキー配置学習部215は、特定した入力軌跡に一致する文字軌跡パターンを、文字軌跡パターン辞書記憶部において検索する。この場合、キー配置学習部215は、文字軌跡パターンの相似形と入力軌跡とのずれがパターン判定用許容範囲内の場合には、一致していると判定する。この場合、文字軌跡パターンと入力軌跡とのずれは、大小(相似)、回転及び一部変形の場合においても、一致していると判定する。
 次に、タブレット端末20のコントローラ21は、修正なしかどうかについての判定処理を実行する(ステップS5-6)。具体的には、コントローラ21のキー配置学習部215は、削除された文字と同じ表示位置に修正文字が入力されたと判定した場合、修正があったと判定する。
 修正がある場合(ステップS5-6において「NO」の場合)、タブレット端末20のコントローラ21は、修正された文字の特定処理を実行する(ステップS5-7)。具体的には、コントローラ21のキー配置学習部215は、ステップS2-4と同様に削除された文字の代わりに新たに入力された修正文字を特定する。
 一方、修正がない場合(ステップS5-6において「YES」の場合)、タブレット端末20のコントローラ21は、修正された文字の特定処理(ステップS5-7)をスキップする。
 次に、タブレット端末20のコントローラ21は、キー配置の変更処理を実行する(ステップS5-8)。具体的には、コントローラ21のキー配置学習部215は、入力軌跡における各文字のタップ座標が、文字軌跡パターンに一致するように、ソフトウェアキーボード500を移動させる。この場合、ソフトウェアキーボード500を拡大縮小してキー配置に変更する。なお、修正された文字がある場合には、キー配置学習部215は、この文字を含めた文字列を用いて特定した入力軌跡における各文字のタップ位置が、文字軌跡パターンに一致するように、ソフトウェアキーボード500を移動させる。
 次に、タブレット端末20のコントローラ21は、タップ位置に対応したキー領域設定処理を実行する(ステップS5-9)。具体的には、コントローラ21のキー配置学習部215は、入力軌跡パターンの単語を特定し、この単語を構成する各文字のキーを特定する。キー配置学習部215は、特定した文字の各キーについて、個別認識領域が、入力された文字のタップ位置がキーの中心になるように個別認識領域を変更する。上述したステップS5-1以降の処理に戻る。
 本実施形態によれば、上記(1)の利点に加えて、次の利点を得ることができる。
 (5)本実施形態では、タブレット端末20のコントローラ21は、登録された入力軌跡パターンと、キーボード入力時の入力軌跡パターンとのパターンマッチング処理を実行する(ステップS5-5)。コントローラ21は、特定した入力軌跡に一致する文字軌跡パターンを検出した場合には、キー配置の変更処理(ステップS5-8)、タップ位置に対応したキー領域設定処理(ステップS5-9)を実行する。これにより、文字軌跡パターンによってタップ位置を特定できるので、利用者の入力傾向を考慮して、キーの認識範囲を設定することができる。
 また、上記実施形態は、以下の態様に変更してもよい。
 ・ 上記各実施形態では、入力支援装置としてタブレット端末20を用いたが、これに限定されるものではない。例えば、タッチ入力可能なスマートフォン等にも適用することが可能である。
 ・ 上記各実施形態では、入力状況に応じてキー配置を設定した。この場合、入力状況として、タップ時間帯、タップ速度、キー入力開始からの経過時間、入力された文字の直前の先行入力文字を用いた。キー配置を関連付ける入力状況は、これらに限らず、例えば、入力環境、タップの強さ、タップ時間等を用いてよい。ここで、入力環境として、例えば、タブレット端末20に設けた加速度センサによって検出した加速度から特定されるタブレット端末20の傾きを用いることができる。また、タップの強さは、タッチパネルディスプレイ30の圧力センサによって検出したタッチ圧力を用いることができる。更に、タップ時間は、同じタップ位置をタッチしている時間(長押し時間)を用いることができる。このような入力状況を用いることにより、利用者のキー入力の傾向に適したキーの認識範囲を設定することができる。
 ・ 上記各実施形態では、タップ位置に対応したキー領域設定処理において、コントローラ21は、削除文字に用いられるキーのタップ位置が、修正文字に用いられるキーの認識領域に含まれるようにキーの個別認識領域を変更した。この場合、特定したタップ位置を含めるように個別認識領域の大きさを変更する。個別認識領域の変更方法は、このような方法に限定されるものではない。ここで、入力状況に応じて個別認識領域を変更するようにしてもよい。例えば、一つのキーに対して、複数回のキー入力を用いてキーの認識範囲を決定するようにしてもよい。この場合、タブレット端末20のコントローラ21は、キー毎に、入力状況に関連付けて、所定期間のタッチ位置を記録したタッチ頻度マップを生成する。次に、コントローラ21は、このタッチ頻度マップを用いて、所定回数のタッチ位置について統計的な位置を算出する。統計的な位置としては、例えば、所定頻度以上のタッチ領域や、タッチ位置の分布の重心を用いることができる。入力状況に対応させた統計的な位置からキーの認識範囲を変更する。
 ・ 上記第2実施形態においては、タブレット端末20のコントローラ21は、修正があったかどうかについての判定処理を実行する(ステップS2-3)。修正があったと判定した場合(ステップS2-3において「YES」の場合)、タブレット端末20のコントローラ21は、修正された文字の特定処理(ステップS2-4)、タップ位置に対応したキー領域設定処理(ステップS2-5)を実行する。ここで、キーボード全体の移動と、各キーの個別認識領域とを識別しても対応するようにしてもよい。例えば、一つの単語において基準数以上の複数のキー入力が一度に修正された場合には、タブレット端末20のコントローラ21は、キーボード全体の移動を判定するために、各キーの個別認識領域の重心位置を特定し、この重心位置とタッチ位置との位置関係(ずれ)の傾向を算出する。基準数以上の複数のキー入力が修正されるとともに、これらのキー入力において同じ傾向(平行移動や回転等)のずれがあると判定した場合、各キーの個別認識領域を独立して変更するのではなく、誤入力キーと修正キーとのずれ具合に応じて、キーボード全体を移動(平行移動や回転)させる。一方、キー入力の修正が基準数未満の場合や、複数のキー入力においてずれに傾向の共通性がないと判定した場合には、タブレット端末20のコントローラ21は、タップ位置に対応したキー領域設定処理を実行する(ステップS2-5)。
 更に、キー領域設定のタイミングは、キー入力が修正された場合に限定されるものではない。例えば、文字軌跡パターンと入力軌跡パターンとのマッチング時や、予め登録された基準単語の検知時に、このずれ具合に応じて、キーボード全体を移動(平行移動や回転)させるようにしてもよい。
 ・ 上記各実施形態においては、入力状況に応じてキー配置を設定した。ここで、キー入力に使用している手(右手又は左手)に応じて、キーの個別認識範囲を変更してもよい。この場合、タブレット端末20のコントローラ21は、各キーの入力に使用している手が右手か左手かを特定する。例えば、タブレット端末20の保持方法によってタブレット端末20の揺れが異なる。具体的には、左手でタブレット端末20を保持して右手でキー入力する場合、右手でタブレット端末20を保持して左手でキー入力する場合、両手でタブレット端末20を保持して両側からキー入力する場合がある。そこで、タブレット端末20に、加速度パターンに関連付けて、入力に使用する手(右手又は左手)を特定する情報を記憶しておく。タブレット端末20のコントローラ21は、タブレット端末20に設けられた加速度センサによって検出した加速度から加速度パターンを特定し、この加速度パターンに応じて入力に使用する手(右手又は左手)を特定する。
 また、先行文字の入力に用いた指と、後続文字の入力に用いた指との関係に基づいた入力状況に応じて、キーの個別認識範囲を変更してもよい。この場合には、各キーに対して、キー入力に用いる指を記録したテーブルを準備しておく。このテーブルには、先行のキー入力に用いられる指に応じて、後続の各キーの個別認識範囲が記録される。この場合、各キーの個別認識範囲は、入力に用いられる指に応じてグループ化されている。このテーブルにおいては、各キーの入力に一般的に利用される指に対して、後続の各キーの個別認識範囲を登録しておいてもよい。また、利用者に応じて、使用する指に対して、後続の各キーの個別認識範囲を登録してもよい。キー入力時に、タッチ位置に基づいて先行文字入力に用いた指を特定し、これに対応して、後続の各キーの個別認識範囲を特定する。後続文字入力とタッチ位置に応じて、特定した個別認識範囲を変更する。
 また、入力するキー毎に使用する手(右手又は左手)を特定してもよい。この場合、上記第1実施形態の例文を用いて、各キーに対して使用している手(右手又は左手)を特定し、利用状況として記録しておく。ここでは、例文に、右手又は左手の何れでも入力可能なキー(例えば、キーボードの中央のキー)の文字を含めておく。例文に対応したキー入力の入力状況から、入力に用いられている手を特定する。例えば、直前のキー入力から、このキー入力まので経過時間パターン(連続キー入力の速度パターン)に基づいて、同じ手による入力か、異なる手による入力かを特定する。キー毎に、キー入力に用いられている手(右手又は左手)を記録しておく。
 ここで、ソフトウェアキーボード500を使用している場合には、右手又は左手の位置が徐々にずれることがある。例えば、同じ手(右手又は左手)で入力されている複数のキーのタッチ位置が同じ方向にずれてきていることや、同じ手で入力されている複数のキー入力の範囲が拡大縮小してきていることがある。この場合には、同じ手で入力される他のキーの個別認識領域についても、ずれや拡大縮小に応じて調整する。
 具体的には、タブレット端末20のコントローラ21は、初期学習によって、キー入力に使用している手(右手又は左手)を特定し、この情報を入力状況として記録しておく。キー配置学習部215は、キー領域設定処理において、キー認識領域を変更する場合には、この変更履歴を記録しておく。更に、キー配置学習部215は、同じ手(右手又は左手)で入力された複数のキー入力において、所定期間内の変更履歴を特定する。次に、キー配置学習部215は、この変更履歴において、変更傾向(認識領域の変更方向や変更量)が所定誤差範囲内で共通しているかどうかを判定する。変更傾向は共通していると判定した場合には、この手(右手又は左手)で入力されるすべてのキーの個別認識領域を、この変更傾向に従って変更する。これにより、左右の手入力による入力傾向を考慮して、利用者のキー入力を支援することができる。
 更に、タブレット端末20のコントローラ21は、右手又は左手における複数のキーにおいてずれが生じていると判定した場合には、このずれの量に応じて、右手又は左手におけるキーボード領域を全体的にずらしてもよい。例えば、コントローラ21は、キー認識領域を変更した場合の変更履歴から、右手又は左手におけるキーボード領域の全体傾向(変更方向や変更量だけでなく、拡大縮小や回転等)を予測し、この予測に応じて、他のキー認識領域を変更してもよい。
 ・ 上記各実施形態では、文字入力においては、各キーに対応する英文字を入力する場合を想定した。キー入力する文字は、英文字に限られず、かな文字等の日本語入力の場合にも適用することができる。この場合には、かな漢字変換時や確定入力時においては、かな入力方式やローマ字入力方式等、入力方式に応じて、入力されたキー(変換前のキー)を特定して、各キーの個別認識領域を特定する。
 ・ 上記各実施形態では、タブレット端末20のコントローラ21は、ソフトウェアキーボード500をタッチパネルディスプレイ30に表示するとともに、利用者に応じてキーの認識範囲を設定した。ここで、ソフトウェアキーボード500のキー配置を、キーの個別認識領域に応じて変更してもよい。この場合、キーボード制御部214は、個別認識領域に対応したキー配置のソフトウェアキーボード500をタッチパネルディスプレイ30に表示する。
 ・ 上記第2実施形態においては、誤入力が隣接キーの場合には、このキーの認識領域の調整を行う。ここで、キーの認識領域の調整を行う修正は、誤入力が隣接キーの場合に限定されるものではない。例えば、タブレット端末20のコントローラ21が、明らかな誤記(スペルミス)と判定した場合には、この誤記を訂正するべく誤記入力された文字を修正するとともに、この誤記入力に基づいて、キーの認識領域を調整するようにしてもよい。
 また、同じ誤記入力に対して本来の単語への修正について、基準回数以上の繰り返しを検知した場合、タブレット端末20のコントローラ21が、この誤記入力のタッチ位置に対して本来の単語への変換を記憶するようにしてもよい。この場合にも、この本来の単語に変換するとともに、この入力に基づいて、キーの認識領域を調整する。
 ・ 上記第2~第4各実施形態においては、アプリケーションの動作中には、キー配置学習部215は、タップ位置に対応したキー領域設定処理を実行した(ステップS2-5,S3-6,S5-9)。ここで、タブレット端末20の利用状況に応じて、タップ位置に対応したキー領域設定処理を実行させないオフ設定をできるようにしてもよい。例えば、タブレット端末20を本来の利用者以外の人に貸す場合には、オフ設定を行う。これにより、利用者のキー入力の傾向と異なる傾向に基づくキー領域設定を防止することができる。
 ・ 上記第3実施形態では、タブレット端末20のコントローラ21は、単語辞書を用いて文字列の予測処理(ステップS3-3)を実行した。また、上記第4実施形態では、タブレット端末20のコントローラ21は、パターンマッチング処理を実行した(ステップS5-5)。ここで、文字列の予測処理又はパターンマッチング処理を行う前に、文字入力状況に応じて、単語の絞り込みを実行してもよい。具体的には、コントローラ21を、文章作成時の文法規則により、入力される単語の品詞を予測する文法規則判定手段として更に機能させる。コントローラ21のキー配置学習部215は、文字入力状況に応じて、文法規則判定手段から次に入力される単語の品詞情報を取得する。キー配置学習部215は、この品詞情報を用いて単語を特定する。これにより、品詞情報に基づいて入力される文字を絞り込むことができるので、効率的かつ的確にパターンマッチングを行うことができる。
 更に、コントローラ21のキー配置学習部215は、文法規則の代わりに、自然言語の文章を構造化して集積したコーパスに登録されている文節や語句を用いて、単語の品詞情報を特定し、この品詞情報を特定した上で、単語を予測するようにしてもよい。
 ・上記第4実施形態において、コントローラ21は、パターンマッチング処理(ステップS5-5)において、文字軌跡パターン(相似形やその位置等)と入力軌跡とのずれがパターン判定用許容範囲内の場合には、一致していると判定し、キー配置の変更処理を実行した(ステップS5-8)。ここで、文字軌跡パターンの相似形と入力軌跡とのずれが許容範囲にある場合には、入力候補として表示するようにしてもよい。具体的には、コントローラ21は、ずれに基づく近似度から、入力された文字軌跡パターンに対応する単語を特定して、入力候補として表示する。コントローラ21は、利用者によって入力候補の中から選択された単語を用いて、タップ位置に対応したキー領域設定処理を実行する。
 ・ 上記各実施形態においては、タブレット端末20のコントローラ21は、それぞれ、初期学習による配置設定処理、修正入力による配置設定処理、入力予測による配置設定処理、軌跡入力による配置設定処理を実行した。配置設定方法を個別に実行するだけではなく、タブレット端末20のコントローラ21は、これらを併用した配置設定処理を実行してもよい。
 ・ 上記各実施形態においては、タブレット端末20は、利用者IDに関連付けてキーの個別認識領域を記憶した。利用者と特定できる情報であれば利用者IDに限定されるものではない。例えば、タブレット端末20の利用者が1人に限定されている場合には、タブレット端末20毎にキーの個別認識領域を記憶すればよい。また、タブレット端末20の端末識別子に関連付けて個別認識領域を記憶させておくことも可能である。
 更に、タブレット端末20において個別認識領域が登録されている利用者(本来の利用者)と異なる人が入力していると判定した場合には、通常の利用モードとは異なるモードに移行するようにしてもよい。例えば、タブレット端末20のコントローラ21は、本来の利用者と異なると判定した場合、通常の処理とは異なる注意モード処理を実行する。この注意モード処理においては、例えば、保存情報の消去、スクリーンロック、利用継続のための利用者認証、タブレット端末20の利用制限、個別認識領域の更新の停止等を行う。具体的には、コントローラ21に、同一利用者と判定するための判定基準値を記憶させておく。コントローラ21は、入力された一連のキー入力を、この利用者について登録された各キー(又は基準単語の各キー)の個別認識領域や文字軌跡パターンと随時比較しながら、入力傾向をモニタリングする。両者のずれ量が、所定期間、継続的に判定基準値を超えている場合には、コントローラ21は、本来の利用者でないと判定する。この場合、コントローラ21は、上述した注意モード処理を実行する。これにより、タブレット端末20において、本来の利用者の入力傾向を考慮して、利用モードを変更することができる。従って、他の利用者の入力傾向によって、本来の利用者の個別認識領域が不正確になったり、本来の利用者以外の人が勝手に使用したりすることを抑制することができる。
 ・ 上記各実施形態においては、タブレット端末20は、利用者IDに関連付けてキーの個別認識領域を記憶した。ここで、タブレット端末20において、個別認識領域と異なるキー入力を検知した場合には、注意喚起モードになるようにしてもよい。具体的には、本来の利用者の個別認識領域とは、許容範囲を超えて異なるキー入力を検知した場合には、本来の利用者以外の人の利用と判定して入力や表示を制限する。これにより、個別認識領域を用いて、タブレット端末20のセキュリティを確保することができる。
 ・ 上記各実施形態においては、初期学習における例文の文字や修正された文字、軌跡に基づいて特定された文字を本来キーとして特定して、キーの認識範囲の設定を行った。本来キーは、これらに限定されるものではない。例えば、予め登録された基準単語を検知する度に実行してもよい。具体的には、タブレット端末20に、基準単語を登録した基準単語記憶手段を設ける。この基準単語として、例えば、簡単で出現頻度の高い単語や文言を用いてもよい。この単語としては、例えば、「he」、「that」等の代名詞、「is」、「does」等の基本動詞やその否定形、又は、「on」、「in」等の頻度の高い助詞、「the」等の冠詞等が挙げられる。また、出現頻度の高い文言として、コーパスに登録されている文節や語句を利用することも可能である。この場合、すべてのアルファベットが含まれるように、複数の基準単語を選択しておくことが望ましい。タブレット端末20のコントローラ21は、区切り文字間に基準単語を検出した場合には、この基準単語に含まれる文字のタップ位置を特定して、キーの認識範囲を設定する。具体的には、コントローラ21は、検出した基準単語を構成する文字のタップ位置が、この文字に対応するキーの認識領域の中心になるように、キーの認識範囲を調整する。

Claims (12)

  1.  表示部と、入力部と、ソフトウェアキーボードを構成する各キーの認識座標情報を記憶するキー配置記憶部と、前記入力部において入力された情報を前記表示部に出力する制御部とを備えたコンピュータ端末においてキー入力を支援するためのプログラムを記憶した非一時的なコンピュータ可読記録媒体であって、
     前記プログラムは、前記コンピュータ端末における実行時に、前記制御部を、
     前記ソフトウェアキーボードを前記表示部に出力する出力部、
     前記ソフトウェアキーボードにおいて選択されるべき本来キーを特定し、この本来キーに対してタッチされた実際のタッチ位置を特定する特定部、及び
     前記タッチ位置を、前記キー配置記憶部に記録された認識座標情報と比較し、該比較の結果に応じて、前記キー配置記憶部に記録された前記本来キーの認識座標情報を更新する更新部
    として機能させる命令を含むコンピュータ可読記録媒体。
  2.  前記キー配置記憶部には、キーの入力状況情報に関連付けて前記キーの認識座標情報が記憶されており、
     前記プログラムは、前記コンピュータ端末における実行時に、前記制御部を、
     前記タッチ位置とともに、キーの入力状況情報を取得するキー入力取得部、及び
     前記取得した入力状況情報に対応する前記キーの認識座標情報を前記キー配置記憶部において特定する第1情報取得部
    として更に機能させる命令を含む請求項1に記載のコンピュータ可読記録媒体。
  3.  前記コンピュータ端末は、キーの認識座標情報を特定するために用いる例文が記憶された例文記憶部を更に備え、
     前記プログラムは、前記コンピュータ端末における実行時に、前記制御部を、
     前記例文記憶部に記憶された例文を表示して、この例文についてのキー入力を促す入力プロンプト部として更に機能させる命令を含み、
     前記特定部は、前記例文を構成する文字に対応するキーを本来キーとして特定する請求項1又は2に記載のコンピュータ可読記録媒体。
  4.  前記特定部は、修正された文字を検知した場合に、修正後の文字に対応するキーを本来キーとして特定し、修正前の文字が入力されたときにタッチされたタッチ位置を実際のタッチとして特定する請求項1~3のいずれか1項に記載のコンピュータ可読記録媒体。
  5.  前記特定部は、入力文字に応じて単語を予測し、予測した単語を構成する文字に対応するキーを本来キーとして特定する請求項1~4のいずれか1項に記載のコンピュータ可読記録媒体。
  6.  前記コンピュータ端末は、入力される単語候補を記憶した辞書記憶部を更に備え、
     前記特定部は、入力された文字列と、前記辞書に登録された単語の文字列とを照合し、該照合の結果に基づき、前記単語の予測を行う請求項5に記載のコンピュータ可読記録媒体。
  7.  前記コンピュータ端末は、入力される単語について、前記単語を構成する文字のキー配置に応じて、入力時の文字軌跡パターンを登録した辞書を記憶した文字軌跡パターン記憶部を更に備え、
     前記特定部は、取得したタッチ位置の入力軌跡パターンと、前記文字軌跡パターン記憶部に記録された前記文字軌跡パターンとを照合し、該照合の結果に基づき、前記単語の予測を行う請求項5に記載のコンピュータ可読記録媒体。
  8.  前記コンピュータ端末は、基準単語を記憶した基準単語記憶部を更に備え、
     前記特定部は、前記基準単語記憶部に記憶された基準単語が入力されたことを検出する度に、この基準単語を構成する各文字のキーを本来キーとして特定する請求項5に記載のコンピュータ可読記録媒体。
  9.  前記プログラムは、前記コンピュータ端末における実行時に、前記制御部を、文章作成時の文法規則により、入力される単語の品詞を予測する文法規則判定部として更に機能させる命令を含み、
     前記特定部は、文字入力状況に応じて、前記文法規則判定部から入力された単語の品詞情報を取得し、
     前記品詞情報を用いて前記単語を特定する請求項5~8のいずれか1項に記載のコンピュータ可読記録媒体。
  10.  前記キー配置記憶部には、利用者識別子に関連付けて各キーの認識座標情報が記憶されており、
     前記プログラムは、前記コンピュータ端末における実行時に、前記制御部を、
     前記利用者の利用者識別子を特定し、この利用者識別子に関連付けて各キーの認識座標情報を前記キー配置記憶部に記録する記録部として更に機能させる命令を含む請求項1~9のいずれか1項に記載のコンピュータ可読記録媒体。
  11.  前記プログラムは、前記コンピュータ端末における実行時に、前記制御部を、
     使用する利用者のキーの認識座標情報を特定する第2情報取得部、及び
     取得したタッチ位置と前記認識座標情報とのずれ量を算出し、前記ずれ量が同一利用者を判定するための判定基準値を超える場合には、注意モード処理を実行する注意モード処理部として更に機能させる命令を含む請求項1~10のいずれか1項に記載のコンピュータ可読記録媒体。
  12.  表示部と、入力部と、ソフトウェアキーボードを構成する各キーの認識座標情報を記憶するキー配置記憶部と、前記入力部において入力された情報を前記表示部に出力する制御部を備えた入力支援装置であって、
     前記制御部は、
     前記ソフトウェアキーボードを前記表示部に出力する出力部と、
     前記ソフトウェアキーボードにおいて選択されるべき本来キーを特定し、この本来キーに対してタッチされた実際のタッチ位置を特定する特定部と、
     前記タッチ位置を、前記キー配置記憶部に記録された認識座標情報と比較し、該比較の結果に応じて、前記キー配置記憶部に記録された前記本来キーの認識座標情報を更新する更新部と
    を備えた入力支援装置。
PCT/JP2013/059121 2012-03-30 2013-03-27 入力支援プログラム及び入力支援装置 WO2013146938A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012080821A JP5475821B2 (ja) 2012-03-30 2012-03-30 入力支援プログラム及び入力支援装置
JP2012-080821 2012-03-30

Publications (1)

Publication Number Publication Date
WO2013146938A1 true WO2013146938A1 (ja) 2013-10-03

Family

ID=49260187

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/059121 WO2013146938A1 (ja) 2012-03-30 2013-03-27 入力支援プログラム及び入力支援装置

Country Status (2)

Country Link
JP (1) JP5475821B2 (ja)
WO (1) WO2013146938A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6226472B2 (ja) * 2014-02-14 2017-11-08 Kddi株式会社 入力支援装置、入力支援システムおよびプログラム
JP6220374B2 (ja) * 2015-12-18 2017-10-25 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、出力文字コード判定方法、及びプログラム
JP6589772B2 (ja) * 2016-08-19 2019-10-16 京セラドキュメントソリューションズ株式会社 認証装置及び画像形成装置
KR101919841B1 (ko) * 2017-04-13 2018-11-20 엔에이치엔엔터테인먼트 주식회사 터치 오기 교정 방법 및 시스템
KR102592044B1 (ko) 2018-06-29 2023-10-23 삼성전자 주식회사 전자 장치에서 물리적 키보드의 레이아웃 설정 방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916304A (ja) * 1995-06-28 1997-01-17 Hitachi Ltd 情報処理装置
JPH11191034A (ja) * 1997-12-25 1999-07-13 Canon Inc キーカスタマイズ処理方法とその装置
JP2000066817A (ja) * 1998-08-20 2000-03-03 Nec Corp キーボード装置
JP2006243939A (ja) * 2005-03-01 2006-09-14 Oki Electric Ind Co Ltd タッチパネル式入力装置
JP2010079631A (ja) * 2008-09-26 2010-04-08 Kyocera Corp 入力装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04191920A (ja) * 1990-11-27 1992-07-10 Oki Electric Ind Co Ltd タッチパネル装置におけるタッチ位置補正方法
JP3209279B2 (ja) * 1991-06-17 2001-09-17 沖電気工業株式会社 表示入力装置および表示入力装置を有する自動取引装置
JPH08147093A (ja) * 1994-11-18 1996-06-07 Ricoh Co Ltd ポインティングデバイス
JP3375773B2 (ja) * 1995-02-10 2003-02-10 株式会社リコー タッチパネル付き入力表示装置
US5818451A (en) * 1996-08-12 1998-10-06 International Busienss Machines Corporation Computer programmed soft keyboard system, method and apparatus having user input displacement
JP3537632B2 (ja) * 1997-05-12 2004-06-14 日本信号株式会社 自動券売機
EP1457864A1 (en) * 2001-09-21 2004-09-15 International Business Machines Corporation INPUT APPARATUS, COMPUTER APPARATUS, METHOD FOR IDENTIFYING INPUT OBJECT, METHOD FOR IDENTIFYING INPUT OBJECT IN KEYBOARD, AND COMPUTER PROGRAM
JP2003288172A (ja) * 2002-03-27 2003-10-10 Kenwood Corp 情報処理装置、情報処理方法、及びプログラム
JP4526235B2 (ja) * 2003-03-17 2010-08-18 シャープ株式会社 タッチパネル入力装置及びタッチパネル入力制御方法
JP4466076B2 (ja) * 2003-12-26 2010-05-26 村田機械株式会社 表示入力装置
JP4037378B2 (ja) * 2004-03-26 2008-01-23 シャープ株式会社 情報処理装置、画像出力装置、情報処理プログラムおよび記録媒体
JP4803089B2 (ja) * 2007-03-28 2011-10-26 Kddi株式会社 タッチパネルによる入力装置およびその方法
US8300023B2 (en) * 2009-04-10 2012-10-30 Qualcomm Incorporated Virtual keypad generator with learning capabilities
JP2011175456A (ja) * 2010-02-24 2011-09-08 Kyocera Mita Corp 操作装置および画像形成装置
JP2011243157A (ja) * 2010-05-21 2011-12-01 Panasonic Corp 電子機器、ボタンサイズ制御方法、及びプログラム
JP2012032872A (ja) * 2010-07-28 2012-02-16 Funai Electric Co Ltd 文字入力装置
JP5463241B2 (ja) * 2010-08-25 2014-04-09 京セラ株式会社 入力装置
JP5461345B2 (ja) * 2010-08-25 2014-04-02 京セラ株式会社 入力装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916304A (ja) * 1995-06-28 1997-01-17 Hitachi Ltd 情報処理装置
JPH11191034A (ja) * 1997-12-25 1999-07-13 Canon Inc キーカスタマイズ処理方法とその装置
JP2000066817A (ja) * 1998-08-20 2000-03-03 Nec Corp キーボード装置
JP2006243939A (ja) * 2005-03-01 2006-09-14 Oki Electric Ind Co Ltd タッチパネル式入力装置
JP2010079631A (ja) * 2008-09-26 2010-04-08 Kyocera Corp 入力装置

Also Published As

Publication number Publication date
JP2013211703A (ja) 2013-10-10
JP5475821B2 (ja) 2014-04-16

Similar Documents

Publication Publication Date Title
US10996851B2 (en) Split virtual keyboard on a mobile computing device
KR101477530B1 (ko) 이동 전화의 터치 스크린과 함께 사용하기 위한 다중 모드 문자 입력 시스템
US6104317A (en) Data entry device and method
CN106201324B (zh) 动态定位的屏幕上键盘
US20170308522A1 (en) Multi-gesture text input prediction
JP4527731B2 (ja) 自動訂正機能を備えた仮想キーボードシステム
US20130257732A1 (en) Adaptive virtual keyboard
US20150123928A1 (en) Multi-touch text input
US20050225538A1 (en) Automatically adaptable virtual keyboard
WO2013146938A1 (ja) 入力支援プログラム及び入力支援装置
US20150063891A1 (en) Overloaded typing apparatuses, and related devices, systems, and methods
US20140108004A1 (en) Text/character input system, such as for use with touch screens on mobile phones
CN102576254B (zh) 数据录入设备(ded)
CN105229574A (zh) 减少基于触摸的键盘的错误率
WO2014158553A2 (en) Columnar fitted virtual keyboard
US20150067571A1 (en) Word prediction on an onscreen keyboard
JP6548358B2 (ja) マルチ入力ターゲットに関連付けられた1つ又はそれ以上の入力を入力するためのシステム及び方法
WO2014014078A1 (ja) 入力支援プログラム及び入力支援装置
CN102147706A (zh) 一种通过触滑方式输入汉字全拼的方法
KR101901744B1 (ko) 오타 수정 방법
CN108733227B (zh) 输入装置及其输入方法
JP6605288B2 (ja) データ入力装置
Bhatti et al. Mistype resistant keyboard (NexKey)
KR20220122907A (ko) 입력 시스템 및 입력 방법
JP2019083057A (ja) マルチ入力ターゲットに関連付けられた1つ又はそれ以上の入力を入力するためのシステム及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13769428

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13769428

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE