WO2016181565A1 - 文字入力受付方法、文字入力受付装置及び文字入力受付プログラム - Google Patents

文字入力受付方法、文字入力受付装置及び文字入力受付プログラム Download PDF

Info

Publication number
WO2016181565A1
WO2016181565A1 PCT/JP2015/063957 JP2015063957W WO2016181565A1 WO 2016181565 A1 WO2016181565 A1 WO 2016181565A1 JP 2015063957 W JP2015063957 W JP 2015063957W WO 2016181565 A1 WO2016181565 A1 WO 2016181565A1
Authority
WO
WIPO (PCT)
Prior art keywords
character
input
candidate
correction
display screen
Prior art date
Application number
PCT/JP2015/063957
Other languages
English (en)
French (fr)
Inventor
悠吾 松田
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2015/063957 priority Critical patent/WO2016181565A1/ja
Priority to CN201580079863.5A priority patent/CN107533648A/zh
Priority to JP2017517579A priority patent/JPWO2016181565A1/ja
Priority to EP15891889.6A priority patent/EP3296928A4/en
Publication of WO2016181565A1 publication Critical patent/WO2016181565A1/ja
Priority to US15/810,672 priority patent/US20180068194A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • G06V30/347Sampling; Contour coding; Stroke extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/12Detection or correction of errors, e.g. by rescanning the pattern
    • G06V30/127Detection or correction of errors, e.g. by rescanning the pattern with the intervention of an operator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/36Matching; Classification
    • G06V30/387Matching; Classification using human interaction, e.g. selection of the best displayed recognition candidate
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting

Definitions

  • This disclosure relates to a character input reception method, a character input reception device, and a character input reception program.
  • a tool that accepts handwritten input or voice input by a user and processes a recognized character obtained by performing character recognition for handwritten input or voice input or the like as an input character is known.
  • the recognition application determines whether the first candidate presented by the recognition application is correct. If the first candidate presented by the recognition application is not correct, the recognition application generates a candidate display screen including correction candidates in response to an instruction from the user. And the user selects an appropriate correction candidate.
  • information obtained when recognizing the recognized character cannot be used on the tool side that processes the recognized character whose input has been confirmed by the recognition application as the input character.
  • Other information obtained when recognizing a recognized character includes, for example, information related to a stroke input by handwriting, information related to a correction candidate that can replace the recognized character, and the like.
  • the candidate display screen cannot be presented to a user who wants to correct a recognized character given as an input character. Therefore, in the above-described conventional tool, when the user wants to correct a specific character given as an input character, the user selects the specific character and again performs voice input or handwritten input, thereby specifying the specific character. It was necessary to erase the characters or replace them with other characters.
  • the first candidate character that the user wants to correct
  • the first candidate that recognizes speech or handwriting is inappropriate
  • the candidate display screen There is a high possibility that the correction candidates to be corrected are not appropriate correction candidates. If an appropriate correction candidate does not exist among the correction candidates presented on the candidate display screen, an operation for deleting the candidate display (that is, returning to the original input screen) is performed, and it takes time to input again.
  • an object is to reduce the trouble of correcting specific characters input by handwriting on a display screen of characters input by handwriting.
  • a computer On the display screen of handwritten input characters, accept selection instructions for specific characters input by handwriting, In response to receiving the selection instruction, on the display screen, a candidate display screen for displaying the correction candidate for the specific character is displayed in a display range extending to at least the display region of the specific character, In response to handwriting input on the candidate display screen, the specific character is corrected.
  • a character input acceptance method is provided.
  • FIG. 3 is a diagram illustrating a program configuration according to the first embodiment. It is a figure which shows one form of a character input reception apparatus. It is a figure which shows another form of a character input reception apparatus. It is a figure which shows an example of the hardware constitutions of a character input reception apparatus. It is a figure which shows an example of a function structure of a character input reception apparatus. 3 is a schematic flowchart illustrating an example of a character input process executed by a processing unit according to the first embodiment. 5 is a schematic flowchart illustrating an example of a character correction process executed by a processing unit according to the first embodiment. It is a figure which shows an example of stroke information. It is explanatory drawing of the coordinate information which concerns on one stroke.
  • FIG. 10 is a diagram illustrating a program configuration according to a second embodiment. It is a figure which shows an example of a function structure of a character input reception apparatus. 12 is a schematic flowchart illustrating an example of processing performed by the character input reception device according to the second embodiment. 12 is a schematic flowchart illustrating an example of a character input process executed by a processing unit according to the third embodiment. 12 is a schematic flowchart illustrating an example of a character correction process executed by a processing unit according to the third embodiment.
  • FIG. 12 is a schematic flowchart illustrating an example of a character input process executed by a processing unit according to the fourth embodiment. It is a figure which shows a modification. It is explanatory drawing of the other example of the handwriting input method of correction content. It is explanatory drawing of the other example of the handwriting input method of correction content. It is explanatory drawing of the other example of the handwriting input method of correction content. It is explanatory drawing of the other example of the handwriting input method of correction content. It is explanatory drawing of the other example of the handwriting input method of correction content. It is a figure which shows the other example of the input method of a selection instruction
  • a character string is a concept representing an aggregate including one or more characters. Therefore, the character string may be a single character.
  • the character is a concept including not only hiragana, katakana, alphabet, kanji, and numbers but also symbols.
  • the modification of the character string is a concept including not only the replacement of the character string by a new character string but also the deletion of the character string and the insertion of a new character string in the character string.
  • FIG. 1 is a diagram for explaining a program configuration according to one embodiment (first embodiment).
  • the program PR includes the application 10.
  • a device that executes the application 10 is referred to as “character input receiving device 1”.
  • the application 10 includes a handwritten character recognition application (an example of a recognition application) that recognizes handwritten characters and displays the recognized characters.
  • Handwritten input is an input method for expressing a character to be input by moving a hand (in the following example, a finger), and is a concept including an input method using Stalice.
  • the application 10 generates a candidate display screen that displays correction candidates in response to a selection instruction for a character string whose input is confirmed by the recognition application.
  • the character string whose input is confirmed by the recognition application is, for example, a character string in which the input is at least temporarily confirmed, for example, a character string in which an underline indicating an unconfirmed state (correctable state) is displayed, Means different.
  • a character string whose input is confirmed by the recognition application is a character string that cannot be corrected unless a selection instruction is input.
  • the selection instruction is an instruction input by the user.
  • the selection instruction is arbitrary as long as the application 10 can identify the correction target character in the character string and can recognize that the user intends to correct the character string (correction target character).
  • the selection instruction may be an instruction of the embodiment. If the character string to be corrected is composed of one character, the selection instruction may be an instruction in an arbitrary form as long as the application 10 can recognize that the user intends to correct the character. Good. An example of a selection instruction input method will be described later.
  • the candidate display screen is generated based on the stroke information saved by the application 10. This stroke information will be described later.
  • the application 10 recognizes a character representing a correction content for the correction target character based on a stroke handwritten on the candidate display screen by the user.
  • the application 10 corrects the character string related to the selection instruction based on the recognition result (the contents of the handwritten input) based on the stroke input by handwriting on the candidate display screen. A specific example of the correction method will be described later.
  • the stroke corresponds to the trajectory (coordinate sequence) of a finger or Stalice when handwritten.
  • One unit of the stroke is one locus (trajectory for one stroke) continuous on the coordinate axis and the time axis.
  • the coordinate axis is a coordinate axis on the operation display surface 90 (see FIG. 9) input by handwriting.
  • One character can be expressed by one or more strokes.
  • FIG. 2 is a diagram showing one form of the character input receiving device.
  • the character input receiving device 1 can be in a form that can be worn by the user, for example, as shown in FIG.
  • the character input receiving device 1 is a wristwatch-type device 2 that can be worn on a user's arm by a belt, and includes a display unit 2A that can be touch-operated.
  • 2 A of display parts form the operation display surface input by handwriting.
  • FIG. 3 is a diagram showing another embodiment of the character input receiving device.
  • the character input receiving device 1 can be in the form of a terminal that can be carried by the user, for example, as shown in FIG.
  • the character input reception device 1 is a tablet device 3 and includes a display unit 3A that can be touch-operated.
  • 3 A of display parts form the operation display surface input by handwriting.
  • FIG. 4 is a diagram illustrating an example of a hardware configuration of the character input receiving device.
  • the character input reception device 1 is formed by a single computer.
  • the character input receiving device 1 may be formed by a set of one or more computers.
  • the character input receiving device 1 includes a display operation device 101, a drive device 102, an auxiliary storage device 103, a memory device 104, an arithmetic processing device 105, and an interface device 106, which are mutually connected by a bus B.
  • the display operation device 101 includes a touch panel, for example, and is used for inputting various signals and displaying (outputting) various signals.
  • the display operation device 101 includes an operation display surface capable of a touch operation.
  • the touch operation includes an operation for handwriting input, and includes other arbitrary operations such as a tap, a slide, and a pinch.
  • the display operation device 101 is realized by the display unit 2A.
  • the display operation device 101 is realized by the display unit 3A.
  • the interface device 106 includes a model, a LAN card, and the like, and is used for connecting to a network.
  • the application 10 is at least a part of various programs that control the character input receiving device 1. These programs are provided by, for example, distribution by the recording medium 107 or downloading from a network.
  • the recording medium 107 on which the application 10 is recorded is a recording medium such as a CD-ROM, a flexible disk, a magneto-optical disk, etc., which records information optically, electrically or magnetically, a ROM, a flash memory, etc.
  • Various types of recording media such as a semiconductor memory for electrical recording can be used.
  • each program is installed from the recording medium 107 into the auxiliary storage device 103 via the drive device 102.
  • Each program downloaded from the network is installed in the auxiliary storage device 103 via the interface device 106.
  • the auxiliary storage device 103 stores the installed application 10 and also stores an OS (Operating System) that is basic software, necessary files, data, and the like.
  • the memory device 104 reads and stores each program in the auxiliary storage device 103 when each program is started.
  • the arithmetic processing unit 105 implements various processes as described later according to each program stored in the memory device 104.
  • FIG. 5 is a diagram illustrating an example of a functional configuration of the character input receiving device.
  • the character input receiving device 1 includes a processing unit 11 and a storage unit 41.
  • the processing unit 11 is realized when the arithmetic processing unit 105 executes the application 10.
  • the storage unit 41 is realized by the auxiliary storage device 103 or the memory device 104.
  • the character input receiving device 1 executes character input processing and character correction processing.
  • character input processing and character correction processing executed by the character input reception device 1 will be described.
  • FIG. 6 and 7 are schematic flowcharts for explaining an example of processing by the character input receiving device.
  • FIG. 6 is a schematic flowchart illustrating an example of the character input process executed by the processing unit 11.
  • FIG. 7 is a schematic flowchart illustrating an example of a character correction process executed by the processing unit 11.
  • 6 and 7, dotted lines and arrows R1 to R5 connected to the storage unit 41 indicate reading of data from the storage unit 41 or writing of data to the storage unit 41 by corresponding processing.
  • step S600 the processing unit 11 detects the start of handwriting input.
  • the start of handwriting input is detected, for example, when handwriting input is detected in a state where handwriting input has not been detected for a certain period of time.
  • step S602 the processing unit 11 detects the end of handwriting input.
  • the end of handwriting input is detected, for example, when handwriting input is not detected for a certain period of time.
  • step S604 the processing unit 11 responds to the one or more strokes based on one or more strokes obtained from the start time of the handwriting input detected in step S600 to the end time of the handwriting input detected in step S602. Recognize one or more characters.
  • the characters recognized in this way are also referred to as “recognized characters”.
  • the processing unit 11 recognizes one or more characters based on one or more strokes, the processing unit 11 derives a plurality of candidates that can be formed by the one or more strokes, and the likelihood of each candidate is derived.
  • An evaluation value (score) representing is calculated.
  • the processing unit 11 creates a plurality of combination candidates and calculates an evaluation value indicating the likelihood of the candidate for each combination candidate. Then, the processing unit 11 outputs the candidate having the highest evaluation value as the first candidate (recognized character).
  • the recognized characters are different from the correction candidate characters described below.
  • the recognized character generally corresponds to the first candidate (most likely candidate), and the correction candidate corresponds to the second most likely candidate. In the following, the correction candidate characters are also simply referred to as “correction candidates”.
  • step S606 the processing unit 11 holds the stroke information used in the recognition in step S604 in the storage unit 41 (see arrow R1).
  • the stroke information includes stroke coordinate information and recognition result information.
  • Stroke coordinate information includes coordinate information of each stroke.
  • the stroke coordinate information is managed for each stroke ID by giving an ID (stroke ID) for each obtained stroke.
  • the stroke ID also represents a time-series order between the strokes.
  • the stroke information may separately include time information such as a time stamp.
  • the stroke coordinate information related to each stroke includes a coordinate sequence of a plurality of points representing the stroke.
  • the coordinate display system for the stroke coordinate information is based on the operation display surface 90, and the origin of the coordinate system is fixed at the upper left corner of the operation display surface 90, for example, as shown in FIG.
  • the recognition result information represents a correspondence relationship between the stroke used for recognition in step S604 and the character (recognized character) recognized by the stroke.
  • the recognition result information is stored for each recognized character as shown in FIG. For example, in the example shown in FIG. 10, “A”, “B”.
  • the recognition result information includes each recognized character and a stroke ID representing a stroke forming each recognized character.
  • the recognition result information related to the recognition character “A” includes three stroke IDs “s01”, “s02”, and “s03”. This indicates that the recognized character “A” is recognized based on a combination of three strokes related to the stroke IDs “s01”, “s02”, and “s03”.
  • step S608 the processing unit 11 displays a recognized character based on the recognition result information. That is, the processing unit 11 displays a character string including one or more recognized characters on the display operation device 101 based on the recognition result information. In this way, the content of the character string displayed on the display operation device 101 with a series of handwritten inputs is determined when the latest recognition result for the series of handwritten inputs is reflected.
  • FIG. 11 is a diagram schematically illustrating an example of a screen of the display operation device 101 on which recognition characters are displayed. In the example shown in FIG. 11, a character string 701 including three recognized characters “A”, “B”, and “C”, and five recognized characters “1”, “2”, “3”, “4”, and A character string 702 including “5” is displayed.
  • step S608 the processing unit 11 generates display position information representing one or more displayed recognition characters and the respective display positions, and stores the display position information in the storage unit 41.
  • the display position information is stored for each recognized character as shown in FIG.
  • the display position information may be coordinate information representing the coordinates of the center of the display position of the recognized character, or may be a set of coordinate information representing a plurality of coordinates representing the display range of the recognized character.
  • the display position information includes coordinate information of the center of the display position related to each recognized character “A”, “B”.
  • the coordinate system related to the display position information is the same as the coordinate system related to the stroke coordinate information, and the operation display surface 90 of the display operation device 101 is a reference, and the origin of the coordinate system is, for example, the upper left of the operation display surface 90 (See FIG. 9).
  • FIGS. 7 the processing of FIG. 7 will be described with reference to FIGS.
  • the user wants to correct the recognized character “3” in a state where the recognized character as shown in FIG. 11 is displayed on the operation display surface 90 of the display operation device 101.
  • 13 to 21 are diagrams schematically showing examples of various states of the screen of the display operation device 101.
  • step S700 the processing unit 11 detects a selection instruction for a character string (an example of a character string whose input has been confirmed by the recognition application) displayed according to the process illustrated in FIG.
  • the selection instruction is detected by detecting a touch input to the display area of the recognized character on the operation display surface 90 in a state where the recognized character is displayed on the display operation device 101.
  • the processing unit 11 specifies a recognized character displayed at a position corresponding to the touch input position as a correction target. For example, in the example illustrated in FIG. 13, the user wants to correct the character “3” and performs touch input on the display position of the character “3” on the display operation device 101.
  • FIG. 13 illustrates a point touch-input by the user, which is indicated by T1.
  • step S702 the processing unit 11 acquires stroke information (stroke coordinate information and recognition result information) stored in the storage unit 41 (see arrow R2). At this time, the processing unit 11 acquires stroke information related to the recognition character to be corrected.
  • step S704 the processing unit 11 derives a correction candidate based on the stroke information acquired in step S702, and generates a candidate display screen that displays the derived correction candidate.
  • the candidate display screen is a screen including a candidate display from which correction candidates can be selected.
  • the candidate display screen is formed on a part or almost the entire screen of the operation display surface 90 of the display operation device 101.
  • the display area of the candidate display on the candidate display screen extends to the display area of the recognition character to be corrected.
  • the processing unit 11 derives correction candidates “ru”, “ro”,.
  • the candidate display screen is formed on the entire screen of the operation display surface 90 of the display operation device 101 as an example.
  • the candidate display screen is formed on the entire screen of the operation display surface 90 of the display operation device 101.
  • the candidate display screen has eight candidate candidates “3”, “ru”, “ro”,.
  • the target recognition character “3” is superimposed on the display area.
  • the candidate display includes the same character “3” as the correction target recognized character “3” as a correction candidate, but the correction candidate may not be included.
  • step S706 the processing unit 11 detects a touch input on the operation display surface 90 after displaying the candidate display screen.
  • step S708 the processing unit 11 determines whether the touch input detected in step S706 is a selection operation or a handwriting input. For example, the processing unit 11 determines that the touch input is a selection operation when the touch input detected in step S706 is a short-time single touch input (that is, a single tap) to the display area of the candidate display. . Handwritten input is detected, for example, when a stroke longer than a certain length is detected. If it is determined that the touch input detected in step S706 is a selection operation, the process proceeds to step S710. If it is determined that the touch input is a handwriting input, the process proceeds to step S712.
  • the user wants to replace with the correction candidate “RO”, and performs touch input to the display position of the character “RO” in the candidate display 80.
  • the point touch-input by the user is drawn on the candidate display screen (see T2). In this case, the process proceeds to step S710.
  • the user performs handwriting input in an area outside the candidate display 80.
  • the stroke input by handwriting is drawn on the candidate display screen (see T3). In this case, the process proceeds to step S712.
  • the user does not have a desired correction candidate in the candidate display 80, so the user performs handwriting input of correction contents in the display area of the candidate display 80.
  • the stroke related to the correction content “2” is drawn on the candidate display screen (see T4). In this case, the process proceeds to step S712.
  • step S710 the processing unit 11 specifies (selects) a correction candidate corresponding to the touch input position (single tap position) as a recognition character for correction. Then, the processing unit 11 updates the recognition result information in the storage unit 41 (reflects replacement) so that the recognition character to be corrected is replaced with the selected correction candidate (recognition character for correction) (see arrow R5).
  • the screen update processing in the next step S728 causes the screen of the operation display surface 90 of the display operation device 101 to be corrected with the recognition character “3” to be corrected as shown in FIG. The screen is updated to display the replaced character string.
  • step S712 the processing unit 11 detects the end of handwriting input.
  • the end of handwriting input is detected, for example, when handwriting input is not detected for a certain time ⁇ T.
  • step S714 the processing unit 11 determines whether or not the handwriting input detected in step S706 has been performed within the display area of the candidate display. For example, the processing unit 11 determines that the handwriting input is performed in the display area of the candidate display when a portion of the stroke passing area related to the handwriting input is present in the display area of the candidate display. If it is determined that the handwriting input is performed within the display area of the candidate display, the process proceeds to step S718, and otherwise, the process proceeds to step S730. For example, in the example illustrated in FIG. 16, it is determined that the handwriting input is performed outside the display area of the candidate display 80, and the process proceeds to step S ⁇ b> 730. In the example illustrated in FIG. 17, it is determined that the handwriting input is performed within the display area of the candidate display 80, and the process proceeds to step S ⁇ b> 718.
  • step S7108 the processing unit 11 corresponds to the one or more strokes based on one or more strokes obtained from the input start time detected in step S706 to the handwriting input end time detected in step S712. Recognizes one character.
  • the recognition method itself may be the same as in step S604.
  • the processing unit 11 performs character recognition based on the one character candidate without creating a combination candidate.
  • the character recognized in this way becomes a recognition character for correction.
  • the recognition character for correction is recognized together with the correction candidate in the same manner as the recognition character in step S604.
  • the correction recognition character generally corresponds to the first candidate (the most likely candidate), and the correction candidate corresponds to the second most likely candidate.
  • step S720 the processing unit 11 determines whether or not the correction recognition character is a deletion instruction.
  • the deletion instruction is an input for instructing deletion of a recognition character to be corrected (an example of control content).
  • the deletion instruction is realized by handwriting a predetermined character in the display area of the candidate display.
  • the predetermined character is preferably a character that can conceptually indicate deletion, and may include, for example, “ ⁇ ”, “/”, “ ⁇ ”, etc., representing a horizontal line.
  • Predetermined characters (such as “-”) are preset and notified to the user. For example, when the recognition character for correction is a predetermined character and the evaluation value indicating the likelihood is equal to or higher than a preset threshold value, the processing unit 11 determines that the correction recognition character is a deletion instruction. .
  • the user desires to delete the recognized character “3” to be corrected, and performs handwritten input related to the predetermined character “ ⁇ ” in the display area of the candidate display 80.
  • handwriting input in response to such handwriting input, in the example shown in FIG. 19, a stroke related to a predetermined character “ ⁇ ” input by handwriting is drawn (see T5). In this case, the process proceeds to step S722.
  • step S722 in response to the deletion instruction, the processing unit 11 updates the recognition result information in the storage unit 41 (reflects deletion) so that the recognition character to be corrected is deleted (see arrow R4). That is, the processing unit 11 deletes the recognition result information related to the recognition character to be corrected from the storage unit 41. Further, the processing unit 11 deletes the stroke information related to the recognition character to be corrected from the storage unit 41.
  • the screen update process in the next step S728 causes the screen of the operation display surface 90 of the display operation device 101 to have the recognition character “3” to be corrected as shown in FIG. The screen is updated to display the packed character string.
  • step S724 the processing unit 11 updates the recognition result information in the storage unit 41 (reflects replacement) so that the recognition character to be corrected is replaced with the correction recognition character (refer to the arrow R3). Further, the processing unit 11 updates the stroke information (stroke coordinate information and recognition result information) in the storage unit 41 (reflects replacement) (see arrow R3). Specifically, the processing unit 11 assigns a new stroke ID to one or more strokes used for recognition in step S718, and generates stroke coordinate information related to the one or more strokes. Then, the processing unit 11 replaces the stroke coordinate information related to the recognition character to be corrected in the storage unit 41 with the generated stroke coordinate information.
  • the processing unit 11 updates the recognition result information in the storage unit 41 by replacing the recognition character to be corrected and the stroke ID corresponding thereto with the recognition character for correction and the corresponding stroke ID.
  • the screen update process in the next step S728 replaces the recognition character “3” to be corrected with the correction candidate “2” on the screen of the operation display surface 90 of the display operation device 101 as shown in FIG.
  • the screen is updated to display the displayed character string.
  • the stroke information replaced in this way can be used in the same manner as the above-described correction of the recognized character when the correction recognized character is to be corrected thereafter.
  • step S728, the processing unit 11 updates the screen based on the updated recognition result information.
  • the processing unit 11 deletes the display position information related to the recognized character to be corrected, and changes the coordinate information of other recognized characters (that is, the vacant part is filled by the deletion). Reflects the change in display position.
  • the processing unit 11 updates the display position information (replaces only the recognized character and maintains the coordinate information).
  • step S730 the processing unit 11 finishes displaying the candidate display and returns to the original screen (see FIG. 11).
  • the stroke information used in deriving the recognized character is retained without being discarded in step S606 in FIG. 6 (and step S724 in FIG. 7). I can leave. Thereby, the effort of the correction with respect to the character string by a user can be reduced. In other words, even for a character string whose input is confirmed by the recognition application, the recognition application stores the stroke information used in deriving the recognized character related to the character string without discarding it. It is possible to reduce the trouble of correcting the fixed character string. Specifically, when a selection instruction for a character string is input from the user, a candidate display screen that displays correction candidates can be generated and displayed based on stroke information corresponding to the recognized character related to the selection instruction.
  • the user When a correction candidate desired by the user exists among the correction candidates, the user only has to select the desired correction candidate (no need to perform handwriting input again), and the trouble of correction is reduced. . Further, even when the correction candidate desired by the user does not exist among the correction candidates, the user recognizes the correction target by performing handwriting input in the display area of the candidate display 80 in the state of the candidate display screen. You can modify the characters directly. That is, even when the correction candidate desired by the user does not exist among the correction candidates, the user directly corrects the recognition character to be corrected without performing an operation to return the candidate display screen to the original screen. it can. Thereby, the trouble of correction is reduced.
  • the size of the display area of the candidate display 80 is larger from the viewpoint of recognition accuracy. Is desirable.
  • the display area of the candidate display 80 covers the display area of the recognized character to be corrected. That is, the display area of the candidate display 80 is so large that the display of the candidate display 80 hides the display of the recognized character to be corrected. Thereby, the display area of the candidate display 80 can be widened, and the recognition accuracy for handwritten input to the display area of the candidate display 80 can be increased.
  • Such an effect is obtained when the operation display surface 90 of the display operation device 101 of the character input reception device 1 is relatively small (for example, in the case of a device that can be worn by the user as shown in FIG. 2). Especially useful. This is because when the operation display surface 90 of the display operation device 101 is relatively small, input with a software keyboard is substantially impossible, and handwriting input (or voice input described later) is suitable. This is because when the operation display surface 90 of the display operation device 101 is relatively small, the size restriction of the candidate display 80 is relatively large, and it is difficult to increase the recognition accuracy for handwritten input to the display area of the candidate display 80.
  • the character input receiving device 1 when a deletion instruction is input in the state of the candidate display screen, the recognized character to be corrected is deleted. Therefore, the user who wants to delete the recognition character to be corrected can directly delete the recognition character to be corrected by performing a handwriting input of a predetermined character (for example, “-”) on the candidate display screen.
  • a predetermined character for example, “-”.
  • each process of FIGS. 6 and 7 is realized by one application 10, but is not limited thereto.
  • the processes in FIGS. 6 and 7 may be realized by separate applications. That is, the application 10 may include a handwritten character recognition application that executes the process shown in FIG. 6 and a character correction application that executes the process shown in FIG.
  • the character correction application executes the process shown in FIG. 7 based on a character string (an example of a character string whose input is confirmed by the recognition application) passed from the handwritten character recognition application.
  • the character correction application may execute the processing in step S608 prior to the processing shown in FIG.
  • Example 2 Next, Example 2 will be described with reference to FIGS. In the following description, unless otherwise specified, the meanings of various terms are as defined in Example 1 above.
  • FIG. 22 is a diagram for explaining a program configuration according to another embodiment (embodiment 2).
  • the program PR2 includes a character input application 10A (an example of a recognition application) and a character correction application 10B.
  • the character input application 10A is a program for recognizing handwritten characters and displaying the recognized characters.
  • the character correction application 10B generates a candidate display screen for displaying correction candidates in response to a selection instruction for a character string given as an input from the character input application 10A (an example of a character string whose input has been confirmed by the recognition application). .
  • the candidate display screen is generated based on the stroke information stored by the character input application 10A.
  • the character correction application 10B recognizes a character from the stroke input by handwriting on the candidate display screen.
  • the character correction application 10B corrects the character string related to the selection instruction based on the recognition result (the contents of the handwritten input) related to the stroke input by handwriting on the candidate display screen.
  • the candidate display and correction method is the same as in the first embodiment.
  • character input reception device 1A a device that executes the character input application 10A and the character correction application 10B is represented as “character input reception device 1A”.
  • the form of the character input receiving device 1A may be the same as that of the character input receiving device 1 according to the first embodiment described above (see FIGS. 2 and 3).
  • the hardware configuration of the character input receiving device 1A may be substantially the same as that of the character input receiving device 1 according to the first embodiment described above (see FIG. 4). That is, the character input application 10A and the character correction application 10B are at least a part of various programs that control the character input reception device 1A.
  • the auxiliary storage device 103 stores the installed character input application 10 ⁇ / b> A and the character correction application 10 ⁇ / b> B, and stores an OS that is basic software, necessary files, data, and the like.
  • FIG. 23 is a diagram illustrating an example of a functional configuration of the character input reception device.
  • the character input receiving device 1A includes a character input processing unit 20, a character correction processing unit 21, and a storage unit 41.
  • the character input processing unit 20 is realized by the arithmetic processing device 105 executing the character input application 10A.
  • the character correction processing unit 21 is realized by the arithmetic processing device 105 executing the character correction application 10B. Both the character input processing unit 20 and the character correction processing unit 21 can access the storage unit 41.
  • FIG. 24 is a schematic flowchart illustrating an example of processing performed by the character input receiving device 1A.
  • FIG. 24 schematically shows an example of a cooperation mode between the processing executed by the character input processing unit 20 and the processing executed by the character correction processing unit 21.
  • dotted lines and arrows R1 to R6 connected to the storage unit 41 indicate reading of data from the storage unit 41 or writing of data to the storage unit 41 by corresponding processing, as in FIGS.
  • FIG. 24 processes substantially similar to the processes shown in FIGS. 6 and 7 are denoted by the same step numbers and description thereof is omitted.
  • one area Sa separated with the line L as a partition represents the process of the character input application 10A
  • the other area Sb represents the process of the character correction application 10B.
  • the arrow from the region Sb to the region Sa beyond the line L represents an input from the character correction application 10B to the character input application 10A.
  • the character input application 10A operates in response to an input from the character correction application 10B. That is, the character correction application 10B is positioned higher than the character input application 10A.
  • processing realized by the character correction application 10B will be described, and then processing realized by the character input application 10A will be described.
  • the character correction processing unit 21 detects a touch input on the operation display surface 90 of the display operation device 101 (step S706), the character correction processing unit 21 acquires stroke information stored in the storage unit 41 (see arrow R2) (step S702). The character correction processing unit 21 determines whether a candidate display is displayed on the operation display surface 90 (step S902). For example, the character correction processing unit 21 derives a correction candidate based on the acquired stroke information, and the plurality of derived correction candidates correspond to the plurality of characters displayed on the operation display surface 90.
  • a candidate display is displayed on the operation display surface 90.
  • the plurality of characters displayed on the operation display surface 90 should include a plurality of correction candidates derived based on the acquired stroke information. This is because.
  • a plurality of characters displayed on the operation display surface 90 can be determined based on information from the OS, for example. If it is determined that the candidate display is not displayed, the character correction processing unit 21 sends the detected touch input (touch event) to the character input application 10A side as it is (step S901).
  • the character correction processing unit 21 determines whether the input detected in step S706 is a selection operation or handwriting input (step S708). When it is determined that the input detected in step S706 is a selection operation, the character correction processing unit 21 sends the detected touch input (touch event) to the character input application 10A side as it is (step S901). On the other hand, when it is determined that the input detected in step S706 is a handwritten input, the character correction processing unit 21 detects the end of the handwritten input (step S712). When detecting the end of the handwriting input, the character correction processing unit 21 determines whether or not the handwriting input has been performed within the display area of the candidate display (step S714).
  • the character correction processing unit 21 When it is determined that the handwriting input is performed within the candidate display area, the character correction processing unit 21 recognizes one character corresponding to the one or more strokes based on the one or more strokes input by handwriting. Is performed (step S718). On the other hand, when it is determined that the handwriting input is not performed within the display area of the candidate display, the character correction processing unit 21 issues an instruction to end the display of the candidate display (hereinafter referred to as “candidate display end instruction”) The data is sent to the input application 10A side (step S904). If the character correction processing unit 21 determines that the correction recognized character is a deletion instruction (“YES” in step S720), the character correction processing unit 21 deletes the correction target recognition character (hereinafter, “correction target deletion instruction”).
  • the correction target deletion instruction includes information for specifying a recognition character to be corrected.
  • the character correction processing unit 21 updates (reflects deletion) the stroke information and the recognition result information in the storage unit 41 in accordance with the correction target deletion instruction (see arrow R4). If the character correction processing unit 21 determines that the correction recognized character is not a deletion instruction (“NO” in step S720), after the process of step S724, the character correction processing unit 21 sends a correction target replacement instruction to the character input application 10A side (step S906).
  • the correction target replacement instruction is a correction instruction for causing the character input application 10 ⁇ / b> A to replace the recognition character to be corrected with the recognition character for correction.
  • the correction target replacement instruction includes information for specifying a recognition character to be corrected and information on the recognition character for correction.
  • the character input processing unit 20 operates in response to an input (touch event or various instructions) from the character correction application 10B.
  • step S800 When receiving the touch event (step S800), the character input processing unit 20 proceeds to step S600, step S700, step S802 or step S730 depending on the form of the touch event.
  • the character input processing unit 20 detects the start of handwritten input (step S600) and performs processing up to step S608 (see FIG. 6).
  • the character input processing unit 20 determines the one or more recognized characters (the recognition application confirms the input).
  • a selection instruction for (an example of a character string) is detected (step S700).
  • the character input processing unit 20 specifies a recognized character corresponding to the touch input position as a correction target based on the display position information stored in the storage unit 41.
  • the character input processing unit 20 derives a correction candidate based on the stroke information stored in the storage unit 41, and generates a candidate display screen that displays the derived correction candidate (step S704).
  • the character input processing unit 20 specifies (selects) a correction candidate corresponding to the touch input position as a recognition character for correction. (Step S802). In this case, the character input processing unit 20 replaces the recognition character to be corrected with the recognition character for correction (step S804), and performs screen update processing (step S808).
  • the character input processing unit 20 updates the recognition result information in the storage unit 41 (reflects the replacement) in accordance with the replacement process using the correction recognized character selected in step S802 (see the arrow R5). Further, the character input processing unit 20 updates the display position information in accordance with the screen update process in step S808 (see arrow R6).
  • the character input processing unit 20 ends the display of the candidate display and returns to the original screen (see FIG. 11) (step S730).
  • finish of a candidate display is a single tap to the display area of an end button (touch switch), for example.
  • the instruction to end the candidate display may be a touch event in which handwriting input is performed outside the display area of the candidate display (see FIG. 16).
  • the character correction application 10B may omit step S904 and proceed to step S901 when “NO” is determined in step S714.
  • the character input processing unit 20 Upon receiving the candidate display end instruction (step S904), the character input processing unit 20 ends the display of the candidate display and returns to the original screen (see FIG. 11) (step S730).
  • the character input processing unit 20 Upon receiving the correction target deletion instruction (step S908), the character input processing unit 20 deletes the recognition character to be corrected based on the correction target deletion instruction (step S806), and performs a screen update process (step S808). Further, the character input processing unit 20 updates the display position information in accordance with the screen update process in step S808 (see arrow R6).
  • the character input processing unit 20 Upon receiving the correction target replacement instruction (step S906), the character input processing unit 20 replaces the correction target recognition character with the correction recognition character based on the correction target replacement instruction (step S804), and performs screen update processing. (Step S808).
  • the character input processing unit 20 updates (reflects replacement) the stroke information in the storage unit 41 in accordance with the replacement processing in step S804 (see arrow R5). Further, the character input processing unit 20 updates the display position information in accordance with the screen update process in step S808 (see arrow R6).
  • the same effects as those of the character input acceptance device 1 according to the first embodiment described above can be obtained.
  • the same effect as the character input reception device 1 can be obtained by linking the character correction application 10B to the highly versatile character input application 10A. . Therefore, it is possible to improve the convenience of the correction function by additionally mounting the character correction application 10B on the device on which the character input application 10A is mounted.
  • Example 3 Next, Example 3 will be described with reference to FIGS. In the following description, unless otherwise specified, the meanings of various terms are as defined in Example 1 above.
  • the character input receiving device 1B (not shown) according to the third embodiment is different in that an application to be executed is an application 10B (not shown) instead of the application 10.
  • the application 10B includes a handwritten character recognition application (an example of a recognition application) that recognizes handwritten characters and displays the recognized characters.
  • a handwritten character recognition application an example of a recognition application
  • the application 10B generates a candidate display screen for displaying correction candidates in response to a selection instruction for a character string whose input is confirmed by the recognition application.
  • the candidate display screen is generated based on the stored candidate information (see FIG. 27).
  • the candidate information represents a correction candidate character for the recognized character.
  • the candidate display is the same as in the first embodiment.
  • the application 10B recognizes a character from a stroke input by handwriting on the candidate display screen.
  • the application 10B corrects the character string related to the selection instruction based on the recognition result (the contents of handwriting input) related to the stroke input on the candidate display screen. The correction method will be described later.
  • the form of the character input receiving device 1B may be the same as that of the character input receiving device 1 according to the first embodiment described above (see FIGS. 2 and 3). Further, the hardware configuration of the character input receiving device 1B may be substantially the same as that of the character input receiving device 1 according to the first embodiment described above (see FIG. 4).
  • the character input receiving device 1B includes a processing unit 11B and a storage unit 41B (not shown).
  • the processing unit 11B is realized by the arithmetic processing apparatus 105 executing the application 10B.
  • the storage unit 41B is realized by the auxiliary storage device 103 and the memory device 104.
  • the character input receiving device 1B executes character input processing and character correction processing.
  • character input processing and character correction processing executed by the character input reception device 1B will be described.
  • FIG. 25 and 26 are schematic flowcharts for explaining an example of processing by the character input receiving device.
  • FIG. 25 is a schematic flowchart illustrating an example of a character input process executed by the processing unit 11B.
  • FIG. 26 is a schematic flowchart illustrating an example of a character correction process executed by the processing unit 11B.
  • dotted lines and arrows R11 to R14 connected to the storage unit 41B indicate reading data from the storage unit 41B or writing data to the storage unit 41B by corresponding processing.
  • step S2506 the processing unit 11B holds information (candidate information) for specifying one or more correction candidate characters derived in recognition in step S604 in the storage unit 41B (see arrow R11).
  • Candidate information is stored for each recognized character. For example, in the example shown in FIG. 27, candidate information relating to each of the recognized characters “A”, “B”... In the example shown in FIG. 27, for example, candidate information relating to “A” includes n correction candidate characters “R 11 ”, “R 21 ”, “R 31 ”,..., And “R n1 ”. Including. This is because when the recognition character “A” is recognized, the n correction candidate characters “R 11 ”, “R 21 ”, “R 31 ”,..., And “R n1 ” are the second and subsequent characters. Indicates that it was obtained as a candidate.
  • FIG. 26 the same processes as those shown in FIG.
  • step S2602 the processing unit 11B acquires candidate information stored in the storage unit 41B (see arrow R12). At this time, the processing unit 11B acquires candidate information related to the recognition character to be corrected.
  • step S2604 the processing unit 11B generates a candidate display screen for displaying the correction candidates based on the candidate information acquired in step S2602.
  • the candidate display screen is a screen including a candidate display from which correction candidates can be selected.
  • the candidate display itself is as described above.
  • step S2622 in response to the deletion instruction, the processing unit 11B updates the recognition result information in the storage unit 41B (reflects deletion) so that the recognition character to be corrected is deleted (see arrow R14). That is, the processing unit 11B deletes the recognition result information related to the recognition character to be corrected. As a result, the screen on the operation display surface 90 of the display operation device 101 is updated to a screen displaying a character string from which the recognition character to be corrected is deleted by the screen update processing in the next step S728. In addition, the processing unit 11B deletes candidate information related to the recognition character to be corrected (see arrow R14).
  • step S2624 the processing unit 11B updates the recognition result information in the storage unit 41B (reflects replacement) so that the recognition character to be corrected is replaced with the correction recognition character (refer to the arrow R13). Further, the processing unit 11B updates the candidate information in the storage unit 41B (reflects replacement) (see arrow R13).
  • the screen update process in the next step S728 updates the screen of the operation display surface 90 of the display operation device 101 to a screen displaying a character string in which the recognition character to be corrected is replaced with the recognition character for correction. Is done.
  • the same effects as those of the character input acceptance device 1 according to the first embodiment described above can be obtained. Further, according to the character input receiving device 1B according to the third embodiment, the processing load for deriving the correction candidates can be reduced as compared with the first embodiment described above. Specifically, in the first embodiment described above, the processing unit 11 acquires the stroke information stored in the storage unit 41, and derives correction candidates related to the recognition character to be corrected based on the acquired stroke information. It was. On the other hand, according to the third embodiment, the processing unit 11B acquires candidate information stored in the storage unit 41B.
  • the processing unit 11B does not need to derive a correction candidate again, and can generate a candidate display by using a past character input processing result. Therefore, a process for generating a candidate display The processing load on the unit 11B can be reduced.
  • the application 10B can be realized by two applications as in the second embodiment. That is, in the above-described second embodiment, candidate display may be generated using candidate information obtained at the time of handwriting input instead of stroke information in the same manner as in the third embodiment.
  • the character input processing unit 20 does not need to derive correction candidates again, and can generate a candidate display using the past character input processing results.
  • the character correction processing unit 21 can determine whether or not a candidate display is displayed on the operation display surface 90 by using the candidate information.
  • Example 4 Next, Example 4 will be described with reference to FIG. In the following description, unless otherwise specified, the meanings of various terms are as defined in Example 1 above.
  • the character input receiving device 1C (not shown) according to the fourth embodiment is different in that an application to be executed is an application 10C (not shown) instead of the application 10.
  • the application 10C includes a voice recognition application (an example of a recognition application) that recognizes a voice input character and displays the recognized character.
  • the application 10C further includes a program for recognizing handwritten characters and displaying the recognized characters.
  • the application 10 ⁇ / b> C generates a candidate display screen that displays correction candidates in response to a selection instruction for a character string whose input is confirmed by the recognition application.
  • the candidate display screen is generated based on the stored candidate information.
  • the candidate information is as described above.
  • the candidate display is the same as in the first embodiment.
  • the application 10 ⁇ / b> C recognizes a character from a stroke input in handwriting on the candidate display screen.
  • the application 10C corrects the character string related to the selection instruction based on the recognition result (the contents of handwritten input) obtained on the candidate display screen.
  • the correction method is the same as the correction method in the third embodiment described above.
  • the form of the character input receiving device 1C may be the same as the character input receiving device 1 according to the first embodiment described above (see FIGS. 2 and 3).
  • the hardware configuration of the character input receiving device 1C may be substantially the same as that of the character input receiving device 1 according to the first embodiment described above (see FIG. 4).
  • the 1C of character input reception apparatuses have the process part 11C and the memory
  • the processing unit 11C is realized by the arithmetic processing apparatus 105 executing the application 10C.
  • the storage unit 41C is realized by the auxiliary storage device 103 and the memory device 104.
  • the character input receiving device 1C executes character input processing and character correction processing.
  • the character correction process executed by the character input reception device 1C is the same as the character correction process (FIG. 26) according to the third embodiment described above, and a description thereof is omitted.
  • FIG. 28 is a schematic flowchart illustrating an example of a character input process executed by the processing unit 11C.
  • dotted lines and arrows R21 to R24 connected to the storage unit 41C indicate reading of data from the storage unit 41C or writing of data to the storage unit 41C by corresponding processing.
  • step S2800 the processing unit 11C detects the start of voice input.
  • the start of voice input is detected, for example, when voice input is detected in a state where voice input has not been detected for a certain period of time.
  • step S2802 the processing unit 11C detects the end of voice input.
  • the end of the voice input is detected, for example, when the voice input is not detected for a certain time.
  • step S2804 the processing unit 11C performs one or more corresponding to the voice data based on the voice data obtained from the voice input start time detected in step S2800 to the voice input end time detected in step S2802. Recognize characters.
  • the character recognized in this way is also referred to as “recognized character”.
  • the processing unit 11C when recognizing characters based on voice data, creates a plurality of candidates and calculates an evaluation value representing the likelihood of the candidates for each candidate. Then, the processing unit 11C outputs the candidate having the highest evaluation value as the first candidate (recognized character).
  • step S2806 the processing unit 11C holds information (candidate information) for specifying one or more correction candidate characters derived in the recognition in step S2804 in the storage unit 41C (see arrow R21).
  • the candidate information is as described in the third embodiment.
  • the same effects as those of the character input receiving device 1 according to the first embodiment described above can be obtained.
  • the processing load for deriving the correction candidates can be reduced as compared with the first embodiment described above, as in the third embodiment described above.
  • the processing unit 11C acquires the candidate information stored in the storage unit 41C, and generates a candidate display based on the acquired candidate information. Therefore, according to the fourth embodiment, the processing unit 11C does not need to derive a correction candidate again, and can generate a candidate display using a past character input processing result, so that a process for generating a candidate display is performed.
  • the processing load on the unit 11C can be reduced.
  • the application 10C can be realized by two applications as in the second embodiment. That is, also in the second embodiment described above, in the same manner as in the fourth embodiment, candidate display may be generated using candidate information obtained at the time of voice recognition instead of stroke information.
  • the candidate display is generated using the candidate information obtained at the time of voice recognition, but the candidate display is generated using the voice data used at the time of voice recognition. It is also possible to do.
  • the processing unit 11C may hold the voice data used in the recognition in step S2804 in the storage unit 41C. In this case, when generating the candidate display, the processing unit 11C may derive a correction candidate based on the audio data held in the storage unit 41C and generate the candidate display. In this way, the processing unit 11C can generate a similar candidate display screen in accordance with a selection instruction for a character string whose input is confirmed by the voice recognition application by using the held voice data or candidate information. [Modification] FIG.
  • the character input reception device 1D is connected to the server device 50 via the network N.
  • the character input receiving device 1D includes a processing unit 11D, a character string information acquisition unit 12, and a storage unit 41D.
  • the server device 50 includes a storage unit 51 and a character string information extraction / transmission unit 30.
  • the storage unit 51 of the server device 50 stores a character string and scroll information associated with the character string. Note that the information stored in the storage unit 51 of the server device 50 (character string and scroll information associated with the character string) is not necessarily information generated by the character input receiving device 1D. Information generated by execution of a recognition application in the device may be included.
  • the character string information acquisition unit 12 of the character input reception device 1D requests the server device 50 for the instructed character string and scroll information associated therewith.
  • the character string information extraction / transmission unit 30 of the server device 50 extracts the instructed character string and the scroll information associated therewith from the storage unit 51 in response to a request from the character input reception device 1D, It transmits to the input reception device 1D.
  • the processing unit 11D of the character input receiving device 1D stores the acquired scroll information in the storage unit 41D and displays a character string. At this time, the processing unit 11D generates display position information corresponding to the display position of the character string, and stores it in the storage unit 41D.
  • the processing unit 11D executes the character correction processing shown in FIG. According to such a modification, even when the character input receiving device 1D does not hold the information related to the character string to be corrected, the same information as in the first embodiment is obtained by acquiring the same information from the server device 50. The same character string can be corrected in this manner.
  • Such a modification can also be applied to the other second to fourth embodiments described above. For example, when applied to the third embodiment described above, the character input reception device 1D may acquire candidate information from the server device 50 instead of the scroll information. In this modification, a character string and scroll information associated with the character string are stored in the storage unit 51 of the server device 50.
  • the character string is specified in the storage unit 51 of the server device 50. Only the scroll information may be stored in such a manner that it can be extracted in association with the information that can be performed. In this case, the character input receiving device 1D may store character string information in the storage unit 41D and acquire only scroll information from the server device 50.
  • FIG. 30 to FIG. 33 another example of a method for inputting a correction content by hand when a candidate display is displayed will be described.
  • Other examples of the handwriting input method of the following correction contents can be substituted for or added to the above-described method of the first to fourth embodiments (and the modification shown in FIG. 29, the same applies hereinafter). In the following, a modified example when employed in the first embodiment will be described, but the same applies to the second to fourth embodiments.
  • FIGS. 30 to 33 are diagrams respectively showing other examples of the method for inputting correction contents by handwriting, and schematically show screens (candidate display screens) on the operation display surface 90 of the display operation device 101.
  • FIG. 30 to 33 are diagrams respectively showing other examples of the method for inputting correction contents by handwriting, and schematically show screens (candidate display screens) on the operation display surface 90 of the display operation device 101.
  • an area in which correction contents can be handwritten is set on the entire candidate display screen.
  • an example of a display drawn in accordance with the stroke of the handwriting input related to the correction content “2” is shown and designated at T6.
  • the area where the correction content can be handwritten is the display area of the candidate display (see FIG. 17).
  • the region in which the correction content can be handwritten may be the entire candidate display screen.
  • the area where the correction content can be handwritten may be a part of the candidate display screen and may be an area different from the display area of the candidate display.
  • step S714 in the above-described first embodiment is not necessary.
  • handwriting input of correction contents can be performed on the entire candidate display screen, so that handwriting input of correction contents becomes easy for the user.
  • Such an effect is particularly remarkable when the size of the candidate display screen is small. This is because when the size of the candidate display screen is small, the size of a part of the candidate display screen is further reduced, and handwriting input becomes difficult.
  • the correction content input by handwriting is two characters.
  • an example of the display drawn according to the stroke of the handwriting input related to the correction contents “2” and “3” is shown, and designated by T7 and T8, respectively.
  • the correction content input by handwriting was one character (see FIG. 17).
  • the correction content input by handwriting may be two characters or more characters.
  • step S718 the processing unit 11 derives a combination candidate of two or more characters in addition to a single character candidate, and is most evaluated. A candidate with a high value (recognized character for correction) is derived. At this time, when the number of correction recognition characters is two or more, the processing unit 11 replaces the recognition character (one character) to be corrected with the two or more correction recognition characters (step S724).
  • the recognition character to be corrected can be replaced with two or more correction recognition characters, the degree of freedom of the correction mode is increased and the convenience is improved for the user. For example, when a user wants to insert a certain character, the user selects one of the characters before and after the position to be inserted, and handwritten two characters consisting of the selected character (recognized character to be corrected) and the character to be inserted. By inputting, it is possible to correct the character string by inserting as desired.
  • an input frame for each character is not displayed in an area in which correction contents can be handwritten (in this example, a display area for candidate display), but the input frame is displayed. May be. In this case, a break between two or more characters is easily recognized, and the recognition accuracy of two or more characters is improved.
  • FIG. 32 two characters are input by handwriting by overwriting.
  • FIG. 31 an example of the display drawn according to the stroke of the handwriting input related to the correction contents “2” and “3” is shown, and designated by T9 and T10, respectively.
  • the correction content input by handwriting was one character (see FIG. 17).
  • the correction content input by handwriting by overwriting may be two characters or more.
  • step S712 the fixed time ⁇ T for detecting the end of the handwriting input is recognized as a break between two or more characters. It is set to be larger than the predetermined time ⁇ T2 necessary for this.
  • the predetermined time ⁇ T2 corresponds to the time (blank time when there is no input) from the time when the handwriting input of one character is completed until the time when the handwriting input of the next character is started.
  • the predetermined time ⁇ T2 tends to be longer than the blank time generated between strokes while inputting one character by handwriting.
  • the recognition character to be corrected can be replaced with two or more recognition characters for correction as in the example shown in FIG. 31, the degree of freedom of the correction mode is increased for the user. Convenience is improved.
  • the correction content input by handwriting is two characters.
  • FIG. 31 an example of a display drawn in accordance with the stroke of the handwriting input related to the correction contents “2” and “3” is illustrated, and designated by T11 and T12, respectively.
  • the example shown in FIG. 33 is different from the example shown in FIG. 31 in that input frames 70 and 71 are displayed.
  • the input frames 70 and 71 overlap each other. That is, the input frames 70 and 71 are arranged in such a manner that a part thereof overlaps with each other.
  • the same effect as the example shown in FIG. 31 can be obtained. Further, according to the example shown in FIG. 33, since the input frames 70 and 71 overlap each other, even if the area where the correction content can be handwritten is relatively small, the correction target is to be corrected with two or more recognition characters for correction. The recognized character can be replaced. In addition, according to the example shown in FIG. 33, continuous handwriting input of two or more characters is possible, and the inconvenience (inconvenience that the input time becomes longer due to the waiting time) that occurs in the example shown in FIG. 32 is reduced. it can. In addition, according to the example shown in FIG. 33, since the positions of the input frames 70 and 71 are shifted, inconvenience (deterioration of recognition accuracy) that occurs in the example shown in FIG. 32 can be reduced.
  • the display area of the candidate display 80 is set to a range excluding a part of the display area on the right side of the candidate display screen, but is not limited thereto.
  • the display area of the candidate display 80 may be set on the entire candidate display screen.
  • the candidate display 80 displays a plurality of correction candidates in two horizontal rows, but the number of displays and the display mode are arbitrary.
  • the candidate display 80 may display a single correction candidate or a plurality of correction candidates in one horizontal line.
  • the character correction process shown in FIG. 26 is applied to the character string whose input is confirmed by the handwritten character recognition application, but the character correction process shown in FIG.
  • the present invention can also be applied to a character string whose input is confirmed by the recognition application.
  • the character correction process shown in FIG. 26 can also be applied to a character string whose input has been confirmed by the gesture recognition application.
  • a similar candidate display screen can be generated in response to a selection instruction for a character string whose input has been confirmed by the gesture recognition application.
  • the candidate display is displayed on a part of the candidate display screen.
  • the candidate display may be displayed on the entire candidate display screen.
  • the candidate display is an area smaller than the entire candidate display screen, but may be displayed in an area superimposed on a character string to be corrected.
  • the candidate display may be formed so that a predetermined character (for example, “-”) related to the deletion instruction can be selected. That is, the candidate display may include a predetermined character relating to the deletion instruction together with the correction candidate.
  • the user who wants to delete the recognition character to be corrected does not need to perform handwriting input related to the predetermined character related to the deletion instruction, and only needs to select the predetermined character related to the deletion instruction included in the candidate display. You can enter instructions.
  • the selection instruction for the character string is realized by touch input to the display position of the character in the character string. It may be input in other manners. For example, in the example shown in FIG. 34, buttons (touch switches) 91 to 98 are displayed for each recognized character. In this case, the selection instruction is realized when any of the buttons 91 to 98 is touched. At this time, the processing unit 11 can identify the recognition character to be corrected based on the touch-operated button. Alternatively, the selection instruction may be realized, for example, when a character in the character string is selected with a cursor or a pointer.

Abstract

コンピューターが、手書き入力された文字の表示画面において、手書き入力された特定の文字に対する選択指示を受け付け、前記選択指示を受け付けたことに応じて、前記表示画面に、前記特定の文字の修正候補を表示する候補表示画面を、少なくとも前記特定の文字の表示領域にまで及ぶ表示範囲で表示し、前記候補表示画面に対する手書き入力に応じて、前記特定の文字の修正処理を行う、文字入力受付方法が開示される。

Description

文字入力受付方法、文字入力受付装置及び文字入力受付プログラム
 本開示は、文字入力受付方法、文字入力受付装置及び文字入力受付プログラムに関する。
 ユーザによる手書き入力や音声入力等を受け付け、手書き入力や音声入力等について文字認識して得られた認識文字を入力文字として処理するツールが知られている。
特開2012-43385号公報 特開2005-235116号公報 特開2001-337993号公報
 ところで、音声入力や手書き入力の際は、認識アプリケーションが提示する第1の候補が正しくない場合は、認識アプリケーションが、ユーザからの指示に応じて、修正候補を含む候補表示画面を生成してユーザに提示し、ユーザが、適切な修正候補を選択する形となる。
 しかしながら、認識アプリケーションが入力を確定させた認識文字を、入力文字として処理するツール側では、当該認識文字の認識の際に得られる他の情報(認識文字そのもの以外の情報)を利用できない。認識文字の認識の際に得られる他の情報としては、例えば、手書き入力されたストロークに関する情報や、認識文字の代替えとなり得る修正候補に関する情報等を含む。
 このため、上記の従来のツールは、候補表示画面を生成できないので、入力文字として与えられた認識文字を修正したいユーザに、候補表示画面を提示できない。従って、上記の従来のツールでは、入力文字として与えられた特定の文字をユーザが修正したいときは、ユーザは、当該特定の文字を選択し、再度、音声入力や手書き入力することで、当該特定の文字を消去又は他の文字で置換する等の必要があった。
 また、ユーザが、修正したい文字を選択して修正を行う場合、音声や手書きを認識した第1の候補(ユーザが修正したい文字)が不適切であるということから、候補表示画面を介して提示される修正候補も、適切な修正候補ではない可能性が高い。候補表示画面で提示される修正候補の中に、適切な修正候補が存在しない場合は、候補表示を消す操作を行い(即ち元の入力画面に戻り)、改めて入力をやり直す手間が生じる。
 1つの側面では、手書き入力された文字の表示画面において、手書き入力された特定の文字に対する修正の手間を低減することを目的とする。
 本開示の一局面によれば、コンピューターが、
 手書き入力された文字の表示画面において、手書き入力された特定の文字に対する選択指示を受け付け、
 前記選択指示を受け付けたことに応じて、前記表示画面に、前記特定の文字の修正候補を表示する候補表示画面を、少なくとも前記特定の文字の表示領域にまで及ぶ表示範囲で表示し、
 前記候補表示画面に対する手書き入力に応じて、前記特定の文字の修正処理を行う、
 文字入力受付方法が提供される。
 本開示によれば、手書き入力された文字の表示画面において、手書き入力された特定の文字に対する修正の手間を低減できる。
実施例1のプログラム構成を説明する図である。 文字入力受付装置の一形態を示す図である。 文字入力受付装置の他の一形態を示す図である。 文字入力受付装置のハードウェア構成の一例を示す図である。 文字入力受付装置の機能構成の一例を示す図である。 実施例1の処理部により実行される文字入力処理の一例を説明する概略フローチャートである。 実施例1の処理部により実行される文字修正処理の一例を説明する概略フローチャートである。 ストローク情報の一例を示す図である。 一のストロークに係る座標情報の説明図である。 認識結果情報の一例を示す図である。 認識文字が表示された画面の一例を示す図である。 表示位置情報の説明図である。 選択指示の入力方法の一例を示す図である。 候補表示画面の一例を示す図である。 修正候補の選択操作の一例を示す図である。 候補表示外に手書き入力された状態を示す図である。 候補表示内に手書き入力された状態を示す図である。 選択操作による修正候補で修正対象文字が置換された例を示す図である。 手書き入力された削除指示に係るストロークの一例を示す図である。 削除指示により修正対象文字が削除された例を示す図である。 手書き入力された修正用認識文字で修正対象文字が置換された例を示す図である。 実施例2のプログラム構成を説明する図である。 文字入力受付装置の機能構成の一例を示す図である。 実施例2の文字入力受付装置による処理の一例を説明する概略フローチャートである。 実施例3の処理部により実行される文字入力処理の一例を説明する概略フローチャートである。 実施例3の処理部により実行される文字修正処理の一例を説明する概略フローチャートである。 候補情報の一例を示す図である。 実施例4の処理部により実行される文字入力処理の一例を説明する概略フローチャートである。 変形例を示す図である。 修正内容の手書き入力方法の他の例の説明図である。 修正内容の手書き入力方法の他の例の説明図である。 修正内容の手書き入力方法の他の例の説明図である。 修正内容の手書き入力方法の他の例の説明図である。 選択指示の入力方法の他の例を示す図である。
 以下、添付図面を参照しながら各実施例について詳細に説明する。
 以下の説明において、文字列とは、1以上の文字を含む集合体を表す概念である。従って、文字列とは、1文字の場合もありうる。文字とは、ひらがな、カタカナ、アルファベット、漢字、数字のみならず、記号をも含む概念とする。また、文字列の修正とは、新たな文字列による当該文字列の置換のみならず、当該文字列の削除、当該文字列中の新たな文字列の挿入等を含む概念とする。
 [実施例1]
 図1は、一実施例(実施例1)によるプログラム構成を説明する図である。
 プログラムPRは、アプリケーション10を含む。以下の説明では、アプリケーション10を実行する装置を「文字入力受付装置1」と表す。
 アプリケーション10は、手書き入力された文字を認識し、認識した文字を表示する手書き文字認識アプリケーション(認識アプリケーションの一例)を含む。手書き入力とは、手(以下の例では、指)を動かして入力したい文字を表現する入力方法であり、スタライスを用いた入力方法を含む概念である。
 アプリケーション10は、認識アプリケーションが入力を確定させた文字列に対する選択指示に応じて、修正候補を表示する候補表示画面を生成する。認識アプリケーションが入力を確定させた文字列とは、例えば、入力が少なくとも一時的に確定した状態の文字列であり、例えば未確定状態(修正可能状態)を表す下線などが表示された文字列とは異なることを意味する。例えば、認識アプリケーションが入力を確定させた文字列とは、選択指示を入力しない限り、修正ができない状態にある文字列である。選択指示とは、ユーザが入力する指示である。選択指示は、アプリケーション10が文字列の中の修正対象の文字を特定でき、且つ、該文字列(修正対象の文字)の修正をユーザが意図していることを認識できる指示であれば、任意の態様の指示であってもよい。尚、修正対象の文字列が1文字からなる場合、選択指示は、アプリケーション10が該文字の修正をユーザが意図していることを認識できる指示であれば、任意の態様の指示であってもよい。選択指示の入力方法の例について後述する。
 候補表示画面は、アプリケーション10により保存されたストローク情報に基づいて生成される。このストローク情報については後述する。
 アプリケーション10は、ユーザが候補表示画面に対して手書き入力したストロークに基づいて、修正対象の文字に対する修正内容を表す文字を認識する。
 アプリケーション10は、候補表示画面に対して手書き入力したストロークに基づく認識結果(手書き入力の内容)に基づき、選択指示に係る文字列を修正する。修正方法の具体例については後述する。
 ストロークとは、手書き入力されるときの指又はスタライスの軌跡(座標列)に対応する。ストロークの1単位は、座標軸且つ時間軸において連続した1つの軌跡(1画分の軌跡)である。座標軸とは、手書き入力される操作表示面90(図9参照)における座標軸である。1文字は、1以上のストロークにより表現できる。
 図2は、文字入力受付装置の一形態を示す図である。
 文字入力受付装置1は、例えば図2に示すように、ユーザに装着可能な形態であることができる。図2に示す例では、文字入力受付装置1は、ベルトによりユーザの腕に装着できる腕時計型のデバイス2であり、タッチ操作可能な表示部2Aを備える。この場合、表示部2Aが、手書き入力される操作表示面を形成する。
 図3は、文字入力受付装置の他の一形態を示す図である。
 文字入力受付装置1は、例えば図3に示すように、ユーザが携帯可能な端末の形態であることができる。図3に示す例では、文字入力受付装置1は、タブレット型のデバイス3であり、タッチ操作可能な表示部3Aを備える。この場合、表示部3Aが、手書き入力される操作表示面を形成する。
 図4は、文字入力受付装置のハードウェア構成の一例を示す図である。図4に示す例では、文字入力受付装置1は、一のコンピューターにより形成される。但し、文字入力受付装置1は、1つ以上のコンピューターの集合により形成されてもよい。
 文字入力受付装置1は、それぞれバスBで相互に接続されている表示操作装置101、ドライブ装置102、補助記憶装置103、メモリ装置104、演算処理装置105、インターフェース装置106を有する。
 表示操作装置101は、例えばタッチパネル等を含み、各種信号の入力と、各種信号の表示(出力)に用いられる。表示操作装置101は、タッチ操作が可能な操作表示面を備える。タッチ操作とは、手書き入力のための操作を含み、その他、タップ、スライド、ピンチ等の任意の操作を含む。図3に示したデバイス2の場合、表示操作装置101は、表示部2Aにより実現される。図4に示したデバイス3の場合、表示操作装置101は、表示部3Aにより実現される。インターフェース装置106は、モデル、LANカード等を含み、ネットワークに接続する為に用いられる。
 アプリケーション10は、文字入力受付装置1を制御する各種プログラムの少なくとも一部である。これらのプログラムは、例えば記録媒体107による配布やネットワークからのダウンロード等によって提供される。アプリケーション10を記録した記録媒体107は、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
 また、アプリケーション10を記録した記録媒体107がドライブ装置102にセットされると、各プログラムは記録媒体107からドライブ装置102を介して補助記憶装置103にインストールされる。ネットワークからダウンロードされた各プログラムは、インターフェース装置106を介して補助記憶装置103にインストールされる。
 補助記憶装置103は、インストールされたアプリケーション10を格納すると共に、基本ソフトウェアであるOS(Operating System)、必要なファイル、データ等を格納する。メモリ装置104は、各プログラムの起動時に補助記憶装置103にそれぞれのプログラムを読み出して格納する。そして、演算処理装置105は、メモリ装置104に格納された各プログラムに従って、後述するような各種処理を実現している。
 図5は、文字入力受付装置の機能構成の一例を示す図である。文字入力受付装置1は、処理部11、及び記憶部41を有する。
 処理部11は、演算処理装置105がアプリケーション10を実行することで実現される。記憶部41は、補助記憶装置103やメモリ装置104により実現される。
 文字入力受付装置1は、文字入力処理及び文字修正処理を実行する。以下、文字入力受付装置1により実行される文字入力処理及び文字修正処理の例について説明する。
 図6及び図7は、文字入力受付装置による処理の一例を説明する概略フローチャートである。図6は、処理部11により実行される文字入力処理の一例を説明する概略フローチャートである。図7は、処理部11により実行される文字修正処理の一例を説明する概略フローチャートである。図6及び図7において、記憶部41に繋がる点線及び矢印R1乃至R5は、対応する処理による記憶部41からのデータの読み出し又は記憶部41へのデータの書き込みを示す。
 ステップS600では、処理部11は、手書き入力の開始を検知する。手書き入力の開始は、例えば手書き入力が一定時間以上検知されていない状態において、手書き入力が検知されたときに検知される。
 ステップS602では、処理部11は、手書き入力の終了を検知する。手書き入力の終了は、例えば手書き入力が一定時間検知されない場合に検知される。
 ステップS604では、処理部11は、ステップS600で検知した手書き入力の開始時点からステップS602で検知した手書き入力の終了時点までに得られた1以上のストロークに基づいて、該1以上のストロークに対応する1以上の文字を認識する。以下、このようにして認識された文字を、「認識文字」とも称する。例えば、処理部11は、1以上のストロークに基づいて1以上の文字を認識する際、該1以上のストロークにより形成されうる複数の候補を導出し、導出した候補毎に、その候補の尤もらしさを表す評価値(スコア)を算出する。この際、2つ以上の文字の組み合わせの可能性もある場合には、処理部11は、複数の組み合わせ候補を作成し、組み合わせ候補毎に、その候補の尤もらしさを表す評価値を算出する。そして、処理部11は、評価値の最も高い候補を、第1の候補(認識文字)として出力する。尚、認識文字は、以下で説明する修正候補の文字とは異なる。認識文字は、一般的に、第1の候補(最も尤もらしい候補)に対応し、修正候補は、2番目以降に尤もらしい候補に対応する。尚、以下では、修正候補の文字は、単に"修正候補"とも称する。
 ステップS606では、処理部11は、ステップS604での認識に用いたストローク情報を記憶部41に保持する(矢印R1参照)。以下では、一例として、ストローク情報は、ストローク座標情報と、認識結果情報とを含むものとする。
 ストローク座標情報は、各ストロークの座標情報を含む。図8に示す例では、ストローク座標情報は、得られたストローク毎にID(ストロークID)が付与され、ストロークID毎に管理される。ここでは、一例として、ストロークIDは、各ストローク間の時系列順も表す。但し、ストローク情報は、タイムスタンプのような時間情報を別途有してもよい。
 例えば、図8に示す例では、"s01"、"s02"・・・がストロークIDに対応し、"s"の後の数字(例えば"01"等)が各ストロークの時系列順を表す。各ストロークに係るストローク座標情報は、そのストロークを表す複数の点の座標列を含む。図8に示す例では、例えば、ストロークID=s01に係るストローク座標情報は、n個の座標値の座標列(x11、y11)、・・・、及び(xn1、yn1)を含む。即ち、ストロークID=s01に係るストロークは、座標列(x11,y11),・・・,及び(xn1,yn1)の各座標を結ぶことにより形成される。n個の座標値は、図9に示すように、ストロークID=s01に係るストロークSを形成する各点P1・・・、及びPnの各座標値に対応する。尚、ストローク座標情報に係る座標系は、操作表示面90が基準となり、座標系の原点は、例えば、図9に示すように、操作表示面90の左上の角に固定される。
 認識結果情報は、ステップS604での認識に用いたストロークと、そのストロークにより認識された文字(認識文字)との対応関係を表す。認識結果情報は、図10に示すように、認識文字毎に記憶される。例えば、図10に示す例では、"A"、"B"・・・が、認識文字をそれぞれ表す。認識結果情報は、各認識文字と、各認識文字を形成するストロークを表すストロークIDを含む。図10に示す例では、例えば、認識文字"A"に係る認識結果情報は、3つのストロークID"s01"、"s02"、及び"s03"を含む。これは、認識文字"A"が、ストロークID"s01"、"s02"、及び"s03"に係る3つのストロークの組み合わせに基づき認識されたことを表す。
 ステップS608では、処理部11は、認識結果情報に基づいて、認識文字を表示する。即ち、処理部11は、認識結果情報に基づいて、1以上の認識文字を含む文字列を表示操作装置101に表示する。このようにして、一連の手書き入力に伴って表示操作装置101に表示される文字列は、該一連の手書き入力に対する最新の認識結果が反映された時点で、その内容が確定される。図11は、認識文字が表示された表示操作装置101の画面の一例を概略的に示す図である。図11に示す例では、3つの認識文字"A"、"B"、及び"C"を含む文字列701と、5つの認識文字"1"、"2"、"3"、"4"及び"5"を含む文字列702とが表示されている。
 また、ステップS608では、処理部11は、表示した1以上の認識文字と、それぞれの表示位置とを表す表示位置情報を生成し、記憶部41に保持する。表示位置情報は、図12に示すように、認識文字毎に記憶される。表示位置情報は、認識文字の表示位置の中心の座標を表す座標情報であってもよいし、認識文字の表示範囲を表す複数の座標を表す座標情報の集合であってもよい。図12に示す例では、表示位置情報は、各認識文字"A"、"B"・・・に係る表示位置の中心の座標情報を含む。例えば、表示位置情報に係る座標系は、ストローク座標情報に係る座標系と同じであり、表示操作装置101の操作表示面90が基準となり、座標系の原点は、例えば、操作表示面90の左上の角に固定される(図9参照)。
 次に、図13乃至図21を参照しつつ、図7の処理について説明する。ここでは、一例として、図11に示すような認識文字が表示操作装置101の操作表示面90に表示された状態で、ユーザが認識文字"3"を修正したいときを想定する。図13乃至図21は、表示操作装置101の画面の各種状態の一例を概略的に示す図である。
 ステップS700では、処理部11は、図6に示す処理に従って表示した文字列(認識アプリケーションが入力を確定させた文字列の一例)に対する選択指示を検知する。例えば、選択指示は、表示操作装置101に認識文字が表示されている状態で、操作表示面90における認識文字の表示領域へのタッチ入力を検知することで検知される。この際、処理部11は、記憶部41に記憶された表示位置情報に基づいて、タッチ入力位置に対応する位置に表示されている認識文字を修正対象として特定する。例えば、図13に示す例では、ユーザは、文字"3"を修正したいと思い、表示操作装置101の文字"3"の表示位置にタッチ入力を行う。図13には、ユーザによりタッチ入力されたポイントが図示され、T1にて指示されている。
 ステップS702では、処理部11は、記憶部41に記憶されたストローク情報(ストローク座標情報及び認識結果情報)を取得する(矢印R2参照)。このとき、処理部11は、修正対象の認識文字に係るストローク情報を取得する。
 ステップS704では、処理部11は、ステップS702で取得したストローク情報に基づいて修正候補を導出し、導出した修正候補を表示する候補表示画面を生成する。候補表示画面は、修正候補が選択可能な候補表示を含む画面である。候補表示画面は、表示操作装置101の操作表示面90の画面の一部又は略全体に、形成される。この際、候補表示画面の候補表示の表示領域は、修正対象の認識文字の表示領域にまで及ぶ。例えば、認識文字"3"が修正対象である場合、処理部11は、修正候補"る"、"ろ"、・・・、"ラ"を導出する。尚、以下では、候補表示画面は、一例として、表示操作装置101の操作表示面90の画面全体に形成されるものとする。
 図14に示す例では、候補表示画面は、表示操作装置101の操作表示面90の画面全体に形成される。また、図14に示す例では、候補表示画面は、8個の修正候補"3"、"る"、"ろ"、・・・、"ラ"を区分して表示する候補表示80が、修正対象の認識文字"3"の表示領域に重畳表示されている。尚、図14に示す例では、候補表示は、修正対象の認識文字"3"と同じ文字"3"を修正候補として含んでいるが、かかる修正候補を含めないようにしてもよい。
 ステップS706では、処理部11は、候補表示画面を表示した後、操作表示面90におけるタッチ入力を検知する。
 ステップS708では、処理部11は、ステップS706で検知したタッチ入力が選択操作又は手書き入力を判別する。例えば、処理部11は、ステップS706で検知したタッチ入力が候補表示の表示領域への短時間の1回のタッチ入力(即ちシングルタップ)である場合に、タッチ入力が選択操作であると判定する。手書き入力は、例えば、一定長さ以上のストロークを検知した場合に検知される。ステップS706で検知したタッチ入力が選択操作であると判定した場合は、ステップS710に進み、手書き入力であると判定した場合は、ステップS712に進む。
 例えば、図15に示す例では、ユーザは、修正候補"ろ"で置換したいと思い、候補表示80の文字"ろ"の表示位置にタッチ入力を行う。図15には、候補表示画面上に、ユーザによりタッチ入力されたポイントが描画される(T2参照)。この場合、ステップS710に進む。
 図16に示す例では、ユーザは、候補表示80外の領域に手書き入力を行う。図16に示す例では、候補表示画面上に、手書き入力されたストロークが描画される(T3参照)。この場合、ステップS712に進む。
 図17に示す例では、ユーザは、候補表示80に所望の修正候補が存在しないことから、候補表示80の表示領域内で修正内容の手書き入力を行う。図17に示す例では、候補表示画面上に、修正内容"2"に係るストロークが描画される(T4参照)。この場合、ステップS712に進む。
 ステップS710では、処理部11は、タッチ入力位置(シングルタップの位置)に対応する修正候補を、修正用認識文字として特定(選択)する。そして、処理部11は、選択した修正候補(修正用認識文字)で修正対象の認識文字が置換されように、記憶部41における認識結果情報を更新(置換を反映)する(矢印R5参照)。この結果、次のステップS728の画面更新処理により、図18に示すように、表示操作装置101の操作表示面90の画面は、修正対象の認識文字"3"が修正用認識文字"ろ"で置換された文字列を表示する画面へと更新される。
 ステップS712では、処理部11は、手書き入力の終了を検知する。手書き入力の終了は、例えば手書き入力が一定時間ΔT検知されない場合に検知される。
 ステップS714では、処理部11は、ステップS706で検知した手書き入力が候補表示の表示領域内で行われたか否かを判定する。例えば、処理部11は、手書き入力に係るストロークの通過領域の所定割合以上の部分が候補表示の表示領域内に存在する場合、手書き入力が候補表示の表示領域内で行われたと判定する。手書き入力が候補表示の表示領域内で行われたと判定した場合は、ステップS718に進み、それ以外の場合は、ステップS730に進む。例えば、図16に示す例では、手書き入力が候補表示80の表示領域外で行われたと判定され、ステップS730に進むことになる。また、図17に示す例では、手書き入力が候補表示80の表示領域内で行われたと判定され、ステップS718に進むことになる。
 ステップS718では、処理部11は、ステップS706で検知した入力の開始時点からステップS712で検知した手書き入力の終了時点までに得られた1以上のストロークに基づいて、該1以上のストロークに対応する1文字を認識する。認識方法自体は、ステップS604と同様であってよい。1文字ごとの修正を行うため、処理部11は、組み合わせ候補を作成せずに、1文字の候補に基づいて文字認識を行う。以下、このようにして認識された文字は、修正用認識文字となる。尚、ステップS718において、修正用認識文字は、ステップS604における認識文字と同様に、その修正候補と共に認識される。修正用認識文字は、一般的に、第1の候補(最も尤もらしい候補)に対応し、その修正候補は、2番目以降に尤もらしい候補に対応する。
 ステップS720では、処理部11は、修正用認識文字が削除指示であるか否かを判定する。削除指示は、修正対象の認識文字を削除すること(制御内容の一例)を指示する入力である。例えば、削除指示は、候補表示の表示領域内に所定の文字を手書き入力することで実現される。所定の文字は、好ましくは、削除を概念的に表すことができる文字であり、例えば、横線を表す"-"、"/"、"×"等を含んでよい。所定の文字("-"等)は、予め設定され、ユーザに知らされる。例えば、処理部11は、修正用認識文字が所定の文字であり、且つ、その尤もらしさを示す評価値が予め設定された閾値以上である場合、修正用認識文字が削除指示であると判定する。図19に示す例では、ユーザは、修正対象の認識文字"3"を消去したいと思い、候補表示80の表示領域内で所定の文字"-"に係る手書き入力を行う。かかる手書き入力に応答して、図19に示す例では、手書き入力された所定の文字"-"に係るストロークが描画される(T5参照)。この場合、ステップS722に進む。
 ステップS722では、処理部11は、削除指示に応答して、修正対象の認識文字が削除されるように、記憶部41における認識結果情報を更新(削除を反映)する(矢印R4参照)。即ち、処理部11は、修正対象の認識文字に係る認識結果情報を記憶部41から削除する。また、処理部11は、修正対象の認識文字に係るストローク情報を記憶部41から削除する。この結果、次のステップS728の画面更新処理により、図20に示すように、表示操作装置101の操作表示面90の画面は、修正対象の認識文字"3"が無くなり、削除により空いた部分が詰められた文字列を表示する画面へと更新される。
 ステップS724では、処理部11は、修正対象の認識文字が修正用認識文字で置換されるように、記憶部41における認識結果情報を更新(置換を反映)する(矢印R3参照)。また、処理部11は、記憶部41におけるストローク情報(ストローク座標情報及び認識結果情報)を更新(置換を反映)する(矢印R3参照)。具体的には、処理部11は、ステップS718での認識に用いた1以上のストロークに、新たなストロークIDを付与して、該1以上のストロークに係るストローク座標情報を生成する。そして、処理部11は、生成したストローク座標情報で、記憶部41内の修正対象の認識文字に係るストローク座標情報を置換する。また、処理部11は、修正用認識文字及びそれに対応するストロークIDで、修正対象の認識文字及びそれに対応するストロークIDをそれぞれ置換することで、記憶部41内の認識結果情報を更新する。この結果、次のステップS728の画面更新処理により、図21に示すように、表示操作装置101の操作表示面90の画面は、修正対象の認識文字"3"が修正候補"2"で置換された文字列を表示する画面へと更新される。尚、このようにして置換されたストローク情報は、その後、修正用認識文字が修正対象となった場合に、上述した認識文字の修正と同様の方法で利用できる。
 ステップS728では、処理部11は、更新された認識結果情報に基づいて、画面を更新する。この際、修正が削除の場合、処理部11は、修正対象の認識文字に係る表示位置情報を削除し、他の認識文字の座標情報を変更する(即ち、削除により空いた部分を詰めたことによる表示位置の変更を反映する)。また、修正が置換の場合、処理部11は、表示位置情報を更新する(認識文字のみ置換し、座標情報は維持)。
 ステップS730では、処理部11は、候補表示の表示を終了し、元の画面(図11参照)に戻す。
 以上説明した本実施例1による文字入力受付装置1によれば、例えば以下のような効果が奏される。
 先ず、上述のように、文字入力受付装置1によれば、図6のステップS606(及び図7のステップS724)により、認識文字を導出する際に用いたストローク情報を破棄せずに保持しておくことができる。これにより、ユーザによる文字列に対する修正の手間を低減できる。即ち、認識アプリケーションが入力を確定させた文字列に対しても、該文字列に係る認識文字を導出する際に用いたストローク情報を破棄せずに保持しておくことで、認識アプリケーションが入力を確定させた文字列に対する修正の手間を低減できる。具体的には、ユーザから文字列に対する選択指示が入力された場合に、その選択指示に係る認識文字に対応するストローク情報に基づいて、修正候補を表示する候補表示画面を生成し、表示できる。修正候補の中にユーザの所望する修正候補が存在する場合には、ユーザはその所望の修正候補を選択するだけでよく(再度、手書き入力を行う必要が無く)、修正の手間が低減される。また、修正候補の中にユーザの所望する修正候補が存在しない場合であっても、ユーザは、候補表示画面の状態で候補表示80の表示領域内に手書き入力を行うことで、修正対象の認識文字を直接的に修正できる。即ち、修正候補の中にユーザの所望する修正候補が存在しない場合であっても、ユーザは、候補表示画面を元の画面に戻す操作を行うことなく、修正対象の認識文字を直接的に修正できる。これにより、修正の手間が低減される。
 ところで、候補表示80の表示領域は、上述のように、修正対象の認識文字を修正するための手書き入力領域として用いられるので、候補表示80の表示領域のサイズは、認識精度の観点から大きい方が望ましい。この点、文字入力受付装置1によれば、候補表示80の表示領域が、修正対象の認識文字の表示領域に及ぶ。即ち、候補表示80の表示領域は、候補表示80の表示が修正対象の認識文字の表示を隠すほど大きい。これにより、候補表示80の表示領域を広くでき、候補表示80の表示領域への手書き入力に対する認識精度を高めることができる。
 なお、このような効果は、文字入力受付装置1の表示操作装置101の操作表示面90が比較的小さい場合に(例えば、図2に示すようなユーザに装着可能な形態のデバイスの場合に)、特に有用となる。表示操作装置101の操作表示面90が比較的小さい場合は、ソフトウェアキーボードでの入力が実質的に不可能であり、手書き入力(又は後述の音声入力)が適するためである。表示操作装置101の操作表示面90が比較的小さい場合は、候補表示80のサイズの制約が比較的大きく、候補表示80の表示領域への手書き入力に対する認識精度を高めることが難しいためである。
 また、上述のように、文字入力受付装置1によれば、候補表示画面の状態で削除指示が入力されると、修正対象の認識文字が削除される。従って、修正対象の認識文字を削除したいユーザは、候補表示画面の状態で所定の文字(例えば"-")の手書き入力を行うことで、修正対象の認識文字を直接的に削除できる。
 尚、上述した実施例1では、図6及び図7の各処理は、1つのアプリケーション10により実現されているが、これに限られない。例えば、図6及び図7の各処理は、それぞれ別々のアプリケーションにより実現されてもよい。即ち、アプリケーション10は、図6に示す処理を実行する手書き文字認識アプリケーションと、図7に示す処理を実行する文字修正アプリケーションとを別々に含んでよい。この場合、文字修正アプリケーションは、手書き文字認識アプリケーションから渡される文字列(認識アプリケーションが入力を確定させた文字列の一例)に基づいて、図7に示す処理を実行する。この場合、ステップS608の処理は、文字修正アプリケーションが、図7に示す処理に先立って実行してもよい。
 [実施例2]
 次に、図22乃至図24を参照して、実施例2について説明する。以下の説明において、特に言及しない限り、各種用語の意味は、上述の実施例1で定義した通りである。
 図22は、他の一実施例(実施例2)によるプログラム構成を説明する図である。
 プログラムPR2は、文字入力アプリケーション10A(認識アプリケーションの一例)、及び、文字修正アプリケーション10Bを含む。
 文字入力アプリケーション10Aは、手書き入力された文字を認識し、認識した文字を表示するプログラムである。
 文字修正アプリケーション10Bは、文字入力アプリケーション10Aから入力として与えられた文字列(認識アプリケーションが入力を確定させた文字列の一例)に対する選択指示に応じて、修正候補を表示する候補表示画面を生成する。候補表示画面は、文字入力アプリケーション10Aにより保存されたストローク情報に基づいて生成される。文字修正アプリケーション10Bは、候補表示画面に対する手書き入力されたストロークから文字を認識する。文字修正アプリケーション10Bは、候補表示画面に対する手書き入力されたストロークに係る認識結果(手書き入力の内容)に基づき、選択指示に係る文字列を修正する。候補表示及び修正方法は、上述した実施例1と同様である。
 以下の説明では、文字入力アプリケーション10A、及び文字修正アプリケーション10Bを実行する装置を「文字入力受付装置1A」と表す。
 文字入力受付装置1Aの形態については、上述した実施例1による文字入力受付装置1と同様であってよい(図2及び図3参照)。
 また、文字入力受付装置1Aのハードウェア構成についても、上述した実施例1による文字入力受付装置1と実質的に同様であってよい(図4参照)。即ち、文字入力アプリケーション10A、及び文字修正アプリケーション10Bは、文字入力受付装置1Aを制御する各種プログラムの少なくとも一部である。補助記憶装置103は、インストールされた文字入力アプリケーション10A、及び文字修正アプリケーション10Bを格納すると共に、基本ソフトウェアであるOS、必要なファイル、データ等を格納する。
 図23は、文字入力受付装置の機能構成の一例を示す図である。文字入力受付装置1Aは、文字入力処理部20、文字修正処理部21、及び記憶部41を有する。
 文字入力処理部20は、演算処理装置105が文字入力アプリケーション10Aを実行することで実現される。文字修正処理部21は、演算処理装置105が文字修正アプリケーション10Bを実行することで実現される。記憶部41には、文字入力処理部20、及び文字修正処理部21のいずれもアクセス可能である。
 図24は、文字入力受付装置1Aによる処理の一例を説明する概略フローチャートである。図24は、文字入力処理部20により実行される処理と文字修正処理部21により実行される処理との連携態様の一例を概略的に示す。図24において、記憶部41に繋がる点線及び矢印R1乃至R6は、図6及び図7と同様、対応する処理による記憶部41からのデータの読み出し又は記憶部41へのデータの書き込みを示す。
 図24において、図6及び図7に示した処理と実質的に同様の処理については、同一のステップ番号を付して説明を省略する。図24では、ラインLを仕切りとして分離された一方の領域Saは、文字入力アプリケーション10Aの処理を表し、他方の領域Sbは、文字修正アプリケーション10Bの処理を表す。
 図24において、ラインLを超えて領域Sbから領域Saに向かう矢印は、文字修正アプリケーション10Bから文字入力アプリケーション10Aへの入力を表す。図24に示す例では、文字入力アプリケーション10Aは、文字修正アプリケーション10Bからの入力を受けて動作する。即ち、文字修正アプリケーション10Bが文字入力アプリケーション10Aよりも上位に位置する。
 以下では、まず、文字修正アプリケーション10Bにより実現される処理を説明し、次に文字入力アプリケーション10Aにより実現される処理を説明する。
[文字修正アプリケーション10Bにより実現される処理]
 文字修正処理部21は、表示操作装置101の操作表示面90に対するタッチ入力を検知すると(ステップS706)、記憶部41に記憶されたストローク情報を取得する(矢印R2参照)(ステップS702)。そして、文字修正処理部21は、操作表示面90に候補表示が表示されているか否かを判定する(ステップS902)。例えば、文字修正処理部21は、取得したストローク情報に基づいて、修正候補を導出し、導出した複数の修正候補と、操作表示面90に表示されている複数の文字とが対応している場合に、操作表示面90に候補表示が表示されていると判定する。これは、操作表示面90に候補表示が表示されているときは、操作表示面90に表示されている複数の文字が、取得したストローク情報に基づき導出される複数の修正候補を含んでいるはずであるためである。尚、操作表示面90に表示されている複数の文字(候補表示が表示されているときは候補表示の文字を含む)は、例えばOSからの情報に基づいて判断できる。候補表示が表示されていないと判定した場合は、文字修正処理部21は、検知したタッチ入力(タッチイベント)をそのまま文字入力アプリケーション10A側に送る(ステップS901)。他方、文字修正処理部21は、候補表示が表示されていると判定した場合は、ステップS706で検知した入力が選択操作又は手書き入力を判別する(ステップS708)。文字修正処理部21は、ステップS706で検知した入力が選択操作であると判定した場合は、検知したタッチ入力(タッチイベント)をそのまま文字入力アプリケーション10A側に送る(ステップS901)。他方、文字修正処理部21は、ステップS706で検知した入力が手書き入力であると判定した場合には、手書き入力の終了を検知する(ステップS712)。文字修正処理部21は、手書き入力の終了を検知すると、該手書き入力が候補表示の表示領域内で行われたか否かを判定する(ステップS714)。文字修正処理部21は、手書き入力が候補表示の表示領域内で行われたと判定した場合は、手書き入力された1以上のストロークに基づいて、該1以上のストロークに対応する1文字の認識処理を行う(ステップS718)。他方、文字修正処理部21は、手書き入力が候補表示の表示領域内で行われていないと判定した場合は、候補表示の表示を終了させる指示(以下、「候補表示終了指示」という)を文字入力アプリケーション10A側に送る(ステップS904)。また、文字修正処理部21は、修正用認識文字が削除指示であると判定した場合(ステップS720の"YES")、修正対象の認識文字を削除させる修正指示(以下、「修正対象削除指示」という)を文字入力アプリケーション10A側に送る(ステップS908)。修正対象削除指示には、修正対象の認識文字を特定する情報が含められる。文字修正処理部21は、修正対象削除指示に伴い、記憶部41におけるストローク情報、及び認識結果情報を更新(削除を反映)する(矢印R4参照)。また、文字修正処理部21は、修正用認識文字が削除指示でないと判定した場合(ステップS720の"NO")、ステップS724の処理後、修正対象置換指示を文字入力アプリケーション10A側に送る(ステップS906)。修正対象置換指示は、文字入力アプリケーション10Aに、修正対象の認識文字を、修正用認識文字で置換させる修正指示である。修正対象置換指示には、修正対象の認識文字を特定する情報と、修正用認識文字の情報とが含められる。
[文字入力アプリケーション10Aにより実現される処理]
 文字入力処理部20は、文字修正アプリケーション10Bからの入力(タッチイベントや各種指示)を受けて動作する。
 文字入力処理部20は、タッチイベントを受信すると(ステップS800)、そのタッチイベントの形態に応じて、ステップS600,ステップS700、ステップS802又はステップS730に進む。
 タッチイベントが手書き入力である場合、文字入力処理部20は、手書き入力の開始を検知し(ステップS600)、ステップS608までの処理を行う(図6参照)。
 タッチイベントが、操作表示面90に表示されている1以上の認識文字の表示領域へのタッチ入力である場合、文字入力処理部20は、該1以上の認識文字(認識アプリケーションが入力を確定させた文字列の一例)に対する選択指示を検知する(ステップS700)。この際、文字入力処理部20は、記憶部41に記憶された表示位置情報に基づいて、タッチ入力位置に対応する認識文字を修正対象として特定する。そして、文字入力処理部20は、記憶部41に記憶されたストローク情報に基づいて修正候補を導出し、導出した修正候補を表示する候補表示画面を生成する(ステップS704)。
 タッチイベントが候補表示の表示領域へのシングルタップ(ステップS708の選択操作参照)である場合、文字入力処理部20は、タッチ入力位置に対応する修正候補を、修正用認識文字として特定(選択)する(ステップS802)。この場合、文字入力処理部20は、修正対象の認識文字を修正用認識文字で置換し(ステップS804)、画面更新処理を行う(ステップS808)。文字入力処理部20は、ステップS802で選択された修正用認識文字を用いた置換処理に伴い、記憶部41における認識結果情報を更新(置換を反映)する(矢印R5参照)。また、文字入力処理部20は、ステップS808での画面更新処理に伴い、表示位置情報を更新する(矢印R6参照)。
 タッチイベントが、候補表示の終了を指示するシングルタップである場合、文字入力処理部20は、候補表示の表示を終了し、元の画面(図11参照)に戻す(ステップS730)。尚、候補表示の終了を指示するシングルタップとは、例えば、終了ボタン(タッチスイッチ)の表示領域へのシングルタップである。或いは、候補表示の終了の指示は、手書き入力が候補表示の表示領域外で行われるタッチイベントであってもよい(図16参照)。この場合、文字修正アプリケーション10Bにおいては、ステップS904は省略され、ステップS714で"NO"となったときにステップS901に進むこととしてよい。
 文字入力処理部20は、候補表示終了指示(ステップS904)を受信すると、候補表示の表示を終了し、元の画面(図11参照)に戻す(ステップS730)。
 文字入力処理部20は、修正対象削除指示(ステップS908)を受信すると、修正対象削除指示に基づいて、修正対象の認識文字を削除し(ステップS806)、画面更新処理を行う(ステップS808)。また、文字入力処理部20は、ステップS808での画面更新処理に伴い、表示位置情報を更新する(矢印R6参照)。
 文字入力処理部20は、修正対象置換指示(ステップS906)を受信すると、修正対象置換指示に基づいて、修正対象の認識文字を修正用認識文字で置換し(ステップS804)、画面更新処理を行う(ステップS808)。文字入力処理部20は、ステップS804での置換処理に伴い、記憶部41におけるストローク情報を更新(置換を反映)する(矢印R5参照)。また、文字入力処理部20は、ステップS808での画面更新処理に伴い、表示位置情報を更新する(矢印R6参照)。
 以上説明した本実施例2による文字入力受付装置1Aによれば、上述した実施例1による文字入力受付装置1と同様の効果が奏される。また、本実施例2による文字入力受付装置1Aによれば、汎用性の高い文字入力アプリケーション10Aに、文字修正アプリケーション10Bを連携させることで、文字入力受付装置1と同様の効果を得ることができる。従って、文字入力アプリケーション10Aが搭載された装置に、文字修正アプリケーション10Bを追加的に実装することで、修正機能の利便性を高めることも可能となる。
 尚、本実施例2では、2つのアプリケーションを用いているが、3つ以上のアプリケーションを用いて同機能を実現することも可能である。
 [実施例3]
 次に、図25乃至図27を参照して、実施例3について説明する。以下の説明において、特に言及しない限り、各種用語の意味は、上述の実施例1で定義した通りである。
 実施例3による文字入力受付装置1B(図示せず)は、実行するアプリケーションが、アプリケーション10に代えて、アプリケーション10B(図示せず)である点が異なる。
 アプリケーション10Bは、手書き入力された文字を認識し、認識した文字を表示する手書き文字認識アプリケーション(認識アプリケーションの一例)を含む。
 アプリケーション10Bは、認識アプリケーションが入力を確定させた文字列に対する選択指示に応じて、修正候補を表示する候補表示画面を生成する。候補表示画面は、保存された候補情報(図27参照)に基づいて生成される。候補情報は、認識文字に対する修正候補の文字を表す。候補表示は、上述した実施例1と同様である。アプリケーション10Bは、候補表示画面に対する手書き入力されたストロークから文字を認識する。アプリケーション10Bは、候補表示画面で入力されたストロークに係る認識結果(手書き入力の内容)に基づき、選択指示に係る文字列を修正する。修正方法については後述する。
 文字入力受付装置1Bの形態については、上述した実施例1による文字入力受付装置1と同様であってよい(図2及び図3参照)。また、文字入力受付装置1Bのハードウェア構成についても、上述した実施例1による文字入力受付装置1と実質的に同様であってよい(図4参照)。
 文字入力受付装置1Bは、処理部11B及び記憶部41B(図示せず)を有する。処理部11Bは、演算処理装置105がアプリケーション10Bを実行することで実現される。記憶部41Bは、補助記憶装置103やメモリ装置104により実現される。
 文字入力受付装置1Bは、文字入力処理及び文字修正処理を実行する。以下、文字入力受付装置1Bにより実行される文字入力処理及び文字修正処理の例について説明する。
 図25及び図26は、文字入力受付装置による処理の一例を説明する概略フローチャートである。図25は、処理部11Bにより実行される文字入力処理の一例を説明する概略フローチャートである。図26は、処理部11Bにより実行される文字修正処理の一例を説明する概略フローチャートである。図25及び図26において、記憶部41Bに繋がる点線及び矢印R11乃至R14は、対応する処理による記憶部41Bからのデータの読み出し又は記憶部41Bへのデータの書き込みを示す。
 図25において、図6に示した処理と同一の処理について同一のステップ番号を付して説明を省略する。
 ステップS2506では、処理部11Bは、ステップS604での認識の際に導出した1以上の修正候補の文字を特定する情報(候補情報)を記憶部41Bに保持する(矢印R11参照)。候補情報は、認識文字毎に記憶される。例えば、図27に示す例では、各認識文字"A"、"B"・・・に係る候補情報が示されている。図27に示す例では、例えば、"A"に係る候補情報は、n個の修正候補の文字"R11"、"R21"、"R31"、・・・、及び"Rn1"を含む。これは、認識文字"A"を認識した際に、n個の修正候補の文字"R11"、"R21"、"R31"、・・・、及び"Rn1"が2番目以降の候補として得られたことを表す。
 次に、図26の処理について説明する。図26において、図7に示した処理と同一の処理について同一のステップ番号を付して説明を省略する。
 ステップS2602では、処理部11Bは、記憶部41Bに記憶された候補情報を取得する(矢印R12参照)。このとき、処理部11Bは、修正対象の認識文字に係る候補情報を取得する。
 ステップS2604では、処理部11Bは、ステップS2602で取得した候補情報に基づいて、修正候補を表示する候補表示画面を生成する。候補表示画面は、修正候補が選択可能な候補表示を含む画面である。候補表示自体は、上述した通りである。
 ステップS2622では、処理部11Bは、削除指示に応答して、修正対象の認識文字が削除されるように、記憶部41Bにおける認識結果情報を更新(削除を反映)する(矢印R14参照)。即ち、処理部11Bは、修正対象の認識文字に係る認識結果情報を削除する。この結果、次のステップS728の画面更新処理により、表示操作装置101の操作表示面90の画面は、修正対象の認識文字が削除された文字列を表示する画面へと更新される。また、処理部11Bは、修正対象の認識文字に係る候補情報を削除する(矢印R14参照)。
 ステップS2624では、処理部11Bは、修正対象の認識文字が修正用認識文字で置換されるように、記憶部41Bにおける認識結果情報を更新(置換を反映)する(矢印R13参照)。また、処理部11Bは、記憶部41Bにおける候補情報を更新(置換を反映)する(矢印R13参照)。この結果、次のステップS728の画面更新処理により、表示操作装置101の操作表示面90の画面は、修正対象の認識文字が、修正用認識文字で置換された文字列を表示する画面へと更新される。
 本実施例3による文字入力受付装置1Bによれば、上述した実施例1による文字入力受付装置1と同様の効果が奏される。また、本実施例3による文字入力受付装置1Bによれば、上述した実施例1に比べて、修正候補を導出するための処理負荷を低減できる。具体的には、上述した実施例1では、処理部11は、記憶部41に記憶されたストローク情報を取得し、取得したストローク情報に基づいて、修正対象の認識文字に係る修正候補を導出していた。これに対して、本実施例3によれば、処理部11Bは、記憶部41Bに記憶された候補情報を取得する。従って、本実施例3によれば、処理部11Bは、修正候補を再び導出する必要が無く、過去の文字入力処理結果を利用して候補表示を生成できるので、候補表示を生成するための処理部11Bの処理負荷を低減できる。
 尚、本実施例3においても、アプリケーション10Bは、上述した実施例2と同様に2つのアプリケーションで実現できる。即ち、上述した実施例2においても、本実施例3と同様の態様で、ストローク情報に代えて、手書き入力の際に得られる候補情報を利用して、候補表示を生成することとしてもよい。この場合、同様に、ステップS704において、文字入力処理部20は、修正候補を再び導出する必要が無く、過去の文字入力処理結果を利用して候補表示を生成できる。また、この場合、ステップS902において、文字修正処理部21は、候補情報を利用することで、操作表示面90に候補表示が表示されているか否かを判定できる。
 [実施例4]
 次に、図28を参照して、実施例4について説明する。以下の説明において、特に言及しない限り、各種用語の意味は、上述の実施例1で定義した通りである。
 実施例4による文字入力受付装置1C(図示せず)は、実行するアプリケーションが、アプリケーション10に代えて、アプリケーション10C(図示せず)である点が異なる。
 アプリケーション10Cは、音声入力された文字を認識し、認識した文字を表示する音声認識アプリケーション(認識アプリケーションの一例)を含む。アプリケーション10Cは、手書き入力された文字を認識し、認識した文字を表示するプログラムを更に含む。
 アプリケーション10Cは、認識アプリケーションが入力を確定させた文字列に対する選択指示に応じて、修正候補を表示する候補表示画面を生成する。候補表示画面は、保存された候補情報に基づいて生成される。候補情報は、上述した通りである。候補表示は、上述した実施例1と同様である。アプリケーション10Cは、候補表示画面に対する手書き入力されたストロークから文字を認識する。アプリケーション10Cは、候補表示画面で得られた認識結果(手書き入力の内容)に基づき、選択指示に係る文字列を修正する。修正方法は、上述した実施例3における同修正方法と同様である。
 文字入力受付装置1Cの形態については、上述した実施例1による文字入力受付装置1と同様であってよい(図2及び図3参照)。また、文字入力受付装置1Cのハードウェア構成についても、上述した実施例1による文字入力受付装置1と実質的に同様であってよい(図4参照)。
 文字入力受付装置1Cは、処理部11C及び記憶部41C(図示せず)を有する。処理部11Cは、演算処理装置105がアプリケーション10Cを実行することで実現される。記憶部41Cは、補助記憶装置103やメモリ装置104により実現される。
 文字入力受付装置1Cは、文字入力処理及び文字修正処理を実行する。文字入力受付装置1Cが実行する文字修正処理は、上述した実施例3による文字修正処理(図26)と同様であり、説明を省略する。
 図28は、処理部11Cにより実行される文字入力処理の一例を説明する概略フローチャートである。図28において、記憶部41Cに繋がる点線及び矢印R21乃至R24は、対応する処理による記憶部41Cからのデータの読み出し又は記憶部41Cへのデータの書き込みを示す。
 図28において、図6に示した処理と同一の処理について同一のステップ番号を付して説明を省略する。
 ステップS2800では、処理部11Cは、音声入力の開始を検知する。音声入力の開始は、例えば音声入力が一定時間以上検知されていない状態において、音声入力が検知されたときに検知される。
 ステップS2802では、処理部11Cは、音声入力の終了を検知する。音声入力の終了は、例えば音声入力が一定時間検知されない場合に検知される。
 ステップS2804では、処理部11Cは、ステップS2800で検知した音声入力の開始時点からステップS2802で検知した音声入力の終了時点までに得られた音声データに基づいて、該音声データに対応する1以上の文字を認識する。以下、上述と同様に、このようにして認識された文字を、「認識文字」とも称する。例えば、処理部11Cは、音声データに基づいて文字を認識する際、複数の候補を作成し、候補毎に、その候補の尤もらしさを表す評価値を算出する。そして、処理部11Cは、評価値の最も高い候補を、第1の候補(認識文字)として出力する。
 ステップS2806では、処理部11Cは、ステップS2804での認識の際に導出した1以上の修正候補の文字を特定する情報(候補情報)を記憶部41Cに保持する(矢印R21参照)。候補情報は、上述した実施例3で説明した通りである。
 本実施例4による文字入力受付装置1Cによれば、上述した実施例1による文字入力受付装置1と同様の効果が奏される。また、本実施例4による文字入力受付装置1Cによれば、上述した実施例3と同様、上述した実施例1に比べて、修正候補を導出するための処理負荷を低減できる。具体的には、本実施例4によれば、処理部11Cは、記憶部41Cに記憶された候補情報を取得し、取得した候補情報に基づいて、候補表示を生成する。従って、本実施例4によれば、処理部11Cは、修正候補を再び導出する必要が無く、過去の文字入力処理結果を利用して候補表示を生成できるので、候補表示を生成するための処理部11Cの処理負荷を低減できる。
 尚、本実施例4においても、アプリケーション10Cは、上述した実施例2と同様に2つのアプリケーションで実現できる。即ち、上述した実施例2においても、本実施例4と同様の態様で、ストローク情報に代えて、音声認識の際に得られる候補情報を利用して、候補表示を生成することとしてもよい。
 尚、本実施例4においては、音声認識の際に得られる候補情報を利用して、候補表示を生成しているが、音声認識の際に用いられる音声データを利用して、候補表示を生成することも可能である。この場合、ステップS2806において、処理部11Cは、ステップS2804での認識の際に用いた音声データを記憶部41Cに保持すればよい。また、この場合、処理部11Cは、候補表示を生成する際に、記憶部41Cに保持した音声データに基づいて、修正候補を導出し、候補表示を生成すればよい。このように、処理部11Cは、保持した音声データ又は候補情報を利用することで、音声認識アプリケーションが入力を確定させた文字列に対する選択指示に応じて、同様の候補表示画面を生成できる。
[変形例]
 図29は、変形例を示す構成図である。図29に示す例では、文字入力受付装置1Dは、サーバ装置50にネットワークNを介して接続される。文字入力受付装置1Dは、処理部11Dと、文字列情報取得部12と、記憶部41Dとを含む。また、サーバ装置50は、記憶部51と、文字列情報抽出・送信部30とを含む。サーバ装置50の記憶部51には、文字列と、その文字列に対応付けてスクロール情報とが記憶される。尚、サーバ装置50の記憶部51に記憶される情報(文字列と、その文字列に対応付けてスクロール情報)は、必ずしも文字入力受付装置1Dにより生成された情報である必要はなく、他の装置における認識アプリケーションの実行により生成された情報を含んでもよい。文字入力受付装置1Dの文字列情報取得部12は、例えばユーザからの指示に応じて、指示された文字列と、それに対応付けられたスクロール情報とをサーバ装置50に要求する。サーバ装置50の文字列情報抽出・送信部30は、文字入力受付装置1Dからの要求に応じて、指示された文字列と、それに対応付けられたスクロール情報とを記憶部51から抽出し、文字入力受付装置1Dに送信する。文字入力受付装置1Dの処理部11Dは、取得したスクロール情報を記憶部41Dに記憶し、文字列を表示する。この際、処理部11Dは、文字列の表示位置に応じた表示位置情報を生成し、記憶部41Dに記憶する。処理部11Dは、このようにして文字列を出力すると、図7に示した文字修正処理を実行する。このような変形例によれば、文字入力受付装置1Dが修正対象の文字列に係る情報を保持していない場合でも、サーバ装置50から同情報を取得することで、上述の実施例1と同様の態様で同文字列の修正が可能となる。尚、このような変形例は、上述した他の実施例2乃至実施例4においても適用できる。例えば、上述した実施例3に適用される場合、文字入力受付装置1Dは、サーバ装置50から、スクロール情報に代えて候補情報を取得すればよい。尚、本変形例では、サーバ装置50の記憶部51に、文字列と、その文字列に対応付けてスクロール情報とが記憶されるが、サーバ装置50の記憶部51には、文字列を特定できる情報に対応付けて抽出できる態様で、スクロール情報のみが記憶されてもよい。この場合、文字入力受付装置1Dは、記憶部41Dに文字列の情報を保持しておき、スクロール情報のみをサーバ装置50から取得すればよい。
[修正内容の手書き入力方法の他の例]
 次に、図30乃至図33を参照して、候補表示が表示されているときの修正内容の手書き入力方法の他の例について説明する。以下の修正内容の手書き入力方法の他の例は、上述した実施例1乃至実施例4(及び図29に示す変形例、以下同じ)の同方法に代替え又は追加されることができる。以下では、上述した実施例1において採用した場合の変形例を説明するが、実施例2乃至実施例4においても同様である。
 図30乃至図33は、修正内容の手書き入力方法の他の例をそれぞれに示す図であり、表示操作装置101の操作表示面90における画面(候補表示画面)を概略的に示す。
 図30に示す例では、修正内容の手書き入力が可能な領域は、候補表示画面の全体に設定される。図30に示す例では、修正内容"2"に係る手書き入力のストロークに応じて描画される表示の一例が図示され、T6にて指示されている。
 ここで、上述した実施例1では、修正内容の手書き入力が可能な領域は、候補表示の表示領域であった(図17参照)。このように、修正内容の手書き入力が可能な領域は、候補表示画面の全体であってもよい。また、修正内容の手書き入力が可能な領域は、候補表示画面の一部であって、候補表示の表示領域とは異なる領域であってもよい。
 図30に示す修正内容の手書き入力方法を上述した実施例1で採用する場合、上述した実施例1におけるステップS714の判定は不要となる。
 図30に示す例によれば、候補表示画面の全体で修正内容の手書き入力が可能となるので、ユーザにとっては修正内容の手書き入力が容易となる。かかる効果は、特に候補表示画面のサイズが小さい場合に顕著となる。候補表示画面のサイズが小さい場合、その一部のサイズはさらに小さくなり、手書き入力が難しくなるためである。
 図31に示す例では、手書き入力される修正内容は、2文字である。図31に示す例では、修正内容"2"及び"3"に係る手書き入力のストロークに応じて描画される表示の一例が図示され、T7及びT8にてそれぞれ指示されている。
 ここで、上述した実施例1では、手書き入力される修正内容は、1文字であった(図17参照)。このように、手書き入力される修正内容は、2文字又はそれ以上の文字であってもよい。
 図31に示す修正内容の手書き入力方法を上述した実施例1で採用する場合、ステップS718においては、処理部11は、1文字の候補に加えて2文字以上の組み合わせ候補を導出し、最も評価値の高い候補(修正用認識文字)を導出する。このとき、処理部11は、修正用認識文字が2文字以上であるときには、当該2以上の修正用認識文字で、修正対象の認識文字(1文字)を置換する(ステップS724)。
 図31に示す例によれば、2以上の修正用認識文字で修正対象の認識文字を置換可能となるので、ユーザにとっては、修正態様の自由度が高まり、利便性が向上する。例えば、ユーザは、ある1文字を挿入したい場合に、挿入したい位置の前後いずれかの文字を選択し、選択した文字(修正対象の認識文字)と、挿入したい文字とからなる2文字を、手書き入力することで、所望する挿入による文字列の修正を実現できる。
 尚、図31に示す例では、修正内容の手書き入力が可能な領域(本例では、候補表示の表示領域)には、1文字ごとの入力枠が表示されていないが、同入力枠が表示されてもよい。この場合、2以上の文字の文字間の区切りが認識しやすくなり、2以上の文字の認識精度が向上する。
 図32に示す例では、重ね書きで2文字が手書き入力される。図31に示す例では、修正内容"2"及び"3"に係る手書き入力のストロークに応じて描画される表示の一例が図示され、T9及びT10にてそれぞれ指示されている。
 ここで、上述した実施例1では、手書き入力される修正内容は、1文字であった(図17参照)。このように、重ね書きで手書き入力される修正内容は、2文字又はそれ以上の文字であってもよい。
 図32に示す修正内容の手書き入力方法を上述した実施例1で採用する場合、ステップS712において、手書き入力の終了を検知するための一定時間ΔTを、2以上の文字の文字間の区切りを認識するために必要な所定時間ΔT2よりも大きく設定する。所定時間ΔT2は、重ね書きの場合に、1文字を手書き入力し終えた時点から、次の文字の手書き入力を開始するまでの時点までの時間(入力が無い空白時間)に対応する。尚、所定時間ΔT2は、1文字を手書き入力している間にストローク間で発生する同空白時間より長くなる傾向がある。
 図32に示す例によれば、図31に示した例と同様、2以上の修正用認識文字で修正対象の認識文字を置換可能となるので、ユーザにとっては、修正態様の自由度が高まり、利便性が向上する。また、重ね書きで手書き入力する場合は、図31に示すような別々の場所に各文字を手書き入力する場合に比べて、1文字当たりでより広い領域に手書き入力できるので、ユーザにとっては修正内容の手書き入力が容易となる。但し、その反面、1文字を手書き入力し終えた後、所定時間ΔT2に対応する時間だけ待機してから、次の文字の手書き入力を行う必要があるので、図31に示した例よりも手書き入力に要する時間が長くなる。
 図33に示す例では、手書き入力される修正内容は、2文字である。図31に示す例では、修正内容"2"及び"3"に係る手書き入力のストロークに応じて描画される表示の一例が図示され、T11及びT12にてそれぞれ指示されている。図33に示す例は、図31に示した例に対して、入力枠70及び71が表示されている点が異なる。また、図33に示す例では、入力枠70及び71が互いに重複している。即ち、入力枠70及び71は、互いに対して一部が重複する態様で配置されている。
 図33に示す例によれば、図31に示した例と同様の効果が得られる。また、図33に示す例によれば、入力枠70及び71が互いに重複しているので、修正内容の手書き入力が可能な領域が比較的小さい場合でも、2以上の修正用認識文字で修正対象の認識文字を置換可能となる。また、図33に示す例によれば、2以上の文字の連続的な手書き入力が可能となり、図32に示した例において生じる不都合(待ち時間に起因して入力時間が長くなる不都合)を低減できる。また、図33に示す例によれば、入力枠70及び71の位置がずれているため、図32に示した例において生じる不都合(認識精度の悪化)を低減できる。
 以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。
 例えば、上述した各実施例では、候補表示80の表示領域は、候補表示画面の右側の一部の表示領域を除く範囲に設定されているが、これに限定されない。候補表示80の表示領域は、候補表示画面の全体に設定されてもよい。
 例えば、上述した各実施例では、候補表示80は、複数の修正候補を横2行で表示しているが、表示数や表示態様は任意である。例えば、候補表示80は、単一の修正候補を表示してもよいし、複数の修正候補を横1行で表示してもよい。
 また、上述した実施例3では、手書き文字認識アプリケーションが入力を確定させた文字列に対して、図26に示す文字修正処理が適用されているが、図26に示す文字修正処理は、他の認識アプリケーションが入力を確定させた文字列に対しても適用可能である。例えば、図26に示す文字修正処理は、ジェスチャー認識アプリケーションが入力を確定させた文字列に対しても適用可能である。この場合、ジェスチャー認識の際に、認識に利用された候補情報を利用することで、ジェスチャー認識アプリケーションが入力を確定させた文字列に対する選択指示に応じて、同様の候補表示画面を生成できる。
 また、上述した実施例1乃至実施例4では、候補表示は、候補表示画面の一部に表示されている。しかしながら、候補表示は、候補表示画面の全体に表示されてもよい。この場合、ユーザは、修正したい文字列を見ながら修正内容の手書き入力ができないものの、より広い領域に修正内容の手書き入力ができるため、修正内容の手書き入力が容易となる。また、同様の観点から、候補表示は、候補表示画面の全体よりも小さい領域であるが、修正したい文字列に重畳する領域に表示されてもよい。
 また、上述した実施例1乃至実施例4において、候補表示は、削除指示に係る所定の文字(例えば"-")が選択できるように形成されてもよい。即ち、候補表示には、削除指示に係る所定の文字が、修正候補と共に含まれてもよい。この場合、修正対象の認識文字を削除したいユーザは、削除指示に係る所定の文字に係る手書き入力を行う必要が無く、候補表示に含まれる削除指示に係る所定の文字を選択するだけで、削除指示を入力できる。
 また、上述した実施例1(実施例2乃至実施例4についても同様)では、文字列に対する選択指示は、文字列中の文字の表示位置へのタッチ入力により実現されるが、選択指示は、他の態様で入力されてもよい。例えば、図34に示す例では、認識文字毎にボタン(タッチスイッチ)91乃至98が表示される。この場合、選択指示は、ボタン91乃至98のいずれかがタッチ操作されたときに実現される。このとき、処理部11は、タッチ操作されたボタンに基づいて、修正対象の認識文字を特定できる。或いは、選択指示は、例えば、カーソルやポインタにより文字列中の文字が選択されたときに実現されてもよい。
 1  文字入力受付装置
 10  アプリケーション
 10A  文字入力アプリケーション
 10B  文字修正アプリケーション
 11  処理部
 20  文字入力処理部
 21  文字修正処理部
 41  記憶部
 80  候補表示

Claims (14)

  1.  コンピューターが、
     手書き入力された文字の表示画面において、手書き入力された特定の文字に対する選択指示を受け付け、
     前記選択指示を受け付けたことに応じて、前記表示画面に、前記特定の文字の修正候補を表示する候補表示画面を、少なくとも前記特定の文字の表示領域にまで及ぶ表示範囲で表示し、
     前記候補表示画面に対する手書き入力に応じて、前記特定の文字の修正処理を行う、
     文字入力受付方法。
  2.  前記修正処理は、該特定の文字を、前記手書き入力を認識して得られた文字で置換することを含む、請求項1に記載の文字入力受付方法。
  3.  前記修正処理は、該特定の文字を、前記手書き入力に対応する制御内容で修正することを含む、請求項1に記載の文字入力受付方法。
  4.  前記特定の文字に対応するストロークに基づき、前記修正候補が表示される、請求項1に記載の文字入力受付方法。
  5.  前記候補表示画面は、前記特定の文字に対応するストロークに係るデータ、又は、前記ストロークに基づき生成される前記修正候補に係るデータに基づいて生成される、請求項4に記載の文字入力受付方法。
  6.  前記選択指示は、前記特定の文字の表示位置へのタッチ入力に基づいて検出される、請求項1に記載の文字入力受付方法。
  7.  前記候補表示画面に対する前記手書き入力の内容は、前記修正候補を表示する表示領域における手書き入力に基づいて認識される、請求項1に記載の文字入力受付方法。
  8.  前記手書き入力の内容は、前記候補表示画面全体に設定された入力領域における手書き入力に基づいて認識される、請求項1に記載の文字入力受付方法。
  9.  前記候補表示画面に対する手書き入力は、2文字以上の手書き入力を含む、請求項1に記載の文字入力受付方法。
  10.  前記特定の文字は、認識アプリケーションが入力を確定させた文字列に含まれる、請求項1に記載の文字入力受付方法。
  11.  前記コンピューターが、
     前記特定の文字を、人が装着可能なデバイス又は人が携帯可能なデバイスの表示部に表示することを更に含み、
     前記候補表示画面は、前記表示部に生成される、請求項1に記載の文字入力受付方法。
  12.  手書き入力された文字の表示画面において、手書き入力された特定の文字に対する選択指示を受け付け、
     前記選択指示を受け付けたことに応じて、前記表示画面に、前記特定の文字の修正候補を表示する候補表示画面を、少なくとも前記特定の文字の表示領域にまで及ぶ表示範囲で表示し、
     前記候補表示画面に対する手書き入力に応じて、前記特定の文字の修正処理を行う、
     処理部を含む、文字入力受付装置。
  13.  前記特定の文字に対応するストロークに係るデータ、又は、前記ストロークに基づき生成される前記修正候補に係るデータを保持する記憶部を更に含み、
     前記処理部は、前記記憶部に保持された前記データに基づいて、前記候補表示画面を生成する、請求項12に記載の文字入力受付装置。
  14.  コンピューターに、
     手書き入力された文字の表示画面において、手書き入力された特定の文字に対する選択指示を受け付け、
     前記選択指示を受け付けたことに応じて、前記表示画面に、前記特定の文字の修正候補を表示する候補表示画面を、少なくとも前記特定の文字の表示領域にまで及ぶ表示範囲で表示し、
     前記候補表示画面に対する手書き入力に応じて、前記特定の文字の修正処理を行う、
     処理を実行させる文字入力受付プログラム。
PCT/JP2015/063957 2015-05-14 2015-05-14 文字入力受付方法、文字入力受付装置及び文字入力受付プログラム WO2016181565A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2015/063957 WO2016181565A1 (ja) 2015-05-14 2015-05-14 文字入力受付方法、文字入力受付装置及び文字入力受付プログラム
CN201580079863.5A CN107533648A (zh) 2015-05-14 2015-05-14 字符输入受理方法、字符输入受理装置以及字符输入受理程序
JP2017517579A JPWO2016181565A1 (ja) 2015-05-14 2015-05-14 文字入力受付方法、文字入力受付装置及び文字入力受付プログラム
EP15891889.6A EP3296928A4 (en) 2015-05-14 2015-05-14 Character input and reception method, character input and reception device, and character input and reception program
US15/810,672 US20180068194A1 (en) 2015-05-14 2017-11-13 Method of receiving input characters and character input reception apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/063957 WO2016181565A1 (ja) 2015-05-14 2015-05-14 文字入力受付方法、文字入力受付装置及び文字入力受付プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/810,672 Continuation US20180068194A1 (en) 2015-05-14 2017-11-13 Method of receiving input characters and character input reception apparatus

Publications (1)

Publication Number Publication Date
WO2016181565A1 true WO2016181565A1 (ja) 2016-11-17

Family

ID=57248971

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/063957 WO2016181565A1 (ja) 2015-05-14 2015-05-14 文字入力受付方法、文字入力受付装置及び文字入力受付プログラム

Country Status (5)

Country Link
US (1) US20180068194A1 (ja)
EP (1) EP3296928A4 (ja)
JP (1) JPWO2016181565A1 (ja)
CN (1) CN107533648A (ja)
WO (1) WO2016181565A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019163011A1 (ja) * 2018-02-21 2019-08-29 三菱電機株式会社 表示制御装置および表示制御方法
EP3537341A1 (en) 2018-03-05 2019-09-11 OMRON Corporation Character input device, character input method, and character input program

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112015018905B1 (pt) 2013-02-07 2022-02-22 Apple Inc Método de operação de recurso de ativação por voz, mídia de armazenamento legível por computador e dispositivo eletrônico
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
WO2018061824A1 (ja) * 2016-09-29 2018-04-05 日本電気株式会社 情報処理装置、情報処理方法およびプログラム記録媒体
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US10895954B2 (en) * 2017-06-02 2021-01-19 Apple Inc. Providing a graphical canvas for handwritten input
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
JP7247496B2 (ja) * 2018-09-14 2023-03-29 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
WO2020054185A1 (ja) * 2018-09-14 2020-03-19 Necソリューションイノベータ株式会社 表示更新装置、表示更新方法、プログラム、および記録媒体
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
JP7243109B2 (ja) * 2018-10-02 2023-03-22 カシオ計算機株式会社 電子機器、電子機器の制御方法及びプログラム
US11475884B2 (en) * 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63132387A (ja) * 1986-11-25 1988-06-04 Hitachi Ltd 手書き文字認識装置
JP2001351065A (ja) * 2000-06-05 2001-12-21 Japan Science & Technology Corp 文字認識方法、文字認識プログラムを記録したコンピュータ読み取り可能な記録媒体及び文字認識装置
JP2004046325A (ja) * 2002-07-09 2004-02-12 Sharp Corp データ入力装置、データ入力プログラムおよびデータ入力プログラムを記録した記録媒体
JP2005078560A (ja) * 2003-09-03 2005-03-24 Ricoh Co Ltd 認識文字修正装置、プログラムおよび記録媒体

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5550930A (en) * 1991-06-17 1996-08-27 Microsoft Corporation Method and system for training a handwriting recognizer at the time of misrecognition
US5710831A (en) * 1993-07-30 1998-01-20 Apple Computer, Inc. Method for correcting handwriting on a pen-based computer
US7221796B2 (en) * 2002-03-08 2007-05-22 Nec Corporation Character input device, character input method and character input program
US6986106B2 (en) * 2002-05-13 2006-01-10 Microsoft Corporation Correction widget
JP3982562B1 (ja) * 2006-09-28 2007-09-26 株式会社Ihi スタッカクレーン
US8020119B2 (en) * 2007-12-14 2011-09-13 Microsoft Corporation Engine support for parsing correction user interfaces
US8116569B2 (en) * 2007-12-21 2012-02-14 Microsoft Corporation Inline handwriting recognition and correction
CN101667091A (zh) * 2008-05-15 2010-03-10 杭州惠道科技有限公司 实时预测用户输入的人机界面
US8462987B2 (en) * 2009-06-23 2013-06-11 Ut-Battelle, Llc Detecting multiple moving objects in crowded environments with coherent motion regions
US8686955B2 (en) * 2010-03-11 2014-04-01 Apple Inc. Device, method, and graphical user interface for performing character entry
US20130019175A1 (en) * 2011-07-14 2013-01-17 Microsoft Corporation Submenus for context based menu system
WO2013103037A1 (ja) * 2012-01-07 2013-07-11 日本電気株式会社 光学装置、光学素子および画像表示装置
KR101323281B1 (ko) * 2012-04-06 2013-10-29 고려대학교 산학협력단 입력 장치 및 문자 입력 방법
US9881224B2 (en) * 2013-12-17 2018-01-30 Microsoft Technology Licensing, Llc User interface for overlapping handwritten text input

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63132387A (ja) * 1986-11-25 1988-06-04 Hitachi Ltd 手書き文字認識装置
JP2001351065A (ja) * 2000-06-05 2001-12-21 Japan Science & Technology Corp 文字認識方法、文字認識プログラムを記録したコンピュータ読み取り可能な記録媒体及び文字認識装置
JP2004046325A (ja) * 2002-07-09 2004-02-12 Sharp Corp データ入力装置、データ入力プログラムおよびデータ入力プログラムを記録した記録媒体
JP2005078560A (ja) * 2003-09-03 2005-03-24 Ricoh Co Ltd 認識文字修正装置、プログラムおよび記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3296928A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019163011A1 (ja) * 2018-02-21 2019-08-29 三菱電機株式会社 表示制御装置および表示制御方法
EP3537341A1 (en) 2018-03-05 2019-09-11 OMRON Corporation Character input device, character input method, and character input program

Also Published As

Publication number Publication date
CN107533648A (zh) 2018-01-02
EP3296928A4 (en) 2018-05-09
EP3296928A1 (en) 2018-03-21
JPWO2016181565A1 (ja) 2018-03-29
US20180068194A1 (en) 2018-03-08

Similar Documents

Publication Publication Date Title
WO2016181565A1 (ja) 文字入力受付方法、文字入力受付装置及び文字入力受付プログラム
JP6427559B6 (ja) 手書き入力のための永久同期システム
CN108932053B (zh) 基于手势的绘图方法、装置、存储介质和计算机设备
US20130215022A1 (en) Information processing apparatus, processing method thereof, and computer-readable storage medium
CN107193542B (zh) 信息显示方法和装置
JP2002203208A (ja) オンライン文字認識装置及び方法並びにコンピュータ読み取り可能な記憶媒体及びオンライン文字認識プログラム
JP5910345B2 (ja) 文字入力プログラム、情報処理装置および文字入力方法
US20140362002A1 (en) Display control device, display control method, and computer program product
WO2014147722A1 (ja) 電子機器、方法及びプログラム
JP2009289188A (ja) 文字入力装置、文字入力方法および文字入力用プログラム
EP4307096A1 (en) Key function execution method, apparatus and device, and storage medium
US10684772B2 (en) Document viewing apparatus and program
CN105320437A (zh) 选择字符或图像的方法及计算设备
US20180032495A1 (en) Input processing program, input processing device, input processing method, character identification program, character identification device, and character identification method
JP2017215756A (ja) 筆記システム、情報処理装置、プログラム
US20170090727A1 (en) Electronic device, device computer readable recording medium, and device control method
CN109101173B (zh) 屏幕布局控制方法、装置、设备及计算机可读存储介质
JP6115221B2 (ja) 情報処理装置、情報処理方法、およびプログラム
TWI505173B (zh) 提高手持裝置觸碰鍵盤辨識率的系統和方法
JP7199441B2 (ja) 入力装置
WO2019024507A1 (zh) 一种触摸控制方法、装置及终端
CN114578956A (zh) 设备控制方法、装置、虚拟穿戴设备以及存储介质
JP2001236466A (ja) オンライン手書文字認識装置、オンライン手書文字認識方法、およびその方法を実現するプログラムを記憶した記録媒体
JP6256545B2 (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
CN111062360A (zh) 一种手部追踪系统及其追踪方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15891889

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017517579

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE