WO2012132244A1 - 手書き文字入力装置 - Google Patents

手書き文字入力装置 Download PDF

Info

Publication number
WO2012132244A1
WO2012132244A1 PCT/JP2012/001532 JP2012001532W WO2012132244A1 WO 2012132244 A1 WO2012132244 A1 WO 2012132244A1 JP 2012001532 W JP2012001532 W JP 2012001532W WO 2012132244 A1 WO2012132244 A1 WO 2012132244A1
Authority
WO
WIPO (PCT)
Prior art keywords
character
display
handwriting
unit
input
Prior art date
Application number
PCT/JP2012/001532
Other languages
English (en)
French (fr)
Inventor
英明 春元
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to CN2012800168957A priority Critical patent/CN103460225A/zh
Publication of WO2012132244A1 publication Critical patent/WO2012132244A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/226Character recognition characterised by the type of writing of cursive writing
    • G06V30/2268Character recognition characterised by the type of writing of cursive writing using stroke segmentation
    • G06V30/2272Character recognition characterised by the type of writing of cursive writing using stroke segmentation with lexical matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/28Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
    • G06V30/287Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet of Kanji, Hiragana or Katakana characters

Definitions

  • the present invention relates to a handwritten character input device.
  • Patent Document 1 a handwritten character before recognition of the character is displayed in the input area of the handwritten character by double tapping the handwritten character displayed on the screen after character recognition with a device for handwriting input.
  • a handwriting input device is disclosed.
  • Patent Document 2 a handwritten character displayed on the screen after character recognition is subjected to character correction only by an input operation on the screen for selecting a correction character candidate by pressing the correction button on the screen.
  • a handwriting character input device capable of
  • Patent Document 3 when the non-root portion of the kanji handwritten in the input area is smaller than the radical (for example, a ring, a ring) of the kanji, the non-root portion of the kanji is extracted
  • the radical for example, a ring, a ring
  • An object of the present invention is to provide a handwritten character input apparatus which enables handwritten input of erroneously recognized characters once subjected to character recognition processing from the continuation of handwriting data at the time of erroneous recognition.
  • the handwriting character input device includes a touch panel that senses a touch, and a display area provided integrally with the touch panel and displaying bit map data of a character recognized and confirmed character, and a handwriting that is detected by the touch panel.
  • a display unit having an input area to be input, a character recognition processing unit for performing character recognition processing with reference to a character recognition dictionary incorporating stroke information of the characters, and the above-mentioned bit map data of the characters displayed in the display area
  • the stroke information of the character is reversely extracted from the character recognition dictionary built in the character recognition processing unit
  • acquiring stroke data acquisition unit to acquire and handwriting data newly input by handwriting in the display area
  • the character recognition processing unit recognizes characters based on stroke information
  • the handwritten character input device includes a touch panel that senses a touch, and a display area provided integrally with the touch panel and displaying bit map data of a character recognized and confirmed character and a touch sensed by the touch panel
  • a display unit having an input area for inputting handwritten characters, a character recognition processing unit for performing character recognition processing with reference to a character recognition dictionary incorporating stroke information of the characters, bit map data of characters displayed in the display area
  • a movement control unit for controlling movement of the character to the input area, a data retouching control unit for editing the size of the bit map data of the character moved to the input area or the position thereof, and the character recognition processing unit
  • the stroke information of the character is obtained by reversely retrieving from the character recognition dictionary, and the stroke information of the character is A stroke data acquisition unit that deforms based on an editing operation of the remote control unit, a handwriting data acquisition unit that acquires handwriting data newly input by handwriting in the display area, and stroke information of a character that has been deformed by the stroke data acquisition unit And
  • the handwritten character input device includes a touch panel that senses a touch, and a display area provided integrally with the touch panel and displaying bit map data of a character recognized and confirmed character and a touch sensed by the touch panel
  • a display unit having an input area for inputting handwritten characters, a character recognition processing unit for performing character recognition processing with reference to a character recognition dictionary incorporating stroke information of the characters, bit map data of characters displayed in the display area Movement control unit that controls movement of the character to the input area, the position of the bit map data of the character moved to the input area, and a radical that displays the character at the position based on the character code of the character
  • a radical recognition unit for recognizing the character map data and editing bit map data of the character according to the radical, and the character recognition processing
  • a stroke data acquisition unit for reversely acquiring stroke information of the character from a character recognition dictionary built in the character recognition dictionary, and modifying the stroke information of the character based on the editing operation of the radical recognition unit;
  • a handwriting data acquisition unit that acquires handwriting data input
  • the erroneously recognized character once subjected to the character recognition processing can be input by handwriting again from the continuation of the handwriting data at the time of erroneous recognition.
  • Diagram for explaining the operation of the handwritten character input device 100 according to the first embodiment Block diagram showing the configuration of the handwritten character input device 100 (A) Flow of handwritten character input processing of handwritten character input device 100 (1), (b) Flow of handwritten character input processing of handwritten character input device 100 (2)
  • a diagram for explaining the operation of the handwritten character input device 300 according to the second embodiment Block diagram showing the configuration of the handwritten character input device 300 (A) Flow of handwritten character input processing of handwritten character input device 300 (1), (b) Flow of handwritten character input processing of handwritten character input device 300 (2)
  • Diagram for explaining the operation of the handwritten character input device 500 according to the third embodiment Block diagram showing the configuration of the handwritten character input device 500 (A) Flow of handwritten character input processing of handwritten character input device 500 (1), (b) Flow of handwritten character input processing of handwritten character input device 500 (2)
  • Embodiment 1 The outline of the operation of the handwritten character input device 100 will be described with reference to FIG.
  • FIG. 1 is a diagram for explaining the operation of the handwritten character input device 100 according to the first embodiment. Only the screen of the touch panel 101 is illustrated in FIG. 1 for the purpose of description. In FIG. 1, “gate” will be described as an example of the recognition speed recognition character. The correct character is " ⁇ ".
  • the erroneously recognized character is a character that the handwriting input device 100 actually recognizes the character in the middle of handwriting input, and performs character recognition processing after a predetermined time has elapsed from the point when the handwriting input is interrupted.
  • a predetermined time elapses while the user releases a finger from touch panel 101 during handwriting input
  • handwriting character input device 100 automatically recognizes the character even if it is a character during handwriting input. Determined
  • the user touches the "gate" which is a rapid recognition error recognition character with a finger, the user can move (for example, drag operation) the temporary recognition error recognition character as an object in the display area S1. become.
  • the user drags “gate”, which is a rapid recognition error recognition character, with a finger from the display area S 1 and drops it into the input area S 2. Then, on the screen (1-3) of the touch panel 101, the "gate”, which is the slow recognition error recognition character dropped to the input area S2, is displayed in the input area S2. At this time, the input area S2 displays the "gate", which is a false recognition speed recognition character, in a state where handwriting input is possible from the continuation of the handwriting (i.e., "gate”) at the time of the rapid recognition error. Therefore, on the screen (1-4) of the touch panel 101, the user can continuously input the handwriting from the continuation of the handwriting (ie, “gate”) at the time when the rapid recognition error is recognized.
  • handwritten character input apparatus 100 When handwritten character input apparatus 100 according to the first embodiment drags and drops a recognition error character with slow speed from display area S1 to input area S2 where handwriting input can be made, handwriting data with recognition error of recognition speed is the handwriting data It is possible to make handwriting input possible from the continuation.
  • FIG. 2 is a block diagram showing the configuration of the handwritten character input device 100.
  • the handwriting character input device 100 shown in FIG. 2 includes a touch panel 101, a second display unit 103, a display control unit 105, a drop function control unit 107, a second buffer 109, a stroke data acquisition unit 111, handwriting data
  • the touch panel 101 When the touch panel 101 functions as an input interface, the touch panel 101 detects a touch of a finger or the like, and outputs the detection result to the handwriting data acquisition unit 113 and the drag function control unit 123.
  • the touch panel 101 integrally includes a first display unit 121 that displays recognized characters and the like and a second display unit 103 that is a handwritten character input area. Therefore, the second display unit 103 and the first display unit 121 can perform display according to the touch detected on the touch panel.
  • the touch detected by the touch panel 101 is, for example, a touch of a user's finger.
  • the first display unit 121 (corresponding to the display area S1 in FIG. 1) displays the characters held in the first buffer 125 under the control of the display control unit 105.
  • the first display unit 121 is provided integrally with the touch panel 101. Therefore, when the user drags a character displayed on the first display unit 121 of the touch panel 101, the first display unit 121 can display the movement of the character according to the touch panel operation. In addition, movement of the character displayed on the 1st display part 121 is controlled based on control of the drag function control part 123 mentioned later.
  • the first buffer 125 holds data and the like to be displayed on the first display unit 121.
  • the first buffer 125 holds characters determined by character recognition processing of the recognition engine 115 described later.
  • the drag function control unit 123 controls the movement of the character.
  • the character displayed on the first display unit 121 dragged and moved by the user is a character once determined by the character recognition process of the recognition engine 115.
  • the drag function control unit 123 drops the bit map data of the character and the JIS code corresponding to the character. It is handed over to the control unit 107.
  • the character which the drag function control part 123 takes over to the drop function control part 107 is demonstrated as a kanji. That is, the drag function control unit 123 takes over the bitmap data of the kanji and the JIS kanji code corresponding to the kanji to the drop function control unit 107.
  • the kanji is an example of a character, and is not limited to this.
  • the drag function control unit 123 moves the first buffer 125 to the bitmap of the moved kanji.
  • Delete data That is, when the bitmap data of the moved kanji is cleared from the first buffer 125, the kanji is released from the determined character.
  • the kanji taken over by the drag function control unit 123 to the drop function control unit 107 is a character once determined by the character recognition processing of the recognition engine 115.
  • the drag function control unit 123 moves the bitmap data of the kanji to the original position. Since the bitmap data of the kanji returns to the original position in the first display unit 121, the drag function control unit 123 does not delete the bitmap data of the kanji in the first buffer 125. That is, since the bitmap data of the kanji returned to the original position is not cleared from the first buffer 125, the kanji is recognized as a determined character.
  • the drop function control unit 107 drops the bitmap data of the kanji taken over from the drag function control unit 123 to the second display unit 103 when dropping the character dragged by the user on the first display unit 121 to the second display unit 103. Do.
  • the drop function control unit 107 outputs the JIS kanji code corresponding to the kanji taken over from the drag function control unit 123 to the stroke data acquisition unit 111 and outputs the bitmap data of the kanji to the second buffer 109.
  • the stroke data acquisition unit 111 corresponds to the JIS kanji code based on the JIS kanji code input from the drop function control unit 107 when dropping the character dragged by the user on the first display unit 121 to the second display unit 103. From the reference stroke information held by the recognition engine 115, reverse stroke information is acquired.
  • the recognition engine 115 character-recognizes and determines the handwritten character input to the second display unit 103 based on the reference stroke information held by the recognition engine 115 itself.
  • the stroke data acquisition unit 111 acquires reference stroke information held by the recognition engine 115 based on the character data that has been subjected to character recognition processing once.
  • the stroke data acquisition unit 111 acquires stroke information from a character code once subjected to character recognition processing. That is, in addition to the flow of the normal character recognition processing, the handwritten character input device 100 according to the present embodiment performs the character recognition processing flow in the reverse direction to the flow of the normal character recognition processing.
  • the handwritten character input device 100 reversely acquires the reference stroke information held by the recognition engine 115 from the character data determined by the character recognition processing of the recognition engine 115 once.
  • the character can be input by handwriting from the continuation of the acquired stroke information.
  • the user can resume handwriting input from the continuation of the handwriting at the time of the rapid recognition error. Therefore, the user does not have to perform bothersome operations such as re-inputting the rapid recognition error recognition character from the beginning. Furthermore, since the user can resume the handwriting input from the continuation of the handwriting at the time of the rapid recognition error, it is possible to improve the character recognition rate of the handwriting input apparatus 100 after the restart.
  • the stroke data acquisition unit 111 outputs, to the stroke information holding unit 116, stroke information of a kanji character corresponding to the JIS kanji code obtained by reverse lookup from the recognition engine 115.
  • the handwriting data acquisition unit 113 acquires handwriting data newly input by handwriting from one or a plurality of touches detected on the second display unit 103 of the touch panel 101, and the new handwriting data is input to the handwriting already input. It appends to the 2nd buffer 109 where data are held. That is, the handwriting data newly input by handwriting is added to the second buffer 109 to the bitmap data of the kanji. Furthermore, based on the handwriting data newly input by handwriting, the handwriting data acquisition unit 113 additionally writes stroke information corresponding to the handwriting data to the stroke information storage unit 116.
  • the second buffer 109 holds bitmap data of kanji input from the drop function control unit 107. Furthermore, the second buffer 109 holds input handwriting data input from the handwriting data acquisition unit 113. The bitmap data of kanji held in the second buffer 109 and the input handwriting data are displayed on the second display unit 103.
  • the display control unit 105 causes the second display unit 103 to display the bitmap data of the kanji held in the second buffer 109.
  • the second buffer 109 holds bitmap data of kanji input from the drop function control unit 107 and input handwriting data input from the handwriting data acquisition unit 113.
  • a radical “mon gate” shown on the screen (1-4) of FIG. 1 is a bit of kanji input from the drop function control unit 107. It is map data, and the remaining "crop" is input handwriting data input from the handwriting data acquisition unit 113.
  • the stroke information holding unit 116 is (1) a stroke corresponding to the JIS kanji code acquired by reversely retrieving from the recognition engine 115 based on the JIS kanji code input from the drop function control unit 107 by the stroke data acquisition unit 111. Information and (2) stroke information of handwriting data already input by handwriting input from the handwriting data acquisition unit 113 are held.
  • the recognition engine 115 performs character recognition processing based on the stroke information entered from the stroke data acquisition unit 111 and the handwriting data acquisition unit 113 in the stroke information storage unit 116, and displays the JIS kanji code corresponding to the stroke information. Output to control unit 105.
  • the recognition engine 115 automatically recognizes the character recognition processing based on the handwriting data even if the character is in the middle of handwriting input.
  • the display control unit 105 controls the first display unit 121, which is the display area S1, to display kanji corresponding to the JIS kanji code based on the JIS kanji code output from the recognition engine 115.
  • FIG. 3A a flow (1) of handwritten character input processing of the handwritten character input device 100 is shown.
  • the display area S1 (first display unit 121) is displayed. It is a process until it displays the character inputted by handwriting in.
  • step ST200 the touch panel 101 detects a touch input to the second display unit 103 (input area S2). Then, the process transitions to step ST202.
  • step ST202 the handwriting data acquisition unit 113 acquires handwriting data from the detection result of the touch panel 101. Then, the process transitions to step ST204.
  • step ST204 the recognition engine 115 performs character recognition processing of handwriting data based on the character recognition dictionary, and outputs a character code corresponding to the handwriting data. Then, the process transitions to step ST206.
  • step ST206 the display control unit 105 controls the first display unit 121 (display area S1) to display characters corresponding to the character code output from the recognition engine 115. Then, the process ends.
  • FIG. 3B a flow (2) of the handwritten character input process of the handwritten character input device 100 is shown.
  • the user drags the slow recognition error recognition character displayed on the display area S1 (first display unit 121), and then the input area S2 (second This processing is for displaying the recognition speed recognition character on the display unit 103).
  • step ST220 the touch panel 101 detects that the user has selected the slow recognition error recognition character displayed on the first display unit 121 (display area S1). Then, the process transitions to step ST222.
  • step ST222 the drag function control unit 123 controls the movement of the slow recognition error recognition character that the user drags on the touch panel 101. Then, the process transitions to step ST224.
  • step ST224 the drop function control unit 107 takes over from the drag function control unit 123 the bit map data and character code of the slow recognition error character that the user drags on the touch panel 101. Then, the process transitions to step ST226.
  • step ST226 the drop function control unit 107 drops the character taken over from the drag function control unit 123 on the second display unit 103. Then, the process transitions to step ST228.
  • step ST2208 the stroke data acquisition unit 111 holds stroke information of the character corresponding to the character code, which is acquired by reverse drawing from the recognition engine 115 based on the character code inherited from the characters in the display area S1. Output to the part 116. Then, the process transitions to step ST230.
  • step ST230 the handwriting data acquisition unit 113 adds the stroke information corresponding to the handwriting data to the stroke information storage unit 116 based on the handwriting data newly input by handwriting. Then, the process transitions to step ST232.
  • step ST232 the recognition engine 115 performs character recognition processing based on the stroke information held in the stroke information holding unit 116, and outputs a character code corresponding to the stroke information to the display control unit 105. Then, the process transitions to step ST234.
  • step ST234 based on the character code output from the recognition engine 115, the display control unit 105 causes the display area S1 (first display unit 121) to display a character corresponding to the character code.
  • the handwritten character input device 100 drags from the display area S1 the recognition speed recognition character that the user has selected in the display area S1 on the touch panel 101 from the display area S1 to the input area S2 where handwriting input is possible.
  • the handwritten character input device 100 When dropped, it is possible to enable handwriting input from the continuation of the handwriting data at the time when the rapid recognition error recognition character is recognized at a rapid recognition rate.
  • the handwritten character input device 100 uses the character code determined once by the character recognition processing of the recognition engine 115 for reference information that the recognition engine 115 holds stroke information corresponding to the character code.
  • the stroke information can be obtained by reverse lookup, and characters can be handwritten input from the continuation of the stroke information obtained by reverse lookup.
  • the character once determined by the character recognition processing of the recognition engine 115 is the above-described erroneous recognition character with slow speed
  • the user can resume handwriting input from the continuation of the handwriting at the time of the erroneous recognition of the slow speed. Therefore, the user does not have to perform troublesome operations such as re-entering characters from the beginning.
  • the recognition engine 115 performs online recognition processing, but when performing off-line recognition processing, the stroke data acquisition unit 111 performs reverse lookup from the recognition engine 115 based on the character code. It is not necessary to obtain stroke information corresponding to the character code.
  • the drop function control unit 107 may add the handwriting of the new handwriting input to the bitmap data of the taken over kanji, and the recognition engine 115 may perform offline recognition.
  • FIG. 4 is a diagram for explaining the operation of the handwritten character input device 300 according to the present embodiment. Only the screen of the touch panel 101 is illustrated in FIG. 4 for the purpose of explanation. In FIG. 4, “square” is described as an example of the slow recognition error recognition character. It is assumed that the correct character is "solution”.
  • the character input processing of the handwriting character input device 300 is a character recognition processing after a predetermined time elapses from the time the handwriting input is interrupted since the character during handwriting input is actually confirmed Say that. For example, when a predetermined time elapses while the user releases a finger from touch panel 101 during handwriting input, handwriting character input device 300 automatically recognizes the character even if it is a character during handwriting input. Determined
  • the user drags “corner”, which is a slow recognition error recognition character, from the display area S 1 and drops it into the input area S 2. Then, on the screen (4-3) of the touch panel 101, the “corner” that is the slow recognition error recognition character dropped to the input area S2 is displayed as bitmap data in the input area S2 based on the character code. The user can edit the bitmap data displayed in the input area S2.
  • the user shifts the bit map data "corner” displayed in the input area S2 to the left, for example, in the input area S2, and part of the correct character “solve” (for example, Edit to become a radical "Hen”).
  • the input area S2 displays the "corner", which is a false recognition character of slow speed, in a state where handwriting input is possible from the continuation of the handwriting (i.e., "corner") at the time of the slow recognition. Therefore, on the screen (4-4) of the touch panel 101, the user can continue to input the handwriting from the continuation of the handwriting (that is, "corner") at the time when the rapid recognition error is recognized.
  • left alignment is described as an example, but the present invention is not limited to this. Other than left alignment, editing operations in all directions such as right alignment, top alignment, and bottom alignment can be considered.
  • bit map of the slow recognition error recognition character is described as the radical "end” of the correct character, it is not limited thereto.
  • the generals besides “hen”, there are “making”, “kanmuri”, “ahi”, “tare”, “niyou”, “kamame” and the like.
  • FIG. 5 is a block diagram showing the configuration of the handwritten character input device 300.
  • the handwriting character input device 300 shown in FIG. 5 includes a touch panel 101, a second display unit 103, a display control unit 105, a second buffer 109, a handwriting data acquisition unit 113, a CPU 117, and a first display unit 121.
  • a first buffer 125 a drop function control unit 307, a stroke data acquisition unit 311, a recognition engine 315, a stroke information holding unit 316, a handwriting data retouch control unit 317, and a drag function control unit 323. .
  • the touch panel 101 When the touch panel 101 functions as an input interface, the touch panel 101 simultaneously detects one or a plurality of touches, and outputs the detection result to the handwriting data acquisition unit 113 and the drag function control unit 323.
  • the touch panel 101 integrally includes a first display unit 121 that displays recognized characters and the like and a second display unit 103 that is a handwritten character input area. Therefore, the first display unit 121 and the second display unit 103 can perform display according to the touch detected on the touch panel.
  • the one or more contacts detected by the touch panel 101 are, for example, the contacts of one or more fingers of the user.
  • the first display unit 121 (corresponding to the display area S1 in FIG. 4) displays the characters held in the first buffer 125 under the control of the display control unit 105.
  • the first display unit 121 is provided integrally with the touch panel 101. Therefore, when the user drags a character displayed on the first display unit 121 of the touch panel 101, the first display unit 121 can display the movement of the character according to the touch panel operation. The movement of the characters displayed on the first display unit 121 is controlled based on the control of a drag function control unit 323 described later.
  • the first buffer 125 holds data and the like to be displayed on the first display unit 121.
  • the first buffer 125 holds characters determined by character recognition processing of the recognition engine 315 described later.
  • the drag function control unit 323 controls the movement of the character.
  • the characters displayed on the first display unit 121 dragged and moved by the user are the characters once determined by the character recognition processing of the recognition engine 315.
  • the drag function control unit 323 controls the bit function of the character and drops the JIS code corresponding to the character. It takes over to the unit 307.
  • the character which the drag function control unit 323 takes over to the drop function control unit 307 will be described as a kanji. That is, the drag function control unit 323 takes over the bitmap data of the kanji and the JIS kanji code corresponding to the kanji to the drop function control unit 307.
  • the kanji is an example of a character, and is not limited to this.
  • the drag function control unit 323 determines the bit of the kanji moved by the first buffer 125. Delete map data. That is, when the bitmap data of the moved kanji is cleared from the first buffer 125, the kanji is released from the determined character.
  • the kanji taken over by the drag function control unit 323 to the drop function control unit 307 is a character once determined by the character recognition processing of the recognition engine 315.
  • the drag function control unit 323 moves the bitmap data of the kanji to the original position. Since the bitmap data of the kanji returns to the original position in the first display unit 121, the drag function control unit 323 does not delete the bitmap data of the kanji in the first buffer 125. That is, since the bitmap data of the kanji returned to the original position is not cleared from the first buffer 125, the kanji is recognized as a determined character.
  • the drop function control unit 307 drops the bitmap data of the kanji taken over from the drag function control unit 323 to the second display unit 103 when dropping the character dragged by the user on the first display unit 121 to the second display unit 103. Do. Then, the drop function control unit 307 outputs the JIS kanji code corresponding to the kanji taken over from the drag function control unit 323 to the stroke data acquisition unit 311 and outputs the bitmap data of the kanji to the second buffer 109.
  • the handwriting data retouching control unit 317 performs control of editing bitmap data of kanji in the second buffer 109. For example, in order to edit the bit map data of the “corner” which is a false recognition character on the touch panel 101, on the screen of the touch panel 101, the left alignment in the second buffer 109 is performed. Perform the editing operation.
  • the handwriting data retouching control unit 317 is output from the drop function control unit 307. Control is performed to edit bitmap data of T-kanji in the second buffer 109.
  • the stroke data acquisition unit 311 corresponds to the JIS kanji code based on the JIS kanji code input from the drop function control unit 307 when dropping the character dragged by the user on the first display unit 121 to the second display unit 103. From the reference stroke information held by the recognition engine 115, reverse stroke information is acquired.
  • the recognition engine 315 character-recognizes and determines the handwritten character input to the second display unit 103 based on the reference stroke information held by the recognition engine 315 itself.
  • the stroke data acquisition unit 311 acquires reference stroke information held by the recognition engine 315 based on the character data that has been subjected to character recognition processing once.
  • the stroke data acquiring unit 311 acquires the stroke obtained by reverse lookup. The information is deformed in the same manner as the editing operation by the handwriting data retouching control unit 317. Then, the stroke data acquisition unit 311 outputs the edited stroke information to the stroke information storage unit 316.
  • the handwriting data acquisition unit 113 acquires handwriting data newly input by handwriting from one or a plurality of touches detected on the second display unit 103 of the touch panel 101, and the new handwriting data is input to the handwriting already input. It appends to the 2nd buffer 109 where data are held. That is, in the second buffer 109, handwriting data newly input by handwriting is added to the bitmap data of the edited Kanji.
  • the handwriting data acquisition unit 113 additionally writes stroke information corresponding to the handwriting data to the stroke information holding unit 316.
  • the second buffer 109 holds bitmap data of edited kanji edited by the handwriting data retouching control unit 317. Furthermore, the second buffer 109 holds input handwriting data input from the handwriting data acquisition unit 113. The edited Chinese character bitmap data held in the second buffer 109 and the input handwriting data are displayed on the second display unit 103.
  • bitmap data of the kanji is edited by the handwriting data retouch control unit 317
  • the bitmap data of the kanji taken over from the drag function control unit 323 is displayed on the second display unit 103.
  • the display control unit 105 causes the second display unit 103 to display the bitmap data of the kanji held in the second buffer 109.
  • the second buffer 109 holds bitmap data of edited kanji edited by the handwriting data retouching control unit 317 and input handwriting data input from the handwriting data acquisition unit 113. ing.
  • the radical “corn” shown on the screen (4-4) of FIG. 4 is edited by the handwriting data retouch control unit 317. It is bitmap data of kanji. A portion excluding the radical "corner” from the correct character “solution” is input as input handwriting data input from the handwriting data acquisition unit 113.
  • the stroke information holding unit 316 (1) edited stroke information output from the stroke data acquisition unit 311, and (2) stroke information of handwriting data already input handwritten input from the handwriting data acquisition unit 113 , Is held.
  • the recognition engine 315 performs character recognition processing based on the stroke information entered from the stroke data acquisition unit 311 and the handwriting data acquisition unit 113 in the stroke information holding unit 316, and displays the JIS kanji code corresponding to the stroke information. Output to control unit 105.
  • the recognition engine 315 automatically recognizes the character recognition processing based on the handwriting data even if the character is in the middle of handwriting input.
  • the display control unit 105 controls the first display unit 121, which is the display area S1, to display kanji corresponding to the JIS kanji code.
  • FIG. 6A a flow (1) of handwritten character input processing of the handwritten character input device 300 is shown.
  • the display area S1 first display unit 121 is displayed. It is a process until it displays the character inputted by handwriting in.
  • step ST400 the touch panel 101 detects a touch input to the second display unit 103 (input area S2). Then, the process transitions to step ST402.
  • step ST402 the handwriting data acquisition unit 113 acquires handwriting data from the detection result of the touch panel 101. Then, the process transitions to step ST404.
  • step ST404 the recognition engine 315 performs character recognition processing of handwriting data based on the character recognition dictionary, and outputs a character code corresponding to the handwriting data. Then, the process transitions to step ST406.
  • step ST406 the display control unit 105 controls the first display unit 121 (display area S1) to display characters corresponding to the character code output from the recognition engine 315. Then, the process ends.
  • the flow (2) of the handwritten character input process of the handwritten character input device 300 will be described with reference to FIG.
  • the input area S2 (second This processing is for displaying the recognition speed recognition character on the display unit 103).
  • step ST420 the touch panel 101 detects that the user has selected the slow recognition error recognition character displayed on the first display unit 121 (display area S1). Then, the process transitions to step ST422.
  • step ST 422 drag function control unit 323 controls the movement of the bitmap data of the slow recognition error recognition character that the user drags on touch panel 101. Then, the process transitions to step ST424.
  • step ST424 the drop function control unit 307 takes over, from the drag function control unit 323, the bitmap data corresponding to the slow recognition error recognition character that the user drags on the touch panel 101, and its character code. Then, the process transitions to step ST426.
  • step ST 426 the drop function control unit 307 outputs the bit map data of the character taken over from the drag function control unit 323 to the second buffer 109. Then, the process transitions to step ST428.
  • step ST 428 the handwriting data retouching control unit 317 edits the bit map data of the slow recognition error recognition character input from the drop function control unit 307 in the second buffer 109. Then, the process transitions to step ST430.
  • step ST430 the stroke data acquisition unit 311 acquires stroke information corresponding to the character code from the recognition engine 315 by reverse drawing based on the character code. Then, the process transitions to step ST432.
  • step ST432 the stroke data acquisition unit 311 transforms the stroke information acquired by reverse drawing in the same manner as the editing operation by the handwriting data retouch control unit 317, and the stroke information storage unit 316 as edited stroke information. Output to Then, the process transitions to step ST434.
  • step ST 434 based on the handwriting data newly input by handwriting, the handwriting data acquisition unit 113 adds the stroke information corresponding to the handwriting data to the stroke information holding unit 316. And, it outputs to step ST436.
  • step ST436 the recognition engine 315 performs character recognition processing based on the stroke information held in the stroke information holding unit 316, and outputs a character code corresponding to the stroke information to the display control unit 105. Then, the process transitions to step ST438.
  • step ST438 the display control unit 105 causes the display area S1 (first display unit 121) to display a character corresponding to the character code, based on the character code output from the recognition engine 315. Then, the process ends.
  • the handwritten character input device 300 reversely acquires the reference stroke information held by the recognition engine 315 from the character data determined by the character recognition processing of the recognition engine 315 once, and acquires the acquired stroke information. Characters can be handwritten input from the continuation of stroke information.
  • the user can resume handwriting input from the continuation of the handwriting at the time of the rapid recognition error. Therefore, the user does not have to perform bothersome operations such as re-inputting the rapid recognition error recognition character from the beginning. Furthermore, since the user can resume handwriting input from the continuation of the handwriting at the time of the rapid recognition error, it is possible to improve the character recognition rate of the handwriting input apparatus 300 after the restart.
  • FIG. 7 is a diagram for explaining the operation of the handwritten character input device 500 according to the present embodiment. Only the screen of the touch panel 101 is illustrated in FIG. 7 for the purpose of description. In FIG. 7, “square” will be described as an example of the slow recognition error recognition character. It is assumed that the correct character is "solution”.
  • the erroneously recognized character is a character that the handwriting input device 500 actually recognizes the character in the middle of handwriting input, and performs character recognition processing after a predetermined time has elapsed from the point when the handwriting input is interrupted.
  • a predetermined time elapses while the user is taking a finger off the touch panel 101 during handwriting input
  • the handwriting character input device 500 automatically recognizes the character even if it is a character during handwriting input. Determined
  • “corner”, which is a false recognition speed recognition character dropped to the input area S2 is a radical of “solution” which is a correct character based on the character code and the drop position of the input area S2. Displayed as bitmap data.
  • the handwritten character input device 500 is based on the character code and the drop position of the input area S2. It is possible to internally recognize “corners” which are misrecognized rapid recognition characters as radicals, and to automatically edit bitmap data as appropriate positions (left alignment) and sizes (resizes) as radicals.
  • the input area S2 allows the user to input handwriting from the continuation of the handwriting (i.e., "corner") at the time when the rattan was erroneously recognized. indicate. Therefore, on the screen (7-4) of the touch panel 101, the user continues to input from the continuation of the handwriting (i.e., the "corner") at the time when the rapid recognition error is recognized, and inputs the handwriting of the "character" which is the correct character. Can.
  • left shift and “resize” will be described as an example of the editing operation of the bitmap data displayed in the input area S2, but the present invention is not limited to this.
  • Other than left alignment editing operations in all directions such as right alignment, top alignment, and bottom alignment can be considered.
  • the bit map of the slow recognition error recognition character is described as the radical "end” of the correct character, it is not limited thereto.
  • the generals besides “hen”, there are “making”, “kanmuri”, “ahi”, “tare”, “niyou”, “kamame” and the like.
  • the handwritten character input device 500 can automatically edit the bitmap data of the slow recognition error recognition character in accordance with the form of the radical.
  • FIG. 8 is a block diagram showing the configuration of the handwritten character input device 500.
  • the handwriting character input device 500 shown in FIG. 8 includes a touch panel 101, a second display unit 103, a display control unit 105, a second buffer 109, a handwriting data acquisition unit 113, a CPU 117, and a first display unit 121.
  • the touch panel 101 When the touch panel 101 functions as an input interface, the touch panel 101 simultaneously detects one or a plurality of touches, and outputs the detection result to the handwriting data acquisition unit 113 and the drag function control unit 323.
  • the touch panel 101 integrally includes a first display unit 121 that displays recognized characters and the like and a second display unit 103 that is a handwritten character input area. Therefore, the second display unit 103 and the first display unit 121 can perform display according to the touch detected on the touch panel.
  • the one or more contacts detected by the touch panel 101 are, for example, the contacts of one or more fingers of the user.
  • the first display unit 121 (corresponding to the display area S1 in FIG. 7) displays the characters held in the first buffer 125 under the control of the display control unit 105.
  • the first display unit 121 is provided integrally with the touch panel 101. Therefore, when the user drags a character displayed on the first display unit 121 of the touch panel 101, the first display unit 121 can display the movement of the character according to the touch panel operation. The movement of the characters displayed on the first display unit 121 is controlled based on the control of a drag function control unit 323 described later.
  • the first buffer 125 holds data and the like to be displayed on the first display unit 121.
  • the first buffer 125 holds characters determined by character recognition processing of the recognition engine 315 described later.
  • the drag function control unit 323 controls the movement of the character.
  • the characters displayed on the first display unit 121 dragged and moved by the user are the characters once determined by the character recognition processing of the recognition engine 315.
  • the drag function control unit 323 performs bitmap data of the character and a character code corresponding to the character (for example, JIS Code) to the drop function / drop position control unit 507.
  • the character which the drag function control unit 323 takes over to the drop function / drop position control unit 507 will be described as kanji. That is, the drag function control unit 323 takes over the bitmap data of the kanji and the JIS kanji code corresponding to the kanji to the drop function / drop position control unit 507.
  • the kanji is an example of a character, and is not limited to this.
  • the drag function control unit 323 moves the first buffer 125.
  • Delete bitmap data of kanji That is, when the bitmap data of the moved kanji is cleared from the first buffer 125, the kanji is released from the determined character.
  • the kanji taken over by the drag function control unit 323 to the drop function / drop position control unit 507 is a character once determined by the character recognition processing of the recognition engine 315.
  • the drag function control unit 323 moves the bitmap data of the kanji to the original position. Since the bitmap data of the kanji returns to the original position in the first display unit 121, the drag function control unit 323 does not delete the bitmap data of the kanji in the first buffer 125. That is, since the bitmap data of the kanji returned to the original position is not cleared from the first buffer 125, the kanji is recognized as a determined character.
  • the drop function / drop position control unit 507 inputs the input area S2 based on the drag operation of the drag function control unit 323. Where in the drop is detected, detect the drop position.
  • the “corner” that is the slow recognition error recognition character is dropped in the left half (input area S2-1) of the input area S2. That is, in the present embodiment, in the case where the “corner” which is a false recognition character with a rapid speed constitutes the radical of the correct kanji, the detected drop position is included in the area where the radical of the kanji is originally input. Use things.
  • the drop function / drop position control unit 507 outputs the JIS kanji code corresponding to the kanji taken over from the drag function control unit 323 and the detected drop position (“S2-1”) to the radical recognition unit 517.
  • the drop function / drop position control unit 507 outputs the JIS kanji code corresponding to the kanji taken over from the drag function control unit 323 to the stroke data acquisition unit 511, and outputs the bitmap data of the kanji to the second buffer 109. .
  • the radical recognition unit 517 automatically recognizes the kanji taken over from the drag function control unit 323 as a radical based on the JIS kanji code and the drop position inputted from the drop function / drop position control unit 507, and the second buffer Control to edit bitmap data of kanji within 109 is performed. Therefore, in the present embodiment, even if the editing work is not performed by the user in the input area S2, the radical corresponding to the drop position designated by the user can be automatically recognized.
  • the radical recognized by the radical recognition unit 517 is a “corn”.
  • the stroke data acquisition unit 511 determines the JIS kanji based on the JIS kanji code input from the drop function / drop position control unit 507.
  • the stroke information corresponding to the code is obtained by reverse drawing from the reference stroke information held by the recognition engine 315.
  • the stroke data acquisition unit 511 edits, in the second buffer 109, bitmap data of a kanji automatically recognized as a radical by the radical recognition unit 517, the stroke information acquired by reverse is acquired.
  • the radical recognition unit 517 deforms according to the radical automatically recognized as a radical. Then, the stroke data acquisition unit 511 outputs the edited stroke information to the stroke information storage unit 516.
  • the recognition engine 315 character-recognizes and determines the handwritten character input to the second display unit 103 based on the reference stroke information held by the recognition engine 315 itself.
  • the stroke data acquisition unit 511 acquires reference stroke information held by the recognition engine 315 based on the character data that has been subjected to character recognition processing once.
  • the stroke data acquisition unit 511 outputs, to the stroke information storage unit 516, stroke information of a kanji character corresponding to the JIS kanji code obtained by the reverse lookup from the recognition engine 315.
  • the handwriting data acquisition unit 113 acquires handwriting data newly input by handwriting from one or a plurality of touches detected on the second display unit 103 of the touch panel 101, and the new handwriting data is input to the handwriting already input. It appends to the 2nd buffer 109 where data are held. That is, handwriting data newly input by handwriting is added to the second buffer 109 to the bitmap data of the Chinese character input from the drop function / drop position control unit 507.
  • the handwriting data acquisition unit 113 additionally writes, to the stroke information holding unit 516, the stroke information newly inputted by handwriting based on the handwriting data newly inputted by handwriting.
  • the second buffer 109 holds bitmap data of Chinese characters input from the drop function / drop position control unit 507. Furthermore, the second buffer 109 holds input handwriting data input from the handwriting data acquisition unit 113. The edited Chinese character bitmap data held in the second buffer 109 and the input handwriting data are displayed on the second display unit 103.
  • bitmap function data of the kanji is edited by the drop function / drop position control unit 507
  • the bitmap data of the kanji taken over from the drag function control unit 323 is displayed on the second display unit 103.
  • the display control unit 105 causes the second display unit 103 to display the bitmap data of the kanji held in the second buffer 109. That is, the bitmap data of the kanji recognized as a radical held in the second buffer 109 and the handwriting data already input are displayed on the second display unit 103.
  • the radical “corn” shown on the screen (7-3) of FIG. 7 is a bit of a kanji automatically recognized by the radical recognition unit 517. It is map data.
  • the portion of the correct character “solve” excluding the radical “corner” is input handwriting data input from the handwriting data acquisition unit 113 Is entered as
  • the stroke information holding unit 516 includes (1) edited stroke information output from the stroke data acquisition unit 511, and (2) stroke information of handwriting data already input by handwriting input from the handwriting data acquisition unit 113. , Is held.
  • the recognition engine 315 performs character recognition processing based on the stroke information input from the stroke data acquisition unit 511 and the handwriting data acquisition unit 113 to the stroke information storage unit 516, and displays the JIS kanji code corresponding to the stroke information. Output to control unit 105.
  • the recognition engine 315 automatically recognizes the character recognition processing based on the handwriting data even if the character is in the middle of handwriting input.
  • the display control unit 105 controls the first display unit 121, which is the display area S1, to display kanji corresponding to the JIS kanji code.
  • radical recognition unit 517 is based on the JIS kanji code and the drop position input from drop function / drop position control unit 507, the character data is the correct character “solution”. Recognize the radical "corner”. Therefore, in the case where the false recognition character "corner” is the radical of the correct character "solution”, the user places a bitmap of the incorrect recognition character in the area appropriate as the radical of the correct character in the input area S2. By simply dropping the data, it is possible to resume handwriting input from the continuation of the handwriting at the point where the misrecognition was recognized incorrectly. The character recognition rate of the handwritten character input device 500 after resumption can be improved.
  • a dedicated character code that can be uniquely recognized by the recognition engine 315 may be assigned to a single radical such as a side or a side.
  • FIG. 9A a flow (1) of handwritten character input processing of the handwritten character input device 500 is shown.
  • the flow (1) of the handwritten character input process shown in FIG. 9A after the user inputs a handwritten character to the input area S2 (second display unit 103), the display area S1 (first display unit 121) is displayed. It is a process until it displays the character inputted by handwriting in.
  • step ST600 the touch panel 101 detects a touch input to the second display unit 103 (input area S2). Then, the process transitions to step ST602.
  • step ST602 the handwriting data acquisition unit 113 acquires handwriting data from the detection result of the touch panel 101. Then, the process transitions to step ST604.
  • step ST604 the recognition engine 315 performs character recognition processing of handwriting data based on the character recognition dictionary, and outputs a character code corresponding to the handwriting data. Then, the process transitions to step ST606.
  • step ST606 the display control unit 105 controls the first display unit 121 (display area S1) to display characters corresponding to the character code output from the recognition engine 315. Then, the process ends.
  • FIG. 9B a flow (2) of handwritten character input processing of the handwritten character input device 500 is shown.
  • the flow (2) of the handwritten character input process shown in FIG. 9B is performed after the user drags the slow recognition error recognition character displayed on the display area S1 (first display unit 121), and then the input area S2 (second This processing is for displaying the recognition speed recognition character on the display unit 103).
  • step ST620 touch panel 101 detects that the user has selected the slow recognition error recognition character displayed on first display unit 121 (display area S1). Then, the process transitions to step ST622.
  • step ST 622 the drag function control unit 323 controls the movement of the bitmap data of the slow recognition error recognition character that the user drags on the touch panel 101. Then, the process transitions to step ST624.
  • step ST 624 the drop function / drop position control unit 507 takes over, from the drag function control unit 323, the bitmap data corresponding to the recognition speed recognition character that the user drags on the touch panel 101 and the character code. Then, the process transitions to step ST626.
  • step ST 626 the drop function / drop position control unit 507 outputs the bit map data of the character taken over from the drag function control unit 323 to the second buffer 109. Then, the process transitions to step ST628.
  • step ST 628 the drop function / drop position control unit 507 detects where in the input area S 2 the drop is made, based on the drag operation of the drag function control unit 323. Then, the process transitions to step ST630.
  • step ST630 the radical recognition unit 517 automatically recognizes the kanji taken over from the drag function control unit 323 as a radical based on the JIS kanji code and drop position input from the drop function / drop position control unit 507. , Control to edit bitmap data of kanji in the second buffer 109. Then, the process transitions to step ST632.
  • step ST632 the stroke data acquisition unit 511, based on the JIS kanji code input from the drop function / drop position control unit 507, stroke information for reference which the recognition engine 315 holds stroke information corresponding to the JIS kanji code. And the stroke information is output to the stroke information holding unit 516. Then, the process transitions to step ST634.
  • step ST634 the handwriting data acquisition unit 113 outputs, to the stroke information storage unit 516, the newly input stroke information of the handwriting input based on the handwriting data newly input by handwriting. And, it outputs to step ST636.
  • step ST 636 the recognition engine 315 outputs a character code (JIS kanji code) corresponding to the stroke information to the display control unit 105 based on the stroke information input from the stroke data acquisition unit 511. Then, the process transitions to step ST638.
  • a character code JIS kanji code
  • step ST638 the display control unit 105 causes the display area S1 (first display unit 121) to display a character corresponding to the character code, based on the character code output from the recognition engine 315. Then, the process ends.
  • the handwritten character input device can be applied to an electronic device such as a portable terminal provided with a touch panel.
  • the touch panel 101 is a capacitive, resistive, infrared, and surface acoustic wave technology, and other proximity sensor arrays, or a plurality of touch sensitivities for determining the touch point with the touch panel 101.
  • the touch panel 101 can detect any movement or interruption of the movement due to the upper touch and the touch.
  • the touch detected by the touch panel 101 is described as, for example, the touch of one or more fingers of the user, but the present invention is not limited thereto.
  • the touch panel 101 may detect a touch of an input device such as a touch pen.
  • the slow-speed misrecognized character to be dragged has been described as one character, but the invention is not limited to this.
  • a plurality of characters including a rapid recognition error recognition character may be selected on the display area S1, or a word, a phrase, or a sentence including a false recognition error recognition character may be selected.
  • the slow recognition error recognition character is described as an example, but the present invention is not limited to this. It may be simply misrecognized characters.
  • the handwriting character input device has an effect of enabling handwriting input of the erroneously recognized character once subjected to character recognition processing once again from the continuation of the handwriting data at the time of erroneous recognition, and can be used as a portable terminal etc. It is useful.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Discrimination (AREA)

Abstract

 一度文字認識処理されて確定した誤認識文字を、誤認識された時点の筆跡データの続きから再度手書き入力すること。本発明の手書き文字入力装置は、一度文字認識処理されて確定した誤認識文字データから、認識エンジン115が保持するリファレンス用のストローク情報を逆引きして取得し、その取得したストローク情報の続きから文字を手書き入力可能にする。

Description

手書き文字入力装置
 本発明は、手書き文字入力装置に関する。
 特許文献1では、文字認識された後に画面上に表示された手書き文字を手書き文字入力用のデバイスでダブルタップすることで、手書き文字の入力エリアに、その文字の認識前の手書き文字を表示する手書き文字入力装置が開示されている。
 また、特許文献2では、文字認識された後に画面上に表示された手書き文字を、画面上の訂正ボタンを押下して訂正文字の候補を選択する画面上の入力操作だけで、文字訂正することができる手書き文字入力装置が開示されている。
 また、特許文献3では、入力エリアに手書き入力された漢字の非部首部分が、漢字の部首(たとえば、へん、かんむり)に対して小さい場合に、漢字の非部首部分を抽出して部分パターンを拡大生成し、所定の大きさに正規化することで文字認識率を上げる手書き文字入力装置が開示されている。
日本国特開2001-243421号公報 日本国特開2008-158880号公報 日本国特開平9-161005号公報
 しかし、上述した従来の手書き文字入力装置では、例えば、ユーザが漢字である「閥」をタッチパネル上の筆跡入力エリアに入力する場合、途中の「門」まで入力してから残りの部分である「伐」を書き始めるまでに時間がかかると、「閥」の一部(部首)である「門(門がまえ)」だけが誤って自動的に文字認識される場合がある。その結果、タッチパネル上の表示エリアには、誤認識文字である「門」だけが表示される。したがって、従来の手書き文字入力装置では、ユーザが表示エリア上の「門」を消去するタッチパネル操作を行った後、改めて「閥」の筆跡入力を最初からやり直す必要がある。誤認識される毎に筆跡入力を最初からやり直すのでは、文字入力(特に、漢字)の際にユーザにとって大きな負担となってしまう。
 本発明の目的は、一度文字認識処理されて確定した誤認識文字を、誤認識された時点の筆跡データの続きから手書き入力可能とする手書き文字入力装置を提供することである。
 本発明の手書き文字入力装置は、接触を感知するタッチパネルと、前記タッチパネルと一体に設けられ、文字認識されて確定した文字のビットマップデータを表示する表示エリアと前記タッチパネルが感知した接触により手書き文字入力する入力エリアとを有する表示部と、前記文字のストローク情報を内蔵する文字認識辞書を参照して文字認識処理する文字認識処理部と、前記表示エリアに表示された文字のビットマップデータの前記入力エリアへの移動を制御する移動制御部と、前記移動制御部の制御対象となる文字の文字コードに基づき、前記文字認識処理部に内蔵された文字認識辞書から前記文字のストローク情報を逆引きして取得するストロークデータ取得部と、前記表示エリアに新たに手書き入力された筆跡データを取得する筆跡データ取得部と、前記ストロークデータ取得部が取得した前記文字のストローク情報及び前記筆跡データ取得部が取得した筆跡データを保持するバッファと、前記表示部の表示を制御する表示制御部と、を備え、前記文字認識処理部は、前記表示エリアに表示された文字のビットマップデータが前記入力エリアへ移動した場合に、前記バッファに保持された前記文字のストローク情報及び前記筆跡データに基づき文字認識処理して、文字コードを前記表示制御部へ出力し、前記表示制御部は、前記文字認識処理部から入力された文字コードに対応する文字を前記表示エリアに表示するよう前記表示部を制御する。
 また、本発明の手書き文字入力装置は、接触を感知するタッチパネルと、前記タッチパネルと一体に設けられ、文字認識されて確定した文字のビットマップデータを表示する表示エリアと前記タッチパネルが感知した接触により手書き文字入力する入力エリアとを有する表示部と、前記文字のストローク情報を内蔵する文字認識辞書を参照して文字認識処理する文字認識処理部と、前記表示エリアに表示された文字のビットマップデータの前記入力エリアへの移動を制御する移動制御部と、前記入力エリアに移動した文字のビットマップデータの大きさ又はその位置を編集するデータレタッチ制御部と、前記文字認識処理部に内蔵された文字認識辞書から前記文字のストローク情報を逆引きして取得し、当該文字のストローク情報を前記データレタッチ制御部の編集操作に基づき変形するストロークデータ取得部と、前記表示エリアに新たに手書き入力された筆跡データを取得する筆跡データ取得部と、前記ストロークデータ取得部により変形済みの文字のストローク情報及び前記筆跡データ取得部が取得した筆跡データを保持するバッファと、前記表示部の表示を制御する表示制御部と、を備え、前記文字認識処理部は、前記表示エリアに表示された文字のビットマップデータが前記入力エリアへ移動した場合に、前記バッファに保持された前記変形済みの文字のストローク情報及び前記筆跡データに基づき文字認識処理して、文字コードを前記表示制御部へ出力し、前記表示制御部は、前記文字認識処理部から入力された文字コードに対応する文字を前記表示エリアに表示するよう前記表示部を制御する。
 また、本発明の手書き文字入力装置は、接触を感知するタッチパネルと、前記タッチパネルと一体に設けられ、文字認識されて確定した文字のビットマップデータを表示する表示エリアと前記タッチパネルが感知した接触により手書き文字入力する入力エリアとを有する表示部と、前記文字のストローク情報を内蔵する文字認識辞書を参照して文字認識処理する文字認識処理部と、前記表示エリアに表示された文字のビットマップデータの前記入力エリアへの移動を制御する移動制御部と、前記入力エリアに移動した文字のビットマップデータの位置と、当該文字の文字コードとに基づき、当該文字をその位置に表示される部首として認識し、当該部首に合わせて当該文字のビットマップデータを編集する部首認識部と、前記文字認識処理部に内蔵された文字認識辞書から前記文字のストローク情報を逆引きして取得し、当該文字のストローク情報を前記部首認識部の編集操作に基づき変形するストロークデータ取得部と、前記表示エリアに新たに手書き入力された筆跡データを取得する筆跡データ取得部と、前記ストロークデータ取得部により変形済みの前記文字のストローク情報及び前記筆跡データ取得部が取得した筆跡データを保持するバッファと、前記表示部の表示を制御する表示制御部と、を備え、前記文字認識処理部は、前記表示エリアに表示された文字のビットマップデータが前記入力エリアへ移動した場合に、前記バッファに保持された前記文字のストローク情報及び前記筆跡データに基づき文字認識処理して、文字コードを前記表示制御部へ出力し、前記表示制御部は、前記文字認識処理部から入力された文字コードに対応する文字を前記表示エリアに表示するよう前記表示部を制御する。
 本発明に係る手書き文字入力装置によれば、一度文字認識処理されて確定した誤認識文字を、誤認識された時点の筆跡データの続きから再度手書き入力可能にできる。
実施の形態1に係る手書き文字入力装置100の動作を説明するための図 手書き文字入力装置100の構成を示すブロック図 (a)手書き文字入力装置100の手書き文字入力処理のフロー(1)、(b)手書き文字入力装置100の手書き文字入力処理のフロー(2) 実施の形態2に係る手書き文字入力装置300の動作を説明するための図 手書き文字入力装置300の構成を示すブロック図 (a)手書き文字入力装置300の手書き文字入力処理のフロー(1)、(b)手書き文字入力装置300の手書き文字入力処理のフロー(2) 実施の形態3に係る手書き文字入力装置500の動作を説明するための図 手書き文字入力装置500の構成を示すブロック図 (a)手書き文字入力装置500の手書き文字入力処理のフロー(1)、(b)手書き文字入力装置500の手書き文字入力処理のフロー(2)
 以下、本発明の実施の形態について、図面を参照して説明する。
(実施の形態1)
 図1を参照して、手書き文字入力装置100の動作の概要について説明する。図1は、実施の形態1に係る手書き文字入力装置100の動作を説明するための図である。説明のため、図1ではタッチパネル101の画面だけ図示する。図1では、拙速誤認識文字として“門”を例にとって説明する。正しい文字は“閥”である。
 ここで、拙速誤認識文字とは、手書き文字入力装置100が、実際には手書き入力途中の文字を、手書き入力が中断した時点から所定時間経過後に文字認識処理して、自動的に確定した文字のことを言う。ユーザが手書き入力の途中で、たとえばタッチパネル101から指を離している間に所定時間が経過すると、手書き文字入力装置100は、手書き入力途中の文字であってもその文字を文字認識処理して自動的に確定する。
 タッチパネル101の画面(1-1)で、ユーザが指で拙速誤認識文字である“門”に触れると、ユーザは拙速誤認識文字をオブジェクトとして表示エリアS1で移動(たとえば、ドラッグ操作)できるようになる。
 タッチパネル101の画面(1-2)で、ユーザが指で拙速誤認識文字である“門”を表示エリアS1からドラッグして、入力エリアS2へドロップする。そして、タッチパネル101の画面(1-3)で、入力エリアS2へドロップされた拙速誤認識文字である“門”が、入力エリアS2に表示される。この時、入力エリアS2は、拙速誤認識された時点の筆跡(すなわち“門”)の続きから手書き入力可能な状態で、拙速誤認識文字である“門”を表示する。そのため、タッチパネル101の画面(1-4)で、ユーザは拙速誤認識された時点の筆跡(すなわち、“門”)の続きから継続して筆跡を入力することができる。
 実施の形態1に係る手書き文字入力装置100は、ユーザが表示エリアS1から手書き入力可能な入力エリアS2に拙速誤認識文字をドラッグ&ドロップすると、拙速誤認識文字を拙速誤認識時の筆跡データの続きから手書き入力可能な状態にできる。
 図2を参照して、実施の形態1に係る手書き文字入力装置100の構成について説明する。図2は、手書き文字入力装置100の構成を示すブロック図である。図2に示す手書き文字入力装置100は、タッチパネル101と、第2表示部103と、表示制御部105と、ドロップ機能制御部107と、第2バッファ109と、ストロークデータ取得部111と、筆跡データ取得部113と、認識エンジン115と、ストローク情報保持部116と、CPU117と、第1表示部121と、ドラッグ機能制御部123と、第1バッファ125と、を備える。
 タッチパネル101は、入力インタフェースとして機能する場合、指の接触などを検出し、その検出結果を筆跡データ取得部113と、ドラッグ機能制御部123とに出力する。
 また、タッチパネル101は、認識文字などを表示する第1表示部121及び手書き文字入力エリアである第2表示部103を一体に備える。そのため、第2表示部103、第1表示部121は、タッチパネル上で検出された接触に応じた表示を行うことができる。
 ここで、タッチパネル101が検出する接触とは、たとえば、ユーザの指の接触のことである。
 第1表示部121(図1中、表示エリアS1に相当)は、表示制御部105の制御に基づき、第1バッファ125に保持されていた文字を表示する。
 また、第1表示部121は、タッチパネル101と一体に設けられている。そのため、第1表示部121は、ユーザがタッチパネル101の第1表示部121に表示された文字をドラッグする場合、そのタッチパネル操作に応じた文字の移動を表示することができる。なお、第1表示部121に表示された文字の移動は、後述するドラッグ機能制御部123の制御に基づき制御される。
 第1バッファ125は、第1表示部121に表示するためのデータなどを保持する。例えば、第1バッファ125は、後述する認識エンジン115の文字認識処理により確定された文字を保持する。
 ドラッグ機能制御部123は、ユーザが第1表示部121に表示された文字をドラッグして移動させる場合、その文字の移動を制御する。上述のように、ユーザがドラッグして移動させる第1表示部121に表示された文字は、認識エンジン115の文字認識処理により一度確定された文字である。
 そして、ドラッグ機能制御部123は、ユーザが第1表示部121でドラッグした文字を第2表示部103にドロップする場合、その文字のビットマップデータと、その文字に対応するJISコードとをドロップ機能制御部107に引き継ぐ。
 以下、ドラッグ機能制御部123がドロップ機能制御部107に引き継ぐ文字を漢字として説明する。すなわち、ドラッグ機能制御部123は、その漢字のビットマップデータと、その漢字に対応するJIS漢字コードをドロップ機能制御部107に引き継ぐ。なお、漢字は文字の一例であり、これに限定されるものではない。
 ドラッグ機能制御部123がドロップ機能制御部107に、漢字のビットマップデータと、その漢字に対応するJIS漢字コードを引き継ぐと、ドラッグ機能制御部123は第1バッファ125の移動したその漢字のビットマップデータを削除する。つまり、移動した漢字のビットマップデータが第1バッファ125からクリアされると、その漢字は、確定文字から解除される。上述のように、ドラッグ機能制御部123がドロップ機能制御部107へ引き継ぐ漢字は、認識エンジン115の文字認識処理により一度確定された文字である。
 なお、ユーザが第1表示部121で漢字のビットマップデータをドラッグした指を離すと、ドラッグ機能制御部123は、その漢字のビットマップデータを元の位置に移動させる。漢字のビットマップデータは第1表示部121内の元の位置に戻るので、ドラッグ機能制御部123は、第1バッファ125にある漢字のビットマップデータを削除しない。つまり、元の位置に戻った漢字のビットマップデータが第1バッファ125からクリアされないので、その漢字は、確定文字として認識される。
 ドロップ機能制御部107は、ユーザが第1表示部121でドラッグした文字を第2表示部103にドロップする場合、ドラッグ機能制御部123から引き継いだ漢字のビットマップデータを第2表示部103にドロップする。
 そして、ドロップ機能制御部107は、ドラッグ機能制御部123から引き継いだ、その漢字に対応するJIS漢字コードをストロークデータ取得部111へ、その漢字のビットマップデータを第2バッファ109へ出力する。
 ストロークデータ取得部111は、ユーザが第1表示部121でドラッグした文字を第2表示部103にドロップする場合、ドロップ機能制御部107から入力されたJIS漢字コードに基づき、そのJIS漢字コードに対応するストローク情報を認識エンジン115が保持するリファレンス用のストローク情報から逆引きして取得する。
 通常、認識エンジン115は、認識エンジン115自体が保持するリファレンス用のストローク情報に基づき、第2表示部103に入力された手書き文字を文字認識して確定する。しかし、ストロークデータ取得部111は、一度文字認識処理された後の文字データに基づき、認識エンジン115が保持するリファレンス用のストローク情報を取得している。
 つまり、認識エンジン115は、リファレンス用のストローク情報から手書き文字の文字認識処理を行っている一方、ストロークデータ取得部111は、一度文字認識処理された文字コードからストローク情報を取得している。つまり、本実施の形態に係る手書き文字入力装置100は、通常の文字認識処理のフローに加えて、通常の文字認識処理のフローとは逆方向の文字認識処理フローを行っている。
 上記構成により、本実施の形態に係る手書き文字入力装置100は、一度認識エンジン115の文字認識処理により確定された文字データから認識エンジン115が保持するリファレンス用のストローク情報を逆引きして取得し、その取得したストローク情報の続きから文字を手書き入力可能にすることができる。
 特に、認識エンジン115の文字認識処理により一度確定された文字が拙速誤認識文字である場合、ユーザは拙速誤認識された時点の筆跡の続きから手書き文字入力を再開することができる。そのため、ユーザは最初から拙速誤認識文字を入力し直なす等の煩わしい動作をしなくて済む。さらには、ユーザは拙速誤認識された時点の筆跡の続きから手書き文字入力を再開することができるので、再開した後の手書き文字入力装置100の文字認識率を向上させることができる。
 そして、ストロークデータ取得部111は、認識エンジン115から逆引きして得られたJIS漢字コードに対応する漢字のストローク情報をストローク情報保持部116へ出力する。
 筆跡データ取得部113は、タッチパネル101の第2表示部103上で検出された一又は複数の接触から、新たに手書き入力された筆跡データを取得し、その新たな筆跡データを、入力済みの筆跡データが保持されている第2バッファ109に追記する。つまり、第2バッファ109には、漢字のビットマップデータに対して、新たに手書き入力された筆跡データが付け加えられる。更に、筆跡データ取得部113は、新たに手書き入力された筆跡データに基づき、この筆跡データに対応するストローク情報を、ストローク情報保持部116に追記する。
 第2バッファ109は、ドロップ機能制御部107から入力された漢字のビットマップデータを保持する。さらに、第2バッファ109は、筆跡データ取得部113から入力された入力済みの筆跡データを保持する。第2バッファ109に保持された漢字のビットマップデータ及び入力済みの筆跡データは、第2表示部103に表示される。
 表示制御部105は、第2バッファ109に保持された漢字のビットマップデータを、第2表示部103に表示する。上述のように、第2バッファ109には、ドロップ機能制御部107から入力された漢字のビットマップデータと、筆跡データ取得部113から入力された入力済みの筆跡データとが保持されている。
 本実施の形態では、第2表示部103において、例えば、図1の画面(1-4)に示す部首「門(もんがまえ)」は、ドロップ機能制御部107から入力された漢字のビットマップデータであり、残りの「伐」は筆跡データ取得部113から入力された入力済みの筆跡データである。
 ストローク情報保持部116には、(1)ストロークデータ取得部111が、ドロップ機能制御部107から入力されたJIS漢字コードに基づき、認識エンジン115から逆引きして取得したJIS漢字コードに対応するストローク情報と、(2)筆跡データ取得部113から入力された、新たに手書き入力済み筆跡データのストローク情報と、が保持されている。
 また、認識エンジン115は、ストロークデータ取得部111及び筆跡データ取得部113からストローク情報保持部116に記入されたストローク情報に基づいて文字認識処理を行い、そのストローク情報に対応するJIS漢字コードを表示制御部105へ出力する。
 また、認識エンジン115は、ユーザが手書き入力を中断してから所定時間が経過すると、手書き入力途中の文字であってもその筆跡データに基づき、文字認識処理して自動的に確定する。
 表示制御部105は、認識エンジン115から出力されたJIS漢字コードに基づき、表示エリアS1である第1表示部121にJIS漢字コードに対応する漢字を表示させる制御を行う。
 図3(a)を参照して、手書き文字入力装置100の手書き文字入力処理のフロー(1)を示す。図3(a)に示す手書き文字入力処理のフロー(1)は、ユーザが入力エリアS2(第2表示部103)に手書きで文字を入力してから、表示エリアS1(第1表示部121)に手書きで入力された文字を表示するまでの処理である。
 ステップST200では、タッチパネル101が、第2表示部103(入力エリアS2)に入力された接触を検出する。そして、ステップST202へ遷移する。
 ステップST202では、筆跡データ取得部113が、タッチパネル101の検出結果から筆跡データを取得する。そして、ステップST204へ遷移する。
 ステップST204では、認識エンジン115が、文字認識辞書に基づき、筆跡データの文字認識処理を行い、筆跡データに対応する文字コードを出力する。そして、ステップST206へ遷移する。
 ステップST206では、表示制御部105が認識エンジン115から出力された文字コードに対応する文字を第1表示部121(表示エリアS1)に表示させる制御を行う。そして、処理を終了する。
 図3(b)を参照して、手書き文字入力装置100の手書き文字入力処理のフロー(2)を示す。図3(b)に示す手書き文字入力処理のフロー(2)は、ユーザが表示エリアS1(第1表示部121)に表示された拙速誤認識文字をドラッグしてから、入力エリアS2(第2表示部103)に拙速誤認識文字を表示するまでの処理である。
 ステップST220では、タッチパネル101が、ユーザが第1表示部121(表示エリアS1)に表示された拙速誤認識文字を選択したことを検出する。そして、ステップST222へ遷移する。
 ステップST222では、ドラッグ機能制御部123が、ユーザがタッチパネル101上でドラッグする拙速誤認識文字の移動を制御する。そして、ステップST224へ遷移する。
 ステップST224では、ドロップ機能制御部107が、ドラッグ機能制御部123から、ユーザがタッチパネル101上でドラッグする拙速誤認識文字のビットマップデータ、文字コードを引き継ぐ。そして、ステップST226へ遷移する。
 ステップST226では、ドロップ機能制御部107が、ドラッグ機能制御部123から引き継いだ文字を第2表示部103にドロップする。そして、ステップST228へ遷移する。
 ステップST228では、ストロークデータ取得部111が、表示エリアS1の文字から引き継がれた文字コードに基づき、認識エンジン115から逆引きして取得した、この文字コードに対応する文字のストローク情報をストローク情報保持部116に出力する。そして、ステップST230へ遷移する。
 ステップST230では、筆跡データ取得部113は、新たに手書き入力された筆跡データに基づき、この筆跡データに対応するストローク情報を、ストローク情報保持部116に追記する。そして、ステップST232へ遷移する。
 ステップST232では、認識エンジン115は、ストローク情報保持部116に保持されたストローク情報に基づき、文字認識処理を行い、このストローク情報に対応する文字コードを表示制御部105へ出力する。そして、ステップST234へ遷移する。
 ステップST234では、表示制御部105は、認識エンジン115から出力された文字コードに基づき、表示エリアS1(第1表示部121)にこの文字コードに対応する文字を表示させる。
 上述のように、実施の形態1に係る手書き文字入力装置100は、ユーザがタッチパネル101上の表示エリアS1で選択した拙速誤認識文字を表示エリアS1からドラッグして手書き入力可能な入力エリアS2にドロップすると、拙速誤認識文字を拙速誤認識した時点の筆跡データの続きから手書き入力可能な状態にすることができる。
 更に、本実施の形態に係る手書き文字入力装置100は、認識エンジン115の文字認識処理により一度確定された文字コードから、この文字コードに対応するストローク情報を、認識エンジン115が保持するリファレンス用のストローク情報を逆引きして取得し、この逆引きして取得したストローク情報の続きから、文字を手書き入力することができる。特に、認識エンジン115の文字認識処理により一度確定された文字が上述した拙速誤認識文字である場合、ユーザは拙速誤認識された時点の筆跡の続きから手書き文字入力を再開することができる。そのため、ユーザは最初から文字を入力し直なすなどの煩わしい動作をしなくて済む。
 なお、本実施の形態において、認識エンジン115はオンライン認識処理を行っているが、オフライン認識処理を行う場合には、ストロークデータ取得部111が、文字コードに基づき、認識エンジン115から逆引きして文字コードに対応するストローク情報を取得する必要はない。
 ドロップ機能制御部107が、引き継いだ漢字のビットマップデータに新たな手書き入力の筆跡を追記し、認識エンジン115がオフライン認識すれば良い。
(実施の形態2)
 図4を参照して、実施の形態2に係る手書き文字入力装置300の動作の概要について説明する。図4は、本実施の形態に係る手書き文字入力装置300の動作を説明するための図である。説明のため、図4ではタッチパネル101の画面だけ図示する。なお、図4では、拙速誤認識文字として“角”を例にとって説明する。正しい文字は“解”であるとする。
 ここで、拙速誤認識文字とは、手書き文字入力装置300が、実際には手書き入力途中の文字を、手書き入力が中断した時点から所定時間経過後に文字認識処理して、自動的に確定した文字のことを言う。ユーザが手書き入力の途中で、たとえばタッチパネル101から指を離している間に所定時間が経過すると、手書き文字入力装置300は、手書き入力途中の文字であってもその文字を文字認識処理して自動的に確定する。
 タッチパネル101の画面(4-1)で、ユーザが拙速誤認識文字である“角”に触れると、ユーザは、拙速誤認識文字をオブジェクトとして表示エリアS1でドラッグできるようになる。
 タッチパネル101の画面(4-2)で、ユーザが拙速誤認識文字である“角”を表示エリアS1からドラッグして入力エリアS2へドロップする。そして、タッチパネル101の画面(4-3)で、入力エリアS2へドロップされた拙速誤認識文字である“角”は、その文字コードに基づき、入力エリアS2にビットマップデータとして表示される。ユーザは入力エリアS2に表示されたビットマップデータを編集することができる。
 タッチパネル101の画面(4-4)で、ユーザは、入力エリアS2に表示されたビットマップデータ“角”を、例えば入力エリアS2内で左寄せして、正しい文字“解”の一部(例えば、部首“へん”)となるように編集する。この時、入力エリアS2は、拙速誤認識された時点の筆跡(すなわち“角”)の続きから手書き入力可能な状態で、拙速誤認識文字である“角”を表示する。そのため、タッチパネル101の画面(4-4)で、ユーザは拙速誤認識された時点の筆跡(すなわち、“角”)の続きから継続して筆跡を入力することができる。
 なお、本実施の形態では、入力エリアS2に表示されたビットマップデータの編集操作として、“左寄せ”を一例にとって説明するがこれに限らない。左寄せ以外にも、右寄せ、上寄せ、下寄せなど、あらゆる方向への編集操作が考えられる。
 なお、本実施の形態では、拙速誤認識文字のビットマップは、正しい文字の部首“へん”として説明しているが、これに限らない。部首としては、“へん”以外にも、“つくり”、“かんむり”、“あし”、“たれ”、“にょう”、“かまえ”などがある。本実施の形態では、部首の態様に合わせて拙速誤認識文字のビットマップデータを編集操作できる。
 図5を参照して、実施の形態2に係る手書き文字入力装置300の構成について説明する。図5は、手書き文字入力装置300の構成を示すブロック図である。図5に示す手書き文字入力装置300は、タッチパネル101と、第2表示部103と、表示制御部105と、第2バッファ109と、筆跡データ取得部113と、CPU117と、第1表示部121と、第1バッファ125と、ドロップ機能制御部307と、ストロークデータ取得部311と、認識エンジン315と、ストローク情報保持部316と、筆跡データレタッチ制御部317と、ドラッグ機能制御部323と、を備える。
 タッチパネル101は、入力インタフェースとして機能する場合、一又は複数の接触を同時に検出し、その検出結果を筆跡データ取得部113と、ドラッグ機能制御部323とに出力する。
 また、タッチパネル101は、認識文字などを表示する第1表示部121及び手書き文字入力エリアである第2表示部103を一体に備える。そのため、第1表示部121、第2表示部103は、タッチパネル上で検出された接触に応じた表示を行うことができる。
 ここで、タッチパネル101が検出する一又は複数の接触とは、たとえば、ユーザの一又は複数の指の接触のことである。
 第1表示部121(図4中、表示エリアS1に相当)は、表示制御部105の制御に基づき、第1バッファ125に保持されていた文字を表示する。
 また、第1表示部121は、タッチパネル101と一体に設けられている。そのため、第1表示部121は、ユーザがタッチパネル101の第1表示部121に表示された文字をドラッグする場合、そのタッチパネル操作に応じた文字の移動を表示することができる。なお、第1表示部121に表示された文字の移動は、後述するドラッグ機能制御部323の制御に基づき制御される。
 第1バッファ125は、第1表示部121に表示するためのデータなどを保持する。例えば、第1バッファ125は、後述する認識エンジン315の文字認識処理により確定された文字を保持する。
 ドラッグ機能制御部323は、ユーザが第1表示部121に表示された文字をビットマップデータとしてドラッグして移動させる場合、その文字の移動を制御する。上述のように、ユーザがドラッグして移動させる第1表示部121に表示された文字は、認識エンジン315の文字認識処理により一度確定された文字である。
 そして、ドラッグ機能制御部323は、ユーザが第1表示部121でドラッグした文字を第2表示部103にドロップする場合、その文字のビットマップデータと、その文字に対応するJISコードをドロップ機能制御部307に引き継ぐ。
 以下、ドラッグ機能制御部323がドロップ機能制御部307に引き継ぐ文字を漢字として説明する。すなわち、ドラッグ機能制御部323は、その漢字のビットマップデータと、その漢字に対応するJIS漢字コードをドロップ機能制御部307に引き継ぐ。なお、漢字は文字の一例であり、これに限定されるものではない。
 ドラッグ機能制御部323がドロップ機能制御部307に、漢字のビットマップデータと、その漢字に対応するJIS漢字コードとを引き継ぐと、ドラッグ機能制御部323は第1バッファ125の移動したその漢字のビットマップデータを削除する。つまり、移動した漢字のビットマップデータが第1バッファ125からクリアされると、その漢字は、確定文字から解除される。上述のように、ドラッグ機能制御部323がドロップ機能制御部307へ引き継ぐ漢字は、認識エンジン315の文字認識処理により一度確定された文字である。
 なお、ユーザが第1表示部121で漢字のビットマップデータをドラッグした指を離すと、ドラッグ機能制御部323は、その漢字のビットマップデータを元の位置に移動させる。漢字のビットマップデータは第1表示部121内の元の位置に戻るので、ドラッグ機能制御部323は、第1バッファ125にある漢字のビットマップデータを削除しない。つまり、元の位置に戻った漢字のビットマップデータが第1バッファ125からクリアされないので、その漢字は、確定文字として認識される。
 ドロップ機能制御部307は、ユーザが第1表示部121でドラッグした文字を第2表示部103にドロップする場合、ドラッグ機能制御部323から引き継いだ漢字のビットマップデータを第2表示部103にドロップする。そして、ドロップ機能制御部307は、ドラッグ機能制御部323から引き継いだその漢字に対応するJIS漢字コードをストロークデータ取得部311へ、その漢字のビットマップデータを第2バッファ109へ出力する。
 筆跡データレタッチ制御部317は、第2バッファ109内で漢字のビットマップデータを編集する制御を行う。例えば、ユーザがタッチパネル101の画面上で拙速誤認識文字である“角”のビットマップデータを正しい文字“解”の部首(“へん”)に編集するために、第2バッファ109内で左寄せする編集操作を行う。
 例えば、ユーザが、図4に示す画面4-3、4-4のように入力エリアS2のビットマップデータを編集する場合には、筆跡データレタッチ制御部317が、ドロップ機能制御部307から出力された漢字のビットマップデータを第2バッファ109内で編集する制御を行う。
 ストロークデータ取得部311は、ユーザが第1表示部121でドラッグした文字を第2表示部103にドロップする場合、ドロップ機能制御部307から入力されたJIS漢字コードに基づき、そのJIS漢字コードに対応するストローク情報を認識エンジン115が保持するリファレンス用のストローク情報から逆引きして取得する。
 通常、認識エンジン315は、認識エンジン315自体が保持するリファレンス用のストローク情報に基づき、第2表示部103に入力された手書き文字を文字認識して確定する。しかし、ストロークデータ取得部311は、一度文字認識処理された後の文字データに基づき、認識エンジン315が保持するリファレンス用のストローク情報を取得している。
 さらに、ストロークデータ取得部311は、筆跡データレタッチ制御部317がドロップ機能制御部307から出力された漢字のビットマップデータを第2バッファ109内で編集した場合には、逆引きして取得したストローク情報を、この筆跡データレタッチ制御部317による編集操作と同様の変更方法で変形する。そして、ストロークデータ取得部311は、この編集済みストローク情報を、ストローク情報保持部316へ出力する。
 筆跡データ取得部113は、タッチパネル101の第2表示部103上で検出された一又は複数の接触から、新たに手書き入力された筆跡データを取得し、その新たな筆跡データを、入力済みの筆跡データが保持されている第2バッファ109に追記する。つまり、第2バッファ109には、編集済みの漢字のビットマップデータに対して、新たに手書き入力された筆跡データが付け加えられる。
 更に、筆跡データ取得部113は、新たに手書き入力された筆跡データに基づき、この筆跡データに対応するストローク情報を、ストローク情報保持部316に追記する。
 第2バッファ109は、筆跡データレタッチ制御部317により編集された編集済みの漢字のビットマップデータを保持する。さらに、第2バッファ109は、筆跡データ取得部113から入力された入力済みの筆跡データを保持する。第2バッファ109に保持された編集済みの漢字のビットマップデータと、入力済みの筆跡データとは、第2表示部103に表示される。
 なお、筆跡データレタッチ制御部317により漢字のビットマップデータが編集される前には、ドラッグ機能制御部323から引き継いだ漢字のビットマップデータが、第2表示部103に表示される。
 表示制御部105は、第2バッファ109に保持された漢字のビットマップデータを、第2表示部103に表示する。上述のように、第2バッファ109には、筆跡データレタッチ制御部317により編集された編集済みの漢字のビットマップデータと、筆跡データ取得部113から入力された入力済みの筆跡データとが保持されている。
 本実施の形態では、第2表示部103において、例えば、図4の画面(4-4)に示す部首「角(つのへん)」は、筆跡データレタッチ制御部317により編集された編集済みの漢字のビットマップデータである。なお、正しい文字“解”から部首「角(つのへん)」を除いた部分が筆跡データ取得部113から入力された入力済みの筆跡データとして入力される。
 ストローク情報保持部316には、(1)ストロークデータ取得部311から出力された編集済みストローク情報と、(2)筆跡データ取得部113から入力された、新たに手書き入力済み筆跡データのストローク情報と、が保持されている。
 また、認識エンジン315は、ストロークデータ取得部311及び筆跡データ取得部113からストローク情報保持部316に記入されたストローク情報に基づいて文字認識処理を行い、そのストローク情報に対応するJIS漢字コードを表示制御部105へ出力する。
 また、認識エンジン315は、ユーザが手書き入力を中断してから所定時間が経過すると、手書き入力途中の文字であってもその筆跡データに基づき、文字認識処理して自動的に確定する。
 表示制御部105は、認識エンジン315から出力されたJIS漢字コードに基づき、表示エリアS1である第1表示部121にJIS漢字コードに対応する漢字を表示させる制御を行う。
 図6(a)を参照して、手書き文字入力装置300の手書き文字入力処理のフロー(1)を示す。図6(a)に示す手書き文字入力処理のフロー(1)は、ユーザが入力エリアS2(第2表示部103)に手書きで文字を入力してから、表示エリアS1(第1表示部121)に手書きで入力された文字を表示するまでの処理である。
 ステップST400では、タッチパネル101が、第2表示部103(入力エリアS2)に入力された接触を検出する。そして、ステップST402へ遷移する。
 ステップST402では、筆跡データ取得部113が、タッチパネル101の検出結果から筆跡データを取得する。そして、ステップST404へ遷移する。
 ステップST404では、認識エンジン315が、文字認識辞書に基づき、筆跡データの文字認識処理を行い、筆跡データに対応する文字コードを出力する。そして、ステップST406へ遷移する。
 ステップST406では、表示制御部105が認識エンジン315から出力された文字コードに対応する文字を第1表示部121(表示エリアS1)に表示させる制御を行う。そして、処理を終了する。
 図6(b)を参照して、手書き文字入力装置300の手書き文字入力処理のフロー(2)を示す。図6(b)に示す手書き文字入力処理のフロー(2)は、ユーザが表示エリアS1(第1表示部121)に表示された拙速誤認識文字をドラッグしてから、入力エリアS2(第2表示部103)に拙速誤認識文字を表示するまでの処理である。
 ステップST420では、タッチパネル101が、ユーザが第1表示部121(表示エリアS1)に表示された拙速誤認識文字を選択したことを検出する。そして、ステップST422へ遷移する。
 ステップST422では、ドラッグ機能制御部323が、ユーザがタッチパネル101上でドラッグする拙速誤認識文字のビットマップデータの移動を制御する。そして、ステップST424へ遷移する。
 ステップST424では、ドロップ機能制御部307が、ドラッグ機能制御部323から、ユーザがタッチパネル101上でドラッグする拙速誤認識文字に対応するビットマップデータと、その文字コードとを引き継ぐ。そして、ステップST426へ遷移する。
 ステップST426では、ドロップ機能制御部307が、ドラッグ機能制御部323から引き継いだ文字のビットマップデータを第2バッファ109に出力する。そして、ステップST428へ遷移する。
 ステップST428では、筆跡データレタッチ制御部317が、ドロップ機能制御部307から入力された拙速誤認識文字のビットマップデータを第2バッファ109内で編集する。そして、ステップST430へ遷移する。
 ステップST430では、ストロークデータ取得部311が、文字コードに基づき、この文字コードに対応するストローク情報を認識エンジン315から逆引きして取得する。そして、ステップST432へ遷移する。
 ステップST432では、ストロークデータ取得部311が、この逆引きして取得したストローク情報を、筆跡データレタッチ制御部317による編集操作と同様の変更方法で変形し、編集済みストローク情報としてストローク情報保持部316に出力する。そして、ステップST434へ遷移する。
 ステップST434では、筆跡データ取得部113が新たに手書き入力された筆跡データに基づき、この筆跡データに対応するストローク情報を、ストローク情報保持部316に追記する。そして、ステップST436へ出力する。
 ステップST436では、認識エンジン315は、ストローク情報保持部316に保持されたストローク情報に基づき、文字認識処理を行い、このストローク情報に対応する文字コードを表示制御部105へ出力する。そして、ステップST438へ遷移する。
 ステップST438では、表示制御部105は、認識エンジン315から出力された文字コードに基づき、表示エリアS1(第1表示部121)に文字コードに対応する文字を表示させる。そして、処理を終了する。
 本実施の形態に係る手書き文字入力装置300は、一度認識エンジン315の文字認識処理により確定された文字データから認識エンジン315が保持するリファレンス用のストローク情報を逆引きして取得し、その取得したストローク情報の続きから文字を手書き入力することができる。
 特に、一度認識エンジン315の文字認識処理により確定された文字が拙速誤認識文字である場合、ユーザは拙速誤認識された時点の筆跡の続きから手書き文字入力を再開することができる。そのため、ユーザは最初から拙速誤認識文字を入力し直なす等の煩わしい動作をしなくて済む。さらには、ユーザは拙速誤認識された時点の筆跡の続きから手書き文字入力を再開することができるので、再開した後の手書き文字入力装置300の文字認識率を向上させることができる。
(実施の形態3)
 図7を参照して、実施の形態3に係る手書き文字入力装置500の動作の概要について説明する。図7は、本実施の形態に係る手書き文字入力装置500の動作を説明するための図である。説明のため、図7ではタッチパネル101の画面だけ図示する。なお、図7では、拙速誤認識文字として“角”を例にとって説明する。正しい文字は“解”であるとする。
 ここで、拙速誤認識文字とは、手書き文字入力装置500が、実際には手書き入力途中の文字を、手書き入力が中断した時点から所定時間経過後に文字認識処理して、自動的に確定した文字のことを言う。ユーザが手書き入力の途中で、たとえばタッチパネル101から指を離している間に所定時間が経過すると、手書き文字入力装置500は、手書き入力途中の文字であってもその文字を文字認識処理して自動的に確定する。
 タッチパネル101の画面(7-1)で、ユーザが拙速誤認識文字である“角”に触れると、ユーザは、拙速誤認識文字をオブジェクトとして表示エリアS1でドラッグできるようになる。
 タッチパネル101の画面(7-2)で、ユーザが拙速誤認識文字である“角”を表示エリアS1からドラッグして入力エリアS2の左半分(入力エリアS2-1)にドロップすると、タッチパネル101の画面(7-3)で、入力エリアS2へドロップされた拙速誤認識文字である“角”は、その文字コード及び入力エリアS2のドロップ位置に基づき、正しい文字である“解”の部首としてビットマップデータで表示される。
 つまり、本実施の形態に係る手書き文字入力装置500は、ユーザが入力エリアS2に表示されたビットマップデータを編集する操作を行わなくても、その文字コード及び入力エリアS2のドロップ位置に基づき、拙速誤認識文字である“角”を部首として内部認識して、ビットマップデータを部首として適切な位置(左寄せ)、大きさ(リサイズ)に自動的に編集することができる。
 タッチパネル101の画面(7-4)で、入力エリアS2は、拙速誤認識された時点の筆跡(すなわち“角”)の続きから手書き入力可能な状態で、拙速誤認識文字である“角”を表示する。そのため、タッチパネル101の画面(7-4)で、ユーザは拙速誤認識された時点の筆跡(すなわち、“角”)の続きから継続して、正しい文字である“解”の筆跡を入力することができる。
 なお、本実施の形態では、入力エリアS2に表示されたビットマップデータの編集操作として、“左寄せ”と“リサイズ”を一例にとって説明するがこれに限らない。左寄せ以外にも、右寄せ、上寄せ、下寄せなど、あらゆる方向への編集操作が考えられる。
 なお、本実施の形態では、拙速誤認識文字のビットマップは、正しい文字の部首“へん”として説明しているが、これに限らない。部首としては、“へん”以外にも、“つくり”、“かんむり”、“あし”、“たれ”、“にょう”、“かまえ”などがある。本実施の形態に係る手書き文字入力装置500は、その文字コード及び入力エリアS2のドロップ位置に基づき、部首の態様に合わせて拙速誤認識文字のビットマップデータを自動的に編集できる。
 図8を参照して、実施の形態3に係る手書き文字入力装置500の構成について説明する。図8は、手書き文字入力装置500の構成を示すブロック図である。図8に示す手書き文字入力装置500は、タッチパネル101と、第2表示部103と、表示制御部105と、第2バッファ109と、筆跡データ取得部113と、CPU117と、第1表示部121と、第1バッファ125と、認識エンジン315と、ドラッグ機能制御部323と、ドロップ機能・ドロップ位置制御部507と、ストロークデータ取得部511と、ストローク情報保持部516と、部首認識部517と、を備える。
 タッチパネル101は、入力インタフェースとして機能する場合、一又は複数の接触を同時に検出し、その検出結果を筆跡データ取得部113と、ドラッグ機能制御部323とに出力する。
 また、タッチパネル101は、認識文字などを表示する第1表示部121及び手書き文字入力エリアである第2表示部103を一体に備える。そのため、第2表示部103、第1表示部121は、タッチパネル上で検出された接触に応じた表示を行うことができる。
 ここで、タッチパネル101が検出する一又は複数の接触とは、たとえば、ユーザの一又は複数の指の接触のことである。
 第1表示部121(図7中、表示エリアS1に相当)は、表示制御部105の制御に基づき、第1バッファ125に保持されていた文字を表示する。
 また、第1表示部121は、タッチパネル101と一体に設けられている。そのため、第1表示部121は、ユーザがタッチパネル101の第1表示部121に表示された文字をドラッグする場合、そのタッチパネル操作に応じた文字の移動を表示することができる。なお、第1表示部121に表示された文字の移動は、後述するドラッグ機能制御部323の制御に基づき制御される。
 第1バッファ125は、第1表示部121に表示するためのデータなどを保持する。例えば、第1バッファ125は、後述する認識エンジン315の文字認識処理により確定された文字を保持する。
 ドラッグ機能制御部323は、ユーザが第1表示部121に表示された文字をドラッグして移動させる場合、その文字の移動を制御する。上述のように、ユーザがドラッグして移動させる第1表示部121に表示された文字は、認識エンジン315の文字認識処理により一度確定された文字である。
 そして、ドラッグ機能制御部323は、ユーザが第1表示部121でドラッグした文字を第2表示部103にドロップする場合、その文字のビットマップデータと、その文字に対応する文字コード(たとえば、JISコード)をドロップ機能・ドロップ位置制御部507に引き継ぐ。
 以下、ドラッグ機能制御部323がドロップ機能・ドロップ位置制御部507に引き継ぐ文字を漢字として説明する。すなわち、ドラッグ機能制御部323は、その漢字のビットマップデータと、その漢字に対応するJIS漢字コードとをドロップ機能・ドロップ位置制御部507に引き継ぐ。なお、漢字は文字の一例であり、これに限定されるものではない。
 ドラッグ機能制御部323が、漢字のビットマップデータと、その漢字に対応するJIS漢字コードとをドロップ機能・ドロップ位置制御部507に引き継ぐと、ドラッグ機能制御部323は、第1バッファ125の移動した漢字のビットマップデータを削除する。つまり、移動した漢字のビットマップデータが第1バッファ125からクリアされると、その漢字は、確定文字から解除される。上述のように、ドラッグ機能制御部323がドロップ機能・ドロップ位置制御部507へ引き継ぐ漢字は、認識エンジン315の文字認識処理により一度確定された文字である。
 なお、ユーザが第1表示部121で漢字のビットマップデータをドラッグした指を離すと、ドラッグ機能制御部323は、その漢字のビットマップデータを元の位置に移動させる。漢字のビットマップデータは第1表示部121内の元の位置に戻るので、ドラッグ機能制御部323は、第1バッファ125にある漢字のビットマップデータを削除しない。つまり、元の位置に戻った漢字のビットマップデータが第1バッファ125からクリアされないので、その漢字は、確定文字として認識される。
 ドロップ機能・ドロップ位置制御部507は、ユーザが第1表示部121でドラッグした文字を第2表示部103にビットマップデータとしてドロップする場合、ドラッグ機能制御部323のドラッグ操作に基づき、入力エリアS2内のどこでドロップされるか、そのドロップ位置を検出する。本実施の形態では、例えば図7を参照して説明したように、拙速誤認識文字である“角”は入力エリアS2の左半分(入力エリアS2-1)にドロップされる。つまり、本実施の形態では、拙速誤認識文字である“角”が正しい漢字の部首を構成する場合には、検出されるドロップ位置が、漢字の部首が本来入力されるエリアに含まれることを利用する。
 また、ドロップ機能・ドロップ位置制御部507は、ドラッグ機能制御部323から引き継いだ漢字に対応するJIS漢字コード及び検出されたドロップ位置(“S2-1”)を部首認識部517へ出力する。
 さらに、ドロップ機能・ドロップ位置制御部507は、ドラッグ機能制御部323から引き継いだその漢字に対応するJIS漢字コードをストロークデータ取得部511へ、その漢字のビットマップデータを第2バッファ109へ出力する。
 部首認識部517は、ドロップ機能・ドロップ位置制御部507から入力されたJIS漢字コード及びドロップ位置に基づき、ドラッグ機能制御部323から引き継いだ漢字を部首として自動的に認識し、第2バッファ109内で漢字のビットマップデータを編集する制御を行う。そのため、本実施の形態では、入力エリアS2内で編集作業がユーザによって行われなくても、ユーザが指定したドロップ位置に対応する部首を自動的に認識することができる。本実施の形態では、部首認識部517が認識する部首は、“角(つのへん)”である。
 ストロークデータ取得部511は、ユーザが第1表示部121でドラッグした文字を第2表示部103にドロップする場合、ドロップ機能・ドロップ位置制御部507から入力されたJIS漢字コードに基づき、そのJIS漢字コードに対応するストローク情報を認識エンジン315が保持するリファレンス用のストローク情報から逆引きして取得する。
 さらに、ストロークデータ取得部511は、部首認識部517が部首として自動的に認識した漢字のビットマップデータを第2バッファ109内で編集する場合には、逆引きして取得したストローク情報を、この部首認識部517が部首として自動的に認識した部首に合わせて変形する。そして、ストロークデータ取得部511は、この編集済みストローク情報を、ストローク情報保持部516へ出力する。
 通常、認識エンジン315は、認識エンジン315自体が保持するリファレンス用のストローク情報に基づき、第2表示部103に入力された手書き文字を文字認識して確定する。しかし、ストロークデータ取得部511は、一度文字認識処理された後の文字データに基づき、認識エンジン315が保持するリファレンス用のストローク情報を取得している。
 そして、ストロークデータ取得部511は、認識エンジン315から逆引きして得られたJIS漢字コードに対応する漢字のストローク情報をストローク情報保持部516へ出力する。
 筆跡データ取得部113は、タッチパネル101の第2表示部103上で検出された一又は複数の接触から、新たに手書き入力された筆跡データを取得し、その新たな筆跡データを、入力済みの筆跡データが保持されている第2バッファ109に追記する。つまり、第2バッファ109には、ドロップ機能・ドロップ位置制御部507から入力された漢字のビットマップデータに対して、新たに手書き入力された筆跡データが付け加えられる。
 更に、筆跡データ取得部113は、新たに手書き入力された筆跡データに基づき、新たに手書き入力されたストローク情報を、ストローク情報保持部516に追記する。
 第2バッファ109は、ドロップ機能・ドロップ位置制御部507から入力された漢字のビットマップデータを保持する。さらに、第2バッファ109は、筆跡データ取得部113から入力された入力済みの筆跡データを保持する。第2バッファ109に保持された編集済みの漢字のビットマップデータと、入力済みの筆跡データとは、第2表示部103に表示される。
 なお、ドロップ機能・ドロップ位置制御部507により漢字のビットマップデータが編集される前には、ドラッグ機能制御部323から引き継いだ漢字のビットマップデータが、第2表示部103に表示される。
 表示制御部105は、第2バッファ109に保持された漢字のビットマップデータを、第2表示部103に表示する。つまり、第2バッファ109に保持された部首として認識された漢字のビットマップデータと、入力済みの筆跡データとは、第2表示部103に表示される。
 本実施の形態では、第2表示部103において、例えば、図7の画面(7-3)に示す部首「角(つのへん)」は、部首認識部517により自動認識された漢字のビットマップデータである。また、図7の画面(7-4)に示すように、正しい文字“解”から部首「角(つのへん)」を除いた部分が筆跡データ取得部113から入力された入力済みの筆跡データとして入力される。
 ストローク情報保持部516には、(1)ストロークデータ取得部511から出力された編集済みストローク情報と、(2)筆跡データ取得部113から入力された、新たに手書き入力済み筆跡データのストローク情報と、が保持されている。
 また、認識エンジン315は、ストロークデータ取得部511及び筆跡データ取得部113からストローク情報保持部516に入力されたストローク情報に基づいて文字認識処理を行い、このストローク情報に対応するJIS漢字コードを表示制御部105へ出力する。
 また、認識エンジン315は、ユーザが手書き入力を中断してから所定時間が経過すると、手書き入力途中の文字であってもその筆跡データに基づき、文字認識処理して自動的に確定する。
 表示制御部105は、認識エンジン315から出力されたJIS漢字コードに基づき、表示エリアS1である第1表示部121にJIS漢字コードに対応する漢字を表示させる制御を行う。
 本実施の形態に係る手書き文字入力装置500では、部首認識部517が、ドロップ機能・ドロップ位置制御部507から入力されたJIS漢字コード及びドロップ位置に基づき、文字データが正しい文字“解”の部首“角(つのへん)”であることを認識する。そのため、ユーザは、拙速誤認識文字“角”が正しい文字“解”の部首である場合には、入力エリアS2のうち正しい文字の部首として適切なエリアに、拙速誤認識文字のビットマップデータをドロップするだけで、拙速誤認識された時点の筆跡の続きから手書き文字入力を再開することができる。再開した後の手書き文字入力装置500の文字認識率を向上させることができる。なお、本実施の形態では、辺やつくりなどの部首単体に対して、認識エンジン315が独自に認識可能な専用の文字コードを割り当てても良い。
 図9(a)を参照して、手書き文字入力装置500の手書き文字入力処理のフロー(1)を示す。図9(a)に示す手書き文字入力処理のフロー(1)は、ユーザが入力エリアS2(第2表示部103)に手書きで文字を入力してから、表示エリアS1(第1表示部121)に手書きで入力された文字を表示するまでの処理である。
 ステップST600では、タッチパネル101が、第2表示部103(入力エリアS2)に入力された接触を検出する。そして、ステップST602へ遷移する。
 ステップST602では、筆跡データ取得部113が、タッチパネル101の検出結果から筆跡データを取得する。そして、ステップST604へ遷移する。
 ステップST604では、認識エンジン315が、文字認識辞書に基づき、筆跡データの文字認識処理を行い、筆跡データに対応する文字コードを出力する。そして、ステップST606へ遷移する。
 ステップST606では、表示制御部105が認識エンジン315から出力された文字コードに対応する文字を第1表示部121(表示エリアS1)に表示させる制御を行う。そして、処理を終了する。
 図9(b)を参照して、手書き文字入力装置500の手書き文字入力処理のフロー(2)を示す。図9(b)に示す手書き文字入力処理のフロー(2)は、ユーザが表示エリアS1(第1表示部121)に表示された拙速誤認識文字をドラッグしてから、入力エリアS2(第2表示部103)に拙速誤認識文字を表示するまでの処理である。
 ステップST620では、タッチパネル101が、ユーザが第1表示部121(表示エリアS1)に表示された拙速誤認識文字を選択したことを検出する。そして、ステップST622へ遷移する。
 ステップST622では、ドラッグ機能制御部323が、ユーザがタッチパネル101上でドラッグする拙速誤認識文字のビットマップデータの移動を制御する。そして、ステップST624へ遷移する。
 ステップST624では、ドロップ機能・ドロップ位置制御部507が、ドラッグ機能制御部323から、ユーザがタッチパネル101上でドラッグする拙速誤認識文字に対応するビットマップデータと、その文字コードとを引き継ぐ。そして、ステップST626へ遷移する。
 ステップST626では、ドロップ機能・ドロップ位置制御部507が、ドラッグ機能制御部323から引き継いだ文字のビットマップデータを第2バッファ109に出力する。そして、ステップST628へ遷移する。
 ステップST628では、ドロップ機能・ドロップ位置制御部507が、ドラッグ機能制御部323のドラッグ操作に基づき、入力エリアS2内のどこでドロップされるか、そのドロップ位置を検出する。そして、ステップST630へ遷移する。
 ステップST630では、部首認識部517は、ドロップ機能・ドロップ位置制御部507から入力されたJIS漢字コード及びドロップ位置に基づき、ドラッグ機能制御部323から引き継いだ漢字を部首として自動的に認識し、第2バッファ109内で漢字のビットマップデータを編集する制御を行う。そして、ステップST632へ遷移する。
 ステップST632では、ストロークデータ取得部511が、ドロップ機能・ドロップ位置制御部507から入力されたJIS漢字コードに基づき、そのJIS漢字コードに対応するストローク情報を認識エンジン315が保持するリファレンス用のストローク情報から逆引きして取得し、そのストローク情報をストローク情報保持部516に出力する。そして、ステップST634へ遷移する。
 ステップST634では、筆跡データ取得部113が、新たに手書き入力された筆跡データに基づき、新たに手書き入力されたストローク情報を、ストローク情報保持部516に出力する。そして、ステップST636へ出力する。
 ステップST636では、認識エンジン315は、ストロークデータ取得部511から入力されたストローク情報に基づき、ストローク情報に対応する文字コード(JIS漢字コード)を表示制御部105へ出力する。そして、ステップST638へ遷移する。
 ステップST638では、表示制御部105は、認識エンジン315から出力された文字コードに基づき、表示エリアS1(第1表示部121)に文字コードに対応する文字を表示させる。そして、処理を終了する。
 なお、上記各実施の形態に係る手書き文字入力装置は、タッチパネルを備える携帯端末などの電子機器に適用することができる。
 なお、上記各実施の形態において、タッチパネル101は、容量性、抵抗性、赤外線、及び弾性表面波技術、並びにその他の近接センサアレイ、又は、タッチパネル101と接触点を決定するための複数のタッチセンシティビティ技術を用いて、タッチパネル101は上の接触及び接触による任意の動き又はその動きの中断を検出することができる。
 なお、上記各実施の形態に係る手書き文字入力装置では、タッチパネル101が検出する接触とは、たとえば、ユーザの一又は複数の指の接触であるとして説明したが、これに限らない。タッチパネル101が、タッチペンなどの入力デバイスの接触を検出しても良い。
 なお、上記各実施の形態において、ドラッグする拙速誤認識文字を1文字で説明したがこれに限らない。拙速誤認識文字を含む複数の文字を表示エリアS1上で選択しても良いし、拙速誤認識文字を含んで誤って入力された単語、文節、一文を選択しても良い。
 なお、上記各実施の形態において、拙速誤認識文字を例にとって説明したがこれに限らない。単に誤認識された文字であっても良い。
 なお、本発明は、本発明の趣旨ならびに範囲を逸脱することなく、明細書の記載、並びに周知の技術に基づいて、当業者が様々な変更、応用することも本発明の予定するところであり、保護を求める範囲に含まれる。また、発明の趣旨を逸脱しない範囲で、上記実施形態における各構成要素を任意に組み合わせてもよい。
 本出願は、2011年3月31日出願の日本特許出願(特願2011-080290)に基づくものであり、その内容はここに参照として取り込まれる。
 本発明に係る手書き文字入力装置は、一度文字認識処理されて確定した誤認識文字を、誤認識された時点の筆跡データの続きから再度手書き入力可能にするという効果を有し、携帯端末等として有用である。
100、300、500  手書き文字入力装置
101          タッチパネル
103          第2表示部
105          表示制御部
107、307      ドロップ機能制御部
109          第2バッファ
111、311、511  ストロークデータ取得部
113          筆跡データ取得部
115、315      認識エンジン
116、316、516  ストローク情報保持部
117          CPU
121          第1表示部
123、323      ドラッグ機能制御部
125          第1バッファ
317          筆跡データレタッチ制御部
507          ドロップ機能・ドロップ位置制御部
517          部首認識部
S1           表示エリア
S2           入力エリア

Claims (3)

  1.  接触を感知するタッチパネルと、
     前記タッチパネルと一体に設けられ、文字認識されて確定した文字のビットマップデータを表示する表示エリアと前記タッチパネルが感知した接触により手書き文字入力する入力エリアとを有する表示部と、
     前記文字のストローク情報を内蔵する文字認識辞書を参照して文字認識処理する文字認識処理部と、
     前記表示エリアに表示された文字のビットマップデータの前記入力エリアへの移動を制御する移動制御部と、
     前記移動制御部の制御対象となる文字の文字コードに基づき、前記文字認識処理部に内蔵された文字認識辞書から前記文字のストローク情報を逆引きして取得するストロークデータ取得部と、
     前記表示エリアに新たに手書き入力された筆跡データを取得する筆跡データ取得部と、
     前記ストロークデータ取得部が取得した前記文字のストローク情報及び前記筆跡データ取得部が取得した筆跡データを保持するバッファと、
     前記表示部の表示を制御する表示制御部と、を備え、
     前記文字認識処理部は、
     前記表示エリアに表示された文字のビットマップデータが前記入力エリアへ移動した場合に、前記バッファに保持された前記文字のストローク情報及び前記筆跡データに基づき文字認識処理して、文字コードを前記表示制御部へ出力し、
     前記表示制御部は、
     前記文字認識処理部から入力された文字コードに対応する文字を前記表示エリアに表示するよう前記表示部を制御する、手書き文字入力装置。
  2.  接触を感知するタッチパネルと、
     前記タッチパネルと一体に設けられ、文字認識されて確定した文字のビットマップデータを表示する表示エリアと前記タッチパネルが感知した接触により手書き文字入力する入力エリアとを有する表示部と、
     前記文字のストローク情報を内蔵する文字認識辞書を参照して文字認識処理する文字認識処理部と、
     前記表示エリアに表示された文字のビットマップデータの前記入力エリアへの移動を制御する移動制御部と、
     前記入力エリアに移動した文字のビットマップデータの大きさ又はその位置を編集するデータレタッチ制御部と、
     前記文字認識処理部に内蔵された文字認識辞書から前記文字のストローク情報を逆引きして取得し、当該文字のストローク情報を前記データレタッチ制御部の編集操作に基づき変形するストロークデータ取得部と、
     前記表示エリアに新たに手書き入力された筆跡データを取得する筆跡データ取得部と、
     前記ストロークデータ取得部により変形済みの文字のストローク情報及び前記筆跡データ取得部が取得した筆跡データを保持するバッファと、
     前記表示部の表示を制御する表示制御部と、を備え、
     前記文字認識処理部は、
     前記表示エリアに表示された文字のビットマップデータが前記入力エリアへ移動した場合に、前記バッファに保持された前記変形済みの文字のストローク情報及び前記筆跡データに基づき文字認識処理して、文字コードを前記表示制御部へ出力し、
     前記表示制御部は、
     前記文字認識処理部から入力された文字コードに対応する文字を前記表示エリアに表示するよう前記表示部を制御する、手書き文字入力装置。
  3.  接触を感知するタッチパネルと、
     前記タッチパネルと一体に設けられ、文字認識されて確定した文字のビットマップデータを表示する表示エリアと前記タッチパネルが感知した接触により手書き文字入力する入力エリアとを有する表示部と、
     前記文字のストローク情報を内蔵する文字認識辞書を参照して文字認識処理する文字認識処理部と、
     前記表示エリアに表示された文字のビットマップデータの前記入力エリアへの移動を制御する移動制御部と、
     前記入力エリアに移動した文字のビットマップデータの位置と、当該文字の文字コードとに基づき、当該文字をその位置に表示される部首として認識し、当該部首に合わせて当該文字のビットマップデータを編集する部首認識部と、
     前記文字認識処理部に内蔵された文字認識辞書から前記文字のストローク情報を逆引きして取得し、当該文字のストローク情報を前記部首認識部の編集操作に基づき変形するストロークデータ取得部と、
     前記表示エリアに新たに手書き入力された筆跡データを取得する筆跡データ取得部と、
     前記ストロークデータ取得部により変形済みの前記文字のストローク情報及び前記筆跡データ取得部が取得した筆跡データを保持するバッファと、
     前記表示部の表示を制御する表示制御部と、を備え、
     前記文字認識処理部は、
     前記表示エリアに表示された文字のビットマップデータが前記入力エリアへ移動した場合に、前記バッファに保持された前記文字のストローク情報及び前記筆跡データに基づき文字認識処理して、文字コードを前記表示制御部へ出力し、
     前記表示制御部は、
     前記文字認識処理部から入力された文字コードに対応する文字を前記表示エリアに表示するよう前記表示部を制御する、手書き文字入力装置。
PCT/JP2012/001532 2011-03-31 2012-03-06 手書き文字入力装置 WO2012132244A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2012800168957A CN103460225A (zh) 2011-03-31 2012-03-06 手写字符输入装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-080290 2011-03-31
JP2011080290A JP5550598B2 (ja) 2011-03-31 2011-03-31 手書き文字入力装置

Publications (1)

Publication Number Publication Date
WO2012132244A1 true WO2012132244A1 (ja) 2012-10-04

Family

ID=46930039

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/001532 WO2012132244A1 (ja) 2011-03-31 2012-03-06 手書き文字入力装置

Country Status (4)

Country Link
JP (1) JP5550598B2 (ja)
CN (1) CN103460225A (ja)
TW (1) TW201248514A (ja)
WO (1) WO2012132244A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104461119A (zh) * 2013-09-24 2015-03-25 株式会社东芝 笔划处理装置和笔划处理方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6087685B2 (ja) * 2013-03-25 2017-03-01 京セラ株式会社 携帯電子機器、制御方法及び制御プログラム
WO2014200736A1 (en) * 2013-06-09 2014-12-18 Apple Inc. Managing real - time handwriting recognition
US9898187B2 (en) 2013-06-09 2018-02-20 Apple Inc. Managing real-time handwriting recognition
CN116185209A (zh) * 2014-08-11 2023-05-30 张锐 手写输入字符的处理、数据拆分和合并及编解码处理方法
JP6492830B2 (ja) * 2015-03-20 2019-04-03 カシオ計算機株式会社 手書き入力装置、手書き入力方法、及び、プログラム
JP6986848B2 (ja) * 2016-04-27 2021-12-22 シャープ株式会社 入力表示装置および入力表示方法
DK179329B1 (en) 2016-06-12 2018-05-07 Apple Inc Handwriting keyboard for monitors
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271897A (ja) * 1994-03-30 1995-10-20 Mitsubishi Electric Corp 文字認識装置
JP2001243421A (ja) * 2000-02-25 2001-09-07 Canon Inc 文字処理装置及び文字処理方法
JP2005165533A (ja) * 2003-12-01 2005-06-23 Sharp Corp 電子機器および電子辞書装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271897A (ja) * 1994-03-30 1995-10-20 Mitsubishi Electric Corp 文字認識装置
JP2001243421A (ja) * 2000-02-25 2001-09-07 Canon Inc 文字処理装置及び文字処理方法
JP2005165533A (ja) * 2003-12-01 2005-06-23 Sharp Corp 電子機器および電子辞書装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104461119A (zh) * 2013-09-24 2015-03-25 株式会社东芝 笔划处理装置和笔划处理方法
CN104461119B (zh) * 2013-09-24 2017-11-10 株式会社东芝 笔划处理装置和笔划处理方法

Also Published As

Publication number Publication date
JP5550598B2 (ja) 2014-07-16
TW201248514A (en) 2012-12-01
JP2012216027A (ja) 2012-11-08
CN103460225A (zh) 2013-12-18

Similar Documents

Publication Publication Date Title
WO2012132244A1 (ja) 手書き文字入力装置
US20210406578A1 (en) Handwriting-based predictive population of partial virtual keyboards
US8131080B2 (en) Handwriting determination apparatus and method and program
US9811193B2 (en) Text entry for electronic devices
JP2018515817A (ja) 視線追跡と音声認識とを組み合わせることにより制御を改善する方法
US20130069867A1 (en) Information processing apparatus and method and program
JP2009093291A (ja) ジェスチャー判定装置及び方法
KR101898202B1 (ko) 필기 인식을 위한 필기 입력 가이드 장치 및 방법
JP6991486B2 (ja) 文字列に文字を挿入するための方法およびシステム
JP2008250375A (ja) 文字入力装置、方法およびプログラム
KR20180119647A (ko) 문자열에 문자를 삽입하기 위한 방법 및 대응하는 디지털 디바이스
US9153234B2 (en) Speech recognition apparatus, method of recognizing speech, and computer readable medium for the same
US10996843B2 (en) System and method for selecting graphical objects
JPH06289984A (ja) 文書作成編集装置
JP2007102369A (ja) ジェスチャ認識装置およびジェスチャ認識方法
TW201423563A (zh) 手寫輸入識別系統及方法
TWI588711B (zh) 觸控式習字方法及觸控式電子裝置
JP2013218592A (ja) 文字入力装置
JP6032982B2 (ja) 入力支援装置、入力支援方法、入力支援プログラム及び記録媒体
JP5519546B2 (ja) 手書き文字入力装置
JPH0744308A (ja) ワードプロセッサ
JPH06251198A (ja) 文字入力装置
JP5618634B2 (ja) 情報処理装置およびその動作方法
JP5642862B2 (ja) 入力装置および入力方法
JPH02266484A (ja) 情報認識装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12764982

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12764982

Country of ref document: EP

Kind code of ref document: A1