WO2017115692A1 - 手書き入力装置、情報入力方法及びプログラム - Google Patents

手書き入力装置、情報入力方法及びプログラム Download PDF

Info

Publication number
WO2017115692A1
WO2017115692A1 PCT/JP2016/087902 JP2016087902W WO2017115692A1 WO 2017115692 A1 WO2017115692 A1 WO 2017115692A1 JP 2016087902 W JP2016087902 W JP 2016087902W WO 2017115692 A1 WO2017115692 A1 WO 2017115692A1
Authority
WO
WIPO (PCT)
Prior art keywords
handwriting
input
unit
character
finger
Prior art date
Application number
PCT/JP2016/087902
Other languages
English (en)
French (fr)
Inventor
朋輝 山田
Original Assignee
アルプス電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルプス電気株式会社 filed Critical アルプス電気株式会社
Priority to CN201680074487.5A priority Critical patent/CN108475135A/zh
Publication of WO2017115692A1 publication Critical patent/WO2017115692A1/ja
Priority to US16/010,793 priority patent/US11360661B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • G06V30/1456Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields based on user interactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • G06V30/347Sampling; Contour coding; Stroke extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Definitions

  • the present invention relates to a handwriting input device that inputs information such as characters represented by a locus of a contact position by a handwriting operation in which a finger or a pen is moved in contact with an input surface of a sensor.
  • One of the inconveniences of character input by handwriting operation is that it must be determined in some way whether or not the handwriting operation is ongoing. Whether the pen has left the input surface due to the end of the handwriting operation or only if the pen has touched the input surface of the touch sensor, I can't distinguish.
  • a method using a timer is generally known. In this method, the time when the touch of the pen is not detected during the handwriting operation is counted by the timer. If the measured time is within a certain time, it is determined that the handwriting operation is continuing, and the handwriting operation is continued by bringing the pen into contact again. On the other hand, when the measured time exceeds a certain time, it is determined that the handwriting operation is finished.
  • the end of the automatic handwriting operation by such a timer can be temporarily stopped.
  • the pen may continue to be separated from the input surface during the handwriting operation.
  • the present invention has been made in view of such circumstances, and an object thereof is to provide a handwriting input device, an information input method, and a program capable of accurately determining that a handwriting operation is continuing without performing a complicated operation. There is to do.
  • a first aspect of the present invention relates to a handwriting input device that inputs information corresponding to a locus of a contact position of an object on the input surface when a handwriting operation is performed while moving the object in contact with the input surface.
  • the handwriting input device includes a sensor unit capable of detecting the contact position of the object on the input surface and the presence or absence of the object in a predetermined operation space close to the input surface, and the sensor unit And a determination unit that determines the start and end of the series of the handwriting operations based on the detection result. After determining the start of the handwriting operation, the determination unit determines that the handwriting operation is continuing if the sensor unit detects that the object is in the operation space.
  • the determination unit may determine that the handwriting operation has ended if the sensor unit detects that the object is not in the operation space.
  • the end of the handwriting operation can be accurately determined by simply moving a finger, a pen, or the like from the inside of the operation space without performing a complicated operation such as pressing a button. Since it is not necessary to wait for the time measured by the timer for the end determination of the handwriting operation, it is possible to smoothly input information by the handwriting operation. As long as a finger, a pen, or the like is positioned in the operation space, it is not determined that the handwriting operation has been completed. Therefore, it is difficult to input erroneous information due to the end of the handwriting operation being determined at an unintended timing.
  • the determination unit determines the start of the handwriting operation
  • the sensor unit continuously detects that the object is not in the operation space for a predetermined time or more, the handwriting operation is ended. May be determined.
  • the sensor unit may output a detection signal corresponding to the distance of the object from the input surface.
  • the determination unit ends the handwriting operation when the distance of the object from the input surface indicated by the detection signal output from the sensor unit exceeds a predetermined distance May be determined.
  • the end of the handwriting operation can be accurately determined by simply moving a finger, a pen, or the like farther from the input surface than the predetermined distance without performing a complicated operation such as pressing a button. Is done.
  • the sensor unit may be able to detect a proximity position of the object on the input surface in a state where the object is separated from the input surface. After the determination unit determines the start of the handwriting operation, when the sensor unit detects that the proximity position is outside a predetermined operation region on the input surface, the handwriting operation is completed. You may judge.
  • the handwriting input device generates stroke information according to the locus of the contact position detected by the sensor unit during the handwriting operation period determined to be started by the determination unit.
  • a stroke information generation unit a character recognition unit that recognizes a character represented by the trajectory of the contact position based on the stroke information, and the stroke generated during the period of the handwriting operation when it is determined that the handwriting operation has ended.
  • An input character determination unit that determines a character input by the handwriting operation based on a recognition result of the character recognition unit based on information may be provided.
  • the stroke information generated during the handwriting operation period can be obtained simply by moving a finger, a pen, or the like out of the operation space without performing a complicated operation such as pressing a button.
  • the character input by the handwriting operation is determined. Since it is not necessary to wait for the time measured by the timer to determine whether or not the handwriting operation has ended, smooth character input is possible. As long as a finger, a pen, or the like is positioned in the operation space, a character input by handwriting operation is not fixed, so that an erroneous input due to the input character being determined at an unintended timing is less likely to occur.
  • the stroke generated during the period of the ongoing handwriting operation A display control unit that displays a plurality of input candidate characters recognized by the character recognition unit based on information on the display unit.
  • the sensor unit may be able to detect a proximity position of the object on the input surface in a state where the object is separated from the input surface.
  • the input character determination unit is configured to perform the handwriting operation from the plurality of input candidate characters displayed on the display unit based on a direction in which the proximity position moves when the object goes out of the operation space. You may confirm the characters to be entered.
  • a character input by the handwriting operation is determined from the plurality of input candidate characters displayed on the display unit.
  • the stroke generated during the period of the ongoing handwriting operation A display control unit that displays a plurality of input candidate characters recognized by the character recognition unit based on information on the display unit.
  • the sensor unit may be able to detect a proximity position of the object on the input surface in a state where the object is separated from the input surface.
  • the input character determination unit when the sensor unit detects that the object is in the operation space, the plurality of input candidates displayed on the display unit based on a movement pattern of the proximity position One input candidate character may be selected from the characters.
  • the display control unit may perform highlighting on the display unit indicating that the one input candidate character is being selected. If the determination unit determines that the handwriting operation has been completed when the input character determination unit selects one input candidate character, the input character determination unit inputs the one input candidate character by the handwriting operation. It may be confirmed as a character to be executed.
  • one character is selected from the plurality of input candidate characters displayed on the display unit based on the movement pattern of the proximity position.
  • Input candidate characters are selected. Therefore, the characters of the plurality of input candidates can be obtained simply by moving a finger, a pen, or the like in the operation space so that the proximity position moves in a predetermined pattern without performing a complicated operation such as pressing a button.
  • one input candidate character is easily selected.
  • highlighting indicating that the one input candidate character is being selected is performed on the display unit, so that it is easy to confirm the selection result of the input candidate character.
  • When one input candidate character is selected only one finger or pen moves from the inside of the operation space to the outside without performing a complicated operation such as pressing a button.
  • the candidate character is determined as the character input by the handwriting operation.
  • the display control unit displays the locus of the contact position according to the stroke information in the handwriting operation display area of the display unit when the determination unit determines that the handwriting operation is continuing.
  • a plurality of input candidate characters recognized by the character recognition unit may be displayed in a plurality of input candidate display areas positioned around the handwriting operation display area.
  • the locus of the contact position such as a finger or a pen and a plurality of input candidate characters obtained as a result of character recognition are displayed on the display unit so as to be easily recognized.
  • the stroke generated during the period of the ongoing handwriting operation when the handwriting operation is determined to be ongoing in the display unit and the determination unit, the stroke generated during the period of the ongoing handwriting operation
  • trajectory of the said contact position according to information on the said display part may be provided.
  • the display control unit may erase the locus of the contact position displayed on the display unit when the determination unit determines the end of the handwriting operation.
  • generated in the period of the ongoing handwriting operation is displayed on the said display part, input of a character etc. by handwriting operation becomes easy. .
  • the locus of the contact position displayed on the display unit is erased, so that the end of the handwriting operation can be easily grasped.
  • the sensor unit may include a plurality of sensor elements provided at a plurality of locations on the input surface.
  • the sensor element may detect a change in capacitance according to a distance from the object.
  • the contact position on the input surface and the presence / absence of the object in the operation space are detected based on changes in the capacitance of the plurality of sensor elements. Therefore, the configuration is simplified compared to the case where independent sensors are used for these detections.
  • a second aspect of the present invention is an information input in a handwriting input device that inputs information according to the locus of the contact position of the object on the input surface when a handwriting operation is performed while moving the object in contact with the input surface.
  • the sensor detects the contact position of the object on the input surface and the presence or absence of the object in a predetermined operation space close to the input surface; Based on the result, after determining the start and end of a series of the handwriting operation and determining the start of the handwriting operation, if the sensor unit detects that the object is in the operation space, Determining that the handwriting operation is ongoing.
  • a third aspect of the present invention is a program for causing a computer to execute the information input method according to the second aspect.
  • the present invention it is possible to accurately determine that the handwriting operation is ongoing without performing a complicated operation such as pressing a button.
  • FIG. 2A shows a state during a handwriting operation
  • FIG. 2B shows a state at the end of the handwriting operation.
  • FIG. 2A shows a state during a handwriting operation
  • FIG. 2B shows a state at the end of the handwriting operation.
  • FIG. 2B shows the example of a series of handwriting operations in the handwriting input device which concerns on 1st Embodiment, and the example of a display of a display part, and is the figure seen from the direction parallel to an input surface.
  • FIG. 3A shows a state where the finger is in contact with the input surface
  • FIG. 3B shows a case where the finger is in the operation space away from the input surface
  • FIG. 3C shows a case where the finger is not in the operation space.
  • FIG. 5A shows a state during a handwriting operation
  • FIG. 5B shows a state at the end of the handwriting operation.
  • FIG. 6A shows a state where the finger is in contact with the input surface
  • FIG. 6B shows a case where the finger is in the operation space away from the input surface
  • FIG. 6C shows a case where the finger is not in the operation space.
  • FIG. 10A shows a state where the finger is in contact with the input surface
  • FIG. 10B shows a state where the finger moves out from the inside of the operation space to the left
  • FIG. 10C shows a state where the finger is outside the operation space. It shows the state that the input character has been confirmed.
  • FIG. 12A shows a state where the finger is in contact with the input surface
  • FIG. 12B shows a state where the finger is away from the input surface and is in the operation space
  • FIG. It shows a state of moving in the direction.
  • FIG. 13A shows a state in which the finger is moving rightward in the operation space away from the input surface
  • FIG. 13B shows a state in which the finger goes out of the operation space
  • FIG. It shows a state where the character of the input is confirmed by going out of the space.
  • FIG. 1 is a diagram illustrating an example of a configuration of a handwriting input device according to the first embodiment of the present invention.
  • the handwriting input device according to the present embodiment includes a sensor unit 10, a processing unit 20, a storage unit 30, a display unit 40, and an interface unit 50.
  • the handwriting input device according to the present embodiment when a handwriting operation of moving an object such as a finger or a pen in contact with the input surface 15 of the sensor unit 10 is performed, the handwriting input device according to the locus of the contact position of the object on the input surface 15 Enter information (characters, symbols, graphics, etc.).
  • a case where the object that contacts the input surface 15 in the handwriting operation is a finger will be described as an example, but a pen or other object may be used for the handwriting operation.
  • the sensor unit 10 can detect the contact position of the finger on the input surface 15 and the presence or absence of the finger in the predetermined operation space 100 close to the input surface 15.
  • a generation unit 13 and a drive unit 14 are included.
  • the sensor matrix 11 has a plurality of sensor elements 12 provided at a plurality of locations on the input surface 15. Each sensor element 12 detects a change in capacitance according to the distance from the finger.
  • the sensor matrix 11 includes a plurality of drive electrodes Lx extending in the vertical direction and a plurality of detection electrodes Ly extending in the horizontal direction.
  • the plurality of drive electrodes Lx are arranged in parallel in the horizontal direction, and the plurality of detection electrodes Ly are arranged in parallel in the vertical direction.
  • the plurality of drive electrodes Lx and the plurality of detection electrodes Ly intersect in a lattice pattern and are insulated from each other.
  • Sensor elements 12 are formed in the vicinity of the intersection of the drive electrode Lx and the detection electrode Ly, respectively.
  • the shape of the electrodes (Lx, Ly) is drawn in a strip shape, but other arbitrary shapes (such as a diamond pattern) may be used.
  • the driving unit 14 applies a driving voltage to each sensor element 12 of the sensor matrix 11.
  • the drive unit 14 selects one drive electrode Lx in order from the plurality of drive electrodes Lx under the control of the processing unit 20, and periodically changes the potential of the one drive electrode Lx.
  • the potential of the drive electrode Lx changes, the drive voltage applied to the sensor element 12 formed near the intersection of the drive electrode Lx and the detection electrode Ly changes, and the sensor element 12 is charged or discharged.
  • the detection signal generation unit 13 generates a detection signal corresponding to the charge transmitted in each detection electrode Ly when the sensor element 12 is charged or discharged with application of the drive voltage by the drive unit 14. That is, the detection signal generation unit 13 samples the charge transmitted through each detection electrode Ly at a timing synchronized with a periodic change in the drive voltage of the drive unit 14, and generates a detection signal according to the sampling result. To do.
  • the detection signal generation unit 13 converts a capacitance-voltage conversion circuit (CV conversion circuit) that outputs a voltage according to the capacitance of the sensor element 12 and the output signal of the CV conversion circuit into a digital signal,
  • An analog-digital conversion circuit (AD conversion circuit) that outputs a detection signal is included.
  • the detection signal generated by the detection signal generation unit 13 is a signal corresponding to the capacitance between the finger and the sensor element 12, and the signal level changes according to the distance of the finger from the input surface 15.
  • the detection signal generated by the detection signal generation unit 13 is relatively high in sensitivity, and the signal level is such that the distance between the input surface 15 and the finger can be determined in a state where the finger is separated from the input surface 15. Have Even in a state of being separated from the input surface 15, it is possible to obtain the coordinates of the proximity position of the finger on the input surface 15 from the detection signals obtained by the plurality of sensor elements 12.
  • the sensor unit 10 shown in the example of FIG. 1 detects the proximity of a finger by a change in capacitance (mutual capacitance) generated between electrodes (Lx, Ly), but is not limited to this example.
  • the proximity of the finger may be detected by various other methods.
  • the sensor unit 10 may be a system that detects a capacitance (self-capacitance) generated between the electrode and the ground due to the approach of a finger.
  • a drive voltage is applied to the detection electrode.
  • the sensor unit 10 is not limited to the electrostatic capacity method, and may be, for example, a resistance film method or an electromagnetic induction method.
  • the sensor unit 10 shown in the example of FIG. 1 uses a common sensor element 12 for detecting the contact position of the finger on the input surface 15 and detecting the presence or absence of the finger in the operation space 100.
  • An independent sensor may be used for detection.
  • an optical sensor such as an infrared sensor may be used to detect the presence or absence of a finger in the operation space 100.
  • the processing unit 20 is a circuit that controls the overall operation of the handwriting input device.
  • a computer that performs processing according to an instruction code of a program 31 stored in a storage unit 30 described later, or a logic that realizes a specific function It is configured including a circuit. All of the processing of the processing unit 20 may be realized by a computer and a program, or part or all of the processing may be realized by a dedicated logic circuit.
  • the processing unit 20 includes a sensor control unit 21, a coordinate / proximity calculation unit 22, a determination unit 23, a stroke information generation unit 24, a character recognition unit 25, and an input character determination unit 26.
  • the display control unit 27 is included.
  • the sensor control unit 21 controls the sensor unit 10 to perform a periodic detection operation in which a change in capacitance due to the proximity of a finger is detected every cycle in the plurality of sensor elements 12 distributed on the input surface 15. . Specifically, the sensor control unit 21 periodically selects the drive electrode and generation of the pulse voltage in the drive unit 14 and the detection electrode selection and detection signal generation in the detection signal generation unit 13 at appropriate timings. These circuits are controlled as done.
  • the coordinate / proximity calculation unit 22 calculates coordinates representing the position of the finger on the input surface 15 based on the detection signals of the plurality of sensor elements 12 periodically obtained by the control of the sensor control unit 21. The proximity according to the degree of proximity (distance) between the coordinates on the input surface 15 and the finger is calculated.
  • the determination unit 23 determines the start and end of a series of handwriting operations based on the detection result of the sensor unit 10. For example, the determination unit 23 compares the finger proximity calculated based on the detection signal of the sensor unit 10 in the coordinate / proximity calculation unit 22 with a predetermined threshold for contact determination, and based on the comparison result. Then, it is determined whether or not the finger is in contact with the input surface 15. When it is determined that the finger has touched the input surface 15 in a state where the start of the handwriting operation has not yet been determined since the end of the most recent handwriting operation (or when the system is started), the determination unit 23 determines that the handwriting operation is a new one. It is determined that it has started.
  • the determination unit 23 determines that the handwriting operation is ongoing if the sensor unit 10 detects that there is a finger in the operation space 100, and the sensor unit 10 performs the operation. If it is detected that there is no finger in the space 100, it is determined that the handwriting operation has ended.
  • the determination unit 23 compares the finger proximity calculated by the coordinate / proximity calculation unit 22 based on the detection signal of the sensor unit 10 with a predetermined threshold for distance determination, and based on the comparison result. Then, it is determined whether or not the finger is within a predetermined distance Lh (for example, within 3 cm) from the input surface 15. In this case, a space within a predetermined distance Lh from the input surface 15 corresponds to the operation space 100. When the finger is within the predetermined distance Lh, the determination unit 23 determines that the handwriting operation is ongoing. When the distance between the finger and the input surface 15 exceeds the predetermined distance Lh, the determination unit 23 determines that the handwriting operation has ended.
  • a predetermined distance Lh for example, within 3 cm
  • the stroke information generation unit 24 generates stroke information corresponding to the trajectory of the contact position of the finger detected by the sensor unit 10 during the period of the handwriting operation whose start is determined by the determination unit 23. For example, the stroke information generation unit 24 contacts the input surface 15 in the determination unit 23 among a series of finger coordinates periodically calculated based on the detection signal of the sensor unit 10 in the coordinate / proximity calculation unit 22. Stroke information is generated using the coordinates of the finger when it is determined that the finger is present.
  • the character recognition unit 25 recognizes the character represented by the locus of the finger contact position on the input surface 15 based on the stroke information generated by the stroke information generation unit 24. For example, the character recognition unit 25 recognizes individual characters based on the stroke information and recognizes a collection (words) of characters estimated from an array of a plurality of characters. Note that the characters herein may include various symbols and figures that can be used for information transmission as a language.
  • the input character determination unit 26 is based on the recognition result of the character recognition unit 25 based on the stroke information generated by the stroke information generation unit 24 during the period of the handwriting operation.
  • the character input by this handwriting operation is confirmed. For example, when a plurality of input candidate characters (including a collection of characters) are recognized by the character recognition unit 25, the input character determination unit 26 selects the character with the highest estimation order in the character recognition unit 25 by handwriting operation. Confirm as input characters.
  • the display control unit 27 performs control related to video display on the display unit 40.
  • the display control unit 27 displays the locus of the finger contact position according to the stroke information in the handwriting operation display area 46 of the display unit 40.
  • the display control unit 27 erases the locus of the contact position of the finger displayed in the handwriting operation display area 46 of the display unit 40 and confirms it by the input character determination unit 26.
  • the displayed characters are displayed in the input result display area 47 of the display unit 40.
  • the storage unit 30 stores constant data and variable data used for processing in the processing unit 20.
  • the storage unit 30 may store a program 31 executed on the computer.
  • the storage unit 30 includes, for example, a volatile memory such as a DRAM or SRAM, a nonvolatile memory such as a flash memory, a hard disk, or the like.
  • Display unit 40 This is a device that displays a video corresponding to a video signal output from the processing unit 20, and includes, for example, a liquid crystal display or an organic EL display.
  • the display unit 40 may be configured as a touch panel integrated with the sensor unit 10.
  • the interface unit 50 is a circuit for exchanging data between the handwriting input device and another device (such as a control IC of an information device equipped with the handwriting input device).
  • the processing unit 20 outputs information stored in the storage unit 30 from the interface unit 40 to a control device (not shown). Further, the interface unit 40 may acquire the program 31 recorded on a non-transitory tangible medium (DVD or the like) from a reading device (disk drive device or the like) (not shown) and write it in the storage unit 30. Alternatively, the program 31 may be downloaded from a server (not shown) and written in the storage unit 30.
  • DVD non-transitory tangible medium
  • FIGS. 2 and 3 are diagrams illustrating an example of a series of handwriting operations and a display example of the display unit 40 in the handwriting input device according to the first embodiment.
  • 2 is a diagram viewed from a direction perpendicular to the input surface
  • FIG. 3 is a diagram viewed from a direction parallel to the input surface 15.
  • the contact position of the finger 5 on the input surface 15 is displayed in the handwriting operation display area 46 of the display unit 40 as shown in FIGS. 2A and 3A.
  • a line corresponding to the locus (dotted line on the input surface 15) is displayed.
  • the determination unit 23 determines that the handwriting operation is continuing. In this case, the locus of the contact position of the finger 5 continues to be displayed in the handwriting operation display area 46.
  • the determination unit 23 determines that the handwriting operation has ended. In this case, as shown in FIGS. 2B and 3C, the locus of the contact position of the finger 5 in the handwriting operation display area 46 is deleted, and the character “ABC” determined by the input character determination unit 26 is displayed in the input result display area 47. Is displayed.
  • FIG. 4 is a flowchart for explaining the operation of the handwriting input device according to the first embodiment.
  • step ST100 In the initial state, the determination unit 23 sets “0” to the flag Fg indicating the state of the handwriting operation.
  • a flag Fg of “0” represents a “waiting operation” state, and a flag Fg of “1” represents a state of “in operation”.
  • step ST100 the process proceeds to step ST105.
  • the determination part 23 determines the state of handwriting operation based on the flag Fg. When in the “waiting for operation” state (when the flag Fg is “0”), the process proceeds to step ST110. When in the “in operation” state (when the flag Fg is “1”), the process proceeds to step ST120. To do.
  • the determination unit 23 determines whether there is a finger touching the input surface 15 based on the detection signal output from the sensor unit 10 (ST110). That is, when the coordinate of the finger is calculated by the coordinate / proximity calculation unit 22 based on the detection signal output from the sensor unit 10, the determination unit 23 calculates the proximity calculated for the finger and the threshold for contact determination. The value is compared, and it is determined whether or not the finger is in contact with the input surface 15 based on the result of the comparison. The determination unit 23 sets “1” to the flag Fg when the finger is in contact with the input surface 15 (ST115), and maintains the value of the flag Fg when the finger is not in contact with the input surface 15.
  • the determination unit 23 determines whether or not a finger is in contact with the input surface 15 based on a detection signal output from the sensor unit 10. That is, the determination unit 23 compares the finger proximity calculated by the coordinate / proximity calculation unit 22 with a threshold for contact determination, and the finger touches the input surface 15 based on the comparison result. It is determined whether or not (ST120).
  • the stroke information generation unit 24 acquires the coordinates calculated by the coordinate / proximity calculation unit 22 as the coordinates of the contact position of the finger and stores them in the storage unit 30.
  • the stroke information generation unit 24 generates stroke information representing the locus of the finger contact position based on the coordinates of the finger contact position acquired from the start of the current handwriting operation period (ST125).
  • the display control unit 27 displays the locus of the finger contact position according to the generated stroke information in the handwriting operation display area 46 of the display unit 40 (FIGS. 2A and 3A). If the finger is not in contact with the input surface 15, the process proceeds to step ST130.
  • ST130, ST135 If the finger is not in contact with the input surface 15 in the “in operation” state, the determination unit 23 compares the finger proximity calculated by the coordinate / proximity calculation unit 22 with a distance determination threshold value. Then, based on the comparison result, it is determined whether or not the finger is within the distance Lh from the input surface 15 (ST130). If the finger is within the distance Lh from the input surface 15, the determination unit 23 determines that the handwriting operation is continuing, and the stroke information generation unit 24 holds the stroke information (ST135). In this case, the display control unit 27 continues to display the locus of the finger contact position in the handwriting operation display area 46. When the finger and the input surface 15 are separated from the distance Lh, the process proceeds to steps ST140 and ST145.
  • ST140, ST145 When the finger and the input surface 15 are separated from the distance Lh, the determination unit 23 determines that the handwriting operation has ended, and sets “0” to the flag Fg (ST140).
  • the character recognition unit 25 recognizes the character represented by the locus of the contact position of the finger based on the stroke information generated during the period of the completed handwriting operation.
  • Input character determination unit 26 determines the character recognized by character recognition unit 25 as the character input by the handwriting operation (ST145).
  • the display control unit 27 erases the trajectory of the finger contact position displayed in the handwriting operation display area 46 of the display unit 40 and displays the characters determined by the input character determination unit 26 in the input result display area 47 of the display unit 40. (FIGS. 2B and 3C).
  • processing unit 20 determines whether or not to end handwriting input (ST150).
  • the processing unit 20 is a predetermined command that instructs the end of the handwriting input process when a command for instructing the end of the handwriting input process is input in the interface unit 50 or in an input operation device (keyboard, mouse, button, etc.) (not shown). If an operation has been performed, the process ends. When continuing a handwriting input process, the process part 20 returns to step ST105, and performs the above-mentioned process again.
  • the finger when the finger is separated from the input surface 15, it is possible to accurately determine that the handwriting operation is continuing only by positioning the finger in the operation space 100. This eliminates the need for complicated operations such as pressing a button to indicate that the handwriting operation is ongoing.
  • positioning a finger away from the input surface 15 in the operation space 100 is a natural operation in handwriting operation, the natural operation is less likely to be inhibited compared to pressing a button or the like. Therefore, the operability can be greatly improved.
  • the end of the handwriting operation is accurately completed only by moving the finger from the inside of the operation space 100 to the outside (by simply moving the finger away from the input surface 15 beyond the predetermined distance Lh). Judgment can be made and the characters input by handwriting can be confirmed. Therefore, compared with the case where the button press or the like is used for determining the end of the handwriting operation, the natural operation of the handwriting operation is less likely to be hindered, and the operability can be further improved.
  • the present embodiment there is no need to wait for the time measured by the timer for determining the end of the handwriting operation.
  • the user When determining the end of the handwriting operation using the timer, the user must wait several seconds for the character recognition to start with the pen floating from the input surface after the handwriting operation is finished. Therefore, it is difficult to input a plurality of characters smoothly.
  • a plurality of characters can be input continuously and smoothly.
  • the handwriting operation is automatically determined to end as long as the finger is positioned in the operation space 100. There is no. Therefore, it is possible to make it difficult for erroneous input to occur due to the end of the handwriting operation at an unintended timing.
  • the trajectory of the finger contact position according to the stroke information is displayed in the handwriting operation display area 46 of the display unit 40, and the character by the handwriting operation is displayed. Etc. can be input easily.
  • the end of the handwriting operation is determined, the locus of the finger contact position displayed in the handwriting operation display area 46 of the display unit 40 is deleted, so that the end of the handwriting operation can be easily grasped.
  • the contact position of the finger on the input surface 15 and the presence / absence of the finger in the operation space 100 are both detected based on the change in capacitance in the sensor element 12. Therefore, the configuration can be simplified compared to the case where independent sensors are used for these detections.
  • the handwriting input device according to the present embodiment is obtained by changing the operation of the determination unit 23 in the handwriting input device according to the first embodiment, and the overall configuration of the device is the same as that of the handwriting input device shown in FIG. is there.
  • the determination unit 23 After determining the start of the handwriting operation, the determination unit 23 according to the present embodiment detects that the proximity position of the finger is outside the predetermined operation area 16 on the input surface 15 in the sensor unit 10. It is determined that the operation has been completed.
  • the “finger proximity position” indicates a position on the input surface 15 where the finger is closest to the finger when the finger is separated from the input surface 15.
  • the coordinate / proximity calculation unit 22 is separated from the input surface 15 among the finger coordinates calculated based on the detection signal of the sensor unit 10. The coordinates of the determined finger are monitored, and it is determined whether or not the coordinates have moved out of the predetermined operation area 16 on the input surface 15.
  • the determination unit 23 determines that the handwriting operation has ended.
  • Other operations of the determination unit 23 are the same as those of the determination unit 23 of the first embodiment already described.
  • 5 and 6 are diagrams showing an example of a series of handwriting operations and a display example of the display unit 40 in the handwriting input device according to the second embodiment.
  • 5 is a diagram viewed from a direction perpendicular to the input surface
  • FIG. 6 is a diagram viewed from a direction parallel to the input surface 15.
  • an operation area 16 for handwriting operation is set on the input surface 15.
  • the handwriting operation for moving the finger 5 in contact with the input surface 15 is performed inside the operation area 16.
  • the handwriting operation display area 46 of the display unit 40 corresponds to the locus of the contact position of the finger 5 on the input surface 15 (dotted line on the input surface 15). A line appears.
  • a space within a distance Lh from the operation area 16 on the input surface 15 is the operation space 100. Even if the finger 5 is separated from the input surface 15, if the finger 5 is inside the operation space 100 as shown in FIG. 6B, the determination unit 23 determines that the handwriting operation is continuing. On the other hand, as shown in FIG. 6C, when the proximity position of the finger 5 goes out of the operation area 16, the finger 5 remains in the operation space 100 even if the separation distance between the input surface 15 and the finger 5 is within the distance Lh. Since it goes out, the determination part 23 determines with the handwriting operation having been complete
  • FIG. 7 is a flowchart for explaining the operation of the handwriting input device according to the second embodiment.
  • the flowchart shown in FIG. 7 is obtained by adding step ST131 between step ST130 and step ST135 in the flowchart shown in FIG. 4, and the other steps are the same as the flowchart shown in FIG. Here, only the part to which the process is added will be described.
  • the determination unit 23 compares the finger proximity calculated by the coordinate / proximity calculation unit 22 with a distance determination threshold value. Then, based on the comparison result, it is determined whether or not the finger is within the distance Lh from the input surface 15 (ST130). Further, the determination unit 23 determines whether or not the coordinates of the proximity position of the finger determined to be separated from the input surface 15 are within the operation region 16 on the input surface 15 (ST131). When the finger is within the distance Lh from the input surface 15 and the proximity position of the finger is within the operation area 16, the determination unit 23 determines that the handwriting operation is ongoing, and the stroke information generation unit 24 holds the stroke information.
  • step 135 the display control unit 27 continues to display the locus of the finger contact position in the handwriting operation display area 46. If the finger and the input surface 15 are separated from each other by the distance Lh, or the coordinates of the proximity position of the finger are not in the operation area 16, the process proceeds to steps ST140 and ST145.
  • the end of the handwriting operation can be accurately determined only by moving the finger so that the proximity position of the finger on the input surface 15 goes out of the operation area 16. At the same time, the characters input by handwriting can be confirmed. Therefore, compared to the case where the button press or the like is used for the end determination of the handwriting operation, it is closer to the natural operation of the handwriting operation, so that the operability of the handwriting operation can be greatly improved.
  • whether or not the distance between the finger and the operation area 16 is within the distance Lh, and whether or not the proximity position of the finger is within the operation area 16 is a condition for ending the handwriting operation.
  • the former condition may be omitted.
  • the handwriting input device according to the present embodiment is obtained by changing the operation of the determination unit 23 in the handwriting input device according to the first embodiment or the second embodiment, and the overall configuration of the device is the embodiment. It is the same as that of the handwriting input device concerning.
  • the determination unit 23 in the present embodiment determines that the handwriting operation has ended if the sensor unit 10 continuously detects that there is no finger in the operation space 100 for a predetermined time or more. To do. Even if the finger goes outside the operation space 100, if the finger returns to the operation space 100 before the predetermined time has elapsed, the determination unit 23 determines that the handwriting operation is ongoing. Other operations of the determination unit 23 are the same as those of the determination unit 23 of each embodiment described above.
  • FIGS. 8 and 9 are flowcharts for explaining the operation of the handwriting input device according to the third embodiment.
  • the flowcharts shown in FIGS. 8 and 9 are obtained by adding steps ST119, ST126, ST136, ST139, and ST146 to the flowchart shown in FIG. 7, and other steps are the same as the flowchart shown in FIG. Here, only the part to which the process is added will be described.
  • the determination unit 23 starts timing by a timer (ST119). For example, the determination unit 23 counts the number of clock pulses generated at a constant period as a time value. If the timer has already timed, the determination unit 23 continues to time.
  • the determination unit 23 When determining that the finger is in contact with the input surface 15 with the flag Fg being “operating” (ST120), the determination unit 23 stops the time measurement and resets the time measurement value (ST126). Further, the determination unit 23 determines that the finger is located in the operation space 100 even when the flag Fg is “operating” and the finger is not in contact with the input surface 15 (ST120). (ST130, ST131), the time measurement is stopped and the time measurement value is reset (ST136).
  • Determination unit 23 determines that the finger is not touching input surface 15 with flag Fg being “operating” (ST120) and that the finger is not located in operation space 100 (ST130). , ST131), it is determined whether or not the measured value of the timer has reached a predetermined time (ST139). If the time value of the timer has reached the predetermined time, the determination unit 23 determines that the handwriting operation has ended, and sets “0” to the flag Fg (ST140). When the handwriting operation ends, the character recognition unit 25 performs character recognition based on the stroke information, and the input character determination unit 26 determines the character recognized by the character recognition unit 25 as an input character by the handwriting operation (ST145). .
  • the determination part 23 stops timekeeping, and resets a timekeeping value (ST146). On the other hand, if the time value of the timer has not reached the predetermined time, the process proceeds to step ST150, and if the handwriting input process is ongoing, the process returns to step ST105 and the same process is performed.
  • FIGS. 8 and 9 are the flowcharts of the second embodiment shown in FIG. 7 with the addition of the timer timing processing of the determination unit 23, but the flowcharts of the first embodiment shown in FIG. A similar timing process may be added.
  • the handwriting input device is an operation of the character recognition unit 25, the input character determination unit 26, and the display control unit 27 in the handwriting input device according to the first embodiment, the second embodiment, or the third embodiment.
  • the overall configuration of the apparatus is the same as that of the handwriting input apparatus according to these embodiments.
  • the character recognition unit 25 in this embodiment recognizes a plurality of input candidate characters (including a collection of characters) based on the stroke information.
  • the character recognition unit 25 performs character recognition each time stroke information is generated / updated during a period of handwriting operation. Other operations of the character recognition unit 25 are the same as those of the character recognition unit 25 of each embodiment described above.
  • the display control unit 27 in the present embodiment recognizes the plurality of characters recognized by the character recognition unit 25 from the stroke information generated during the period of the ongoing handwriting operation. Are displayed in the input candidate display area 48 of the display unit 40. For example, as shown in FIG. 10 to be described later, the display control unit 27 arranges a plurality of input candidate display areas 48 around the handwriting operation display area 46 and displays input candidate characters in each input candidate display area 48. .
  • Other operations of the display control unit 27 are the same as those of the display control unit 27 of each embodiment described above.
  • the input character determination unit 26 in the present embodiment displays the input candidate display area 48 of the display unit 40 based on the direction in which the proximity position of the finger on the input surface 15 moves when the finger goes out of the operation space 100.
  • the character input by handwriting operation is determined from the plurality of input candidate characters.
  • the input character determination unit 26 determines the proximity position of the finger based on the series of proximity position coordinates calculated by the coordinate / proximity calculation unit 22 before and after the finger leaves the operation space 100. Determine the direction of movement.
  • the plurality of movement directions that can be determined by the input character determination unit 26 correspond one-to-one with the plurality of input candidate display areas 48 arranged around the handwriting operation display area 46.
  • the input character determination unit 26 determines that the proximity position of the finger has moved in one movement direction when the finger goes out of the operation space 100, one input candidate display area corresponding to the one movement direction
  • the input candidate character displayed in 48 is determined as a character input by handwriting operation.
  • FIG. 10 is a diagram illustrating an example of a series of handwriting operations and a display example of the display unit in the handwriting input device according to the fourth embodiment, and is a diagram viewed from obliquely above the input surface.
  • 10A shows a state in which the finger 5 is in contact with the input surface 15
  • FIG. 10B shows a state in which the finger 5 moves out from the inside of the operation space 100 to the left
  • FIG. A state in which the character that has been input outside the operation space 100 is confirmed is shown.
  • the handwriting operation display area 46 is a rectangular area, and input candidate display areas 48 are arranged on the four sides thereof.
  • stroke information representing the locus of the contact position of the finger 5 is generated / updated by the stroke information generation unit 24
  • four input candidate characters corresponding to the stroke information are recognized at any time by the character recognition unit 25, and the display unit 40 are displayed in the four input candidate display areas 48.
  • the input character determination unit 26 determines that the moving direction of the proximity position of the finger 5 is left.
  • the input candidate character “work” displayed in the input candidate display area 48 on the left side of the screen 45 is determined as a character input by handwriting operation.
  • the confirmed character moves to the input result display area 47 as shown in FIG. 10C.
  • the display of the handwriting operation display area 46 and the input candidate display area 48 are all erased, and a state of waiting for the next handwriting operation is entered.
  • FIG. 11 is a flowchart for explaining the operation of the handwriting input device according to the fourth embodiment.
  • the flowchart shown in FIG. 11 is obtained by replacing step ST145 in the flowchart shown in FIG. 7 with steps ST141 and ST142 and adding step ST127, and other steps are the same as the flowchart shown in FIG.
  • steps ST141 and ST142 and adding step ST127 are the same as the flowchart shown in FIG.
  • only the part in which the process is changed / added will be described.
  • the stroke information generation unit 24 calculates the coordinates of the finger in contact calculated by the coordinate / proximity calculation unit 22. Acquire and generate / update stroke information (ST125).
  • the character recognition unit 25 recognizes a plurality of input candidate characters based on the generated and updated stroke information (ST127).
  • the character recognition unit 25 performs character recognition processing each time stroke information is generated / updated in the process of handwriting operation.
  • the determination unit 23 It is determined that the handwriting operation has ended, and “0” is set to the flag Fg (ST140).
  • the input character determination unit 26 determines the proximity position of the finger based on the coordinates of the proximity position of the finger calculated by the coordinate / proximity calculation unit 22 before and after the finger goes out of the operation space 100.
  • the moving direction is determined (ST141).
  • the input character determination unit 26 inputs the input candidate characters displayed in the input candidate display region 48 corresponding to the movement direction determined in step ST141 among the plurality of input candidate display regions 48 of the display unit 40 by handwriting operation.
  • the input character determination unit 26 determines whether the moving direction of the proximity position of the finger is leftward, rightward, upward, or downward, and based on the determination result,
  • the input candidate characters displayed in the input candidate display region 48 located on any of the left side, the right side, the upper side, and the lower side of the handwriting operation display region 46 are determined as characters input by the handwriting operation.
  • a plurality of inputs displayed on the display unit 10 can be simply adjusted by appropriately adjusting the moving direction when the finger goes out of the operation space 100. From the candidate characters, the characters input by handwriting operation can be easily determined. Therefore, it is possible to input characters by handwriting more smoothly than in the case where a complicated operation such as a button operation is performed to select a target character from a plurality of input candidate characters.
  • the handwriting input device is an operation of the character recognition unit 25, the input character determination unit 26, and the display control unit 27 in the handwriting input device according to the first embodiment, the second embodiment, or the third embodiment.
  • the overall configuration of the apparatus is the same as that of the handwriting input apparatus according to these embodiments.
  • the character recognition unit 25 in this embodiment recognizes a plurality of input candidate characters (including a collection of characters) based on the stroke information.
  • the character recognition unit 25 performs character recognition each time stroke information is generated / updated during a period of handwriting operation. Other operations of the character recognition unit 25 are the same as those of the character recognition unit 25 of each embodiment described above.
  • the display control unit 27 in the present embodiment recognizes the plurality of characters recognized by the character recognition unit 25 from the stroke information generated during the period of the ongoing handwriting operation. Are displayed in the input candidate display area 49 of the display unit 40. For example, as shown in FIGS. 12 and 13 to be described later, the display control unit 27 arranges a plurality of input candidate display areas 49 side by side in one direction, and displays input candidate characters in each input candidate display area 49.
  • the display control unit 27 displays a highlight indicating that the one input candidate character is being selected on the display unit 40. Do. For example, the display control unit 27 changes the frame, background color, brightness, shape, etc. of the input candidate display area 49, changes the color, thickness, font, etc. of the input candidate character, and indicates that the input candidate is being selected. Highlighting is performed by adding a graphic image. Other operations of the display control unit 27 are the same as those of the display control unit 27 of each embodiment described above.
  • the input character determination unit 26 is based on the movement pattern of the proximity position of the finger and the input candidate display area 49 of the display unit 40.
  • One input candidate character is selected from the plurality of input candidate characters displayed on the screen.
  • the input character determination unit 26 determines the proximity position of the finger based on the series of proximity position coordinates calculated by the coordinate / proximity calculation unit 22 when the finger away from the input surface 15 is in the operation space 100. The moving direction, speed, etc. are calculated. The input character determination unit 26 determines which of a plurality of predetermined movement patterns the movement pattern of the proximity position of the finger corresponds to the calculated movement direction, speed, and the like.
  • the plurality of movement patterns that can be determined by the input character determination unit 26 are associated with a plurality of methods for switching the selection target from one input candidate character to another input candidate character.
  • each of the plurality of input candidate characters recognized by the character recognition unit 25 has a character recognition estimation order, and some movement patterns are associated with a method of switching a selection target based on this order. .
  • different movement patterns are associated with the method of switching the selection target so as to drop the ranking one by one, the method of switching the selection target so as to increase the ranking one by one, and the like.
  • the input character determination unit 26 determines that the movement pattern of the proximity position of the finger matches one movement pattern in a plurality of predetermined movement patterns, the input character determination unit 26 selects the selection object according to the selection target switching method associated with the one movement pattern. Switch the selection target from the input candidate characters to the other input candidate characters.
  • the input character determination unit 26 may select a specific input candidate character from a plurality of input candidate characters immediately after the finger is removed from the input surface 15. For example, the input character determination unit 26 may select the input candidate character having the highest character recognition estimation order in the character recognition unit 25 immediately after the finger is removed from the input surface 15.
  • the input character determination unit 23 determines that the selected input candidate character is input by the handwriting operation. Determine.
  • FIGS. 12 and 13 are diagrams showing an example of a series of handwriting operations and a display example of the display unit in the handwriting input device according to the fifth embodiment, and are views seen obliquely from above with respect to the input surface.
  • FIG. 12A shows a state where the finger 5 is in contact with the input surface 15.
  • FIG. 12B shows a state where the finger 5 is in the operation space 100 away from the input surface 15.
  • FIG. 12C shows a state in which the finger 5 is moving away from the input surface 15 in the operation space 100 in the right direction.
  • FIG. 13A shows a state in which the finger 5 has moved away from the input surface 15 and moved further to the right in the operation space 100.
  • FIG. 13B shows a state where the finger 5 goes out from the inside of the operation space 100.
  • FIG. 13C shows a state in which the finger 5 goes out of the operation space 100 and the input character is confirmed.
  • the input candidate character 26 selects the input candidate character having the highest character recognition estimation order in the character recognition unit 25.
  • the left input candidate character is the highest ranking, and the ranking becomes lower as going to the right. Accordingly, as shown in FIG. 12B, immediately after the finger 5 is separated from the input surface 15, highlighting is performed in the leftmost input candidate display area 49.
  • the lateral movement of the proximity position of the finger 5 is determined as a movement pattern.
  • the proximity position of the finger 5 on the input surface 15 also moves to the right. Determined as “right”.
  • the movement pattern in the “right direction” is associated with a method of switching the selection target so that the character recognition estimation order in the character recognition unit 25 is lowered one by one. Therefore, the selection of the input candidate character on the screen 45 of the display unit 40 also moves to the right. That is, the highlighted display in the four input candidate display areas 49 moves to the right.
  • the “rightward” movement pattern is determined twice in succession.
  • the displayed input candidate display area 49 moves third from the left.
  • the “leftward” movement pattern is associated with a method of switching the selection target so that the character recognition estimation order in the character recognition unit 25 is increased by one. Therefore, if the movement pattern is determined to be “leftward”, the input candidate display area 49 to be highlighted moves to the left, contrary to the above.
  • the characters displayed in the highlighted input candidate display area 49 are characters input by handwriting operation.
  • the display of the handwriting operation display area 46 and the input candidate display area 49 are all erased, and the next handwriting operation is waited.
  • FIG. 14 is a flowchart for explaining the operation of the handwriting input device according to the fifth embodiment.
  • the flowchart shown in FIG. 14 is obtained by replacing step ST145 in the flowchart shown in FIG. 7 with step ST143 and adding steps ST127 and ST137, and other steps are the same as the flowchart shown in FIG.
  • step ST145 in the flowchart shown in FIG. 7
  • step ST143 adding steps ST127 and ST137
  • other steps are the same as the flowchart shown in FIG.
  • only the part in which the process is changed / added will be described.
  • the stroke information generation unit 24 calculates the coordinates of the finger in contact calculated by the coordinate / proximity calculation unit 22. Acquire and generate / update stroke information (ST125).
  • the character recognition unit 25 recognizes a plurality of input candidate characters based on the generated and updated stroke information (ST127).
  • the character recognition unit 25 performs character recognition processing each time stroke information is generated / updated in the process of handwriting operation.
  • the input character determination unit 26 Determines the movement pattern of the proximity position of the finger based on the series of proximity position coordinates calculated by the coordinate / proximity calculation unit 22. If the input character determination unit 26 determines that the movement pattern of the proximity position of the finger matches one movement pattern in a plurality of predetermined movement patterns, the input character display area of the display unit 40 is determined based on the one movement pattern. One input candidate character is selected from the plurality of input candidate characters displayed in 49 (ST137). The display control unit 27 highlights the input candidate character selected by the input character determination unit 26 on the display unit 40. When the movement pattern is not determined (when the finger is not moved or when the finger is moved little), the input character determination unit 26 continues to select the input candidate character currently selected.
  • the determination unit 23 It is determined that the handwriting operation has ended, and “0” is set to the flag Fg (ST140).
  • the input character determination unit 26 determines the input candidate character being selected at this time as a character input by handwriting operation (ST143).
  • the present embodiment it is possible to start from a plurality of input candidate characters displayed on the display unit 40 by simply moving a finger within the operation space 100 so as to be determined as a predetermined movement pattern.
  • One input candidate character can be selected.
  • one input candidate character can be easily selected from a plurality of input candidate characters without performing a complicated operation such as pressing a button, the operability can be greatly improved.
  • the display unit 40 when one input candidate character is selected, the display unit 40 performs highlighting indicating that the one input candidate character is being selected. Thereby, since it becomes easy to confirm the selection result of the character of an input candidate, the character input by handwriting operation can be performed smoothly.
  • the input surface 15 of the sensor unit 10 and the screen 45 of the display unit 40 are provided independently, but the present invention is not limited to this.
  • a device such as a touch panel in which the input surface of the sensor unit and the screen of the display unit are integrated may be used.
  • DESCRIPTION OF SYMBOLS 10 ... Sensor part, 11 ... Sensor matrix, 12 ... Sensor element, 13 ... Detection signal generation part, 14 ... Drive part, 15 ... Input surface, 16 ... Operation area, 20 ... Processing part, 21 ... Sensor control part, 22 ... Coordinate / proximity calculation unit, 23 ... determination unit, 24 ... stroke information generation unit, 25 ... character recognition unit, 26 ... input character determination unit, 27 ... display control unit, 30 ... storage unit, 40 ... display unit, 45 ... Screen, 46 ... handwritten operation display area, 47 ... input result display area, 48 ... input candidate display area, 49 ... input candidate display area, 50 ... interface section, 100 ... operation space

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

手書き入力装置は、入力面15における指5の接触位置、及び、入力面15に近接する操作空間100における指5の有無を検出可能なセンサ部10と、センサ部10の検出結果に基づいて、一連の手書き操作の開始と終了を判定する判定部23とを備える。判定部22は、手書き操作の開始を判定した後、センサ部10において操作空間100に指5があることが検出されたならば、当該手書き操作が継続中であると判定し、センサ部10において操作空間100に指5がないことが検出されたならば、当該手書き操作が終了したと判定する。

Description

手書き入力装置、情報入力方法及びプログラム
 本発明は、指やペンなどをセンサの入力面に接触させて移動する手書き操作により、接触位置の軌跡が表す文字等の情報を入力する手書き入力装置に関するものである。
 スマートフォンやタブレット等の携帯機器ではタッチパネルによる入力が一般的になっており、手書き操作による文字の入力が可能な機器も多い。しかしながら、文字の入力方法の主流はフリック入力やキーボードによる入力であり、手書き操作による入力は一般的でないのが現状である。
 手書き操作による文字入力の不便な点の一つに、手書き操作が継続中か否かを何らかの方法で判定しなければならない、という点がある。タッチセンサの入力面におけるペンの接触の有無だけでは、「手書き操作の終了によってペンが入力面から離れた」のか、又は「手書き操作の途中でペンが一時的に入力面から離れた」のかを区別できない。
 手書き操作が継続中か否かを判定するために、タイマを利用する方法が一般に知られている。この方法では、手書き操作中にペンの接触が検出されなくなった時間がタイマによって計時される。計時時間が一定時間内であれば、手書き操作が継続中と判定され、再度ペンを接触させることで手書き操作が続行される。一方、計時時間が一定時間を超えた場合、手書き操作が終了したと判定される。
 下記の特許文献1に記載される手書き入力文字認識方法では、このようなタイマによる自動的な手書き操作の終了を一時的に停止することができる。例えば文字を思い出しながら書いていると、手書き操作の途中でペンが入力面から離れた状態が続くことがある。このような場合、特許文献1の方法によれば、自動的な手書き操作の終了機能を一時的に停止させることで、意図せぬ状態で手書き操作が終了することが生じ難くなるため、文字の誤認識が防止され易くなる。
特開平5-274477号公報
 しかしながら、上記特許文献1の方法では、自動的な手書き操作の終了機能を一時的に停止させるために、手書き操作とは別の操作(ボタン操作など)を頻繁に行う必要がある。すなわち、手書き操作以外の煩雑な操作を行わなくてはならないため、操作性が低下するという問題がある。
 本発明はかかる事情に鑑みてなされたものであり、その目的は、煩雑な操作を行わなくても手書き操作が継続中であることを的確に判定できる手書き入力装置、情報入力方法及びプログラムを提供することにある。
 本発明の第1の観点は、入力面に物体を接触させながら移動する手書き操作が行われると、前記入力面における前記物体の接触位置の軌跡に応じた情報を入力する手書き入力装置に関する。この第1の観点に係る手書き入力装置は、前記入力面における前記物体の接触位置、及び、前記入力面に近接する所定の操作空間における前記物体の有無を検出可能なセンサ部と、前記センサ部の検出結果に基づいて、一連の前記手書き操作の開始と終了を判定する判定部とを備える。前記判定部は、前記手書き操作の開始を判定した後、前記センサ部において前記操作空間に前記物体があることが検出されたならば、当該手書き操作が継続中であると判定する。
 上記の構成によれば、前記入力面から物体(指やペン等)が離れた場合、ボタンの押下等の煩雑な操作を行わなくても、前記操作空間内に指やペン等を位置させるだけで、手書き操作が継続中であることが的確に判定される。
 好適に、前記判定部は、前記手書き操作の開始を判定した後、前記センサ部において前記操作空間に前記物体がないことが検出されたならば、当該手書き操作が終了したと判定してよい。
 上記の構成によれば、ボタンの押下等の煩雑な操作を行わなくても、前記操作空間の内から外へ指やペン等を移動させるだけで、手書き操作の終了が的確に判定される。手書き操作の終了判定のためにタイマの計時時間を待つ必要がないため、手書き操作による円滑な情報の入力が可能となる。前記操作空間内に指やペン等を位置させる限り、手書き操作が終了したと判定されないため、意図しないタイミングで手書き操作の終了が判定されることによる誤った情報の入力が生じ難くなる。
 好適に、前記判定部は、前記手書き操作の開始を判定した後、前記センサ部において前記操作空間に前記物体がないことが所定時間以上継続して検出されたならば、当該手書き操作が終了したと判定してよい。
 上記の構成によれば、意図せず一時的に前記操作空間の外側へ指やペン等が出てしまった場合でも、その時間が前記所定時間より短ければ、手書き操作の終了と判定されなくなる。そのため、意図しないタイミングで手書き操作の終了が判定されることによる誤った情報の入力が更に生じ難くなる。
 好適に、前記センサ部は、前記入力面からの前記物体の距離に応じた検出信号を出力してよい。前記判定部は、前記手書き操作の開始を判定した後、前記センサ部から出力される検出信号が示す前記入力面からの前記物体の距離が所定の距離を超えた場合、当該手書き操作が終了したと判定してよい。
 上記の構成によれば、ボタンの押下等の煩雑な操作を行わなくても、指やペン等を前記入力面から前記所定の距離より遠くに離間させるだけで、手書き操作の終了が的確に判定される。
 好適に、前記センサ部は、前記物体が前記入力面から離間した状態において、前記入力面上における前記物体の近接位置を検出可能でよい。前記判定部は、前記手書き操作の開始を判定した後、前記センサ部において前記近接位置が前記入力面上の所定の操作領域の外にあることが検出された場合、当該手書き操作が終了したと判定してよい。
 上記の構成によれば、ボタンの押下等の煩雑な操作を行わなくても、前記入力面における前記近接位置が前記操作領域の内から外へ出るように指やペン等を移動させるだけで、手書き操作の終了が的確に判定される。
 好適に、上記第1の観点に係る手書き入力装置は、前記判定部によって開始が判定された前記手書き操作の期間に前記センサ部で検出される前記接触位置の軌跡に応じたストローク情報を生成するストローク情報生成部と、前記ストローク情報に基づいて、前記接触位置の軌跡が表す文字を認識する文字認識部と、前記手書き操作の終了が判定され場合、当該手書き操作の期間に生成された前記ストローク情報による前記文字認識部の認識結果に基づいて、当該手書き操作により入力される文字を確定する入力文字確定部とを備えてよい。
 上記の構成によれば、ボタンの押下等の煩雑な操作を行わなくても、前記操作空間の内から外へ指やペン等を移動させるだけで、手書き操作の期間に生成された前記ストローク情報による文字認識の結果に基づいて、当該手書き操作により入力される文字が確定する。手書き操作の終了判定のためにタイマの計時時間を待つ必要がないため、円滑な文字の入力が可能となる。前記操作空間内に指やペン等を位置させる限り、手書き操作による入力の文字が確定しないため、意図しないタイミングで入力の文字が確定することによる誤入力が生じ難くなる。
 好適に、上記第1の観点に係る手書き入力装置は、表示部と、前記判定部において前記手書き操作が継続中と判定されている場合、当該継続中の手書き操作の期間に生成された前記ストローク情報により前記文字認識部で認識された複数の入力候補の文字を前記表示部において表示する表示制御部とを備えてよい。前記センサ部は、前記物体が前記入力面から離間した状態において、前記入力面上における前記物体の近接位置を検出可能でよい。前記入力文字確定部は、前記物体が前記操作空間の外へ出るときに前記近接位置が移動する方向に基づいて、前記表示部に表示される前記複数の入力候補の文字から、当該手書き操作により入力される文字を確定してよい。
 上記の構成によれば、手書き操作の終了の際、指やペン等が前記操作空間の外へ出るときの移動方向を適宜調節するだけで、ボタン操作等の煩雑な操作を行うことなく、前記表示部に表示される前記複数の入力候補の文字から、当該手書き操作により入力される文字が確定する。
 好適に、上記第1の観点に係る手書き入力装置は、表示部と、前記判定部において前記手書き操作が継続中と判定されている場合、当該継続中の手書き操作の期間に生成された前記ストローク情報により前記文字認識部で認識された複数の入力候補の文字を前記表示部において表示する表示制御部とを備えてよい。前記センサ部は、前記物体が前記入力面から離間した状態において、前記入力面上における前記物体の近接位置を検出可能でよい。前記入力文字確定部は、前記物体が前記操作空間内にあることが前記センサ部で検出されるとき、前記近接位置の移動のパターンに基づいて、前記表示部に表示される前記複数の入力候補の文字から1つの入力候補の文字を選択してよい。前記表示制御部は、前記入力文字確定部において1つの入力候補の文字が選択されると、前記表示部において、当該1つの入力候補の文字が選択中であることを表す強調表示を行ってよい。前記入力文字確定部は、1つの入力候補の文字を選択しているときに、前記手書き操作が終了したと前記判定部で判定された場合、当該1つの入力候補の文字を当該手書き操作により入力される文字として確定してよい。
 上記の構成によれば、指やペン等を前記操作空間内で移動させることにより、前記近接位置の移動のパターンに基づいて、前記表示部に表示される前記複数の入力候補の文字から1つの入力候補の文字が選択される。そのため、ボタンの押下等の煩雑な操作を行わなくても、前記近接位置が所定のパターンで移動するように指やペン等を前記操作空間内で移動させるだけで、前記複数の入力候補の文字から容易に1つの入力候補の文字が選択される。
 1つの入力候補の文字が選択されると、前記表示部において当該1つの入力候補の文字が選択中であることを表す強調表示が行われるため、入力候補の文字の選択結果を確認し易くなる。
 1つの入力候補の文字が選択されている場合に、前記操作空間の内から外へ指やペン等を移動させるだけで、ボタンの押下等の煩雑な操作を行わなくても、当該1つの入力候補の文字が当該手書き操作により入力される文字として確定する。
 好適に、前記表示制御部は、前記判定部において前記手書き操作が継続中と判定されている場合、前記ストローク情報に応じた前記接触位置の軌跡を、前記表示部の手書き操作表示領域において表示し、前記文字認識部で認識された複数の入力候補の文字を、前記手書き操作表示領域の周囲に位置する複数の入力候補表示領域において表示してよい。
 上記の構成によれば、指やペン等の前記接触位置の軌跡と、文字認識の結果として得られた複数の入力候補の文字とが、前記表示部において視認し易く表示される。
 好適に、上記第1の観点に係る手書き入力装置は、表示部と、前記判定部において前記手書き操作が継続中と判定されている場合、当該継続中の手書き操作の期間に生成された前記ストローク情報に応じた前記接触位置の軌跡を前記表示部において表示する表示制御部とを備えてよい。前記表示制御部は、前記判定部において前記手書き操作の終了が判定された場合、前記表示部に表示された前記接触位置の軌跡を消去してよい。
 上記の構成によれば、継続中の手書き操作の期間において生成された前記ストローク情報に応じた前記接触位置の軌跡が前記表示部において表示されるため、手書き操作による文字等の入力が容易になる。手書き操作の終了が判定されると前記表示部に表示される前記接触位置の軌跡が消去されるため、手書き操作の終了を容易に把握することが可能となる。
 好適に、上記センサ部は、前記入力面上の複数の場所に設けられた複数のセンサ素子を含んでよい。前記センサ素子は、前記物体との距離に応じた静電容量の変化を検出してよい。
 上記の構成によれば、前記入力面上における前記接触位置、及び、前記操作空間における前記物体の有無が、前記複数のセンサ素子における前記静電容量の変化に基づいて検出される。そのため、これらの検出に独立のセンサを用いる場合に比べて構成が簡易になる。
 本発明の第2の観点は、入力面に物体を接触させながら移動する手書き操作が行われると、前記入力面における前記物体の接触位置の軌跡に応じた情報を入力する手書き入力装置における情報入力方法に関する。この第2の観点に係る情報入力方法は、前記入力面における前記物体の接触位置、及び、前記入力面に近接する所定の操作空間における前記物体の有無をセンサにおいて検出することと、前記検出の結果に基づいて、一連の前記手書き操作の開始と終了を判定することと、前記手書き操作の開始を判定した後、前記センサ部において前記操作空間に前記物体があることが検出されたならば、当該手書き操作が継続中であると判定することとを有する。
 本発明の第3の観点は、上記第2の観点に係る情報入力方法をコンピュータに実行させるためのプログラムである。
 本発明によれば、ボタンの押下等の煩雑な操作を行わなくても、手書き操作が継続中であることを的確に判定できる。
第1の実施形態に係る手書き入力装置の構成の一例を示す図である。 第1の実施形態に係る手書き入力装置における一連の手書き操作の例と表示部の表示例を示す図であり、入力面に対して垂直な方向から見た図である。図2Aは手書き操作中の状態を示し、図2Bは手書き操作の終了時の状態を示す。 第1の実施形態に係る手書き入力装置における一連の手書き操作の例と表示部の表示例を示す図であり、入力面に対して平行な方向から見た図である。図3Aは指が入力面に接触している状態を示し、図3Bは指が入力面から離れて操作空間内にある場合を示し、図3Cは指が操作空間内にない場合を示す。 第1の実施形態に係る手書き入力装置の動作を説明するためのフローチャートである。 第2の実施形態に係る手書き入力装置における一連の手書き操作の例と表示部の表示例を示す図であり、入力面に対して垂直な方向から見た図である。図5Aは手書き操作中の状態を示し、図5Bは手書き操作の終了時の状態を示す。 第2の実施形態に係る手書き入力装置における一連の手書き操作の例と表示部の表示例を示す図であり、入力面に対して平行な方向から見た図である。図6Aは指が入力面に接触している状態を示し、図6Bは指が入力面から離れて操作空間内にある場合を示し、図6Cは指が操作空間内にない場合を示す。 第2の実施形態に係る手書き入力装置の動作を説明するためのフローチャートである。 第3の実施形態に係る手書き入力装置の動作を説明するための第1のフローチャートである。 第3の実施形態に係る手書き入力装置の動作を説明するための第2のフローチャートである。 第4の実施形態に係る手書き入力装置における一連の手書き操作の例と表示部の表示例を示す図であり、入力面に対して斜め上から見た図である。図10Aは指が入力面に接触している状態を示し、図10Bは指が操作空間の内から外へ左に移動しながら出て行く状態を示し、図10Cは指が操作空間の外に出て入力の文字が確定した状態を示す。 第4の実施形態に係る手書き入力装置の動作を説明するためのフローチャートである。 第5の実施形態に係る手書き入力装置における一連の手書き操作の例と表示部の表示例を示す第1の図であり、入力面に対して斜め上から見た図である。図12Aは指が入力面に接触している状態を示し、図12Bは指が入力面から離れて操作空間内にある状態を示し、図12Cは指が入力面から離れて操作空間内を右方向に移動している状態を示す。 第5の実施形態に係る手書き入力装置における一連の手書き操作の例と表示部の表示例を示す第2の図であり、入力面に対して斜め上から見た図である。図13Aは指が入力面から離れて操作空間内を右方向に移動している状態を示し、図13Bは指が操作空間の内から外へ出て行く状態を示し、図13Cは指が操作空間の外に出て入力の文字が確定した状態を示す。 第5の実施形態に係る手書き入力装置の動作を説明するためのフローチャートである。
<第1の実施形態>
 図1は、本発明の第1の実施形態に係る手書き入力装置の構成の一例を示す図である。図1の例において、本実施形態に係る手書き入力装置は、センサ部10と、処理部20と、記憶部30と、表示部40と、インターフェース部50を有する。本実施形態に係る手書き入力装置は、センサ部10の入力面15に指やペン等の物体を接触させて移動する手書き操作が行われると、入力面15における物体の接触位置の軌跡に応じた情報(文字、記号、図形等)を入力する。以下では、手書き操作において入力面15に接触する物体が指である場合を一例として説明するが、ペンやその他の物体が手書き操作に使用されてもよい。
[センサ部10]
 センサ部10は、入力面15における指の接触位置、及び、入力面15に近接する所定の操作空間100における指の有無を検出可能であり、図1の例において、センサマトリクス11と、検出信号生成部13と、駆動部14を有する。
 センサマトリクス11は、入力面15上の複数の場所に設けられた複数のセンサ素子12を有する。各センサ素子12は、指との距離に応じた静電容量の変化を検出する。図1の例において、センサマトリクス11は、縦方向に延在した複数の駆動電極Lxと、横方向に延在した複数の検出電極Lyを備える。複数の駆動電極Lxは横方向へ平行に並び、複数の検出電極Lyは縦方向へ平行に並ぶ。複数の駆動電極Lxと複数の検出電極Lyが格子状に交差しており、互いに絶縁されている。駆動電極Lxと検出電極Lyの交差部付近に、それぞれセンサ素子12が形成される。なお、図1の例では電極(Lx,Ly)の形状が短冊状に描かれているが、他の任意の形状(ダイヤモンドパターンなど)でもよい。
 駆動部14は、センサマトリクス11の各センサ素子12に駆動電圧を印加する。例えば、駆動部14は、処理部20の制御に従って、複数の駆動電極Lxから順番に1つの駆動電極Lxを選択し、当該1つの駆動電極Lxの電位を周期的に変化させる。駆動電極Lxの電位が変化することにより、この駆動電極Lxと検出電極Lyとの交差点付近に形成されたセンサ素子12に印加される駆動電圧が変化し、センサ素子12において充電や放電が生じる。
 検出信号生成部13は、駆動部14による駆動電圧の印加に伴ってセンサ素子12が充電又は放電される際に各検出電極Lyにおいて伝送される電荷に応じた検出信号を生成する。すなわち、検出信号生成部13は、駆動部14の駆動電圧の周期的な変化と同期したタイミングで、各検出電極Lyにおいて伝送される電荷をサンプリングし、そのサンプリングの結果に応じた検出信号を生成する。
 例えば、検出信号生成部13は、センサ素子12の静電容量に応じた電圧を出力する静電容量-電圧変換回路(CV変換回路)と、CV変換回路の出力信号をデジタル信号に変換し、検出信号として出力するアナログ-デジタル変換回路(AD変換回路)を有する。
 検出信号生成部13が生成する検出信号は、指とセンサ素子12との静電容量に応じた信号であり、入力面15からの指の距離に応じて信号レベルが変化する。本実施形態において、検出信号生成部13により生成される検出信号は比較的高感度であり、指が入力面15から離間した状態において入力面15と指との距離を判定し得る程度の信号レベルを有する。また、入力面15から離間した状態であっても、複数のセンサ素子12で得られる検出信号から、入力面15上における指の近接位置の座標を求めることが可能である。
 なお、図1の例において示したセンサ部10は、電極間(Lx,Ly)に生じる静電容量(相互容量)の変化によって指の近接を検出するものであるが、この例に限らず、他の種々の方式によって指の近接を検出してもよい。例えば、センサ部10は、指の接近によって電極とグランドの間に生じる静電容量(自己容量)を検出する方式でもよい。自己容量を検出する方式の場合、検出電極に駆動電圧が印加される。また、センサ部10は、静電容量方式に限定されるものではなく、例えば抵抗膜方式や電磁誘導式などでもよい。
 また、図1の例において示したセンサ部10は、入力面15における指の接触位置の検出と、操作空間100における指の有無の検出とに共通のセンサ素子12を用いているが、これらの検出にはそれぞれ独立のセンサを用いてもよい。例えば、操作空間100における指の有無の検出に赤外線センサ等の光学センサを用いてもよい。
[処理部20]
 処理部20は、手書き入力装置の全体的な動作を制御する回路であり、例えば、後述する記憶部30に格納されるプログラム31の命令コードに従って処理を行うコンピュータや、特定の機能を実現するロジック回路を含んで構成される。処理部20の処理は、その全てをコンピュータとプログラムにより実現してもよいし、その一部若しくは全部を専用のロジック回路で実現してもよい。
 図1の例において、処理部20は、センサ制御部21と、座標・近接度算出部22と、判定部23と、ストローク情報生成部24と、文字認識部25と、入力文字確定部26と、表示制御部27を有する。
 センサ制御部21は、入力面15上に分布する複数のセンサ素子12において指の近接による静電容量の変化を1サイクルごとに検出する周期的な検出動作を行うようにセンサ部10を制御する。具体的には、センサ制御部21は、駆動部14における駆動電極の選択とパルス電圧の発生、並びに、検出信号生成部13における検出電極の選択と検出信号の生成が周期的に適切なタイミングで行われるように、これらの回路を制御する。
 座標・近接度算出部22は、センサ制御部21の制御によって周期的に得られる複数のセンサ素子12の検出信号に基づいて、入力面15上における指の位置を表す座標を算出するとともに、当該入力面15上の座標と指との近接の度合い(距離)に応じた近接度を算出する。
 判定部23は、センサ部10の検出結果に基づいて、一連の手書き操作の開始と終了を判定する。例えば判定部23は、座標・近接度算出部22においてセンサ部10の検出信号に基づいて算出された指の近接度を、接触判定用の所定のしきい値と比較し、その比較結果に基づいて、指が入力面15に接触しているか否かを判定する。直近の手書き操作の終了(若しくはシステムの起動時)から未だ手書き操作の開始を判定していない状態において、指が入力面15に接触したことを判定した場合、判定部23は、手書き操作が新たに開始されたことを判定する。
 判定部23は、手書き操作の開始を判定した後、センサ部10において操作空間100に指があることが検出されたならば、この手書き操作が継続中であると判定し、センサ部10において操作空間100に指がないことが検出されたならば、手書き操作が終了したと判定する。
 例えば判定部23は、座標・近接度算出部22においてセンサ部10の検出信号に基づいて算出された指の近接度を、距離判定用の所定のしきい値と比較し、その比較結果に基づいて、指が入力面15から所定の距離Lh以内(例えば3cm以内)にあるか否かを判定する。この場合、入力面15から所定の距離Lh以内の空間が、操作空間100に相当する。指が所定の距離Lh以内にある場合、判定部23は、手書き操作が継続中であると判定する。指と入力面15との距離が所定の距離Lhを超えた場合、判定部23は、手書き操作が終了したと判定する。
 ストローク情報生成部24は、判定部23によって開始が判定された手書き操作の期間にセンサ部10で検出される指の接触位置の軌跡に応じたストローク情報を生成する。例えばストローク情報生成部24は、座標・近接度算出部22においてセンサ部10の検出信号に基づいて周期的に算出される指の一連の座標のうち、判定部23において入力面15に接触していると判定されたときの指の座標を用いてストローク情報を生成する。
 文字認識部25は、ストローク情報生成部24において生成されるストローク情報に基づいて、入力面15での指の接触位置の軌跡が表す文字を認識する。例えば文字認識部25は、ストローク情報に基づいて個々の文字の認識を行うほか、複数の文字の配列から推測される文字の集まり(言葉)を認識する。なお、ここでいう文字には、言語として情報の伝達に使用可能な種々の記号や図形が含まれていてもよい。
 入力文字確定部26は、判定部23において手書き操作の終了が判定された場合、この手書き操作の期間にストローク情報生成部24で生成されたストローク情報による文字認識部25の認識結果に基づいて、この手書き操作により入力される文字を確定する。例えば文字認識部25において複数の入力候補の文字(文字の集まりを含む。)が認識された場合、入力文字確定部26は、文字認識部25における推定の順位が最も高い文字を、手書き操作により入力される文字として確定する。
 表示制御部27は、表示部40における映像の表示に関する制御を行う。判定部23において手書き操作が継続中と判定されている場合、表示制御部27は、ストローク情報に応じた指の接触位置の軌跡を表示部40の手書き操作表示領域46において表示する。判定部23において手書き操作の終了が判定された場合、表示制御部27は、表示部40の手書き操作表示領域46に表示された指の接触位置の軌跡を消去し、入力文字確定部26により確定された文字を表示部40の入力結果表示領域47において表示する。
[記憶部30]
 記憶部30は、処理部20において処理に使用される定数データや変数データを記憶する。処理部20がコンピュータを含む場合、記憶部30は、そのコンピュータにおいて実行されるプログラム31を記憶してもよい。記憶部30は、例えば、DRAMやSRAMなどの揮発性メモリ、フラッシュメモリなどの不揮発性メモリ、ハードディスクなどを含んで構成される。
[表示部40]
 処理部20から出力される映像信号に応じた映像を表示する装置であり、例えば液晶ディスプレイや有機ELディスプレイ等を含んで構成される。なお表示部40は、センサ部10と一体化されたタッチパネルとして構成されていてもよい。
[インターフェース部50]
 インターフェース部50は、手書き入力装置と他の装置(手書き入力装置を搭載する情報機器のコントロール用ICなど)との間でデータをやり取りするための回路である。処理部20は、記憶部30に記憶される情報をインターフェース部40から図示しない制御装置へ出力する。また、インターフェース部40は、非一時的な有形の媒体(DVDなど)に記録されたプログラム31を図示しない読み取り装置(ディスクドライブ装置など)から取得して、記憶部30に書き込んでもよいし、あるいは、図示しないサーバなどからプログラム31をダウンロードして、記憶部30に書き込んでもよい。
 ここで、上述した構成を有する手書き入力装置の動作について説明する。
 図2及び図3は、第1の実施形態に係る手書き入力装置における一連の手書き操作の例と表示部40の表示例を示す図である。図2は入力面15に対して垂直な方向から見た図であり、図3は入力面15に対して平行な方向から見た図である。
 指5を入力面15に接触させて移動する手書き操作が行われると、図2A,図3Aにおいて示すように、表示部40の手書き操作表示領域46には、入力面15における指5の接触位置の軌跡(入力面15上の点線)に応じた線が表示される。指5を入力面15から離しても、図3Bにおいて示すように、入力面15に対する指5の距離が所定の距離Lh以内であれば、判定部23において手書き操作が継続中と判定される。この場合、手書き操作表示領域46において指5の接触位置の軌跡が表示され続ける。
 入力面15に対する指5の距離が所定の距離Lhを超えると、判定部23において手書き操作が終了したと判定される。この場合、図2B,図3Cにおいて示すように、手書き操作表示領域46における指5の接触位置の軌跡が消去され、入力結果表示領域47には入力文字確定部26で確定した文字「ABC」が表示される。
 図4は、第1の実施形態に係る手書き入力装置の動作を説明するためのフローチャートである。
ST100:
 初期状態において、判定部23は、手書き操作の状態を表すフラグFgに「0」を設定する。「0」のフラグFgは「操作待ち」の状態を表し、「1」のフラグFgは「操作中」の状態を表す。ステップST100の後、ステップST105に処理が移行する。
ST105:
 判定部23は、フラグFgに基づいて手書き操作の状態を判定する。「操作待ち」状態の場合(フラグFgが「0」の場合)はステップST110へ処理が移行し、「操作中」状態の場合(フラグFgが「1」の場合)はステップST120へ処理が移行する。
ST110,ST115:
 「操作待ち」状態の場合、判定部23は、センサ部10から出力される検出信号に基づいて、入力面15に接触した指があるか否か判定する(ST110)。すなわち判定部23は、センサ部10から出力される検出信号に基づいて座標・近接度算出部22により指の座標が算出された場合、その指について算出された近接度と接触判定用のしきい値とを比較し、当該比較の結果に基づいて、指が入力面15に接触しているか否かを判定する。判定部23は、指が入力面15に接触している場合フラグFgに「1」を設定し(ST115)、指が入力面15に接触していない場合はフラグFgの値を維持する。
ST120,ST125:
 「操作中」状態の場合、判定部23は、センサ部10から出力される検出信号に基づいて、入力面15に指が接触しているか否か判定する。すなわち判定部23は、座標・近接度算出部22で算出された指の近接度と接触判定用のしきい値とを比較し、当該比較の結果に基づいて、指が入力面15に接触しているか否かを判定する(ST120)。
 指が入力面15に接触している場合、ストローク情報生成部24は、座標・近接度算出部22により算出された座標を指の接触位置の座標として取得し、記憶部30に格納する。ストローク情報生成部24は、今回の手書き操作期間の開始から取得された指の接触位置の座標に基づいて、指の接触位置の軌跡を表すストローク情報を生成する(ST125)。表示制御部27は、生成されたストローク情報に応じた指の接触位置の軌跡を表示部40の手書き操作表示領域46に表示する(図2A,図3A)。
 指が入力面15に接触していない場合、ステップST130へ処理が移行する。
ST130,ST135:
 「操作中」状態であって指が入力面15に接触していない場合、判定部23は、座標・近接度算出部22において算出された指の近接度を距離判定用のしきい値と比較し、その比較結果に基づいて、指が入力面15から距離Lh以内にあるか否かを判定する(ST130)。指が入力面15から距離Lh以内にある場合、判定部23は手書き操作が継続中と判定し、ストローク情報生成部24はストローク情報を保持する(ST135)。この場合、表示制御部27は、手書き操作表示領域46において指の接触位置の軌跡を引き続き表示する。
 指と入力面15とが距離Lhより離れている場合、ステップST140,ST145へ処理が移行する。
ST140,ST145:
 指と入力面15とが距離Lhより離れている場合、判定部23は手書き操作が終了したと判定し、フラグFgに「0」を設定する(ST140)。手書き操作が終了すると、文字認識部25は、当該終了した手書き操作の期間において生成されたストローク情報に基づいて、指の接触位置の軌跡が表す文字を認識する。入力文字確定部26は、文字認識部25において認識された文字を、手書き操作により入力された文字として確定する(ST145)。表示制御部27は、表示部40の手書き操作表示領域46に表示された指の接触位置の軌跡を消去し、入力文字確定部26が確定した文字を表示部40の入力結果表示領域47において表示する(図2B,図3C)。
ST150:
 ステップST105~ST145の処理を行うと、処理部20は、手書き入力を終了するか否か判定する(ST150)。例えば処理部20は、インターフェース部50において手書き入力処理の終了を指示するコマンドが入力された場合や、図示しない入力操作機器(キーボード、マウス、ボタン等)において手書き入力処理の終了を指示する所定の操作が行われた場合、処理を終了する。手書き入力処理を続行する場合、処理部20は、ステップST105に戻って上述の処理を再び行う。
 以上説明したように、本実施形態によれば、入力面15から指が離れた場合、操作空間100内に指を位置させるだけで、手書き操作が継続中であることを的確に判定できる。これにより、手書き操作が継続中であることを指示するためにボタンの押下等の煩雑な操作を行う必要がなくなる。しかも、入力面15から離れた指を操作空間100内に位置させることは、手書き操作における自然な動作であるため、ボタンの押下等に比べて自然な動作が阻害され難い。従って、操作性を大幅に向上させることができる。
 また、本実施形態によれば、操作空間100の内から外へ指を移動させるだけで(指を入力面15から所定の距離Lhより遠くに離間させるだけで)、手書き操作の終了を的確に判定し、手書き操作で入力される文字を確定できる。従って、ボタンの押下等を手書き操作の終了判定に用いる場合に比べて、手書き操作の自然な動作が阻害され難くなるため、操作性を更に向上させることができる。
 また、本実施形態によれば、手書き操作の終了判定のために、タイマの計時時間を待つ必要がない。タイマを使って手書き操作の終了を判定する場合、ユーザは、手書き操作を終了した後ペンを入力面から浮かせた状態で、文字認識が開始されるのを数秒間待たねばならない。そのため、複数の文字をスムーズに入力することが困難である。タイマの計時時間を待つ必要がない本実施形態によれば、連続してスムーズに複数の文字を入力できる。
 また、本実施形態によれば、手書き操作の途中で一時的に指を入力面15から離しても、指が操作空間100内に位置する限り、手書き操作が自動的に終了と判定されることがない。そのため、意図せぬタイミングで手書き操作が終了することによる誤入力を生じ難くすることができる。
 また、本実施形態によれば、手書き操作が継続中と判定されている場合、ストローク情報に応じた指の接触位置の軌跡が表示部40の手書き操作表示領域46において表示され、手書き操作による文字等の入力が容易になる。手書き操作の終了が判定されると、表示部40の手書き操作表示領域46に表示される指の接触位置の軌跡が消去されるため、手書き操作の終了を容易に把握できる。
 また、本実施形態によれば、入力面15上における指の接触位置、及び、操作空間100における指の有無が、何れもセンサ素子12における静電容量の変化に基づいて検出される。そのため、これらの検出に独立のセンサを用いる場合に比べて構成を簡易化できる。
<第2の実施形態>
 次に、本発明の第2の実施形態について説明する。本実施形態に係る手書き入力装置は、第1の実施形態に係る手書き入力装置における判定部23の動作を変更したものであり、装置の全体的な構成は図1に示す手書き入力装置と同様である。
 本実施形態における判定部23は、手書き操作の開始を判定した後、センサ部10において指の近接位置が入力面15上の所定の操作領域16の外にあることが検出された場合、この手書き操作が終了したと判定する。ここでいう「指の近接位置」は、指が入力面15から離間した状態において、指が最も近接している入力面15上の位置を示す。例えば判定部23は、手書き操作の開始を判定した後、座標・近接度算出部22においてセンサ部10の検出信号に基づいて算出された指の座標のうち、入力面15から離間していると判定した指の座標を監視し、この座標が入力面15上の所定の操作領域16の内から外へ出たか否かを判定する。指の近接位置の座標が操作領域16の内から外へ出た場合、判定部23は、手書き操作が終了したと判定する。判定部23の他の動作は、既に説明した第1の実施形態の判定部23と同様である。
 図5及び図6は、第2の実施形態に係る手書き入力装置における一連の手書き操作の例と表示部40の表示例を示す図である。図5は入力面15に対して垂直な方向から見た図であり、図6は入力面15に対して平行な方向から見た図である。
 本実施形態に係る手書き入力装置では、図5及び図6において示すように、手書き操作用の操作領域16が入力面15上に設定される。指5を入力面15に接触させて移動する手書き操作は、この操作領域16の内側で行われる。手書き操作が行われると、図5A,図6Aにおいて示すように、表示部40の手書き操作表示領域46には、入力面15における指5の接触位置の軌跡(入力面15上の点線)に応じた線が表示される。
 本実施形態では、図6において示すように、入力面15上の操作領域16から距離Lh以内の空間が操作空間100である。指5を入力面15から離しても、図6Bにおいて示すように指5がこの操作空間100の内側にあれば、判定部23において手書き操作が継続中と判定される。一方、図6Cにおいて示すように指5の近接位置が操作領域16から外へ出た場合、入力面15と指5との離間距離が距離Lh以内であっても、指5は操作空間100の外側へ出ることになるため、判定部23は手書き操作が終了したと判定する。
 図7は、第2の実施形態に係る手書き入力装置の動作を説明するためのフローチャートである。図7に示すフローチャートは、図4に示すフローチャートにおいてステップST130とステップST135の間にステップST131を追加したものであり、他のステップは図4に示すフローチャートと同じである。ここでは、処理が追加された部分についてのみ説明する。
ST130,ST131,ST135:
 「操作中」状態であって指が入力面15に接触していない場合、判定部23は、座標・近接度算出部22において算出された指の近接度を距離判定用のしきい値と比較し、その比較結果に基づいて、指が入力面15から距離Lh以内にあるか否かを判定する(ST130)。また、判定部23は、入力面15から離間していると判定した指の近接位置の座標が、入力面15上の操作領域16内にあるか否かを判定する(ST131)。指が入力面15から距離Lh以内にあり、かつ、指の近接位置が操作領域16内にある場合、判定部23は手書き操作が継続中と判定し、ストローク情報生成部24はストローク情報を保持する(ST135)。この場合、表示制御部27は、手書き操作表示領域46において指の接触位置の軌跡を引き続き表示する。
 指と入力面15とが距離Lhより離れているか、又は、指の近接位置の座標が操作領域16内にない場合、ステップST140,ST145へ処理が移行する。
 以上説明したように、本実施形態によれば、入力面15上における指の近接位置が操作領域16の内から外へ出るように指を移動させるだけで、手書き操作の終了を的確に判定できるとともに、手書き操作で入力される文字を確定できる。従って、ボタンの押下等を手書き操作の終了判定に用いる場合に比べて手書き操作の自然な動作に近いため、手書き操作の操作性を大幅に向上できる。
 なお、上述した実施形態では、指と操作領域16との離間距離が距離Lh以内にあるか否か、及び、指の近接位置が操作領域16内にあるか否かを手書き操作の終了の条件としているが、前者の条件を省略してもよい。
<第3の実施形態>
 次に、本発明の第3の実施形態について説明する。本実施形態に係る手書き入力装置は、第1の実施形態又は第2の実施形態に係る手書き入力装置における判定部23の動作を変更したものであり、装置の全体的な構成はこれらの実施形態に係る手書き入力装置と同様である。
 本実施形態における判定部23は、手書き操作の開始を判定した後、センサ部10において操作空間100に指がないことが所定時間以上継続して検出されたならば、手書き操作が終了したと判定する。指が操作空間100の外側に出ても、所定時間が経過する前に指が操作空間100へ戻った場合、判定部23は手書き操作が継続中であると判定する。判定部23の他の動作は、既に説明した各実施形態の判定部23と同様である。
 図8及び図9は、第3の実施形態に係る手書き入力装置の動作を説明するためのフローチャートである。図8及び図9に示すフローチャートは、図7に示すフローチャートにステップST119,ST126,ST136,ST139,ST146を追加したものであり、他のステップは図7に示すフローチャートと同じである。ここでは、処理が追加された部分についてのみ説明する。
 フラグFgが「操作中」の状態を示す場合(ST105)、判定部23は、タイマによる計時を開始する(ST119)。例えば判定部23は、一定の周期で発生するクロックパルスの数を計時値としてカウントする。既にタイマによる計時を行っている場合、判定部23は計時を継続する。
 判定部23は、フラグFgが「操作中」の状態で入力面15に指が接触していることを判定した場合(ST120)、計時を停止して計時値をリセットする(ST126)。また判定部23は、フラグFgが「操作中」の状態で入力面15に指が接触していない場合であっても(ST120)、操作空間100内に指が位置していることを判定したら(ST130,ST131)、計時を停止して計時値をリセットする(ST136)。
 判定部23は、フラグFgが「操作中」の状態で入力面15に指が接触しておらず(ST120)、かつ、操作空間100内に指が位置していないことを判定した場合(ST130,ST131)、タイマの計時値が所定時間に達したか否かを判定する(ST139)。
 タイマの計時値が所定時間に達している場合、判定部23は手書き操作が終了したと判定し、フラグFgに「0」を設定する(ST140)。手書き操作が終了すると、文字認識部25は、ストローク情報に基づいて文字認識を行い、入力文字確定部26は、文字認識部25で認識された文字を手書き操作による入力文字として確定する(ST145)。また判定部23は、計時を停止して計時値をリセットする(ST146)。
 他方、タイマの計時値が所定時間に達していない場合、処理がステップST150に移行し、手書き入力処理が継続中であれば、ステップST105に戻って同様な処理が行われる。
 以上説明したように、本実施形態によれば、意図せず一時的に操作空間100の外側へ指が出てしまった場合でも、その時間が所定時間より短ければ、手書き操作の終了と判定されなくなる。そのため、意図しないタイミングで手書き操作の終了が判定されることによる誤った文字の入力を更に生じ難くすることができる。
 なお、図8,図9に示すフローチャートは図7に示す第2の実施形態のフローチャートに判定部23のタイマの計時処理を追加したものであるが、図4に示す第1の実施形態のフローチャートに同様な計時処理を追加してもよい。
<第4の実施形態>
 次に、本発明の第4の実施形態について説明する。本実施形態に係る手書き入力装置は、第1の実施形態、第2の実施形態又は第3の実施形態に係る手書き入力装置における文字認識部25,入力文字確定部26及び表示制御部27の動作を変更したものであり、装置の全体的な構成はこれらの実施形態に係る手書き入力装置と同様である。
 本実施形態における文字認識部25は、ストローク情報に基づいて複数の入力候補の文字(文字の集まりを含む。)を認識する。また文字認識部25は、手書き操作の期間中において、ストローク情報が生成・更新される度に文字認識を行う。文字認識部25の他の動作は、既に説明した各実施形態の文字認識部25と同様である。
 本実施形態における表示制御部27は、判定部23において手書き操作が継続中と判定されている場合、当該継続中の手書き操作の期間に生成されたストローク情報により文字認識部25で認識された複数の入力候補の文字を、表示部40の入力候補表示領域48において表示する。例えば表示制御部27は、後述する図10において示すように、手書き操作表示領域46の周囲に複数の入力候補表示領域48を配置し、それぞれの入力候補表示領域48に入力候補の文字を表示する。表示制御部27の他の動作は、既に説明した各実施形態の表示制御部27と同様である。
 本実施形態における入力文字確定部26は、指が操作空間100の外へ出るときに指の入力面15上の近接位置が移動する方向に基づいて、表示部40の入力候補表示領域48に表示される複数の入力候補の文字から、手書き操作により入力される文字を確定する。例えば入力文字確定部26は、指が操作空間100の内から外へ出る前後の期間において座標・近接度算出部22により算出される一連の近接位置の座標をもとに、指の近接位置の移動方向を判定する。入力文字確定部26が判定可能な複数の移動方向は、手書き操作表示領域46の周囲に配置される複数の入力候補表示領域48と一対一に対応する。入力文字確定部26は、指が操作空間100の外へ出るときに1つの移動方向へ指の近接位置が移動したことを判定した場合、当該1つの移動方向に対応する1つの入力候補表示領域48に表示された入力候補の文字を、手書き操作により入力される文字として確定する。
 図10は、第4の実施形態に係る手書き入力装置における一連の手書き操作の例と表示部の表示例を示す図であり、入力面に対して斜め上から見た図である。図10Aは指5が入力面15に接触している状態を示し、図10Bは指5が操作空間100の内から外へ左に移動しながら出て行く状態を示し、図10Cは指5が操作空間100の外に出て入力の文字が確定した状態を示す。
 図10の例において、手書き操作表示領域46は矩形の領域であり、その4辺にそれぞれ入力候補表示領域48が配置される。指5の接触位置の軌跡を表すストローク情報がストローク情報生成部24によって生成・更新されると、そのストローク情報に応じた4つの入力候補の文字が文字認識部25において随時認識され、表示部40の4つの入力候補表示領域48に表示される。
 図10Bの例において、指5は左方向へ移動しながら操作空間100の外に出るため、入力文字確定部26では、指5の近接位置の移動方向が左であると判定される。その結果、画面45上の左側に位置する入力候補表示領域48に表示された入力候補の文字「work」が、手書き操作により入力される文字として確定する。確定した文字は、図10Cにおいて示すように、入力結果表示領域47へ移動する。手書き操作の終了により、手書き操作表示領域46及び入力候補表示領域48の表示は全て消去され、次の手書き操作を待つ状態となる。
 図11は、第4の実施形態に係る手書き入力装置の動作を説明するためのフローチャートである。図11に示すフローチャートは、図7に示すフローチャートにおけるステップST145をステップST141及びST142に置き換え、ステップST127を追加したものであり、他のステップは図7に示すフローチャートと同じである。ここでは、処理が変更・追加された部分についてのみ説明する。
 フラグFgが「操作中」の状態で入力面15に指が接触している場合(ST120)、ストローク情報生成部24は、座標・近接度算出部22で算出される接触中の指の座標を取得し、ストローク情報を生成・更新する(ST125)。文字認識部25は、この生成・更新されたストローク情報に基づいて、複数の入力候補の文字を認識する(ST127)。文字認識部25は、手書き操作の過程でストローク情報が生成・更新される度に文字認識処理を行う。
 フラグFgが「操作中」の状態で入力面15に指が接触しておらず(ST120)、かつ、操作空間100内に指が位置していない場合(ST130,ST131)、判定部23は、手書き操作が終了したと判定し、フラグFgに「0」を設定する(ST140)。このとき入力文字確定部26は、指が操作空間100の内から外へ出る前後の期間に座標・近接度算出部22が算出した指の近接位置の座標をもとに、指の近接位置の移動方向を判定する(ST141)。入力文字確定部26は、表示部40の複数の入力候補表示領域48のうち、ステップST141で判定した移動方向に対応する入力候補表示領域48に表示された入力候補の文字を、手書き操作により入力される文字として確定する(ST142)。例えば図10に示す場合において、入力文字確定部26は、指の近接位置の移動方向が左方向、右方向、上方向及び下方向の何れであるかを判定し、その判定結果に基づいて、手書き操作表示領域46の左側、右側、上側及び下側の何れかに位置する入力候補表示領域48に表示された入力候補の文字を、手書き操作により入力される文字として確定する。
 以上説明したように、本実施形態によれば、手書き操作の終了の際、指が操作空間100の外へ出るときの移動方向を適宜調節するだけで、表示部10に表示される複数の入力候補の文字から、手書き操作により入力される文字を簡単に確定することができる。従って、複数の入力候補の文字から目的の文字を選択するためにボタン操作等の煩雑な操作を行う場合に比べて、手書き操作による文字の入力をよりスムーズに行うことができる。
<第5の実施形態>
 次に、本発明の第5の実施形態について説明する。本実施形態に係る手書き入力装置は、第1の実施形態、第2の実施形態又は第3の実施形態に係る手書き入力装置における文字認識部25,入力文字確定部26及び表示制御部27の動作を変更したものであり、装置の全体的な構成はこれらの実施形態に係る手書き入力装置と同様である。
 本実施形態における文字認識部25は、ストローク情報に基づいて複数の入力候補の文字(文字の集まりを含む。)を認識する。また文字認識部25は、手書き操作の期間中において、ストローク情報が生成・更新される度に文字認識を行う。文字認識部25の他の動作は、既に説明した各実施形態の文字認識部25と同様である。
 本実施形態における表示制御部27は、判定部23において手書き操作が継続中と判定されている場合、当該継続中の手書き操作の期間に生成されたストローク情報により文字認識部25で認識された複数の入力候補の文字を、表示部40の入力候補表示領域49において表示する。例えば表示制御部27は、後述する図12,図13において示すように、複数の入力候補表示領域49を一方向に並べて配置し、それぞれの入力候補表示領域49に入力候補の文字を表示する。
 また、表示制御部27は、後述する入力文字確定部26において1つの入力候補の文字が選択されると、表示部40において当該1つの入力候補の文字が選択中であることを表す強調表示を行う。例えば表示制御部27は、入力候補表示領域49の枠や背景の色・明るさ・形などを変化させたり、入力候補の文字の色・太さ・フォントなどを変化させたり、選択中を表す図像を付加したりすることにより強調表示を行う。
 表示制御部27の他の動作は、既に説明した各実施形態の表示制御部27と同様である。
 本実施形態における入力文字確定部26は、指が操作空間100内にあることがセンサ部10で検出されるとき、指の近接位置の移動パターンに基づいて、表示部40の入力候補表示領域49に表示される複数の入力候補の文字から1つの入力候補の文字を選択する。
 例えば、入力文字確定部26は、入力面15から離れた指が操作空間100内にあるとき座標・近接度算出部22で算出される一連の近接位置の座標をもとに、指の近接位置の移動方向や速さ等を算出する。入力文字確定部26は、算出した移動方向や速さ等に基づいて、指の近接位置の移動パターンが予め定めた複数の移動パターンの何れに該当するかを判定する。
 入力文字確定部26が判定可能な複数の移動パターンは、1つの入力候補の文字から他の入力候補の文字へ選択対象を切り替える複数の方法と関連付けられる。例えば、文字認識部25によって認識される複数の入力候補の文字は、それぞれ文字認識の推測の順位を持っており、幾つかの移動パターンは、この順位に基づいて選択対象の切り替える方法に関連付けられる。具体的には、順位を1つずつ落とすように選択対象を切り替える方法や、順位を1つずつ上げるように選択対象を切り替える方法などに、それぞれ異なる移動パターンが関連付けられる。入力文字確定部26は、指の近接位置の移動パターンが複数の所定の移動パターンにおける1つの移動パターンにマッチすると判定した場合、当該1つの移動パターンに関連付けられた選択対象の切り替え方法により、選択中の入力候補の文字から他の入力候補の文字へ選択対象を切り替える。
 なお、入力文字確定部26は、入力面15から指が離れた直後においては、複数の入力候補の文字から特定の入力候補の文字を選択してよい。例えば、入力文字確定部26は、文字認識部25における文字認識の推測の順位が最も高い入力候補の文字を、入力面15から指が離れた直後に選択してよい。
 入力文字確定部は、1つの入力候補の文字を選択しているときに手書き操作が終了したと判定部23で判定された場合、選択中の入力候補の文字を手書き操作により入力される文字として確定する。
 図12及び図13は、第5の実施形態に係る手書き入力装置における一連の手書き操作の例と表示部の表示例を示す図であり、入力面に対して斜め上から見た図である。図12Aは、指5が入力面15に接触している状態を示す。図12Bは、指5が入力面15から離れて操作空間100内にある状態を示す。図12Cは、指5が入力面15から離れて操作空間100内を右方向に移動している状態を示す。図13Aは、指5が入力面15から離れて操作空間100内を更に右方向に移動している状態を示す。図13Bは、指5が操作空間100の内から外へ出て行く状態を示す。図13Cは、指5が操作空間100の外に出て入力の文字が確定した状態を示す。
 指5が入力面15から離れた直後においては、文字認識部25における文字認識の推測の順位が最も高い入力候補の文字が入力文字確定部26によって選択される。図12及び図13の例では、左側の入力候補の文字が最も高順位であり、右側に行くほど順位が低くなる。従って、図12Bにおいて示すように、指5が入力面15から離れた直後では、最も左側の入力候補表示領域49において強調表示が行われる。
 指5が入力面15から離れた状態で操作空間100内にある場合、指5の近接位置の横方向への移動が移動パターンとして判定される。例えば図12C,図13A,図13Bにおいて示すように指5が右方向に移動すると、入力面15上における指5の近接位置も右方向へ移動するため、入力文字確定部26では、移動パターンが「右方向」として判定される。「右方向」の移動パターンは、文字認識部25における文字認識の推測の順位を1つずつ落とすように選択対象を切り替える方法に関連付けられている。そのため、表示部40の画面45上における入力候補の文字の選択も右方向へ移動する。すなわち、4つの入力候補表示領域49における強調表示が右方向へ移動する。図12C,図13A,図13Bの例では、強調表示される入力候補表示領域49が左から1番目の状態のときに、「右方向」の移動パターンが2回続けて判定されるため、強調表示される入力候補表示領域49は左から三番目に移動する。なお、「左方向」の移動パターンは、文字認識部25における文字認識の推測の順位を1つずつ上げるように選択対象を切り替える方法に関連付けられている。そのため、移動パターンが「左方向」と判定された場合は、上述とは逆に、強調表示される入力候補表示領域49が左方向へ移動する。
 1つの入力候補表示領域49が強調表示された状態で指5が操作空間100の外に出ると、その強調表示された入力候補表示領域49に表示される文字が、手書き操作により入力される文字として確定する。図13B,図13Cの例では、左から三番目の入力候補表示領域49が強調表示されるときに操作空間100の外へ指5が移動するため、この入力候補表示領域49に表示される文字「world」が手書き操作により入力される文字として確定する。確定した文字は、図13Cにおいて示すように、入力結果表示領域47に移動する。手書き操作の終了により、手書き操作表示領域46及び入力候補表示領域49の表示は全て消去され、次の手書き操作を待つ状態となる。
 図14は、第5の実施形態に係る手書き入力装置の動作を説明するためのフローチャートである。図14に示すフローチャートは、図7に示すフローチャートにおけるステップST145をステップST143に置き換え、ステップST127及びステップST137を追加したものであり、他のステップは図7に示すフローチャートと同じである。ここでは、処理が変更・追加された部分についてのみ説明する。
 フラグFgが「操作中」の状態で入力面15に指が接触している場合(ST120)、ストローク情報生成部24は、座標・近接度算出部22で算出される接触中の指の座標を取得し、ストローク情報を生成・更新する(ST125)。文字認識部25は、この生成・更新されたストローク情報に基づいて、複数の入力候補の文字を認識する(ST127)。文字認識部25は、手書き操作の過程でストローク情報が生成・更新される度に文字認識処理を行う。
 フラグFgが「操作中」の状態で入力面15に指が接触しておらず(ST120)、かつ、操作空間100内に指が位置している場合(ST130,ST131)、入力文字確定部26は、座標・近接度算出部22で算出される一連の近接位置の座標に基づいて、指の近接位置の移動パターンを判定する。入力文字確定部26は、指の近接位置の移動パターンが複数の所定の移動パターンにおける1つの移動パターンにマッチすると判定した場合、当該1つの移動パターンに基づいて、表示部40の入力候補表示領域49に表示される複数の入力候補の文字から1つの入力候補の文字を選択する(ST137)。表示制御部27は、入力文字確定部26において選択された入力候補の文字を、表示部40において強調表示する。移動パターンが判定されない場合(指が移動していない場合や、指の移動量が少ない場合など)、入力文字確定部26は、現在選択中の入力候補の文字を引き続き選択する。
 フラグFgが「操作中」の状態で入力面15に指が接触しておらず(ST120)、かつ、操作空間100内に指が位置していない場合(ST130,ST131)、判定部23は、手書き操作が終了したと判定し、フラグFgに「0」を設定する(ST140)。入力文字確定部26は、このとき選択中の入力候補の文字を、手書き操作により入力される文字として確定する(ST143)。
 以上説明したように、本実施形態によれば、所定の移動パターンとして判定されるように操作空間100内で指を移動させるだけで、表示部40に表示される複数の入力候補の文字から1つの入力候補の文字を選択できる。これにより、ボタンの押下等の煩雑な操作を行うことなく、複数の入力候補の文字から容易に1つの入力候補の文字を選択できるため、操作性を大幅に向上できる。
 また、本実施形態によれば、1つの入力候補の文字が選択されると、表示部40において当該1つの入力候補の文字が選択中であることを表す強調表示が行われる。これにより、入力候補の文字の選択結果を確認し易くなるため、手書き操作による文字の入力をスムーズに行うことができる。
 また、本実施形態によれば、1つの入力候補の文字が選択されている場合に、操作空間100の内から外へ指を移動させるだけで、ボタンの押下等の煩雑な操作を行わなくても、当該1つの入力候補の文字を当該手書き操作により入力される文字として確定できるため、操作性を更に向上できる。
 以上、本発明の一実施形態について説明したが、本発明は上記の形態のみに限定されるものではなく、他の種々のバリエーションを含んでいる。
 例えば上述した実施形態では、センサ部10の入力面15と表示部40の画面45とが独立に設けられているが、本発明はこれに限定されない。本発明の他の実施形態では、センサ部の入力面と表示部の画面とが一体となったタッチパネル等の装置を用いてもよい。
 上述した実施形態における構成要素の組み合わせは一例であり、本発明はこれに限定されない。例えば、上述した1つの実施形態に含まれる1つ以上の構成要素を、他の1つ以上の実施形態に含まれる1つ以上の構成要素へ置き換えてもよい。また、上述した1つの実施形態に、他の1つ以上の実施形態に含まれる1つ以上の構成要素を追加してもよい。
 10…センサ部、11…センサマトリクス、12…センサ素子、13…検出信号生成部、14…駆動部、15…入力面、16…操作領域、20…処理部、21…センサ制御部、22…座標・近接度算出部、23…判定部、24…ストローク情報生成部、25…文字認識部、26…入力文字確定部、27…表示制御部、30…記憶部、40…表示部、45…画面、46…手書き操作表示領域、47…入力結果表示領域、48…入力候補表示領域、49…入力候補表示領域、50…インターフェース部、100…操作空間

Claims (13)

  1.  入力面に物体を接触させながら移動する手書き操作が行われると、前記入力面における前記物体の接触位置の軌跡に応じた情報を入力する手書き入力装置であって、
     前記入力面における前記物体の接触位置、及び、前記入力面に近接する所定の操作空間における前記物体の有無を検出可能なセンサ部と、
     前記センサ部の検出結果に基づいて、一連の前記手書き操作の開始と終了を判定する判定部とを備え、
     前記判定部は、前記手書き操作の開始を判定した後、前記センサ部において前記操作空間に前記物体があることが検出されたならば、当該手書き操作が継続中であると判定する、
     手書き入力装置。
  2.  前記判定部は、前記手書き操作の開始を判定した後、前記センサ部において前記操作空間に前記物体がないことが検出されたならば、当該手書き操作が終了したと判定する、
     請求項1に記載の手書き入力装置。
  3.  前記判定部は、前記手書き操作の開始を判定した後、前記センサ部において前記操作空間に前記物体がないことが所定時間以上継続して検出されたならば、当該手書き操作が終了したと判定する、
     請求項1に記載の手書き入力装置。
  4.  前記センサ部は、前記入力面からの前記物体の距離に応じた検出信号を出力し、
     前記判定部は、前記手書き操作の開始を判定した後、前記センサ部から出力される検出信号が示す前記入力面からの前記物体の距離が所定の距離を超えた場合、当該手書き操作が終了したと判定する、
     請求項2又は3に記載の手書き入力装置。
  5.  前記センサ部は、前記物体が前記入力面から離間した状態において、前記入力面上における前記物体の近接位置を検出可能であり、
     前記判定部は、前記手書き操作の開始を判定した後、前記センサ部において前記近接位置が前記入力面上の所定の操作領域の外にあることが検出された場合、当該手書き操作が終了したと判定する、
     請求項2乃至4の何れか一項に記載の手書き入力装置。
  6.  前記判定部によって開始が判定された前記手書き操作の期間に前記センサ部で検出される前記接触位置の軌跡に応じたストローク情報を生成するストローク情報生成部と、
     前記ストローク情報に基づいて、前記接触位置の軌跡が表す文字を認識する文字認識部と、
     前記手書き操作の終了が判定された場合、当該手書き操作の期間に生成された前記ストローク情報による前記文字認識部の認識結果に基づいて、当該手書き操作により入力される文字を確定する入力文字確定部とを備える、
     請求項2乃至5の何れか一項に記載の手書き入力装置。
  7.  表示部と、
     前記判定部において前記手書き操作が継続中と判定されている場合、当該継続中の手書き操作の期間に生成された前記ストローク情報により前記文字認識部で認識された複数の入力候補の文字を前記表示部において表示する表示制御部とを備え、
     前記センサ部は、前記物体が前記入力面から離間した状態において、前記入力面上における前記物体の近接位置を検出可能であり、
     前記入力文字確定部は、前記物体が前記操作空間の外へ出るときに前記近接位置が移動する方向に基づいて、前記表示部に表示される前記複数の入力候補の文字から、当該手書き操作により入力される文字を確定する、
     請求項6に記載の手書き入力装置。
  8.  表示部と、
     前記判定部において前記手書き操作が継続中と判定されている場合、当該継続中の手書き操作の期間に生成された前記ストローク情報により前記文字認識部で認識された複数の入力候補の文字を前記表示部において表示する表示制御部とを備え、
     前記センサ部は、前記物体が前記入力面から離間した状態において、前記入力面上における前記物体の近接位置を検出可能であり、
     前記入力文字確定部は、前記物体が前記操作空間内にあることが前記センサ部で検出されるとき、前記近接位置の移動のパターンに基づいて、前記表示部に表示される前記複数の入力候補の文字から1つの入力候補の文字を選択し、
     前記表示制御部は、前記入力文字確定部において1つの入力候補の文字が選択されると、前記表示部において、当該1つの入力候補の文字が選択中であることを表す強調表示を行い、
     前記入力文字確定部は、1つの入力候補の文字を選択しているときに、前記手書き操作が終了したと前記判定部で判定された場合、当該1つの入力候補の文字を当該手書き操作により入力される文字として確定する、
     請求項6に記載の手書き入力装置。
  9.  前記表示制御部は、前記判定部において前記手書き操作が継続中と判定されている場合、前記ストローク情報に応じた前記接触位置の軌跡を、前記表示部の手書き操作表示領域において表示し、前記文字認識部で認識された複数の入力候補の文字を、前記手書き操作表示領域の周囲に位置する複数の入力候補表示領域において表示する、
     請求項7又は8に記載の手書き入力装置。
  10.  表示部と、
     前記判定部において前記手書き操作が継続中と判定されている場合、当該継続中の手書き操作の期間に生成された前記ストローク情報に応じた前記接触位置の軌跡を前記表示部において表示する表示制御部とを備え、
     前記表示制御部は、前記判定部において前記手書き操作の終了が判定された場合、前記表示部に表示された前記接触位置の軌跡を消去する、
     請求項1乃至9の何れか一項に記載の手書き入力装置。
  11.  上記センサ部は、前記入力面上の複数の場所に設けられた複数のセンサ素子を含み、
     前記センサ素子は、前記物体との距離に応じた静電容量の変化を検出する、
     請求項1乃至10の何れか一項に記載の手書き入力装置
  12.  入力面に物体を接触させながら移動する手書き操作が行われると、前記入力面における前記物体の接触位置の軌跡に応じた情報を入力する手書き入力装置における情報入力方法であって、
     前記入力面における前記物体の接触位置、及び、前記入力面に近接する所定の操作空間における前記物体の有無をセンサにおいて検出することと、
     前記検出の結果に基づいて、一連の前記手書き操作の開始と終了を判定することと、
     前記手書き操作の開始を判定した後、前記センサ部において前記操作空間に前記物体があることが検出されたならば、当該手書き操作が継続中であると判定することとを有する、
     情報入力方法。
  13.  請求項12に記載の情報入力方法をコンピュータに実行させるためのプログラム。
PCT/JP2016/087902 2015-12-28 2016-12-20 手書き入力装置、情報入力方法及びプログラム WO2017115692A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201680074487.5A CN108475135A (zh) 2015-12-28 2016-12-20 手写输入装置、信息输入方法以及程序
US16/010,793 US11360661B2 (en) 2015-12-28 2018-06-18 Handwriting input device and information input method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-257534 2015-12-28
JP2015257534 2015-12-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/010,793 Continuation US11360661B2 (en) 2015-12-28 2018-06-18 Handwriting input device and information input method

Publications (1)

Publication Number Publication Date
WO2017115692A1 true WO2017115692A1 (ja) 2017-07-06

Family

ID=59225074

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/087902 WO2017115692A1 (ja) 2015-12-28 2016-12-20 手書き入力装置、情報入力方法及びプログラム

Country Status (3)

Country Link
US (1) US11360661B2 (ja)
CN (1) CN108475135A (ja)
WO (1) WO2017115692A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11151130B2 (en) * 2017-02-04 2021-10-19 Tata Consultancy Services Limited Systems and methods for assessing quality of input text using recurrent neural networks
CN110119226B (zh) * 2019-05-22 2023-03-28 深圳市绘王动漫科技有限公司 手写输入装置、手写输入系统及手写输入方法
CN110456924B (zh) * 2019-07-19 2023-08-15 北京科加触控技术有限公司 一种电子笔位置状态检测方法及装置
US11755124B1 (en) * 2020-09-25 2023-09-12 Apple Inc. System for improving user input recognition on touch surfaces

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008505380A (ja) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ グラフィカルユーザインタフェースの多階層表示
JP2008134793A (ja) * 2006-11-28 2008-06-12 Fujifilm Corp 電子的手書入力装置
JP2011008379A (ja) * 2009-06-24 2011-01-13 Sharp Corp 検索装置および検索装置の制御方法
JP2011053971A (ja) * 2009-09-02 2011-03-17 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2013182511A (ja) * 2012-03-02 2013-09-12 Casio Comput Co Ltd 手書き入力装置およびプログラム
JP2014222391A (ja) * 2013-05-13 2014-11-27 株式会社Nttドコモ 電子機器、軌跡補正方法、プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05274477A (ja) 1992-03-25 1993-10-22 Nec Corp 手書き入力文字認識方法及び装置
CN102135839B (zh) * 2010-01-22 2014-07-30 联想(北京)有限公司 一种终端及其输入方法
JP2011192081A (ja) * 2010-03-15 2011-09-29 Canon Inc 情報処理装置及びその制御方法
US20120120002A1 (en) * 2010-11-17 2012-05-17 Sony Corporation System and method for display proximity based control of a touch screen user interface
KR102129374B1 (ko) * 2012-08-27 2020-07-02 삼성전자주식회사 사용자 인터페이스 제공 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
KR102091710B1 (ko) * 2012-08-28 2020-04-14 삼성전자주식회사 좌표 측정 장치 및 그 제어 방법
US10063757B2 (en) * 2012-11-21 2018-08-28 Infineon Technologies Ag Dynamic conservation of imaging power
KR20140105689A (ko) * 2013-02-23 2014-09-02 삼성전자주식회사 사용자의 입력에 응답하여 피드백을 제공하는 방법 및 이를 구현하는 단말
US20140282273A1 (en) * 2013-03-15 2014-09-18 Glen J. Anderson System and method for assigning voice and gesture command areas
US9495620B2 (en) * 2013-06-09 2016-11-15 Apple Inc. Multi-script handwriting recognition using a universal recognizer
WO2015136645A1 (ja) * 2014-03-12 2015-09-17 株式会社 東芝 電子機器、方法及びプログラム
US10776570B2 (en) * 2015-02-10 2020-09-15 Microsoft Technology Licensing, Llc Supporting digital ink in markup language documents
CN105893338B (zh) * 2015-02-17 2021-07-09 北京三星通信技术研究有限公司 用于输入公式的方法、装置和电子设备
US9658704B2 (en) * 2015-06-10 2017-05-23 Apple Inc. Devices and methods for manipulating user interfaces with a stylus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008505380A (ja) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ グラフィカルユーザインタフェースの多階層表示
JP2008134793A (ja) * 2006-11-28 2008-06-12 Fujifilm Corp 電子的手書入力装置
JP2011008379A (ja) * 2009-06-24 2011-01-13 Sharp Corp 検索装置および検索装置の制御方法
JP2011053971A (ja) * 2009-09-02 2011-03-17 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2013182511A (ja) * 2012-03-02 2013-09-12 Casio Comput Co Ltd 手書き入力装置およびプログラム
JP2014222391A (ja) * 2013-05-13 2014-11-27 株式会社Nttドコモ 電子機器、軌跡補正方法、プログラム

Also Published As

Publication number Publication date
US11360661B2 (en) 2022-06-14
CN108475135A (zh) 2018-08-31
US20180300054A1 (en) 2018-10-18

Similar Documents

Publication Publication Date Title
JP5158014B2 (ja) 表示制御装置、表示制御方法およびコンピュータプログラム
WO2017115692A1 (ja) 手書き入力装置、情報入力方法及びプログラム
US8854317B2 (en) Information processing apparatus, information processing method and program for executing processing based on detected drag operation
US9058085B2 (en) Touch sensor system
JP2011014044A (ja) 操作制御装置、操作制御方法およびコンピュータプログラム
JP5614173B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR20130099186A (ko) 표시 장치, 유저 인터페이스 방법, 및 프로그램
JP2009093291A (ja) ジェスチャー判定装置及び方法
US10353578B2 (en) Touch operation input device, touch operation input method and program
CN103150093B (zh) 一种操作提示标识符移动的方法、装置及终端
US20140253815A1 (en) Input apparatus, display apparatus, and control methods thereof
KR102216127B1 (ko) 문자 입력 방법 및 장치
EP2544083B1 (en) Apparatus and method for inputting character on touch screen
JP6176907B2 (ja) 情報処理装置およびその制御方法、プログラム
US20150355769A1 (en) Method for providing user interface using one-point touch and apparatus for same
KR101436585B1 (ko) 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
US20170060324A1 (en) User interface for electronic device, input processing method, and electronic device
KR100984826B1 (ko) 휴대용 단말기 및 그의 사용자 인터페이스 방법
TW201423563A (zh) 手寫輸入識別系統及方法
JP4160524B2 (ja) 端末装置、及び、文字入力方法
US10915220B2 (en) Input terminal device and operation input method
JP6475883B2 (ja) タッチ入力表示装置、表示制御方法及びプログラム
US20230168800A1 (en) Display device, display method, recording medium recording display program
JP5642862B2 (ja) 入力装置および入力方法
CN117616370A (zh) 触控响应方法、装置、交互平板和存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16881667

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16881667

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP