WO2012108350A1 - 電子機器、手書き処理方法、および手書き処理プログラム - Google Patents

電子機器、手書き処理方法、および手書き処理プログラム Download PDF

Info

Publication number
WO2012108350A1
WO2012108350A1 PCT/JP2012/052491 JP2012052491W WO2012108350A1 WO 2012108350 A1 WO2012108350 A1 WO 2012108350A1 JP 2012052491 W JP2012052491 W JP 2012052491W WO 2012108350 A1 WO2012108350 A1 WO 2012108350A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
touch panel
scroll
handwriting
processor
Prior art date
Application number
PCT/JP2012/052491
Other languages
English (en)
French (fr)
Inventor
靖弘 宮野
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to CN201280008321.5A priority Critical patent/CN103492999B/zh
Priority to US13/984,729 priority patent/US9348497B2/en
Publication of WO2012108350A1 publication Critical patent/WO2012108350A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • the present invention relates to an electronic device capable of displaying text on a touch panel, a handwriting processing method, and a handwriting processing program.
  • a graphic input device is disclosed in Japanese Patent Application Laid-Open No. 1-306916 (Patent Document 1).
  • the comparison / determination unit compares / determines whether the x, y coordinate values detected by the input control unit are within a predetermined figure input effective area. . If the region is not within the effective region, the scroll control unit issues a scroll instruction to any one of the upper, lower, left, and right directions to the display control unit according to the direction out of this region, and the screen is scrolled. If it is in the area, the corresponding point is written in the memory by the display control unit and displayed on the LCD. Thus, automatic scrolling in the handwriting method is realized. This can improve the operability.
  • Patent Document 2 discloses a handwritten character processing apparatus and method.
  • Patent Document 2 in a document display area in which a document edited according to the recognition result of the input handwritten character is displayed, a character input in handwriting is displayed in real time. The character input area is displayed superimposed.
  • the cursor for pointing data in the document displayed in the area is positioned in the area, the document is scrolled upward or downward in the area so that the cursor is positioned outside the area . Therefore, the scroll operation by the user is omitted and the practicability is improved.
  • Patent Document 3 discloses a character input device and a display control method of an input frame.
  • the character recognition means of the character input device performs the character recognition based on the handwriting input to the input frame detected by the input reception means.
  • the input frame scroll means scrolls the input frame displayed on the display screen in response to handwriting input to the predetermined input frame detected by the input reception means or pressing of the left and right scroll buttons detected by the scroll reception means.
  • the display processing means displays the character recognition result and the scroll processing result on the display screen.
  • the present invention has been made to solve such a problem, and its object is to provide an electronic device, a handwriting processing method, and a handwriting which allow a user to input a scroll command more easily and with less effort. It is providing a processing program.
  • an electronic device comprising: a touch panel; and a processor for receiving input of handwritten characters via the touch panel and displaying the handwritten characters on the touch panel.
  • the processor causes the touch panel to scroll the screen when a predetermined shape is input through the touch panel.
  • the processor determines that the predetermined shape has been input when detecting the input of a punctuation mark.
  • the processor when the processor detects the reading point input, it determines that the predetermined shape has been input.
  • the processor when a predetermined shape is input through the touch panel, the processor only has a width in the scroll direction of the area surrounding the handwritten character input from the previous scroll until the predetermined shape is input. Scroll the screen to.
  • the processor determines whether or not a blank area having a width exists behind the predetermined shape, and the screen is displayed if a blank area having a width exists. Scroll and do not scroll the screen if there is no blank area with width.
  • a handwriting processing method in an electronic device including a touch panel and a processor.
  • the processor receives an input of handwritten characters through the touch panel, the processor causes the touch panel to display handwritten characters, and the processor receives a predetermined shape through the touch panel. Scrolling the screen on the touch panel.
  • a handwriting processing program for an electronic device including a touch panel and a processor.
  • the handwriting processing program includes a step of receiving input of handwritten characters through the touch panel, a step of displaying handwritten characters on the touch panel, and a step of scrolling the screen on the touch panel when a predetermined shape is input through the touch panel.
  • an electronic device As described above, according to the present invention, there are provided an electronic device, a handwriting processing method, and a handwriting processing program, which allow a user to input a scroll command more easily and without time and effort.
  • FIG. 2 is a block diagram showing a hardware configuration of the electronic notebook 100.
  • FIG. 2 is a block diagram showing a functional configuration of the electronic notebook 100 according to the present embodiment. It is an image figure which shows the top coordinate and bottom coordinate which concern on this Embodiment, and scroll amount Y.
  • FIG. It is an image figure showing the 1st case which does not scroll. It is an image figure which shows the 2nd case which does not scroll. It is a flowchart which shows the handwriting process which concerns on this Embodiment. It is an image figure which shows the operation
  • an electronic notebook will be described as a representative example of “electronic device”.
  • the “electronic device” can also be realized by another information terminal having a touch panel, such as a personal computer, a portable telephone, a PDA (Personal Digital Assistant) or the like.
  • FIG. 1 is an image diagram showing an operation outline when one line of handwritten characters and phrase points are input to the electronic notebook 100 according to the present embodiment. More specifically, FIG. 1A is an image diagram showing a state in which the user is inputting handwritten characters into the electronic notebook 100. As shown in FIG. FIG. 1B is an image diagram showing a state in which the user is inputting phrase points in the electronic note. FIG. 1C is an image diagram showing a state in which the electronic notebook scrolls the screen.
  • the user inputs handwritten characters to electronic notebook 100 via touch panel 120. Specifically, the user slides the stylus pen 190 on the touch panel 120 to input handwritten characters.
  • the electronic notebook 100 displays a handwritten image showing characters and figures by displaying a line along the path of the stylus pen 190.
  • the user inputs phrase points “.”
  • electronic notebook 100 Specifically, the user slides the stylus pen 190 on the touch panel 120 to input the phrase point “.”.
  • the electronic notebook 100 displays a handwritten image indicating the phrase point “.” By displaying a line along the trajectory of the stylus pen 190.
  • electronic notebook 100 detects that the phrase point “.” Is input through touch panel 120.
  • the electronic note 100 scrolls the screen by the height X of the area surrounding one line of handwritten characters, which is input between the previous scroll (or the start of the handwriting application) and the phrase point being input.
  • the electronic notebook 100 scrolls the screen by the width X in the scroll direction of the area of handwritten characters.
  • the scroll amount represented by “height X” and “width X” is also referred to as “scroll amount X”.
  • FIG. 2 is an image diagram showing an operation outline when two lines of handwritten characters and phrase points are input to the electronic notebook 100 according to the present embodiment. More specifically, FIG. 2A is an image diagram showing a state in which the user is inputting handwritten characters into the electronic notebook 100. As shown in FIG. FIG. 2B is an image diagram showing a state in which the user is inputting phrase points in the electronic note. FIG. 2C is an image diagram showing a state in which the electronic notebook scrolls the screen.
  • the user inputs handwritten characters to electronic notebook 100 via touch panel 120. Specifically, the user slides the stylus pen 190 on the touch panel 120 to input handwritten characters.
  • the electronic notebook 100 displays a handwritten image showing characters and figures by displaying a line along the path of the stylus pen 190.
  • the user inputs a punctuation mark “.”
  • electronic notebook 100 Specifically, the user slides the stylus pen 190 on the touch panel 120 to input the phrase point “.”.
  • the electronic notebook 100 displays a handwritten image indicating the phrase point “.” By displaying a line along the trajectory of the stylus pen 190.
  • electronic notebook 100 detects that the phrase point “.” Is input through touch panel 120.
  • the electronic notebook 100 scrolls the screen by the height Y of the area surrounding the two lines of handwritten characters, which is input between the previous scroll (or the start of the handwriting application) and the phrase point being input.
  • the electronic note 100 scrolls the screen by the width Y in the scroll direction of the area of handwritten characters.
  • the scroll amount represented by “height Y” and “width Y” is also referred to as “scroll amount Y”.
  • the present invention is not limited to such a form.
  • the electronic notebook 100 may scroll the screen according to the input of the reading point, or may scroll the screen according to the phrase and the reading point. That is, the screen may be scrolled in response to the input of characters or images having the predetermined shape. Note that it is more efficient if the electronic notebook 100 scrolls the screen in response to the input of characters or images that are input or displayed as meaning a sentence or a meaning of a sentence, such as punctuation.
  • FIG. 3 is a block diagram showing the hardware configuration of the electronic notebook 100.
  • electronic notebook 100 includes CPU 110, touch panel 120, memory 130, memory interface 140, and communication interface 150 as main components.
  • Touch panel 120 includes a display 121 and a tablet 122.
  • the touch panel 120 may be any type such as a resistive film type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, and a capacitance type.
  • the touch panel 120 may include photosensor liquid crystal.
  • the touch panel 120 detects a touch operation on the touch panel 120 by an external object every predetermined time, and inputs touch coordinates (contact coordinates) to the CPU 110. In other words, the CPU 110 sequentially acquires touch coordinates from the touch panel 120.
  • the touch panel 120 displays characters and images based on an instruction (signal) from the CPU 110.
  • the memory 130 is realized by various random access memories (RAMs), read-only memories (ROMs), hard disks, and the like.
  • the memory 130 is a program executed by the CPU 110, time-series data of touch coordinates (handwriting data 131) input through the touch panel 120, and top coordinate data 132 of a touch detected from the latest scroll to the present
  • the lower coordinate data 133 is stored.
  • the CPU 110 controls each part of the electronic notebook 100 by executing the program stored in the memory 130.
  • the memory interface 140 reads data from the external storage medium 141.
  • the CPU 110 reads the data stored in the external storage medium 141 via the memory interface 140 and stores the data in the memory 130.
  • CPU 110 reads data from memory 130 and stores the data in external storage medium 141 via memory interface 140.
  • a CD-ROM Compact Disc-Read Only Memory
  • DVD-ROM Digital Versatile Disk-Read Only Memory
  • USB Universal Serial Bus
  • a memory card a FD (Flexible Disk), Hard disk, magnetic tape, cassette tape, MO (Magnetic Optical Disc), MD (Mini Disc), IC (Integrated Circuit) card (except memory card), optical card, mask ROM, EPROM, EEPROM (Electronically Erasable Programmable Read-Only) Media, such as a memory) which stores programs in a nonvolatile manner.
  • the communication interface 150 is realized by an antenna or a connector.
  • the communication interface 150 exchanges data with other devices by wired communication or wireless communication.
  • the CPU 110 receives a program, image data, text data, and the like from another device via the communication interface 150, and transmits image data and text data to the other device.
  • the CPU 110 controls each part of the electronic notebook 100 by executing a program stored in the memory 130 or the storage medium 141. That is, the CPU 110 implements the functional blocks shown in FIG. 4 or executes the processing shown in FIG. 8 by executing the program stored in the memory 130 or the storage medium 141.
  • FIG. 4 is a block diagram showing a functional configuration of the electronic notebook 100 according to the present embodiment.
  • the memory 130 stores handwriting data 131, top coordinate data 132, and bottom coordinate data 133.
  • the CPU 110 implements the coordinate detection unit 111, the coordinate processing unit 113, the handwriting processing unit 112, and the scroll processing unit 114 by executing a program stored in the memory 130.
  • the coordinate detection unit 111, the handwriting processing unit 112, the coordinate processing unit 113, and the scroll processing unit 114 are realized by the CPU 110 executing a program.
  • the coordinate detection unit 111, the handwriting processing unit 112, the coordinate processing unit 113, and the scroll processing unit 114 may be realized by a dedicated hardware circuit.
  • the coordinate detection unit 111 acquires contact coordinates of an external object on the touch panel 120 based on a signal from the tablet 122.
  • the coordinate detection unit 111 sequentially stores the acquired touch coordinates as time series data (handwriting data 131) in the memory 130.
  • the coordinate detection unit 111 may store the coordinates of the handwritten image and the type of the selected pen in the memory 130 in association with each other.
  • the handwriting processing unit 112 causes the touch panel 120 to display a locus of contact coordinates based on the handwriting data 131.
  • the locus of the touch coordinates indicates a character or a figure
  • the user can recognize the character or the figure displayed on the touch panel 120.
  • the handwriting processing unit 112 shifts the locus of the touch coordinates, that is, the handwritten character, and displays it (translates it) according to the scroll amount.
  • the coordinate processing unit 113 stores, as the top coordinate data 132, in the memory 130, among the contact coordinates detected after the previous scrolling (or upon activation of the handwriting application), the contact coordinates located at the front of the scrolling direction.
  • the coordinate processing unit 113 stores, as the lowermost coordinate data 133, in the memory 130, the coordinate located at the rearmost position in the scroll direction among the contact coordinates detected after the previous scroll (or when the handwriting application is activated).
  • FIG. 5 is an image diagram showing the top coordinates, the bottom coordinates, and the scroll amount Y according to the present embodiment.
  • coordinate processing unit 113 determines the coordinate located at the top of the contact coordinates. Are stored in the memory 130 as top coordinate data 132. Conversely, the coordinate processing unit 113 stores the lowermost coordinate of the touch coordinates as the lowermost coordinate data 133 in the memory 130.
  • the coordinate processing unit 113 sets the coordinate located on the most right of the contact coordinates as the top coordinate data 132 in the memory 130.
  • the coordinate processing unit 113 stores the leftmost coordinate among the touch coordinates as the lowermost coordinate data 133 in the memory 130.
  • the scroll processing unit 114 determines, based on the handwriting data 131, whether the locus of the contact coordinates indicates a predetermined shape. In the present embodiment, when it is determined that the phrase point “.” Is input through the touch panel 120, the scroll processing unit 114 causes the touch panel 120 to scroll the screen. More specifically, the scroll processing unit 114 determines whether or not the phrase point ".” Has been input based on the locus of the detected touch coordinates and the relative position of the character located in the periphery (especially in front) thereof. to decide.
  • the scroll processing unit 114 determines the scroll amounts X and Y based on the top coordinate data 132 and the bottom coordinate data 133.
  • the scroll processing unit 114 resets the top coordinate data 132 and the bottom coordinate data 133 when the screen is scrolled.
  • the scroll processing unit 114 determines, based on the top coordinate data 132 and the bottom coordinate data 133, in and after the previous scroll. The distance between the uppermost coordinate of the touch coordinates and the lowermost coordinate is calculated as the scroll amount X, Y.
  • the coordinate processing unit 113 determines the contact coordinates after the previous scroll based on the top coordinate data 132 and the bottom coordinate data 133. The distance between the coordinate located at the rightmost position and the coordinate located at the leftmost position is calculated as the scroll amount.
  • FIG. 6 is an image diagram showing a first case where scrolling is not performed.
  • FIG. 7 is an image diagram showing a second case where scrolling is not performed.
  • CPU 110 or scroll processing unit 114 performs automatic scroll processing using phrase points for handwritten characters input to area 121 ⁇ / b> X in which an image is displayed on touch panel 120. Do not run On the other hand, the CPU 110 or the scroll processing unit 114 executes an automatic scroll process using phrase points for handwritten characters input to the area 121Y of the touch panel 120 where no image is displayed.
  • CPU 110 or scroll processing unit 114 performs automatic scroll processing using phrase points for handwritten characters input to area 122 ⁇ / b> X on touch panel 120 where a problem is displayed. Do not run On the other hand, the CPU 110 or the scroll processing unit 114 executes an automatic scroll process using phrase points for handwritten characters input to the area 122Y of the touch panel 120 for inputting an answer.
  • the CPU 110 receives an instruction for scrolling the screen from the user via the scroll bar 123X with respect to the area 122X in which the problem is displayed. Similarly, the CPU 110 also receives an instruction for scrolling the screen from the user via the scroll bar 123Y with respect to the area 122Y for inputting an answer.
  • FIG. 8 is a flowchart showing handwriting processing according to the present embodiment.
  • CPU 110 determines whether or not the handwriting mode is selected (step S102). For example, CPU 110 selects a mode for accepting input of characters by handwriting via stylus pen 190 or the like, a mode for receiving input of characters by software button, or a mode for receiving input of characters by hardware button. to decide. If the handwriting mode is not selected (NO in step S102), the CPU 110 ends the handwriting process.
  • CPU 110 detects touch coordinates via touch panel 120.
  • CPU110 repeats the process from step S102, when a touch coordinate can not be detected (when it is NO in step S104).
  • CPU 110 changes the display mode (for example, the luminance) of the position corresponding to the touch coordinates on touch panel 120 (step S106). More specifically, the CPU 110 stores touch coordinates as handwriting data 131 in the memory 130. Then, the CPU 110 causes the touch panel 120 to display the handwritten character along the handwriting data 131 (a locus of the touch coordinates).
  • the CPU 110 determines whether the touch coordinates are within the scroll area (the area where the automatic scroll process is to be performed) (step S108). CPU110 repeats the process from step S104, when a contact coordinate is out of a scroll area (when it is NO in step S108).
  • CPU 110 updates top coordinate data 132 and bottom coordinate data 133 of memory 130 based on the present touch coordinates (step S110). ).
  • the CPU 110 determines, based on the handwriting data 131, whether the phrase point has been handwritten (step S112).
  • CPU110 repeats the process from step S104, when the phrase point is not handwritten (when it is NO in step S112).
  • CPU 110 calculates scroll amounts X and Y based on the top coordinate data 132 and bottom coordinate data 133 of memory 130 (step S114). When the scroll amount is determined, the CPU 110 resets the top coordinate data 132 and the bottom coordinate data 133 of the memory 130.
  • the CPU 110 determines whether or not a blank area having a width (width) corresponding to the scroll amount exists behind (below) the area in which the handwritten character or image input after the previous scroll is enclosed. (Step S116). If there is no blank area having a width corresponding to the scroll amount (NO in step S116), that is, a handwritten character or an image already exists behind the area surrounded by handwritten characters input after the previous scroll In the case, the CPU 110 executes the process from step S104.
  • step S116 If there is a blank area having a width corresponding to the scroll amount (YES in step S116), that is, no handwritten characters or images exist yet behind the area surrounded by handwritten characters input after the previous scroll
  • the CPU 110 causes the touch panel 120 to scroll the screen by the scroll amount (step S118).
  • the CPU 110 repeats the process from step S104.
  • the CPU 110 may execute the following processing.
  • step S112 When it is determined that the phrase point “.” Has been input (YES in step S112), the process from step S114 is performed when the next handwritten character or image is not input until a predetermined time has elapsed. You may In other words, in step S112, CPU 110 may determine whether or not a phrase point has been input, and whether or not the non-input state has continued for a predetermined time or more after the input of the handwritten image determined to be the phrase point.
  • step S104 executes the process from step S114 when a phrase point is input and the non-input state continues for a predetermined time or more after input of the handwritten image determined to be the phrase point (YES in step S112). .
  • the scroll direction of the area in which the handwritten character input after the previous scroll is enclosed Scroll the screen by the width of. This allows the user to continue the input of handwritten characters without shifting the hand in the scroll direction. This is particularly effective when the palm of the hand and the surface of the touch panel 120 do not slip easily.
  • the user does not need to input a scroll command separately from the input command of handwritten characters. That is, the user can input the scroll command more easily and without time and effort.
  • FIG. 9 is an image diagram showing an operation outline of the electronic notebook 200 having no function according to the present embodiment.
  • the user since the scroll process is not automatically performed, the user needs to input handwritten characters while shifting the hand in the scroll direction (up and down direction). Alternatively, the user needs to input an instruction to scroll separately by performing an operation different from the handwriting input.
  • the CPU 110 determines that a handwritten character (image) of a predetermined shape is input when a phrase point is input by handwriting.
  • the predetermined shape is not limited to the phrase. For example, when the reading point “,” is input by handwriting, or when the phrase point “.” Or the reading point “,” is input by handwriting, or when a predetermined character is input by handwriting, the handwritten character of the predetermined shape It may be determined that the (image) has been input.
  • the present invention can be applied to the case where the invention is achieved by supplying a program to a system or apparatus. Then, the external storage medium 141 (memory 130) storing the program represented by the software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus is external. By reading and executing the program code stored in the storage medium 141 (memory 130), it is possible to receive the effects of the present invention.
  • the program code itself read from the external storage medium 141 implements the functions of the above-described embodiment, and the external storage medium 141 (memory 130) storing the program code
  • the present invention is to be configured.
  • the present invention also includes the case where the processing of part or all of the actual processing is performed and the processing of the above-described embodiment is realized by the processing.
  • 100 electronic notebook 110 CPU, 111 coordinate detection unit, 112 handwriting processing unit, 113 coordinate processing unit, 114 scroll processing unit, 120 touch panel, 121 display, 122 tablet, 130 memory, 131 handwriting data, 132 top coordinate data, 133 maximum Lower coordinate data, 140 memory interface, 141 storage medium, 150 communication interface, 190 stylus pen.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 より簡単に、手間をかけずに、ユーザがスクロール命令を入力することができる電子機器、手書き処理方法、および手書き処理プログラムを提供する。電子機器(100)は、タッチパネル(120)と、タッチパネル(120)を介して手書き文字の入力を受け付け、タッチパネル(120)に手書き文字を表示させるためのプロセッサとを備える。プロセッサは、タッチパネル(120)を介して所定の形状が入力されると、タッチパネル(120)に画面をスクロールさせる。

Description

電子機器、手書き処理方法、および手書き処理プログラム
 本発明は、タッチパネル上にテキストを表示可能な電子機器、手書き処理方法、および手書き処理プログラムに関する。
 タッチパネルを介して手書きの文字や画像の入力を受け付けて、当該タッチパネルに入力された手書きの文字や画像を表示する技術が知られている。また、タッチパネルを介して、画面をスクロールするための命令を受け付ける技術も知られている。
 たとえば、特開平1-306916号公報(特許文献1)には、図形入力装置が開示されている。特開平1-306916号公報(特許文献1)によると、入力制御部により検出されたx、y各座標値は比較判別部において所定の図形入力有効領域内にあるか否かが比較判別される。そしてこの有効領域内になければ、この領域から外れた方向に応じ、スクロール制御部により上下左右のいずれかの方向に対するスクロール指示が表示制御部に対して発せられ、画面スクロールが実行される。もし領域内にあれば、該当する点が表示制御部によりメモリ内に書き込まれるとともにLCD上に表示される。このようにして手書き方式における自動スクロールが実現される。これにより操作性を向上させることができる。
 また、特開2001-42992号公報(特許文献2)には、手書き文字処理装置および方法が開示されている。特開2001-42992号公報(特許文献2)によると、入力された手書き文字の認識結果により編集された文書が表示される文書表示領域には、手書き入力される文字をリアルタイムに表示するための文字入力領域が重畳して表示される。領域内に領域で表示される文書内のデータを指示するためのカーソルが位置する場合には、カーソルが領域の外に位置するように、領域において文書が上または下にスクロールされて表示される。それゆえに、ユーザによるスクロール操作が省略されて実用性は向上する。
 また、特開2005-301406号公報(特許文献3)には、文字入力装置及び入力枠の表示制御方法が開示されている。特開2005-301406号公報(特許文献3)によると、文字入力装置の文字認識手段は、入力受付手段の検知した入力枠に対する手書き入力に基づき文字認識を行う。入力枠スクロール手段は、入力受付手段の検知した所定の入力枠に対する手書き入力又はスクロール受付手段の検知した左,右スクロールボタンの押下に応じて、表示画面上に表示された入力枠のスクロール処理として、自動スクロール処理、左スクロール処理、右スクロール処理のいずれかを行う。表示処理手段は、文字認識結果及びスクロール処理結果を表示画面に表示する。
特開平01-306916号公報 特開2001-42992号公報 特開2005-301406号公報
 しかしながら、より簡単で手間のかからないスクロール命令の入力方法が求められている。
 本発明は、かかる問題を解決するためになされたものであり、その目的は、より簡単に、手間をかけずに、ユーザがスクロール命令を入力することができる電子機器、手書き処理方法、および手書き処理プログラムを提供することである。
 この発明のある局面に従うと、タッチパネルと、タッチパネルを介して手書き文字の入力を受け付け、タッチパネルに手書き文字を表示させるためのプロセッサとを備える電子機器が提供される。プロセッサは、タッチパネルを介して所定の形状が入力されると、タッチパネルに画面をスクロールさせる。
 好ましくは、プロセッサは、句点の入力を検知すると、所定の形状が入力されたと判断する。
 好ましくは、プロセッサは、読点の入力を検知すると、所定の形状が入力されたと判断する。
 好ましくは、プロセッサは、タッチパネルを介して所定の形状が入力されると、前回のスクロールから所定の形状が入力されるまでの間に入力された手書き文字を囲むエリアのスクロール方向の幅だけ、タッチパネルに画面をスクロールさせる。
 好ましくは、プロセッサは、所定の形状が入力された際に、当該所定の形状の後方に幅を有する空白エリアが存在するか否かを判断し、幅を有する空白エリアが存在する場合に、画面をスクロールし、幅を有する空白エリアが存在しない場合に、画面をスクロールしない。
 この発明の別の局面に従うと、タッチパネルとプロセッサとを含む電子機器における手書き処理方法が提供される。手書き処理方法は、プロセッサが、タッチパネルを介して手書き文字の入力を受け付けるステップと、プロセッサが、タッチパネルに手書き文字を表示させるステップと、プロセッサが、タッチパネルを介して所定の形状が入力されると、タッチパネルに画面をスクロールさせるステップとを備える。
 この発明の別の局面に従うと、タッチパネルとプロセッサとを含む電子機器のための手書き処理プログラムが提供される。手書き処理プログラムは、タッチパネルを介して手書き文字の入力を受け付けるステップと、タッチパネルに手書き文字を表示させるステップと、タッチパネルを介して所定の形状が入力されると、タッチパネルに画面をスクロールさせるステップとをプロセッサに実行させる。
 以上のように、この発明によれば、より簡単に、手間をかけずに、ユーザがスクロール命令を入力することができる電子機器、手書き処理方法、および手書き処理プログラムが提供される。
本実施の形態に係る電子ノート100に1行分の手書き文字と句点とが入力された場合の動作概要を示すイメージ図である。 本実施の形態に係る電子ノート100に2行分の手書き文字と句点とが入力された場合の動作概要を示すイメージ図である。 電子ノート100のハードウェア構成を表わすブロック図である。 本実施の形態に係る電子ノート100の機能構成を示すブロック図である。 本実施の形態に係る最上座標と最下座標とスクロール量Yとを示すイメージ図である。 スクロールを行わない第1のケースを示すイメージ図である。 スクロールを行わない第2のケースを示すイメージ図である。 本実施の形態に係る手書き処理を示すフローチャートである。 本実施の形態に係る機能を有していない電子ノート200の動作概要を示すイメージ図である。
 以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。以下では、電子ノートを「電子機器」の代表例として説明を行う。ただし、「電子機器」は、パーソナルコンピュータ、携帯型電話機、PDA(Personal Digital Assistant)などのような、タッチパネルを有する他の情報端末によっても実現可能である。
 <電子ノート100の動作概要>
 まず、本実施の形態に係る電子ノート100に1行分の手書き文字と句点(または読点)とが入力された場合の動作概要について説明する。図1は、本実施の形態に係る電子ノート100に1行分の手書き文字と句点とが入力された場合の動作概要を示すイメージ図である。より詳細には、図1(a)は、ユーザが電子ノート100に手書き文字を入力している状態を示すイメージ図である。図1(b)は、ユーザが電子ノートに句点を入力している状態を示すイメージ図である。図1(c)は、電子ノートが画面をスクロールした状態を示すイメージ図である。
 図1(a)を参照して、ユーザは、タッチパネル120を介して、電子ノート100に手書き文字を入力する。具体的には、ユーザは、スタイラスペン190をタッチパネル120上でスライドさせることによって、手書き文字を入力する。電子ノート100は、スタイラスペン190の軌跡に沿って線を表示することによって、文字や図形を示す手書きの画像を表示する。
 図1(b)を参照して、ユーザは、タッチパネル120を介して、1行分の手書き文字を入力した後に、電子ノート100に句点「。」を入力する。具体的には、ユーザは、スタイラスペン190をタッチパネル120上でスライドさせることによって、句点「。」を入力する。電子ノート100は、スタイラスペン190の軌跡に沿って線を表示することによって、句点「。」を示す手書きの画像を表示する。
 図1(c)を参照して、電子ノート100は、タッチパネル120を介して、句点「。」が入力されたことを検知する。電子ノート100は、前回のスクロール(または手書きアプリケーション開始)から句点が入力されるまでの間に入力された、1行分の手書き文字を囲むエリアの高さXだけ、画面をスクロールする。換言すれば、電子ノート100は、手書き文字のエリアのスクロール方向の幅Xだけ、画面をスクロールする。なお、以下では、「高さX」および「幅X」で表されるスクロール量を、「スクロール量X」とも称する。
 次に、本実施の形態に係る電子ノート100に2行分の手書き文字と句点(または読点)とが入力された場合の動作概要について説明する。図2は、本実施の形態に係る電子ノート100に2行分の手書き文字と句点とが入力された場合の動作概要を示すイメージ図である。より詳細には、図2(a)は、ユーザが電子ノート100に手書き文字を入力している状態を示すイメージ図である。図2(b)は、ユーザが電子ノートに句点を入力している状態を示すイメージ図である。図2(c)は、電子ノートが画面をスクロールした状態を示すイメージ図である。
 図2(a)を参照して、ユーザは、タッチパネル120を介して、電子ノート100に手書き文字を入力する。具体的には、ユーザは、スタイラスペン190をタッチパネル120上でスライドさせることによって、手書き文字を入力する。電子ノート100は、スタイラスペン190の軌跡に沿って線を表示することによって、文字や図形を示す手書きの画像を表示する。
 図2(b)を参照して、ユーザは、タッチパネル120を介して、2行分の手書き文字を入力した後に、電子ノート100に句点「。」を入力する。具体的には、ユーザは、スタイラスペン190をタッチパネル120上でスライドさせることによって、句点「。」を入力する。電子ノート100は、スタイラスペン190の軌跡に沿って線を表示することによって、句点「。」を示す手書きの画像を表示する。
 図2(c)を参照して、電子ノート100は、タッチパネル120を介して、句点「。」が入力されたことを検知する。電子ノート100は、前回のスクロール(または手書きアプリケーション開始)から句点が入力されるまでの間に入力された、2行分の手書き文字を囲むエリアの高さYだけ、画面をスクロールする。換言すれば、電子ノート100は、手書き文字のエリアのスクロール方向の幅Yだけ、画面をスクロールする。なお、以下では、「高さY」および「幅Y」で表されるスクロール量を、「スクロール量Y」とも称する。
 これによって、ユーザは、手をスクロール方向にずらさなくても、手書き文字の入力を継続することができる。手の平とタッチパネル120の表面とが滑り難いときに特に有効である。また、ユーザは、手書き文字の入力命令とは別に、スクロール命令を入力する必要がなくなる。すなわち、より簡単に、手間をかけずに、ユーザがスクロール命令を入力することができる。
 なお、本実施の形態においては、電子ノート100が、句点の入力に応じて画面をスクロールする場合について説明するが、このような形態に限定するものではない。電子ノート100が、読点の入力に応じて画面をスクロールしてもよいし、句点と読点とに応じて画面をスクロールしてもよい。すなわち、電子ノート100が、所定の形状を有する文字や画像の入力に応じて画面をスクロールすればよい。なお、電子ノート100が、句読点のように、文または文の意味の区切りを意味するものとして入力されたり表示されたりする文字や画像の入力に応じて画面をスクロールすればより効率的である。
 以下、このような機能を実現するための電子ノート100の具体的な構成について詳述する。
 <電子ノート100のハードウェア構成>
 次に、電子ノート100の具体的構成の一態様について説明する。図3は、電子ノート100のハードウェア構成を表わすブロック図である。図3を参照して、電子ノート100は、主たる構成要素として、CPU110と、タッチパネル120と、メモリ130と、メモリインターフェイス140と、通信インターフェイス150とを含む。
 タッチパネル120は、ディスプレイ121とタブレット122とを含む。タッチパネル120は、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などのいずれのタイプであってもよい。タッチパネル120は、光センサ液晶を含んでもよい。
 タッチパネル120は、所定時間毎に外部の物体によるタッチパネル120へのタッチ操作を検知して、タッチ座標(接触座標)をCPU110に入力する。換言すれば、CPU110は、タッチパネル120から順次タッチ座標を取得する。タッチパネル120は、CPU110からの命令(信号)に基づいて、文字や画像を表示する。
 メモリ130は、各種のRAM(Random Access Memory)や、ROM(Read-Only Memory)や、ハードディスクなどによって実現される。メモリ130は、CPU110によって実行されるプログラム、タッチパネル120を介して入力されたタッチ座標の時系列データ(筆跡データ131)、最新のスクロールから現在までの間に検知されたタッチの最上座標データ132と最下座標データ133、などを記憶する。換言すれば、CPU110は、メモリ130に記憶されているプログラムを実行することによって、電子ノート100の各部を制御する。
 メモリインターフェイス140は、外部の記憶媒体141からデータを読み出す。換言すれば、CPU110は、メモリインターフェイス140を介して外部の記憶媒体141に格納されているデータを読み出して、当該データをメモリ130に格納する。逆に、CPU110は、メモリ130からデータを読み出して、メモリインターフェイス140を介して当該データを外部の記憶媒体141に格納する。
 なお、記憶媒体141としては、CD-ROM(Compact Disc - Read Only Memory)、DVD-ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。
 通信インターフェイス150は、アンテナやコネクタによって実現される。通信インターフェイス150は、有線通信あるいは無線通信によって他の装置との間でデータをやり取りする。換言すれば、CPU110は、通信インターフェイス150を介して、他の装置からプログラムや画像データやテキストデータなどを受信したり、他の装置に画像データやテキストデータを送信したりする。
 CPU110は、メモリ130あるいは記憶媒体141に記憶されているプログラムを実行することによって、電子ノート100の各部を制御する。すなわち、CPU110は、メモリ130あるいは記憶媒体141に記憶されているプログラムを実行することによって、図4に記載の機能ブロックを実現したり、図8に記載の処理を実行したりする。
 以下では、電子ノート100が有する機能構成について説明する。図4は、本実施の形態に係る電子ノート100の機能構成を示すブロック図である。
 図4を参照して、メモリ130は、筆跡データ131と、最上座標データ132と、最下座標データ133を記憶する。CPU110は、メモリ130に記憶されているプログラムを実行することによって、座標検知部111、座標処理部113、筆跡処理部112、スクロール処理部114を実現する。
 なお、本実施の形態においては、座標検知部111、筆跡処理部112、座標処理部113、スクロール処理部114は、CPU110がプログラムを実行することによって、実現されるものである。しかしながら、座標検知部111、筆跡処理部112、座標処理部113、スクロール処理部114は、専用のハードウェア回路によって実現されてもよい。
 まず、座標検知部111は、タブレット122からの信号に基づいて、タッチパネル120における外部の物体の接触座標を取得する。座標検知部111は、取得する接触座標を時系列データ(筆跡データ131)として逐次メモリ130に記憶する。座標検知部111は、手書き画像の座標と、選択されているペンの種類とを対応付けてメモリ130に蓄積してもよい。
 筆跡処理部112は、筆跡データ131に基づいて、接触座標の軌跡をタッチパネル120に表示させる。これによって、接触座標の軌跡が文字や図形を示す場合、ユーザは、タッチパネル120に表示されている文字や図形を認識することができる。筆跡処理部112は、後述するように画面がスクロールされる際に、スクロール量に応じて、接触座標の軌跡すなわち手書き文字をずらして表示する(平行移動させる)。
 座標処理部113は、前回のスクロール時(または手書きアプリケーションの起動時)以降に検知された接触座標のうち、スクロール方向の最も前方に位置する接触座標を最上座標データ132としてメモリ130に記憶する。座標処理部113は、前回のスクロール時(または手書きアプリケーションの起動時)以降に検知された接触座標のうち、スクロール方向の最も後方に位置する座標を最下座標データ133としてメモリ130に記憶する。
 図5は、本実施の形態に係る最上座標と最下座標とスクロール量Yとを示すイメージ図である。図4および5を参照して、たとえば、ページが進む方向(スクロール方向)が、下方向(y方向)である場合には、座標処理部113は、接触座標のうちの最も上に位置する座標を最上座標データ132としてメモリ130に記憶する。逆に、座標処理部113は、接触座標のうちの最も下に位置する座標を最下座標データ133としてメモリ130に記憶する。
 また、ページが進む方向(スクロール方向)が、左方向(x方向)である場合には、座標処理部113は、接触座標のうちの最も右に位置する座標を最上座標データ132としてメモリ130に記憶する。逆に、座標処理部113は、接触座標のうちの最も左に位置する座標を最下座標データ133としてメモリ130に記憶する。
 スクロール処理部114は、筆跡データ131に基づいて、接触座標の軌跡が所定の形状を示すか否かを判断する。本実施の形態においては、スクロール処理部114は、タッチパネル120を介して、句点「。」が入力されたと判断した場合、タッチパネル120に画面をスクロールさせる。より詳細には、スクロール処理部114は、検知された接触座標の軌跡と、その周囲(特に前方)に位置する文字との相対位置とに基づいて、句点「。」が入力されたか否かを判断する。
 スクロール処理部114は、最上座標データ132と最下座標データ133とに基づいて、スクロール量X,Yを決定する。なお、スクロール処理部114は、画面をスクロールした際に、最上座標データ132と最下座標データ133とをリセットする。
 たとえば、ページが進む方向(スクロール方向)が、下方向(y方向)である場合には、スクロール処理部114は、最上座標データ132と最下座標データ133とに基づいて、前回のスクロール以降における接触座標のうちの最も上に位置する座標と最も下に位置する座標との距離をスクロール量X,Yとして計算する。ページが進む方向(スクロール方向)が、左方向(x方向)である場合には、座標処理部113は、最上座標データ132と最下座標データ133とに基づいて、前回のスクロール以降における接触座標のうちの最も右に位置する座標と最も左に位置する座標との距離をスクロール量として計算する。
 以下では、句点(または読点)による上記のような自動スクロール処理が実行されない方が好ましい場合について説明する。図6は、スクロールを行わない第1のケースを示すイメージ図である。図7は、スクロールを行わない第2のケースを示すイメージ図である。
 図6を参照して、本実施の形態においては、CPU110またはスクロール処理部114は、タッチパネル120のうちの、画像が表示されているエリア121Xに入力された手書き文字に関しては、句点による自動スクロール処理を実行しない。一方、CPU110またはスクロール処理部114は、タッチパネル120のうちの、画像が表示されていないエリア121Yに入力された手書き文字に関しては、句点による自動スクロール処理を実行する。
 図7を参照して、本実施の形態においては、CPU110またはスクロール処理部114は、タッチパネル120のうちの、問題が表示されているエリア122Xに入力された手書き文字に関しては、句点による自動スクロール処理を実行しない。一方、CPU110またはスクロール処理部114は、タッチパネル120のうちの、答えを入力するためのエリア122Yに入力された手書き文字に関しては、句点による自動スクロール処理を実行する。
 なお、図7に関しては、CPU110は、問題が表示されているエリア122Xに関しては、スクロールバー123Xを介して、ユーザから画面をスクロールするための命令を受け付ける。同様に、CPU110は、答えを入力するためのエリア122Yに関しても、スクロールバー123Yを介して、ユーザから画面をスクロールするための命令を受け付ける。
 <手書き処理>
 以下では、CPU110によって実行される手書き処理について説明する。図8は、本実施の形態に係る手書き処理を示すフローチャートである。
 図8を参照して、CPU110は、手書きモードが選択されているか否かを判断する(ステップS102)。たとえば、CPU110は、スタイラスペン190などを介した手書きによって文字の入力を受け付けるモード、ソフトウェアボタンによって文字の入力を受け付けるモード、ハードウェアボタンによって文字の入力を受けるモード、のいずれが選択されているかを判断する。手書きモードが選択されていない場合(ステップS102においてNOである場合)、CPU110は、手書き処理を終了する。
 手書きモードが選択されている場合(ステップS102においてYESである場合)、CPU110は、タッチパネル120を介して接触座標を検出する。CPU110は、接触座標が検出できない場合(ステップS104においてNOである場合)、ステップS102からの処理を繰り返す。
 CPU110は、接触座標が検出できる場合(ステップS104においてYESである場合)、タッチパネル120に当該接触座標に対応する位置の表示態様(たとえば輝度)を変化させる(ステップS106)。より詳細には、CPU110は、接触座標を筆跡データ131としてメモリ130に蓄積する。そして、CPU110は、筆跡データ131(接触座標の軌跡)に沿って、タッチパネル120に入力された手書き文字を表示させる。
 CPU110は、接触座標がスクロールエリア(自動スクロール処理を実行すべきエリア)内であるか否かを判断する(ステップS108)。CPU110は、接触座標がスクロールエリア外である場合(ステップS108においてNOである場合)、ステップS104からの処理を繰り返す。
 CPU110は、接触座標がスクロールエリア内である場合(ステップS108においてYESである場合)、今回の接触座標に基づいて、メモリ130の最上座標データ132と最下座標データ133とを更新する(ステップS110)。CPU110は、筆跡データ131に基づいて、句点が手書きされたか否かを判断する(ステップS112)。CPU110は、句点が手書きされていない場合(ステップS112においてNOである場合)、ステップS104からの処理を繰り返す。
 CPU110は、句点が手書きされた場合(ステップS112においてYESである場合)、メモリ130の最上座標データ132と最下座標データ133とに基づいて、スクロール量X,Yを計算する(ステップS114)。スクロール量が決定されると、CPU110は、メモリ130の最上座標データ132と最下座標データ133とをリセットする。
 CPU110は、前回のスクロール時以降に入力された手書き文字や画像が囲まれるエリアの後方(下方)に、スクロール量に対応する幅(広さ)を有する空白エリアが存在するか否かを判断する(ステップS116)。スクロール量に対応する幅を有する空白エリアが存在しない場合(ステップS116においてNOである場合)、すなわち前回のスクロール以降に入力された手書き文字が囲まれるエリアの後方に手書き文字や画像が既に存在する場合、CPU110は、ステップS104からの処理を実行する。
 スクロール量に対応する幅を有する空白エリアが存在する場合(ステップS116においてYESである場合)、すなわち前回のスクロール以降に入力された手書き文字が囲まれるエリアの後方に手書き文字や画像が未だ存在しない場合、CPU110は、タッチパネル120に、スクロール量だけ画面をスクロールさせる(ステップS118)。CPU110は、ステップS104からの処理を繰り返す。
 ただし、句点などの所定の形状が入力されたか否かの判断の信頼性を向上させるために、CPU110は、以下のような処理を実行しても良い。
 CPU110は、句点「。」が入力されたと判断した場合(ステップS112においてYESである場合)、所定の時間が経過するまで次の手書き文字または画像が入力されないときに、ステップS114からの処理を実行してもよい。言い換えれば、ステップS112において、CPU110は、句点が入力されたか否かと、句点と判断された手書き画像の入力後に未入力状態が所定時間以上継続したか否か、とを判断してもよい。
 この場合、CPU110は、句点が入力されていない場合、あるいは句点と判断された手書き画像の入力後の所定時間経過前に次の手書き画像が入力された場合(ステップS112においてNOである場合)、ステップS104からの処理を繰り返す。一方、CPU110は、句点が入力されて、当該句点と判断された手書き画像の入力後に所定時間以上未入力状態が継続した場合(ステップS112においてYESである場合)、ステップS114からの処理を実行する。
 このように、本実施の形態に係る電子ノート100は、句点などの所定の形状の手書き文字(図形)が入力されると、前回のスクロール以降に入力された手書き文字が囲まれるエリアのスクロール方向の幅の分だけ、画面をスクロールする。これによって、ユーザは、手をスクロール方向にずらさなくても、手書き文字の入力を継続することができる。これは、手の平とタッチパネル120の表面とが滑り難いときに特に有効である。また、ユーザは、手書き文字の入力命令とは別に、スクロール命令を入力する必要がなくなる。すなわち、より簡単に、手間をかけずに、ユーザがスクロール命令を入力することができる。
 以下では、比較のために、このような機能を有していない電子ノートについて説明する。図9は、本実施の形態に係る機能を有していない電子ノート200の動作概要を示すイメージ図である。図9を参照して、電子ノート200では、スクロール処理が自動で行われないため、ユーザは、手をスクロール方向(上下方向)にずらしながら手書き文字を入力する必要がある。あるいは、ユーザは、手書き文字の入力とは別の動作を行うことによって、別途スクロールするための命令を入力する必要がある。
 <その他の応用例>
 上記の実施の形態においては、CPU110は、句点が手書き入力された場合に、所定の形状の手書き文字(画像)が入力されたと判断するものであった。しかしながら、所定の形状は、句点に限らない。たとえば、CPU110は、読点「、」が手書き入力された場合、あるいは句点「。」または読点「、」が手書き入力された場合、あるいは所定の文字が手書き入力された場合、所定の形状の手書き文字(画像)が入力されたと判断してもよい。
 本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した外部の記憶媒体141(メモリ130)を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が外部の記憶媒体141(メモリ130)に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。
 この場合、外部の記憶媒体141(メモリ130)から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した外部の記憶媒体141(メモリ130)は本発明を構成することになる。
 また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
 さらに、外部の記憶媒体141(メモリ130)から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わる他の記憶媒体に書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 100 電子ノート、110 CPU、111 座標検知部、112 筆跡処理部、113 座標処理部、114 スクロール処理部、120 タッチパネル、121 ディスプレイ、122 タブレット、130 メモリ、131 筆跡データ、132 最上座標データ、133 最下座標データ、140 メモリインターフェイス、141 記憶媒体、150 通信インターフェイス、190 スタイラスペン。

Claims (7)

  1.  タッチパネルと、
     前記タッチパネルを介して手書き文字の入力を受け付け、前記タッチパネルに前記手書き文字を表示させるためのプロセッサとを備え、
     前記プロセッサは、前記タッチパネルを介して所定の形状が入力されると、前記タッチパネルに画面をスクロールさせる、電子機器。
  2.  前記プロセッサは、句点の入力を検知すると、前記所定の形状が入力されたと判断する、請求項1に記載の電子機器。
  3.  前記プロセッサは、読点の入力を検知すると、前記所定の形状が入力されたと判断する、請求項1に記載の電子機器。
  4.  前記プロセッサは、前記タッチパネルを介して所定の形状が入力されると、前回のスクロールから前記所定の形状が入力されるまでの間に入力された手書き文字を囲むエリアのスクロール方向の幅だけ、前記タッチパネルに画面をスクロールさせる、請求項1に記載の電子機器。
  5.  前記プロセッサは、
     前記所定の形状が入力された際に、当該所定の形状の後方に前記幅を有する空白エリアが存在するか否かを判断し、
     前記幅を有する空白エリアが存在する場合に、前記画面をスクロールし、
     前記幅を有する空白エリアが存在しない場合に、前記画面をスクロールしない、請求項4に記載の電子機器。
  6.  タッチパネルとプロセッサとを含む電子機器における手書き処理方法であって、
     前記プロセッサが、前記タッチパネルを介して手書き文字の入力を受け付けるステップと、
     前記プロセッサが、前記タッチパネルに前記手書き文字を表示させるステップと、
     前記プロセッサが、前記タッチパネルを介して所定の形状が入力されると、前記タッチパネルに画面をスクロールさせるステップとを備える、手書き処理方法。
  7.  タッチパネルとプロセッサとを含む電子機器のための手書き処理プログラムであって、
     前記タッチパネルを介して手書き文字の入力を受け付けるステップと、
     前記タッチパネルに前記手書き文字を表示させるステップと、
     前記タッチパネルを介して所定の形状が入力されると、前記タッチパネルに画面をスクロールさせるステップとを前記プロセッサに実行させる、手書き処理プログラム。
PCT/JP2012/052491 2011-02-10 2012-02-03 電子機器、手書き処理方法、および手書き処理プログラム WO2012108350A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201280008321.5A CN103492999B (zh) 2011-02-10 2012-02-03 电子设备以及手写处理方法
US13/984,729 US9348497B2 (en) 2011-02-10 2012-02-03 Electronic device, and handwriting processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-027454 2011-02-10
JP2011027454A JP5606950B2 (ja) 2011-02-10 2011-02-10 電子機器、手書き処理方法、および手書き処理プログラム

Publications (1)

Publication Number Publication Date
WO2012108350A1 true WO2012108350A1 (ja) 2012-08-16

Family

ID=46638566

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/052491 WO2012108350A1 (ja) 2011-02-10 2012-02-03 電子機器、手書き処理方法、および手書き処理プログラム

Country Status (4)

Country Link
US (1) US9348497B2 (ja)
JP (1) JP5606950B2 (ja)
CN (1) CN103492999B (ja)
WO (1) WO2012108350A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106293435B (zh) * 2015-05-27 2019-12-24 联想(北京)有限公司 一种信息处理方法及电子设备
JP6455856B2 (ja) * 2015-07-03 2019-01-23 アルパイン株式会社 手書文字入力装置及びコンピュータプログラム
EP3159747A1 (fr) * 2015-10-22 2017-04-26 ETA SA Manufacture Horlogère Suisse Spiral a encombrement reduit a section constante
US9880800B1 (en) 2016-10-26 2018-01-30 Dell Products L. P. Routing content in a dual-display computing device
US10228839B2 (en) 2016-11-10 2019-03-12 Dell Products L.P. Auto-scrolling input in a dual-display computing device
US10514844B2 (en) 2016-11-16 2019-12-24 Dell Products L.P. Automatically modifying an input area based on a proximity to one or more edges
US10170061B2 (en) 2016-11-30 2019-01-01 Dell Products L.P. Backlight compensation for a computing device with two or more display devices
US11017258B2 (en) * 2018-06-05 2021-05-25 Microsoft Technology Licensing, Llc Alignment of user input on a screen
TWI740496B (zh) * 2020-05-12 2021-09-21 宏碁股份有限公司 調整墨水物件間距的觸控系統及方法以及電腦可讀取媒體
US11723465B2 (en) * 2020-07-10 2023-08-15 Nadun Gajapala Automatically adjusting writing board

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06162001A (ja) * 1992-11-18 1994-06-10 Sharp Corp 手書き入力機能付き文書処理装置
JP2002278700A (ja) * 2001-03-15 2002-09-27 Ricoh Co Ltd 情報入力装置、情報入力装置の制御方法、プログラムおよびプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004110439A (ja) * 2002-09-18 2004-04-08 Ricoh Co Ltd 表示一体型座標入力装置およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0626487B2 (ja) 1988-02-12 1994-04-13 松山株式会社 結球野菜の収穫方法及びその装置
US5448475A (en) 1992-11-18 1995-09-05 Sharp Kabushiki Kaisha Word processing apparatus with handwriting input function
JPH09319504A (ja) * 1996-05-31 1997-12-12 Sanyo Electric Co Ltd 文書処理装置、文書処理方法、記憶媒体
CN1221909A (zh) 1997-12-29 1999-07-07 三星电子株式会社 自动显示设备上的滚动方法
US6256009B1 (en) * 1999-02-24 2001-07-03 Microsoft Corporation Method for automatically and intelligently scrolling handwritten input
JP2001042992A (ja) 1999-07-30 2001-02-16 Sharp Corp 手書き文字処理装置および方法
JP2001306210A (ja) * 2000-04-27 2001-11-02 Ricoh Co Ltd 表示システム、情報入力/表示システム、画面表示方法及び記憶媒体
JP2005301406A (ja) 2004-04-07 2005-10-27 Hitachi Software Eng Co Ltd 文字入力装置及び入力枠の表示制御方法
KR101549557B1 (ko) * 2009-03-10 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
CN101840519B (zh) 2010-04-14 2012-02-22 上海合合信息科技发展有限公司 手写输入时自动滚动电子墨水的方法
US20120066638A1 (en) * 2010-09-09 2012-03-15 Microsoft Corporation Multi-dimensional auto-scrolling

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06162001A (ja) * 1992-11-18 1994-06-10 Sharp Corp 手書き入力機能付き文書処理装置
JP2002278700A (ja) * 2001-03-15 2002-09-27 Ricoh Co Ltd 情報入力装置、情報入力装置の制御方法、プログラムおよびプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004110439A (ja) * 2002-09-18 2004-04-08 Ricoh Co Ltd 表示一体型座標入力装置およびプログラム

Also Published As

Publication number Publication date
JP2012168631A (ja) 2012-09-06
US20130314362A1 (en) 2013-11-28
CN103492999A (zh) 2014-01-01
CN103492999B (zh) 2018-04-17
US9348497B2 (en) 2016-05-24
JP5606950B2 (ja) 2014-10-15

Similar Documents

Publication Publication Date Title
JP5606950B2 (ja) 電子機器、手書き処理方法、および手書き処理プログラム
JP5599741B2 (ja) 電子機器、コンテンツ表示方法、およびコンテンツ表示プログラム
KR101137154B1 (ko) 디스플레이 장치상에 텍스트 입력 시스템을 활성화 및디스플레이하기 위한 사용자 인터페이스, 시스템 및 방법
US7750893B2 (en) Storage medium storing input position processing program, and input position processing device
US7489307B2 (en) Handwritten information input apparatus
US9013428B2 (en) Electronic device and handwritten document creation method
JP5792499B2 (ja) 電子機器、表示方法、および表示プログラム
JP5666238B2 (ja) 電子機器および表示方法
US20120290964A1 (en) Method for creating bookmark and electronic reading device using the same
US20140289672A1 (en) Graph display apparatus, graph display method and storage medium having stored thereon graph display program
US20160239177A1 (en) Display control apparatus, control method therefor, and storage medium storing control program therefor
JP5775291B2 (ja) 電子機器および表示方法
JP5774350B2 (ja) 電子機器、手書き入力方法、および手書き入力プログラム
US20090033684A1 (en) On-screen marker to assist usability while scrolling
JP5777915B2 (ja) 電子機器及びその表示方法
JP6429692B2 (ja) 電子機器
JP5219134B2 (ja) 情報表示装置、情報表示方法、情報表示プログラム、並びに情報表示プログラムを記録した記憶媒体
JPWO2014024281A1 (ja) 電子機器、表示制御方法及びプログラム
EP1564631A1 (en) Display control device, display control program, and display control method
JP5902262B2 (ja) 電子機器および表示方法
JP5927250B2 (ja) 電子機器および表示方法
US20160162144A1 (en) Display device, display method and computer readable non-volatile recording medium storing program
JP2013242630A (ja) 入力装置、その制御方法、およびその制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12744847

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13984729

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12744847

Country of ref document: EP

Kind code of ref document: A1