WO2012077475A1 - 電子機器および表示方法 - Google Patents

電子機器および表示方法 Download PDF

Info

Publication number
WO2012077475A1
WO2012077475A1 PCT/JP2011/076514 JP2011076514W WO2012077475A1 WO 2012077475 A1 WO2012077475 A1 WO 2012077475A1 JP 2011076514 W JP2011076514 W JP 2011076514W WO 2012077475 A1 WO2012077475 A1 WO 2012077475A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
touch position
rectangular area
cpu
processor
Prior art date
Application number
PCT/JP2011/076514
Other languages
English (en)
French (fr)
Inventor
祥典 岸部
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2012077475A1 publication Critical patent/WO2012077475A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Definitions

  • the present invention relates to an electronic device and a display method capable of displaying text on a touch panel, and more particularly to an electronic device and a display method for receiving a character string selection command and a screen scroll command from a user via the touch panel.
  • a technique for receiving a command from a user by acquiring a touch position via a touch panel is also known.
  • the electronic device accepts selection of a software button via the touch panel, or scrolls the screen according to the slide amount by detecting a user's slide operation.
  • Japanese Unexamined Patent Application Publication No. 2008-204402 discloses a user interface device.
  • the UI unit of a digital camera includes a display screen, and a left touch strip and a right touch strip arranged on the left outer side and the right outer side of the display screen. .
  • Each of the touch strips can be detected by distinguishing a sliding operation in the vertical direction and a sliding operation in the horizontal direction by the user.
  • the control unit of the UI unit accepts an operation instruction that places importance on the slide amount, such as moving the selection position of an item or scrolling the screen, and when a horizontal slide is detected. Is received as an operation instruction having a trigger meaning in which the slide amount is not important, such as a file deletion instruction or display or non-display of a new hierarchy item.
  • Patent Document 2 discloses a program, an information storage medium, and a game device.
  • Patent Document 2 when performing an operation input of a pitcher's pitching operation in a baseball game, if a sliding operation is performed in the left-right direction in the touch position changing area on the operation screen, the operation direction is changed. The standing position of the pitcher on the game screen changes by a distance corresponding to the operation amount in the selected direction. Then, when a slide operation from the top to the bottom is performed so as to pass through the gate on the operation screen, a pitcher pitching motion is started on the game screen. Thereafter, when the slide operation is continued to the ball type / ball speed selection area, the ball type / ball speed corresponding to the touch position is selected, and the pitching course is changed in the left / right direction according to the operation amount in the left / right direction.
  • the present invention has been made to solve such a problem, and an object of the present invention is to provide an electronic device that allows a user to input a screen scroll command and a character string selection command through a simpler operation via a touch panel. It is to provide a device and a display method.
  • an electronic device including a touch panel, a memory for storing text, and a processor for displaying text on the touch panel and acquiring a touch position via the touch panel.
  • the processor obtains the slide direction of the touch position, and accepts a character string selection command based on the touch position when the slide direction is horizontal, and based on the touch position when the slide direction is vertical. Accepts a screen scroll command.
  • the processor determines the sliding direction based on the touch position when the touch position is detected outside the first rectangular area including the character including the touch start position.
  • the processor determines the slide direction based on the touch position when the touch position is detected outside the first rectangular area and outside the second rectangular area centered on the touch start position.
  • the slide direction is the vertical direction.
  • the slide direction is determined to be the horizontal direction.
  • the slide direction is the horizontal direction. If the touch position is located outside the first rectangular area, and the angle between the direction from the touch start position to the touch position and the vertical direction is equal to or greater than a predetermined angle, the slide direction is determined to be the vertical direction. To do.
  • the processor determines that the slide direction is the vertical direction when the touch position is located substantially above or substantially below the first rectangular area, and the touch position is the first rectangular area. When the position is not located substantially above or substantially below, it is determined that the sliding direction is the horizontal direction.
  • the processor determines that the sliding direction is the lateral direction when the touch position is located approximately one of the right side and the left side of the first rectangular area, and the touch position is determined to be the first position.
  • the rectangular area is not located on either the substantially right side or the substantially left side, it is determined that the sliding direction is the vertical direction.
  • the processor determines that the sliding direction is the vertical direction when the touch position is outside the first rectangular area and outside the line including the character including the touch start position, and the touch position is When it is located outside the first rectangular area and inside the line including the character including the touch start position, it is determined that the slide direction is the horizontal direction.
  • the processor determines that the sliding direction is the vertical direction when the touch position is located outside the first rectangular area and inside the column including the character including the touch start position, and the touch position is When it is located outside the first rectangular area and outside the column including the character including the touch start position, it is determined that the slide direction is the horizontal direction.
  • a display method in an electronic device including a touch panel and a processor includes a step in which a processor displays text on a touch panel, a step in which the processor acquires a touch position via the touch panel, a step in which the processor acquires a sliding direction of the touch position, and a sliding direction is a horizontal direction.
  • the processor accepts a character string selection command based on the touch position, and if the slide direction is the vertical direction, the processor accepts a screen scroll command based on the touch position.
  • FIG. 2 is a block diagram showing a hardware configuration of electronic dictionary 100.
  • FIG. It is an image figure which shows the 1st determination method which concerns on this Embodiment. It is an image figure which shows the 2nd determination method which concerns on this Embodiment. It is an image figure which shows the 3rd determination method which concerns on this Embodiment. It is an image figure which shows the 4th determination method concerning this Embodiment. It is an image figure which shows the 5th determination method concerning this Embodiment. It is an image figure which shows the 6th determination method concerning this Embodiment. It is a 1st image figure which shows the 7th determination method concerning this Embodiment.
  • an electronic dictionary will be described as a representative example of “electronic device”.
  • the “electronic device” can also be realized by another information terminal having a touch panel such as a personal computer, a mobile phone, an electronic notebook, a PDA (Personal Digital Assistant).
  • FIG. 1 is an image diagram showing an outline of operation of electronic dictionary 100 according to the present embodiment. More specifically, FIG. 1A is an image diagram showing a state in which the electronic dictionary 100 displays text.
  • FIG. 1B is an image diagram showing a state in which the user's finger slides in the left-right direction on the text displayed on the touch panel 120.
  • FIG.1 (c) is an image figure which shows the state as which the text was selected.
  • FIG. 1D is an image diagram showing a state where the user's finger slides up and down on the text displayed on the touch panel 120.
  • FIG.1 (e) is an image figure which shows the state by which the screen was scrolled.
  • the electronic dictionary 100 displays, for example, a searched word and an explanatory text of the word.
  • the user's finger touches the text on the touch panel 120.
  • the user's finger slides on the surface of touch panel 120 in the left-right direction.
  • the user's finger slides from the letter “B” to the letter “E” in the text written on the touch panel 120.
  • the electronic dictionary 100 accepts a character string selection command (range selection) through which the user's finger has passed based on a touch operation (slide operation).
  • the touch panel 120 inverts the selected character string in black and white.
  • the electronic dictionary 100 can search a dictionary database based on a character string (jump function).
  • the user's finger slides on the surface of the touch panel 120 in the vertical direction.
  • the user's finger slides from the letter “B” in the text written on the touch panel 120 toward the information.
  • electronic dictionary 100 accepts a screen scroll command based on a touch operation (slide operation). For example, the display position of the text and the text range to be displayed can be changed so that the line containing the character touched by the user's finger first moves to the position where the user's finger stops (the position where the user's finger is released). change.
  • FIG. 2 is a block diagram showing a hardware configuration of electronic dictionary 100.
  • electronic dictionary 100 includes a CPU 110, touch panel 120, memory 130, memory interface 140, communication interface 150, and clock 160 as main components.
  • the touch panel 120 may be any type such as a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method.
  • the touch panel 120 may include an optical sensor liquid crystal.
  • the touch panel 120 detects a touch operation on the touch panel 120 by an external object every predetermined time, and inputs touch coordinates (touch position) to the CPU 110. In other words, the CPU 110 sequentially acquires touch coordinates from the touch panel 120.
  • the memory 130 is realized by various types of RAM (Random Access Memory), ROM (Read-Only Memory), a hard disk, and the like.
  • the memory 130 stores programs executed by the CPU 110, a dictionary database in which words and explanatory texts (also referred to as texts) are associated, time series data of touch coordinates input via the touch panel 120, and the like. To do.
  • the CPU 110 controls each unit of the electronic dictionary 100 by executing a program stored in the memory 130.
  • the memory interface 140 reads data from the external storage medium 141.
  • the CPU 110 reads data stored in the external storage medium 141 via the memory interface 140 and stores the data in the memory 130.
  • the CPU 110 reads data from the memory 130 and stores the data in the external storage medium 141 via the memory interface 140.
  • CD-ROM Compact Disc-Read Only Memory
  • DVD-ROM Digital Versatile Disk-Read Only Memory
  • USB Universal Serial Bus
  • memory card FD (Flexible Disk), Hard disk, magnetic tape, cassette tape, MO (Magnetic Optical Disc), MD (Mini Disc), IC (Integrated Circuit) card (excluding memory card), optical card, mask ROM, EPROM, EEPROM (Electronically Erasable Programmable Read-Only A medium for storing the program in a nonvolatile manner such as Memory).
  • the communication interface 150 is realized by an antenna or a connector.
  • the communication interface 150 exchanges data with other devices by wired communication or wireless communication.
  • the CPU 110 receives a program, image data, text data, or the like from another device via the communication interface 150, or transmits image data or text data to another device.
  • the clock 160 measures time or a period based on a command from the CPU 110. Based on the time from the clock 160, the CPU 110 stores the time corresponding to the touch coordinates in the memory 130 as a time series.
  • the CPU 110 controls each unit of the electronic dictionary 100 by executing a program stored in the memory 130 or the storage medium 141. That is, the CPU 110 executes the program stored in the memory 130 or the storage medium 141, thereby performing the operation illustrated in FIG. 1, the determination method illustrated in FIGS. 3 to 10, and the process illustrated in FIGS. To realize.
  • CPU 110 displays text on touch panel 120.
  • a display area is assigned to each character. Display area is a rectangle containing the text.
  • CPU110 acquires a touch coordinate (touch start position) via the touch panel 120.
  • the CPU 110 specifies a character (start character) including the touch start position.
  • the CPU 110 sequentially acquires touch coordinates on the touch panel 120.
  • CPU 110 determines whether or not the current touch coordinates have reached the start character display area.
  • CPU 110 determines that the current touch coordinate has reached the start character display area, the current touch coordinate is above or below the start character display area (both are collectively referred to as a vertical area). Judge whether it is located. When the current touch coordinates are located above or below the start character display area, CPU 110 accepts a screen scroll command based on the touch coordinates. When the current touch coordinates are not located above and below the display area of the start character, CPU 110 accepts a character string selection command based on the touch coordinates.
  • FIG. 3 is an image diagram showing a first determination method according to the present embodiment.
  • CPU 110 determines that the touch coordinates are outside the first rectangular area and within a predetermined angle ⁇ 1 (vertical area, dot area in FIG. 3) from the vertical direction of the touch start position. In addition, it is determined that the sliding direction is the vertical direction. In other words, the CPU 110 determines that the slide direction is the vertical direction when the touch coordinates are located outside the first rectangular area and the angle between the direction from the touch start position to the touch coordinates and the vertical direction is less than the predetermined angle ⁇ 1. It is judged that.
  • ⁇ 1 vertical area, dot area in FIG. 3
  • the CPU 110 determines that the slide direction is horizontal. It is judged that. In other words, the CPU 110 determines that the slide direction is the horizontal direction when the touch coordinates are located outside the first rectangular area, and the angle between the direction from the touch start position to the touch coordinates and the vertical direction is equal to or greater than the predetermined angle ⁇ 1. It is judged that.
  • the CPU 110 determines that the slide direction is the horizontal direction when the touch coordinates are outside the first rectangular area and within the predetermined angle ⁇ 2 (horizontal area) from the horizontal direction of the touch start position. To do. In other words, the CPU 110 determines that the slide direction is the horizontal direction when the touch coordinates are located outside the first rectangular area and the angle between the direction from the touch start position to the touch coordinates and the left-right direction is less than the predetermined angle ⁇ 2. It is judged that.
  • the CPU 110 determines that the slide direction is the horizontal direction when the touch coordinates are outside the first rectangular area and located outside the predetermined angle ⁇ 2 (vertical area) from the left and right direction of the touch start position. In other words, the CPU 110 determines that the slide direction is the vertical direction when the touch coordinates are located outside the first rectangular area and the angle between the direction from the touch start position to the touch coordinates and the horizontal direction is equal to or greater than the predetermined angle ⁇ 2. It is judged that.
  • the CPU 110 receives an angle ⁇ 1 between the vertical straight line and the first straight line from the user via the touch panel 120 or an input device such as a button.
  • it is preferable to accept the setting of the angle ⁇ 2 ( 90 ⁇ 1) between the horizontal straight line and the first straight line. That is, it is easy to input a screen scroll command by increasing the angle ⁇ 1 (decreasing the angle ⁇ 2), or inputting a character string selection command by decreasing the angle ⁇ 1 (increasing the angle ⁇ 2). It can be done easily.
  • FIG. 4 is an image diagram showing a second determination method according to the present embodiment.
  • CPU 110 assumes that the first straight line from the upper right end of the first rectangular area to the upper right direction is the boundary between the right direction and the upper direction of the slide.
  • the CPU 110 assumes that the second straight line extending from the upper left end of the first rectangular area toward the upper left direction is a boundary line between the left direction and the upper direction of the slide.
  • the CPU 110 assumes a third straight line extending from the lower right end of the first rectangular area to the lower right direction as a boundary line between the right direction and the lower direction of the slide.
  • CPU110 assumes that the 4th straight line which goes to a lower left direction from the lower left end of a 1st rectangular area is a boundary line of the left direction of a slide, and a downward direction.
  • the CPU 110 determines that the slide direction is Judged to be in the vertical direction.
  • the CPU 110 determines that the slide direction is Judged to be in the vertical direction.
  • the CPU 110 determines the slide direction when the touch coordinates are located to the right of the first rectangular area and between the first straight line and the third straight line (lateral area, hatched area in FIG. 4). Is determined to be in the horizontal direction.
  • the CPU 110 determines the slide direction when the touch coordinates are located to the left of the first rectangular area and between the second straight line and the fourth straight line (lateral area, hatched area in FIG. 4). Is determined to be in the horizontal direction.
  • FIG. 5 is an image diagram showing a third determination method according to the present embodiment.
  • CPU 110 is located outside the first rectangular area and outside the line including the character including the touch start position (vertical area, dot area in FIG. 5). In this case, it is determined that the slide direction is the vertical direction.
  • the CPU 110 determines that the slide direction is horizontal when the touch coordinates are outside the first rectangular area and inside the line including the character including the touch start position (horizontal area, hatched area in FIG. 5). Judge that the direction.
  • FIG. 6 is an image diagram showing a fourth determination method according to the present embodiment.
  • CPU 110 is located outside the first rectangular area and inside the row including the character including the touch start position (vertical area, dot area in FIG. 6). In this case, it is determined that the slide direction is the vertical direction.
  • the CPU 110 determines that the slide direction is horizontal when the touch coordinates are outside the first rectangular area and outside the column including the character including the touch start position (horizontal area, hatched area in FIG. 6). Judge that the direction.
  • FIG. 7 is an image diagram showing a fifth determination method according to the present embodiment.
  • CPU 110 determines that the current touch coordinates are outside the first rectangular area and the second rectangle having the same size as the first rectangular area with the touch start position as the center in the vertical direction. It is determined whether or not the area has been reached. When determining that the CPU 110 is outside the first rectangular area and has reached the outside of the second rectangular area, the CPU 110 determines the slide direction based on the first to fourth determination methods.
  • FIG. 7 is an image diagram showing a determination method when the third determination method is adopted.
  • FIG. 8 is an image diagram showing a sixth determination method according to the present embodiment.
  • CPU 110 determines that the current touch coordinates are outside the first rectangular area and the second rectangle has the same size as the first rectangular area with the touch start position as the center in the left-right direction. It is determined whether or not the area has been reached.
  • the CPU 110 determines the slide direction based on the first to fourth determination methods.
  • FIG. 8 is an image diagram showing a determination method when the fourth determination method is adopted.
  • FIG. 9 is a first image diagram showing a seventh determination method according to the present embodiment.
  • FIG. 10 is a second image diagram showing the seventh determination method according to the present embodiment.
  • CPU 110 determines that the current touch coordinates are outside the first rectangular area and the second rectangle having the same size as the first rectangular area centered on the touch start position. It is determined whether or not the area has been reached.
  • the CPU 110 determines the slide direction based on the first to fourth determination methods.
  • FIG. 9 is an image diagram showing a determination method when the third determination method is adopted.
  • FIG. 10 is an image diagram illustrating a determination method when the fourth determination method is employed.
  • FIG. 11 is a flowchart which shows the process sequence of the display process in the electronic dictionary 100 concerning this Embodiment.
  • CPU 110 waits for a touch operation interruption process (step S102). That is, CPU 110 waits for a touch operation on touch panel 120.
  • CPU110 determines whether the touch coordinate was acquired from the touch panel 120 (step S104).
  • CPU110 repeats the process from step S102, when a touch coordinate is not acquired from the touch panel 120 (when it is NO in step S104).
  • step S106 stores the first touch coordinate in the memory 130, when a touch coordinate is acquired from the touch panel 120 (when it is YES in step S104) (step S106).
  • the CPU 110 sequentially acquires the latest touch coordinates via the touch panel 120 and stores the touch coordinates in the memory 130.
  • CPU 110 determines whether or not the first touch coordinates are on the text (step S108). That is, the CPU 110 determines whether or not the first touch coordinate is located within the display area of any character of the text.
  • CPU110 performs a scroll process, when the first touch coordinate is not on a text (when it is NO in step S108) (step S200). The scroll process will be described later. When the scroll process ends, CPU 110 repeats the process from step S102.
  • CPU110 memorize
  • CPU 110 causes the character touched on touch panel 120 to be displayed in black and white reversed (step S110).
  • CPU 110 determines whether or not the current touch coordinates are on the start character (step S112). CPU110 repeats the process from step S112, when the present touch coordinate is on a start character (when it is YES in step S112).
  • CPU110 performs a mode determination process, when the present touch coordinate is not on a start character (when it is NO in step S112) (step S300).
  • the mode determination process will be described later.
  • CPU110 judges whether the range selection mode was selected, after complete
  • CPU 110 causes touch panel 120 to cancel the reverse display of characters (step S116).
  • CPU110 performs a scroll process (step S200).
  • CPU110 repeats the process from step S102, after complete
  • FIG. 12 is a flowchart showing a processing procedure of a modification of the display processing in electronic dictionary 100 according to the present embodiment.
  • CPU 110 waits for a touch operation interruption process (step S152). That is, CPU 110 waits for a touch operation on touch panel 120.
  • CPU110 determines whether the touch coordinate was acquired from the touch panel 120 (step S154).
  • CPU110 repeats the process from step S152, when a touch coordinate is not acquired from the touch panel 120 (when it is NO in step S154).
  • step S156 stores the first touch coordinate in the memory 130, when a touch coordinate is acquired from the touch panel 120 (when it is YES in step S154) (step S156).
  • the CPU 110 sequentially acquires the latest touch coordinates via the touch panel 120 and stores the touch coordinates in the memory 130.
  • CPU 110 determines whether or not the first touch coordinates are on the text (step S158). That is, the CPU 110 determines whether or not the first touch coordinate is located within the display area of any character of the text.
  • CPU110 performs a scroll process, when the first touch coordinate is not on a text (when it is NO in step S158) (step S200). When the scroll process ends, CPU 110 repeats the process from step S152.
  • CPU110 memorize
  • CPU 110 causes the character touched on touch panel 120 to be displayed in black and white reversed (step S160).
  • CPU 110 determines whether or not the current touch coordinates are on the start character (step S162). If the current touch coordinates are on the start character (YES in step S162), CPU 110 refers to clock 160 and a predetermined time (for example, 5 seconds) or more has elapsed since the user touched the start character. It is determined whether or not (step S164). CPU110 repeats the process from step S162, when the predetermined time or more has not passed since the user touched the start character (when it is NO in step S164).
  • a predetermined time for example, 5 seconds
  • CPU 110 ends the black-and-white reverse display of the character on touch panel 120 (step S166).
  • CPU 110 determines whether or not the touch is released via touch panel 120 (step S168).
  • CPU110 repeats the process of step S168, when the touch is not cancelled
  • CPU110 repeats the process from step S152, when a touch is cancelled
  • CPU110 performs a mode determination process, when the present touch coordinate is not on a start character (when it is NO in step S162) (step S300).
  • CPU110 judges whether the range selection mode was selected, after complete
  • step S170 When the range selection mode is not selected (NO in step S170), that is, when the scroll mode is selected, the CPU 110 causes the touch panel 120 to cancel the reverse display of the characters (step S172).
  • CPU110 performs a scroll process (step S200).
  • CPU110 repeats the process from step S152, after complete
  • FIG. 13 is a flowchart showing a processing procedure of scroll processing in electronic dictionary 100 according to the present embodiment.
  • CPU 110 determines whether or not the touch coordinates have been acquired via touch panel 120 (step S202).
  • CPU110 returns control to a display process, when a touch coordinate cannot be acquired (when it is NO in step S202).
  • CPU 110 When CPU 110 has acquired the touch coordinates (YES in step S202), CPU 110 scrolls the screen so that the line including the start character moves to the height (line) where the current touch coordinates are located ( Step S204). CPU110 repeats the process from step S202.
  • FIG. 14 is a flowchart showing a processing procedure of mode determination processing in electronic dictionary 100 according to the present embodiment.
  • CPU 110 determines whether or not the current touch coordinates are located in the vertical area based on one of determination methods 1 to 8 (step S302). If the current touch coordinates are located in the vertical area (YES in step S302), CPU 110 determines that the mode is a mode for receiving a screen scroll command (step S304). The CPU 110 returns control to the display process.
  • CPU 110 determines that the mode is a mode for accepting a character string selection command (step S306). The CPU 110 returns control to the display process.
  • FIG. 15 is a flowchart showing a processing procedure of a first modification of the mode determination processing in electronic dictionary 100 according to the present embodiment.
  • CPU 110 determines whether or not the character width of the start character is a predetermined value (for example, 10 dots) or more (step S311).
  • CPU110 determines whether the present touch coordinate is located in a vertical area based on the determination method 1, when the character width of a start character is more than predetermined value (when it is YES in step S311) (step S311). S312, step S314).
  • step S311 When the character width of the start character is less than a predetermined value (for example, 10 dots) (NO in step S311), CPU 110 determines whether or not the current touch coordinates are located in the vertical area based on determination method 7. (Step S313, step S314).
  • a predetermined value for example, 10 dots
  • CPU 110 determines that the mode is a mode for receiving a screen scroll command (step S315). The CPU 110 returns control to the display process.
  • CPU 110 determines that the mode is a mode for accepting a character string selection command (step 314). S316). The CPU 110 returns control to the display process.
  • CPU 110 can easily input a character string selection command when the character width of the start character is greater than or equal to a predetermined value (YES in step S 311).
  • a predetermined value YES in step S 311.
  • another determination method that allows easy input of a screen scroll command may be employed. For example, when the ratio of the size of the vertical area to the size of the horizontal area increases, it becomes easier to input a screen scroll command.
  • FIG. 16 is a flowchart showing the procedure of the second modification of the mode determination process in electronic dictionary 100 according to the present embodiment.
  • CPU 110 determines whether or not the font of the start character is a predetermined value (for example, 10 dots) or more (step S321). If the font of the start character is greater than or equal to a predetermined value (YES in step S321), CPU 110 determines whether or not the current touch coordinates are located in the vertical area based on determination method 1 (step S322). , Step S324).
  • a predetermined value for example, 10 dots
  • CPU 110 determines whether or not the current touch coordinates are located in the vertical area based on determination method 7. Is determined (step S323, step S324).
  • a predetermined value for example, 10 dots
  • CPU 110 determines that the mode is a mode for receiving a screen scroll command (step S325). The CPU 110 returns control to the display process.
  • CPU 110 determines that the mode is a mode for accepting a character string selection command (step S326). The CPU 110 returns control to the display process.
  • CPU 110 determines that the character string is the character string when the font of the start character is equal to or greater than a predetermined value (YES in step S321). Another determination method that allows easy input of the selection command is adopted, and when the font of the start character is less than the predetermined value (NO in step S321), another determination method that facilitates input of the screen scroll command is employed. May be. For example, when the ratio of the size of the vertical area to the size of the horizontal area increases, it becomes easier to input a screen scroll command.
  • FIG. 17 is a flowchart showing the procedure of the third modification of the mode determination process in electronic dictionary 100 according to the present embodiment.
  • CPU 110 refers to clock 160 to determine whether or not a predetermined time (for example, 5 seconds) has elapsed since the user touched the start character (step S331).
  • CPU 110 determines whether or not the current touch coordinates are located in the vertical area based on determination method 1 if a predetermined time or more has not elapsed since the user touched the start character (NO in step S331). (Step S332, step S334).
  • CPU 110 determines whether or not the current touch coordinates are within the vertical area based on determination method 5. Is determined (step S333, step S334).
  • CPU 110 determines that the mode is a mode for receiving a screen scroll command (step S335). The CPU 110 returns control to the display process.
  • CPU 110 determines that the mode is a mode for accepting a character string selection command (step S336). The CPU 110 returns control to the display process.
  • CPU 110 is considered that the user has read the text carefully when a predetermined time or more has elapsed since the user touched the start character (YES in step S ⁇ b> 331). Therefore, another determination method in which a screen scroll command can be easily input may be employed. Then, CPU 110 may adopt another determination method in which a character string selection command can be easily input when a predetermined time or more has not elapsed since the user touched the start character (NO in step S331). Good. For example, when the ratio of the size of the vertical area to the size of the horizontal area increases, it becomes easier to input a screen scroll command.
  • FIG. 18 is a flowchart showing the procedure of the fourth modification of the mode determination process in electronic dictionary 100 according to the present embodiment.
  • CPU 110 determines whether or not the first touch coordinates are the same as the touch coordinates immediately before coming out of the start character range (step S341). If the first touch coordinates and the touch coordinates immediately before entering the start character range are the same (YES in step S341), whether the current touch coordinates are within the vertical area based on determination method 1 It is determined whether or not (step S342, step S344).
  • step S341 If the first touch coordinates and the touch coordinates immediately before entering the start character range are not the same (NO in step S341), whether or not the current touch coordinates are located in the vertical area based on determination method 2 Is determined (step S343, step S344).
  • CPU 110 determines that the mode is a mode for receiving a screen scroll command (step S345). The CPU 110 returns control to the display process.
  • CPU 110 determines that the mode is a mode for accepting a character string selection command (step S346). The CPU 110 returns control to the display process.
  • CPU 110 determines that CPU 110 has passed a predetermined time or more after the user touched the start character (in the case of YES in step S341).
  • another determination method in which a character string selection command can be easily input may be employed.
  • CPU110 may employ
  • the ratio of the size of the vertical area to the size of the horizontal area increases, it becomes easier to input a screen scroll command.
  • FIG. 19 is a flowchart showing a processing procedure of range selection processing in electronic dictionary 100 according to the present embodiment.
  • CPU 110 determines whether or not touch coordinates have been acquired via touch panel 120 (step S402).
  • CPU110 returns control to a display process, when a touch coordinate cannot be acquired (when it is NO in step S402).
  • step S402 When the CPU 110 has acquired the touch coordinates (YES in step S402), the character including the first touch coordinates, the character including the current touch coordinates, the character sandwiched between the first touch coordinates and the current touch coordinates, Are displayed in black and white reversed (step S404). That is, the CPU 110 changes the range of the character string displayed in black and white inversion. CPU110 repeats the process from step S402.
  • FIG. 20 is a flowchart showing a processing procedure of a modification of the range selection processing in electronic dictionary 100 according to the present embodiment.
  • CPU 110 determines whether or not the touch coordinates have been acquired via touch panel 120 (step S412).
  • CPU110 returns control to a display process, when a touch coordinate cannot be acquired (when it is NO in step S412).
  • the character including the first touch coordinates, the character including the current touch coordinates, the character sandwiched between the first touch coordinates and the current touch coordinates are displayed in black and white reversed (step S414). That is, the CPU 110 changes the range of the character string displayed in black and white inversion.
  • the CPU 110 refers to the clock 160 to determine whether or not it has been stopped for a predetermined time or more in the top line or the bottom line of the text where the touch coordinates are displayed (step S416).
  • step S416 If the touch coordinate is not displayed on the top line or the bottom line of the displayed text for a predetermined time or longer (NO in step S416), CPU 110 performs the processing from step S420. Execute. When the touch coordinates are stopped on the top line or the bottom line of the displayed text for a predetermined time or longer (in the case of YES in step S416), the CPU 110 displays the displayed screen. Scroll one line (step S418).
  • the CPU 110 when the CPU 110 has stopped for a predetermined time or longer on the top line of the text where the touch coordinates are displayed, the CPU 110 moves the text down by one line.
  • CPU110 raises a text by one line, when it has stopped for the predetermined time or more in the lowest line of the text where the touch coordinate is displayed.
  • the CPU 110 displays the characters including the first touch coordinates, the characters including the current touch coordinates, and the characters sandwiched between the first touch coordinates and the current touch coordinates in black and white reversed (step S420). That is, the CPU 110 changes the range of the character string displayed in black and white inversion.
  • CPU110 repeats the process from step S412.
  • the program code itself read from the external storage medium 141 realizes the functions of the above-described embodiment, and the external storage medium 141 (memory 130) storing the program code is This constitutes the present invention.
  • 100 electronic dictionary 110 CPU, 120 touch panel, 130 memory, 140 memory interface, 141 storage medium, 150 communication interface, 160 clock, ⁇ 1 predetermined angle, ⁇ 2 predetermined angle.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 ユーザがタッチパネルを介してより簡単な操作によって画面のスクロール命令と文字列の選択命令とを入力することができる電子機器および表示方法を提供する。タッチパネル(120)と、テキストを記憶するメモリ(130)と、タッチパネル(120)にテキストを表示させ、タッチパネル(120)を介してタッチ位置を取得するためのプロセッサ(110)とを備える電子機器(100)が提供される。プロセッサ(110)は、タッチ位置のスライド方向を取得することによって、スライド方向が横方向である場合にタッチ位置に基づいて文字列の選択命令を受け付け、スライド方向が縦方向である場合にタッチ位置に基づいて画面のスクロール命令を受け付ける。

Description

電子機器および表示方法
 本発明は、タッチパネル上にテキストを表示可能な電子機器および表示方法に関し、特に、タッチパネルを介してユーザから文字列の選択命令と画面のスクロール命令とを受け付けるための電子機器および表示方法に関する。
 ディスプレイにテキストを表示する技術が知られている。また、タッチパネルを介してタッチ位置を取得することによって、ユーザから命令を受け付ける技術も知られている。具体的には、電子機器は、タッチパネルを介して、ソフトウェアボタンの選択を受け付けたり、ユーザのスライド操作を検知することによってスライド量に応じて画面をスクロールしたりする。
 たとえば、特開2008-204402号公報(特許文献1)には、ユーザインターフェース装置が開示されている。特開2008-204402号公報(特許文献1)によると、デジタルカメラのUI部は、表示画面と、当該表示画面の左外側および右外側に配された左側タッチストリップと右側タッチストリップを備えている。各タッチストリップは、いずれも、ユーザによる上下方向へのスライド動作と左右方向へのスライド動作とを区別して検知できる。UI部の制御部は、上下方向のスライドが検知された場合には、項目の選択位置移動や画面のスクロールなど、スライド量が重視される操作指示として受け付け、左右方向のスライドが検知された場合には、ファイルの削除指示や新規階層項目の表示または非表示などのようにスライド量が重視されないトリガー的な意味合いの操作指示として受け付ける。
 また、特開2006-129942号公報(特許文献2)には、プログラム、情報記憶媒体及びゲーム装置が開示されている。特開2006-129942号公報(特許文献2)によると、野球ゲームにおいて投手の投球動作の操作入力を行う場合、操作画面において、タッチ位置変更領域で左右方向へスライド操作すると、この操作方向に沿った方向に操作量に応じた距離だけ、ゲーム画面における投手の立ち位置が変化する。そして、操作画面においてゲートを通過するように上から下方向へのスライド操作を行うと、ゲーム画面において投手の投球モーションが開始される。その後、球種・球速選択エリアまで続けてスライド操作すると、タッチ位置に応じた球種・球速が選択されるとともに、左右方向方向への操作量に応じて投球コースが左右方向に変更される。
特開2008-204402号公報 特開2006-129942号公報
 電子機器が、テキストを表示する際に、当該テキストから文字列を選択するための命令をユーザから受け付けられると有益である場合がある。しかしながら、電子機器は、タッチ操作に基づいて、画面のスクロール命令と文字列の選択命令との両者を受け付けることが困難な場合がある。具体的には、ユーザは、別途、画面のスクロール命令を受け付けるためのモードと文字列の選択を受け付けるモードとを切り替える必要があるため、操作が面倒なものとなってしまう。
 本発明は、かかる問題を解決するためになされたものであり、その目的は、ユーザがタッチパネルを介してより簡単な操作によって画面のスクロール命令と文字列の選択命令とを入力することができる電子機器および表示方法を提供することである。
 この発明のある局面に従うと、タッチパネルと、テキストを記憶するメモリと、タッチパネルにテキストを表示させ、タッチパネルを介してタッチ位置を取得するためのプロセッサとを備える電子機器が提供される。プロセッサは、タッチ位置のスライド方向を取得することによって、スライド方向が横方向である場合にタッチ位置に基づいて文字列の選択命令を受け付け、スライド方向が縦方向である場合にタッチ位置に基づいて画面のスクロール命令を受け付ける。
 好ましくは、プロセッサは、タッチ開始位置が含まれる文字を内包する第1の矩形エリア外にタッチ位置が検出されたときに、タッチ位置に基づいてスライド方向を判断する。
 好ましくは、プロセッサは、第1の矩形エリア外かつタッチ開始位置を中心とした第2の矩形エリア外にタッチ位置が検出されたときに、タッチ位置に基づいてスライド方向を判断する。
 好ましくは、プロセッサは、タッチ位置が第1の矩形エリア外に位置し、タッチ開始位置からタッチ位置への方向と上下方向との角度が所定角度未満である場合に、スライド方向が縦方向であると判断し、タッチ位置が第1の矩形エリア外に位置し、タッチ開始位置からタッチ位置への方向と上下方向との角度が所定角度以上である場合に、スライド方向が横方向であると判断する。
 好ましくは、プロセッサは、タッチ位置が第1の矩形エリア外に位置し、タッチ開始位置からタッチ位置への方向と左右方向との角度が所定角度未満である場合に、スライド方向が横方向であると判断し、タッチ位置が第1の矩形エリア外に位置し、タッチ開始位置からタッチ位置への方向と上下方向との角度が所定角度以上である場合に、スライド方向が縦方向であると判断する。
 好ましくは、プロセッサは、タッチ位置が、第1の矩形エリアの略上方および略下方のいずれかに位置する場合に、スライド方向が縦方向であると判断し、タッチ位置が、第1の矩形エリアの略上方および略下方のいずれにも位置しない場合に、スライド方向が横方向であると判断する。
 好ましくは、プロセッサは、タッチ位置が、第1の矩形エリアの略右方および略左方のいずれかに位置する場合に、スライド方向が横方向であると判断し、タッチ位置が、第1の矩形エリアの略右方および略左方のいずれにも位置しない場合に、スライド方向が縦方向であると判断する。
 好ましくは、プロセッサは、タッチ位置が、第1の矩形エリア外かつタッチ開始位置が含まれる文字を含む行の外側に位置する場合に、スライド方向が縦方向であると判断し、タッチ位置が、第1の矩形エリア外かつタッチ開始位置が含まれる文字を含む行の内側に位置する場合に、スライド方向が横方向であると判断する。
 好ましくは、プロセッサは、タッチ位置が、第1の矩形エリア外かつタッチ開始位置が含まれる文字を含む列の内側に位置する場合に、スライド方向が縦方向であると判断し、タッチ位置が、第1の矩形エリア外かつタッチ開始位置が含まれる文字を含む列の外側に位置する場合に、スライド方向が横方向であると判断する。
 この発明の別の局面に従うと、タッチパネルとプロセッサとを含む電子機器における表示方法が提供される。表示方法は、プロセッサが、タッチパネルにテキストを表示させるステップと、プロセッサが、タッチパネルを介してタッチ位置を取得するステップと、プロセッサが、タッチ位置のスライド方向を取得するステップと、スライド方向が横方向である場合に、プロセッサが、タッチ位置に基づいて文字列の選択命令を受け付けるステップと、スライド方向が縦方向である場合に、プロセッサが、タッチ位置に基づいて画面のスクロール命令を受け付けるステップとを備える。
 以上のように、この発明によれば、ユーザがタッチパネルを介してより簡単な操作によって画面のスクロール命令と文字列の選択命令とを入力することができる電子機器および表示方法が提供される。
本実施の形態に係る電子辞書100の動作概要を示すイメージ図である。 電子辞書100のハードウェア構成を表わすブロック図である。 本実施の形態に係る第1の判定方法を示すイメージ図である。 本実施の形態に係る第2の判定方法を示すイメージ図である。 本実施の形態に係る第3の判定方法を示すイメージ図である。 本実施の形態に係る第4の判定方法を示すイメージ図である。 本実施の形態に係る第5の判定方法を示すイメージ図である。 本実施の形態に係る第6の判定方法を示すイメージ図である。 本実施の形態に係る第7の判定方法を示す第1のイメージ図である。 本実施の形態に係る第7の判定方法を示す第2のイメージ図である。 本実施の形態に係る電子辞書100における表示処理の処理手順を示すフローチャートである。 本実施の形態に係る電子辞書100における表示処理の変形例の処理手順を示すフローチャートである。 本実施の形態に係る電子辞書100におけるスクロール処理の処理手順を示すフローチャートである。 本実施の形態に係る電子辞書100におけるモード判定処理の処理手順を示すフローチャートである。 本実施の形態に係る電子辞書100におけるモード判定処理の第1の変形例の処理手順を示すフローチャートである。 本実施の形態に係る電子辞書100におけるモード判定処理の第2の変形例の処理手順を示すフローチャートである。 本実施の形態に係る電子辞書100におけるモード判定処理の第3の変形例の処理手順を示すフローチャートである。 本実施の形態に係る電子辞書100におけるモード判定処理の第4の変形例の処理手順を示すフローチャートである。 本実施の形態に係る電子辞書100における範囲選択処理の処理手順を示すフローチャートである。 本実施の形態に係る電子辞書100における範囲選択処理の変形例の処理手順を示すフローチャートである。
 以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。以下では、電子辞書を「電子機器」の代表例として説明を行う。ただし、「電子機器」は、パーソナルコンピュータ、携帯型電話機、電子ノート、PDA(Personal Digital Assistant)などのような、タッチパネルを有する他の情報端末によっても実現可能である。
 <電子辞書100の動作概要>
 まず、本実施の形態に係る電子辞書100の動作概要について説明する。図1は、本実施の形態に係る電子辞書100の動作概要を示すイメージ図である。より詳細には、図1(a)は、電子辞書100がテキストを表示した状態を示すイメージ図である。図1(b)は、ユーザの指がタッチパネル120に表示されるテキスト上を左右方向にスライドした状態を示すイメージ図である。図1(c)は、テキストが選択された状態を示すイメージ図である。図1(d)は、ユーザの指がタッチパネル120に表示されるテキスト上を上下方向にスライドした状態を示すイメージ図である。図1(e)は、画面がスクロールされた状態を示すイメージ図である。
 図1(a)を参照して、電子辞書100は、たとえば、検索された単語と、当該単語の説明文を表示する。ユーザの指が、タッチパネル120のテキストにタッチする。
 図1(b)を参照して、ユーザの指が、タッチパネル120表面を左右方向へスライドする。たとえば、ユーザの指は、タッチパネル120に記載されているテキスト中の「B」という文字から「E」という文字までスライドする。
 図1(c)を参照して、電子辞書100は、タッチ操作(スライド操作)に基づいて、ユーザの指が通過した文字列の選択命令(範囲選択)を受け付ける。タッチパネル120は、選択された文字列を白黒反転させる。たとえば、電子辞書100は、文字列に基づいて、辞書データベースを検索することができる(ジャンプ機能)。
 一方、図1(d)を参照して、ユーザの指が、タッチパネル120表面を上下方向へスライドする。たとえば、ユーザの指が、タッチパネル120に記載されているテキスト中の「B」という文字から情報に向かってスライドする。
 図1(e)を参照して、電子辞書100は、タッチ操作(スライド操作)に基づいて、画面のスクロール命令を受け付ける。たとえば、ユーザの指が最初にタッチした文字が含まれる行が、ユーザの指が停止した位置(ユーザの指が離れた位置)まで移動するように、テキストの表示位置や表示対象のテキスト範囲を変更する。
 これによって、ユーザは、文字列の選択命令と画面のスクロール命令とを容易に(ワンタッチで)入力することができる。換言すれば、ユーザは、文字列の選択命令を入力するためのモードと、画面のスクロール命令を入力するためのモードとを切り替えるための命令を入力しなくとも、文字列の選択命令と画面のスクロール命令とを入力することができる。また、テキストと別にスクロールするためのソフトウェアボタンなどを表示する必要がなくなる。
 以下、このような機能を実現するための電子辞書100の具体的な構成について詳述する。
 <電子辞書100のハードウェア構成>
 次に、電子辞書100の具体的構成の一態様について説明する。図2は、電子辞書100のハードウェア構成を表わすブロック図である。図2を参照して、電子辞書100は、主たる構成要素として、CPU110と、タッチパネル120と、メモリ130と、メモリインターフェイス140と、通信インターフェイス150と、時計160とを含む。
 タッチパネル120は、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などのいずれのタイプであってもよい。タッチパネル120は、光センサ液晶を含んでもよい。タッチパネル120は、所定時間毎に外部の物体によるタッチパネル120へのタッチ操作を検知して、タッチ座標(タッチ位置)をCPU110に入力する。換言すれば、CPU110は、タッチパネル120から順次タッチ座標を取得する。
 メモリ130は、各種のRAM(Random Access Memory)や、ROM(Read-Only Memory)や、ハードディスクなどによって実現される。メモリ130は、CPU110によって実行されるプログラムや、単語と説明文(合せてテキストとも言う。)とが対応付けられた辞書データベース、タッチパネル120を介して入力されたタッチ座標の時系列データなどを記憶する。換言すれば、CPU110は、メモリ130に記憶されているプログラムを実行することによって、電子辞書100の各部を制御する。
 メモリインターフェイス140は、外部の記憶媒体141からデータを読み出す。換言すれば、CPU110は、メモリインターフェイス140を介して外部の記憶媒体141に格納されているデータを読み出して、当該データをメモリ130に格納する。逆に、CPU110は、メモリ130からデータを読み出して、メモリインターフェイス140を介して当該データを外部の記憶媒体141に格納する。
 なお、記憶媒体141としては、CD-ROM(Compact Disc - Read Only Memory)、DVD-ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。
 通信インターフェイス150は、アンテナやコネクタによって実現される。通信インターフェイス150は、有線通信あるいは無線通信によって他の装置との間でデータをやり取りする。換言すれば、CPU110は、通信インターフェイス150を介して、他の装置からプログラムや画像データやテキストデータなどを受信したり、他の装置に画像データやテキストデータを送信したりする。
 時計160は、CPU110からの指令に基づいて、時刻あるいは期間を計測する。CPU110は、時計160からの時刻に基づいて、タッチ座標に対応する時刻を時系列としてメモリ130に記憶する。
 CPU110は、メモリ130あるいは記憶媒体141に記憶されているプログラムを実行することによって、電子辞書100の各部を制御する。すなわち、CPU110は、メモリ130あるいは記憶媒体141に記憶されているプログラムを実行することによって、図1に記載の動作、図3~図10に記載の判定方法、および図11~20に記載の処理を実現する。
 <モード判定方法>
 以下では、CPU110によって実行されるモード判定方法について説明する。CPU110は、タッチパネル120にテキストを表示する。なお、本実施の形態においては、テキストが表示される際に、文字の各々に表示エリアが割り当てられている。表示エリアは、文字を内包する矩形である。
 CPU110は、タッチパネル120を介してタッチ座標(タッチ開始位置)を取得する。CPU110は、タッチ開始位置が含まれる文字(開始文字)を特定する。CPU110は、タッチパネル120を順次タッチ座標を取得する。CPU110は、現在のタッチ座標が、開始文字の表示エリア外に達したか否かを判断する。
 CPU110は、現在のタッチ座標が開始文字の表示エリア外に達したと判断したとき、当該現在のタッチ座標が、開始文字の表示エリアの上方または下方(両者をまとめて縦エリアともいう。)に位置するか否かを判断する。CPU110は、当該現在のタッチ座標が、開始文字の表示エリアの上方または下方に位置する場合、タッチ座標に基づいて画面のスクロール命令を受け付ける。CPU110は、当該現在のタッチ座標が、開始文字の表示エリアの上方および下方に位置しない場合、タッチ座標に基づいて文字列の選択命令を受け付ける。
 <第1の判定方法>
 以下、より詳細に、第1の判定方法について説明する。図3は、本実施の形態に係る第1の判定方法を示すイメージ図である。
 図3を参照して、CPU110は、タッチ座標が、第1の矩形エリア外であって、かつタッチ開始位置の上下方向から所定角度θ1内(縦エリア、図3におけるドットエリア)に位置する場合に、スライド方向が縦方向であると判断する。換言すれば、CPU110は、タッチ座標が第1の矩形エリア外に位置し、タッチ開始位置からタッチ座標への方向と上下方向との角度が所定角度θ1未満である場合に、スライド方向が縦方向であると判断する。
 CPU110は、タッチ座標が、第1の矩形エリア外であって、かつタッチ開始位置の上下方向から所定角度θ1外(横エリア、図3におけるハッチングエリア)に位置する場合に、スライド方向が横方向であると判断する。換言すれば、CPU110は、タッチ座標が第1の矩形エリア外に位置し、タッチ開始位置からタッチ座標への方向と上下方向との角度が所定角度θ1以上である場合に、スライド方向が横方向であると判断する。
 あるいは、CPU110は、タッチ座標が、第1の矩形エリア外であって、かつタッチ開始位置の左右方向から所定角度θ2内(横エリア)に位置する場合に、スライド方向が横方向であると判断する。換言すれば、CPU110は、タッチ座標が第1の矩形エリア外に位置し、タッチ開始位置からタッチ座標への方向と左右方向との角度が所定角度θ2未満である場合に、スライド方向が横方向であると判断する。
 CPU110は、タッチ座標が、第1の矩形エリア外であって、かつタッチ開始位置の左右方向から所定角度θ2外(縦エリア)に位置する場合に、スライド方向が横方向であると判断する。換言すれば、CPU110は、タッチ座標が第1の矩形エリア外に位置し、タッチ開始位置からタッチ座標への方向と左右方向との角度が所定角度θ2以上である場合に、スライド方向が縦方向であると判断する。
 なお、第1の判定方法と第2の判断処理とに共通して、CPU110が、タッチパネル120あるいはボタンなどの入力装置を介して、ユーザから、縦方向の直線と第1の直線との角度θ1あるいは横方向の直線と第1の直線との角度θ2(=90-θ1)の設定を受け付けることが好ましい。すなわち、角度θ1を増加させる(角度θ2を低下させる)ことによって画面のスクロール命令の入力を容易にしたり、角度θ1を低下させる(角度θ2を増加させる)ことによっての文字列の選択命令の入力を容易にしたりすることができる。
 <第2の判定方法>
 以下、より詳細に、第2の判定方法について説明する。図4は、本実施の形態に係る第2の判定方法を示すイメージ図である。
 図4を参照して、CPU110は、第1の矩形エリアの右上端から右上方向に向かう第1の直線を、スライドの右方向と上方向の境界線と仮定する。CPU110は、第1の矩形エリアの左上端から左上方向に向かう第2の直線を、スライドの左方向と上方向の境界線と仮定する。CPU110は、第1の矩形エリアの右下端から右下方向に向かう第3の直線を、スライドの右方向と下方向の境界線と仮定する。CPU110は、第1の矩形エリアの左下端から左下方向に向かう第4の直線を、スライドの左方向と下方向の境界線と仮定する。
 CPU110は、タッチ座標が、第1の矩形エリアの上方であって、かつ第1の直線と第2の直線との間(縦エリア、図4におけるドットエリア)に位置する場合に、スライド方向が縦方向であると判断する。CPU110は、タッチ座標が、第1の矩形エリアの下方であって、かつ第3の直線と第4の直線との間(縦エリア、図4におけるドットエリア)に位置する場合に、スライド方向が縦方向であると判断する。
 CPU110は、タッチ座標が、第1の矩形エリアの右方であって、かつ第1の直線と第3の直線との間(横エリア、図4におけるハッチングエリア)に位置する場合に、スライド方向が横方向であると判断する。CPU110は、タッチ座標が、第1の矩形エリアの左方であって、かつ第2の直線と第4の直線との間(横エリア、図4におけるハッチングエリア)に位置する場合に、スライド方向が横方向であると判断する。
 <第3の判定方法>
 以下、より詳細に、第3の判定方法について説明する。図5は、本実施の形態に係る第3の判定方法を示すイメージ図である。
 図5を参照して、CPU110は、タッチ座標が、第1の矩形エリア外であって、タッチ開始位置が含まれる文字が含まれる行の外側(縦エリア、図5におけるドットエリア)に位置する場合に、スライド方向が縦方向であると判断する。CPU110は、タッチ座標が、第1の矩形エリア外であって、タッチ開始位置が含まれる文字が含まれる行の内側(横エリア、図5におけるハッチングエリア)に位置する場合に、スライド方向が横方向であると判断する。
 換言すれば、第3の判定方法は、図4において、縦方向の直線と第1の直線との角度θ1が90度に設定された場合、あるいは横方向の直線と第1の直線との角度θ2(=90-θ1)が0度に設定された場合に該当する。
 <第4の判定方法>
 以下、より詳細に、第4の判定方法について説明する。図6は、本実施の形態に係る第4の判定方法を示すイメージ図である。
 図6を参照して、CPU110は、タッチ座標が、第1の矩形エリア外であって、タッチ開始位置が含まれる文字が含まれる列の内側(縦エリア、図6におけるドットエリア)に位置する場合に、スライド方向が縦方向であると判断する。CPU110は、タッチ座標が、第1の矩形エリア外であって、タッチ開始位置が含まれる文字が含まれる列の外側(横エリア、図6におけるハッチングエリア)に位置する場合に、スライド方向が横方向であると判断する。
 換言すれば、第4の判定方法は、図6において、縦方向の直線と第1の直線との角度θ1が0度に設定された場合、あるいは横方向の直線と第1の直線との角度θ2(=90-θ1)が90度に設定された場合に該当する。
 <第5の判定方法>
 以下、より詳細に、第5の判定方法について説明する。図7は、本実施の形態に係る第5の判定方法を示すイメージ図である。
 図7を参照して、CPU110は、現在のタッチ座標が、第1の矩形エリア外であって、かつタッチ開始位置を上下方向の中心とした第1の矩形エリアと同じサイズの第2の矩形エリア外に達したか否かを判断する。CPU110は、第1の矩形エリア外であって、かつ第2の矩形エリア外に達したと判断したとき、第1から第4の判定方法に基づいて、スライド方向を判断する。なお、図7は、第3の判定方法を採用した場合の判定方法を示すイメージ図である。
 <第6の判定方法>
 以下、より詳細に、第6の判定方法について説明する。図8は、本実施の形態に係る第6の判定方法を示すイメージ図である。
 図8を参照して、CPU110は、現在のタッチ座標が、第1の矩形エリア外であって、かつタッチ開始位置を左右方向の中心とした第1の矩形エリアと同じサイズの第2の矩形エリア外に達したか否かを判断する。CPU110は、第1の矩形エリア外であって、かつ第2の矩形エリア外に達したと判断したとき、第1から第4の判定方法に基づいて、スライド方向を判断する。なお、図8は、第4の判定方法を採用した場合の判定方法を示すイメージ図である。
 <第7の判定方法>
 以下、より詳細に、第7の判定方法について説明する。図9は、本実施の形態に係る第7の判定方法を示す第1のイメージ図である。図10は、本実施の形態に係る第7の判定方法を示す第2のイメージ図である。
 図9および図10を参照して、CPU110は、現在のタッチ座標が、第1の矩形エリア外であって、かつタッチ開始位置を中心とした第1の矩形エリアと同じサイズの第2の矩形エリア外に達したか否かを判断する。CPU110は、第1の矩形エリア外であって、かつ第2の矩形エリア外に達したと判断したとき、第1から第4の判定方法に基づいて、スライド方向を判断する。なお、図9は、第3の判定方法を採用した場合の判定方法を示すイメージ図である。図10は、第4の判定方法を採用した場合の判定方法を示すイメージ図である。
 <表示処理>
 次に、本実施の形態に係る電子辞書100における表示処理について説明する。なお、図11は、本実施の形態に係る電子辞書100における表示処理の処理手順を示すフローチャートである。
 図11を参照して、CPU110は、タッチ操作の割り込み処理を待ち受ける(ステップS102)。すなわち、CPU110は、タッチパネル120に対するタッチ操作を待ち受ける。CPU110は、タッチパネル120からタッチ座標を取得したか否かを判断する(ステップS104)。CPU110は、タッチパネル120からタッチ座標を取得しなかった場合(ステップS104においてNOである場合)、ステップS102からの処理を繰り返す。
 CPU110は、タッチパネル120からタッチ座標を取得した場合(ステップS104においてYESである場合)、最初のタッチ座標をメモリ130に記憶する(ステップS106)。CPU110は、タッチパネル120を介して順次最新のタッチ座標を取得して、当該タッチ座標をメモリ130に記憶していく。
 CPU110は、最初のタッチ座標がテキスト上であるか否かを判断する(ステップS108)。すなわち、CPU110は、最初のタッチ座標が、テキストのいずれかの文字の表示エリア内に位置するか否かを判断する。
 CPU110は、最初のタッチ座標がテキスト上でない場合(ステップS108においてNOである場合)、スクロール処理を実行する(ステップS200)。スクロール処理については後述する。CPU110は、スクロール処理が終了すると、ステップS102からの処理を繰り返す。
 CPU110は、最初のタッチ座標がテキスト上である場合(ステップS108においてYESである場合)、CPU110は最初のタッチ座標が含まれる文字(開始文字)を特定するため情報のメモリ130に記憶する。CPU110は、タッチパネル120にタッチされた文字を白黒反転表示させる(ステップS110)。
 CPU110は、現在のタッチ座標が開始文字上であるか否かを判断する(ステップS112)。CPU110は、現在のタッチ座標が開始文字上である場合(ステップS112においてYESである場合)、ステップS112からの処理を繰り返す。
 CPU110は、現在のタッチ座標が開始文字上でない場合(ステップS112においてNOである場合)、モード判定処理を実行する(ステップS300)。モード判定処理については後述する。
 CPU110は、モード判定処理を終了すると、範囲選択モードが選択されたか否かを判断する(ステップS114)。CPU110は、範囲選択モードが選択された場合、範囲選択処理(ステップS400)を実行する。範囲選択処理については後述する。CPU110は、範囲選択処理が終了すると、ステップS102からの処理を実行する。
 CPU110は、範囲選択モードが選択されていない場合(ステップS114においてNOである場合)、すなわちスクロールモードが選択された場合、タッチパネル120に文字の反転表示を解除させる(ステップS116)。CPU110は、スクロール処理(ステップS200)を実行する。CPU110は、スクロール処理を終了すると、ステップS102からの処理を繰り返す。
 <表示処理の変形例>
 次に、本実施の形態に係る電子辞書100における表示処理の変形例について説明する。なお、図12は、本実施の形態に係る電子辞書100における表示処理の変形例の処理手順を示すフローチャートである。
 図12を参照して、CPU110は、タッチ操作の割り込み処理を待ち受ける(ステップS152)。すなわち、CPU110は、タッチパネル120に対するタッチ操作を待ち受ける。CPU110は、タッチパネル120からタッチ座標を取得したか否かを判断する(ステップS154)。CPU110は、タッチパネル120からタッチ座標を取得しなかった場合(ステップS154においてNOである場合)、ステップS152からの処理を繰り返す。
 CPU110は、タッチパネル120からタッチ座標を取得した場合(ステップS154においてYESである場合)、最初のタッチ座標をメモリ130に記憶する(ステップS156)。CPU110は、タッチパネル120を介して順次最新のタッチ座標を取得して、当該タッチ座標をメモリ130に記憶していく。
 CPU110は、最初のタッチ座標がテキスト上であるか否かを判断する(ステップS158)。すなわち、CPU110は、最初のタッチ座標が、テキストのいずれかの文字の表示エリア内に位置するか否かを判断する。
 CPU110は、最初のタッチ座標がテキスト上でない場合(ステップS158においてNOである場合)、スクロール処理を実行する(ステップS200)。CPU110は、スクロール処理が終了すると、ステップS152からの処理を繰り返す。
 CPU110は、最初のタッチ座標がテキスト上である場合(ステップS158においてYESである場合)、CPU110は最初のタッチ座標が含まれる文字(開始文字)を特定するための情報をメモリ130に記憶する。CPU110は、タッチパネル120にタッチされた文字を白黒反転表示させる(ステップS160)。
 CPU110は、現在のタッチ座標が開始文字上であるか否かを判断する(ステップS162)。CPU110は、現在のタッチ座標が開始文字上である場合(ステップS162においてYESである場合)、時計160を参照して、ユーザが開始文字にタッチしてから所定時間(たとえば、5秒)以上経過しているか否かを判断する(ステップS164)。CPU110は、ユーザが開始文字にタッチしてから所定時間以上経過していない場合(ステップS164においてNOである場合)、ステップS162からの処理を繰り返す。
 一方、ユーザが開始文字にタッチしてから所定時間以上経過している場合(ステップS164においてNOである場合)、CPU110は、タッチパネル120に文字の白黒反転表示を終了させる(ステップS166)。CPU110は、タッチパネル120を介して、タッチが解除されたか否かを判断する(ステップS168)。
 CPU110は、タッチ解除されていない場合(ステップS168においてNOである場合)、ステップS168の処理を繰り返す。CPU110は、タッチが解除された場合(ステップS168においてYESである場合)、ステップS152からの処理を繰り返す。
 CPU110は、現在のタッチ座標が開始文字上でない場合(ステップS162においてNOである場合)、モード判定処理を実行する(ステップS300)。
 CPU110は、モード判定処理を終了すると、範囲選択モードが選択されたか否かを判断する(ステップS170)。CPU110は、範囲選択モードが選択された場合、範囲選択処理(ステップS400)を実行する。CPU110は、範囲選択処理が終了すると、ステップS152からの処理を実行する。
 CPU110は、範囲選択モードが選択されていない場合(ステップS170においてNOである場合)、すなわちスクロールモードが選択された場合、タッチパネル120に文字の反転表示を解除させる(ステップS172)。CPU110は、スクロール処理(ステップS200)を実行する。CPU110は、スクロール処理を終了すると、ステップS152からの処理を繰り返す。
 <スクロール処理>
 次に、本実施の形態に係る電子辞書100におけるスクロール処理について説明する。なお、図13は、本実施の形態に係る電子辞書100におけるスクロール処理の処理手順を示すフローチャートである。
 図13を参照して、CPU110は、タッチパネル120を介して、タッチ座標を取得したか否かを判断する(ステップS202)。CPU110は、タッチ座標を取得できない場合(ステップS202においてNOである場合)、表示処理へと制御を戻す。
 CPU110は、タッチ座標を取得した場合(ステップS202においてYESである場合)、開始文字が含まれる行が、現在のタッチ座標が位置する高さ(行)までに移動するように画面をスクロールする(ステップS204)。CPU110は、ステップS202からの処理を繰り返す。
 <モード判定処理>
 次に、本実施の形態に係る電子辞書100におけるモード判定処理について説明する。なお、図14は、本実施の形態に係る電子辞書100におけるモード判定処理の処理手順を示すフローチャートである。
 図14を参照して、CPU110は、判定方法1~8のいずれかに基づいて、現在のタッチ座標が、縦エリア内に位置するか否かを判断する(ステップS302)。CPU110は、現在のタッチ座標が、縦エリア内に位置する場合(ステップS302においてYESである場合)、画面のスクロール命令を受け付けるモードであると判定する(ステップS304)。CPU110は、表示処理に制御を戻す。
 CPU110は、現在のタッチ座標が、縦エリア内に位置しない場合、すなわち横エリア内に位置する場合(ステップS304においてNOである場合)、文字列の選択命令を受け付けるモードであると判定する(ステップS306)。CPU110は、表示処理に制御を戻す。
 <モード判手処理の第1の変形例>
 次に、本実施の形態に係る電子辞書100におけるモード判定処理の第1の変形例について説明する。なお、図15は、本実施の形態に係る電子辞書100におけるモード判定処理の第1の変形例の処理手順を示すフローチャートである。
 図15を参照して、CPU110は、開始文字の文字幅が所定値(たとえば、10ドット)以上であるか否かを判断する(ステップS311)。CPU110は、開始文字の文字幅が所定値以上である場合(ステップS311においてYESである場合)、判定方法1に基づいて現在のタッチ座標が縦エリア内に位置するか否かを判断する(ステップS312,ステップS314)。
 CPU110は、開始文字の文字幅が所定値(たとえば、10ドット)未満である場合(ステップS311においてNOである場合)、判定方法7に基づいて現在のタッチ座標が縦エリア内に位置するか否かを判断する(ステップS313,ステップS314)。
 CPU110は、現在のタッチ座標が縦エリア内に位置する場合(ステップS314においてYESである場合)、画面のスクロール命令を受け付けるモードであると判定する(ステップS315)。CPU110は、表示処理に制御を戻す。
 CPU110は、現在のタッチ座標が、縦エリア内に位置しない場合、すなわち横エリア内に位置する場合(ステップS314においてNOである場合)、文字列の選択命令を受け付けるモードであると判定する(ステップS316)。CPU110は、表示処理に制御を戻す。
 なお、判定方法1および/または判定方法7の代わりに、CPU110は、開始文字の文字幅が所定値以上である場合(ステップS311においてYESである場合)、文字列の選択命令が入力し易い他の判定方法を採用し、開始文字の文字幅が所定値未満である場合(ステップS311においてNOである場合)、画面のスクロール命令が入力し易い他の判定方法を採用してもよい。たとえば、縦エリアの大きさの横エリアの大きさに対する比率が増加すると、画面のスクロール命令の入力がし易くなる。
 <モード判手処理の第2の変形例>
 次に、本実施の形態に係る電子辞書100におけるモード判定処理の第2の変形例について説明する。なお、図16は、本実施の形態に係る電子辞書100におけるモード判定処理の第2の変形例の処理手順を示すフローチャートである。
 図16を参照して、CPU110は、開始文字のフォントが所定値(たとえば、10ドット)以上であるか否かを判断する(ステップS321)。CPU110は、開始文字のフォントが所定値以上である場合(ステップS321においてYESである場合)、判定方法1に基づいて現在のタッチ座標が縦エリア内に位置するか否かを判断する(ステップS322,ステップS324)。
 CPU110は、開始文字のフォントが所定値(たとえば、10ドット)未満である場合(ステップS321においてNOである場合)、判定方法7に基づいて現在のタッチ座標が縦エリア内に位置するか否かを判断する(ステップS323,ステップS324)。
 CPU110は、現在のタッチ座標が縦エリア内に位置する場合(ステップS324においてYESである場合)、画面のスクロール命令を受け付けるモードであると判定する(ステップS325)。CPU110は、表示処理に制御を戻す。
 CPU110は、現在のタッチ座標が、縦エリア内に位置しない場合、すなわち横エリア内に位置する場合(ステップS324においてNOである場合)、文字列の選択命令を受け付けるモードであると判定する(ステップS326)。CPU110は、表示処理に制御を戻す。
 なお、第2の変形例と同様に、判定方法1および/または判定方法7の代わりに、CPU110は、開始文字のフォントが所定値以上である場合(ステップS321においてYESである場合)、文字列の選択命令が入力し易い他の判定方法を採用し、開始文字のフォントが所定値未満である場合(ステップS321においてNOである場合)、画面のスクロール命令が入力し易い他の判定方法を採用してもよい。たとえば、縦エリアの大きさの横エリアの大きさに対する比率が増加すると、画面のスクロール命令の入力がし易くなる。
 <モード判手処理の第3の変形例>
 次に、本実施の形態に係る電子辞書100におけるモード判定処理の第3の変形例について説明する。なお、図17は、本実施の形態に係る電子辞書100におけるモード判定処理の第3の変形例の処理手順を示すフローチャートである。
 図17を参照して、CPU110は、時計160を参照して、ユーザが開始文字にタッチしてから所定時間(たとえば、5秒)以上経過しているか否かを判断する(ステップS331)。CPU110は、ユーザが開始文字にタッチしてから所定時間以上経過していない場合(ステップS331においてNOである場合)、判定方法1に基づいて、現在のタッチ座標が縦エリア内に位置するか否かを判断する(ステップS332,ステップS334)。
 CPU110は、ユーザが開始文字にタッチしてから所定時間以上経過している場合(ステップS331においてYESである場合)、判定方法5に基づいて現在のタッチ座標が縦エリア内に位置するか否かを判断する(ステップS333,ステップS334)。
 CPU110は、現在のタッチ座標が縦エリア内に位置する場合(ステップS334においてYESである場合)、画面のスクロール命令を受け付けるモードであると判定する(ステップS335)。CPU110は、表示処理に制御を戻す。
 CPU110は、現在のタッチ座標が、縦エリア内に位置しない場合、すなわち横エリア内に位置する場合(ステップS334においてNOである場合)、文字列の選択命令を受け付けるモードであると判定する(ステップS336)。CPU110は、表示処理に制御を戻す。
 ただし、判定方法1の代わりに、CPU110は、ユーザが開始文字にタッチしてから所定時間以上経過している場合(ステップS331においてYESである場合)、ユーザがテキストを精読していると考えられるため、画面のスクロール命令が入力し易い他の判定方法を採用してもよい。そして、CPU110は、ユーザが開始文字にタッチしてから所定時間以上経過していない場合(ステップS331においてNOである場合)、文字列の選択命令が入力し易い他の判定方法を採用してもよい。たとえば、縦エリアの大きさの横エリアの大きさに対する比率が増加すると、画面のスクロール命令の入力がし易くなる。
 <モード判手処理の第4の変形例>
 次に、本実施の形態に係る電子辞書100におけるモード判定処理の第4の変形例について説明する。なお、図18は、本実施の形態に係る電子辞書100におけるモード判定処理の第4の変形例の処理手順を示すフローチャートである。
 図18を参照して、CPU110は、最初のタッチ座標と開始文字の範囲から出る直前のタッチ座標とが同じであるか否かを判断する(ステップS341)。最初のタッチ座標と開始文字の範囲に出る直前のタッチ座標とが同じである場合(ステップS341においてYESである場合)、判定方法1に基づいて、現在のタッチ座標が縦エリア内に位置するか否かを判断する(ステップS342,ステップS344)。
 最初のタッチ座標と開始文字の範囲に出る直前のタッチ座標とが同じでない場合(ステップS341においてNOである場合)、判定方法2に基づいて現在のタッチ座標が縦エリア内に位置するか否かを判断する(ステップS343,ステップS344)。
 CPU110は、現在のタッチ座標が縦エリア内に位置する場合(ステップS344においてYESである場合)、画面のスクロール命令を受け付けるモードであると判定する(ステップS345)。CPU110は、表示処理に制御を戻す。
 CPU110は、現在のタッチ座標が、縦エリア内に位置しない場合、すなわち横エリア内に位置する場合(ステップS344においてNOである場合)、文字列の選択命令を受け付けるモードであると判定する(ステップS346)。CPU110は、表示処理に制御を戻す。
 なお、第2の変形例と同様に、判定方法1の代わりに、CPU110は、CPU110は、ユーザが開始文字にタッチしてから所定時間以上経過している場合(ステップS341においてYESである場合)、文字列の選択命令が入力し易い他の判定方法を採用してもよい。そして、CPU110は、ユーザが開始文字にタッチしてから所定時間以上経過している場合(ステップS341においてNOである場合)、画面のスクロール命令が入力し易い他の判定方法を採用してもよい。たとえば、縦エリアの大きさの横エリアの大きさに対する比率が増加すると、画面のスクロール命令の入力がし易くなる。
 <範囲選択処理>
 次に、本実施の形態に係る電子辞書100における範囲選択処理について説明する。なお、図19は、本実施の形態に係る電子辞書100における範囲選択処理の処理手順を示すフローチャートである。
 図19を参照して、CPU110は、タッチパネル120を介して、タッチ座標を取得したか否かを判断する(ステップS402)。CPU110は、タッチ座標を取得できない場合(ステップS402においてNOである場合)、表示処理へと制御を戻す。
 CPU110は、タッチ座標を取得した場合(ステップS402においてYESである場合)、最初のタッチ座標を含む文字、現在のタッチ座標を含む文字、最初のタッチ座標と現在のタッチ座標とに挟まれる文字とを白黒反転表示する(ステップS404)。すなわち、CPU110は、白黒反転表示される文字列の範囲を変更する。CPU110は、ステップS402からの処理を繰り返す。
 <範囲選択処理の変形例>
 次に、本実施の形態に係る電子辞書100における範囲選択処理の変形例について説明する。なお、図20は、本実施の形態に係る電子辞書100における範囲選択処理の変形例の処理手順を示すフローチャートである。
 図20を参照して、CPU110は、タッチパネル120を介して、タッチ座標を取得したか否かを判断する(ステップS412)。CPU110は、タッチ座標を取得できない場合(ステップS412においてNOである場合)、表示処理へと制御を戻す。
 CPU110は、タッチ座標を取得した場合(ステップS412においてYESである場合)、最初のタッチ座標を含む文字、現在のタッチ座標を含む文字、最初のタッチ座標と現在のタッチ座標とに挟まれる文字とを白黒反転表示する(ステップS414)。すなわち、CPU110は、白黒反転表示される文字列の範囲を変更する。CPU110は、時計160を参照して、タッチ座標が表示されているテキストの内の一番上の行または一番下の行に所定時間以上停止しているか否かを判断する(ステップS416)。
 タッチ座標が表示されているテキストの内の一番上の行または一番下の行に所定時間以上停止していない場合(ステップS416においてNOである場合)、CPU110は、ステップS420からの処理を実行する。タッチ座標が表示されているテキストの内の一番上の行または一番下の行に所定時間以上停止している場合(ステップS416においてYESである場合)、CPU110は、表示されている画面を1行分スクロールする(ステップS418)。
 たとえば、CPU110は、タッチ座標が表示されているテキストの内の一番上の行に所定時間以上停止している場合、テキストを一行分下降させる。CPU110は、タッチ座標が表示されているテキストの内の一番下の行に所定時間以上停止している場合、テキストを一行分上昇させる。
 CPU110は、最初のタッチ座標を含む文字、現在のタッチ座標を含む文字、最初のタッチ座標と現在のタッチ座標とに挟まれる文字とを白黒反転表示する(ステップS420)。すなわち、CPU110は、白黒反転表示される文字列の範囲を変更する。CPU110は、ステップS412からの処理を繰り返す。
 <その他の応用例>
 本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した外部の記憶媒体141(メモリ130)を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が外部の記憶媒体141(メモリ130)に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。
 この場合、外部の記憶媒体141(メモリ130)から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した外部の記憶媒体141(メモリ130)は本発明を構成することになる。
 また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
 さらに、外部の記憶媒体141(メモリ130)から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わる他の記憶媒体に書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 100 電子辞書、110 CPU、120 タッチパネル、130 メモリ、140 メモリインターフェイス、141 記憶媒体、150 通信インターフェイス、160 時計、θ1 所定角度、θ2 所定角度。

Claims (10)

  1.  タッチパネル(120)と、
     テキストを記憶するメモリ(130)と、
     前記タッチパネルに前記テキストを表示させ、前記タッチパネルを介してタッチ位置を取得するためのプロセッサ(110)とを備え、
     前記プロセッサは、前記タッチ位置のスライド方向を取得することによって、前記スライド方向が横方向である場合に前記タッチ位置に基づいて文字列の選択命令を受け付け、前記スライド方向が縦方向である場合に前記タッチ位置に基づいて画面のスクロール命令を受け付ける、電子機器(100)。
  2.  前記プロセッサは、タッチ開始位置が含まれる文字を内包する第1の矩形エリア外に前記タッチ位置が検出されたときに、前記タッチ位置に基づいて前記スライド方向を判断する、請求項1に記載の電子機器。
  3.  前記プロセッサは、前記第1の矩形エリア外かつ前記タッチ開始位置を中心とした第2の矩形エリア外に前記タッチ位置が検出されたときに、前記タッチ位置に基づいて前記スライド方向を判断する、請求項2に記載の電子機器。
  4.  前記プロセッサは、
     前記タッチ位置が前記第1の矩形エリア外に位置し、前記タッチ開始位置から前記タッチ位置への方向と上下方向との角度が所定角度未満である場合に、前記スライド方向が縦方向であると判断し、
     前記タッチ位置が前記第1の矩形エリア外に位置し、前記タッチ開始位置から前記タッチ位置への方向と上下方向との角度が所定角度以上である場合に、前記スライド方向が横方向であると判断する、請求項2に記載の電子機器。
  5.  前記プロセッサは、
     前記タッチ位置が前記第1の矩形エリア外に位置し、前記タッチ開始位置から前記タッチ位置への方向と左右方向との角度が所定角度未満である場合に、前記スライド方向が横方向であると判断し、
     前記タッチ位置が前記第1の矩形エリア外に位置し、前記タッチ開始位置から前記タッチ位置への方向と上下方向との角度が所定角度以上である場合に、前記スライド方向が縦方向であると判断する、請求項2に記載の電子機器。
  6.  前記プロセッサは、
     前記タッチ位置が、前記第1の矩形エリアの略上方および略下方のいずれかに位置する場合に、前記スライド方向が縦方向であると判断し、
     前記タッチ位置が、前記第1の矩形エリアの略上方および略下方のいずれにも位置しない場合に、前記スライド方向が横方向であると判断する、請求項2に記載の電子機器。
  7.  前記プロセッサは、
     前記タッチ位置が、前記第1の矩形エリアの略右方および略左方のいずれかに位置する場合に、前記スライド方向が横方向であると判断し、
     前記タッチ位置が、前記第1の矩形エリアの略右方および略左方のいずれにも位置しない場合に、前記スライド方向が縦方向であると判断する、請求項2に記載の電子機器。
  8.  前記プロセッサは、
     前記タッチ位置が、前記第1の矩形エリア外かつ前記タッチ開始位置が含まれる文字を含む行の外側に位置する場合に、前記スライド方向が縦方向であると判断し、
     前記タッチ位置が、前記第1の矩形エリア外かつ前記タッチ開始位置が含まれる文字を含む行の内側に位置する場合に、前記スライド方向が横方向であると判断する、請求項2に記載の電子機器。
  9.  前記プロセッサは、
     前記タッチ位置が、前記第1の矩形エリア外かつ前記タッチ開始位置が含まれる文字を含む列の内側に位置する場合に、前記スライド方向が縦方向であると判断し、
     前記タッチ位置が、前記第1の矩形エリア外かつ前記タッチ開始位置が含まれる文字を含む列の外側に位置する場合に、前記スライド方向が横方向であると判断する、請求項2に記載の電子機器。
  10.  タッチパネル(120)とプロセッサ(110)とを含む電子機器(100)における表示方法であって、
     前記プロセッサが、前記タッチパネルにテキストを表示させるステップと、
     前記プロセッサが、前記タッチパネルを介してタッチ位置を取得するステップと、
     前記プロセッサが、前記タッチ位置のスライド方向を取得するステップと、
     前記スライド方向が横方向である場合に、前記プロセッサが、前記タッチ位置に基づいて文字列の選択命令を受け付けるステップと、
     前記スライド方向が縦方向である場合に、前記プロセッサが、前記タッチ位置に基づいて画面のスクロール命令を受け付けるステップとを備える、表示方法。
PCT/JP2011/076514 2010-12-07 2011-11-17 電子機器および表示方法 WO2012077475A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-272580 2010-12-07
JP2010272580A JP5775291B2 (ja) 2010-12-07 2010-12-07 電子機器および表示方法

Publications (1)

Publication Number Publication Date
WO2012077475A1 true WO2012077475A1 (ja) 2012-06-14

Family

ID=46206973

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/076514 WO2012077475A1 (ja) 2010-12-07 2011-11-17 電子機器および表示方法

Country Status (2)

Country Link
JP (1) JP5775291B2 (ja)
WO (1) WO2012077475A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102999295A (zh) * 2012-11-23 2013-03-27 鸿富锦精密工业(深圳)有限公司 具有触摸屏的电子装置及选取字符的方法
WO2015141092A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
US10613732B2 (en) 2015-06-07 2020-04-07 Apple Inc. Selecting content items in a user interface display

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5859917B2 (ja) * 2012-05-29 2016-02-16 京セラ株式会社 携帯端末
JP6137279B2 (ja) * 2014-12-05 2017-05-31 カシオ計算機株式会社 表示装置、表示方法及び表示プログラム
JP6493973B2 (ja) * 2015-05-27 2019-04-03 株式会社日本総合研究所 文字列入力方法及びプログラム
JP7238314B2 (ja) * 2018-10-02 2023-03-14 カシオ計算機株式会社 電子機器、テキスト処理方法、およびプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009142871A2 (en) * 2008-05-23 2009-11-26 Microsoft Corporation Panning content utilizing a drag operation

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167126A (ja) * 1999-12-13 2001-06-22 Sharp Corp 地図情報表示装置
JP2001202176A (ja) * 2000-01-24 2001-07-27 Casio Comput Co Ltd 情報表示装置、情報表示プログラムが記録された記録媒体
JP2009205304A (ja) * 2008-02-26 2009-09-10 Ntt Docomo Inc タッチパネルの制御装置、制御方法およびコンピュータプログラム
JP2009245012A (ja) * 2008-03-28 2009-10-22 Kenwood Corp 選択表示装置、コンテンツ再生装置、プログラム、及び選択表示方法
JP2010157038A (ja) * 2008-12-26 2010-07-15 Toshiba Corp 電子機器、入力制御方法
JP2010157189A (ja) * 2009-01-05 2010-07-15 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2010087203A1 (ja) * 2009-02-02 2010-08-05 パナソニック株式会社 情報表示装置
JP5433375B2 (ja) * 2009-10-23 2014-03-05 楽天株式会社 端末装置、機能実行方法、機能実行プログラム及び情報処理システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009142871A2 (en) * 2008-05-23 2009-11-26 Microsoft Corporation Panning content utilizing a drag operation

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102999295A (zh) * 2012-11-23 2013-03-27 鸿富锦精密工业(深圳)有限公司 具有触摸屏的电子装置及选取字符的方法
WO2015141092A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
US10613732B2 (en) 2015-06-07 2020-04-07 Apple Inc. Selecting content items in a user interface display

Also Published As

Publication number Publication date
JP5775291B2 (ja) 2015-09-09
JP2012123525A (ja) 2012-06-28

Similar Documents

Publication Publication Date Title
JP5775291B2 (ja) 電子機器および表示方法
JP5599741B2 (ja) 電子機器、コンテンツ表示方法、およびコンテンツ表示プログラム
US20180150214A1 (en) Display control apparatus, display control method and display control program
US9454302B2 (en) Information processing apparatus, system and method for controlling display of windows
JP5094450B2 (ja) 表示装置及びコンピュータプログラム
US9430252B2 (en) Information processing apparatus, storage medium, information processing system and information processing method
JP5792499B2 (ja) 電子機器、表示方法、および表示プログラム
JP5606950B2 (ja) 電子機器、手書き処理方法、および手書き処理プログラム
TWI655572B (zh) Information processing device, information processing method and computer readable recording medium
JP4741983B2 (ja) 電子機器及び電子機器の動作方法
US20080170752A1 (en) Information Processing Device, Image Movement Instructing Method, and Information Storage Medium
JP2006146556A (ja) 画像表示処理プログラムおよび画像表示処理装置
KR20080019266A (ko) 터치패널 표시장치 및 휴대 기기
JP5473708B2 (ja) 携帯端末及び表示制御プログラム
CN102934067A (zh) 信息处理系统、操作输入装置、信息处理装置、信息处理方法、程序以及信息存储介质
JPWO2013099042A1 (ja) 情報端末、情報端末の制御方法、及び、プログラム
US20140016040A1 (en) Display apparatus, information processing system, recording medium and television receiver
US20110225535A1 (en) Information processing apparatus
CN103140826A (zh) 信息终端装置以及触控面板的显示方法
JP5774350B2 (ja) 電子機器、手書き入力方法、および手書き入力プログラム
JP5894764B2 (ja) 情報処理装置
US20110172010A1 (en) Information processing device, information processing device control method, program, and information storage medium
JP5219134B2 (ja) 情報表示装置、情報表示方法、情報表示プログラム、並びに情報表示プログラムを記録した記憶媒体
JP6800714B2 (ja) 電子機器および表示制御方法
JP6429692B2 (ja) 電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11847755

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11847755

Country of ref document: EP

Kind code of ref document: A1