WO2012137512A1 - 携帯端末 - Google Patents

携帯端末 Download PDF

Info

Publication number
WO2012137512A1
WO2012137512A1 PCT/JP2012/002408 JP2012002408W WO2012137512A1 WO 2012137512 A1 WO2012137512 A1 WO 2012137512A1 JP 2012002408 W JP2012002408 W JP 2012002408W WO 2012137512 A1 WO2012137512 A1 WO 2012137512A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch panel
finger
contact
function
display
Prior art date
Application number
PCT/JP2012/002408
Other languages
English (en)
French (fr)
Inventor
登 尾花
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Publication of WO2012137512A1 publication Critical patent/WO2012137512A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present invention relates to a portable terminal provided with a touch panel.
  • Patent Document 1 an operation function button and an operation button are defined, and when it is detected that both of these buttons are pressed simultaneously, coordinate data of the operation element including function identification information is output.
  • the function corresponding to this button can be determined by selecting and releasing the button on the touch panel with a fingertip.
  • the buttons on the touch panel are small and a desired button cannot be selected with a fingertip.
  • another button different from the desired button may be selected by mistake with the fingertip.
  • a button corresponding to a function different from the desired function is selected and determined with the fingertip.
  • Patent Document 1 it is necessary to simultaneously press the operation function button and the operation button. For this reason, when the operation function button or the operator button on the touch panel is small, such a pressing operation causes a misoperation.
  • An object of the present invention is to provide a portable terminal that can prevent execution of a function unintended by a user with a simple touch panel operation.
  • the present invention relates to a touch panel that senses contact, a display unit that is provided integrally with the touch panel and displays an object associated with a function, a display control unit that controls display of the display unit, and the object.
  • An execution unit that executes a function, and while the touch panel senses a finger touch of the object, another finger different from the finger is applied to a part of the display unit other than the object.
  • the execution unit provides a portable terminal that executes a function corresponding to the object.
  • the portable terminal further includes an operator display control unit that controls an operator that can select the object on the display unit, and the touch panel senses a finger contact of the object via the operator. If the touch and release of another finger different from the finger to a part of the display unit other than the object is detected during the period, the execution unit executes a function corresponding to the object.
  • the portable terminal According to the portable terminal according to the present invention, it is possible to prevent a function unintended by the user from being executed by a simple touch panel operation.
  • FIG. 1 Block diagram of display control apparatus 100 (A) “finger non-contact” flow diagram of the first embodiment, (b) “invalid area contact” flow diagram of the first embodiment (A) “Function button selection display” flow chart of the first embodiment, (b) “content reading” flow chart of the first embodiment Touch Panel Operation Example (1) of Display Control Device 300 According to Embodiment 2 Touch Panel Operation Example (2) of Display Control Device 300 According to Embodiment 2 Block diagram of display control device 300 (A) “finger non-contact” flow diagram of the second embodiment, (b) “invalid area contact” flow diagram of the second embodiment (A), (b) is a flow chart of “operator control” in the second embodiment (1), (2) (A) “Function button selection display” flow diagram of the second embodiment, (b) “content reading” flow diagram of the second embodiment
  • FIG. 1 The block diagram which shows schematic structure of the portable terminal 1 Diagram showing finger movement that triggers function
  • FIG. 1 is a touch panel operation example of the display control apparatus 100 according to the first embodiment.
  • the touch panel 101 of the display control apparatus 100 is shown in FIG.
  • a browser screen will be described as an example of a touch panel screen.
  • the user changes the screen of the touch panel 101 to the link destination of the text anchor 1 on the browser screen.
  • the text anchor 1 indicated by the region R1 on the touch panel 101 is selected and highlighted by one finger F1 of the user.
  • the browser screen maintains the current display screen without making a transition to the link destination of the text anchor 1 indicated by the region R1.
  • a part other than the area R1 on the touch panel 101 (for example, the areas R2 and R3) is defined as the finger that is in contact with the area R1 Touch and release with another different finger F2. That is, in the present embodiment, the touch panel operation that is touched and released with another finger F2 different from the finger F1 serves as a trigger for the browser operation for the region R1 that has been previously touched with the finger F1.
  • the screen of the touch panel 101 is a region R4 that is the link destination of the text anchor 1. Transition to. (Screen 1-3) maintains the same screen as (Screen 1-1). Therefore, the user can execute a predetermined function such as changing the browser screen to the link destination while maintaining the original display screen.
  • the text anchor 1 of the region R1 it is possible to easily prevent an erroneous operation of the touch panel such as no transition to the link destination or transition to the link destination of the other text anchors 2 and 3 adjacent to the region R1.
  • two fingers in which a function on the touch panel 101 selected by one finger (finger F1) is determined by a touch panel operation with another one finger (finger F2). If the touch panel operation is performed at, it becomes difficult to determine a function different from the desired function by an incorrect touch panel operation.
  • the display control apparatus 100 can transition the screen on the touch panel 101 (for example, the browser screen) without error to the link destination desired by the user.
  • FIG. 2 is a block diagram of the display control apparatus 100.
  • a display control apparatus 100 shown in FIG. 2 includes a touch panel 101, a display unit 103, a coordinate input processing unit 105, a function button display control unit 107, and a storage unit 111.
  • the CPU 119 functions as a control unit that controls the entire display control apparatus 100, and executes a processing program, data, and the like stored in the storage unit 111.
  • the touch panel 101 senses a touch on the touch panel 101 by a built-in sensor, and outputs the detection result to the coordinate input processing unit 105.
  • the contact position of the finger F 1, the contact position of the finger F 2, and the release position are output to the coordinate input processing unit 105.
  • the touch panel 101 is a touch panel that uses capacitive, resistive, infrared, and surface acoustic wave technologies, and other proximity sensor arrays, or a plurality of touch sensitivity technologies for determining touch points with the touch panel 101. It is possible to detect contact on 101 and any movement due to contact or interruption of that movement.
  • the contact detected by the touch panel 101 is, for example, a contact of a finger of a user who operates the display control device 100.
  • the display unit 103 is provided integrally with the touch panel 101, and displays a visual output to the user as an output interface.
  • This visual output can include text, graphics, video, and any combination thereof.
  • the coordinate input processing unit 105 converts the detection result of the touch panel 101 into coordinates on the XY plane.
  • the storage unit 111 stores in advance processing programs executed by the CPU 119, data, and the like. Programs and data stored in the storage unit 111 may be read from an external recording medium such as a floppy (registered trademark) disk or an optical (magnetic) disk, or a communication line (wired or external) for data transmission / reception with the outside. It may be received from another device connected via wireless) and stored.
  • an external recording medium such as a floppy (registered trademark) disk or an optical (magnetic) disk, or a communication line (wired or external) for data transmission / reception with the outside. It may be received from another device connected via wireless) and stored.
  • the storage unit 111 stores various contents displayed on the touch panel 101, operators, function button objects, and the like.
  • the function button display control unit 107, various contents, and function button objects, which will be described later, are output to the display unit 103.
  • the function button display control unit 107 performs display control of the function buttons displayed on the touch panel 101 based on the coordinate information output from the coordinate input processing unit 105 and the position information of the function buttons displayed on the touch panel 101.
  • the coordinate information output from the coordinate input processing unit 105 indicates, for example, coordinate information (Xk, Yk) of a finger contact position and a release position on the touch panel 101.
  • the function button display control unit 107 highlights the function button so that it is selected. .
  • the function button display control unit 107 selects the function button.
  • the function corresponding to is executed.
  • the screen of the touch panel 101 is displayed after touching and releasing a portion other than the region R1 (except for text anchors 2 and 3) with another finger F2 while the region R1 is touched with the finger F1. Transitions to a region R4 to which the text anchor 1 is linked.
  • the function button display control unit 107 executes a function corresponding to the function button, the CPU 119 may perform processing other than the display change of the display unit 103, or the function button display control unit 107 may perform it. Also good.
  • FIGS. 3 (a) to 4 (b) are “finger non-contact” flow in the present embodiment
  • FIG. 3B is an “invalid area contact” flow in the present embodiment.
  • step ST31 the function button display control unit 107 displays the content on the display unit 103. If the touch panel 101 does not sense the touch of the user's finger, the process proceeds to step ST32.
  • step ST32 the touch of the user's finger is waited on the touch panel 101. And it changes to step ST33.
  • Step ST33 If there is a user's finger contact on the touch panel 101 in Step ST33 (Yes), the process proceeds to Step ST34, and if there is no user finger contact on the touch panel 101 (No), Step ST32 Return to.
  • step ST34 when the user's finger is in contact with the function button (in the case of Yes), the flow proceeds to the “selecting function button” flow, and when the user's finger is not in contact with the function button (No Case), the flow shifts to the “invalid area contact” flow (see FIG. 3B).
  • step ST35 it is detected whether or not the user's finger has been released on the touch panel 101. If released, the process proceeds to ST32 of the “finger non-contact” flow. If not released, step ST35 is repeated. That is, the “invalid area contact” flow is repeated until there is a release operation for canceling the invalid area on the touch panel 101.
  • FIG. 4A is a “function button selection display” flow in the present embodiment
  • FIG. 4B is a “content read” flow in the present embodiment.
  • the function corresponding to the selected function button is content reading.
  • Content reading is an example of a function corresponding to the selected function button, and the function corresponding to the selected function button is not limited to this example.
  • step ST41 of the “function button selection display” flow shown in FIG. 4A the display on the touch panel 101 indicating that the function button with which the user's finger is in contact is selected (ON).
  • step ST42 it is determined whether or not there is another finger contact different from the finger touching the function button on the touch panel 101. Then, when there is a touch of another finger on the touch panel 101 (in the case of Yes), a transition is made to the content reading flow (see FIG. 4B), and there is no touch of another finger on the touch panel 101 ( In the case of No), the process proceeds to step ST43.
  • step ST43 it is determined whether or not the finger touching the function button has been released from the touch panel 101. If the finger touching the function button is released from the touch panel 101 (Yes), the process proceeds to step ST44. If the finger touching the function button is not released from the touch panel 101 (No), the process proceeds to Step ST44. Transition to ST42.
  • step ST44 since the finger touching the function button has been released from the touch panel 101, the selected display of the function button being displayed is canceled (OFF). Thereafter, the process proceeds to step ST32 of the “finger non-contact” flow (see FIG. 3A).
  • step ST45 of the “content reading” flow shown in FIG. 4B the selected display of the function button being displayed is canceled (OFF), and the process proceeds to step ST46.
  • step ST46 content reading, which is a function corresponding to the function button displayed during selection, is executed. Thereafter, the flow proceeds to the “finger non-contact” flow.
  • FIG. 5 is a touch panel operation example (1) of the display control apparatus 300 according to the second embodiment.
  • FIG. 5 shows only the touch panel 101 of the display control apparatus 300.
  • a browser screen will be described as an example of a touch panel screen. Further, it is assumed that the user wants to change the screen of the touch panel 101 to the link destination of the text anchor portion of the browser screen.
  • the text anchor 5 indicated by the region R5 on the touch panel 101 is selected and highlighted by the pointer P (operator) touched with one finger F3 of the user.
  • the browser screen maintains the current display screen without making a transition to the link destination of the text anchor 5 indicated by the region R5.
  • the pointer P is not selected, it is possible to operate the touch panel with one finger F3 of the user.
  • the area R5 is selected by the pointer P touched with the finger F3, and one other than the text anchors 5, 6, and 7 indicated by the areas R5, R6, and R7 on the touch panel 101 is displayed. Touch and release with one other finger F4 different from the finger F3. That is, in the present embodiment, the touch panel operation of touching and releasing with another one finger F4 different from one finger F3 that is in contact with this region R5 via the pointer P is performed via the pointer P first. It is a browser operation trigger for the region R5 touched by the finger F3.
  • the operation element for selecting the region R5 to be operated by the browser is the pointer P (operation element) touched with one finger F3 of the user. Therefore, even if the region R5 is small, it can be easily selected by the pointer P (operation element). That is, the user can select without error by the pointer P (operator) even if the area R5 on the touch panel 101 where the function is to be executed is small.
  • the region R5 when a touch panel operation performed with another finger F4 different from the finger F3 that is in contact with the region R5 via the pointer P is used as a trigger for a browser operation on the region R5, for example, the region R5 ( It is possible to easily prevent an erroneous operation of the touch panel such as a transition to a link destination of the text anchor 5) or a transition to a link destination of another text anchor portion (for example, the regions R6 and R7) adjacent to the region R5.
  • the display control apparatus 300 according to the present embodiment is applied to a small electronic device such as a mobile phone, even if the text anchor portion of the region R5 cannot be changed in display according to the size of the touch panel 101.
  • the text anchor portion of the region R5 smaller than the pointer P can be selected.
  • the function on the touch panel 101 selected by the pointer P operated with one finger is determined by the touch panel operation with another finger (finger F4). If the touch panel operation is performed with the fingers F3 and F4), it is difficult to determine a function different from a desired function by an erroneous touch panel operation.
  • the display control apparatus 300 can transition the screen (for example, the browser screen) on the touch panel 101 without error to the link destination desired by the user.
  • FIG. 6 is a touch panel operation example (2) of the display control apparatus 300 according to the second embodiment.
  • FIG. 6 shows only the touch panel 101 of the display control apparatus 300.
  • a browser screen will be described as an example of a touch panel screen. Further, it is assumed that the user wants to change the screen of the touch panel 101 to the link destination of the text anchor portion of the browser screen.
  • the text anchor 5 indicated by the region R5 on the touch panel 101 is selected and highlighted by one finger F3 of the user.
  • the browser screen maintains the current display screen without making a transition to the link destination of the text anchor 5 indicated by the region R5.
  • the function on the touch panel 101 that is selected with one finger (finger F3) via the pointer P or directly selected without using the pointer P is used with another finger (finger F4). If it is a touch panel operation with two fingers (finger F3, F4), such as determined by a touch panel operation according to), the screen is immediately moved (scrolled) in any moving operation with one finger, no matter where it is touched. be able to.
  • FIG. 7 is a block diagram of display control apparatus 300 according to the present embodiment.
  • the display control device 300 shown in FIG. 7 is different from the display control device 100 shown in FIG. 2 in that an operation element display control unit 309 is provided, and the other configurations are the same.
  • the CPU 119 functions as a control unit that controls the entire display control apparatus 300, and executes processing programs, data, and the like stored in the storage unit 111.
  • the touch panel 101 senses a touch on the touch panel 101 by a built-in sensor, and outputs the detection result to the coordinate input processing unit 105.
  • the contact position of the finger F3, the contact position of the finger F4, and the release position are output to the coordinate input processing unit 105.
  • the touch panel 101 is a touch panel that uses capacitive, resistive, infrared, and surface acoustic wave technologies, and other proximity sensor arrays, or a plurality of touch sensitivity technologies for determining touch points with the touch panel 101. It is possible to detect contact on 101 and any movement due to contact or interruption of that movement.
  • the display unit 103 is provided integrally with the touch panel 101, and displays a visual output to the user as an output interface.
  • This visual output can include text, graphics, video, and any combination thereof.
  • the operation element display control unit 309 is based on the coordinate information output from the coordinate input processing unit 105 and the coordinate information of the operation element (pointer P in FIG. 5) displayed on the touch panel 101.
  • the display control of the pointer P) is performed.
  • the pointer P when the user touches the pointer P displayed on the upper left of the browser screen with the finger F3, the pointer P can be moved to the region R5 (text anchor 5) on the touch panel 101.
  • the function button display control unit 107 performs display control of the function buttons displayed on the touch panel 101 based on the coordinate information output from the coordinate input processing unit 105 and the position information of the function buttons displayed on the touch panel 101.
  • the coordinate information output from the coordinate input processing unit 105 indicates, for example, coordinate information (Xk, Yk) of the contact position and release position of the fingers F3 and 4 on the touch panel 101.
  • the function button display control unit 107 is selecting the function button. Highlight as it is.
  • the function button display control unit 107 touches and releases another finger F4 different from the finger F3 on the touch panel 101 while the function button is selected with the finger F3 via the operator (pointer P in FIG. 5). If so, the function corresponding to the function button is executed.
  • the screen of the touch panel 101 is the text anchor 5. It changes to area
  • the function button display control unit 107 executes a function corresponding to the function button, the CPU 119 may perform processing other than the display change of the display unit 103, or the function button display control unit 107 may perform it. Also good.
  • FIG. 8A is a “finger non-contact” flow in the present embodiment
  • FIG. 8B is a “content scroll” flow in the present embodiment.
  • step ST71 the function button display control unit 107 displays the content (function button) on the display unit 103, and the operator display control unit 309 displays the operator (the pointer P in FIGS. 5 and 6) on the display unit 103. . And when the touch panel 101 does not detect a user's finger
  • step ST72 the touch of the user's finger is waited on the touch panel 101. And it changes to step ST73.
  • step ST73 when there is a user's finger contact on the touch panel 101 (in the case of Yes), the process proceeds to step ST74, and when there is no user finger contact on the touch panel 101 (in the case of No), step ST72. Return to.
  • step ST74 when the user's finger is in contact with the operation element (for example, pointer P) (in the case of Yes), the flow proceeds to the “operation element control” flow, and the user's finger is in contact with the operation element. If not (No), the process proceeds to step ST75.
  • the operation element for example, pointer P
  • step ST75 when the user's finger is in contact with the function button (in the case of Yes), the flow proceeds to the “selecting function button” flow, and when the user's finger is not in contact with the function button (No Case), the flow shifts to a “content scroll” flow (see FIG. 8B).
  • step ST76 it is detected whether or not the user's finger has been released on the touch panel 101. If released, the process proceeds to ST72 of the “finger non-contact” flow. If not released, whether or not the user's finger has moved is confirmed in step ST77. If moved, the process proceeds to step ST78. Then, after moving the content (moving the screen) following the movement of the user's finger, the process proceeds to step ST76. If the content has not been moved, the content is left unchanged and the process proceeds to step ST76. That is, the flow of “content scrolling” in which the screen is moved following the movement of the finger is repeated until a finger release operation is performed on the touch panel 101.
  • step ST81 it is determined whether or not another finger different from the finger in contact with the operation element is in contact with the touch panel 101 while the user's finger is in contact with the operation element (for example, a pointer). To do. And when the other finger is contacting (in the case of Yes), it changes to step ST86, and when the other finger is not contacting (in the case of No), it changes to step ST82.
  • step ST82 it is determined whether or not the finger touching the operation element on the touch panel 101 is released.
  • the process proceeds to step ST85, and when the finger that has been in contact with the operating element on the touch panel 101 is not released (No Case), the process proceeds to step ST83.
  • step ST83 it is determined whether or not the finger touching the operation element has moved while the other finger is not in contact with the touch panel 101.
  • the process proceeds to step ST84, and the other finger is touched on the touch panel 101. If the finger touching the operating element is not moving while maintaining the non-contact state (in the case of No), the process returns to step ST81.
  • step ST84 the operator moves on the touch panel 101 with the movement of the finger in contact with the operator. Thereafter, the process proceeds to step ST87 (see FIG. 9B).
  • step ST85 when the operator moves into the function button display range and the function button selection display is valid (ON), the selection display is canceled (OFF). Thereafter, the process proceeds to step ST72 (see FIG. 8A).
  • step ST86 it is determined on the touch panel 101 whether or not the operation element is in the function button.
  • the process proceeds to the “content reading” flow (see FIG. 10B) for content switching, and when the operation element is not in the function button (No ), The process proceeds to step ST81.
  • Steps ST87 to ST89 are steps for performing a function button display process suitable for the position after the operation element is moved when the operation element is moved.
  • step ST87 it is determined whether or not the operation element has moved from outside the function button display range to within the display range.
  • the process proceeds to step ST88-2.
  • the step ST88- Transition to 1.
  • step ST88-1 it is determined whether or not the operation element has moved from the function button display range to the outside of the display range.
  • the process proceeds to step ST89, and the movement of the operator remains within the display range of the function button, or If it remains outside the display range (in the case of No), the process proceeds to step ST81 (see FIG. 9A).
  • step ST88-2 since the operation element moves and is positioned within the function button display range, the display during function button selection is enabled (ON). Thereafter, the process proceeds to step ST81 (see FIG. 9A).
  • step ST89 since the operator moves and is located outside the display range of the function button, the display during selection of the function button is canceled (OFF). Thereafter, the process proceeds to step ST81 (see FIG. 9A).
  • FIG. 10A is a “function button selection display” flow in the present embodiment
  • FIG. 10B is a “content read” flow in the present embodiment.
  • the function corresponding to the selected function button is content reading.
  • Content reading is an example of a function corresponding to the selected function button, and the function corresponding to the selected function button is not limited to this example.
  • step ST91 of the “function button selection display” flow shown in FIG. 10A the display on the touch panel 101 indicating that the function button with which the user's finger is in contact is selected (ON).
  • step ST92 it is determined whether or not there is a touch of another finger different from the finger touching the function button on the touch panel 101. If there is another finger touch on the touch panel 101 (in the case of Yes), the process proceeds to a content reading flow (see FIG. 10B), and there is no other finger touch on the touch panel 101 ( In the case of No), the process proceeds to step ST93.
  • step ST93 it is determined whether or not the finger touching the function button has been released. If the finger touching the function button is released (in the case of Yes), the process proceeds to step ST94. If the finger touching the function button is not released (in the case of No), the process proceeds to step ST95. Transition.
  • step ST94 since the finger that has touched the function button is released, the selected display of the function button being displayed is canceled (OFF). Thereafter, the process proceeds to step ST72 of the “finger non-contact” flow (see FIG. 8A).
  • step ST95 it is confirmed whether or not the finger touching the function button has moved on the touch panel 101. If the finger has moved, the process proceeds to step ST96 to move the content following the movement of the finger (moving the screen). ), The process proceeds to step ST92. If the content has not moved, the process proceeds to step ST92 without changing the content. In other words, the “function button selection display” is performed by moving the screen in accordance with the movement of the finger until there is a touch with another finger on the touch panel 101 or a release operation of the finger touching the function button. This flow is repeated.
  • step ST97 of the “content reading” flow shown in FIG. 10B the function button selection display is canceled (OFF), and in step ST98, content reading that is a function corresponding to the selected function button is read. Execute. Thereafter, the flow proceeds to the “finger non-contact” flow.
  • Embodiment 3 With reference to FIG. 11 and FIG. 12, the portable terminal 1 provided with the display control apparatus 100 which concerns on Embodiment 1 is demonstrated as Embodiment 3 of this invention.
  • FIG. 11 is a perspective view of the mobile terminal 1 used for a mobile phone or the like.
  • the mobile terminal 1 includes a rectangular plate-shaped housing 10.
  • a touch panel 101 provided with a display unit 103, a speaker 33 that outputs sound, and a microphone 34 that collects sound are provided.
  • the touch panel 101, the speaker 33, and the microphone 34 are exposed to the outside, and the user can make a call using the mobile terminal 1 while visually recognizing the screen of the touch panel 101.
  • FIG. 12 is a block diagram showing a schematic configuration of the mobile terminal 1.
  • the main control unit 30, the power supply circuit unit 31, the touch panel control unit 32, the voice control unit 35, the communication control unit 36, the storage element 37, and the information recording medium 38 can communicate with each other via a bus. Connected and configured.
  • the power supply circuit unit 31 includes a power supply source (battery or the like), switches the power supply ON / OFF state of the mobile terminal 1 based on an input via an operation key displayed on the touch panel 101, and the power supply is in an ON state. In this case, power is supplied from the power supply source to each unit to enable the mobile terminal 1 to operate.
  • a power supply source battery or the like
  • the touch panel control unit 32 acquires the position coordinates where the contact has occurred and transmits the position coordinates to the main control unit 30.
  • the touch panel control unit 32 includes the function of the display control device 100.
  • the touch panel control unit 32 deletes the position coordinates acquired at the time of contact. For example, when the user's finger traces in any direction while touching the touch panel 101, the touch panel control unit 32 acquires the contact position coordinates from the start point to the end point traced with the finger and transmits them to the main control unit 30.
  • touch panel control unit 32 displays data and the like on the touch panel 101 based on the control of the main control unit 30.
  • the touch panel control unit 32 When touch input is performed on the touch panel 101, when data is displayed on the touch panel 101, or when communication is performed, the touch panel control unit 32 lights the touch panel 101. Further, when there is no input from the touch panel 101, no communication is performed, and a predetermined time elapses, the touch panel control unit 32 turns off the illumination of the touch panel 101, invalidates the input operation from the touch panel 101, and then performs the input operation. The function of the portable terminal 1 is put to sleep until there is.
  • the sound control unit 35 generates an analog sound signal from the sound collected by the microphone 34 based on the control of the main control unit 30, and converts the analog sound signal into a digital sound signal. Further, when acquiring the digital audio signal, the audio control unit 35 converts the digital audio signal into an analog audio signal based on the control of the main control unit 30 and outputs the analog audio signal as audio from the speaker 33.
  • the communication control unit 36 performs spectrum despreading processing on the received signal received from the base station via the antenna 36A based on the control of the main control unit 30, and restores the data.
  • This data is transmitted to the sound control unit 35 and output from the speaker 33 according to an instruction from the main control unit 30, transmitted to the touch panel control unit 32, displayed on the touch panel 101, or recorded in the storage element 37. To do.
  • the communication control unit 36 acquires voice data collected by the microphone 34, data input via the touch panel 101, and data stored in the storage element 37 based on the control of the main control unit 30. These data are subjected to spread spectrum processing and transmitted to the base station via the antenna 36A.
  • the storage element 37 serves as a work area for the main control unit 30 and the communication control unit 36, and its function can be realized by a RAM (Random Access Memory) or the like.
  • the information recording medium 38 stores programs, data, and the like, and the function can be realized by a hard disk, a memory (ROM: Read Only Memory), or the like.
  • the information recording medium 38 stores a program for causing a computer to function as each part of the present embodiment (a program for causing a computer to execute processing of each part), a plurality of applications, and the like.
  • the main control unit 30 includes a CPU (Central Processing Unit).
  • the main control unit 30 performs overall control of the mobile terminal 1 and performs various other arithmetic processing and control processing.
  • the function of the main control unit 30 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.
  • the main control unit 30 performs various processes of the present embodiment based on a program (data) stored in the information recording medium 38.
  • the main control unit 30 When the main control unit 30 starts an arbitrary application stored in the information recording medium 38, the main control unit 30 converts it to correspond to the application transmitted from the touch panel control unit 32 by touching the touch panel 101. Then, the application is operated so as to perform a predetermined processing operation.
  • the portable terminal 1 including the display control device 100 according to the first embodiment has the same effect as the display control device 100 according to the first embodiment. That is, in this embodiment, when a touch panel operation performed with another finger F2 different from the finger F1 in contact with the region R1 is used as a trigger for a browser operation on the region R1, for example, the link destination of the region R1 text anchor portion
  • the touch panel is less likely to be erroneously operated, such as transitioning to a link destination of another text anchor part (for example, the region 2 or 3) adjacent to the region R1.
  • the portable terminal 1 provided with the display control apparatus 100 determines the function on the touch panel 101 selected with one finger (finger F1) by touch panel operation with another one finger (finger F2).
  • touch panel operation with two fingers makes it difficult to determine a function different from a desired function by an incorrect touch panel operation.
  • the mobile terminal 1 including the display control device 100 can transition the screen (for example, the browser screen) on the touch panel 101 to the link destination desired by the user without error.
  • the browser screen is described as an example of the touch panel screen, but the present invention is not limited to this.
  • the above embodiments can be applied not only to the browser function but also to all functions that can be executed by a touch panel operation.
  • the display control device can be applied to a small electronic device such as a mobile phone.
  • the determination trigger performed by “different finger touch and release” may be simply performed by “different finger contact (touch)”.
  • a function corresponding to the contact position of the previous finger can be implemented.
  • “Different finger contact (touch)” may be in the function button area where the previous finger is in contact.
  • the mobile terminal according to the present invention has an effect that an unintended function can be prevented by a simple touch panel operation, and is useful as a mobile phone or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 携帯端末は、接触を感知するタッチパネルと、タッチパネルと一体に設けられ、機能が関連づけられたオブジェクトを表示する表示部と、表示部の表示を制御する表示制御部と、オブジェクトに関連づけられた機能を実行する実行部と、を備え、タッチパネルが、オブジェクトの指の接触を感知している間に、オブジェクト以外の表示部の一部への、指とは異なる他の指の接触及びリリースを感知すると、実行部は、オブジェクトに対応する機能を実行する。これにより簡単なタッチパネル操作で意図しない機能の実行を防止する。

Description

携帯端末
 本発明は、タッチパネルを備える携帯端末に関する。
 特許文献1では、操作機能釦と操作子釦とを定義し、これらの両方の釦を同時に押下されるのを検知したら、機能識別情報を含んだ操作子の座標データを出力する。
日本国特許第4540787号明細書
 携帯端末では、タッチパネル上の釦を指先で選択してリリースすることで、この釦に対応する機能を決定することができる。しかし、タッチパネル上の釦が小さく、所望の釦を指先で選択できない場合がある。さらには、タッチパネル上の釦が狭い範囲で互いに隣接していると、所望の釦とは異なる他の釦を指先で誤って選択する場合がある。これらの結果、所望の機能とは異なる機能に対応する釦を指先で選択、決定される。特に、特許文献1では、操作機能釦と操作子釦とを同時に押下する必要がある。そのため、タッチパネル上の操作機能釦又は操作子釦が小さい場合、このような押下操作は誤操作を招く要因となる。
 本発明の目的は、簡単なタッチパネル操作でユーザの意図しない機能の実行を防ぐことができる、携帯端末を提供することである。
 本発明は、接触を感知するタッチパネルと、前記タッチパネルと一体に設けられ、機能が関連づけられたオブジェクトを表示する表示部と、前記表示部の表示を制御する表示制御部と、前記オブジェクトに関連づけられた機能を実行する実行部と、を備え、前記タッチパネルが、前記オブジェクトの指の接触を感知している間に、前記オブジェクト以外の表示部の一部への、前記指とは異なる他の指の接触及びリリースを感知すると、前記実行部は、前記オブジェクトに対応する機能を実行する、携帯端末を提供する。
 上記携帯端末は、更に、前記表示部で前記オブジェクトを選択可能な操作子を制御する操作子表示制御部を備え、前記タッチパネルが、前記操作子を介した前記オブジェクトの指の接触を感知している間に、前記オブジェクト以外の表示部の一部への、前記指とは異なる他の指の接触及びリリースを感知すると、前記実行部は、前記オブジェクトに対応する機能を実行する。
 本発明に係る携帯端末によれば、簡単なタッチパネル操作でユーザの意図しない機能の実行を防ぐことができる。
実施の形態1に係る表示制御装置100のタッチパネル操作例 表示制御装置100のブロック図 (a)実施の形態1の「指非接触」フロー図、(b)実施の形態1の「無効領域接触」フロー図 (a)実施の形態1の「機能釦選択中表示」フロー図、(b)実施の形態1の「コンテンツ読出し」フロー図 実施の形態2に係る表示制御装置300のタッチパネル操作例(1) 実施の形態2に係る表示制御装置300のタッチパネル操作例(2) 表示制御装置300のブロック図 (a)実施の形態2の「指非接触」フロー図、(b)実施の形態2の「無効領域接触」フロー図 (a)、(b)は実施の形態2における「操作子コントロール」フロー図(1)、(2) (a)実施の形態2の「機能釦選択中表示」フロー図、(b)実施の形態2の「コンテンツ読出し」フロー図 実施の形態3に係る携帯端末1の斜視図 携帯端末1の概略構成を示すブロック図 機能を決定するトリガーとなる指の動きを示す図
 以下、本発明の実施の形態について、図面を参照して説明する。
(実施の形態1)
 図1は、実施の形態1に係る表示制御装置100のタッチパネル操作例である。説明のため、図1では表示制御装置100のタッチパネル101のみを示す。本実施の形態では、タッチパネル画面の一例として、ブラウザ画面を例にとって説明する。また、ユーザは、ブラウザ画面のテキストアンカー1のリンク先へタッチパネル101の画面を遷移させる。
 (画面1-1)では、タッチパネル101上の領域R1で示すテキストアンカー1はユーザの1つの指F1で選択されハイライトされる。この場合、ブラウザ画面は領域R1で示すテキストアンカー1のリンク先へは遷移せずに、現在の表示画面を維持している。
 (画面1-2)では、領域R1を指F1でタッチしている状態で、タッチパネル101上の領域R1以外の部分(例えば、領域R2、R3)を、領域R1に接触している指とは異なる他の1つの指F2でタッチ&リリースする。つまり、本実施の形態では、指F1とは異なる他の指F2でタッチ&リリースするタッチパネル操作が、先に指F1で接触した領域R1に対するブラウザ操作のトリガーになっている。
 (画面1-3)では、領域R1以外の部分(テキストアンカー2、3などを除く)を他の指F2でタッチ&リリース後に、タッチパネル101の画面は、テキストアンカー1のリンク先である領域R4へ遷移する。(画面1-3)は、(画面1-1)と同じ画面を維持している。そのため、ユーザは、当初の表示画面を維持しながら、ブラウザ画面をリンク先へ遷移させるといった所定の機能を実行することができる。
 このように、本実施の形態では、領域R1に接触している指F1とは異なる他の指F2で行うタッチパネル操作を、領域R1に対するブラウザ操作のトリガーにすると、たとえば、領域R1のテキストアンカー1のリンク先へ遷移しない、又は領域R1に隣接する他のテキストアンカー2、3のリンク先へ遷移するといったタッチパネルの誤操作を容易に防ぐことができる。
 また、本実施の形態では、一つの指(指F1)で選択したタッチパネル101上の機能を他の一つの指(指F2)によるタッチパネル操作で決定するといった、2本指(指F1、F2)でのタッチパネル操作であれば、誤ったタッチパネル操作で所望の機能とは異なる機能を決定しにくくなる。
 上記のような簡単なタッチパネル操作により、本実施の形態に係る表示制御装置100では、ユーザが所望するリンク先へ誤りなく、タッチパネル101上の画面(例えば、ブラウザ画面)を遷移させることができる。
 次に、図2を参照して、本実施の形態に係る表示制御装置100の構成について説明する。図2は、表示制御装置100のブロック図である。図2に示す表示制御装置100は、タッチパネル101と、表示部103と、座標入力処理部105と、機能釦表示制御部107と、記憶部111とを備える。
 CPU119は、表示制御装置100全体を制御する制御部として機能し、記憶部111に記憶されている処理プログラムやデータ等を実行する。
 タッチパネル101は、内蔵するセンサによって、タッチパネル101上の接触を感知し、その検出結果を座標入力処理部105に出力する。例えば、指F1の接触位置、指F2の接触位置及びリリース位置を、座標入力処理部105に出力する。
 なお、タッチパネル101は、容量性、抵抗性、赤外線、及び弾性表面波技術、並びにその他の近接センサアレイ、又は、タッチパネル101と接触点を決定するための複数のタッチセンシティビティ技術を用いて、タッチパネル101上の接触及び接触による任意の動き又はその動きの中断を検出することができる。
 ここで、タッチパネル101が検出する接触とは、たとえば、表示制御装置100を操作するユーザの指の接触のことである。
 表示部103は、タッチパネル101に一体的に備えられており、出力インタフェースとして、視覚的な出力をユーザに表示する。この視覚的な出力は、テキスト、グラフィック、ビデオ、及びこれらの任意の組合せを含むことができる。
 座標入力処理部105は、タッチパネル101の検出結果をX-Y平面上の座標に変換する。以下、ユーザ指の接触位置に対応する座標を“座標情報”という。例えば、タッチパネル101上の指F1の接触位置、指F2の接触位置及びリリース位置の座標情報(Xk,Yk)(k=1,2,…,n:nは自然数)を算出する。
 記憶部111は、CPU119で実行される処理プログラムやデータ等が予め記憶されている。記憶部111に記憶するプログラムやデータ等は、フロッピー(登録商標)ディスクや光(磁気)ディスク等の外部記録媒体から読み込むようにしても良いし、外部とのデータ送受用の通信回線(有線又は無線)を介して接続された他の機器から受信して、記憶するようにしても良い。
 また、記憶部111は、タッチパネル101に表示される各種コンテンツ、操作子や機能釦のオブジェクトなどを保持する。後述する、機能釦表示制御部107、各種コンテンツ、機能釦のオブジェクトなどを表示部103に出力する。
 機能釦表示制御部107は、座標入力処理部105から出力される座標情報及びタッチパネル101上に表示される機能釦の位置情報に基づき、タッチパネル101上に表示される機能釦の表示制御を行う。ここで、座標入力処理部105から出力される座標情報とは、例えば、タッチパネル101上の指の接触位置及びリリース位置の座標情報(Xk,Yk)を指す。
 機能釦表示制御部107は、タッチパネル101上で、ユーザの指(例えば、図1の指F1)が機能釦を選択中である場合には、その機能釦が選択中であるようにハイライトする。
 さらに、機能釦表示制御部107は、ユーザの指が機能釦を選択中に、機能釦に接触する指とは異なる他の指がタッチパネル101上でタッチ&リリースされた場合には、その機能釦に対応する機能を実行する。図1に示す例では、領域R1を指F1でタッチしている状態で、領域R1以外の部分(テキストアンカー2、3などを除く)を他の指F2でタッチ&リリース後、タッチパネル101の画面がテキストアンカー1のリンク先である領域R4へ遷移する。なお、機能釦表示制御部107が機能釦に対応する機能を実行する場合に、表示部103の表示変更以外に必要な処理はCPU119が行っても良いし、機能釦表示制御部107が行っても良い。
 次に、図3(a)~図4(b)を参照して、本実施の形態に係る表示制御装置100の各フローについて説明する。図3(a)は、本実施の形態における「指非接触」フローであり、図3(b)は、本実施の形態における「無効領域接触」フローである。
 ステップST31で、機能釦表示制御部107は表示部103へコンテンツを表示する。そして、タッチパネル101が、ユーザの指の接触を感知しない場合、ステップST32へ遷移する。
 ステップST32で、タッチパネル101上でユーザの指の接触を待つ。そして、ステップST33へ遷移する。
 ステップST33で、タッチパネル101上でユーザの指の接触がある場合(Yesの場合)には、ステップST34へ遷移し、タッチパネル101上でユーザの指の接触がない場合(Noの場合)、ステップST32へ戻る。
 ステップST34では、ユーザの指が機能釦に接触している場合(Yesの場合)には、「機能釦選択中」フローに遷移し、ユーザの指が機能釦に接触していない場合(Noの場合)には、「無効領域接触」のフローに遷移する(図3(b)参照)。
 「無効領域接触」のフローにおいて、ステップST35では、ユーザの指がタッチパネル101上でリリースされたかどうかを検出する。リリースされた場合には、「指非接触」フローのST32へ遷移し、リリースされていない場合には、同ステップST35を繰り返す。つまり、タッチパネル101上で無効領域を解除するためのリリース操作があるまで「無効領域接触」のフローが繰り返される。
 図4(a)は、本実施の形態における「機能釦選択中表示」フローであり、図4(b)は、本実施の形態における「コンテンツ読出し」フローである。なお、図4(a)、(b)において、選択中の機能釦に対応する機能はコンテンツ読出しであるとする。コンテンツ読出しは選択中の機能釦に対応する機能の一例であり、選択中の機能釦に対応する機能はこの一例に限らない。
 図4(a)に示す「機能釦選択中表示」フローのステップST41では、タッチパネル101上で、ユーザの指が接触する機能釦を選択中である旨の表示を有効(ON)にする。
 ステップST42では、タッチパネル101上で機能釦に接触する指とは異なる他の指の接触があるか否かを判定する。そして、タッチパネル101上で他の指の接触がある場合(Yesの場合)には、コンテンツ読出しフローへ遷移し(図4(b)参照)、タッチパネル101上で他の指の接触がない場合(Noの場合)には、ステップST43へ遷移する。
 ステップST43では、機能釦に接触する指がタッチパネル101からリリースされたか否かを判定する。機能釦に接触する指がタッチパネル101からリリースされた場合(Yesの場合)には、ステップST44へ遷移し、機能釦に接触する指がタッチパネル101からリリースされない場合(Noの場合)には、ステップST42へ遷移する。
 ステップST44では、機能釦に接触する指がタッチパネル101からリリースされたので、選択中表示されていた機能釦の選択中表示を解除(OFF)にする。その後、「指非接触」フローのステップST32へ遷移する(図3(a)参照)。
 図4(b)に示す「コンテンツ読出し」フローのステップST45では、選択中表示されていた機能釦の選択中表示を解除(OFF)してステップST46へ遷移する。そして、ステップST46では、選択中表示されていた機能釦に対応する機能であるコンテンツ読出しを実行する。その後、「指非接触」フローへ遷移する。
(実施の形態2)
 図5は、実施の形態2に係る表示制御装置300のタッチパネル操作例(1)である。説明のため、図5では表示制御装置300のタッチパネル101のみを示す。本実施の形態では、タッチパネル画面の一例として、ブラウザ画面を例にとって説明する。また、ユーザは、ブラウザ画面のテキストアンカー部分のリンク先へタッチパネル101の画面を遷移させたいものとする。
 (画面5-1)では、タッチパネル101上の領域R5で示すテキストアンカー5は、ユーザの1つの指F3でタッチしたポインタP(操作子)で選択され、ハイライトされる。この場合、ブラウザ画面は領域R5で示すテキストアンカー5のリンク先へは遷移せずに、現在の表示画面を維持している。なお、ポインタPを選択しない場合には、ユーザの1つの指F3でタッチパネル操作することも可能である。
 (画面5-2)では、領域R5が指F3でタッチしたポインタPで選択されている状態で、タッチパネル101上の領域R5、R6、R7で示すテキストアンカー5、6、7以外を、1つの指F3とは異なる他の1つの指F4でタッチ&リリースする。つまり、本実施の形態では、この領域R5にポインタPを介して接触している1つの指F3とは異なる他の1つの指F4でタッチ&リリースするタッチパネル操作が、先にポインタPを介して指F3で接触した領域R5に対するブラウザ操作のトリガーになっている。
 (画面5-3)では、タッチパネル101上の領域R5、R6、R7で示すテキストアンカー5、6、7以外を、1つの指F3とは異なる他の1つの指F4でタッチ&リリース後に、タッチパネル101の画面は、テキストアンカー5のリンク先(領域R8)へ遷移する。
 このように、本実施の形態では、ブラウザ操作したい領域R5を選択する操作子をユーザの1つの指F3でタッチしたポインタP(操作子)にしている。そのため、領域R5が小さくてもポインタP(操作子)によって容易に選択することができる。つまり、ユーザは、機能を実行したいタッチパネル101上の領域R5が小さくてもポインタP(操作子)によって誤りなく選択することができる。
 また、本実施の形態では、領域R5にポインタPを介して接触している指F3とは異なる他の指F4で行うタッチパネル操作を、領域R5に対するブラウザ操作のトリガーにすると、たとえば、領域R5(テキストアンカー5)のリンク先へ遷移しない、又は領域R5に隣接する他のテキストアンカー部分(例えば、領域R6、R7)のリンク先へ遷移するといったタッチパネルの誤操作を容易に防ぐことができる。特に、本実施の形態に係る表示制御装置300を、携帯電話機などの小型の電子機器に適用した場合、領域R5のテキストアンカー部分がタッチパネル101の大きさに合わせて表示変更できない場合であっても、ポインタPにより小さい領域R5のテキストアンカー部分を選択することができる。
 また、本実施の形態では、一つの指(指F3)で操作するポインタPで選択したタッチパネル101上の機能を他の一つの指(指F4)によるタッチパネル操作で決定するといった、2本指(指F3、F4)でのタッチパネル操作であれば、誤ったタッチパネル操作で所望の機能とは異なる機能を決定しにくくなる。
 上記のような簡単なタッチパネル操作により、本実施の形態に係る表示制御装置300では、ユーザが所望するリンク先へ誤りなく、タッチパネル101上の画面(例えば、ブラウザ画面)を遷移させることができる。
 図6は、実施の形態2に係る表示制御装置300のタッチパネル操作例(2)である。説明のため、図6では表示制御装置300のタッチパネル101のみを示す。本実施の形態では、タッチパネル画面の一例として、ブラウザ画面を例にとって説明する。また、ユーザは、ブラウザ画面のテキストアンカー部分のリンク先へタッチパネル101の画面を遷移させたいものとする。
 (画面6-1)では、タッチパネル101上の領域R5で示すテキストアンカー5は、ユーザの1つの指F3で選択されハイライトされる。この場合、ブラウザ画面は領域R5で示すテキストアンカー5のリンク先へは遷移せずに、現在の表示画面を維持している。
 (画面6-2)では、領域R5が指F3で選択されている状態で、指F3をタッチしたまま上方向へ移動させると画面も指F3の移動に追従して移動し、一部が表示されず隠れていた領域R7全てが見えるようになる。つまり、本実施の形態では、この領域R5に接触している指F3を移動させるタッチパネル操作が、指F3で接触した領域R5に対するブラウザ操作ではなく、ブラウザ画面全体を移動するトリガーになっている。
 (画面6-3)では、タッチパネル101から指F3を一旦離し、領域R7をタッチすることで、領域R7で示すテキストアンカー7が指F3で選択されハイライトされる。この場合、ブラウザ画面は領域R7で示すテキストアンカー7のリンク先へは遷移せずに、現在の表示画面を維持している。
 このように、本実施の形態では、一つの指(指F3)でポインタPを介して選択する、あるいはポインタPを介せず直接選択したタッチパネル101上の機能を他の一つの指(指F4)によるタッチパネル操作で決定するといった、2本指(指F3、F4)でのタッチパネル操作であれば、一つの指での移動操作では、どの場所をタッチしても即座に画面移動(スクロール)させることができる。
 次に、図7を参照して、実施の形態2に係る表示制御装置300の構成について説明する。図7は、本実施の形態に係る表示制御装置300のブロック図である。図7に示す表示制御装置300が、図2に示す表示制御装置100と異なる点は、操作子表示制御部309を備える点であり、それ以外の構成については同じである。
 CPU119は、表示制御装置300全体を制御する制御部として機能し、記憶部111に記憶されている処理プログラムやデータ等を実行する。
 タッチパネル101は、内蔵するセンサによって、タッチパネル101上の接触を感知し、その検出結果を座標入力処理部105に出力する。例えば、指F3の接触位置、指F4の接触位置及びリリース位置を、座標入力処理部105に出力する。
 なお、タッチパネル101は、容量性、抵抗性、赤外線、及び弾性表面波技術、並びにその他の近接センサアレイ、又は、タッチパネル101と接触点を決定するための複数のタッチセンシティビティ技術を用いて、タッチパネル101上の接触及び接触による任意の動き又はその動きの中断を検出することができる。
 表示部103は、タッチパネル101に一体的に備えられており、出力インタフェースとして、視覚的な出力をユーザに表示する。この視覚的な出力は、テキスト、グラフィック、ビデオ、及びこれらの任意の組合せを含むことができる。
 操作子表示制御部309は、座標入力処理部105から出力される座標情報及びタッチパネル101上に表示される操作子(図5では、ポインタP)の座標情報に基づき、タッチパネル101上の操作子(図5では、ポインタP)の表示制御を行う。図5に示す例では、ユーザが指F3でブラウザ画面の左上に表示されているポインタPに接触すると、ポインタPをタッチパネル101上で領域R5(テキストアンカー5)まで移動させることができる。
 機能釦表示制御部107は、座標入力処理部105から出力される座標情報及びタッチパネル101上に表示される機能釦の位置情報に基づき、タッチパネル101上に表示される機能釦の表示制御を行う。ここで、座標入力処理部105から出力される座標情報とは、例えば、タッチパネル101上の指F3、4の接触位置及びリリース位置の座標情報(Xk,Yk)を指す。
 機能釦表示制御部107は、例えば、タッチパネル101上で操作子(図5では、ポインタP)が機能釦(領域R5テキストアンカー5)を選択中である場合には、その機能釦が選択中であるようにハイライトする。
 さらに、機能釦表示制御部107は、指F3で操作子(図5では、ポインタP)を介して機能釦を選択中に、指F3とは異なる他の指F4がタッチパネル101上でタッチ&リリースされた場合には、その機能釦に対応する機能を実行する。図5に示す例では、領域R5をポインタPを介して指F3でタッチしている状態で、領域R5以外の部分を他の指F4でタッチ&リリース後、タッチパネル101の画面がテキストアンカー5のリンク先である領域R8へ遷移する。なお、機能釦表示制御部107が機能釦に対応する機能を実行する場合に、表示部103の表示変更以外に必要な処理はCPU119が行っても良いし、機能釦表示制御部107が行っても良い。
 次に、図8(a)~図10(b)を参照して、本実施の形態に係る表示制御装置300の各フローについて説明する。図8(a)は、本実施の形態における「指非接触」フローであり、図8(b)は、本実施の形態における「コンテンツスクロール」フローである。
 ステップST71で、機能釦表示制御部107は表示部103へコンテンツ(機能釦)表示し、操作子表示制御部309は、表示部103へ操作子(図5、6では、ポインタP)を表示する。そして、タッチパネル101がユーザの指の接触を感知しない場合、ステップST72へ遷移する。
 ステップST72で、タッチパネル101上でユーザの指の接触を待つ。そして、ステップST73へ遷移する。
 ステップST73で、タッチパネル101上でユーザの指の接触がある場合(Yesの場合)には、ステップST74へ遷移し、タッチパネル101上でユーザの指の接触がない場合(Noの場合)、ステップST72へ戻る。
 ステップST74で、ユーザの指が操作子(例えば、ポインタP)に接触している場合(Yesの場合)には、「操作子コントロール」フローに遷移し、ユーザの指が操作子に接触していない場合(Noの場合)には、ステップST75へ遷移する。
 ステップST75では、ユーザの指が機能釦に接触している場合(Yesの場合)には、「機能釦選択中」フローに遷移し、ユーザの指が機能釦に接触していない場合(Noの場合)には、「コンテンツスクロール」のフローに遷移する(図8(b)参照)。
 図8(b)に示す「コンテンツスクロール」のフローにおいて、ステップST76では、ユーザの指がタッチパネル101上でリリースされたかどうかを検出する。リリースされた場合には、「指非接触」フローのST72へ遷移し、リリースされていない場合には、ステップST77でユーザの指が移動したかどうかを確認し、移動していたらステップST78へ遷移し、ユーザ指の移動に追従してコンテンツを移動(画面の移動)させてからステップST76へ遷移し、移動していなかったらコンテンツはそのままでステップST76へ遷移する。つまり、タッチパネル101上で指のリリース操作があるまで、指の移動に追従させて画面を動かす「コンテンツスクロール」のフローが繰り返される。
 図9(a)、(b)は、本実施の形態における「操作子コントロール」フロー図(1)、(2)である。ステップST81では、ユーザの指が操作子(例えば、ポインタ)に接触している状態で、操作子に接触している指とは異なる他の指がタッチパネル101上に接触しているか否かを判定する。そして、他の指が接触している場合(Yesの場合)にはステップST86へ遷移し、他の指が接触していない場合(Noの場合)にはステップST82へ遷移する。
 ステップST82では、タッチパネル101上で操作子に接触していた指がリリースされた否かを判定する。タッチパネル101上で操作子に接触していた指がリリースされた場合(Yesの場合)には、ステップST85へ遷移し、タッチパネル101上で操作子に接触していた指がリリースされない場合(Noの場合)には、ステップST83へ遷移する。
 ステップST83では、タッチパネル101上で他の指が非接触の状態を保ちながら、操作子をタッチしている指が移動したか否かを判定する。タッチパネル101上で他の指が非接触の状態を保ちながら、操作子をタッチしている指が移動した場合(Yesの場合)には、ステップST84へ遷移し、タッチパネル101上で他の指が非接触の状態を保ちながら、操作子をタッチしている指が移動していない場合(Noの場合)には、ステップST81へ戻る。
 ステップST84では、操作子に接触している指の移動に伴い、タッチパネル101上で操作子が移動する。その後、ステップST87へ遷移する(図9(b)参照)。
 ステップST85では、操作子が機能釦の表示範囲内へ移動して機能釦の選択中表示が有効(ON)となっていた場合、選択中表示を解除(OFF)する。その後、ステップST72へ遷移する(図8(a)参照)。
 ステップST86では、タッチパネル101上で操作子が機能釦内にあるか否かを判定する。操作子が機能釦内にある場合(Yesの場合)にはコンテンツ切替のために、「コンテンツ読出し」フロー(図10(b)参照)へ遷移し、操作子が機能釦内にない場合(Noの場合)には、ステップST81へ遷移する。
 ステップST87~ST89では、操作子を移動させたとき、操作子の移動後の位置に適合した機能釦の表示処理を行うためのステップである。
 ステップST87では、操作子の移動が、機能釦の表示範囲外から表示範囲内に移動したか否かを判定する。操作子が移動して機能釦の表示範囲外から表示範囲内に移動した場合(Yesの場合)には、ステップST88-2へ遷移し、その他の場合(Noの場合)には、ステップST88-1へ遷移する。
 ステップST88-1では、操作子の移動が、機能釦の表示範囲内から表示範囲外に移動したか否かを判定する。操作子が移動して機能釦の表示範囲内から表示範囲外に移動した場合(Yesの場合)には、ステップST89へ遷移し、操作子の移動が機能釦の表示範囲内のまま、または、表示範囲外のままの場合(Noの場合)には、ステップST81へ遷移する(図9(a)参照)。
 ステップST88-2では、操作子が移動して機能釦の表示範囲内に位置するので、機能釦の選択中表示を有効(ON)にする。その後、ステップST81へ遷移する(図9(a)参照)。
 ステップST89では、操作子が移動して機能釦の表示範囲外に位置するので、機能釦の選択中表示を解除(OFF)する。その後、ステップST81へ遷移する(図9(a)参照)。
 図10(a)は、本実施の形態における「機能釦選択中表示」フローであり、図10(b)は、本実施の形態における「コンテンツ読出し」フローである。なお、図10(a)、(b)において、選択中の機能釦に対応する機能はコンテンツ読出しであるとする。コンテンツ読出しは選択中の機能釦に対応する機能の一例であり、選択中の機能釦に対応する機能はこの一例に限らない。
 図10(a)に示す「機能釦選択中表示」フローのステップST91では、タッチパネル101上で、ユーザの指が接触する機能釦を選択中である旨の表示を有効(ON)にする。
 ステップST92では、タッチパネル101上で機能釦に接触する指とは異なる他の指の接触があるか否かを判定する。そして、タッチパネル101上で他の指の接触がある場合(Yesの場合)には、コンテンツ読出しフローへ遷移し(図10(b)参照)、タッチパネル101上で他の指の接触がない場合(Noの場合)には、ステップST93へ遷移する。
 ステップST93では、機能釦に接触していた指がリリースされたか否かを判定する。機能釦に接触していた指がリリースされた場合(Yesの場合)には、ステップST94へ遷移し、機能釦に接触していた指がリリースされない場合(Noの場合)には、ステップST95へ遷移する。
 ステップST94では、機能釦に接触していた指がリリースされたので、選択中表示されていた機能釦の選択中表示を解除(OFF)にする。その後、「指非接触」フローのステップST72へ遷移する(図8(a)参照)。
 ステップST95では、機能釦に接触していた指がタッチパネル101上を移動したかどうかを確認し、移動していたらステップST96へ遷移し、この指の移動に追従してコンテンツを移動(画面の移動)させてからステップST92へ遷移し、移動していなかったらコンテンツはそのままでステップST92へ遷移する。つまり、タッチパネル101上で別の指での接触があるまで、あるいは、機能釦に接触していた指のリリース操作があるまで、指の移動に追従させて画面を動かす「機能釦選択中表示」のフローが繰り返される。
 図10(b)に示す「コンテンツ読出し」フローのステップST97では、機能釦の選択中表示を解除(OFF)にし、ステップST98では選択中表示されていた機能釦に対応する機能であるコンテンツ読出しを実行する。その後、「指非接触」フローへ遷移する。
(実施の形態3)
 図11および図12を参照して本発明の実施の形態3として、実施の形態1に係る表示制御装置100を備える携帯端末1について説明する。
 図11は、携帯電話機などに用いられる携帯端末1の斜視図である。携帯端末1は、矩形の板状の筐体10で構成される。
 筐体10の外面には、表示部103が一体に設けられたタッチパネル101と、音声を出力するスピーカ33と、音声を集音するマイクロフォン34と、が設けられている。表示部103が一体に設けられたタッチパネル101は、表示制御装置100の一部を構成する。
 タッチパネル101、スピーカ33、およびマイクロフォン34は、外部に露出されており、ユーザはタッチパネル101の画面を視認しながら、携帯端末1を用いて通話を行うことができる。
 図12は、携帯端末1の概略構成を示すブロック図である。図12に示す携帯端末1は、主制御部30、電源回路部31、タッチパネル制御部32、音声制御部35、通信制御部36、記憶素子37、情報記録媒体38がバスによって相互に通信可能に接続されて構成されている。
 電源回路部31は、電力供給源(バッテリ等)を備え、タッチパネル101上に表示された操作キーを介した入力に基づいて、携帯端末1の電源のON/OFF状態を切り替え、電源がON状態の場合に電力供給源から各部に対して電力を供給して、携帯端末1を動作可能にする。
 タッチパネル制御部32は、タッチパネル101が物体の接触を検知すると、その接触があった位置座標を取得して主制御部30に伝送する。なお、本実施の形態では、タッチパネル制御部32に、表示制御装置100の機能が含まれる。
 また、タッチパネル制御部32は、タッチパネル101に接触していた物体が離れると、接触時に取得した位置座標を消去する。例えばユーザの指がタッチパネル101に接触したまま任意の方向へなぞると、タッチパネル制御部32は、指でなぞった始点から終点までの接触位置座標を取得し、主制御部30に伝送する。
 また、タッチパネル制御部32は、主制御部30の制御に基づいて、データ等をタッチパネル101に表示する。
 タッチパネル101での接触入力が行われた時、タッチパネル101にデータを表示する時、または通信が行われる時に、タッチパネル制御部32はタッチパネル101の照明を点灯させる。また、タッチパネル101からの入力が無く、通信も行われずに、所定時間を経過すると、タッチパネル制御部32はタッチパネル101の照明を消灯させ、タッチパネル101からの入力操作を無効にし、次に入力操作があるまで携帯端末1の機能をスリープさせる。
 音声制御部35は、主制御部30の制御に基づいて、マイクロフォン34で集音された音声からアナログ音声信号を生成し、このアナログ音声信号をデジタル音声信号に変換する。また音声制御部35は、デジタル音声信号を取得すると、主制御部30の制御に基づいて、このデジタル音声信号をアナログ音声信号に変換し、スピーカ33から音声として出力する。
 通信制御部36は、主制御部30の制御に基づいて、基地局からアンテナ36Aを介して受信した受信信号をスペクトラム逆拡散処理してデータを復元する。このデータは、主制御部30の指示により、音声制御部35に伝送されてスピーカ33から出力されたり、タッチパネル制御部32に伝送されてタッチパネル101に表示されたり、または記憶素子37に記録されたりする。
 また通信制御部36は、主制御部30の制御に基づいて、マイクロフォン34で集音された音声データや、タッチパネル101を介して入力されたデータや記憶素子37に記憶されたデータを取得すると、これらのデータに対してスペクトラム拡散処理を行い、基地局に対してアンテナ36Aを介して送信する。
 記憶素子37は、主制御部30や通信制御部36などのワーク領域となるもので、その機能はRAM(Random Access Memory)などにより実現できる。
 情報記録媒体38は、プログラムやデータなどを格納するものであり、その機能は、ハードディスク、或いはメモリ(ROM:Read Only Memory)などにより実現できる。情報記録媒体38は、本実施の形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)、複数のアプリケーション等が記憶される。
 主制御部30は、CPU(Central Processing Unit)を具備する。主制御部30は、携帯端末1の総括的な制御を行うとともに、その他の様々な演算処理や制御処理などを行う。主制御部30の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。主制御部30は、情報記録媒体38に格納されるプログラム(データ)に基づいて本実施の形態の種々の処理を行う。
 主制御部30が、情報記録媒体38に格納されている任意のアプリケーションを起動した際、主制御部30は、タッチパネル101への接触によりタッチパネル制御部32から伝送される、アプリケーションに対応するよう変換し、所定の処理操作を行うようアプリケーションを動作させる。
 実施の形態1に係る表示制御装置100を備える携帯端末1は、実施の形態1に係る表示制御装置100と同様の効果を有する。つまり、本実施の形態では、領域R1に接触している指F1とは異なる他の指F2で行うタッチパネル操作を、領域R1に対するブラウザ操作のトリガーにすると、たとえば、領域R1テキストアンカー部分のリンク先へ遷移しない、又は領域R1に隣接する他のテキストアンカー部分(例えば、領域2、3)のリンク先へ遷移するといったタッチパネルの誤操作しにくくなる。
 また、本実施の形態では、表示制御装置100を備える携帯端末1は、一つの指(指F1)で選択したタッチパネル101上の機能を他の一つの指(指F2)によるタッチパネル操作で決定するといった、2本指(指F1、F2)でのタッチパネル操作であれば、誤ったタッチパネル操作で所望の機能とは異なる機能を決定しにくくなる。
 上記のような簡単なタッチパネル操作により、表示制御装置100を備える携帯端末1では、ユーザが所望するリンク先へ誤りなく、タッチパネル101上の画面(例えば、ブラウザ画面)を遷移させることができる。
 なお、上記各実施の形態では、タッチパネル画面の一例として、ブラウザ画面を例にとって説明したがこれに限らない。ブラウザ機能に限らず、タッチパネル操作で実行できるあらゆる機能について、上記各実施の形態は適用可能である。
 なお、上記各実施の形態に係る表示制御装置は、携帯電話機などの小型の電子機器に適用可能である。
 なお、上記各実施の形態では、図13に示すように、「異なる指のタッチ&リリース」で行っている決定トリガーを、単に、「異なる指の接触(タッチ)」で行っても良い。この場合には、先の指が接触している機能釦領域以外に異なる指が接触(タッチ)すると、先の指の接触位置に対応する機能を実施することができる。なお、「異なる指の接触(タッチ)」は先の指が接触している機能釦領域内でも構わない。
 なお、本発明は、本発明の趣旨ならびに範囲を逸脱することなく、明細書の記載、並びに周知の技術に基づいて、当業者が様々な変更、応用することも本発明の予定するところであり、保護を求める範囲に含まれる。また、発明の趣旨を逸脱しない範囲において、上記実施形態における各構成要素を任意に組み合わせてもよい。
 本出願は、2011年4月8日出願の日本特許出願(特願2011-086324)に基づくものであり、その内容はここに参照として取り込まれる。
 本発明に係る携帯端末は、簡単なタッチパネル操作で意図しない機能の実行を防ぐことができる、といった効果を有し、携帯電話機等として有用である。
1       携帯端末
30      主制御部
31      電源回路部
32      タッチパネル制御部
33      スピーカ
34      マイクロフォン
35      音声制御部
36      通信制御部
36A     アンテナ
37      記憶素子
38      情報記録媒体
100、300 表示制御装置
101     タッチパネル
103     表示部
105     座標入力処理部
107     機能釦表示制御部
111     記憶部
119     CPU
309     操作子表示制御部

Claims (2)

  1.  接触を感知するタッチパネルと、
     前記タッチパネルと一体に設けられ、機能が関連づけられたオブジェクトを表示する表示部と、
     前記表示部の表示を制御する表示制御部と、
     前記オブジェクトに関連づけられた機能を実行する実行部と、を備え、
     前記タッチパネルが、
     前記オブジェクトの指の接触を感知している間に、前記オブジェクト以外の表示部の一部への、前記指とは異なる他の指の接触及びリリースを感知すると、
     前記実行部は、
     前記オブジェクトに対応する機能を実行する、
     携帯端末。
  2.  更に、前記表示部で前記オブジェクトを選択可能な操作子を制御する操作子表示制御部を備え、
     前記タッチパネルが、
     前記操作子を介した前記オブジェクトの指の接触を感知している間に、前記オブジェクト以外の表示部の一部への、前記指とは異なる他の指の接触及びリリースを感知すると、
     前記実行部は、
     前記オブジェクトに対応する機能を実行する、
     請求項1に記載の携帯端末。
PCT/JP2012/002408 2011-04-08 2012-04-05 携帯端末 WO2012137512A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-086324 2011-04-08
JP2011086324A JP2012221219A (ja) 2011-04-08 2011-04-08 携帯端末

Publications (1)

Publication Number Publication Date
WO2012137512A1 true WO2012137512A1 (ja) 2012-10-11

Family

ID=46968921

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/002408 WO2012137512A1 (ja) 2011-04-08 2012-04-05 携帯端末

Country Status (2)

Country Link
JP (1) JP2012221219A (ja)
WO (1) WO2012137512A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103713846A (zh) * 2013-12-24 2014-04-09 上海斐讯数据通信技术有限公司 一种用于触屏移动终端网页浏览点击辅助操作方法及系统

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014142750A (ja) * 2013-01-23 2014-08-07 Dainippon Printing Co Ltd 入力機能及び表示機能を有するicカード
JP6113090B2 (ja) * 2013-03-21 2017-04-12 株式会社沖データ 情報処理装置、画像形成装置およびタッチパネル

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0293920A (ja) * 1988-09-30 1990-04-04 Fuji Xerox Co Ltd 入力装置
JPH0651908A (ja) * 1992-07-28 1994-02-25 Sony Corp タッチパネル式入力装置を備えた情報処理装置
US20090051660A1 (en) * 2007-08-20 2009-02-26 Synaptics Incorporated Proximity sensor device and method with activation confirmation
JP2009129443A (ja) * 2007-11-27 2009-06-11 Wistron Corp タッチスクリーンの入力受信方法、該方法を実施するためのタッチスクリーン付き電子装置と、該方法を実施するためのタッチスクリーンの入力システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0293920A (ja) * 1988-09-30 1990-04-04 Fuji Xerox Co Ltd 入力装置
JPH0651908A (ja) * 1992-07-28 1994-02-25 Sony Corp タッチパネル式入力装置を備えた情報処理装置
US20090051660A1 (en) * 2007-08-20 2009-02-26 Synaptics Incorporated Proximity sensor device and method with activation confirmation
JP2009129443A (ja) * 2007-11-27 2009-06-11 Wistron Corp タッチスクリーンの入力受信方法、該方法を実施するためのタッチスクリーン付き電子装置と、該方法を実施するためのタッチスクリーンの入力システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103713846A (zh) * 2013-12-24 2014-04-09 上海斐讯数据通信技术有限公司 一种用于触屏移动终端网页浏览点击辅助操作方法及系统

Also Published As

Publication number Publication date
JP2012221219A (ja) 2012-11-12

Similar Documents

Publication Publication Date Title
JP5977627B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR101612283B1 (ko) 휴대용 단말기에서 사용자의 입력 패턴을 판단하기 위한 장치 및 방법
JP5174704B2 (ja) 画像処理装置および画像処理方法
US10073585B2 (en) Electronic device, storage medium and method for operating electronic device
JP5851326B2 (ja) 装置、方法、及びプログラム
US20060084482A1 (en) Electronic hand-held device with a back cover keypad and a related method
WO2011142075A1 (ja) 情報処理端末、端末操作方法およびコンピュータ可読媒体
WO2012127792A1 (ja) 情報端末、表示画面切り替えのための方法、及びそのプログラム
JPWO2010092993A1 (ja) 情報処理装置
JP2009151718A (ja) 情報処理装置および表示制御方法
JP2009532770A (ja) タッチパッド面上における指示物体の開始点によって決定される円形スクローリング・タッチパッド機能性
JP3143474U (ja) 電子デバイス
KR20130097331A (ko) 터치 스크린을 구비하는 전자기기에서 객체를 선택하기 위한 장치 및 방법
JP6109788B2 (ja) 電子機器及び電子機器の作動方法
JP5305545B2 (ja) 手書き文字入力装置および携帯端末
KR20120036897A (ko) 터치 감지형 디스플레이 상에서의 선택
US20160147313A1 (en) Mobile Terminal and Display Orientation Control Method
EP2674848A2 (en) Information terminal device and display control method
WO2012137512A1 (ja) 携帯端末
TWI397852B (zh) 功能選擇系統及方法,及其機器可讀取媒體
KR20070044758A (ko) 방향입력용 터치패드와 터치패널이 구비된 이동통신단말기및 그 제어방법
TWI460647B (zh) 電子裝置與其軟體之使用者介面多重選擇方法
JP6284459B2 (ja) 端末装置
KR20120135126A (ko) 포인팅 디바이스를 이용한 증강현실 제어 방법 및 장치
KR102197912B1 (ko) 제스처 인식에 따른 기능 실행 방법, 장치 및 기록매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12767403

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12767403

Country of ref document: EP

Kind code of ref document: A1