WO2012150697A1 - タッチパネル方式の携帯端末及び入力操作方法 - Google Patents

タッチパネル方式の携帯端末及び入力操作方法 Download PDF

Info

Publication number
WO2012150697A1
WO2012150697A1 PCT/JP2012/061381 JP2012061381W WO2012150697A1 WO 2012150697 A1 WO2012150697 A1 WO 2012150697A1 JP 2012061381 W JP2012061381 W JP 2012061381W WO 2012150697 A1 WO2012150697 A1 WO 2012150697A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch panel
user
unit
area
invalid area
Prior art date
Application number
PCT/JP2012/061381
Other languages
English (en)
French (fr)
Inventor
智弥 牧口
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to EP12779973.2A priority Critical patent/EP2706441B1/en
Priority to US14/114,129 priority patent/US9277045B2/en
Publication of WO2012150697A1 publication Critical patent/WO2012150697A1/ja
Priority to US15/002,467 priority patent/US9843664B2/en
Priority to US15/819,026 priority patent/US10135967B2/en
Priority to US16/162,870 priority patent/US10447845B2/en
Priority to US16/559,124 priority patent/US10609209B2/en
Priority to US16/789,543 priority patent/US11070662B2/en
Priority to US17/354,840 priority patent/US11644969B2/en
Priority to US18/128,654 priority patent/US20230297226A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72463User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions to restrict the functionality of the device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72463User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions to restrict the functionality of the device
    • H04M1/724631User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions to restrict the functionality of the device by limiting the access to the user interface, e.g. locking a touch-screen or a keypad
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present invention relates to a touch panel portable terminal and an input operation method.
  • This application claims priority based on Japanese Patent Application No. 2011-102784 for which it applied to Japan on May 2, 2011, and uses the content here.
  • the touch panel is a combination of a display device such as an LCD (Liquid Crystal Display) and an input device such as a touch pad.
  • Touch-panel mobile terminals can be operated intuitively by touching the touch panel with a finger and no complicated operations are required. Compared to conventional mobile terminals that require buttons and switches Preferred by users.
  • a touch panel is incorporated to cover the entire surface of the mobile terminal. Since the entire display screen of the touch panel functions as an input device, when the user holds the mobile terminal, a finger or hand may come into contact with the touch panel, and the mobile terminal may accept an erroneous operation. In order to prevent this erroneous operation, there is a portable terminal in which an operation corresponding to the second contact is not accepted when the user contacts two or more locations on the touch panel at the same time. In this portable terminal, in a state where the user's hand or finger holding the portable terminal is in contact with the touch panel, even if the user's other hand or finger is brought into contact with the touch panel and the portable terminal is operated, the portable terminal may not be recognized.
  • Patent Document 1 discloses a touch panel type information processing apparatus, and when the time during which a user's hand or finger is in contact with the touch panel has not reached a predetermined time, it is assigned to a contact area on the touch panel. On the other hand, when the time during which the touch panel is touched reaches a predetermined time, the function assigned to the touch area on the touch panel is not executed. That is, when the user's hand or finger holding the mobile terminal is in contact with the touch panel, it is predicted that the user's finger will be in contact with the touch panel for a longer time than the contact time for a normal input operation. For this reason, by using the method described in Patent Document 1, the frequency of erroneous operation of the touch panel by the user can be reduced.
  • Patent Document 2 discloses a touch panel type mobile terminal, which detects a grip position in the longitudinal direction of the mobile terminal by a plurality of sensors provided in the mobile terminal, and extends a key display region in accordance with the grip position. By shifting the direction and displaying on the touch panel, the user can easily operate the touch panel with a hand or a finger holding the mobile terminal.
  • the input operation method described in Patent Document 1 can be applied to an input operation with a short contact time of operating a key displayed on the touch panel, but for an input operation that requires a long contact time such as handwritten input. It cannot be applied.
  • the present invention has been made in view of the above-described circumstances, and can prevent an erroneous operation caused by a user's hand or a finger holding the mobile terminal accidentally contacting the touch panel regardless of the contact time on the touch panel.
  • An object of the present invention is to provide a portable terminal and an input operation method.
  • the present invention provides a touch panel type mobile terminal, the mobile terminal detects an invalid area specifying unit that specifies an invalid area that does not accept a user input operation on the touch panel, and a user's touch area on the touch panel, When the contact area is not included in the invalid area, an input unit that performs a function associated with the contact area in advance is provided.
  • the present invention provides an input operation method in a touch panel type mobile terminal, and the input operation method specifies an invalid area that does not accept a user input operation on the touch panel and detects a user contact area on the touch panel. When the contact area is not included in the invalid area, a function associated with the contact area is executed.
  • the present invention provides a program for executing the above input operation method in a computer that controls the input operation of the touch panel.
  • the input operation method of the present invention does not require a complicated process of accepting an input operation according to the contact time of the user with the touch panel, and can reliably prevent an erroneous operation on the touch panel with a simple configuration and process. it can. Furthermore, when the image is reduced and displayed so as to avoid the invalid area of the touch panel that is set when the user holds the mobile terminal, it is possible to realize an optimal image display for each user.
  • FIG. 1 It is the front view which shows the external appearance of the portable terminal which concerns on Example 1 of this invention, a side view, and a rear view. 3 is a functional block of the mobile terminal according to the first embodiment.
  • 6 is a flowchart illustrating invalid area setting processing of the mobile terminal according to the first embodiment. It is a front view which shows the message displayed on the touchscreen of a portable terminal according to the invalid area
  • FIG. 1 shows an appearance of a portable terminal 5 according to the first embodiment of the present invention.
  • 1A is a front view of the mobile terminal 5
  • FIG. 1B is a side view of the mobile terminal 5
  • FIG. 1C is a rear view of the mobile terminal 5.
  • a touch panel 51 that accepts an operation by the user is disposed.
  • the touch panel 51 includes a display device such as an LCD and an input device such as a touch pad, and displays a predetermined screen or accepts an operation by contact with a user's hand or finger.
  • this touch panel 51 what can detect multipoints, such as an electrostatic capacitance type touch panel, is used, for example.
  • a plurality of menu icons are displayed on the touch panel 51 as an initial screen of the mobile terminal 5.
  • the mobile terminal 5 is provided with a plurality of sensors 52. Specifically, sensors 52-1 and 52-2 are disposed on the side surface of the mobile terminal 5, and sensors 52-3 to 52-6 are disposed on the back surface of the mobile terminal 5. These sensors 52 detect contact with the user's hand or finger when the user grips the mobile terminal 5, and each sensor 52 is ON when being in contact, and OFF when not in contact. Become.
  • FIG. 2 is a functional block diagram of the mobile terminal 5 according to the first embodiment.
  • the portable terminal 5 includes a microcomputer (or a computer system) inside.
  • the computer system reads and executes a program stored in a computer-readable storage medium, an application execution unit 501, a touch input detection unit 502, a grip detection unit 503, a user determination unit 504, an invalid area specification unit 505, A storage unit 506, a recording unit 507, an input unit 508, and a display control unit 509 are provided.
  • the computer-readable storage medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, and a semiconductor memory.
  • Application executing unit 501 executes an application program stored in the storage medium of portable terminal 5.
  • This application program includes at least an invalid area setting application.
  • the touch input detection unit 502 determines whether or not the user touches the touch panel 51 and detects a coordinate area on the touch panel 51 touched by the user as a contact area.
  • the grip detection unit 503 determines whether the portable terminal 5 is gripped by the user's hand or finger based on the ON / OFF information of the sensor 52.
  • the user determination unit 504 acquires user identification information based on the ON / OFF information of the sensor 52.
  • the invalid area specifying unit 505 identifies the contact area detected by the touch input detection unit 502 as the invalid area.
  • the storage unit 506 stores the invalid area specified by the invalid area specifying unit 505 and the user identification information acquired by the user determining unit 504 in association with each other.
  • the recording unit 507 records the user identification information acquired by the user determining unit 504 in the storage unit 506 in association with the invalid area.
  • the input unit 508 notifies the application execution unit 501 of the contact area.
  • the display control unit 509 receives screen information from the application execution unit 501 and causes the touch panel 51 to display the screen information.
  • FIG. 3 is a flowchart showing invalid area setting processing of the mobile terminal 5.
  • the application execution unit 501 executes the invalid area setting application.
  • the application execution unit 501 sends a message for prompting the user to hold the mobile terminal 5, for example, a command for displaying “Please hold in hand” to the display control unit 509.
  • the display control unit 509 displays the message acquired from the application execution 501 on the touch panel 51 (step S1).
  • FIG. 4 shows a message at the time of setting the invalid area displayed on the touch panel 51 of the mobile terminal 5.
  • the grip detection unit 503 determines whether or not the user has gripped the portable terminal 5 with a hand or a finger (step S2). Specifically, whether or not the portable terminal 5 is gripped by the user is determined based on whether or not any sensor 52 is ON. If the grip detection unit 503 determines that the user is not gripping the portable terminal 5 (the determination result “NO” in step S2), the flow returns to step S2, and step S2 is performed until one of the sensors 52 is turned on. repeat.
  • the grip detection unit 503 sends a grip detection signal to the user determination unit 504 and the invalid area specifying unit 505 when it is detected that the mobile terminal 5 is gripped by the user (the determination result “YES” in step S2).
  • the invalid area specifying unit 505 acquires the contact area on the touch panel 51 currently detected by the touch input detection unit 502 (step S3), and sets the contact area as an invalid area.
  • the recording unit 507 is notified.
  • the user determination unit 504 acquires ON / OFF information of each sensor 52 as user identification information (step S4), and sends the user identification information to the recording unit 507. To do.
  • the recording unit 507 determines whether the user identification information stored in the storage unit 506 is the same as or similar to the user identification information determined by the user determination unit 504 (step S5). .
  • the user identification information stored in the storage unit 506 reflects the ON / OFF information of the sensor 52. Accordingly, the recording unit 507 determines whether or not the user identification information that matches the ON / OFF information of each sensor 52 exists in the storage unit 506. In the ON / OFF information of the sensor 52 reflected in the user identification information, when the number of mismatched ON / OFF information is equal to or less than a threshold value (for example, one), the recording unit 507 displays the user identification information. It is determined that the user identification information determined by the user determination unit 504 is the same as or close to the user identification information.
  • a threshold value for example, one
  • step S5 When it is determined that there is no user identification information stored in the storage unit 506 that is the same as or similar to the user identification information determined by the user determination unit 504 (determination result “NO” in step S5), recording The unit 507 records the invalid area specified by the invalid area specifying unit 505 and the user identification information determined by the user determining unit 504 in association with each other in the storage unit 506 (step S6).
  • the recording unit 507 rewrites the invalid area stored by the storage unit 506 in association with the user identification information with the invalid area specified by the invalid area specifying unit 505 (step S7).
  • the application execution unit 501 sends a message indicating the termination of the invalid area setting application, for example, a command for displaying “Registration complete” on the touch panel 51 to the display control unit 509. .
  • the display control unit 509 displays the message acquired from the application execution unit 501 on the touch panel 51 as illustrated in FIG. Thereafter, the application execution unit 501 ends the invalid area setting application.
  • FIG. 5 is a flowchart showing the operation of the mobile terminal 5 after the invalid area setting process.
  • the touch input detection unit 502 determines whether or not the user touches the touch panel 51 when the operation managed by the application execution unit 501 is enabled. Is determined (step S11). When it is determined that the user does not touch the touch panel 51 (the determination result “NO” in step S11), the flow returns to step S11, and step S11 is performed until the touch input detection unit 502 detects the touch on the touch panel 51 by the user. Is repeated.
  • the touch input detection unit 502 sends the coordinates of the contact area on the touch panel 51 to the input unit 508. Thereafter, the grip detection unit 503 determines whether or not the user is gripping the mobile terminal 5 (step S12). When it is determined by the grip detection unit 503 that the user is holding the mobile terminal 5 (the determination result “YES” in step S12), the user identification unit 504 uses the ON / OFF information of each sensor 52 as the user identification information. Obtained and sent to the input unit 508 (step S13).
  • the input unit 508 determines whether there is any user identification information stored in the storage unit 506 that is the same as or similar to the user identification information determined by the user determination unit 504 (step S14). When it is determined that the user identification information stored in the storage unit 506 is the same as or similar to the user identification information determined by the user determination unit (the determination result “YES” in step S14), the input unit 508 Reads out the invalid area associated with the user identification information from the storage unit 506. Thereafter, the input unit 508 determines whether or not the contact area detected by the touch input detection unit 502 is included in the invalid area read from the storage unit 506 (step S15).
  • the input unit 508 uses the contact area as an input operation by the user. Without handling, the flow returns to step S11, and the touch input detection unit 502 determines again whether or not the user touches the touch panel 51.
  • the input unit 508 is included in the user identification information stored in the storage unit 506.
  • the input unit 508 detects the contact area detected by the touch input detection unit 502 as the application execution unit 501. (Step S16).
  • the portable terminal 5 does not regard the contact as an input operation. That is, it is based on the time when the user touched the touch panel 51, and the malfunction (namely, input operation mistake) resulting from inadvertent contact with the touch panel 51 when the user grips the mobile terminal 5 by hand is prevented. be able to.
  • an invalid area is stored in the storage unit 506 for each user in association with the user identification information. Since the portable terminal 5 registers in advance an invalid area that matches the gripping method of each user, the input unit 508 can determine whether the input operation is valid or invalid based on the invalid area for each user.
  • the ON / OFF information of the sensor 52 is used as the user identification information.
  • the present invention is not limited to this.
  • a user ID may be used as user identification information.
  • the ON / OFF information of the sensor 52 is used as the user identification information as in the first embodiment, the mobile terminal 5 can automatically acquire the user identification information. It is not necessary and user usability is improved.
  • Example 2 of the present invention will be described.
  • the second embodiment is also applied to the portable terminal 5, but differs from the first embodiment in that it has a function of automatically arranging the menu icon display area outside the invalid area and a function of reducing the menu icon display. .
  • FIG. 6 is a functional block diagram of the mobile terminal 5 according to the second embodiment of the present invention.
  • the mobile terminal 5 according to the second embodiment includes an inscribed rectangle calculation unit 510, a ratio calculation unit 511, and a reduction unit 512 in addition to the components 501 to 509 of the first embodiment illustrated in FIG.
  • the inscribed rectangle calculation unit 510 assumes a rectangle having the same aspect ratio as the touch panel 51 and inscribed in a display area that is not an invalid area, and calculates the coordinates and size of the rectangle.
  • the ratio calculation unit 511 calculates the ratio between the size of the rectangle calculated by the inscribed rectangle calculation unit 510 and the size of the touch panel 51.
  • the reduction unit 512 acquires an image to be displayed on the touch panel 51 from the application execution unit 501 and reduces the image to the ratio calculated by the ratio calculation unit 511.
  • FIG. 7 is a flowchart illustrating the operation of the mobile terminal 5 according to the second embodiment after the invalid area setting process.
  • the grip detection unit 503 determines whether or not the mobile terminal 5 is gripped by the user (step S21).
  • the grip detection unit 503 determines that the user is holding the mobile terminal 5 (the determination result “YES” in step S21)
  • the user determination unit 504 uses the ON / OFF information of the sensor 52 as user identification information. It is acquired and sent to the inscribed rectangle calculation unit 510 (step S22).
  • the inscribed rectangle calculation unit 510 determines whether there is any user identification information stored in the storage unit 506 that is the same as or similar to the user identification information determined by the user determination unit 504 (Ste S23). When it is determined that the user identification information stored in the storage unit 506 is the same as or similar to the user identification information determined by the user determination unit 504 (the determination result “YES” in step S23) The tangent square calculation unit 510 reads the invalid area associated with the user identification information from the storage unit 506.
  • the inscribed rectangle calculation unit 510 generates a rectangle having the same aspect ratio as the touch panel 51 and inscribed in the display area excluding the invalid area on the touch panel 51 (step S24).
  • the inscribed rectangle calculation unit 510 calculates the coordinates (for example, the coordinates of the upper left corner) and the size of the inscribed rectangle (step S25).
  • the ratio calculation unit 511 calculates the ratio of the size of the inscribed rectangle to the display area of the touch panel 51 (step S26).
  • the reduction unit 512 acquires an image to be displayed on the touch panel 51 from the application execution unit 501 and reduces the image to the ratio calculated by the ratio calculation unit 511 (step S27).
  • the display control unit 509 acquires the image reduced by the reduction unit 512, and displays the reduced image in the inscribed rectangle based on the coordinates calculated by the inscribed rectangle calculation unit 510 (step S28).
  • FIG. 8 shows a state in which an image (menu icon) displayed on the touch panel 51 in the mobile terminal 5 is reduced.
  • FIG. 8A shows an inscribed rectangle generated in the central area while avoiding the invalid areas existing on the left and right sides of the touch panel 51.
  • FIG. 8B shows the inscribed rectangle when the inscribed rectangle is moved to the lower left side of the touch panel 51 with the reduction ratio N%.
  • FIG. 8C shows a reduced image displayed in the inscribed rectangle shown in FIG.
  • FIG. 8D shows a reduced image displayed in the inscribed rectangle shown in FIG.
  • step S23 of FIG. 7 the inscribed rectangle calculation unit 510 determines that none of the user identification information stored in the storage unit 506 is the same as or approximate to the user identification information determined by the user determination unit 504. In such a case (determination result “NO” in step S23), the ratio calculation unit 511 does not need to calculate the reduction ratio of the image, and the reduction unit 512 sends the image acquired from the application execution unit 501 to the display control unit 509 as it is. . As a result, the display control unit 509 displays the image on the touch panel 51 without reducing the image (step S29).
  • the image display area can be reduced and displayed on the touch panel 51 so as not to overlap the invalid area.
  • the portion of the image that is hidden by the hand or finger when the user holds the mobile terminal 5 can be reduced and displayed at a position that is easier for the user to see.
  • a microcomputer (or a computer system) built in the portable terminal 5 may read the program from a computer-readable storage medium and execute the above processing.
  • This program may realize part of the functions of the first or second embodiment. Further, this program may be in a format realized in combination with a main program already stored in the computer system, for example, a difference file (or a difference program). Further, the computer system may execute the program by distributing the program to the computer system via a communication line.
  • the present invention automatically displays an image hidden by a user's hand or finger on a touch panel in a touch panel type portable terminal at a desired position and reduction ratio.
  • the position and size of an image displayed on the display are changed. Since the present invention relates to a technology that can be freely changed based on the detection result of the sensor, the present invention is not limited to a portable information terminal, and can be applied to an electronic device including a display with a sensor.

Abstract

タッチパネル方式の携帯端末において、タッチパネルに対するユーザの入力操作を受け付けない無効領域を予め特定する。携帯端末は、タッチパネル上のユーザの接触領域を検知し、接触領域が無効領域に含まれない場合に、当該接触領域に予め関連付けられた機能を実行する。また、タッチパネルの無効領域を除外した表示領域にメニューアイコンを縮小表示してもよい。これにより、ユーザが携帯端末を把持した際に不用意にタッチパネルに接触することによる誤操作を防止することができる。

Description

タッチパネル方式の携帯端末及び入力操作方法
 本発明は、タッチパネル方式の携帯端末及び入力操作方法に関する。
 本願は、2011年5月2日に日本国に出願された特願2011-102784号に基づき優先権を主張し、その内容をここに援用する。
 近年、タッチパネル入力装置を具備した携帯端末が世界中に普及している。タッチパネルとは、LCD(Liquid Crystal Display)などの表示装置とタッチパッドなどの入力装置とを組み合わせたものである。タッチパネル方式の携帯端末では、ユーザは指でタッチパネルに接触して直感的に操作することができ、複雑な操作が不要なため、ボタンやスイッチによる操作を必要とする従来型の携帯端末に比べてユーザに好まれる。
 近年の携帯端末は大きな画面サイズを有しているため、携帯端末の全面をカバーするようにタッチパネルが組み込まれている。タッチパネルは表示画面全体が入力装置として機能するため、ユーザが携帯端末を保持すると、指や手がタッチパネルに接触してしまい、携帯端末が誤操作を受け付ける虞がある。この誤操作を防止するため、ユーザがタッチパネル上の2箇所以上を同時に接触した場合、2箇所目の接触に対応する操作を受け付けないようにした携帯端末がある。この携帯端末では、当該携帯端末を把持するユーザの手や指がタッチパネルに接触した状態において、ユーザの他方の手や指をタッチパネルに接触させて携帯端末を操作しようとしても携帯端末に認識されない虞がある。また、ユーザが手や指をタッチパネルに接触しないように携帯端末を把持すると、当該携帯端末を所望の空間位置に保持することができず不安定となり、ユーザが誤って携帯端末を床に落下させてしまう虞がある。
 上記の問題を解決するために種々の技術が開発されている。例えば、特許文献1はタッチパネル方式の情報処理装置を開示しており、ユーザの手や指がタッチパネルに接触している時間が所定時間に到達していない場合、タッチパネル上の接触領域に割り当てられた機能を実行し、一方、タッチパネルに接触している時間が所定時間に到達した場合、タッチパネル上の接触領域に割り当てられた機能を実行しない。即ち、携帯端末を把持しているユーザの手や指がタッチパネルに接触している場合、通常の入力操作のための接触時間より長い時間ユーザの指がタッチパネルに接触することが予測される。このため、特許文献1に記載の方法を用いることで、ユーザによるタッチパネルの誤操作の頻度を減少させることができる。
 特許文献2は、タッチパネル方式の携帯端末を開示しており、当該携帯端末に設けられた複数のセンサにより携帯端末の長手方向の把持位置を検出し、その把持位置に合わせてキー表示領域を長手方向にシフトしてタッチパネルに表示させることで、ユーザが携帯端末を把持している手や指によるタッチパネルの操作を容易にするものである。
特開2011-39990号公報 特開2010-154090号公報
 特許文献1に記載の入力操作方法では、タッチパネル上に表示されたキーを操作するという短い接触時間による入力操作には適用できるが、手書き入力のように長い接触時間を必要とする入力操作には適用することができない。
 本発明は、上述の事情に鑑みてなされたものであり、タッチパネル上の接触時間に拘らず、携帯端末を把持するユーザの手や指がタッチパネルに誤って接触することによる誤操作を防止することができる携帯端末及び入力操作方法を提供することを目的とする。
 本発明はタッチパネル方式の携帯端末を提供するものであり、当該携帯端末はタッチパネルに対するユーザの入力操作を受け付けない無効領域を特定する無効領域特定部と、タッチパネル上のユーザの接触領域を検知し、接触領域が無効領域に含まれない場合に、当該接触領域に予め関連付けられた機能を実行する入力部を具備する。
 また、本発明はタッチパネル方式の携帯端末における入力操作方法を提供するものであり、当該入力操作方法はタッチパネルにおいてユーザの入力操作を受け付けない無効領域を特定し、タッチパネル上のユーザの接触領域を検知し、接触領域が無効領域に含まれない場合に、当該接触領域に予め関連付けられた機能を実行する。
 更に、本発明はタッチパネルの入力操作を制御するコンピュータに上記の入力操作方法を実行されるプログラムを提供するものである。
 本発明によれば、ユーザが携帯端末を把持する際に手や指が不用意にタッチパネルに接触することに起因する誤操作を防止することができる。また、本発明の入力操作方法ではタッチパネルへのユーザの接触時間に応じて入力操作を受け付けるような複雑な処理を必要とせず、簡易な構成及び処理により確実にタッチパネルへの誤操作を防止することができる。更に、ユーザが携帯端末を把持した際に設定されるタッチパネルの無効領域を避けるように画像を縮小表示すると、ユーザ毎に最適な画像表示を実現することができる。
本発明の実施例1に係る携帯端末の外観を示す正面図、側面図、及び背面図である。 実施例1に係る携帯端末の機能ブロックである。 実施例1に係る携帯端末の無効領域設定処理を示すフローチャートである。 図3に示す無効領域設定処理に応じて携帯端末のタッチパネルに表示されるメッセージを示す正面図である。 無効領域設定処理後の携帯端末の動作を示すフローチャートである。 本発明の実施例2に係る携帯端末の機能ブロック図である。 実施例2に係る携帯端末の無効領域設定処理後の動作を示すフローチャートである。 携帯端末において、タッチパネルに表示される画像が縮小される様子を示す。
 本発明に係るタッチパネル方式の携帯端末及び入力操作方法について添付図面を参照して実施例とともに詳細に説明する。
 図1は、本発明の実施例1に係る携帯端末5の外観を示す。図1において、(A)は携帯端末5の正面図、(B)は携帯端末5の側面図、(C)は携帯端末5の背面図である。
 携帯端末5の前面には、ユーザによる操作を受け付けるタッチパネル51が配設されている。タッチパネル51は、LCDなどの表示装置とタッチパッドなどの入力装置より構成されており、所定の画面を表示したり、ユーザの手や指による接触による操作を受け付ける。このタッチパネル51として、例えば、静電容量式タッチパネルなどの多点検出可能なものを用いる。尚、携帯端末5の初期画面として、タッチパネル51には複数のメニューアイコンが表示される。
 携帯端末5には複数のセンサ52が配設されている。具体的には、携帯端末5の側面にセンサ52-1、52-2が配設され、携帯端末5の裏面にセンサ52-3~52-6が配設される。これらのセンサ52は、ユーザが携帯端末5を把持した際にユーザの手や指による接触を検知するものであり、各センサ52は接触されているときにONとなり、接触していなければOFFとなる。
 図2は、実施例1に係る携帯端末5の機能ブロック図である。図1には図示しないが、携帯端末5は内部にマイクロコンピュータ(又は、コンピュータシステム)を具備している。コンピュータ読み取り可能な記憶媒体に記憶されたプログラムをコンピュータシステムが読み出して実行することにより、アプリケーション実行部501、タッチ入力検知部502、把持検知部503、使用者判別部504、無効領域特定部505、記憶部506、記録部507、入力部508、及び表示制御部509を具備する。ここで、コンピュータ読み取り可能な記憶媒体とは磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、及び半導体メモリを意味する。
 アプリケーション実行部501は、携帯端末5の記憶媒体に記憶されたアプリケーションプログラムを実行する。このアプリケーションプログラムには、少なくとも無効領域設定アプリケーションが含まれる。タッチ入力検知部502は、ユーザによるタッチパネル51への接触の有無を判定するとともに、ユーザが接触したタッチパネル51上の座標領域を接触領域として検知する。把持検知部503は、センサ52のON/OFF情報に基づいて携帯端末5がユーザの手や指により把持されているか否かを判定する。使用者判別部504は、センサ52のON/OFF情報に基づいて使用者識別情報を取得する。
 無効領域特定部505は、アプリケーション実行部501によって無効領域設定アプリケーションが実行された場合、タッチ入力検知部502が検知した接触領域を無効領域として特定する。
 記憶部506は、無効領域特定部505が特定した無効領域と使用者判別部504が取得した使用者識別情報を関連付けて記憶する。記録部507は、無効領域特定部505が無効領域を特定したとき、使用者判別部504が取得した使用者識別情報を無効領域と関連付けて記憶部506に記録する。
 入力部508は、タッチ入力検知部502によって検知された接触領域が記憶部506に記憶された無効領域に含まれない場合、当該接触領域をアプリケーション実行部501に通知する。表示制御部509は、アプリケーション実行部501から画面情報を受け付け、当該画面情報をタッチパネル51に表示させる。
 次に、実施例1に係る携帯端末5の動作について説明する。
 最初に、携帯端末5における無効領域設定処理について説明する。図3は、携帯端末5の無効領域設定処理を示すフローチャートである。携帯端末5のユーザがタッチパネル51上に表示された無効領域設定アプリケーションを示すメニューアイコンを指で接触すると、アプリケーション実行部501は無効領域設定アプリケーションを実行する。無効領域設定アプリケーションを開始すると、アプリケーション実行部501はユーザによる携帯端末5の把持を促すメッセージ、例えば「手に持ってください」、を表示する命令を表示制御部509に送出する。表示制御部509は図4(A)に示すようにアプリケーション実行501から取得したメッセージをタッチパネル51に表示する(ステップS1)。図4は、携帯端末5のタッチパネル51に表示される無効領域設定時のメッセージを示す。
 表示制御部509がタッチパネル51上に図4(A)に示すメッセージを表示すると、把持検知部503はユーザが手や指で携帯端末5を把持したか否かを判定する(ステップS2)。具体的には、ユーザにより携帯端末5が把持されたか否かの判定は、何れかのセンサ52がONとなっているか否かによって行なわれる。把持検知部503は、ユーザが携帯端末5を把持していないと判定した場合(ステップS2の判定結果「NO」)、フローはステップS2に戻り、いずれかのセンサ52がONとなるまでステップS2を繰り返す。
 把持検知部503は、ユーザにより携帯端末5が把持されたことを検知した場合(ステップS2の判定結果「YES」)、把持検知信号を使用者判別部504及び無効領域特定部505に送出する。把持検知部503から把持検知信号を受けると、無効領域特定部505はタッチ入力検知部502が現在検知しているタッチパネル51上の接触領域を取得し(ステップS3)、当該接触領域を無効領域として記録部507に通知する。把持検知部503から把持検知信号を受けると、使用者判別部504は各センサ52のON/OFF情報を使用者識別情報として取得し(ステップS4)、当該使用者識別情報を記録部507に送出する。
 記録部507は、記憶部506に記憶されている使用者識別情報の中に使用者判別部504が判別した使用者識別情報と同一又は近似するものがあるか否かを判定する(ステップS5)。記憶部506に記憶されている使用者識別情報には、センサ52のON/OFF情報が反映されている。従って、記録部507は各センサ52のON/OFF情報と一致する使用者識別情報が記憶部506に存在するか否かを判定する。使用者識別情報に反映されているセンサ52のON/OFF情報のうち、一致しないON/OFF情報の個数が閾値(例えば、1個)以下である場合、記録部507は当該使用者識別情報を使用者判別部504が判別した使用者識別情報と同一又は近似すると判定する。
 記憶部506が記憶する使用者識別情報の中に使用者判別部504が判別した使用者識別情報と同一又は近似するものが存在しないと判定した場合(ステップS5の判定結果「NO」)、記録部507は無効領域特定部505が特定した無効領域と使用者判別部504が判別した使用者識別情報とを関連付けて記憶部506に記録する(ステップS6)。
 一方、記憶部506が記憶する使用者識別情報の中に使用者判別部504が判別した使用者識別情報と同一又は近似するものが存在すると判定した場合(ステップS5の判定結果「YES」)、記録部507は記憶部506が当該使用者識別情報と関連付けて記憶した無効領域を無効領域特定部505が特定した無効領域に書き換える(ステップS7)。
 記録部507が記憶部506における無効領域を更新すると、アプリケーション実行部501は無効領域設定アプリケーションの終了を示すメッセージ、例えば「登録完了」、をタッチパネル51に表示する命令を表示制御部509に送出する。表示制御部509は、図4(B)に示すようにアプリケーション実行部501から取得したメッセージをタッチパネル51上に表示する。その後、アプリケーション実行部501は無効領域設定アプリケーションを終了する。
 次に、図3に示す無効領域設定処理後の携帯端末5の動作について説明する。図5は、無効領域設定処理後の携帯端末5の動作を示すフローチャートである。
 無効領域設定アプリケーションによりタッチパネル51上の無効領域の設定が完了した後、アプリケーション実行部501により管理されたアプリケーションに対する操作受け付け可能状態となると、タッチ入力検知部502はユーザによるタッチパネル51への接触の有無を判定する(ステップS11)。ユーザによるタッチパネル51への接触が無いと判定した場合(ステップS11の判定結果「NO」)、フローはステップS11に戻り、タッチ入力検知部502がユーザによるタッチパネル51への接触を検知するまでステップS11が繰り返される。
 ユーザによるタッチパネル51への接触が検知されると(ステップS11の判定結果「YES」)、タッチ入力検知部502はタッチパネル51上の接触領域の座標を入力部508に送出する。その後、把持検知部503はユーザが携帯端末5を把持しているか否かを判定する(ステップS12)。把持検知部503によりユーザが携帯端末5を把持していると判定した場合(ステップS12の判定結果「YES」)、使用者識別部504は各センサ52のON/OFF情報を使用者識別情報として取得して入力部508に送出する(ステップS13)。
 入力部508は、記憶部506が記憶する使用者識別情報の中に使用者判別部504が判別した使用者識別情報と同一又は近似するものが存在するか否かを判定する(ステップS14)。記憶部506が記憶する使用者識別情報の中に使用者判別部が判別した使用者識別情報と同一又は近似するものが存在すると判定した場合(ステップS14の判定結果「YES」)、入力部508は当該使用者識別情報と関連付けられた無効領域を記憶部506から読み出す。その後、入力部508はタッチ入力検知部502により検知された接触領域が記憶部506から読み出した無効領域に含まれるか否かを判定する(ステップS15)。
 タッチ入力検知部502が検知した接触領域が記憶部506から読み出した無効領域に含まれると判定した場合(ステップS15の判定結果「YES」)、入力部508は当該接触領域をユーザによる入力操作として扱わず、フローはステップS11に戻り、タッチ入力検知部502はユーザによるタッチパネル51への接触の有無を再度判定する。
 一方、把持検知部503がユーザにより携帯端末5が把持されていないと判定した場合(ステップS12の判定結果「NO」)、入力部508が記憶部506に記憶される使用者識別情報の中に使用者判別部504が判別した使用者識別情報と同一又は近似するものがないと判定した場合(ステップS14の判定結果「NO」)、又は入力部508がタッチ入力検知部502により検知された接触領域が記憶部506から読み出した無効領域に含まれていないと判定した場合(ステップS15の判定結果「NO」)、入力部508はタッチ入力検知部502により検知された接触領域をアプリケーション実行部501に通知する(ステップS16)。
 実施例1では、携帯端末5は使用者が予め記録された無効領域に指で接触しても、その接触を入力操作とみなさない。即ち、ユーザがタッチパネル51に接触した時間に基づくことなく、ユーザが携帯端末5を手で把持した際にタッチパネル51に不用意に接触することに起因する誤動作(即ち、入力操作ミス)を防止することができる。
 実施例1では、使用者識別情報に関連付けてユーザ毎に無効領域を記憶部506に記憶する。携帯端末5は各ユーザの把持方法に合致した無効領域が予め登録されるため、入力部508はユーザ毎の無効領域に基づいて入力操作の有効/無効を判定することができる。
 尚、実施例1では使用者識別情報としてセンサ52のON/OFF情報を採用したが、これに限定されるものではない。例えば、ユーザIDを使用者識別情報として用いてもよい。但し、実施例1のようにセンサ52のON/OFF情報を使用者識別情報として用いると、携帯端末5は当該使用者識別情報を自動的に取得することができるため、ユーザIDの入力処理を必要とせず、ユーザ利用性が向上する。
 次に、本発明の実施例2について説明する。実施例2も携帯端末5に適用されるものであるが、メニューアイコンの表示領域を無効領域外に自動配列する機能、メニューアイコンを縮小表示する機能を具備している点で実施例1と異なる。
 図6は、本発明の実施例2に係る携帯端末5の機能ブロック図である。実施例2に係る携帯端末5は、図1に示した実施例1の構成要素501~509に加えて内接四角形算出部510、比率算出部511、及び縮小部512を具備する。
 内接四角形算出部510は、タッチパネル51と同一の縦横比を有し、無効領域ではない表示領域に内接する四角形を想定し、その四角形の座標及び大きさを算出する。比率算出部511は、内接四角形算出部510が算出した四角形の大きさとタッチパネル51の大きさとの比率を算出する。縮小部512は、タッチパネル51に表示する画像をアプリケーション実行部501から取得し、当該画像を比率算出部511が算出した比率に縮小する。
 次に、実施例2に係る携帯端末5の動作について説明する。
 実施例2においても、実施例1と同一の無効領域設定処理を実行するため、その説明を省略する。実施例2では、無効領域設定処理後の携帯端末5の動作について説明する。図7は、無効領域設定処理後の実施例2に係る携帯端末5の動作を示すフローチャートである。
 無効領域設定アプリケーションによりタッチパネル51上の無効領域の設定が完了すると、把持検知部503はユーザによって携帯端末5が把持されているか否かを判定する(ステップS21)。把持検知部503によりユーザが携帯端末5を把持していると判定された場合(ステップS21の判定結果「YES」)、使用者判別部504はセンサ52のON/OFF情報を使用者識別情報として取得して内接四角形算出部510に送出する(ステップS22)。
 内接四角形算出部510は、記憶部506に記憶された使用者識別情報の中に使用者判別部504が判別した使用者識別情報と同一又は近似するものが存在するか否かを判定する(ステップS23)。記憶部506に記憶された使用者識別情報の中に使用者判別部504が判別した使用者識別情報と同一又は近似するものが存在すると判定した場合(ステップS23の判定結果「YES」)、内接四角形算出部510は当該使用者識別情報に関連付けられた無効領域を記憶部506から読み出す。
 内接四角形算出部510は、タッチパネル51と同一の縦横比を有し、タッチパネル51における無効領域を除外した表示領域に内接する四角形を生成する(ステップS24)。内接四角形算出部510は、内接四角形の座標(例えば、左上角部の座標)及び大きさを算出する(ステップS25)。比率算出部511は、タッチパネル51の表示領域に対する内接四角形の大きさの比率を算出する(ステップS26)。縮小部512は、アプリケーション実行部501からタッチパネル51に表示する画像を取得し、当該画像を比率算出部511が算出した比率に縮小する(ステップS27)。表示制御部509は、縮小部512により縮小された画像を取得し、当該縮小画像を内接四角形算出部510が算出した座標に基づいて内接四角形内に表示する(ステップS28)。
 図8は、携帯端末5においてタッチパネル51に表示される画像(メニューアイコン)が縮小される様子を示す。
 図8(A)は、タッチパネル51の左右側に存在する無効領域を避けて中央領域に生成された内接四角形を示す。また、図8(B)は、縮小比率N%として内接四角形をタッチパネル51の左下側に移動した場合の内接四角形を示す。図8(C)は、図8(B)に示す内接四角形に表示した縮小画像を示す。図8(D)は、図8(A)に示す内接四角形に表示した縮小画像を示す。
 図7のステップS23において、内接四角形算出部510が記憶部506に記憶される使用者識別情報の中に使用者判別部504が判別した使用者識別情報と同一又は近似するものがないと判定した場合(ステップS23の判定結果「NO」)、比率算出部511は画像の縮小比率を算出する必要がなくなり、縮小部512はアプリケーション実行部501から取得した画像をそのまま表示制御部509に送出する。これにより、表示制御部509は画像を縮小せずにタッチパネル51に表示する(ステップS29)。
 実施例2に係る携帯端末5では、無効領域に重複しないように画像の表示領域を縮小してタッチパネル51に表示することができる。これにより、ユーザが携帯端末5を把持した際に手や指で隠れてしまう画像の部分をユーザにより見やすい位置に縮小して表示することができる。
 実施例1及び実施例2において、携帯端末5に内蔵されるマイクロコンピュータ(又は、コンピュータシステム)がコンピュータ読み取り可能な記憶媒体からプログラムを読み出して上記の処理を実行するようにしてもよい。このプログラムは実施例1又は実施例2の機能の一部を実現するものであってもよい。また、このプログラムはコンピュータシステムに既に記憶されているメインプログラムとの組み合わせで実現する形式、例えば差分ファイル(又は、差分プログラム)であってもよい。また、このプログラムを通信回線を介してコンピュータシステムに配信することにより、コンピュータシステムが当該プログラムを実行するようにしてもよい。
 最後に、本発明は上述の実施例に限定されるものではなく、添付する請求の範囲に記載された発明の範囲内で、種々の変更や設計変更をも包含するものである。
 本発明は、タッチパネル形式の携帯端末においてユーザの手や指で隠れる画像を自動的に所望の位置及び縮小率でタッチパネルに表示するものであるが、ディスプレイに表示される画像の位置及び大きさをセンサの検知結果に基づいて自由に変更することを可能とする技術に関するものであるため、携帯型の情報端末に限定されず、センサ付きディスプレイを具備する電子機器に適用可能である。
 1  携帯端末
 51 タッチパネル
 52 センサ
 501 アプリケーション実行部
 502 タッチ入力検知部
 503 把持検知部
 504 使用者識別部
 505 無効領域特定部
 506 記憶部
 507 記録部
 508 入力部
 509 表示制御部
 510 内接四角形算出部
 511 比率算出部
 512 縮小部

Claims (7)

  1.  タッチパネル方式の携帯端末であって、
     前記タッチパネルにおいてユーザの入力操作を受け付けない無効領域を特定する無効領域特定部と、
     前記タッチパネル上のユーザの接触領域を検知し、当該接触領域が無効領域に含まれない場合に、当該接触領域に予め関連付けられた機能を実行する入力部を具備する携帯端末。
  2.  ユーザにより把持されているか否かを検知する把持検知部を更に具備し、前記把持検知部がユーザによる把持を検知した場合、前記入力部はタッチパネル上のユーザの接触領域が無効領域に含まれているか否かの判定を行なうようにした請求項1記載の携帯端末。
  3.  前記把持検知部が把持を検知したユーザを判別する使用者識別情報を生成する使用者判別部と、
     前記無効領域特定部が無効領域を特定すると、使用者識別情報と無効領域とを関連付けて記憶部に記憶する記録部を更に具備し、
     前記入力部は使用者識別情報に関連付けられた無効領域を前記記憶部から読み出して、ユーザの接触領域が当該無効領域に含まれるか否かを判定するようにした請求項2記載の携帯端末。
  4.  前記把持検知部は複数のセンサによってユーザによる把持を検知し、前記使用者判別部が生成する使用者識別情報は複数のセンサの検知結果の組み合わせより構成されるようにした請求項3記載の携帯端末。
  5.  前記タッチパネルと同一の縦横比を有し、無効領域を除外した前記タッチパネルの表示領域に内接する四角形を想定し、当該四角形の座標及び大きさを算出する内接四角形算出部と、
     前記タッチパネルの大きさに対する前記内接四角形算出部が算出した四角形の大きさの比率を算出する比率算出部と、
     前記タッチパネルに表示する画像を前記比率算出部が算出した比率に縮小する縮小部と、
     前記縮小部が縮小した画像をタッチパネル内の内接四角形内に表示する表示制御部を更に具備した請求項1乃至請求項4のいずれかに記載の携帯端末。
  6.  タッチパネル方式の携帯端末における入力操作方法であって、
     前記タッチパネルにおいてユーザの入力操作を受け付けない無効領域を特定し、
     前記タッチパネル上のユーザの接触領域を検知し、
     接触領域が無効領域に含まれない場合に、当該接触領域に予め関連付けられた機能を実行するようにした入力操作方法。
  7.  タッチパネルの入力操作を制御するコンピュータに実行されるプログラムであって、
     前記タッチパネルにおいてユーザの入力操作を受け付けない無効領域を特定し、
     前記タッチパネル上のユーザの接触領域を検知し、
     接触領域が無効領域に含まれない場合に、当該接触領域に予め関連付けられた機能を実行するようにしたプログラム。 
PCT/JP2012/061381 2011-05-02 2012-04-27 タッチパネル方式の携帯端末及び入力操作方法 WO2012150697A1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
EP12779973.2A EP2706441B1 (en) 2011-05-02 2012-04-27 Touch panel-type portable terminal and input operation method
US14/114,129 US9277045B2 (en) 2011-05-02 2012-04-27 Touch-panel cellular phone and input operation method
US15/002,467 US9843664B2 (en) 2011-05-02 2016-01-21 Invalid area specifying method for touch panel of mobile terminal
US15/819,026 US10135967B2 (en) 2011-05-02 2017-11-21 Invalid area specifying method for touch panel of mobile terminal
US16/162,870 US10447845B2 (en) 2011-05-02 2018-10-17 Invalid area specifying method for touch panel of mobile terminal
US16/559,124 US10609209B2 (en) 2011-05-02 2019-09-03 Invalid area specifying method for touch panel of mobile terminal
US16/789,543 US11070662B2 (en) 2011-05-02 2020-02-13 Invalid area specifying method for touch panel of mobile terminal
US17/354,840 US11644969B2 (en) 2011-05-02 2021-06-22 Invalid area specifying method for touch panel of mobile terminal
US18/128,654 US20230297226A1 (en) 2011-05-02 2023-03-30 Invalid area specifying method for touch panel of mobile terminal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-102784 2011-05-02
JP2011102784A JP5813991B2 (ja) 2011-05-02 2011-05-02 携帯端末、入力制御方法及びプログラム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/114,129 A-371-Of-International US9277045B2 (en) 2011-05-02 2012-04-27 Touch-panel cellular phone and input operation method
US15/002,467 Continuation US9843664B2 (en) 2011-05-02 2016-01-21 Invalid area specifying method for touch panel of mobile terminal

Publications (1)

Publication Number Publication Date
WO2012150697A1 true WO2012150697A1 (ja) 2012-11-08

Family

ID=47107883

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/061381 WO2012150697A1 (ja) 2011-05-02 2012-04-27 タッチパネル方式の携帯端末及び入力操作方法

Country Status (4)

Country Link
US (8) US9277045B2 (ja)
EP (1) EP2706441B1 (ja)
JP (1) JP5813991B2 (ja)
WO (1) WO2012150697A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102557A (ja) * 2012-11-16 2014-06-05 Sharp Corp 携帯端末
WO2014155696A1 (ja) * 2013-03-29 2014-10-02 株式会社 東芝 電子機器、制御方法およびプログラム
WO2015025549A1 (ja) * 2013-08-22 2015-02-26 シャープ株式会社 表示装置、および、タッチ操作処理方法
CN105723315A (zh) * 2013-11-29 2016-06-29 株式会社半导体能源研究所 数据处理装置及数据处理装置的驱动方法
GB2525780B (en) * 2013-01-31 2020-07-29 Hewlett Packard Development Co Touch screen with unintended input prevention

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5813991B2 (ja) 2011-05-02 2015-11-17 埼玉日本電気株式会社 携帯端末、入力制御方法及びプログラム
GB2514971B (en) 2013-01-06 2021-04-14 Intel Corp A method, apparatus, and system for distributed pre-processing of touch data and display region control
US20150363086A1 (en) * 2013-02-19 2015-12-17 Nec Corporation Information processing terminal, screen control method, and screen control program
JP5542224B1 (ja) 2013-03-06 2014-07-09 パナソニック株式会社 電子機器および座標検出方法
JP6135203B2 (ja) * 2013-03-11 2017-05-31 株式会社リコー 表示システムとその制御方法及び表示装置と画面制御サーバ並びにプログラム
JP6230247B2 (ja) * 2013-03-29 2017-11-15 シャープ株式会社 情報入力装置およびプログラム
USD759008S1 (en) 2013-04-18 2016-06-14 Apple Inc. Electronic device
KR102148809B1 (ko) * 2013-04-22 2020-08-27 삼성전자주식회사 단축 아이콘 윈도우 표시 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
KR102153006B1 (ko) * 2013-05-27 2020-09-07 삼성전자주식회사 입력 처리 방법 및 그 전자 장치
JP5986957B2 (ja) 2013-05-28 2016-09-06 京セラ株式会社 携帯端末、無効領域設定プログラムおよび無効領域設定方法
JP2015099526A (ja) * 2013-11-20 2015-05-28 富士通株式会社 情報処理装置および情報処理プログラム
JP6289931B2 (ja) * 2014-02-19 2018-03-07 シャープ株式会社 持ち手判定機能付き携帯端末
CN105608090A (zh) * 2014-11-20 2016-05-25 华为技术有限公司 呈现联系人信息、确定联系人信息的方法和相关设备
JP6319238B2 (ja) * 2015-09-08 2018-05-09 日本電気株式会社 携帯端末、無効領域特定方法及びプログラム
US10635204B2 (en) * 2016-11-29 2020-04-28 Samsung Electronics Co., Ltd. Device for displaying user interface based on grip sensor and stop displaying user interface absent gripping
US20190026120A1 (en) * 2017-07-21 2019-01-24 International Business Machines Corporation Customizing mobile device operation based on touch points
WO2019143335A1 (en) * 2018-01-18 2019-07-25 Hewlett-Packard Development Company, L.P. Touchscreen devices to transmit input selectively
CN111309179A (zh) * 2020-02-10 2020-06-19 北京小米移动软件有限公司 触控屏控制方法及装置、终端及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234993A (ja) * 2004-02-20 2005-09-02 Toshiba Corp 画像表示装置、及び画像表示方法
JP2010044567A (ja) * 2008-08-12 2010-02-25 Sony Corp 情報処理装置
JP2010154090A (ja) 2008-12-24 2010-07-08 Toshiba Corp 携帯端末
JP2011028603A (ja) * 2009-07-28 2011-02-10 Nec Casio Mobile Communications Ltd 端末装置及びプログラム
JP2011039990A (ja) 2009-08-18 2011-02-24 Canon Inc 情報処理装置、その制御方法、プログラム及び記録媒体
JP2011237945A (ja) * 2010-05-07 2011-11-24 Fujitsu Toshiba Mobile Communications Ltd 携帯型電子機器
JP2012008923A (ja) * 2010-06-28 2012-01-12 Lenovo Singapore Pte Ltd 情報入力装置、その入力無効化方法、およびコンピュータが実行可能なプログラム

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1098342A (en) 1977-12-27 1981-03-31 Min H. Tsai Noble-metal dental alloy with improved gold color
JPH06214718A (ja) 1993-01-14 1994-08-05 Hitachi Ltd 情報処理装置
JPH08307954A (ja) * 1995-05-12 1996-11-22 Sony Corp 座標入力装置および方法、並びに情報処理装置
US7800592B2 (en) 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
JP2000039964A (ja) 1998-07-22 2000-02-08 Sharp Corp 手書き入力装置
US6469695B1 (en) * 1999-01-28 2002-10-22 Ncr Corporation Method and apparatus for touch screen touch ahead capability
JP3949912B2 (ja) * 2000-08-08 2007-07-25 株式会社エヌ・ティ・ティ・ドコモ 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法
JP2003308130A (ja) 2002-04-15 2003-10-31 Matsushita Electric Ind Co Ltd 情報装置
EP1443437A1 (en) * 2002-12-18 2004-08-04 Alcatel A method, a mobile telecommunication device, a base station, and a computer software product for guiding a user of a mobile when intending invoking a service
JP2005276120A (ja) 2004-03-26 2005-10-06 Fujitsu Component Ltd タッチパネル入力装置及びその入力制御システム
JP2006039686A (ja) * 2004-07-22 2006-02-09 Pioneer Electronic Corp タッチパネル装置、タッチ領域検出方法およびタッチ領域検出プログラム
KR100608576B1 (ko) 2004-11-19 2006-08-03 삼성전자주식회사 휴대 단말기 제어 장치 및 방법
US7847789B2 (en) * 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
JP4510713B2 (ja) 2005-07-21 2010-07-28 富士フイルム株式会社 デジタルカメラ
US8018440B2 (en) * 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
JP4747874B2 (ja) 2006-02-14 2011-08-17 パナソニック電工株式会社 リモコン装置及び遠隔制御システム
JP2009158989A (ja) 2006-04-06 2009-07-16 Nikon Corp カメラ
US7811952B2 (en) * 2006-04-20 2010-10-12 Southern Mills, Inc. Ultraviolet-resistant fabrics and methods for making them
US8130203B2 (en) * 2007-01-03 2012-03-06 Apple Inc. Multi-touch input discrimination
JP2009080683A (ja) * 2007-09-26 2009-04-16 Pioneer Electronic Corp タッチパネル型表示装置、その制御方法、プログラム及び記憶媒体
CN101884212B (zh) * 2007-10-18 2013-11-20 意大利电信股份公司 用于在用户手机上显示用户相关信息的方法和系统
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
WO2009147870A1 (ja) * 2008-06-03 2009-12-10 シャープ株式会社 入力検出装置、入力検出方法、プログラム、および記録媒体
JP5243115B2 (ja) 2008-06-27 2013-07-24 京セラ株式会社 携帯端末および携帯端末制御プログラム
JP4672756B2 (ja) 2008-06-30 2011-04-20 株式会社東芝 電子機器
JP2010066918A (ja) 2008-09-09 2010-03-25 Nec Personal Products Co Ltd 情報処理装置および表示制御方法
EP3654141A1 (en) 2008-10-06 2020-05-20 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
JPWO2010047048A1 (ja) * 2008-10-20 2012-03-15 三菱電機株式会社 タッチパネル装置
US20100153227A1 (en) * 2008-12-12 2010-06-17 Microsoft Corporation Mobile phone billing for content payment
KR101572071B1 (ko) * 2009-01-06 2015-11-26 삼성전자주식회사 휴대단말 표시부의 온/오프 제어 방법 및 장치
JP2010165174A (ja) 2009-01-15 2010-07-29 Fujifilm Corp 表示装置
JP2010213169A (ja) 2009-03-12 2010-09-24 Fujifilm Corp 表示装置、表示処理方法及び撮像装置
EP2443532B1 (en) * 2009-06-16 2018-01-24 Intel Corporation Adaptive virtual keyboard for handheld device
JP2011008111A (ja) * 2009-06-26 2011-01-13 Canon Inc 表示装置及びその制御方法
JP5451233B2 (ja) 2009-07-30 2014-03-26 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置及びプログラム
EP2506126A1 (en) * 2009-11-25 2012-10-03 Nec Corporation Portable information terminal, input control method, and program
JPWO2011101940A1 (ja) * 2010-02-19 2013-06-17 日本電気株式会社 携帯端末及びその制御方法
US20120036468A1 (en) * 2010-08-03 2012-02-09 Nokia Corporation User input remapping
US20120047454A1 (en) * 2010-08-18 2012-02-23 Erik Anthony Harte Dynamic Soft Input
US9244545B2 (en) * 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
JP5661547B2 (ja) * 2011-04-26 2015-01-28 京セラ株式会社 携帯端末装置およびプログラム
JP5813991B2 (ja) 2011-05-02 2015-11-17 埼玉日本電気株式会社 携帯端末、入力制御方法及びプログラム
US20120311476A1 (en) * 2011-06-02 2012-12-06 Alan Stirling Campbell System and method for providing an adaptive touch screen keyboard
CN102833700A (zh) * 2011-06-14 2012-12-19 中兴通讯股份有限公司 一种计算终端话费的方法及系统
KR20130102298A (ko) * 2012-03-07 2013-09-17 주식회사 팬택 휴대용 단말기 및 휴대용 단말기의 디스플레이 제어 방법
US9535603B2 (en) * 2013-03-14 2017-01-03 Carl F. Andersen Columnar fitted virtual keyboard
JP7294586B2 (ja) 2018-06-12 2023-06-20 日本化薬株式会社 重合性組成物及びその硬化物

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234993A (ja) * 2004-02-20 2005-09-02 Toshiba Corp 画像表示装置、及び画像表示方法
JP2010044567A (ja) * 2008-08-12 2010-02-25 Sony Corp 情報処理装置
JP2010154090A (ja) 2008-12-24 2010-07-08 Toshiba Corp 携帯端末
JP2011028603A (ja) * 2009-07-28 2011-02-10 Nec Casio Mobile Communications Ltd 端末装置及びプログラム
JP2011039990A (ja) 2009-08-18 2011-02-24 Canon Inc 情報処理装置、その制御方法、プログラム及び記録媒体
JP2011237945A (ja) * 2010-05-07 2011-11-24 Fujitsu Toshiba Mobile Communications Ltd 携帯型電子機器
JP2012008923A (ja) * 2010-06-28 2012-01-12 Lenovo Singapore Pte Ltd 情報入力装置、その入力無効化方法、およびコンピュータが実行可能なプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102557A (ja) * 2012-11-16 2014-06-05 Sharp Corp 携帯端末
GB2525780B (en) * 2013-01-31 2020-07-29 Hewlett Packard Development Co Touch screen with unintended input prevention
WO2014155696A1 (ja) * 2013-03-29 2014-10-02 株式会社 東芝 電子機器、制御方法およびプログラム
WO2015025549A1 (ja) * 2013-08-22 2015-02-26 シャープ株式会社 表示装置、および、タッチ操作処理方法
CN105723315A (zh) * 2013-11-29 2016-06-29 株式会社半导体能源研究所 数据处理装置及数据处理装置的驱动方法
US10592094B2 (en) 2013-11-29 2020-03-17 Semiconductor Energy Laboratory Co., Ltd. Data processing device and driving method thereof
CN105723315B (zh) * 2013-11-29 2020-11-20 株式会社半导体能源研究所 数据处理装置及数据处理装置的驱动方法
US11294561B2 (en) 2013-11-29 2022-04-05 Semiconductor Energy Laboratory Co., Ltd. Data processing device having flexible position input portion and driving method thereof
US11714542B2 (en) 2013-11-29 2023-08-01 Semiconductor Energy Laboratory Co., Ltd. Data processing device and driving method thereof for a flexible touchscreen device accepting input on the front, rear and sides

Also Published As

Publication number Publication date
US20230297226A1 (en) 2023-09-21
EP2706441B1 (en) 2018-05-23
US20210320996A1 (en) 2021-10-14
JP2012234386A (ja) 2012-11-29
US10609209B2 (en) 2020-03-31
EP2706441A1 (en) 2014-03-12
US9277045B2 (en) 2016-03-01
US20200186640A1 (en) 2020-06-11
US20160134745A1 (en) 2016-05-12
US10135967B2 (en) 2018-11-20
US9843664B2 (en) 2017-12-12
JP5813991B2 (ja) 2015-11-17
US11644969B2 (en) 2023-05-09
US10447845B2 (en) 2019-10-15
US20140051482A1 (en) 2014-02-20
US11070662B2 (en) 2021-07-20
EP2706441A4 (en) 2014-09-24
US20180097929A1 (en) 2018-04-05
US20190394326A1 (en) 2019-12-26
US20190052749A1 (en) 2019-02-14

Similar Documents

Publication Publication Date Title
WO2012150697A1 (ja) タッチパネル方式の携帯端末及び入力操作方法
JP5983503B2 (ja) 情報処理装置及びプログラム
JP5957834B2 (ja) 携帯情報端末、タッチ操作制御方法、及びプログラム
JP5105127B2 (ja) 携帯端末、そのキー操作制御方法およびプログラム
US20150242117A1 (en) Portable electronic device, and control method and program therefor
TW201329835A (zh) 顯示控制裝置、顯示控制方法及電腦程式
JP5615642B2 (ja) 携帯端末、入力制御プログラム及び入力制御方法
JP2012003404A (ja) 情報表示装置
JP5968588B2 (ja) 電子機器
EP2818984B1 (en) Touch panel input device and control method for same
JP2015014933A (ja) 情報処理装置及びその制御方法とプログラム
JP2007140900A (ja) 入力装置
KR20120129621A (ko) 휴대용 전기전자 기기의 사용자 인터페이스 제어 장치 및 방법
JP6627909B2 (ja) 携帯端末、無効領域特定方法及びプログラム
JP2003345511A (ja) タッチパネル付き画像記録再生装置
JP5841023B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP6319238B2 (ja) 携帯端末、無効領域特定方法及びプログラム
JP6249071B2 (ja) 携帯端末、無効領域特定方法及びプログラム
JP6863441B2 (ja) 携帯端末、無効領域特定方法及びプログラム
JP2013148990A (ja) タッチパネル装置及びタッチパネル装置の操作処理方法
JP2015187802A (ja) 携帯型端末および制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12779973

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012779973

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14114129

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE