WO2009084147A1 - 携帯端末装置及び表示制御方法並びに表示制御プログラム - Google Patents

携帯端末装置及び表示制御方法並びに表示制御プログラム Download PDF

Info

Publication number
WO2009084147A1
WO2009084147A1 PCT/JP2008/003383 JP2008003383W WO2009084147A1 WO 2009084147 A1 WO2009084147 A1 WO 2009084147A1 JP 2008003383 W JP2008003383 W JP 2008003383W WO 2009084147 A1 WO2009084147 A1 WO 2009084147A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
unit
shape
displayed
display unit
Prior art date
Application number
PCT/JP2008/003383
Other languages
English (en)
French (fr)
Inventor
Tomohiro Ishihara
Kazumasa Gomyo
Satoshi Iino
Yuji Hashimoto
Original Assignee
Panasonic Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corporation filed Critical Panasonic Corporation
Priority to US12/810,840 priority Critical patent/US8456426B2/en
Priority to CN2008801233957A priority patent/CN101910991B/zh
Publication of WO2009084147A1 publication Critical patent/WO2009084147A1/ja
Priority to US13/873,796 priority patent/US8896542B2/en
Priority to US14/454,321 priority patent/US10684755B2/en
Priority to US14/454,346 priority patent/US9013410B2/en
Priority to US14/657,098 priority patent/US10564828B2/en
Priority to US16/836,450 priority patent/US11188207B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1624Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with sliding enclosures, e.g. sliding keyboard or display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0241Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings using relative motion of the body parts to change the operational status of the telephone set, e.g. switching on/off, answering incoming call
    • H04M1/0245Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings using relative motion of the body parts to change the operational status of the telephone set, e.g. switching on/off, answering incoming call using open/close detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72445User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting Internet browser applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0208Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
    • H04M1/0235Slidable or telescopic telephones, i.e. with a relative translation movement of the body parts; Telephones using a combination of translation and other relative motions of the body parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. SMS or e-mail
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/18Details of telephonic subscriber devices including more than one keyboard unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the present invention relates to a portable terminal device including a deformable housing and a touch panel for input operation, a display control method for controlling the same, and a display control program.
  • the touch panel of this type is provided with a touch sensor arranged to overlap with the display screen.
  • the touch sensor detects the touch position, and this position is compared with the position of the button or icon displayed on the screen. By doing this, it is determined whether the user has operated a button or icon on the screen.
  • buttons and icons displayed on the screen, the shape, the layout, and the like can be changed as needed, which increases the degree of freedom.
  • a housing which is relatively small when being carried, and which is foldable so as to be easy to use when in use, or which has a deformable structure is often used.
  • an operation unit (hereinafter referred to as a fixed operation unit) composed of many physical switches and buttons is also provided. It is. That is, the number of buttons that can be displayed on the touch panel may be limited, or the size of the buttons that can be displayed on the touch panel may be small. Therefore, the input operability is important as in the case of creating a sentence, for example. In such a case, it is easier for the user to use a fixed operation unit such as a keyboard composed of a larger number of buttons than a touch panel.
  • buttons to be operated when the number of buttons to be operated is very large and these are arranged in a relatively wide range, the user holds the terminal with one hand and moves all the buttons simply by moving one thumb. It is difficult to operate.
  • the shape of the terminal casing is changed so that the fixed operation unit is exposed on the surface, and both the fixed operation unit and the touch panel are
  • the button to be operated since the button to be operated is also present at a position far from the base of the thumb, it is impossible to operate all the buttons only by moving the thumb.
  • the user operates the terminal with both hands changes the position of the hand by holding the hand holding the terminal, or shifts the position of the hand, so that it can not be said that the operability is good.
  • the user when operating a terminal equipped with both a touch panel and a fixed operation unit, the user can operate all buttons and the like of the operation target simply by moving one finger of one hand holding the terminal It aims at providing a good portable terminal device.
  • One mode of the portable terminal device of the present invention is A display unit including a housing having a movable unit for changing the shape to at least two types of states, a display unit capable of displaying arbitrary visible information representing an operation target site, a finger of a user on a display surface of the display unit, etc.
  • a portable terminal device comprising a touch sensor for detecting a contact position of A shape detection unit that detects a change in the shape of the housing; An input operation management unit that manages a detection position of the touch sensor and an operation target portion of each visible information displayed on the display unit in association with each other; A display control unit for automatically changing at least a display position of each piece of visible information of the operation target displayed on the display unit according to a change in shape of the casing detected by the shape detection unit; Do.
  • the display control unit automatically automatically displays the display position and the like of the operation target visible information displayed on the display unit according to the shape change of the casing detected by the shape detection unit. Since the change is made, the display can be controlled to adapt to the actual usage of the user, and the operability can be improved. For example, the user changes the shape of the housing so that the fixed operation unit is exposed, and operates both the operation button on the fixed operation unit and the virtual button (visible information) displayed on each unit of the display unit. In the case of the target, as described above, since there are buttons at far positions that can not be reached only by moving one finger, operability is reduced.
  • the operation button on the fixed operation unit and the display All of the virtual buttons on the department can be placed within the movable range of the finger, and operability is improved.
  • the housing includes an upper housing and a lower housing movable relative to each other by sliding or rotation, Mounting the display unit and the touch sensor on the upper housing;
  • the lower case is mounted with a fixed operation unit including a plurality of buttons which can be operated by the user and physically fixed in position;
  • the display control unit displays each of the operation targets displayed on the display unit.
  • the display position of the visible information is preferentially moved to a position near the fixed operation unit in the entire display area of the display unit.
  • the fixed operation unit can be housed in the housing or exposed on the surface of the housing so that the user can operate. Further, in a state in which the fixed operation unit is exposed on the surface of the housing, both the virtual button (visible information) displayed on each portion of the display unit and the operation button on the fixed operation unit are the user's operation target. However, if the position of the virtual button (visible information) displayed on the display unit is moved closer to the fixed operation unit under the control of the display control unit, the operation button on the fixed operation unit and the display unit All of the upper virtual buttons can be placed within the movable range of the finger, improving operability.
  • one aspect of the mobile terminal device of the present invention is When the shape detection unit detects that the fixed operation unit is exposed to the surface due to a change in the shape of the housing, the display control unit displays each of the operation targets displayed on the display unit. It is characterized in that the visible information is redisplayed at the position of the movement destination in a state where the size is reduced in comparison with a predetermined standard state.
  • this portable terminal device by reducing the display size of the virtual button (visible information) displayed on the display unit, it is possible to arrange a large number of buttons in a relatively narrow area. Therefore, even when the fixed operation unit is exposed to the surface, all virtual buttons can be arranged within the reach of the user's finger without reducing the number of virtual buttons on the display unit. .
  • one aspect of the mobile terminal device of the present invention is When the shape detection unit detects that the fixed operation unit is exposed to the surface due to a change in the shape of the housing, the display control unit displays each of the operation targets displayed on the display unit. Among the visible information, only a part of the visible information that can be displayed is redisplayed at the destination position, and the visible information displayed on the destination is switched according to the input operation for scrolling the display.
  • the number of virtual buttons (visible information) to be redisplayed in the relatively narrow area of the movement destination is reduced, so that it is not necessary to reduce the size of each virtual button. It becomes possible to touch the button securely. Further, since the virtual buttons to be redisplayed are switched according to the scroll operation of the display, the user can set all virtual buttons as operation targets as in the case of the movement.
  • the display control unit is an object on the content displayed on the display unit when the shape detection unit detects that the fixed operation unit is exposed to the surface due to the shape change of the housing. Displaying a pointer representing an operation target position for the display on the display unit, and further displaying visual information of the operation target to which a function for instructing movement of the display position of the pointer is allocated at a position near the fixed operation unit. It is characterized by
  • this mobile terminal device for example, even when an object (such as a button) to be operated is present in the entire area on the displayed content, such as a Web page displayed by a Web browser, the range where the finger can reach It is possible to operate each object simply by operating the virtual buttons (visible information) in the inside. That is, by operating a virtual button displayed at a position close to a finger, the pointer can be moved to an arbitrary position to operate each object on the content.
  • an object such as a button
  • the display control unit includes, as a set of the visible information, a virtual keyboard including a plurality of display buttons associated with a plurality of characters, and a candidate display unit on which conversion candidates for the input characters are displayed. Is displayed on the display unit, and when the shape detection unit detects that the fixed operation unit is exposed on the surface due to the shape change of the housing, the display of the virtual keyboard is displayed. Is erased, and only the candidate display unit is redisplayed at the destination position near the fixed operation unit in the entire display area of the display unit.
  • this mobile terminal device by displaying the virtual keyboard on the display unit, it is possible to easily input a sentence or the like without using a fixed operation unit. Further, in a situation where the fixed operation unit is exposed due to a change in shape of the housing and can be used, the display of the virtual keyboard is erased and only the candidate display unit is redisplayed at the destination position close to the fixed operation unit. Therefore, the fixed operation unit and the candidate display unit can be disposed within the range where the user's finger can reach.
  • the display control unit has a function of displaying on the display unit a virtual keyboard configured of a plurality of display buttons associated with each of a plurality of characters as a set of the visible information, and the shape of the housing
  • the shape detection unit detects that the fixed operation unit is exposed to the surface due to a change
  • the characters assigned to each display button included in the virtual keyboard have contents different from a predetermined standard state. It is characterized by automatically switching.
  • this mobile terminal device by displaying the virtual keyboard on the display unit, it is possible to easily input a sentence or the like without using a fixed operation unit.
  • virtual buttons such as special characters and symbols other than the characters assigned to each button of the fixed operation unit are allocated to the virtual keyboard Can also be switched to help improve operability.
  • one aspect of the mobile terminal device of the present invention is It further comprises an operation state detection unit for detecting the type of application program in operation;
  • the display control unit may automatically switch a configuration of a variable operation unit displayed on the display unit as a set of the visible information according to a detection result of the operation state detection unit.
  • this portable terminal device it is possible to optimize the configuration of the variable operation unit so as to be adapted to the actual usage of the terminal. For example, in a situation where an application program of a web browser is used, it is frequently clicked on various parts displayed on the browser, so a movable cursor is displayed or this cursor is displayed. It is desirable that the operation button for moving can be easily operated. In addition, in a situation where an application program such as a text editor is used, for example, it is desirable to display a virtual keyboard suitable for text input to facilitate the input of a character string.
  • a display unit including a housing having a movable unit for changing the shape to at least two types of states, a display unit capable of displaying arbitrary visible information representing an operation target site, a finger of a user on a display surface of the display unit, etc.
  • the display position or the like of each piece of visible information of the operation target to be displayed on the display unit is automatically changed according to the change in the shape of the detected case.
  • the display can be controlled to adapt and the operability can be improved.
  • One mode of the display control program of the present invention is A display unit including a housing having a movable unit for changing the shape to at least two types of states, a display unit capable of displaying arbitrary visible information representing an operation target site, a finger of a user on a display surface of the display unit, etc. And a computer-executable display control program for controlling display of a portable terminal having a touch sensor for detecting a touch position of Managing the detection position of the touch sensor and the operation target portion of each visible information displayed on the display unit in association with each other; A step of automatically changing at least a display position in accordance with a change in the shape of the casing is provided for each piece of visible information of the operation target displayed on the display unit.
  • this display control program By executing this display control program on a control computer, it is possible to control the display to adapt to the actual use situation of the user and to improve the operability, as in the above-mentioned portable terminal device.
  • the user when operating the terminal equipped with both the touch panel and the fixed operation unit, the user can operate all the buttons etc. of the operation object only by moving one finger of one hand holding the terminal It is possible to provide a portable terminal device with good operability.
  • FIG. 3 is a block diagram showing an internal configuration of a display screen creation unit and a display mode management unit shown in FIG. 2; It is a schematic diagram showing the specific example of the correspondence of the shape change of the housing
  • FIG. 1 is a front view showing a specific example of the appearance of the portable terminal device in the first embodiment.
  • FIG. 2 is a block diagram showing a configuration example of main parts of hardware and software of the mobile terminal device shown in FIG.
  • FIG. 3 is a block diagram showing the internal configuration of the display screen creation unit and the display mode management unit shown in FIG.
  • FIG. 4 is a schematic view showing a specific example of the correspondence between the change in the shape of the casing and the usable operation mode in the portable terminal device shown in FIG.
  • FIG. 5 is a flowchart showing an operation related to display in the portable terminal device shown in FIG. 6 to 9 are front views each showing a specific example of display contents on the screen of the portable terminal device shown in FIG.
  • the present invention is applied to a portable terminal device having an appearance as shown in FIG.
  • a portable terminal device having an appearance as shown in FIG.
  • a portable telephone terminal for example, a portable telephone terminal, a portable information terminal (PDA) or the like is assumed.
  • PDA portable information terminal
  • the housing of the portable terminal device shown in FIG. 1 has a structure that can be changed in shape. That is, as shown in FIG. 1 (b), the upper case 11 and the lower case 12 are provided independently of each other, and the upper case 11 and the lower case are operated in the longitudinal direction (the direction of the arrow in the figure) by the user's operation. It has a structure that can move (slide) relative to the body 12. Therefore, the housing of this portable terminal device is extendable and retractable, and the upper housing 11 and the lower housing 12 are completely stacked in a compact shape as shown in FIG. 1A by the manual operation of the user. Alternatively, as shown in FIG. 1B, the upper housing 11 may be moved upward to expose the surface of the fixing operation portion 14 of the lower housing 12 (in an extended state).
  • a screen display unit 17 and a transparent touch panel 13 are provided in an overlapping manner, and these are exposed on the surface of the housing.
  • the screen display unit 17 is configured of a liquid crystal display or the like, and can display various visible information such as a two-dimensional image, characters, symbols, and icons.
  • the touch panel 13 can output a signal representing the touched position when touching the surface using a user's finger or a thin pen (stylus) or the like. Further, since the surface of the touch panel 13 overlaps with the screen display unit 17, visible information (variable operation unit) 16 such as various buttons or icons is displayed on the screen display unit 17 as shown in FIG. It is possible to associate each piece of information with the touch position (the user's operation position) on the touch panel 13 by position. That is, when the user touches the surface of the touch panel 13 so as to operate each button or icon displayed on the screen display unit 17, an input operation (depression) on a specific button or icon corresponding to the touched position. Can be treated as Further, since the positions of buttons and icons for displaying the screen display unit 17 and functions to be assigned can be changed as needed, these can be used as a variable operation unit.
  • the fixed operation unit 14 is composed of a large number of physical switches and buttons which are independent for each button, the display (printed contents) of this configuration and each button can not be changed.
  • the user operates the visible information (variable operation unit) 16 displayed on the screen display unit 17 with the touch panel 13 with the terminal casing in a compact shape as shown in FIG. 1A. It is assumed. However, for example, when it is desired to input a sentence at high speed, more efficient input can be performed by using the fixed operation unit 14 to input characters. Therefore, in such a situation, the user changes the shape of the housing as shown in FIG. 1B, switches to the state in which the fixing operation unit 14 is exposed on the surface, and performs the input operation.
  • the user can touch all positions on the screen display unit 17 simply by moving the thumb 15a without moving the hand 15, all visible information (
  • the variable operation unit 16 can be easily operated.
  • FIG. 1B not only the entire area on the screen display unit 17 but also the fixed operation unit 14 becomes an operation target, so that all buttons can not be operated only by moving the thumb 15a.
  • the state of the visible information (variable operation unit) 16 displayed on the screen display unit 17 is switched in accordance with the shape change of the terminal casing. That is, in the example shown in FIG. 1 (a), the visible information (variable operation unit) 16 is arranged evenly over the entire area of the screen display unit 17, while in the example shown in FIG. 1 (b) The information (variable operation unit) 16 is moved to a lower position of the screen display unit 17. Thereby, even in the case of the shape of the case shown in FIG. 1 (b), all visible information (variable operation unit) 16 is in a position close to the fixed operation unit 14, so the user can fix only by moving the thumb 15a. All buttons of the operation unit 14 and the visible information (variable operation unit) 16 can be operated.
  • FIG. 2A shows a hardware configuration
  • FIG. 2B shows a software configuration composed of programs and data executed by the microcomputer (CPU) 19.
  • the portable terminal device is provided with a touch panel 13, a screen display unit 17, a shape change detection sensor 18, a microcomputer 19 and a ten key 20.
  • a touch panel 13 As shown in FIG. 2A, the portable terminal device is provided with a touch panel 13, a screen display unit 17, a shape change detection sensor 18, a microcomputer 19 and a ten key 20.
  • FIG. 2 illustration of elements other than elements related to the input operation is omitted.
  • the touch panel 13 and the screen display unit 17 are disposed in a state of being exposed on the surface of the upper housing 11 as shown in FIG.
  • the shape change detection sensor 18 is a sensor for detecting the difference in relative positional relationship between the upper housing 11 and the lower housing 12 and is shown in the state shown in FIG. 1A and in FIG. 1B. It is possible to identify the difference in shape from the state.
  • the ten-key pad 20 is a physical keyboard corresponding to the fixed operation unit 14 shown in FIG. 1 and is composed of 12 sets of switches and buttons.
  • the microcomputer 19 executes various processes related to the user's input operation by the software having the configuration as shown in FIG. 2 (b). That is, the display content of the screen display unit 17 is changed according to the signal output from the shape change detection sensor 18, or the input signal from the touch panel 13 or the ten key 20 is processed to receive the user's input operation.
  • the software of the program or data executed by the microcomputer 19 is provided with elements of a shape change detection unit 21, a display mode switching unit 22, a screen update unit 23, and an operation detection unit 24 as shown in FIG. 2 (b).
  • the display mode switching unit 22 is provided with a display mode management unit 25, a display mode determination unit 26, and a display screen generation unit 27.
  • the shape change detection unit 21 processes the signal output from the shape change detection sensor 18 and notifies the display mode switching unit 22 of the shape change when the shape of the terminal casing is changed. That is, when the state shown in FIG. 1 (a) is switched to the state shown in FIG. 1 (b) and the state shown in FIG. 1 (b) is changed, and also shown in FIG. Notify when it is switched to the (reduced) state.
  • the display mode switching unit 22 creates a screen of a display mode suitable for the state after the shape of the housing has changed.
  • the display mode management unit 25 manages the shape of the terminal casing and the display mode to be transitioned in association with each other.
  • the display mode determination unit 26 determines the display mode to be transited.
  • the display screen creation unit 27 creates a screen of a display mode to be transited.
  • the screen update unit 23 displays the screen of the content created by the display mode switching unit 22 on the screen display unit 17 in order to update to the screen of the display mode after transition.
  • the operation detection unit 24 processes a signal output from the ten key 20 and a signal output from the touch panel 13 to receive an input operation from the user.
  • the signal output from the touch panel 13 is position information representing the touch position of the finger, so by comparing this position information with the display position of each visible information 16, it is distinguished which visible information 16 has been operated. .
  • Information on the display position of each visible information 16 is updated to the latest display mode contents according to the mode switching of the display mode switching unit 22.
  • the display mode management unit 25 is provided with a display mode management table 28.
  • the display mode management table 28 holds information associating the shape of the terminal casing with the display mode to be transited. That is, as shown in FIG. 1 (a), the state in which the housing is contracted is associated with the “contracted mode”, and the state in which the housing is extended as in FIG. doing.
  • the display screen creation unit 27 includes an extended mode screen creation unit 27a and a reduced mode screen creation unit 27b.
  • the expansion mode screen creation unit 27a creates a screen corresponding to the “extension mode” of the display mode management table 28.
  • the reduced mode screen creation unit 27 b creates a screen corresponding to the “reduced mode” of the display mode management table 28.
  • switchable modes of the visible information (variable operation unit) 16 to be displayed on the screen display unit 17 in addition to the differences between the “expansion mode” and “contraction mode” managed by the display mode management unit 25 described above,
  • the “first mode”, “second mode”, “third mode”, “fourth mode” and “fifth mode” are prepared, and these are any of various combinations as shown in FIG. used.
  • FIG. 5 (a) shows the contents of the basic processing
  • FIG. 5 (b) shows the contents of the processing in more detail.
  • the process which attached the same step number in FIG. 5 (a), (b) represents the same process.
  • step S11 the shape change detection unit 21 monitors a signal output from the shape change detection sensor 18, and checks whether there is a change in shape. If a change in shape is detected, the process proceeds to step S12, and the shape change detection unit 21 contracts the case as shown in FIG. 1A or the case as shown in FIG. 1B. Get shape information to represent.
  • step S13 the display mode switching unit 22 creates a screen of a display mode suitable for the changed shape, using the shape information acquired by the shape change detection unit 21.
  • step S14 the screen updating unit 23 updates the configuration of the visible information (variable operation unit) 16 displayed on the screen display unit 17 with the contents of the new screen created by the display mode switching unit 22 in step S13.
  • step S13 shown in FIG. 5A can be specifically processed in steps S15, S16, and S17 shown in FIG. 5B.
  • step S15 the display mode determination unit 26 of the display mode switching unit 22 searches the display mode management table 28 on the display mode management unit 25 using the shape information acquired from the shape change detection unit 21 as a key.
  • step S16 as a result of the search in step S15, the display mode determination unit 26 acquires information on the display mode of the transition destination from the display mode management table 28.
  • step S17 the display screen creation unit 27 creates a corresponding screen according to the information on the display mode of the transition destination acquired by the display mode determination unit 26 in step S16.
  • FIGS. 6 to 9 Specific examples of the configuration of the visible information (variable operation unit) 16 displayed on the screen display unit 17 in each display mode are shown in FIGS. 6 to 9, respectively.
  • a displayable content such as a Web page is displayed on the screen display unit 17 of the terminal using a Web browser.
  • the display content 30 is displayed in the entire area of the screen display unit 17, and the entire area is assigned as an operation unit that can be operated by the thumb 15a.
  • This screen (reduction 2, reduction 3) is applied to the combination of the “reduction mode” and the “second mode” or the “third mode” shown in FIG.
  • the operable icon 16G is arranged in an area (position near the fixed operation section 14) biased to the lower side of the screen display section 17, and the display content 30 is displayed in other areas. Is displayed. Also, a movable pointer 31 is displayed on the display content 30. That is, by operating the icon 16G, the pointer 31 can be moved and any position on the display content 30 can be clicked.
  • This screen (expansion 2-1) is applied to the combination of the "expansion mode" and the "second mode" shown in FIG.
  • the operable icon 16H is disposed in an area (position near the fixed operation section 14) biased to the lower side of the screen display section 17, and the display content is displayed in the other areas 30 is displayed.
  • a movable pointer 31 is displayed on the display content 30. That is, the pointer 31 can be moved by operating the icon 16H, and an arbitrary position on the display content 30 can be clicked.
  • This screen (expansion 2-2) is applied to the combination of the "expansion mode" and the "second mode" shown in FIG.
  • the operable icon 16 J is arranged in an area (position near the fixed operation unit 14) biased to the lower side of the screen display unit 17, and the display content 30 is displayed in other areas. ing.
  • a function of an input operation for scrolling the content of the display content 30 displayed on the screen display unit 17 in the vertical direction on the screen is assigned.
  • This screen (expansion 3) is applied to the combination of the "expansion mode” and the "third mode” shown in FIG.
  • the input message display unit 32 is disposed in the upper one-third area of the screen display unit 17, the conversion candidate display unit 16N is disposed in the central part,
  • the virtual keyboard 16M is disposed at a position near the fixed operation unit 14).
  • the virtual keyboard 16M has twelve operable icons suitable for character input.
  • the conversion candidate display unit 16N displays a character string of a conversion candidate for a character or character string input by an operation of the virtual keyboard 16M or the like, and detects a touch with a finger or the like at a position where each candidate character string is displayed.
  • the candidate is considered to be selected by the user.
  • This screen (reduction 4, reduction 5) is applied to the combination of the “reduction mode” and the “fourth mode” or the “fifth mode” shown in FIG.
  • the virtual keyboard 16M in FIG. 9A is erased from the screen, and an area where the conversion candidate display unit 16N is biased downward in the screen display unit 17 (fixed operation unit 14), and the input message display unit 32 is arranged in the other area.
  • This screen (stretch 4) is applied to the combination of the "stretch mode" and the "fourth mode” shown in FIG. That is, since it is assumed that the housing is extended and character input is performed by the fixed operation unit 14, the virtual keyboard 16M is unnecessary, and the conversion candidate display unit 16N is moved within the movable range of the thumb 15a. This improves operability.
  • the shape of the terminal casing changes in the longitudinal direction so as to expand and contract in the longitudinal direction.
  • other changes in shape for example, the shape change due to rotation, etc. it can. That is, it is important to move the operation target button or the like which is frequently operated in accordance with the change of the shape within a range where the thumb 15a can reach.
  • control is assumed using a computer and software including programs and data executed by the computer, but it is also possible to configure only with dedicated hardware to which the same control function is assigned. it can.
  • FIG. 10 is a block diagram showing an example of the configuration of the main part of the software of the mobile terminal device in the second embodiment.
  • FIG. 11 is a block diagram showing an internal configuration of the display screen creation unit shown in FIG.
  • FIG. 12 is a schematic view showing a specific example of a display mode management table provided in the mobile terminal device shown in FIG.
  • FIG. 13 is a flow chart showing an operation regarding display in the portable terminal shown in FIG.
  • the second embodiment is a modification of the first embodiment. Further, in FIG. 10 to FIG. 13, elements or steps corresponding to those of the first embodiment are shown with the same reference numerals or numerals. The configuration and operation specific to the second embodiment will be described below.
  • the hardware of the portable terminal device is assumed to have the same configuration as that of FIG. 2 (a) described above.
  • the configuration of software in the second embodiment is shown in FIG.
  • a terminal state management unit 29 is added to the display mode switching unit 22 in the second embodiment.
  • the terminal state management unit 29 performs processing for grasping the operation state of the terminal. Specifically, the difference in the operating state of the terminal is grasped by distinguishing the type of application program being executed by the microcomputer 19 controlling this terminal.
  • an extended 1 mode screen creating unit, an extended 2 mode screen creating unit, an extended 3 mode screen creating unit, and an extended X mode screen created in the display screen creating unit 27 A part,..., A reduced 1 mode screen creating part, a reduced 2 mode screen creating part, a reduced 3 mode screen creating part, a reduced X mode screen creating part,. These are provided to create a screen of each mode.
  • a display mode management table 28B as shown in FIG. 12, in the display mode management table 28B, the distinction of the state of the terminal (A, B, C representing the difference in the operating application program) and the difference in the terminal shape (expansion / contraction), Information representing the correspondence relationship with the transition display mode is registered in association with each other.
  • the “1st expansion mode”, the “2nd expansion mode”, and the “4th expansion mode” of the display modes in the display mode management table 28B shown in FIG. 12 are, for example, the “first mode” and the “second mode” shown in FIG.
  • the “reduced mode 1”, “reduced mode 2”, and “reduced mode 4” correspond to a combination of the “fourth mode” and the “stretch mode”, for example, the “first mode” shown in FIG. It corresponds to the combination of the 2 mode, the 4th mode and the reduced mode.
  • the display mode management table 28B shown in FIG. 12 is used, for example, if the application program operating on the terminal is a web browser and the terminal shape detected by the shape change detection unit 21 is "stretch", Transition to the 2 mode display mode.
  • steps S21 and S22 are different from the contents of FIG. That is, in step S21, the display mode determination unit 26 acquires, from the terminal state management unit 29, terminal state information indicating the operation state of the terminal (difference in application program). In step S22, the display mode determination unit 26 searches the display mode management table 28B using the terminal state information acquired in step S21 and the shape change information acquired in step S12 as keys. This search result is used in the next step S16.
  • the screen display unit is adapted not only to adapt to changes in the shape of the terminal housing but also to enable more efficient input operation in response to differences in operating application programs.
  • the position, size, number, and the like of the operable visible information (variable operation unit) 16 on the screen 17 can be switched automatically.
  • the portable terminal device, the display control method, and the display control program according to the present invention are portable terminals such as a portable telephone terminal, a portable information terminal, and a portable music player, for example.
  • portable terminals such as a portable telephone terminal, a portable information terminal, and a portable music player, for example.
  • a device that has a body and a touch panel, and has a variable operation unit (a changeable operation unit on the touch panel) and a fixed operation unit (such as a physically existing numeric keypad) Help.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Telephone Set Structure (AREA)

Abstract

 タッチパネルと固定操作部との両方を搭載した端末を操作する場合にユーザが端末を持った片手の1本の指を動かすだけで操作対象の全てのボタン等を操作可能な操作性の良い携帯端末装置を提供する。  可動部を有する筐体11、12を備え、操作対象部位を表す可視情報を表示可能な表示部17と、この表示面上でユーザの指等の接触位置を検出するタッチセンサ13とを備えた携帯端末装置であって、前記筐体の形状の変化を検出する形状検出部と、前記タッチセンサの検出位置と前記表示部上に表示される各可視情報の操作対象部位とを互いに関連付けて管理する入力操作管理部と、前記表示部に表示する操作対象の各可視情報について、少なくとも表示位置を前記形状検出部が検出した前記筐体の形状変化に応じて自動的に変更する表示制御部とを設けた。

Description

携帯端末装置及び表示制御方法並びに表示制御プログラム
 本発明は、変形が可能な筐体と入力操作用のタッチパネルを備える携帯端末装置及びそれを制御するための表示制御方法並びに表示制御プログラムに関する。
 例えば、携帯電話端末や携帯型情報端末(PDA)などの機器においては、入力操作用のタッチパネルを搭載したものが増えている。この種のタッチパネルは、表示画面と重ねて配置されたタッチセンサを備えている。ユーザが自分の指や先の尖ったペン(スタイラス)を用いて表示画面に接触すると、タッチセンサが接触位置を検出し、この位置と画面上に表示されているボタンやアイコンの位置とを比較することにより、ユーザが画面上のボタンやアイコンを操作したかどうかを判断する。
 このようなタッチパネルを採用することにより、物理的な多数のスイッチやボタンにより構成されるキーボードなどの搭載を省略することも可能になる。また、画面上に表示するボタンやアイコンの数、形状、レイアウトなどを必要に応じて変更できるので自由度が高くなる。
 タッチパネルを用いた携帯端末の従来技術については、例えば特許文献1に開示されたものが知られている。
 また、携帯電話端末等においては持ち運びの際には比較的小さくなり、使用時には使いやすい大きさになるように折り畳み可能な構造であったり、変形が可能な構造の筐体を用いる場合が多い。
 例えば、特許文献2には、筐体を構成する2つの部材を重ね合わせた状態で配置すると共に、前記2つの部材が相対的に移動(スライド)するように構成し、筐体の伸縮変形を可能にすることが開示されている。
 ところで、タッチパネルを用いた携帯端末であっても、実際にはタッチパネル以外に物理的な多数のスイッチやボタンにより構成される操作部(以下、固定操作部と呼ぶ)も備える場合が多いのが実情である。すなわち、タッチパネルに表示可能なボタンの数に制約があったり、タッチパネルに表示可能なボタンの大きさが小さくなる場合もあるので、例えば文章を作成する場合のように入力の操作性が重要な状況では、タッチパネルよりも多数のボタンで構成されるキーボードのような固定操作部を用いる方がユーザにとって使いやすい。
 しかし、タッチパネルと固定操作部との両方を搭載すると端末が大型化してしまう。そこで、既に市販されているいくつかの携帯端末の製品においては、特許文献2に開示されているようなスライド型の筐体を採用しており、ユーザが筐体を伸縮するように変形させることにより、固定操作部を端末の内側に収納した状態と、固定操作部が端末の表面に露出した状態とのいずれでも使用できるように構成してある。
特開2002-268776号公報 特開2006-314128号公報
 ところで、例えば携帯電話端末を操作する場合には、この携帯電話端末をユーザが片手で持ち、同じ手の親指を動かしながら端末上の操作部の各ボタン等を操作するのが一般的である。前述のようなタッチパネルを搭載した携帯端末を操作する場合にも、この端末をユーザが片手で持ち、同じ手の親指を動かしながら端末上のタッチパネル上に表示された各ボタン等を操作するのが望ましい操作であると考えることができる。すなわち、1本の親指を動かすだけの操作では、それぞれのボタンの位置をユーザが感覚的に覚えているので、慣れたユーザであればボタンを見る必要もなく、直感的に高速な入力操作を行うことができる。
 しかし、操作対象のボタンの数が非常に多く、これらが比較的広い範囲に配置されているような場合には、ユーザが端末を片手で持ち、1本の親指を動かすだけで全てのボタンを操作するのは困難である。例えば、操作部としてタッチパネルと固定操作部の両方を搭載した端末を操作する場合に、固定操作部が表面に露出するように端末の筐体の形状を変えて、固定操作部とタッチパネルの両方を同時に操作しようとすると、親指の付け根からの距離が遠い位置にも操作対象のボタンが存在するので、親指を動かすだけでは全てのボタンを操作できない。その結果、ユーザは両手を使って端末を操作したり、端末を持つ手を持ち替えるか、もしくは手の位置をずらしながら操作することになるので、操作性がよいとは言えない。
 本発明は、タッチパネルと固定操作部との両方を搭載した端末を操作する場合に、ユーザが端末を持った片手の1本の指を動かすだけで操作対象の全てのボタン等を操作可能な操作性の良い携帯端末装置を提供することを目的とする。
 本発明に係る上記目的は、下記構成により達成される。
 本発明の携帯端末装置の一形態は、
 少なくとも2種類の状態に形状を変更するための可動部を有する筐体を備え、操作対象部位を表す任意の可視情報を表示可能な表示部と、前記表示部の表示面上でユーザの指等の接触位置を検出するタッチセンサとを備えた携帯端末装置であって、
 前記筐体の形状の変化を検出する形状検出部と、
 前記タッチセンサの検出位置と前記表示部上に表示される各可視情報の操作対象部位とを互いに関連付けて管理する入力操作管理部と、
 前記表示部に表示する操作対象の各可視情報について、少なくとも表示位置を前記形状検出部が検出した前記筐体の形状変化に応じて自動的に変更する表示制御部と
 を設けたことを特徴とする。
 この携帯端末装置によれば、前記表示部に表示する操作対象の各可視情報の表示位置などを、前記形状検出部が検出した前記筐体の形状変化に応じて前記表示制御部が自動的に変更するので、ユーザの実際の使用状況に適応するように表示を制御し、操作性を改善することができる。例えば、固定操作部が露出するようにユーザが筐体の形状を変化させ、前記固定操作部上の操作ボタンと、前記表示部の各部に表示される仮想ボタン(可視情報)との双方を操作対象とする場合には、前述のように1本の指を動かすだけでは届かない遠い位置のボタンも存在するため、操作性が低下する。そこで、前記固定操作部が露出した状態では、前記表示部に表示する仮想ボタン(可視情報)の位置を前記固定操作部に近づけるように移動すれば、前記固定操作部上の操作ボタンと前記表示部上の仮想ボタンの全てを指の移動可能な範囲内に配置することができ、操作性が改善される。
 また、本発明の携帯端末装置の一形態は、
 前記筐体として、スライドもしくは回転により互いに相対的に移動可能な上部筐体と下部筐体とを備え、
 前記上部筐体に前記表示部及び前記タッチセンサを搭載し、
 前記下部筐体にユーザが操作可能な物理的に位置が固定された複数のボタンを含む固定操作部を搭載し、
 前記表示制御部は、前記筐体の形状変化によって前記固定操作部が表面に露出した状態になったことを前記形状検出部が検出した場合には、前記表示部に表示される操作対象の各可視情報の表示位置を、前記表示部の全表示領域の中で前記固定操作部に近い位置に優先的に移動する
 ことを特徴とする。
 この携帯端末装置によれば、前記筐体の形状を変更することにより、前記固定操作部を筐体内に収納したり、筐体の表面に露出させてユーザが操作できる状態にすることができる。また、前記固定操作部が筐体の表面に露出した状態では、前記表示部の各部に表示される仮想ボタン(可視情報)と前記固定操作部上の操作ボタンとの双方がユーザの操作対象となるが、前記表示制御部の制御により、前記表示部に表示する仮想ボタン(可視情報)の位置を前記固定操作部に近づけるように移動すれば、前記固定操作部上の操作ボタンと前記表示部上の仮想ボタンの全てを指の移動可能な範囲内に配置することができ、操作性が改善される。
 また、本発明の携帯端末装置の一形態は、
 前記表示制御部は、前記筐体の形状変化によって前記固定操作部が表面に露出した状態になったことを前記形状検出部が検出した場合には、前記表示部に表示される操作対象の各可視情報を、所定の標準状態に比べて大きさを縮小した状態で移動先の位置に再表示する
 ことを特徴とする。
 この携帯端末装置によれば、前記表示部に表示する仮想ボタン(可視情報)の表示サイズを縮小することにより、比較的狭い領域の中に多数のボタンを配置することが可能になる。従って、前記固定操作部が表面に露出した状態であっても、前記表示部上の仮想ボタンの数を減らすことなく全ての仮想ボタンをユーザの指が届く範囲内に配置することが可能になる。
 また、本発明の携帯端末装置の一形態は、
 前記表示制御部は、前記筐体の形状変化によって前記固定操作部が表面に露出した状態になったことを前記形状検出部が検出した場合には、前記表示部に表示される操作対象の各可視情報のうち、表示可能な一部の可視情報だけを移動先の位置に再表示し、表示をスクロールするための入力操作に従って、移動先に表示する可視情報を切り替える
 ことを特徴とする。
 この携帯端末装置によれば、移動先の比較的狭い領域の中に再表示する仮想ボタン(可視情報)の数を減らすので、各仮想ボタンのサイズを縮小する必要がなくなり、太い指でもそれぞれのボタンを確実にタッチすることが可能になる。また、再表示する仮想ボタンを表示のスクロール操作に従って切り替えるので、移動前と同様にユーザは全ての仮想ボタンを操作対象にすることができる。
 また、本発明の携帯端末装置の一形態は、
 前記表示制御部は、前記筐体の形状変化によって前記固定操作部が表面に露出した状態になったことを前記形状検出部が検出した場合には、前記表示部に表示されるコンテンツ上のオブジェクトに対する操作対象位置を表すポインタを前記表示部に表示し、更に前記ポインタの表示位置の移動を指示するための機能が割り当てられた操作対象の可視情報を前記固定操作部に近い位置に表示する
 ことを特徴とする。
 この携帯端末装置によれば、例えばWebブラウザによって表示されるWebページのように表示されるコンテンツ上の全領域に操作対象のオブジェクト(ボタンなど)が存在する場合であっても、指が届く範囲内の仮想ボタン(可視情報)を操作するだけで、それぞれのオブジェクトを操作することが可能になる。すなわち、指に近い位置に表示される仮想ボタンを操作して前記ポインタを任意の位置に移動して、コンテンツ上のそれぞれのオブジェクトを操作できる。
 また、本発明の携帯端末装置の一形態は、
 前記表示制御部は、前記可視情報の集合として、複数の文字のそれぞれに対応付けられた複数の表示ボタンで構成される仮想キーボードと、入力された文字に対する変換候補が表示される候補表示部とを前記表示部に表示する機能を有し、前記筐体の形状変化によって前記固定操作部が表面に露出した状態になったことを前記形状検出部が検出した場合には、前記仮想キーボードの表示を消去し、前記候補表示部のみを前記表示部の全表示領域の中で前記固定操作部に近い移動先の位置に再表示する
 ことを特徴とする。
 この携帯端末装置によれば、前記表示部に前記仮想キーボードを表示することにより、固定操作部を使うことなく文章等の入力を容易に行うことができる。また、筐体の形状変化により固定操作部が露出しこれが使用できる状況では、前記仮想キーボードの表示を消去して、前記候補表示部のみを前記固定操作部に近い移動先の位置に再表示するので、ユーザの指が届く範囲内に、前記固定操作部と前記候補表示部を配置することができる。
 また、本発明の携帯端末装置の一形態は、
 前記表示制御部は、前記可視情報の集合として、複数の文字のそれぞれに対応付けられた複数の表示ボタンで構成される仮想キーボードを前記表示部に表示する機能を有し、前記筐体の形状変化によって前記固定操作部が表面に露出した状態になったことを前記形状検出部が検出した場合には、前記仮想キーボードに含まれる各表示ボタンに割り当てる文字を所定の標準状態とは異なる内容に自動的に切り替える
 ことを特徴とする。
 この携帯端末装置によれば、前記表示部に前記仮想キーボードを表示することにより、固定操作部を使うことなく文章等の入力を容易に行うことができる。また、筐体の形状変化により固定操作部が露出しこれが使用できる状況では、前記固定操作部の各ボタンに割り当てられている文字以外の特殊文字や記号などの仮想ボタンを前記仮想キーボードに割り当てるように切り替えることもできるので、操作性を改善するのに役立つ。
 また、本発明の携帯端末装置の一形態は、
 動作中のアプリケーションプログラムの種別を検出する動作状態検出部を更に備え、
 前記表示制御部は、前記可視情報の集合として前記表示部に表示される可変操作部の構成を前記動作状態検出部の検出結果に応じて自動的に切り替える
 ことを特徴とする。
 この携帯端末装置によれば、端末の実際の使用状況に適合するように、前記可変操作部の構成を最適化することが可能になる。例えば、Webブラウザのアプリケーションプログラムを使用している状況においては、このブラウザの上に表示されるコンテンツ上の様々な箇所をクリックする頻度が高いので、移動可能なカーソルを表示したり、このカーソルを移動するための操作ボタンを容易に操作できることが望ましい。また、例えばテキストエディタのようなアプリケーションプログラムを使用している状況においては、文章の入力に適した仮想キーボードを表示して、文字列の入力を容易にすることが望ましい。
 本発明の表示制御方法の一形態は、
 少なくとも2種類の状態に形状を変更するための可動部を有する筐体を備え、操作対象部位を表す任意の可視情報を表示可能な表示部と、前記表示部の表示面上でユーザの指等の接触位置を検出するタッチセンサとを備えた携帯端末の表示を制御するための表示制御方法であって、
 前記タッチセンサの検出位置と前記表示部上に表示される各可視情報の操作対象部位とを互いに関連付けて管理し、
 前記表示部に表示する操作対象の各可視情報について、少なくとも表示位置を前記筐体の形状変化に応じて自動的に変更する
 ことを特徴とする。
 この表示制御方法によれば、前記表示部に表示する操作対象の各可視情報の表示位置などを、検出した筐体の形状変化に応じて自動的に変更するので、ユーザの実際の使用状況に適応するように表示を制御し、操作性を改善することができる。
 本発明の表示制御プログラムの一形態は、
 少なくとも2種類の状態に形状を変更するための可動部を有する筐体を備え、操作対象部位を表す任意の可視情報を表示可能な表示部と、前記表示部の表示面上でユーザの指等の接触位置を検出するタッチセンサとを備えた携帯端末の表示を制御するためのコンピュータで実行可能な表示制御プログラムであって、
 前記タッチセンサの検出位置と前記表示部上に表示される各可視情報の操作対象部位とを互いに関連付けて管理するステップと、
 前記表示部に表示する操作対象の各可視情報について、少なくとも表示位置を前記筐体の形状変化に応じて自動的に変更するステップと
 を設けたことを特徴とする。
 この表示制御プログラムを制御用のコンピュータで実行することにより、前述の携帯端末装置と同様に、ユーザの実際の使用状況に適応するように表示を制御し、操作性を改善することができる。
 本発明によれば、タッチパネルと固定操作部との両方を搭載した端末を操作する場合に、ユーザが端末を持った片手の1本の指を動かすだけで操作対象の全てのボタン等を操作可能な操作性の良い携帯端末装置を提供できる。
第1の実施の形態における携帯端末装置の外観の具体例を表す正面図である。 図1に示した携帯端末装置のハードウェア及びソフトウェアの主要部の構成例を示すブロック図である。 図2に示した表示画面作成部及び表示モード管理部の内部の構成を示すブロック図である。 図1に示した携帯端末装置における筐体の形状変化と利用可能な動作モードとの対応関係の具体例を表す模式図である。 図1に示した携帯端末装置における表示に関する動作を表すフローチャートである。 図1に示した携帯端末装置の画面に関する表示内容の具体例(1)を示す正面図である。 図1に示した携帯端末装置の画面に関する表示内容の具体例(2)を示す正面図である。 図1に示した携帯端末装置の画面に関する表示内容の具体例(3)を示す正面図である。 図1に示した携帯端末装置の画面に関する表示内容の具体例(4)を示す正面図である。 第2の実施の形態における携帯端末装置のソフトウェアの主要部の構成例を示すブロック図である。 図10に示した表示画面作成部の内部構成を表すブロック図である。 図10に示した携帯端末装置に備わった表示モード管理テーブルの具体例を示す模式図である。 図10に示した携帯端末装置における表示に関する動作を表すフローチャートである。
符号の説明
 11 上部筐体
 12 下部筐体
 13 タッチパネル
 14 固定操作部
 15 ユーザの手
 15a 親指
 16 可視情報(可変操作部)
 16A,16B,16C,16D,16E,16G,16H,16J アイコン
 16M,16P 仮想キーボード
 16N 変換候補表示部
 17 画面表示部
 18 形状変化検知センサ
 19 マイクロコンピュータ
 20 テンキー
 21 形状変化検知部
 22 表示モード切替部
 23 画面更新部
 24 操作検出部
 25 表示モード管理部
 26 表示モード決定部
 27 表示画面作成部
 27a 伸モード画面作成部
 27b 縮モード画面作成部
 28,28B 表示モード管理テーブル
 29 端末状態管理部
 30 表示コンテンツ
 31 ポインタ
 32 入力メッセージ表示部
 (第1の実施の形態)
 本発明の携帯端末装置及び表示制御方法並びに表示制御プログラムに関する1つの具体的な実施の形態について、図1~図9を参照しながら以下に説明する。
 図1は第1の実施の形態における携帯端末装置の外観の具体例を表す正面図である。図2は図1に示した携帯端末装置のハードウェア及びソフトウェアの主要部の構成例を示すブロック図である。図3は図2に示した表示画面作成部及び表示モード管理部の内部の構成を示すブロック図である。図4は図1に示した携帯端末装置における筐体の形状変化と利用可能な動作モードとの対応関係の具体例を表す模式図である。図5は図1に示した携帯端末装置における表示に関する動作を表すフローチャートである。図6~図9は、それぞれ図1に示した携帯端末装置の画面に関する表示内容の具体例を示す正面図である。
 本実施の形態では、図1に示すような外観の携帯端末装置に本発明を適用する場合を想定している。本発明を適用する現実的な携帯端末装置としては、例えば携帯電話端末や携帯型情報端末(PDA)などが想定される。
 図1に示す携帯端末装置の筐体は、形状を変更可能な構造になっている。すなわち、図1(b)に示すように互いに独立した上部筐体11と下部筐体12とを備えており、ユーザの操作により長手方向(図中矢印の方向)に上部筐体11と下部筐体12とが相対的に移動(スライド)可能な構造になっている。従って、この携帯端末装置の筐体は伸縮自在であり、ユーザの手動操作により図1(a)に示すように上部筐体11と下部筐体12とを完全に重ねてコンパクトな形状にすることもできるし、図1(b)に示すように上部筐体11を上側に移動して下部筐体12の固定操作部14が表面に露出する状態(伸ばした状態)にすることもできる。
 この携帯端末装置には、図1に示すように画面表示部17と透明なタッチパネル13とを互いに重ねた状態で設けてあり、これらは筐体の表面に露出している。画面表示部17は、液晶表示器などで構成されており、二次元画像や文字、記号、アイコンなど様々な可視情報を表示することができる。
 タッチパネル13は、ユーザの指や先の細いペン(スタイラス)などを用いて面に触れると、その触れた位置を表す信号を出力することができる。また、タッチパネル13の面は画面表示部17と重なっているので、図1のように画面表示部17に様々なボタンやアイコンのような可視情報(可変操作部)16を表示し、これらの可視情報のそれぞれとタッチパネル13上の接触位置(ユーザの操作位置)とを位置により関連付けることができる。つまり、画面表示部17上に表示されている各ボタンやアイコンを操作するようにユーザがタッチパネル13の面に触れると、触れた位置と対応関係にある特定のボタンやアイコンに対する入力操作(押下)として処理することができる。また、画面表示部17を表示するボタンやアイコンの位置や割り当てる機能などは必要に応じて変更できるので、これらを可変操作部として利用できる。
 一方、固定操作部14はボタン毎にそれぞれ独立した多数の物理的なスイッチとボタンとで構成されているので、この構成や各ボタンの表示(印刷内容)は変更できない。
 通常の操作においては、ユーザは図1(a)に示すように端末の筐体をコンパクトな形状にして、画面表示部17に表示される可視情報(可変操作部)16をタッチパネル13により操作することが想定される。しかし、例えば文章を高速で入力したいような場合には、固定操作部14を使って文字の入力を行う方が効率の良い入力ができる。従って、そのような状況においては、ユーザは図1(b)に示すように筐体の形状を変更し、固定操作部14が表面に露出する状態に切り替えて入力操作を行うことになる。
 ところで、図1(a)に示すような状態においては、ユーザは手15を動かさなくても親指15aを動かすだけで画面表示部17上の全ての位置に触れることができ、全ての可視情報(可変操作部)16を容易に操作できる。しかし、図1(b)に示すように画面表示部17上の全領域だけでなく、固定操作部14も操作対象になるので、親指15aを動かすだけでは全てのボタンを操作できない。例えば、図1(b)に示す領域13aの位置に触れるためには、ユーザの手15と筐体との位置関係をずらしたり、両手を使って操作する必要があるので、操作性が悪化する。
 そこで、本実施の形態では、端末の筐体の形状変化に合わせて、画面表示部17に表示する可視情報(可変操作部)16の状態を切り替える。すなわち、図1(a)に示す例では画面表示部17の全領域に渡って均等に可視情報(可変操作部)16を配置しているのに対し、図1(b)に示す例では可視情報(可変操作部)16を画面表示部17の下側に偏った位置に移動している。これにより、図1(b)に示す筐体の形状であっても、全ての可視情報(可変操作部)16が固定操作部14と近い位置にあるため、ユーザは親指15aを動かすだけで固定操作部14及び可視情報(可変操作部)16の全てのボタンを操作可能になる。
 図1に示した携帯端末装置の構成例が図2に示されている。図2(a)はハードウェアの構成を表しており、図2(b)はマイクロコンピュータ(CPU)19が実行するプログラムやデータで構成されるソフトウェアの構成を表している。
 図2(a)に示すように、この携帯端末装置にはタッチパネル13、画面表示部17、形状変化検知センサ18、マイクロコンピュータ19及びテンキー20が備わっている。なお、図2では入力操作と関連がある要素以外の図示は省略してある。
 タッチパネル13及び画面表示部17は、図1に示したように上部筐体11の表面に露出した状態で配置されている。形状変化検知センサ18は、上部筐体11と下部筐体12との相対的な位置関係の違いを検出するためのセンサであり、図1(a)に示す状態と図1(b)に示す状態との形状の違いを識別することができる。テンキー20は、図1に示した固定操作部14に相当する物理的なキーボードであり、12組のスイッチ及びボタンで構成されている。
 マイクロコンピュータ19は、図2(b)に示すような構成のソフトウェアにより、ユーザの入力操作に関する様々な処理を実施する。すなわち、形状変化検知センサ18の出力する信号に従って画面表示部17の表示内容を変更したり、タッチパネル13又はテンキー20からの入力信号を処理してユーザの入力操作を受け付けるための処理を行う。
 マイクロコンピュータ19が実行するプログラムやデータのソフトウェアについては、図2(b)に示すように形状変化検知部21、表示モード切替部22、画面更新部23及び操作検出部24の要素が備わっており、表示モード切替部22には表示モード管理部25、表示モード決定部26及び表示画面作成部27が設けてある。
 形状変化検知部21は、形状変化検知センサ18が出力する信号を処理し、端末の筐体の形状が変化した場合にその形状変化を表示モード切替部22に通知する。つまり、図1(a)に示す(縮)状態から図1(b)に示す(伸)状態に切り替わった場合、並びに図1(b)に示す(伸)状態から図1(a)に示す(縮)状態に切り替わった場合にそれを通知する。
 表示モード切替部22は、筐体の形状が変化した後の状態に適した表示モードの画面を作成する。表示モード管理部25は、端末の筐体の形状と遷移させる表示モードとを対応付けて管理する。表示モード決定部26は、遷移させる表示モードを決定する。表示画面作成部27は、遷移させる表示モードの画面を作成する。
 画面更新部23は、遷移後の表示モードの画面に更新するために、表示モード切替部22が作成した内容の画面を画面表示部17に表示する。
 操作検出部24は、テンキー20から出力される信号及びタッチパネル13から出力される信号を処理して、ユーザからの入力操作を受け付ける。タッチパネル13から出力される信号については、指の接触位置を表す位置情報なので、この位置情報と各可視情報16の表示位置とを比較することにより、どの可視情報16が操作されたのかを区別する。各可視情報16の表示位置に関する情報については、表示モード切替部22のモード切替に従って最新の表示モードの内容に更新される。
 図3(b)に示すように、表示モード管理部25には、表示モード管理テーブル28が備わっている。この表示モード管理テーブル28は、端末の筐体の形状と遷移させる表示モードとを対応付ける情報を保持している。すなわち、図1(a)のように筐体を縮めた状態と「縮モード」とを関連付け、図1(b)のように筐体を伸ばした状態と「伸モード」とを関連付ける情報を保持している。
 表示画面作成部27には、図3(a)に示すように伸モード画面作成部27aと縮モード画面作成部27bとが備わっている。伸モード画面作成部27aは、表示モード管理テーブル28の「伸モード」に対応する画面を作成する。縮モード画面作成部27bは、表示モード管理テーブル28の「縮モード」に対応する画面を作成する。
 画面表示部17に表示する可視情報(可変操作部)16の切り替え可能なモードに関しては、前述の表示モード管理部25が管理している「伸モード」、「縮モード」の違いの他に、「第1モード」、「第2モード」、「第3モード」、「第4モード」、「第5モード」が用意してあり、これらは図4に示すような様々な組み合わせのいずれかで使用される。
 図1に示した携帯端末装置の可視情報(可変操作部)16の表示切り替えに関するマイクロコンピュータ19の処理の内容が図5に示されている。なお、図5(a)は基本的な処理の内容を表しており、図5(b)はより詳細な処理の内容を表している。また、図5(a)、(b)の中で同じステップ番号を付けた処理は同一の処理を表している。
 まず、図5(a)に示す処理について説明する。ステップS11では、形状変化検知部21が形状変化検知センサ18の出力する信号を監視し、形状の変化の有無を調べる。形状の変化が検出されるとステップS12に進み、形状変化検知部21は図1(a)のように筐体を縮めた状態、又は図1(b)のように筐体を伸ばした状態を表す形状情報を取得する。
 ステップS13では、表示モード切替部22は形状変化検知部21が取得した形状情報を用いて、変化後の形状に適した表示モードの画面を作成する。
 ステップS14では、画面更新部23は画面表示部17に表示する可視情報(可変操作部)16の構成をステップS13で表示モード切替部22が作成した新しい画面の内容に更新する。
 図5(a)に示すステップS13の内容については、具体的には図5(b)に示すステップS15、S16、S17で処理することができる。
 ステップS15では、表示モード切替部22の表示モード決定部26が、形状変化検知部21から取得した形状情報をキーとして用い、表示モード管理部25上の表示モード管理テーブル28を検索する。
 ステップS16では、ステップS15の検索の結果として、表示モード決定部26は表示モード管理テーブル28から遷移先の表示モードの情報を取得する。
 ステップS17では、表示画面作成部27はステップS16で表示モード決定部26が取得した遷移先の表示モードの情報に従って、該当する画面を作成する。
 各表示モードで画面表示部17に表示される可視情報(可変操作部)16の構成に関する具体例が図6~図9にそれぞれ示されている。
 まず、図6に示す画面の構成例について説明する。
 図6(a)に示す画面では、12個の独立したアイコン16Aが画面表示部17の全体の領域の中に均等に配置されている。この画面(縮1)は、図4に示す「縮モード」と「第1モード」の組み合わせに対して適用される。
 一方、図6(b)に示す画面では、12個の独立したアイコン16Bが画面表示部17の下側に偏った領域(固定操作部14に近い位置)のみに、図6(a)と比べてサイズを縮小した状態で配置されている。この画面(伸1-1)は、図4に示す「伸モード」と「第1モード」の組み合わせに対して適用される。
 また、図6(c)に示す画面では、12個のアイコンの中から選択された3個のアイコン16Cと、左右のスクロールボタン16D、16Eと、スライダー16Fとが画面表示部17の下側に偏った領域(固定操作部14に近い位置)のみに、図6(a)と同じサイズで配置されている。スクロールボタン16D、16E又はスライダー16Fの操作により表示される3個のアイコン16Cが他のアイコンに切り替わる。この画面(伸1-2)は、図4に示す「伸モード」と「第1モード」の組み合わせに対して適用される。
 例えば、様々なアプリケーションプログラムを起動するためのメニューランチャーとして画面表示部17を使用するような場合には、通常は図6(a)に示す画面のように、比較的サイズの大きいアイコン16Aを画面表示部17の全体に均等に配置することで好ましい操作性が得られる。しかし、図1(b)に示すように筐体を伸ばした状態では、画面表示部17の上側には親指15aが容易に届かないので、図6(b)に示すように画面表示部17の下側に偏った領域にアイコン16Bを縮小して配置することにより、操作性を改善できる。また、縮小したアイコンは操作性の低下を招くので、図6(c)に示すように一部のアイコン16Cだけを等倍サイズで表示すると共にスクロールによる表示切り替えを可能にすることで操作性を改善できる。
 図7に示す例では、Webブラウザを用いてWebページのような表示可能なコンテンツを端末の画面表示部17に表示する場合を想定している。
 図7(a)に示す画面では、画面表示部17の全体の領域に表示コンテンツ30を表示すると共に、全体の領域が親指15aで操作可能な操作部として割り当てられている。この画面(縮2、縮3)は、図4に示す「縮モード」と「第2モード」又は「第3モード」の組み合わせに対して適用される。
 一方、図7(b)に示す画面では、操作可能なアイコン16Gが画面表示部17の下側に偏った領域(固定操作部14に近い位置)に配置され、これ以外の領域に表示コンテンツ30が表示されている。また、表示コンテンツ30上に移動可能なポインタ31が表示されている。つまり、アイコン16Gを操作することによりポインタ31を移動し、表示コンテンツ30上の任意の位置をクリックすることができる。この画面(伸2-1)は、図4に示す「伸モード」と「第2モード」の組み合わせに対して適用される。
 同様に、図7(c)に示す画面では、操作可能なアイコン16Hが画面表示部17の下側に偏った領域(固定操作部14に近い位置)に配置され、これ以外の領域に表示コンテンツ30が表示されている。また、表示コンテンツ30上に移動可能なポインタ31が表示されている。つまり、アイコン16Hを操作することによりポインタ31を移動し、表示コンテンツ30上の任意の位置をクリックすることができる。この画面(伸2-2)は、図4に示す「伸モード」と「第2モード」の組み合わせに対して適用される。
 一方、図8に示す画面では、操作可能なアイコン16Jが画面表示部17の下側に偏った領域(固定操作部14に近い位置)に配置され、これ以外の領域に表示コンテンツ30が表示されている。このアイコン16Jには、画面表示部17に表示された表示コンテンツ30の内容をこの画面上で上下方向にスクロールするための入力操作の機能が割り当てられている。この画面(伸3)は、図4に示す「伸モード」と「第3モード」の組み合わせに対して適用される。
 図9に示す例では、テキストエディタなどのアプリケーションプログラムを用いて、ユーザが文章などのメッセージを入力する場合を想定している。
 図9(a)に示す画面では、画面表示部17の上側1/3の領域に入力メッセージ表示部32を配置し、中央部に変換候補表示部16Nを配置し、下側に偏った領域(固定操作部14に近い位置)に仮想キーボード16Mが配置してある。仮想キーボード16Mは文字の入力に適した12個の操作可能なアイコンを備えている。変換候補表示部16Nは、仮想キーボード16M等の操作によって入力された文字又は文字列に対する変換候補の文字列を表示すると共に、それぞれの候補文字列を表示した位置で指等の接触を検出した場合にその候補をユーザが選択したものとみなす。この画面(縮4、縮5)は、図4に示す「縮モード」と「第4モード」又は「第5モード」の組み合わせに対して適用される。
 一方、図9(b)に示す画面では、図9(a)中の仮想キーボード16Mは画面から消去し、変換候補表示部16Nを画面表示部17中の下側に偏った領域(固定操作部14に近い位置)に配置し、それ以外の領域に入力メッセージ表示部32を配置してある。この画面(伸4)は、図4に示す「伸モード」と「第4モード」の組み合わせに対して適用される。つまり、筐体を伸ばして固定操作部14で文字の入力を行うことを想定しているので、仮想キーボード16Mは不要であり、親指15aの移動可能な範囲内に変換候補表示部16Nを移動することにより操作性が改善される。
 また、図9(c)に示す画面では、図9(a)中の仮想キーボード16Mの代わりに仮想キーボード16Pを画面表示部17中の下側に偏った領域(固定操作部14に近い位置)に配置してある。仮想キーボード16Pの各ボタンには、一般的な文字とは異なる記号などが割り当ててある。この画面(伸5)は、図4に示す「伸モード」と「第5モード」の組み合わせに対して適用される。つまり、筐体を伸ばして固定操作部14で文字の入力を行うことを想定しているので、一般的な文字は固定操作部14から入力し、それ以外の記号などは指が届く位置にある仮想キーボード16Pから行うことで操作性が改善される。
 なお、本実施の形態では、端末の筐体が長手方向に伸縮するように形状変化する場合を想定しているが、これ以外の形状変化、例えば回転による形状変化等に対しても同様に対応できる。つまり、操作する頻度が高い操作対象のボタン等を形状の変化に合わせて親指15aが届く範囲内に移動することが重要である。
 なお、本実施の形態では、コンピュータとそれが実行するプログラムやデータを含むソフトウェアを用いて制御する場合を想定しているが、同様の制御機能を割り当てた専用のハードウェアだけで構成することもできる。
 (第2の実施の形態)
 本発明の携帯端末装置及び表示制御方法並びに表示制御プログラムに関するもう1つの具体的な実施の形態について、図10~図13を参照しながら以下に説明する。
 図10は第2の実施の形態における携帯端末装置のソフトウェアの主要部の構成例を示すブロック図である。図11は図10に示した表示画面作成部の内部構成を表すブロック図である。図12は図10に示した携帯端末装置に備わった表示モード管理テーブルの具体例を示す模式図である。図13は図10に示した携帯端末装置における表示に関する動作を表すフローチャートである。
 第2の実施の形態は第1の実施の形態の変形例である。また、図10~図13において第1の実施の形態と対応する要素又はステップには同一の符号又は番号を付けて示してある。第2の実施の形態に特有の構成及び動作について以下に説明する。
 本実施の形態においても、携帯端末装置のハードウェアについては前述の図2(a)と同様の構成を想定している。第2の実施の形態におけるソフトウェアの構成が図10に示されている。図10に示すように、第2の実施の形態では表示モード切替部22の中に端末状態管理部29が追加されている。
 この端末状態管理部29は、端末の動作状態を把握するための処理を行う。具体的には、この端末を制御するマイクロコンピュータ19が実行しているアプリケーションプログラムの種別を区別することにより端末の動作状態の違いを把握する。
 また、第2の実施の形態では図11に示すように、表示画面作成部27の中に伸1モード画面作成部、伸2モード画面作成部、伸3モード画面作成部、伸Xモード画面作成部、・・・と、縮1モード画面作成部、縮2モード画面作成部、縮3モード画面作成部、縮Xモード画面作成部、・・・が設けてある。これらは、それぞれのモードの画面を作成するために備わっている。
 また、第2の実施の形態では図12に示すような表示モード管理テーブル28Bが表示モード管理部25に備わっている。図12に示すように、表示モード管理テーブル28Bには、端末の状態の区別(動作しているアプリケーションプログラムの違いを表すA、B、C)と、端末形状の違い(伸/縮)と、遷移する表示モードとの対応関係を表す情報が互いに関連付けて登録してある。
 図12に示す表示モード管理テーブル28Bにおける表示モードの「伸1モード」、「伸2モード」、「伸4モード」は、例えば図4に示した「第1モード」、「第2モード」、「第4モード」と「伸モード」との組み合わせに相当し、「縮1モード」、「縮2モード」、「縮4モード」は、例えば図4に示した「第1モード」、「第2モード」、「第4モード」と「縮モード」との組み合わせに相当する。
 図12に示す表示モード管理テーブル28Bを使用する場合、例えば端末上で動作しているアプリケーションプログラムがWebブラウザで、形状変化検知部21の検出した端末形状が「伸」の場合には、「伸2モード」の表示モードに遷移する。
 第2の実施の形態における端末の動作が図13に示されている。図13に示す処理においては、ステップS21、S22が図5の内容と異なっている。すなわち、ステップS21では、表示モード決定部26は端末の動作状態(アプリケーションプログラムの違い)を表す端末状態情報を端末状態管理部29から取得する。ステップS22では、ステップS21で取得した端末状態情報と、ステップS12で取得した形状変化情報とをキーとして表示モード決定部26は表示モード管理テーブル28Bを検索する。この検索結果が次のステップS16で使用される。
 従って、第2の実施の形態では端末の筐体の形状変化に適応するだけでなく、動作しているアプリケーションプログラムの違いに対応して、より効率的な入力操作ができるように、画面表示部17上の操作可能な可視情報(可変操作部)16の位置や、サイズや、数などを自動的に切り替えることができる。
 本出願は、2007年12月28日出願の日本特許出願、特願2007-340356に基づくものであり、その内容はここに参照として取り込まれる。
 以上、本発明の各種実施形態を説明したが、本発明は前記実施形態において示された事項に限定されず、明細書の記載、並びに周知の技術に基づいて、当業者がその変更・応用することも本発明の予定するところであり、保護を求める範囲に含まれる。
 以上のように、本発明の携帯端末装置及び表示制御方法並びに表示制御プログラムは、例えば携帯電話端末や、携帯型情報端末や、携帯型音楽プレーヤのような携帯端末であって、変形可能な筐体及びタッチパネルを備え、可変操作部(タッチパネル上の変更可能な操作部)と固定操作部(物理的に存在するテンキーなど)とを有する装置に適用することでユーザの操作性を改善するのに役立つ。

Claims (10)

  1.  少なくとも2種類の状態に形状を変更するための可動部を有する筐体を備え、操作対象部位を表す任意の可視情報を表示可能な表示部と、前記表示部の表示面上でユーザの指等の接触位置を検出するタッチセンサとを備えた携帯端末装置であって、
     前記筐体の形状の変化を検出する形状検出部と、
     前記タッチセンサの検出位置と前記表示部上に表示される各可視情報の操作対象部位とを互いに関連付けて管理する入力操作管理部と、
     前記表示部に表示する操作対象の各可視情報について、少なくとも表示位置を前記形状検出部が検出した前記筐体の形状変化に応じて自動的に変更する表示制御部と、
     を設けたことを特徴とする携帯端末装置。
  2.  請求項1に記載の携帯端末装置において、
     前記筐体として、スライドもしくは回転により互いに相対的に移動可能な上部筐体と下部筐体とを備え、
     前記上部筐体に前記表示部及び前記タッチセンサを搭載し、
     前記下部筐体にユーザが操作可能な物理的に位置が固定された複数のボタンを含む固定操作部を搭載し、
     前記表示制御部は、前記筐体の形状変化によって前記固定操作部が表面に露出した状態になったことを前記形状検出部が検出した場合には、前記表示部に表示される操作対象の各可視情報の表示位置を、前記表示部の全表示領域の中で前記固定操作部に近い位置に優先的に移動する
     ことを特徴とする携帯端末装置。
  3.  請求項2に記載の携帯端末装置において、
     前記表示制御部は、前記筐体の形状変化によって前記固定操作部が表面に露出した状態になったことを前記形状検出部が検出した場合には、前記表示部に表示される操作対象の各可視情報を、所定の標準状態に比べて大きさを縮小した状態で移動先の位置に再表示する
     ことを特徴とする携帯端末装置。
  4.  請求項2に記載の携帯端末装置において、
     前記表示制御部は、前記筐体の形状変化によって前記固定操作部が表面に露出した状態になったことを前記形状検出部が検出した場合には、前記表示部に表示される操作対象の各可視情報のうち、表示可能な一部の可視情報だけを移動先の位置に再表示し、表示をスクロールするための入力操作に従って、移動先に表示する可視情報を切り替える
     ことを特徴とする携帯端末装置。
  5.  請求項2に記載の携帯端末装置において、
     前記表示制御部は、前記筐体の形状変化によって前記固定操作部が表面に露出した状態になったことを前記形状検出部が検出した場合には、前記表示部に表示されるコンテンツ上のオブジェクトに対する操作対象位置を表すポインタを前記表示部に表示し、更に前記ポインタの表示位置の移動を指示するための機能が割り当てられた操作対象の可視情報を前記固定操作部に近い位置に表示する
     ことを特徴とする携帯端末装置。
  6.  請求項2に記載の携帯端末装置において、
     前記表示制御部は、前記可視情報の集合として、複数の文字のそれぞれに対応付けられた複数の表示ボタンで構成される仮想キーボードと、入力された文字に対する変換候補が表示される候補表示部とを前記表示部に表示する機能を有し、前記筐体の形状変化によって前記固定操作部が表面に露出した状態になったことを前記形状検出部が検出した場合には、前記仮想キーボードの表示を消去し、前記候補表示部のみを前記表示部の全表示領域の中で前記固定操作部に近い移動先の位置に再表示する
     ことを特徴とする携帯端末装置。
  7.  請求項2に記載の携帯端末装置において、
     前記表示制御部は、前記可視情報の集合として、複数の文字のそれぞれに対応付けられた複数の表示ボタンで構成される仮想キーボードを前記表示部に表示する機能を有し、前記筐体の形状変化によって前記固定操作部が表面に露出した状態になったことを前記形状検出部が検出した場合には、前記仮想キーボードに含まれる各表示ボタンに割り当てる文字を所定の標準状態とは異なる内容に自動的に切り替える
     ことを特徴とする携帯端末装置。
  8.  請求項2に記載の携帯端末装置において、
     動作中のアプリケーションプログラムの種別を検出する動作状態検出部を更に備え、
     前記表示制御部は、前記可視情報の集合として前記表示部に表示される可変操作部の構成を前記動作状態検出部の検出結果に応じて自動的に切り替える
     ことを特徴とする携帯端末装置。
  9.  少なくとも2種類の状態に形状を変更するための可動部を有する筐体を備え、操作対象部位を表す任意の可視情報を表示可能な表示部と、前記表示部の表示面上でユーザの指等の接触位置を検出するタッチセンサとを備えた携帯端末の表示を制御するための表示制御方法であって、
     前記タッチセンサの検出位置と前記表示部上に表示される各可視情報の操作対象部位とを互いに関連付けて管理し、
     前記表示部に表示する操作対象の各可視情報について、少なくとも表示位置を前記筐体の形状変化に応じて自動的に変更する
     ことを特徴とする表示制御方法。
  10.  少なくとも2種類の状態に形状を変更するための可動部を有する筐体を備え、操作対象部位を表す任意の可視情報を表示可能な表示部と、前記表示部の表示面上でユーザの指等の接触位置を検出するタッチセンサとを備えた携帯端末の表示を制御するためのコンピュータで実行可能な表示制御プログラムであって、
     前記タッチセンサの検出位置と前記表示部上に表示される各可視情報の操作対象部位とを互いに関連付けて管理するステップと、
     前記表示部に表示する操作対象の各可視情報について、少なくとも表示位置を前記筐体の形状変化に応じて自動的に変更するステップと
     を設けたことを特徴とする表示制御プログラム。
PCT/JP2008/003383 2007-12-28 2008-11-19 携帯端末装置及び表示制御方法並びに表示制御プログラム WO2009084147A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
US12/810,840 US8456426B2 (en) 2007-12-28 2008-11-19 Portable terminal device, display control method, and display control program
CN2008801233957A CN101910991B (zh) 2007-12-28 2008-11-19 便携式终端设备、显示控制方法和显示控制程序
US13/873,796 US8896542B2 (en) 2007-12-28 2013-04-30 Portable terminal device and display control method
US14/454,321 US10684755B2 (en) 2007-12-28 2014-08-07 Portable terminal device and display control method
US14/454,346 US9013410B2 (en) 2007-12-28 2014-08-07 Portable terminal device and display control method
US14/657,098 US10564828B2 (en) 2007-12-28 2015-03-13 Portable terminal device and display control method
US16/836,450 US11188207B2 (en) 2007-12-28 2020-03-31 Portable terminal device and display control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007340356A JP4364273B2 (ja) 2007-12-28 2007-12-28 携帯端末装置及び表示制御方法並びに表示制御プログラム
JP2007-340356 2007-12-28

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US12/810,840 A-371-Of-International US8456426B2 (en) 2007-12-28 2008-11-19 Portable terminal device, display control method, and display control program
US13/873,796 Continuation US8896542B2 (en) 2007-12-28 2013-04-30 Portable terminal device and display control method

Publications (1)

Publication Number Publication Date
WO2009084147A1 true WO2009084147A1 (ja) 2009-07-09

Family

ID=40823883

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/003383 WO2009084147A1 (ja) 2007-12-28 2008-11-19 携帯端末装置及び表示制御方法並びに表示制御プログラム

Country Status (4)

Country Link
US (6) US8456426B2 (ja)
JP (1) JP4364273B2 (ja)
CN (1) CN101910991B (ja)
WO (1) WO2009084147A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL2007719A (en) * 2010-11-05 2012-05-08 Apple Inc Device, method, and graphical user interface for manipulating soft keyboards.
CN102870084A (zh) * 2010-04-30 2013-01-09 日本电气株式会社 信息处理终端和用于该信息处理终端的操作控制方法
CN103870186A (zh) * 2012-12-17 2014-06-18 华为终端有限公司 一种触摸屏电子设备的输入方法和装置
WO2015060279A1 (ja) * 2013-10-25 2015-04-30 株式会社村田製作所 携帯端末用表示装置
US9092132B2 (en) 2011-01-24 2015-07-28 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
US9141285B2 (en) 2010-11-05 2015-09-22 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9335924B2 (en) 2006-09-06 2016-05-10 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US9436381B2 (en) 2011-01-24 2016-09-06 Apple Inc. Device, method, and graphical user interface for navigating and annotating an electronic document
US9442654B2 (en) 2010-01-06 2016-09-13 Apple Inc. Apparatus and method for conditionally enabling or disabling soft buttons
CN108540642A (zh) * 2018-02-28 2018-09-14 维沃移动通信有限公司 移动终端的操作方法及移动终端
US10990184B2 (en) 2010-04-13 2021-04-27 Tactile Displays, Llc Energy efficient interactive display with energy regenerative keyboard
US10990183B2 (en) * 2010-04-05 2021-04-27 Tactile Displays, Llc Interactive display with tactile feedback

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US7940250B2 (en) * 2006-09-06 2011-05-10 Apple Inc. Web-clip widgets on a portable multifunction device
US8788954B2 (en) * 2007-01-07 2014-07-22 Apple Inc. Web-clip widgets on a portable multifunction device
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US9772751B2 (en) * 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US9619143B2 (en) * 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US8619038B2 (en) * 2007-09-04 2013-12-31 Apple Inc. Editing interface
US11126321B2 (en) 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
JP4364273B2 (ja) * 2007-12-28 2009-11-11 パナソニック株式会社 携帯端末装置及び表示制御方法並びに表示制御プログラム
JP5037571B2 (ja) * 2009-07-08 2012-09-26 パナソニック株式会社 携帯端末装置及び表示制御方法並びに表示制御プログラム
JP2011090617A (ja) * 2009-10-26 2011-05-06 Nec Casio Mobile Communications Ltd 電子機器及びプログラム
US8876000B2 (en) * 2009-12-02 2014-11-04 Nestec S.A. Beverage preparation machine with touch menu functionality
US8736561B2 (en) 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
JP5526789B2 (ja) * 2010-01-08 2014-06-18 ソニー株式会社 情報処理装置およびプログラム
JP5638258B2 (ja) * 2010-02-12 2014-12-10 京セラ株式会社 携帯型電子機器
US9223350B2 (en) 2010-02-12 2015-12-29 Kyocera Corporation Slidable display portable mobile device
JP5638257B2 (ja) * 2010-02-12 2014-12-10 京セラ株式会社 携帯型電子機器
JP5638260B2 (ja) * 2010-02-12 2014-12-10 京セラ株式会社 携帯型電子機器
JP5638259B2 (ja) * 2010-02-12 2014-12-10 京セラ株式会社 携帯型電子機器
US8610745B2 (en) * 2010-05-17 2013-12-17 Sharp Kabushiki Kaisha Image forming apparatus and display console displaying preview image
JP4956644B2 (ja) * 2010-05-31 2012-06-20 株式会社東芝 電子機器、及び入力制御方法
JP5614183B2 (ja) * 2010-09-03 2014-10-29 コニカミノルタ株式会社 表示処理装置およびコンピュータプログラム
CN102760056A (zh) * 2011-04-27 2012-10-31 上海晨兴希姆通电子科技有限公司 触摸屏与键盘代码重用装置及方法、终端、程序执行方法
KR101704549B1 (ko) * 2011-06-10 2017-02-22 삼성전자주식회사 문자 입력 인터페이스 제공 방법 및 장치
CN102841723B (zh) * 2011-06-20 2016-08-10 联想(北京)有限公司 便携式终端及其显示切换方法
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
CN103001933A (zh) * 2011-09-15 2013-03-27 北京同步科技有限公司 交互式的多媒体信息发布终端机及其信息发布方法
KR101972924B1 (ko) * 2011-11-11 2019-08-23 삼성전자주식회사 휴대용 기기에서 부분 영역의 터치를 이용한 전체 영역 지정을 위한 방법 및 장치
JP6184053B2 (ja) * 2012-01-18 2017-08-23 キヤノン株式会社 情報端末、表示制御方法、およびプログラム
JP5458130B2 (ja) * 2012-03-09 2014-04-02 株式会社東芝 電子機器、及び入力制御方法
JP2013214164A (ja) 2012-03-30 2013-10-17 Fujitsu Ltd 携帯電子機器、スクロール処理方法及びスクロール処理プログラム
JP2013218428A (ja) 2012-04-05 2013-10-24 Sharp Corp 携帯型電子機器
CN103376883A (zh) * 2012-04-19 2013-10-30 宇龙计算机通信科技(深圳)有限公司 终端和终端处理方法
CN102707880B (zh) * 2012-04-24 2015-01-07 华为终端有限公司 文件传输的方法及终端
JP2013232026A (ja) 2012-04-27 2013-11-14 Sharp Corp 携帯情報端末
CN102694915B (zh) * 2012-05-18 2014-04-09 张群 用于具有触摸屏幕的手机的显示控制方法及系统
JP6067245B2 (ja) * 2012-05-29 2017-01-25 京セラ株式会社 携帯電話機、制御方法及びコンピュータプログラム
KR20140070745A (ko) * 2012-11-26 2014-06-11 삼성전자주식회사 디스플레이 장치 및 이의 구동 방법
US20140152593A1 (en) * 2012-12-03 2014-06-05 Industrial Technology Research Institute Method And System For Operating Portable Devices
CN103092412B (zh) * 2013-01-14 2016-08-03 东莞宇龙通信科技有限公司 移动终端和移动终端操作对象的显示方法
KR20140107829A (ko) * 2013-02-28 2014-09-05 삼성전자주식회사 디스플레이장치, 입력장치 및 그 제어방법
JP6221293B2 (ja) * 2013-03-27 2017-11-01 富士通株式会社 情報処理装置,情報処理方法,プログラム
JP6155869B2 (ja) 2013-06-11 2017-07-05 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
US20150186011A1 (en) * 2013-12-30 2015-07-02 Samsung Electronics Co., Ltd. Apparatus and method for interacting with items on a portable terminal
CN104932799B (zh) * 2014-03-19 2020-05-26 联想(北京)有限公司 一种信息处理方法及电子设备
US10949075B2 (en) 2014-11-06 2021-03-16 Microsoft Technology Licensing, Llc Application command control for small screen display
US20160132992A1 (en) * 2014-11-06 2016-05-12 Microsoft Technology Licensing, Llc User interface scaling for devices based on display size
KR20160080851A (ko) * 2014-12-29 2016-07-08 엘지전자 주식회사 디스플레이 장치 및 제어 방법
CN106897040B (zh) * 2015-02-10 2019-11-26 解庶 展示可视信息的方法与推送展示可视信息的方法
CN104731330A (zh) * 2015-03-24 2015-06-24 联想(北京)有限公司 一种信息处理方法及电子设备
USD766296S1 (en) * 2015-05-01 2016-09-13 Microsoft Corporation Display screen with animated graphical user interface
CN105183290A (zh) * 2015-09-02 2015-12-23 深圳市金立通信设备有限公司 一种音频播放界面的操作方法及终端
JP6220374B2 (ja) * 2015-12-18 2017-10-25 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、出力文字コード判定方法、及びプログラム
WO2017221510A1 (ja) * 2016-06-23 2017-12-28 京セラドキュメントソリューションズ株式会社 携帯端末装置及び携帯端末装置の制御方法
USD859452S1 (en) * 2016-07-18 2019-09-10 Emojot, Inc. Display screen for media players with graphical user interface
DE102016121107A1 (de) * 2016-11-04 2018-05-09 Volkswagen Ag Anordnung einer grafischen Benutzerschnittstelle in einem Fahrzeug und Verfahren zum Bereitstellen einer grafischen Benutzerschnittstelle in einem Fahrzeug
JP6358363B2 (ja) * 2017-06-01 2018-07-18 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP6724871B2 (ja) * 2017-06-22 2020-07-15 京セラドキュメントソリューションズ株式会社 表示入力装置およびそれを備えた画像形成装置
US11307760B2 (en) * 2017-09-25 2022-04-19 Huawei Technologies Co., Ltd. Terminal interface display method and terminal
CN109408271B (zh) * 2018-10-19 2022-04-15 北京小米移动软件有限公司 滑盖操作的响应方法、装置及存储介质
US11354016B2 (en) 2020-01-09 2022-06-07 International Business Machines Corporation Dynamic user interface pagination operation

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11353283A (ja) * 1998-06-04 1999-12-24 Matsushita Electric Ind Co Ltd 携帯端末
JP2005122271A (ja) * 2003-10-14 2005-05-12 Sony Ericsson Mobilecommunications Japan Inc 携帯型電子装置
JP2006039485A (ja) * 2004-07-30 2006-02-09 Nec Corp 携帯端末
JP2006067532A (ja) * 2004-08-30 2006-03-09 Kyocera Corp 携帯端末装置
JP2006311224A (ja) * 2005-04-28 2006-11-09 Nec Saitama Ltd 折り畳み型携帯電話機
JP2007036544A (ja) * 2005-07-26 2007-02-08 Yamaha Corp 携帯端末装置
JP2007043497A (ja) * 2005-08-03 2007-02-15 Nec Corp 携帯端末

Family Cites Families (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5128672A (en) * 1990-10-30 1992-07-07 Apple Computer, Inc. Dynamic predictive keyboard
US5949348A (en) * 1992-08-17 1999-09-07 Ncr Corporation Method and apparatus for variable keyboard display
KR960024839A (ko) * 1994-12-29 1996-07-20 김광호 소프트 키보드를 이용한 휴대용 정보 단말기 및 정보 입력방법
US6473102B1 (en) * 1998-05-11 2002-10-29 Apple Computer, Inc. Method and system for automatically resizing and repositioning windows in response to changes in display
JP2000010713A (ja) 1998-06-23 2000-01-14 Matsushita Electric Ind Co Ltd 段階収納式キーボード付情報機器
US6832355B1 (en) * 1998-07-28 2004-12-14 Microsoft Corporation Web page display system
US6456307B1 (en) * 1998-09-09 2002-09-24 International Business Machines Corporation Automatic icon generation
US7469381B2 (en) * 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US7030863B2 (en) * 2000-05-26 2006-04-18 America Online, Incorporated Virtual keyboard system with automatic correction
FI19992510A (fi) * 1999-11-24 2001-05-25 Nokia Mobile Phones Ltd Elektroniikkalaite ja menetelmä elektroniikkalaitteessa
US6525717B1 (en) * 1999-12-17 2003-02-25 International Business Machines Corporation Input device that analyzes acoustical signatures
JP2001290580A (ja) 2000-04-07 2001-10-19 Hitachi Ltd 読書端末
EP1184414A3 (en) * 2000-08-30 2003-08-06 JSR Corporation Conjugated diene-based rubber and method of producing the same, oil extended rubber and rubber composition containing the same
US7506256B2 (en) * 2001-03-02 2009-03-17 Semantic Compaction Systems Device and method for previewing themes and categories of sequenced symbols
JP2002268776A (ja) 2001-03-13 2002-09-20 Sony Corp 情報処理装置及び情報処理方法、プログラム並びに記録媒体
US6972776B2 (en) * 2001-03-20 2005-12-06 Agilent Technologies, Inc. Scrolling method using screen pointing device
JP2003140804A (ja) 2001-10-30 2003-05-16 Sony Corp 情報処理装置
FI116425B (fi) * 2002-01-18 2005-11-15 Nokia Corp Menetelmä ja laite laajan näppäimistön integroimiseksi pieneen laitteeseen
US20050002158A1 (en) * 2002-02-25 2005-01-06 Robert Olodort Mobile computer with foldable keyboard
KR20040091106A (ko) * 2002-03-08 2004-10-27 미쓰비시덴키 가부시키가이샤 이동체 통신장치와, 이동체 통신장치의 표시제어방법
TWI238348B (en) * 2002-05-13 2005-08-21 Kyocera Corp Portable information terminal, display control device, display control method, and recording media
JP2004128780A (ja) 2002-10-01 2004-04-22 Nec Corp キーロック機能付き携帯電話機
US7721192B2 (en) * 2002-11-27 2010-05-18 Microsoft Corporation User interface for a resource search tool
US7081887B2 (en) * 2002-12-19 2006-07-25 Intel Corporation Method and apparatus for positioning a software keyboard
US20040183834A1 (en) * 2003-03-20 2004-09-23 Chermesino John C. User-configurable soft input applications
US20040189710A1 (en) * 2003-03-28 2004-09-30 Goulden David L. Technique for displaying a window in a computer screen
US7480872B1 (en) * 2003-04-06 2009-01-20 Apple Inc. Method and apparatus for dynamically resizing windows
US20050021851A1 (en) * 2003-06-09 2005-01-27 Kimmo Hamynen System, apparatus, and method for directional control input browsing in smart phones
WO2005008444A2 (en) * 2003-07-14 2005-01-27 Matt Pallakoff System and method for a portbale multimedia client
US20050050301A1 (en) * 2003-08-29 2005-03-03 Yahoo!, Inc. Extensible user interface
JP4288134B2 (ja) * 2003-10-16 2009-07-01 京セラ株式会社 撮像装置
US8046289B2 (en) * 2004-01-29 2011-10-25 New York Mercantile Exchange, Inc. Electronic pitcard for wireless financial exchange
US20060007178A1 (en) * 2004-07-07 2006-01-12 Scott Davis Electronic device having an imporoved user interface
JP2006067157A (ja) * 2004-08-26 2006-03-09 Sony Corp 情報処理装置および方法、並びにプログラム
JP3729417B1 (ja) * 2004-09-07 2005-12-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
KR100636184B1 (ko) * 2004-10-13 2006-10-19 삼성전자주식회사 정보 처리 장치의 표시 화면에 표시되는 표시 윈도우의위치 제어 방법 및 위치 제어 장치
US20060168025A1 (en) * 2004-12-15 2006-07-27 Jain Anuj K Electronic communication system for user's ease of read
US8717301B2 (en) * 2005-08-01 2014-05-06 Sony Corporation Information processing apparatus and method, and program
US7599830B2 (en) * 2005-03-16 2009-10-06 Research In Motion Limited Handheld electronic device with reduced keyboard and associated method of providing quick text entry in a message
KR20080019266A (ko) * 2005-07-08 2008-03-03 미쓰비시덴키 가부시키가이샤 터치패널 표시장치 및 휴대 기기
CN101814005B (zh) * 2005-07-22 2013-02-27 运行移动系统公司 最适宜拇指的触摸屏用户界面的系统和方法
JP2007048123A (ja) 2005-08-11 2007-02-22 Konica Minolta Photo Imaging Inc 表示装置
US7603143B2 (en) 2005-08-26 2009-10-13 Lg Electronics Inc. Mobile telecommunication handset having touch pad
US7788577B2 (en) * 2005-09-23 2010-08-31 Google Inc. Displaying information on a mobile device
WO2007036595A1 (en) * 2005-09-30 2007-04-05 Nokia Corporation Electronic device, computer program product and control method
JP4769552B2 (ja) 2005-11-14 2011-09-07 株式会社エヌ・ティ・ティ・ドコモ 端末及び端末の制御プログラム
US7786975B2 (en) * 2005-12-23 2010-08-31 Apple Inc. Continuous scrolling list with acceleration
US8341551B2 (en) * 2006-02-13 2012-12-25 Research In Motion Limited Method and arrangment for a primary actions menu for a contact data entry record of an address book application on a handheld electronic device
JP2007334827A (ja) * 2006-06-19 2007-12-27 Sony Corp 携帯端末装置
US8873858B2 (en) * 2006-06-29 2014-10-28 Rpx Corporation Apparatus, method, device and computer program product providing enhanced text copy capability with touch input display
JP2006314128A (ja) 2006-07-12 2006-11-16 Mitsubishi Electric Corp 機器及び携帯電話機
US20080080919A1 (en) * 2006-08-28 2008-04-03 Research In Motion Limited Three row qwerty keyboard layout for compact landscape portable handheld messaging devices
US20080051041A1 (en) * 2006-08-28 2008-02-28 Research In Motion Limited Hybrid portrait-landscape handheld device with trackball navigation and qwerty hide-away keyboard
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
CN101523332B (zh) * 2006-09-28 2012-10-24 京瓷株式会社 便携式终端设备中操作键组的布局方法及实现该布局方法的便携式终端设备
KR101144423B1 (ko) * 2006-11-16 2012-05-10 엘지전자 주식회사 휴대 단말기 및 휴대 단말기의 화면 표시 방법
AU2006252191B2 (en) * 2006-12-21 2009-03-26 Canon Kabushiki Kaisha Scrolling Interface
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US20080168367A1 (en) * 2007-01-07 2008-07-10 Chaudhri Imran A Dashboards, Widgets and Devices
US7844915B2 (en) * 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US7970444B2 (en) * 2007-02-28 2011-06-28 Sony Ericsson Mobile Communications Ab Pivoting mobile terminal
KR100913962B1 (ko) * 2007-05-14 2009-08-26 삼성전자주식회사 이동통신 단말기의 문자 입력 방법 및 장치
US7970438B2 (en) * 2007-06-19 2011-06-28 Lg Electronics Inc. Mobile terminal and keypad control method
KR101453909B1 (ko) * 2007-07-30 2014-10-21 엘지전자 주식회사 터치스크린을 이용하는 휴대 단말기 및 그 제어방법
US20090043657A1 (en) * 2007-08-06 2009-02-12 Palm, Inc. System and methods for selecting advertisements based on caller identifier information
US20090079702A1 (en) * 2007-09-25 2009-03-26 Nokia Corporation Method, Apparatus and Computer Program Product for Providing an Adaptive Keypad on Touch Display Devices
US8726190B2 (en) * 2007-09-28 2014-05-13 Adobe Systems Incorporated Automatically transformed graphical user interface
US8525792B1 (en) * 2007-11-06 2013-09-03 Sprint Communications Company L.P. Adjustable keyboard or touch screen in a handheld device
JP4605478B2 (ja) * 2007-12-19 2011-01-05 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
EP2228976A4 (en) 2007-12-27 2013-02-27 Nec Corp PORTABLE DEVICE
JP4364273B2 (ja) * 2007-12-28 2009-11-11 パナソニック株式会社 携帯端末装置及び表示制御方法並びに表示制御プログラム
CN101981987B (zh) * 2008-01-30 2014-12-03 谷歌公司 移动设备事件的通知
JP2009284468A (ja) * 2008-04-23 2009-12-03 Sharp Corp 携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体
GB2462579A (en) * 2008-06-10 2010-02-17 Sony Service Ct Touch screen display including proximity sensor
US20100095219A1 (en) * 2008-10-15 2010-04-15 Maciej Stachowiak Selective history data structures
US20100188342A1 (en) * 2009-01-26 2010-07-29 Manufacturing Resources International, Inc. Method and System for Positioning a Graphical User Interface
CA2851611A1 (en) * 2014-05-09 2015-11-09 Reza Chaji Touch screen accessibility and functionality enhancement
US10671275B2 (en) * 2014-09-04 2020-06-02 Apple Inc. User interfaces for improving single-handed operation of devices

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11353283A (ja) * 1998-06-04 1999-12-24 Matsushita Electric Ind Co Ltd 携帯端末
JP2005122271A (ja) * 2003-10-14 2005-05-12 Sony Ericsson Mobilecommunications Japan Inc 携帯型電子装置
JP2006039485A (ja) * 2004-07-30 2006-02-09 Nec Corp 携帯端末
JP2006067532A (ja) * 2004-08-30 2006-03-09 Kyocera Corp 携帯端末装置
JP2006311224A (ja) * 2005-04-28 2006-11-09 Nec Saitama Ltd 折り畳み型携帯電話機
JP2007036544A (ja) * 2005-07-26 2007-02-08 Yamaha Corp 携帯端末装置
JP2007043497A (ja) * 2005-08-03 2007-02-15 Nec Corp 携帯端末

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9335924B2 (en) 2006-09-06 2016-05-10 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US11029838B2 (en) 2006-09-06 2021-06-08 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US9952759B2 (en) 2006-09-06 2018-04-24 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US9442654B2 (en) 2010-01-06 2016-09-13 Apple Inc. Apparatus and method for conditionally enabling or disabling soft buttons
US10996762B2 (en) 2010-04-05 2021-05-04 Tactile Displays, Llc Interactive display with tactile feedback
US10990183B2 (en) * 2010-04-05 2021-04-27 Tactile Displays, Llc Interactive display with tactile feedback
US10990184B2 (en) 2010-04-13 2021-04-27 Tactile Displays, Llc Energy efficient interactive display with energy regenerative keyboard
CN102870084A (zh) * 2010-04-30 2013-01-09 日本电气株式会社 信息处理终端和用于该信息处理终端的操作控制方法
WO2012061572A3 (en) * 2010-11-05 2012-06-28 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9128614B2 (en) 2010-11-05 2015-09-08 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9141285B2 (en) 2010-11-05 2015-09-22 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9146673B2 (en) 2010-11-05 2015-09-29 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
NL2007719A (en) * 2010-11-05 2012-05-08 Apple Inc Device, method, and graphical user interface for manipulating soft keyboards.
US9436381B2 (en) 2011-01-24 2016-09-06 Apple Inc. Device, method, and graphical user interface for navigating and annotating an electronic document
US10042549B2 (en) 2011-01-24 2018-08-07 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
US10365819B2 (en) 2011-01-24 2019-07-30 Apple Inc. Device, method, and graphical user interface for displaying a character input user interface
US9092132B2 (en) 2011-01-24 2015-07-28 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
CN103870186A (zh) * 2012-12-17 2014-06-18 华为终端有限公司 一种触摸屏电子设备的输入方法和装置
JPWO2015060279A1 (ja) * 2013-10-25 2017-03-09 株式会社村田製作所 携帯端末用表示装置
JP6015866B2 (ja) * 2013-10-25 2016-10-26 株式会社村田製作所 携帯端末用表示装置
WO2015060279A1 (ja) * 2013-10-25 2015-04-30 株式会社村田製作所 携帯端末用表示装置
CN108540642A (zh) * 2018-02-28 2018-09-14 维沃移动通信有限公司 移动终端的操作方法及移动终端
CN108540642B (zh) * 2018-02-28 2020-06-30 维沃移动通信有限公司 移动终端的操作方法及移动终端

Also Published As

Publication number Publication date
US20130234950A1 (en) 2013-09-12
US20110007009A1 (en) 2011-01-13
JP2009163356A (ja) 2009-07-23
US10684755B2 (en) 2020-06-16
US20150186020A1 (en) 2015-07-02
US10564828B2 (en) 2020-02-18
US8456426B2 (en) 2013-06-04
CN101910991A (zh) 2010-12-08
US8896542B2 (en) 2014-11-25
US20140351742A1 (en) 2014-11-27
US9013410B2 (en) 2015-04-21
US20200225835A1 (en) 2020-07-16
US20140347281A1 (en) 2014-11-27
US11188207B2 (en) 2021-11-30
CN101910991B (zh) 2013-08-28
JP4364273B2 (ja) 2009-11-11

Similar Documents

Publication Publication Date Title
WO2009084147A1 (ja) 携帯端末装置及び表示制御方法並びに表示制御プログラム
US8351992B2 (en) Portable electronic apparatus, and a method of controlling a user interface thereof
EP2860622B1 (en) Electronic device and controlling method and program therefor
US20130241838A1 (en) Information processing terminal and method for controlling operation thereof
JP2011192215A (ja) 文字入力装置、文字入力方法及び文字入力プログラム
JP5755219B2 (ja) タッチパネル機能付き携帯端末及びその入力方法
JP2000278391A (ja) 背面手書き入力機能を有する携帯電話機
JP2009288882A (ja) 携帯端末及び情報表示方法
JP2012123792A (ja) 携帯電子機器、携帯電子機器の制御方法及びプログラム
JP5037571B2 (ja) 携帯端末装置及び表示制御方法並びに表示制御プログラム
WO2007086371A1 (ja) 文字入力装置
US20070040812A1 (en) Internet phone integrated with touchpad functions
JP5252751B2 (ja) 携帯端末装置
JP2009099057A (ja) 移動体端末装置及び文字入力方法
JP5042385B2 (ja) 携帯端末装置及び表示制御方法並びに表示制御プログラム
JP5660611B2 (ja) 電子機器、文字入力方法、及びプログラム
JP5121084B2 (ja) 携帯端末装置及び表示制御方法並びに表示制御プログラム
KR20100042762A (ko) 휴대 단말기에서 마우스 인터페이스를 실행하는 방법 및 이를 수행하는 휴대 단말기
JP2011164953A (ja) 携帯用電子機器及び表示制御方法
JP2013120968A (ja) 携帯端末装置、表示制御方法及び表示制御プログラム
JP2004272647A (ja) 情報処理装置、情報処理装置におけるウインドウの表示方法及び情報処理装置におけるウインドウの表示制御プログラム
JP2004246605A (ja) 情報処理装置
KR20060037065A (ko) 휴대용 개인 전자 장비에서의 버튼을 이용한 가상 마우스장치와 가상 마우스 제어 방법
KR20090046390A (ko) 휴대용 단말기에서 터치스크린을 이용한 문자 입력 장치 및방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200880123395.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08867403

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12810840

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08867403

Country of ref document: EP

Kind code of ref document: A1