WO2013187370A1 - 端末装置 - Google Patents

端末装置 Download PDF

Info

Publication number
WO2013187370A1
WO2013187370A1 PCT/JP2013/065965 JP2013065965W WO2013187370A1 WO 2013187370 A1 WO2013187370 A1 WO 2013187370A1 JP 2013065965 W JP2013065965 W JP 2013065965W WO 2013187370 A1 WO2013187370 A1 WO 2013187370A1
Authority
WO
WIPO (PCT)
Prior art keywords
hand
display
unit
terminal device
gripping
Prior art date
Application number
PCT/JP2013/065965
Other languages
English (en)
French (fr)
Inventor
浩司 仲江
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to JP2014521320A priority Critical patent/JP5876152B2/ja
Publication of WO2013187370A1 publication Critical patent/WO2013187370A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • G06F3/0393Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Definitions

  • the present invention relates to a terminal device including a touch panel display including a display unit that displays an image and a touch sensor that is superimposed on the display unit and detects a user input by contact.
  • the present invention provides a terminal device that can set a display range of a display without depending on whether or not a user's hand or finger is in contact, and can further improve user convenience.
  • One purpose is to do.
  • a terminal device includes a touch panel display including a display unit that displays an image, a touch sensor that is superimposed on the display unit and detects a user input by contact, and the user holds the terminal device.
  • a gripping hand determining unit that determines whether the gripping hand that is the right hand is the right hand or the left hand, and whether the operating hand that is the user operating the touch panel display is the right hand or the left hand
  • an image changing unit that changes the position or size of the image displayed on the display unit based on the determination results of the gripping hand determining unit and the operating hand determining unit.
  • the terminal device further includes a display range setting unit that refers to the determination results of the gripping hand determination unit and the operation hand determination unit, and sets a display range of the display area of the display unit that is visible to the user as a display range.
  • the image changing unit may change a position or a size of an image displayed on the display unit so as to fall within a display range set by the display range setting unit.
  • the terminal device further includes a gripping hand detection unit including at least one of a proximity sensor, an illuminance sensor, a proximity illuminance sensor, and a physical key on each of both side surfaces of the housing, and the gripping hand determination unit detects the gripping hand.
  • the gripping hand may be determined by referring to the output result from the means.
  • the terminal device further includes a second touch sensor that detects contact of the user's hand by contact on a back surface of the surface on which the display unit is provided in the housing, and the gripping hand determination unit receives from the second touch sensor.
  • the grasping hand may be determined by referring to the output result.
  • the terminal device may further include an imaging unit that captures an image on the back of the surface of the housing where the display unit is provided, and determine the gripping hand with reference to the image captured by the imaging unit.
  • the terminal device may further include a gripping hand detection unit including at least one of an acceleration sensor and a geomagnetic sensor, and the gripping hand determination unit may determine the gripping hand with reference to an output result from the gripping hand detection unit.
  • a gripping hand detection unit including at least one of an acceleration sensor and a geomagnetic sensor
  • the gripping hand determination unit may determine the gripping hand with reference to an output result from the gripping hand detection unit.
  • the terminal device further includes a gripping hand detection unit including at least one of a proximity sensor, an illuminance sensor, a proximity illuminance sensor, or a physical key in each of the vicinity of both ends of the lower surface of the housing, and the gripping hand determination unit includes: The gripping hand may be determined by referring to the output result from the gripping hand detection means.
  • the gripping hand determination unit may determine the gripping hand based on a contact position when contact with an area larger than a finger is detected at the lower part of the touch panel display.
  • the terminal device further includes an operation hand detection unit including at least one of a proximity sensor, an illuminance sensor, a proximity illuminance sensor, and a physical key, near each of both ends of the lower portion of the surface where the display unit is provided in the housing.
  • the operating hand determination unit may determine the operating hand with reference to an output result from the operating hand detection means.
  • the operation hand determination unit may determine the operation hand based on a contact position when contact with an area larger than a finger is detected at the lower part of the touch panel display.
  • the operation hand determination unit may determine the operation hand based on the shape of the contact surface when finger contact is detected on the touch panel display.
  • the terminal device further includes a terminal posture detection unit including at least one of an acceleration sensor and a geomagnetic sensor, and the display range setting unit includes a terminal posture detection unit in addition to the determination results of the gripping hand determination unit and the operation hand determination unit.
  • the display range should be set with reference to the output result from.
  • a display control method is a display control method for a terminal device including a touch panel display including a display unit that displays an image and a touch sensor that is superimposed on the display unit and detects a user input by contact. And determining whether the gripping hand that is the hand that is gripping the terminal device is the right hand or the left hand, and the operating hand that is the user operating the touch panel display is the right hand or the left hand And changing the position or size of the image displayed on the display unit based on the determination result of the gripping hand and the operating hand.
  • a terminal device holds a touch panel display including a display unit that displays an image, a touch sensor that is superimposed on the display unit and detects a user input by contact, and the terminal device.
  • the position or size of the image displayed on the display unit based on whether the user's gripping hand is a right hand or a left hand and whether the user's operating hand operating the touch panel display is a right hand or a left hand And a control unit for changing the height.
  • a mobile phone (hereinafter referred to as a mobile phone 100) is illustrated as a terminal device, but the present invention is not limited to this. As will be described later, the present invention is applicable to any terminal device including a touch panel display 120 including a display unit 122 and a touch sensor 124 superimposed thereon.
  • the terminal device may be, for example, a PHS terminal, a notebook personal computer, a PDA (Personal Digital Assistant), a handy GPS, a navigation device, a netbook, a digital camera, or the like.
  • FIG. 1 is a diagram illustrating a mobile phone 100 according to the present embodiment
  • FIG. 1A is a functional block diagram of the mobile phone 100 according to the present embodiment
  • FIG. 1B is a mobile phone according to the present embodiment.
  • 1 is an external perspective view of a telephone 100.
  • the mobile phone 100 of this embodiment has a control unit 110.
  • the control unit 110 manages and controls the functions of the entire mobile phone 100 using a semiconductor integrated circuit including a central processing unit (CPU). Execute.
  • the control unit 110 also functions as a gripping hand determination unit 112, an operation hand determination unit 114, a display range setting unit 116, and an image change unit 118. Details of these will be described later.
  • the display unit 122 is a display disposed on the surface 102a of the housing 102.
  • the display unit 122 includes a liquid crystal display (Liquid Crystal Display), an organic EL (Electro Luminescence), and the like, and displays information such as a photographic image, an operation screen of the application, a call destination and a caller in a call to the user.
  • a touch sensor 124 (see FIG. 1A) that is formed of a transparent material and detects the touch of the user's finger is superimposed on the display unit 122 so as to be visible.
  • the touch panel display 120 is comprised by the display part 122 and the touch sensor 124, and it can function as an input part which receives a user input by contact of a user's finger
  • a capacitance type or a pressure sensitive type may be used as a detection method of the user input by the touch sensor 124.
  • the touch panel display 120 including the touch sensor 124 is exemplified as the input unit.
  • a movable switch such as a keyboard, a cross key, and a joystick may be further provided as the input unit.
  • the switch button 104 (physical key) is provided on the surface 102 a of the housing 102.
  • the first imaging unit 130a and the second imaging unit 130a and the second imaging unit 130a are provided on the back surface 102b of the housing 102 (the back surface of the surface on which the display unit 122 is provided).
  • An imaging unit 130 including an imaging unit 130b is provided.
  • the imaging unit 130 includes a video device such as a CCD (Charge-Coupled Device) or a CMOS (Complementary-Metal-Oxide-Semiconductor), and captures still images and moving images.
  • CCD Charge-Coupled Device
  • CMOS Complementary-Metal-Oxide-Semiconductor
  • the proximity sensor 140 includes an element using ultrasonic waves, millimeter waves, microwaves, capacitance, magnetism, and the like, and detects the approach of an object (a user's hand in this embodiment) to the mobile phone 100.
  • an illuminance sensor, a proximity illuminance sensor, a physical key, or the like may be employed.
  • the acceleration sensor 150 is a three-axis acceleration sensor made of, for example, a piezoresistive MEMS (Micro Electro System) or the like, and detects acceleration in three directions of the XYZ axes. The posture of the telephone 100 is detected.
  • an acceleration sensor such as a capacitance type or a heat detection type may be used, or an acceleration sensor that detects acceleration in two directions on the XY axes in the mobile phone 100 may be used. Further, instead of the acceleration sensor 150, a geomagnetic sensor or a gyroscope sensor may be employed.
  • the second touch sensor 160 is disposed on the back surface 102b (see FIG. 1B) of the housing 102, and detects contact of the user's hand or finger on the back surface 102b.
  • the control unit 110 also functions as the gripping hand determination unit 112, the operation hand determination unit 114, the display range setting unit 116, and the image change unit 118.
  • the gripping hand determining unit 112 determines whether the gripping hand that is the hand that the user is gripping the mobile phone 100 (terminal device) is the right hand or the left hand.
  • the operating hand determination unit 114 determines whether the operating hand that is the user operating the touch panel display 120 is the right hand or the left hand.
  • the display range setting unit 116 refers to the determination results of the grasping hand determination unit 112 and the operation hand determination unit 114 and sets a range that can be visually recognized by the user in the display area of the display unit 122 as a display range.
  • the image changing unit 118 changes the position or size of the image displayed on the display unit 122 so as to fall within the display range set by the display range setting unit 116.
  • the gripping hand determination unit 112 may determine whether the gripping hand is the right hand or the left hand with reference to the output result from the gripping hand detection means.
  • the gripping hand detection means for example, the proximity sensor 140 described above can be used.
  • a left side proximity sensor 140a and a right side proximity sensor 140b are disposed on the side surfaces 102c and 102d (both side surfaces) of the housing. . Accordingly, when the left hand proximity sensor 140a detects the approach of the object, the gripper hand determination unit 112 can determine that the user is gripping the mobile phone 100 with the left hand, and the right hand proximity sensor 140b determines that the object is approaching. If detected, it can be determined that the user is holding the mobile phone 100 with the right hand.
  • FIG. 2 is a diagram illustrating a case where a module other than the proximity sensor 140 is used as a gripping hand detection unit.
  • FIGS. 2A and 2B illustrate a case where the second touch sensor 160 (see FIG. 1A) is used as a gripping hand detection unit.
  • the second touch sensor 160 when the user is holding the mobile phone 100 with the left hand 190a, the second touch sensor 160 provided on the back surface 102b of the housing 102 has an area of the palm 191a in the vicinity of the left side.
  • a wide contact shown by hatching
  • a contact with a plurality of narrow areas by fingers 193a, 194a, 195a, and 196a shown by hatching
  • the second touch sensor 160 makes contact with the palm 191b in the vicinity of the right side (illustrated by hatching). In the vicinity of the left side, a plurality of narrow contact areas (illustrated by hatching) are generated by the fingers 193b, 194b, 195b, and 196b.
  • the contact detection position and the area of the second touch sensor 160 differ depending on whether the user holds the mobile phone 100 with the right hand 190b or the left hand 190a. For this reason, by using the second touch sensor 160 as a gripping hand detection unit and referring to the output result, the gripping hand determination unit 112 can determine the gripping hand.
  • the case where the second touch sensor 160 can detect multi-touch is described as an example, but the present invention is not limited to this.
  • the second touch sensor 160 may detect a single touch.
  • the grasping hand determination unit 112 determines, for example, whether the position where the contact with the largest area is occurring is the left or right. It is possible to determine the gripping hand.
  • 2C and 2D illustrate a case where the imaging unit 130 is used as a gripping hand detection unit.
  • the first image capturing unit 130a and the second image capturing unit 130b constituting the image capturing unit 130 are disposed on the back surface 102b of the housing 102, so that they cannot be visually recognized from the front, but are easy to understand.
  • 2 (c) and 2 (d) the first imaging unit 130a and the second imaging unit 130b are shown in a transparent state.
  • the first imaging unit 130a is arranged on the upper left side and the second imaging unit 130b is arranged on the upper right side of the back surface 102b of the housing 102.
  • the second imaging unit 130b is blocked by the user's finger (finger 193a which is an index finger in the present embodiment). Therefore, the image captured by the second imaging unit 130b is a dark (black) image.
  • the gripping hand determining unit 112 can determine the gripping hand.
  • the gripping hand is determined based on the brightness of the image captured by the image capturing unit 130 is illustrated, but the present invention is not limited to this.
  • the first adjustment function of the image capturing unit 130 is used to The gripping hand may be determined based on whether the imaging unit 130 of the imaging unit 130a or the second imaging unit 130b is in focus.
  • the case where the imaging unit 130 includes the first imaging unit 130 a and the second imaging unit 130 b is illustrated.
  • the imaging unit 130 is not limited to this, and the imaging unit 130 is the rear surface of the housing 102. It is sufficient that at least one or more is provided in each of the image pickup units 130, and the same function can be realized by one imaging unit 130.
  • FIG. 2 (e) and 2 (f) illustrate the case where the acceleration sensor 150 is used as a gripping hand detection means.
  • the user holds the mobile phone 100 on the palms 191 a and 191 b, so the mobile phone 100 does not move toward the viewpoint unless the palms 191 a and 191 b are intentionally directed toward the viewpoint. It is in a tilted state without facing directly.
  • FIG.2 (e) when the user is holding the mobile telephone 100 with the left hand 190a, the mobile telephone 100 will be in the state of falling to the right.
  • FIG.2 (e) when the user is holding the mobile telephone 100 with the left hand 190a, the mobile telephone 100 will be in the state of falling to the right.
  • the gripping hand determination unit 112 can determine the gripping hand.
  • FIG. 3 is a diagram for explaining another example of the arrangement of the proximity sensor 140 and the contact of the finger with the touch panel display 120.
  • the proximity sensors 140 (the left proximity sensor 140a and the right proximity sensor 140b) are arranged in the vicinity of both ends of the lower surface 102e of the housing 102.
  • the user when the user holds the mobile phone 100, the user often holds the palm 191a / 191b (see FIG. 2) so that the corner of the mobile phone 100 hits.
  • the gripping hand determining unit 112 can determine the gripping hand by referring to the output results of the left side proximity sensor 140a and the right side proximity sensor 140b.
  • FIG. 3B illustrates a contact state of the user's hand to the touch panel display 120 when the mobile phone 100 is held.
  • the user's palm 191b contacts the right area at the bottom of the display unit 122 (strictly, the touch panel display 120).
  • the touch sensor 124 detects a contact larger than the finger in the lower right region (shown by hatching).
  • the gripping hand determination unit 112 can determine the gripping hand by referring to the contact position (on the right side or the left side) when contact with a larger area than the finger is detected at the lower part of the touch panel display 120. is there.
  • the operator determination unit 114 can determine the operator by referring to the contact position when the contact in the area larger than the finger is detected in the lower part of the touch panel display 120 as described above.
  • a proximity sensor 140 (a left proximity sensor 140a and a right proximity sensor 140b) is provided in the vicinity of both ends of the lower portion of the surface 102a of the housing 102 (the surface on which the display unit 122 is provided). Is arranged. Accordingly, when the user operates the touch panel display 120 with the left hand 190a, the left proximity sensor 140a disposed at the left end is covered with the left hand 190a (operating hand), and the left proximity sensor 140a detects the object (operating hand). Approach is detected.
  • the operator determination unit 114 can determine the operator by referring to the output results of the proximity sensors 140 (the left proximity sensor 140a and the right proximity sensor 140b).
  • FIG. 3 (d) and 3 (e) illustrate the contact state of the user's hand to the touch panel display 120 when operating the mobile phone 100.
  • FIG. 3D When the user is operating with the left hand 190 a as shown in FIG. 3D, the contact surface (shown by an arrow) when the touch of the finger 192 a is detected on the touch panel display 120 is the upper right of the touch panel display 120. It becomes a substantially elliptical shape extending diagonally from the bottom to the left.
  • the contact surface (shown by an arrow) when the touch of the finger 192b is detected on the touch panel display 120 is the touch panel display 120. It becomes a substantially elliptical shape that extends obliquely from the upper left to the lower right. Therefore, the operator determination unit 114 can determine the operator by referring to the shape of the contact surface when the touch of the finger is detected on the touch panel display 120.
  • the proximity sensor 140, the second touch sensor 160, the imaging unit 130, the acceleration sensor 150, the touch panel display 120, and the like are caused to function as a gripping hand detection unit or an operation hand detection unit, and the output result is referred to.
  • the configuration in which the gripping hand determining unit 112 and the operating hand determining unit 114 determine the gripping hand and the operating hand has been exemplified, but the present invention is not limited to this.
  • the user may be registered in advance as to which of the right hand 190b and the left hand 190a is used as the gripping hand or the operating hand.
  • the gripping hand determining unit 112 and the operator determination unit 114 can also update the pre-registered information with reference to the detection result by the grasping hand detector or the operator hand detector.
  • the display range setting unit 116 refers to the determination result and displays the user in the display area of the display unit 122. Is set as the display range.
  • FIG. 4 is a diagram illustrating a display range set by the display range setting unit 116.
  • the display area of the display unit 122 is divided into nine areas of areas A, B, C, D, E, F, G, H, and I in order from the upper left.
  • An example will be described. 4 (b) to 4 (e), in the display unit 122, a region where the operating hand (finger) is in contact is shown in black, and it is difficult to visually recognize it by being covered by the operating hand (viewing). (Impossible) area is indicated by hatching.
  • segmentation number and display range of the display part 122 shown in FIG. 4 are only illustrations, and are not limited to this.
  • FIG. 4B is a diagram illustrating a display range when the gripping hand and the operating hand are both the right hand 190b. That is, the case where the mobile phone 100 is held with the right hand 190b and the touch panel display 120 is operated with the thumb (finger 192b) of the right hand 190b is illustrated. As shown in FIG. 4 (b-1), when the area A is touched with the thumb of the right hand 190b, the areas B, D, E, F, H, and I are covered with the right hand 190b and are difficult to see.
  • the range setting unit 116 sets the areas C and G as the display range. As shown in FIG.
  • the unit 116 sets the areas A, D, and G as display ranges.
  • FIG. 4B-3 when the region C is touched with the thumb of the right hand 190b, the region F ⁇ I is covered with the right hand 190b and is difficult to see.
  • B, D, E, G, and H are set as the display range.
  • FIG. 4 (b-4) when the area D is touched with the thumb of the right hand 190b, the areas E ⁇ G to I are covered with the right hand 190b and are difficult to see.
  • a to C and F are set as the display range.
  • FIG. 4 (b-5) when the region E is touched with the thumb of the right hand 190b, the region F / H / I is covered with the right hand 190b and is difficult to visually recognize.
  • a to D and G are set as the display range.
  • FIG. 4C is a diagram illustrating a display range when the gripping hand and the operating hand are both the left hand 190a. That is, the case where the mobile phone 100 is held with the left hand 190a and the touch panel display 120 is operated with the thumb (finger 192a) of the left hand 190a is illustrated. In this case, as shown in FIGS. 4 (c-1) to (c-9), the area covered by the left hand 190a is symmetric with respect to FIGS. 4 (b-1) to (b-9), so the display range Is also set symmetrically with FIGS. 4B-1 to 4B-9.
  • FIG. 4D illustrates the display range when the gripping hand is the left hand 190a and the operating hand is the right hand 190b. That is, the case where the mobile phone 100 is held with the left hand 190a and the touch panel display 120 is operated with the finger of the right hand 190b is illustrated. As shown in FIG. 4 (d-1), when the area A is touched with the finger of the right hand 190b while the mobile phone 100 is held by the left hand 190a, the area covered by the right hand 190b is as shown in FIG. 4 (b-1). It is the same. Accordingly, the display range setting unit 116 sets the regions C and G as the display range in the same manner as in FIG. As shown in FIG.
  • FIG. 4D-3 when the area C is touched with the finger of the right hand 190b, the area other than the area C is not covered by the right hand 190b.
  • A, B, D to I are set as the display range.
  • FIGS. 4D-4 to 4D-9 when the areas D to I are touched with the finger of the right hand 190b, the areas covered by the right hand 190b are shown in FIGS. 4 (b-9), the display range setting unit 116 sets the display range in the same manner as in FIGS. 4 (b-4) to 4 (b-9).
  • FIG. 4E is a diagram illustrating a display range when the gripping hand is the right hand 190b and the operating hand is the left hand 190a. That is, the case where the mobile phone 100 is held with the right hand 190b and the touch panel display 120 is operated with the finger of the left hand 190a is illustrated. In this case, as shown in FIGS. 4 (e-1) to (e-9), the area covered by the left hand 190a is symmetric with respect to FIGS. 4 (d-1) to (d-9). Are also set symmetrically with respect to FIGS. 4 (d-1) to (d-9).
  • the image changing unit 118 displays the position of the image displayed on the display unit 122 or within the display range set by the display range setting unit 116. Change the size. That is, the image changing unit 118 changes the position and size of the image information such as the number of characters, the size of the picture, and the number of selection candidates so as to be suitable for the size of the display range and the number of areas set by the display range setting unit 116.
  • FIG. 5 is a diagram illustrating the display of an image on the display unit 122.
  • FIG. 5 illustrates a case where the gripping hand and the operating hand are both the right hand 190b as shown in FIG. 4 (b-1).
  • the area 122a is an area corresponding to the area C in FIG. 4 (b-1), and the area 122b is in the area G in FIG. 4 (b-1). The corresponding area.
  • the display range is divided into two (plural) areas (areas 122a and 122b) of the regions C and G.
  • areas 122a and 122b areas of the regions C and G.
  • an image may be displayed using both the areas 122a and 122b (regions C and G) as shown in FIG.
  • an image may be displayed only in one area (the area 122b is illustrated in FIG. 5B).
  • FIG. 5 when it is necessary to avoid selection mistakes due to mistakes in pressing, such as displaying “YES” and “NO” determination options (icons) for the item “contract”, FIG. As shown in FIG. 5, the options may be divided and displayed in each of a plurality of non-adjacent areas (areas 122a and 122b).
  • icons that are more convenient to display side by side such as a mail transmission box icon, a reception box icon, and a new mail creation icon, icons that are frequently used, and the like are shown in FIG. 5B. It is good to arrange and display in one area among (areas 122a and 122b).
  • the touch panel display 120 is based on a region that is not touched by a user's hand or finger but is covered (hidden) by the user's hand or finger.
  • the display range is set. That is, the display range of the display unit can be set without depending on whether the user's hand or finger is touched. As a result, the image is displayed only in the region that can be visually recognized by the user, so that the operability can be improved and the convenience for the user can be further improved.
  • the mobile phone 100 of this embodiment includes the acceleration sensor 150 that detects acceleration and detects the direction of gravity of the mobile phone 100, that is, the posture of the mobile phone 100 based on the detected acceleration.
  • the acceleration sensor 150 is used as a terminal posture detection unit, and the display range setting unit 116 refers to the output results from the terminal posture detection unit in addition to the determination results of the gripping hand determination unit 112 and the operation hand determination unit 114. By setting, the above-described functions can be further improved.
  • FIG. 6 is a diagram for explaining the setting of the display range based on the output result from the terminal attitude detection means.
  • FIG. 6 illustrates the case where the gripping hand is the left hand 190a and the operating hand is the right hand 190b as shown in FIG. 4 (d-1).
  • the display range is divided into two (plural) areas (areas 122a and 122b) of the regions C and G.
  • FIG. 6A when the mobile phone 100 is gripped in a nearly vertical state, both the areas 122a and 122b are visible.
  • FIG. 6A when the mobile phone 100 is gripped in a nearly vertical state, both the areas 122a and 122b are visible.
  • FIG. 6A when the mobile phone 100 is gripped in a nearly vertical state, both the areas 122a and 122b are visible.
  • FIG. 6A when the mobile phone 100 is gripped in a nearly vertical state, both the areas 122a and 122b are visible.
  • FIG. 6A when the mobile phone 100 is gripped in
  • the display range setting unit 116 sets the display range with reference to the output result from the acceleration sensor 150 in addition to the determination results of the gripper hand determination unit 112 and the operation hand determination unit 114.
  • the mobile phone 100 is horizontal in the areas 122a and 122b (regions C and G) that are display ranges set based on the determination results of the gripping hand determination unit 112 and the operation hand determination unit 114.
  • the area 122a that is difficult to visually recognize due to being close to the state is invalidated. Thereby, an image is not displayed in the area 122a that is difficult for the user to visually recognize, and an image is displayed only in the area 122b. Therefore, the operability can be further improved, and the convenience for the user can be further enhanced.
  • the mobile phone 100 can change the size of an image displayed on the display unit 122, particularly the key of the keyboard, as will be described below. Can reflect the attitude.
  • FIG. 7 is a diagram for explaining the change in the size of the image depending on the posture of the mobile phone.
  • FIG. 7 illustrates the case where the “na row” keys (keyboards) are arranged
  • the present invention is not limited to this.
  • the control described below is not limited to the keyboard, and can be applied to display other images.
  • the “NA” keyboard shown in FIG. 7 is a flick input type keyboard in which “NI” to “NO” keys are displayed around when the “NA” key is touched.
  • FIGS. 7A to 7D the finger in contact with the “NA” key is not shown.
  • the display range setting unit 116 sets all display areas of the display unit 122 as display ranges
  • the image changing unit 118 sets all the keys (“NA” to “NO” keys of the “NA” line keyboard. ) To the same size (standard time).
  • the display range setting unit 116 sets the area other than the upper part and the right side of the display unit 122 as the display range, and the image changing unit 118 uses the keys (“NA”, “NI”, “N” arranged in the display range. ")" Is the standard size, and the keys “Nu” and “Ne” that are arranged outside the display range are enlarged (changed in size).
  • the keys “N” and “N” are enlarged. Is done.
  • the visibility of the keys (images) displayed there is increased in an area where the mobile phone 100 is inclined and the distance from the user's viewpoint position becomes far and difficult to see. It is possible to obtain higher operability. Therefore, it is possible to provide the mobile phone 100 that prevents erroneous input and is highly convenient.
  • all keys constituting the keyboard can be enlarged as much as possible within the display range. Also in this case, it is possible to enlarge only a specific key according to the posture of the mobile phone 100 as shown in FIG.
  • the present invention can be used as a terminal device including a touch panel display including a display unit that displays an image and a touch sensor that is superimposed on the display unit and detects a user input by contact.

Abstract

 表示部およびタッチセンサからなるタッチパネルディスプレイと、ユーザが当該端末装置を把持している手である把持手を判断する把持手判断部と、ユーザがタッチパネルディスプレイを操作している手である操作手を判断する操作手判断部と、把持手判断部および操作手判断部の判断結果を参照し、表示部の表示領域のうちユーザが視認可能な範囲を表示範囲として設定する表示範囲設定部と、表示範囲設定部によって設定された表示範囲内におさまるように、表示部に表示する画像の位置または大きさを変更する画像変更部と、を備える端末装置を提供する。

Description

端末装置
 本発明は、画像を表示する表示部と、表示部に重畳され接触によりユーザ入力を検出するタッチセンサとからなるタッチパネルディスプレイを備える端末装置に関する。
 近年、画像を表示するディスプレイ(表示部)に、接触によりユーザ入力を検出するタッチセンサを重畳したタッチパネルディスプレイを搭載した端末装置の普及が加速している。このような端末装置では、操作時にユーザの手や指が接触することにより、ディスプレイの一部の領域が覆われてしまい、そこに表示されている画像を視認しづらくなってしまうという課題があった。そこで例えば日本国特許公開2005-234993号公報では、画像表示装置において、画像表示面に表示されている画像を覆うように表示手段に接触した物体の位置を検出し、検出された物体の接触位置に応じて、表示手段の画像表示面に表示させる画像の表示領域を設定している。
 しかしながら日本国特許公開2005-234993号公報の構成では、ユーザの手や指が接触している領域を避けて表示しているだけであるため、ユーザの手や指が接触していないもののそれによって覆われている(隠れてしまう)領域については依然として視認困難であることに変わりがない。例えばフリック入力画面のように、特定のボタン(アイコン)を押下(接触)し、そのボタンの周囲に派生するボタンを選択する時、指が接触しているのは押下している特定のボタンのみであるが、その指の接触していない部分によって派生したボタンが隠れてしまうことがある。すると、本来選択したいはずのボタンが視認困難になり、誤入力が生じ易くなってしまう。
 本発明は、このような課題に鑑み、ユーザの手や指の接触の有無によることなくディスプレイの表示範囲を設定することができ、ユーザの利便性を更に向上させることが可能な端末装置を提供することを一の目的とする。
 本発明の一の態様にかかる端末装置は、画像を表示する表示部と、表示部に重畳され接触によりユーザ入力を検出するタッチセンサとからなるタッチパネルディスプレイと、ユーザが当該端末装置を把持している手である把持手が右手または左手のいずれであるかを判断する把持手判断部と、ユーザがタッチパネルディスプレイを操作している手である操作手が右手または左手のいずれであるかを判断する操作手判断部と、把持手判断部および操作手判断部の判断結果に基づき、前記表示部に表示する画像の位置または大きさを変更する画像変更部と、を備える。
 当該端末装置は、前記把持手判断部および前記操作手判断部の判断結果を参照し、前記表示部の表示領域のうち前記ユーザが視認可能な範囲を表示範囲として設定する表示範囲設定部を更に備え、前記画像変更部は、前記表示範囲設定部によって設定された表示範囲内におさまるように、前記表示部に表示する画像の位置または大きさを変更するとよい。
 当該端末装置は、筐体の両側面それぞれに、近接センサ、照度センサ、近接照度センサ、または物理キーのうち少なくとも1以上からなる把持手検出手段を更に備え、把持手判断部は、把持手検出手段からの出力結果を参照して把持手を判断するとよい。
 当該端末装置は、筐体において表示部が設けられている面の背面に、接触によりユーザの手の接触を検出する第2タッチセンサを更に備え、把持手判断部は、第2タッチセンサからの出力結果を参照して把持手を判断するとよい。
 当該端末装置は、筐体において表示部が設けられている面の背面に、画像を撮影する撮像部を更に備え、撮像部が撮影した画像を参照して把持手を判断するとよい。
 当該端末装置は、加速度センサまたは地磁気センサのうち少なくとも1以上からなる把持手検出手段を更に備え、把持手判断部は、把持手検出手段からの出力結果を参照して把持手を判断するとよい。
 当該端末装置は、筐体の下面の両端部近傍それぞれに、近接センサ、照度センサ、近接照度センサ、または物理キーのうち少なくとも1以上からなる把持手検出手段を更に備え、把持手判断部は、把持手検出手段からの出力結果を参照して把持手を判断するとよい。
 上記把持手判断部は、タッチパネルディスプレイの下部において指より大きい面積での接触が検知されたときの接触位置によって把持手を判断するとよい。
 当該端末装置は、筐体において表示部が設けられている面の下部の両端近傍それぞれに、近接センサ、照度センサ、近接照度センサ、または物理キーのうち少なくとも1以上からなる操作手検出手段を更に備え、操作手判断部は、操作手検出手段からの出力結果を参照して操作手を判断するとよい。
 上記操作手判断部は、タッチパネルディスプレイの下部において指より大きい面積での接触が検知されたときの接触位置によって操作手を判断するとよい。
 上記操作手判断部は、タッチパネルディスプレイにおいて指の接触が検知されたときの接触面の形状によって操作手を判断するとよい。
 当該端末装置は、加速度センサまたは地磁気センサのうち少なくとも1以上からなる端末姿勢検出手段を更に備え、表示範囲設定部は、把持手判断部および操作手判断部の判断結果に加え、端末姿勢検出手段からの出力結果を参照して表示範囲を設定するとよい。
 本発明の別の態様にかかる表示制御方法は、画像を表示する表示部と、該表示部に重畳され接触によりユーザ入力を検出するタッチセンサとからなるタッチパネルディスプレイを備える端末装置の表示制御方法であって、ユーザが当該端末装置を把持している手である把持手が右手または左手のいずれであるかを判断し、ユーザが前記タッチパネルディスプレイを操作している手である操作手が右手または左手のいずれであるかを判断し、把持手と操作手の判断結果に基づき、前記表示部に表示する画像の位置または大きさを変更することを含む。
 本発明の別の態様にかかる端末装置は、画像を表示する表示部と、該表示部に重畳され接触によりユーザ入力を検出するタッチセンサとからなるタッチパネルディスプレイと、当該端末装置を把持しているユーザの把持手が右手または左手のいずれであるか、および前記タッチパネルディスプレイを操作しているユーザの操作手が右手または左手のいずれであるかに基づいて前記表示部に表示する画像の位置または大きさを変更する制御部と、を備える。
 上記構成によれば、ユーザの手や指の接触の有無によることなくディスプレイの表示を変更することができ、ユーザの利便性を更に向上させることが可能な端末装置を提供することができる。
本実施形態にかかる携帯電話を説明する図である。 近接センサ以外のモジュールを把持手検出手段として用いる場合を例示する図である。 近接センサの配置の他の例、およびタッチパネルディスプレイへの指の接触を説明する図である。 表示範囲設定部によって設定される表示範囲を例示する図である。 表示部への画像の表示について例示する図である。 端末姿勢検出手段からの出力結果による表示範囲の設定について説明する図である。 携帯電話の姿勢による画像のキーの大きさの変更について説明する図である。
 以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。
 また理解を容易にするために、以下に説明する実施形態では、端末装置として携帯電話(以下、携帯電話100と称する)を例示するが、これに限定するものではない。本発明は、後述するように表示部122およびそれに重畳されるタッチセンサ124からなるタッチパネルディスプレイ120を備える端末装置であれば如何なるものにも適用可能である。端末装置は、例えばPHS端末、ノート型パーソナルコンピュータ、PDA(Personal Digital Assistant)、ハンディGPS、ナビゲーション装置、ネットブック、デジタルカメラ等であってもよい。
 図1は、本実施形態にかかる携帯電話100を説明する図であり、図1(a)は本実施形態の携帯電話100の機能ブロック図であり、図1(b)は本実施形態の携帯電話100の外観斜視図である。図1(a)に示すように、本実施形態の携帯電話100は制御部110を有する。制御部110は、中央処理装置(CPU)を含む半導体集積回路により携帯電話100全体の機能を管理および制御し、例えば記憶部170に記憶されているプログラムを用いて通話機能やメール送受信機能等を実行する。また本実施形態では、制御部110は、把持手判断部112、操作手判断部114、表示範囲設定部116および画像変更部118としても機能する。これらの詳細については後に詳述する。
 図1(b)に示すように、表示部122は、筐体102の表面102aに配設されたディスプレイである。表示部122は、液晶ディスプレイ(Liquid Crystal Display)、有機EL(Electro Luminescence)等で構成され、写真画像やアプリケーションの動作画面、通話における通話先や発信元などの情報をユーザに対して表示する。また本実施形態では、透明の素材で形成され、ユーザの指の接触を検出するタッチセンサ124(図1(a)参照)が、表示部122にそれを視認可能に重畳されている。これにより、表示部122およびタッチセンサ124によってタッチパネルディスプレイ120が構成され、それを、ユーザの指の接触によりユーザ入力を受け付ける入力部として機能させることができる。
 なお、タッチセンサ124によるユーザ入力の検知方式としては、静電容量式でもよいし、感圧式であってもよい。また本実施形態においては、タッチセンサ124を含むタッチパネルディスプレイ120を入力部として例示したが、それに加えて、キーボード、十字キー、ジョイスティック等の可動スイッチを入力部として更に備えてもよい。例えば本実施形態では、筐体102の表面102aにスイッチボタン104(物理キー)を設けている。
 また図1(b)に示すように、本実施形態の携帯電話100には、筐体102の裏面102b(表示部122が設けられている面の背面)に、第1撮像部130aおよび第2撮像部130bからなる撮像部130が設けられている。撮像部130は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の映像素子で構成され、静止画や動画を撮影する。
 近接センサ140は、超音波、ミリ波、マイクロ波、静電容量、磁気等を利用した素子からなり、携帯電話100への物体(本実施形態ではユーザの手)の接近を検出する。なお、近接センサ140に代えて、照度センサ、近接照度センサ、物理キー等を採用することも可能である。加速度センサ150は、例えばピエゾ抵抗型MEMS(Micro Electroechanical System)等からなる3軸加速度センサであって、XYZ軸の3方向の加速度を検知し、検知した加速度によって携帯電話100の重力方向、すなわち携帯電話100の姿勢を検出する。
 なお、加速度センサ150としては、静電容量型や熱検知型等の加速度センサを用いてよいし、携帯電話100におけるXY軸の2方向の加速度を検知する加速度センサを用いてもよい。また加速度センサ150に代えて地磁気センサやジャイロスコープセンサを採用することも可能である。第2タッチセンサ160は、筐体102の裏面102b(図1(b)参照)に配置され、かかる裏面102bにおけるユーザの手または指の接触を検出する。
 上述したように、本実施形態の携帯電話100において、制御部110は、把持手判断部112、操作手判断部114、表示範囲設定部116および画像変更部118としても機能する。詳細には、把持手判断部112は、ユーザが当該携帯電話100(端末装置)を把持している手である把持手が右手または左手のいずれであるかを判断する。操作手判断部114は、ユーザがタッチパネルディスプレイ120を操作している手である操作手が右手または左手のいずれであるかを判断する。表示範囲設定部116は、把持手判断部112および操作手判断部114の判断結果を参照し、表示部122の表示領域のうちユーザが視認可能な範囲を表示範囲として設定する。画像変更部118は、表示範囲設定部116によって設定された表示範囲内におさまるように、表示部122に表示する画像の位置または大きさを変更する。
 上記の把持手判断部112は、把持手検出手段からの出力結果を参照して、把持手が右手または左手のいずれであるかを判断するとよい。把持手検出手段としては、例えば上述した近接センサ140を利用することができる。本実施形態では、図1(b)に示すように、上述した近接センサ140として、左側近接センサ140aおよび右側近接センサ140bが筐体の側面102c・102d(両側面)それぞれに配設されている。これにより、把持手判断部112は、左側近接センサ140aが物体の接近を検出したら、ユーザが左手で携帯電話100を把持していると判断することができ、右側近接センサ140bが物体の接近を検出したら、ユーザが右手で携帯電話100を把持していると判断することができる。
 なお、把持手検出手段として、近接センサ140以外のモジュールを用いることも可能である。図2は、近接センサ140以外のモジュールを把持手検出手段として用いる場合を例示する図である。図2(a)および(b)は、第2タッチセンサ160(図1(a)参照)を把持手検出手段として用いた場合を例示している。図2(a)に示すように、ユーザが左手190aで携帯電話100を把持している場合、筐体102の裏面102bに設けられた第2タッチセンサ160では、左側近傍において掌191aによる面積の広い接触(ハッチングにて図示)が生じ、右側近傍において指193a・194a・195a・196aによる複数の面積が狭い接触(ハッチングにて図示)が生じている。
 一方、図2(b)に示すように、ユーザが右手190bで携帯電話100を把持している場合、第2タッチセンサ160では、右側近傍において掌191bによる面積の広い接触(ハッチングにて図示)が生じ、左側近傍において指193b・194b・195b・196bによる複数の面積が狭い接触(ハッチングにて図示)が生じている。このように、ユーザが右手190bまたは左手190aのいずれの手で携帯電話100を把持するかによって第2タッチセンサ160における接触検出位置やその面積が異なる。このため、かかる第2タッチセンサ160を把持手検出手段として用い、その出力結果を参照することにより把持手判断部112が把持手を判断可能となる。
 なお、本実施形態では第2タッチセンサ160がマルチタッチ(複数箇所での接触)を検出可能な場合を例示して説明したが、これに限定するものではない。第2タッチセンサ160はシングルタッチを検出するものであってもよく、この場合、把持手判断部112は、例えば一番面積の大きい接触が生じている位置が左右どちらであるかを判断することにより把持手を判断することが可能である。
 図2(c)および(d)は、撮像部130を把持手検出手段として用いた場合を例示している。なお、撮像部130を構成する第1撮像部130aおよび第2撮像部130bは筐体102の裏面102bに配設されているため本来であれば正面からは視認できないが、理解を容易にするために、図2(c)および(d)では第1撮像部130aおよび第2撮像部130bを透過させた状態で図示している。
 本実施形態では、筐体102の裏面102bにおいて左上に第1撮像部130aが、右上に第2撮像部130bが配置されている。図2(c)に示すように、ユーザが左手190aで携帯電話100を把持している場合、第2撮像部130bはユーザの指(本実施形態においては人差し指である指193a)によって塞がれてしまうため、第2撮像部130bによって撮影がされた画像は暗い(黒い)画像になる。
 一方、図2(d)に示すように、ユーザが右手190bで携帯電話100を把持している場合、第1撮像部130aはユーザの指(本実施形態においては人差し指である指193b)によって塞がれてしまうため、第1撮像部130aによって撮影された画像は暗い(黒い)画像になる。このように、ユーザが右手190bまたは左手190aのいずれの手で携帯電話100を把持するかによって撮像部130において撮影された画像の明るさが異なるため、かかる撮像部130による撮影画像を参照することにより把持手判断部112が把持手を判断可能となる。
 なお、本実施形態では撮像部130において撮影された画像の明るさによって把持手を判断する場合を例示したが、これに限定するものではなく、例えば撮像部130のピント調節機能を用い、第1撮像部130aおよび第2撮像部130bのいずれの撮像部130のピントが合うか否かを以って把持手を判断してもよい。また本実施形態では、撮像部130が第1撮像部130aおよび第2撮像部130bの2つから構成される場合を例示したが、これにおいても限定されず、撮像部130は筐体102の背面に少なくとも1以上設けられていればよく、1つの撮像部130によっても同等の機能を実現することが可能である。
 図2(e)および(f)は、加速度センサ150を把持手検出手段として用いた場合を例示している。一般に、携帯電話100を把持するときユーザはそれを掌191a・191bに載置するように持つため、かかる掌191a・191bを意図的に視点側に向けない限り、携帯電話100は視点に対して正対せず、傾いた状態になる。このため、図2(e)に示すようにユーザが左手190aで携帯電話100を把持している場合、携帯電話100は右下がりの状態になる。一方、図2(f)に示すようにユーザが右手190bで携帯電話100を把持している場合、携帯電話100は左下がりの状態になる。特に携帯電話100を手に持った瞬間は、携帯電話100の傾き(姿勢)が、把持手に応じて図2(e)または図2(f)に示す状態になることが多い。したがって、加速度センサ150を把持手検出手段として用い、その出力結果(携帯電話100の姿勢)を参照すれば、把持手判断部112が把持手を判断することが可能となる。
 図3は、近接センサ140の配置の他の例、およびタッチパネルディスプレイ120への指の接触を説明する図である。図3(a)に示す携帯電話100aでは、筐体102の下面102eの両端部近傍それぞれに近接センサ140(左側近接センサ140aおよび右側近接センサ140b)を配置している。一般に、携帯電話100を把持するときユーザは掌191a・191b(図2参照)に携帯電話100の角が当たるようにして持つことが多い。
 したがって、上記構成によれば、ユーザが携帯電話100を左手190aに把持した場合には、下面102eの左端に配置された左側近接センサ140aによって物体(把持手)の接近が検出され、ユーザが携帯電話100を右手190bに把持した場合には、下面102eの右端に配置された右側近接センサ140bによって物体(把持手)の接近が検出される。これにより、左側近接センサ140aおよび右側近接センサ140bの出力結果を参照することにより、把持手判断部112が把持手を判断することが可能となる。
 図3(b)は、携帯電話100を把持した際におけるタッチパネルディスプレイ120へのユーザの手の接触状態を図示している。例えばユーザが右手190bで携帯電話100を把持する場合、表示部122(厳密にはタッチパネルディスプレイ120)の下部の右側の領域にユーザの掌191b(図2(b)参照)が接触し、図3(b)に示すように右下の領域での指より大きい面積の接触(ハッチングにて図示)がタッチセンサ124において検知される。
 一方、図示はしていないが、ユーザが左手190aで携帯電話100を把持する場合には、表示部122(タッチパネルディスプレイ120)の下部の左側の領域へのユーザの掌191a(図2(a)参照)の接触により、左下の領域での指より大きい面積の接触がタッチセンサ124において検知される。したがって、タッチパネルディスプレイ120の下部において指より大きな面積での接触が検知されたときの接触位置(右側か左側か)を参照することにより、把持手判断部112が把持手を判断することが可能である。
 また図3(b)から明らかなように、タッチパネルディスプレイ120において、ユーザの掌191bが指より大きい面積で接触しているということは、すなわちその把持している側の手でタッチパネルディスプレイ120を操作しているということである。したがって、上記のようにタッチパネルディスプレイ120の下部において指より大きな面積での接触が検知されたときの接触位置を参照することにより、操作手判断部114が操作手を判断することも可能となる。
 図3(c)に示す携帯電話100bでは、筐体102の表面102a(表示部122が設けられている面)の下部の両端近傍それぞれに近接センサ140(左側近接センサ140aおよび右側近接センサ140b)を配置している。これにより、ユーザが左手190aでタッチパネルディスプレイ120を操作する際には、左端に配置された左側近接センサ140aが左手190a(操作手)によって覆われ、かかる左側近接センサ140aにおいて物体(操作手)の接近が検出される。
 一方、ユーザが右手190bでタッチパネルディスプレイ120を操作する際には、右端に配置された右側近接センサ140bが右手190b(操作手)によって覆われ、かかる右側近接センサ140bにおいて物体(操作手)の接近が検出される。これにより、操作手判断部114が、近接センサ140(左側近接センサ140aおよび右側近接センサ140b)の出力結果を参照して操作手を判断することが可能となる。
 図3(d)および(e)は、携帯電話100を操作する際におけるタッチパネルディスプレイ120へのユーザの手の接触状態を図示している。図3(d)に示すようにユーザが左手190aで操作している場合、タッチパネルディスプレイ120において指192aの接触が検知されたときの接触面(矢印にて図示)は、かかるタッチパネルディスプレイ120の右上から左下に向かって斜めに延びる略楕円形状となる。
 一方、図3(e)に示すようにユーザが右手190bで操作している場合、タッチパネルディスプレイ120において指192bの接触が検知されたときの接触面(矢印にて図示)は、かかるタッチパネルディスプレイ120の左上から右下に向かって斜めに延びる略楕円形状となる。したがって、タッチパネルディスプレイ120において指の接触が検知されたときの接触面の形状を参照することにより、操作手判断部114が操作手を判断することが可能である。
 なお、上記説明では、近接センサ140や第2タッチセンサ160、撮像部130、加速度センサ150、タッチパネルディスプレイ120等を把持手検出手段または操作手検出手段として機能させ、その出力結果を参照することにより把持手判断部112や操作手判断部114が把持手や操作手を判断する構成を例示したが、これに限定するものではない。例えば、把持手や操作手を右手190bまたは左手190aのいずれの手にするかを事前にユーザ登録させる構成としてもよい。また把持手や操作手を事前登録する場合であっても、把持手検出手段や操作手検出手段によって検出された把持手や操作手が事前登録された手と異なる場合には、把持手判断部112や操作手判断部114は、把持手検出手段または操作手検出手段による検出結果を参照して事前登録された情報を更新することも可能である。
 上述したように把持手判断部112および操作手判断部114によって把持手および操作手が判断されたら、表示範囲設定部116は、それらの判断結果を参照し、表示部122の表示領域のうちユーザが視認可能な範囲を表示範囲として設定する。図4は、表示範囲設定部116によって設定される表示範囲を例示する図である。
 以下、図4(a)に示すように、表示部122の表示領域を左上から順に、領域A・B・C・D・E・F・G・H・Iの9つの領域に分割した場合を例示して説明する。また図4(b)~図4(e)では、表示部122において、操作手(の指)が接触している領域を黒塗りで示し、かかる操作手によって覆われることにより視認困難な(視認不可能な)領域をハッチングにて示している。なお、図4に示す表示部122の分割数や表示範囲は例示にすぎず、これに限定するものではない。
 図4(b)は、把持手および操作手がいずれも右手190bであった場合の表示範囲を例示する図である。すなわち、右手190bで携帯電話100を把持し、右手190bの親指(指192b)でタッチパネルディスプレイ120を操作する場合を例示している。図4(b-1)に示すように、右手190bの親指で領域Aをタッチする場合、領域B・D・E・F・H・Iが右手190bに覆われて視認困難となるため、表示範囲設定部116は領域C・Gを表示範囲として設定する。図4(b-2)に示すように、右手190bの親指で領域Bをタッチする場合、領域C・E・F・H・Iが右手190bに覆われて視認困難となるため、表示範囲設定部116は領域A・D・Gを表示範囲として設定する。
 図4(b-3)に示すように、右手190bの親指で領域Cをタッチする場合、領域F・Iが右手190bに覆われて視認困難となるため、表示範囲設定部116は領域A・B・D・E・G・Hを表示範囲として設定する。図4(b-4)に示すように、右手190bの親指で領域Dをタッチする場合、領域E・G~Iが右手190bに覆われて視認困難となるため、表示範囲設定部116は領域A~C・Fを表示範囲として設定する。図4(b-5)に示すように、右手190bの親指で領域Eをタッチする場合、領域F・H・Iが右手190bに覆われて視認困難となるため、表示範囲設定部116は領域A~D・Gを表示範囲として設定する。
 図4(b-6)に示すように、右手190bの親指で領域Fをタッチする場合、領域Iが右手190bに覆われて視認困難となるため、表示範囲設定部116は領域A~E・G・Hを表示範囲として設定する。図4(b-7)に示すように、右手190bの親指で領域Gをタッチする場合、領域H・Iが右手190bに覆われて視認困難となるため、表示範囲設定部116は領域A~Fを表示範囲として設定する。図4(b-8)に示すように、右手190bの親指で領域Hをタッチする場合、領域Iが右手190bに覆われて視認困難となるため、表示範囲設定部116は領域A~Gを表示範囲として設定する。図4(b-9)に示すように、右手190bの親指で領域Iをタッチする場合、右手190bに覆われる領域はないため、表示範囲設定部116は領域I以外の領域A~Hを表示範囲として設定する。
 図4(c)は、把持手および操作手がいずれも左手190aであった場合の表示範囲を例示する図である。すなわち、左手190aで携帯電話100を把持し、左手190aの親指(指192a)でタッチパネルディスプレイ120を操作する場合を例示している。この場合、図4(c-1)~(c-9)に示すように、左手190aによって覆われる領域は図4(b-1)~(b-9)と左右対称になるため、表示範囲も図4(b-1)~(b-9)と左右対称に設定される。
 図4(d)は、把持手が左手190aであり、操作手が右手190bであった場合の表示範囲を例示する図である。すなわち、左手190aで携帯電話100を把持し、右手190bの指でタッチパネルディスプレイ120を操作する場合を例示している。図4(d-1)に示すように、携帯電話100を左手190aに把持した状態において右手190bの指で領域Aをタッチする場合、右手190bによって覆われる領域は図4(b-1)と同様である。したがって、表示範囲設定部116は、図4(b-1)と同様に領域C・Gを表示範囲として設定する。図4(d-2)に示すように、右手190bの指で領域Bをタッチする場合においても右手190bによって覆われる領域は図4(b-2)と同じであるため、表示範囲設定部116は、図4(b-2)と同様に領域A・D・Gを表示範囲として設定する。
 図4(d-3)に示すように、右手190bの指で領域Cをタッチする場合、領域C以外の領域は右手190bによって覆われないため、表示範囲設定部116は、領域C以外の領域A・B・D~Iを表示範囲として設定する。図4(d-4)~図4(d-9)に示すように、右手190bの指で領域D~Iをタッチする場合、右手190bによって覆われる領域は図4(b-4)~図4(b-9)と同じであるため、表示範囲設定部116は、図4(b-4)~図4(b-9)と同様に表示範囲をそれぞれ設定する。
 図4(e)は、把持手が右手190bであり、操作手が左手190aであった場合の表示範囲を例示する図である。すなわち、右手190bで携帯電話100を把持し、左手190aの指でタッチパネルディスプレイ120を操作する場合を例示している。この場合、図4(e-1)~(e-9)に示すように、左手190aによって覆われる領域は図4(d-1)~(d-9)と左右対称になるため、表示範囲も図4(d-1)~(d-9)と左右対称に設定される。
 上述したように表示範囲設定部116によって表示範囲が設定されたら、画像変更部118は、表示範囲設定部116によって設定された表示範囲内におさまるように、表示部122に表示する画像の位置または大きさを変更する。すなわち画像変更部118は、文字数や絵のサイズ、選択候補数等の画像情報の位置や大きさを、表示範囲設定部116によって設定された表示範囲のサイズやエリア数に適するように変更する。
 図5は、表示部122への画像の表示について例示する図である。なお、図5では、図4(b-1)のように把持手および操作手がいずれも右手190bであった場合を例示している。また図5において破線にて囲われている表示範囲のうち、エリア122aは図4(b-1)の領域Cに相当するエリアであり、エリア122bは図4(b-1)の領域Gに相当するエリアである。
 把持手および操作手がいずれも右手190bであった場合、上述したように、表示範囲は、領域C・Gの2つ(複数)のエリア(エリア122a・122b)に分割される。このように隣接しない複数のエリアが表示範囲に含まれる場合、図5(a)に示すようにエリア122a・122b(領域C・G)の両方を利用して画像を表示してもよいし、図5(b)に示すように一方のエリア(図5(b)ではエリア122bを例示)のみに画像を表示してもよい。
 例えば『契約する』という項目にたいして、『YES』および『NO』という判断の選択肢(アイコン)を表示する場合のように、押し間違いによる選択ミスを避ける必要がある場合には、図5(a)に示すように、隣接しない複数のエリア(エリア122a・122b)のそれぞれに選択肢を分割して表示するとよい。一方、メールの送信ボックスアイコン、受信ボックスアイコン、新規メール作成アイコンのように、並べて表示するほうが便利なアイコンや、頻繁に使用するアイコン等については、図5(b)に示すように複数のエリア(エリア122a・122b)のうち、1つのエリアに並べて表示するとよい。
 上記説明したように、本実施形態にかかる携帯電話100によれば、タッチパネルディスプレイ120において、ユーザの手や指が接触していないものの、それによって覆われてしまう(隠れてしまう)領域を踏まえて表示範囲が設定される。すなわちユーザの手や指の接触の有無によることなく表示部の表示範囲を設定することができる。これにより、画像はユーザが視認可能な領域のみに表示されることになるため、操作性の向上を図ることができ、ユーザの利便性を更に高めることが可能となる。
 ここで、上述したように本実施形態の携帯電話100は、加速度を検知し、検知した検知した加速度によって携帯電話100の重力方向、すなわち携帯電話100の姿勢を検出する加速度センサ150を備える。この加速度センサ150を端末姿勢検出手段とし、表示範囲設定部116が、把持手判断部112および操作手判断部114の判断結果に加え、かかる端末姿勢検出手段からの出力結果を参照して表示範囲を設定することにより、上述した機能をより向上させることが可能である。
 図6は、端末姿勢検出手段からの出力結果による表示範囲の設定について説明する図である。なお、図6では、図4(d-1)のように把持手が左手190aであり、操作手が右手190bであった場合を例示している。把持手が左手190aであり、操作手が右手190bであった場合、上述したように、表示範囲は、領域C・Gの2つ(複数)のエリア(エリア122a・122b)に分割される。このような場合、図6(a)に示すように携帯電話100を垂直に近い状態で把持しているときにはエリア122a・122bの両方を視認可能である。しかしながら、図6(b)に示すように携帯電話100がユーザから離れる方向に傾けられて水平に近い状態になると、エリア122a・122bのうち、エリア122a(領域Cに相当)は、ユーザから遠ざかり、且つ指192bの背後に位置するため視認しづらくなる。
 そこで表示範囲設定部116は、把持手判断部112および操作手判断部114の判断結果に加え、加速度センサ150からの出力結果を参照して表示範囲を設定する。例えば図6(b)の例では、把持手判断部112および操作手判断部114の判断結果によって設定された表示範囲であるエリア122a・122b(領域C・G)のうち、携帯電話100が水平に近い状態になることにより視認しづらくなるエリア122aを表示無効にする。これにより、ユーザが視認しづらいエリア122aでは画像表示が行われず、エリア122bにおいてのみ画像が表示される。したがって、操作性の更なる向上を図ることができ、ユーザの利便性を一層高めることが可能となる。
 また上記の端末姿勢検出手段(本実施形態においては加速度センサ150)を備えることにより、以下に説明するように、表示部122に表示される画像、特にキーボードのキーの大きさ変更に携帯電話100の姿勢を反映することができる。図7は、携帯電話の姿勢による画像の大きさの変更について説明する図である。
 なお、図7では「な行」のキー(キーボード)を配列した場合を例示しているが、これに限定するものでない。また以下に説明する制御は、キーボードに限定するものではなく、他の画像を表示する際にも適用可能である。また図7に示す「な行」のキーボードは、「な」のキーに接触したときにその周囲に「に」~「の」のキーが表示されるフリック入力形式のキーボードであるが、理解を容易にするために、図7(a)~(d)では、「な」のキーに接触している指を不図示としている。
 図7(a)に示すように、加速度センサ150(端末姿勢検出手段)によって検出された携帯電話100の姿勢が垂直に近い状態であった場合、ユーザは表示部122のすべての領域を視認可能である。換言すれば表示部122において視認しづらい領域は存在しない。したがって、表示範囲設定部116は、表示部122のすべての表示領域を表示範囲として設定し、画像変更部118は、「な行」のキーボードのすべてのキー(「な」~「の」のキー)を同じ大きさに設定する(標準時)。
 図7(b)に示すように、加速度センサ150によって検出された携帯電話100の姿勢が水平に近い状態であった場合、上述したように表示部122においてユーザから離れた領域である上部の領域を視認しづらくなる。そこで、表示範囲設定部116は、表示部122の上部以外の領域を表示範囲として設定し、画像変更部118は、「な行」のキーボードの5つのキーのうち、表示範囲に配置されているキー(「な」、「に」、「ね」、「の」)は標準時の大きさとし、表示範囲外に配置されているキーである「ぬ」のキーを拡大表示する(大きさを変更する)。
 図7(c)に示すように、加速度センサ150によって検出された携帯電話100の姿勢が右下に傾斜した状態であった場合、表示部122の右側の領域を視認しづらくなる。また図7(c)では、携帯電話100は水平側に傾いた状態であるため、表示部122の上部の領域も視認しづらくなる。したがって、表示範囲設定部116は、表示部122の上部および右側以外の領域を表示範囲として設定し、画像変更部118は、表示範囲に配置されているキー(「な」、「に」、「の」)は標準時の大きさとし、表示範囲外に配置されているキーである「ぬ」、「ね」のキーを拡大表示する(大きさを変更する)。一方、図7(d)に示す携帯電話100は、水平側に傾きつつ、図7(c)とは反対に左下に傾斜した状態であるため、「に」、「ぬ」のキーが拡大表示される。
 上記構成によれば、携帯電話100が傾いた姿勢になることによりユーザの視点位置から距離が遠くなり、視認しづらくなってしまう領域において、そこに表示されるキー(画像)の視認性を高めることができ、より高い操作性を得ることが可能である。したがって、誤入力を防ぎ、利便性に優れた携帯電話100を提供することが可能である。
 なお、上述した構成以外にも、例えば図7(e)に示すように、キーボードを構成するすべてのキーを、表示範囲内において可能な限り拡大することも可能である。そしてこの場合においても、図7(f)に示すように携帯電話100の姿勢に応じて特定のキーのみを拡大することも可能である。
 以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
 本出願は、2012年6月15日出願の日本特許出願・出願番号2012-135364に基づくものであり、その内容はここに参照として取り込まれる。
 本発明は、画像を表示する表示部と、表示部に重畳され接触によりユーザ入力を検出するタッチセンサとからなるタッチパネルディスプレイを備える端末装置として利用可能である。 
100・100a・100b…携帯電話、102…筐体、102a…表面、102b…裏面、102c・102d…側面、102e…下面、104…スイッチボタン、110…制御部、112…把持手判断部、114…操作手判断部、116…表示範囲設定部、118…画像変更部、120…タッチパネルディスプレイ、122…表示部、122a・122b…エリア、124…タッチセンサ、130…撮像部、130a…第1撮像部、130b…第2撮像部、140…近接センサ、140a…左側近接センサ、140b…右側近接センサ、150…加速度センサ、160…第2タッチセンサ、190a…左手、190b…右手、191a・191b…掌、192a・192b・193a・193b・194a・194b・195a・195b・196a・196b…指

Claims (16)

  1.  画像を表示する表示部と、該表示部に重畳され接触によりユーザ入力を検出するタッチセンサとからなるタッチパネルディスプレイと、
    ユーザが当該端末装置を把持している手である把持手が右手または左手のいずれであるかを判断する把持手判断部と、
     ユーザが前記タッチパネルディスプレイを操作している手である操作手が右手または左手のいずれであるかを判断する操作手判断部と、
    前記把持手判断部および前記操作手判断部の判断結果に基づき、前記表示部に表示する画像の位置または大きさを変更する画像変更部と、
    を備える端末装置。
  2.  当該端末装置は、
    前記把持手判断部および前記操作手判断部の判断結果を参照し、前記表示部の表示領域のうち前記ユーザが視認可能な範囲を表示範囲として設定する表示範囲設定部を更に備え、
     前記画像変更部は、前記表示範囲設定部によって設定された表示範囲内におさまるように、前記表示部に表示する画像の位置または大きさを変更する請求項1に記載の端末装置。
  3.  当該端末装置は、筐体の両側面それぞれに、近接センサ、照度センサ、近接照度センサ、または物理キーのうち少なくとも1以上からなる把持手検出手段を更に備え、
     前記把持手判断部は、前記把持手検出手段からの出力結果を参照して前記把持手を判断する請求項1に記載の端末装置。
  4.  当該端末装置は、筐体において前記表示部が設けられている面の背面に、接触によりユーザの手の接触を検出する第2タッチセンサを更に備え、
     前記把持手判断部は、前記第2タッチセンサからの出力結果を参照して前記把持手を判断する請求項1に記載の端末装置。
  5.  当該端末装置は、筐体において前記表示部が設けられている面の背面に、画像を撮影する撮像部を更に備え、
     前記撮像部が撮影した画像を参照して前記把持手を判断する請求項1に記載の端末装置。
  6.  当該端末装置は、加速度センサまたは地磁気センサのうち少なくとも1以上からなる把持手検出手段を更に備え、
     前記把持手判断部は、前記把持手検出手段からの出力結果を参照して前記把持手を判断する請求項1に記載の端末装置。
  7.  当該端末装置は、筐体の下面の両端部近傍それぞれに、近接センサ、照度センサ、近接照度センサ、または物理キーのうち少なくとも1以上からなる把持手検出手段を更に備え、
     前記把持手判断部は、前記把持手検出手段からの出力結果を参照して前記把持手を判断する請求項1に記載の端末装置。
  8.  前記把持手判断部は、前記タッチパネルディスプレイの下部において指より大きい面積での接触が検知されたときの該接触位置によって前記把持手を判断する請求項1に記載の端末装置。
  9.  当該端末装置は、筐体において前記表示部が設けられている面の下部の両端近傍それぞれに、近接センサ、照度センサ、近接照度センサ、または物理キーのうち少なくとも1以上からなる操作手検出手段を更に備え、
     前記操作手判断部は、前記操作手検出手段からの出力結果を参照して前記操作手を判断する請求項1に記載の端末装置。
  10.  前記操作手判断部は、前記タッチパネルディスプレイの下部において指より大きい面積での接触が検知されたときの該接触位置によって前記操作手を判断する請求項1に記載の端末装置。
  11.  前記操作手判断部は、前記タッチパネルディスプレイにおいて指の接触が検知されたときの該接触面の形状によって前記操作手を判断する請求項1に記載の端末装置。
  12.  当該端末装置は、加速度センサまたは地磁気センサのうち少なくとも1以上からなる端末姿勢検出手段を更に備え、
     前記表示範囲設定部は、前記把持手判断部および前記操作手判断部の判断結果に加え、前記端末姿勢検出手段からの出力結果を参照して前記表示範囲を設定することを特徴とする請求項2に記載の端末装置。
  13.  画像を表示する表示部と、該表示部に重畳され接触によりユーザ入力を検出するタッチセンサとからなるタッチパネルディスプレイを備える端末装置の表示制御方法であって、
     ユーザが当該端末装置を把持している手である把持手が右手または左手のいずれであるかを判断し、
     ユーザが前記タッチパネルディスプレイを操作している手である操作手が右手または左手のいずれであるかを判断し、
    把持手と操作手の判断結果に基づき、前記表示部に表示する画像の位置または大きさを変更することを含む、表示制御方法。
  14.  当該表示制御方法は、更に、
     把持手と操作手の判断結果を参照し、前記表示部の表示領域のうち前記ユーザが視認可能な範囲を表示範囲として設定し、
     前記変更は、設定された表示範囲内におさまるように、前記表示部に表示する画像の位置または大きさを変更する請求項13に記載の表示制御方法。
  15.  画像を表示する表示部と、該表示部に重畳され接触によりユーザ入力を検出するタッチセンサとからなるタッチパネルディスプレイと、
     当該端末装置を把持しているユーザの把持手が右手または左手のいずれであるか、および前記タッチパネルディスプレイを操作しているユーザの操作手が右手または左手のいずれであるかに基づいて前記表示部に表示する画像の位置または大きさを変更する制御部と、
     を備える端末装置。
  16.  前記制御部は、
     ユーザの把持手および操作手に基づき、前記表示部の表示領域のうち前記ユーザが視認可能な範囲を表示範囲として設定し、
     前記表示範囲設定部によって設定された表示範囲内におさまるように、前記表示部に表示する画像の位置または大きさを変更する請求項15に記載の端末装置。
     
PCT/JP2013/065965 2012-06-15 2013-06-10 端末装置 WO2013187370A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014521320A JP5876152B2 (ja) 2012-06-15 2013-06-10 端末装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012135364 2012-06-15
JP2012-135364 2012-06-15

Publications (1)

Publication Number Publication Date
WO2013187370A1 true WO2013187370A1 (ja) 2013-12-19

Family

ID=49758192

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/065965 WO2013187370A1 (ja) 2012-06-15 2013-06-10 端末装置

Country Status (2)

Country Link
JP (1) JP5876152B2 (ja)
WO (1) WO2013187370A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103777873A (zh) * 2014-02-18 2014-05-07 联想(北京)有限公司 一种信息处理方法及电子设备
JP2015158735A (ja) * 2014-02-21 2015-09-03 シャープ株式会社 携帯端末
WO2015178094A1 (ja) * 2014-05-23 2015-11-26 シャープ株式会社 携帯端末、及び当該携帯端末による操作処理方法
JP2015219724A (ja) * 2014-05-16 2015-12-07 富士通株式会社 電子機器
WO2015192444A1 (zh) * 2014-06-16 2015-12-23 中兴通讯股份有限公司 页面布局调整方法及终端
JP2016062156A (ja) * 2014-09-16 2016-04-25 シャープ株式会社 端末装置
JP2017097393A (ja) * 2015-11-18 2017-06-01 京セラドキュメントソリューションズ株式会社 操作入力装置及び操作入力方法
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels
US11962836B2 (en) 2019-03-24 2024-04-16 Apple Inc. User interfaces for a media browsing application
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108071A (ja) * 2008-10-28 2010-05-13 Fujifilm Corp 画像表示装置、画像表示方法およびプログラム
JP2010154090A (ja) * 2008-12-24 2010-07-08 Toshiba Corp 携帯端末
WO2012049942A1 (ja) * 2010-10-13 2012-04-19 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、および携帯端末装置におけるタッチパネルの表示方法
JP2012098705A (ja) * 2010-10-07 2012-05-24 Nikon Corp 画像表示装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003348675A (ja) * 2002-05-27 2003-12-05 Canon Inc リモコン送信装置、リモート制御サブシステム、リモート制御システム、リモート制御装置およびリモート制御方法
CN102713822A (zh) * 2010-06-16 2012-10-03 松下电器产业株式会社 信息输入装置、信息输入方法以及程序
US8593418B2 (en) * 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108071A (ja) * 2008-10-28 2010-05-13 Fujifilm Corp 画像表示装置、画像表示方法およびプログラム
JP2010154090A (ja) * 2008-12-24 2010-07-08 Toshiba Corp 携帯端末
JP2012098705A (ja) * 2010-10-07 2012-05-24 Nikon Corp 画像表示装置
WO2012049942A1 (ja) * 2010-10-13 2012-04-19 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、および携帯端末装置におけるタッチパネルの表示方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103777873A (zh) * 2014-02-18 2014-05-07 联想(北京)有限公司 一种信息处理方法及电子设备
JP2015158735A (ja) * 2014-02-21 2015-09-03 シャープ株式会社 携帯端末
JP2015219724A (ja) * 2014-05-16 2015-12-07 富士通株式会社 電子機器
WO2015178094A1 (ja) * 2014-05-23 2015-11-26 シャープ株式会社 携帯端末、及び当該携帯端末による操作処理方法
WO2015192444A1 (zh) * 2014-06-16 2015-12-23 中兴通讯股份有限公司 页面布局调整方法及终端
CN105242858A (zh) * 2014-06-16 2016-01-13 中兴通讯股份有限公司 页面布局调整方法及终端
JP2016062156A (ja) * 2014-09-16 2016-04-25 シャープ株式会社 端末装置
JP2017097393A (ja) * 2015-11-18 2017-06-01 京セラドキュメントソリューションズ株式会社 操作入力装置及び操作入力方法
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
US11962836B2 (en) 2019-03-24 2024-04-16 Apple Inc. User interfaces for a media browsing application
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels

Also Published As

Publication number Publication date
JP5876152B2 (ja) 2016-03-02
JPWO2013187370A1 (ja) 2016-02-04

Similar Documents

Publication Publication Date Title
JP5876152B2 (ja) 端末装置
JP3785902B2 (ja) デバイス、デバイスの制御方法、ポインタの移動方法
US8854320B2 (en) Mobile type image display device, method for controlling the same and information memory medium
US10048845B2 (en) Mobile electronic apparatus, display method for use in mobile electronic apparatus, and non-transitory computer readable recording medium
CN103988159B (zh) 显示控制装置和显示控制方法
US8279184B2 (en) Electronic device including a touchscreen and method
EP1770473A2 (en) A mobile communication terminal having multiple displays and a data processing method thereof
WO2013150998A1 (ja) 携帯型電子機器
US20130215060A1 (en) Mobile terminal apparatus and display method for touch panel in mobile terminal apparatus
CA2691289C (en) A handheld electronic device having a touchscreen and a method of using a touchscreen of a handheld electronic device
JP5406990B2 (ja) タッチパネルを用いた入力装置およびその入力方法
US20150253925A1 (en) Display control device, display control method and program
US9086855B2 (en) Electronic device with orientation detection and methods therefor
JP2013061848A (ja) 非接触入力装置
US20150091824A1 (en) Information processing apparatus, information processing method, and computer program
JP6046384B2 (ja) 端末装置
JP2014085954A (ja) 携帯端末装置、プログラムおよび入力操作受け付け方法
US20170024124A1 (en) Input device, and method for controlling input device
JP2014016743A (ja) 情報処理装置、情報処理装置の制御方法、および情報処理装置の制御プログラム
WO2018143744A1 (ko) 터치 감지 디스플레이 장치 및 그 화면 제어 방법
US9235338B1 (en) Pan and zoom gesture detection in a multiple touch display
JP6188377B2 (ja) 表示制御装置、その制御方法、および制御プログラム
KR101933049B1 (ko) 카메라의 수중 조작방법
JP2010170357A (ja) 情報処理装置及びプログラム
JP7069887B2 (ja) 携帯端末装置および携帯端末装置の表示制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13804826

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014521320

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13804826

Country of ref document: EP

Kind code of ref document: A1