WO2014157357A1 - 情報端末、表示制御方法及びそのプログラム - Google Patents

情報端末、表示制御方法及びそのプログラム Download PDF

Info

Publication number
WO2014157357A1
WO2014157357A1 PCT/JP2014/058575 JP2014058575W WO2014157357A1 WO 2014157357 A1 WO2014157357 A1 WO 2014157357A1 JP 2014058575 W JP2014058575 W JP 2014058575W WO 2014157357 A1 WO2014157357 A1 WO 2014157357A1
Authority
WO
WIPO (PCT)
Prior art keywords
screen
touch panel
information terminal
display
unit
Prior art date
Application number
PCT/JP2014/058575
Other languages
English (en)
French (fr)
Inventor
貴久 西堀
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to JP2015508598A priority Critical patent/JP6319298B2/ja
Priority to CN201480018512.9A priority patent/CN105103110B/zh
Priority to US14/780,234 priority patent/US9880656B2/en
Priority to EP14774551.7A priority patent/EP2980692B1/en
Publication of WO2014157357A1 publication Critical patent/WO2014157357A1/ja
Priority to US15/814,946 priority patent/US10282023B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • G06F1/1618Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position the display being foldable up to the back of the other housing with a single degree of freedom, e.g. by 360° rotation over the axis defined by the rear edge of the base enclosure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • G06F1/1692Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention is based on a Japanese patent application: Japanese Patent Application No. 2013-066644 (filed on Mar. 27, 2013), and the entire description of the application is incorporated herein by reference.
  • the present invention relates to display control based on operation of a touch panel.
  • information terminals such as smartphones that have been rapidly spread provide users with operation functions for screen scrolling and pinching out / in (enlargement / reduction) using a touch panel.
  • Patent Document 1 discloses an information terminal provided with a rear touch panel in addition to a display screen touch panel. In the information terminal, it is possible to operate the touch panel on the back with a finger other than the thumb and execute a processing command associated with each finger (see FIGS. 10 and 11 of Patent Document 1).
  • a vertical scroll operation can be performed by placing a single finger on a touch panel and sliding the screen up and down.
  • the display under the finger placed on the display screen cannot be seen.
  • a click operation is unintentionally detected and jumps to a link destination.
  • an information terminal is grasped with one hand, and two fingers of the other hand are placed on the touch panel to perform an operation of expanding or closing the screen. Therefore, there is a problem that it must be operated with both hands.
  • the realization of an information terminal capable of touch panel operation that can solve the above problems is expected.
  • an object of the present invention is to provide an information terminal that can contribute to improvement of convenience in touch panel operation.
  • the information terminal includes the following components. That is, the information terminal includes first and second housings that are connected to be openable and closable, a first display unit and a first touch panel that are arranged on the first housing, and the second housing. A second display unit and a second touch panel disposed to overlap each other. In addition, the information terminal detects an operation of the touch panel on the back side when viewed from the user among the first and second touch panels in a closed state in which the first and second display portions face outward and face each other. Including a detecting unit. Furthermore, the information terminal includes a control unit that controls screen display of the display unit that is on the front side when viewed from the user among the first and second display units, based on the operation information detected by the detection unit. .
  • the display control method is a display control method for a first screen and a second screen facing the first screen, and includes the following steps. That is, the display control method includes a detection step of detecting an operation of a touch panel disposed on a screen on the back side as viewed from the user among the first and second screens. Further, the display control method includes a step of controlling the screen display of the screen on the front side as viewed from the user among the first and second screens based on the operation information detected in the detection step.
  • a program according to a third aspect of the present invention is a program for performing display control of a first screen and a second screen opposite to the first screen, and is a rear surface as viewed from the user among the first and second screens. Based on the detection process for detecting the operation of the touch panel arranged on the side screen and the operation information detected by the detection process, the screen on the front side as viewed from the user among the first and second screens And causing the computer to execute processing for controlling screen display.
  • This program can be recorded on a computer-readable storage medium.
  • the storage medium may be non-transient such as a semiconductor memory, a hard disk, a magnetic recording medium, an optical recording medium, or the like.
  • the present invention can also be embodied as a computer program product.
  • the information terminal of the present invention it is possible to provide an information terminal that can contribute to improvement in convenience in touch panel operation.
  • an information terminal 1 is arranged so as to overlap each other on a first housing 11 and a second housing 12 that are connected in an openable / closable manner.
  • the first display unit 31 and the first touch panel 30, and the second display unit 41 and the second touch panel 40 disposed on the second housing 12 so as to overlap each other are included.
  • the information terminal 1 has the first and second touch panels (30, 41) in a closed state (the state shown in FIG. 1A) in which the first and second display units (31, 41) face outward and face each other.
  • 40 includes a detection unit 51 that detects an operation of the touch panel on the back side as viewed from the user.
  • the information terminal 1 displays the screen display of the display unit on the front side as viewed from the user among the first and second display units (31, 41) based on the operation information C1 detected by the detection unit 51.
  • the control part 52 to control is included.
  • the screen display of the display part which becomes a front side seeing from a user is controlled based on the operation information C1 obtained by detecting operation of the touch panel on the back side, the convenience in touch panel operation It is possible to provide an information terminal with improved performance.
  • FIG. 1A shows a case where the user holds the information terminal 1 so that the front side is the first casing 11 and the back side is the second casing 12.
  • the detection unit 51 detects the operation of the second touch panel 40, and the control unit 52 controls the screen display of the first display unit 31 based on the operation information C1.
  • the user can also hold the information terminal 1 such that the front side is the second casing 12 and the back side is the first casing 11.
  • the detection unit 51 detects an operation of the first touch panel 30, and the control unit 52 controls the screen display of the second display unit 41 based on the operation information C1.
  • the information terminal 101 further includes an open / close sensor 55 that detects the open / close state of the first and second housings (11, 12) relative to the information terminal 1 (FIG. 1).
  • the control unit 52 controls the screen display of the front display unit (for example, the first display unit 31 in the case of FIG. 1A) based on the operation information C1. You may do it.
  • the control unit 52 turns off the power of the display unit on the back side (for example, the second display unit 41 in FIG. 1A). It is preferable to do.
  • the first and second housings (11, 12) are each provided with operation keys (61, 62), and the control unit 52 is input with the operation keys (61, 62) in the closed state.
  • the casing on the side that detects this may be the front side.
  • the information terminal 201 further includes an acceleration sensor 67, and the control unit 52 determines the front side based on the detection of the acceleration sensor 67 in the closed state. May be.
  • the control unit 52 performs a front operation based on the operation information C1 detected by the detection unit 51 in the specific area (64a, 64b, etc. in FIG. 11) of the touch panel on the back side.
  • the screen display of the side display unit may be controlled so that the operation information detected by the detection unit 51 outside the specific area (64a, 64b, etc. in FIG. 11) is not used for the screen display control.
  • the control unit 52 performs the first screen control (for example, screen scrolling) when the detection unit 51 detects that the finger slides on the touch panel on the back side. Etc.) may be executed.
  • the control unit 52 detects that the finger has slid on the touch panel on the back side and the input of the touch panel on the front side.
  • the second screen control (for example, enlargement / reduction) may be executed.
  • the display control method in one embodiment includes a first screen (for example, the screen of the first display unit 31 in FIG. 1) and a second screen (for example, FIG. 1) opposite to the first screen.
  • the display control method of the second display unit 41 includes the following steps. That is, the display control method includes a detection step (S10) of detecting an operation of the touch panel arranged on the screen on the back side when viewed from the user among the first and second screens. Further, the display control method controls the screen display of the screen on the front side when viewed from the user among the first and second screens based on the operation information C1 detected in the detection step (S10) (S11). )including.
  • FIG. 3 is a perspective view showing the configuration of the information terminal 101 according to the first embodiment.
  • the information terminal 101 is a two-screen smartphone that includes a first housing 11 and a second housing 12 that are connected to be openable and closable, and each housing includes a display unit and a touch panel.
  • a first display unit 31 and a first touch panel 30 are arranged on the first housing 11 in an overlapping manner.
  • a second display unit 41 and a second touch panel 40 are disposed on the second housing 12 in an overlapping manner.
  • the information terminal 101 can be used in the “open state” shown in FIG. 3 or can be used in the “closed state” shown in FIG.
  • the “open state” it operates as a “two-screen display mode” in which the screen is displayed on both of the two display units (31, 41).
  • the “closed state” either one of the display units is operated. It operates as a “single screen display mode” for screen display.
  • the “closed state” is a state in which the first display unit 31 and the second display unit 41 face outward and face each other.
  • the user When the user holds the information terminal 101 in a closed state with one hand, the user may hold the information terminal 101 with the first housing 11 on the front side and the second housing 12 on the back side as viewed from the user as shown in FIG. Alternatively, it may be held in a state where the front side is the second casing 12 and the back side is the first casing 11.
  • the information terminal 101 when the information terminal 101 is held, it is often held as follows according to the user's dominant hand. First, when the user is right-handed, it is often held with the left hand, and when the user is left-handed, it is often held with the right hand. Further, when the information terminal 101 is gripped so that the hinge 73 touches the palm, a sense of stability when gripped can be obtained. From the above, generally, in the case of a right-handed user, the palm of the left hand touches the hinge 73 in a state where the front side is the first housing 11 and the back side is the second housing 12 as shown in FIG. In addition, it is often held with the left hand. On the other hand, a left-handed user often grips with the right hand so that the palm of the right hand touches the hinge 73 in a state where the front side is the second housing 12 and the back side is the first housing 11.
  • the information terminal 101 is configured to be able to execute an operation input of the touch panel and a screen display by the display unit, regardless of which of the first housing 11 and the second housing 12 is the front side. ing. Furthermore, in the first embodiment, various operability improvements are made in the single screen display mode in the closed state. This will be described later.
  • the coordinate data in the short side direction is inverted from that in the open state so that the coordinates correspond to the touch panel on the front side.
  • the configuration of the information terminal 101 will be described in more detail.
  • the first housing 11 and the second housing 12 are connected via a hinge 73 so as to be opened and closed.
  • the 1st display part 31 and the 2nd display part 41 are comprised by LCD (Liquid * Crystal * Display) etc., and have the function to perform various screen displays.
  • the first touch panel 30 and the second touch panel 40 are capacitive touch panels suitable for smartphones and the like, and detect contact, pressing, or proximity by a user's finger.
  • the first housing 11 is provided with operation keys 61 including a menu key 15, a home key 13, and a back key 14 at the bottom of the first display unit 31.
  • operation keys 61 including a menu key 15, a home key 13, and a back key 14 at the bottom of the first display unit 31.
  • a menu key 15 when the menu key 15 is pressed, a setting screen can be called.
  • the home key 13 when the home key 13 is pressed, the home screen can be called.
  • the home key 13 can also display recently used apps by long pressing. Further, when the back key 14 is pressed, it is possible to return to the previous screen.
  • the second housing 12 is provided with operation keys 62 including a menu key 25, a home key 23, and a back key 24 at the lower part of the second display portion 41. This is the same as the menu key 15, the home key 13, and the back key 14 of one housing 11.
  • the information terminal 101 further includes a detection unit 51, a control unit 52, a storage unit 53, a key input unit 54, and an open / close sensor 55.
  • the control unit 52 includes a CPU (Central Processing Unit) (not shown) and controls the entire information terminal 101.
  • the control unit 52 also controls screen display of the first display unit 31 and the second display unit 41.
  • the storage unit 53 includes a ROM (Read Only Memory) and a RAM (Random Access Memory), and includes a work area, a program area, and a data area.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • work area of the storage unit 53 various register / flag data used for the processing of the control unit 52 are temporarily stored.
  • program area of the storage unit 53 various programs executed by the CPU provided in the control unit 52 are stored.
  • data area of the storage unit 53 in addition to screen data for forming various operation screens, images taken by the user with the camera, e-mail data, voice data, and the like are stored.
  • the detection unit 51 detects operation inputs of the first touch panel 30 and the second touch panel 40, and acquires operation information C1.
  • the operation information C1 includes the contents of operations detected by each touch panel (touch, long press, drag, pinch, etc.), coordinate information in each operation, and the like.
  • the open / close sensor 55 is composed of, for example, a magnet installed in one of the casings and a magnetic sensor installed in the other casing, and is close to each other when they are closed. With the above configuration, the open / close sensor 55 detects whether the first and second housings (11, 12) are in the open state or the closed state, and outputs the detected signal to the detection unit 51.
  • the key input unit 54 detects operation inputs of the operation keys 61 and 62 and outputs the detected information to the control unit 52.
  • each block is a first housing. 11 and the second housing 12 may be mounted.
  • the detection unit 51 may be divided into a detection unit for the first touch panel and a detection unit for the second touch panel, and may be arranged in each housing.
  • the key input unit 54 may be separately provided for the operation key 61 and the operation key 62 and arranged in each case.
  • FIG. 5 is a flowchart showing the operation of the information terminal 101 according to the first embodiment.
  • the control unit 52 sets the single screen display mode (S22).
  • S22 the single screen display mode
  • the control unit 52 keeps the screens of the first display unit 31 and the second display unit 41 off in the initial state in the single screen display mode.
  • the key input unit 54 waits for the input of the operation key 61 or the operation key 62 to be detected by the user (S23).
  • step S23 when the key input unit 54 detects an input of the operation key 61 (that is, any one of the menu key 15, the home key 13, and the back key 14) of the first housing 11, the control unit 52 receives the input from the user.
  • the housing on the front side as viewed is determined as the first housing 11, and the housing on the back side is determined as the second housing 12 (S 24).
  • the key input unit 54 detects the input of the operation key 62 (that is, any one of the menu key 25, the home key 23, and the back key 24) of the second housing 12 in step S23, the control unit 52
  • the housing on the front side as viewed from the user is determined as the second housing 12, and the housing on the back side is determined as the first housing 11 (S25).
  • the control unit 52 turns on the power supply of the display unit on the front side, turns off the power supply of the display on the back side (S26), and performs screen display on the display unit on the front side.
  • the initial state the case where both display units are turned off and the front display unit is turned on in step S26 has been described.
  • the present invention is not limited to this.
  • both display units may be turned on, or one of the display units may be turned on.
  • the display unit on the rear side is preferably turned off in order to reduce power consumption.
  • FIG. 6 illustrates an operation in which the user holds the information terminal 101 with the left hand and executes screen scrolling.
  • the detection unit 51 detects an operation in which the finger slides up and down. Then, the detection unit 51 transmits the detected operation information C1 to the control unit 52.
  • the control unit 52 scrolls the screen of the display unit on the front side up and down in accordance with the operation information C1.
  • FIG. 7 shows an operation in which the user holds the information terminal 101 with the left hand and executes enlargement / reduction of the screen.
  • the user places the thumb of the left hand on the touch panel on the front side.
  • the left index finger is slid on the touch panel on the back side.
  • the enlargement operation is performed when sliding upward
  • the reduction operation is performed when sliding downward.
  • the detection unit 51 detects each operation input from the front side touch panel and the back side touch panel. Then, the detection unit 51 transmits the detected operation information C1 to the control unit 52.
  • the control unit 52 enlarges / reduces the screen of the display unit on the front side according to the operation information C1.
  • the screen scroll operation of FIG. 6 can be easily performed. Conversely, in the screen scroll operation of FIG. 6, if the thumb is put on the front side touch panel, the operation can be shifted to the enlargement / reduction operation of FIG. That is, the user can easily display a desired screen while appropriately switching between the screen scroll operation and the enlargement / reduction operation.
  • a pinch out / in operation is provided to the user as an enlargement / reduction operation.
  • Pinch out / in is an operation of spreading or closing the screen with one hand holding the information terminal and placing the two fingers of the other hand on the touch panel. When the two fingers are spread, the screen is enlarged, and when the two fingers are closed, the screen is reduced.
  • This pinch-out / in operation is intuitive and easy to understand, but cannot be performed with only a hand holding the information terminal. That is, there is a problem that the enlargement / reduction operation cannot be performed with one hand.
  • the enlargement / reduction operation shown in FIG. 7 can be operated only with a hand holding the information terminal 101. That is, there is an advantage that the enlargement / reduction operation can be performed with one hand.
  • step S27 it is determined whether or not the detection unit 51 has detected a slide operation on the back side touch panel (S27).
  • the detection part 51 determines whether the pressing / proximity of the finger was further detected with the front side touch panel (S28).
  • the operation information C1 detected by the detection unit 51 is screen scroll information. Therefore, the control unit 52 performs screen scrolling (first screen control) on the display unit on the front side (S29).
  • step S28 when it is determined Yes in step S28, the operation information C1 detected by the detection unit 51 is enlargement / reduction information. Therefore, the control unit 52 executes enlargement / reduction (second screen control) on the display unit on the front side (S30).
  • step S27 it is determined whether the detection unit 51 has detected an operation on the front side touch panel (S31).
  • the control part 52 performs other screen controls according to the operation information C1 of the front side touch panel which the detection part 51 detected (S32).
  • the operation using the touch panel on the back side has been described for the case of screen scrolling and enlargement / reduction, but the present invention is not limited to this. It is possible to add an operation using another back-side touch panel or an operation using a combination of another back-side touch panel and the front-side touch panel.
  • the screen is scrolled by an operation on the touch panel on the back side, it is possible to perform the screen scroll without the fingers on the touch panel on the front side getting in the way. Further, since the screen scroll operation on the back side and the link selection operation on the front side can be separated, it is possible to prevent malfunction due to erroneous input. Furthermore, by using the touch panel operation on the back side, it is possible to perform an enlargement / reduction operation with one hand.
  • FIG. 8 is a block diagram illustrating a configuration of the information terminal 102 according to the first modification of the first embodiment.
  • the information terminal 102 in FIG. 8 newly includes a first camera 71 in the first housing 11 as an imaging unit. Since others are the same as those of the first embodiment, the same reference numerals are given and redundant description is omitted.
  • the first camera 71 has a function of detecting the user's face and discriminating the front housing. If it is determined in the flowchart of FIG. 5 that the open / close sensor is in the closed state, instead of step S23, the control unit 52 activates the first camera 71, and a face is detected in the captured image within a predetermined time after activation. It is determined whether or not. When a face is detected, the casing on the front side is determined as the first casing 11 in which the first camera 71 is disposed. On the other hand, when the face is not detected, the casing on the front side is determined as the second casing 12.
  • the information terminal 102 in addition to the effect of the first embodiment, there is an effect that it is possible to automatically determine the housing on the front side. It is done.
  • FIG. 9 is a block diagram illustrating a configuration of the information terminal 103 according to the second modification of the first embodiment.
  • the information terminal 103 in FIG. 9 newly includes a first camera 71 and a second camera 72 in the first casing 11 and the second casing 12, respectively, as imaging means. Since others are the same as those of the first embodiment, the same reference numerals are given and redundant description is omitted.
  • the first camera 71 and the second camera 72 have a function of detecting the user's face and discriminating the casing on the front side.
  • the control unit 52 activates the first camera 71 and the second camera 72 instead of step S23, and takes a captured image within a predetermined time after activation. Whether or not a face is detected is determined.
  • the casing on the front side is determined as the first casing 11.
  • the casing on the front side is determined as the second casing 12.
  • the information terminal 103 according to the second modification of the first embodiment, as in the first modification of the first embodiment, it is possible to automatically determine the housing on the front side.
  • FIG. 10 is a block diagram illustrating an information terminal 104 according to the third modification of the first embodiment.
  • the information terminal 104 in FIG. 10 newly includes a dominant hand registration unit 63. Since others are the same as those of the first embodiment, the same reference numerals are given and redundant description is omitted.
  • the user registers either right-handed or left-handed information in the handedness registration unit 63. It is assumed that there are many cases where the information terminal is held with the left hand in the case of a right-handed person, and the information terminal is often held with the right hand in the case of a left-handed person. Instead of registering right-handed / left-handed information, information regarding whether the hand holding the information terminal is the right hand or the left hand may be registered.
  • the operation range of a back side touch panel is limited to a predetermined specific area according to a user's dominant hand.
  • the touch panel on the back side is the second touch panel 40.
  • the range to be slid with the index finger is limited to the upper right region as viewed from the user side, so the operation range as shown in FIG. Can be limited to the specific region 64a.
  • the range of sliding with the index finger is limited to the upper left area when viewed from the user side, so the operation as shown in FIG. The range can be limited to the specific area 64b.
  • the operation range of the touch panel on the back side is selected from the specific area 64a or the specific area 64b according to the dominant hand information, and the operation input detected outside the selected specific area is invalidated. Thereby, it is possible to prevent erroneous detection when the touch panel on the back side is unintentionally touched outside the specific area.
  • past finger trajectory information on the back-side touch panel may be accumulated and stored, and the user's dominant hand may be automatically determined from the accumulated information.
  • FIG. 12 is a block diagram illustrating an information terminal 105 according to Modification 4 of the first embodiment.
  • the information terminal 105 in FIG. 12 newly includes a database 65 in the storage unit 53 and a match determination unit 66 in the detection unit 51.
  • the database 65 stores and stores past finger trajectories of the back side touch panel. With this information, it is possible to statistically grasp the tendency of the user's operation.
  • the coincidence determination unit 66 calculates the degree of coincidence of the finger trajectory detected at the present time with respect to the statistical data. When the degree of coincidence is equal to or greater than a predetermined threshold, the operation input is validated. On the other hand, when the degree of coincidence is smaller than a predetermined threshold, the operation input is invalidated. Thereby, it is possible to prevent erroneous detection when a finger touches the touch panel on the back side unintentionally.
  • FIG. 13 is a perspective view showing the configuration of the information terminal 201 according to the second embodiment.
  • the information terminal 201 of FIG. 13 eliminates the operation keys 61 and 62 and the screens of the first and second display units (81 and 91). Is wide.
  • the menu key, home key, and back key included in the operation keys 61 and 62 display soft keys that function in the same manner on the display screen.
  • the information terminal 201 in FIG. 13 includes an acceleration sensor 67 in any one of the cases.
  • an acceleration sensor 67 is disposed in the first housing 11.
  • the acceleration sensor 67 is a sensor that can detect the direction of gravity (the direction of G).
  • FIG. 15A shows a case where the first housing 11 is on the front side. In this case, the angle ⁇ formed by the normal vector of the acceleration sensor 67 and the gravity direction is smaller than 90 °.
  • FIG. 15B shows a case where the second housing 12 is on the front side. In this case, the angle ⁇ between the normal vector of the acceleration sensor 67 and the direction of gravity is greater than 90 °. From the above, it is possible to determine the housing on the front side depending on whether the angle ⁇ detected by the acceleration sensor 67 is smaller or larger than 90 °.
  • the front housing can be determined by the acceleration sensor 67, it is necessary to determine the front side by operating the operation key 61 or the operation key 62 as in the first embodiment. Absent. Therefore, it is possible to eliminate the operation key 61 or the operation key 62 and use those functions as soft keys, and to widen the display screen instead.
  • FIG. 14 is a block diagram showing a configuration of the information terminal 201 according to the second embodiment.
  • the information terminal 201 in FIG. 14 has the configuration in which the operation keys 61 and 62 and the key input unit in FIG. 4 are eliminated and the acceleration sensor 67 is added. It has become.
  • the operation of the information terminal 201 in FIG. 5, instead of step S23, the housing on the front side is determined based on the angle ⁇ detected by the acceleration sensor 67. The other steps in FIG. 5 are the same.
  • an effect that the casing on the front side is automatically determined by the acceleration sensor is obtained.
  • Each process (S21 to S32 in FIG. 5) executed by the control unit 52 in each embodiment is stored as a program in the storage unit 53, and is called and executed by a computer provided in the control unit 52.
  • the program can be downloaded via a network or updated using a storage medium storing the program.
  • the present invention is suitably applied to all information terminals provided with a touch panel, for example, mobile phones, smartphones, game machines, tablet PCs (Personal Computers), notebook PCs, PDAs (Personal Data Assistants). Is done.
  • a touch panel for example, mobile phones, smartphones, game machines, tablet PCs (Personal Computers), notebook PCs, PDAs (Personal Data Assistants). Is done.
  • First and second housings connected to be openable and closable; A first display unit and a first touch panel disposed on the first housing so as to overlap each other; A second display unit and a second touch panel disposed on the second casing so as to overlap each other; A detection unit that detects an operation of a touch panel on the back side of the first and second touch panels in a closed state in which the first and second display units face outward and face each other; Based on the operation information detected by the detection unit, a control unit that controls the screen display of the display unit on the front side among the first and second display units, An information terminal comprising:
  • Each of the first and second housings includes an operation key, 5.
  • An imaging means is further provided in any one of the first and second housings, 5.
  • Each of the first and second housings includes an imaging means,
  • the controller is When the imaging means of the first casing detects a face, the first casing is the front side,
  • the controller is Based on the operation information detected by the detection unit in a specific area of the touch panel on the back side, the screen display of the display unit on the front side is controlled,
  • the information terminal according to any one of aspects 1 to 8, wherein the operation information detected by the detection unit outside the specific area is not used for screen display control.
  • the controller is The information terminal according to any one of aspects 1 to 11, wherein the first screen control is executed when the detection unit detects that a finger has slid on the touch panel on the back side. .
  • the controller is When the detection unit detects that a finger has slid on the touch panel on the back side and simultaneously detects an input of the touch panel on the front side, the second screen control is executed.
  • the information terminal according to any one of forms 1 to 11.
  • a display control method for a first screen and a second screen opposite to the first screen A detecting step of detecting an operation of a touch panel disposed on a screen on the back side of the first and second screens; Based on the operation information detected in the detection step, controlling the screen display of the screen on the front side of the first and second screens;
  • Form 18 A program for controlling display of a first screen and a second screen opposite to the first screen, A detection process for detecting an operation of a touch panel arranged on a screen on the back side of the first and second screens; Based on the operation information detected in the detection process, a process for controlling the screen display of the screen on the front side of the first and second screens; A program characterized by causing a computer to execute.
  • First housing 12 Second housing 13, 23: Home key 14, 24: Back key 15, 25: Menu key 30, 80: 1st touch panel 31, 81: 1st display part 40, 90: 2nd touch panel 41, 91: 2nd display part 51: Detection part 52: Control part 53: Storage part 54: Key input part 55: Opening / closing sensor 61, 62 : Operation key 63: Handedness registration unit 64a: Right-handed specific area 64b: Left-handed specific area 65: Database 66: Match determination unit 67: Acceleration sensor 71: First camera 72: Second camera 73: Hinge C1: Operation information

Abstract

 タッチパネル操作における利便性向上に貢献しうる情報端末を提供する。以下の情報端末が提供される。該情報端末は、開閉可能に接続された第1及び第2筐体と、第1筐体に互いに重ねて配置された第1表示部及び第1タッチパネルと、第2筐体に互いに重ねて配置された第2表示部及び第2タッチパネルと、を含む。また、該情報端末は、第1及び第2表示部が外側に向くと共に互いに対向する閉状態で、第1及び第2タッチパネルのうちでユーザから見て背面側となるタッチパネルの操作を検出する検出部を含む。さらに、該情報端末は、検出部が検出した操作情報に基づいて、第1及び第2表示部のうちでユーザから見て正面側となる表示部の画面表示を制御する制御部を含む。

Description

情報端末、表示制御方法及びそのプログラム
 [関連出願についての記載]
 本発明は、日本国特許出願:特願2013-066404号(2013年 3月27日出願)に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
 本発明は、タッチパネルの操作に基づく表示制御に関する。
 近年、急速に普及したスマートフォン等の情報端末では、タッチパネルにより、画面スクロールや、ピンチアウト/イン(拡大/縮小)を行う操作機能をユーザに提供している。
 特許文献1には、表示画面のタッチパネルに加えて、背面のタッチパネルを備えた情報端末が開示されている。該情報端末では、背面のタッチパネルに対し親指以外の指で操作を行って、指毎に関連付けられた処理コマンドを実行することが可能である(特許文献1の図10、図11を参照)。
国際公開第2011/142151号
 以下の分析は、本発明により与えられる。
 一般に、スマートフォン等の情報端末では、タッチパネルに1本の指を乗せて画面上を上下にスライドさせることにより上下スクロール操作を行うことができる。しかしながら、表示画面に乗せた指の下の表示が見えないという問題がある。また、Webページを上下スクロール操作する際、意図せずにクリック操作が検出されてリンク先に飛んでしまうという問題がある。さらに、ピンチアウト/イン(拡大/縮小)操作をするには、一方の手で情報端末を把持し、他方の手の2つの指をタッチパネルに乗せて画面上を広げたり閉じたりする動作を行うため、両手で操作しなければならないという問題がある。かくて、上記の問題を解消することができるタッチパネル操作が可能な情報端末の実現が期待されている。
 また、特許文献1の情報端末では、背面のタッチパネルに対し親指以外の指で操作を行って処理コマンドを選択する操作や、各処理コマンドを実行するときの指の操作が、直感的でなく分かりにくいという問題がある。
 そこで、本発明は、タッチパネル操作における利便性向上に貢献しうる情報端末を提供することを目的とする。
 本発明の第1の視点による情報端末は、以下の構成要素を含む。即ち、該情報端末は、開閉可能に接続された第1及び第2筐体と、前記第1筐体に互いに重ねて配置された第1表示部及び第1タッチパネルと、前記第2筐体に互いに重ねて配置された第2表示部及び第2タッチパネルと、を含む。また、該情報端末は、前記第1及び第2表示部が外側に向くと共に互いに対向する閉状態で、前記第1及び第2タッチパネルのうちでユーザから見て背面側となるタッチパネルの操作を検出する検出部を含む。さらに、該情報端末は、前記検出部が検出した操作情報に基づいて、前記第1及び第2表示部のうちでユーザから見て正面側となる表示部の画面表示を制御する制御部を含む。
 本発明の第2の視点による表示制御方法は、第1画面と、前記第1画面と対向する第2画面の表示制御方法であって、以下のステップを含む。即ち、該表示制御方法は、前記第1及び第2画面のうちのユーザから見て背面側となる画面に配置されたタッチパネルの操作を検出する検出ステップを含む。さらに、該表示制御方法は、前記検出ステップで検出した操作情報に基づいて、前記第1及び第2画面のうちのユーザから見て正面側となる画面の画面表示を制御するステップを含む。
 本発明の第3の視点によるプログラムは、第1画面と、前記第1画面と対向する第2画面の表示制御を行うプログラムであって、第1及び第2画面のうちのユーザから見て背面側となる画面に配置されたタッチパネルの操作を検出する検出処理と、前記検出処理で検出した操作情報に基づいて、前記第1及び第2画面のうちのユーザから見て正面側となる画面の画面表示を制御する処理と、をコンピュータに実行させる。
 なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
 本発明の情報端末によれば、タッチパネル操作における利便性向上に貢献しうる情報端末を提供することができる。
一実施形態に係る情報端末の構成を示す斜視図である。 一実施形態に係る表示制御方法を示すフローチャートである。 第1の実施形態に係る情報端末の構成を示す斜視図である。 第1の実施形態に係る情報端末の構成を示すブロック図である。 第1の実施形態に係る情報端末の動作を示すフローチャートである。 第1の実施形態に係る情報端末の画面スクロールの操作の一例を示す図である。 第1の実施形態に係る情報端末の拡大/縮小の操作の一例を示す図である。 第1の実施形態の変形例1に係る情報端末の構成を示すブロック図である。 第1の実施形態の変形例2に係る情報端末の構成を示すブロック図である。 第1の実施形態の変形例3に係る情報端末の構成を示すブロック図である。 第1の実施形態の変形例3を説明するための図である。 第1の実施形態の変形例4に係る情報端末の構成を示すブロック図である。 第2の実施形態に係る情報端末の構成を示す斜視図である。 第2の実施形態に係る情報端末の構成を示すブロック図である。 第2の実施形態に係る情報端末における加速度センサを説明するための図である。
 まず、本発明の実施形態の概要について説明する。なお、実施形態の概要の説明において付記した図面参照符号は専ら理解を助けるための例示であり、図示の態様に限定することを意図するものではない。
 本発明の一実施形態における情報端末1は、図1に示すように、開閉可能に接続された第1筐体11、第2筐体12と、第1筐体11に互いに重ねて配置された第1表示部31及び第1タッチパネル30と、第2筐体12に互いに重ねて配置された第2表示部41及び第2タッチパネル40と、を含む。また、該情報端末1は、第1及び第2表示部(31、41)が外側に向くと共に互いに対向する閉状態(図1(A)の状態)で、第1及び第2タッチパネル(30、40)のうちでユーザから見て背面側となるタッチパネルの操作を検出する検出部51を含む。さらに、該情報端末1は、検出部51が検出した操作情報C1に基づいて、第1及び第2表示部(31、41)のうちでユーザから見て正面側となる表示部の画面表示を制御する制御部52を含む。
 上記の構成によれば、背面側となるタッチパネルの操作を検出することによって得られる操作情報C1に基づいて、ユーザから見て正面側となる表示部の画面表示を制御するので、タッチパネル操作における利便性が向上した情報端末を提供することが可能になる。
 尚、図1(A)において、ユーザは、正面側が第1筐体11、背面側が第2筐体12となるように情報端末1を把持した場合を示している。この場合、検出部51は、第2タッチパネル40の操作を検出し、制御部52は、その操作情報C1に基づいて、第1表示部31の画面表示を制御する。また、ユーザは、逆に、正面側が第2筐体12、背面側が第1筐体11となるように情報端末1を把持することも可能である。その場合、検出部51は、第1タッチパネル30の操作を検出し、制御部52は、その操作情報C1に基づいて、第2表示部41の画面表示を制御する。
 図4に示すように、情報端末101は、情報端末1(図1)に対して、さらに第1及び第2筐体(11、12)の開閉状態を検出する開閉センサ55を備え、開閉センサ55が閉状態を検出した場合に、制御部52は操作情報C1に基づいて、正面側となる表示部(例えば、図1(A)の場合、第1表示部31)の画面表示を制御するようにしてもよい。
 上記情報端末101において、開閉センサ55が閉状態を検出した場合に、制御部52は背面側となる表示部(例えば、図1(A)の場合、第2表示部41)の電源をオフにすることが好ましい。
 上記情報端末101において、第1及び第2筐体(11、12)は、それぞれ、操作キー(61、62)を備え、制御部52は、閉状態において、操作キー(61、62)による入力を検知した側の筐体を正面側とするようにしてもよい。
 図13、図14のいずれかに示すように、情報端末201は、加速度センサ67をさらに備え、制御部52は、閉状態において、加速度センサ67の検出に基づいて、正面側を判別するようにしてもよい。
 上記情報端末(1、101、201等)において、制御部52は、検出部51が背面側となるタッチパネルの特定領域(図11の64a、64b等)で検出した操作情報C1に基づいて、正面側となる表示部の画面表示を制御し、検出部51が特定領域(図11の64a、64b等)以外で検出した操作情報を画面表示の制御に使用しないようにしてもよい。
 上記情報端末(1、101、201等)において、制御部52は、検出部51が背面側となるタッチパネル上を指がスライドしたことを検出した場合に、第1の画面制御(例えば、画面スクロール等)を実行するようにしてもよい。
 上記情報端末(1、101、201等)において、制御部52は、検出部51が背面側となるタッチパネル上を指がスライドしたことを検出すると共に、正面側となるタッチパネルの入力を検出した場合に、第2の画面制御(例えば、拡大/縮小等)を実行するようにしてもよい。
 一実施形態における表示制御方法は、図2に示すように、第1画面(例えば、図1の第1表示部31の画面)と、該第1画面と対向する第2画面(例えば、図1の第2表示部41の画面)の表示制御方法であって、以下のステップを含む。即ち、該表示制御方法は、第1及び第2画面のうちのユーザから見て背面側となる画面に配置されたタッチパネルの操作を検出する検出ステップ(S10)を含む。さらに、該表示制御方法は、検出ステップ(S10)で検出した操作情報C1に基づいて、第1及び第2画面のうちのユーザから見て正面側となる画面の画面表示を制御するステップ(S11)を含む。
 以下、各実施形態について、図面を参照して詳しく説明する。
[第1の実施形態]
(第1の実施形態の構成)
 第1の実施形態の情報端末101について、図3~図7を参照しながら説明する。図3は、第1の実施形態に係る情報端末101の構成を示す斜視図である。図3に示すように、情報端末101は、開閉可能に接続された第1筐体11及び第2筐体12で構成され、それぞれの筐体に表示部及びタッチパネルを備えた2画面スマートフォンである。第1筐体11には第1表示部31及び第1タッチパネル30が重ねて配置されている。第2筐体12には第2表示部41及び第2タッチパネル40が重ねて配置されている。
 情報端末101は、図3に示す「開状態」で使用することもできるし、また、図1(A)に示す「閉状態」で使用することもできる。「開状態」の場合には、2つの表示部(31、41)の両方に画面表示する「2画面表示モード」として動作し、「閉状態」の場合には、いずれか一方の表示部に画面表示する「1画面表示モード」として動作する。ここで、「閉状態」は、第1表示部31及び第2表示部41が外側に向くと共に互いに対向する状態である。
 ユーザが閉状態の情報端末101を片手で把持する場合、図1(A)のようにユーザから見て正面側が第1筐体11、背面側が第2筐体12になる状態で把持してもよいし、逆に正面側が第2筐体12、背面側が第1筐体11になる状態で把持してもよい。
 但し、一般的には、情報端末101を把持する場合、ユーザの利き手に応じて、以下のように把持されることが多い。まず、ユーザが右利きの場合は左手で、左利きの場合は右手で把持することが多い。また、情報端末101のヒンジ73の部分が手のひらに触れるように把持すると、把持したときの安定感が得られる。以上のことから、一般に右利きのユーザの場合、図1(A)のように正面側が第1筐体11、背面側が第2筐体12になる状態で、左手の手のひらがヒンジ73に触れるように、左手で把持することが多い。一方、左利きのユーザの場合、逆に正面側が第2筐体12、背面側が第1筐体11になる状態で、右手の手のひらがヒンジ73に触れるように、右手で把持することが多い。
 そこで、情報端末101は、第1筐体11及び第2筐体12のうち、どちらの筐体が正面側となっても、タッチパネルの操作入力や表示部による画面表示が実行できるように構成されている。さらに、第1の実施形態では、閉状態の1画面表示モードにおいて、様々な操作性の向上を図っている。これについては後述することにする。
 また、閉状態で背面側となるタッチパネルでは、正面側となるタッチパネルと座標が対応するように、短辺方向の座標データを開状態のときと反転させている。
 図3に戻って、情報端末101の構成についてより詳細に説明する。情報端末101において、第1筐体11と第2筐体12は、ヒンジ73を介して開閉可能に接続されている。第1表示部31及び第2表示部41は、LCD(Liquid Crystal Display)等で構成され、種々の画面表示を行う機能を有している。第1タッチパネル30及び第2タッチパネル40は、スマートフォン等に好適な静電容量方式のタッチパネルであり、ユーザの指による接触、押下、又は近接などを検出する。
 また、図3に示すように、第1筐体11は、第1表示部31の下部に、メニューキー15、ホームキー13、バックキー14を含む操作キー61を備えている。ここで、メニューキー15を押下すると設定画面を呼び出すことができる。また、ホームキー13を押下するとホーム画面を呼び出すことができる。また、ホームキー13は、長押しすることにより最近使用したアプリを表示することもできる。また、バックキー14を押下すると、一つ前の画面に戻ることができる。
 また、第2筐体12も、同様に、第2表示部41の下部に、メニューキー25、ホームキー23、バックキー24を含む操作キー62を備えており、それらの機能は、それぞれ、第1筐体11のメニューキー15、ホームキー13、バックキー14と同じである。
 次に、図4を参照して、情報端末101の各部の構成を詳細に説明する。図4中において、破線枠で囲んだ領域は、図3で説明した構成要素を示している。情報端末101は、さらに、検出部51、制御部52、記憶部53、キー入力部54、開閉センサ55を含んで構成される。ここで、制御部52は図示しないCPU(Central Processing Unit)を備え、情報端末101全体を制御する。制御部52は、第1表示部31及び第2表示部41の画面表示も制御する。
 記憶部53は、ROM(Read Only Memory)及びRAM(Random Access Memory)から構成され、ワークエリア、プログラムエリア、及びデータエリアを備える。記憶部53のワークエリアには、制御部52の処理に用いる各種レジスタ・フラグデータが一時記憶される。記憶部53のプログラムエリアには、制御部52が備えるCPUにより実行される各種プログラムが記憶される。また、記憶部53のデータエリアには、各種操作画面を形成する画面データの他、ユーザがカメラ撮影した画像や、電子メールのデータ、音声データなどが記憶される。
 検出部51は、第1タッチパネル30及び第2タッチパネル40の操作入力を検出し、操作情報C1を取得する。操作情報C1には、各タッチパネルで検出された操作の内容(タッチ、長押し、ドラッグ、ピンチ等)、及びそれぞれの操作における座標情報等が含まれる。
 開閉センサ55は、例えば、いずれか一方の筐体に設置されるマグネットと、他方の筐体に設置される磁気センサとで構成され、それらが閉状態のときに互いに近接するようにしておく。上記の構成により、開閉センサ55は、第1及び第2筐体(11、12)が開状態、閉状態のいずれであるかを検出し、検出した信号を検出部51に出力する。
 キー入力部54は、操作キー61、62の操作入力を検出し、検出した情報を制御部52に出力する。
 図4では、情報端末101に含まれる検出部51、制御部52、記憶部53、キー入力部54を機能ブロックとして示しているが、実際のハードウェア構成では、各ブロックは、第1筐体11、第2筐体12のどちらに搭載してもよい。但し、検出部51については、第1タッチパネル用の検出部と、第2タッチパネル用の検出部に分けて、それぞれの筐体に配置してもよい。また、キー入力部54も、同様に、操作キー61用と操作キー62用に分けて、それぞれの筐体に配置してもよい。
(第1の実施形態の動作)
 次に、図5を参照しながら、第1の実施形態に係る情報端末101の動作について説明する。図5は、第1の実施形態に係る情報端末101の動作を示すフローチャートである。
 図5において、開閉センサ55が「閉状態」であることを出力した後(S21)、制御部52は、1画面表示モードに設定する(S22)。以降、図5では、1画面表示モードが選択された場合について説明する。
 制御部52は、1画面表示モードでは、初期状態で、第1表示部31及び第2表示部41の画面は、いずれもオフ状態にしておく。キー入力部54は、ユーザにより操作キー61又は操作キー62の入力が検出されるのを待つ(S23)。ステップS23において、キー入力部54が第1筐体11の操作キー61(即ち、メニューキー15、ホームキー13、バックキー14のいずれか)の入力を検出した場合、制御部52は、ユーザから見て正面側となる筐体を第1筐体11と判別し、背面側となる筐体を第2筐体12と判別する(S24)。
 一方、ステップS23において、キー入力部54が第2筐体12の操作キー62(即ち、メニューキー25、ホームキー23、バックキー24のいずれか)の入力を検出した場合、制御部52は、ユーザから見て正面側となる筐体を第2筐体12と判別し、背面側となる筐体を第1筐体11と判別する(S25)。
 そして、制御部52は、正面側となる表示部の電源をオン、背面側となる表示の電源をオフし(S26)、正面側となる表示部に画面表示を行う。尚、初期状態では、両方の表示部の電源をオフし、S26の段階で正面となる表示部の電源をオンする場合について説明したが、それに限定されない。初期状態では、両方の表示部をオンしておいてもよいし、いずれか一方の表示部をオンしておいてもよい。但し、ステップS23で、正面側となる筐体が確定された後は、背面側の表示部は、消費電力を削減するために、オフすることが好ましい。
 次に、図5のステップS27以降を説明する前に、図6、図7を参照し、背面側となるタッチパネルによる画面スクロール(第1の画面制御)、拡大縮小(第2の画面制御)について説明する。まず、図6は、ユーザが情報端末101を左手で把持し、画面スクロールを実行する操作を示している。図6に示すように、左手の人差し指で背面側のタッチパネル上を上下にスクロールさせると、検出部51は指が上下にスライドした操作を検出する。そして、検出部51は検出された操作情報C1を制御部52に送信する。制御部52は、該操作情報C1に応じて、正面側となる表示部の画面を上下にスクロールさせる。
 通常のスマートフォンの画面スクロールでは、正面側の表示画面に指を乗せるので、乗せた指が邪魔になり、指の下の表示が見えないという問題がある。また、Webページを上下スクロール操作する際、意図せずにクリック操作が検出されてリンク先に飛んでしまうという問題がある。一方、図6に示す画面スクロールでは、背面側のタッチパネル上で指をスライドさせるので、上記の問題を解決できる。
 次に、図7は、ユーザが情報端末101を左手で把持し、画面の拡大/縮小を実行する操作を示している。図7に示すように、ユーザは左手の親指を正面側となるタッチパネル上に置く。その状態で左手の人差し指を背面側となるタッチパネル上でスライド動作させる。その際、上方向にスライドさせた場合を拡大操作、下方向にスライドさせた場合を縮小操作としておく。検出部51は、正面側タッチパネル及び背面側タッチパネルから、それぞれの操作入力を検出する。そして、検出部51は検出された操作情報C1を制御部52に送信する。制御部52は、該操作情報C1に応じて、正面側となる表示部の画面を拡大/縮小する。
 また、図7の拡大/縮小操作において、親指を正面側タッチパネルから離すと、図6の画面スクロール操作に簡単に移行することができる。逆に、図6の画面スクロール操作において、親指を正面側タッチパネルに付けると、図7の拡大/縮小操作に移行することができる。即ち、ユーザは、画面スクロール操作と拡大/縮小操作を適宜切り替えながら、容易に所望の画面表示になるようにすることができる。
 通常のスマートフォンでは、拡大/縮小操作として、ピンチアウト/インの操作をユーザに提供している。ピンチアウト/インは、一方の手で情報端末を把持し、他方の手の2つの指をタッチパネルに乗せた状態で画面上を広げたり閉じたりする動作である。2つの指を広げると画面が拡大し、2つの指を閉じると画面が縮小する。このピンチアウト/インの操作は直感的で分かりやすいものであるが、情報端末を把持する手だけで操作ができない。即ち、片手で、拡大/縮小操作ができないという問題がある。一方、図7に示した拡大/縮小操作は、情報端末101を把持する手だけで操作することができる。即ち、片手で拡大/縮小操作ができるという利点がある。
 次に、図5のフローチャートに戻って、ステップS27以降の説明を行う。まず、検出部51が背面側タッチパネルでスライド動作を検出したか否かを判定する(S27)。ステップS27でYesと判定された場合、検出部51が、さらに正面側タッチパネルで指の押下/近接を検出したか否かを判定する(S28)。ステップS28でNoと判定された場合、検出部51が検出した操作情報C1は画面スクロールの情報である。そこで、制御部52は正面側の表示部に対し画面スクロール(第1の画面制御)を実行する(S29)。
 一方、ステップS28でYesと判定された場合、検出部51が検出した操作情報C1は拡大/縮小の情報である。そこで、制御部52は正面側の表示部に対し拡大/縮小(第2の画面制御)を実行する(S30)。
 また、ステップS27でNoと判定された場合、検出部51が正面側タッチパネルの操作を検出したか否かを判定する(S31)。ステップS31でYesと判定された場合、検出部51が検出した正面側タッチパネルの操作情報C1に応じて、制御部52はその他の画面制御を行う(S32)。
 尚、第1の実施形態では、背面側のタッチパネルによる操作を、画面スクロールと拡大/縮小の場合について説明したが、それに限定されない。他の背面側のタッチパネルによる操作、或いは、他の背面側のタッチパネルと正面側のタッチパネルの組み合わせによる操作を、追加することが可能である。
 以上説明したように、第1の実施形態の情報端末101によれば、以下に示す効果が得られる。
 まず、背面側となるタッチパネル上の操作により画面スクロールを行うので、正面側となるタッチパネル上の指が邪魔にならずに画面スクロールを行うことが可能になる。また、背面側での画面スクロール操作と正面側のリンク選択操作を分けられるので、誤入力による誤動作を防止することが可能になる。さらに、背面側のタッチパネル操作を使用することにより、片手で拡大/縮小操作を行うことが可能になる。
 以上のように、第1の実施形態によれば、タッチパネル操作における利便性向上に貢献しうる情報端末を提供することができる。
(第1の実施形態の変形例1)
 次に、第1の実施形態の変形例1について図8を参照しながら説明する。図8は、第1の実施形態の変形例1に係る情報端末102の構成を示すブロック図である。図8の情報端末102は、新たに、撮像手段として、第1筐体11に第1カメラ71を備えている。その他は第1の実施形態と同様であるため同じ参照符号を付し重複する説明を省略する。
 第1カメラ71は、ユーザの顔を検出し、正面側となる筐体を判別する機能を果たしている。図5のフローチャートにおいて、開閉センサが閉状態であると判定すると、ステップS23に代わって、制御部52は第1カメラ71を起動し、起動後の所定時間内で、撮影画像に顔が検出されるか否かを判定する。顔が検出された場合、正面側となる筐体を、第1カメラ71が配置されている第1筐体11と判定する。一方、顔が検出されなかった場合、正面側となる筐体を第2筐体12と判定する。
 第1の実施形態の変形例1に係る情報端末102によれば、第1の実施形態の効果に加えて、自動的に正面側となる筐体を判定することが可能になるという効果が得られる。
(第1の実施形態の変形例2)
 次に、第1の実施形態の変形例2について図9を参照しながら説明する。図9は、第1の実施形態の変形例2に係る情報端末103の構成を示すブロック図である。図9の情報端末103は、新たに、撮像手段として、第1筐体11及び第2筐体12に、それぞれ第1カメラ71、第2カメラ72を備えている。その他は第1の実施形態と同様であるため同じ参照符号を付し重複する説明を省略する。
 第1カメラ71及び第2カメラ72は、ユーザの顔を検出し、正面側となる筐体を判別する機能を果たしている。図5のフローチャートにおいて、開閉センサが閉状態であると判定すると、ステップS23に代わって、制御部52は第1カメラ71及び第2カメラ72を起動し、起動後の所定時間内で、撮影画像に顔が検出されるか否かを判定する。第1カメラ71で顔が検出された場合、正面側となる筐体は第1筐体11と判定する。第2カメラ72で顔が検出された場合、正面側となる筐体は第2筐体12と判定する。
 第1の実施形態の変形例2に係る情報端末103によれば、第1の実施形態の変形例1と同様に、自動的に正面側となる筐体を判定することが可能になる。
(第1の実施形態の変形例3)
 次に、第1の実施形態の変形例3について、図10、図11を参照しながら説明する。図10は、第1の実施形態の変形例3に係る情報端末104を示すブロック図である。図10の情報端末104は、新たに、利き手登録部63を備えている。その他は第1の実施形態と同様であるため同じ参照符号を付し重複する説明を省略する。
 ユーザは、利き手登録部63に、右利き、左利きのいずれかの情報を登録する。右利きの場合は左手で情報端末を把持し、左利きの場合は右手で情報端末を把持する場合が多いことを想定している。尚、右利き/左利きの情報を登録する代わりに、情報端末を把持する手が右手/左手のどちらであるかという情報を登録するようにしてもよい。
 そして、第1の実施形態の変形例3では、ユーザの利き手に応じて、背面側タッチパネルの操作範囲を所定の特定領域に限定している。図11では、背面側となるタッチパネルを第2タッチパネル40としている。右利き(即ち、把持する手が左手)の場合には、人差し指でスライドさせる範囲は、ユーザ側から見て、右上部の領域に限定されるから、図11(A)に示すように操作範囲を特定領域64aに限定することができる。また、左利き(即ち、把持する手が右手)の場合には、人差し指でスライドさせる範囲は、ユーザ側から見て、左上部の領域に限定されるから、図11(B)に示すように操作範囲を特定領域64bに限定することができる。
 このように、背面側となるタッチパネルの操作範囲を利き手情報に応じて、特定領域64a又は特定領域64bから選択し、選択された特定領域以外で検知された操作入力を無効とする。これにより、背面側となるタッチパネルに対して、意図せずに特定領域以外に触れてしまった場合の誤検出を防止することができる。
 尚、図10の利き手登録部の代わりに、過去の背面側タッチパネルの指の軌跡の情報を蓄積して記憶し、その蓄積された情報からユーザの利き手を自動的に判定するようにしてもよい。
 以上説明したように、第1の実施形態の変形例3によれば、第1の実施形態の効果に加えて、背面側タッチパネルの誤検出を防止することができるという効果が得られる。
(第1の実施形態の変形例4)
 次に、第1の実施形態の変形例4について、図12を参照しながら説明する。図12は、第1の実施形態の変形例4に係る情報端末105を示すブロック図である。図12の情報端末105は、新たに、記憶部53のデータベース65と、検出部51の一致判定部66を備えている。データベース65は、過去の背面側タッチパネルの指の軌跡を蓄積して記憶したものである。この情報により、ユーザの操作の傾向を統計的に把握することができる。一致判定部66では、その統計的なデータに対する、現時点で検出された指の軌跡の一致度を算出する。そして、一致度が所定の閾値以上の場合に、その操作入力を有効とする。一方、一致度が所定の閾値より小さい場合には、その操作入力を無効とする。これにより、背面側となるタッチパネルに対して、意図せずに指が触れてしまった場合の誤検出を防止することができる。
 以上説明したように、第1の実施形態の変形例4によれば、第1の実施形態の効果に加えて、背面側タッチパネルの誤検出を防止することができるという効果が得られる。
[第2の実施形態]
 次に、第2の実施形態について、図13~図15を参照しながら説明する。図13は第2の実施形態に係る情報端末201の構成を示す斜視図である。図13を図4(第1の実施形態)と比較すると分かるように、図13の情報端末201は、操作キー61、62をなくし、第1及び第2の表示部(81、91)の画面を広くしている。操作キー61、62に含まれるメニューキー、ホームキー、バックキーは、同様に機能するソフトキーを表示画面に表示するようにしている。
 また、図13の情報端末201は、いずれか一方の筐体に加速度センサ67を備えている。図13において、第1筐体11に加速度センサ67が配置されている。加速度センサ67は、重力方向(Gの方向)を検出することができるセンサである。図15(A)は、第1筐体11が正面側になる場合を示している。この場合、加速度センサ67の法線ベクトルと重力方向のなす角度θは90°より小さくなる。また、図15(B)は、第2筐体12が正面側になる場合を示している。この場合、加速度センサ67の法線ベクトルと重力方向のなす角度θは90°より大きくなる。以上により、加速度センサ67が検出した角度θが90°より小さいか或いは大きいかによって、正面側となる筐体を判別することができる。
 このように、加速度センサ67によって正面側となる筐体を判別することができるので、第1の実施形態のように、操作キー61又は操作キー62の操作で、正面側の判定を行う必要がない。そのため、操作キー61又は操作キー62をなくして、それらの機能をソフトキーとし、代わりに表示画面を広くすることが可能となる。
 図14は、第2の実施形態に係る情報端末201の構成を示すブロック図である。図14を図4(第1の実施形態)と比較すると分かるように、図14の情報端末201では、図4の操作キー61、62、キー入力部がなくなり、加速度センサ67が追加された構成となっている。情報端末201の動作は、図5において、ステップS23の代わりに、加速度センサ67により検出された角度θに基づいて、正面側となる筐体が判別される。それ以外の図5のステップは同様である。
 以上説明したように、第2の実施形態によれば、第1の実施形態の効果に加えて、加速度センサにより自動的に正面側となる筐体が判別されるという効果が得られる。
 尚、各実施形態における制御部52が実行する各々の処理(図5のS21~S32等)は、記憶部53にプログラムとして格納され、制御部52が備えたコンピュータによって呼び出されて実行される。また、そのプログラムは、ネットワークを介してダウンロードするか、或いは、プログラムを記憶した記憶媒体を用いて、更新することができる。
 本発明は、タッチパネルを備えた情報端末全般に好適に適用され、例えば、携帯電話、スマートフォン、ゲーム機、タブレットPC(Personal Computer)、ノートPC、PDA(Personal Data Assistants:携帯情報端末)等に適用される。
 なお、本発明の全開示(請求の範囲及び図面を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態の各要素、各図面の各要素等を含む)の多様な組み合わせないし選択が可能である。すなわち、本発明は、請求の範囲及び図面を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。
 上記実施形態の一部又は全部は、以下のようにも記載される。
(形態1)
 開閉可能に接続された第1及び第2筐体と、
 前記第1筐体に互いに重ねて配置された第1表示部及び第1タッチパネルと、
 前記第2筐体に互いに重ねて配置された第2表示部及び第2タッチパネルと、
 前記第1及び第2表示部が外側に向くと共に互いに対向する閉状態で、前記第1及び第2タッチパネルのうちで背面側となるタッチパネルの操作を検出する検出部と、
 前記検出部が検出した操作情報に基づいて、前記第1及び第2表示部のうちで正面側となる表示部の画面表示を制御する制御部と、
 を備える、ことを特徴とする情報端末。
(形態2)
 前記第1及び第2筐体の開閉状態を検出する開閉センサをさらに備え、
 前記開閉センサが閉状態を検出した場合に、前記制御部は前記操作情報に基づいて、前記正面側となる表示部の画面表示を制御する、ことを特徴とする形態1に記載の情報端末。
(形態3)
 前記開閉センサが閉状態を検出した場合に、前記制御部は前記背面側となる表示部の電源をオフにする、ことを特徴とする形態2に記載の情報端末。
(形態4)
 前記開閉センサが開状態を検出した場合に、前記制御部は前記第1及び第2表示部の両方の画面表示を制御する、ことを特徴とする形態2または3に記載の情報端末。
(形態5)
 前記第1及び第2筐体は、それぞれ、操作キーを備え、
 前記制御部は、前記閉状態において、前記操作キーによる入力を検知した側の筐体を前記正面側とする、ことを特徴とする形態1乃至4のいずれか一に記載の情報端末。
(形態6)
 加速度センサをさらに備え、
  前記制御部は、前記閉状態において、前記加速度センサの検出に基づいて、前記正面側を判別する、ことを特徴とする形態1乃至4のいずれか一に記載の情報端末。
(形態7)
 前記第1及び第2筐体のいずれか一方に撮像手段を、さらに備え、
 前記撮像手段が顔を検出した場合に、前記制御部は、前記撮像手段が設けられた筐体を前記正面側とする、ことを特徴とする形態1乃至4のいずれか一に記載の情報端末。
(形態8)
 前記第1及び第2筐体はそれぞれ撮像手段を備え、
 前記制御部は、
 前記第1筐体の撮像手段が顔を検出した場合、前記第1筐体を前記正面側とし、
 前記第2筐体の撮像手段が顔を検出した場合、前記第2筐体を前記正面側とする、ことを特徴とする形態1乃至4のいずれか一に記載の情報端末。
(形態9)
 前記制御部は、
 前記検出部が前記背面側となるタッチパネルの特定領域で検出した操作情報に基づいて、前記正面側となる表示部の画面表示を制御し、
 前記検出部が前記特定領域以外で検出した操作情報を画面表示の制御に使用しないことを特徴とする形態1乃至8のいずれか一に記載の情報端末。
(形態10)
 ユーザの利き手を判別する利き手判別手段を有し、
 前記利き手判別手段により判別された利き手情報に基づいて、複数の特定領域候補から前記特定領域を選択する、ことを特徴とする形態9に記載の情報端末。
(形態11)
 ユーザの利き手を登録し、
 登録された前記ユーザの利き手情報に基づいて、複数の特定領域候補から前記特定領域を選択する、ことを特徴とする形態9に記載の情報端末。
(形態12)
 前記制御部は、
 前記検出部が前記背面側となるタッチパネル上を指がスライドしたことを検出した場合に、第1の画面制御を実行する、ことを特徴とする形態1乃至11のいずれか一に記載の情報端末。
(形態13)
 前記第1の画面制御は、画面スクロールである、ことを特徴とする形態12に記載の情報端末。
(形態14)
 前記制御部は、
 前記検出部が前記背面側となるタッチパネル上を指がスライドしたことを検出し、同時に前記正面側となるタッチパネルの入力を検出した場合に、第2の画面制御を実行する、ことを特徴とする形態1乃至11のいずれか一に記載の情報端末。
(形態15)
 前記第2の画面制御は、拡大/縮小である、ことを特徴とする形態14に記載の情報端末。
(形態16)
 前記背面側となるタッチパネルの所定操作に関する指の軌跡を予め記憶しておき、
 前記検出部は、前記背面側となるタッチパネルの操作と、記憶された前記指の軌跡との一致度を判定し、
 前記画面制御部は、前記一致度に基づいて、前記正面側となる表示部の画面表示を制御する、ことを特徴とする形態1乃至15のいずれか一に記載の情報端末。
(形態17)
 第1画面と、前記第1画面と対向する第2画面の表示制御方法であって、
 前記第1及び第2画面のうちの背面側となる画面に配置されたタッチパネルの操作を検出する検出ステップと、
 前記検出ステップで検出した操作情報に基づいて、前記第1及び第2画面のうちの正面側となる画面の画面表示を制御するステップと、
 を含む、ことを特徴とする表示制御方法。
(形態18)
 第1画面と、前記第1画面と対向する第2画面の表示制御を行うプログラムであって、
 第1及び第2画面のうちの背面側となる画面に配置されたタッチパネルの操作を検出する検出処理と、
 前記検出処理で検出した操作情報に基づいて、前記第1及び第2画面のうちの正面側となる画面の画面表示を制御する処理と、
 をコンピュータに実行させる、ことを特徴とするプログラム。
1、101、102、103、104、105、201:情報端末
11:第1筐体
12:第2筐体
13、23:ホームキー
14、24:バックキー
15、25:メニューキー
30、80:第1タッチパネル
31、81:第1表示部
40、90:第2タッチパネル
41、91:第2表示部
51:検出部
52:制御部
53:記憶部
54:キー入力部
55:開閉センサ
61、62:操作キー
63:利き手登録部
64a:右利き特定領域
64b:左利き特定領域
65:データベース
66:一致判定部
67:加速度センサ
71:第1カメラ
72:第2カメラ
73:ヒンジ
C1:操作情報

Claims (10)

  1.  開閉可能に接続された第1及び第2筐体と、
     前記第1筐体に互いに重ねて配置された第1表示部及び第1タッチパネルと、
     前記第2筐体に互いに重ねて配置された第2表示部及び第2タッチパネルと、
     前記第1及び第2表示部が外側に向くと共に互いに対向する閉状態で、前記第1及び第2タッチパネルのうちでユーザから見て背面側となるタッチパネルの操作を検出する検出部と、
     前記検出部が検出した操作情報に基づいて、前記第1及び第2表示部のうちでユーザから見て正面側となる表示部の画面表示を制御する制御部と、
     を備える、情報端末。
  2.  前記第1及び第2筐体の開閉状態を検出する開閉センサをさらに備え、
     前記開閉センサが閉状態を検出した場合に、前記制御部は前記操作情報に基づいて、前記正面側となる表示部の画面表示を制御する、請求項1に記載の情報端末。
  3.  前記開閉センサが閉状態を検出した場合に、前記制御部は前記背面側となる表示部の電源をオフにする、請求項2に記載の情報端末。
  4.  前記第1及び第2筐体は、それぞれ、操作キーを備え、
     前記制御部は、前記閉状態において、前記操作キーによる入力を検知した側の筐体を前記正面側とする、請求項1乃至3のいずれか一項に記載の情報端末。
  5.  加速度センサをさらに備え、
      前記制御部は、前記閉状態において、前記加速度センサの検出に基づいて、前記正面側を判別する、請求項1乃至3のいずれか一項に記載の情報端末。
  6.  前記制御部は、
     前記検出部が前記背面側となるタッチパネルの特定領域で検出した操作情報に基づいて、前記正面側となる表示部の画面表示を制御し、
     前記検出部が前記特定領域以外で検出した操作情報を画面表示の制御に使用しない、請求項1乃至5のいずれか一項に記載の情報端末。
  7.  前記制御部は、
     前記検出部が前記背面側となるタッチパネル上を指がスライドしたことを検出した場合に、第1の画面制御を実行する、請求項1乃至6のいずれか一項に記載の情報端末。
  8.  前記制御部は、
     前記検出部が前記背面側となるタッチパネル上を指がスライドしたことを検出すると共に、前記正面側となるタッチパネルの入力を検出した場合に、第2の画面制御を実行する、請求項1乃至6のいずれか一項に記載の情報端末。
  9.  第1画面と、前記第1画面と対向する第2画面の表示制御方法であって、
     前記第1及び第2画面のうちのユーザから見て背面側となる画面に配置されたタッチパネルの操作を検出する検出ステップと、
     前記検出ステップで検出した操作情報に基づいて、前記第1及び第2画面のうちのユーザから見て正面側となる画面の画面表示を制御するステップと、
     を含む、表示制御方法。
  10.  第1画面と、前記第1画面と対向する第2画面の表示制御を行うプログラムであって、
     第1及び第2画面のうちのユーザから見て背面側となる画面に配置されたタッチパネルの操作を検出する検出処理と、
     前記検出処理で検出した操作情報に基づいて、前記第1及び第2画面のうちのユーザから見て正面側となる画面の画面表示を制御する処理と、
     をコンピュータに実行させるプログラム。
PCT/JP2014/058575 2013-03-27 2014-03-26 情報端末、表示制御方法及びそのプログラム WO2014157357A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015508598A JP6319298B2 (ja) 2013-03-27 2014-03-26 情報端末、表示制御方法及びそのプログラム
CN201480018512.9A CN105103110B (zh) 2013-03-27 2014-03-26 信息终端、显示控制方法和程序
US14/780,234 US9880656B2 (en) 2013-03-27 2014-03-26 Information terminal, display controlling method and program
EP14774551.7A EP2980692B1 (en) 2013-03-27 2014-03-26 Information terminal, display control method, and program therefor
US15/814,946 US10282023B2 (en) 2013-03-27 2017-11-16 Information terminal, display controlling method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013066404 2013-03-27
JP2013-066404 2013-03-27

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/780,234 A-371-Of-International US9880656B2 (en) 2013-03-27 2014-03-26 Information terminal, display controlling method and program
US15/814,946 Division US10282023B2 (en) 2013-03-27 2017-11-16 Information terminal, display controlling method and program

Publications (1)

Publication Number Publication Date
WO2014157357A1 true WO2014157357A1 (ja) 2014-10-02

Family

ID=51624320

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/058575 WO2014157357A1 (ja) 2013-03-27 2014-03-26 情報端末、表示制御方法及びそのプログラム

Country Status (5)

Country Link
US (2) US9880656B2 (ja)
EP (1) EP2980692B1 (ja)
JP (1) JP6319298B2 (ja)
CN (1) CN105103110B (ja)
WO (1) WO2014157357A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101904143B1 (ko) * 2017-03-06 2018-10-24 주식회사 엠투미 폴더블 디스플레이 디바이스

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105739775B (zh) * 2016-01-29 2018-09-04 广东欧珀移动通信有限公司 一种终端
WO2017188740A1 (ko) * 2016-04-28 2017-11-02 민상규 가상 현실 핸드폰
KR101867153B1 (ko) * 2016-05-25 2018-06-12 민상규 가상 현실 겸용 핸드폰 케이스
US10768804B2 (en) * 2016-09-06 2020-09-08 Microsoft Technology Licensing, Llc Gesture language for a device with multiple touch surfaces
CN106873870A (zh) * 2017-01-06 2017-06-20 珠海格力电器股份有限公司 一种终端交互方法及其装置、终端及电子设备
CN107343092B (zh) * 2017-06-28 2020-08-21 南京心视窗信息科技有限公司 操作屏幕的方法、设备及计算机可读存储介质
US20190012000A1 (en) * 2017-07-05 2019-01-10 Motorola Mobility Llc Deformable Electronic Device with Methods and Systems for Controlling the Deformed User Interface
CN110602274B (zh) * 2019-08-14 2021-07-27 新纶科技(常州)有限公司 一种柔性显示屏盖板

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008209679A (ja) * 2007-02-27 2008-09-11 Kyocera Mita Corp 画像形成装置
JP2009223426A (ja) * 2008-03-13 2009-10-01 Sharp Corp 情報表示装置及び情報表示方法
JP2011028673A (ja) * 2009-07-29 2011-02-10 Kyocera Corp 携帯端末装置
JP2011209899A (ja) * 2010-03-29 2011-10-20 Nec Corp 情報処理装置、入力制御方法、プログラム及び記録媒体
WO2011142151A1 (ja) 2010-05-14 2011-11-17 シャープ株式会社 携帯型情報端末およびその制御方法
JP2013008340A (ja) * 2011-06-27 2013-01-10 Kyocera Corp 携帯端末装置、プログラムおよび表示制御方法
JP2013054467A (ja) * 2011-09-01 2013-03-21 Sony Computer Entertainment Inc 情報処理装置および情報処理方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3579061B2 (ja) * 1992-08-31 2004-10-20 株式会社東芝 表示装置
US7800592B2 (en) 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US10728381B2 (en) * 1999-06-04 2020-07-28 Raman K. Rao Reconfigurable mobile device interfaces supporting authenticated high quality video, audio, TV and multimedia services
KR20020078373A (ko) * 2001-04-09 2002-10-18 주식회사 팬택앤큐리텔 삼중 폴더형 단말기
CN1319356C (zh) 2003-04-24 2007-05-30 三星电子株式会社 在移动终端中使用旋转键以及控制显示的装置和方法
US8943434B2 (en) * 2010-10-01 2015-01-27 Z124 Method and apparatus for showing stored window display
KR100753397B1 (ko) 2006-04-04 2007-08-30 삼성전자주식회사 이동 단말기에서 화면 자동 온/오프 제어 장치 및 방법
JP5184018B2 (ja) * 2007-09-14 2013-04-17 京セラ株式会社 電子機器
JP5045559B2 (ja) * 2008-06-02 2012-10-10 富士通モバイルコミュニケーションズ株式会社 携帯端末
JP4632102B2 (ja) 2008-07-17 2011-02-16 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
KR101592296B1 (ko) * 2008-09-03 2016-02-05 엘지전자 주식회사 이동 단말기 및 그의 객체 선택과 실행 방법
KR101609162B1 (ko) * 2008-11-13 2016-04-05 엘지전자 주식회사 터치 스크린을 구비한 이동 단말기 및 이를 이용한 데이터 처리 방법
EP2207342B1 (en) * 2009-01-07 2017-12-06 LG Electronics Inc. Mobile terminal and camera image control method thereof
US20110078272A1 (en) * 2009-03-31 2011-03-31 Kyocera Corporation Communication terminal device and communication system using same
KR101560718B1 (ko) * 2009-05-29 2015-10-15 엘지전자 주식회사 이동 단말기 및 이동 단말기에서의 정보 표시 방법
KR101566353B1 (ko) * 2009-06-02 2015-11-05 엘지전자 주식회사 이동 단말기 및 이동 단말기의 정보 표시 방법
US8497884B2 (en) * 2009-07-20 2013-07-30 Motorola Mobility Llc Electronic device and method for manipulating graphic user interface elements
JP5363259B2 (ja) * 2009-09-29 2013-12-11 富士フイルム株式会社 画像表示装置、画像表示方法およびプログラム
JP5458783B2 (ja) * 2009-10-01 2014-04-02 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR20110081040A (ko) * 2010-01-06 2011-07-13 삼성전자주식회사 투명 디스플레이를 구비한 휴대단말에서 컨텐츠 운용 방법 및 장치
JP5370259B2 (ja) 2010-05-07 2013-12-18 富士通モバイルコミュニケーションズ株式会社 携帯型電子機器
US9013416B2 (en) * 2011-02-25 2015-04-21 Amazon Technologies, Inc. Multi-display type device interactions
JP5784960B2 (ja) * 2011-04-26 2015-09-24 京セラ株式会社 携帯端末、タッチパネル操作プログラムおよびタッチパネル操作方法
WO2013003984A1 (en) 2011-07-06 2013-01-10 Google Inc. Dual display computing device
KR101899812B1 (ko) * 2012-05-14 2018-09-20 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
KR102080741B1 (ko) * 2012-08-29 2020-02-24 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
KR101984683B1 (ko) * 2012-10-10 2019-05-31 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
KR102063952B1 (ko) * 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008209679A (ja) * 2007-02-27 2008-09-11 Kyocera Mita Corp 画像形成装置
JP2009223426A (ja) * 2008-03-13 2009-10-01 Sharp Corp 情報表示装置及び情報表示方法
JP2011028673A (ja) * 2009-07-29 2011-02-10 Kyocera Corp 携帯端末装置
JP2011209899A (ja) * 2010-03-29 2011-10-20 Nec Corp 情報処理装置、入力制御方法、プログラム及び記録媒体
WO2011142151A1 (ja) 2010-05-14 2011-11-17 シャープ株式会社 携帯型情報端末およびその制御方法
JP2013008340A (ja) * 2011-06-27 2013-01-10 Kyocera Corp 携帯端末装置、プログラムおよび表示制御方法
JP2013054467A (ja) * 2011-09-01 2013-03-21 Sony Computer Entertainment Inc 情報処理装置および情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2980692A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101904143B1 (ko) * 2017-03-06 2018-10-24 주식회사 엠투미 폴더블 디스플레이 디바이스

Also Published As

Publication number Publication date
US20180095589A1 (en) 2018-04-05
EP2980692A4 (en) 2016-12-07
US20160041682A1 (en) 2016-02-11
JPWO2014157357A1 (ja) 2017-02-16
EP2980692A1 (en) 2016-02-03
CN105103110A (zh) 2015-11-25
US9880656B2 (en) 2018-01-30
JP6319298B2 (ja) 2018-05-09
EP2980692B1 (en) 2019-01-09
US10282023B2 (en) 2019-05-07
CN105103110B (zh) 2018-07-27

Similar Documents

Publication Publication Date Title
JP6319298B2 (ja) 情報端末、表示制御方法及びそのプログラム
US11429275B2 (en) Electronic device with gesture-based task management
US20200089392A1 (en) Gesture controlled screen repositioning for one or more displays
JP5817716B2 (ja) 情報処理端末およびその操作制御方法
JP5846129B2 (ja) 情報処理端末およびその制御方法
JP6157885B2 (ja) 携帯端末装置の表示制御方法
JP5681867B2 (ja) 携帯端末および表示方法
WO2014075470A1 (zh) 一种终端及终端屏幕显示信息控制方法
US9377944B2 (en) Information processing device, information processing method, and information processing program
TWI659353B (zh) 電子設備以及電子設備的工作方法
JP5854928B2 (ja) タッチ検出機能を有する電子機器、プログラムおよびタッチ検出機能を有する電子機器の制御方法
US10908868B2 (en) Data processing method and mobile device
JP6213467B2 (ja) 端末装置、表示制御方法およびプログラム
CN105183353B (zh) 用于触控设备的多点触控输入方法
KR101678213B1 (ko) 터치 영역 증감 검출에 의한 사용자 인터페이스 장치 및 그 제어 방법
JP2013069203A (ja) 情報処理端末およびその表示制御方法
WO2013046982A1 (ja) 情報処理端末およびその表示制御方法
JP2013047866A (ja) 携帯電子機器
JP2014160301A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480018512.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14774551

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015508598

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14780234

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2014774551

Country of ref document: EP