WO2014192878A1 - 携帯機器および携帯機器における制御方法 - Google Patents

携帯機器および携帯機器における制御方法 Download PDF

Info

Publication number
WO2014192878A1
WO2014192878A1 PCT/JP2014/064286 JP2014064286W WO2014192878A1 WO 2014192878 A1 WO2014192878 A1 WO 2014192878A1 JP 2014064286 W JP2014064286 W JP 2014064286W WO 2014192878 A1 WO2014192878 A1 WO 2014192878A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
display screen
display
displayed
display area
Prior art date
Application number
PCT/JP2014/064286
Other languages
English (en)
French (fr)
Inventor
圭祐 冨士野
杉山 崇
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2013113214A external-priority patent/JP5993802B2/ja
Priority claimed from JP2013113285A external-priority patent/JP6047066B2/ja
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2014192878A1 publication Critical patent/WO2014192878A1/ja
Priority to US14/952,727 priority Critical patent/US20160077551A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • the present invention relates to a portable device and a method for controlling a display unit in the portable device.
  • an aspect of the portable device includes a housing, a display area provided in a front surface portion of the housing, and an operation detection unit that detects an operation on the display area by an operation finger.
  • a holding finger detection unit that is provided in the casing and detects a contact position with a holding finger that holds the casing; an inclination detection unit that detects an inclination angle with respect to a reference posture of the casing; and the holding finger
  • the change in the contact position is predetermined as a change in the contact position when the user tries to operate a portion on the contact position side in the display area.
  • the control unit translates the display screen and displays it in the display area.
  • control unit may cause the display screen to be translated and displayed in the display area when the change amount of the tilt angle of the housing is equal to or less than a predetermined value.
  • control unit determines a direction of parallel movement of the display screen based on a change direction of an inclination angle of the casing.
  • the holding finger detection unit is provided on each side surface portion of the housing, and the control unit is configured to determine which of the holding finger detection units is the holding finger.
  • the direction of the parallel movement of the display screen is determined based on the information indicating whether the movement of the display screen is detected.
  • the holding finger detection unit is provided on a back surface portion of the housing, and the control unit is configured to display the display based on a change direction of the contact position. Determine the direction of screen translation.
  • the holding finger detection unit detects a change in the contact position as a predetermined operation in a state where the display screen is translated and displayed in a part of the display area. Then, the control unit displays the display screen over the entire display area.
  • control unit displays the display screen while being translated without reducing the display screen.
  • a housing a display area provided in a front surface portion of the housing, a storage unit in which a plurality of application programs are recorded, and a detection unit that can detect an input by a user And a part of the first display screen displayed in the display area when the first application program is executed is displayed in the main area as a part of the display area, and is different from the first application program. And a control unit capable of displaying a part of the second display screen displayed in the display area when the second application program is executed in a sub-area different from the main area in the display area.
  • control unit may display the part of the first display screen in the main area and the part of the second display screen in the sub area.
  • the detection unit detects a first input by the user, a part of the first display screen is displayed in the sub area and a part of the second display screen is displayed in the main area. indicate.
  • the control unit may display the part of the first display screen in the main area and the part of the second display screen in the sub area.
  • the detection unit detects a first input by a user
  • a part of the first display screen is displayed in the sub area, which is different from the first and second application programs.
  • a part of a third display screen displayed in the display area when a third application program is executed or a selection screen in which display symbols representing the plurality of application programs are displayed side by side is displayed in the main area.
  • the detection unit can detect an operation by the user to the display area, and the first input is a first operation by the user to the display area.
  • control unit may display the part of the first display screen in the main area and the part of the second display screen in the sub area.
  • the detection unit detects the second input, the display of the part of the second display screen is terminated and the first display screen is displayed on the entire display area.
  • the detection unit can detect an operation by the user to the display area, and the second input is a second operation by the user to the main area.
  • control unit may display the part of the first display screen in the main area and the part of the second display screen in the sub area.
  • the detection unit detects the second input, the display of the part of the first display screen is terminated and the second display screen is displayed on the entire display area.
  • the detection unit can detect an operation by the user to the display area, and the second input is a third operation by the user to the sub area.
  • control unit is configured such that when a part of a selection screen that displays the display symbols respectively representing the plurality of application programs is displayed in the main area, When the detection unit detects an operation on the display symbol in the main area, the fourth application program for the display symbol that has been operated is executed, and a part of the fourth display screen by the fourth application program is Display in sub-area.
  • control unit displays the part of the selection screen in the main area, and the part of the fourth display screen in the sub area.
  • the fourth application program is terminated.
  • One aspect of a control method in a portable device includes a housing, a display area provided on a front surface of the housing, an operation detection unit that detects an operation on the display area by an operation finger, and the housing
  • a method of controlling a portable device comprising: a holding finger detection unit that detects a contact position with a holding finger that holds the housing; and an inclination detection unit that detects an inclination angle with respect to a reference posture of the housing. And when both the change of the said contact position and the change of the inclination-angle of the said housing
  • One aspect of a control method in a portable device includes a housing, a display area provided on a front surface of the housing, a storage unit in which a plurality of application programs are recorded, and a detection unit that can detect an input by a user
  • a part of the second display screen that is displayed in the area and displayed in the display area when a second application program different from the first application program is executed is the main area of the display area. Display in a separate sub-region.
  • the operability of the portable device can be improved.
  • FIG. 1 is a perspective view showing an external appearance of a mobile device 1 according to the embodiment, as viewed from the front side.
  • FIG. 2 is a back view showing an overview of the mobile device 1.
  • the mobile device 1 is, for example, a mobile phone, and can communicate with other communication devices through a base station, a server, and the like.
  • the portable device 1 includes a cover panel 2 and a case portion 3, and the cover panel 2 and the case portion 3 are combined to form a substantially rectangular plate shape in plan view.
  • a housing 4 hereinafter also referred to as a device case 4 is configured.
  • the cover panel 2 has a substantially rectangular shape in a plan view, and constitutes a part other than the peripheral part in the front part of the portable device 1.
  • the cover panel 2 is made of, for example, transparent glass or transparent acrylic resin.
  • the case part 3 constitutes a peripheral part, a side part and a back part of the front part of the mobile device 1.
  • the case portion 3 is made of, for example, polycarbonate resin.
  • a display area 2a for displaying various information such as characters, symbols, figures or images is provided.
  • the mobile device 1 is provided with, for example, only one display area 2a, and this display area 2a has, for example, a rectangular shape in plan view.
  • the peripheral part 2b surrounding the display area 2a in the cover panel 2 is black by applying a film or the like, for example, and is a non-display part where no information is displayed.
  • a touch panel 130 which will be described later, is attached to the back surface of the cover panel 2, and the user gives various instructions to the mobile device 1 by operating the display area 2a on the front surface of the mobile device 1 with a finger or the like. Can do.
  • the user can also give various instructions to the mobile device 1 by operating the display area 2a with an operator other than a finger, for example, an electrostatic touch panel pen such as a stylus pen.
  • a home key 5a, a menu key 5b, and a back key 5c are provided.
  • Each of the home key 5a, the menu key 5b, and the back key 5c is a hardware key, and the surface thereof is exposed from the lower end of the front surface of the cover panel 2.
  • the home key 5a is an operation key for displaying the home screen (initial screen) in the display area 2a.
  • the menu key 5b is an operation key for displaying the option menu screen in the display area 2a.
  • the back key 5c is an operation key for returning the display of the display area 2a to the previous display.
  • an “operation key 5” when there is no need to particularly distinguish the home key 5a, the menu key 5b, and the back key 5c, each is referred to as an “operation key 5”.
  • each of the home key 5a, the menu key 5b, and the back key 5c may be a software key that is displayed on the display area 2a and an operation on the touch panel 130 is detected instead of the hardware key.
  • a microphone hole 6 is formed in the lower end portion of the cover panel 2, and a receiver hole 7 is formed in the upper end portion of the cover panel 2.
  • An imaging lens 180 a included in a front-side imaging unit 180 described later is visible from the upper end portion of the front surface of the cover panel 2.
  • speaker holes 8 are formed in the back surface of the mobile device 1, in other words, the back surface of the device case 4.
  • an imaging lens 190a included in a back surface side imaging unit 190 described later is visible.
  • the device case 4 is provided with a touch sensor 90.
  • the touch sensor 90 is provided at a position in contact with a finger that holds the mobile device 1.
  • the user holds the portable device 1 with one hand.
  • the user holds the mobile device 1 with the right hand 30.
  • the portable device 1 is held by being sandwiched between a base portion of the thumb 31 of the right hand 30 and a finger 32 other than the thumb 31. Therefore, the finger 32 contacts the side surface portion (the left side surface portion in FIG. 3) of the mobile device 1.
  • the touch sensor 90 is provided on the side surface portion and detects the movement of the finger 32.
  • the user can operate the display area 2 a with the thumb 31. Therefore, hereinafter, the thumb 31 is also called an operation finger, and the finger 32 is also called a holding finger.
  • the user holds the mobile device 1 with the left hand 20.
  • the portable device 1 is held by being sandwiched between the base portion of the thumb 21 of the left hand 20 and the fingers 22 other than the thumb 21. Therefore, the finger 22 contacts the side surface portion (the right side surface portion in FIG. 4) of the mobile device 1.
  • the touch sensor 90 is also provided on the side surface portion, and detects the movement of the finger 22.
  • the user can operate the display area 2 a with the thumb 21. Therefore, hereinafter, the thumb 21 is also referred to as an operation finger, and the finger 22 is also referred to as a holding finger.
  • FIG. 5 is a block diagram showing an electrical configuration of the mobile device 1.
  • the mobile device 1 includes a control unit 100, a display panel 120, a display control unit 122, a detection unit 132, and a tilt sensor 92.
  • the mobile device 1 further includes a wireless communication unit 110, a key operation unit 140, a microphone 150, a receiver 160, an external speaker 170, a front side imaging unit 180, a back side imaging unit 190, and a battery 200.
  • These components provided in the mobile device 1 are housed in a device case 4.
  • the control unit 100 includes a CPU (Central Processing Unit) 101, a DSP (Digital Signal Processor) 102, a storage unit 103, and the like, and controls other components of the mobile device 1 to control the operation of the mobile device 1. Manage in an integrated manner.
  • the storage unit 103 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the storage unit 103 includes a main program 103a that is a control program for controlling the operation of the mobile device 1, specifically, the wireless communication unit 110 and the display panel 120 included in the mobile device 1, and a plurality of applications.
  • a program 103b (hereinafter simply referred to as “application 103b”) and the like are stored.
  • control unit 100 Various functions of the control unit 100 are realized by the CPU 101 and the DSP 102 executing various programs in the storage unit 103.
  • FIG. 3 only one application 103b is shown in order to avoid the complexity of the drawing.
  • one CPU 101 and one DSP 102 are shown, but a plurality of these may be provided. These may cooperate with each other to realize various functions.
  • the storage unit 103 is shown inside the control unit 100, but may be provided outside the control unit 100. In other words, the storage unit 103 may be separate from the control unit 100.
  • the wireless communication unit 110 has an antenna 111.
  • the wireless communication unit 110 receives a signal from a communication device such as a mobile phone or a web server connected to the Internet, which is different from the mobile device 1, by the antenna 111 via a base station or the like.
  • Radio communication unit 110 performs amplification processing and down-conversion on the received signal and outputs the result to control unit 100.
  • the control unit 100 performs demodulation processing and the like on the input received signal.
  • the wireless communication unit 110 performs up-conversion and amplification processing on the transmission signal generated by the control unit 100, and wirelessly transmits the processed transmission signal from the antenna 111.
  • a transmission signal from the antenna 111 is received through a base station or the like by a mobile phone different from the mobile device 1 or a communication device connected to the Internet.
  • the display panel 120 is, for example, a liquid crystal display panel or an organic EL panel.
  • the display panel 120 is controlled by the control unit 100 and the display control unit 122 to display various information such as characters, symbols, figures or images.
  • Information displayed on the display panel 120 is displayed in the display area 2 a on the front surface of the cover panel 2. Therefore, it can be said that the display panel 120 is displaying in the display area 2a.
  • the display control unit 122 displays a display screen on the display panel 120 based on the image signal received from the control unit 100.
  • the control unit 100 the main body that controls the display panel 120 will be described as the control unit 100.
  • the detection unit 132 detects an input to the mobile device 1 by the user and notifies the control unit 100 of the input.
  • the detection unit 132 includes a touch panel 130, a key operation unit 140, and a touch sensor 90.
  • the touch panel 130 detects an operation by an operator such as an operation finger on the display area 2 a of the cover panel 2.
  • the touch panel 130 is a projected capacitive touch panel, for example, and is attached to the back surface of the cover panel 2.
  • a signal corresponding to the operation is input from the touch panel 130 to the control unit 100.
  • the control unit 100 Based on the signal from the touch panel 130, the control unit 100 identifies the content of the operation performed on the display area 2a, and performs processing according to the screen.
  • the touch sensor 90 is provided in the device case 4 and detects the movement of the holding finger. More specifically, the touch sensor 90 detects the contact position between itself and the holding finger and outputs this to the control unit 100. For example, the touch sensor 90 can detect the contact position of the holding finger using the same principle as that of the touch panel 130. However, since the touch sensor 90 does not need to have a display function, it is not necessary to transmit visible light. The control unit 100 can recognize the movement of the holding finger based on the change in the contact position detected by the touch sensor 90.
  • the tilt sensor 92 detects the tilt angle with respect to the reference posture of the mobile device 1 (or device case 4).
  • the mobile device 1 (more specifically, the cover panel 2) is a posture in which the reference posture is parallel to the horizontal plane.
  • the tilt sensor 92 detects the following two tilt angles. That is, a rotation angle (tilt angle) centered on one of the x axis, y axis, and z axis orthogonal to each other and a rotation angle (tilt angle) centered on the other one are detected.
  • the x-axis, the y-axis, and the z-axis are axes fixed to the portable device 1, and for example, as shown in FIGS. 3 and 4, a horizontal direction, a vertical direction, and a direction perpendicular to the paper surface can be employed. With these two inclination angles, the inclination posture with respect to the reference posture of the mobile device 1 can be expressed.
  • the tilt sensor 92 is, for example, an acceleration sensor.
  • This acceleration sensor can detect gravity acceleration components of the x-axis, y-axis, and z-axis generated in the mobile device 1.
  • the control unit 100 can detect (or calculate) the tilt angle of the mobile device 1 from a known geometric relational expression using the gravitational acceleration component in each direction detected by the tilt sensor 92.
  • the key operation unit 140 detects a user's pressing operation on each operation key 5.
  • the key operation unit 140 detects, for each operation key 5, whether or not the operation key 5 is pressed (operated). When the operation key 5 is not pressed, the key operation unit 140 outputs a non-operation signal indicating that the operation key 5 is not operated to the control unit 100. In addition, when the operation key 5 is pressed, the key operation unit 140 outputs an operation signal indicating that the operation key 5 has been operated to the control unit 100. Thereby, the control part 100 can judge whether the said operation key 5 is operated about each operation key 5.
  • the control unit 100 displays the home screen (initial screen) on the display panel 120 when it is detected by the key operation unit 140 that the home key 5a is pressed and then not pressed. As a result, the home screen is displayed in the display area 2a.
  • the control unit 100 causes the display panel 120 to display an option menu screen. Thereby, the option menu screen is displayed in the display area 2a.
  • the control unit 100 causes the display panel 120 to return the display to the previous one. Thereby, the display of the display area 2a returns to the previous one.
  • the microphone 150 converts the sound input from the outside of the mobile device 1 into an electrical sound signal and outputs it to the control unit 100. Sound from the outside of the portable device 1 is taken into the portable device 1 from the microphone hole 6 provided on the front surface of the cover panel 2 and input to the microphone 150.
  • the external speaker 170 is a dynamic speaker, for example, and converts an electrical sound signal from the control unit 100 into sound and outputs the sound.
  • the sound output from the external speaker 170 is output to the outside through the speaker hole 8 provided on the back surface of the mobile device 1.
  • the sound output from the speaker hole 8 can be heard at a place away from the portable device 1.
  • the front-side imaging unit 180 includes an imaging lens 180a and an imaging device, and captures still images and moving images based on control by the control unit 100. As shown in FIG. 1, the imaging lens 180 a is provided on the front surface of the mobile device 1, and thus can image an object present on the front surface side (cover panel 2 side) of the mobile device 1. .
  • the back side imaging unit 190 includes an imaging lens 190a and an imaging element, and captures still images and moving images based on control by the control unit 100. As shown in FIG. 2, since the imaging lens 190 a is provided on the back surface of the mobile device 1, it is possible to image an object present on the back surface side of the mobile device 1.
  • the receiver 160 outputs a received sound, and is composed of, for example, a dynamic speaker.
  • the receiver 160 converts the electrical sound signal from the control unit 100 into sound and outputs the sound.
  • the sound output from the receiver 160 is output to the outside from the receiver hole 7 provided on the front surface of the mobile device 1.
  • the volume of the sound output from the receiver hole 7 is smaller than the volume of the sound output from the speaker hole 8.
  • the battery 200 outputs the power source of the mobile device 1.
  • the power output from the battery 200 is supplied to each electronic component included in the control unit 100 and the wireless communication unit 110 included in the mobile device 1.
  • the storage unit 103 stores various applications 103b that demonstrate various functions of the mobile device 1.
  • the storage unit 103 stores, for example, a telephone application for making a call using a telephone function, a browser for displaying a website, and a mail application for creating, browsing, and transmitting / receiving e-mails.
  • the storage unit 103 includes a camera application for capturing still images and moving images using a front side imaging unit 180 and a back side imaging unit 190, a television application for viewing and recording a television program, and a storage unit.
  • a moving image reproduction control application for performing reproduction control of moving image data stored in 103, a music reproduction control application for performing reproduction control of music data stored in the storage unit 103, and the like are stored.
  • the control unit 100 When the control unit 100 executing the main program 103a in the storage unit 103 reads and executes the application 103b in the storage unit 103, the control unit 100 includes the wireless communication unit 110, the display panel 120, the receiver 160, and the like. The other components in the mobile device 1 are controlled, whereby the function (processing) corresponding to the application 103b is executed in the mobile device 1.
  • the control unit 100 executing the telephone application controls the wireless communication unit 110, the microphone 150, and the receiver 160.
  • the audio included in the reception signal received by the wireless communication unit 110 is output from the receiver 160, and the transmission signal including the audio input to the microphone 150 is transmitted from the wireless communication unit 110.
  • a call using the telephone function is performed with the communication partner apparatus.
  • Examples of basic operations that the user performs on the display area 2a include a slide operation, a tap operation, a double tap operation, a flick operation, a pinch-out operation, and a pinch-in operation.
  • the slide operation is an operation in which an operator such as an operation finger moves while in contact with or close to the display area 2a. That is, the slide operation is an operation in which the operator moves in the display area 2a.
  • the user can, for example, scroll the display of the display area 2a or switch the page displayed in the display area 2a to another page by performing a slide operation on the display area 2a.
  • the operation in which the operating element moves in the display area 2a includes an operation in which the operating element moves in contact with the display area 2a and a state in which the operating element is in proximity to the display area 2a. Includes both moving operations.
  • the tap operation is an operation of leaving the display area 2a immediately after the operator touches or approaches the display area 2a.
  • the tap operation is an operation of leaving the display area 2a at the contact position or the proximity position within a predetermined time after the operator touches or approaches the display area 2a.
  • the user selects, for example, an application icon (hereinafter referred to as “application icon”) for executing the application 103b displayed in the display area 2a.
  • the application 103b can be executed by the mobile device 1.
  • the double tap operation is an operation in which the tap operation is performed twice within a predetermined period.
  • the user performs, for example, a double-tap operation on the display area 2a to display the display screen displayed in the display area 2a with a predetermined enlargement ratio or a predetermined reduction. It can be reduced and displayed at a rate.
  • the flick operation is an operation for paying the display area 2a with an operator.
  • the flick operation is an operation in which the operation element moves beyond a predetermined distance within a predetermined time and leaves the display area 2a while being in contact with or close to the display area 2a.
  • the user performs a flick operation on the display area 2a, for example, scrolls the display of the display area 2a in the direction of the flick operation, or switches the page displayed in the display area 2a to another page. can do.
  • the pinch-out operation is an operation that widens the interval between the two operators while the two operators are close to or in contact with the display area 2a.
  • the user can enlarge the display screen according to the interval between the two operators and display the display area 2a.
  • the pinch-in operation is an operation for reducing the interval between the two operators while the two operators are close to or in contact with the display area 2a.
  • the user can reduce the display screen according to the interval between two operators and display the display area 2a.
  • the user is at the end of the display area 2a on the contact position side of the holding finger 22 (more specifically, the upper right end). Difficult to manipulate the area. This is because the thumb 21 of the left hand 20 is difficult to reach this area. Such a problem becomes more prominent as the display area 2a becomes larger and the screen becomes larger.
  • an area that is difficult to operate is referred to as an operation difficult area. Therefore, here, when the portable device 1 is operated with the thumb 31 of the right hand 30, the difficult operation region is the upper left end portion of the display region 2a, and when the portable device 1 is operated with the thumb 21 of the left hand 20, the difficult operation region is This is the upper right end of the display area 2a.
  • An area where the operation finger can easily reach is also referred to as an easy operation area.
  • the operation when the user tries to operate the difficult operation area will be described.
  • the operation difficulty region is operated with the thumb 31 while holding the mobile device 1 with the right hand 30 (see FIG. 3)
  • the user tries to operate the operation difficulty region by extending the thumb 31 to the operation difficulty region while tilting the portable device 1 so that the operation difficulty region approaches the thumb 31.
  • the thumb 31 is extended while tilting the upper left end portion of the mobile device 1 toward the user side (the front side of the paper) with respect to the lower right end portion thereof. Thereby, the thumb 31 is brought close to or in contact with the difficult operation region.
  • such a change in the tilting posture of the mobile device 1 is performed by pushing the mobile device 1 from the back surface portion to the user side using the holding finger 32.
  • the user pushes the back surface portion with the holding finger 32 while moving the holding finger 32 from the side surface portion of the mobile device 1 to the back surface portion.
  • FIG. 6 is a plan view schematically showing the touch sensor 90 on the left side of FIG.
  • the touch sensor 90 has a substantially rectangular shape in plan view (viewed perpendicularly to the side surface portion of the mobile device 1).
  • the left side of the touch sensor 90 is located on the back side of the mobile device 1 and the right side of the paper is located on the front side of the mobile device 1.
  • parallel lines a to d are arranged in this order from the front side to the back side. These lines a to d are virtual lines and indicate positions in the left and right direction (z-axis direction) of the touch sensor 90 in the drawing.
  • FIG. 7 shows detection results of the touch sensor 90 for one holding finger 32 for each of the lines a to d. That is, it is shown which position this one holding finger 32 is in contact with in the left-right direction on the paper surface.
  • FIG. 7 shows a temporal change in a detected value (for example, a current value) accompanying the contact with the holding finger 32, and the contact with the holding finger 32 is detected when the detected value is large.
  • a detected value for example, a current value
  • the contact of the holding finger 32 is detected in any of the lines a to d in the initial stage. That is, the holding finger 32 is in contact with the side surface portion of the mobile device 1 from the back surface to the front surface. Then, when the user moves the holding finger 32 as described above to operate the operation difficulty region, the holding finger 32 is sequentially separated from the side surface portion from the front surface. Therefore, in FIG. 7, it is first detected that the holding finger 32 is separated from the line a, and it is detected that the holding finger 32 is separated from the lines b, c, and d in order.
  • control unit 100 can detect that the holding finger 32 is moving using the touch sensor 90. For example, the control unit 100 determines whether the amount of change in the contact position of the holding finger from the touch sensor 90 (here, the distance to the lines a to d) exceeds a predetermined threshold. The control unit 100 determines that the holding finger 32 has moved when the amount of change exceeds the threshold value.
  • the detection values at the respective positions in the z-axis direction are shown and described.
  • the touch sensor 90 detects detection values at respective positions in the y-axis direction and the z-axis direction. Further, since the holding finger 32 can move in the y-axis direction when attempting to operate the difficult operation region, the movement of the holding finger 32 may be detected based on the amount of change in the contact position in the y-axis direction.
  • the tilt sensor 92 detects the tilt angle with respect to the reference posture of the mobile device 1. Therefore, it is possible to detect that the inclination posture of the mobile device 1 has changed based on the temporal change of the inclination angle. For example, the control unit 100 determines whether or not the change amount of the tilt angle during a predetermined time exceeds a threshold value (for example, about several degrees). The control unit 100 determines that the tilt posture of the mobile device 1 has changed when the change amount of the tilt angle exceeds the threshold value.
  • a threshold value for example, about several degrees
  • the presence or absence of movement of the holding finger 32 is detected using the touch sensor 90, and the change in the tilt posture of the portable device 1 (change in the tilt angle) using the tilt sensor 92.
  • the presence or absence of can be detected.
  • the control part 100 can recognize that the user is going to operate the operation difficult area
  • the display content displayed in the difficult operation area is displayed in the easy operation area.
  • FIG. 8 is a flowchart showing an example of the operation of the control unit 100.
  • step S1 the touch sensor 90 is used to detect that the holding finger 32 has moved, and the tilt sensor 92 is used to detect that the tilt posture of the mobile device 1 has changed.
  • step S2 is executed. The two types of detection are performed at the same time. In other words, step S2 is not executed even if these detections are performed separately in different time zones that are relatively far apart.
  • step S2 the control unit 100 changes the screen shown in the display area 2a as described in detail below.
  • FIG. 9 is an example of the display screen 20a displayed in the display area 2a.
  • the display screen 20a is, for example, a home screen, and a plurality of display symbols (application icons) 22a are displayed side by side, for example, in a matrix.
  • the application icon 22a is for selecting the application 103b.
  • the control unit 100 determines that the application icon 22a has been selected and starts the application 103b corresponding to the application icon 22a. To do.
  • information indicating the state of the mobile device 1 is displayed on the upper end portion 300 in the display area 2a.
  • the upper end portion 300 of the display area 2 a has, as information indicating the state of the mobile device 1, an icon (graphic) for notifying the current time 300 a measured by the mobile device 1 and the remaining battery level. ) 300b and an icon 300c for notifying the communication state are displayed.
  • the control unit 100 detects that a specific event has occurred in the mobile device 1, the control unit 100 controls the display panel 120 to display information related to the event in the display area 2 a.
  • the upper end portion 300 of the display area 2 a has an icon 300 d for notifying the occurrence of an event that a new e-mail has been received as information about an event that has occurred in the mobile device 1, and an event that is a missed call.
  • An icon 300e for notifying the occurrence is displayed.
  • step S2 the control part 100 translates and displays the display screen 20a in the direction away from the contact position between the device case 4 and the holding finger 32.
  • the display screen 20a is translated (slided) to the thumb 31 side (here, the lower right side) and displayed.
  • the thumb 31 side here, the lower right side
  • control unit 100 not only displays the display screen 20a by moving it in parallel, but also updates position information related to the operation. That is, the position information related to the operation on the display area 2a is set according to the display screen 20a after the parallel movement. For example, the part (coordinates) where the application icon 22a is displayed after the parallel movement is assigned to the selection button of the application 103b for the application icon 22a. Thereby, when a tap operation is performed on the application icon 22a on the display screen 20a after the parallel movement, the control unit 100 can appropriately start the application 103b corresponding to the application icon 22a that has been tapped. .
  • the portion of the display screen 20a that has been displayed in the difficult operation region (here, the region at the upper left corner) is displayed in the easy operation region of the display region 2a. Therefore, the user can easily operate this portion with the thumb 31 of the right hand 30.
  • the control unit 100 translates the display screen 20a to the lower right side so as to approach the thumb 31 of the right hand 30. Yes.
  • the display screen 20a may be translated to the lower left side so that the upper right end portion of the display screen 20a of FIG. .
  • direction the display screen 20a is translated can be determined based on the change direction of the tilt posture of the mobile device 1 in step S2.
  • the portable device 1 is tilted so that the upper left end of the portable device 1 approaches the user's thumb 31 (see FIG. 3), and the difficult operation area is operated with the left hand 20.
  • the mobile device 1 is inclined so that the upper right end portion thereof approaches the user's thumb 21 (see FIG. 4). That is, the change direction of the tilt posture of the mobile device 1 changes depending on the handle.
  • the change direction of the tilt posture of the portable device 1 is recognized by the control unit 100 based on the time change of the detection value (tilt angle) of the tilt sensor 92.
  • the control unit 100 determines the direction of parallel movement of the display screen 20a based on the change direction of the tilt angle of the mobile device 1. More specifically, if the tilt angle of the mobile device 1 is changed so that the upper left end portion of the mobile device 1 is closer to the user with respect to the lower right end portion, the control unit 100 is as shown in FIG.
  • the display screen 20a is translated to the lower right. That is, when such a change in tilt angle is detected, the display screen 20a is translated to the lower right, assuming that the portable device 1 is held by the right hand 30.
  • the control unit 100 translates the display screen 20a to the lower left. That is, when such a change in tilt angle is detected, the display screen 20a is translated to the lower left, assuming that the left hand 20 holds the portable device 1. That is, the display screen 20a is moved in parallel toward the portion of the display area 2a that is relatively far from the user side with the inclination.
  • the contents displayed in the difficult operation area are automatically displayed in the easy operation area. Therefore, the operation on the display area 2a can be facilitated.
  • the contents displayed in the operation difficult area will be displayed in the operation easy area. Therefore, even if the user does not have special operation knowledge, in other words, the user can utilize this function without reading a manual or the like.
  • the phenomenon that the holding finger moves and the tilt posture of the mobile device 1 changes may occur even when the user does not operate the difficult operation area. For example, when the holding posture of the mobile device 1 is changed or when the hand of the mobile device 1 is changed, the holding finger moves and the tilting posture of the mobile device 1 can change. Therefore, here, it is intended to more accurately detect that the user is operating the difficult-to-operate region by focusing on how the holding finger moves.
  • the holding finger moves from the front surface to the back surface as described above.
  • the detection value of the touch sensor 90 changes, for example, as shown in FIG.
  • the control unit 100 determines how the holding finger moves (that is, the change direction of the contact position of the holding finger) based on the time change of the detection value at each position in the touch sensor 90.
  • a predetermined direction for example, a direction from the front surface to the back surface
  • the control unit 100 translates the display screen 20a.
  • the predetermined direction is stored in the storage unit 103, for example.
  • the holding finger When the user tries to operate the difficult operation area, the holding finger can move the side surface portion of the mobile device 1 downward. Therefore, you may employ
  • ⁇ Necessity of parallel movement based on change in tilt angle> Although there are individual differences in the amount of change in the tilt angle of the mobile device 1 when the user tries to operate the difficult operation region, the amount of change is not so large.
  • the average change amount is, for example, about 20 degrees. Therefore, it may be determined based on the amount of change in the inclination angle whether the user is trying to operate the difficult operation area, or simply changing the holding posture or changing the handle.
  • FIG. 11 is a flowchart showing an example of the operation of the control unit 100. Compared with the operation of FIG. 8, a process of step S3 is added. Step S3 is executed between steps S1 and S2. In step S3, the control unit 100 determines whether or not the change amount of the tilt angle of the mobile device 1 is a predetermined value (for example, 20 degrees) or less. If a positive determination is made, step S2 is executed. If a negative determination is made, the process waits without executing step S2.
  • a predetermined value for example, 20 degrees
  • step S3 is not executed. Thereby, unnecessary parallel movement of the display screen 20a can be reduced.
  • Step S3 may be performed after Step S2, and when a negative determination is made in Step S3, the control unit 100 may display the display screen 20a on the entire display area 2a. That is, with step S1 as an opportunity, once the display screen 20a is translated and displayed, if the amount of change in the tilt angle exceeds a predetermined value, it is determined that the user is not trying to operate the difficult operation area. The display is restored to the original display.
  • the amount of change in the tilt angle here is the amount of change in the tilt angle of the mobile device 1 that is performed at the same time as the movement of the holding finger. The amount of change until the change is completed.
  • the change direction of the tilt angle is detected using the tilt sensor 92, and the moving direction of the display screen 20a is determined based on the detection result.
  • the direction of the parallel movement is determined based on information indicating which of the touch sensors 90 provided on both side surfaces of the device case 4 detects the movement of the holding finger.
  • the touch sensor 90 on the left side of the drawing in FIG. 3 detects the movement of the holding finger 32. Therefore, when the left touch sensor 90 detects the movement of the holding finger 32, the control unit 100 translates the display screen 20a to the lower right. On the other hand, when the touch sensor 90 on the right side of the paper detects the movement of the holding finger 22, the control unit 100 assumes that the portable device 1 is held by the left hand 20 (see FIG. 4) and the display screen 20a is parallel to the lower left. Move.
  • the display screen 20a is translated in parallel toward the side surface side different from the side surface portion on which the touch sensor 90 that detects the movement of the holding finger is provided and toward the lower side. According to this, the control unit 100 does not need to calculate the change direction of the detection value in order to determine the direction of translation of the display screen 20a. Therefore, processing is simple.
  • the contact position between the touch sensor 90 and the base of the thumb can change.
  • the change in the contact position of the base of the thumb is smaller than the change in the contact position of the holding finger. Therefore, by adjusting the threshold value for detecting the movement of the holding finger, it is possible to suppress or avoid erroneously detecting the change in the contact position of the base portion of the thumb as the movement of the holding finger.
  • the touch sensor 90 is provided on both side surfaces of the device case 4.
  • the both side surfaces of the portable device 1 cannot be held with one hand.
  • the mobile device 1 of FIG. 3 is held horizontally (that is, when the mobile device 1 of FIG. 3 is rotated and held by 90 degrees)
  • the vertical width and the horizontal width of the mobile device 1 are large.
  • the both sides of the portable device 1 cannot be held with one hand.
  • the user holds the portable device 1 by bringing the base of the thumb into contact with the side surface portion of the portable device 1 and bringing the holding finger into contact with the back surface portion of the portable device 1. become. Therefore, in this case, the touch sensor 90 that detects the movement of the holding finger is provided on the back surface portion of the device case 4.
  • FIG. 12 the case where the portable device 1 is held with the left hand 20 is shown.
  • the user can, for example, perform the following operation in a difficult operation area (the right end of the display area 2a in FIG. 12). Try to manipulate. That is, the thumb 21 is extended to the difficult-to-operate region while pushing the back surface portion of the portable device 1 by bending the holding finger 22. By this operation, the holding finger 22 moves to the base side of the thumb 21 (the left side in FIG. 12) along the back surface portion.
  • control unit 100 When the control unit 100 detects that the holding finger 22 has moved using the touch sensor 90 and detects that the tilt angle of the portable device 1 has changed using the tilt sensor 92, the control unit 100 displays the display screen 20 a. The image is displayed while being translated to the thumb 21 side.
  • the direction of translation may be determined based on the direction of change in the tilt angle detected by the tilt sensor 92.
  • the control unit 100 translates the display screen 20a to the left side of the drawing.
  • the mobile device 1 is held by the right hand 30.
  • the control unit 100 translates the display screen 20a to the right side of the drawing. That is, the display screen 20a is translated in a direction that is relatively far from the user side with the inclination.
  • the user simply tries to operate the difficult operation area, and the contents displayed in the difficult operation area are displayed in the easy operation area. Therefore, even when the holding finger is in contact with the back surface portion of the mobile device 1, the operation can be facilitated as described above.
  • the direction of translation may be determined based on how the holding finger moves. That is, if the portable device 1 is held with the left hand 20, the holding finger 22 moves to the left side of the paper surface. Therefore, by detecting the movement in this direction using the touch sensor 90, the control unit 100 displays the display screen 20 a. You may translate to the left side of the page. Conversely, if it is detected that the holding finger 22 has moved to the right side of the drawing, it is determined that the mobile device 1 is being held with the right hand 30, and the control unit 100 translates the display screen 20a to the right side of the drawing. That is, the display screen 20a is translated in the moving direction of the contact position of the holding finger.
  • the control unit 100 may increase the parallel movement amount as the change amount of the tilt angle is larger. That is, for a user with a small hand, the portion of the display screen 20a that is displayed in the difficult operation area is displayed closer to the operating finger.
  • FIG. 13 shows the display area 2a after the parallel movement when the change amount of the tilt angle is large.
  • the size of the area 2c for displaying the display screen 20a after translation is smaller than that in FIG.
  • the display screen 20a is displayed in a region closer to the operation finger for a user with a short operation finger 31. Therefore, it is easy for the user to operate.
  • the amount of parallel movement is relatively small because the amount of change in tilt angle is relatively small. Therefore, the size of the area 2c for displaying the display screen 20a after the parallel movement is relatively large.
  • the display screen 20a in the area of the display area 2a that is too close to the root of the operating finger, it is difficult to operate with the operating finger. Therefore, for a person with a large hand, by displaying the display screen 20a relatively large, the contents of the display screen 20a are displayed in a region relatively distant from the base of the operating finger.
  • the size of the area where the display screen 20a is displayed can be appropriately set according to the size of the hand.
  • the control unit 100 may move the display screen 20a in parallel and reduce it for display.
  • the reduction target here is not the size of the area 2c in which the display screen 20a is displayed after translation, but the scale of the display screen 20a.
  • FIG. 14 shows the display screen 20a when the display screen 20a is translated while being reduced. Accordingly, the size of the application icon 22a included in the display screen 20a is reduced and displayed, and the interval between the application icons 22a is also displayed shorter than that in FIG. Therefore, more application icons 22a can be displayed after the parallel movement. In other words, the amount of information that can be displayed on the display screen 20a can be increased.
  • the display screen 20a may be displayed without being reduced. This is because the operation can be difficult by reducing the display screen 20a. For example, due to this reduction, the application icon 22a becomes smaller and the interval between the application icons 22a becomes shorter, so that it may be difficult to select a desired application icon 22a. In order to avoid such a situation, the display screen 20a may be displayed without being reduced.
  • ⁇ Display screen displayed in display area 2a> ⁇ Display of two display screens>
  • a part of the display screen 20a is displayed on a part of the display area 2a (area 2c).
  • an area 2c where a part of the display screen 20a is displayed after translation is referred to as a main area 2c
  • the other area is referred to as a sub area 2d (see also FIG. 10).
  • the main area 2c has, for example, a substantially rectangular shape in plan view
  • the sub area 2d has a shape obtained by cutting out the main area 2c from the display area 2a.
  • the present invention intends to provide a display technology that can improve the amount of information.
  • the control unit 100 displays the display screen. 20a was translated and displayed. However, this is not necessarily limited to the following.
  • the condition (trigger) for translating the display screen 20a may be changed as appropriate.
  • an input unit for translating the display screen 20a may be provided in the mobile device 1, and the display screen 20a may be translated based on an input to the input unit by the user. Moreover, what is necessary is just to provide the input part for inputting this also about the direction to translate.
  • the touch sensor 90 and the tilt sensor 92 are not essential requirements.
  • the touch sensor 90 may function as the input unit. That is, the control unit 100 may translate the display screen 20a by performing a specific operation on the touch sensor 90. As this specific operation, for example, an operation of bringing a finger into contact with the touch sensor 90 and releasing it after a predetermined time can be adopted.
  • the direction of translation of the display screen 20a may also be input to the mobile device 1 using the touch sensor 90. For example, it is possible to input the direction of translation of the display screen 20a based on which touch sensor 90 on both side surfaces is operated.
  • the tilt sensor 92 is not an essential requirement.
  • step S2 the control unit 100 translates the display screen 20a to display a part of the display screen 20a in the main area 2c, and displays a display screen different from the display screen 20a in the sub area 2d.
  • the display screen of the application 103b activated when executing step S2 can be adopted.
  • a predetermined application 103b may be activated and the display screen may be adopted.
  • FIG. 16 to 18 schematically show display screens when the application 103b is activated.
  • FIG. 16 schematically shows an example of the display screen 20b when the web browser is activated, and a web page showing news information is displayed in the display area 2a.
  • This web page includes a plurality of links (hyperlinks).
  • the link in the web page is underlined.
  • the control unit 100 that executes the web browser in the storage unit 103 acquires a web page from the web server through the wireless communication unit 110, and then controls the display panel 120 to display the web page 50 in the display area 2a.
  • the control unit 100 that executes the web browser in the storage unit 103 acquires a web page from the web server through the wireless communication unit 110, and then controls the display panel 120 to display the web page 50 in the display area 2a.
  • the control unit 100 determines that the link has been selected by the user. To do. And the control part 100 acquires the web page which the said link shows from the said web server by communicating with a relevant web server through the wireless communication part 110.
  • FIG. The display panel 120 displays the web page acquired by the control unit 100 in the display area 2a under the control of the control unit 100.
  • FIG. 17 schematically shows an example of the display screen 20c when the mail application is activated, and a screen for creating a transmission message is displayed in the display area 2a.
  • the display screen 20c is stored in the storage unit 103, and the control unit 100 reads the display screen 20c from the storage unit 103 and controls the display panel 120 to display the display screen 20c in the display area 2a.
  • an area 382 for displaying a transmission sentence, a character input button 380 for inputting a transmission sentence, and a transmission button 384 for transmitting a transmission sentence are displayed in the display area 2a.
  • the control unit 100 When the touch panel 130 detects an operation on a part including the character input button 380, the control unit 100 displays a character corresponding to the operation of the character input button 380 in the area 382. In addition, when the touch panel 130 detects an operation on the part indicated by the transmission button 384, the control unit 100 transmits the transmission message displayed in the area 382 to the destination terminal through the wireless communication unit 110.
  • FIG. 18 schematically shows an example of a display screen 20d when a map application for browsing a map is activated, and a screen showing a map of Japan is shown in the display area 2a.
  • the display screen 20d is stored in, for example, a web server, and is acquired by the control unit 100 through the wireless communication unit 110, and then displayed on the display area 2a by controlling the display panel 120.
  • the control unit 100 scrolls the map in the slide direction and displays the map in the display area 2a.
  • the control unit 100 reduces the scale according to the interval between the two operators (that is, increases the scale denominator) and displays the map. To do.
  • the control unit 100 increases the scale according to the interval between the two operators and displays the map.
  • the three applications 103b web browser, mail application, and map application
  • the display screen 2c of the web server is displayed in the display area 2a.
  • the current display screens 20c and 20d of the mail application and the map application are stored in the storage unit 103, for example, by the control unit 100, and are not displayed in the display area 2a at this time.
  • the control unit 100 translates the display screen 20b and displays it on the main area 2c (see FIG. 19).
  • the control unit 100 displays, for example, a display screen 20c of the mail application in the sub area 2d.
  • the main area 2c is a lower right rectangular area in the display area 2a, and the upper left portion of the display screen 20b of FIG. 17 is displayed. Since the sub area 2d has a shape obtained by cutting out the main area 2c from the display area 2a, the portion corresponding to the main area 2c in the display screen 20c of FIG. 14 is not displayed in FIG. That is, the display screen 20b in the main area 2c is displayed so as to overlap the display screen 20b in the sub area 2d.
  • the user can visually recognize not only the display screen 20b but also other information (that is, the display screen 20c). Therefore, the amount of information from the display area 2a can be improved.
  • the control unit 100 performs the first operation. This is recognized as a display screen switching operation of the main area 2c and the sub area 2d. That is, the control unit 100 restricts the function of the application 103b by the first operation (the function of the control unit 100 that executes the application 103b, and so on). For example, in FIG.
  • the control unit 100 recognizes the first operation as a switching operation of the display screens of the main area 2c and the sub area 2d. That is, when detecting the first operation on the display area 2a, the control unit 100 controls the display panel 120 to switch each display screen of the main area 2c and the sub area 2d to another display screen. For example, as shown in FIG. 20, the control unit 100 displays the display screen 20c displayed in the sub area 2d in FIG. 19 in the main area 2c, and displays the map application display screen 20d in the sub area 2d. .
  • the control unit 100 switches the display screens of the main area 2c and the sub area 2d to another display screen again. For example, as illustrated in FIG. 21, the control unit 100 displays the display screen 20 d displayed in the sub area 2 d in FIG. 20 in the main area 2 c and displays the display screen 20 b in the sub area 2 d. Thereafter, the switching is repeated in the above order with the first operation as a trigger.
  • the display screen of the currently activated application 103b is sequentially displayed in the main area 2c and the sub area 2d. Therefore, the user can easily confirm the currently activated application 103b by repeating the first operation.
  • the display screen displayed in the main area 2c after this switching is displayed in the sub area 2d before switching. Therefore, the user can switch the screen while knowing in advance the screen displayed in the main area 2c.
  • the display screen 20a may be employed.
  • the display screens of the main area 2c and the sub area 2d are switched in response to the first operation on the display area 2a.
  • the control unit 100 may perform this switching in response to an input to another input unit (hard key or soft key). In other words, the control unit 100 may perform this switching in response to an input to the detection unit 132 by the user.
  • switching may be performed in response to an operation on the touch sensor 90.
  • the control unit 100 does not need to perform the above-described restriction on the operation on the main area 2c and the sub area 2d. That is, various operations on the main area 2c and the sub area 2d may be determined as operations on the application 103b displayed on the main area 2c and the sub area 2d, respectively.
  • the control unit 100 performs the main region by the second operation.
  • the function of the application 103b displayed in 2c is restricted. Instead, the next control is executed by the second operation. That is, when detecting the second operation on the main area 2c, the control unit 100 controls the display panel 120 to display the display screen displayed on the main area 2c over the entire display area 2a. For example, in the display area 2a of FIG.
  • the display screen 20d of the main area 2c is displayed on the entire display area 2a (see FIG. 18). That is, the main area 2c and the sub area 2d disappear, and the display of the display screen 20b displayed in the sub area 2d in FIG. 21 ends.
  • the control unit 100 displays the display screen 20b displayed on the sub area 2d on the entire display area 2a (see FIG. 16).
  • the main area 2c and the sub area 2d disappear, and the display of the display screen 20d displayed in the main area 2c in FIG. 21 ends.
  • control unit 100 releases the above function restriction by operating the display area 2a. Thereby, the user can exhibit the function of the application 103b displayed on the whole display area 2a by the first operation and the second operation.
  • one of the main area 2c and the sub area 2d is displayed on the entire display area 2a in response to the second operation on the main area 2c and the sub area 2d.
  • this display control may be performed in response to an operation on another input unit.
  • the control unit 100 may display the entire display area 2a in response to an input from the user to the detection unit 132.
  • an operation different from the switching between the main area 2c and the sub area 2d described above is employed.
  • the switching may be performed in response to an operation on the touch sensor 90. That is, even when switching is performed when the touch sensor 90 detects a predetermined change in the contact position of the holding finger (for example, a change when the operating finger moves in one direction while being in contact with the touch sensor 90) as the operation. Good.
  • a predetermined change in the contact position of the holding finger for example, a change when the operating finger moves in one direction while being in contact with the touch sensor 90
  • information on whether the display screen of the main area 2c is displayed on the entire display area 2a or whether the display screen of the sub area 2d is displayed on the entire display area 2a is also obtained by operating the touch sensor 90. It may be input to the mobile device 1. For example, this information may be input based on which touch sensor 90 is operated on both side surfaces.
  • control unit 100 does not need to perform the above-described restriction on the operation on the main region 2c and the sub region 2d. That is, various operations on the main area 2c and the sub area 2d may be determined as operations on the application 103b displayed on the main area 2c and the sub area 2d, respectively.
  • a display screen (selection screen) 20a on which a plurality of application icons 22a are displayed is displayed in the main area 2c.
  • the control unit 100 activates the application of the selected application icon 22a and displays the display screen in the sub area 2d. May be displayed. Thereby, the activated application can be viewed in the sub area 2d while displaying the display screen 20a in the main area 2c. According to this, even if the application icon 22a is selected by mistake, the display screen 20a is displayed in the easy-to-operate main area 2c, so that the application icon 22a can be selected again immediately.
  • the control unit 100 displays the display screen of the main area 2c on the entire display area 2a and also displays the sub area 2d.
  • the application 103b displayed on the screen may be terminated. As a result, the application 103b can be easily terminated as compared with a case where an operation for terminating the application 103b is performed separately.
  • FIG. 19 is a flowchart illustrating an example of the operation of the control unit.
  • FIG. 19 includes the above-described control contents as appropriate. This will be described in detail below.
  • step S2 the control unit 100 translates the display screen and displays it in the main area 2c, and further displays the display screen by the application 103b in the sub area 2d.
  • step S2 the touch sensor 90 detects a specific operation (for example, an operation in which the operation finger moves in one direction while contacting the touch sensor 90) in step S11.
  • step S12 the control unit 100 displays the display content displayed in the main area 2c on the entire display area 2a and stands by.
  • step S21 the touch panel 130 detects the first operation on the display area 2a.
  • step S22 the control unit 100 switches the display contents displayed in the main area 2c and the sub area 2d as described above and stands by.
  • step S31 the touch panel 130 detects a second operation on the main area 2c.
  • step S32 the control unit 100 displays the display content displayed in the main area 2c over the entire display area 2a.
  • step S41 the touch panel 130 detects a second operation on the sub-region 2d.
  • step S42 the control unit 100 displays the display content displayed in the sub area 2d over the entire display area 2a.
  • step S51 the touch panel 130 detects a selection operation (for example, a tap operation) for the application icon 22a displayed in the main area 2c.
  • Step S51 is a process performed when the control unit 100 is displaying the home screen in step S2.
  • step S52 the control unit 100 activates the application 103b corresponding to the selected application icon 22a, and displays the display screen in the sub area 2d.
  • step S53 the touch panel 130 detects the second operation on the main area 2c.
  • step S54 the control unit 100 terminates the application 103b displayed in the sub area 2d and displays the display screen displayed in the main area 2c on the entire display area 2a. To do.
  • step S52 when the touch panel 130 detects the second operation on the sub area 2d in step S55, the control unit 100 is displayed in the sub area 2d in step S56 triggered by this detection.
  • the displayed display screen is displayed on the entire display area 2a.

Abstract

 表示領域は、携帯機器の機器ケースの前面に設けられる。タッチパネルは操作指による表示領域への操作を検出する。タッチセンサは、携帯機器の機器ケースに設けられ、当該機器ケースを保持する保持指との接触位置を検出する。傾斜センサは、機器ケースの基準姿勢に対する傾斜角を検出する。制御部は、タッチセンサおよび傾斜センサを用いて、当該接触位置の変化と、当該傾斜角の変化との両方を検出したときに、機器ケースと保持指との接触位置から遠ざかるように、表示画面を平行移動させて表示領域に表示する。

Description

携帯機器および携帯機器における制御方法
 本発明は、携帯機器および携帯機器における表示部の制御方法に関する。
 従来から携帯機器に関して様々な技術が提案されている。
 さて、携帯機器については、その操作性の向上が望まれている。
 上記課題を解決するため、本発明にかかる携帯機器の一態様は、筐体と、前記筐体の前面部分に設けられる表示領域と、操作指による前記表示領域への操作を検出する操作検出部と、前記筐体に設けられ、前記筐体を保持する保持指との接触位置を検出する保持指検出部と、前記筐体の基準姿勢に対する傾斜角を検出する傾斜検出部と、前記保持指検出部と前記操作検出部とを用いて、前記接触位置の変化と、前記筐体の傾斜角の変化との両方を検出したときに、前記接触位置から遠ざかる方向に、表示画面を平行移動させて前記表示領域に表示する制御部とを備える。
 また、本発明にかかる携帯機器の一態様では、前記接触位置の変化が、ユーザが、前記表示領域のうち前記接触位置側の部分を操作しようとするときの前記接触位置の変化として予め定められた変化であるときに、前記制御部は、前記表示画面を平行移動させて前記表示領域に表示する。
 また、本発明にかかる携帯機器の一態様では、前記制御部は、前記筐体の傾斜角の変化量が所定値以下であるときに、前記表示画面を平行移動させて前記表示領域に表示する。
 また、本発明にかかる携帯機器の一態様では、前記制御部は、前記筐体の傾斜角の変化方向に基づいて、前記表示画面の平行移動の方向を判別する。
 また、本発明にかかる携帯機器の一態様では、前記保持指検出部は、前記筐体の両側面部分にそれぞれ設けられており、前記制御部は、前記保持指検出部のうちどちらが前記保持指の動きを検出したのか、という情報に基づいて、前記表示画面の平行移動の方向を判別する。
 また、本発明にかかる携帯機器の一態様では、前記保持指検出部は、前記筐体の裏面部分に設けられており、前記制御部は、前記接触位置の変化の方向に基づいて、前記表示画面の平行移動の方向を判別する。
 また、本発明にかかる携帯機器の一態様では、前記表示画面を平行移動させて前記表示領域の一部に表示した状態で、前記保持指検出部が前記接触位置の変化を所定の操作として検出したときに、前記制御部は、前記表示画面を前記表示領域の全体に表示する。
 また、本発明にかかる携帯機器の一態様では、前記制御部は、表示画面を縮小することなく平行移動して表示する。
 また、本発明にかかる携帯機器の一態様では、筐体と、前記筐体の前面部分に設けられる表示領域と、複数のアプリケーションプログラムが記録される記憶部と、ユーザによる入力を検出できる検出部と、第1のアプリケーションプログラムを実行したときに前記表示領域に表示される第1表示画面の一部を前記表示領域の一部たるメイン領域に表示し、前記第1のアプリケーションプログラムとは異なる第2のアプリケーションプログラムを実行したときに前記表示領域に表示される第2表示画面の一部を、前記表示領域のうち前記メイン領域とは別のサブ領域に表示できる制御部とを備える。
 また、本発明にかかる携帯機器の一態様では、前記制御部は、前記第1表示画面の前記一部が前記メイン領域に表示され、かつ、前記第2表示画面の前記一部が前記サブ領域に表示されている場合において、前記検出部がユーザによる第1入力を検出すると、前記第1表示画面の一部を前記サブ領域に表示し、前記第2表示画面の一部を前記メイン領域に表示する。
 また、本発明にかかる携帯機器の一態様では、前記制御部は、前記第1表示画面の前記一部が前記メイン領域に表示され、かつ、前記第2表示画面の前記一部が前記サブ領域に表示されている場合において、前記検出部がユーザによる第1入力を検出すると、前記第1表示画面の一部を前記サブ領域に表示し、前記第1及び前記第2のアプリケーションプログラムとは異なる第3のアプリケーションプログラムを実行したときに前記表示領域に表示される第3表示画面、または、前記複数のアプリケーションプログラムをそれぞれ表す表示記号を並べて示す選択画面、の一部を、前記メイン領域に表示する。
 また、本発明にかかる携帯機器の一態様では、前記検出部は前記表示領域へのユーザによる操作を検出でき、前記第1入力は、前記表示領域に対するユーザによる第1操作である。
 また、本発明にかかる携帯機器の一態様では、前記制御部は、前記第1表示画面の前記一部が前記メイン領域に表示され、かつ、前記第2表示画面の前記一部が前記サブ領域に表示されている場合において、前記検出部が第2入力を検出すると、前記第2表示画面の前記一部の表示を終了し、前記第1表示画面を前記表示領域の全体に表示する。
 また、本発明にかかる携帯機器の一態様では、前記検出部は前記表示領域へのユーザによる操作を検出でき、前記第2入力は、前記メイン領域に対するユーザによる第2操作である。
 また、本発明にかかる携帯機器の一態様では、前記制御部は、前記第1表示画面の前記一部が前記メイン領域に表示され、かつ、前記第2表示画面の前記一部が前記サブ領域に表示されている場合において、前記検出部が第2入力を検出すると、前記第1表示画面の前記一部の表示を終了し、前記第2表示画面を前記表示領域の全体に表示する。
 また、本発明にかかる携帯機器の一態様では、前記検出部は前記表示領域へのユーザによる操作を検出でき、前記第2入力は、前記サブ領域に対するユーザによる第3操作である。
 また、本発明にかかる携帯機器の一態様では、前記制御部は、前記複数のアプリケーションプログラムをそれぞれ表す表示記号を並べて示す選択画面の一部が、前記メイン領域に表示されている場合において、前記検出部が前記メイン領域における前記表示記号への操作を検出すると、操作を受けた前記表示記号に対する第4のアプリケーションプログラムを実行し、前記第4のアプリケーションプログラムによる第4表示画面の一部を前記サブ領域に表示する。
 また、本発明にかかる携帯機器の一態様では、前記制御部は、前記メイン領域に前記選択画面の前記一部が表示され、かつ、前記サブ領域に、前記第4表示画面の前記一部が表示された状態から、前記選択画面を前記表示領域の全体に表示させるときに、前記第4のアプリケーションプログラムを終了させる。
 本発明にかかる携帯機器における制御方法の一態様は、筐体と、前記筐体の前面に設けられる表示領域と、操作指による前記表示領域への操作を検出する操作検出部と、前記筐体に設けられ、前記筐体を保持する保持指との接触位置を検出する保持指検出部と、前記筐体の基準姿勢に対する傾斜角を検出する傾斜検出部とを備える、携帯機器を制御する方法であって、前記接触位置の変化と、前記筐体の傾斜角の変化との両方を検出したときに、前記接触位置から遠ざかる方向に、表示画面を平行移動させて前記表示領域に表示する。
 本発明にかかる携帯機器における制御方法の一態様は、筐体と、前記筐体の前面に設けられる表示領域と、複数のアプリケーションプログラムが記録される記憶部と、ユーザによる入力を検出できる検出部とを備える、携帯機器を制御するための制御方法であって、第1のアプリケーションプログラムを実行したときに前記表示領域に表示される第1表示画面の一部を前記表示領域の一部たるメイン領域に表示し、前記第1のアプリケーションプログラムとは異なる第2のアプリケーションプログラムを実行したときに前記表示領域に表示される第2表示画面の一部を、前記表示領域のうち前記メイン領域とは別のサブ領域に表示する。
 本発明によれば、携帯機器の操作性を向上できる。
 この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
携帯機器の概念的な外観の概念的な一例を示す斜視図である。 携帯機器の概念的な外観の概念的な一例を示す裏面図である。 右手で携帯機器を保持する様子の概念的な一例を示す図である。 左手で携帯機器を保持する様子の概念的な一例を示す図である。 携帯機器の電気的な構成の一例を示す図である。 タッチセンサの概念的な構成の一例を示す図である。 タッチセンサの検出例を示す図である。 制御部の動作の一例を示すフローチャートである。 表示領域と操作指との一例を示す概念的な図である。 表示領域と操作指との一例を示す概念的な図である。 制御部の動作の一例を示すフローチャートである。 左手で携帯機器を保持する様子の概念的な一例を示す図である。 表示領域と操作指との一例を示す概念的な図である。 表示領域と操作指との一例を示す概念的な図である。 保持指によるタッチセンサを用いた操作の様子を示す図である。 表示領域の模式的な一例を示す図である。 表示領域の模式的な一例を示す図である。 表示領域の模式的な一例を示す図である。 表示領域の模式的な一例を示す図である。 表示領域の模式的な一例を示す図である。 表示領域の模式的な一例を示す図である。 制御部の動作の一例を示すフローチャートである。
 <携帯機器の外観>
 図1は、実施の形態に係る携帯機器1の外観を示す斜視図であり、前面側から見た図である。図2は、携帯機器1の概観を示す裏面図である。携帯機器1は、例えば携帯電話機であって、基地局及びサーバ等を通じて他の通信装置と通信することが可能である。図1及び図2に示されるように、携帯機器1は、カバーパネル2とケース部分3を備えており、カバーパネル2とケース部分3とが組み合わされることによって、平面視で略長方形の板状を成す筐体(以下、機器ケースとも呼ぶ)4が構成されている。
 カバーパネル2は、平面視において略長方形を成しており、携帯機器1の前面部分における、周縁部分以外の部分を構成している。カバーパネル2は、例えば、透明のガラスあるいは透明のアクリル樹脂で形成されている。ケース部分3は、携帯機器1の前面部分の周縁部分、側面部分及び裏面部分を構成している。ケース部分3は、例えばポリカーボネート樹脂で形成されている。
 カバーパネル2の前面には、文字、記号、図形または画像等の各種情報が表示される表示領域2aが設けられている。ここでは、携帯機器1には例えば一つのみの表示領域2aが設けられており、この表示領域2aは例えば平面視で長方形を成している。カバーパネル2における、表示領域2aを取り囲む周縁部分2bは、例えばフィルム等が貼られることによって黒色となっており、情報が表示されない非表示部分となっている。カバーパネル2の裏面には後述するタッチパネル130が貼り付けられており、ユーザは、携帯機器1の前面の表示領域2aを指等で操作することによって、携帯機器1に対して各種指示を与えることができる。なお、ユーザは、指以外の操作子、例えば、スタイラスペンなどの静電式タッチパネル用ペンで表示領域2aを操作することによっても、携帯機器1に対して各種指示を与えることができる。
 機器ケース4内には、ホームキー5a、メニューキー5b及びバックキー5cが設けられている。ホームキー5a、メニューキー5b及びバックキー5cのそれぞれは、ハードウェアキーであって、その表面が、カバーパネル2の前面の下側端部から露出している。ホームキー5aは、ホーム画面(初期画面)を表示領域2aに表示するための操作キーである。メニューキー5bは、オプションメニュー画面を表示領域2aに表示するための操作キーである。バックキー5cは、表示領域2aの表示を一つ前の表示に戻すための操作キーである。以後、ホームキー5a、メニューキー5b及びバックキー5cを特に区別する必要が無い場合には、それぞれを「操作キー5」と呼ぶ。なお、ホームキー5a、メニューキー5b及びバックキー5cのそれぞれは、ハードウェアキーではなく、表示領域2aに表示されて、タッチパネル130でそれに対する操作が検出されるソフトウェアキーであってもよい。
 カバーパネル2の下側端部にはマイク穴6があけられており、カバーパネル2の上側端部にはレシーバ穴7があけられている。カバーパネル2の前面の上側端部からは、後述する前面側撮像部180が有する撮像レンズ180aが視認可能となっている。また、図2に示されるように、携帯機器1の裏面、言い換えれば機器ケース4の裏面には、スピーカ穴8があけられている。そして、携帯機器1の裏面からは、後述する裏面側撮像部190が有する撮像レンズ190aが視認可能となっている。
 機器ケース4には、タッチセンサ90が設けられている。このタッチセンサ90は、携帯機器1を保持する指と接触する位置に設けられる。ここでは図3に示すように、ユーザは片手で携帯機器1を保持する。図3の例示では、ユーザは右手30で携帯機器1を保持している。このとき、携帯機器1は、右手30の親指31の付け根部分と、親指31以外の指32とによって挟まれて、保持される。よって、指32は携帯機器1の側面部分(図3の左側の側面部分)に接触する。タッチセンサ90は、当該側面部分に設けられており、指32の動きを検出する。またこのとき、ユーザは、親指31で表示領域2aを操作できる。よって以下では、親指31を操作指とも呼び、指32を保持指とも呼ぶ。
 図4の例示では、ユーザは左手20で携帯機器1を保持している。このとき、携帯機器1は、左手20の親指21の付け根部分と、親指21以外の指22とによって挟まれて、保持される。よって、指22は携帯機器1の側面部分(図4の右側の側面部分)に接触する。タッチセンサ90は、当該側面部分にも設けられており、指22の動きを検出する。またこのときユーザは、親指21で表示領域2aを操作できる。よって以下では、親指21を操作指とも呼び、指22を保持指とも呼ぶ。
 <携帯機器の電気的構成>
 図5は携帯機器1の電気的構成を示すブロック図である。図5に示されるように、携帯機器1には、制御部100、表示パネル120、表示制御部122、検出部132及び傾斜センサ92が設けられている。さらに携帯機器1には、無線通信部110、キー操作部140、マイク150、レシーバ160、外部スピーカ170、前面側撮像部180、裏面側撮像部190及び電池200が設けられている。携帯機器1に設けられたこれらの構成要素は、機器ケース4に収められている。
 制御部100は、CPU(Central Processing Unit)101、DSP(Digital Signal Processor)102及び記憶部103等を備えており、携帯機器1の他の構成要素を制御することによって、携帯機器1の動作を統括的に管理する。記憶部103は、ROM(Read Only Memory)及びRAM(Random Access Memory)等で構成されている。記憶部103には、携帯機器1の動作、具体的には携帯機器1が備える無線通信部110、表示パネル120等の各構成要素を制御するための制御プログラムであるメインプログラム103a及び複数のアプリケーションプログラム103b(以後、単に「アプリケーション103b」と呼ぶ)等が記憶されている。制御部100の各種機能は、CPU101及びDSP102が記憶部103内の各種プログラムを実行することによって実現される。なお図3では、図面の煩雑さを避けるために、アプリケーション103bは一つだけ示されている。また、図5の例示では、CPU101およびDSP102がそれぞれ一つ示されているものの、これらは複数設けられてもよい。そして、これらが互いに協働して各種機能を実現してもよい。また、図5の例示では、記憶部103は、制御部100の内部において示されているものの、制御部100の外部に設けられてもよい。換言すれば、記憶部103は制御部100とは別体であってもよい。
 無線通信部110は、アンテナ111を有している。無線通信部110は、携帯機器1とは別の携帯電話機あるいはインターネットに接続されたウェブサーバ等の通信装置からの信号を、基地局等を介してアンテナ111で受信する。無線通信部110は、受信信号に対して増幅処理及びダウンコンバートを行って制御部100に出力する。制御部100は、入力される受信信号に対して復調処理等を行う。また無線通信部110は、制御部100で生成された送信信号に対してアップコンバート及び増幅処理を行って、処理後の送信信号をアンテナ111から無線送信する。アンテナ111からの送信信号は、基地局等を通じて、携帯機器1とは別の携帯電話機あるいはインターネットに接続された通信装置で受信される。
 表示パネル120は、例えば、液晶表示パネルあるいは有機ELパネルである。表示パネル120は、制御部100および表示制御部122によって制御されることによって、文字、記号、図形または画像などの各種情報を表示する。表示パネル120に表示される情報は、カバーパネル2の前面の表示領域2aに表示される。したがって、表示パネル120は、表示領域2aに表示を行っていると言える。
 表示制御部122は、制御部100から受け取る画像信号に基づいて、表示パネル120に表示画面を表示させる。なお以下では、簡単のために、表示パネル120を制御する主体を制御部100として説明する。
 検出部132は、ユーザによる携帯機器1への入力を検出し、その入力を制御部100へと通知する。例えば検出部132は、タッチパネル130と、キー操作部140と、タッチセンサ90とを含む。
 タッチパネル130は、カバーパネル2の表示領域2aに対する操作指等の操作子による操作を検出する。タッチパネル130は、例えば、投影型静電容量方式のタッチパネルであって、カバーパネル2の裏面に貼り付けられている。ユーザが操作指等の操作子によってカバーパネル2の表示領域2aに対して操作を行うと、それに応じた信号がタッチパネル130から制御部100に入力される。制御部100は、タッチパネル130からの信号に基づいて、表示領域2aに対して行われた操作の内容を特定して、その画面に応じた処理を行う。
 タッチセンサ90は、機器ケース4に設けられ、保持指の動きを検出する。より詳細には、タッチセンサ90は、自身と保持指との接触位置を検出して、これを制御部100へと出力する。タッチセンサ90は、例えば、タッチパネル130と同様の原理を用いて、保持指の接触位置を検出することができる。ただしタッチセンサ90は、表示機能を有する必要がないので、可視光を透過させる必要はない。制御部100は、タッチセンサ90で検出される当該接触位置の変化に基づいて、保持指の動きを了知することができる。
 傾斜センサ92は、携帯機器1(或いは機器ケース4)の基準姿勢に対する傾斜角を検出する。この基準姿勢は任意に設定すればよいものの、例えば、携帯機器1(より詳細にはカバーパネル2)が水平面に平行となる姿勢である。
 また、傾斜センサ92は、次の2つの傾斜角を検出する。すなわち、互いに直交するx軸、y軸およびz軸のうち一つを中心とした回転角(傾斜角)と、他の一つを中心とした回転角(傾斜角)とを検出する。x軸、y軸およびz軸は、携帯機器1に対して固定された軸であり、例えば図3および図4に示すように、左右方向、上下方向および紙面に垂直な方向をそれぞれ採用できる。この2つの傾斜角により、携帯機器1の基準姿勢に対する傾斜姿勢を表現することができる。
 傾斜センサ92は、例えば加速度センサである。この加速度センサは携帯機器1に生じるx軸、y軸およびz軸の重力加速度成分を検出することができる。制御部100は、傾斜センサ92で検出された各方向の重力加速度成分を用いて、周知の幾何学的な関係式より、携帯機器1の傾斜角を検出(或いは算出)することができる。
 キー操作部140は、各操作キー5に対するユーザの押下操作を検出する。キー操作部140は、各操作キー5について、当該操作キー5が押下(操作)されているか否かを検出する。キー操作部140は、操作キー5が押下されていない場合には、当該操作キー5が操作されていないことを示す未操作信号を制御部100に出力する。また、キー操作部140は、操作キー5が押下されると、当該操作キー5が操作されたことを示す操作信号を制御部100に出力する。これにより、制御部100は、各操作キー5について、当該操作キー5が操作されているか否かを判断することができる。
 制御部100は、ホームキー5aが押下されて、その後押下されなくなったことがキー操作部140で検出されると、表示パネル120にホーム画面(初期画面)を表示させる。これにより、表示領域2aにはホーム画面が表示される。また、制御部100は、メニューキー5bが押下されて、その後押下されなくなったことがキー操作部140で検出されると、表示パネル120にオプションメニュー画面を表示させる。これにより、表示領域2aにはオプションメニュー画面が表示される。そして、制御部100は、バックキー5cが押下されて、その後押下されなくなったことがキー操作部140で検出されると、表示パネル120に、その表示を一つ前に戻させる。これにより、表示領域2aの表示が一つ前に戻る。
 マイク150は、携帯機器1の外部から入力される音を電気的な音信号に変換して制御部100に出力する。携帯機器1の外部からの音は、カバーパネル2の前面に設けられたマイク穴6から携帯機器1の内部に取り込まれてマイク150に入力される。
 外部スピーカ170は、例えばダイナミックスピーカであって、制御部100からの電気的な音信号を音に変換して出力する。外部スピーカ170から出力される音は、携帯機器1の裏面に設けられたスピーカ穴8から外部に出力される。スピーカ穴8から出力される音は、携帯機器1から離れた場所でも聞こえるようになっている。
 前面側撮像部180は、撮像レンズ180a及び撮像素子などで構成されており、制御部100による制御に基づいて、静止画像及び動画像を撮像する。図1に示されるように、撮像レンズ180aは、携帯機器1の前面に設けられていることから、携帯機器1の前面側(カバーパネル2側)に存在する物体を撮像することが可能である。
 裏面側撮像部190は、撮像レンズ190a及び撮像素子などで構成されており、制御部100による制御に基づいて、静止画像及び動画像を撮像する。図2に示されるように、撮像レンズ190aは、携帯機器1の裏面に設けられていることから、携帯機器1の裏面側に存在する物体を撮像することが可能である。
 レシーバ160は、受話音を出力するものであって、例えばダイナミックスピーカで構成されている。レシーバ160は、制御部100からの電気的な音信号を音に変換して出力する。レシーバ160から出力される音は、携帯機器1の前面に設けられたレシーバ穴7から外部に出力される。レシーバ穴7から出力される音の音量は、スピーカ穴8から出力される音の音量よりも小さくなっている。
 電池200は、携帯機器1の電源を出力する。電池200から出力された電源は、携帯機器1が備える制御部100及び無線通信部110などに含まれる各電子部品に対して供給される。
 記憶部103には、携帯機器1の諸機能を発揮する様々なアプリケーション103bが記憶されている。記憶部103には、例えば、電話機能を用いて通話を行うための電話アプリケーション、ウェブサイトを表示するためのブラウザ、電子メールの作成・閲覧・送受信を行うためのメールアプリケーションが記憶されている。また、記憶部103には、前面側撮像部180および裏面側撮像部190を用いて、静止画像および動画像を撮像するためのカメラアプリケーション、テレビ番組を視聴及び録画するためのテレビアプリケーション、記憶部103に記憶されている動画像データの再生制御を行うための動画再生制御アプリケーション、記憶部103に記憶されている音楽データの再生制御を行うための音楽再生制御アプリケーションなどが記憶されている。
 記憶部103内のメインプログラム103aを実行している制御部100が、記憶部103内のアプリケーション103bを読み出して実行すると、制御部100は、無線通信部110、表示パネル120及びレシーバ160等の、携帯機器1内の他の構成要素を制御し、それによって、当該アプリケーション103bに対応する機能(処理)が携帯機器1で実行される。例えば、電話アプリケーションを実行している制御部100は、無線通信部110、マイク150及びレシーバ160を制御する。これにより、携帯機器1では、無線通信部110で受信された受信信号に含まれる音声がレシーバ160から出力されるとともに、マイク150に入力された音声を含む送信信号が無線通信部110から送信され、通信相手装置との間で電話機能を用いた通話が行われる。
 <表示領域に対する操作の種類>
 ユーザが表示領域2aに対して行う基本的な操作としては、例えば、スライド操作、タップ操作、ダブルタップ操作、フリック操作、ピンチアウト操作、または、ピンチイン操作などがある。
 スライド操作とは、操作指等の操作子が表示領域2aに接触あるいは近接した状態で移動する操作である。つまり、スライド操作とは、操作子が表示領域2aにおいて移動する操作である。ユーザは、表示領域2aに対してスライド操作を行うことによって、例えば、表示領域2aの表示をスクロールさせたり、表示領域2aに表示されているページを別のページに切り換えたりすることができる。
 このように、本実施の形態では、操作子が表示領域2aにおいて移動する操作には、操作子が表示領域2aに接触した状態で移動する操作と、操作子が表示領域2aに近接した状態で移動する操作の両方を含む。
 タップ操作とは、操作子が表示領域2aに接触あるいは近接してからすぐに当該表示領域2aから離れる操作である。詳細には、タップ操作とは、操作子が表示領域2aに接触あるいは近接してから所定時間以内にその接触位置あるいは近接位置で当該表示領域2aから離れる操作である。ユーザは、表示領域2aに対してタップ操作を行うことによって、例えば、表示領域2aに表示されているアプリケーション103bを実行するためのアプリケーションアイコン(以後、「アプリアイコン」と呼ぶ)を選択して、当該アプリケーション103bを携帯機器1に実行させることができる。
 ダブルタップ操作とは、タップ操作が所定期間内に2回行なわれる操作である。ユーザは、表示領域2aに対してダブルタップ操作を行うことによって、例えば、表示領域2aに表示されている表示画面を予め決められた拡大率で拡大して表示したり、または予め決められた縮小率で縮小して表示させることができる。
 フリック操作とは、表示領域2aを操作子で払う操作である。詳細には、フリック操作とは、操作子が表示領域2aに接触あるいは近接した状態で所定時間以内に所定距離以上移動して表示領域2aから離れる操作である。ユーザは、表示領域2aに対してフリック操作を行うことによって、例えば、表示領域2aの表示を当該フリック操作の方向にスクロールさせたり、表示領域2aに表示されているページを別のページに切り替えたりすることができる。
 ピンチアウト操作とは、2つの操作子が表示領域2aに近接または当接した状態で、その2つの操作子の間の間隔を広げる操作である。ユーザは、表示領域2aに対してピンチアウト操作を行なうことによって、例えば、2つの操作子の間隔に応じて表示画面を拡大して、表示領域2aに表示させることができる。
 ピンチイン操作とは、2つの操作子が表示領域2aに近接または当接した状態で、その2つの操作子の間の間隔を縮小する操作である。ユーザは、表示領域2aに対してピンチイン操作を行なうことによって、例えば、2つの操作子の間隔に応じて表示画面を縮小して、表示領域2aに表示させることができる。
 <携帯機器の操作方法について>
 図3及び図4に示されるように、ユーザが携帯機器1を片手で持ちながら、その親指で表示領域2aを操作する場合には、ユーザは表示領域2aの端部を操作しにくいことがある。具体的には、例えば右手30で携帯機器1を保持している場合(図3参照)、ユーザは表示領域2aのうち、保持指32の接触位置側の端部(より具体的には左上端部)の領域を操作しにくい。右手30の親指31がこの領域に届きにくいからである。一方で、左手20で携帯機器1を保持している場合(図4参照)、ユーザは表示領域2aのうち、保持指22の接触位置側の端部(より具体的には右上端部)の領域を操作しにくい。左手20の親指21がこの領域に届きにくいからである。このような問題は、表示領域2aが大きくなって大画面化が進むほど、顕著になる。
 以下では、操作が困難な領域を操作困難領域と呼ぶ。よってここでは、右手30の親指31で携帯機器1を操作するときには、操作困難領域は表示領域2aの左上端部であり、左手20の親指21で携帯機器1を操作するときには、操作困難領域は表示領域2aの右上端部である。また、操作指が届きやすい領域を操作容易領域とも呼ぶ。
 次に、ユーザが操作困難領域を操作しようとするときの動作について説明する。まず右手30で携帯機器1を保持しながら、その親指31で操作困難領域を操作する場合(図3参照)について説明する。このとき、ユーザは、操作困難領域が親指31へと近づくように携帯機器1を傾けながら、親指31を操作困難領域まで伸ばすことで、当該操作困難領域を操作しようとする。より詳細には、携帯機器1の左上端部を、その右下端部に対してユーザ側(紙面手前側)に傾けつつ、親指31を伸ばす。これにより、親指31を操作困難領域に近接あるいは当接させる。
 また、このような携帯機器1の傾斜姿勢の変化は、保持指32を用いて裏面部分から携帯機器1をユーザ側に押し出すことにより、行なわれる。例えば、ユーザは、保持指32を携帯機器1の側面部分から裏面部分へと移動させつつ、保持指32で裏面部分を押し出す。
 そこで、ユーザが操作困難領域を操作しようとしていることを、保持指32に動きがあり、かつ、携帯機器1の傾斜姿勢に変化があることで、検出する。
 この保持指32の動きはタッチセンサ90によって検出される。図6は、図3の紙面左側のタッチセンサ90を模式的に示す平面図である。タッチセンサ90は平面視で(携帯機器1の側面部分に垂直に見て)略長方形状を成している。また、ここではタッチセンサ90の紙面左側の一辺が携帯機器1の裏面側に位置し、紙面右側の一辺が携帯機器1の前面側に位置していると定義する。図6では、互いに平行なラインa~dが前面側から裏面側へとこの順で配置されている。これらのラインa~dは仮想的なラインであり、タッチセンサ90における紙面左右方向(z軸方向)の各位置を示している。
 図7は、一つの保持指32に対するタッチセンサ90の検出結果を、ラインa~d毎に示している。つまり、この一つの保持指32が、紙面左右方向においてどの位置に接触しているのかが、示されている。図7では、保持指32との接触に伴う検出値(例えば電流値)の時間的な変化が示されており、検出値が大きい場合に保持指32の接触が検出される。
 図7の例示では、初期的には、ラインa~dのいずれにおいても、保持指32の接触を検出している。つまり、保持指32が裏面から前面に亘って携帯機器1の側面部分に接触している。そして、ユーザが操作困難領域を操作すべく、上述のように保持指32を動かすと、保持指32は前面から順に側面部分から離れる。よって、図7では、まずラインaにおいて保持指32が離れることが検出され、順にラインb,c,dで保持指32が離れることが検出される。
 以上のように、制御部100は、タッチセンサ90を用いて、保持指32が動いていることを検出することができる。例えば制御部100は、タッチセンサ90からの保持指の接触位置の変化量(ここではラインa~dまでの距離)が、所定の閾値を超えているかどうかを判断する。制御部100は、当該変化量が閾値を超えているときには、保持指32が動いたと判断する。
 なお図7の例示では、簡単のために、z軸方向の各位置における検出値を示して説明している。実際には、タッチセンサ90は、y軸方向およびz軸方向の各位置における検出値を検出する。また、操作困難領域を操作しようとするときには、保持指32はy軸方向にも動きえるので、y軸方向の接触位置の変化量に基づいて、保持指32の動きを検出しても良い。
 傾斜センサ92は、携帯機器1の基準姿勢に対する傾斜角を検出する。よってこの傾斜角の時間的な変化に基づいて、携帯機器1の傾斜姿勢が変化したことを検出することができる。例えば、制御部100は、所定時間における傾斜角の変化量が閾値(例えば数度程度)を超えているかどうかを判断する。制御部100は、この傾斜角の変化量が閾値を超えているときに、携帯機器1の傾斜姿勢が変化したと判断する。
 以上のように、タッチセンサ90を用いて保持指32の動きの有無(接触位置の変化)を検出し、かつ、傾斜センサ92を用いて携帯機器1の傾斜姿勢の変化(傾斜角の変化)の有無を検出することができる。これにより、制御部100は、ユーザが操作困難領域を操作しようとしていることを認識できる。そこで、制御部100は、保持指32が動いたことをタッチセンサ90で検出し、かつ、携帯機器1の傾斜姿勢が変化したことを傾斜センサ92で検出したときに、表示パネル120を制御することで、操作困難領域に表示された表示内容を、操作容易領域に表示させる。以下、図8に示すフローチャートを参照して、より詳細に説明する。
 図8は、制御部100の動作の一例を示すフローチャートである。まずステップS1にて、タッチセンサ90を用いて保持指32が動いたことを検出し、かつ、傾斜センサ92を用いて携帯機器1の傾斜姿勢が変化したことを検出する。この検出を契機としてステップS2を実行する。なお、この2種の検出は同時期に行なわれる。逆に言えば、比較的離れた異なる時間帯に、これらの検出が別々に行なわれても、ステップS2は実行しない。
 次にステップS2にて、制御部100は、以下で詳述するように、表示領域2aに示される画面を変更する。
 図9は、表示領域2aに表示されていた表示画面20aの一例である。表示画面20aは例えばホーム画面であって、複数の表示記号(アプリアイコン)22aが互いに間隔を空けて、例えばマトリックス状に並んで表示されている。このアプリアイコン22aは、アプリケーション103bを選択するためのものである。例えば、所定のアプリアイコン22aが表示された部分に対するタップ操作を、タッチパネル130が検出すると、制御部100は、当該アプリアイコン22aが選択されたと判断し、当該アプリアイコン22aに対応するアプリケーション103bを起動する。
 また、表示領域2aには、ホーム画面以外にも、その上端部300に、携帯機器1の状態を示す情報が表示されている。図9の例では、表示領域2aの上端部300には、携帯機器1の状態を示す情報として、携帯機器1で計測されている現在時刻300aと、電池残量を通知するためのアイコン(図形)300bと、通信状態を通知するためのアイコン300cとが表示されている。
 また、携帯機器1において特定のイベントが発生すると、表示領域2aの上端部300には、当該イベントに関する情報が表示される。制御部100は、携帯機器1において特定のイベントが発生したことを検出すると、表示パネル120を制御することによって、当該イベントに関する情報を表示領域2aに表示する。図9の例では、表示領域2aの上端部300には、携帯機器1において発生したイベントに関する情報として、新しい電子メールの受信というイベントの発生を通知するためのアイコン300dと、不在着信というイベントの発生を通知するためのアイコン300eとが表示されている。
 なお、この上端部300に表示される画面は、後述する他の表示画面であっても表示されるので、以下では繰り返しの説明を避ける。
 そしてステップS2では、図10に示すように、制御部100は、機器ケース4と保持指32との接触位置から遠ざかる方向に、表示画面20aを平行移動させて表示する。ここでは、表示画面20aを親指31側(ここでは右下側)に平行移動(スライド)させて表示する。図10では、図9の表示画面20aのうち、平行移動により表示されなくなった部分を二点差線で示している。
 また、制御部100は、単に表示画面20aを平行移動して表示するだけではなく、操作に関する位置情報も更新する。すなわち、表示領域2aへの操作に関する位置情報を、平行移動後の表示画面20aに応じて設定する。例えば、平行移動後にアプリアイコン22aが表示される部分(座標)を、当該アプリアイコン22aに対するアプリケーション103bの選択ボタンに割り当てる。これにより、平行移動後の表示画面20aにおいて、アプリアイコン22aに対してタップ操作が行なわれると、制御部100は、タップ操作されたアプリアイコン22aに対応するアプリケーション103bを適切に起動することができる。
 以上のように、表示画面20aのうち操作困難領域(ここでは左上端部の領域)に表示されていた部分が、表示領域2aのうち操作容易領域に表示されることになる。したがって、ユーザは右手30の親指31でこの部分を操作しやすい。
 なお、ここではユーザが右手30で携帯機器1を保持する場合について説明しているので、制御部100は、右手30の親指31に近づけるように、表示画面20aを右下側に平行移動させている。他方、左手20で携帯機器1を保持する場合には、図9の表示画面20aの右上端部の部分を左手20の親指21に近づけるように、表示画面20aを左下側に平行移動させるとよい。
 さて、表示画面20aをどの方向に平行移動させるかは、ステップS2において、制御部100が携帯機器1の傾斜姿勢の変化方向に基づいて判別することができる。なぜなら、右手30で操作困難領域を操作する場合には、携帯機器1を、その左上端部がユーザの親指31に近づくように傾斜させ(図3参照)、左手20で操作困難領域を操作する場合には、携帯機器1を、その右上端部がユーザの親指21に近づくように傾斜させる(図4参照)からである。つまり、持ち手によって携帯機器1の傾斜姿勢の変化方向が変わるのである。
 この携帯機器1の傾斜姿勢の変化方向は、傾斜センサ92の検出値(傾斜角)の時間変化に基づいて、制御部100によって認識される。制御部100は、携帯機器1の傾斜角の変化方向に基づいて、表示画面20aの平行移動の方向を判別する。より具体的には、携帯機器1の左上端部が右下端部に対してユーザに近づくように、携帯機器1の傾斜角が変化していれば、制御部100は、図10に示すように、表示画面20aを右下に平行移動させる。つまり、このような傾斜角の変化を検出したときには、右手30で携帯機器1を保持しているとして、表示画面20aを右下に平行移動させるのである。
 また、携帯機器1の右上端部が左下端部に対してユーザに近づくように、携帯機器1の傾斜角が変化していれば、制御部100は表示画面20aを左下に平行移動させる。つまり、このような傾斜角の変化を検出したときには、左手20で携帯機器1を保持しているとして、表示画面20aを左下に平行移動させるのである。つまり、表示領域2aのうち傾斜に伴って相対的にユーザ側から遠ざかる部分に向かって、表示画面20aを平行移動させるのである。
 以上のように、本実施の形態によれば、ユーザが操作困難領域を操作しようとしたときに、当該操作困難領域に表示されていた内容が、自動的に操作容易領域に表示される。したがって、表示領域2aに対する操作を容易にすることができる。しかも、ユーザがこの機能について何も知らなくても、操作困難領域を操作しようとしさえすれば、操作困難領域に表示されていた内容が操作容易領域に表示されることになる。よって、ユーザは特別な操作知識を有さなくても、換言すれば、説明書などを読まなくても、この機能を活用することができる。
 <保持指の動き方に基づく平行移動の要否>
 保持指が動き、かつ、携帯機器1の傾斜姿勢が変化する事象は、ユーザが操作困難領域を操作しようとする場合以外でも生じ得る。例えば、携帯機器1の保持姿勢を変更する場合、または、携帯機器1の持ち手を替える場合などでも、保持指が動き、かつ、携帯機器1の傾斜姿勢が変化しえる。よってここでは、保持指の動き方に着目することで、ユーザが操作困難領域を操作していることを、より正確に検出することを企図する。
 ユーザが操作困難領域を操作しようとするときには、例えば、上述のように保持指が前面から裏面へと動く。このときタッチセンサ90の検出値は、例えば図7に示すように変化する。
 そこで、制御部100は、このタッチセンサ90内の各位置における検出値の時間変化に基づいて、保持指の動き方(つまり保持指の接触位置の変化方向)を判別する。そして、検出された保持指の接触位置の変化方向が、操作困難領域を操作しようとするときの変化方向であるとして予め決められた方向(例えば前面から裏面へと向かう方向)と一致するときに、制御部100は、表示画面20aを平行移動させる。この予め定められた方向は、例えば記憶部103に記憶される。
 これにより、ユーザが操作困難領域を操作しようとすることを、より正確に検出することができる。換言すれば、表示画面20aの不要な平行移動を抑制できる。
 なお、ユーザが操作困難領域を操作しようとするときには、保持指は携帯機器1の側面部分を下方にも移動しえる。よって、保持指が下方に移動したことを条件として採用しても構わない。つまり、保持指が下方へと動いたことを検出し、かつ、携帯機器1の傾斜姿勢が変化したことを検出したときに、表示画面を平行移動させてもよい。要するに、ユーザが操作困難領域を操作しようとするときの保持指の動き方を検出し、かつ、傾斜姿勢の変化を検出したときに、表示画面20aを平行移動させればよいのである。
 <傾斜角の変化量に基づく平行移動の要否>
 ユーザが操作困難領域を操作しようとするときの携帯機器1の傾斜角の変化量には、個人差があるものの、当該変化量はさほど大きくない。平均的な変化量は例えば20度程度である。そこで、傾斜角の変化量に基づいて、ユーザが操作困難領域を操作しようとしているのか、あるいは、単に保持姿勢を変えたり、持ち手を替えようとしているのか、を判別してもよい。
 図11は、制御部100の動作の一例を示すフローチャートである。図8の動作に比して、ステップS3の処理が追加されている。ステップS3は、ステップS1,S2の間で実行される。このステップS3では、制御部100は、携帯機器1の傾斜角の変化量が、所定値(例えば20度)以下であるかどうかを判定する。そして、肯定的な判定がなされたときに、ステップS2を実行し、否定的な判断がなされたときには、ステップS2を実行することなく、待機する。
 つまり、携帯機器1の傾斜角の変化量が所定値よりも小さい場合には、ユーザが操作困難領域を操作しようとしていると判断して、表示画面20aを平行移動させる。その一方で、傾斜角の変化量が所定値よりも大きい場合には、ユーザが操作困難領域を操作しようとしているわけではないと判断して、ステップS3を実行しないのである。これにより、表示画面20aの不要な平行移動を低減することができる。
 或いは、ステップS3をステップS2の後に行い、ステップS3にて否定的な判断がなされたときに、制御部100が表示領域2aの全体に表示画面20aを表示させても良い。すなわち、ステップS1を契機として、一旦は表示画面20aを平行移動させて表示しつつも、傾斜角の変化量が所定値を超えれば、ユーザが操作困難領域を操作しようとしているのではないと判断して、元の表示に戻しているのである。なお、ここでいう傾斜角の変化量とは、保持指の動きと同時期に行なわれる携帯機器1の傾斜角の変化量であって、例えばステップS1における傾斜角の変化の開始時点から、その変化が終了するまでの変化量である。
 <表示画面の移動方向の決定>
 上述の例では、傾斜センサ92を用いて傾斜角の変化方向を検出し、その検出結果に基づいて、表示画面20aの移動方向を判別した。ここでは、機器ケース4の両側面部に設けられるタッチセンサ90のうち、どちらが保持指の動きを検出したか、という情報に基づいて、平行移動の方向を判別する。
 右手30で携帯機器1を保持しているときには、図3において、紙面左側のタッチセンサ90が保持指32の動きを検出する。よって、左側のタッチセンサ90が保持指32の動きを検出したときには、制御部100は、表示画面20aを右下に平行移動させる。一方で、紙面右側のタッチセンサ90が保持指22の動きを検出したときには、制御部100は、左手20で携帯機器1を保持している(図4参照)として、表示画面20aを左下に平行移動させる。
 つまり、保持指の動きを検出したタッチセンサ90が設けられる側面部分とは別の側面部分側、かつ、下側に向かって、表示画面20aを平行移動させるのである。これによれば、制御部100は、表示画面20aの平行移動の方向を判別するために、検出値の変化方向を算出する必要がない。よって処理が簡易である。
 なお、携帯機器1の傾斜姿勢が変化する際には、タッチセンサ90と親指の付け根部分との接触位置が変化しえる。しかしながら、親指の付け根部分の接触位置の変化は、保持指の接触位置の変化に比して小さい。よって、保持指の動きを検出するための閾値を調整することで、親指の付け根部分の接触位置の変化を、保持指の動きとして誤検出することを抑制或いは回避できる。
 <タッチセンサの設置部分>
 上述の例では、タッチセンサ90は機器ケース4の両側面部に設けられている。しかるに、片手で携帯機器1の両側面部を挟んで保持できない場合もある。例えば、図3の携帯機器1を横に持つ場合(即ち、図3の携帯機器1を90度回転させて保持する場合)、または、携帯機器1の縦方向の幅および横方向の幅が大きい場合などに、片手で携帯機器1の両側面部を挟んで保持できない場合がある。この場合、図12に示すように、ユーザは、親指の付け根を携帯機器1の側面部分に当接させ、保持指を携帯機器1の裏面部分に当接させて、携帯機器1を保持することになる。よって、この場合、保持指の動きを検出するタッチセンサ90は、機器ケース4の裏面部分に設けられる。図12では、左手20で携帯機器1を保持する場合が示されている。
 このように左手20の保持指22が機器ケース4の裏面部分に当接する場合には、ユーザは、例えば次のようにして、操作困難領域(図12において表示領域2aの紙面右側の端部)を操作しようとする。すなわち、保持指22を曲げることで携帯機器1の裏面部分を押しながら、親指21を操作困難領域へと伸ばす。この動作により、保持指22は裏面部分に沿って親指21の付け根側(図12において紙面左側)に移動することとなる。
 制御部100は、タッチセンサ90を用いて保持指22が動いたことを検出し、かつ、傾斜センサ92を用いて携帯機器1の傾斜角が変化したことを検出したときに、表示画面20aを親指21側に平行移動させて表示する。
 平行移動の方向は、傾斜センサ92で検出した傾斜角の変化の方向に基づいて決定すればよい。例えば図12において、携帯機器1は、その紙面右側の端部が紙面左側の端部に対してユーザに近づくように、傾斜する。よって、傾斜センサ92を用いてこの方向の変化を検出したときに、制御部100は、表示画面20aを紙面左側に平行移動させる。逆に、携帯機器1の紙面左側の端部が紙面右側の端部に対してユーザに近づくように、携帯機器1が傾斜することを検出したときには、右手30で携帯機器1を保持していると判断し、制御部100は、表示画面20aを紙面右側に平行移動させる。つまり、傾斜に伴って相対的にユーザ側から遠ざかる部分に向かって、表示画面20aを平行移動させるのである。
 これにより、ユーザは、操作困難領域を操作しようとするだけで、操作困難領域に表示されていた内容が操作容易領域に表示される。よって、保持指が携帯機器1の裏面部分に当接する場合であっても、上述と同様に、操作を容易にすることができる。
 また、平行移動の方向は、保持指の動き方に基づいて決定してもよい。即ち、左手20で携帯機器1を保持していれば、保持指22は紙面左側に動くので、タッチセンサ90を用いてこの方向の移動を検出することで、制御部100は、表示画面20aを紙面左側に平行移動させてもよい。逆に、保持指22が紙面右側に動いたことを検出すれば、右手30で携帯機器1を保持していると判断して、制御部100は、表示画面20aを紙面右側に平行移動させる。つまり、保持指の接触位置の移動方向へと表示画面20aを平行移動させるのである。
 <平行移動量>
 手の大きさには個人差があり、手が大きいユーザは携帯機器1をあまり傾けなくても、操作困難領域を操作できる。一方で、手が小さいユーザは携帯機器1を大きく傾ける必要がある。
 そこで、制御部100は、傾斜角の変化量が大きいほど、平行移動量を大きくしてもよい。つまり、手が小さいユーザに対しては、表示画面20aのうち操作困難領域に表示されていた部分を、より操作指に近づけて表示するのである。図13は、傾斜角の変化量が大きいときの、平行移動後の表示領域2aを示している。表示領域2aのうち、平行移動後に表示画面20aを表示する領域2cのサイズは、図10に比して小さくなる。これにより、操作指31が短いユーザに対しては、より操作指に近い領域に表示画面20aが表示されることになる。よってユーザは操作しやすい。
 他方、手が大きいユーザに対しては、傾斜角の変化量が比較的小さいので、平行移動量は比較的小さい。よって、平行移動後に表示画面20aを表示する領域2cのサイズは、比較的大きい。ここで、表示領域2aのうち、操作指の根元に近すぎる領域では、逆に操作指での操作が困難である。よって、手が大きい人に対しては、比較的大きく表示画面20aを表示することで、操作指の根元から比較的離れた領域で表示画面20aの内容を表示しているのである。
 以上のように、表示画面20aが表示される領域の大きさを、手の大きさに応じて適切に設定することができる。
 <表示画面の縮小表示>
 制御部100は、表示画面20aを平行移動すると共に、これを縮小して表示しても構わない。なおここでいう縮小の対象は、平行移動後に表示画面20aが表示される領域2cのサイズではなく、表示画面20aの縮尺である。図14は、表示画面20aを縮小しながら平行移動したときの表示画面20aを示している。これにより、図10に比して、表示画面20aに含まれるアプリアイコン22aのサイズが縮小して表示され、またアプリアイコン22aの間隔も短く表示される。したがって、平行移動後に、より多くのアプリアイコン22aを表示することができる。換言すれば、表示画面20aの表示可能な情報量を増大させることができる。
 その一方で、上述の図10に示されるように、表示画面20aを縮小することなく表示してもよい。なぜなら、表示画面20aを縮小することにより、操作が困難となりえるからである。例えば、この縮小により、アプリアイコン22aが小さくなり、またアプリアイコン22aの間隔も短くなるので、所望のアプリアイコン22aを選択しにくくなる場合がある。このような事態を回避すべく、縮小することなく表示画面20aを表示してもよい。
 <元の表示に戻す>
 制御部100は、表示画面20aを平行移動させて表示領域2aの一部(領域2c)に表示した状態で、タッチセンサ90が保持指の接触位置の変化を所定の操作として検出したときに、表示画面20aを表示領域2aの全体に表示する。この所定の操作としては、図15を参照して、例えば保持指32がタッチセンサ90に接触した状態で、所定の一方向(例えば紙面下方)に移動させる操作を採用できる。図15では、移動後の保持指32を二点鎖線で示している。これにより、簡単な操作で、元の表示に戻すことができる。
 <表示領域2aに表示される表示画面>
 <2つの表示画面の表示>
 上述したように、制御部100が表示画面20aを平行移動させて表示領域2aに表示することにより、表示領域2aの一部(領域2c)に、表示画面20aの一部が表示される。以下では、表示領域2aのうち、平行移動後に表示画面20aの一部が表示される領域2cをメイン領域2cと呼び、他の領域をサブ領域2dと呼ぶ(図10も参照)。メイン領域2cは例えば平面視で略長方形を成し、サブ領域2dは、表示領域2aからメイン領域2cを切り欠いた形状を成す。
 さて以下では、携帯機器について、表示画面に含まれる情報量の向上が望まれていることに鑑みて、その情報量を向上できる表示技術を提供することを企図する。
 なお、上述の例では、タッチセンサ90を用いて保持指の動きを検出し、かつ、傾斜センサ92を用いて携帯機器1の傾斜姿勢の変化を検出したときに、制御部100は、表示画面20aを平行移動させて表示した。しかしながら、以下では、必ずしもこれに限らない。表示画面20aを平行移動させるための条件(トリガ)は適宜に変更してもよい。
 例えば表示画面20aを平行移動させるための入力部(ハードキーまたはソフトキー)を携帯機器1に設け、ユーザによる当該入力部への入力に基づいて、表示画面20aを平行移動させてもよい。また平行移動させる方向についても、これを入力するための入力部を設ければよい。この構造を採用する場合には、タッチセンサ90および傾斜センサ92は必須要件ではない。
 また、タッチセンサ90を当該入力部として機能させてもよい。すなわち、タッチセンサ90に対して特定の操作を行なうことで、制御部100が表示画面20aを平行移動させても構わない。この特定の操作としては、例えば、タッチセンサ90に対して指を接触させて所定時間後に離す操作を、採用できる。また表示画面20aの平行移動の方向についても、タッチセンサ90を用いて携帯機器1に入力してもよい。例えば、両側面部のどちらのタッチセンサ90に対して操作が行なわれたか、に基づいて、表示画面20aの平行移動の方向を入力することができる。このように、タッチセンサ90を当該入力部として機能させる場合には、傾斜センサ92は必須要件ではない。
 さて、制御部100は、ステップS2において、表示画面20aを平行移動させて、メイン領域2cに表示画面20aの一部を表示すると共に、表示画面20aとは別の表示画面をサブ領域2dに表示する。別の表示画面としては、例えばステップS2を実行するときに起動されているアプリケーション103bの表示画面を採用できる。或いは、予め定められたアプリケーション103bを起動し、その表示画面を採用してもよい。
 図16~図18は、アプリケーション103bが起動したときの表示画面を模式的に示している。図16は、ウェブブラウザが起動しているときの表示画面20bの一例を模式的に示しており、ニュース情報を示すウェブページが表示領域2aに表示されている。このウェブページには、複数のリンク(ハイパーリンク)が含まれている。図16においては、ウェブページ中のリンクには下線が示されている。記憶部103内のウェブブラウザを実行する制御部100は、無線通信部110を通じてウェブサーバからウェブページを取得し、その後、表示パネル120を制御することによって、ウェブページ50が表示領域2aに表示される。
 表示領域2aにおける、ウェブページに含まれるリンクが表示されている部分に対して、タップ操作が行われたことを、タッチパネル130が検出すると、制御部100は、当該リンクがユーザによって選択されたと判断する。そして制御部100は、無線通信部110を通じて該当のウェブサーバと通信することによって、当該リンクが示すウェブページを当該ウェブサーバから取得する。表示パネル120は、制御部100で取得されたウェブページを、制御部100による制御によって表示領域2aに表示する。
 図17は、メールアプリケーションが起動しているときの表示画面20cの一例を模式的に示しており、送信文を作成するための画面が表示領域2aに表示されている。この表示画面20cは記憶部103に記憶されており、制御部100は、記憶部103からこの表示画面20cを読み出し、表示パネル120を制御することによって、この表示画面20cを表示領域2aに表示する。図17の例示では、送信文を表示するための領域382と、送信文を入力するための文字入力ボタン380と、送信文を送信する送信ボタン384とが表示領域2aに表示されている。
 文字入力ボタン380が含まれる部分に対する操作を、タッチパネル130が検出すると、制御部100は、当該文字入力ボタン380の操作に応じた文字を、領域382に表示する。また送信ボタン384が示される部分に対する操作をタッチパネル130が検出すると、制御部100は、無線通信部110を通じて、領域382に表示された送信文を送信先の端末に送信する。
 図18は、地図を閲覧するための地図アプリケーションが起動したときの表示画面20dの一例を模式的に示しており、日本地図を示す画面が表示領域2aに示されている。この表示画面20dは、例えばウェブサーバに格納されており、制御部100が無線通信部110を通じてこれを取得し、その後、表示パネル120を制御することによって、これを表示領域2aに表示する。
 例えば表示画面20dを含む部分に対するスライド操作を、タッチパネル130が検出すると、制御部100は、そのスライド方向に地図をスクロールさせて、表示領域2aに表示する。また、表示画面20dに対するピンチアウト操作をタッチパネル130が検出すると、制御部100は、2つの操作子の間隔に応じて縮尺を小さくして(即ち、縮尺分母を大きくして)、当該地図を表示する。またピンチイン操作を検出すると、制御部100は、2つの操作子の間隔に応じて縮尺を大きくして、当該地図を表示する。
 ここでは、図16~図18に示す3つのアプリケーション103b(ウェブブラウザ、メールアプリケーション、及び、地図アプリケーション)が起動しており、表示領域2aには、ウェブサーバの表示画面20cが表示されているものとする(図16)。メールアプリケーションおよび地図アプリケーションの現在の表示画面20c,20dは、制御部100によって、それぞれ例えば記憶部103に格納され、この時点では、表示領域2aには表示されない。
 この状態で、制御部100は、表示画面20bを平行移動させてメイン領域2cに表示する(図19参照)。また、これと共に、制御部100は、例えばメールアプリケーションの表示画面20cを、サブ領域2dに表示する。図19の例示では、メイン領域2cは表示領域2aのうち右下の長方形領域であり、図17の表示画面20bの左上端部の部分が表示されている。サブ領域2dは表示領域2aからメイン領域2cを切り欠いた形状を成すので、図14の表示画面20cのうちメイン領域2cに対応する部分は、図19では表示されない。つまり、メイン領域2cの表示画面20bは、サブ領域2dの表示画面20bの上に重なるようにして表示される。
 これにより、ユーザは、表示画面20bのみならず、他の情報(すなわち表示画面20c)を視認することができる。よって、表示領域2aからの情報量を向上することができる。
 <メイン領域とサブ領域の表示画面の切り替え>
 また、メイン領域2cとサブ領域2dが表示される状態で、例えば、表示領域2aに対する所定の第1操作(ここではスライド操作)をタッチパネル130が検出すると、制御部100は、この第1操作を、メイン領域2cおよびサブ領域2dの表示画面の切り替え操作と認識する。つまり、制御部100は、この第1操作によるアプリケーション103bの機能(アプリケーション103bを実行する制御部100の機能、以下同様)を制限する。例えば図18において、地図アプリケーションが表示される表示画面20dにおいてスライド操作を行なうと、この地図アプリケーションを実行する制御部100によって、当該地図をスクロールして表示するところ、メイン領域2cとサブ領域2dとが表示された状態では、制御部100は、第1操作による当該機能(スクロール表示)を発揮させない。
 その一方で、制御部100は、この第1操作を、メイン領域2cおよびサブ領域2dの表示画面の切り替え操作と認識するのである。すなわち、表示領域2aに対する第1操作を検出すると、制御部100は、表示パネル120を制御することで、メイン領域2cおよびサブ領域2dの各々の表示画面を他の表示画面に切り替える。例えば図20に示すように、制御部100は、図19においてサブ領域2dに表示されていた表示画面20cを、メイン領域2cに表示し、地図アプリケーションの表示画面20dを、サブ領域2dに表示する。
 この状態で、タッチパネル130が再び第1操作を検出すると、制御部100は、メイン領域2cおよびサブ領域2dの各々の表示画面を、再び他の表示画面に切り替える。例えば図21に示すように、制御部100は、図20においてサブ領域2dに表示されていた表示画面20dをメイン領域2cに表示し、表示画面20bをサブ領域2dに表示する。以後、第1操作を契機として、上記の順序で切り替えが繰り返される。
 このような切替動作によれば、現在起動しているアプリケーション103bの表示画面が順にメイン領域2cおよびサブ領域2dに表示される。よって、ユーザは、第1操作を繰り返すことで、現在起動しているアプリケーション103bを容易に確認することができる。
 また、この切り替え後にメイン領域2cに表示される表示画面が、切り替え前においてサブ領域2dに表示されている。よってユーザは、次にメイン領域2cに表示される画面を予め了知しながら、画面を切り替えることができる。
 またここでは、3つの表示画面20b~20dを用いて説明したが、2つ或いは4つ以上の表示画面を用いても良い。また表示画面20aが採用されてもよい。
 またここでは、表示領域2aに対する第1操作を契機として、メイン領域2cおよびサブ領域2dの表示画面の切り替えを行なっている。しかしながら、本実施の形態ではこれに限らない。他の入力部(ハードキーまたはソフトキー)への入力を契機として、制御部100がこの切り替えを行なってもよい。換言すれば、ユーザによる検出部132への入力を契機として、制御部100がこの切り替えを行なってもよい。
 例えば、タッチセンサ90が設けられている場合であれば、このタッチセンサ90への操作を契機として切り替えを行なってもよい。また、このようにタッチパネル130以外の入力部を採用する場合には、制御部100は、メイン領域2cおよびサブ領域2dに対する操作の上記制限を行なう必要はない。即ち、メイン領域2cおよびサブ領域2dに対する各種の操作を、それぞれメイン領域2cおよびサブ領域2dに表示されたアプリケーション103bへの操作と判断してもよい。
 <全体表示と、メイン・サブ領域の表示との切り替え>
 またメイン領域2cに対する所定の第2操作(第1操作とは異なる操作であり、例えばダブルタップ操作)を、タッチパネル130が検出した場合にも、制御部100は、その第2操作による、メイン領域2cに表示されたアプリケーション103bの機能を、制限する。その替わりに、当該第2操作によって次の制御を実行する。すなわち、メイン領域2cに対する第2操作を検出すると、制御部100は、表示パネル120を制御して、メイン領域2cに表示された表示画面を、表示領域2aの全体に表示する。例えば図21の表示領域2aにおいて、メイン領域2cにおいて第2操作が行なわれると、メイン領域2cの表示画面20dが表示領域2aの全体に表示される(図18参照)。つまり、メイン領域2cおよびサブ領域2dは消失し、図21においてサブ領域2dに表示されていた表示画面20bの表示が終了する。
 また、図21において、サブ領域2dに対する第2操作を検出すると、制御部100はサブ領域2dに表示されていた表示画面20bを、表示領域2aの全体に表示する(図16参照)。これにより、メイン領域2cおよびサブ領域2dは消失し、図21においてメイン領域2cに表示されていた表示画面20dの表示が終了する。
 さらに、制御部100は、表示領域2aの操作による上記機能の制限を解除する。これにより、ユーザは、第1操作および第2操作による、表示領域2aの全体に表示されたアプリケーション103bの機能を発揮させることができる。
 このような切り替え方法によれば、メイン領域2cおよびサブ領域2dの各々に対する操作を受けて、それぞれメイン領域2cとサブ領域2dとの一方を、表示領域2aの全体に表示するので、ユーザは操作を理解しやすい。
 なお、上述の例では、メイン領域2cおよびサブ領域2dへの第2操作を契機として、メイン領域2cおよびサブ領域2dの一方を、表示領域2aの全体に表示している。しかしながら、これに限らず、他の入力部への操作を契機として、この表示制御を行なってもよい。換言すれば、ユーザによる検出部132への入力を契機として、制御部100が表示領域2aの全体表示を行なってもよい。ただし、上述したメイン領域2cとサブ領域2d同士の切り替えとは別の操作を採用する。
 例えば、タッチセンサ90が設けられている場合であれば、このタッチセンサ90への操作を契機として、切り替えを行なってもよい。すなわち、タッチセンサ90が保持指の接触位置の所定変化(例えば操作指がタッチセンサ90に接触した状態で一方向に移動するときの変化)を当該操作として検出したときに、切り替えを行なってもよい。このとき、メイン領域2cの表示画面を表示領域2aの全体に表示するのか、サブ領域2dの表示画面を表示領域2aの全体に表示するのか、との情報についても、タッチセンサ90への操作で携帯機器1に入力するとよい。例えば、両側面部のうち、どちらのタッチセンサ90に操作したのか、に基づいて、この情報を入力しても良い。
 このようにタッチパネル130以外の入力部を採用する場合には、制御部100は、メイン領域2cおよびサブ領域2dに対する操作の上記制限を行なう必要はない。即ち、メイン領域2cおよびサブ領域2dに対する各種の操作を、それぞれメイン領域2cおよびサブ領域2dに表示されたアプリケーション103bへの操作と判断してもよい。
 <サブ領域の表示画面>
 次に、複数のアプリアイコン22aが表示される表示画面(選択画面)20aが、メイン領域2cに表示されている場合を想定する。このとき、アプリアイコン22aへの選択操作(例えばタップ操作)を、タッチパネル130が検出したときに、制御部100が、選択されたアプリアイコン22aのアプリケーションを起動するとともに、その表示画面をサブ領域2dに表示しても良い。これにより、メイン領域2cに表示画面20aを表示しつつも、起動したアプリケーションをサブ領域2dで視認することができる。これによれば、誤ってアプリアイコン22aを選択したとしても、操作しやすいメイン領域2cに表示画面20aが表示されているので、直ぐにアプリアイコン22aの選択をやり直すことができる。
 また、この状態で、メイン領域2cの表示画面を表示領域2aの全体に表示させる操作を検出すると、制御部100はメイン領域2cの表示画面を表示領域2aの全体に表示すると共に、サブ領域2dに表示されるアプリケーション103bを終了させてもよい。これにより、アプリケーション103bを終了させる操作を別途に行なう場合に比して、このアプリケーション103bを簡易に終了させることができる。
 <制御部の動作の一例>
 図19は、制御部の動作の一例を示すフローチャートである。図19は上述した制御内容が適宜盛り込まれたものである。以下に詳細に説明する。
 ステップS1,S3は、上述した内容と同じであるので、繰り返しの説明を避ける。ステップS2では、制御部100は、表示画面を平行移動させてメイン領域2cに表示しつつ、さらにサブ領域2dにもアプリケーション103bによる表示画面を表示する。
 ステップS2の実行後に、ステップS11にて、タッチセンサ90が特定の操作(例えば操作指がタッチセンサ90に接触しながら一方向に移動する操作)を検出する。この検出を契機として、ステップS12にて、制御部100は、メイン領域2cに表示されている表示内容を、表示領域2aの全体に表示し、待機する。
 また、ステップS2の実行後に、ステップS21にて、タッチパネル130が、表示領域2aに対する第1操作を検出する。この検出を契機として、ステップS22にて、制御部100は、メイン領域2cとサブ領域2dに表示されている表示内容を、上述のように切り替え、待機する。
 また、ステップS2の実行後に、ステップS31にて、タッチパネル130が、メイン領域2cに対する第2操作を検出する。この検出を契機として、ステップS32にて、制御部100は、メイン領域2cに表示されている表示内容を、表示領域2aの全体に表示する。
 また、ステップS2の実行後に、ステップS41にて、タッチパネル130が、サブ領域2dに対する第2操作を検出する。この検出を契機として、ステップS42にて、制御部100は、サブ領域2dに表示されている表示内容を、表示領域2aの全体に表示する。
 また、ステップS2の実行後に、ステップS51にて、タッチパネル130が、メイン領域2cに表示されたアプリアイコン22aに対する選択操作(例えばタップ操作)を検出する。なお、ステップS51は、ステップS2にて、制御部100がホーム画面を表示しているときに行なわれる処理である。この検出を契機として、ステップS52にて、制御部100は、選択されたアプリアイコン22aに対するアプリケーション103bを起動し、その表示画面をサブ領域2dに表示する。
 この状態で、ステップS53にて、タッチパネル130が、メイン領域2cに対する第2操作を検出する。この検出を契機として、ステップS54にて、制御部100は、サブ領域2dに表示されているアプリケーション103bを終了させるとともに、メイン領域2cに表示されている表示画面を、表示領域2aの全体に表示する。
 また、ステップS52の次に、ステップS55にて、タッチパネル130が、サブ領域2dに対する第2操作を検出すると、この検出を契機として、ステップS56にて、制御部100は、サブ領域2dに表示されている表示画面を、表示領域2aの全体に表示する。
 <その他の変形例>
 上記の例では、本願発明を携帯電話機に適用する場合を例にあげて説明したが、本願発明は、携帯電話機以外の携帯機器にも適用することができる。
 また、本発明は詳細に説明されたが、上記した説明は、すべての局面において、例示であって、本発明がそれに限定されるものではない。例示されていない無数の変形例が、本発明の範囲から外れることなく想定され得る。また、上述した各種実施の形態および変形例は、相互に矛盾しない限り組み合わせて適用可能である。そして、例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 1 携帯機器
 2a 表示領域
 2c メイン領域
 2d サブ領域
 4 機器ケース
 90 タッチセンサ
 92 傾斜センサ
 100 制御部
 103b アプリケーションプログラム
 120 表示パネル
 130 タッチパネル

Claims (20)

  1.  筐体と、
     前記筐体の前面部分に設けられる表示領域と、
     操作指による前記表示領域への操作を検出する操作検出部と、
     前記筐体に設けられ、前記筐体を保持する保持指との接触位置を検出する保持指検出部と、
     前記筐体の基準姿勢に対する傾斜角を検出する傾斜検出部と、
     前記保持指検出部および前記傾斜検出部を用いて、前記接触位置の変化と、前記筐体の傾斜角の変化との両方を検出したときに、前記接触位置から遠ざかる方向に、表示画面を平行移動させて前記表示領域に表示する制御部と
    を備える、携帯機器。
  2.  請求項1に記載の携帯機器であって、
     前記接触位置の変化が、ユーザが、前記表示領域のうち前記接触位置側の部分を操作しようとするときの前記接触位置の変化として予め定められた変化であるときに、前記制御部は、前記表示画面を平行移動させて前記表示領域に表示する、携帯機器。
  3.  請求項1に記載の携帯機器であって、
     前記制御部は、前記筐体の傾斜角の変化量が所定値以下であるときに、前記表示画面を平行移動させて前記表示領域に表示する、携帯機器。
  4.  請求項1に記載の携帯機器であって、
     前記制御部は、前記筐体の傾斜角の変化方向に基づいて、前記表示画面の平行移動の方向を判別する、携帯機器。
  5.  請求項1に記載の携帯機器であって、
     前記保持指検出部は、前記筐体の両側面部分にそれぞれ設けられており、
     前記制御部は、前記保持指検出部のうちどちらが前記保持指の動きを検出したのか、という情報に基づいて、前記表示画面の平行移動の方向を判別する、携帯機器。
  6.  請求項1に記載の携帯機器であって、
     前記保持指検出部は、前記筐体の裏面部分に設けられており、
     前記制御部は、前記接触位置の変化の方向に基づいて、前記表示画面の平行移動の方向を判別する、携帯機器。
  7.  請求項1に記載の携帯機器であって、
     前記表示画面を平行移動させて前記表示領域の一部に表示した状態で、前記保持指検出部が前記接触位置の変化を所定の操作として検出したときに、前記制御部は、前記表示画面を前記表示領域の全体に表示する、携帯機器。
  8.  請求項1に記載の携帯機器であって、
     前記制御部は、表示画面を縮小することなく平行移動して表示する、携帯機器。
  9.  筐体と、
     前記筐体の前面部分に設けられる表示領域と、
     複数のアプリケーションプログラムが記録される記憶部と、
     ユーザによる入力を検出できる検出部と、
     第1のアプリケーションプログラムを実行したときに前記表示領域に表示される第1表示画面の一部を前記表示領域の一部たるメイン領域に表示し、前記第1のアプリケーションプログラムとは異なる第2のアプリケーションプログラムを実行したときに前記表示領域に表示される第2表示画面の一部を、前記表示領域のうち前記メイン領域とは別のサブ領域に表示できる制御部と
    を備える、携帯機器。
  10.  請求項9に記載の携帯機器であって、
     前記制御部は、前記第1表示画面の前記一部が前記メイン領域に表示され、かつ、前記第2表示画面の前記一部が前記サブ領域に表示されている場合において、前記検出部がユーザによる第1入力を検出すると、前記第1表示画面の一部を前記サブ領域に表示し、前記第2表示画面の一部を前記メイン領域に表示する、携帯機器。
  11.  請求項9に記載の携帯機器であって、
     前記制御部は、前記第1表示画面の前記一部が前記メイン領域に表示され、かつ、前記第2表示画面の前記一部が前記サブ領域に表示されている場合において、前記検出部がユーザによる第1入力を検出すると、前記第1表示画面の一部を前記サブ領域に表示し、前記第1及び前記第2のアプリケーションプログラムとは異なる第3のアプリケーションプログラムを実行したときに前記表示領域に表示される第3表示画面、または、前記複数のアプリケーションプログラムをそれぞれ表す表示記号を並べて示す選択画面、の一部を、前記メイン領域に表示する、携帯機器。
  12.  請求項10に記載の携帯機器であって、
     前記検出部は前記表示領域へのユーザによる操作を検出でき、
     前記第1入力は、前記表示領域に対する第1操作である、携帯機器。
  13.  請求項9に記載の携帯機器であって、
     前記制御部は、前記第1表示画面の前記一部が前記メイン領域に表示され、かつ、前記第2表示画面の前記一部が前記サブ領域に表示されている場合において、前記検出部が第2入力を検出すると、前記第2表示画面の前記一部の表示を終了し、前記第1表示画面を前記表示領域の全体に表示する、携帯機器。
  14.  請求項13に記載の携帯機器であって、
     前記検出部は前記表示領域へのユーザによる操作を検出でき、
     前記第2入力は、前記メイン領域に対するユーザによる第2操作である、携帯機器。
  15.  請求項9に記載の携帯機器であって、
     前記制御部は、前記第1表示画面の前記一部が前記メイン領域に表示され、かつ、前記第2表示画面の前記一部が前記サブ領域に表示されている場合において、前記検出部が第3入力を検出すると、前記第1表示画面の前記一部の表示を終了し、前記第2表示画面を前記表示領域の全体に表示する、携帯機器。
  16.  請求項15に記載の携帯機器であって、
     前記検出部は前記表示領域へのユーザによる操作を検出でき、
     前記第3入力は、前記サブ領域に対するユーザによる第2操作である、携帯機器。
  17.  請求項9に記載の携帯機器であって、
     前記制御部は、前記複数のアプリケーションプログラムをそれぞれ表す表示記号を並べて示す選択画面の一部が、前記メイン領域に表示されている場合において、前記検出部が前記メイン領域における前記表示記号への操作を検出すると、操作を受けた前記表示記号に対する第4のアプリケーションプログラムを実行し、前記第4のアプリケーションプログラムによる第4表示画面の一部を前記サブ領域に表示する、携帯機器。
  18.  請求項17に記載の携帯機器であって、
     前記制御部は、前記メイン領域に前記選択画面の前記一部が表示され、かつ、前記サブ領域に、前記第4表示画面の前記一部が表示された状態から、前記選択画面を前記表示領域の全体に表示させるときに、前記第4のアプリケーションプログラムを終了させる、携帯機器。
  19.  筐体と、
     前記筐体の前面に設けられる表示領域と、
     操作指による前記表示領域への操作を検出する操作検出部と、
     前記筐体に設けられ、前記筐体を保持する保持指との接触位置を検出する保持指検出部と、
     前記筐体の基準姿勢に対する傾斜角を検出する傾斜検出部と
    を備える、携帯機器を制御する方法であって、
     前記接触位置の変化と、前記筐体の傾斜角の変化との両方を検出したときに、前記接触位置から遠ざかる方向に、表示画面を平行移動させて前記表示領域に表示する、携帯機器における制御方法。
  20.  筐体と、
     前記筐体の前面に設けられる表示領域と、
     複数のアプリケーションプログラムが記録される記憶部と、
     ユーザによる入力を検出できる検出部と
    を備える、携帯機器を制御するための制御方法であって、
     第1のアプリケーションプログラムを実行したときに前記表示領域に表示される第1表示画面の一部を前記表示領域の一部たるメイン領域に表示し、前記第1のアプリケーションプログラムとは異なる第2のアプリケーションプログラムを実行したときに前記表示領域に表示される第2表示画面の一部を、前記表示領域のうち前記メイン領域とは別のサブ領域に表示する、携帯機器における制御方法。
PCT/JP2014/064286 2013-05-29 2014-05-29 携帯機器および携帯機器における制御方法 WO2014192878A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/952,727 US20160077551A1 (en) 2013-05-29 2015-11-25 Portable apparatus and method for controlling portable apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013-113285 2013-05-29
JP2013113214A JP5993802B2 (ja) 2013-05-29 2013-05-29 携帯機器、制御プログラムおよび携帯機器における制御方法
JP2013113285A JP6047066B2 (ja) 2013-05-29 2013-05-29 携帯機器、制御プログラムおよび携帯機器における制御方法
JP2013-113214 2013-05-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/952,727 Continuation US20160077551A1 (en) 2013-05-29 2015-11-25 Portable apparatus and method for controlling portable apparatus

Publications (1)

Publication Number Publication Date
WO2014192878A1 true WO2014192878A1 (ja) 2014-12-04

Family

ID=51988901

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/064286 WO2014192878A1 (ja) 2013-05-29 2014-05-29 携帯機器および携帯機器における制御方法

Country Status (2)

Country Link
US (1) US20160077551A1 (ja)
WO (1) WO2014192878A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017157079A (ja) * 2016-03-03 2017-09-07 富士通株式会社 情報処理装置、表示制御方法、及び表示制御プログラム
JP6508122B2 (ja) * 2016-05-11 2019-05-08 京セラドキュメントソリューションズ株式会社 操作入力装置、携帯端末及び操作入力方法
US10770037B2 (en) * 2018-03-15 2020-09-08 Kyocera Document Solutions Inc. Mobile terminal device
CN108595213A (zh) * 2018-04-11 2018-09-28 广州视源电子科技股份有限公司 调节距离传感器的阈值的方法、装置和电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0575947A (ja) * 1991-09-10 1993-03-26 Sony Corp テレビジヨン受像機
JP2000330946A (ja) * 1999-05-17 2000-11-30 Casio Comput Co Ltd 機能切換装置およびそのプログラム記録媒体
JP2008027183A (ja) * 2006-07-21 2008-02-07 Sharp Corp 情報処理装置
JP2010154090A (ja) * 2008-12-24 2010-07-08 Toshiba Corp 携帯端末
JP2011141825A (ja) * 2010-01-08 2011-07-21 Sony Corp 情報処理装置およびプログラム
JP2012027581A (ja) * 2010-07-21 2012-02-09 Kddi Corp 携帯端末およびキー表示方法
JP2012058910A (ja) * 2010-09-07 2012-03-22 Nec Corp 携帯端末装置及びプログラム
WO2013035229A1 (ja) * 2011-09-05 2013-03-14 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、携帯端末制御方法及びプログラム
WO2013039198A1 (ja) * 2011-09-15 2013-03-21 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置及びその表示方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5508122B2 (ja) * 2010-04-30 2014-05-28 株式会社ソニー・コンピュータエンタテインメント プログラム、情報入力装置、及びその制御方法
US9483085B2 (en) * 2011-06-01 2016-11-01 Blackberry Limited Portable electronic device including touch-sensitive display and method of controlling same

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0575947A (ja) * 1991-09-10 1993-03-26 Sony Corp テレビジヨン受像機
JP2000330946A (ja) * 1999-05-17 2000-11-30 Casio Comput Co Ltd 機能切換装置およびそのプログラム記録媒体
JP2008027183A (ja) * 2006-07-21 2008-02-07 Sharp Corp 情報処理装置
JP2010154090A (ja) * 2008-12-24 2010-07-08 Toshiba Corp 携帯端末
JP2011141825A (ja) * 2010-01-08 2011-07-21 Sony Corp 情報処理装置およびプログラム
JP2012027581A (ja) * 2010-07-21 2012-02-09 Kddi Corp 携帯端末およびキー表示方法
JP2012058910A (ja) * 2010-09-07 2012-03-22 Nec Corp 携帯端末装置及びプログラム
WO2013035229A1 (ja) * 2011-09-05 2013-03-14 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、携帯端末制御方法及びプログラム
WO2013039198A1 (ja) * 2011-09-15 2013-03-21 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置及びその表示方法

Also Published As

Publication number Publication date
US20160077551A1 (en) 2016-03-17

Similar Documents

Publication Publication Date Title
US10073585B2 (en) Electronic device, storage medium and method for operating electronic device
JP6050784B2 (ja) 電子機器及び制御プログラム並びに電子機器の動作方法
WO2015064552A1 (ja) 電子機器および制御プログラム並びに電子機器の動作方法
WO2015115527A1 (ja) 携帯機器、およびタッチ位置補正方法
JP6120731B2 (ja) 電子機器および電子機器の制御方法
WO2014065254A1 (ja) 携帯端末装置および入力操作受け付け方法
WO2014208691A1 (ja) 携帯機器、携帯機器の制御方法
JP5854928B2 (ja) タッチ検出機能を有する電子機器、プログラムおよびタッチ検出機能を有する電子機器の制御方法
WO2014192878A1 (ja) 携帯機器および携帯機器における制御方法
JP6078375B2 (ja) 電子機器及び制御プログラム並びに電子機器の動作方法
WO2015016214A1 (ja) 携帯端末ならびに表示方向制御方法
US9417724B2 (en) Electronic apparatus
JP5993802B2 (ja) 携帯機器、制御プログラムおよび携帯機器における制御方法
JP6047066B2 (ja) 携帯機器、制御プログラムおよび携帯機器における制御方法
JP6046562B2 (ja) 携帯機器、携帯機器の制御方法およびプログラム
JP5998105B2 (ja) 携帯機器、携帯機器の制御方法およびプログラム
KR102117450B1 (ko) 디스플레이 장치 및 그 제어 방법
JP6538785B2 (ja) 電子機器、電子機器の制御方法およびプログラム
JP2012003457A (ja) 項目選択装置、項目選択方法、ならびに、プログラム
JP6321387B2 (ja) 携帯機器、携帯機器のタッチ位置検出方法およびプログラム
JP5969320B2 (ja) 携帯端末装置
JP6208082B2 (ja) 携帯電子機器、携帯電子機器の制御方法およびプログラム
JP2016181291A (ja) 装置、制御方法、ならびに制御プログラム
US20140137038A1 (en) Electronic apparatus and method of displaying a user input menu

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14803569

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14803569

Country of ref document: EP

Kind code of ref document: A1