WO2014129565A1 - 装置 - Google Patents

装置 Download PDF

Info

Publication number
WO2014129565A1
WO2014129565A1 PCT/JP2014/054090 JP2014054090W WO2014129565A1 WO 2014129565 A1 WO2014129565 A1 WO 2014129565A1 JP 2014054090 W JP2014054090 W JP 2014054090W WO 2014129565 A1 WO2014129565 A1 WO 2014129565A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
display area
panel
touch screen
mobile phone
Prior art date
Application number
PCT/JP2014/054090
Other languages
English (en)
French (fr)
Inventor
直喜 光永
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to EP14753532.2A priority Critical patent/EP2960770A4/en
Priority to US14/768,711 priority patent/US9891815B2/en
Priority to JP2015501509A priority patent/JP6121517B2/ja
Publication of WO2014129565A1 publication Critical patent/WO2014129565A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04102Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04103Manufacturing, i.e. details related to manufacturing processes specially suited for touch sensitive devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Definitions

  • the present invention relates to an apparatus having a touch screen display.
  • a device equipped with a touch screen display is known.
  • Devices that include a touch screen display include, for example, smartphones and tablets.
  • a device with a touch screen display detects a finger or stylus pen gesture via the touch screen display.
  • the device including the touch screen display operates according to the detected gesture.
  • An example of the operation according to the detected gesture is described in Patent Document 1, for example.
  • OS such as Android (registered trademark), BlackBerry (registered trademark) OS, Symbian (registered trademark) OS, iOS, Windows (registered trademark) Phone, etc. It is realized by Operating (System).
  • An object of the present invention is to provide an apparatus with improved operability.
  • An apparatus includes a housing having a first surface, a second surface, a third surface connecting the first surface and the second surface, and the third surface of the housing.
  • a touch screen disposed in the housing, and a display disposed in the housing, wherein the display includes at least one first display area for displaying on the first surface and a second display area for displaying on the second surface.
  • the display includes at least one first display area for displaying on the first surface and a second display area for displaying on the second surface.
  • the first operation is a first gesture operation from the third surface toward the first surface
  • the second operation is performed from the third surface to the second surface.
  • the second gesture operation may be performed.
  • the first operation and the second operation may be operations on the same icon on the touch screen.
  • the controller may change a call volume according to a swipe operation on the touch screen on the third surface.
  • the display may be one flexible display, and the flexible display includes the first display area and the second display area.
  • An apparatus includes a housing having a first surface, a second surface, and a third surface that connects the first surface and the second surface, and is disposed in the housing.
  • a flexible display comprising a first display area for displaying on the first surface, a second display area for displaying on the second surface, and a third display area for displaying on the third surface;
  • a posture detection unit that detects a posture; and a controller that controls display of the third display area in accordance with the posture detected by the posture detection unit.
  • the apparatus may include a proximity sensor that determines whether or not the object is close to the object, and the controller detects the posture detected by the posture detection unit in a vertical direction, and the proximity sensor When it is determined that the object is close to the object, the third display area may be controlled to display predetermined information.
  • the posture detection unit may be configured such that one of the first display area and the second display area is located above the other of the first display area and the second display area.
  • the controller may display predetermined information on the one of the first display area and the second display area located above the other.
  • An apparatus is a housing, a panel attached to the housing, and a third surface that connects the first surface, the second surface, the first surface, and the second surface.
  • a display attached to the panel, a first display area for displaying on the first surface, a second display area for displaying on the second surface, and a display on the third surface A display having a third display area; and a piezoelectric element attached to the display, wherein the panel is deformed due to deformation of the piezoelectric element, and transmits a human body vibration sound to an object in contact with the panel.
  • a device with improved operability can be provided.
  • FIG. 1 is a front view of a mobile phone.
  • FIG. 2 is a rear view of the mobile phone.
  • FIG. 3 is a top view of the mobile phone.
  • FIG. 4 is a sectional view schematically showing a IV-IV section of the mobile phone.
  • FIG. 5 is a cross-sectional view schematically showing a VV cross section of a mobile phone.
  • FIG. 6 is a block diagram of the mobile phone according to the embodiment.
  • 7A, FIG. 7B, and FIG. 7C are diagrams showing display modes in a plurality of display areas of the display.
  • 8A and 8B are diagrams showing a first example of display control in a plurality of display areas of the display.
  • 9A and 9B are diagrams illustrating a second example of display control in a plurality of display areas of the display.
  • 10A and 10B are diagrams illustrating a third example of display control in a plurality of display areas of the display.
  • 11A and 11B are diagrams showing a fourth example of display control in a plurality of display areas of the display.
  • 12A and 12B are diagrams illustrating a first example of control according to a gesture for the third display region.
  • 13A and 13B are diagrams illustrating a second example of control according to a gesture for the third display region.
  • FIG. 1 is a front view of the mobile phone 1.
  • FIG. 2 is a rear view of the mobile phone 1.
  • FIG. 3 is a top view of the mobile phone 1.
  • FIG. 4 is a cross-sectional view schematically showing a cross section IV-IV of the mobile phone 1.
  • FIG. 5 is a cross-sectional view schematically showing a VV cross section of the mobile phone 1.
  • the mobile phone 1 includes an illuminance sensor 4, a proximity sensor 5, a piezoelectric element 7, a first microphone 8 a and a second microphone 8 b, and a camera 12 on a front surface (first surface) 1 ⁇ / b> A.
  • the panel 20a and the touch screen 21 are provided.
  • the cellular phone 1 includes a camera 14, a panel 20b, and a touch screen 22 on the back surface (second surface) 1B.
  • the mobile phone 1 includes a panel 20c and a touch screen 23 on an upper surface (third surface) 1C.
  • the mobile phone 1 has a structural design in which a large display is provided on the surface of the device and microphones are provided at symmetrical positions on both ends of the casing 40 in the longitudinal direction.
  • the cellular phone 1 is almost the same when the end of the casing 40 in the longitudinal direction on the first microphone 8a side is up and the casing 40 in the longitudinal direction of the casing 40 on the second microphone 8b side. There is no difference in appearance.
  • the display 2 is a display device such as a flexible organic EL display (OELD: Organic Electro-Luminescence Display). As shown in FIG. 4, the display 2 is arranged in a folded state inside the housing 40.
  • the display 2 displays characters, images, symbols, graphics, and the like.
  • the display 2 has a first display area 2a, a second display area 2b, and a third display area 2c.
  • the display 2 can display the same information or different information on each of the first display area 2a, the second display area 2b, and the third display area 2c under the control of the controller 10 described later.
  • the display 2 controls whether information is displayed or not displayed in each of the first display area 2a, the second display area 2b, and the third display area 2c under the control of the controller 10 described later.
  • the content displayed in the first display area 2a is visible from the front 1A side via the panel 20a and the touch screen 21.
  • the content displayed in the second display area 2b is visible from the back surface 1B side through the panel 20b and the touch screen 22.
  • the content displayed in the third display area 2c is visible from the upper surface 1C side through the panel 20c and the touch screen 23.
  • the illuminance sensor 4 detects the illuminance of the ambient light of the mobile phone 1. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2, for example.
  • the proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the display 2 is brought close to the face.
  • the illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.
  • the piezoelectric element 7 expands or contracts or bends according to the electromechanical coupling coefficient of the constituent material when an electric signal (voltage corresponding to the sound signal) is applied. That is, the piezoelectric element 7 is deformed when an electric signal is applied.
  • the piezoelectric element 7 is attached to the panel 20a and used as a vibration source for vibrating the panel 20a.
  • the piezoelectric element 7 is formed using, for example, ceramic or quartz.
  • the piezoelectric element 7 may be a unimorph type, a bimorph type, or a laminated type piezoelectric element.
  • the multilayer piezoelectric element includes a multilayer bimorph element in which bimorphs are stacked (for example, 16 layers or 24 layers are stacked).
  • the multilayer piezoelectric element is composed of, for example, a multilayer structure including a plurality of dielectric layers made of PZT (lead zirconate titanate) and electrode layers disposed between the plurality of dielectric layers.
  • the unimorph type expands and contracts when an electric signal (voltage) is applied.
  • the bimorph type bends when an electric signal (voltage) is applied.
  • the first microphone 8a and the second microphone 8b are sound input units.
  • the first microphone 8 a and the second microphone 8 b convert the input sound into an electrical signal and send it to the controller 10.
  • the first microphone 8a and the second microphone 8b collect (input) voices uttered by the user during a call.
  • the camera 12 converts the captured image into an electrical signal and sends it to the controller 10.
  • the camera 12 includes, for example, an in-camera that captures an object facing the display 2 and an out-camera that captures an object facing the opposite surface of the display 2.
  • the panel 20a vibrates as the piezoelectric element 7 is deformed (stretched or bent), and transmits the vibration to the ear cartilage (auricular cartilage) or the like that the user contacts with the panel 20a.
  • the panel 20a is made of, for example, a synthetic resin such as glass or acrylic.
  • the shape of the panel 20a is, for example, a plate shape.
  • the panel 20a may be a flat plate.
  • the panel 20a may be a curved panel whose surface is smoothly curved.
  • the panel 20a may be a battery lid.
  • the battery lid is a member that is attached to the housing 40 and covers the battery.
  • the piezoelectric element 7 may be configured to vibrate corners of the housing 40 (for example, at least one of the four corners).
  • the piezoelectric element 7 may be configured to be attached to the inner surface of the corner portion of the housing 40, and further includes an intermediate member, and vibration of the piezoelectric element 7 is transmitted to the corner portion of the housing 40 via the intermediate member. It may be configured. According to this configuration, the vibrating range can be made relatively narrow, so that air conduction sound generated by the vibration is difficult to leak to the surroundings. Further, according to this configuration, for example, air conduction sound and vibration sound are transmitted to the user in a state where the user inserts the corner portion of the housing 40 into the ear canal, so that ambient noise is difficult to enter the user's ear canal. . Therefore, the quality of the sound transmitted to the user can be improved.
  • the display 2 and the piezoelectric element 7 are attached to the back surface of the panel 20a by the joining member 30 (see FIG. 5).
  • the piezoelectric element 7 is spaced from the inner surface of the housing 40 by a predetermined distance while being arranged on the back surface of the panel 20a.
  • the piezoelectric element 7 may be separated from the inner surface of the housing 40 even in a stretched or bent state. That is, the distance between the piezoelectric element 7 and the inner surface of the housing 40 is preferably larger than the maximum deformation amount of the piezoelectric element 7.
  • the piezoelectric element 7 may be attached to the panel 20a via a reinforcing member (for example, sheet metal or glass fiber reinforced resin).
  • the joining member 30 is, for example, a double-sided tape or an adhesive having thermosetting property or ultraviolet curable property.
  • the joining member 30 may be an optical elastic resin that is a colorless and transparent acrylic ultraviolet curable adhesive.
  • the piezoelectric element 7 is arranged in the vicinity of a predetermined distance from the short-side end of the panel 20a so that the longitudinal direction of the piezoelectric element 7 is parallel to the longitudinal direction of the panel 20a (see FIG. 1). ).
  • the center in the longitudinal direction of the piezoelectric element 7 is located on a straight line that passes through the center in the longitudinal direction of the panel 20a and is parallel to the short direction of the panel 20a.
  • the piezoelectric element 7 may be attached to each of the areas 7a, 7b, 7c on the back surface of the display 2, or one or two of the areas 7a, 7b, 7c. It may be attached to.
  • the display 2 to which the piezoelectric element 7 is attached is deformed in accordance with expansion / contraction or bending of the piezoelectric element 7.
  • the panel 20 to which the display 2 is attached is also deformed in accordance with the deformation of the display 2. At this time, when the user brings a part of the body (auricular cartilage) into contact with the panel 20, the panel 20 generates a vibration sound (human body vibration sound) transmitted to the user through the part of the body.
  • the piezoelectric element 7 When the piezoelectric element 7 is attached to the region 7a, vibration generated by the deformation of the piezoelectric element 7 is transmitted to the panel 20a via the display 2, and the panel 20a is deformed. Since the panel 20a has substantially the same size as the front surface of the mobile phone 1, for example, it is possible to easily generate the vibration of the panel 20 in a region larger than the user's ear.
  • the piezoelectric element 7 is attached to the region 7b, vibration generated by the deformation of the piezoelectric element 7 is transmitted to the panel 20b through the display 2, and the panel 20b is deformed.
  • the panel 20b has substantially half the size of the panel 20a, and the area of the panel 20 that vibrates due to the deformation of the piezoelectric element 7 is made smaller than when the piezoelectric element 7 is attached to the area 7a. Sound leakage can be reduced.
  • the piezoelectric element 7 is attached to the region 7c, vibration caused by the deformation of the piezoelectric element 7 is transmitted to the panel 20c via the display 2, and the panel 20c is deformed. At this time, since the vibration of the piezoelectric element 7 propagates to both the regions 7a and 7b connected to the region 7c of the display 2, the panels 20a and 20b are also deformed together.
  • the user can hear the sound by putting his / her ear on either the front surface or the back surface of the mobile phone 1.
  • the piezoelectric element 7 may be attached to the area
  • the touch screen (touch sensor) 21 is disposed so as to overlap the display 2.
  • the touch screen 21 detects contact. Based on the contact detected by the touch screen 21, the controller 10 (the mobile phone 1) uses the finger, stylus, pen, etc. (hereinafter simply referred to as “finger”) to perform various operations on the touch screen 21 ( Gesture).
  • the touch screen 21 has a touch sensor.
  • the touch sensor detects the contact of the finger on the touch screen 21 together with the position on the touch screen 21 of the touched location, and notifies the controller 10 of it.
  • the controller 10 detects a user operation (gesture) on the surface of the display 20 by cooperating with the touch screen 21.
  • Various operations (gestures) detected by the controller 10 via the touch screen 21 include, for example, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out.
  • the detection method of the touch screen 21 may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method.
  • the display 2 and the touch screen 21 are functionally separated, but may be physically integrated as a touch screen display.
  • the contact detected by the touch screen 21 includes an auricle contact with the panel 20a.
  • the touch screen 22 is disposed on the back surface 1B of the mobile phone 1. In the present embodiment, the touch screen 22 has about half the size of the touch screen 21.
  • the touch screen 23 is disposed on the upper surface 1 ⁇ / b> C of the mobile phone 1.
  • the touch screen 22 detects contact with the back surface, and the touch screen 23 detects contact with the top surface.
  • the detection result of the touch screen 22 or the touch screen 23 is used to detect a user's contact operation with a finger, a pen, a stylus pen, or the like.
  • the operation (gesture) determined based on the contact detected using the touch screen 22 or the touch screen 23 is, for example, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in , And pinch out.
  • the detection method of the touch screen 22 or the touch screen 23 may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method. .
  • the detection method of the touch screen 22 or the touch screen 23 may be different from the detection method of the touch screen 21.
  • the housing 40 is formed using resin or metal.
  • the housing 40 supports the display 2, the illuminance sensor 4, the proximity sensor 5, the first microphone 8a, the second microphone 8b, the camera 12, the panel 20a, and the like.
  • An electrical signal corresponding to the output sound is applied to the piezoelectric element 7.
  • ⁇ 15 V higher than ⁇ 5 V which is an applied voltage of a so-called panel speaker that transmits sound by air conduction sound through the ear canal, may be applied to the piezoelectric element 7.
  • the piezoelectric element 7 can vibrate sufficiently to the panel 20a. And vibration sound transmitted through a part of the user's body can be generated.
  • the voltage applied to the piezoelectric element 7 can be appropriately adjusted according to the fixing strength of the panel 20a with respect to the housing 40, the performance of the piezoelectric element 7, or the like.
  • the piezoelectric element 7 When an electric signal is applied, the piezoelectric element 7 expands or contracts or bends in the longitudinal direction.
  • the panel 20 a to which the piezoelectric element 7 is attached is deformed in accordance with expansion / contraction or bending of the piezoelectric element 7. Thereby, the panel 20a vibrates and generates air conduction sound. Further, when the user brings a part of the body (for example, auricular cartilage) into contact with the panel 20a, the panel 20a generates a vibration sound that is transmitted to the user through the part of the body. That is, as the piezoelectric element 7 is deformed, the panel 20a vibrates at a frequency that is perceived as vibration sound with respect to an object that contacts the panel 20a.
  • a part of the body for example, auricular cartilage
  • the panel 20a when an electrical signal corresponding to the voice of the other party of the call or sound data such as a ring tone or music is applied to the piezoelectric element 7, the panel 20a generates an air conduction sound and a vibration sound corresponding to the electrical signal.
  • the sound signal output via the piezoelectric element 7 and the panel 20a may be based on sound data stored in the storage 9 described later.
  • the sound signal output via the piezoelectric element 7 and the panel 20a may be based on sound data stored in an external server or the like and acquired via the network by the communication unit 6 described later.
  • the panel 20a may be approximately the same size as the user's ear.
  • the panel 20a may be larger than the user's ear. In this case, the user can bring the entire outer periphery of the ear into contact with the panel 20a when listening to the sound. Listening to the sound in this way makes it difficult for ambient sounds (noise) to enter the ear canal.
  • at least the panel 20a has a length in the longitudinal direction (or short direction) corresponding to the distance from the lower leg of the anti-annulus (lower anti-annular leg) to the anti-tragus, and the distance from the tragus.
  • a region wider than a region having a length in the short direction (or the longitudinal direction) corresponding to the distance to the ear ring vibrates.
  • the panel 20a includes a length in the longitudinal direction (or short direction) corresponding to the distance from the region near the upper leg of the ear ring (upper pair leg) in the ear ring to the earlobe, and the vicinity of the ear ring in the ear ring from the tragus.
  • a region having a length in the short direction (or the longitudinal direction) corresponding to the distance to the part may vibrate.
  • the region having the above length and width may be a rectangular region, or an elliptical shape in which the length in the longitudinal direction is the major axis and the length in the lateral direction is the minor axis. Also good.
  • the average size of the human ear can be found, for example, by referring to the Japanese human body size database (1992-1994) created by the Human Life Engineering Research Center (HQL).
  • the panel 20a vibrates not only in the attachment region 20a to which the piezoelectric element 7 is attached, but also in a region away from the attachment region 20a.
  • the panel 20a has a plurality of locations that vibrate in a direction intersecting the main surface of the panel 20a in the vibrating region, and in each of the plurality of locations, the value of the amplitude of vibration changes from positive to negative with time, Or vice versa.
  • the panel 20a vibrates at a seemingly random or regular distribution in a portion where the vibration amplitude is relatively large and a portion where the vibration amplitude is relatively small. That is, vibrations of a plurality of waves are detected over the entire panel 20a.
  • the cellular phone 1 can transmit the air conduction sound and the vibration sound through a part of the user's body (for example, auricular cartilage) to the user by the vibration of the panel 20a. Therefore, when the mobile phone 1 outputs a sound having a volume equivalent to that of a dynamic receiver, the sound transmitted to the surroundings of the mobile phone 1 due to air vibrations may be reduced compared to an electronic device having only a dynamic speaker. it can.
  • a feature is suitable, for example, when listening to a recorded message in a place where there is another person nearby, such as in a train.
  • the mobile phone 1 transmits a vibration sound to the user by the vibration of the panel 20a. Therefore, even if the user wears the earphone or the headphone, the user can hear the vibration sound caused by the vibration of the panel 20a through the earphone or the headphone and a part of the body by bringing the mobile phone 1 into contact therewith. it can.
  • the mobile phone 1 transmits sound by vibration of the panel 20a. Therefore, when the mobile phone 1 does not include a separate dynamic receiver, it is not necessary to form an opening (sound outlet) in the housing 40 for transmitting the sound generated by the panel 20a to the outside. For this reason, when realizing a waterproof structure, the structure can be simplified.
  • the cellular phone 1 closes the opening with a member that allows gas to pass but not liquid to realize a waterproof structure.
  • a structure may be adopted.
  • An example of the member that allows gas to pass but not liquid is Gore-Tex (registered trademark).
  • the mobile phone 1 may have a speaker such as a dynamic speaker, for example.
  • the combination of the piezoelectric element 7 and the panel 20a may be referred to as a vibration receiver.
  • FIG. 6 is a block diagram of the mobile phone 1 according to the embodiment.
  • the mobile phone 1 includes a display 2, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a piezoelectric element 7, a first microphone 8 a, a second microphone 8 b, and a storage 9.
  • a controller 10 a camera 12, a vibration receiver 13 including a piezoelectric element 7 and a panel 20 a, a posture detection unit 15, a vibrator 18, and a touch screen 21.
  • the communication unit 6 communicates wirelessly.
  • the communication method supported by the communication unit 6 is a wireless communication standard.
  • wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G.
  • Cellular phone communication standards include, for example, LTE (Long-Term Evolution), W-CDMA (Wideband Code Division-Multiple Access), CDMA2000, PDC (Personal Digital Digital), GSM (registered trademark), Global SM Personal Handy-phone System).
  • wireless communication standards for example, there are WiMAX (WorldwideWInteroperability for Microwave Access), IEEE802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Frequency, etc.).
  • the communication unit 6 may support one or more of the communication standards described above.
  • the storage 9 stores programs and data.
  • the storage 9 is also used as a work area for temporarily storing the processing result of the controller 10.
  • the storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium.
  • the storage 9 may include a plurality of types of storage media.
  • the storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader.
  • the storage 9 may include a storage device that is used as a temporary storage area such as a RAM (RandomoAccess Memory).
  • the program stored in the storage 9 includes an application executed in the foreground or the background and a control program that supports the operation of the application.
  • an application executed in the foreground displays a screen on the display 2.
  • the control program includes an OS, for example.
  • the application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.
  • the storage 9 stores, for example, a control program 9A, a call application 9B, a music playback application 9C, a video playback application 9D, and setting data 9Z.
  • the call application 9B provides a call function for a call by wireless communication.
  • the music playback application 9C provides a music playback function for playing back sound from music data.
  • the video playback application 9D provides a video playback function for playing back video and sound from video data.
  • the setting data 9Z includes information regarding various settings and processes related to the operation of the mobile phone 1.
  • the sound (for example, call voice) by the function provided by the call application 9B is output from the vibration receiver 13.
  • the control program 9A provides functions related to various controls for operating the mobile phone 1.
  • the control program 9A realizes a call by controlling the communication unit 6, the piezoelectric element 7, the first microphone 8a, the second microphone 8b, and the like, for example.
  • the function provided by the control program 9A may be used in combination with a function provided by another program such as the call application 9B.
  • the function provided by the control program 9A includes a function of determining which of the first microphone 8a and the second microphone 8b is used during a call.
  • the control program 9A includes a function of determining which of the first microphone 8a and the second microphone 8b to use based on the detection result by the attitude detection unit 15 during a call.
  • the controller 10 is an arithmetic processing unit.
  • the arithmetic processing device includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array).
  • the controller 10 controls various operations of the mobile phone 1 to realize various functions.
  • the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement
  • the functional units include, for example, the display 2, the communication unit 6, the piezoelectric element 7, the first microphone 8a, the second microphone 8b, and the vibrator 18, but are not limited thereto.
  • the controller 10 may change the control according to the detection result of the detection unit.
  • a detection part contains the illumination intensity sensor 4, the proximity sensor 5, the camera 12, the attitude
  • the controller 10 executes a process for determining which of the first microphone 8a and the second microphone 8b is used during a call by executing the control program 9A, for example. For example, the controller 10 determines which one of the first microphone 8a and the second microphone 8b to use based on the detection result by the posture detection unit 15 during a call.
  • the vibration receiver 13 generates, for example, an air conduction sound and a vibration sound corresponding to the call voice and transmits them to the user.
  • the posture detection unit 15 detects the posture of the mobile phone 1.
  • the posture detection unit 15 includes at least one of an acceleration sensor, a direction sensor, and a gyroscope in order to detect the posture.
  • the posture detection unit 15 measures, for example, an angle ( ⁇ ) formed by the housing 40 of the mobile phone 1 with respect to gravitational acceleration (g) based on detection results of an acceleration sensor, an orientation sensor, and a gyroscope, for example.
  • an angle formed by the housing 40 of the mobile phone 1 with respect to gravitational acceleration (g) based on detection results of an acceleration sensor, an orientation sensor, and a gyroscope, for example.
  • the vibrator 18 vibrates a part or the whole of the mobile phone 1.
  • the vibrator 18 includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration.
  • the vibration by the vibrator 18 is used to notify the user of various events such as incoming calls.
  • Non-transitory storage media include, for example, optical disks such as CD (registered trademark), DVD (registered trademark), and Blu-ray (registered trademark), magneto-optical disks, magnetic storage media, memory cards, and solid-state storage media Including, but not limited to.
  • the configuration of the mobile phone 1 shown in FIG. 6 is an example, and may be changed as appropriate without departing from the spirit of the present invention.
  • the mobile phone 1 may include buttons such as a numeric keypad layout or a QWERTY layout as buttons for operations.
  • FIG. 7 is a diagram showing display modes in a plurality of display areas of the display 2.
  • the mobile phone 1 detects whether the predetermined information is displayed in the first display area 2a, the second display area 2b, or the third display area 3c of the display 2, the detection result of the illuminance sensor 4, and the detection of the proximity sensor 5 It is possible to switch based on the result and the detection result of the posture detection unit 15. Specifically, the controller 10 detects the first display area 2a and the second display area 2 of the display 2 based on the detection result of the illuminance sensor 4, the detection result of the proximity sensor 5, and the attitude of the mobile phone 1 detected by the attitude detection unit 15. The display of each of the display area 2b and the third display area 3c is controlled.
  • the posture detection unit 15 detects that the front surface 1A or the back surface 1B of the mobile phone 1 is in the vertical direction, and the proximity sensor 5 detects that an object is close to the mobile phone 1.
  • the mobile phone 1 displays predetermined information (here, information related to date and time) in the third display area 3c.
  • predetermined information here, information related to date and time
  • the user can check information regarding the date and time without removing the mobile phone 1 from the breast pocket.
  • the mobile phone 1 detects, for example, which of the first display area 2a and the second display area 2b is positioned relatively upward by the posture detection unit 15, and based on the detection result, It is also possible to display information related to the date and time in one display area located above. That is, when the first display area 2a is positioned above the second display area 2b, the mobile phone 1 displays date and time information in the first display area 2a as shown in FIG. When the display area 2b is located above the first display area 2a, date and time information is displayed in the second display area 2b as shown in FIG. 7C.
  • the controller 10 determines what state the mobile phone 1 is based on an image captured by the camera 12 or the camera 14, and based on the determination result, which one of the display areas of the display 2 is displayed. In addition, the controller 10 may control whether the cellular phone 1 is in combination with the detection results of the illuminance sensor 4, the proximity sensor 5, and the posture detection unit 15. You may determine whether there is.
  • the mobile phone 1 is relatively lower if the user's face is detected by the camera 12.
  • Information may be displayed in the first display area 2a located in the area. Thereby, for example, when the user is operating the mobile phone 1 while lying down, information is displayed in the first display area 2a viewed by the user, so that the user does not feel inconvenience.
  • a touch sensor (not shown) may be provided on the side surface of the mobile phone 1, and the contact detection result by the touch sensor may be added to the criterion.
  • the mobile phone 1 can simultaneously display the same information or different information on each of the first display area 2a, the second display area 2b, and the third display area 2c of the display 2 under the control of the controller 10.
  • the display control of the mobile phone 1 in this case will be described with reference to FIGS.
  • FIG. 8 is a diagram showing a first example of display control in a plurality of display areas of the display 2.
  • FIG. 8A is a view of the third display region 2c provided on the upper surface 1C of the mobile phone 1 as viewed from above.
  • the upper side of the drawing is the back 1B side
  • the lower side of the drawing is the front 1A side.
  • the positional relationship between the front surface 1A and the back surface 1B in the drawing showing the third display region 3c is the same as that in FIG. 8A.
  • a mail icon composed of an envelope picture and the numeral 1 is displayed at the right end of the third display area 2c.
  • This mail icon indicates that there is one unread mail.
  • the third display area 2c is used as an indicator area. Then, the user flicks the mail icon displayed in the third display area 2c with a finger in the direction toward the front surface 1A (the direction of the arrow in the figure) starting from the upper surface 1C.
  • FIG. 8B is a diagram showing a transition of the screen displayed in the first display area 2a before and after flicking the mail icon as shown in FIG. 8A.
  • the home screen is displayed in the first display area 2a as shown in the left diagram of FIG. 8B.
  • the flick is performed, as shown in the right diagram of FIG. 8B, the contents of the unread mail are displayed in the first display area 2a.
  • the controller 10 of the mobile phone 1 displays a home screen in the first display area 2a. Then, the controller 10 detects a flick in the direction from the top surface 1C toward the front surface 1A with respect to the mail icon displayed in the third display area 2c via the touch screen 23 provided on the top surface 1C of the mobile phone 1. When the controller 10 detects a flick of the mail icon in the direction from the top surface 1C to the front surface 1A, the controller 10 displays the content of the unread mail that is information corresponding to the mail icon in the first display area 2a on the front surface 1A side of the mobile phone 1. indicate.
  • FIG. 9 is a diagram illustrating a second example of display control in a plurality of display areas of the display 2.
  • a mail icon indicating that there is one unread mail is displayed in the third display area 2c, as in FIG. 8A.
  • the user flicks the mail icon displayed in the third display area 2c with the finger in the direction (the direction of the arrow in the figure) from the top surface 1C toward the back surface 1B.
  • the flick direction shown in FIG. 9A is opposite to the flick direction shown in FIG. 8A.
  • FIG. 9B is a diagram showing a transition of the screen displayed in the second display area 2b before and after flicking the mail icon as shown in FIG. 9A. Before the flick is performed, nothing is displayed in the second display area 2b as shown in the left diagram of FIG. 9B. Then, when the flick is performed, as shown in the right diagram of FIG. 9B, the contents of the unread mail are displayed in the second display area 2b.
  • the controller 10 of the cellular phone 1 detects a flick in the direction from the top surface 1C to the back surface 1B for the mail icon displayed in the third display area 2c via the touch screen 23 provided on the top surface 1C of the cellular phone 1. To do.
  • the controller 10 detects a flick of the mail icon in the direction from the top surface 1C to the back surface 1B, the controller 10 displays the content of the unread mail that is information corresponding to the mail icon in the second display area 2b on the back surface 1B side of the mobile phone 1. indicate.
  • the area of the second display area 2b is smaller than that of the first display area 2a. Therefore, when displaying the contents of the unread mail in the second display area 2b, the controller 10 may reduce the size of the characters so that all the contents of the unread mail are displayed in the second display area 2b.
  • FIG. 10 is a diagram illustrating a third example of display control in a plurality of display areas of the display 2.
  • a mail icon indicating that there is one unread mail is displayed at the right end of the third display area 2c, as in FIG. 8A.
  • a game icon that is an icon associated with the game application and is in the shape of the alphabet G is displayed.
  • an icon that is associated with the search application and that looks like a magnifying glass is displayed.
  • the user flicks the game icon displayed in the third display area 2c with the finger in the direction from the top surface 1C to the front surface 1A. Further, another user or the same user flicks the mail icon displayed in the third display area 2c in the direction from the top surface 1C to the back surface 1B with a finger.
  • the screen control of the controller 10 in FIG. 10 is the same as the first example shown in FIG. 8 and the second example shown in FIG. However, the separate flicks in FIG. 10A may occur almost simultaneously.
  • the controller 10 gives priority to the flick in the direction from the top surface 1C toward the front surface 1A, and displays the game screen in the first display area 2a. After that, an unread mail screen may be displayed in the second display area 2b.
  • FIG. 11 is a diagram illustrating a fourth example of display control in a plurality of display areas of the display 2.
  • a camera icon corresponding to the camera application is displayed at the right end of the third display area 2c.
  • the camera finder screen is displayed in the first display area 2a.
  • the camera viewfinder screen is displayed in the second display area 2b.
  • the mobile phone 1 Since the mobile phone 1 according to the present embodiment includes the camera 12 on the front surface 1A and the camera 13 on the back surface 1B, the image is captured by the camera 13 in the state illustrated in FIG. 11A and is captured by the camera 12 in the state illustrated in FIG. 11B. .
  • the mobile phone 1 can use both the first display area 2a and the second display area 2b as a camera finder. Therefore, when the first display area 2a is used as a camera finder as shown in FIG. 11A, when a user tap is detected via the touch screen 22 on the back surface 1B side, the mobile phone 1 takes a picture. You can go.
  • the mobile phone 1 uses the second display area 2b as a camera finder as shown in FIG. 11B, when a user tap is detected via the touch screen 21 on the front 1A side, You may take a picture.
  • the user when the user is holding the mobile phone 1 with one hand, the user can tap the touch screen 21 or the touch screen 22 with the finger of the holding hand without using the other hand. Shooting can be performed, improving usability.
  • the camera 14 is adjacent to the panel 20b (and the second display area 2b) on the back surface 1B and is provided near the center of the back surface 1B in the longitudinal direction.
  • the camera 14 is positioned in front of his / her face and becomes a finder. Since the second display area 2b can be viewed for shooting, the usability is further improved.
  • FIG. 12 is a diagram illustrating a first example of control according to a gesture with respect to the third display area 2c.
  • FIG. 12B shows a state where the user is making a call using the telephone application.
  • the user performs a swipe in the direction from left to right with respect to the third display area 2c.
  • the controller 10 of the mobile phone 1 detects a swipe in the direction from left to right with respect to the third display area 2c via the touch screen 23
  • the call volume is relatively increased.
  • the controller 10 detects a swipe in the direction from right to left with respect to the third display area 2c via the touch screen 23
  • the controller 10 relatively reduces the call volume.
  • FIG. 13 is a diagram illustrating a second example of control according to a gesture for the third display region 2c.
  • the mobile phone 1 In the state shown in FIG. 13A, the mobile phone 1 is in a locked state.
  • An unlock icon is displayed at the center of the third display area 2c.
  • the user flicks the unlock icon displayed in the third display area 2c with the finger in the direction toward the front surface 1A starting from the upper surface 1C.
  • the controller 10 of the cellular phone 1 detects a flick in the direction toward the front surface 1A starting from the upper surface 1C with respect to the unlock icon, the controller 10 unlocks the cellular phone 1A and displays the home screen in the first display area 2a on the front surface 1A side. Display.
  • the mobile phone 1 includes the touch screen 23 on the upper surface 1B that connects the front surface 1A and the back surface 1B of the mobile phone, and the upper surface 1C to the front surface 1A via the touch screen 23.
  • a flick first gesture
  • a screen corresponding to the flick is displayed in the first display area 2a on the front 1A side
  • a flick second gesture
  • the screen corresponding to the flick is displayed in the second display area 2b on the back surface 1B side, so that the usability of the mobile phone 1 is improved.
  • the mobile phone 1 controls the display of the third display area 2c according to the attitude of the mobile phone 1. Thereby, the effective utilization of the 3rd display area 2c provided in the upper surface 1C of the housing
  • the indicator area is displayed in the first display area 2a.
  • the third display area 2c provided on the upper surface 1C of the mobile phone 1 is the indicator area. Therefore, the first display area 2a can be effectively used.
  • a mobile phone has been described as an example of a device according to the appended claims.
  • the device according to the appended claims is not limited to a mobile phone.
  • the device according to the appended claims may be an electronic device other than a mobile phone. Examples of the electronic device include, but are not limited to, a tablet, a portable personal computer, a digital camera, a media player, an electronic book reader, a navigator, and a game machine.
  • the display 2 is a flexible organic EL display, and the configuration including the first display area 2a, the second display area 2b, and the third display area 2c has been described as an example. It is not limited to.
  • the mobile phone 1 may be configured to include separate displays (display units) and touch screens on the front surface 1A, the back surface 1B, and the top surface 1C, respectively.
  • the touch screen 21, the touch screen 22, and the touch screen 23 are respectively arranged corresponding to the first display area 2a, the second display area 2b, and the third display area 2c. It is not limited to this.
  • the mobile phone 1 may not include the touch screen 21 disposed on the front surface 1A and the touch screen 22 disposed on the back surface 1B, or may be disposed on the upper surface 1C.
  • the third display area 2c to be provided may not be provided.

Abstract

 第1面と、第2面と、当該第1面及び当該第2面とをつなぐ第3面とを有する筺体と、前記筐体の前記第3面に配置されるタッチスクリーンと、前記筐体内に配置されるディスプレイであって、前記第1面で表示を行う第1表示領域及び前記第2面で表示を行う第2表示領域を有する少なくともひとつのディスプレイと、前記第3面の前記タッチスクリーンで第1操作が検出されると、当該第1操作に応じた画面を前記第1表示領域に表示し、前記第3面の前記タッチスクリーンで、前記第1操作と異なる第2操作が検出されると、当該第2操作に応じた画面を前記第2表示領域に表示するコントローラと、を備える装置。

Description

装置
 本発明は、タッチスクリーンディスプレイを有する装置に関する。
 タッチスクリーンディスプレイを備える装置が知られている。タッチスクリーンディスプレイを備える装置には、例えば、スマートフォン及びタブレットが含まれる。タッチスクリーンディスプレイを備える装置は、タッチスクリーンディスプレイを介して指又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンディスプレイを備える装置は、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。
 タッチスクリーンディスプレイを備える装置の基本的な動作は、装置に搭載されるAndroid(登録商標)、BlackBerry(登録商標) OS、Symbian(登録商標) OS、iOS、Windows(登録商標) Phone等のOS(Operating System)によって実現される。
国際公開第2008/086302号
 ところで、上記の装置では、操作性の向上が求められていた。
 本発明は、操作性が向上された装置を提供することを目的とする。
 本発明の一態様に係る装置は、第1面と、第2面と、当該第1面及び当該第2面とをつなぐ第3面とを有する筐体と、前記筐体の前記第3面に配置されるタッチスクリーンと、前記筐体内に配置されるディスプレイであって、前記第1面で表示を行う第1表示領域及び前記第2面で表示を行う第2表示領域を有する少なくともひとつのディスプレイと、前記第3面の前記タッチスクリーンで第1操作が検出されると、当該第1操作に応じた画面を前記第1表示領域に表示し、前記第3面の前記タッチスクリーンで、前記第1操作と異なる第2操作が検出されると、当該第2操作に応じた画面を前記第2表示領域に表示するコントローラと、を備える。
 上記の一態様に係る装置において、前記第1操作は、前記第3面から前記第1面に向かう第1ジェスチャ操作であって、前記第2操作は、前記第3面から前記第2面に向かう第2ジェスチャ操作であってもよい。
 上記の一態様に係る装置において、前記第1操作と第2操作は、前記タッチスクリーン上の同一のアイコンへの操作であってもよい。
 上記の一態様に係る装置において、前記コントローラは、前記第3面の前記タッチスクリーンでのスワイプ操作に応じて、通話音量を変更してもよい。
 上記の一態様に係る装置において、前記ディスプレイは、1つの可撓性ディスプレイであってもよく、前記可撓性ディスプレイは、前記第1表示領域と第2の表示領域を備える。
 本発明の一態様に係る装置は、第1面と、第2面と、当該第1面及び当該第2面とをつなぐ第3面とを有する筐体と、前記筐体内に配置される可撓性ディスプレイであって、前記第1面で表示を行う第1表示領域、前記第2面で表示を行う第2表示領域及び前記第3面で表示を行う第3表示領域を有するディスプレイと、姿勢を検出する姿勢検出部と、前記姿勢検出部よって検出された姿勢に応じて前記第3表示領域の表示を制御するコントローラと、を備える。
 上記の一態様に係る装置は、物体に近接しているかを判断する近接センサを備えてもよく、前記コントローラは、前記姿勢検出部よって検出された姿勢が鉛直方向であり、かつ前記近接センサが物体に近接していると判断した場合、所定の情報を表示するよう前記第3表示領域を制御してもよい。
 上記の一態様に係る装置において、前記姿勢検出部は、前記第1表示領域と前記第2表示領域のいずれか一方が前記第1表示領域と前記第2表示領域の他方より上方に位置するか検出してもよく、前記コントローラは、他方より上方に位置する、前記第1表示領域と前記第2表示領域の前記一方に、所定の情報を表示してもよい。
 本発明の一態様に係る装置は、筐体と、前記筐体に取り付けられるパネルであって、第1面と、第2面と、当該第1面及び当該第2面とをつなぐ第3面とを有するパネルと、前記パネルに取り付けられるディスプレイであって、前記第1面で表示を行う第1表示領域、前記第2面で表示を行う第2表示領域及び前記第3面で表示を行う第3表示領域を有するディスプレイと、前記ディスプレイに取り付けられる圧電素子と、を備え、前記パネルは、前記圧電素子の変形に起因して変形し、当該パネルに接触する対象物に人体振動音を伝える。
 本発明によれば、操作性が向上された装置を提供することができる。
図1は携帯電話の正面図である。 図2は携帯電話の背面図である。 図3は携帯電話の上面図である。 図4は携帯電話のIV-IV断面を模式的に示す断面図である。 図5は携帯電話のV-V断面を模式的に示す断面図である。 図6は実施形態に係る携帯電話のブロック図である。 図7A, 図7B,図7Cはディスプレイの複数の表示領域における表示態様を示す図である。 図8A,図8Bはディスプレイの複数の表示領域における表示制御の第1の例を示す図である。 図9A,図9Bはディスプレイの複数の表示領域における表示制御の第2の例を示す図である。 図10A,図10Bはディスプレイの複数の表示領域における表示制御の第3の例を示す図である。 図11A,図11Bはディスプレイの複数の表示領域における表示制御の第4の例を示す図である。 図12A,図12Bは第3表示領域に対するジェスチャに応じた制御の第1の例を示す図である。 図13A,図13Bは第3表示領域に対するジェスチャに応じた制御の第2の例を示す図である。
 本出願に係る装置を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、1つの実施形態に係る装置の例として、携帯電話について説明する。
 図1乃至図5を参照しながら、実施形態に係る携帯電話1の全体的な構成について説明する。図1は、携帯電話1の正面図である。図2は、携帯電話1の背面図である。図3は、携帯電話1の上面図である。図4は、携帯電話1のIV-IV断面を模式的に示す断面図である。図5は、携帯電話1のV-V断面を模式的に示す断面図である。
 図1に示すように、携帯電話1は、正面(第1面)1Aに、照度センサ4と、近接センサ5と、圧電素子7と、第1マイク8a及び第2マイク8bと、カメラ12と、パネル20aと、タッチスクリーン21とを備える。
 図2に示すように、携帯電話1は、背面(第2面)1Bに、カメラ14と、パネル20bと、タッチスクリーン22とを備える。
 図3に示すように、携帯電話1は、上面(第3面)1Cに、パネル20cと、タッチスクリーン23とを備える。
 図2に示すように、携帯電話1は、機器表面に大型のディスプレイを配設し、筐体40の長手方向の両端部の対称な位置にマイクを有する構造上のデザインを有する。携帯電話1は、筐体40の長手方向の第1マイク8a側の端部を上にした場合と筐体40の長手方向の第2マイク8b側の端部を上にした場合とで、ほぼ外観上の差異がない。
 ディスプレイ2は、例えば、可撓性を有する有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)等の表示デバイスである。図4に示すように、ディスプレイ2は、筐体40の内部に折り曲げられた状態で配置される。ディスプレイ2は、文字、画像、記号、及び図形等を表示する。ディスプレイ2は、第1表示領域2a、第2表示領域2b及び第3表示領域2cを有する。ディスプレイ2は、後述するコントローラ10の制御により、第1表示領域2a、第2表示領域2b及び第3表示領域2cの各々に同じ情報或いは異なる情報を表示可能である。ディスプレイ2は、後述するコントローラ10の制御により、第1表示領域2a、第2表示領域2b及び第3表示領域2cの各々に情報を表示するか表示しないかが制御される。第1表示領域2aに表示された内容は、パネル20a及びタッチスクリーン21を介して正面1A側から視認可能である。第2表示領域2bに表示された内容は、パネル20b及びタッチスクリーン22を介して背面1B側から視認可能である。第3表示領域2cに表示された内容は、パネル20c及びタッチスクリーン23を介して上面1C側から視認可能である。
 照度センサ4は、携帯電話1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2の輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2が顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
 圧電素子7は、電気信号(音信号に応じた電圧)が印加されると、構成材料の電気機械結合係数に従い伸縮又は屈曲する。すなわち、圧電素子7は、電気信号が印加されると変形する。圧電素子7は、パネル20aに取り付けられ、パネル20aを振動させるための振動源として用いられる。圧電素子7は、例えば、セラミック又は水晶を用いて形成される。圧電素子7は、ユニモルフ型、バイモルフ型、又は積層型圧電素子であってよい。積層型圧電素子には、バイモルフを積層した(例えば16層又は24層積層した)積層型バイモルフ素子が含まれる。積層型の圧電素子は、例えば、PZT(チタン酸ジルコン酸鉛)からなる複数の誘電体層と、該複数の誘電体層間に配設された電極層との積層構造体から構成される。ユニモルフ型は、電気信号(電圧)が印加されると伸縮する。バイモルフ型は、電気信号(電圧)が印加されると屈曲する。
 第1マイク8aおよび第2マイク8bは、音入力部である。第1マイク8aおよび第2マイク8bは、入力される音を電気信号へ変換してコントローラ10へ送る。第1マイク8aおよび第2マイク8bは、例えば、通話時に、ユーザから発せられる音声を集音(入力)する。
 カメラ12は、撮影した画像を電気信号へ変換してコントローラ10へ送る。カメラ12には、例えば、ディスプレイ2に面している物体を撮影するインカメラ、ディスプレイ2の反対側の面に面している物体を撮影するアウトカメラが含まれる。
 パネル20aは、圧電素子7の変形(伸縮又は屈曲)にともなって振動し、利用者がパネル20aに接触させる耳の軟骨(耳介軟骨)等にその振動を伝える。パネル20aは、例えば、ガラス、又はアクリル等の合成樹脂により形成される。パネル20aの形状は、例えば、板状である。パネル20aは、平板であってよい。パネル20aは、表面が滑らかに湾曲する曲面パネルであってもよい。パネル20aは、バッテリリッドであってもよい。バッテリリッドは、筐体40に取り付けられ、バッテリを覆う部材である。圧電素子7が筐体40の角部(例えば四隅の少なくとも一か所)を振動させる構成であっても良い。この場合、圧電素子7は、筐体40の角部の内面に取り付けられる構成でもよいし、中間部材をさらに備え、圧電素子7の振動が中間部材を介して筐体40の角部に伝達される構成でもよい。この構成によれば、振動する範囲を比較的狭くできるため、振動により発生する気導音が周囲に漏れにくい。また、この構成によれば、例えば利用者が筐体40の角部を外耳道に挿入した状態で気導音と振動音とが利用者に伝わるため、周囲のノイズが利用者の外耳道に入りにくい。そのため、利用者に伝わる音の品質を向上することができる。
 パネル20aの背面には、接合部材30により、ディスプレイ2と、圧電素子7とが取り付けられる(図5参照)。圧電素子7は、パネル20aの背面に配置された状態で、筐体40の内表面と所定の距離だけ離間している。圧電素子7は、伸縮または屈曲した状態でも、筐体40の内表面と離間しているとよい。すなわち、圧電素子7と筐体40の内表面との間の距離は、圧電素子7の最大変形量よりも大きいとよい。圧電素子7は、補強部材(例えば、板金又はガラス繊維強化樹脂)を介してパネル20aに取り付けられてもよい。接合部材30は、例えば、両面テープ、又は熱硬化性あるいは紫外線硬化性等を有する接着剤である。接合部材30は、無色透明のアクリル系紫外線硬化型接着剤である光学弾性樹脂でもよい。
 圧電素子7は、パネル20aの短手方向の端部から所定の距離だけ離間した近傍に、圧電素子7の長手方向がパネル20aの長手方向と平行になるように配設される(図1参照)。圧電素子7の長手方向の中心は、パネル20aの長手方向における中心を通りパネル20aの短手方向に平行な直線上に位置する。
 なお、本実施例において、圧電素子7は、ディスプレイ2の裏面の領域7a、7b、7cの其々に取り付けられていても良く、或いは、領域7a、7b、7cの内の1箇所或いは2箇所に取り付けられていても良い。圧電素子7が取り付けられたディスプレイ2は、圧電素子7の伸縮または屈曲に合わせて変形する。また、ディスプレイ2が取り付けられたパネル20も、ディスプレイ2の変形に合わせて変形する。このとき、利用者が体の一部(耳介軟骨)をパネル20に接触させると、パネル20は、体の一部を介して利用者に伝導する振動音(人体振動音)を発生させる。圧電素子7が領域7aに取り付けられている場合、圧電素子7の変形により生じる振動がディスプレイ2を介してパネル20aに伝わり、該パネル20aが変形する。パネル20aは、携帯電話1の正面と略同じ大きさを有しているため、例えば、利用者の耳よりも大きな領域においてパネル20の振動を発生させることが容易にできる。圧電素子7が領域7bに取り付けられている場合、圧電素子7の変形により生じる振動がディスプレイ2を介してパネル20bに伝わり、該パネル20bが変形する。パネル20bは、パネル20aの略半分の大きさを有しており、圧電素子7を領域7aに取り付ける場合と比較して、圧電素子7の変形に起因して振動するパネル20の領域を小さくすることができ、音漏れを低減することができる。圧電素子7が領域7cに取り付けられている場合、圧電素子7の変形により生じる振動がディスプレイ2を介してパネル20cに伝わり、該パネル20cが変形する。このとき、ディスプレイ2の領域7cとつながる領域7a、7bの双方にも、圧電素子7の振動が伝搬するため、パネル20a、20bも併せて変形する。従って、利用者は、携帯電話1の正面と背面の何れの面に耳を当てることによっても、音を聞くことができる。また、圧電素子7は、パネル20b、20cの背面における、ディスプレイ2が取り付けられていない領域に取り付けられていても良い。
 タッチスクリーン(タッチセンサ)21は、ディスプレイ2に重ねて配設される。タッチスクリーン21は、接触を検出する。コントローラ10(携帯電話1)は、タッチスクリーン21によって検出される接触に基づいて、指、スタイラス、ペン等(以下、単に「指」という)を用いてタッチスクリーン21に対して行われる各種操作(ジェスチャ)を検出する。例えば、タッチスクリーン21は、タッチセンサを有する。タッチセンサは、タッチスクリーン21への指の接触を、接触された場所のタッチスクリーン21上での位置とともに検出し、コントローラ10に通知する。コントローラ10は、タッチスクリーン21と協働することによって、ディスプレイ20の表面におけるユーザの操作(ジェスチャ)を検出する。コントローラ10が、タッチスクリーン21を介して検出する各種操作(ジェスチャ)には、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトが含まれるがこれらに限定されない。タッチスクリーン21の検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。図1に示すように、ディスプレイ2と、タッチスクリーン21とは機能的には分離したものであるが、物理的にはタッチスクリーンディスプレイとして統合されていてよい。
 タッチスクリーン21により検出される接触には、パネル20aに対する耳介の接触等が含まれる。
 タッチスクリーン22は、携帯電話1の背面1Bに配設される。本実施形態において、タッチスクリーン22は、タッチスクリーン21の約半分の大きさを有する。タッチスクリーン23は、携帯電話1の上面1Cに配設される。
 タッチスクリーン22は、背面に対する接触を検出し、タッチスクリーン23は上面に対する接触を検出する。タッチスクリーン22又はタッチスクリーン23の検出結果は、指、ペン、又はスタイラスペン等による利用者の接触操作を検出するために用いられる。タッチスクリーン22又はタッチスクリーン23を用いて検出される接触に基づいて判定される操作(ジェスチャ)は、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。タッチスクリーン22又はタッチスクリーン23の検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。タッチスクリーン22又はタッチスクリーン23の検出方式は、タッチスクリーン21の検出方式と異なってもよい。
 筐体40は、樹脂又は金属を用いて形成される。筐体40は、ディスプレイ2、照度センサ4、近接センサ5、第1マイク8a、第2マイク8b、カメラ12、およびパネル20a等を支持する。
 圧電素子7には、出力する音に応じた電気信号が印加される。圧電素子7には、例えば、外耳道を介する気導音によって音を伝える所謂パネルスピーカの印加電圧である±5Vよりも高い、±15Vが印加されてもよい。これにより、利用者が、例えば、3N以上の力(5N~10Nの力)でパネル20aに自身の体の一部を押し付けた場合であっても、圧電素子7は、パネル20aに十分な振動を発生させ、利用者の体の一部を介して伝わる振動音を発生させることができる。圧電素子7に印加される電圧は、パネル20aの筐体40に対する固定強度、又は圧電素子7の性能等に応じて適宜調整可能である。
 電気信号が印加されると、圧電素子7は長手方向に伸縮又は屈曲する。圧電素子7が取り付けられたパネル20aは、圧電素子7の伸縮又は屈曲に合わせて変形する。これにより、パネル20aは、振動し、気導音を発生させる。さらに、利用者が体の一部(例えば、耳介軟骨)をパネル20aに接触させた場合、パネル20aは、体の一部を介して利用者に伝導する振動音を発生させる。すなわち、パネル20aは、圧電素子7の変形にともなって、パネル20aに接触する物体に対して振動音として知覚される周波数で振動する。
 例えば、圧電素子7に、通話の相手の音声、又は着信音、音楽等の音データに応じた電気信号が印加されると、パネル20aは、電気信号に対応する気導音及び振動音を発生させる。圧電素子7及びパネル20aを介して出力される音信号は、後述するストレージ9に記憶されている音データに基づくものであってよい。圧電素子7及びパネル20aを介して出力される音信号は、外部のサーバ等に記憶され、後述する通信ユニット6によりネットワークを介して取得される音データに基づくものであってもよい。
 本実施形態において、パネル20aは、利用者の耳とほぼ同じ大きさであってよい。また、パネル20aは、利用者の耳よりも大きなサイズであってもよい。この場合、利用者は、音を聞くときに耳の外周部のほぼ全体をパネル20aに接触させることができる。このようにして音を聞くことにより、周囲音(ノイズ)が外耳道に入り難くなる。本実施形態では、少なくとも、パネル20aは、人間の対耳輪下脚(下対輪脚)から対耳珠までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から対耳輪までの間の距離に相当する短手方向(又は長手方向)の長さとを有する領域よりも広い領域が振動する。パネル20aは、耳輪における対耳輪上脚(上対輪脚)近傍の部位から耳垂までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から耳輪における対耳輪近傍の部位までの間の距離に相当する短手方向(又は長手方向)の長さを有する領域が振動してもよい。上記の長さおよび幅を有する領域は、長方形状の領域であってもよいし、上記の長手方向の長さを長径、上記の短手方向の長さを短径とする楕円形状であってもよい。人間の耳の平均的な大きさは、例えば、社団法人 人間生活工学研究センター(HQL)作成の日本人の人体寸法データベース(1992-1994)等を参照すれば知ることができる。
 パネル20aは、圧電素子7が取り付けられた取付領域20aだけでなく、取付領域20aから離れた領域も振動する。パネル20aは、振動する領域において、当該パネル20aの主面と交差する方向に振動する箇所を複数有し、当該複数の箇所の各々において、振動の振幅の値が、時間とともにプラスからマイナスに、あるいはその逆に変化する。パネル20aは、それぞれの瞬間において、振動の振幅が相対的に大きい部分と振動の振幅が相対的に小さい部分とがパネル20aの略全体に一見ランダム又は規則的に分布した振動をする。すなわち、パネル20a全域にわたって、複数の波の振動が検出される。上記のように圧電素子7に対して印加される電圧が±15Vであれば、利用者が例えば5N~10Nの力で自身の体にパネル20aを押し付けた場合であっても、パネル20aの上述した振動は減衰しにくい。このため、利用者は、パネル20a上の取付領域20aから離れた領域に耳を接触させても、振動音を聞くことができる。
 携帯電話1は、パネル20aの振動により、気導音と、利用者の体の一部(例えば耳介軟骨)を介する振動音とを利用者に伝えることができる。そのため、携帯電話1は、ダイナミックレシーバと同等の音量の音を出力する場合、空気の振動により携帯電話1の周囲へ伝わる音を、ダイナミックスピーカのみを有する電子機器と比較して、少なくすることができる。このような特徴は、例えば、録音されたメッセージを電車内のような近くに他人がいる場所で聞く場合等に好適である。
 さらに、携帯電話1は、パネル20aの振動により利用者に振動音を伝える。そのため、利用者は、イヤホン又はヘッドホンを身につけていても、それらに携帯電話1を接触させることで、イヤホン又はヘッドホン及び体の一部を介して、パネル20aの振動による振動音を聞くことができる。
 さらに、携帯電話1は、パネル20aの振動により音を伝える。そのため、携帯電話1が別途ダイナミックレシーバを備えない場合、パネル20aが発する音を外部に伝えるための開口部(放音口)を筐体40に形成する必要がない。このため、防水構造を実現する場合に、構造を簡略化することができる。携帯電話1は、ダイナミックスピーカの放音口等の開口部を筐体40に形成する必要がある場合、防水構造を実現するために、気体は通すが液体は通さない部材によって開口部を閉塞する構造を採用してもよい。気体は通すが液体は通さない部材は、例えば、ゴアテックス(登録商標)である。
 携帯電話1は、例えば、ダイナミックスピーカなどのスピーカを有してもよい。
 以下の説明では、圧電素子7及びパネル20aの組み合わせを振動レシーバと呼ぶことがある。
 図6を参照しながら、携帯電話1の機能的な構成について説明する。図6は、実施形態に係る携帯電話1のブロック図である。図6に示すように、携帯電話1は、ディスプレイ2と、照度センサ4と、近接センサ5と、通信ユニット6と、圧電素子7と、第1マイク8aと、第2マイク8bと、ストレージ9と、コントローラ10と、カメラ12と、圧電素子7及びパネル20aを含む振動レシーバ13と、姿勢検出ユニット15と、バイブレータ18と、タッチスクリーン21とを備える。
 通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband CodeDivision Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
 ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。フォアグランドで実行されるアプリケーションは、例えば、ディスプレイ2に画面が表示される。制御プログラムには、例えば、OSが含まれる。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
 ストレージ9は、例えば、制御プログラム9A、通話アプリケーション9B、音楽再生アプリケーション9C、動画再生アプリケーション9D、及び設定データ9Zを記憶する。通話アプリケーション9Bは、無線通信による通話のための通話機能を提供する。音楽再生アプリケーション9Cは、音楽データから音を再生するための音楽再生機能を提供する。動画再生アプリケーション9Dは、動画データから動画及び音を再生するための動画再生機能を提供する。設定データ9Zは、携帯電話1の動作に関連する各種の設定及び処理に関する情報を含む。
 通話アプリケーション9Bが提供する機能による音(例えば、通話音声)は、振動レシーバ13から出力される。
 制御プログラム9Aは、携帯電話1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、圧電素子7、第1マイク8a及び第2マイク8b等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能は、通話アプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
 制御プログラム9Aが提供する機能には、通話時に、第1マイク8a及び第2マイク8bのいずれを使用するかを決定する機能が含まれる。例えば、制御プログラム9Aは、通話時に、姿勢検出ユニット15による検出結果に基づいて、第1マイク8a及び第2マイク8bのいずれを使用するかを決定する機能が含まれる。
 コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、及びFPGA(Field-Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、携帯電話1の動作を統括的に制御して各種の機能を実現する。
 具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2、通信ユニット6、圧電素子7、第1マイク8a、第2マイク8b及びバイブレータ18を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、照度センサ4、近接センサ5、カメラ12、姿勢検出ユニット15及びタッチスクリーン21を含むが、これらに限定されない。
 コントローラ10は、例えば、制御プログラム9Aを実行することにより、通話時に、第1マイク8a及び第2マイク8bのいずれを使用するかを決定する処理を実行する。例えば、コントローラ10は、通話時に、姿勢検出ユニット15による検出結果に基づいて、第1マイク8a及び第2マイク8bのいずれを使用するかを決定する。
 振動レシーバ13は、例えば、通話音声に対応する気導音と振動音を発生させ、ユーザに伝達する。
 姿勢検出ユニット15は、携帯電話1の姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。姿勢検出ユニット15は、例えば、加速度センサ、方位センサ、及びジャイロスコープの検出結果に基づいて、例えば、重力加速度(g)に対して携帯電話1の筐体40がなす角度(θ)を計測し、コントローラ10に送る。
 バイブレータ18は、携帯電話1の一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータを有する。バイブレータ18による振動は、着信等の各種のイベントを利用者に報知するために用いられる。
 図6においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu-ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。
 図6に示した携帯電話1の構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、携帯電話1は、操作のためのボタンとして、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。
 <表示制御>
図7から図13を参照しながら、携帯電話1の表示動作について説明する。図7は、ディスプレイ2の複数の表示領域における表示態様を示す図である。
 携帯電話1は、所定の情報を、ディスプレイ2の第1表示領域2a、第2表示領域2b及び第3表示領域3cのいずれに表示するかを、照度センサ4の検出結果、近接センサ5の検出結果及び姿勢検出ユニット15の検出結果に基づいて切り替えることが可能である。具体的には、コントローラ10は、照度センサ4の検出結果、近接センサ5の検出結果及び姿勢検出ユニット15が検出した携帯電話1の姿勢に基づいて、ディスプレイ2の第1表示領域2a、第2表示領域2b及び第3表示領域3cの各々の表示を制御する。
 例えば、姿勢検出ユニット15により携帯電話1の正面1A又は背面1Bが鉛直方向に沿うような姿勢であることが検出され、かつ近接センサ5により携帯電話1に物体が近接していることが検出された場合には、図7Aに示すように、携帯電話1は、所定の情報(ここでは日時に関する情報)を第3表示領域3cに表示する。この制御により、例えばユーザが直立した状態で携帯電話1を胸ポケットに入れているような場合に、ユーザは、携帯電話1を胸ポケットから取り出すことなく日時に関する情報を確認することができる。
 また、携帯電話1は、例えば、姿勢検出ユニット15により、第1表示領域2a及び第2表示領域2bのいずれが相対的に上方に位置するかを検出し、当該検出結果に基づいて、相対的に上方に位置する一方の表示領域に日時に関する情報を表示させることもできる。すなわち、第1表示領域2aが第2表示領域2bよりも上方に位置する場合には、図7Bに示すように、携帯電話1は、第1表示領域2aに日時の情報を表示し、第2表示領域2bが第1表示領域2aよりも上方に位置する場合には、図7Cに示すように、第2表示領域2bに日時の情報を表示する。
 尚、所定の情報を一つの表示領域に表示している場合には、他の表示領域における情報の表示を行わなくともよい。ユーザが見る可能性の低い表示領域への情報の表示を行わないことで、携帯電話1において消費される電力を削減することができる。
 上記の説明では、コントローラ10が、照度センサ4の検出結果、近接センサ5の検出結果及び姿勢検出ユニット15が検出した携帯電話1の姿勢に基づいて、ディスプレイ2の複数の表示領域のうちいずれの表示領域に情報の表示を行うかを制御する例を示したが、これに限定されない。コントローラ10は、カメラ12又はカメラ14の撮像する画像に基づいて携帯電話1がどのような状態にあるかを判定し、当該判定結果に基づいてディスプレイ2の複数の表示領域のうちいずれの表示領域に情報の表示を行うかを制御してもよいし、また、コントローラ10は、上述した照度センサ4、近接センサ5及び姿勢検出ユニット15の検出結果と併せて携帯電話1がどのような状態にあるかを判定してもよい。携帯電話1は、姿勢検出ユニット15により第2表示領域2bが第1表示領域2aよりも上方に位置することが検出されても、カメラ12によりユーザの顔が検出されれば、相対的に下方に位置する第1表示領域2aに情報を表示しても良い。これにより、例えばユーザが寝そべった状態で携帯電話1を操作している場合に、ユーザが見ている第1表示領域2aに情報が表示されるため、ユーザが不便を感じることがない。携帯電話1の側面にタッチセンサ(不図示)を配設し、タッチセンサによる接触の検出結果を判定基準に加えても良い。
 携帯電話1は、コントローラ10の制御により、ディスプレイ2の第1表示領域2a、第2表示領域2b及び第3表示領域2cの各々に同じ情報或いは異なる情報を同時に表示することも可能である。この場合の携帯電話1の表示制御について、図8から図11を用いて説明する。
 図8は、ディスプレイ2の複数の表示領域における表示制御の第1の例を示す図である。図8Aは、携帯電話1の上面1Cに設けられた第3表示領域2cを上から見た図である。図8Aでは、図面の上側が背面1B側、図面の下側が正面1A側である。以降、特に説明しない限り、第3表示領域3cを示す図における正面1Aと背面1Bとの位置関係は図8Aと同じものとする。
 図8Aに示すように、第3表示領域2cの右側の端部には、封筒の絵及び数字の1から成るメールアイコンが表示されている。このメールアイコンは、未読メールが1件あることを示している。第3表示領域2cは、インジケータ領域として用いられる。そして、ユーザが、第3表示領域2cに表示されたメールアイコンに対して、指で上面1Cを起点として正面1Aに向かう方向(図の矢印の方向)にフリックを行っている。
 図8Bは、図8Aのようにメールアイコンに対するフリックが行われる前後での、第1表示領域2aに表示される画面の遷移を示す図である。フリックが行われる前、第1表示領域2aには、図8B左図に示すように、ホーム画面が表示されている。そして、フリックが行われると、図8B右図に示すように、第1表示領域2aには、未読メールの内容が表示される。
 図8A及び図8Bに示す表示制御について詳述する。まず、携帯電話1のコントローラ10は、第1表示領域2aにホーム画面を表示している。そして、コントローラ10は、携帯電話1の上面1Cに設けられたタッチスクリーン23を介して、第3表示領域2cに表示されたメールアイコンに対する、上面1Cから正面1Aへ向かう方向のフリックを検出する。コントローラ10は、メールアイコンに対する、上面1Cから正面1Aへ向かう方向のフリックを検出すると、携帯電話1の正面1A側の第1表示領域2aに、メールアイコンに対応する情報である未読メールの内容を表示する。
 図9は、ディスプレイ2の複数の表示領域における表示制御の第2の例を示す図である。図9Aに示すように、第3表示領域2cには、図8Aと同様に、未読メールが1件あることを示すメールアイコンが表示されている。そして、ユーザが、第3表示領域2cに表示されたメールアイコンに対して、指で上面1Cを起点として背面1Bに向かう方向(図の矢印の方向)にフリックを行っている。図9Aに示すフリックの方向は、図8Aに示すフリックの方向と反対の方向である。
 図9Bは、図9Aのようにメールアイコンに対するフリックが行われる前後での、第2表示領域2bに表示される画面の遷移を示す図である。フリックが行われる前、第2表示領域2bには、図9B左図に示すように、特に何も表示されていない。そして、フリックが行われると、図9B右図に示すように、第2表示領域2bには、未読メールの内容が表示される。
 図9A及び図9Bに示す表示制御について詳述する。携帯電話1のコントローラ10は、携帯電話1の上面1Cに設けられたタッチスクリーン23を介して、第3表示領域2cに表示されたメールアイコンに対する、上面1Cから背面1Bへ向かう方向のフリックを検出する。コントローラ10は、メールアイコンに対する、上面1Cから背面1Bへ向かう方向のフリックを検出すると、携帯電話1の背面1B側の第2表示領域2bに、メールアイコンに対応する情報である未読メールの内容を表示する。
 尚、上述したように、第2表示領域2bは第1表示領域2aよりも面積が小さい。したがって、コントローラ10は、第2表示領域2bに未読メールの内容を表示する際、未読メールの内容の全てが第2表示領域2bに表示されるように文字のサイズを小さくしてもよい。
 図10は、ディスプレイ2の複数の表示領域における表示制御の第3の例を示す図である。図10Aに示すように、第3表示領域2cの右側の端部には、図8Aと同様に、未読メールが1件あることを示すメールアイコンが表示されている。第3表示領域2cの左側の端部には、ゲームアプリケーションに対応付けられたアイコンであってアルファベットのGを象ったゲームアイコンが表示されている。第3表示領域2cにおいてゲームアイコンと未読メールアイコンの間には、検索アプリケーションに対応付けられたアイコンであって虫眼鏡を象ったアイコンが表示されている。
 そして、ユーザが、第3表示領域2cに表示されたゲームアイコンに対して、指で上面1Cを起点として正面1Aに向かう方向にフリックを行っている。また、他のユーザ或いは同じユーザが、第3表示領域2cに表示されたメールアイコンに対して、指で上面1Cを起点として背面1Bに向かう方向にフリックを行っている。
 それぞれフリックが行われると、図10Bに示すように、第1表示領域2aにはゲームアプリケーションの画面が表示され、一方、第2表示領域2bには未読メールの画面が表示される。
 図10におけるコントローラ10の画面制御は、図8に示した第1の例及び図9に示した第2の例と同様である。ただし、図10Aにおける別個のフリックがほぼ同時に行われる場合がある。この場合、コントローラ10は、例えば、タッチスクリーン23を介して検出される別個のフリックのうち、上面1Cを起点として正面1Aに向かう方向のフリックを優先し、第1表示領域2aにゲーム画面を表示した後に第2表示領域2bに未読メール画面を表示してよい。
 図11は、ディスプレイ2の複数の表示領域における表示制御の第4の例を示す図である。図11A及び図11Bに示すように、第3表示領域2cの右側の端部には、カメラアプリケーションに対応するカメラアイコンが表示されている。そして、このカメラアイコンに対して上面1Cを起点として正面1Aに向かう方向のフリックが行われると、第1表示領域2aにカメラのファインダー画面が表示される。一方、カメラアイコンに対して上面1Cを起点として背面1Bに向かう方向のフリックが行われると、第2表示領域2bにカメラのファインダー画面が表示される。
 本実施形態の携帯電話1は、正面1Aにカメラ12を、背面1Bにカメラ13を備えるため、図11Aに示す状態ではカメラ13により撮像を行い、図11Bに示す状態ではカメラ12により撮像を行う。ところで、図11A及び図11Bに示すように、携帯電話1は第1表示領域2a及び第2表示領域2bの双方をカメラのファインダーとして使用できる。よって、図11Aのように第1表示領域2aをカメラのファインダーとして使用している場合には、背面1B側のタッチスクリーン22を介してユーザのタップが検出されると、携帯電話1は撮影を行ってよい。反対に、携帯電話1は、図11Bのように第2表示領域2bをカメラのファインダーとして使用している場合には、正面1A側のタッチスクリーン21を介してユーザのタップが検出されると、撮影を行ってよい。これにより、ユーザが片方の手で携帯電話1を把持している場合に、その把持している手の指でタッチスクリーン21或いはタッチスクリーン22をタップすることで、もう片方の手を使わずに撮影を行うことができ、使い勝手が向上する。
 また、カメラ14は背面1Bにおいてパネル20b(及び第2表示領域2b)に隣接すると共に背面1Bの長手方向における中心付近に設けられている。これにより、ユーザが背面1B側を自身に向けてカメラ14を用いて第2表示領域2bに映る自身の姿の撮影を試みる際に、自身の顔の正面にカメラ14が位置し、ファインダーとなる第2表示領域2bを見て撮影を行うことができるため、さらに使い勝手が向上する。
 次に、第3表示領域2cに対するジェスチャに応じた制御の例について、図12及び図13を用いて説明する。
 図12は、第3表示領域2cに対するジェスチャに応じた制御の第1の例を示す図である。図12Bは、ユーザが電話アプリによって通話を行っている様子を示している。このとき、図12Aに示すように、ユーザが第3表示領域2cに対して左から右に向かう方向のスワイプを行っている。携帯電話1のコントローラ10は、タッチスクリーン23を介して第3表示領域2cに対して左から右に向かう方向のスワイプを検出すると、通話音量を相対的に大きくする。反対に、コントローラ10は、タッチスクリーン23を介して第3表示領域2cに対して右から左に向かう方向のスワイプを検出すると、通話音量を相対的に小さくする。
 図13は、第3表示領域2cに対するジェスチャに応じた制御の第2の例を示す図である。図13Aに示す状態においては、携帯電話1はロックされた状態である。そして、第3表示領域2cの中央部には、ロック解除アイコンが表示されている。そして、ユーザが、第3表示領域2cに表示されたロック解除アイコンに対して、指で上面1Cを起点として正面1Aに向かう方向にフリックを行っている。携帯電話1のコントローラ10は、ロック解除アイコンに対する上面1Cを起点として正面1Aに向かう方向のフリックを検出すると、携帯電話1Aのロックを解除し、正面1A側の第1表示領域2aにホーム画面を表示させる。
 以上に述べたように、本実施形態に係る携帯電話1は、携帯電話の正面1Aと背面1Bとをつなぐ上面1Bにタッチスクリーン23を備え、このタッチスクリーン23を介して上面1Cから正面1Aに向かう方向のフリック(第1ジェスチャ)が検出されると、正面1A側の第1表示領域2aに当該フリックに応じた画面を表示し、上面1Cから背面1Bに向かう方向のフリック(第2ジェスチャ)が検出されると、背面1B側の第2表示領域2bに当該フリックに応じた画面を表示するため、携帯電話1の使い勝手が向上する。
 また、本実施形態に係る携帯電話1は、携帯電話1の姿勢に応じて、第3表示領域2cの表示を制御する。これにより、筐体40の上面1Cに設けられた第3表示領域2cの有効活用が図られる。
 また、従来の携帯電話では、第1表示領域2aにインジケータ領域が表示されていたが、本実施形態に係る携帯電話1では、携帯電話1の上面1Cに設けられる第3表示領域2cがインジケータ領域として用いられるため、第1表示領域2aの有効活用が図られる。
 上記の実施形態では、添付の請求項に係る装置の例として、携帯電話について説明したが、添付の請求項に係る装置は、携帯電話に限定されない。添付の請求項に係る装置は、携帯電話以外の電子機器であってもよい。電子機器は、例えば、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。
 上記の実施形態では、ディスプレイ2が可撓性を有する有機ELディスプレイであり、第1表示領域2a、第2表示領域2b及び第3表示領域2cを有する構成を例にとって説明を行ったが、これに限定されない。携帯電話1は、正面1A、背面1B及び上面1Cにそれぞれ別個のディスプレイ(表示部)及びタッチスクリーンを備える構成であっても良い。
 上記の実施形態では、第1表示領域2a、第2表示領域2b及び第3表示領域2cにそれぞれ対応してタッチスクリーン21、タッチスクリーン22及びタッチスクリーン23がそれぞれ配置される構成であったが、これに限定されない。上述した制御の例を実現するためには、携帯電話1は、正面1Aに配置されるタッチスクリーン21及び背面1Bに配置されるタッチスクリーン22を備えていなくとも良いし、或いは、上面1Cに配置される第3表示領域2cを備えていなくとも良い。
 添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。
 本出願は、2013年2月21日出願の日本特許出願・出願番号2013-031990及び2013年2月21日出願の日本特許出願・出願番号2013-031991に基づくものであり、その内容はここに参照として取り込まれる。
 1 携帯電話
 1A 正面
 1B 背面
 1C 上面
 2 ディスプレイ
 2a 第1表示領域
 2b 第2表示領域
 2c 第3表示領域
 4 照度センサ
 5 近接センサ
 6 通信ユニット
 7 圧電素子
 8a 第1マイク
 8b 第2マイク
 9 ストレージ
 9A 制御プログラム
 9B 通話アプリケーション
 9C 音楽再生アプリケーション
 9D 動画再生アプリケーション
 9Z 設定データ
 10 コントローラ
 12 カメラ
 13 振動レシーバ
 14 カメラ
 15 姿勢検出ユニット
 18 バイブレータ
 20 パネル
 21 タッチスクリーン
 22 タッチスクリーン
 23 タッチスクリーン
 30 接合部材
 31 補強部材
 40 筐体

Claims (9)

  1.  第1面と、第2面と、当該第1面及び当該第2面とをつなぐ第3面とを有する筐体と、前記筐体の前記第3面に配置されるタッチスクリーンと、前記筐体内に配置されるディスプレイであって、前記第1面で表示を行う第1表示領域及び前記第2面で表示を行う第2表示領域を有する少なくともひとつのディスプレイと、前記第3面の前記タッチスクリーンで第1操作が検出されると、当該第1操作に応じた画面を前記第1表示領域に表示し、前記第3面の前記タッチスクリーンで、前記第1操作と異なる第2操作が検出されると、当該第2操作に応じた画面を前記第2表示領域に表示するコントローラと、を備える装置。
  2.  前記第1操作は、前記第3面から前記第1面に向かう第1ジェスチャ操作であって、
     前記第2操作は、前記第3面から前記第2面に向かう第2ジェスチャ操作である、
    請求項1記載の装置。
  3.  前記第1操作と前記第2操作は、前記タッチスクリーン上の同一のアイコンへの操作である、
    請求項1記載の装置。
  4.  前記コントローラは、前記第3面の前記タッチスクリーンでのスワイプ操作に応じて、通話音量を変更する、請求項1記載の装置。
  5.  前記ディスプレイは、1つの可撓性ディスプレイであって、
     前記可撓性ディスプレイは、前記第1表示領域と前記第2表示領域を備える、請求項1記載の装置。
  6.  第1面と、第2面と、当該第1面及び当該第2面とをつなぐ第3面とを有する筐体と、前記筐体内に配置される可撓性ディスプレイであって、前記第1面で表示を行う第1表示領域、前記第2面で表示を行う第2表示領域及び前記第3面で表示を行う第3表示領域を有するディスプレイと、姿勢を検出する姿勢検出部と、前記姿勢検出部よって検出された姿勢に応じて前記第3表示領域の表示を制御するコントローラと、を備える装置。
  7.  物体に近接しているかを判断する近接センサをさらに備え、
     前記コントローラは、前記姿勢検出部よって検出された姿勢が鉛直方向であり、かつ前記近接センサが物体に近接していると判断した場合、所定の情報を表示するよう前記第3表示領域を制御する
     請求項6に記載の装置。
  8.  前記姿勢検出部は、前記第1表示領域と前記第2表示領域のいずれか一方が前記第1表示領域と前記第2表示領域の他方より上方に位置するか検出し、
     前記コントローラは、他方より上方に位置する、前記第1表示領域と前記第2表示領域の前記一方に、所定の情報を表示する、
     請求項6に記載の装置。
  9.  筐体と、
     前記筐体に取り付けられるパネルであって、第1面と、第2面と、当該第1面及び当該第2面とをつなぐ第3面とを有するパネルと、
     前記パネルに取り付けられるディスプレイであって、前記第1面で表示を行う第1表示領域、前記第2面で表示を行う第2表示領域及び前記第3面で表示を行う第3表示領域を有するディスプレイと、
     前記ディスプレイに取り付けられる圧電素子と、を備え、
     前記パネルは、前記圧電素子の変形に起因して変形し、当該パネルに接触する対象物に人体振動音を伝える
     装置。
     
PCT/JP2014/054090 2013-02-21 2014-02-20 装置 WO2014129565A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP14753532.2A EP2960770A4 (en) 2013-02-21 2014-02-20 Device
US14/768,711 US9891815B2 (en) 2013-02-21 2014-02-20 Device having touch screen and three display areas
JP2015501509A JP6121517B2 (ja) 2013-02-21 2014-02-20 装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013-031990 2013-02-21
JP2013031991 2013-02-21
JP2013031990 2013-02-21
JP2013-031991 2013-02-21

Publications (1)

Publication Number Publication Date
WO2014129565A1 true WO2014129565A1 (ja) 2014-08-28

Family

ID=51391346

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/054090 WO2014129565A1 (ja) 2013-02-21 2014-02-20 装置

Country Status (4)

Country Link
US (1) US9891815B2 (ja)
EP (1) EP2960770A4 (ja)
JP (1) JP6121517B2 (ja)
WO (1) WO2014129565A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10142547B2 (en) 2013-11-28 2018-11-27 Semiconductor Energy Laboratory Co., Ltd. Electronic device and driving method thereof
WO2020021753A1 (ja) * 2018-07-25 2020-01-30 株式会社ジャパンディスプレイ 電子機器及びイベント通知方法
JP2020035065A (ja) * 2018-08-28 2020-03-05 京セラ株式会社 電子機器、制御プログラム及び表示制御方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101500130B1 (ko) * 2013-09-02 2015-03-06 현대자동차주식회사 스티어링 휠에 설치된 차량용 제어장치
KR102365393B1 (ko) * 2014-12-11 2022-02-21 엘지전자 주식회사 이동단말기 및 그 제어방법
US9936138B2 (en) * 2015-07-29 2018-04-03 Samsung Electronics Co., Ltd. User terminal apparatus and control method thereof
US11284003B2 (en) 2015-07-29 2022-03-22 Samsung Electronics Co., Ltd. User terminal apparatus and control method thereof
KR20170046969A (ko) * 2015-10-22 2017-05-04 엘지전자 주식회사 모바일 디바이스 및 그 제어 방법
KR20170084586A (ko) * 2016-01-12 2017-07-20 삼성전자주식회사 전자 장치의 플렉서블 디스플레이 및 그의 운용 방법
KR102496410B1 (ko) * 2016-03-25 2023-02-06 삼성전자 주식회사 전자 장치 및 전자 장치의 소리 출력 방법
US9813150B1 (en) * 2016-09-23 2017-11-07 Qualcomm Incorporated Controllable selection of light-capture devices
KR20200115791A (ko) * 2019-03-26 2020-10-08 삼성디스플레이 주식회사 폴더블 표시 장치와 그의 음향 제공 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008086302A1 (en) 2007-01-07 2008-07-17 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
JP2010108273A (ja) * 2008-10-30 2010-05-13 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2011047338A1 (en) * 2009-10-15 2011-04-21 Qualcomm Incorporated Method, system, and computer program product combining gestural input from multiple touch screens into one gestural input
WO2012081699A1 (ja) * 2010-12-17 2012-06-21 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、表示制御方法およびプログラム
JP2013015835A (ja) * 2011-06-30 2013-01-24 Samsung Display Co Ltd 可撓性表示パネル及び該可撓性表示パネルを備える表示装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6035180A (en) 1997-10-07 2000-03-07 Ericsson Inc. Communication module having selectively programmable exterior surface
EP2256605B1 (en) 1998-01-26 2017-12-06 Apple Inc. Method and apparatus for integrating manual input
JP4367377B2 (ja) * 2005-06-03 2009-11-18 エプソンイメージングデバイス株式会社 表示装置、入力装置、及び電子機器
US20070188450A1 (en) * 2006-02-14 2007-08-16 International Business Machines Corporation Method and system for a reversible display interface mechanism
US20080316169A1 (en) * 2007-06-21 2008-12-25 Eli Reifman Method circuit and system for interfacing with an electronic device
US7970442B2 (en) * 2007-10-17 2011-06-28 Akina Chiang Chain-shaped foldable cellphone
US8947320B2 (en) * 2008-09-08 2015-02-03 Qualcomm Incorporated Method for indicating location and direction of a graphical user interface element
JP5137767B2 (ja) 2008-09-29 2013-02-06 Necパーソナルコンピュータ株式会社 情報処理装置
KR101521219B1 (ko) * 2008-11-10 2015-05-18 엘지전자 주식회사 플렉서블 디스플레이를 이용하는 휴대 단말기 및 그 제어방법
KR101609162B1 (ko) * 2008-11-13 2016-04-05 엘지전자 주식회사 터치 스크린을 구비한 이동 단말기 및 이를 이용한 데이터 처리 방법
JP2010262557A (ja) 2009-05-11 2010-11-18 Sony Corp 情報処理装置および方法
US9152314B2 (en) * 2009-11-30 2015-10-06 Lg Electronics Inc. Mobile terminal and controlling method thereof
JP5440136B2 (ja) 2009-12-04 2014-03-12 ソニー株式会社 表示装置及び表示装置の制御方法
US20110261002A1 (en) * 2010-04-27 2011-10-27 Microsoft Corporation Displaying images on solid surfaces
US9268367B2 (en) 2010-10-13 2016-02-23 Microsoft Technology Licensing, Llc Use of low-power display on device
JP2012128668A (ja) * 2010-12-15 2012-07-05 Nikon Corp 電子機器
KR101824822B1 (ko) * 2010-12-27 2018-02-01 로무 가부시키가이샤 송수화 유닛 및 수화 유닛
US8320970B2 (en) * 2011-02-16 2012-11-27 Google Inc. Mobile device display management
US9110580B2 (en) * 2011-08-05 2015-08-18 Nokia Technologies Oy Apparatus comprising a display and a method and computer program
US8723824B2 (en) * 2011-09-27 2014-05-13 Apple Inc. Electronic devices with sidewall displays
KR101917683B1 (ko) * 2012-02-21 2018-11-13 엘지전자 주식회사 휴대 전자기기
KR101899812B1 (ko) * 2012-05-14 2018-09-20 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
US20140132481A1 (en) * 2012-11-09 2014-05-15 Microsoft Corporation Mobile devices with plural displays

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008086302A1 (en) 2007-01-07 2008-07-17 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
JP2010108273A (ja) * 2008-10-30 2010-05-13 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2011047338A1 (en) * 2009-10-15 2011-04-21 Qualcomm Incorporated Method, system, and computer program product combining gestural input from multiple touch screens into one gestural input
WO2012081699A1 (ja) * 2010-12-17 2012-06-21 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、表示制御方法およびプログラム
JP2013015835A (ja) * 2011-06-30 2013-01-24 Samsung Display Co Ltd 可撓性表示パネル及び該可撓性表示パネルを備える表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2960770A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10142547B2 (en) 2013-11-28 2018-11-27 Semiconductor Energy Laboratory Co., Ltd. Electronic device and driving method thereof
JP2020024426A (ja) * 2013-11-28 2020-02-13 株式会社半導体エネルギー研究所 電子機器
US10771705B2 (en) 2013-11-28 2020-09-08 Semiconductor Energy Laboratory Co., Ltd. Electronic device and driving method thereof
US11846963B2 (en) 2013-11-28 2023-12-19 Semiconductor Energy Laboratory Co., Ltd. Electronic device and driving method thereof
WO2020021753A1 (ja) * 2018-07-25 2020-01-30 株式会社ジャパンディスプレイ 電子機器及びイベント通知方法
JP2020035065A (ja) * 2018-08-28 2020-03-05 京セラ株式会社 電子機器、制御プログラム及び表示制御方法
JP7140603B2 (ja) 2018-08-28 2022-09-21 京セラ株式会社 電子機器、制御プログラム及び表示制御方法

Also Published As

Publication number Publication date
EP2960770A4 (en) 2017-01-25
JP6121517B2 (ja) 2017-04-26
EP2960770A1 (en) 2015-12-30
JPWO2014129565A1 (ja) 2017-02-02
US9891815B2 (en) 2018-02-13
US20160004376A1 (en) 2016-01-07

Similar Documents

Publication Publication Date Title
JP6121517B2 (ja) 装置
JP6017828B2 (ja) 電子機器、制御方法、及び制御プログラム
JP5818922B2 (ja) 電子機器
WO2013164999A1 (ja) 電子機器、制御方法及び制御プログラム
WO2013164980A1 (ja) 電子機器、制御方法、及び制御プログラム
JP2013131987A (ja) 電子機器
JP2013141147A (ja) 電子機器
WO2014003148A1 (ja) 電子機器、制御方法、及び制御プログラム
WO2014061679A1 (ja) 携帯電子機器
JP6067999B2 (ja) 電子機器、制御方法、及び制御プログラム
JP5865774B2 (ja) 電子機器、制御方法及び制御プログラム
JP2015012342A (ja) 電子機器
JP2013232853A (ja) 電子機器、制御方法、及び制御プログラム
JP6242040B2 (ja) 電子機器、制御方法、及び制御プログラム
JP6099320B2 (ja) 電子機器、制御方法及び制御プログラム
JP2013236139A (ja) 電子機器、制御方法、及び制御プログラム
JP6017829B2 (ja) 電子機器
JP2014011512A (ja) 電子機器、制御方法、及び制御プログラム
JP2014082674A (ja) 電子機器、制御方法及び制御プログラム
JP2014011511A (ja) 電子機器、制御方法、及び制御プログラム
JP6110078B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2015050703A (ja) 電子機器
JP2013141213A (ja) 電子機器
JP2014007444A (ja) 電子機器、制御方法及び制御プログラム
JP6125561B2 (ja) 携帯端末装置、プログラムおよび音出力制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14753532

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015501509

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2014753532

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14768711

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE