WO2013164980A1 - 電子機器、制御方法、及び制御プログラム - Google Patents

電子機器、制御方法、及び制御プログラム Download PDF

Info

Publication number
WO2013164980A1
WO2013164980A1 PCT/JP2013/062290 JP2013062290W WO2013164980A1 WO 2013164980 A1 WO2013164980 A1 WO 2013164980A1 JP 2013062290 W JP2013062290 W JP 2013062290W WO 2013164980 A1 WO2013164980 A1 WO 2013164980A1
Authority
WO
WIPO (PCT)
Prior art keywords
panel
sound
ear
electronic device
piezoelectric element
Prior art date
Application number
PCT/JP2013/062290
Other languages
English (en)
French (fr)
Inventor
須藤 智浩
幸一 安藤
賢二 石橋
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US14/398,394 priority Critical patent/US9544413B2/en
Publication of WO2013164980A1 publication Critical patent/WO2013164980A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B06GENERATING OR TRANSMITTING MECHANICAL VIBRATIONS IN GENERAL
    • B06BMETHODS OR APPARATUS FOR GENERATING OR TRANSMITTING MECHANICAL VIBRATIONS OF INFRASONIC, SONIC, OR ULTRASONIC FREQUENCY, e.g. FOR PERFORMING MECHANICAL WORK IN GENERAL
    • B06B1/00Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency
    • B06B1/02Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency making use of electrical energy
    • B06B1/06Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency making use of electrical energy operating with piezoelectric effect or with electrostriction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B06GENERATING OR TRANSMITTING MECHANICAL VIBRATIONS IN GENERAL
    • B06BMETHODS OR APPARATUS FOR GENERATING OR TRANSMITTING MECHANICAL VIBRATIONS OF INFRASONIC, SONIC, OR ULTRASONIC FREQUENCY, e.g. FOR PERFORMING MECHANICAL WORK IN GENERAL
    • B06B1/00Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency
    • B06B1/02Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency making use of electrical energy
    • B06B1/06Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency making use of electrical energy operating with piezoelectric effect or with electrostriction
    • B06B1/0644Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency making use of electrical energy operating with piezoelectric effect or with electrostriction using a single piezoelectric element
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/24Arrangements for testing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M19/00Current supply arrangements for telephone systems
    • H04M19/02Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone
    • H04M19/04Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone the ringing-current being generated at the substations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R7/00Diaphragms for electromechanical transducers; Cones
    • H04R7/02Diaphragms for electromechanical transducers; Cones characterised by the construction
    • H04R7/04Plane diaphragms
    • H04R7/045Plane diaphragms using the distributed mode principle, i.e. whereby the acoustic radiation is emanated from uniformly distributed free bending wave vibration induced in a stiff panel and not from pistonic motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/03Constructional features of telephone transmitters or receivers, e.g. telephone hand-sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/07Use of position data from wide-area or local-area positioning systems in hearing devices, e.g. program or information selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/13Hearing devices using bone conduction transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops

Definitions

  • This application relates to an electronic device, a control method, and a control program.
  • Patent Document 1 describes an electronic device that conveys air conduction sound and vibration sound to a user.
  • Patent Document 1 describes that when a voltage is applied to a piezoelectric element of a vibrating body arranged on the outer surface of a housing of an electronic device, the vibrating body flexes and vibrates due to expansion and contraction of the piezoelectric element. Further, Patent Document 1 describes that when a user brings a vibrating body that flexes and vibrates into contact with the auricle, air conduction sound and vibration sound are transmitted to the user.
  • air conduction sound is sound that is transmitted to the eardrum through the ear canal through the vibration of the air due to the vibration of the object, and is transmitted to the user's auditory nerve by the vibration of the eardrum.
  • the vibration sound is a sound transmitted to the user's auditory nerve through a part of the user's body (for example, cartilage of the outer ear) that contacts the vibrating object.
  • An electronic apparatus is an electronic apparatus including a piezoelectric element and a sound generation unit that generates a vibration sound that is transmitted by vibrating a part of a human body by being vibrated by the piezoelectric element.
  • the electronic device notifies the user of a specific position in the sound generator.
  • a method is a control method executed by an electronic device including a sound generation unit and a piezoelectric element, and performs a notification for informing a user of a specific position in the sound generation unit; and the piezoelectric element Generating a vibration sound transmitted by vibrating a part of the human body by vibrating the sound generating unit.
  • a control program includes a step of notifying an electronic device including a panel and a piezoelectric element of a specific position in the sound generator, and causing the sound generator to vibrate by the piezoelectric element. To generate a vibration sound transmitted by vibrating a part of the human body.
  • FIG. 1 is a front view of a mobile phone according to an embodiment.
  • FIG. 2 is a cross-sectional view of the mobile phone according to the embodiment.
  • FIG. 3 is a diagram showing an example of the shape of the panel.
  • FIG. 4 is a diagram showing an example of panel vibration.
  • FIG. 5 is a block diagram of the mobile phone according to the embodiment.
  • Drawing 6A is a figure for explaining guidance performed before contact.
  • Drawing 6B is a figure for explaining guidance performed before contact.
  • Drawing 6C is a figure for explaining guidance performed before contact.
  • FIG. 7A is a diagram for describing detection of an ear position.
  • FIG. 7B is a diagram for explaining detection of an ear position.
  • FIG. 7C is a diagram for describing detection of an ear position.
  • FIG. 7A is a diagram for describing detection of an ear position.
  • FIG. 8 is a diagram for explaining guidance performed after contact.
  • FIG. 9A is a diagram illustrating an example of control change.
  • FIG. 9B is a diagram illustrating an example of a change in control.
  • FIG. 10 is a flowchart showing a control processing procedure for guiding the ear position to the standard position.
  • FIG. 11 is a flowchart showing a control processing procedure when a call is received.
  • FIG. 12 is a front view of a mobile phone according to another embodiment.
  • FIG. 13 is a cross-sectional view of a mobile phone according to another embodiment.
  • FIG. 14 is a diagram for explaining detection of an ear position.
  • FIG. 15 is a diagram for explaining guidance performed before contact.
  • FIG. 16 is a front view of a mobile phone according to another embodiment.
  • FIG. 17 is a cross-sectional view of a mobile phone according to another embodiment.
  • FIG. 18 is a diagram illustrating an example of the resonance frequency of the panel.
  • FIG. 19 is a diagram for explaining detection of an ear position.
  • FIG. 20 is a diagram for explaining guidance performed before contact.
  • FIG. 21 is a diagram illustrating an example in which an image simulating the shape of an ear is displayed on a display.
  • a mobile phone will be described as an example of an electronic device that transmits air conduction sound and vibration sound to a user.
  • FIG. 1 is a front view of the mobile phone 1A.
  • FIG. 2 is a cross-sectional view schematically showing an aa cross section of the mobile phone 1A.
  • the mobile phone 1A includes a display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a piezoelectric element 7, a microphone 8, a camera 12, a panel 20, And a housing 40.
  • the display 2 includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display device).
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • IELD Inorganic Electro-Luminescence Display device
  • buttons 3 accepts operation input from the user.
  • the number of buttons 3 is not limited to the example shown in FIGS.
  • the illuminance sensor 4 detects the illuminance of the ambient light of the mobile phone 1A. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2, for example.
  • the proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the display 2 is brought close to the face.
  • the illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.
  • the piezoelectric element 7 expands or contracts or bends according to the electromechanical coupling coefficient of the constituent material when an electric signal (voltage corresponding to the sound signal) is applied. That is, the piezoelectric element 7 is deformed when an electric signal is applied.
  • the piezoelectric element 7 is attached to the panel 20 and used as a vibration source for vibrating the panel 20.
  • the piezoelectric element 7 is formed using, for example, ceramic or quartz.
  • the piezoelectric element 7 may be a unimorph, bimorph, or multilayer piezoelectric element.
  • the multilayer piezoelectric element includes a multilayer bimorph element in which bimorphs are stacked (for example, 16 layers or 24 layers are stacked).
  • the multilayer piezoelectric element is composed of, for example, a multilayer structure including a plurality of dielectric layers made of PZT (lead zirconate titanate) and electrode layers disposed between the plurality of dielectric layers.
  • PZT lead zirconate titanate
  • a unimorph expands and contracts when an electrical signal (voltage) is applied.
  • a bimorph bends when an electrical signal (voltage) is applied.
  • the microphone 8 is a sound input unit.
  • the microphone 8 converts the input sound into an electric signal.
  • the speaker 11 is a sound output unit that outputs sound by an air conduction method.
  • the speaker 11 is a dynamic speaker, for example, and can transmit a sound obtained by converting an electric signal to a person whose ear is not in contact with the mobile phone 1A.
  • the speaker 11 is used for outputting music, for example.
  • the camera 12 is an in-camera that captures an object facing the display 2.
  • the camera 12 converts the captured image into an electrical signal.
  • the mobile phone 1 ⁇ / b> A may include an out camera that captures an object facing the surface on the opposite side of the display 2.
  • the panel 20 vibrates as the piezoelectric element 7 is deformed (expanded or bent), and transmits the vibration to the ear cartilage (auricular cartilage) or the like that the user contacts with the panel 20.
  • the panel 20 also has a function of protecting the display 2 and the piezoelectric element 7 from external force.
  • the panel 20 is formed by synthetic resins, such as glass or an acryl, for example.
  • the shape of the panel 20 is, for example, a plate shape.
  • the panel 20 may be a flat plate.
  • the panel 20 may be a curved panel whose surface is smoothly curved.
  • the display 2 and the piezoelectric element 7 are attached to the back surface of the panel 20 by the joining member 30.
  • the piezoelectric element 7 is spaced from the inner surface of the housing 40 by a predetermined distance while being arranged on the back surface of the panel 20.
  • the piezoelectric element 7 may be separated from the inner surface of the housing 40 even in a stretched or bent state. That is, the distance between the piezoelectric element 7 and the inner surface of the housing 40 is preferably larger than the maximum deformation amount of the piezoelectric element 7.
  • the piezoelectric element 7 may be attached to the panel 20 via a reinforcing member (for example, sheet metal or glass fiber reinforced resin).
  • the joining member 30 is, for example, a double-sided tape or an adhesive having thermosetting property or ultraviolet curable property.
  • the joining member 30 may be an optical elastic resin that is a colorless and transparent acrylic ultraviolet curable adhesive.
  • the display 2 is disposed almost at the center of the panel 20 in the short direction.
  • the piezoelectric element 7 is disposed in the vicinity of a predetermined distance from the longitudinal end of the panel 20 so that the longitudinal direction of the piezoelectric element 7 is parallel to the lateral direction of the panel 20.
  • the display 2 and the piezoelectric element 7 are arranged in parallel on the inner surface of the panel 20.
  • a touch screen (touch sensor) 21 is disposed on almost the entire outer surface of the panel 20.
  • the touch screen 21 detects contact with the panel 20.
  • the touch screen 21 is used for detecting a user's contact operation with a finger, a pen, a stylus pen, or the like.
  • the gestures detected using the touch screen 21 include, but are not limited to, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out.
  • the detection method of the touch screen 21 may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method.
  • the touch screen 21 is also used to detect auricular cartilage that contacts the panel 20 in order to hear sound.
  • the housing 40 is formed using resin or metal.
  • the housing 40 supports the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the speaker 11, the camera 12, the panel 20, and the like.
  • FIG. 3 is a diagram illustrating an example of the shape of the panel 20.
  • FIG. 4 is a diagram illustrating an example of the vibration of the panel 20.
  • An electrical signal corresponding to the output sound is applied to the piezoelectric element 7.
  • ⁇ 15 V which is higher than ⁇ 5 V that is an applied voltage of a so-called panel speaker that transmits sound by air conduction sound through the ear canal, may be applied to the piezoelectric element 7.
  • the panel 20 is caused to generate sufficient vibration and used. Vibration sound transmitted through a part of the person's body can be generated.
  • the voltage applied to the piezoelectric element 7 can be appropriately adjusted according to the fixing strength of the panel 20 with respect to the housing 40 or the performance of the piezoelectric element 7.
  • the piezoelectric element 7 When an electric signal is applied, the piezoelectric element 7 expands or contracts or bends in the longitudinal direction.
  • the panel 20 to which the piezoelectric element 7 is attached is deformed in accordance with expansion / contraction or bending of the piezoelectric element 7. Thereby, the panel 20 vibrates and generates air conduction sound. Further, when the user brings a part of the body (for example, auricular cartilage) into contact with the panel 20, the panel 20 generates vibration sound that is transmitted to the user through the part of the body. That is, as the piezoelectric element 7 is deformed, the panel 20 vibrates at a frequency perceived as a vibration sound with respect to an object that contacts the panel 20. The panel 20 is bent by expansion / contraction or bending of the piezoelectric element 7.
  • the panel 20 is bent directly by the piezoelectric element 7.
  • the panel 20 is directly bent by the piezoelectric element means that the panel is specified by the inertial force of the piezoelectric actuator configured by arranging the piezoelectric element in the casing as used in a conventional panel speaker. This is different from the phenomenon in which the area is vibrated and the panel is deformed.
  • the panel 20 is bent directly by the piezoelectric element means that the expansion or contraction or bending (curving) of the piezoelectric element is directly applied to the panel via the bonding member or via the bonding member and the reinforcing member 31 described later. Means bending.
  • the panel 20 when an electric signal corresponding to the voice of the other party of the call or sound data such as a ring tone or music is applied to the piezoelectric element 7, the panel 20 generates air conduction sound and vibration sound corresponding to the electric signal.
  • the sound signal output via the piezoelectric element 7 and the panel 20 may be based on sound data stored in the storage 9 described later.
  • the sound signal output via the piezoelectric element 7 and the panel 20 may be based on sound data stored in an external server or the like and acquired via the network by the communication unit 6 described later.
  • the panel 20 may be approximately the same size as the user's ear. Moreover, the panel 20 may be larger in size than the user's ear, as shown in FIG. In this case, the user can bring the entire outer periphery of the ear into contact with the panel 20 when listening to the sound. Listening to the sound in this way makes it difficult for ambient sounds (noise) to enter the ear canal.
  • at least the panel 20 has a length in the longitudinal direction (or short direction) corresponding to the distance between the lower leg of the anti-annulus (lower anti-annular leg) of the human and the anti-tragus, and the length from the tragus.
  • a region wider than a region having a length in the short direction (or the longitudinal direction) corresponding to the distance to the ear ring vibrates.
  • the panel 20 has a length in the longitudinal direction (or short direction) corresponding to the distance from the region near the upper leg of the ear ring (upper pair leg) in the ear ring to the earlobe, and the vicinity of the ear ring in the ear ring from the tragus.
  • a region having a length in the short direction (or the longitudinal direction) corresponding to the distance to the part may vibrate.
  • the region having the above length and width may be a rectangular region, or an elliptical shape in which the length in the longitudinal direction is the major axis and the length in the lateral direction is the minor axis. Also good.
  • the average size of the human ear can be found, for example, by referring to the Japanese human body size database (1992-1994) created by the Human Life Engineering Research Center (HQL).
  • the panel 20 vibrates not only in the attachment region 20a to which the piezoelectric element 7 is attached, but also in a region away from the attachment region 20a.
  • the panel 20 has a plurality of locations that vibrate in a direction intersecting the main surface of the panel 20 in the vibrating region, and in each of the plurality of locations, the value of the amplitude of vibration changes from positive to negative with time, Or vice versa.
  • the panel 20 vibrates at a seemingly random or regular distribution in a substantially entire portion of the panel 20 with a portion having a relatively large vibration amplitude and a portion having a relatively small vibration amplitude. That is, vibrations of a plurality of waves are detected over the entire panel 20.
  • the display 2 is attached to the panel 20.
  • the lower part of the panel 20 (the side on which the display 2 is attached) is increased in rigidity, and the vibration is smaller than the upper part of the panel 20 (the side on which the piezoelectric element 7 is attached).
  • the upper part of the panel 20 is directly bent by the piezoelectric element 7, and the vibration is attenuated at the lower part as compared with the upper part.
  • the panel 20 is bent by the piezoelectric element 7 so that the portion directly above the piezoelectric element 7 rises higher than the surrounding area in the long side direction of the piezoelectric element 7.
  • the mobile phone 1A can transmit air conduction sound and vibration sound through a part of the user's body (for example, auricular cartilage) to the user by the vibration of the panel 20. Therefore, when the mobile phone 1A outputs a sound having a volume equivalent to that of the dynamic receiver, the sound transmitted to the surroundings of the mobile phone 1A due to air vibration may be reduced compared to an electronic device having only a dynamic speaker. it can.
  • a feature is suitable for, for example, listening to a recorded message in a place where there is another person nearby such as in a train.
  • the mobile phone 1A transmits a vibration sound to the user by the vibration of the panel 20. Therefore, even if the user wears the earphone or the headphone, the user can hear the vibration sound due to the vibration of the panel 20 through the earphone or the headphone and a part of the body by bringing the mobile phone 1A into contact therewith. it can.
  • the mobile phone 1A transmits sound by the vibration of the panel 20. Therefore, when the mobile phone 1A does not include a separate dynamic receiver, there is no need to form an opening (sound outlet) in the housing 40 for transmitting the sound generated by the panel 20 to the outside. For this reason, when realizing a waterproof structure, the structure can be simplified.
  • the cellular phone 1A closes the opening with a member that allows gas to pass but not liquid to realize a waterproof structure.
  • a structure may be adopted.
  • An example of the member that allows gas to pass but not liquid is Gore-Tex (registered trademark).
  • FIG. 5 is a block diagram of the mobile phone 1A.
  • the mobile phone 1A includes a display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a piezoelectric element 7, a microphone 8, a storage 9, and a controller 10.
  • the communication unit 6 communicates wirelessly.
  • the communication method supported by the communication unit 6 is a wireless communication standard.
  • wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G.
  • Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (Regular Trademark) (GloS MobilS). (Personal Handy-phone System).
  • wireless communication standards for example, there are WiMAX (Worldwide Interoperability for Microwave Access), IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Coal, etc.).
  • the communication unit 6 may support one or more of the communication standards described above.
  • the storage 9 stores programs and data.
  • the storage 9 is also used as a work area for temporarily storing the processing result of the controller 10.
  • the storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium.
  • the storage 9 may include a plurality of types of storage media.
  • the storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader.
  • the storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).
  • the program stored in the storage 9 includes an application executed in the foreground or the background and a control program that supports the operation of the application.
  • the application displays a screen on the display 2 and causes the controller 10 to execute processing according to the gesture detected by the touch screen 21.
  • the control program is, for example, an OS.
  • the application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.
  • the storage 9 stores, for example, a control program 9A, a call application 9B, a music playback application 9C, a video playback application 9D, and setting data 9Z.
  • the call application 9B provides a call function for a call by wireless communication.
  • the music playback application 9C provides a music playback function for playing back sound from music data.
  • the video playback application 9D provides a video playback function for playing back video and sound from video data.
  • the setting data 9Z includes information related to various settings related to the operation of the mobile phone 1A.
  • the control program 9A provides functions related to various controls for operating the mobile phone 1A.
  • the control program 9A for example, realizes a call by controlling the communication unit 6, the piezoelectric element 7, the microphone 8, and the like.
  • the function provided by the control program 9A includes a function of performing control for guiding the position of the ear that contacts the panel 20 to a suitable position in order to hear sound.
  • the function provided by the control program 9A may be used in combination with a function provided by another program such as the call application 9B.
  • the controller 10 is an arithmetic processing unit.
  • the arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto.
  • the controller 10 implements various functions by comprehensively controlling the operation of the mobile phone 1A.
  • the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement
  • the functional unit includes, for example, the display 2, the communication unit 6, the piezoelectric element 7, the microphone 8, the speaker 11, and the vibrator 18, but is not limited thereto.
  • the controller 10 may change the control according to the detection result of the detection unit.
  • the detection unit includes, for example, the button 3, the illuminance sensor 4, the proximity sensor 5, the camera 12, the posture detection unit 15, and the touch screen 21, but is not limited thereto.
  • the controller 10 executes control for guiding the position of the ear that contacts the panel 20 to a suitable position in order to hear the sound, for example, by executing the control program 9A.
  • the posture detection unit 15 detects the posture of the mobile phone 1A.
  • the posture detection unit 15 includes at least one of an acceleration sensor, a direction sensor, and a gyroscope in order to detect the posture.
  • Vibrator 18 vibrates a part or the whole of mobile phone 1A.
  • the vibrator 18 includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration. The vibration generated by the vibrator 18 is used not only to transmit sound but also to notify the user of various events such as incoming calls.
  • Non-transitory storage media include, for example, optical disks such as CD (registered trademark), DVD (registered trademark), and Blu-ray (registered trademark), magneto-optical disks, magnetic storage media, memory cards, and solid-state storage media Including, but not limited to.
  • the configuration of the mobile phone 1A shown in FIG. 5 is an example, and may be changed as appropriate without departing from the spirit of the present invention.
  • the mobile phone 1A may include buttons such as a numeric keypad layout or a QWERTY layout as buttons for operations.
  • the standard position is a position on the panel 20 where the user can preferably hear the vibration sound.
  • 6A to 6C are diagrams for explaining the guidance performed before the ear contacts the panel 20.
  • 7A to 7C are diagrams for explaining detection of the position of the ear that contacts the panel 20.
  • FIG. 8 is a diagram for explaining the guidance performed after the ear contacts the panel 20.
  • 9A and 9B are diagrams illustrating an example of a change in control.
  • the control for guiding the ear position to the standard position includes control performed before the ear contacts the panel 20 and control performed after the ear contacts the panel 20.
  • the control performed before the ear contacts the panel 20 will be described first.
  • the mobile phone 1A displays information on the display 2 for guiding the ear trying to touch the panel 20 to the standard position, as shown in FIGS. 6A to 6C. .
  • the cellular phone 1 ⁇ / b> A may or may not vibrate the panel 20. That is, the mobile phone 1A may start applying an electrical signal to the piezoelectric element 7 before the ear contacts the panel 20, or may start applying an electrical signal to the piezoelectric element 7 after the ear contacts the panel 20. .
  • the cellular phone 1 ⁇ / b> A places the ear in the frame 61 and a frame 61 that is approximately the same size as the ear, as shown in FIG. 6A.
  • a message 62 prompting the user may be displayed on the display 2.
  • the mobile phone 1A displays a symbol 63 or 65 corresponding to a predetermined part of the ear and a message 64 or 66 that prompts the user to match the part with the symbol 63 or 65. 2 may be displayed.
  • the part of the ear corresponding to the symbol may be a part where the user can easily adjust the position to the symbol, such as the upper end of the ear, or may be a part where the panel 20 is easy to contact like the tragus. Good.
  • the mobile phone 1 ⁇ / b> A may display an ear shape as shown in FIG. 3 on the display 2 as information for guiding the ear to the standard position.
  • the mobile phone 1A learns the standard position based on the position of the ear when the user uses the mobile phone 1A.
  • the mobile phone 1A tracks the position of the ear while the ear is in contact with the panel 20, and determines the standard position based on the tracking result.
  • the cellular phone 1A determines that the position is the standard position when the ear remains in contact with the panel 20 and stays at the same position for a longer period of time while applying an electrical signal to the piezoelectric element 7. .
  • This position may be a specific position within the region where ear contact is detected.
  • the cellular phone 1A may determine that the region is a standard region when the region in which the contact of the ear is detected does not change for a certain period of time while an electric signal is applied to the piezoelectric element 7.
  • the mobile phone 1A may determine the standard position based on information on a specific area in an image (described later) obtained based on the detection result of the touch screen 21 when an object touches.
  • the determined standard position is stored in the setting data 9Z.
  • the determination of the standard position may be performed only for a predetermined period after the use of the mobile phone 1A is started, or may be performed periodically with a predetermined interval.
  • the mobile phone 1A may not perform the standard position determination during normal use, but may perform calibration processing to determine the standard position at the start of use of the mobile phone 1A or when instructed by the user. Good.
  • the mobile phone 1A applies an electric signal to the piezoelectric element 7 to vibrate the panel 20, and makes the user rest the ear at a position where the ear is in contact with the panel 20 and the sound is easy to hear.
  • a prompt message is displayed on the display 2, and the standard position determination is started.
  • the standard position may be fixed in advance at a position where most people can easily hear the sound.
  • the mobile phone 1 ⁇ / b> A detects the position of the ear in contact with the panel 20 using the touch screen 21. For example, as illustrated in FIG. 7A, the mobile phone 1 ⁇ / b> A detects a position 72 determined based on an area 71 where an ear contact is detected by the touch screen 21 as an ear position.
  • the position 72 is, for example, the center (center of gravity) of the region 71.
  • the position 72 may be any of the vertices of the smallest rectangle including the area 71.
  • the position 72 may be a position corresponding to a predetermined part of the ear. In this case, the position 72 is calculated from the relative positional relationship with the region 71 based on information on the general position of the part in the ear.
  • This method makes it possible to detect the position of the ear in contact with the panel 20 without performing complicated calculations. Furthermore, this method can also be applied when the number of points on which the touch screen 21 can simultaneously detect contact with the panel 20 is small.
  • the mobile phone 1A detects the position of the ear by pattern matching between an image 73 obtained based on the detection result of the touch screen 21 at the time of contact with an object and a specimen 74 prepared in advance.
  • the image 73 is obtained by dividing the detection area of the touch screen 21 into a lattice shape and converting the detection state of the contact of the object in each of the divided areas into the corresponding pixel state.
  • the image 73 is a multi-tone image. Also good.
  • Specimen 74 is an image that should be obtained in the same manner as image 73 in the region where the ear is in contact with the ear.
  • the sample 74 may be an image that should be obtained when the user of the mobile phone 1A touches the ear, or may be an image that should be obtained when the general human ear touches.
  • a plurality of specimens 74 may be prepared such as a right ear image and a left ear image.
  • the specimen 74 includes a reference position 74a corresponding to a predetermined part of the ear.
  • the reference position 74a is located at (x1, y1) with the upper left of the sample 74 as a reference.
  • the reference position 74a may be set based on information regarding the position of the part in a general human ear.
  • the reference position 74a may be set by analyzing the image.
  • This method makes it possible to accurately detect the position of the ear in contact with the panel 20. Furthermore, this method determines whether the object that contacts the panel 20 is an ear or whether the object that contacts the panel 20 is a pre-registered person's ear by matching with a specimen. Enable. Furthermore, this scheme makes it possible to detect detailed information about ear contact, such as ear orientation and tilt.
  • the sample When detecting the position of the ear by pattern matching, the sample may not include the reference position.
  • the image 73 is pattern-matched with the sample 75 that does not include the reference position.
  • the sample 75 when the sample 75 is shifted by x3 in the X-axis direction and y3 in the Y-axis direction with the upper left of the image 73 as a reference, the two match best.
  • the position of the ear is calculated as (x3, y3), for example.
  • This method does not include the reference position, thus facilitating specimen preparation. For example, if the amount and direction of movement of the ear position are required and it is not necessary to specify the position of a specific part of the ear, the necessary information can be obtained by this method without setting a reference position for the specimen. Can do.
  • the method for detecting the position of the ear in contact with the panel 20 using the touch screen 21 is not limited to the above method, and other methods may be adopted.
  • the mobile phone 1A may be configured to guide the inclination of the ear that contacts the panel 20 to approach a suitable inclination registered in advance using a pattern matching method.
  • the mobile phone 1A adjusts the position where information for guiding the ear to the standard position is displayed according to what is used to detect the position of the ear. For example, it is assumed that the position of the ear is detected for pattern matching using a sample including a position corresponding to the tragus of the ear as a reference position.
  • the frame 61 shown in FIG. 6A is displayed so as to surround the area where the user's or general person's ear contacts when the tragus is located at the standard position, and the symbol 63 shown in FIG. A symbol 65 displayed at the upper end of the range and shown in FIG. 6C is displayed at the standard position.
  • the control performed after the ear touches the panel 20 in order to guide the ear position to the standard position will be described.
  • the mobile phone 1 ⁇ / b> A detects the position where the ear is in contact with the panel 20 by any one of the above methods or another method. Then, the mobile phone 1A performs control for bringing the ear position closer to the standard position.
  • the mobile phone 1A controls the electrical signal applied to the piezoelectric element 7 to guide the ear position closer to the standard position.
  • the cellular phone 1A controls the electric signal applied to the piezoelectric element 7 so that the volume decreases as the distance between the position 81 and the position 82 increases. That is, the mobile phone 1A changes the control of the piezoelectric element 7 so that the volume decreases as the distance between the position 81 and the position 82 increases.
  • the user can easily determine whether the position of the ear is approaching or moving away from the standard position by moving the mobile phone 1A while keeping the ear in contact with the panel 20.
  • the ear position can be brought close to the standard position.
  • the sound is output at the original volume as the ear position approaches the standard position, so that the volume does not change abruptly in the process where the ear position approaches the standard position. Can provide a natural and intuitive operation feeling.
  • FIG. 9A shows an example in which the control of the piezoelectric element 7 is changed according to the distance between the position 81 and the position 82
  • the cellular phone 1A further adds the direction of the other position viewed from one position to the condition.
  • the control of the piezoelectric element 7 may be changed.
  • FIG. 9A shows an example in which the volume of the sound to be output is changed according to the distance between the position 81 and the position 82
  • the mobile phone 1A has the sound quality of the sound to be output according to the distance between the position 81 and the position 82. May be changed. For example, as shown in FIG.
  • the mobile phone 1A changes the level of the treble part of the output sound according to the distance in the X-axis direction between the position 81 and the position 82, and the Y-axis direction between the position 81 and the position 82
  • the level of the bass part of the output sound may be changed according to the distance. According to such control, the user can easily grasp in which direction the mobile phone 1A is moved to move the ear position closer to the standard position.
  • FIG. 10 is a flowchart showing a control processing procedure for guiding the ear position to the standard position.
  • FIG. 11 is a flowchart showing a control processing procedure when a call is received. The processing procedure shown in FIGS. 10 and 11 is realized by the controller 10 executing the control program 9A.
  • the controller 10 detects that the object in contact with the panel 20 It is determined based on the detection result of the touch screen 21 (step S102).
  • the controller 10 causes the display 2 to display a guide indicating the position to contact the ear, as shown in FIGS. 6A to 6C (step S103). ). The display of the guide is continued until an object that contacts the panel 20 is detected.
  • step S104 the controller 10 acquires information indicating the standard position from the setting data 9Z stored in the storage 9 (step S104).
  • the controller 10 may turn off the display 2 in order to reduce power consumption. If the control for turning off the display 2 by the controller 10 when the proximity sensor 5 detects the approach of the face to the display 2 is implemented in another processing procedure, the control for turning off the display 2 is performed in this implementation procedure. It is not necessary to execute. In general, in a mobile phone such as a smartphone, when the proximity sensor 5 detects the approach of a face to the panel 20, in addition to the control for turning off the display 2, the control for disabling the touch screen 21 to prevent erroneous operation is performed. Done. In the present embodiment, since the position of the ear in contact with the panel 20 is detected using the touch screen 21, even when the proximity sensor 5 detects the approach of the face to the panel 20, the touch screen 21. Is left valid.
  • the controller 10 calculates the position of the object in contact with the panel 20 based on the detection result of the touch screen 21 (step S105). Then, the controller 10 calculates a deviation between the calculated position and the standard position (step S106).
  • the calculated deviation may include only a value related to the distance, or may include a value related to the distance and a value related to the direction.
  • the controller 10 changes the control of the guiding means according to the calculated deviation (step S107).
  • the guiding means is the piezoelectric element 7 and the control of the guiding means is changed, for example, as shown in FIG. 9A or 9B.
  • the controller 10 records the position of the object in contact with the panel 20 (step S108), and determines whether or not to end the sound output of the panel 20 (step S109).
  • ending the sound output for example, when the operation for ending the sound output by the user is detected and the process for outputting the sound such as a call, music playback, video playback, etc. is completed. Includes cases.
  • Step S109 If the sound output is not terminated (No at Step S109), the controller 10 re-executes Step S105 and the subsequent steps.
  • the controller 10 calculates a standard position based on the recorded position, and updates the standard position stored in the setting data 9Z if necessary (step S109). S110).
  • the standard position stored in the setting data 9Z needs to be updated, for example, when the ear stays at a position other than the standard position for a longer period of time, or longer than the predetermined period since the standard position was last updated. This is when the period has elapsed.
  • the controller 10 may interrupt the loop from step S105 to step S109 and execute step S110 when the deviation becomes smaller than the threshold value.
  • the controller 10 may interrupt the loop from step S105 to step S109 and execute step S110 when a predetermined time has elapsed since the contact of the object with the panel 20 was detected.
  • the controller 10 may disable the touch screen 21 in order to further reduce power consumption. Even when the loop is interrupted, the sound output through the panel 20 is continued.
  • the controller 10 may start the processing related to the output of the sound when the deviation between the ear position and the standard position becomes smaller than the threshold value. For example, the controller 10 starts guidance of the ear position when an incoming call is received, and automatically starts the reception process when the difference between the ear position and the standard position becomes smaller than a threshold value. May be. A processing procedure in this case will be described.
  • step S201 when there is an incoming call (step S201), the controller 10 starts to output a ringtone to notify the user of the incoming call (step S202).
  • the ringing tone may be output via the panel 20, the speaker 11, or both.
  • the controller 10 may use vibration of the vibrator 18 and blinking of a lamp in order to notify the user of an incoming call.
  • the controller 10 determines whether there is an object in contact with the panel 20 based on the detection result of the touch screen 21 (step S203). If there is no object in contact with the panel 20 (step S203, No), the controller 10 causes the display 2 to display a guide indicating the position to contact the ear, as shown in FIGS. 6A to 6C (step S204). ). The display of the guide is continued until an object that contacts the panel 20 is detected.
  • step S203 When there is an object in contact with the panel 20 (step S203, Yes), the controller 10 acquires information indicating the standard position from the setting data 9Z stored in the storage 9 (step S205). At this stage, the controller 10 outputs a ring tone through at least the panel 20. When the ring tone is output via the speaker 11, the controller 10 may stop outputting the ring tone via the speaker 11 at this stage. Control related to turning off the display 2 and disabling the touch screen 21 when there is an object in contact with the panel 20 is the same as in FIG.
  • the controller 10 calculates the position of the object in contact with the panel 20 based on the detection result of the touch screen 21 (step S206). Then, the controller 10 calculates a deviation between the calculated position and the standard position (step S207).
  • the calculated deviation may include only a value related to the distance, or may include a value related to the distance and a value related to the direction.
  • the controller 10 changes the control of the guiding means according to the calculated deviation (step S208).
  • the control of the guiding means is the same as the control already described.
  • the controller 10 determines whether or not the calculated deviation is less than a threshold value (step S209). If the deviation is not less than the threshold (No at Step S209), Step S206 and subsequent steps are re-executed.
  • the controller 10 executes a reception process (step S210).
  • the reception process is a process for starting a call in response to a signal indicating off-hook.
  • the voice of the other party is transmitted to the user via the panel 20.
  • the mobile phone 1A can start a call without causing the user to perform an extra operation in a state in which the user can easily hear the other party's voice. Can do.
  • the call is continued until an operation or the like for disconnecting the call is performed on either side (step S211).
  • FIG. 12 is a front view of the mobile phone 1 ⁇ / b> B arranged so that the touch screen 21 does not overlap the panel 20.
  • FIG. 13 is a cross-sectional view schematically showing a bb cross section of the mobile phone 1B.
  • the display 2 is arranged side by side with the panel 20 so as to be in the same plane as the panel 20, not inside the panel 20.
  • the touch screen 21 is disposed so as to cover almost the entire front surface of the display 2. That is, the touch screen 21 and the display 2 constitute a so-called touch panel (touch screen display).
  • the piezoelectric element 7 is attached to the center of the back surface of the panel 20 by a joining member 30.
  • the panel 20 vibrates in accordance with deformation (expansion / contraction or bending) of the piezoelectric element 7, and air conduction sound and a part of the human body that contacts the panel 20 (for example, an ear) And vibration sound transmitted through the cartilage.
  • the piezoelectric element 7 By disposing the piezoelectric element 7 in the center of the panel 20, the vibration of the piezoelectric element 7 is evenly transmitted to the entire panel 20, and the quality of air conduction sound and vibration sound is improved.
  • the touch screen 21 is not disposed on the front surface of the panel 20, the panel 20 is disposed in the vicinity of the display 2 where the touch screen 21 is disposed.
  • the panel 20 When the user of the mobile phone 1 ⁇ / b> B having such a configuration touches his / her ear to the panel 20 in order to hear vibration sound, the panel 20 is in the vicinity of the touch screen 21, and thus a part of the ear touches the touch screen 21. To do. For this reason, the detection area of the touch screen 21 is divided into a lattice shape, and the detection state of the contact of the ear in each of the divided areas is converted into the corresponding pixel state, whereby an image 76 as shown in FIG. Is obtained.
  • the cellular phone 1B obtains the relative position of the image 76 and the sample 75 when they are most matched by pattern matching.
  • the position of the ear is calculated as (x4, ⁇ y4).
  • the cellular phone 1B can also detect the position of the ear using the specimen 74 including the reference position 74a.
  • the mobile phone 1B can execute control for guiding the position of the ear to the standard position, similarly to the mobile phone 1A.
  • the cellular phone 1B displays the entire diagram 67a of the cellular phone 1B and the message 69a on the display 2, and arranges the symbol 68a on the entire diagram 67a.
  • FIG. 16 is a front view of the mobile phone 1 ⁇ / b> C arranged so that the touch screen 21 does not overlap the display 2.
  • FIG. 17 is a cross-sectional view schematically showing a cc cross section of the mobile phone 1C.
  • the display 2 is arranged side by side with the panel 20 so as to be in the same plane as the panel 20 instead of inside the panel 20.
  • the piezoelectric element 7 is attached to the center of the back surface of the panel 20 by a joining member 30.
  • a reinforcing member 31 is disposed between the panel 20 and the piezoelectric element 7. That is, in the cellular phone 1 ⁇ / b> C, the piezoelectric element 7 and the reinforcing member 31 are bonded by the bonding member 30, and the reinforcing member 31 and the panel 20 are bonded by the bonding member 30.
  • the reinforcing member 31 is an elastic member such as rubber or silicon.
  • the reinforcing member 31 may be a metal plate made of aluminum or the like having a certain degree of elasticity, for example.
  • the reinforcing member 31 may be a stainless plate such as SUS304.
  • the thickness of a metal plate such as a stainless steel plate is suitably 0.2 mm to 0.8 mm, for example, depending on the voltage value applied to the piezoelectric element 7 and the like.
  • the reinforcing member 31 may be a resin plate, for example.
  • As resin which forms the resin-made board here a polyamide-type resin is mentioned, for example.
  • the polyamide-based resin examples include Reny (registered trademark), which is made of a crystalline thermoplastic resin obtained from metaxylylenediamine and adipic acid and is rich in strength and elasticity.
  • Reny registered trademark
  • Such a polyamide-based resin may be a reinforced resin reinforced with glass fiber, metal fiber, carbon fiber, or the like using itself as a base polymer. The strength and elasticity of the reinforced resin are appropriately adjusted according to the amount of glass fiber, metal fiber, carbon fiber, or the like added to the polyamide-based resin.
  • the reinforced resin is formed, for example, by impregnating a resin into a base material formed by braiding glass fiber, metal fiber, carbon fiber or the like and curing it.
  • the reinforced resin may be formed by mixing a finely cut fiber piece into a liquid resin and then curing it.
  • the reinforced resin may be a laminate of a base material in which fibers are knitted and a resin layer.
  • the reinforcing member 31 By arranging the reinforcing member 31 between the piezoelectric element 7 and the panel 20, the following effects can be obtained.
  • an external force is applied to the panel 20, the possibility that the external force is transmitted to the piezoelectric element 7 and the piezoelectric element 7 is damaged can be reduced.
  • the reinforcing member 31 Since the reinforcing member 31 has predetermined elasticity, it is elastically deformed by an external force transmitted from the panel 20. Therefore, at least a part of the external force applied to the panel 20 is absorbed by the reinforcing member 31, and the external force transmitted to the piezoelectric element 7 is reduced.
  • the reinforcing member 31 is disposed between the piezoelectric element 7 and the casing 40, the casing 40 is deformed, for example, when the mobile phone 1C falls on the ground, and the deformed casing 40 collides with the piezoelectric element 7 and the piezoelectric element. The possibility that 7 is damaged can be reduced.
  • the vibration due to expansion / contraction or bending of the piezoelectric element 7 is first transmitted to the reinforcing member 31 and further transmitted to the panel 20. That is, the piezoelectric element 7 first vibrates the reinforcing member 31 having a larger elastic coefficient than the piezoelectric element 7 and further vibrates the panel 20. Therefore, the cellular phone 1 ⁇ / b> C does not include the reinforcing member 31, and the piezoelectric element 7 can be less likely to be excessively deformed as compared with the structure in which the piezoelectric element 7 is bonded to the panel 20 by the bonding member 30. Thereby, the deformation amount (degree of deformation) of the panel 20 can be adjusted. This structure is particularly effective in the case of the panel 20 that hardly obstructs the deformation of the piezoelectric element 7.
  • FIG. 18 is a diagram illustrating an example of a change in frequency characteristics due to the reinforcing member 31.
  • FIG. 18 shows a frequency characteristic when a sheet metal such as SUS304 is used as the reinforcing member 31 and a frequency characteristic when a reinforced resin such as Reny is used as the reinforcing member 31.
  • the horizontal axis represents frequency and the vertical axis represents sound pressure.
  • the resonance point when reinforced resin is used is about 2 kHz, and the resonance point when sheet metal is used is about 1 kHz.
  • the dip when using reinforced resin is about 4 kHz, and the dip when using sheet metal is about 3 kHz. That is, when the reinforced resin is used, the resonance point of the panel 20 is located in a higher frequency region and the frequency characteristic dip is located in a higher frequency region, compared to the case where a sheet metal is used. Since the frequency band used for the voice call of the cellular phone is 300 Hz to 3.4 kHz, when reinforced resin is used as the reinforcing member 31, the dip can be prevented from being included in the used frequency band of the cellular phone 1C. .
  • the dip is not included in the use frequency band of the cellular phone 1C by appropriately adjusting the type or composition of the metal constituting the sheet metal or the thickness of the sheet metal. be able to.
  • the reinforced resin can reduce the influence on the antenna performance as compared with the sheet metal. Since reinforced resin is less likely to be plastically deformed than sheet metal, there is an advantage that acoustic characteristics are less likely to change.
  • the reinforced resin suppresses the temperature rise at the time of sound generation compared to the sheet metal.
  • a plate-like weight may be attached to the piezoelectric element 7 by the joining member 30.
  • the panel 20 vibrates in accordance with deformation (expansion / contraction or bending) of the piezoelectric element 7, and air conduction sound and a part of the human body that contacts the panel 20 (for example, an ear) And vibration sound transmitted through the cartilage.
  • the touch screen 21 is disposed so as to cover almost the entire front surface of the panel 20.
  • the touch screen 21 When the user of the mobile phone 1C configured as described above touches the panel 20 to hear the vibration sound, the touch screen 21 is smaller than the ear, but a part of the ear touches the touch screen 21. To do. For this reason, the detection area of the touch screen 21 is divided into a lattice shape, and the detection state of the contact of the ear in each of the divided areas is converted into the corresponding pixel state, whereby an image 77 as shown in FIG. Is obtained.
  • the mobile phone 1C obtains the relative position of the image 77 and the sample 75 when they are most matched by pattern matching.
  • the position of the ear is calculated as (x5, -y5).
  • the mobile phone 1C can also detect the position of the ear using the specimen 74 including the reference position 74a.
  • the mobile phone 1 ⁇ / b> C can detect the position of the ear in contact with the panel 20 using the touch screen 21 even if the touch screen 21 is arranged so as not to overlap the display 2. Accordingly, the mobile phone 1C can execute control for guiding the position of the ear to the standard position, similarly to the mobile phone 1A.
  • the cellular phone 1C displays the entire diagram 67b and the message 69b of the cellular phone 1C on the display 2, and arranges the symbol 68b on the entire diagram 67b.
  • Embodiments disclosed in the present application can include matters that are apparent to those skilled in the art, and can be modified without departing from the spirit and scope of the invention. Furthermore, the embodiment disclosed in the present application and its modifications can be combined as appropriate. For example, the above embodiment may be modified as follows.
  • each program shown in FIG. 5 may be divided into a plurality of modules or may be combined with other programs.
  • the detection unit that detects the position of the object is not limited to the touch screen 21.
  • the detection unit that detects the position of the object may be the camera 12. In this case, the position of the object is detected based on the image acquired by the camera 12.
  • the detection unit that detects the movement of the object is not limited to the touch screen 21.
  • the movement of the object may be detected based on an image acquired by the camera 12 or may be detected by an acceleration sensor included in the posture detection unit 15.
  • the mobile phones 1A to 1C determine whether or not the object in contact with the panel 20 is an ear.
  • guidance may be performed only for the ear.
  • the control can be switched according to the situation. Whether or not the object in contact with the panel 20 is an ear can be determined, for example, by increasing the accuracy of pattern matching with a specimen.
  • the mobile phones 1A to 1C may be configured to support a plurality of users.
  • the standard position for each user is stored in the setting data 9Z.
  • the mobile phones 1A to 1C determine which user's ear is registered in advance as the object that touches the panel 20, and guide to the standard position corresponding to the determined user.
  • Which user's ear is the object in contact with the panel 20 can be determined, for example, by preparing a specimen for each user.
  • which user's ear is the object that touches the panel 20 can be determined by determining the position where the ear is first contacted to be different for each user.
  • the piezoelectric element 7 is used as the guiding means for guiding to the standard position.
  • the guiding means moves the ear to the standard position while the user is in contact with the panel 20.
  • the guidance unit may be the vibrator 18 or the speaker 11.
  • the vibrator 18 is used as a guidance means, guidance is realized by changing the strength or frequency of vibration caused by the vibrator 18.
  • the speaker 11 is used as guidance means, guidance is realized using sound output from the speaker 11.
  • the guidance may be realized by using a plurality of guiding means in combination.
  • the detection position of the ear is recorded to update the standard position while performing control for guidance to the standard position.
  • these operations are performed at different timings.
  • the cellular phones 1A to 1C perform control for guidance to the standard position until the predetermined condition is satisfied after the contact of the object to the panel 20 is detected, and then starts recording the detection position of the ear It may be configured to.
  • the predetermined condition is that a deviation between the ear position and the standard position is smaller than a threshold value, or that a certain time has elapsed.
  • the mobile phone may perform notification related to the specific position by displaying information on the specific position on the display 2.
  • the mobile phone may display information on a specific position (optimum position) at which vibration sound is most easily transmitted to the user on the display 2.
  • a specific position optimum position
  • the region approximately 1 cm below the region of the panel 20 where the piezoelectric element 7 is attached is the optimum position.
  • the optimum position can change according to various parameters such as the size of the panel 20, the material of the panel 20, or the amplitude of vibration of the piezoelectric element 7, for example.
  • the region directly above the piezoelectric element does not necessarily match the optimum position where vibration sound is most easily transmitted to the user. This is due to the relationship between the position where the piezoelectric element is attached to the panel and the position where the user's ear and the panel are in contact.
  • the piezoelectric element 7 is disposed in the vicinity of a predetermined distance from one end of the panel 20.
  • the degree of deformation of the panel 20 due to the deformation of the piezoelectric element 7 becomes smaller as the area is farther from the area where the piezoelectric element 7 is attached. That is, the vibration of the panel 20 attenuates as the distance from the region where the piezoelectric element 7 is attached is increased.
  • vibration occurs when the ear is applied to a region about 1 cm below the region directly above the piezoelectric element of the panel 20.
  • the ratio of sound volume to noise (S / N ratio) is maximized.
  • the mobile phone may display an image imitating the shape of the ear on the display 2 as information on the optimum position.
  • the mobile phone displays an image 85 simulating the shape of the ear on the display 2 so that, for example, the tragus corresponds to the optimal position of the panel 20.
  • air conduction sound and vibration sound may be generated.
  • the user may be notified of a specific position (optimum position) by providing a projection (projection) having a predetermined shape on the panel 20 or the housing 40.
  • the protrusion is provided, for example, at a position along the outline of the ear ring when the ear contacts the optimal position, or at a position of the tragus when the ear contacts the optimal position. In this case, the user can recognize the optimum position when a part of the ear contacts the protrusion. That is, the protrusion functions as one of the notification units of the present application.
  • a cutout (concave portion) may be formed in the panel 20 or the casing 40.
  • the mobile phone 1A has a space between the panel 20 and the display 2. May be configured. By providing a space between the panel 20 and the display 2, the panel 20 easily vibrates, and the range on which the vibration sound can be easily heard on the panel 20 is widened.
  • the piezoelectric element 7 may be attached to another place.
  • the piezoelectric element 7 may be attached to a battery lid.
  • the battery lid is a member that is attached to the housing 40 and covers the battery. Since the battery lid is often attached to a surface different from the display 2 in a portable electronic device such as a cellular phone, according to such a configuration, the user can place a part of the body (for example, an ear) on a surface different from the display 2. You can hear the sound by touching.
  • the piezoelectric element 7 may be configured to vibrate corners of the housing 40 (for example, at least one of the four corners).
  • the piezoelectric element 7 may be configured to be attached to the inner surface of the corner portion of the housing 40, or may further include an intermediate member, and the vibration of the piezoelectric element 7 may be transmitted to the corner portion of the housing 40 via the intermediate member. But you can. According to this configuration, the vibrating range can be made relatively narrow, so that air conduction sound generated by the vibration is difficult to leak to the surroundings. In addition, according to this configuration, for example, the air conduction sound and the vibration sound are transmitted to the user in a state where the user inserts the corner portion of the housing into the ear canal, so that ambient noise hardly enters the user's ear canal. Therefore, the quality of the sound transmitted to the user can be improved.
  • the reinforcing member 31 is a plate-like member, but the shape of the reinforcing member 31 is not limited to this.
  • the reinforcing member 31 may have a shape that is larger than the piezoelectric element 7 and has an end that curves toward the piezoelectric element 7 and covers the side of the piezoelectric element 7.
  • the reinforcing member 31 may have, for example, a shape having a plate-like portion and an extending portion that extends from the plate-like portion and covers the side portion of the piezoelectric element 7. In this case, it is preferable that the extended portion and the side portion of the piezoelectric element 7 are separated by a predetermined distance. Thereby, it becomes difficult for an extending part to inhibit a deformation
  • a mobile phone has been described as an example of a device according to the appended claims.
  • the device according to the appended claims is not limited to a mobile phone.
  • the device according to the appended claims may be a mobile electronic device other than a mobile phone.
  • the portable electronic device include, but are not limited to, a tablet, a portable personal computer, a digital camera, a media player, an electronic book reader, a navigator, and a game machine.

Abstract

 電子機器(携帯電話)(1A)は、圧電素子(7)と、圧電素子(7)によって振動し、人体の一部を振動させて伝わる振動音を発生させる音発生部(パネル)(20)と、を備える。電子機器(1A)は、音発生部(20)における特定の位置をユーザに知らせる報知を行う。上記の特定の位置は、例えば、人体の一部を当てることが推奨される位置である。

Description

電子機器、制御方法、及び制御プログラム
 本出願は、電子機器、制御方法、及び制御プログラムに関する。
 特許文献1には、気導音と振動音とを利用者に伝える電子機器が記載されている。特許文献1には、電子機器の筺体の外面に配置される振動体の圧電素子に電圧が印加されると、圧電素子が伸縮することにより振動体が屈曲振動することが記載されている。また、特許文献1には、利用者が屈曲振動する振動体を耳介に接触させると、気導音と振動音とが利用者に伝えられることが記載されている。特許文献1によれば、気導音とは、物体の振動に起因する空気の振動が外耳道を通って鼓膜に伝わり、鼓膜が振動することによって利用者の聴覚神経に伝わる音である。また、特許文献1によれば、振動音とは、振動する物体に接触する利用者の体の一部(例えば外耳の軟骨)を介して利用者の聴覚神経に伝わる音である。
特開2005-348193号公報
 ところで、一般に、電子機器の利用者にとっては、利用者にとって音を聞きやすい位置がわかるとよい。
 1つの態様に係る電子機器は、圧電素子と、前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる音発生部と、を備える電子機器である。前記電子機器は、前記音発生部における特定の位置をユーザに知らせる報知を行う。
 1つの態様に係る方法は、音発生部と圧電素子とを備える電子機器によって実行される制御方法であって、前記音発生部における特定の位置をユーザに知らせる報知を行うステップと、前記圧電素子によって前記音発生部を振動させることにより、人体の一部を振動させて伝わる振動音を発生させるステップとを含む。
 1つの態様に係る制御プログラムは、パネルと圧電素子とを備える電子機器に、前記音発生部における特定の位置をユーザに知らせる報知を行うステップと、前記圧電素子によって前記音発生部を振動させることにより、人体の一部を振動させて伝わる振動音を発生させるステップとを実行させる。
図1は、実施形態に係る携帯電話の正面図である。 図2は、実施形態に係る携帯電話の断面図である。 図3は、パネルの形状の例を示す図である。 図4は、パネルの振動の例を示す図である。 図5は、実施形態に係る携帯電話のブロック図である。 図6Aは、接触前に行われる誘導について説明するための図である。 図6Bは、接触前に行われる誘導について説明するための図である。 図6Cは、接触前に行われる誘導について説明するための図である。 図7Aは、耳の位置の検出について説明するための図である。 図7Bは、耳の位置の検出について説明するための図である。 図7Cは、耳の位置の検出について説明するための図である。 図8は、接触後に行われる誘導について説明するための図である。 図9Aは、制御の変更の例を示す図である。 図9Bは、制御の変更の例を示す図である。 図10は、耳の位置を標準位置へ誘導するための制御の処理手順を示すフローチャートである。 図11は、通話の着信時の制御の処理手順を示すフローチャートである。 図12は、他の実施形態に係る携帯電話の正面図である。 図13は、他の実施形態に係る携帯電話の断面図である。 図14は、耳の位置の検出について説明するための図である。 図15は、接触前に行われる誘導について説明するための図である。 図16は、他の実施形態に係る携帯電話の正面図である。 図17は、他の実施形態に係る携帯電話の断面図である。 図18は、パネルの共振周波数の例を示す図である。 図19は、耳の位置の検出について説明するための図である。 図20は、接触前に行われる誘導について説明するための図である。 図21は、耳の形状を模した画像をディスプレイに表示する例を示す図である。
 本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、気導音と振動音とを利用者に伝える電子機器の例として、携帯電話について説明する。
(実施形態1)
 図1及び図2を参照しながら、実施形態に係る携帯電話1Aの全体的な構成について説明する。図1は、携帯電話1Aの正面図である。図2は、携帯電話1Aのa-a断面を模式的に示す断面図である。図1及び図2に示すように、携帯電話1Aは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、圧電素子7と、マイク8と、カメラ12と、パネル20と、筐体40とを備える。
 ディスプレイ2は、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro-Luminescence Display)等の表示デバイスを備える。ディスプレイ2は、文字、画像、記号、及び図形等を表示する。
 ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、図1及び図2に示す例に限定されない。
 照度センサ4は、携帯電話1Aの周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2の輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2が顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
 圧電素子7は、電気信号(音信号に応じた電圧)が印加されると、構成材料の電気機械結合係数に従い伸縮又は屈曲する。すなわち、圧電素子7は、電気信号が印加されると変形する。圧電素子7は、パネル20に取り付けられ、パネル20を振動させるための振動源として用いられる。圧電素子7は、例えば、セラミック又は水晶を用いて形成される。圧電素子7は、ユニモルフ、バイモルフ、又は積層型圧電素子であってよい。積層型圧電素子には、バイモルフを積層した(例えば16層又は24層積層した)積層型バイモルフ素子が含まれる。積層型の圧電素子は、例えば、PZT(チタン酸ジルコン酸鉛)からなる複数の誘電体層と、該複数の誘電体層間に配設された電極層との積層構造体から構成される。ユニモルフは、電気信号(電圧)が印加されると伸縮する。バイモルフは、電気信号(電圧)が印加されると屈曲する。
 マイク8は、音入力部である。マイク8は、入力される音を電気信号へ変換する。スピーカ11は、気導方式で音を出力する音出力部である。スピーカ11は、例えば、ダイナミックスピーカであり、電気信号を変換した音を、耳を携帯電話1Aに接触させていない人へも伝えることができる。スピーカ11は、例えば、音楽を出力するために用いられる。
 カメラ12は、ディスプレイ2に面している物体を撮影するインカメラである。カメラ12は、撮影した画像を電気信号へ変換する。携帯電話1Aは、カメラ12に加えて、ディスプレイ2の反対側の面に面している物体を撮影するアウトカメラを備えてもよい。
 パネル20は、圧電素子7の変形(伸縮又は屈曲)にともなって振動し、利用者がパネル20に接触させる耳の軟骨(耳介軟骨)等にその振動を伝える。パネル20は、ディスプレイ2及び圧電素子7等を外力から保護する機能も有する。パネル20は、例えば、ガラス、又はアクリル等の合成樹脂により形成される。パネル20の形状は、例えば、板状である。パネル20は、平板であってよい。パネル20は、表面が滑らかに湾曲する曲面パネルであってもよい。
 パネル20の背面には、接合部材30により、ディスプレイ2と、圧電素子7とが取り付けられる。圧電素子7は、パネル20の背面に配置された状態で、筺体40の内表面と所定の距離だけ離間している。圧電素子7は、伸縮または屈曲した状態でも、筺体40の内表面と離間しているとよい。すなわち、圧電素子7と筺体40の内表面との間の距離は、圧電素子7の最大変形量よりも大きいとよい。圧電素子7は、補強部材(例えば、板金又はガラス繊維強化樹脂)を介してパネル20に取り付けられてもよい。接合部材30は、例えば、両面テープ、又は熱硬化性あるいは紫外線硬化性等を有する接着剤である。接合部材30は、無色透明のアクリル系紫外線硬化型接着剤である光学弾性樹脂でもよい。
 ディスプレイ2は、パネル20の短手方向におけるほぼ中央に配設される。圧電素子7は、パネル20の長手方向の端部から所定の距離だけ離間した近傍に、圧電素子7の長手方向がパネル20の短手方向と平行になるように配設される。ディスプレイ2及び圧電素子7は、パネル20の内側の面に、平行に並べて配設される。
 パネル20の外側の面のほぼ全面には、タッチスクリーン(タッチセンサ)21が配設される。タッチスクリーン21は、パネル20に対する接触を検出する。タッチスクリーン21は、指、ペン、又はスタイラスペン等による利用者の接触操作を検出するために用いられる。タッチスクリーン21を用いて検出されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。タッチスクリーン21の検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。
 タッチスクリーン21は、音を聞くためにパネル20に接触する耳介軟骨等を検出するためにも用いられる。
 筐体40は、樹脂又は金属を用いて形成される。筐体40は、ボタン3、照度センサ4、近接センサ5、マイク8、スピーカ11、カメラ12、およびパネル20等を支持する。
 図1から図4を参照しながら、実施形態に係る携帯電話1Aによる音の出力についてより詳細に説明する。図3は、パネル20の形状の例を示す図である。図4は、パネル20の振動の例を示す図である。
 圧電素子7には、出力する音に応じた電気信号が印加される。圧電素子7には、例えば、外耳道を介する気導音によって音を伝える所謂パネルスピーカの印加電圧である±5Vよりも高い、±15Vが印加されてもよい。これにより、利用者が、例えば、3N以上の力(5N~10Nの力)でパネル20に自身の体の一部を押し付けた場合であっても、パネル20に十分な振動を発生させ、利用者の体の一部を介して伝わる振動音を発生させることができる。圧電素子7に印加される電圧は、パネル20の筺体40に対する固定強度、又は圧電素子7の性能等に応じて適宜調整可能である。
 電気信号が印加されると、圧電素子7は長手方向に伸縮又は屈曲する。圧電素子7が取り付けられたパネル20は、圧電素子7の伸縮又は屈曲に合わせて変形する。これにより、パネル20は、振動し、気導音を発生させる。さらに、利用者が体の一部(例えば、耳介軟骨)をパネル20に接触させた場合、パネル20は、体の一部を介して利用者に伝導する振動音を発生させる。すなわち、パネル20は、圧電素子7の変形にともなって、パネル20に接触する物体に対して振動音として知覚される周波数で振動する。パネル20は、圧電素子7の伸縮または屈曲によって湾曲する。パネル20は、圧電素子7によって直接的に曲げられる。「パネル20が圧電素子によって直接的に曲げられる」とは、従来のパネルスピーカで採用されているような、圧電素子をケーシング内に配設して構成される圧電アクチュエータの慣性力によりパネルの特定の領域が加振されパネルが変形する現象とは異なる。「パネル20が圧電素子によって直接的に曲げられる」とは、圧電素子の伸縮または屈曲(湾曲)が、接合部材を介して、或いは接合部材及び後述の補強部材31を介して、直にパネルを曲げることを意味する。
 例えば、圧電素子7に、通話の相手の音声、又は着信音、音楽等の音データに応じた電気信号が印加されると、パネル20は、電気信号に対応する気導音及び振動音を発生させる。圧電素子7及びパネル20を介して出力される音信号は、後述するストレージ9に記憶されている音データに基づくものであってよい。圧電素子7及びパネル20を介して出力される音信号は、外部のサーバ等に記憶され、後述する通信ユニット6によりネットワークを介して取得される音データに基づくものであってもよい。
 本実施形態において、パネル20は、利用者の耳とほぼ同じ大きさであってよい。また、パネル20は、図3に示すように、利用者の耳よりも大きなサイズであってもよい。この場合、利用者は、音を聞くときに耳の外周部のほぼ全体をパネル20に接触させることができる。このようにして音を聞くことにより、周囲音(ノイズ)が外耳道に入り難くなる。本実施形態では、少なくとも、パネル20は、人間の対耳輪下脚(下対輪脚)から対耳珠までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から対耳輪までの間の距離に相当する短手方向(又は長手方向)の長さとを有する領域よりも広い領域が振動する。パネル20は、耳輪における対耳輪上脚(上対輪脚)近傍の部位から耳垂までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から耳輪における対耳輪近傍の部位までの間の距離に相当する短手方向(又は長手方向)の長さを有する領域が振動してもよい。上記の長さおよび幅を有する領域は、長方形状の領域であってもよいし、上記の長手方向の長さを長径、上記の短手方向の長さを短径とする楕円形状であってもよい。人間の耳の平均的な大きさは、例えば、社団法人 人間生活工学研究センター(HQL)作成の日本人の人体寸法データベース(1992-1994)等を参照すれば知ることができる。
 図4に示すように、パネル20は、圧電素子7が取り付けられた取付領域20aだけでなく、取付領域20aから離れた領域も振動する。パネル20は、振動する領域において、当該パネル20の主面と交差する方向に振動する箇所を複数有し、当該複数の箇所の各々において、振動の振幅の値が、時間とともにプラスからマイナスに、あるいはその逆に変化する。パネル20は、それぞれの瞬間において、振動の振幅が相対的に大きい部分と振動の振幅が相対的に小さい部分とがパネル20の略全体に一見ランダム又は規則的に分布した振動をする。すなわち、パネル20全域にわたって、複数の波の振動が検出される。上記のように圧電素子7に対して印加される電圧が±15Vであれば、利用者が例えば5N~10Nの力で自身の体にパネル20を押し付けた場合であっても、パネル20の上述した振動は減衰しにくい。このため、利用者は、パネル20上の取付領域20aから離れた領域に耳を接触させても、振動音を聞くことができる。
 本実施形態では、ディスプレイ2がパネル20に取り付けられている。このため、パネル20の下部(ディスプレイ2が取り付けられている側)は、剛性が上がり、パネル20の上部(圧電素子7が取り付けられている側)と比べて、振動が小さい。このため、パネル20の下部において、パネル20が振動することによる気導音の音漏れが低減される。パネル20は、圧電素子7によってその上部が直接的に曲げられ、当該上部に比して下部では振動が減衰する。パネル20は、圧電素子7の長辺方向において該圧電素子7の直上がその周囲と比較して最も高く隆起するように、圧電素子7によって曲げられる。
 携帯電話1Aは、パネル20の振動により、気導音と、利用者の体の一部(例えば耳介軟骨)を介する振動音とを利用者に伝えることができる。そのため、携帯電話1Aは、ダイナミックレシーバと同等の音量の音を出力する場合、空気の振動により携帯電話1Aの周囲へ伝わる音を、ダイナミックスピーカのみを有する電子機器と比較して、少なくすることができる。このような特徴は、例えば、録音されたメッセージを電車内のような近くに他人がいる場所で聞く場合等に好適である。
 さらに、携帯電話1Aは、パネル20の振動により利用者に振動音を伝える。そのため、利用者は、イヤホン又はヘッドホンを身につけていても、それらに携帯電話1Aを接触させることで、イヤホン又はヘッドホン及び体の一部を介して、パネル20の振動による振動音を聞くことができる。
 さらに、携帯電話1Aは、パネル20の振動により音を伝える。そのため、携帯電話1Aが別途ダイナミックレシーバを備えない場合、パネル20が発する音を外部に伝えるための開口部(放音口)を筐体40に形成する必要がない。このため、防水構造を実現する場合に、構造を簡略化することができる。携帯電話1Aは、ダイナミックスピーカの放音口等の開口部を筐体40に形成する必要がある場合、防水構造を実現するために、気体は通すが液体は通さない部材によって開口部を閉塞する構造を採用してもよい。気体は通すが液体は通さない部材は、例えば、ゴアテックス(登録商標)である。
 図5を参照しながら、携帯電話1Aの機能的な構成について説明する。図5は、携帯電話1Aのブロック図である。図5に示すように、携帯電話1Aは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、圧電素子7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、姿勢検出ユニット15と、バイブレータ18と、タッチスクリーン21とを備える。
 通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
 ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2に画面を表示させ、タッチスクリーン21によって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
 ストレージ9は、例えば、制御プログラム9A、通話アプリケーション9B、音楽再生アプリケーション9C、動画再生アプリケーション9D、及び設定データ9Zを記憶する。通話アプリケーション9Bは、無線通信による通話のための通話機能を提供する。音楽再生アプリケーション9Cは、音楽データから音を再生するための音楽再生機能を提供する。動画再生アプリケーション9Dは、動画データから動画及び音を再生するための動画再生機能を提供する。設定データ9Zは、携帯電話1Aの動作に関連する各種の設定に関する情報を含む。
 制御プログラム9Aは、携帯電話1Aを稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、圧電素子7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、音を聞くためにパネル20に接触する耳の位置を好適な位置へ誘導するための制御を行う機能が含まれる。制御プログラム9Aが提供する機能は、通話アプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
 コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、及びFPGA(Field-Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、携帯電話1Aの動作を統括的に制御して各種の機能を実現する。
 具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2、通信ユニット6、圧電素子7、マイク8、スピーカ11、及びバイブレータ18を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、ボタン3、照度センサ4、近接センサ5、カメラ12、姿勢検出ユニット15、及びタッチスクリーン21を含むが、これらに限定されない。
 コントローラ10は、例えば、制御プログラム9Aを実行することにより、音を聞くためにパネル20に接触する耳の位置を好適な位置へ誘導するための制御を実行する。
 姿勢検出ユニット15は、携帯電話1Aの姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。バイブレータ18は、携帯電話1Aの一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータを有する。バイブレータ18による振動は、音を伝えるためではなく、着信等の各種のイベントを利用者に報知するために用いられる。
 図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu-ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。
 図5に示した携帯電話1Aの構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、携帯電話1Aは、操作のためのボタンとして、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。
 図6Aから図9を参照しながら、音を聞くためにパネル20に接触する耳の位置を標準位置へ誘導するための制御について説明する。標準位置は、利用者が、振動音を好適に聞くことができるパネル20上の位置である。図6Aから図6Cは、耳がパネル20に接触する前に行われる誘導について説明するための図である。図7Aから図7Cは、パネル20に接触する耳の位置の検出について説明するための図である。図8は、耳がパネル20に接触した後に行われる誘導について説明するための図である。図9A及び図9Bは、制御の変更の例を示す図である。
 耳の位置を標準位置へ誘導するための制御には、耳がパネル20に接触する前に行われる制御と、耳がパネル20に接触した後に行われる制御とが含まれる。耳がパネル20に接触する前に行われる制御について、先に説明する。
 耳がパネル20に接触する前の段階において、携帯電話1Aは、図6Aから図6Cに示すように、パネル20に接触しようとする耳を標準位置へ誘導するための情報をディスプレイ2に表示する。この段階において、携帯電話1Aは、パネル20を振動させていてもよいし、振動させていなくてもよい。すなわち、携帯電話1Aは、耳がパネル20に接触する前に圧電素子7に電気信号を印加し始めてもよいし、耳がパネル20に接触した後に圧電素子7に電気信号を印加し始めてもよい。
 携帯電話1Aは、パネル20に接触しようとする耳を標準位置へ誘導するために、図6Aに示すように、耳の大きさとほぼ同じ大きさの枠61と、枠61内に耳を当てるように促すメッセージ62とをディスプレイ2に表示してもよい。あるいは、携帯電話1Aは、図6B及び図6Cに示すように、耳の所定の部位に対応するシンボル63又は65と、その部位をシンボル63又は65に合わせるように促すメッセージ64又は66とをディスプレイ2に表示してもよい。シンボルに対応させる耳の部位は、耳の上端のように、利用者が位置をシンボルに合わせやすい部位であってもよいし、耳珠のように、パネル20が接触しやすい部位であってもよい。
 このように、耳を標準位置へ誘導するための情報をディスプレイ2に表示することにより、利用者は、耳をパネル20のどこに接触させれば音を聞きやすいかを容易に把握することができる。耳を標準位置へ誘導するための情報は、図6Aから図6Cに示した例に限定されず、耳をパネル20のどこに接触させればよいかを利用者が理解できる情報であればよい。携帯電話1Aは、耳を標準位置へ誘導するための情報として、例えば、図3に示すような耳の形状をディスプレイ2に表示してもよい。
 本実施形態において、携帯電話1Aは、利用者が携帯電話1Aを利用する際の耳の位置に基づいて、標準位置を学習する。利用者は、パネル20に耳を接触させて振動音を聞く場合、音を聞きながら、音が聞きやすいようにパネル20上での耳の位置を調整すると考えられる。そこで、携帯電話1Aは、パネル20に耳が接触している間、耳の位置を追跡し、追跡結果に基づいて標準位置を判定する。例えば、携帯電話1Aは、圧電素子7に電気信号を印加している間に、耳がパネル20に接触したままで一定時間より長く同じ位置に留まった場合に、その位置を標準位置と判定する。この位置は、耳の接触が検出される領域内の特定の位置であってよい。携帯電話1Aは、圧電素子7に電気信号を印加している間に、耳の接触が検出される領域が一定時間変化しない場合に、その領域を標準領域と判定してもよい。携帯電話1Aは、例えば物体の接触時にタッチスクリーン21の検出結果によって得られる像(後述)のうちの特定の領域の情報に基づいて標準位置を決定してもよい。判定された標準位置は、設定データ9Zに格納される。
 携帯電話1Aの負荷を軽減するため、標準位置の判定は、携帯電話1Aの利用が開始されてから所定の期間のみ行われてもよいし、所定のインターバルを設けて定期的に行われてもよい。あるいは、携帯電話1Aは、通常の利用時には標準位置の判定を行わずに、携帯電話1Aの利用開始時または利用者によって指示されたときに、キャリブレーション処理を行って標準位置を判定してもよい。キャリブレーション処理では、携帯電話1Aは、圧電素子7に電気信号を印加してパネル20を振動させながら、耳をパネル20に接触させて音が聞きやすい位置で耳を静止させるように利用者を促すメッセージをディスプレイ2に表示し、標準位置の判定を開始する。あるいは、標準位置は、ほとんどの人が音を聞きやすい位置に予め固定的に設定されていてもよい。
 携帯電話1Aは、パネル20に接触する耳の位置を、タッチスクリーン21を用いて検出する。例えば、携帯電話1Aは、図7Aに示すように、タッチスクリーン21によって耳の接触が検出される領域71に基づいて決定される位置72を、耳の位置として検出する。位置72は、例えば、領域71の中心(重心)である。位置72は、領域71を含む最小矩形の頂点のいずれかであってもよい。位置72は、耳の所定の部位に対応する位置であってもよい。この場合、耳におけるその部位の一般的な位置に関する情報に基づいて、領域71との相対的な位置関係から位置72が算出される。
 この方式は、複雑な演算を行うことなく、パネル20に接触する耳の位置を検出することを可能にする。さらに、この方式は、タッチスクリーン21がパネル20に対する接触を同時に検出できる点の数が少ない場合にも適用できる。
 あるいは、携帯電話1Aは、図7Bに示すように、物体の接触時にタッチスクリーン21の検出結果に基づいて得られる像73と、予め用意される標本74とのパターンマッチングによって、耳の位置を検出する。像73は、タッチスクリーン21の検出領域を格子状に分割し、分割されたそれぞれの領域における物体の接触の検出状態を、対応する画素の状態に変換することにより得られる。それぞれの領域においてタッチスクリーン21が検出する値が、例えば、タッチスクリーン21と物体の距離、物体がタッチスクリーン21を圧迫する押圧等によって変動する場合、像73は、多階調の画像となってもよい。
 標本74は、耳の接触時に耳が接触している領域で像73と同様のやりかたで得られるはずの像である。標本74は、携帯電話1Aの利用者の耳の接触時に得られるはずの像であってもよいし、一般的な人の耳の接触時に得られるはずの像であってもよい。標本74は、右耳の像、左耳の像というように複数枚用意されてもよい。
 標本74は、耳の所定の部位に対応する基準位置74aを含む。基準位置74aは、標本74の左上を基準として、(x1,y1)に位置している。基準位置74aは、一般的な人の耳におけるその部位の位置に関する情報に基づいて設定されてもよい。標本74が携帯電話1Aの利用者の耳の接触時に実際に得られた像である場合、基準位置74aは、像を解析して設定されてもよい。
 携帯電話1Aは、像73が得られると、パターンマッチングによって、像73と標本74とが最もマッチする際の両者の相対位置を得る。パターンマッチングによって、像73と標本74とがマッチしないと判定された場合(例えば、一致度が閾値よりも低い場合)には、携帯電話1Aは、耳の接触は検出されていないと判定してもよい。相対位置が得られると、携帯電話1Aは、相対位置と、基準位置74aとに基づいて、耳の位置を算出する。図7Bの例の場合、像73の左上を基準として、標本74をX軸方向にx2、Y軸方向にy2だけシフトした場合に両者が最もマッチする。この場合、耳の位置は、(x1+x2,y1+y2)と算出される。
 この方式は、パネル20に接触する耳の位置を精度よく検出することを可能にする。さらに、この方式は、標本とのマッチングによって、パネル20に接触する物体が耳であるか否か、あるいは、パネル20に接触する物体が予め登録されている人物の耳であるかを判定することを可能にする。さらに、この方式は、耳の向き及び傾き等の、耳の接触に関する詳細な情報を検出することを可能にする。
 パターンマッチングによって耳の位置を検出する場合、標本は、基準位置を含まなくてもよい。図7Cに示す例では、像73は、基準位置を含まない標本75とパターンマッチングされている。図7Cの例の場合、像73の左上を基準として、標本75をX軸方向にx3、Y軸方向にy3だけシフトした場合に両者が最もマッチする。この場合、耳の位置は、例えば、(x3,y3)と算出される。
 この方式は、基準位置を含まないため、標本の作成を容易にする。例えば、耳の位置の移動量及び移動方向が必要で、耳の特定の部位の位置を特定する必要がない場合、標本に基準位置を設定しなくても、この方式によって必要な情報をえることができる。
 パネル20に接触する耳の位置を、タッチスクリーン21を用いて検出する方式は、上記の方式に限定されず、他の方式を採用してもよい。
 携帯電話1Aは、パターンマッチングによる方式を利用し、パネル20に接触する耳の傾きが、予め登録される好適な傾きに近づくように誘導するように構成されてもよい。
 設定データ9Zには、上記の方式のいずれか、又は他の方式によって検出されるパネル20上での耳の位置に基づいて決定される標準位置を示す情報が格納される。携帯電話1Aは、何を基準として耳の位置が検出されたかに応じて、耳を標準位置へ誘導するための情報を表示する位置を調整する。例えば、耳の耳珠に対応する位置を基準位置として含む標本を用いるパターンマッチングにとって耳の位置が検出されたものとする。この場合、図6Aに示す枠61は、耳珠が標準位置に位置する場合に利用者又は一般的な人の耳が接触する範囲を囲むように表示され、図6Bに示すシンボル63は、その範囲の上端に表示され、図6Cに示すシンボル65は、標準位置に表示される。
 続いて、耳の位置を標準位置へ誘導するために、耳がパネル20に接触した後に行われる制御について説明する。耳のパネル20への接触がタッチスクリーン21によって検出された場合、携帯電話1Aは、耳がパネル20に接触している位置を、上記の方式のいずれか、又は他の方式によって検出する。そして、携帯電話1Aは、耳の位置を標準位置へ近づけるための制御を行う。
 耳がパネル20に接触している場合、ディスプレイ2が顔の側面に位置する。この場合、利用者にとって、ディスプレイ2に表示される情報を見ることは容易ではない。そこで、携帯電話1Aは、圧電素子7に印加する電気信号を制御することによって、耳の位置が標準位置へ近づくように誘導する。
 例えば、図8に示すように、標準位置がパネル20上の位置81であり、タッチスクリーン21を用いて検出される耳の位置が位置82であるものとする。この場合、携帯電話1Aは、図9Aに示すように、位置81と位置82の距離が遠くなるほど音量が低くなるように圧電素子7に印加する電気信号を制御する。すなわち、携帯電話1Aは、位置81と位置82の距離が遠くなるほど音量が低くなるように圧電素子7の制御を変更する。
 このような制御によれば、利用者は、パネル20に耳を接触させたままで携帯電話1Aを移動させることにより、耳の位置が標準位置に近づいているのか遠ざかっているのかを容易に判断し、耳の位置を標準位置に近づけることができる。さらに、この制御によれば、耳の位置が標準位置に近づくほど音が本来の音量で出力されるので、耳の位置が標準位置に近づく過程において音量が急激に変化することがなく、利用者に自然で直感的な操作感を提供することができる。
 図9Aでは、位置81と位置82の距離に応じて圧電素子7の制御を変更する例を示したが、携帯電話1Aは、一方の位置から見た他方の位置の方向をさらに条件に加えて圧電素子7の制御を変更してもよい。図9Aでは、位置81と位置82の距離に応じて、出力する音の音量を変更する例を示したが、携帯電話1Aは、位置81と位置82の距離に応じて、出力する音の音質を変更してもよい。例えば、携帯電話1Aは、図9Bに示すように、位置81と位置82のX軸方向の距離に応じて、出力する音の高音部のレベルを変更し、位置81と位置82のY軸方向の距離に応じて、出力する音の低音部のレベルを変更してもよい。このような制御によれば、利用者は、携帯電話1Aをどの方向に移動させれば耳の位置が標準位置に近づくのかを容易に把握できる。
 図10及び図11を参照しながら、音を聞くためにパネル20に接触する耳の位置を標準位置へ誘導するための制御の処理手順について説明する。図10は、耳の位置を標準位置へ誘導するための制御の処理手順を示すフローチャートである。図11は、通話の着信時の制御の処理手順を示すフローチャートである。図10及び図11に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。
 パネル20を振動させて音の出力を開始した場合、又はパネル20を振動させて音の出力を開始する準備ができた場合(ステップS101)、コントローラ10は、パネル20に接触している物体があるかをタッチスクリーン21の検出結果に基づいて判定する(ステップS102)。パネル20に接触している物体がない場合(ステップS102,No)、コントローラ10は、図6Aから図6Cに示したように、耳を接触させる位置を示すガイドをディスプレイ2に表示させる(ステップS103)。ガイドの表示は、パネル20に接触する物体が検出されるまで継続される。
 パネル20に接触している物体がある場合(ステップS102,Yes)、コントローラ10は、ストレージ9に記憶されている設定データ9Zから標準位置を示す情報を取得する(ステップS104)。
 パネル20に接触している物体がある場合に、コントローラ10は、消費電力を削減するために、ディスプレイ2を消灯してもよい。近接センサ5がディスプレイ2への顔の接近を検出した場合にコントローラ10がディスプレイ2を消灯する制御が別の処理手順において実装されている場合には、ディスプレイ2を消灯する制御を本実施手順において実行しなくてもよい。一般に、スマートフォン等の携帯電話では、近接センサ5がパネル20への顔の接近を検出した場合に、ディスプレイ2を消灯する制御に加えて、誤操作防止のためにタッチスクリーン21を無効化する制御が行われる。本実施形態では、パネル20に接触している耳の位置を、タッチスクリーン21を用いて検出するため、近接センサ5がパネル20への顔の接近を検出した場合であっても、タッチスクリーン21は有効なままにされる。
 続いて、コントローラ10は、タッチスクリーン21の検出結果に基づいて、パネル20に接触している物体の位置を算出する(ステップS105)。そして、コントローラ10は、算出した位置と標準位置とのずれを算出する(ステップS106)。算出されるずれは、距離に関する値のみを含んでもよいし、距離に関する値及び方向に関する値を含んでもよい。
 続いて、コントローラ10は、算出したずれに応じて、誘導手段の制御を変更する(ステップS107)。本実施形態においては、誘導手段は、圧電素子7であり、誘導手段の制御の変更は、例えば、図9A又は図9Bに示したように行われる。そして、コントローラ10は、パネル20に接触している物体の位置を記録し(ステップS108)、パネル20の音の出力を終了するかを判定する(ステップS109)。音の出力を終了する場合には、例えば、利用者による音の出力を終了するための操作が検出された場合と、通話、音楽再生、動画再生等の音を出力するための処理が完了した場合とが含まれる。
 音の出力を終了しない場合(ステップS109,No)、コントローラ10は、ステップS105以降を再実行する。音の出力を終了する場合(ステップS109,Yes)、コントローラ10は、記録した位置に基づいて標準位置を算出し、必要であれば、設定データ9Zに格納されている標準位置を更新する(ステップS110)。設定データ9Zに格納されている標準位置の更新が必要な場合は、例えば、標準位置以外の位置に耳が一定時間より長く留まった場合、又は最後に標準位置を更新してから一定期間より長い期間が経過した場合である。
 消費電力を削減するために、コントローラ10は、ずれが閾値よりも小さくなった場合に、ステップS105からステップS109のループを中断して、ステップS110を実行してもよい。コントローラ10は、パネル20への物体の接触が検出されてから一定時間が経過した場合に、ステップS105からステップS109のループを中断して、ステップS110を実行してもよい。ループを中断する場合、コントローラ10は、消費電力をさらに削減するために、タッチスクリーン21を無効化してもよい。ループを中断する場合であっても、パネル20を介する音の出力は継続される。
 コントローラ10は、耳の位置と標準位置とのずれが閾値よりも小さくなったことを契機として、音の出力に関する処理を開始してもよい。例えば、コントローラ10は、通話の着信があった場合に、耳の位置の誘導を開始し、耳の位置と標準位置とのずれが閾値よりも小さくなった場合に、受話処理を自動的に開始してもよい。この場合の処理手順について説明する。
 図11に示すように、通話の着信があると(ステップS201)、コントローラ10は、着信を利用者に通知するために着信音の出力を開始する(ステップS202)。この段階では、着信音の出力は、パネル20を介して行ってもよいし、スピーカ11を介して行ってもよいし、両者を介して行ってもよい。コントローラ10は、着信を利用者に通知するために、バイブレータ18の振動、ランプの点滅等を併用してもよい。
 続いて、コントローラ10は、パネル20に接触している物体があるかをタッチスクリーン21の検出結果に基づいて判定する(ステップS203)。パネル20に接触している物体がない場合(ステップS203,No)、コントローラ10は、図6Aから図6Cに示したように、耳を接触させる位置を示すガイドをディスプレイ2に表示させる(ステップS204)。ガイドの表示は、パネル20に接触する物体が検出されるまで継続される。
 パネル20に接触している物体がある場合(ステップS203,Yes)、コントローラ10は、ストレージ9に記憶されている設定データ9Zから標準位置を示す情報を取得する(ステップS205)。この段階では、コントローラ10は、少なくともパネル20を介して着信音の出力を行う。スピーカ11を介して着信音を出力していた場合、コントローラ10は、この段階で、スピーカ11を介する着信音の出力を中止してもよい。パネル20に接触している物体がある場合のディスプレイ2の消灯及びタッチスクリーン21の無効化に関する制御は、図10の場合と同様である。
 続いて、コントローラ10は、タッチスクリーン21の検出結果に基づいて、パネル20に接触している物体の位置を算出する(ステップS206)。そして、コントローラ10は、算出した位置と標準位置とのずれを算出する(ステップS207)。算出されるずれは、距離に関する値のみを含んでもよいし、距離に関する値及び方向に関する値を含んでもよい。
 続いて、コントローラ10は、算出したずれに応じて、誘導手段の制御を変更する(ステップS208)。誘導手段の制御は、既に説明した制御と同様である。そして、コントローラ10は、算出したずれが閾値未満であるかを判定する(ステップS209)。ずれが閾値未満でない場合(ステップS209,No)、ステップS206以降が再実行される。
 ずれが閾値未満の場合、すなわち、利用者が音を十分よく聞こえる状態になった場合(ステップS209,Yes)、コントローラ10は、受話処理を実行する(ステップS210)。受話処理とは、オフフックを示す信号を応答して、通話を開始させる処理である。通話が開始されると、相手の声は、パネル20を介して利用者に伝えられる。このようなタイミングで受話処理を自動的に実行することにより、携帯電話1Aは、利用者が相手の声を聞き取りやすい状態で、利用者に余分な操作を行わせることなく、通話を開始させることができる。通話は、いずれかの側で呼を切断する操作等が行われるまで継続される(ステップS211)。
(実施形態2)
 上記の実施形態では、タッチスクリーン21がパネル20のほぼ全面に配設される例について説明したが、タッチスクリーン21は、パネル20と重ならないように配設されてもよい。図12は、タッチスクリーン21がパネル20と重ならないように配設される携帯電話1Bの正面図である。図13は、携帯電話1Bのb-b断面を模式的に示す断面図である。
 図12及び図13に示すように、携帯電話1Bにおいて、ディスプレイ2は、パネル20の内側ではなく、パネル20と同一平面をなすように、パネル20と並べて配設される。タッチスクリーン21は、ディスプレイ2の表側のほぼ全面を覆うように配設される。すなわち、タッチスクリーン21及びディスプレイ2は、所謂タッチパネル(タッチスクリーンディスプレイ)を構成する。
 パネル20の背面のほぼ中央には、接合部材30により、圧電素子7が取り付けられる。パネル20は、圧電素子7に電気信号が印加されると、圧電素子7の変形(伸縮又は屈曲)に応じて振動し、気導音と、パネル20に接触する人体の一部(例えば、耳介軟骨)を介して伝わる振動音とを発生する。圧電素子7をパネル20の中央に配設することにより、圧電素子7の振動がパネル20全体に均等に伝わり、気導音及び振動音の品質が向上する。
 パネル20の表側の面にはタッチスクリーン21が配設されないが、パネル20は、タッチスクリーン21が配設されるディスプレイ2の近傍に配置される。
 このような構成の携帯電話1Bの利用者が、振動音を聞くために耳をパネル20に接触させると、パネル20はタッチスクリーン21の近傍にあるため、耳の一部がタッチスクリーン21に接触する。このため、タッチスクリーン21の検出領域を格子状に分割し、分割されたそれぞれの領域における耳の接触の検出状態を、対応する画素の状態に変換することにより、図14に示すような像76が得られる。
 携帯電話1Bは、像76が得られると、パターンマッチングによって、像76と標本75とが最もマッチする際の両者の相対位置を得る。図14の例の場合、像76の左上を基準として、標本75をX軸方向にx4、Y軸方向に-y4だけシフトした場合に両者が最もマッチする。この場合、耳の位置は、(x4,-y4)と算出される。携帯電話1Bは、基準位置74aを含む標本74を用いて耳の位置を検出することもできる。
 このように、携帯電話1Bは、タッチスクリーン21がパネル20と重ならないように配設されていても、パネル20に接触する耳の位置を、タッチスクリーン21を用いて検出することができる。したがって、携帯電話1Bは、携帯電話1Aと同様に、耳の位置を標準位置へ誘導するための制御を実行することができる。
 ただし、携帯電話1Bでは、パネル20に接触しようとする耳を標準位置へ誘導するための情報をディスプレイ2に表示する場合に、情報を表示する位置がディスプレイ2の表示領域の外部になる可能性がある。そこで、携帯電話1Bは、図15に示すように、携帯電話1Bの全体図67aとメッセージ69aとをディスプレイ2に表示し、全体図67a上にシンボル68aを配置する。
(実施形態3)
 上記の実施形態では、タッチスクリーン21の少なくとも一部がディスプレイ2と重なるように配設される例について説明したが、タッチスクリーン21は、ディスプレイ2と重ならないように配設されてもよい。図16は、タッチスクリーン21がディスプレイ2と重ならないように配設される携帯電話1Cの正面図である。図17は、携帯電話1Cのc-c断面を模式的に示す断面図である。
 図16及び図17に示すように、携帯電話1Cにおいて、ディスプレイ2は、パネル20の内側ではなく、パネル20と同一平面をなすように、パネル20と並べて配設される。
 パネル20の背面のほぼ中央には、接合部材30により、圧電素子7が取り付けられる。パネル20と圧電素子7との間には、補強部材31が配設される。すなわち、携帯電話1Cにおいては、圧電素子7と補強部材31とが接合部材30により接着され、さらに補強部材31とパネル20とが接合部材30で接着される。
 補強部材31は、例えばゴムまたはシリコン等の弾性部材である。補強部材31は、例えばある程度の弾性を有するアルミニウム等から成る金属板であってもよい。補強部材31は、例えばSUS304等のステンレス板であってもよい。ステンレス板等の金属板の厚さは、圧電素子7に印加される電圧値等に応じて、例えば0.2mm~0.8mmのものが適宜用いられる。補強部材31は、例えば樹脂製の板であってもよい。ここでいう樹脂製の板を形成する樹脂としては、例えばポリアミド系樹脂が挙げられる。ポリアミド系樹脂には、例えば、メタキシリレンジアミンとアジピン酸とから得られる結晶性の熱可塑性樹脂から成り、強度および弾性に富むレニー(登録商標)がある。このようなポリアミド系樹脂は、それ自体をベースポリマーとして、ガラス繊維、金属繊維または炭素繊維等により強化された強化樹脂であってもよい。強化樹脂は、ポリアミド系樹脂に対するガラス繊維、金属繊維または炭素繊維等の付加量に応じて、強度および弾性が適宜調整される。強化樹脂は、例えば、ガラス繊維、金属繊維または炭素繊維等を編みこんで形成された基材に樹脂を含浸させ、硬化させて形成される。強化樹脂は、液状の樹脂に細かく切断された繊維片を混入させたのちに硬化させて形成されるものであってもよい。強化樹脂は、繊維を編みこんだ基材と樹脂層とを積層したものであってもよい。
 圧電素子7とパネル20との間に補強部材31を配設することにより、以下の効果が得られる。パネル20に外力が加わった場合に、その外力が圧電素子7に伝わって圧電素子7が破損する可能性を低減することができる。例えば携帯電話1Cが地面に落下することでパネル20に対して外力が加わると、当該外力はまず補強部材31に伝わる。補強部材31は、所定の弾性を有しているため、パネル20から伝わる外力により弾性変形する。そのため、パネル20に対して加わった外力は補強部材31により少なくとも一部が吸収され、圧電素子7に伝達される外力が低減される。結果、圧電素子7の破損を低減することができる。補強部材31が圧電素子7と筺体40との間に配置される場合、例えば携帯電話1Cが地面に落下することで筺体40が変形し、変形した筺体40が圧電素子7に衝突して圧電素子7が破損する可能性を低減できる。
 圧電素子7の伸縮または屈曲による振動は、まず補強部材31に伝達され、さらにパネル20に伝達される。すなわち、圧電素子7は、まず圧電素子7よりも大きな弾性係数を有する補強部材31を振動させ、さらにパネル20を振動させることになる。したがって、携帯電話1Cは、補強部材31を備えず、圧電素子7が接合部材30によりパネル20に接合される構造と比較して、圧電素子7の変形が過剰になりにくくすることができる。これにより、パネル20の変形量(変形の程度)を調節することができる。この構造は、圧電素子7の変形を阻害しにくいパネル20の場合に特に有効である。
 さらに、圧電素子7とパネル20との間に補強部材31を配設することにより、図18に示すように、パネル20の共振周波数が下がり、低周波帯域の音響特性が向上する。図18は、補強部材31による周波数特性の変化例を示す図である。図18には、上記のSUS304のような板金を補強部材31として用いた場合の周波数特性と、上記のレニーのような強化樹脂を補強部材31として用いた場合の周波数特性とが示されている。横軸は周波数を、縦軸は音圧を示す。強化樹脂を用いた場合の共振点は約2kHzであり、板金を用いた場合の共振点は約1kHzである。強化樹脂を用いた場合のディップは約4kHzであり、板金を用いた場合のディップは約3kHzである。すなわち、強化樹脂を用いた場合には、板金を用いた場合に比べて、パネル20の共振点が高い周波数領域に位置しており、周波数特性のディップがより高い周波数領域に位置している。携帯電話の音声通話で用いられる周波数帯は300Hz~3.4kHzであるため、強化樹脂を補強部材31として用いた場合、ディップが携帯電話1Cの使用周波数帯に含まれないようにすることができる。尚、補強部材31として板金を用いる場合でも、板金を構成する金属の種類もしくは組成または板金の厚さ等を適宜調整することで、ディップが携帯電話1Cの使用周波数帯に含まれないようにすることができる。板金と強化樹脂とを比較すると、強化樹脂は、板金と比較してアンテナ性能への影響を低減することができる。強化樹脂は板金と比較して塑性変形しにくいため、音響特性が変化しにくいという利点がある。強化樹脂は板金と比較して、音発生時の温度上昇が抑えられる。補強部材31に換えて、板状の錘を接合部材30により圧電素子7に取り付けてもよい。
 パネル20は、圧電素子7に電気信号が印加されると、圧電素子7の変形(伸縮又は屈曲)に応じて振動し、気導音と、パネル20に接触する人体の一部(例えば、耳介軟骨)を介して伝わる振動音とを発生する。タッチスクリーン21は、パネル20の表側のほぼ全面を覆うように配設される。
 このような構成の携帯電話1Cの利用者が、振動音を聞くために耳をパネル20に接触させると、タッチスクリーン21は耳と比較して小さいものの、耳の一部がタッチスクリーン21に接触する。このため、タッチスクリーン21の検出領域を格子状に分割し、分割されたそれぞれの領域における耳の接触の検出状態を、対応する画素の状態に変換することにより、図19に示すような像77が得られる。
 携帯電話1Cは、像77が得られると、パターンマッチングによって、像77と標本75とが最もマッチする際の両者の相対位置を得る。図19の例の場合、像77の左上を基準として、標本75をX軸方向にx5、Y軸方向に-y5だけシフトした場合に両者が最もマッチする。この場合、耳の位置は、(x5,-y5)と算出される。携帯電話1Cは、基準位置74aを含む標本74を用いて耳の位置を検出することもできる。
 このように、携帯電話1Cは、タッチスクリーン21がディスプレイ2と重ならないように配設されていても、パネル20に接触する耳の位置を、タッチスクリーン21を用いて検出することができる。したがって、携帯電話1Cは、携帯電話1Aと同様に、耳の位置を標準位置へ誘導するための制御を実行することができる。
 ただし、携帯電話1Cでは、パネル20に接触しようとする耳を標準位置へ誘導するための情報をディスプレイ2に表示する場合に、情報を表示する位置がディスプレイ2の表示領域の外部になる可能性がある。そこで、携帯電話1Cは、図20に示すように、携帯電話1Cの全体図67bとメッセージ69bとをディスプレイ2に表示し、全体図67b上にシンボル68bを配置する。
(その他の実施形態)
 本出願の開示する実施形態は、当業者に明らかな事項を含むことができ、発明の要旨及び範囲を逸脱しない範囲で変形することができる。さらに、本出願の開示する実施形態及びその変形例は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。
 例えば、図5に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。
 上記の実施形態では、パネル20に接触する物体の位置を、タッチスクリーン21を用いて検出する例を示したが、物体の位置を検出する検出部は、タッチスクリーン21に限定されない。例えば、物体の位置を検出する検出部は、カメラ12であってもよい。この場合、物体の位置は、カメラ12が取得する画像に基づいて検出される。
 上記の実施形態では、パネル20に接触する物体の移動を、タッチスクリーン21を用いて検出する例を示したが、物体の移動を検出する検出部は、タッチスクリーン21に限定されない。例えば、物体の移動は、カメラ12が取得する画像に基づいて検出してもよいし、姿勢検出ユニット15が有する加速度センサによって検出してもよい。
 上記の実施形態では、パネル20に接触する物体が耳であるという前提で誘導を行う例を示したが、携帯電話1A~1Cは、パネル20に接触する物体が耳であるか否かを判定し、耳である場合にのみ誘導を行ってもよい。このように制御することにより、パネル20に耳が接触している場合には耳の位置の誘導を行い、パネル20に指が接触している場合には接触操作に応じた処理を実行するというように、状況に合わせて制御を切り替えることができる。パネル20に接触する物体が耳であるか否かは、例えば、標本とのパターンマッチングの精度を上げることによって判定できる。
 携帯電話1A~1Cは、複数の利用者に対応できるように構成されてもよい。この場合、利用者毎に標準位置が設定データ9Zに格納される。そして、携帯電話1A~1Cは、パネル20に接触する物体が予め登録されているどの利用者の耳であるかを判定し、判定した利用者に対応する標準位置への誘導を行う。パネル20に接触する物体がどの利用者の耳であるかは、例えば、利用者毎に標本を用意することによって判定できる。あるいは、パネル20に接触する物体がどの利用者の耳であるかは、最初に耳を接触させる位置を利用者毎に異なる位置に決めておくことによって判定できる。
 上記の実施形態では、標準位置への誘導のために誘導手段として圧電素子7を用いる例を示したが、誘導手段は、利用者がパネル20に接触させたままで耳を標準位置まで移動させることができればどのような手段であってもよい。例えば、誘導手段は、バイブレータ18、又はスピーカ11であってもよい。バイブレータ18が誘導手段として用いられる場合、バイブレータ18による振動の強弱又は周波数を変更することによって誘導が実現される。スピーカ11が誘導手段として用いられる場合、スピーカ11から出力する音を用いて誘導が実現される。複数の誘導手段を併用して誘導を実現してもよい。
 上記の実施形態では、標準位置への誘導のための制御を行いつつ、標準位置を更新するために耳の検出位置を記録する例を示したが、これらの動作は、異なるタイミングで行われてもよい。例えば、携帯電話1A~1Cは、パネル20への物体の接触が検出されてから所定の条件が満たされるまで標準位置への誘導のための制御を行い、その後に耳の検出位置の記録を開始するように構成されてもよい。所定の条件とは、耳の位置と標準位置とのずれが閾値より小さくなること、又は一定時間が経過することである。このように構成することにより、誘導のための制御の変更の影響を受けない状態で、標準位置を更新するために耳の検出位置を記録することができる。
 上記の実施形態では、携帯電話が標準位置への誘導を行う処理を示したが、これらに限定されない。携帯電話は、ディスプレイ2に特定の位置に関する情報を表示することで、特定の位置に係る報知を行っても良い。例えば、携帯電話は、利用者に対して振動音が最も伝わりやすい特定の位置(最適位置)に関する情報をディスプレイ2に表示してよい。例えば、図1に示す携帯電話1Aは、パネル20の、圧電素子7が取り付けられた領域(圧電素子7の直上の領域)に対して約1cm下側の領域が最適位置である。この最適位置に耳の一部を当てると、利用者に振動音が最も伝わりやすい。最適位置は、例えばパネル20の寸法、パネル20の材質、又は圧電素子7の振動の振幅等の種々のパラメータに応じて変化し得る。
 上述のように、圧電素子の直上領域と利用者に対して振動音が最も伝わりやすい最適位置とは必ずしも一致しない。これは、パネルにおいて圧電素子が取り付けられた位置と、利用者の耳とパネルとが接触する位置との関係に起因する。図1では、圧電素子7は、パネル20の一方側の端部から所定の距離だけ離間した近傍に配置される。圧電素子7の変形に起因するパネル20の変形度合いは、圧電素子7が取り付けられた領域から遠い領域ほど小さくなる。すなわち、パネル20は、圧電素子7が取り付けられた領域から遠ざかるほどその振動が減衰する。一方、利用者の耳がパネルと接触する位置がパネルの中央に近いほど、外耳道がパネル全体により塞がれ、外耳道に進入する周囲音(ノイズ)が減る。上述した振動の減衰の度合いと外耳道に進入する周囲音の大きさの両方を考慮すると、パネル20の圧電素子の直上の領域に対して約1cm下側の領域に耳を当てた場合に、振動音の大きさとノイズとの比(S/N比)が最大となる。
 そして、携帯電話は、図21に示すように、最適位置に関する情報として、耳の形状を模した画像をディスプレイ2に表示するとよい。携帯電話は、耳の形状を模した画像85を、パネル20の最適位置に例えば耳珠が対応するよう、ディスプレイ2に表示する。そして、耳の形状を模した画像85と、タッチスクリーン21によって検出される接触パターンとが一致した場合に気導音と振動音とを発生させるとよい。
 パネル20または筺体40に所定形状の突起(凸部)を設けることで、利用者に対して特定の位置(最適位置)を報知しても良い。突起は、例えば、最適位置に耳が接触する際の耳輪の外郭に沿った位置、又は最適位置に耳が接触する際の耳珠の位置に設けられる。この場合、利用者は、突起に耳の一部が接触すると、最適位置を認識することができる。すなわち、突起は本願の報知部の一つとして機能する。なお、パネル20または筺体40に切り欠き(凹部)が形成されてもよい。
 上記の実施形態では、携帯電話1Aとして、ディスプレイ2が接合部材30を用いてパネル20の背面に取り付けられる例を示したが、携帯電話1Aは、パネル20とディスプレイ2の間に空間ができるように構成されてもよい。パネル20とディスプレイ2の間に空間を設けることにより、パネル20が振動しやすくなり、パネル20上において振動音を聞きやすい範囲が広くなる。
 上記の実施形態では、圧電素子7をパネル20に取り付ける例を示したが、他の場所に取り付けられてもよい。例えば、圧電素子7は、バッテリリッドに取り付けられてもよい。バッテリリッドは、筐体40に取り付けられ、バッテリを覆う部材である。バッテリリッドは、携帯電話等の携帯電子機器においてディスプレイ2と異なる面に取り付けられることが多いため、そのような構成によれば、利用者はディスプレイ2と異なる面に体の一部(例えば耳)を接触させて音を聞くことができる。圧電素子7が筺体40の角部(例えば四隅の少なくとも一か所)を振動させる構成であっても良い。この場合、圧電素子7は、筺体40の角部の内面に取り付けられる構成でもよいし、中間部材をさらに備え、圧電素子7の振動が中間部材を介して筺体40の角部に伝達される構成でもよい。この構成によれば、振動する範囲を比較的狭くできるため、振動により発生する気導音が周囲に漏れにくい。また、この構成によれば、例えば利用者が筺体の角部を外耳道に挿入した状態で気導音と振動音とが利用者に伝わるため、周囲のノイズが利用者の外耳道に入りにくい。そのため、利用者に伝わる音の品質を向上することができる。
 上記の実施形態では、補強部材31は板状部材であるが、補強部材31の形状はこれに限られない。補強部材31は、例えば、圧電素子7より大きく、かつその端部が圧電素子7側に湾曲し圧電素子7の側部を覆う形状を有していてもよい。また、補強部材31は、例えば、板状部と、当該板状部から延設されて圧電素子7の側部を覆う延設部とを有する形状であってもよい。この場合、延設部と圧電素子7の側部とが、所定の距離だけ離間しているとよい。これにより、延設部が圧電素子の変形を阻害しにくくなる。
 上記の実施形態では、添付の請求項に係る装置の例として、携帯電話について説明したが、添付の請求項に係る装置は、携帯電話に限定されない。添付の請求項に係る装置は、携帯電話以外の携帯電子機器であってもよい。携帯電子機器は、例えば、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。
 添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。
1A~1C 携帯電話
2 ディスプレイ
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 圧電素子
8 マイク
9 ストレージ
9A 制御プログラム
9B 通話アプリケーション
9C 音楽再生アプリケーション
9D 動画再生アプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
15 姿勢検出ユニット
18 バイブレータ
20 パネル
21 タッチスクリーン
30 接合部材
31 補強部材
40 筐体

Claims (21)

  1.  圧電素子と、
     前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる音発生部と、を備える電子機器であって、
     前記電子機器は、前記音発生部における特定の位置をユーザに知らせる報知を行う
     電子機器。
  2.  前記特定の位置は、前記人体の一部を当てることが推奨される位置である
     請求項1に記載の電子機器。
  3.  前記報知は、前記人体の一部を前記特定の位置へ誘導するための案内を含む
     請求項1に記載の電子機器。
  4.  前記人体の一部の前記音発生部上の接触位置を検出する検出部をさらに備え、
     前記案内は、前記接触位置と前記特定の位置のずれに応じて、前記振動音の音量または音質を変化させることで行われる請求項3に記載の電子機器。
  5.  前記音発生部は、前記接触位置が前記特定の位置に近くなるにつれて、所定の振動音に近い振動音を発生させる請求項4に記載の電子機器。
  6.  前記特定の位置は、前記接触位置に基づいて変化する請求項4に記載の電子機器。
  7.  前記音発生部は、前記接触位置と前記特定の位置のずれが閾値よりも小さくなった場合に、音の発生を開始する請求項4に記載の電子機器。
  8.  前記報知は、前記人体の一部が耳である場合に行われる請求項1に記載の電子機器。
  9.  前記人体の一部の前記音発生部に対する接触範囲を検出する検出部をさらに備え、
     前記検出部は、検出された接触範囲により前記人体の一部が耳であるかを判定する
     請求項8に記載の電子機器。
  10.  ディスプレイをさらに備え、
     前記報知は、前記特定の位置を示す情報を前記ディスプレイに表示することにより行われる
     請求項1に記載の電子機器。
  11.  前記特定の位置の情報は、耳の画像である
     請求項10に記載の電子機器。
  12.  前記人体の一部の前記音発生部に対する接触範囲を検出する検出部をさらに備え、
     前記音発生部は、前記耳の画像と前記音発生部に接触する耳の接触パターンが一致すると、音の発生を開始する
     請求項11に記載の電子機器。
  13.  前記音発生部は、パネルである
     請求項1から12のいずれか一項に記載の電子機器。
  14.  前記パネルは、人間の耳の対耳輪下脚から対耳珠までの間の距離に相当する長さと、耳珠から対耳輪までの間の距離に相当する幅とを有する領域よりも広い領域が振動する
     請求項13に記載の電子機器。
  15.  前記パネルは、表示パネル、操作パネル、カバーパネル、充電池を取り外し可能とするためのリッドパネルのいずれかの一部または全部を構成する
     請求項13に記載の電子機器。
  16.  前記パネルが表示パネルのとき、
     前記圧電素子は、当該表示機能のための表示領域の外側に配置されている、
     請求項15に記載の電子機器。
  17.  前記パネルは、当該パネルのいずれの箇所においても振動音を伝えるための変形が発生する
     請求項13に記載の電子機器。
  18.  前記パネルは、その振動領域において、当該パネルの主面と交差する方向に振動する箇所を複数有し、当該箇所の各々において、前記振動の振幅の値が時間とともにプラスからマイナスに、あるいはその逆に変動する
     請求項13に記載の電子機器。
  19.  前記音発生部は、前記圧電素子によって振動し、気導音と前記振動音とを発生させる請求項1に記載の電子機器。
  20.  音発生部と圧電素子とを備える電子機器によって実行される制御方法であって、
     前記音発生部における特定の位置をユーザに知らせる報知を行うステップと、
     前記圧電素子によって前記音発生部を振動させることにより、人体の一部を振動させて伝わる振動音を発生させるステップと
     を含む制御方法。
  21.  音発生部と圧電素子とを備える電子機器に、
     前記音発生部における特定の位置をユーザに知らせる報知を行うステップと、
     前記圧電素子によって前記音発生部を振動させることにより、人体の一部を振動させて伝わる振動音を発生させるステップと
     を実行させる制御プログラム。
PCT/JP2013/062290 2012-05-02 2013-04-25 電子機器、制御方法、及び制御プログラム WO2013164980A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/398,394 US9544413B2 (en) 2012-05-02 2013-04-25 Electronic device, control method, and control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-105502 2012-05-02
JP2012105502A JP2013236130A (ja) 2012-05-02 2012-05-02 電子機器、制御方法、及び制御プログラム

Publications (1)

Publication Number Publication Date
WO2013164980A1 true WO2013164980A1 (ja) 2013-11-07

Family

ID=49514379

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/062290 WO2013164980A1 (ja) 2012-05-02 2013-04-25 電子機器、制御方法、及び制御プログラム

Country Status (3)

Country Link
US (1) US9544413B2 (ja)
JP (1) JP2013236130A (ja)
WO (1) WO2013164980A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9774958B2 (en) 2013-05-30 2017-09-26 Kyocera Corporation Unit, electronic device, and method of manufacturing electronic device

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6017828B2 (ja) * 2012-05-02 2016-11-02 京セラ株式会社 電子機器、制御方法、及び制御プログラム
JP6095326B2 (ja) * 2012-10-30 2017-03-15 シャープ株式会社 無線通信端末、方法、およびプログラム
CN104184868B (zh) * 2013-05-22 2019-01-29 中兴通讯股份有限公司 一种调节通话音量的方法、装置及移动终端
JP6641692B2 (ja) * 2015-01-05 2020-02-05 株式会社リコー 光電変換素子
KR102650130B1 (ko) * 2016-08-16 2024-03-22 삼성전자주식회사 압전소자를 이용하여 디스플레이를 제어하는 장치 및 방법
FI128356B (en) * 2017-02-24 2020-04-15 Piceasoft Oy Method and apparatus for determining the condition of an electronic device
KR102367889B1 (ko) * 2017-08-10 2022-02-25 엘지전자 주식회사 이동 단말기
CN108958697B (zh) * 2018-07-09 2021-08-17 Oppo广东移动通信有限公司 屏幕发声控制方法、装置以及电子装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002281578A (ja) * 2001-03-16 2002-09-27 Sharp Corp 情報表示装置
JP2005348193A (ja) * 2004-06-04 2005-12-15 Nec Tokin Corp 受話器
JP2006135858A (ja) * 2004-11-09 2006-05-25 Nec Saitama Ltd 携帯情報端末、その表示制御方法およびプログラム
JP2013118497A (ja) * 2011-12-02 2013-06-13 Sharp Corp 電子機器、音声処理方法、プログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6304434B1 (en) * 1998-05-28 2001-10-16 Compaq Computer Corporation Portable computer with both dynamic and piezoelectric transducers
JP2010081174A (ja) * 2008-09-25 2010-04-08 Casio Hitachi Mobile Communications Co Ltd 通信端末装置及びプログラム
JP2010087889A (ja) * 2008-09-30 2010-04-15 Yamaha Corp 受音装置および携帯電話機
US8750546B2 (en) * 2008-10-03 2014-06-10 Advanced Bionics Sound processors and implantable cochlear stimulation systems including the same
JP5227769B2 (ja) * 2008-12-05 2013-07-03 ソニーモバイルコミュニケーションズ, エービー 携帯端末およびコンピュータプログラム
JP2010233103A (ja) * 2009-03-27 2010-10-14 Sharp Corp 電子装置、携帯電話機、スピーカ位置案内方法、スピーカ音量制御方法
KR101654379B1 (ko) * 2009-05-25 2016-09-05 파나소닉 아이피 매니지먼트 가부시키가이샤 압전형 음향 변환기
JP2010286986A (ja) * 2009-06-10 2010-12-24 Funai Electric Co Ltd 携帯端末装置
JP5156042B2 (ja) * 2010-03-24 2013-03-06 株式会社エヌ・ティ・ティ・ドコモ 電話機及び電話機の位置補正方法
JP2011205417A (ja) * 2010-03-25 2011-10-13 Sony Corp 電話端末および操作方法
JP5382204B2 (ja) * 2010-03-30 2014-01-08 富士通株式会社 電話機、及び電話機の音声調整方法
JP5465076B2 (ja) * 2010-04-23 2014-04-09 京セラ株式会社 携帯端末装置
KR20120068613A (ko) * 2010-12-17 2012-06-27 삼성전기주식회사 압전 액추에이터
US8659207B2 (en) * 2011-11-24 2014-02-25 Htc Corporation Electronic device and adjustment method thereof
JP5731362B2 (ja) * 2011-11-28 2015-06-10 京セラ株式会社 電子機器
US9998836B2 (en) * 2012-05-01 2018-06-12 Kyocera Corporation Electronic device, control method, and control program
JP6017828B2 (ja) * 2012-05-02 2016-11-02 京セラ株式会社 電子機器、制御方法、及び制御プログラム
JP5681671B2 (ja) * 2012-06-22 2015-03-11 京セラ株式会社 電子機器及び制御プログラム並びに情報通知方法
JP6124462B2 (ja) * 2014-05-30 2017-05-10 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002281578A (ja) * 2001-03-16 2002-09-27 Sharp Corp 情報表示装置
JP2005348193A (ja) * 2004-06-04 2005-12-15 Nec Tokin Corp 受話器
JP2006135858A (ja) * 2004-11-09 2006-05-25 Nec Saitama Ltd 携帯情報端末、その表示制御方法およびプログラム
JP2013118497A (ja) * 2011-12-02 2013-06-13 Sharp Corp 電子機器、音声処理方法、プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9774958B2 (en) 2013-05-30 2017-09-26 Kyocera Corporation Unit, electronic device, and method of manufacturing electronic device

Also Published As

Publication number Publication date
US9544413B2 (en) 2017-01-10
JP2013236130A (ja) 2013-11-21
US20150119109A1 (en) 2015-04-30

Similar Documents

Publication Publication Date Title
JP6017828B2 (ja) 電子機器、制御方法、及び制御プログラム
WO2013164980A1 (ja) 電子機器、制御方法、及び制御プログラム
US9998836B2 (en) Electronic device, control method, and control program
JP5818922B2 (ja) 電子機器
JP6121517B2 (ja) 装置
JP5856196B2 (ja) 電子機器
JP2014053948A (ja) 電子機器
WO2014003148A1 (ja) 電子機器、制御方法、及び制御プログラム
JP6067999B2 (ja) 電子機器、制御方法、及び制御プログラム
JP5865774B2 (ja) 電子機器、制御方法及び制御プログラム
JP2013232853A (ja) 電子機器、制御方法、及び制御プログラム
JP6099320B2 (ja) 電子機器、制御方法及び制御プログラム
JP6242040B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2013236139A (ja) 電子機器、制御方法、及び制御プログラム
JP6017829B2 (ja) 電子機器
JP6110078B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2014082674A (ja) 電子機器、制御方法及び制御プログラム
JP2014007444A (ja) 電子機器、制御方法及び制御プログラム
JP2014011512A (ja) 電子機器、制御方法、及び制御プログラム
JP2014011511A (ja) 電子機器、制御方法、及び制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13784392

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14398394

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13784392

Country of ref document: EP

Kind code of ref document: A1