WO2013164999A1 - 電子機器、制御方法及び制御プログラム - Google Patents

電子機器、制御方法及び制御プログラム Download PDF

Info

Publication number
WO2013164999A1
WO2013164999A1 PCT/JP2013/062568 JP2013062568W WO2013164999A1 WO 2013164999 A1 WO2013164999 A1 WO 2013164999A1 JP 2013062568 W JP2013062568 W JP 2013062568W WO 2013164999 A1 WO2013164999 A1 WO 2013164999A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
panel
piezoelectric element
microphone
generation unit
Prior art date
Application number
PCT/JP2013/062568
Other languages
English (en)
French (fr)
Inventor
英功 山田
淳一 近藤
順也 矢野
善隆 徳山
渡部 貴昭
修一 沓澤
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2012104970A external-priority patent/JP6099320B2/ja
Priority claimed from JP2012104971A external-priority patent/JP2013232853A/ja
Priority claimed from JP2012120086A external-priority patent/JP6110078B2/ja
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US14/375,441 priority Critical patent/US9998836B2/en
Publication of WO2013164999A1 publication Critical patent/WO2013164999A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R17/00Piezoelectric transducers; Electrostrictive transducers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1783Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase handling or detecting of non-standard events or conditions, e.g. changing operating modes under specific operating conditions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • G10K11/17857Geometric disposition, e.g. placement of microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/03Constructional features of telephone transmitters or receivers, e.g. telephone hand-sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/46Special adaptations for use as contact microphones, e.g. on musical instrument, on stethoscope
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/108Communication systems, e.g. where useful sound is kept and noise is cancelled
    • G10K2210/1081Earphones, e.g. for telephones, ear protectors or headsets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2400/00Loudspeakers
    • H04R2400/03Transducers capable of generating both sound as well as tactile vibration, e.g. as used in cellular phones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R7/00Diaphragms for electromechanical transducers; Cones
    • H04R7/02Diaphragms for electromechanical transducers; Cones characterised by the construction
    • H04R7/04Plane diaphragms
    • H04R7/045Plane diaphragms using the distributed mode principle, i.e. whereby the acoustic radiation is emanated from uniformly distributed free bending wave vibration induced in a stiff panel and not from pistonic motion

Definitions

  • This application relates to an electronic device, a control method, and a control program.
  • Patent Document 1 describes an electronic device that conveys air conduction sound and vibration sound to a user.
  • Patent Document 1 describes that when a voltage is applied to a piezoelectric element of a vibrating body arranged on the outer surface of a casing of an electronic device, the vibrating body flexes and vibrates due to expansion and contraction of the piezoelectric element. Further, Patent Document 1 describes that when a user brings a vibrating body that flexes and vibrates into contact with the auricle, air conduction sound and vibration sound are transmitted to the user.
  • air conduction sound is sound that is transmitted to the eardrum through the ear canal through the vibration of the air due to the vibration of the object, and is transmitted to the user's auditory nerve by the vibration of the eardrum.
  • the vibration sound is a sound transmitted to the user's auditory nerve through a part of the user's body (for example, cartilage of the outer ear) that contacts the vibrating object.
  • An electronic device includes a piezoelectric element, a first sound generating unit that generates vibration sound that is transmitted by vibrating a part of the human body by virtue of the piezoelectric element, and a second sound that generates air conduction sound.
  • a generator a piezoelectric element, a first sound generating unit that generates vibration sound that is transmitted by vibrating a part of the human body by virtue of the piezoelectric element, and a second sound that generates air conduction sound.
  • a control method includes a piezoelectric element, a first sound generating unit that generates vibration sound that is transmitted by vibrating a part of the human body by the piezoelectric element, and a second sound that generates air conduction sound.
  • a control program includes a piezoelectric element, a first sound generating unit that generates vibration sound that is transmitted by vibrating a part of the human body by the piezoelectric element, and a second sound that generates air conduction sound.
  • An electronic device including a generator is caused to execute a step of generating a sound by at least one of the first sound generator and the second sound generator based on a predetermined condition.
  • An electronic device includes a housing, a piezoelectric element, a first sound generating unit that generates vibration sound that is transmitted by vibrating a part of a human body and vibrated by the piezoelectric element, and a second sound generating unit. And a posture detection unit, wherein the first sound generation unit or the second sound generation unit generates a sound based on a detection result of the posture detection unit.
  • a control method includes: a piezoelectric element; a first sound generating unit that generates vibration sound that is transmitted by vibrating a part of a human body by vibrating the piezoelectric element; and a second sound generating unit.
  • a control method executed by an electronic device comprising: a first sound generation unit or a second sound generation unit based on a detection result of the posture detection unit; And generating a sound from the determined first sound generation unit or the second sound generation unit.
  • a control program includes a piezoelectric element, a first sound generating section that vibrates by the piezoelectric element and generates a vibration sound transmitted by vibrating a part of the human body, a second sound generating section, and posture detection And a step of determining that the electronic device includes a sound from the first sound generation unit or the second sound generation unit based on a detection result of the posture detection unit, and the determined first Generating sound from the sound generator or the second sound generator.
  • An electronic device includes a housing, a piezoelectric element, a first sound generating unit that generates vibration sound that is transmitted by vibrating a part of a human body and vibrated by the piezoelectric element, and a second sound generating unit. And an operation detection unit, wherein the first sound generation unit or the second sound generation unit generates a sound based on a detection result of the operation detection unit.
  • a control method includes: a piezoelectric element; a first sound generating unit that generates vibration sound that is transmitted by vibrating a part of the human body by virtue of the piezoelectric element; and a second sound generating unit.
  • a control method executed by an electronic device comprising: a first sound generation unit or a second sound generation unit based on a detection result of the operation detection unit; And generating a sound from the determined first sound generation unit or the second sound generation unit.
  • a control program includes a piezoelectric element, a first sound generating section that vibrates by the piezoelectric element and generates a vibration sound transmitted by vibrating a part of a human body, a second sound generating section, and an operation detection And a step of determining that the electronic device includes a sound from the first sound generation unit or the second sound generation unit based on a detection result of the operation detection unit, and the determined first Generating sound from the sound generator or the second sound generator.
  • FIG. 1 is a front view of a mobile phone according to an embodiment.
  • FIG. 2 is a cross-sectional view of the mobile phone according to the embodiment.
  • FIG. 3 is a diagram showing an example of the shape of the panel.
  • FIG. 4 is a diagram showing an example of panel vibration.
  • FIG. 5 is a block diagram of the mobile phone according to the embodiment.
  • FIG. 6 is a diagram illustrating an example of a processing procedure of a call voice output mode switching process executed at the start of the call process in the mobile phone.
  • FIG. 7 is a diagram illustrating an example of a processing procedure of output method switching determination processing based on sound pressure level, which is executed when a call operation or an incoming call is detected in a mobile phone.
  • FIG. 1 is a front view of a mobile phone according to an embodiment.
  • FIG. 2 is a cross-sectional view of the mobile phone according to the embodiment.
  • FIG. 3 is a diagram showing an example of the shape of the panel.
  • FIG. 4 is
  • FIG. 8 is a diagram showing a detailed processing procedure of output type switching determination processing based on sound pressure level, which is executed in the mobile phone.
  • FIG. 9 shows a case where the voice of the voice generated around the mobile phone is maintained for a certain period of time when the voice pressure generated around the mobile phone is lower than the threshold when the voice of the voice is output in the human body conduction system. It is a figure which shows an example of the process sequence which returns the output system to the dynamic speaker system again from a human body conduction system.
  • FIG. 10 is a diagram illustrating an example of a processing procedure when the output method switching determination based on the sound pressure level and the output method switching determination based on voice recognition are used properly before and after the start of the call.
  • FIG. 9 shows a case where the voice of the voice generated around the mobile phone is maintained for a certain period of time when the voice pressure generated around the mobile phone is lower than the threshold when the voice of the voice is output in the human body conduction system. It is a figure which shows an example of the process sequence which returns
  • FIG. 11 is a diagram illustrating an example of a processing procedure of output method switching determination processing by voice recognition.
  • FIG. 12 is a diagram illustrating another example of the processing procedure of the output method switching determination processing based on voice recognition.
  • FIG. 13 is a diagram illustrating an example of a processing procedure of output method switching determination processing based on position information, which is executed when a call operation or an incoming call is detected in a mobile phone.
  • FIG. 14 is a diagram illustrating a detailed processing procedure of output method switching determination processing based on position information, which is executed in the mobile phone.
  • FIG. 17 is a front view of a mobile phone according to the sixth embodiment.
  • 18 is a cross-sectional view taken along the line cc of the mobile phone shown in FIG.
  • FIG. 19 is a diagram illustrating a modification of the frequency characteristics by the reinforcing member.
  • FIG. 20 is a front view of the mobile phone according to the seventh embodiment.
  • FIG. 21 is a sectional view taken along line dd of the mobile phone shown in FIG.
  • FIG. 22 is a diagram illustrating an example of the shape of the panel.
  • FIG. 23 is a diagram illustrating an example of panel vibration.
  • 24 is a cross-sectional view taken along the line ee of the mobile phone shown in FIG.
  • FIG. 25 is a cross-sectional view showing a schematic configuration of another configuration of the second microphone.
  • FIG. 26 is a block diagram of a mobile phone according to the seventh embodiment.
  • FIG. 27 is a flowchart illustrating a control processing procedure during a call.
  • FIG. 28 is a flowchart illustrating a processing procedure for controlling the audio output mode.
  • FIG. 29 is a flowchart illustrating a control processing procedure during a call.
  • FIG. 30 is a front view of the mobile phone according to the eighth embodiment. 31 is a cross-sectional view of the mobile phone shown in FIG. 30, taken along line ff.
  • FIG. 32 is a front view of the mobile phone according to the ninth embodiment. 33 is a cross-sectional view taken along the line gg of the mobile phone shown in FIG.
  • FIG. 34 is a diagram illustrating a modified example of the frequency characteristics by the reinforcing member.
  • FIG. 30 is a diagram illustrating a modified example of the frequency characteristics by the reinforcing member.
  • FIG. 35 is a front view of the mobile phone according to the tenth embodiment.
  • FIG. 36 is a cross-sectional view of the mobile phone shown in FIG. 35 taken along the line hh.
  • FIG. 37 is a diagram showing an example of the shape of the panel.
  • FIG. 38 is a diagram illustrating an example of panel vibration.
  • FIG. 39 is a cross-sectional view of the mobile phone shown in FIG. 35 taken along the line ii.
  • FIG. 40 is a cross-sectional view showing a schematic configuration of another configuration of the second microphone.
  • FIG. 41 is a block diagram of a mobile phone according to the tenth embodiment.
  • FIG. 42 is a flowchart illustrating a control processing procedure during a call.
  • FIG. 43 is a flowchart illustrating a processing procedure for controlling the audio output mode.
  • FIG. 44 is a front view of the mobile phone according to the eleventh embodiment.
  • 45 is a cross-sectional view of the mobile phone shown in FIG. 44 taken along the line jj.
  • FIG. 46 is a front view of the mobile phone according to the twelfth embodiment.
  • 47 is a cross-sectional view of the mobile phone shown in FIG. 46 taken along the line kk.
  • FIG. 48 is a diagram illustrating a modification of the frequency characteristic by the reinforcing member.
  • a mobile phone will be described as an example of an electronic device that transmits air conduction sound and vibration sound to a user.
  • FIG. 1 is a front view of the mobile phone 1A.
  • FIG. 2 is a cross-sectional view schematically showing an aa cross section of the mobile phone 1A.
  • the mobile phone 1A includes a display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a piezoelectric element 7, a first microphone 8a and a second microphone 8b, and a speaker. 11, a camera 12, a panel 20, and a housing 40.
  • the display 2 includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display device).
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • IELD Inorganic Electro-Luminescence Display device
  • buttons 3 accepts operation input from the user.
  • the number of buttons 3 is not limited to the example shown in FIGS.
  • the illuminance sensor 4 detects the illuminance of the ambient light of the mobile phone 1A. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2, for example.
  • the proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the display 2 is brought close to the face.
  • the illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.
  • the piezoelectric element 7 expands or contracts or bends according to the electromechanical coupling coefficient of the constituent material when an electric signal (voltage corresponding to the sound signal) is applied. That is, the piezoelectric element 7 is deformed when an electric signal is applied.
  • the piezoelectric element 7 is attached to the panel 20 and used as a vibration source for vibrating the panel 20.
  • the piezoelectric element 7 is formed using, for example, ceramic or quartz.
  • the piezoelectric element 7 may be a unimorph, bimorph, or multilayer piezoelectric element.
  • the multilayer piezoelectric element includes a multilayer bimorph element in which bimorphs are stacked (for example, 16 layers or 24 layers are stacked).
  • the multilayer piezoelectric element is composed of, for example, a multilayer structure including a plurality of dielectric layers made of PZT (lead zirconate titanate) and electrode layers disposed between the plurality of dielectric layers.
  • PZT lead zirconate titanate
  • a unimorph expands and contracts when an electrical signal (voltage) is applied.
  • a bimorph bends when an electrical signal (voltage) is applied.
  • the first microphone 8a collects and inputs sounds around the mobile phone 1A, for example, engine sound of a car, tire sound, BGM flowing in the street, human voice, announcements in a station, train rail sound, etc. It is an input part.
  • the 2nd microphone 8b is an input part which inputs the voice uttered from a user at the time of a telephone call.
  • the first microphone 8 a and the second microphone 8 b convert input sound into an electrical signal and send it to the controller 10.
  • the first microphone 8a is an example of a sound input unit.
  • the second microphone 8b is an example of an audio input unit.
  • the speaker 11 is a dynamic speaker, for example, and outputs sound (air conduction sound) by an air conduction method.
  • the speaker 11 can transmit the sound obtained by converting the electric signal to a person whose ear is not in contact with the mobile phone 1A.
  • the speaker 11 is used, for example, for outputting a call voice or outputting music.
  • An opening (sound outlet) for transmitting the sound output from the speaker 11 to the outside is formed in the housing 40.
  • a waterproof structure corresponding to the opening is realized, a structure in which the opening is closed by a member that allows gas to pass but not liquid can be employed.
  • a member that allows gas to pass but not liquid is Gore-Tex (registered trademark).
  • the speaker 11 is an example of a second sound generator.
  • the camera 12 is an in-camera that captures an object facing the display 2.
  • the camera 12 converts the captured image into an electrical signal.
  • the mobile phone 1 ⁇ / b> A may include an out camera that captures an object facing the surface on the opposite side of the display 2.
  • the panel 20 vibrates as the piezoelectric element 7 is deformed (expanded or bent), and transmits the vibration to the ear cartilage (auricular cartilage) or the like that the user contacts with the panel 20.
  • the panel 20 is an example of a first sound generator.
  • the panel 20 also has a function of protecting the display 2 and the piezoelectric element 7 from external force.
  • the panel 20 is formed by synthetic resins, such as glass or an acryl, for example.
  • the shape of the panel 20 is, for example, a plate shape.
  • the panel 20 may be a flat plate.
  • the panel 20 may be a curved panel whose surface is smoothly curved.
  • the display 2 and the piezoelectric element 7 are attached to the back surface of the panel 20 by the joining member 30.
  • the piezoelectric element 7 is spaced from the inner surface of the housing 40 by a predetermined distance while being disposed on the back surface of the panel 20.
  • the piezoelectric element 7 may be separated from the inner surface of the housing 40 even in a stretched or bent state. That is, the distance between the piezoelectric element 7 and the inner surface of the housing 40 is preferably larger than the maximum deformation amount of the piezoelectric element 7.
  • the piezoelectric element 7 may be attached to the panel 20 via a reinforcing member (for example, sheet metal or glass fiber reinforced resin).
  • the joining member 30 is, for example, a double-sided tape or an adhesive having thermosetting property or ultraviolet curable property.
  • the joining member 30 may be an optical elastic resin that is a colorless and transparent acrylic ultraviolet curable adhesive.
  • the display 2 is disposed almost at the center of the panel 20 in the short direction.
  • the piezoelectric element 7 is disposed in the vicinity of a predetermined distance from the longitudinal end of the panel 20 so that the longitudinal direction of the piezoelectric element 7 is parallel to the lateral direction of the panel 20.
  • the display 2 and the piezoelectric element 7 are arranged in parallel on the inner surface of the panel 20.
  • a touch screen (touch sensor) 21 is disposed on almost the entire outer surface of the panel 20.
  • the touch screen 21 detects contact with the panel 20.
  • the touch screen 21 is used for detecting a user's contact operation with a finger, a pen, a stylus pen, or the like.
  • the gestures detected using the touch screen 21 include, but are not limited to, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out.
  • the detection method of the touch screen 21 may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method.
  • the touch screen 21 is also used to detect an auricle or the like that contacts the panel 20 in order to hear sound.
  • the housing 40 is formed using resin or metal.
  • the housing 40 supports the button 3, the illuminance sensor 4, the proximity sensor 5, the first microphone 8a, the second microphone 8b, the speaker 11, the camera 12, the panel 20, and the like.
  • FIG. 3 is a diagram illustrating an example of the shape of the panel 20.
  • FIG. 4 is a diagram illustrating an example of the vibration of the panel 20.
  • An electrical signal corresponding to the output sound is applied to the piezoelectric element 7.
  • ⁇ 15 V which is higher than ⁇ 5 V that is an applied voltage of a so-called panel speaker that transmits sound by air conduction sound through the ear canal, may be applied to the piezoelectric element 7.
  • the panel 20 is caused to generate sufficient vibration and used. Vibration sound transmitted through a part of the person's body can be generated.
  • the voltage applied to the piezoelectric element 7 can be appropriately adjusted according to the fixing strength of the panel 20 with respect to the housing 40 or the performance of the piezoelectric element 7.
  • the piezoelectric element 7 When an electric signal is applied, the piezoelectric element 7 expands or contracts or bends in the longitudinal direction.
  • the panel 20 to which the piezoelectric element 7 is attached is deformed in accordance with expansion / contraction or bending of the piezoelectric element 7. Thereby, the panel 20 vibrates and generates air conduction sound. Further, when the user brings a part of the body (for example, auricular cartilage) into contact with the panel 20, the panel 20 generates vibration sound that is transmitted to the user through the part of the body. That is, as the piezoelectric element 7 is deformed, the panel 20 vibrates at a frequency perceived as a vibration sound with respect to an object that contacts the panel 20. The panel 20 is bent by expansion / contraction or bending of the piezoelectric element 7.
  • the panel 20 is bent directly by the piezoelectric element 7.
  • the panel 20 is directly bent by the piezoelectric element means that the panel is specified by the inertial force of the piezoelectric actuator configured by arranging the piezoelectric element in the casing as used in a conventional panel speaker. This is different from the phenomenon in which the area is vibrated and the panel is deformed.
  • the panel 20 is bent directly by the piezoelectric element means that the expansion or contraction or bending (curving) of the piezoelectric element is directly applied to the panel via the bonding member or via the bonding member and the reinforcing member 31 described later. Means bending.
  • the panel 20 when an electric signal corresponding to the voice of the other party of the call or sound data such as a ring tone or music is applied to the piezoelectric element 7, the panel 20 generates air conduction sound and vibration sound corresponding to the electric signal.
  • the sound signal output via the piezoelectric element 7 and the panel 20 may be based on sound data stored in the storage 9 described later.
  • the sound signal output via the piezoelectric element 7 and the panel 20 may be based on sound data stored in an external server or the like and acquired via the network by the communication unit 6 described later.
  • the panel 20 may be approximately the same size as the user's ear. Moreover, the panel 20 may be larger in size than the user's ear, as shown in FIG. In this case, the user can bring the entire outer periphery of the ear into contact with the panel 20 when listening to the sound. Listening to the sound in this way makes it difficult for ambient sounds (noise) to enter the ear canal.
  • at least the panel 20 has a length in the longitudinal direction (or short direction) corresponding to the distance between the lower leg of the anti-annulus (lower anti-annular leg) of the human and the anti-tragus, and the length from the tragus.
  • a region wider than a region having a length in the short direction (or the longitudinal direction) corresponding to the distance to the ear ring vibrates.
  • the panel 20 has a length in the longitudinal direction (or short direction) corresponding to the distance from the region near the upper leg of the ear ring (upper pair leg) in the ear ring to the earlobe, and the vicinity of the ear ring in the ear ring from the tragus.
  • a region having a length in the short direction (or the longitudinal direction) corresponding to the distance to the part may vibrate.
  • the region having the above length and width may be a rectangular region, or an elliptical shape in which the length in the longitudinal direction is the major axis and the length in the lateral direction is the minor axis. Also good.
  • the average size of the human ear can be found, for example, by referring to the Japanese human body size database (1992-1994) created by the Human Life Engineering Research Center (HQL).
  • the panel 20 vibrates not only in the attachment region 20a to which the piezoelectric element 7 is attached, but also in a region away from the attachment region 20a.
  • the panel 20 has a plurality of locations that vibrate in a direction intersecting the main surface of the panel 20 in the vibrating region, and in each of the plurality of locations, the value of the amplitude of vibration changes from positive to negative with time, Or vice versa.
  • the panel 20 vibrates at a seemingly random or regular distribution in a substantially entire portion of the panel 20 with a portion having a relatively large vibration amplitude and a portion having a relatively small vibration amplitude. That is, vibrations of a plurality of waves are detected over the entire panel 20.
  • the display 2 is attached to the panel 20.
  • the lower part of the panel 20 (the side on which the display 2 is attached) is increased in rigidity, and the vibration is smaller than the upper part of the panel 20 (the side on which the piezoelectric element 7 is attached). For this reason, the sound leakage of the air conduction sound due to the vibration of the panel 20 in the lower part of the panel 20 is reduced.
  • the mobile phone 1A can transmit air conduction sound and vibration sound through a part of the user's body (for example, auricular cartilage) to the user by the vibration of the panel 20. Therefore, when the mobile phone 1A outputs a sound having a volume equivalent to that of the dynamic receiver, the sound transmitted to the surroundings of the mobile phone 1A due to air vibration may be reduced compared to an electronic device having only a dynamic speaker. it can.
  • a feature is suitable for, for example, listening to a recorded message in a place where there is another person nearby such as in a train.
  • the mobile phone 1A transmits a vibration sound to the user by the vibration of the panel 20. Therefore, even if the user wears the earphone or the headphone, the user can hear the vibration sound due to the vibration of the panel 20 through the earphone or the headphone and a part of the body by bringing the mobile phone 1A into contact therewith. it can.
  • the mobile phone 1A transmits sound by the vibration of the panel 20. Therefore, when the mobile phone 1A does not include a separate dynamic receiver (for example, the speaker 11), it is not necessary to form in the housing 40 an opening (sound emission port) for transmitting the sound generated by the panel 20 to the outside.
  • a separate dynamic receiver for example, the speaker 11
  • FIG. 5 is a block diagram of the mobile phone 1A.
  • the mobile phone 1A includes a display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a piezoelectric element 7, a first microphone 8a, a second microphone 8b, A storage 9, a controller 10, a speaker 11, a camera 12, a posture detection unit 15, a vibrator 18, and a touch screen 21 are provided.
  • the communication unit 6 communicates wirelessly.
  • the communication method supported by the communication unit 6 is a wireless communication standard.
  • wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G.
  • Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (Regular Trademark) (GloS MobilS). (Personal Handy-phone System).
  • wireless communication standards for example, there are WiMAX (Worldwide Interoperability for Microwave Access), IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Coal, etc.).
  • the communication unit 6 may support one or more of the communication standards described above.
  • the storage 9 stores programs and data.
  • the storage 9 is also used as a work area for temporarily storing the processing result of the controller 10.
  • the storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium.
  • the storage 9 may include a plurality of types of storage media.
  • the storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader.
  • the storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).
  • the program stored in the storage 9 includes an application executed in the foreground or the background and a control program that supports the operation of the application.
  • the application displays a screen on the display 2 and causes the controller 10 to execute processing according to the gesture detected by the touch screen 21.
  • the control program is, for example, an OS.
  • the application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.
  • the storage 9 stores, for example, a control program 9A, a call application 9B, a music playback application 9C, a video playback application 9D, and setting data 9Z.
  • the call application 9B provides a call function for a call by wireless communication.
  • the music playback application 9C provides a music playback function for playing back sound from music data.
  • the video playback application 9D provides a video playback function for playing back video and sound from video data.
  • the setting data 9Z includes information related to various settings and processes related to the operation of the mobile phone 1A.
  • the setting data 9Z includes information on various settings and processes related to the operation of the mobile phone 1A, such as information on the output method of the currently used call voice, the sound pressure of the sound input by the first microphone 8a, and the like. A threshold value for comparison, information on a switching instruction for the output method of the call voice, and the like are included.
  • the control program 9A provides functions related to various controls for operating the mobile phone 1A.
  • the control program 9A realizes a call by controlling the communication unit 6, the piezoelectric element 7, the first microphone 8a, the second microphone 8b, and the like, for example.
  • the function provided by the control program 9A may be used in combination with a function provided by another program such as the call application 9B.
  • control program 9A determines whether or not there is an instruction to switch the output method of the call voice at the start of the call process executed by the call application 9B.
  • a function for executing a process of outputting a call voice by switching to a method corresponding to the switching instruction is included.
  • control program 9A includes a function of executing output type switching determination processing based on the sound pressure level when a call operation using the button 3 or the like or an incoming call in the communication unit 6 is detected.
  • the mobile phone 1A uses a first output method for outputting a call voice from the speaker 11 as an output method of the call voice, and an object that contacts the panel 20 by deforming the piezoelectric element 7 (for example, use)
  • a second output method is used in which the panel 20 is vibrated at a frequency at which the sound vibration of the voice is transmitted to the ear of the person) and the call voice is output.
  • a first output method for outputting a call voice from the speaker 11 is referred to as a dynamic speaker method, and an object (for example, a user's ear) that touches the panel 20 by deforming the piezoelectric element 7.
  • the second output method for outputting the call voice by vibrating the panel 20 at the frequency at which the sound vibration of the voice is transmitted is referred to as a human body conduction method.
  • the controller 10 is an arithmetic processing unit.
  • the arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto.
  • the controller 10 implements various functions by comprehensively controlling the operation of the mobile phone 1A.
  • the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement
  • the functional unit includes, for example, the display 2, the communication unit 6, the piezoelectric element 7, the first microphone 8a, the second microphone 8b, the speaker 11, and the vibrator 18, but is not limited thereto.
  • the controller 10 may change the control according to the detection result of the detection unit.
  • the detection unit includes, for example, the button 3, the illuminance sensor 4, the proximity sensor 5, the camera 12, the posture detection unit 15, and the touch screen 21, but is not limited thereto.
  • the controller 10 executes the control program 9A to execute a call voice output mode switching process at the start of the call process executed by the call application 9B.
  • the controller 10 reads information on the current output method from the setting data 9Z of the storage 9 when there is an instruction to switch the output method of the call voice at the start of the call processing.
  • the controller 10 switches the call voice output method to the method corresponding to the switching instruction and outputs the call voice.
  • the controller 10 updates the output method information of the setting data 9Z to the output method after switching.
  • the controller 10 when the controller 10 detects a call operation using the button 3 or the like or an incoming call in the communication unit 6 by executing the control program 9A, the controller 10 executes an output method switching determination process based on the sound pressure level. .
  • the controller 10 selects at least one of the dynamic speaker method or the human body conduction method according to the comparison result between the sound pressure of the sound input from the first microphone 8a and the threshold value, and the other party's side at the time of the call Control is performed to transmit the call voice transmitted from the mobile phone to the user. More specifically, the controller 10 compares the sound pressure of the sound input by the first microphone 8a with a threshold value when detecting a call operation using the button 3 or the like or an incoming call in the communication unit 6.
  • the controller 10 stores an output method switching instruction so that the call sound is transmitted to the user by the dynamic speaker method. 9 is stored in the setting data 9Z.
  • the controller 10 stores an instruction to switch the output method so that the call voice is transmitted to the user by the human body conduction method. 9 is stored in the setting data 9Z.
  • the posture detection unit 15 detects the posture of the mobile phone 1A.
  • the posture detection unit 15 includes at least one of an acceleration sensor, a direction sensor, and a gyroscope in order to detect the posture.
  • Vibrator 18 vibrates a part or the whole of mobile phone 1A.
  • the vibrator 18 includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration. The vibration generated by the vibrator 18 is used not only to transmit sound but also to notify the user of various events such as incoming calls.
  • Non-transitory storage media include, for example, optical disks such as CD (registered trademark), DVD (registered trademark), and Blu-ray (registered trademark), magneto-optical disks, magnetic storage media, memory cards, and solid-state storage media Including, but not limited to.
  • the configuration of the mobile phone 1A shown in FIG. 5 is an example, and may be changed as appropriate without departing from the spirit of the present invention.
  • the mobile phone 1A may include buttons such as a numeric keypad layout or a QWERTY layout as buttons for operations.
  • the mobile phone 1 ⁇ / b> A according to the first embodiment can output sound through the speaker 11.
  • the cellular phone 1 ⁇ / b> A can deform the panel 20 by the piezoelectric element 7 to generate air conduction sound and vibration sound transmitted through an object (for example, a part of the human body) that is in contact with the panel 20 being deformed.
  • a processing procedure performed by the mobile phone 1A according to the first embodiment will be described with reference to FIGS.
  • the processing procedures shown in FIGS. 6 to 8 are realized by the controller 10 executing the control program 9A stored in the storage 9.
  • FIG. 6 is a diagram illustrating an example of a processing procedure of the switching process of the output method of the call voice that is executed at the start of the call process executed by the call application 9B in the mobile phone 1A.
  • the controller 10 starts a call process in response to an outgoing operation using the button 3 or an incoming call in the communication unit 6 as step S ⁇ b> 101. Subsequently, in step S102, the controller 10 determines whether there is an instruction to switch the output method. For example, the controller 10 reads the setting data 9Z stored in the storage 9, and determines whether or not the setting data 9Z includes an output method switching instruction.
  • step S102 If there is an instruction to switch the output method as a result of the determination (step S102, Yes), the controller 10 reads the setting data 9Z of the storage 9 as step S103, and the current output method included in the setting data 9Z. Then, it is determined whether or not the output method corresponding to the switching instruction is different.
  • step S103 When the current output method and the output method corresponding to the switching instruction are different as a result of the determination (step S103, Yes), the controller 10 changes the call voice output method to a method corresponding to the switching instruction as step S104. Switch and output call voice. At this time, the controller 10 updates the output method information of the setting data 9Z. On the other hand, if the result of determination is that the current output method and the output method corresponding to the switching instruction are not different (if they are the same) (No in step S103), the controller 10 determines the current output method as step S105. To output the call voice.
  • Step S106 the controller 10 determines whether or not the call end has been detected. For example, the controller 10 detects the end of the call by determining whether an operation for ending the call is detected. If the end of the call is not detected as a result of the determination (No at Step S106), the controller 10 returns to the processing procedure at Step S102 described above and continues the processing procedure of FIG. On the other hand, when the controller 10 detects the end of the call as a result of the determination (step S106, Yes), the processing procedure of FIG.
  • step S102 if there is no instruction to switch the output method as a result of the determination (No in step S102), the controller 10 proceeds to the processing procedure in step S105 described above.
  • FIG. 7 is a diagram illustrating an example of a processing procedure of output method switching determination processing based on sound pressure level, which is executed when a call operation using the button 3 or the like or an incoming call in the communication unit 6 is detected in the mobile phone 1A. It is.
  • step S203 the controller 10 executes an output method switching determination process according to the sound pressure level as step S202. . Subsequently, the controller 10 determines whether or not the end of the call is detected in step S203. If the end of the call is not detected as a result of the determination (step S203, No), the controller 10 returns to the processing procedure of step S202 described above, and continues the output method switching determination process based on the sound pressure level. On the other hand, the controller 10 complete
  • FIG. 8 is a diagram showing a detailed processing procedure of output type switching determination processing based on sound pressure level, which is executed in the mobile phone 1A.
  • the controller 10 acquires the sound pressure of the sound input from the first microphone 8a as step S301. Subsequently, in Step S302, the controller 10 determines whether or not the acquired sound pressure is equal to or higher than a threshold (whether it is not lower than the threshold).
  • a threshold for example, an arbitrary value from 70 to 80 decibels is used.
  • step S302 If the acquired sound pressure is equal to or higher than the threshold value (if not lower than the threshold value) as a result of the determination (Yes in step S302), the controller 10 instructs the storage 9 to switch to the human body conduction method as step S303. And return to step S301.
  • the storage 9 writes an instruction to switch to the human body conduction method in the setting data 9Z.
  • the controller 10 instructs the storage 9 to switch to the dynamic speaker system in step S304. And return to step S301.
  • the storage 9 writes an instruction to switch to the dynamic speaker system in the setting data 9Z.
  • the mobile phone 1A is configured such that sounds generated around the mobile phone 1A, for example, engine sound of a car, tire sound, BGM flowing in the street, human voice, announcement in a station, train rail sound, etc.
  • sounds generated around the mobile phone 1A for example, engine sound of a car, tire sound, BGM flowing in the street, human voice, announcement in a station, train rail sound, etc.
  • the sound pressure (amplitude) is equal to or greater than the threshold value
  • the call voice is output by the human body conduction method. For this reason, according to the first embodiment, it is not necessary to perform complicated processing, and it is possible to convey the voice of the other party at the time of the call to the user in an easy manner by a simple method.
  • the sound pressure of the sound input by the first microphone 8a when the call voice is transmitted to the user by the human body conduction method is stored in the control program 9A.
  • a function for switching the call voice output method from the human body conduction method to the dynamic speaker method on condition that a certain time has passed in a state below the threshold is included.
  • the controller 10 of the mobile phone 1A executes the control program 9A, so that the sound pressure of the sound input by the first microphone 8a is obtained when the call voice is transmitted to the user by the human body conduction method. On the condition that a certain time has passed in a state below the threshold, a process for switching the call voice output method from the human body conduction method to the dynamic speaker method is executed.
  • FIG. 9 shows a case in which a call voice is output in the human body conduction system on the condition that the sound pressure of the voice generated around the mobile phone 1A continues for a certain period of time when the sound pressure falls below a threshold value. It is a figure which shows an example of the process sequence which returns the audio
  • the processing procedure illustrated in FIG. 9 is realized by the controller 10 executing the control program 9A stored in the storage 9.
  • the controller 10 acquires the sound pressure of the sound input from the first microphone 8a as step S401. Subsequently, in Step S402, the controller 10 determines whether or not the sound pressure is equal to or higher than the threshold (whether it is not lower than the threshold).
  • step S402 If the result of determination is that the sound pressure is equal to or higher than the threshold value (if not lower than the threshold value) (Yes in step S402), the controller 10 sends an instruction to switch to the human body conduction method to the storage 9 as step S403. Then, the process returns to step S401.
  • the controller 10 determines in step S404 that the sound pressure is not greater than or equal to the threshold (threshold). It is determined whether or not it is the first determination that it is not lower.
  • step S404 If the result of determination is the first determination (step S404, Yes), the controller 10 starts a timer as step S405, and returns to step S401. On the other hand, when the result of the determination is that the determination is not the first determination (when the determination is made for the second time or later) (No in step S404), the controller 10 acquires the elapsed time of the timer as step S406. Subsequently, based on the elapsed time of the timer, the controller 10 determines whether or not a certain time has elapsed since the sound pressure first fell below the threshold value in step S407.
  • Controller 10 returns to step S401 when the predetermined time has not elapsed since the sound pressure first fell below the threshold value as a result of the determination (step S407, No). On the other hand, if the determination result shows that the sound pressure has fallen below the threshold for a certain period of time (Yes in step S407), the controller 10 stores an instruction to switch to the dynamic speaker system as step S408. 9 and returns to step S401.
  • the mobile phone 1A when the mobile phone 1A is in a state of outputting a call voice by the human body conduction method, even if the sound generated around the mobile phone 1A falls below the threshold value, the mobile phone 1A immediately switches to the dynamic speaker method.
  • the switching instruction to the dynamic speaker system is transmitted when a predetermined time elapses with the sound remaining below the threshold value without transmitting the switching instruction. For this reason, according to the second embodiment, it is possible to prevent a situation in which the output method is frequently switched.
  • the human body conduction method when the sound generated around the mobile phone 1A is equal to or higher than the threshold value (when it is not lower than the threshold value), for example, when the surroundings become noisy, the human body conduction method is immediately performed. Since switching to is performed, it is possible to respond quickly according to the surrounding situation so that the voice of the other party during the call can be easily heard.
  • the output system is frequently switched by setting a first threshold value for switching from the human body conduction system to the dynamic speaker system and a second threshold value for switching from the dynamic speaker system to the human body conduction system. Can also be prevented. For example, as the first threshold value is smaller than the second threshold value and the difference is provided between the first threshold value and the second threshold value, the situation in which the output method is frequently switched does not occur. Can be controlled.
  • reference data for detecting a switching keyword to the human body conduction method and a switching keyword to the dynamic speaker method are stored.
  • reference data feature quantities including the fundamental frequency (height) and amplitude (magnitude) of speech corresponding to the keyword for switching to the human body conduction method and the keyword for switching to the dynamic speaker method are used.
  • the switching keyword is, for example, “difficult to hear voice”, “want to speak with a louder voice”, and the like.
  • the output method switching determination process based on the sound pressure level is executed before the call starts, and the output method switching determination process based on voice recognition is performed after the call starts.
  • a function to execute is included.
  • control program 9A analyzes the user's voice as a function for executing the output method switching determination process by voice recognition, and switches to the human body conduction method when the switching keyword to the human body conduction method is detected. And a function for sending a switching instruction to the dynamic speaker method when a switching keyword to the dynamic speaker method is detected.
  • the controller 10 of the cellular phone 1A executes the control program 9A to execute the output method switching determination process based on the sound pressure level before starting the call, and after the start of the call, the output method switching determination process based on voice recognition. Execute. When executing the output method switching determination process by voice recognition, the controller 10 sends an instruction to switch to the human body conduction method when a keyword for switching to the human body conduction method is detected from the user's voice. On the other hand, the controller 10 sends an instruction to switch to the dynamic speaker method when a keyword for switching to the dynamic speaker method is detected from the user's voice.
  • the controller 10 acquires the user's voice input by the second microphone 8b at a sampling frequency sufficient to capture the switching keyword to the human body conduction method and the switching keyword to the dynamic speaker method. Subsequently, the controller 10 analyzes the user's voice using the reference data included in the setting data 9Z, and when a keyword for switching to the human body conduction method is detected, sends an instruction to switch to the human body conduction method. . On the other hand, when the controller 10 analyzes the user's voice using the reference data included in the setting data 9Z and detects a keyword for switching to the dynamic speaker system, the controller 10 sends an instruction to switch to the dynamic speaker system.
  • FIG. 10 is a diagram illustrating an example of a processing procedure when the output method switching determination based on the sound pressure level and the output method switching determination based on voice recognition are properly used before and after the start of a call.
  • the processing procedure shown in FIG. 10 is realized by the controller 10 executing the control program 9A stored in the storage 9.
  • the controller 10 determines whether or not call processing is started as step S502. For example, when a call operation is performed, the controller 10 determines that the call process has been started by detecting a response from the other party to the call corresponding to the call operation. For example, when there is an incoming call, the controller 10 determines that the call processing has been started by detecting an operation for receiving an incoming call using the button 3 or the like.
  • the controller 10 executes an output method switching determination process based on the sound pressure level as Step S503. That is, the output method of the call voice at the start of the call is determined by the output method switching determination process based on the sound pressure level in step S503.
  • step S502 when the call process is started as a result of the determination (step S502, Yes), the controller 10 executes the output method switching determination process by voice recognition as step S504.
  • Step S505 the controller 10 determines whether or not the call end has been detected. If the end of the call is not detected (No at Step S505), the controller 10 returns to Step S502. On the other hand, when the controller 10 detects the end of the call (step S505, Yes), the processing procedure of FIG.
  • FIG. 11 is a diagram illustrating an example of a processing procedure of output method switching determination processing by voice recognition.
  • the processing procedure illustrated in FIG. 11 is realized by the controller 10 executing the control program 9A stored in the storage 9.
  • the controller 10 acquires the audio
  • step S602 When the controller 10 detects a keyword for switching to the human body conduction system as a result of the determination (step S602, Yes), the controller 10 sends an instruction to switch to the human body conduction system as step S603, and returns to step S601. On the other hand, if the controller 10 does not detect the keyword for switching to the human body conduction method as a result of the determination (step S602, No), the controller 10 determines whether or not the keyword for switching to the dynamic speaker method is detected as step S604. To do.
  • step S604 If the controller 10 detects a keyword for switching to the dynamic speaker system as a result of the determination (step S604, Yes), the controller 10 sends an instruction to switch to the dynamic speaker system as step S605, and returns to step S601. On the other hand, if the controller 10 does not detect the keyword for switching to the dynamic speaker system as a result of the determination (No in step S604), the controller 10 returns to step S601 as it is.
  • the output method switching determination based on the sound pressure level shifts to the output method switching determination based on voice recognition. Switching is possible.
  • reference data for detecting an environment in which the human body conduction method is superior in transmitting the call voice to the user is stored.
  • reference data feature quantities including an engine sound of a car collected in a car, a fundamental frequency (height) corresponding to a rail sound of a train collected in a train, an amplitude (size), and the like. Use.
  • the human body conduction method is superior in transmitting the call voice to the user based on the sound around the mobile phone 1A. If it is determined that the user is in the environment, a function of executing switching to the human body conduction method is included.
  • controller 10 executes the control program 9A to analyze the sound around the mobile phone 1A and determine that the human body conduction system is in an environment in which the call voice is transmitted to the user, Execute switch to human body conduction system.
  • the controller 10 acquires the sound around the mobile phone 1A input by the first microphone 8a. Subsequently, as a result of analyzing the sound around the mobile phone 1A using the reference data included in the setting data 9Z, the controller 10 transmits the call voice to the user when determining that the user is in the car or the train. In this case, it is determined that the human body conduction system is in an advantageous environment, and an instruction to switch to the human body conduction system is transmitted.
  • FIG. 12 is a diagram showing another example of the processing procedure of the output method switching determination processing based on voice recognition.
  • the processing procedure illustrated in FIG. 12 is realized by the controller 10 executing the control program 9A stored in the storage 9.
  • the controller 10 acquires the sound signal (sound around the mobile phone 1A) input by the first microphone 8a as step S701. Subsequently, in Step S702, the controller 10 analyzes the sound signal input from the first microphone 8a and determines whether or not the environment is superior to the human body conduction method.
  • step S702 If the controller 10 is in an environment superior to the human body conduction system as a result of the determination (step S702, Yes), the controller 10 sends an instruction to switch to the human body conduction system as step S703, and returns to step S701. On the other hand, if the controller 10 is not in an environment superior to the human body conduction method as a result of the determination (step S702, No), the controller 10 returns to step S701 as it is.
  • the output method switching determination process based on the sound pressure level has been described.
  • the output method switching determination may be performed according to the position of the mobile phone 1A.
  • output type switching determination processing based on position information will be described.
  • the communication unit 6 of the mobile phone 1A receives, for example, a radio signal in a predetermined frequency band from a GPS satellite, performs demodulation processing on the received radio signal, and sends the processed signal to the controller 10.
  • the mobile phone 1 ⁇ / b> A may include a communication unit for receiving radio signals in a predetermined frequency band from GPS satellites.
  • the setting data 9Z stored in the storage 9 of the cellular phone 1A includes, for example, a place where the human body conduction system is superior in transmitting call voice to the user for each of a plurality of areas centered on latitude and longitude. Output method information associated with whether or not there is included is included.
  • a place where the human body conduction method is dominant is, for example, a station or a stadium.
  • control program 9A stored in the storage 9 includes a function for executing a positioning process based on a radio wave signal from a GPS satellite. Further, the control program 9A includes a function for executing output method switching determination processing based on position information.
  • the controller 10 of the mobile phone 1A executes the control program 9A to execute the output method switching determination process based on the position information. For example, the controller 10 performs a position positioning process based on a signal from the communication unit 6. Subsequently, the controller 10 refers to the output method information included in the setting data 9Z, and the area corresponding to the position (latitude / longitude) measured is superior to the human body conduction method in transmitting the call voice to the user. If this is the case, an instruction to switch to the human body conduction system is sent out.
  • FIG. 13 is a diagram illustrating an example of a processing procedure of output method switching determination processing based on position information, which is executed when a call operation using the button 3 or the like or an incoming call in the communication unit 6 is detected in the mobile phone 1A. is there.
  • step S803 the controller 10 determines whether the end of the call has been detected. If the end of the call is not detected as a result of the determination (step S803, No), the controller 10 returns to the processing procedure of step S802 described above and continues the output method switching determination process based on the position information. On the other hand, the controller 10 complete
  • FIG. 14 is a diagram illustrating a detailed processing procedure of output method switching determination processing based on position information, which is executed in the mobile phone 1A.
  • the controller 10 executes position positioning as step S901. Subsequently, the controller 10 refers to the output method information included in the setting data 9Z, and in step S902, whether the measured position is an advantageous place for the human body conduction method in transmitting the call voice to the user. Determine whether or not.
  • step S902 If it is determined that the location is superior to the human body conduction method (step S902, Yes), the controller 10 sends an instruction to switch to the human body conduction method to the storage 9 as step S903, and returns to step S901. .
  • the storage 9 writes an instruction to switch to the human body conduction method in the setting data 9Z.
  • the controller 10 sends an instruction for switching to the dynamic speaker method to the storage 9 as step S904, and step S901. Return to.
  • the storage 9 writes an instruction to switch to the dynamic speaker system in the setting data 9Z.
  • the voice of the other party at the time of the call can be easily transmitted to the user by a simple method.
  • the process for transmitting the voice (call voice) of the other party during a call to the user in an easy-to-hear state has been described, but the music content (music) played by the music playback application 9C. It can also be used in the same way when communicating in an easy-to-listen state.
  • the sound output by the human body conduction method or the dynamic speaker method may be, for example, a sound used for a navigation function.
  • FIG. 15 is a front view of a mobile phone according to the fifth embodiment.
  • 16 is a cross-sectional view of the mobile phone shown in FIG. 15 taken along the line bb.
  • a mobile phone 1B provided so that the touch screen 21 does not overlap the panel 20 will be described with reference to FIGS.
  • the display 2 is arranged side by side with the panel 20 so as to be in the same plane as the panel 20 instead of inside the panel 20.
  • the touch screen 21 is disposed so as to cover almost the entire front surface of the display 2. That is, the touch screen 21 and the display 2 constitute a so-called touch panel (touch screen display).
  • the piezoelectric element 7 is attached to the center of the back surface of the panel 20 by a joining member 30.
  • the panel 20 vibrates in accordance with deformation (expansion / contraction or bending) of the piezoelectric element 7, and air conduction sound and a part of the human body that contacts the panel 20 (for example, an ear) And vibration sound transmitted through the cartilage.
  • the piezoelectric element 7 By disposing the piezoelectric element 7 in the center of the panel 20, the vibration of the piezoelectric element 7 is evenly transmitted to the entire panel 20, and the quality of the sound transmitted to the user is improved.
  • the touch screen 21 is not disposed on the front surface of the panel 20, the panel 20 is disposed in the vicinity of the display 2 where the touch screen 21 is disposed.
  • the speaker is a dynamic speaker above the piezoelectric element 7 on the same side of the housing 40 where the piezoelectric element 7 is disposed.
  • sound can be output in two modes as described above. As a result, it is possible for the user to output sound by a method suitable for the user.
  • FIG. 17 is a front view of a mobile phone according to the sixth embodiment.
  • FIG. 18 is a cross-sectional view taken along the line cc of the mobile phone shown in FIG.
  • a cellular phone 1C shown in FIGS. 17 and 18 is an example of a so-called folding cellular phone.
  • the display 2 is arranged side by side with the panel 20 so as to be in the same plane as the panel 20, not inside the panel 20.
  • the piezoelectric element 7 is attached to the center of the back surface of the panel 20 by a joining member 30.
  • a reinforcing member 31 is disposed between the panel 20 and the piezoelectric element 7.
  • the reinforcing member 31 is, for example, a plate made of resin, sheet metal, or glass fiber. That is, in the cellular phone 1 ⁇ / b> C, the piezoelectric element 7 and the reinforcing member 31 are bonded by the bonding member 30, and the reinforcing member 31 and the panel 20 are bonded by the bonding member 30.
  • the piezoelectric element 7 may not be provided at the center of the panel 20.
  • the reinforcing member 31 is an elastic member such as rubber or silicon.
  • the reinforcing member 31 may be a metal plate made of aluminum or the like having a certain degree of elasticity, for example.
  • the reinforcing member 31 may be a stainless plate such as SUS304.
  • the thickness of a metal plate such as a stainless steel plate is suitably 0.2 mm to 0.8 mm, for example, depending on the voltage value applied to the piezoelectric element 7 and the like.
  • the reinforcing member 31 may be a resin plate, for example.
  • As resin which forms the resin-made board here a polyamide-type resin is mentioned, for example.
  • the polyamide-based resin examples include Reny (registered trademark), which is made of a crystalline thermoplastic resin obtained from metaxylylenediamine and adipic acid and is rich in strength and elasticity.
  • Reny registered trademark
  • Such a polyamide-based resin may be a reinforced resin reinforced with glass fiber, metal fiber, carbon fiber, or the like using itself as a base polymer. The strength and elasticity of the reinforced resin are appropriately adjusted according to the amount of glass fiber, metal fiber, carbon fiber, or the like added to the polyamide-based resin.
  • the reinforced resin is formed, for example, by impregnating a resin into a base material formed by braiding glass fiber, metal fiber, carbon fiber or the like and curing it.
  • the reinforced resin may be formed by mixing a finely cut fiber piece into a liquid resin and then curing it.
  • the reinforced resin may be a laminate of a base material in which fibers are knitted and a resin layer.
  • the reinforcing member 31 By arranging the reinforcing member 31 between the piezoelectric element 7 and the panel 20, the following effects can be obtained.
  • an external force is applied to the panel 20, the possibility that the external force is transmitted to the piezoelectric element 7 and the piezoelectric element 7 is damaged can be reduced.
  • the reinforcing member 31 Since the reinforcing member 31 has predetermined elasticity, it is elastically deformed by an external force transmitted from the panel 20. Therefore, at least a part of the external force applied to the panel 20 is absorbed by the reinforcing member 31, and the external force transmitted to the piezoelectric element 7 is reduced.
  • the reinforcing member 31 is disposed between the piezoelectric element 7 and the casing 40, for example, the casing 40 is deformed when the mobile phone 1 ⁇ / b> C falls on the ground, and the deformed casing 40 collides with the piezoelectric element 7. Thus, the possibility that the piezoelectric element 7 is damaged can be reduced.
  • the vibration due to expansion / contraction or bending of the piezoelectric element 7 is first transmitted to the reinforcing member 31 and further transmitted to the panel 20. That is, the piezoelectric element 7 first vibrates the reinforcing member 31 having a larger elastic coefficient than the piezoelectric element 7 and further vibrates the panel 20. Therefore, the cellular phone 1 ⁇ / b> C does not include the reinforcing member 31, and the piezoelectric element 7 can be less likely to be excessively deformed as compared with the structure in which the piezoelectric element 7 is bonded to the panel 20 by the bonding member 30. Thereby, the deformation amount (degree of deformation) of the panel 20 can be adjusted. This structure is particularly effective in the case of the panel 20 that hardly obstructs the deformation of the piezoelectric element 7.
  • FIG. 19 is a diagram illustrating an example of a change in frequency characteristics due to the reinforcing member 31.
  • FIG. 19 shows frequency characteristics when a sheet metal such as SUS304 is used as the reinforcing member 31, and frequency characteristics when reinforced resin such as Reny is used as the reinforcing member 31. .
  • the horizontal axis represents frequency and the vertical axis represents sound pressure.
  • the resonance point when reinforced resin is used is about 2 kHz, and the resonance point when sheet metal is used is about 1 kHz.
  • the dip when using reinforced resin is about 4 kHz, and the dip when using sheet metal is about 3 kHz. That is, when the reinforced resin is used, the resonance point of the panel 20 is located in a higher frequency region and the frequency characteristic dip is located in a higher frequency region, compared to the case where a sheet metal is used. Since the frequency band used for the voice call of the mobile phone is 300 Hz to 3.4 kHz, when reinforced resin is used as the reinforcing member 31, the dip can be prevented from being included in the use frequency band of the mobile phone 1C. .
  • the dip is not included in the use frequency band of the cellular phone 1C by appropriately adjusting the type or composition of the metal constituting the sheet metal or the thickness of the sheet metal. be able to.
  • the reinforced resin can reduce the influence on the antenna performance as compared with the sheet metal. Since reinforced resin is less likely to be plastically deformed than sheet metal, there is an advantage that acoustic characteristics are less likely to change.
  • the reinforced resin suppresses the temperature rise at the time of sound generation compared to the sheet metal.
  • a plate-like weight may be attached to the piezoelectric element 7 by the joining member 30.
  • the panel 20 vibrates in accordance with deformation (expansion / contraction or bending) of the piezoelectric element 7, and air conduction sound and a part of the human body that contacts the panel 20 (for example, an ear) And vibration sound transmitted through the cartilage.
  • the touch screen 21 is disposed so as to cover almost the entire front surface of the panel 20.
  • the cellular phone 1 ⁇ / b> C is also provided with the speaker 11, which is a dynamic speaker, on the upper side of the piezoelectric element 7 on the same side of the housing 40 where the piezoelectric element 7 is disposed.
  • the first microphone 8a is disposed on the back surface on the opposite side (end portion) of the housing 40 in which the piezoelectric element 7 is disposed.
  • the second microphone 8b is disposed on the opposite side (end) of the housing 40 in which the piezoelectric element 7 is disposed.
  • the ambient sound input from the first microphone 8a and the position information obtained by the communication unit 6 are listed as the conditions for switching the sound output method.
  • This condition may be a contact detection by the touch screen 21 or a detection result of the posture detection unit.
  • the panel 20 is deformed by the piezoelectric element 7 to generate air conduction sound and vibration sound.
  • a part of the housing 40 may be deformed by the piezoelectric element 7 to generate air conduction sound and vibration sound.
  • a part of the housing 40 may be, for example, a corner portion of the housing.
  • the second sound generation unit is a dynamic speaker.
  • the second sound generation unit is a panel 20 and a piezoelectric element attached to the panel, and is a piezoelectric element different from the piezoelectric element 7. It may be an element. In this case, another piezoelectric element may be disposed at the end opposite to the piezoelectric element 7 in the longitudinal direction of the panel 20.
  • the mobile phone 1A has a space between the panel 20 and the display 2. May be configured. By providing a space between the panel 20 and the display 2, the panel 20 easily vibrates, and the range on which the vibration sound can be easily heard on the panel 20 is widened.
  • the piezoelectric element 7 may be attached to another place.
  • the piezoelectric element 7 may be attached to a battery lid.
  • the battery lid is a member that is attached to the housing 40 and covers the battery. Since the battery lid is often attached to a surface different from the display 2 in a portable electronic device such as a cellular phone, according to such a configuration, the user can place a part of the body (for example, an ear) on a surface different from the display 2. You can hear the sound by touching.
  • the piezoelectric element 7 may be configured to vibrate corners of the housing 40 (for example, at least one of the four corners).
  • the piezoelectric element 7 may be configured to be attached to the inner surface of the corner portion of the housing 40, and further includes an intermediate member, and vibration of the piezoelectric element 7 is transmitted to the corner portion of the housing 40 via the intermediate member. It may be configured. According to this configuration, the vibrating range can be made relatively narrow, so that air conduction sound generated by the vibration is difficult to leak to the surroundings. Further, according to this configuration, for example, the air conduction sound and the vibration sound are transmitted to the user in a state where the user inserts the corner portion of the housing into the ear canal, and therefore, ambient noise hardly enters the user's ear canal. Therefore, the quality of the sound transmitted to the user can be improved.
  • the reinforcing member 31 is a plate-like member, but the shape of the reinforcing member 31 is not limited to this.
  • the reinforcing member 31 may have a shape that is larger than the piezoelectric element 7 and has an end that curves toward the piezoelectric element 7 and covers the side of the piezoelectric element 7.
  • the reinforcing member 31 may have, for example, a shape having a plate-like portion and an extending portion that extends from the plate-like portion and covers the side portion of the piezoelectric element 7. In this case, it is preferable that the extended portion and the side portion of the piezoelectric element 7 are separated by a predetermined distance. Thereby, it becomes difficult for an extending part to inhibit a deformation
  • the panel 20 can constitute a part or all of any of a display panel, an operation panel, a cover panel, and a lid panel for making the rechargeable battery removable.
  • the panel 20 is a display panel
  • the piezoelectric element 7 is disposed outside the display area for the display function.
  • the operation panel includes a touch panel.
  • the operation panel includes a sheet key that is a member that constitutes one surface of the operation unit side body, in which, for example, a key top of an operation key is integrally formed in a folding mobile phone.
  • the bonding member that bonds the panel 20 and the piezoelectric element 7 and the bonding member that bonds the panel 20 and the housing 40 have been described as the bonding member 30 having the same reference numeral. However, different joining members may be used as appropriate depending on the members to be joined.
  • FIG. 20 is a front view of the mobile phone 1D according to the seventh embodiment.
  • FIG. 21 is a sectional view taken along line dd of the mobile phone 1D shown in FIG.
  • the mobile phone 1D includes a display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a piezoelectric element 7a, a dynamic receiver (second sound generating unit) 7b, A first microphone 8a, a second microphone 8b, a camera 12, a panel (first sound generating unit) 20, and a housing 40 are provided.
  • the display 2 includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display device).
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • IELD Inorganic Electro-Luminescence Display device
  • buttons 3 accepts operation input from the user.
  • the number of buttons 3 is not limited to the examples shown in FIGS.
  • the illuminance sensor 4 detects the illuminance of the ambient light of the mobile phone 1D. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2, for example.
  • the proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the display 2 is brought close to the face.
  • the illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.
  • the piezoelectric element 7a expands or contracts or bends according to the electromechanical coupling coefficient of the constituent material when an electric signal (voltage corresponding to the sound signal) is applied. That is, the piezoelectric element 7a is deformed when an electric signal is applied.
  • the piezoelectric element 7 a is attached to the panel 20 and is used as a vibration source for vibrating the panel 20.
  • the piezoelectric element 7a is formed using, for example, ceramic or quartz.
  • the piezoelectric element 7a may be a unimorph, bimorph, or multilayer piezoelectric element.
  • the multilayer piezoelectric element includes a multilayer bimorph element in which bimorphs are stacked (for example, 16 layers or 24 layers are stacked).
  • the multilayer piezoelectric element is composed of, for example, a multilayer structure including a plurality of dielectric layers made of PZT (lead zirconate titanate) and electrode layers disposed between the plurality of dielectric layers.
  • PZT lead zirconate titanate
  • a unimorph expands and contracts when an electrical signal (voltage) is applied.
  • a bimorph bends when an electrical signal (voltage) is applied.
  • the dynamic receiver 7b is a sound output unit that outputs sound by an air conduction method.
  • the dynamic receiver 7b can transmit the sound obtained by converting the electric signal to a person whose ear is not in contact with the mobile phone 1D.
  • the dynamic receiver 7b is a mechanism that outputs sound by vibrating a diaphragm with a voice coil.
  • the dynamic receiver 7b mainly includes a permanent magnet, a voice coil, and a diaphragm. When an electrical signal (voltage corresponding to a sound signal) is applied to the voice coil, the dynamic receiver 7b becomes an electromagnet and vibrates in a predetermined direction with respect to the permanent magnet.
  • the dynamic receiver 7b vibrates the diaphragm connected to the voice coil by vibrating the voice coil.
  • the vibration plate vibrates the surrounding air and transmits sound to the surroundings.
  • the dynamic receiver 7b serves as a receiver that outputs the voice of the call while the user presses the ear against the housing 40 during the call.
  • the dynamic receiver 7b also serves as a speaker that outputs sound with an output in which sound can be heard by the user who is away from the housing 40.
  • the dynamic receiver 7b is used, for example, for outputting a ring tone or outputting a call voice when used in a speakerphone mode.
  • the first microphone 8a and the second microphone 8b are sound input units.
  • the first microphone 8a and the second microphone 8b convert the input sound into an electrical signal.
  • the camera 12 is an in-camera that captures an object facing the display 2.
  • the camera 12 converts the captured image into an electrical signal.
  • the mobile phone 1D may include an out camera that captures an object facing the surface on the opposite side of the display 2.
  • the panel 20 vibrates as the piezoelectric element 7a deforms (expands or bends), and transmits the vibration to the ear cartilage (auricular cartilage) or the like that the user contacts with the panel 20 as sound vibration.
  • the panel 20 also has a function of protecting the display 2, the piezoelectric element 7a, and the like from external forces.
  • the panel 20 is formed by synthetic resins, such as glass or an acryl, for example.
  • the shape of the panel 20 is, for example, a plate shape.
  • the panel 20 may be a flat plate.
  • the panel 20 may be a curved panel whose surface is smoothly curved.
  • the display 2 and the piezoelectric element 7a are attached to the back surface of the panel 20 by the joining member 30.
  • the piezoelectric element 7a is spaced from the inner surface of the housing 40 by a predetermined distance while being disposed on the back surface of the panel 20.
  • the piezoelectric element 7a may be separated from the inner surface of the housing 40 even in a stretched or bent state. That is, the distance between the piezoelectric element 7a and the inner surface of the housing 40 is preferably larger than the maximum deformation amount of the piezoelectric element 7a.
  • the piezoelectric element 7a may be attached to the panel 20 via a reinforcing member (for example, sheet metal or glass fiber reinforced resin).
  • the joining member 30 is, for example, a double-sided tape or an adhesive having thermosetting property or ultraviolet curable property.
  • the joining member 30 may be an optical elastic resin that is a colorless and transparent acrylic ultraviolet curable adhesive.
  • the display 2 is disposed almost at the center of the panel 20 in the short direction.
  • the piezoelectric element 7 a is disposed in the vicinity of a predetermined distance from the longitudinal end of the panel 20 so that the longitudinal direction of the piezoelectric element 7 a is parallel to the short direction of the panel 20.
  • the display 2 and the piezoelectric element 7 a are arranged in parallel on the inner surface of the panel 20.
  • a touch screen (touch sensor) 21 is disposed on almost the entire outer surface of the panel 20.
  • the touch screen 21 detects contact with the panel 20.
  • the touch screen 21 is used for detecting a user's contact operation with a finger, a pen, a stylus pen, or the like.
  • the gestures detected using the touch screen 21 include, but are not limited to, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out.
  • the detection method of the touch screen 21 may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method.
  • the touch screen 21 is also used to detect auricular cartilage that contacts the panel 20 in order to hear sound.
  • the housing 40 is formed using resin or metal.
  • the housing 40 supports the button 3, the illuminance sensor 4, the proximity sensor 5, the dynamic receiver 7b, the first microphone 8a, the second microphone 8b, the camera 12, the panel 20, and the like.
  • the housing 40 supports the piezoelectric element 7 a via the panel 20.
  • the housing 40 has a substantially rectangular parallelepiped shape with a small thickness.
  • the display 2 and the panel 20 are arranged on one surface of the housing 40.
  • the piezoelectric element 7 a and the dynamic receiver 7 b are disposed on one surface of the housing 40 at positions facing each other with the display 2 and the panel 20 interposed therebetween.
  • the piezoelectric element 7 a is disposed on one end 40 a side in the longitudinal direction of one surface of the housing 40.
  • the dynamic receiver 7 b is disposed on the other end 40 b side in the longitudinal direction of one surface of the housing 40.
  • One surface of the housing 40 of the present embodiment has a rectangular shape, and the end portions 40a and 40b which are ends in the longitudinal direction are short sides.
  • the piezoelectric element 7a is disposed at one end 40a of the housing 40
  • the dynamic receiver 7b is disposed at the other end 40b of the housing 40.
  • the piezoelectric element 7 a and the dynamic receiver 7 b are disposed in the center of the short side direction of one surface of the housing 40.
  • the piezoelectric element 7a and the dynamic receiver 7b are respectively arranged on the one surface of the housing 40 at the end in the longitudinal direction and the center in the lateral direction.
  • the piezoelectric element 7a and the dynamic receiver 7b are respectively arranged on the one surface of the housing 40 at the end in the longitudinal direction and the center in the lateral direction.
  • the illuminance sensor 4, the proximity sensor 5, the camera 12, and the second microphone 8b are arranged on one end 40a side of the housing 40, that is, in the vicinity of the piezoelectric element 7a.
  • the first microphone 8a is disposed on the other end 40b side of the housing 40, that is, in the vicinity of the dynamic receiver 7b.
  • the second microphone 8b is disposed at one end 40a of the housing 40, and the first microphone 8a is disposed at the other end 40b of the housing 40. Therefore, the first microphone 8a is disposed at the end 40b opposite to the end 40a where the piezoelectric element 7a is disposed.
  • the second microphone 8b is disposed at the end 40a opposite to the end 40b where the dynamic receiver 7b is disposed.
  • the first microphone 8a and the second microphone 8b are respectively arranged on different end portions in the short side direction of one surface of the housing 40. That is, the first microphone 8a and the second microphone 8b are respectively disposed in the vicinity of the farthest corners that are diagonally located on one surface of the housing 40.
  • FIG. 22 is a diagram illustrating an example of the shape of the panel 20.
  • FIG. 23 is a diagram illustrating an example of vibration of the panel 20.
  • An electrical signal corresponding to the output sound is applied to the piezoelectric element 7a.
  • ⁇ 15 V higher than ⁇ 5 V which is an applied voltage of a so-called panel speaker that transmits sound by air conduction sound through the ear canal, may be applied to the piezoelectric element 7a.
  • the panel 20 is caused to generate sufficient vibration and used. Vibration sound transmitted through a part of the person's body can be generated.
  • the voltage applied to the piezoelectric element 7a can be appropriately adjusted according to the fixing strength of the panel 20 with respect to the housing 40 or the performance of the piezoelectric element 7a.
  • the piezoelectric element 7a When an electric signal is applied, the piezoelectric element 7a expands or contracts or bends in the longitudinal direction.
  • the panel 20 to which the piezoelectric element 7a is attached is deformed in accordance with expansion / contraction or bending of the piezoelectric element 7a. Thereby, the panel 20 vibrates and generates air conduction sound.
  • the panel 20 when the user brings a part of the body (for example, auricular cartilage) into contact with the panel 20, the panel 20 generates air conduction sound and vibration sound that is conducted to the user through the part of the body. . That is, the panel 20 vibrates at a frequency perceived as a vibration sound with respect to an object in contact with the panel 20 as the piezoelectric element 7a is deformed.
  • the panel 20 is bent by expansion / contraction or bending of the piezoelectric element 7a.
  • the panel 20 is bent directly by the piezoelectric element 7a.
  • “The panel 20 is directly bent by the piezoelectric element” means that the panel is specified by the inertial force of the piezoelectric actuator configured by arranging the piezoelectric element in the casing as used in a conventional panel speaker. This is different from the phenomenon in which the area is vibrated and the panel is deformed.
  • “The panel 20 is bent directly by the piezoelectric element” means that the expansion or contraction or bending (curving) of the piezoelectric element is directly applied to the panel via the bonding member or via the bonding member and the reinforcing member 31 described later. Means bending.
  • the panel 20 when an electrical signal corresponding to voice data of a call partner or a ring tone, music or the like is applied to the piezoelectric element 7a, the panel 20 generates air conduction sound and vibration sound corresponding to the electrical signal.
  • the sound signal output via the piezoelectric element 7a and the panel 20 may be based on sound data stored in the storage 9 described later.
  • the sound signal output via the piezoelectric element 7a and the panel 20 may be based on sound data stored in an external server or the like and acquired via the network by the communication unit 6 described later.
  • the panel 20 may be approximately the same size as the user's ear. Moreover, as shown in FIG. 22, the panel 20 may be larger in size than the user's ear. In this case, the user can bring the entire outer periphery of the ear into contact with the panel 20 when listening to the sound. Listening to the sound in this way makes it difficult for ambient sounds (noise) to enter the ear canal.
  • at least the panel 20 has a length in the longitudinal direction (or short direction) corresponding to the distance between the lower leg of the anti-annulus (lower anti-annular leg) of the human and the anti-tragus, and the length from the tragus.
  • a region wider than a region having a length in the short direction (or the longitudinal direction) corresponding to the distance to the ear ring vibrates.
  • the panel 20 has a length in the longitudinal direction (or short direction) corresponding to the distance from the region near the upper leg of the ear ring (upper pair leg) in the ear ring to the earlobe, and the vicinity of the ear ring in the ear ring from the tragus.
  • a region having a length in the short direction (or the longitudinal direction) corresponding to the distance to the part may vibrate.
  • the region having the above length and width may be a rectangular region, or an elliptical shape in which the length in the longitudinal direction is the major axis and the length in the lateral direction is the minor axis. Also good.
  • the average size of the human ear can be found, for example, by referring to the Japanese human body size database (1992-1994) created by the Human Life Engineering Research Center (HQL).
  • the panel 20 vibrates not only in the attachment region 20a to which the piezoelectric element 7a is attached, but also in a region away from the attachment region 20a.
  • the panel 20 has a plurality of locations that vibrate in a direction intersecting the main surface of the panel 20 in the vibrating region, and in each of the plurality of locations, the value of the amplitude of vibration changes from positive to negative with time, Or vice versa.
  • the panel 20 vibrates at a seemingly random or regular distribution in a substantially entire portion of the panel 20 with a portion having a relatively large vibration amplitude and a portion having a relatively small vibration amplitude. That is, vibrations of a plurality of waves are detected over the entire panel 20.
  • the voltage applied to the piezoelectric element 7a is ⁇ 15V
  • the piezoelectric element 7a is bent by the piezoelectric element 7a, and the vibration is attenuated at the lower part as compared with the upper part.
  • the panel 20 is bent by the piezoelectric element 7a so that the portion directly above the piezoelectric element 7a protrudes higher than the surrounding area in the long side direction of the piezoelectric element 7a.
  • the display 2 is attached to the panel 20.
  • the rigidity of the lower part of the panel 20 (the side where the display 2 is attached) is increased, and the vibration is smaller than that of the upper part of the panel 20 (the side where the piezoelectric element 7a is attached). For this reason, the sound leakage of the air conduction sound due to the vibration of the panel 20 in the lower part of the panel 20 is reduced.
  • the mobile phone 1 ⁇ / b> D can transmit sound to the user as air conduction sound and vibration sound via a part of the user's body (for example, auricular cartilage) by the vibration of the panel 20. Therefore, when the mobile phone 1D outputs a sound having a volume equivalent to that of the dynamic receiver 7b, the sound transmitted to the surroundings of the mobile phone 1D due to air vibrations should be reduced compared to an electronic device having only a dynamic speaker. Can do.
  • Such a feature is suitable for, for example, listening to a recorded message in a place where there is another person nearby such as in a train.
  • the mobile phone 1D transmits a vibration sound to the user by the vibration of the panel 20. Therefore, even if the user wears the earphone or the headphone, the user can hear the vibration sound due to the vibration of the panel 20 through the earphone or the headphone and a part of the body by bringing the mobile phone 1D into contact therewith. it can.
  • the mobile phone 1D transmits sound by the vibration of the panel 20. Therefore, it is not necessary to form an opening (sound emission port) in the housing 40 for transmitting the sound generated by the panel 20 to the outside. For this reason, when realizing a waterproof structure, the structure can be simplified.
  • the cellular phone 1D may employ a structure in which an opening such as a sound outlet of the dynamic speaker 7b is closed by a member that allows gas to pass but not liquid.
  • a member that allows gas to pass but not liquid is Gore-Tex (registered trademark).
  • the configuration of the second microphone 8b will be described with reference to FIG. In FIG. 24, the second microphone 8b will be described, but the first microphone 8a has the same configuration.
  • 24 is a cross-sectional view taken along line ee of the mobile phone 1D shown in FIG.
  • the second microphone 8 b is disposed inside the housing 40.
  • the second microphone 8 b includes a microphone body 50 and sound insulation members 52 and 53.
  • the casing 40 has a microphone hole 54 formed on the surface on which the panel 20 and the touch screen 21 are arranged.
  • the microphone hole 54 is formed at a position facing the microphone body 50.
  • the space near the microphone main body 50 inside the housing 40 and the space outside the housing 40 communicate with each other through the microphone hole 54. Sound propagating in the space outside the housing 40 reaches the microphone body 50 through the microphone hole 54.
  • the microphone body 50 is a part that detects sound collection, that is, sound.
  • the microphone body 50 is arranged at a position facing the microphone hole 54 inside the housing 40.
  • the microphone body 50 is arranged at a position spaced from the microphone hole 54.
  • the sound insulation member 52 is disposed between the microphone main body 50 and the microphone hole 54 inside the housing 40.
  • the sound insulation member 52 is disposed so as to surround the space between the microphone body 50 and the microphone hole 54, and blocks the space between the microphone body 50 and the microphone hole 54 from the inside of the housing 40. . Thereby, the sound insulation member 52 makes it difficult for the sound inside the housing 40 to reach the microphone body 50.
  • the second microphone 8 b detects the sound that has passed through the microphone hole 54 from the outside of the housing 40 and reached the microphone body 50.
  • the microphone hole 54 is formed on the surface of the housing 40 on which the panel 20 and the touch screen 21 are arranged, but the present invention is not limited to this.
  • the microphone hole 54 may be formed on the side surface of the housing 40, that is, the surface including the thickness direction of the housing 40.
  • FIG. 25 is a cross-sectional view showing a schematic configuration of another configuration of the second microphone.
  • the second microphone 8 c shown in FIG. 25 is disposed inside the housing 40.
  • the second microphone 8 c includes a microphone body 50 and sound insulation members 62 and 63.
  • the housing 40 has a microphone hole 64 formed on a side surface.
  • the side surface of the housing 40 is a surface connected to the surface on which the panel 20 and the touch screen 21 are disposed, and is a surface that becomes the end portion 40a in the longitudinal direction.
  • the microphone body 50 is a part that detects sound.
  • the microphone main body 50 is installed inside the housing 40 on the side opposite to the surface on which the panel 20 and the touch screen 21 are arranged.
  • the microphone main body 50 is disposed at a position that is not visible even when looking into the microphone hole 64 from the outside of the housing 40.
  • the microphone body 50 is arranged at a position spaced from the microphone hole 64.
  • the sound insulation members 62 and 63 are disposed between the microphone main body 50 and the microphone hole 64 inside the housing 40.
  • the sound insulation members 62 and 63 are disposed so as to surround the space between the microphone body 50 and the microphone hole 64, and block the space between the microphone body 50 and the microphone hole 64 from the inside of the housing 40. ing.
  • the sound insulating members 62 and 63 make it difficult for the sound inside the housing 40 to reach the microphone body 50.
  • the sound insulating members 62 and 63 guide the sound that has passed through the microphone hole 64 to the microphone main body 50 that is disposed at a position where the sound cannot be seen even if the microphone hole 64 is viewed.
  • the second microphone 8 c detects sound that has passed through the microphone hole 64 from the outside of the housing 40 and reached the microphone body 50.
  • the second microphone 8c can prevent the microphone from being blocked during use by providing the microphone hole 64 on the side surface of the housing 40. Thereby, a sound can be detected more suitably.
  • FIG. 26 is a block diagram of a mobile phone 1D according to the seventh embodiment.
  • the mobile phone 1D includes a display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a piezoelectric element 7a, a dynamic receiver 7b, and a first microphone 8a.
  • the communication unit 6 communicates wirelessly.
  • the communication method supported by the communication unit 6 is a wireless communication standard.
  • wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G.
  • Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (Regular Trademark) (GloS MobilS). (Personal Handy-phone System).
  • wireless communication standards for example, there are WiMAX (Worldwide Interoperability for Microwave Access), IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Coal, etc.).
  • the communication unit 6 may support one or more of the communication standards described above.
  • the storage 9 stores programs and data.
  • the storage 9 is also used as a work area for temporarily storing the processing result of the controller 10.
  • the storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium.
  • the storage 9 may include a plurality of types of storage media.
  • the storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader.
  • the storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).
  • the program stored in the storage 9 includes an application executed in the foreground or the background and a control program that supports the operation of the application.
  • the application displays a screen on the display 2 and causes the controller 10 to execute processing according to the gesture detected by the touch screen 21.
  • the control program is, for example, an OS.
  • the application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.
  • the storage 9 stores, for example, a control program 9A, a call application 9B, a music playback application 9C, a video playback application 9D, and setting data 9Z.
  • the call application 9B provides a call function for a call by wireless communication.
  • the music playback application 9C provides a music playback function for playing back sound from music data.
  • the video playback application 9D provides a video playback function for playing back video and sound from video data.
  • the setting data 9Z includes information related to various settings related to the operation of the mobile phone 1D.
  • the control program 9A provides functions related to various controls for operating the mobile phone 1D. For example, the control program 9A determines a user's operation based on the contact detected by the touch screen 21, and starts a program corresponding to the determined operation.
  • the functions provided by the control program 9A include a function for performing control for determining a control mode used at the time of sound output, a piezoelectric element 7a, a dynamic receiver 7b, a first microphone 8a, and a second based on the determined control mode. A function for controlling the microphone 8b is included.
  • the function provided by the control program 9A may be used in combination with a function provided by another program such as the call application 9B.
  • the controller 10 is an arithmetic processing unit.
  • the arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto.
  • the controller 10 implements various functions by comprehensively controlling the operation of the mobile phone 1D.
  • the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement
  • the functional units include, for example, the display 2, the communication unit 6, the piezoelectric element 7a, the dynamic receiver 7b, the first microphone 8a, the second microphone 8b, and the vibrator 18, but are not limited thereto.
  • the controller 10 may change the control according to the detection result of the detection unit.
  • the detection unit includes, for example, the button 3, the illuminance sensor 4, the proximity sensor 5, the camera 12, the posture detection unit 15, and the touch screen 21, but is not limited thereto.
  • the controller 10 executes control for determining a control mode to be used at the time of sound output, for example, by executing the control program 9A. For example, the controller 10 executes the control program 9A to control the piezoelectric element 7a, the dynamic receiver 7b, the first microphone 8a, and the second microphone 8b based on the determined control mode.
  • the posture detection unit 15 detects the posture of the mobile phone 1D.
  • the posture detection unit 15 includes at least one of an acceleration sensor, a direction sensor, and a gyroscope in order to detect the posture.
  • Vibrator 18 vibrates a part or the whole of mobile phone 1D.
  • the vibrator 18 includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration. The vibration generated by the vibrator 18 is used not only to transmit sound but also to notify the user of various events such as incoming calls.
  • Non-transitory storage media include, for example, optical disks such as CD (registered trademark), DVD (registered trademark), and Blu-ray (registered trademark), magneto-optical disks, magnetic storage media, memory cards, and solid-state storage media Including, but not limited to.
  • the configuration of the mobile phone 1D shown in FIG. 26 is an example, and may be changed as appropriate without departing from the spirit of the present invention.
  • the cellular phone 1 ⁇ / b> D may include buttons such as a numeric keypad layout or a QWERTY layout as buttons for operations.
  • FIG. 27 is a flowchart illustrating a control processing procedure during a call.
  • FIG. 28 is a flowchart illustrating a processing procedure for controlling the audio output mode.
  • FIG. 29 is a flowchart illustrating a control processing procedure during a call.
  • the processing procedure shown in FIGS. 27 to 29 is realized by the controller 10 executing the control program 9A. 27 to 29 will be described as processing when performing a voice call with another communication apparatus.
  • Various processes executed in the voice call are executed by the controller 10 using the communication unit 6 by executing the call application 9B.
  • the controller 10 determines whether or not a call has been started in step S20. If the controller 10 determines in step S20 that the call has not started (No), the controller 10 proceeds to step S20. If the controller 10 determines in step S20 that the call has been started (Yes), the orientation detection unit 15 detects the orientation, that is, the orientation of the mobile phone 1D in step S22. When the controller 10 detects the orientation in step S22, in step S24, the controller 10 performs receiver and microphone setting processing, and proceeds to step S26.
  • step S24 the controller 10 performs a receiver and microphone setting process based on the detected orientation of the mobile phone 1D.
  • the controller 10 determines whether it is upward as step S40.
  • upward refers to the direction in which the end 40a of the housing 40 is on the upper side in the vertical direction than the end 40b.
  • step S40 determines in step S40 that it is upward (Yes)
  • the controller 10 selects a method (first mode) for generating the air conduction sound and the vibration sound by the piezoelectric element 7a and the panel 20 as step S42.
  • step S44 the dynamic receiver 7b is stopped, and in step S46, the first microphone 8a is set as a receiving microphone.
  • step S48 the second microphone 8b is set as a noise-cancelling microphone, and this process ends. After completing this process, the controller 10 proceeds to step S26.
  • the controller 10 generates the air conduction sound and the vibration sound by the piezoelectric element 7a and the panel 20 by executing the processing from step S42 to step S48, and is arranged on the opposite side to the piezoelectric element 7a.
  • a call is executed using one microphone 8a as a microphone.
  • the controller 10 uses the sound detected by the second microphone 8b disposed in the vicinity of the piezoelectric element 7a for noise cancellation.
  • step S40 determines in step S40 that it is not upward (No)
  • the controller 10 sets the dynamic receiver 7b as a call receiver (second mode) in step S52.
  • step S54 the application of the electric signal to the piezoelectric element 7a is stopped, and in step S56, the second microphone 8b is set as a receiving microphone.
  • step S58 the first microphone 8a is set as a noise-cancelling microphone, and this process ends. After completing this process, the controller 10 proceeds to step S26.
  • the controller 10 executes the call from the step S52 to the step S58, using the dynamic receiver 7b as a receiver and the second microphone 8b arranged on the opposite side of the dynamic receiver 7b as a microphone.
  • the controller 10 uses the sound detected by the first microphone 8a disposed in the vicinity of the dynamic receiver 7b for noise cancellation.
  • step S24 When the controller 10 executes the setting process shown in FIG. 28 in step S24, the call voice is processed based on the executed setting in parallel with the process shown in FIG. After executing the setting process in step S24, the controller 10 determines whether or not the call is ended in step S26.
  • the orientation detection unit 15 detects the direction as step S28, and determines whether there is a change in direction as step S30. That is, the controller 10 determines whether the direction has been changed from upward to downward or from downward to upward.
  • step S30 determines in step S30 that the orientation is not changed (No), that is, the controller 10 determines that the orientation is the same as the current setting, the controller 10 proceeds to step S26. If the controller 10 determines in step S30 that the orientation has been changed (Yes), that is, if the controller 10 determines that the orientation is different from the current setting, the controller 10 proceeds to step S24 and executes receiver and microphone setting processing.
  • step S26 If the controller 10 determines in step S26 that the call has ended (Yes), it ends this process.
  • the mobile phone 1D has a first mode in which the air conduction sound and the vibration sound are generated by the piezoelectric element 7a and the panel 20 according to the settings from step S42 to step S48, and from step S52. It is possible to make a call in two modes: the second mode in which the dynamic receiver 7b is used as the call receiver by the setting in step S58. Thereby, the user can switch the receiver to be used according to the surrounding environment and application. For example, if the user is noisy and the sound is output by the dynamic receiver 7b, and the sound is difficult to hear due to the surrounding noise, the user can listen to the voice of the call suitably even in a noisy environment by outputting the sound in the first mode. Can do.
  • the user can appropriately suppress sound leakage by outputting sound at an appropriate volume in the second mode.
  • the user can suppress the sound from being transmitted to the position farther than the user's ear by the air conduction method by outputting the sound of the appropriate volume to the ear from the dynamic receiver 7b in the second mode. it can. Thereby, sound leakage can be suppressed.
  • the mobile phone 1D switches between performing a call in the first mode and performing a call in the second mode based on the direction of the mobile phone 1D. Thereby, the user can easily switch the mode for outputting the sound by changing the direction of the mobile phone 1D.
  • the first microphone 8a and the second microphone 8b are arranged around the piezoelectric element 7a and the dynamic receiver 7b, respectively, so that one microphone is used as a call microphone and the other microphone is subjected to noise cancellation. It can be used as a microphone. Accordingly, the mobile phone 1D can perform noise cancellation and make a call in both the first mode and the second mode.
  • the piezoelectric element 7a and the dynamic receiver 7b are arranged at the opposite ends of the housing 40, and the first microphone 8a and the second microphone 8b are arranged at the opposite ends of the housing 40.
  • the receiver and the microphone can be suitably switched.
  • the mobile phone 1D preferably performs setting processing of the first mode and the second mode during a call as in the present embodiment. As a result, processing can be selectively executed when necessary, and power consumption can be reduced.
  • the mobile phone 1D is preferably used as a speaker when the dynamic receiver 7b is not used as a receiver. Accordingly, the mobile phone 1D can realize the function of a receiver that outputs sound by an air conduction method and the function of a speaker that notifies a ring tone and the like with one dynamic receiver 7b. Accordingly, the mobile phone 1D can install a plurality of output type receivers without increasing the number of devices to be mounted.
  • the start of the call is used as a trigger. However, it may be set as a trigger for starting the processing after step S22 whether there is an outgoing call or an incoming call.
  • the mobile phone 1D may consider other conditions when determining the direction switching. This will be described below with reference to FIG.
  • the controller 10 can execute the process of FIG. 29 instead of the process of step S28 of FIG.
  • the controller 10 detects the orientation by the posture detection unit 15 as step S60, and compares it with the reference orientation corresponding to the current setting as step S62. After performing the comparison in step S62, the controller 10 determines whether the angle formed with the reference direction is equal to or greater than the threshold value in step S64. That is, the controller 10 detects an angle formed by the reference direction and the direction detected in step S60 as step S64.
  • the formed angle is an angle between the reference direction in the plane passing through the vertical direction and the direction detected in step S60.
  • step S68 determines whether there is a switching prohibition operation.
  • the switch prohibiting operation is an operation for prohibiting the mode switching of the voice output during a call. For example, there are pressing of a predetermined button, setting input in advance, and the like. If it is determined in step S66 that there is an operation (Yes), the controller 10 proceeds to step S68. If it is determined in step S66 that there is no operation (No), the controller 10 proceeds to step S70.
  • step S64 If it is determined No in step S64 or Yes in step S66, the controller 10 determines that there is no change in direction in step S68, and ends this process. If the controller 10 determines No in step S66, it determines that there is a change in direction in step S70, specifies the direction changed in step S72, that is, the current direction after the change, and performs this process. finish.
  • the mobile phone 1D can adjust the ease of switching the voice output mode during a call by providing a threshold value as a reference for determining that the orientation has changed.
  • the controller 10 preferably sets the threshold to an angle larger than 90 degrees, more preferably an angle larger than 135 degrees. Thereby, it is possible to make it difficult to switch the current mode, and it is possible to prevent the mode from being switched at a timing not intended by the user during use. That is, it is possible to provide a posture that becomes a constant buffer region in the mode switching posture.
  • the cellular phone 1 ⁇ / b> D may set different angles for the threshold value for switching from the first mode to the second mode and the threshold value for switching from the second mode to the first mode. Thereby, mode switching according to a user's intention is realizable.
  • the mobile phone 1D can continue the voice output in the mode intended by the user by not switching the voice output mode. For example, when the user is talking while sleeping, it is possible to prevent the mode from being switched by simply turning over.
  • the mobile phone 1D may determine that the orientation has changed if the orientation has changed for a certain period of time or more, or if the orientation change has changed and the angle change has decreased, It may be determined that there is a change. Further, the mobile phone 1D may use the acceleration when the orientation changes as a criterion for determination.
  • FIG. 30 is a front view of the mobile phone according to the eighth embodiment.
  • 31 is a cross-sectional view of the mobile phone shown in FIG. 30, taken along line ff.
  • a mobile phone 1 ⁇ / b> E provided so that the touch screen 21 does not overlap the panel 20 will be described with reference to FIGS. 30 and 31.
  • the display 2 is arranged side by side with the panel 20 so as to be in the same plane as the panel 20 instead of inside the panel 20.
  • the touch screen 21 is disposed so as to cover almost the entire front surface of the display 2. That is, the touch screen 21 and the display 2 constitute a so-called touch panel (touch screen display).
  • the piezoelectric element 7 a is attached to the substantially center of the back surface of the panel 20 by the joining member 30.
  • the panel 20 vibrates in accordance with the deformation (expansion / contraction or bending) of the piezoelectric element 7a, and air conduction sound and a part of the human body that contacts the panel 20 (for example, an ear) Air conduction sound and vibration sound transmitted through the interchondral cartilage are generated.
  • the piezoelectric element 7a By disposing the piezoelectric element 7a in the center of the panel 20, the vibration of the piezoelectric element 7a is evenly transmitted to the entire panel 20, and the quality of air conduction sound and vibration sound is improved.
  • the touch screen 21 is not disposed on the front surface of the panel 20, the panel 20 is disposed in the vicinity of the display 2 where the touch screen 21 is disposed.
  • the dynamic receiver 7b is provided on the opposite end of the piezoelectric element 7a on one surface of the housing 40, thereby As in the seventh embodiment, sound can be output in two modes, and sound can be output in a manner suitable for the user.
  • FIG. 32 is a front view of the mobile phone according to the ninth embodiment.
  • 33 is a cross-sectional view taken along the line gg of the mobile phone shown in FIG.
  • a mobile phone 1 ⁇ / b> F disposed so that the touch screen 21 does not overlap the panel 20 will be described with reference to FIGS. 32 and 33.
  • the display 2 is arranged side by side with the panel 20 so as to be in the same plane as the panel 20, not inside the panel 20.
  • the piezoelectric element 7 a is attached to the substantially center of the back surface of the panel 20 by the joining member 30.
  • a reinforcing member 31 is disposed between the panel 20 and the piezoelectric element 7a.
  • the reinforcing member 31 is, for example, a plate made of resin, sheet metal, or glass fiber. That is, in the cellular phone 1 ⁇ / b> F, the piezoelectric element 7 a and the reinforcing member 31 are bonded by the bonding member 30, and the reinforcing member 31 and the panel 20 are bonded by the bonding member 30.
  • the piezoelectric element 7a may not be provided at the center of the panel 20.
  • the reinforcing member 31 is an elastic member such as rubber or silicon.
  • the reinforcing member 31 may be a metal plate made of aluminum or the like having a certain degree of elasticity, for example.
  • the reinforcing member 31 may be a stainless plate such as SUS304.
  • the thickness of a metal plate such as a stainless steel plate is appropriately selected from 0.2 mm to 0.8 mm, for example, depending on the voltage value applied to the piezoelectric element 7a.
  • the reinforcing member 31 may be a resin plate, for example.
  • resin which forms the resin-made board here a polyamide-type resin is mentioned, for example.
  • the polyamide-based resin examples include Reny (registered trademark), which is made of a crystalline thermoplastic resin obtained from metaxylylenediamine and adipic acid and is rich in strength and elasticity.
  • Reny registered trademark
  • Such a polyamide-based resin may be a reinforced resin reinforced with glass fiber, metal fiber, carbon fiber, or the like using itself as a base polymer. The strength and elasticity of the reinforced resin are appropriately adjusted according to the amount of glass fiber, metal fiber, carbon fiber, or the like added to the polyamide-based resin.
  • the reinforced resin is formed, for example, by impregnating a resin into a base material formed by braiding glass fiber, metal fiber, carbon fiber or the like and curing it.
  • the reinforced resin may be formed by mixing a finely cut fiber piece into a liquid resin and then curing it.
  • the reinforced resin may be a laminate of a base material in which fibers are knitted and a resin layer.
  • the reinforcing member 31 By arranging the reinforcing member 31 between the piezoelectric element 7a and the panel 20, the following effects can be obtained.
  • an external force is applied to the panel 20, the possibility that the external force is transmitted to the piezoelectric element 7a and the piezoelectric element 7a is damaged can be reduced.
  • the external force is first transmitted to the reinforcing member 31. Since the reinforcing member 31 has predetermined elasticity, it is elastically deformed by an external force transmitted from the panel 20. Therefore, at least a part of the external force applied to the panel 20 is absorbed by the reinforcing member 31, and the external force transmitted to the piezoelectric element 7a is reduced.
  • the vibration due to expansion / contraction or bending of the piezoelectric element 7 a is first transmitted to the reinforcing member 31 and further transmitted to the panel 20. That is, the piezoelectric element 7a first vibrates the reinforcing member 31 having a larger elastic coefficient than the piezoelectric element 7a, and further vibrates the panel 20. Therefore, the mobile phone 1F does not include the reinforcing member 31, and the piezoelectric element 7 can be made less likely to be excessively deformed as compared with the structure in which the piezoelectric element 7a is joined to the panel 20 by the joining member 30. Thereby, the deformation amount (degree of deformation) of the panel 20 can be adjusted. This structure is particularly effective in the case of the panel 20 that does not easily disturb the deformation of the piezoelectric element 7a.
  • FIG. 34 is a diagram illustrating an example of a change in frequency characteristics due to the reinforcing member 31.
  • FIG. 34 shows frequency characteristics when a sheet metal such as SUS304 is used as the reinforcing member 31, and frequency characteristics when reinforced resin such as Reny is used as the reinforcing member 31. .
  • the horizontal axis represents frequency and the vertical axis represents sound pressure.
  • the resonance point when reinforced resin is used is about 2 kHz, and the resonance point when sheet metal is used is about 1 kHz.
  • the dip when using reinforced resin is about 4 kHz, and the dip when using sheet metal is about 3 kHz. That is, when the reinforced resin is used, the resonance point of the panel 20 is located in a higher frequency region and the frequency characteristic dip is located in a higher frequency region, compared to the case where a sheet metal is used. Since the frequency band used in the voice call of the mobile phone is 300 Hz to 3.4 kHz, when reinforced resin is used as the reinforcing member 31, the dip can be prevented from being included in the use frequency band of the mobile phone 1F. .
  • the dip is not included in the use frequency band of the mobile phone 1F by appropriately adjusting the type or composition of the metal constituting the sheet metal or the thickness of the sheet metal. be able to.
  • the reinforced resin can reduce the influence on the antenna performance as compared with the sheet metal. Since reinforced resin is less likely to be plastically deformed than sheet metal, there is an advantage that acoustic characteristics are less likely to change.
  • the reinforced resin suppresses the temperature rise at the time of sound generation compared to the sheet metal.
  • a plate-like weight may be attached to the piezoelectric element 7 a by the joining member 30.
  • the panel 20 vibrates in accordance with the deformation (expansion / contraction or bending) of the piezoelectric element 7a, and air conduction sound and a part of the human body that contacts the panel 20 (for example, an ear) And vibration sound transmitted through the cartilage.
  • the touch screen 21 is disposed so as to cover almost the entire front surface of the panel 20.
  • the mobile phone 1F also has the dynamic receiver 7b disposed at the end opposite to the end 40a where the piezoelectric element 7a is disposed.
  • the first microphone 8a is disposed in the vicinity of the dynamic receiver 7b.
  • the second microphone 8b is disposed in the vicinity of the piezoelectric element 7a.
  • the sound can be transmitted in two modes as in the seventh and eighth embodiments. It is possible to output the sound, and it is possible to output the sound in a manner suitable for the user.
  • each program shown in FIG. 26 may be divided into a plurality of modules or may be combined with other programs.
  • the piezoelectric element 7a and the dynamic receiver 7b are arranged at one end and the other end of the housing 40, but the present invention is not limited to this.
  • the piezoelectric element 7a and the dynamic receiver 7b may be disposed in the vicinity.
  • the microphones 8a and 8b are disposed in the vicinity of the piezoelectric element 7a and the dynamic receiver 7b, but the present invention is not limited to this.
  • the mobile phone may use the same microphone as a call microphone.
  • the mobile phone may have a structure including only one microphone, but may include another microphone used for noise cancellation in either the first mode or the second mode.
  • the first microphone 8a and the second microphone 8b may not be used for noise cancellation.
  • the piezoelectric element 7a and the dynamic receiver 7b are disposed in the vicinity of the end of the casing 40 in the longitudinal direction, but the present invention is not limited to this.
  • the piezoelectric element 7a and the dynamic receiver 7b may be disposed in the vicinity of both ends of the casing 40 in the short direction.
  • the casing 40 is not rectangular but square, it may be disposed near both opposing ends.
  • the first microphone 8a and the second microphone 8b are arranged at diagonal positions on the main surface of the housing 40, but the present invention is not limited to this.
  • the first microphone 8a and the second microphone 8b may be arranged on the same end side in the short side direction of one surface of the housing 40, respectively.
  • whether to execute the first mode or the second mode is determined based on the orientation of the mobile phone, but the present invention is not limited to this.
  • the mobile phone may determine the mode based on control conditions other than orientation. For example, the mobile phone may determine whether to execute the first mode or the second mode based on voice or an input operation.
  • the mobile phone may detect the shape or orientation and position of the ear on the touch screen 21, and may determine whether to execute the first mode or the second mode based on the shape or orientation and position of the ear. For example, the mobile phone may determine the mode to output sound using the receiver with the ear facing upward.
  • the detection unit that detects the position of the object is not limited to the touch screen 21.
  • the detection unit that detects the position of the object may be the camera 12. In this case, the position of the object is detected based on the image acquired by the camera 12.
  • the example in which the display 2 is attached to the back surface of the panel 20 using the bonding member 30 is shown as the mobile phone 1D.
  • the mobile phone 1D has a space between the panel 20 and the display 2. It may be configured as follows. By providing a space between the panel 20 and the display 2, the panel 20 easily vibrates, and the range on which the vibration sound can be easily heard on the panel 20 is widened.
  • the piezoelectric element 7a may be attached to another place.
  • the piezoelectric element 7a may be attached to a battery lid.
  • the battery lid is a member that is attached to the housing 40 and covers the battery. Since the battery lid is often attached to a surface different from the display 2 in a portable electronic device such as a cellular phone, according to such a configuration, the user can place a part of the body (for example, an ear) on a surface different from the display 2. You can hear the sound by touching.
  • the mobile phone may be configured such that the piezoelectric element 7a vibrates corners of the housing 40 (for example, at least one of the four corners).
  • the piezoelectric element 7a may be configured to be attached to the inner surface of the corner portion of the housing 40, or may further include an intermediate member, and vibration of the piezoelectric element 7a is transmitted to the corner portion of the housing 40 via the intermediate member. It may be configured. According to this configuration, the vibrating range can be made relatively narrow, so that air conduction sound generated by the vibration is difficult to leak to the surroundings.
  • the air conduction sound and the vibration sound are transmitted to the user in a state where the user inserts the corner portion of the housing into the ear canal, and therefore, ambient noise hardly enters the user's ear canal. Therefore, the quality of the sound transmitted to the user can be improved.
  • the reinforcing member 31 is a plate-like member, but the shape of the reinforcing member 31 is not limited to this.
  • the reinforcing member 31 may have, for example, a shape that is larger than the piezoelectric element 7a and whose end is curved toward the piezoelectric element 7a and covers the side of the piezoelectric element 7a.
  • the reinforcing member 31 may have, for example, a shape having a plate-like portion and an extending portion that extends from the plate-like portion and covers the side portion of the piezoelectric element 7a. In this case, it is preferable that the extending portion and the side portion of the piezoelectric element 7a are separated by a predetermined distance. Thereby, it becomes difficult for an extending part to inhibit a deformation
  • the panel 20 can constitute a part or all of a display panel, an operation panel, a cover panel, and a lid panel for making the rechargeable battery removable.
  • the piezoelectric element 7a is disposed outside the display area for the display function.
  • the operation panel includes a touch panel.
  • the operation panel includes a sheet key that is a member that constitutes one surface of the operation unit side body, in which, for example, a key top of an operation key is integrally formed in a folding mobile phone.
  • attaches the panel 20 and the piezoelectric element 7a the joining member which adhere
  • different joining members may be used as appropriate depending on the members to be joined.
  • the second sound generator is a dynamic speaker.
  • the second sound generator is a panel 20 and a piezoelectric element attached to the panel, and is a piezoelectric element different from the piezoelectric element 7a. It may be an element. In this case, another piezoelectric element may be disposed at the end opposite to the piezoelectric element 7 a in the longitudinal direction of the panel 20.
  • FIG. 35 is a front view of a mobile phone 1G according to the tenth embodiment.
  • FIG. 36 is a cross-sectional view of the mobile phone 1G shown in FIG.
  • the mobile phone 1G includes a display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a piezoelectric element 7a, a dynamic receiver (second sound generator) 7b, A first microphone 8a, a second microphone 8b, a camera 12, a panel (first sound generating unit) 20, and a housing 40 are provided.
  • the display 2 includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display device).
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • IELD Inorganic Electro-Luminescence Display device
  • buttons 3 accepts operation input from the user.
  • the number of buttons 3 is not limited to the example shown in FIGS.
  • the illuminance sensor 4 detects the illuminance of the ambient light of the mobile phone 1G. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2, for example.
  • the proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the display 2 is brought close to the face.
  • the illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.
  • the piezoelectric element 7a expands or contracts or bends according to the electromechanical coupling coefficient of the constituent material when an electric signal (voltage corresponding to the sound signal) is applied. That is, the piezoelectric element 7a is deformed when an electric signal is applied.
  • the piezoelectric element 7 a is attached to the panel 20 and is used as a vibration source for vibrating the panel 20.
  • the piezoelectric element 7a is formed using, for example, ceramic or quartz.
  • the piezoelectric element 7a may be a unimorph, bimorph, or multilayer piezoelectric element.
  • the multilayer piezoelectric element includes a multilayer bimorph element in which bimorphs are stacked (for example, 16 layers or 24 layers are stacked).
  • the multilayer piezoelectric element is composed of, for example, a multilayer structure including a plurality of dielectric layers made of PZT (lead zirconate titanate) and electrode layers disposed between the plurality of dielectric layers.
  • PZT lead zirconate titanate
  • a unimorph expands and contracts when an electrical signal (voltage) is applied.
  • a bimorph bends when an electrical signal (voltage) is applied.
  • the dynamic receiver 7b is a sound output unit that outputs sound by an air conduction method.
  • the dynamic receiver 7b can transmit the sound obtained by converting the electric signal to a person whose ear is not in contact with the mobile phone 1G.
  • the dynamic receiver 7b is a mechanism that outputs sound by vibrating a diaphragm with a voice coil.
  • the dynamic receiver 7b mainly includes a permanent magnet, a voice coil, and a diaphragm. When an electrical signal (voltage corresponding to a sound signal) is applied to the voice coil, the dynamic receiver 7b becomes an electromagnet and vibrates in a predetermined direction with respect to the permanent magnet.
  • the dynamic receiver 7b vibrates the diaphragm connected to the voice coil by vibrating the voice coil.
  • the vibration plate vibrates the surrounding air and transmits sound to the surroundings.
  • the dynamic receiver 7b serves as a receiver that outputs the voice of the call while the user presses the ear against the housing 40 during the call.
  • the dynamic receiver 7b also serves as a speaker that outputs sound with an output in which sound can be heard by the user who is away from the housing 40.
  • the dynamic receiver 7b is used, for example, for outputting a ring tone or outputting a call voice when used in a speakerphone mode.
  • the first microphone 8a and the second microphone 8b are sound input units.
  • the first microphone 8a and the second microphone 8b convert the input sound into an electrical signal.
  • the camera 12 is an in-camera that captures an object facing the display 2.
  • the camera 12 converts the captured image into an electrical signal.
  • the mobile phone 1G may include an out camera that captures an object facing the surface on the opposite side of the display 2.
  • the panel 20 vibrates as the piezoelectric element 7a deforms (expands or bends), and transmits the vibration to the ear cartilage (auricular cartilage) or the like that the user contacts with the panel 20 as sound vibration.
  • the panel 20 also has a function of protecting the display 2, the piezoelectric element 7a, and the like from external forces.
  • the panel 20 is formed by synthetic resins, such as glass or an acryl, for example.
  • the shape of the panel 20 is, for example, a plate shape.
  • the panel 20 may be a flat plate.
  • the panel 20 may be a curved panel whose surface is smoothly curved.
  • the display 2 and the piezoelectric element 7a are attached to the back surface of the panel 20 by the joining member 30.
  • the piezoelectric element 7a is spaced from the inner surface of the housing 40 by a predetermined distance while being disposed on the back surface of the panel 20.
  • the piezoelectric element 7a may be separated from the inner surface of the housing 40 even in a stretched or bent state. That is, the distance between the piezoelectric element 7a and the inner surface of the housing 40 is preferably larger than the maximum deformation amount of the piezoelectric element 7a.
  • the piezoelectric element 7a may be attached to the panel 20 via a reinforcing member (for example, sheet metal or glass fiber reinforced resin).
  • the joining member 30 is, for example, a double-sided tape or an adhesive having thermosetting property or ultraviolet curable property.
  • the joining member 30 may be an optical elastic resin that is a colorless and transparent acrylic ultraviolet curable adhesive.
  • the display 2 is disposed almost at the center of the panel 20 in the short direction.
  • the piezoelectric element 7 a is disposed in the vicinity of a predetermined distance from the longitudinal end of the panel 20 so that the longitudinal direction of the piezoelectric element 7 a is parallel to the short direction of the panel 20.
  • the display 2 and the piezoelectric element 7 a are arranged in parallel on the inner surface of the panel 20.
  • a touch screen (touch sensor) 21 is disposed on almost the entire outer surface of the panel 20.
  • the touch screen 21 detects contact with the panel 20.
  • the touch screen 21 is used for detecting a user's contact operation with a finger, a pen, a stylus pen, or the like.
  • the gestures detected using the touch screen 21 include, but are not limited to, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out.
  • the detection method of the touch screen 21 may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method.
  • the touch screen 21 is also used to detect auricular cartilage that contacts the panel 20 in order to hear sound.
  • the housing 40 is formed using resin or metal.
  • the housing 40 supports the button 3, the illuminance sensor 4, the proximity sensor 5, the dynamic receiver 7b, the first microphone 8a, the second microphone 8b, the camera 12, the panel 20, and the like.
  • the housing 40 supports the piezoelectric element 7 a via the panel 20.
  • the mobile phone 1G has a substantially rectangular parallelepiped shape with a thin casing 40.
  • the display 2 and the panel 20 are arranged on one surface of the housing 40.
  • the piezoelectric element 7 a and the dynamic receiver 7 b are arranged on the one surface of the housing 40 at positions facing each other with the display 2 and the panel 20 interposed therebetween.
  • the piezoelectric element 7 a is disposed on one end 40 a side in the longitudinal direction of one surface of the housing 40.
  • the dynamic receiver 7 b is disposed on the other end 40 b side in the longitudinal direction of one surface of the housing 40.
  • One surface of the housing 40 of the present embodiment has a rectangular shape, and the end portions 40a and 40b which are ends in the longitudinal direction are short sides.
  • the piezoelectric element 7a is disposed at one end 40a of the housing 40
  • the dynamic receiver 7b is disposed at the other end 40b of the housing 40.
  • the piezoelectric element 7 a is arranged from the center in the short direction of one surface of the housing 40 to the vicinity of one end.
  • the dynamic receiver 7 b is disposed on the other end side in the short direction of one surface of the housing 40.
  • the piezoelectric element 7a and the dynamic receiver 7b are respectively arranged on different end portions in the short side direction of one surface of the housing 40.
  • the piezoelectric element 7a and the dynamic receiver 7b are disposed on one side of the housing 40 on different end portions in the longitudinal direction and the short direction.
  • the illuminance sensor 4, the proximity sensor 5, the camera 12, and the second microphone 8b are arranged on one end 40a side of the housing 40, that is, in the vicinity of the piezoelectric element 7a.
  • the first microphone 8 a is disposed on the other end 40 b side of the housing 40.
  • the second microphone 8b is disposed at one end 40a of the housing 40, and the first microphone 8a is disposed at the other end 40b of the housing 40. Therefore, the first microphone 8a is disposed at the end 40b opposite to the end 40a where the piezoelectric element 7a is disposed.
  • the second microphone 8b is disposed at the end 40a opposite to the end 40b where the dynamic receiver 7b is disposed.
  • the first microphone 8a and the second microphone 8b are respectively arranged on different end portions in the short side direction of one surface of the housing 40. That is, the first microphone 8a and the second microphone 8b are respectively disposed in the vicinity of the farthest corners that are diagonally located on one surface of the housing 40.
  • FIG. 37 is a diagram illustrating an example of the shape of the panel 20.
  • FIG. 38 is a diagram illustrating an example of vibration of the panel 20.
  • An electrical signal corresponding to the output sound is applied to the piezoelectric element 7a.
  • ⁇ 15 V higher than ⁇ 5 V which is an applied voltage of a so-called panel speaker that transmits sound by air conduction sound through the ear canal, may be applied to the piezoelectric element 7a.
  • the panel 20 is caused to generate sufficient vibration and used. Vibration sound transmitted through a part of the person's body can be generated.
  • the voltage applied to the piezoelectric element 7a can be appropriately adjusted according to the fixing strength of the panel 20 with respect to the housing 40 or the performance of the piezoelectric element 7a.
  • the piezoelectric element 7a When an electric signal is applied, the piezoelectric element 7a expands or contracts or bends in the longitudinal direction.
  • the panel 20 to which the piezoelectric element 7a is attached is deformed in accordance with expansion / contraction or bending of the piezoelectric element 7a. Thereby, the panel 20 vibrates and generates air conduction sound.
  • the panel 20 when the user brings a part of the body (for example, auricular cartilage) into contact with the panel 20, the panel 20 generates air conduction sound and vibration sound that is conducted to the user through the part of the body. . That is, the panel 20 vibrates at a frequency perceived as a vibration sound with respect to an object in contact with the panel 20 as the piezoelectric element 7a is deformed.
  • the panel 20 is bent by expansion / contraction or bending of the piezoelectric element 7a.
  • the panel 20 is bent directly by the piezoelectric element 7a.
  • “The panel 20 is directly bent by the piezoelectric element” means that the panel is specified by the inertial force of the piezoelectric actuator configured by arranging the piezoelectric element in the casing as used in a conventional panel speaker. This is different from the phenomenon in which the area is vibrated and the panel is deformed.
  • “The panel 20 is bent directly by the piezoelectric element” means that the expansion or contraction or bending (curving) of the piezoelectric element is directly applied to the panel via the bonding member or via the bonding member and the reinforcing member 31 described later. Means bending.
  • the panel 20 when an electrical signal corresponding to voice data of a call partner or a ring tone, music or the like is applied to the piezoelectric element 7a, the panel 20 generates air conduction sound and vibration sound corresponding to the electrical signal.
  • the sound signal output via the piezoelectric element 7a and the panel 20 may be based on sound data stored in the storage 9 described later.
  • the sound signal output via the piezoelectric element 7a and the panel 20 may be based on sound data stored in an external server or the like and acquired via the network by the communication unit 6 described later.
  • the panel 20 may be approximately the same size as the user's ear. Moreover, as shown in FIG. 37, the panel 20 may be larger in size than the user's ear. In this case, the user can bring the entire outer periphery of the ear into contact with the panel 20 when listening to the sound. Listening to the sound in this way makes it difficult for ambient sounds (noise) to enter the ear canal.
  • at least the panel 20 has a length in the longitudinal direction (or short direction) corresponding to the distance between the lower leg of the anti-annulus (lower anti-annular leg) of the human and the anti-tragus, and the length from the tragus.
  • a region wider than a region having a length in the short direction (or the longitudinal direction) corresponding to the distance to the ear ring vibrates.
  • the panel 20 has a length in the longitudinal direction (or short direction) corresponding to the distance from the region near the upper leg of the ear ring (upper pair leg) in the ear ring to the earlobe, and the vicinity of the ear ring in the ear ring from the tragus.
  • a region having a length in the short direction (or the longitudinal direction) corresponding to the distance to the part may vibrate.
  • the region having the above length and width may be a rectangular region, or an elliptical shape in which the length in the longitudinal direction is the major axis and the length in the lateral direction is the minor axis. Also good.
  • the average size of the human ear can be known, for example, by referring to the Japanese human body size database (1992-1994) created by the Human Life Engineering Research Center (HQL).
  • the panel 20 vibrates not only in the attachment region 20a to which the piezoelectric element 7a is attached, but also in a region away from the attachment region 20a.
  • the panel 20 has a plurality of locations that vibrate in a direction intersecting the main surface of the panel 20 in the vibrating region, and in each of the plurality of locations, the value of the amplitude of vibration changes from positive to negative with time, Or vice versa.
  • the panel 20 vibrates at a seemingly random or regular distribution in a substantially entire portion of the panel 20 with a portion having a relatively large vibration amplitude and a portion having a relatively small vibration amplitude. That is, vibrations of a plurality of waves are detected over the entire panel 20.
  • the voltage applied to the piezoelectric element 7a is ⁇ 15V
  • the piezoelectric element 7a is bent by the piezoelectric element 7a, and the vibration is attenuated at the lower part as compared with the upper part.
  • the panel 20 is bent by the piezoelectric element 7a so that the portion directly above the piezoelectric element 7a protrudes higher than the surrounding area in the long side direction of the piezoelectric element 7a.
  • the display 2 is attached to the panel 20.
  • the rigidity of the lower part of the panel 20 (the side where the display 2 is attached) is increased, and the vibration is smaller than that of the upper part of the panel 20 (the side where the piezoelectric element 7a is attached). For this reason, the sound leakage of the air conduction sound due to the vibration of the panel 20 in the lower part of the panel 20 is reduced.
  • the cellular phone 1 ⁇ / b> G can transmit sound to the user as air conduction sound and vibration sound through a part of the user's body (for example, auricular cartilage) by the vibration of the panel 20. Therefore, when the mobile phone 1G outputs a sound having a volume equivalent to that of the dynamic receiver 7b, the sound transmitted to the surroundings of the mobile phone 1G due to air vibrations should be reduced compared to an electronic device having only a dynamic speaker. Can do.
  • Such a feature is suitable for, for example, listening to a recorded message in a place where there is another person nearby such as in a train.
  • the mobile phone 1G transmits a vibration sound to the user by the vibration of the panel 20. Therefore, even if the user wears the earphone or the headphone, the user can hear the vibration sound caused by the vibration of the panel 20 through the earphone or the headphone and a part of the body by contacting the mobile phone 1G with the earphone or the headphone. it can.
  • the mobile phone 1G transmits sound by the vibration of the panel 20. Therefore, it is not necessary to form an opening (sound emission port) in the housing 40 for transmitting the sound generated by the panel 20 to the outside. For this reason, when realizing a waterproof structure, the structure can be simplified.
  • the cellular phone 1G may employ a structure in which an opening such as a sound outlet of the dynamic speaker 7b is closed by a member that allows gas to pass but not liquid.
  • a member that allows gas to pass but not liquid is Gore-Tex (registered trademark).
  • FIG. 39 is a cross-sectional view taken along line ii of the mobile phone 1G shown in FIG.
  • the second microphone 8 b is disposed inside the housing 40.
  • the second microphone 8 b includes a microphone body 50 and sound insulation members 52 and 53.
  • the casing 40 has a microphone hole 54 formed on the surface on which the panel 20 and the touch screen 21 are arranged.
  • the microphone hole 54 is formed at a position facing the microphone body 50.
  • the space near the microphone main body 50 inside the housing 40 and the space outside the housing 40 communicate with each other through the microphone hole 54. Sound propagating in the space outside the housing 40 reaches the microphone body 50 through the microphone hole 54.
  • the microphone body 50 is a part that detects sound collection, that is, sound.
  • the microphone body 50 is arranged at a position facing the microphone hole 54 inside the housing 40.
  • the microphone body 50 is arranged at a position spaced from the microphone hole 54.
  • the sound insulation member 52 is disposed between the microphone main body 50 and the microphone hole 54 inside the housing 40.
  • the sound insulation member 52 is disposed so as to surround the space between the microphone body 50 and the microphone hole 54, and blocks the space between the microphone body 50 and the microphone hole 54 from the inside of the housing 40. . Thereby, the sound insulation member 52 makes it difficult for the sound inside the housing 40 to reach the microphone body 50.
  • the second microphone 8 b detects the sound that has passed through the microphone hole 54 from the outside of the housing 40 and reached the microphone body 50.
  • the microphone hole 54 is formed on the surface of the housing 40 where the panel 20 and the touch screen 21 are arranged, but the present invention is not limited to this.
  • the microphone hole 54 may be formed on the side surface of the housing 40, that is, the surface including the thickness direction of the housing 40.
  • FIG. 40 is a cross-sectional view showing a schematic configuration of another configuration of the second microphone.
  • the second microphone 8 c shown in FIG. 40 is disposed inside the housing 40.
  • the second microphone 8 c includes a microphone body 50 and sound insulation members 62 and 63.
  • the housing 40 has a microphone hole 64 formed on a side surface.
  • the side surface of the housing 40 is a surface connected to the surface on which the panel 20 and the touch screen 21 are disposed, and is a surface that becomes the end portion 40a in the longitudinal direction.
  • the microphone body 50 is a part that detects sound.
  • the microphone main body 50 is installed inside the housing 40 on the side opposite to the surface on which the panel 20 and the touch screen 21 are arranged.
  • the microphone main body 50 is disposed at a position that is not visible even when looking into the microphone hole 64 from the outside of the housing 40.
  • the microphone body 50 is arranged at a position spaced from the microphone hole 64.
  • the sound insulation members 62 and 63 are disposed between the microphone main body 50 and the microphone hole 64 inside the housing 40.
  • the sound insulation members 62 and 63 are disposed so as to surround the space between the microphone body 50 and the microphone hole 64, and block the space between the microphone body 50 and the microphone hole 64 from the inside of the housing 40. ing.
  • the sound insulating members 62 and 63 make it difficult for the sound inside the housing 40 to reach the microphone body 50.
  • the sound insulating members 62 and 63 guide the sound that has passed through the microphone hole 64 to the microphone main body 50 that is disposed at a position where the sound cannot be seen even if the microphone hole 64 is viewed.
  • the second microphone 8 c detects sound that has passed through the microphone hole 64 from the outside of the housing 40 and reached the microphone body 50.
  • the second microphone 8c can prevent the microphone from being blocked during use by providing the microphone hole 64 on the side surface of the housing 40. Thereby, a sound can be detected more suitably.
  • FIG. 41 is a block diagram of the mobile phone 1G.
  • the mobile phone 1G includes a display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a piezoelectric element 7a, a dynamic receiver 7b, and a first microphone 8a.
  • the second microphone 8b, the storage 9, the controller 10, the camera 12, the operation detection unit 16, the vibrator 18, and the touch screen 21 are provided.
  • the communication unit 6 communicates wirelessly.
  • the communication method supported by the communication unit 6 is a wireless communication standard.
  • wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G.
  • Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (Regular Trademark) (GloS MobilS). (Personal Handy-phone System).
  • wireless communication standards for example, there are WiMAX (Worldwide Interoperability for Microwave Access), IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Coal, etc.).
  • the communication unit 6 may support one or more of the communication standards described above.
  • the storage 9 stores programs and data.
  • the storage 9 is also used as a work area for temporarily storing the processing result of the controller 10.
  • the storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium.
  • the storage 9 may include a plurality of types of storage media.
  • the storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader.
  • the storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).
  • the program stored in the storage 9 includes an application executed in the foreground or the background and a control program that supports the operation of the application.
  • the application displays a screen on the display 2 and causes the controller 10 to execute processing according to the gesture detected by the touch screen 21.
  • the control program is, for example, an OS.
  • the application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.
  • the storage 9 stores, for example, a control program 9A, a call application 9B, a music playback application 9C, a video playback application 9D, and setting data 9Z.
  • the call application 9B provides a call function for a call by wireless communication.
  • the music playback application 9C provides a music playback function for playing back sound from music data.
  • the video playback application 9D provides a video playback function for playing back video and sound from video data.
  • the setting data 9Z includes information regarding various settings related to the operation of the mobile phone 1G.
  • the control program 9A provides functions related to various controls for operating the mobile phone 1G. For example, the control program 9A determines a user's operation based on the contact detected by the touch screen 21, and starts a program corresponding to the determined operation.
  • the functions provided by the control program 9A include a function for performing control for determining a control mode used at the time of sound output, a piezoelectric element 7a, a dynamic receiver 7b, a first microphone 8a, and a second based on the determined control mode. A function for controlling the microphone 8b is included.
  • the function provided by the control program 9A may be used in combination with a function provided by another program such as the call application 9B.
  • the controller 10 is an arithmetic processing unit.
  • the arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto.
  • the controller 10 implements various functions by comprehensively controlling the operation of the mobile phone 1G.
  • the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement
  • the functional units include, for example, the display 2, the communication unit 6, the piezoelectric element 7a, the dynamic receiver 7b, the first microphone 8a, the second microphone 8b, and the vibrator 18, but are not limited thereto.
  • the controller 10 may change the control according to the detection result of the detection unit.
  • the detection unit includes, for example, the button 3, the illuminance sensor 4, the proximity sensor 5, the camera 12, the operation detection unit 16, and the touch screen 21, but is not limited thereto.
  • the controller 10 executes control for determining a control mode to be used at the time of sound output, for example, by executing the control program 9A. For example, the controller 10 executes the control program 9A to control the piezoelectric element 7a, the dynamic receiver 7b, the first microphone 8a, and the second microphone 8b based on the determined control mode.
  • the operation detection unit 16 detects, for example, a contact operation or a press operation performed on the mobile phone 1G.
  • the operation detection unit 16 includes a touch sensor or a key structure in order to detect an operation.
  • Vibrator 18 vibrates a part or the whole of mobile phone 1G.
  • the vibrator 18 includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration. The vibration generated by the vibrator 18 is used not only to transmit sound but also to notify the user of various events such as incoming calls.
  • Non-transitory storage media include, for example, optical disks such as CD (registered trademark), DVD (registered trademark), and Blu-ray (registered trademark), magneto-optical disks, magnetic storage media, memory cards, and solid-state storage media Including, but not limited to.
  • the configuration of the mobile phone 1G shown in FIG. 41 is an example, and may be changed as appropriate without departing from the scope of the present invention.
  • the mobile phone 1G may include buttons such as a numeric keypad layout or a QWERTY layout as buttons for operations.
  • FIG. 42 is a flowchart illustrating a control processing procedure during a call.
  • FIG. 43 is a flowchart illustrating a processing procedure for controlling the audio output mode.
  • the processing procedures shown in FIGS. 42 and 43 are realized by the controller 10 executing the control program 9A. 42 and 43 will be described as processing when performing a voice call with another communication apparatus.
  • Various processes executed in the voice call are executed by the controller 10 using the communication unit 6 by executing the call application 9B.
  • the controller 10 determines whether or not a call has been started in step S1020. If the controller 10 determines in step S1020 that the call has not started (No), the controller 10 proceeds to step S1020. If the controller 10 determines in step S1020 that the call has been started (Yes), the operation detection unit 16 detects an operation in step S1022. When the controller 10 detects an operation in step S1022, in step S1024, the controller 10 performs a receiver and microphone setting process, and proceeds to step S1026.
  • step S1024 The process of step S1024 will be described with reference to FIG.
  • the controller 10 performs a receiver and microphone setting process based on the detected operation of the mobile phone 1G.
  • the controller 10 determines whether it is operation which selects a 1st mode as step S1040.
  • step S1042 determines in step S1040 that the operation is to select the first mode (Yes)
  • step S1042 the piezoelectric element 7a and the panel 20 generate the air conduction sound and the vibration sound (first operation). 1 mode).
  • step S1044 the dynamic receiver 7b is stopped.
  • step S1046 the first microphone 8a is set as a receiving microphone.
  • step S1048, the second microphone 8b is set as a noise-cancelling microphone, and this process ends. After completing this process, the controller 10 proceeds to step S1026.
  • the controller 10 executes the processing from step S1042 to step S1048 to generate the above air conduction sound and vibration sound by the piezoelectric element 7a and the panel 20, and is arranged on the side opposite to the piezoelectric element 7a.
  • a call is executed using one microphone 8a as a microphone.
  • the controller 10 uses the sound detected by the second microphone 8b disposed in the vicinity of the piezoelectric element 7a for noise cancellation.
  • step S1040 determines in step S1040 that the operation is not an operation for selecting the first mode (No) or an operation for selecting the second mode
  • the dynamic receiver 7b is set as a call receiver (step 1105) in step S1052. 2 mode).
  • step S1054 the application of the electric signal to the piezoelectric element 7a is stopped, and in step S1056, the second microphone 8b is set as a receiving microphone.
  • step S1058 the first microphone 8a is set as a noise-cancelling microphone, and this process ends. After completing this process, the controller 10 proceeds to step S1026.
  • the controller 10 executes the process from step S1052 to step S1058, thereby making a call using the dynamic receiver 7b as a receiver and the second microphone 8b arranged on the opposite side of the dynamic receiver 7b as a microphone.
  • the controller 10 uses the sound detected by the first microphone 8a disposed in the vicinity of the dynamic receiver 7b for noise cancellation.
  • step S1024 After executing the setting process shown in FIG. 43 in step S1024, the controller 10 processes the call voice based on the executed setting in parallel with the process shown in FIG. After executing the setting process in step S1024, the controller 10 determines in step S1026 whether the call has ended.
  • step S1026 determines in step S1026 that the call has not ended (No)
  • the operation detection unit 16 detects an operation in step S1028, and determines whether there is a mode change in step S1030. That is, the controller 10 determines whether there has been an operation for changing from the first mode to the second mode or an operation for changing from the second mode to the first mode.
  • step S1030 determines in step S1030 that the mode is not changed (No), that is, if the controller 10 determines that the mode is the same as the current setting, the process proceeds to step S1026. If the controller 10 determines in step S1030 that the mode has been changed (Yes), that is, if it is determined that the mode is different from the current setting, the controller 10 proceeds to step S1024 and executes receiver and microphone setting processing.
  • step S1026 determines in step S1026 that the call has ended (Yes), the process ends.
  • the mobile phone 1G has the first mode in which the air conduction sound and the vibration sound are generated by the piezoelectric element 7a and the panel 20 according to the setting from step S1042 to step S1048, and from step S1052. It is possible to make a call in two modes, the second mode in which the dynamic receiver 7b is used as a call receiver by setting in step S1058. Thereby, the user can switch the receiver to be used according to the surrounding environment and application. For example, if the user is noisy and the sound is output by the dynamic receiver 7b, and the sound is difficult to hear due to the surrounding noise, the user can listen to the voice of the call suitably even in a noisy environment by outputting the sound in the first mode. Can do.
  • the user can appropriately suppress sound leakage by outputting sound at an appropriate volume in the second mode.
  • the user can suppress the sound from being transmitted to the position farther than the user's ear by the air conduction method by outputting the sound of the appropriate volume to the ear from the dynamic receiver 7b in the second mode. it can. Thereby, sound leakage can be suppressed.
  • the mobile phone 1G switches between performing a call in the first mode or performing a call in the second mode based on the operation of the mobile phone 1G. Thereby, the user can easily switch the mode for outputting the sound by changing the operation of the mobile phone 1G.
  • the first microphone 8a and the second microphone 8b are arranged around the piezoelectric element 7a and the dynamic receiver 7b, respectively, so that one microphone is used as a call microphone and the other microphone is subjected to noise cancellation. It can be used as a microphone. Accordingly, the mobile phone 1G can perform noise cancellation and make a call in both the first mode and the second mode.
  • the piezoelectric element 7a and the dynamic receiver 7b are arranged at opposite ends of the casing 40, and the first microphone 8a and the second microphone 8b are arranged at opposite ends of the casing 40.
  • the receiver and the microphone can be suitably switched.
  • the mobile phone 1G preferably performs the setting process of the first mode and the second mode during a call as in the present embodiment. As a result, processing can be selectively executed when necessary, and power consumption can be reduced.
  • the mobile phone 1G is preferably used as a speaker when the dynamic receiver 7b is not used as a receiver. Thereby, the mobile phone 1G can realize the function of a receiver that outputs sound by an air conduction method and the function of a speaker that notifies a ring tone and the like with one dynamic receiver 7b. Accordingly, the mobile phone 1G can install a plurality of output-type receivers without increasing the number of devices to be mounted.
  • the start of the call is set as a trigger. However, it may be set as a trigger for starting the processing from step S1022 on whether there is an outgoing call or an incoming call.
  • the mobile phone 1G can continue outputting the voice in the mode intended by the user by not switching the voice output mode.
  • FIG. 44 is a front view of the mobile phone according to the eleventh embodiment.
  • 45 is a cross-sectional view of the mobile phone shown in FIG. 44 taken along the line jj.
  • a mobile phone 1H arranged so that the touch screen 21 does not overlap the panel 20 will be described with reference to FIGS. 44 and 45.
  • FIG. 44 is a front view of the mobile phone according to the eleventh embodiment.
  • 45 is a cross-sectional view of the mobile phone shown in FIG. 44 taken along the line jj.
  • a mobile phone 1H arranged so that the touch screen 21 does not overlap the panel 20 will be described with reference to FIGS. 44 and 45.
  • the display 2 is arranged side by side with the panel 20 so as to be in the same plane as the panel 20, not inside the panel 20.
  • the touch screen 21 is disposed so as to cover almost the entire front surface of the display 2. That is, the touch screen 21 and the display 2 constitute a so-called touch panel (touch screen display).
  • the piezoelectric element 7a is attached by the joining member 30 in the range from the substantially center in the longitudinal direction of the back surface of the panel 20 to the vicinity of one end.
  • an electrical signal is applied to the piezoelectric element 7a, the panel 20 vibrates in accordance with the deformation (expansion / contraction or bending) of the piezoelectric element 7a, and air conduction sound and a part of the human body that contacts the panel 20 (for example, an ear) Air conduction sound and vibration sound transmitted through the interchondral cartilage are generated.
  • the touch screen 21 is not disposed on the front surface of the panel 20, the panel 20 is disposed in the vicinity of the display 2 where the touch screen 21 is disposed.
  • the dynamic receiver 7b is provided on the opposite end of the piezoelectric element 7a on one surface of the housing 40, so that As in the tenth embodiment, sound can be output in two modes, and sound can be output in a manner suitable for the user.
  • FIG. 46 is a front view of the mobile phone according to the twelfth embodiment. 47 is a cross-sectional view of the mobile phone shown in FIG. 46 taken along the line kk. A mobile phone 1I arranged so that the touch screen 21 does not overlap the panel 20 will be described with reference to FIGS. 46 and 47.
  • FIG. 46 is a front view of the mobile phone according to the twelfth embodiment. 47 is a cross-sectional view of the mobile phone shown in FIG. 46 taken along the line kk. A mobile phone 1I arranged so that the touch screen 21 does not overlap the panel 20 will be described with reference to FIGS. 46 and 47.
  • the display 2 is arranged side by side with the panel 20 so as to be in the same plane as the panel 20, not inside the panel 20.
  • the piezoelectric element 7 a is attached to the substantially center of the back surface of the panel 20 by the joining member 30.
  • a reinforcing member 31 is disposed between the panel 20 and the piezoelectric element 7a.
  • the reinforcing member 31 is, for example, a plate made of resin, sheet metal, or glass fiber. That is, in the mobile phone 1I, the piezoelectric element 7a and the reinforcing member 31 are bonded by the bonding member 30, and the reinforcing member 31 and the panel 20 are bonded by the bonding member 30.
  • the piezoelectric element 7a may not be provided at the center of the panel 20.
  • the reinforcing member 31 is an elastic member such as rubber or silicon.
  • the reinforcing member 31 may be a metal plate made of aluminum or the like having a certain degree of elasticity, for example.
  • the reinforcing member 31 may be a stainless plate such as SUS304.
  • the thickness of a metal plate such as a stainless steel plate is appropriately selected from 0.2 mm to 0.8 mm, for example, depending on the voltage value applied to the piezoelectric element 7a.
  • the reinforcing member 31 may be a resin plate, for example.
  • resin which forms the resin-made board here a polyamide-type resin is mentioned, for example.
  • the polyamide-based resin examples include Reny (registered trademark), which is made of a crystalline thermoplastic resin obtained from metaxylylenediamine and adipic acid and is rich in strength and elasticity.
  • Reny registered trademark
  • Such a polyamide-based resin may be a reinforced resin reinforced with glass fiber, metal fiber, carbon fiber, or the like using itself as a base polymer. The strength and elasticity of the reinforced resin are appropriately adjusted according to the amount of glass fiber, metal fiber, carbon fiber, or the like added to the polyamide-based resin.
  • the reinforced resin is formed, for example, by impregnating a resin into a base material formed by braiding glass fiber, metal fiber, carbon fiber or the like and curing it.
  • the reinforced resin may be formed by mixing a finely cut fiber piece into a liquid resin and then curing it.
  • the reinforced resin may be a laminate of a base material in which fibers are knitted and a resin layer.
  • the reinforcing member 31 By arranging the reinforcing member 31 between the piezoelectric element 7a and the panel 20, the following effects can be obtained.
  • an external force is applied to the panel 20, the possibility that the external force is transmitted to the piezoelectric element 7a and the piezoelectric element 7a is damaged can be reduced.
  • the reinforcing member 31 Since the reinforcing member 31 has predetermined elasticity, it is elastically deformed by an external force transmitted from the panel 20. Therefore, at least a part of the external force applied to the panel 20 is absorbed by the reinforcing member 31, and the external force transmitted to the piezoelectric element 7a is reduced.
  • the vibration due to expansion / contraction or bending of the piezoelectric element 7 a is first transmitted to the reinforcing member 31 and further transmitted to the panel 20. That is, the piezoelectric element 7a first vibrates the reinforcing member 31 having a larger elastic coefficient than the piezoelectric element 7a, and further vibrates the panel 20. Therefore, the cellular phone 1I does not include the reinforcing member 31, and the piezoelectric element 7 can be made less likely to be excessively deformed as compared with the structure in which the piezoelectric element 7a is joined to the panel 20 by the joining member 30. Thereby, the deformation amount (degree of deformation) of the panel 20 can be adjusted. This structure is particularly effective in the case of the panel 20 that does not easily disturb the deformation of the piezoelectric element 7a.
  • FIG. 48 is a diagram illustrating a change example of the frequency characteristics due to the reinforcing member 31.
  • FIG. 48 shows frequency characteristics when a sheet metal such as SUS304 is used as the reinforcing member 31, and frequency characteristics when reinforced resin such as Reny is used as the reinforcing member 31. .
  • the horizontal axis represents frequency and the vertical axis represents sound pressure.
  • the resonance point when reinforced resin is used is about 2 kHz, and the resonance point when sheet metal is used is about 1 kHz.
  • the dip when using reinforced resin is about 4 kHz, and the dip when using sheet metal is about 3 kHz. That is, when the reinforced resin is used, the resonance point of the panel 20 is located in a higher frequency region and the frequency characteristic dip is located in a higher frequency region, compared to the case where a sheet metal is used. Since the frequency band used in the voice call of the mobile phone is 300 Hz to 3.4 kHz, when reinforced resin is used as the reinforcing member 31, the dip can be prevented from being included in the use frequency band of the mobile phone 1I. .
  • the dip is not included in the use frequency band of the mobile phone 1I by appropriately adjusting the type or composition of the metal constituting the sheet metal or the thickness of the sheet metal. be able to.
  • the reinforced resin can reduce the influence on the antenna performance as compared with the sheet metal. Since reinforced resin is less likely to be plastically deformed than sheet metal, there is an advantage that acoustic characteristics are less likely to change.
  • the reinforced resin suppresses the temperature rise at the time of sound generation compared to the sheet metal.
  • a plate-like weight may be attached to the piezoelectric element 7 a by the joining member 30.
  • the panel 20 vibrates in accordance with the deformation (expansion / contraction or bending) of the piezoelectric element 7a, and air conduction sound and a part of the human body that contacts the panel 20 (for example, an ear) And vibration sound transmitted through the cartilage.
  • the touch screen 21 is disposed so as to cover almost the entire front surface of the panel 20.
  • the dynamic receiver 7b is disposed at the end opposite to the end 40a where the piezoelectric element 7a is disposed.
  • the first microphone 8a is disposed in the vicinity of the dynamic receiver 7b.
  • the second microphone 8b is disposed in the vicinity of the piezoelectric element 7a.
  • the dynamic receiver 7b on the opposite end of the piezoelectric element 7a on one surface of the housing 40, the sound can be obtained in two modes as in the tenth and eleventh embodiments. Can be output, and voice can be output in a manner suitable for the user.
  • each program shown in FIG. 41 may be divided into a plurality of modules, or may be combined with other programs.
  • the piezoelectric element 7a and the dynamic receiver 7b are arranged at one end and the other end of the housing 40, but the present invention is not limited to this. In the mobile phone, the piezoelectric element 7a and the dynamic receiver 7b may be disposed in the vicinity.
  • the microphones 8a and 8b are disposed in the vicinity of the piezoelectric element 7a and the dynamic receiver 7b, respectively, but the present invention is not limited to this.
  • the mobile phone may use the same microphone as a call microphone.
  • the mobile phone may have a structure including only one microphone, but may include another microphone used for noise cancellation in either the first mode or the second mode.
  • the first microphone 8a and the second microphone 8b may not be used for noise cancellation.
  • the piezoelectric element 7a and the dynamic receiver 7b are disposed in the vicinity of the end portion of the casing 40 in the longitudinal direction, but the present invention is not limited to this.
  • the piezoelectric element 7a and the dynamic receiver 7b may be disposed in the vicinity of both ends of the casing 40 in the short direction.
  • the casing 40 is not rectangular but square, it may be disposed near both opposing ends.
  • the second sound generator is a dynamic speaker.
  • the second sound generator is a panel 20 and a piezoelectric element attached to the panel, and is a piezoelectric element different from the piezoelectric element 7a. It may be an element. In this case, another piezoelectric element may be disposed at the end opposite to the piezoelectric element 7 a in the longitudinal direction of the panel 20.
  • the first microphone 8a and the second microphone 8b are arranged at diagonal positions on the main surface of the housing 40, but the present invention is not limited to this.
  • the first microphone 8a and the second microphone 8b may be arranged on the same end side in the short side direction of one surface of the housing 40, respectively.
  • the mobile phone may determine the mode based on control conditions other than the above operation. For example, the mobile phone may determine whether to execute the first mode or the second mode based on an operation input by voice. In this case, voices from enabled microphones such as the first microphone or the second microphone are collected, and a specific keyword such as “first mode” or “second mode” is included in the voice by the voice recognition function. When a word such as “switching mode” or “mode switching” is picked up, the mode may be switched according to the word.
  • the mobile phone may detect the shape of the ear and its orientation or position on the touch screen 21 and determine whether to execute the first mode or the second mode based on the shape, orientation and position of the ear. . For example, the mobile phone may determine the mode to output sound using the receiver with the ear facing upward.
  • the detection unit that detects the position of the object is not limited to the touch screen 21.
  • the detection unit that detects the position of the object may be the camera 12. In this case, the position of the object is detected based on the image acquired by the camera 12.
  • the mobile phone 1G has a space between the panel 20 and the display 2. It may be configured as follows. By providing a space between the panel 20 and the display 2, the panel 20 easily vibrates, and the range on which the vibration sound can be easily heard on the panel 20 is widened.
  • the piezoelectric element 7a may be attached to a battery lid.
  • the battery lid is a member that is attached to the housing 40 and covers the battery. Since the battery lid is often attached to a surface different from the display 2 in a portable electronic device such as a cellular phone, according to such a configuration, the user can place a part of the body (for example, an ear) on a surface different from the display 2. You can hear the sound by touching.
  • the mobile phone may be configured such that the piezoelectric element 7a vibrates corners of the housing 40 (for example, at least one of the four corners).
  • the piezoelectric element 7a may be configured to be attached to the inner surface of the corner portion of the housing 40, or may further include an intermediate member, and vibration of the piezoelectric element 7a is transmitted to the corner portion of the housing 40 via the intermediate member. It may be configured. According to this configuration, the vibrating range can be made relatively narrow, so that air conduction sound generated by the vibration is difficult to leak to the surroundings.
  • air conduction sound and vibration sound are transmitted to the user in a state where the user inserts the corner portion of the housing 40 into the ear canal, so that ambient noise is difficult to enter the user's ear canal. . Therefore, the quality of the sound transmitted to the user can be improved.
  • the reinforcing member 31 is a plate-like member, but the shape of the reinforcing member 31 is not limited to this.
  • the reinforcing member 31 may have, for example, a shape that is larger than the piezoelectric element 7a and whose end is curved toward the piezoelectric element 7a and covers the side of the piezoelectric element 7a.
  • the reinforcing member 31 may have, for example, a shape having a plate-like portion and an extending portion that extends from the plate-like portion and covers the side portion of the piezoelectric element 7a. In this case, it is preferable that the extending portion and the side portion of the piezoelectric element 7a are separated by a predetermined distance. Thereby, it becomes difficult for an extending part to inhibit a deformation
  • the panel 20 can constitute a part or all of a display panel, an operation panel, a cover panel, and a lid panel for making the rechargeable battery removable.
  • the piezoelectric element 7a is disposed outside the display area for the display function.
  • the operation panel includes a touch panel.
  • the operation panel includes a sheet key that is a member that constitutes one surface of the operation unit side body, in which, for example, a key top of an operation key is integrally formed in a folding mobile phone.
  • attaches the panel 20 and the piezoelectric element 7a the joining member which adhere
  • different joining members may be used as appropriate depending on the members to be joined.
  • a mobile phone has been described as an example of a device according to the appended claims.
  • the device according to the appended claims is not limited to a mobile phone.
  • the device according to the appended claims may be a mobile electronic device other than a mobile phone.
  • the portable electronic device include, but are not limited to, a tablet, a portable personal computer, a digital camera, a media player, an electronic book reader, a navigator, and a game machine.
  • the mobile phone controller controls the generation of sound, but is not limited to this.
  • sound generation may be controlled based on an instruction signal received via a network by a communication unit.
  • a signal may be received from another electronic device by so-called near field communication such as Bluetooth (registered trademark) or infrared communication, and sound generation may be controlled based on the received signal.
  • near field communication such as Bluetooth (registered trademark) or infrared communication

Abstract

 電子機器(携帯電話)(1A)は、圧電素子(7)と、圧電素子(7)によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部(パネル)と、気導音を発生させる第2音発生部(スピーカ)(11)と、を備える。例えば、携帯電話(1A)は、携帯電話(1A)の周囲で発生する音、例えば、自動車のエンジン音、タイヤ音、街頭で流れるBGM、人の話し声、駅構内でのアナウンス、電車のレール音などの音圧(大きさ)が閾値以上となった場合には、人体伝導方式により通話音声を出力する。

Description

電子機器、制御方法及び制御プログラム
 本出願は、電子機器、制御方法及び制御プログラムに関する。
 特許文献1には、気導音と振動音とを利用者に伝える電子機器が記載されている。特許文献1には、電子機器の筐体の外面に配置される振動体の圧電素子に電圧が印加されると、圧電素子が伸縮することにより振動体が屈曲振動することが記載されている。また、特許文献1には、利用者が屈曲振動する振動体を耳介に接触させると、気導音と振動音とが利用者に伝えられることが記載されている。特許文献1によれば、気導音とは、物体の振動に起因する空気の振動が外耳道を通って鼓膜に伝わり、鼓膜が振動することによって利用者の聴覚神経に伝わる音である。また、特許文献1によれば、振動音とは、振動する物体に接触する利用者の体の一部(例えば外耳の軟骨)を介して利用者の聴覚神経に伝わる音である。
特開2005-348193号公報
 ところで、一般に、電子機器では、音をより聞き易い状態で利用者に伝えたいというニーズがある。
 1つの態様に係る電子機器は、圧電素子と、前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、気導音を発生させる第2音発生部と、を備える。
 1つの態様に係る制御方法は、圧電素子と、前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、気導音を発生させる第2音発生部とを備える電子機器によって実行される制御方法であって、所定の条件に基づいて、前記第1音発生部及び前記第2音発生部の少なくとも一方により音を発生させるステップを含む。
 1つの態様に係る制御プログラムは、圧電素子と、前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、気導音を発生させる第2音発生部とを備える電子機器に、所定の条件に基づいて、前記第1音発生部及び前記第2音発生部の少なくとも一方により音を発生させるステップを実行させる。
 1つの態様に係る電子機器は、筐体と、圧電素子と、前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、第2音発生部と、姿勢検出部と、を備え、前記第1音発生部又は前記第2音発生部は、前記姿勢検出部の検出結果に基づいて音を発生させる。
 1つの態様に係る制御方法は、圧電素子と、前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、第2音発生部と、姿勢検出部と、を備える電子機器によって実行される制御方法であって、前記姿勢検出部の検出結果に基づいて、前記第1音発生部又は前記第2音発生部から音を発生させることを決定するステップと、決定した前記第1音発生部又は前記第2音発生部から音を発生させるステップと、を含む。
 1つの態様に係る制御プログラムは、圧電素子と、前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、第2音発生部と、姿勢検出部と、を備える電子機器に、前記姿勢検出部の検出結果に基づいて、前記第1音発生部又は前記第2音発生部から音を発生させることを決定するステップと、決定した前記第1音発生部又は前記第2音発生部から音を発生させるステップと、を実行させる。
 1つの態様に係る電子機器は、筐体と、圧電素子と、前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、第2音発生部と、操作検出部と、を備え、前記第1音発生部又は前記第2音発生部は、前記操作検出部の検出結果に基づいて音を発生させる。
 1つの態様に係る制御方法は、圧電素子と、前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、第2音発生部と、操作検出部と、を備える電子機器によって実行される制御方法であって、前記操作検出部の検出結果に基づいて、前記第1音発生部又は前記第2音発生部から音を発生させることを決定するステップと、決定した前記第1音発生部又は前記第2音発生部から音を発生させるステップと、を含む。
 1つの態様に係る制御プログラムは、圧電素子と、前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、第2音発生部と、操作検出部と、を備える電子機器に、前記操作検出部の検出結果に基づいて、前記第1音発生部又は前記第2音発生部から音を発生させることを決定するステップと、決定した前記第1音発生部又は前記第2音発生部から音を発生させるステップと、を実行させる。
図1は、実施形態に係る携帯電話の正面図である。 図2は、実施形態に係る携帯電話の断面図である。 図3は、パネルの形状の例を示す図である。 図4は、パネルの振動の例を示す図である。 図5は、実施形態に係る携帯電話のブロック図である。 図6は、携帯電話において、通話処理の開始時に実行される、通話音声の出力方式の切替処理の処理手順の一例を示す図である。 図7は、携帯電話おいて、発信操作又は着信を検出した場合に実行される、音圧レベルによる出力方式の切替判定処理の処理手順の一例を示す図である。 図8は、携帯電話において実行される、音圧レベルによる出力方式の切替判定処理の詳細な処理手順を示す図である。 図9は、人体伝導方式で通話音声を出力している状態にある場合に、携帯電話の周囲で発生する音声の音圧が閾値を下回った状態で一定時間継続したことを条件として、通話音声の出力方式を人体伝導方式から、再びダイナミックスピーカ方式に戻す処理手順の一例を示す図である。 図10は、通話開始の前後で、音圧レベルによる出力方式の切替判定と、音声認識による出力方式の切替判定とを使い分ける場合の処理手順の一例を示す図である。 図11は、音声認識による出力方式の切替判定処理の処理手順の一例を示す図である。 図12は、音声認識による出力方式の切替判定処理の処理手順の他の例を示す図である。 図13は、携帯電話において発信操作又は着信を検出した場合に実行される、位置情報による出力方式の切替判定処理の処理手順の一例を示す図である。 図14は、携帯電話において実行される、位置情報による出力方式の切替判定処理の詳細な処理手順を示す図である。 図15は、実施形態5に係る携帯電話の正面図である。 図16は、図15に示す携帯電話b-b線断面図である。 図17は、実施形態6に係る携帯電話の正面図である。 図18は、図17に示す携帯電話c-c線断面図である。 図19は、補強部材による周波数特性の変形例を示す図である。 図20は、実施形態7に係る携帯電話の正面図である。 図21は、図20に示す携帯電話のd-d線断面図である。 図22は、パネルの形状の例を示す図である。 図23は、パネルの振動の例を示す図である。 図24は、図20に示す携帯電話のe-e線断面図である。 図25は、第2マイクの他の構成の概略構成を示す断面図である。 図26は、実施形態7に係る携帯電話のブロック図である。 図27は、通話時の制御の処理手順を示すフローチャートである。 図28は、音声の出力モードの制御の処理手順を示すフローチャートである。 図29は、通話中の制御の処理手順を示すフローチャートである。 図30は、実施形態8に係る携帯電話の正面図である。 図31は、図30に示す携帯電話のf-f線断面図である。 図32は、実施形態9に係る携帯電話の正面図である。 図33は、図32に示す携帯電話のg-g線断面図である。 図34は、補強部材による周波数特性の変形例を示す図である。 図35は、実施形態10に係る携帯電話の正面図である。 図36は、図35に示す携帯電話のh-h線断面図である。 図37は、パネルの形状の例を示す図である。 図38は、パネルの振動の例を示す図である。 図39は、図35に示す携帯電話のi-i線断面図である。 図40は、第2マイクの他の構成の概略構成を示す断面図である。 図41は、実施形態10に係る携帯電話のブロック図である。 図42は、通話時の制御の処理手順を示すフローチャートである。 図43は、音声の出力モードの制御の処理手順を示すフローチャートである。 図44は、実施形態11に係る携帯電話の正面図である。 図45は、図44に示す携帯電話のj-j線断面図である。 図46は、実施形態12に係る携帯電話の正面図である。 図47は、図46に示す携帯電話のk-k線断面図である。 図48は、補強部材による周波数特性の変形例を示す図である。
 本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、気導音と振動音とを利用者に伝える電子機器の例として、携帯電話について説明する。
(実施形態1)
 図1及び図2を参照しながら、実施形態に係る携帯電話1Aの全体的な構成について説明する。図1は、携帯電話1Aの正面図である。図2は、携帯電話1Aのa-a断面を模式的に示す断面図である。図1及び図2に示すように、携帯電話1Aは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、圧電素子7と、第1マイク8a及び第2マイク8bと、スピーカ11と、カメラ12と、パネル20と、筐体40とを備える。
 ディスプレイ2は、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro-Luminescence Display)等の表示デバイスを備える。ディスプレイ2は、文字、画像、記号、及び図形等を表示する。
 ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、図1及び図2に示す例に限定されない。
 照度センサ4は、携帯電話1Aの周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2の輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2が顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
 圧電素子7は、電気信号(音信号に応じた電圧)が印加されると、構成材料の電気機械結合係数に従い伸縮又は屈曲する。すなわち、圧電素子7は、電気信号が印加されると変形する。圧電素子7は、パネル20に取り付けられ、パネル20を振動させるための振動源として用いられる。圧電素子7は、例えば、セラミック又は水晶を用いて形成される。圧電素子7は、ユニモルフ、バイモルフ、又は積層型圧電素子であってよい。積層型圧電素子には、バイモルフを積層した(例えば16層又は24層積層した)積層型バイモルフ素子が含まれる。積層型の圧電素子は、例えば、PZT(チタン酸ジルコン酸鉛)からなる複数の誘電体層と、該複数の誘電体層間に配設された電極層との積層構造体から構成される。ユニモルフは、電気信号(電圧)が印加されると伸縮する。バイモルフは、電気信号(電圧)が印加されると屈曲する。
 第1マイク8aは、携帯電話1Aの周囲の音、例えば、自動車のエンジン音、タイヤ音、街頭で流れるBGM、人の話し声、駅構内でのアナウンス、電車のレール音などを集音して入力する入力部である。第2マイク8bは、通話時に、利用者から発せられる音声を入力する入力部である。例えば、第1マイク8a及び第2マイク8bは、入力される音を電気信号へ変換してコントローラ10に送り出す。第1マイク8aは、音入力部の一例である。第2マイク8bは、音声入力部の一例である。
 スピーカ11は、例えば、ダイナミックスピーカであり、気導方式で音(気導音)を出力する。スピーカ11は、電気信号を変換した音を、耳を携帯電話1Aに接触させていない人へも伝えることができる。スピーカ11は、例えば、通話音声を出力したり、音楽を出力したりするために用いられる。スピーカ11から出力される音声を外部に伝える為の開口部(放音口)が筐体40に形成される。この開口部に対応した防水構造を実現した場合、気体は通すが液体は通さない部材によって開口部を閉塞する構造を採用することができる。気体は通すが液体は通さない部材としては、例えば、ゴアテックス(登録商標)がある。スピーカ11は、第2音発生部の一例である。
 カメラ12は、ディスプレイ2に面している物体を撮影するインカメラである。カメラ12は、撮影した画像を電気信号へ変換する。携帯電話1Aは、カメラ12に加えて、ディスプレイ2の反対側の面に面している物体を撮影するアウトカメラを備えてもよい。
 パネル20は、圧電素子7の変形(伸縮又は屈曲)にともなって振動し、利用者がパネル20に接触させる耳の軟骨(耳介軟骨)等にその振動を伝える。パネル20は、第1音発生部の一例である。パネル20は、ディスプレイ2及び圧電素子7等を外力から保護する機能も有する。パネル20は、例えば、ガラス、又はアクリル等の合成樹脂により形成される。パネル20の形状は、例えば、板状である。パネル20は、平板であってよい。パネル20は、表面が滑らかに湾曲する曲面パネルであってもよい。
 パネル20の背面には、接合部材30により、ディスプレイ2と、圧電素子7とが取り付けられる。圧電素子7は、パネル20の背面に配置された状態で、筐体40の内表面と所定の距離だけ離間している。圧電素子7は、伸縮または屈曲した状態でも、筐体40の内表面と離間しているとよい。すなわち、圧電素子7と筐体40の内表面との間の距離は、圧電素子7の最大変形量よりも大きいとよい。圧電素子7は、補強部材(例えば、板金又はガラス繊維強化樹脂)を介してパネル20に取り付けられてもよい。接合部材30は、例えば、両面テープ、又は熱硬化性あるいは紫外線硬化性等を有する接着剤である。接合部材30は、無色透明のアクリル系紫外線硬化型接着剤である光学弾性樹脂でもよい。
 ディスプレイ2は、パネル20の短手方向におけるほぼ中央に配設される。圧電素子7は、パネル20の長手方向の端部から所定の距離だけ離間した近傍に、圧電素子7の長手方向がパネル20の短手方向と平行になるように配設される。ディスプレイ2及び圧電素子7は、パネル20の内側の面に、平行に並べて配設される。
 パネル20の外側の面のほぼ全面には、タッチスクリーン(タッチセンサ)21が配設される。タッチスクリーン21は、パネル20に対する接触を検出する。タッチスクリーン21は、指、ペン、又はスタイラスペン等による利用者の接触操作を検出するために用いられる。タッチスクリーン21を用いて検出されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。タッチスクリーン21の検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。
 タッチスクリーン21は、音を聞くためにパネル20に接触する耳介人体等を検出するためにも用いられる。
 筐体40は、樹脂又は金属を用いて形成される。筐体40は、ボタン3、照度センサ4、近接センサ5、第1マイク8a、第2マイク8b、スピーカ11、カメラ12、およびパネル20等を支持する。
 図1から図4を参照しながら、実施形態に係る携帯電話1Aによる音の出力についてより詳細に説明する。図3は、パネル20の形状の例を示す図である。図4は、パネル20の振動の例を示す図である。
 圧電素子7には、出力する音に応じた電気信号が印加される。圧電素子7には、例えば、外耳道を介する気導音によって音を伝える所謂パネルスピーカの印加電圧である±5Vよりも高い、±15Vが印加されてもよい。これにより、利用者が、例えば、3N以上の力(5N~10Nの力)でパネル20に自身の体の一部を押し付けた場合であっても、パネル20に十分な振動を発生させ、利用者の体の一部を介して伝わる振動音を発生させることができる。圧電素子7に印加される電圧は、パネル20の筐体40に対する固定強度、又は圧電素子7の性能等に応じて適宜調整可能である。
 電気信号が印加されると、圧電素子7は長手方向に伸縮又は屈曲する。圧電素子7が取り付けられたパネル20は、圧電素子7の伸縮又は屈曲に合わせて変形する。これにより、パネル20は、振動し、気導音を発生させる。さらに、利用者が体の一部(例えば、耳介軟骨)をパネル20に接触させた場合、パネル20は、体の一部を介して利用者に伝導する振動音を発生させる。すなわち、パネル20は、圧電素子7の変形にともなって、パネル20に接触する物体に対して振動音として知覚される周波数で振動する。パネル20は、圧電素子7の伸縮または屈曲によって湾曲する。パネル20は、圧電素子7によって直接的に曲げられる。「パネル20が圧電素子によって直接的に曲げられる」とは、従来のパネルスピーカで採用されているような、圧電素子をケーシング内に配設して構成される圧電アクチュエータの慣性力によりパネルの特定の領域が加振されパネルが変形する現象とは異なる。「パネル20が圧電素子によって直接的に曲げられる」とは、圧電素子の伸縮または屈曲(湾曲)が、接合部材を介して、或いは接合部材及び後述の補強部材31を介して、直にパネルを曲げることを意味する。
 例えば、圧電素子7に、通話の相手の音声、又は着信音、音楽等の音データに応じた電気信号が印加されると、パネル20は、電気信号に対応する気導音及び振動音を発生させる。圧電素子7及びパネル20を介して出力される音信号は、後述するストレージ9に記憶されている音データに基づくものであってよい。圧電素子7及びパネル20を介して出力される音信号は、外部のサーバ等に記憶され、後述する通信ユニット6によりネットワークを介して取得される音データに基づくものであってもよい。
 本実施形態において、パネル20は、利用者の耳とほぼ同じ大きさであってよい。また、パネル20は、図3に示すように、利用者の耳よりも大きなサイズであってもよい。この場合、利用者は、音を聞くときに耳の外周部のほぼ全体をパネル20に接触させることができる。このようにして音を聞くことにより、周囲音(ノイズ)が外耳道に入り難くなる。本実施形態では、少なくとも、パネル20は、人間の対耳輪下脚(下対輪脚)から対耳珠までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から対耳輪までの間の距離に相当する短手方向(又は長手方向)の長さとを有する領域よりも広い領域が振動する。パネル20は、耳輪における対耳輪上脚(上対輪脚)近傍の部位から耳垂までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から耳輪における対耳輪近傍の部位までの間の距離に相当する短手方向(又は長手方向)の長さを有する領域が振動してもよい。上記の長さおよび幅を有する領域は、長方形状の領域であってもよいし、上記の長手方向の長さを長径、上記の短手方向の長さを短径とする楕円形状であってもよい。人間の耳の平均的な大きさは、例えば、社団法人 人間生活工学研究センター(HQL)作成の日本人の人体寸法データベース(1992-1994)等を参照すれば知ることができる。
 図4に示すように、パネル20は、圧電素子7が取り付けられた取付領域20aだけでなく、取付領域20aから離れた領域も振動する。パネル20は、振動する領域において、当該パネル20の主面と交差する方向に振動する箇所を複数有し、当該複数の箇所の各々において、振動の振幅の値が、時間とともにプラスからマイナスに、あるいはその逆に変化する。パネル20は、それぞれの瞬間において、振動の振幅が相対的に大きい部分と振動の振幅が相対的に小さい部分とがパネル20の略全体に一見ランダム又は規則的に分布した振動をする。すなわち、パネル20全域にわたって、複数の波の振動が検出される。上記のように圧電素子7に対して印加される電圧が±15Vであれば、利用者が例えば5N~10Nの力で自身の体にパネル20を押し付けた場合であっても、パネル20の上述した振動は減衰しにくい。このため、利用者は、パネル20上の取付領域20aから離れた領域に耳を接触させても、振動音を聞くことができる。パネル20は、圧電素子7によってその上部が直接的に曲げられ、当該上部に比して下部では振動が減衰する。パネル20は、圧電素子7の長辺方向において該圧電素子7の直上がその周囲と比較して最も高く隆起するように、圧電素子7によって曲げられる。
 本実施形態では、ディスプレイ2がパネル20に取り付けられている。このため、パネル20の下部(ディスプレイ2が取り付けられている側)は、剛性が上がり、パネル20の上部(圧電素子7が取り付けられている側)と比べて、振動が小さい。このため、パネル20の下部において、パネル20が振動することによる気導音の音漏れが低減される。
 携帯電話1Aは、パネル20の振動により、気導音と、利用者の体の一部(例えば耳介軟骨)を介する振動音とを利用者に伝えることができる。そのため、携帯電話1Aは、ダイナミックレシーバと同等の音量の音を出力する場合、空気の振動により携帯電話1Aの周囲へ伝わる音を、ダイナミックスピーカのみを有する電子機器と比較して、少なくすることができる。このような特徴は、例えば、録音されたメッセージを電車内のような近くに他人がいる場所で聞く場合等に好適である。
 さらに、携帯電話1Aは、パネル20の振動により利用者に振動音を伝える。そのため、利用者は、イヤホン又はヘッドホンを身につけていても、それらに携帯電話1Aを接触させることで、イヤホン又はヘッドホン及び体の一部を介して、パネル20の振動による振動音を聞くことができる。
 さらに、携帯電話1Aは、パネル20の振動により音を伝える。そのため、携帯電話1Aが別途ダイナミックレシーバ(たとえば、スピーカ11)を備えない場合、パネル20が発する音を外部に伝えるための開口部(放音口)を筐体40に形成する必要がない。
 図5を参照しながら、携帯電話1Aの機能的な構成について説明する。図5は、携帯電話1Aのブロック図である。図5に示すように、携帯電話1Aは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、圧電素子7と、第1マイク8a、第2マイク8b、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、姿勢検出ユニット15と、バイブレータ18と、タッチスクリーン21とを備える。
 通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
 ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2に画面を表示させ、タッチスクリーン21によって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
 ストレージ9は、例えば、制御プログラム9A、通話アプリケーション9B、音楽再生アプリケーション9C、動画再生アプリケーション9D、及び設定データ9Zを記憶する。通話アプリケーション9Bは、無線通信による通話のための通話機能を提供する。音楽再生アプリケーション9Cは、音楽データから音を再生するための音楽再生機能を提供する。動画再生アプリケーション9Dは、動画データから動画及び音を再生するための動画再生機能を提供する。設定データ9Zは、携帯電話1Aの動作に関連する各種の設定及び処理に関する情報を含む。設定データ9Zは、携帯電話1Aの動作に関連する各種の設定及び処理に関する情報として、例えば、現在使用されている通話音声の出力方式の情報、第1マイク8aにより入力された音の音圧と比較するための閾値、通話音声の出力方式の切替指示の情報などが含まれる。
 制御プログラム9Aは、携帯電話1Aを稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、圧電素子7、第1マイク8a及び第2マイク8b等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能は、通話アプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
 制御プログラム9Aには、例えば、通話アプリケーション9Bにより実行する通話処理の開始時に、通話音声の出力方式の切替指示があるか否かを判定し、切替指示がある場合には、通話音声の出力方式を切替指示に対応する方式に切替えて通話音声を出力する処理を実行するための機能が含まれる。さらに、制御プログラム9Aには、ボタン3などを用いた発信操作又は通信ユニット6における着信を検出した場合に、音圧レベルによる出力方式の切替判定処理を実行する機能が含まれる。実施形態1において、携帯電話1Aは、通話音声の出力方式として、スピーカ11から通話音声を出力する第1の出力方式と、圧電素子7を変形させることによりパネル20に接触する物体(たとえば、利用者の耳)に対して音声の音振動が伝わる周波数でパネル20を振動させて通話音声を出力する第2の出力方式を利用する。以下では、説明の便宜上、スピーカ11から通話音声を出力する第1の出力方式をダイナミックスピーカ方式と表記し、圧電素子7を変形させることによりパネル20に接触する物体(たとえば、利用者の耳)に対して音声の音振動が伝わる周波数でパネル20を振動させて通話音声を出力する第2の出力方式を人体伝導方式と表記する。
 コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、及びFPGA(Field-Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、携帯電話1Aの動作を統括的に制御して各種の機能を実現する。
 具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2、通信ユニット6、圧電素子7、第1マイク8a、第2マイク8b、スピーカ11、及びバイブレータ18を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、ボタン3、照度センサ4、近接センサ5、カメラ12、姿勢検出ユニット15、及びタッチスクリーン21を含むが、これらに限定されない。
 コントローラ10は、例えば、制御プログラム9Aを実行することにより、通話アプリケーション9Bにより実行する通話処理の開始時に、通話音声の出力方式の切替処理を実行する。例えば、コントローラ10は、通話処理の開始時に、通話音声の出力方式の切替指示がある場合には、現状の出力方式の情報をストレージ9の設定データ9Zから読み込む。そして、コントローラ10は、現状の出力方式と、切替指示に対応する出力方式とが異なる場合には、通話音声の出力方式を切替指示に対応する方式に切替えて通話音声を出力する。コントローラ10は、設定データ9Zの出力方式の情報を、切替後の出力方式に更新する。
 さらに、コントローラ10は、例えば、制御プログラム9Aを実行することにより、ボタン3などを用いた発信操作又は通信ユニット6における着信を検出した場合に、音圧レベルによる出力方式の切替判定処理を実行する。例えば、コントローラ10は、第1のマイク8aにより入力された音の音圧と閾値との比較結果に応じて、ダイナミックスピーカ方式、又は人体伝導方式の少なくとも1つを選択し、通話時に相手側の携帯電話から送信される通話音声を利用者に伝達するための制御を行う。より詳細には、コントローラ10は、ボタン3などを用いた発信操作又は通信ユニット6における着信を検出した場合に、第1マイク8aにより入力される音の音圧と閾値とを比較する。続いて、コントローラ10は、第1マイク8aにより入力される音の音圧が閾値よりも低い場合には、ダイナミックスピーカ方式で通話音声を利用者に伝達するように、出力方式の切替指示をストレージ9の設定データ9Zに格納する。一方、コントローラ10は、第1マイク8aにより入力される音の音圧が閾値よりも低くない場合には、人体伝導方式で通話音声を利用者に伝達するように、出力方式の切替指示をストレージ9の設定データ9Zに格納する。
 姿勢検出ユニット15は、携帯電話1Aの姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。バイブレータ18は、携帯電話1Aの一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータを有する。バイブレータ18による振動は、音を伝えるためではなく、着信等の各種のイベントを利用者に報知するために用いられる。
 図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu-ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。
 図5に示した携帯電話1Aの構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、携帯電話1Aは、操作のためのボタンとして、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。
 実施形態1に係る携帯電話1Aは、スピーカ11により音を出力することができる。携帯電話機1Aは、圧電素子7によりパネル20を変形させ、気導音と、変形中のパネル20に接触する物体(例えば、人体の一部)を介して伝わる振動音とを発生させることもできる。図6~図8を用いて、実施形態1に係る携帯電話1Aによる処理手順について説明する。図6~図8に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。
 図6は、携帯電話1Aにおいて、通話アプリケーション9Bにより実行する通話処理の開始時に実行される、通話音声の出力方式の切替処理の処理手順の一例を示す図である。
 図6に示すように、コントローラ10は、ステップS101として、ボタン3などを用いた発信操作又は通信ユニット6における着信に応じた通話処理を開始する。続いて、コントローラ10は、ステップS102として、出力方式の切替指示があるか否かを判定する。コントローラ10は、例えば、ストレージ9に記憶されている設定データ9Zを読み込み、設定データ9Zに出力方式の切替指示が含まれているか否かを判定する。
 コントローラ10は、判定の結果、出力方式の切替指示がある場合には(ステップS102,Yes)、ステップS103として、ストレージ9の設定データ9Zを読み込んで、設定データ9Zに含まれる現状の出力方式と、切替指示に対応する出力方式とが異なるか否かを判定する。
 コントローラ10は、判定の結果、現状の出力方式と切替指示に対応する出力方式とが異なる場合には(ステップS103,Yes)、ステップS104として、通話音声の出力方式を切替指示に対応する方式に切替えて通話音声を出力する。このとき、コントローラ10は、設定データ9Zの出力方式の情報を更新しておく。一方、コントローラ10は、判定の結果、現状の出力方式と切替指示に対応する出力方式とが異ならない場合(同一である場合)には(ステップS103,No)、ステップS105として、現状の出力方式で通話音声を出力する。
 続いて、コントローラ10は、ステップS106として、通話終了を検出したかどうかを判定する。例えば、コントローラ10は、通話を終了させる操作が検出されたかどうかを判定することにより、通話終了を検出する。コントローラ10は、判定の結果、通話終了を検出していない場合には(ステップS106,No)、上述したステップS102の処理手順に戻り、図6の処理手順を継続する。一方、コントローラ10は、判定の結果、通話終了を検出した場合には(ステップS106,Yes)、図6の処理手順を終了する。
 ここで、上述したステップS102において、コントローラ10は、判定の結果、出力方式の切替指示がない場合には(ステップS102,No)、上述したステップS105の処理手順に移る。
 図7は、携帯電話1Aにおいて、ボタン3などを用いた発信操作又は通信ユニット6における着信を検出した場合に実行される、音圧レベルによる出力方式の切替判定処理の処理手順の一例を示す図である。
 図7に示すように、コントローラ10は、ステップS201として、ボタン3などを用いた発信操作又は通信ユニット6における着信があると、ステップS202として、音圧レベルによる出力方式の切替判定処理を実行する。続いて、コントローラ10は、ステップS203として、通話終了を検出したかどうかを判定する。コントローラ10は、判定の結果、通話終了を検出していない場合には(ステップS203,No)、上述したステップS202の処理手順に戻り、音圧レベルによる出力方式の切替判定処理を継続する。一方、コントローラ10は、判定の結果、通話終了を検出した場合には(ステップS203,Yes)、図7の処理手順を終了する。
 図8は、携帯電話1Aにおいて実行される、音圧レベルによる出力方式の切替判定処理の詳細な処理手順を示す図である。
 図8に示すように、コントローラ10は、ステップS301として、第1マイク8aにより入力された音の音圧を取得する。続いて、コントローラ10は、ステップS302として、取得した音圧が閾値以上であるか否か(閾値よりも低くないかどうか)を判定する。閾値としては、例えば、70~80デシベルの中から任意の値を用いる。
 コントローラ10は、判定の結果、取得した音圧が閾値以上である場合(閾値よりも低くない場合)には(ステップS302、Yes)、ステップS303として、人体伝導方式への切替指示をストレージ9に送出して、ステップS301に戻る。ストレージ9は、人体伝導方式への切替指示を設定データ9Zに書き込む。一方、コントローラ10は、判定の結果、取得した音圧が閾値以上ではない場合(閾値より低い場合)には(ステップS302、No)、ステップS304として、ダイナミックスピーカ方式への切替指示をストレージ9に送出して、ステップS301に戻る。ストレージ9は、ダイナミックスピーカ方式への切替指示を設定データ9Zに書き込む。
 実施形態1では、携帯電話1Aは、携帯電話1Aの周囲で発生する音、例えば、自動車のエンジン音、タイヤ音、街頭で流れるBGM、人の話し声、駅構内でのアナウンス、電車のレール音などの音圧(大きさ)が閾値以上となった場合には、人体伝導方式により通話音声を出力する。このため、実施形態1によれば、複雑な処理を実行する必要がなく、簡易な方法で、通話時の相手の声を聞き易い状態で利用者に伝えることができる。
(実施形態2)
 実施形態1では、音圧レベルによる出力方式の切替判定処理において、携帯電話1Aの周囲で発生する音の音圧が閾値よりも低くない場合には、通話音声の出力方式を人体伝導方式に切替える指示を送出する例を説明した。しかしながら、携帯電話1Aの周囲で発生する音の音圧が閾値の近傍を変化する場合も考えられるので、この場合には、出力方式が頻繁に切り替わってしまう事態が予想される。以下の実施形態2では、人体伝導方式で通話音声を利用者に伝達している状態にある場合に、携帯電話1Aの周囲で発生する音の音圧が閾値よりも低い状態で一定時間経過することを条件として、通話音声の出力方式を人体伝導方式から、再びダイナミックスピーカ方式に戻す制御の一例を説明する。
 携帯電話1Aのストレージ9に記憶されている制御プログラム9Aには、人体伝導方式で通話音声を利用者に伝達している状態にある場合に、第1マイク8aにより入力された音の音圧が閾値を下回った状態で一定時間経過したことを条件として、通話音声の出力方式を人体伝導方式からダイナミックスピーカ方式へ切替えるための機能が含まれる。
 携帯電話1Aのコントローラ10は、制御プログラム9Aを実行することにより、人体伝導方式で通話音声を利用者に伝達している状態にある場合に、第1マイク8aにより入力された音の音圧が閾値を下回った状態で一定時間経過したことを条件として、通話音声の出力方式を人体伝導方式からダイナミックスピーカ方式へ切替えるための処理を実行する。
 図9は、人体伝導方式で通話音声を出力している状態にある場合に、携帯電話1Aの周囲で発生する音声の音圧が閾値を下回った状態で一定時間継続したことを条件として、通話音声の出力方式を人体伝導方式から、再びダイナミックスピーカ方式に戻す処理手順の一例を示す図である。図9に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。
 図9に示すように、コントローラ10は、ステップS401として、第1マイク8aにより入力された音の音圧を取得する。続いて、コントローラ10は、ステップS402として、音圧が閾値以上であるか否か(閾値よりも低くないかどうか)を判定する。
 コントローラ10は、判定の結果、音圧が閾値以上である場合(閾値よりも低くない場合)には(ステップS402、Yes)、ステップS403として、人体伝導方式への切替指示をストレージ9に送出して、ステップS401に戻る。一方、コントローラ10は、判定の結果、音圧が閾値以上ではない場合(閾値より低い場合)には(ステップS402、No)、ステップS404として、この判定が、音圧が閾値以上ではない(閾値よりも低くない)とする最初の判定であるか否かを判定する。
 コントローラ10は、判定の結果、最初の判定である場合には(ステップS404、Yes)、ステップS405として、タイマーを起動し、ステップS401に戻る。一方、コントローラ10は、判定の結果、最初の判定ではない場合(2回目以降の判定である場合)には(ステップS404、No)、ステップS406として、タイマーの経過時間を取得する。続いて、コントローラ10は、タイマーの経過時間に基づいて、ステップS407として、音圧が閾値を最初に下回ってから一定時間を経過しているか否かを判定する。
 コントローラ10は、判定の結果、音圧が閾値を最初に下回ってから一定時間を経過していない場合には(ステップS407、No)、ステップS401に戻る。一方、コントローラ10は、判定の結果、音圧が閾値を最初に下回ってから一定時間を経過している場合には(ステップS407、Yes)、ステップS408として、ダイナミックスピーカ方式への切替指示をストレージ9に送出して、ステップS401に戻る。
 実施形態2では、携帯電話1Aは、人体伝導方式で通話音声を出力している状態にある場合に、携帯電話1Aの周囲で発生する音が閾値を下回っても、直ちに、ダイナミックスピーカ方式への切替指示を送出することはせず、音が閾値を下回ったままの状態で一定時間が経過した場合に、ダイナミックスピーカ方式への切替指示を送出する。このため、実施形態2によれば、出力方式が頻繁に切り替わってしまう事態が発生することを防止できる。
 さらに、実施形態2によれば、携帯電話1Aの周囲で発生する音が閾値以上となった場合(閾値よりも低くない場合)、例えば、周囲が騒がしくなった場合には、直ちに、人体伝導方式への切替が行われるので、通話時の相手の声を聞き易い状態にするように、周囲の状況に応じた迅速な対応も可能となる。
 図9に示す処理手順では、音が閾値を下回ったままの状態で一定時間が経過した場合に、人体伝導方式からダイナミックスピーカ方式への切替指示を送出する例を説明したが、これには限定されない。例えば、人体伝導方式からダイナミックスピーカ方式へ切替えるための第1の閾値と、ダイナミックスピーカ方式から人体伝導方式へ切替えるための第2の閾値とを設定することにより、出力方式が頻繁に切り替わってしまう事態が発生することを防止することもできる。例えば、第1の閾値を第2の閾値よりも小さい値として、第1の閾値と第2の閾値の値に差を設ければ設けるほど、出力方式が頻繁に切り替わってしまう事態が発生しないように制御できる。
(実施形態3)
 実施形態1及び実施形態2では、音圧レベルによる出力方式の切替判定処理について説明したが、音声認識による出力方式の切替判定を行ってもよい。そこで、以下の実施形態3では、通話開始の前後で、音圧レベルによる出力方式の切替判定と、音声認識による出力方式の切替判定とを使い分ける場合の制御の一例を説明する。
 携帯電話1Aのストレージ9に記憶されている設定データ9Zには、人体伝導方式への切替キーワード及びダイナミックスピーカ方式への切替キーワードを検出するための参照データが記憶される。例えば、参照データとして、人体伝導方式への切替キーワード及びダイナミックスピーカ方式への切替キーワードに対応する音声の基本周波数(高さ)、及び振幅(大きさ)などを含む特徴量を用いる。切り替えキーワードは、例えば、「声が聞こえにくい」、「もっと大きな声で話してほしい」などである。
 携帯電話1Aのストレージ9に記憶されている制御プログラム9Aには、通話開始前は、音圧レベルによる出力方式の切替判定処理を実行し、通話開始後は、音声認識による出力方式の切替判定処理を実行するための機能が含まれる。
 さらに、制御プログラム9Aには、音声認識による出力方式の切替判定処理を実行するための機能として、利用者の音声を解析し、人体伝導方式への切替キーワードを検出した場合に、人体伝導方式への切替指示を送出し、ダイナミックスピーカ方式への切替キーワードを検出した場合に、ダイナミックスピーカ方式への切替指示を送出する機能が含まれる。
 携帯電話1Aのコントローラ10は、制御プログラム9Aを実行することにより、通話開始前は、音圧レベルによる出力方式の切替判定処理を実行し、通話開始後は、音声認識による出力方式の切替判定処理を実行する。コントローラ10は、音声認識による出力方式の切替判定処理を実行する場合、利用者の音声から、人体伝導方式への切替キーワードを検出した場合に、人体伝導方式への切替指示を送出する。一方、コントローラ10は、利用者の音声から、ダイナミックスピーカ方式への切替キーワードを検出した場合に、ダイナミックスピーカ方式への切替指示を送出する。
 詳細には、コントローラ10は、人体伝導方式への切替キーワード及びダイナミックスピーカ方式への切替キーワードを取り込むのに十分なサンプリング周波数で、第2マイク8bにより入力された利用者の音声を取得する。続いて、コントローラ10は、設定データ9Zに含まれる参照データを用いて利用者の音声を解析し、人体伝導方式への切替キーワードを検出した場合には、人体伝導方式への切替指示を送出する。一方、コントローラ10は、設定データ9Zに含まれる参照データを用いて利用者の音声を解析し、ダイナミックスピーカ方式への切替キーワードを検出した場合に、ダイナミックスピーカ方式への切替指示を送出する。
 図10は、通話開始の前後で、音圧レベルによる出力方式の切替判定と、音声認識による出力方式の切替判定とを使い分ける場合の処理手順の一例を示す図である。図10に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。
 図10に示すように、コントローラ10は、ステップS501として、ボタン3などを用いた発信操作又は通信ユニット6における着信があると、ステップS502として、通話処理が開始されたかどうかを判定する。コントローラ10は、例えば、発信操作があった場合には、発信操作に応じた発呼に対して相手側からの応答を検出することにより通話処理が開始されたものと判定する。コントローラ10は、例えば、着信があった場合には、ボタン3などを用いた着信を受ける操作を検出することにより通話処理が開始されたものと判定する。
 コントローラ10は、判定の結果、通話処理が開始されていない場合には(ステップS502、No)、ステップS503として、音圧レベルによる出力方式の切替判定処理を実行する。すなわち、ステップS503の音圧レベルによる出力方式の切替判定処理により、通話開始時の通話音声の出力方式が決定される。
 一方、コントローラ10は、判定の結果、通話処理が開始された場合には(ステップS502、Yes)、ステップS504として、音声認識による出力方式の切替判定処理を実行する。
 続いて、コントローラ10は、ステップS505として、通話終了を検出したかどうかを判定する。コントローラ10は、通話終了を検出していない場合には(ステップS505、No)、ステップS502に戻る。一方、コントローラ10は、通話終了を検出した場合には(ステップS505、Yes)、図10の処理手順を終了する。
 図11は、音声認識による出力方式の切替判定処理の処理手順の一例を示す図である。図11に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。
 図11に示すように、コントローラ10は、ステップS601として、第2マイク8bにより入力される音声信号(利用者の音声)を取得する。続いて、コントローラ10は、取得した音声信号を解析し、ステップS602として、人体伝導方式への切替キーワードを検出したかどうかを判定する。
 コントローラ10は、判定の結果、人体伝導方式への切替キーワードを検出した場合には(ステップS602、Yes)、ステップS603として、人体伝導方式への切替指示を送出して、ステップS601に戻る。一方、コントローラ10は、判定の結果、人体伝導方式への切替キーワードを検出しなかった場合には(ステップS602、No)、ステップS604として、ダイナミックスピーカ方式への切替キーワードを検出したかどうかを判定する。
 コントローラ10は、判定の結果、ダイナミックスピーカ方式への切替キーワードを検出した場合には(ステップS604、Yes)、ステップS605として、ダイナミックスピーカ方式への切替指示を送出して、ステップS601に戻る。一方、コントローラ10は、判定の結果、ダイナミックスピーカ方式への切替キーワードを検出しなかった場合には(ステップS604、No)、そのまま、ステップS601に戻る。
 図11に示す処理手順では、通話開始後、音圧レベルによる出力方式の切替判定から、音声認識による出力方式の切替判定に移行するので、通話時は、利用者の意思を優先した出力方式の切替ができる。
 図11に示す処理手順では、利用者の音声を解析し、人体伝導方式への切替キーワード及びダイナミックスピーカ方式への切替キーワードを検出することにより、出力方式の切替を実行する例を説明したが、これには限定されない。例えば、携帯電話1Aの周囲の音を解析し、人体伝導方式に優位な環境下にある場合には、人体伝導方式への切替を実行するようにしてもよい。
 設定データ9Zには、通話音声を利用者に伝達する上で人体伝導方式が優位な環境下を検出するための参照データが記憶される。例えば、参照データとして、車内で集音される自動車のエンジン音、電車内で集音される電車のレール音に対応する基本周波数(高さ)、及び振幅(大きさ)などを含む特徴量を用いる。
 制御プログラム9Aには、音声認識による出力方式の切替判定処理を実行するための機能として、携帯電話1Aの周囲の音に基づいて、通話音声を利用者に伝達する上で人体伝導方式が優位な環境下にあると判定した場合には、人体伝導方式への切替を実行する機能が含まれる。
 コントローラ10は、制御プログラム9Aを実行することにより、携帯電話1Aの周囲の音を解析し、通話音声を利用者に伝達する上で人体伝導方式が優位な環境下にあると判定した場合には、人体伝導方式への切替を実行する。
 詳細には、コントローラ10は、第1マイク8aにより入力された携帯電話1Aの周囲の音を取得する。続いて、コントローラ10は、設定データ9Zに含まれる参照データを用いて携帯電話1Aの周囲の音を解析した結果、車内又は電車内にいると判定した場合には、通話音声を利用者に伝達する上で人体伝導方式が優位な環境下にあると判定し、人体伝導方式への切替指示を送出する。
 図12は、音声認識による出力方式の切替判定処理の処理手順の他の例を示す図である。図12に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。
 図12に示すように、コントローラ10は、ステップS701として、第1マイク8aにより入力された音信号(携帯電話1Aの周囲の音)を取得する。続いて、コントローラ10は、ステップS702として、第1マイク8aにより入力された音信号を解析して、人体伝導方式に優位な環境下にあるか否かを判定する。
 コントローラ10は、判定の結果、人体伝導方式に優位な環境下にある場合には(ステップS702、Yes)、ステップS703として、人体伝導方式への切替指示を送出して、ステップS701に戻る。一方、コントローラ10は、判定の結果、人体伝導方式に優位な環境下にない場合には(ステップS702、No)、そのまま、ステップS701に戻る。
 図12に示す処理手順では、音声認識による出力方式の切替判定において、例えば、車内又は電車内にいると判定した場合には、通話音声を利用者に伝達する上で人体伝導方式が優位な環境下にあると判定し、人体伝導方式への切替指示が送出される。このため、利用者が意識していなくても、通話時の相手の声を聞き易い状態で利用者に伝えることができるとともに、通話音声が周囲に漏れてしまうことを防止できる。
(実施形態4)
 実施形態1では、音圧レベルによる出力方式の切替判定処理を説明したが、例えば、携帯電話1Aの位置に応じて、出力方式の切替判定を行ってもよい。以下の実施形態4では、位置情報による出力方式の切替判定処理を説明する。
 携帯電話1Aの通信ユニット6は、例えば、GPS衛星からの所定の周波数帯の電波信号を受信し、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。携帯電話1Aは、通信ユニット6とは別に、GPS衛星からの所定の周波数帯の電波信号を受信するための通信ユニットを備えてもよい。
 携帯電話1Aのストレージ9に記憶されている設定データ9Zには、例えば、緯度・経度を中心とした複数のエリアごとに、通話音声を利用者に伝達する上で人体伝導方式が優位な場所であるか否かが対応付けられた出力方式情報が含まれる。人体伝導方式が優位な場所は、例えば、駅又は競技場等である。
 さらに、ストレージ9に記憶される制御プログラム9Aには、GPS衛星からの電波信号に基づいて位置測位処理を実行するための機能が含まれる。さらに、制御プログラム9Aには、位置情報による出力方式の切替判定処理を実行するための機能が含まれる。
 携帯電話1Aのコントローラ10は、制御プログラム9Aを実行することにより、位置情報による出力方式の切替判定処理を実行する。例えば、コントローラ10は、通信ユニット6からの信号に基づいて位置測位処理を実行する。続いて、コントローラ10は、設定データ9Zに含まれる出力方式情報を参照して、測位した位置(緯度・経度)に対応するエリアが、通話音声を利用者に伝達する上で人体伝導方式にとって優位な場所である場合には、人体伝導方式への切替指示を送出する。
 図13は、携帯電話1Aにおいて、ボタン3などを用いた発信操作又は通信ユニット6における着信を検出した場合に実行される、位置情報による出力方式の切替判定処理の処理手順の一例を示す図である。
 図13に示すように、コントローラ10は、ステップS801として、ボタン3などを用いた発信操作又は通信ユニット6における着信があると、ステップS802として、位置情報による出力方式の切替判定処理を実行する。続いて、コントローラ10は、ステップS803として、通話終了を検出したかどうかを判定する。コントローラ10は、判定の結果、通話終了を検出していない場合には(ステップS803,No)、上述したステップS802の処理手順に戻り、位置情報による出力方式の切替判定処理を継続する。一方、コントローラ10は、判定の結果、通話終了を検出した場合には(ステップS803,Yes)、図13の処理手順を終了する。
 図14は、携帯電話1Aにおいて実行される、位置情報による出力方式の切替判定処理の詳細な処理手順を示す図である。
 図14に示すように、コントローラ10は、ステップS901として、位置測位を実行する。続いて、コントローラ10は、設定データ9Zに含まれる出力方式情報を参照して、ステップS902として、測位した位置が、通話音声を利用者に伝達する上で人体伝導方式にとって優位な場所であるか否かを判定する。
 コントローラ10は、判定の結果、人体伝導方式に優位な場所である場合には(ステップS902、Yes)、ステップS903として、人体伝導方式への切替指示をストレージ9に送出して、ステップS901に戻る。ストレージ9は、人体伝導方式への切替指示を設定データ9Zに書き込む。一方、コントローラ10は、判定の結果、人体伝導方式に優位な場所ではない場合には(ステップS902、No)、ステップS904として、ダイナミックスピーカ方式への切替指示をストレージ9に送出して、ステップS901に戻る。ストレージ9は、ダイナミックスピーカ方式への切替指示を設定データ9Zに書き込む。
 実施形態4によれば、携帯電話1Aの位置に応じて通話音声の出力方式を切替えるので、簡易な方法で、通話時の相手の声を聞き易い状態で利用者に伝えることができる。
 上述してきた実施形態では、通話時の相手の声(通話音声)を聞き易い状態で利用者に伝えるための処理の例を説明してきたが、音楽再生アプリケーション9Cにより再生される音楽コンテンツ(楽曲)を聴きやすい状態で伝える場合にも同様に利用できる。また、人体伝導方式またはダイナミックスピーカ方式によって出力される音は、例えばナビゲーション機能で用いられる音声であってもよい。
(実施形態5)
 上記の実施形態では、タッチスクリーン21がパネル20のほぼ全面に配設される例について説明したが、タッチスクリーン21は、パネル20と重ならないように配設されてもよい。図15は、実施形態5に係る携帯電話の正面図である。図16は、図15に示す携帯電話のb-b線断面図である。図15及び図16を用いて、タッチスクリーン21がパネル20と重ならないように配設される携帯電話1Bについて説明する。
 図15及び図16に示すように、携帯電話1Bにおいて、ディスプレイ2は、パネル20の内側ではなく、パネル20と同一平面をなすように、パネル20と並べて配設される。タッチスクリーン21は、ディスプレイ2の表側のほぼ全面を覆うように配設される。すなわち、タッチスクリーン21及びディスプレイ2は、所謂タッチパネル(タッチスクリーンディスプレイ)を構成する。
 パネル20の背面のほぼ中央には、接合部材30により、圧電素子7が取り付けられる。パネル20は、圧電素子7に電気信号が印加されると、圧電素子7の変形(伸縮又は屈曲)に応じて振動し、気導音と、パネル20に接触する人体の一部(例えば、耳介軟骨)を介して伝わる振動音とを発生する。圧電素子7をパネル20の中央に配設することにより、圧電素子7の振動がパネル20全体に均等に伝わり、利用者に伝わる音の品質が向上する。
 パネル20の表側の面にはタッチスクリーン21が配設されないが、パネル20は、タッチスクリーン21が配設されるディスプレイ2の近傍に配置される。
 携帯電話1Bのように、パネル20をタッチスクリーン21と重ならないように配設した場合でも、圧電素子7が配設される筐体40の同じ側で、圧電素子7の上部にダイナミックスピーカであるスピーカ11を設けることにより、上述と同様に、2つのモードで音声を出力することができる。この結果、ユーザにとって、好適な方法で音声を出力することができる。
(実施形態6)
 上記の実施形態では、タッチスクリーン21の少なくとも一部がディスプレイ2と重なるように配設される例について説明したが、タッチスクリーン21は、ディスプレイ2と重ならないように配設されてもよい。図17は、実施形態6に係る携帯電話の正面図である。図18は、図17に示す携帯電話のc-c線断面図である。図17及び図18を用いて、タッチスクリーン21がディスプレイ2と重ならないように配設される携帯電話1Cについて説明する。図17及び図18に示す携帯電話1Cは、いわゆる折畳型携帯電話の一例である。
 図17及び図18に示すように、携帯電話1Cにおいて、ディスプレイ2は、パネル20の内側ではなく、パネル20と同一平面をなすように、パネル20と並べて配設される。
 パネル20の背面のほぼ中央には、接合部材30により、圧電素子7が取り付けられる。パネル20と圧電素子7との間には、補強部材31が配設される。補強部材31は、例えば樹脂製の板、板金又はガラス繊維を含む板である。すなわち、携帯電話1Cにおいては、圧電素子7と補強部材31とが接合部材30により接着され、さらに補強部材31とパネル20とが接合部材30で接着される。なお、圧電素子7は、パネル20の中央に設けられていなくともよい。
 補強部材31は、例えばゴムまたはシリコン等の弾性部材である。補強部材31は、例えばある程度の弾性を有するアルミニウム等から成る金属板であってもよい。補強部材31は、例えばSUS304等のステンレス板であってもよい。ステンレス板等の金属板の厚さは、圧電素子7に印加される電圧値等に応じて、例えば0.2mm~0.8mmのものが適宜用いられる。補強部材31は、例えば樹脂製の板であってもよい。ここでいう樹脂製の板を形成する樹脂としては、例えばポリアミド系樹脂が挙げられる。ポリアミド系樹脂には、例えば、メタキシリレンジアミンとアジピン酸とから得られる結晶性の熱可塑性樹脂から成り、強度および弾性に富むレニー(登録商標)がある。このようなポリアミド系樹脂は、それ自体をベースポリマーとして、ガラス繊維、金属繊維または炭素繊維等により強化された強化樹脂であってもよい。強化樹脂は、ポリアミド系樹脂に対するガラス繊維、金属繊維または炭素繊維等の付加量に応じて、強度および弾性が適宜調整される。強化樹脂は、例えば、ガラス繊維、金属繊維または炭素繊維等を編みこんで形成された基材に樹脂を含浸させ、硬化させて形成される。強化樹脂は、液状の樹脂に細かく切断された繊維片を混入させたのちに硬化させて形成されるものであってもよい。強化樹脂は、繊維を編みこんだ基材と樹脂層とを積層したものであってもよい。
 圧電素子7とパネル20との間に補強部材31を配設することにより、以下の効果が得られる。パネル20に外力が加わった場合に、その外力が圧電素子7に伝わって圧電素子7が破損する可能性を低減することができる。例えば携帯電話1Cが地面に落下することでパネル20に対して外力が加わると、当該外力はまず補強部材31に伝わる。補強部材31は、所定の弾性を有しているため、パネル20から伝わる外力により弾性変形する。そのため、パネル20に対して加わった外力は補強部材31により少なくとも一部が吸収され、圧電素子7に伝達される外力が低減される。結果、圧電素子7の破損を低減することができる。補強部材31が圧電素子7と筐体40との間に配置される場合、例えば携帯電話1Cが地面に落下することで筐体40が変形し、変形した筐体40が圧電素子7に衝突して圧電素子7が破損する可能性を低減できる。
 圧電素子7の伸縮または屈曲による振動は、まず補強部材31に伝達され、さらにパネル20に伝達される。すなわち、圧電素子7は、まず圧電素子7よりも大きな弾性係数を有する補強部材31を振動させ、さらにパネル20を振動させることになる。したがって、携帯電話1Cは、補強部材31を備えず、圧電素子7が接合部材30によりパネル20に接合される構造と比較して、圧電素子7の変形が過剰になりにくくすることができる。これにより、パネル20の変形量(変形の程度)を調節することができる。この構造は、圧電素子7の変形を阻害しにくいパネル20の場合に特に有効である。
 さらに、圧電素子7とパネル20との間に補強部材31を配設することにより、図19に示すように、パネル20の共振周波数が下がり、低周波帯域の音響特性が向上する。図19は、補強部材31による周波数特性の変化例を示す図である。図19には、上記のSUS304のような板金を補強部材31として用いた場合の周波数特性と、上記のレニーのような強化樹脂を補強部材31として用いた場合の周波数特性とが示されている。横軸は周波数を、縦軸は音圧を示す。強化樹脂を用いた場合の共振点は約2kHzであり、板金を用いた場合の共振点は約1kHzである。強化樹脂を用いた場合のディップは約4kHzであり、板金を用いた場合のディップは約3kHzである。すなわち、強化樹脂を用いた場合には、板金を用いた場合に比べて、パネル20の共振点が高い周波数領域に位置しており、周波数特性のディップがより高い周波数領域に位置している。携帯電話機の音声通話で用いられる周波数帯は300Hz~3.4kHzであるため、強化樹脂を補強部材31として用いた場合、ディップが携帯電話1Cの使用周波数帯に含まれないようにすることができる。尚、補強部材31として板金を用いる場合でも、板金を構成する金属の種類もしくは組成または板金の厚さ等を適宜調整することで、ディップが携帯電話1Cの使用周波数帯に含まれないようにすることができる。板金と強化樹脂とを比較すると、強化樹脂は、板金と比較してアンテナ性能への影響を低減することができる。強化樹脂は板金と比較して塑性変形しにくいため、音響特性が変化しにくいという利点がある。強化樹脂は板金と比較して、音発生時の温度上昇が抑えられる。補強部材31に換えて、板状の錘を接合部材30により圧電素子7に取り付けてもよい。
 パネル20は、圧電素子7に電気信号が印加されると、圧電素子7の変形(伸縮又は屈曲)に応じて振動し、気導音と、パネル20に接触する人体の一部(例えば、耳介軟骨)を介して伝わる振動音とを発生する。タッチスクリーン21は、パネル20の表側のほぼ全面を覆うように配設される。
 携帯電話1Cも、上記と同様に、圧電素子7が配設される筐体40の同じ側で、圧電素子7の上部にダイナミックスピーカであるスピーカ11が配置されている。第1マイク8aは、圧電素子7が配設される筐体40の反対側(端部)の背面に配置される。第2マイク8bは、圧電素子7が配設される筐体40の反対側(端部)に配置される。
 上記の実施形態では、音出力の方式を切り替える条件として、第1マイク8aから入力される周囲音、及び通信ユニット6により得られる位置情報を挙げた。この条件は、タッチスクリーン21による接触の検出または姿勢検出ユニットの検出結果であってもよい。
 上記の実施形態では、圧電素子7によりパネル20を変形させ、気導音と振動音とを発生させた。圧電素子7により筐体40の一部を変形させ、気導音と振動音とを発生させてもよい。筐体40の一部は、例えば筐体の角部であってよい。また、上記の実施形態では、第2音発生部がダイナミックスピーカであるが、第2音発生部は、パネル20と、当該パネルに取り付けられる圧電素子であって、圧電素子7とは別の圧電素子であってもよい。この場合、別の圧電素子は、パネル20の長手方向において圧電素子7と反対側の端部に配置されて良い。
 上記の実施形態では、携帯電話1Aとして、ディスプレイ2が接合部材30を用いてパネル20の背面に取り付けられる例を示したが、携帯電話1Aは、パネル20とディスプレイ2の間に空間ができるように構成されてもよい。パネル20とディスプレイ2の間に空間を設けることにより、パネル20が振動しやすくなり、パネル20上において振動音を聞きやすい範囲が広くなる。
 上記の実施形態では、圧電素子7をパネル20に取り付ける例を示したが、他の場所に取り付けられてもよい。例えば、圧電素子7は、バッテリリッドに取り付けられてもよい。バッテリリッドは、筐体40に取り付けられ、バッテリを覆う部材である。バッテリリッドは、携帯電話等の携帯電子機器においてディスプレイ2と異なる面に取り付けられることが多いため、そのような構成によれば、利用者はディスプレイ2と異なる面に体の一部(例えば耳)を接触させて音を聞くことができる。圧電素子7が筐体40の角部(例えば四隅の少なくとも一か所)を振動させる構成であっても良い。この場合、圧電素子7は、筐体40の角部の内面に取り付けられる構成でもよいし、中間部材をさらに備え、圧電素子7の振動が中間部材を介して筐体40の角部に伝達される構成でもよい。この構成によれば、振動する範囲を比較的狭くできるため、振動により発生する気導音が周囲に漏れにくい。また、この構成によれば、例えば利用者が筐体の角部を外耳道に挿入した状態で気導音と振動音とが利用者に伝わるため、周囲のノイズが利用者の外耳道に入りにくい。そのため、利用者に伝わる音の品質を向上することができる。
 上記の実施形態では、補強部材31は板状部材であるが、補強部材31の形状はこれに限られない。補強部材31は、例えば、圧電素子7より大きく、かつその端部が圧電素子7側に湾曲し圧電素子7の側部を覆う形状を有していてもよい。また、補強部材31は、例えば、板状部と、当該板状部から延設されて圧電素子7の側部を覆う延設部とを有する形状であってもよい。この場合、延設部と圧電素子7の側部とが、所定の距離だけ離間しているとよい。これにより、延設部が圧電素子の変形を阻害しにくくなる。
 パネル20は、表示パネル、操作パネル、カバーパネル、充電池を取り外し可能とするためのリッドパネルのいずれかの一部または全部を構成することができる。特に、パネル20が表示パネルのとき、圧電素子7は、表示機能のための表示領域の外側に配置される。これにより、表示を阻害しにくいという利点がある。操作パネルは、タッチパネルを含む。また、操作パネルは、例えば折畳型携帯電話において操作キーのキートップが一体に形成され操作部側筐体の一面を構成する部材であるシートキーを含む。
 パネル20と圧電素子7とを接着する接合部材およびパネル20と筐体40とを接着する接合部材等が同一の符号を有する接合部材30として説明した。しかしながら、接合部材は、接合する対象である部材に応じて適宜異なるものが用いられてよい。
(実施形態7)
 図20及び図21を参照しながら、実施形態7に係る携帯電話1Dの全体的な構成について説明する。図20は、実施形態7に係る携帯電話1Dの正面図である。図21は、図20に示す携帯電話1Dのd-d線断面図である。図20及び図21に示すように、携帯電話1Dは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、圧電素子7aと、ダイナミックレシーバ(第2音発生部)7bと、第1マイク8aと、第2マイク8bと、カメラ12と、パネル(第1音発生部)20と、筐体40とを備える。
 ディスプレイ2は、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro-Luminescence Display)等の表示デバイスを備える。ディスプレイ2は、文字、画像、記号、及び図形等を表示する。
 ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、図20及び図21に示す例に限定されない。
 照度センサ4は、携帯電話1Dの周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2の輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2が顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
 圧電素子7aは、電気信号(音信号に応じた電圧)が印加されると、構成材料の電気機械結合係数に従い伸縮又は屈曲する。すなわち、圧電素子7aは、電気信号が印加されると変形する。圧電素子7aは、パネル20に取り付けられ、パネル20を振動させるための振動源として用いられる。圧電素子7aは、例えば、セラミック又は水晶を用いて形成される。圧電素子7aは、ユニモルフ、バイモルフ、又は積層型圧電素子であってよい。積層型圧電素子には、バイモルフを積層した(例えば16層又は24層積層した)積層型バイモルフ素子が含まれる。積層型の圧電素子は、例えば、PZT(チタン酸ジルコン酸鉛)からなる複数の誘電体層と、該複数の誘電体層間に配設された電極層との積層構造体から構成される。ユニモルフは、電気信号(電圧)が印加されると伸縮する。バイモルフは、電気信号(電圧)が印加されると屈曲する。
 ダイナミックレシーバ7bは、気導方式で音を出力する音出力部である。ダイナミックレシーバ7bは、電気信号を変換した音を、耳を携帯電話1Dに接触させていない人へも伝えることができる。ダイナミックレシーバ7bは、振動板をボイスコイルで振動させて音声を出力する機構である。ダイナミックレシーバ7bは、主に永久磁石とボイスコイルと振動板とを有する。ダイナミックレシーバ7bは、電気信号(音信号に応じた電圧)がボイスコイルに印加されると、ボイスコイルが電磁石となり、永久磁石に対して所定の方向に振動する。ダイナミックレシーバ7bは、ボイスコイルを振動させることで、ボイスコイルに連結された振動板を振動させる。振動板は、振動することで、周囲の空気を振動させ、音を周囲に伝達させる。ダイナミックレシーバ7bは、通話時にユーザが筐体40に耳を押し当てた状態で通話の音声を出力するレシーバとなる。ダイナミックレシーバ7bは、筐体40から耳を離しているユーザに対して音が聞こえる出力で音声を出力するスピーカにもなる。ダイナミックレシーバ7bは、例えば、着信音を出力したり、スピーカフォンモードで使用される場合の通話音声を出力したりするために用いられる。
 第1マイク8a及び第2マイク8bは、音入力部である。第1マイク8a及び第2マイク8bは、入力される音を電気信号へ変換する。
 カメラ12は、ディスプレイ2に面している物体を撮影するインカメラである。カメラ12は、撮影した画像を電気信号へ変換する。携帯電話1Dは、カメラ12に加えて、ディスプレイ2の反対側の面に面している物体を撮影するアウトカメラを備えてもよい。
 パネル20は、圧電素子7aの変形(伸縮又は屈曲)にともなって振動し、利用者がパネル20に接触させる耳の軟骨(耳介軟骨)等にその振動を音振動として伝える。パネル20は、ディスプレイ2及び圧電素子7a等を外力から保護する機能も有する。パネル20は、例えば、ガラス、又はアクリル等の合成樹脂により形成される。パネル20の形状は、例えば、板状である。パネル20は、平板であってよい。パネル20は、表面が滑らかに湾曲する曲面パネルであってもよい。
 パネル20の背面には、接合部材30により、ディスプレイ2と、圧電素子7aとが取り付けられる。圧電素子7aは、パネル20の背面に配置された状態で、筐体40の内表面と所定の距離だけ離間している。圧電素子7aは、伸縮または屈曲した状態でも、筐体40の内表面と離間しているとよい。すなわち、圧電素子7aと筐体40の内表面との間の距離は、圧電素子7aの最大変形量よりも大きいとよい。圧電素子7aは、補強部材(例えば、板金又はガラス繊維強化樹脂)を介してパネル20に取り付けられてもよい。接合部材30は、例えば、両面テープ、又は熱硬化性あるいは紫外線硬化性等を有する接着剤である。接合部材30は、無色透明のアクリル系紫外線硬化型接着剤である光学弾性樹脂でもよい。
 ディスプレイ2は、パネル20の短手方向におけるほぼ中央に配設される。圧電素子7aは、パネル20の長手方向の端部から所定の距離だけ離間した近傍に、圧電素子7aの長手方向がパネル20の短手方向と平行になるように配設される。ディスプレイ2及び圧電素子7aは、パネル20の内側の面に、平行に並べて配設される。
 パネル20の外側の面のほぼ全面には、タッチスクリーン(タッチセンサ)21が配設される。タッチスクリーン21は、パネル20に対する接触を検出する。タッチスクリーン21は、指、ペン、又はスタイラスペン等による利用者の接触操作を検出するために用いられる。タッチスクリーン21を用いて検出されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。タッチスクリーン21の検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。
 タッチスクリーン21は、音を聞くためにパネル20に接触する耳介軟骨等を検出するためにも用いられる。
 筐体40は、樹脂又は金属を用いて形成される。筐体40は、ボタン3、照度センサ4、近接センサ5、ダイナミックレシーバ7b、第1マイク8a、第2マイク8b、カメラ12、およびパネル20等を支持する。筐体40は、パネル20を介して圧電素子7aを支持する。
 筐体40に配置された各部のレイアウトを説明する。以下では、特に圧電素子7aとダイナミックレシーバ7bと第1マイク8aと第2マイク8bとの配置を説明する。携帯電話1Dは、筐体40が厚みの薄い略直方体の形状である。携帯電話1Dは、筐体40の一面にディスプレイ2及びパネル20が重なって配置されている。携帯電話1Dは、圧電素子7aとダイナミックレシーバ7bが、筐体40の一面において、ディスプレイ2及びパネル20を挟んで向かい合う位置に配置されている。具体的には、圧電素子7aは、筐体40の一面の長手方向の一方の端部40a側に配置されている。ダイナミックレシーバ7bは、筐体40の一面の長手方向の他方の端部40b側に配置されている。本実施形態の筐体40の一面は、長方形形状であり、長手方向の端である端部40a、40bは、短辺となる。このように、携帯電話1Dは、圧電素子7aが筐体40の一方の端部40aに配置され、ダイナミックレシーバ7bが筐体40の他方の端部40bに配置されている。さらに、圧電素子7aとダイナミックレシーバ7bとは、筐体40の一面の短手方向の中央に配置されている。つまり、圧電素子7aとダイナミックレシーバ7bとは、筐体40の一面において、長手方向の端部で、かつ、短手方向の中央となる位置にそれぞれ配置されている。圧電素子7aとダイナミックレシーバ7bとを、短手方向の中央に配置することで、レシーバとしての使い勝手をよくすることができる。
 携帯電話1Dは、筐体40の一方の端部40a側、つまり圧電素子7aの近傍に照度センサ4、近接センサ5、カメラ12、第2マイク8bが配置されている。携帯電話1Dは、筐体40の他方の端部40b側、つまりダイナミックレシーバ7bの近傍に第1マイク8aが配置されている。このように、携帯電話1Dは、第2マイク8bが筐体40の一方の端部40aに配置され、第1マイク8aが筐体40の他方の端部40bに配置されている。したがって、第1マイク8aは、圧電素子7aが配置されている端部40aとは反対側の端部40bに配置される。第2マイク8bは、ダイナミックレシーバ7bが配置されている端部40bとは反対側の端部40aに配置される。第1マイク8aと第2マイク8bとは、筐体40の一面の短手方向においても異なる端部側にそれぞれ配置されている。つまり、第1マイク8aと第2マイク8bとは、筐体40の一面において対角線上の位置となる最も離れている角の近傍にそれぞれ配置されている。
 図20から図23を参照しながら、実施形態に係る携帯電話1Dによる音の出力についてより詳細に説明する。図22は、パネル20の形状の例を示す図である。図23は、パネル20の振動の例を示す図である。
 圧電素子7aには、出力する音に応じた電気信号が印加される。圧電素子7aには、例えば、外耳道を介する気導音によって音を伝える所謂パネルスピーカの印加電圧である±5Vよりも高い、±15Vが印加されてもよい。これにより、利用者が、例えば、3N以上の力(5N~10Nの力)でパネル20に自身の体の一部を押し付けた場合であっても、パネル20に十分な振動を発生させ、利用者の体の一部を介して伝わる振動音を発生させることができる。圧電素子7aに印加される電圧は、パネル20の筐体40に対する固定強度、又は圧電素子7aの性能等に応じて適宜調整可能である。
 電気信号が印加されると、圧電素子7aは長手方向に伸縮又は屈曲する。圧電素子7aが取り付けられたパネル20は、圧電素子7aの伸縮又は屈曲に合わせて変形する。これにより、パネル20は、振動し、気導音を発生させる。さらに、利用者が体の一部(例えば、耳介軟骨)をパネル20に接触させた場合、パネル20は、体の一部を介して利用者に伝導する気導音及び振動音を発生させる。すなわち、パネル20は、圧電素子7aの変形にともなって、パネル20に接触する物体に対して振動音として知覚される周波数で振動する。パネル20は、圧電素子7aの伸縮または屈曲によって湾曲する。パネル20は、圧電素子7aによって直接的に曲げられる。「パネル20が圧電素子によって直接的に曲げられる」とは、従来のパネルスピーカで採用されているような、圧電素子をケーシング内に配設して構成される圧電アクチュエータの慣性力によりパネルの特定の領域が加振されパネルが変形する現象とは異なる。「パネル20が圧電素子によって直接的に曲げられる」とは、圧電素子の伸縮または屈曲(湾曲)が、接合部材を介して、或いは接合部材及び後述の補強部材31を介して、直にパネルを曲げることを意味する。
 例えば、圧電素子7aに、通話の相手の音声、又は着信音、音楽等の音データに応じた電気信号が印加されると、パネル20は、電気信号に対応する気導音及び振動音を発生させる。圧電素子7a及びパネル20を介して出力される音信号は、後述するストレージ9に記憶されている音データに基づくものであってもよい。圧電素子7a及びパネル20を介して出力される音信号は、外部のサーバ等に記憶され、後述する通信ユニット6によりネットワークを介して取得される音データに基づくものであってもよい。
 本実施形態において、パネル20は、利用者の耳とほぼ同じ大きさであってよい。また、パネル20は、図22に示すように、利用者の耳よりも大きなサイズであってもよい。この場合、利用者は、音を聞くときに耳の外周部のほぼ全体をパネル20に接触させることができる。このようにして音を聞くことにより、周囲音(ノイズ)が外耳道に入り難くなる。本実施形態では、少なくとも、パネル20は、人間の対耳輪下脚(下対輪脚)から対耳珠までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から対耳輪までの間の距離に相当する短手方向(又は長手方向)の長さとを有する領域よりも広い領域が振動する。パネル20は、耳輪における対耳輪上脚(上対輪脚)近傍の部位から耳垂までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から耳輪における対耳輪近傍の部位までの間の距離に相当する短手方向(又は長手方向)の長さを有する領域が振動してもよい。上記の長さおよび幅を有する領域は、長方形状の領域であってもよいし、上記の長手方向の長さを長径、上記の短手方向の長さを短径とする楕円形状であってもよい。人間の耳の平均的な大きさは、例えば、社団法人 人間生活工学研究センター(HQL)作成の日本人の人体寸法データベース(1992-1994)等を参照すれば知ることができる。
 図23に示すように、パネル20は、圧電素子7aが取り付けられた取付領域20aだけでなく、取付領域20aから離れた領域も振動する。パネル20は、振動する領域において、当該パネル20の主面と交差する方向に振動する箇所を複数有し、当該複数の箇所の各々において、振動の振幅の値が、時間とともにプラスからマイナスに、あるいはその逆に変化する。パネル20は、それぞれの瞬間において、振動の振幅が相対的に大きい部分と振動の振幅が相対的に小さい部分とがパネル20の略全体に一見ランダム又は規則的に分布した振動をする。すなわち、パネル20全域にわたって、複数の波の振動が検出される。上記のように圧電素子7aに対して印加される電圧が±15Vであれば、利用者が例えば5N~10Nの力で自身の体にパネル20を押し付けた場合であっても、パネル20の上述した振動は減衰しにくい。このため、利用者は、パネル20上の取付領域20aから離れた領域に耳を接触させても、振動音を聞くことができる。パネル20は、圧電素子7aによってその上部が直接的に曲げられ、当該上部に比して下部では振動が減衰する。パネル20は、圧電素子7aの長辺方向において該圧電素子7aの直上がその周囲と比較して最も高く隆起するように、圧電素子7aによって曲げられる。
 本実施形態では、ディスプレイ2がパネル20に取り付けられている。このため、パネル20の下部(ディスプレイ2が取り付けられている側)は、剛性が上がり、パネル20の上部(圧電素子7aが取り付けられている側)と比べて、振動が小さい。このため、パネル20の下部において、パネル20が振動することによる気導音の音漏れが低減される。
 携帯電話1Dは、パネル20の振動により、気導音と、利用者の体の一部(例えば耳介軟骨)を介する振動音として音を利用者に伝えることができる。そのため、携帯電話1Dは、ダイナミックレシーバ7bと同等の音量の音を出力する場合、空気の振動により携帯電話1Dの周囲へ伝わる音を、ダイナミックスピーカのみを有する電子機器と比較して、少なくすることができる。このような特徴は、例えば、録音されたメッセージを電車内のような近くに他人がいる場所で聞く場合等に好適である。
 さらに、携帯電話1Dは、パネル20の振動により利用者に振動音を伝える。そのため、利用者は、イヤホン又はヘッドホンを身につけていても、それらに携帯電話1Dを接触させることで、イヤホン又はヘッドホン及び体の一部を介して、パネル20の振動による振動音を聞くことができる。
 さらに、携帯電話1Dは、パネル20の振動により音を伝える。そのため、パネル20が発する音を外部に伝えるための開口部(放音口)を筐体40に形成する必要がない。このため、防水構造を実現する場合に、構造を簡略化することができる。携帯電話1Dは、防水構造を実現するために、気体は通すが液体は通さない部材によってダイナミックスピーカ7bの放音口等の開口部を閉塞する構造を採用してもよい。気体は通すが液体は通さない部材は、例えば、ゴアテックス(登録商標)である。
 図24を参照しながら、第2マイク8bの構成について説明する。図24では、第2マイク8bについて説明するが、第1マイク8aも同様の構成である。図24は、図20に示す携帯電話1Dのe-e線断面図である。第2マイク8bは、筐体40の内部に配置されている。第2マイク8bは、マイク本体50と、遮音部材52、53と、を有する。筐体40は、パネル20及びタッチスクリーン21が配置されている面にマイク穴54が形成されている。マイク穴54は、マイク本体50と向かい合う位置に形成されている。マイク穴54により、筐体40の内部におけるマイク本体50近傍の空間と、筐体40の外部の空間とが連通される。筐体40の外部の空間を伝播する音は、マイク穴54を通ってマイク本体50に到達する。
 マイク本体50は、収音つまり音を検出する部分である。マイク本体50は、筐体40の内部のマイク穴54と向かい合う位置に配置されている。マイク本体50は、マイク穴54と間隔をあけた位置に配置されている。遮音部材52は、筐体40の内部のマイク本体50とマイク穴54との間に配置されている。遮音部材52は、マイク本体50とマイク穴54との間の空間を囲うように配置されており、マイク本体50とマイク穴54との間の空間を、筐体40の内部から遮断している。これにより、遮音部材52は、筐体40の内部の音がマイク本体50に到達しにくい状態とする。第2マイク8bは、筐体40の外側からマイク穴54を通過して、マイク本体50に到達した音を検出する。
 ここで、図24では、筐体40のパネル20及びタッチスクリーン21が配置されている面にマイク穴54が形成されるがこれに限定されない。マイク穴54は、筐体40の側面、つまり筐体40の厚さ方向を含む面に形成されてもよい。
 図25は、第2マイクの他の構成の概略構成を示す断面図である。図25に示す第2マイク8cは、筐体40の内部に配置されている。第2マイク8cは、マイク本体50と、遮音部材62、63と、を有する。筐体40は、側面にマイク穴64が形成されている。筐体40の側面とは、パネル20及びタッチスクリーン21が配置されている面に繋がっている面であり、長手方向の端部40aとなる面である。
 マイク本体50は、音を検出する部分である。マイク本体50は、筐体40の内部で、パネル20及びタッチスクリーン21が配置されている面とは反対側に設置されている。マイク本体50は、筐体40の外側からマイク穴64を覗いても見えない位置に配置されている。マイク本体50は、マイク穴64と間隔をあけた位置に配置されている。遮音部材62、63は、筐体40の内部のマイク本体50とマイク穴64との間に配置されている。遮音部材62、63は、マイク本体50とマイク穴64との間の空間を囲うように配置されており、マイク本体50とマイク穴64との間の空間を、筐体40の内部から遮断している。これにより、遮音部材62、63は、筐体40の内部の音がマイク本体50に到達しにくい状態とする。遮音部材62、63は、マイク穴64を通過した音を、マイク穴64を覗いても見えない位置に配置されたマイク本体50に案内する。第2マイク8cは、筐体40の外側からマイク穴64を通過して、マイク本体50に到達した音を検出する。第2マイク8cは、マイク穴64を筐体40の側面に設けることで、使用時にマイクが塞がれにくくすることができる。これにより、より好適に音を検出することができる。
 図26を参照しながら、携帯電話1Dの機能的な構成について説明する。図26は、実施形態7に係る携帯電話1Dのブロック図である。図26に示すように、携帯電話1Dは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、圧電素子7aと、ダイナミックレシーバ7bと、第1マイク8aと、第2マイク8bと、ストレージ9と、コントローラ10と、カメラ12と、姿勢検出ユニット15と、バイブレータ18と、タッチスクリーン21とを備える。
 通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
 ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2に画面を表示させ、タッチスクリーン21によって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
 ストレージ9は、例えば、制御プログラム9A、通話アプリケーション9B、音楽再生アプリケーション9C、動画再生アプリケーション9D、及び設定データ9Zを記憶する。通話アプリケーション9Bは、無線通信による通話のための通話機能を提供する。音楽再生アプリケーション9Cは、音楽データから音を再生するための音楽再生機能を提供する。動画再生アプリケーション9Dは、動画データから動画及び音を再生するための動画再生機能を提供する。設定データ9Zは、携帯電話1Dの動作に関連する各種の設定に関する情報を含む。
 制御プログラム9Aは、携帯電話1Dを稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、タッチスクリーン21によって検出される接触に基づいて利用者の操作を判定し、判定された操作に対応するプログラムを起動する。制御プログラム9Aが提供する機能には、音声出力時に使用する制御モードを決定する制御を行う機能、決定した制御モードに基づいて圧電素子7aと、ダイナミックレシーバ7bと、第1マイク8aと、第2マイク8bとの制御を行う機能が含まれる。制御プログラム9Aが提供する機能は、通話アプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
 コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、及びFPGA(Field-Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、携帯電話1Dの動作を統括的に制御して各種の機能を実現する。
 具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2、通信ユニット6、圧電素子7a、ダイナミックレシーバ7b、第1マイク8a、第2マイク8b及びバイブレータ18を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、ボタン3、照度センサ4、近接センサ5、カメラ12、姿勢検出ユニット15、及びタッチスクリーン21を含むが、これらに限定されない。
 コントローラ10は、例えば、制御プログラム9Aを実行することにより、音声出力時に使用する制御モードを決定する制御を実行する。コントローラ10は、例えば、制御プログラム9Aを実行することにより、決定した制御モードに基づいて圧電素子7aと、ダイナミックレシーバ7bと、第1マイク8aと、第2マイク8bとの制御を実行する。
 姿勢検出ユニット15は、携帯電話1Dの姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。バイブレータ18は、携帯電話1Dの一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータを有する。バイブレータ18による振動は、音を伝えるためではなく、着信等の各種のイベントを利用者に報知するために用いられる。
 図26においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図26においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu-ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。
 図26に示した携帯電話1Dの構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、携帯電話1Dは、操作のためのボタンとして、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。
 図27から図29を参照しながら、音声出力時に使用する制御モードを決定する制御、及び、決定した制御モードに基づいて圧電素子7aと、ダイナミックレシーバ7bと、第1マイク8aと、第2マイク8bとの制御について説明する。図27は、通話時の制御の処理手順を示すフローチャートである。図28は、音声の出力モードの制御の処理手順を示すフローチャートである。図29は、通話中の制御の処理手順を示すフローチャートである。図27から図29に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図27から図29は、他の通信装置と音声通話を行う際の処理として説明する。音声通話で実行される各種処理は、コントローラ10が、通話アプリケーション9Bを実行し、通信ユニット6を用いて実行する。
 コントローラ10は、ステップS20として、通話が開始されたかを判定する。コントローラ10は、ステップS20で通話が開始されていない(No)と判定した場合、ステップS20に進む。コントローラ10は、ステップS20で通話が開始された(Yes)と判定した場合、ステップS22として姿勢検出ユニット15で向き、つまり携帯電話1Dの向きを検出する。コントローラ10は、ステップS22で向きを検出したら、ステップS24として、レシーバ及びマイクの設定処理を行い、ステップS26に進む。
 図28を用いて、ステップS24の処理を説明する。コントローラ10は、ステップS24として、検出した携帯電話1Dの向きに基づいてレシーバ及びマイクの設定処理を行う。コントローラ10は、ステップS40として、上向きであるかを判定する。本実施形態において、上向きとは、筐体40の端部40aが端部40bよりも鉛直方向上側となる向きである。
 コントローラ10は、ステップS40で、上向きである(Yes)と判定した場合、ステップS42として圧電素子7a及びパネル20により上記の気導音と振動音とを発生させる方式(第1モード)を選択する。そして、ステップS44としてダイナミックレシーバ7bを停止し、ステップS46として、第1マイク8aを受話用マイクに設定する。そして、ステップS48として、第2マイク8bをノイズキャンセル用マイクに設定し、本処理を終了する。コントローラ10は、本処理を終了したら、ステップS26に進む。
 コントローラ10は、ステップS42からステップS48の処理を実行することで、圧電素子7a及びパネル20により上記の気導音と振動音とを発生させ、圧電素子7aとは反対側に配置されている第1マイク8aをマイクとして、通話を実行する。コントローラ10は、圧電素子7aの近傍に配置された第2マイク8bで検出した音をノイズキャンセルに用いる。
 コントローラ10は、ステップS40で、上向きではない(No)と判定した場合、ステップS52としてダイナミックレシーバ7bを通話用レシーバに設定(第2モード)する。そして、ステップS54として圧電素子7aへの電気信号の印加を停止し、ステップS56として、第2マイク8bを受話用マイクに設定する。そして、ステップS58として、第1マイク8aをノイズキャンセル用マイクに設定し、本処理を終了する。コントローラ10は、本処理を終了したら、ステップS26に進む。
 コントローラ10は、ステップS52からステップS58の処理を実行することで、ダイナミックレシーバ7bをレシーバとし、ダイナミックレシーバ7bとは反対側に配置されている第2マイク8bをマイクとして、通話を実行する。コントローラ10は、ダイナミックレシーバ7bの近傍に配置された第1マイク8aで検出した音をノイズキャンセルに用いる。
 コントローラ10は、ステップS24で図28に示す設定処理を実行したら、図27に示す処理と平行して、実行した設定に基づいて通話音声を処理する。コントローラ10は、ステップS24で設定処理を実行したら、ステップS26として、通話終了かを判定する。
 コントローラ10は、ステップS26で通話終了ではない(No)と判定した場合、ステップS28として姿勢検出ユニット15で向きを検出し、ステップS30として向きの変更があるかを判定する。つまり、コントローラ10は、向きが上向きから下向きになったか、または下向きから上向きになったかを判定する。
 コントローラ10は、ステップS30で向きの変更なし(No)、つまり現在の設定と同じ向きであると判定した場合、ステップS26に進む。コントローラ10は、ステップS30で向きの変更あり(Yes)、つまり現在の設定と異なる向きであると判定した場合、ステップS24に進み、レシーバ及びマイクの設定処理を実行する。
 コントローラ10は、ステップS26で通話終了である(Yes)と判定した場合、本処理を終了する。
 携帯電話1Dは、図27及び図28に示すように、ステップS42からステップS48の設定で圧電素子7a及びパネル20により上記の気導音と振動音とを発生させる第1モードと、ステップS52からステップS58の設定で通話用レシーバにダイナミックレシーバ7bを用いる第2モードと、の2つのモードで通話を行うことができる。これにより、ユーザは、周りの環境や、用途に応じて使用するレシーバを切り換えることができる。例えば、ユーザは、周りがうるさくてダイナミックレシーバ7bで音声を出力すると、周囲の雑音にまぎれて聞こえにくい場合、第1モードで音声を出力させることで、うるさい環境でも好適に通話の音声を聞くことができる。ユーザは、周りが静かな環境の場合、第2モードで適切な音量で音声を出力させることで、音漏れを好適に抑制することができる。つまり、ユーザは、第2モードでダイナミックレシーバ7bから気導方式で耳に適切な音量の音を出力することで、ユーザの耳よりも遠い位置に気導方式で音が伝わることを抑制することができる。これにより、音漏れを抑制することができる。
 携帯電話1Dは、携帯電話1Dの向きに基づいて第1モードで通話を行うか、第2モードで通話を行うかを切り換える。これにより、ユーザは、携帯電話1Dの向きを変えることで、簡単に音声を出力させるモードを切り替えることができる。
 携帯電話1Dは、圧電素子7aとダイナミックレシーバ7bとのそれぞれの周辺に第1マイク8aと第2マイク8bをそれぞれ配置することで、一方のマイクを通話用のマイクとし、他方のマイクをノイズキャンセル用のマイクとすることができる。これにより、携帯電話1Dは、第1モード、第2モードのいずれの場合でも、ノイズキャンセルを行いかつ通話を行うことができる。
 携帯電話1Dは、圧電素子7aとダイナミックレシーバ7bとを筐体40の対向する端部に配置し、第1マイク8aと第2マイク8bとを筐体40の対向する端部に配置することで、第1モードと第2モードのいずれの場合もレシーバとマイクとを好適に切り換えることができる。
 携帯電話1Dは、本実施形態のように通話時に第1モードと第2モードの設定処理を行うことが好ましい。これにより、必要な場合に選択的に処理を実行することができ、消費電力を低減することができる。
 携帯電話1Dは、ダイナミックレシーバ7bをレシーバとして使用しない場合、スピーカとして使用することが好ましい。これにより、携帯電話1Dは、1つのダイナミックレシーバ7bで、気導方式で音を出力するレシーバの機能と、着信音等を通知するスピーカの機能を1つのデバイスで実現することができる。これにより、携帯電話1Dは、搭載するデバイスを増やすことなく、複数の出力方式のレシーバを設置することができる。
 ここで、図27では、通話開始をトリガーとしたが、発呼及び着呼のいずれかがあったかをステップS22以降の処理を開始するトリガーとしてもよい。
 携帯電話1Dは、向きの切り換えの判定時に、他の条件を加味してもよい。以下、図29を用いて説明する。コントローラ10は、図29の処理を図27のステップS28の処理に代えて実行することができる。
 コントローラ10は、ステップS60として、姿勢検出ユニット15で向きを検出し、ステップS62として、現在の設定に対応する基準向きと比較する。コントローラ10は、ステップS62で比較を行ったら、ステップS64として基準向きとのなす角がしきい値以上であるかを判定する。つまり、コントローラ10は、ステップS64として、基準向きとステップS60で検出した向きとのなす角を検出する。ここで、なす角は、鉛直方向を通る面における基準向きとステップS60で検出した向きとの角度である。
 コントローラ10は、ステップS64でなす角がしきい値以上ではない(No)と判定した場合、ステップS68に進む。コントローラ10は、ステップS64でなす角がしきい値以上である(Yes)と判定した場合、ステップS66として、切り替え禁止の操作ありかを判定する。ここで切り替え禁止の操作とは、通話時の音声の出力のモード切替を禁止する操作である。例えば、所定のボタンの押下や、予め入力した設定等がある。コントローラ10は、ステップS66で操作あり(Yes)と判定した場合、ステップS68に進み、ステップS66で操作なし(No)と判定した場合、ステップS70に進む。
 コントローラ10は、ステップS64でNoまたはステップS66でYesと判定された場合、ステップS68として、向きの変更なしと判定し、本処理を終了する。コントローラ10は、ステップS66でNoと判定した場合、ステップS70として向きの変更ありと判定し、ステップS72として変更された向き、つまり変更後の現在の向きがどの向きかを特定し、本処理を終了する。
 携帯電話1Dは、図29に示すように、向きが変更したと判定する基準としてしきい値を設けることで、通話時の音声の出力のモードの切替のしやすさを調整することができる。ここで、コントローラ10は、しきい値を90度よりも大きい角度、より好ましくは135度よりも大きい角度とすることが好ましい。これにより、現状のモードを切り替わりにくくすることができ、使用している際にユーザが意図しないタイミングでモードが切り替わることを抑制することができる。つまり、モードの切り換えの姿勢に一定の緩衝領域となる姿勢を設けることができる。携帯電話1Dは、第1モードから第2モードに切り替わるしきい値と、第2モードから第1モードに切り替わるしきい値とを異なる角度としてもよい。これにより、ユーザの意図に沿ったモード切替を実現することができる。
 携帯電話1Dは、切り替え禁止の操作が入力されている場合は、音声の出力のモードを切り替えないことで、ユーザの意図したモードで音声の出力を継続することができる。例えば、ユーザが寝ながら通話をしている場合に、寝返りを打つだけでモードが切り替わってしまうことを抑制することができる。
 携帯電話1Dは、向きが変化している状態が一定時間以上継続した場合、向きの変更ありと判定してもよいし、向きが変更している状態で角度変化が小さくなった場合、向きの変更ありと判定してもよい。また、携帯電話1Dは、向きが変化する場合の加速度も判定の基準にしてもよい。
(実施形態8)
 上記の実施形態7では、タッチスクリーン21がパネル20のほぼ全面に配設される例について説明したが、タッチスクリーン21は、パネル20と重ならないように配設されてもよい。図30は、実施形態8に係る携帯電話の正面図である。図31は、図30に示す携帯電話のf-f線断面図である。図30及び図31を用いて、タッチスクリーン21がパネル20と重ならないように配設される携帯電話1Eについて説明する。
 図30及び図31に示すように、携帯電話1Eにおいて、ディスプレイ2は、パネル20の内側ではなく、パネル20と同一平面をなすように、パネル20と並べて配設される。タッチスクリーン21は、ディスプレイ2の表側のほぼ全面を覆うように配設される。すなわち、タッチスクリーン21及びディスプレイ2は、所謂タッチパネル(タッチスクリーンディスプレイ)を構成する。
 パネル20の背面のほぼ中央には、接合部材30により、圧電素子7aが取り付けられる。パネル20は、圧電素子7aに電気信号が印加されると、圧電素子7aの変形(伸縮又は屈曲)に応じて振動し、気導音と、パネル20に接触する人体の一部(例えば、耳介軟骨)を介して伝わる気導音及び振動音とを発生する。圧電素子7aをパネル20の中央に配設することにより、圧電素子7aの振動がパネル20全体に均等に伝わり、気導音及び振動音の品質が向上する。
 パネル20の表側の面にはタッチスクリーン21が配設されないが、パネル20は、タッチスクリーン21が配設されるディスプレイ2の近傍に配置される。
 携帯電話1Eのように、パネル20をタッチスクリーン21と重ならないように配設した場合でも、筐体40の一面において圧電素子7aの反対側の端部にダイナミックレシーバ7bを設けることで、上記の実施形態7と同様に、2つのモードで音声を出力することができ、ユーザにとって、好適な方法で音声を出力することができる。
(実施形態9)
 上記の実施形態7及び実施形態8では、タッチスクリーン21の少なくとも一部がディスプレイ2と重なるように配設される例について説明したが、タッチスクリーン21は、ディスプレイ2と重ならないように配設されてもよい。図32は、実施形態9に係る携帯電話の正面図である。図33は、図32に示す携帯電話のg-g線断面図である。図32及び図33を用いて、タッチスクリーン21がパネル20と重ならないように配設される携帯電話1Fについて説明する。
 図32及び図33に示すように、携帯電話1Fにおいて、ディスプレイ2は、パネル20の内側ではなく、パネル20と同一平面をなすように、パネル20と並べて配設される。
 パネル20の背面のほぼ中央には、接合部材30により、圧電素子7aが取り付けられる。パネル20と圧電素子7aとの間には、補強部材31が配設される。補強部材31は、例えば樹脂製の板、板金又はガラス繊維を含む板である。すなわち、携帯電話1Fにおいては、圧電素子7aと補強部材31とが接合部材30により接着され、さらに補強部材31とパネル20とが接合部材30で接着される。なお、圧電素子7aは、パネル20の中央に設けられていなくともよい。
 補強部材31は、例えばゴムまたはシリコン等の弾性部材である。補強部材31は、例えばある程度の弾性を有するアルミニウム等から成る金属板であってもよい。補強部材31は、例えばSUS304等のステンレス板であってもよい。ステンレス板等の金属板の厚さは、圧電素子7aに印加される電圧値等に応じて、例えば0.2mm~0.8mmのものが適宜用いられる。補強部材31は、例えば樹脂製の板であってもよい。ここでいう樹脂製の板を形成する樹脂としては、例えばポリアミド系樹脂が挙げられる。ポリアミド系樹脂には、例えば、メタキシリレンジアミンとアジピン酸とから得られる結晶性の熱可塑性樹脂から成り、強度および弾性に富むレニー(登録商標)がある。このようなポリアミド系樹脂は、それ自体をベースポリマーとして、ガラス繊維、金属繊維または炭素繊維等により強化された強化樹脂であってもよい。強化樹脂は、ポリアミド系樹脂に対するガラス繊維、金属繊維または炭素繊維等の付加量に応じて、強度および弾性が適宜調整される。強化樹脂は、例えば、ガラス繊維、金属繊維または炭素繊維等を編みこんで形成された基材に樹脂を含浸させ、硬化させて形成される。強化樹脂は、液状の樹脂に細かく切断された繊維片を混入させたのちに硬化させて形成されるものであってもよい。強化樹脂は、繊維を編みこんだ基材と樹脂層とを積層したものであってもよい。
 圧電素子7aとパネル20との間に補強部材31を配設することにより、以下の効果が得られる。パネル20に外力が加わった場合に、その外力が圧電素子7aに伝わって圧電素子7aが破損する可能性を低減することができる。例えば携帯電話1Fが地面に落下することでパネル20に対して外力が加わると、当該外力はまず補強部材31に伝わる。補強部材31は、所定の弾性を有しているため、パネル20から伝わる外力により弾性変形する。そのため、パネル20に対して加わった外力は補強部材31により少なくとも一部が吸収され、圧電素子7aに伝達される外力が低減される。結果、圧電素子7aの破損を低減することができる。補強部材31が圧電素子7aと筐体40との間に配置される場合、例えば携帯電話1Fが地面に落下することで筐体40が変形し、変形した筐体40が圧電素子7aに衝突して圧電素子7aが破損する可能性を低減できる。
 圧電素子7aの伸縮または屈曲による振動は、まず補強部材31に伝達され、さらにパネル20に伝達される。すなわち、圧電素子7aは、まず圧電素子7aよりも大きな弾性係数を有する補強部材31を振動させ、さらにパネル20を振動させることになる。したがって、携帯電話1Fは、補強部材31を備えず、圧電素子7aが接合部材30によりパネル20に接合される構造と比較して、圧電素子7の変形が過剰になりにくくすることができる。これにより、パネル20の変形量(変形の程度)を調節することができる。この構造は、圧電素子7aの変形を阻害しにくいパネル20の場合に特に有効である。
 さらに、圧電素子7aとパネル20との間に補強部材31を配設することにより、図34に示すように、パネル20の共振周波数が下がり、低周波帯域の音響特性が向上する。図34は、補強部材31による周波数特性の変化例を示す図である。図34には、上記のSUS304のような板金を補強部材31として用いた場合の周波数特性と、上記のレニーのような強化樹脂を補強部材31として用いた場合の周波数特性とが示されている。横軸は周波数を、縦軸は音圧を示す。強化樹脂を用いた場合の共振点は約2kHzであり、板金を用いた場合の共振点は約1kHzである。強化樹脂を用いた場合のディップは約4kHzであり、板金を用いた場合のディップは約3kHzである。すなわち、強化樹脂を用いた場合には、板金を用いた場合に比べて、パネル20の共振点が高い周波数領域に位置しており、周波数特性のディップがより高い周波数領域に位置している。携帯電話機の音声通話で用いられる周波数帯は300Hz~3.4kHzであるため、強化樹脂を補強部材31として用いた場合、ディップが携帯電話1Fの使用周波数帯に含まれないようにすることができる。尚、補強部材31として板金を用いる場合でも、板金を構成する金属の種類もしくは組成または板金の厚さ等を適宜調整することで、ディップが携帯電話1Fの使用周波数帯に含まれないようにすることができる。板金と強化樹脂とを比較すると、強化樹脂は、板金と比較してアンテナ性能への影響を低減することができる。強化樹脂は板金と比較して塑性変形しにくいため、音響特性が変化しにくいという利点がある。強化樹脂は板金と比較して、音発生時の温度上昇が抑えられる。補強部材31に換えて、板状の錘を接合部材30により圧電素子7aに取り付けてもよい。
 パネル20は、圧電素子7aに電気信号が印加されると、圧電素子7aの変形(伸縮又は屈曲)に応じて振動し、気導音と、パネル20に接触する人体の一部(例えば、耳介軟骨)を介して伝わる振動音とを発生する。タッチスクリーン21は、パネル20の表側のほぼ全面を覆うように配設される。
 携帯電話1Fも、上記の実施形態7及び実施形態8と同様に、圧電素子7aが配置されている端部40aとは反対側の端部にダイナミックレシーバ7bが配置されている。第1マイク8aは、ダイナミックレシーバ7bの近傍に配置されている。第2マイク8bは、圧電素子7aの近傍に配置されている。
 携帯電話1Fの場合でも、筐体40の一面において圧電素子7aの反対側の端部にダイナミックレシーバ7bを設けることで、上記の実施形態7及び実施形態8と同様に、2つのモードで音声を出力することができ、ユーザにとって、好適な方法で音声を出力することができる。
 本出願の開示する実施形態は、当業者に明らかな事項を含むことができ、発明の要旨及び範囲を逸脱しない範囲で変形することができる。さらに、本出願の開示する実施形態及びその変形例は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。
 例えば、図26に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。
 上記実施形態7から実施形態9では、圧電素子7aとダイナミックレシーバ7bとを、筐体40の一方側の端部と他方側の端部とに配置したがこれに限定されない。携帯電話は、圧電素子7aとダイナミックレシーバ7bとを、近傍に配置してもよい。
 上記実施形態7から実施形態9では、マイク8a、8bを圧電素子7aとダイナミックレシーバ7bとの近傍にそれぞれ配置したが、これに限定されない。携帯電話は、同じマイクを通話用のマイクとして用いてもよい。この場合、携帯電話は、1つのマイクのみを備える構造としてもよいが、第1モードと第2モードのいずれでもノイズキャンセル用に用いる別のマイクを備えていてもよい。上記実施形態7から実施形態9において、第1マイク8aと第2マイク8bは、ノイズキャンセルに用いられなくともよい。
 上記実施形態7から実施形態9では、圧電素子7aとダイナミックレシーバ7bとが、筐体40の長手方向の端部近傍に配置されるが、これに限定されない。圧電素子7aとダイナミックレシーバ7bとは、筐体40の短手方向の両端部近傍に配置されても良い。筐体40が長方形状でなく正方形状である場合、対向する両端部近傍に配置されてよい。
 上記実施形態7から実施形態9では、第1マイク8aと第2マイク8bとは、筐体40の主面において対角線上の位置に配置されているが、これに限られない。例えば、第1マイク8aと第2マイク8bとは、筐体40の一面の短手方向においても同じ端部側にそれぞれ配置されてよい。
 上記の実施形態7から実施形態9では、携帯電話の向きに基づいて、第1モードを実行するか第2モードを実行するかを決定したがこれに限定されない。携帯電話は、向き以外の制御条件に基づいてモードを決定してもよい。例えば、携帯電話は、音声や入力された操作に基づいて第1モードを実行するか第2モードを実行するかを決定してもよい。
 携帯電話は、タッチスクリーン21で耳の形状または向き及び位置を検出し、耳の形状または向き及び位置に基づいて第1モードを実行するか第2モードを実行するかを決定してもよい。例えば、携帯電話は、耳の上側が向いているほうのレシーバを用いて音声を出力するようにモードを決定してもよい。
 ここで、パネル20に接触する耳の形状または向き及び位置を、タッチスクリーン21を用いて検出する例を示したが、物体の位置を検出する検出部は、タッチスクリーン21に限定されない。例えば、物体の位置を検出する検出部は、カメラ12であってもよい。この場合、物体の位置は、カメラ12が取得する画像に基づいて検出される。
 上記の実施形態7では、携帯電話1Dとして、ディスプレイ2が接合部材30を用いてパネル20の背面に取り付けられる例を示したが、携帯電話1Dは、パネル20とディスプレイ2の間に空間ができるように構成されてもよい。パネル20とディスプレイ2の間に空間を設けることにより、パネル20が振動しやすくなり、パネル20上において振動音を聞きやすい範囲が広くなる。
 上記の実施形態7から実施形態9では、圧電素子7aをパネル20に取り付ける例を示したが、他の場所に取り付けられてもよい。例えば、圧電素子7aは、バッテリリッドに取り付けられてもよい。バッテリリッドは、筐体40に取り付けられ、バッテリを覆う部材である。バッテリリッドは、携帯電話等の携帯電子機器においてディスプレイ2と異なる面に取り付けられることが多いため、そのような構成によれば、利用者はディスプレイ2と異なる面に体の一部(例えば耳)を接触させて音を聞くことができる。
 携帯電話は、圧電素子7aが筐体40の角部(例えば四隅の少なくとも一か所)を振動させる構成であっても良い。この場合、圧電素子7aは、筐体40の角部の内面に取り付けられる構成でもよいし、中間部材をさらに備え、圧電素子7aの振動が中間部材を介して筐体40の角部に伝達される構成でもよい。この構成によれば、振動する範囲を比較的狭くできるため、振動により発生する気導音が周囲に漏れにくい。また、この構成によれば、例えば利用者が筐体の角部を外耳道に挿入した状態で気導音と振動音とが利用者に伝わるため、周囲のノイズが利用者の外耳道に入りにくい。そのため、利用者に伝わる音の品質を向上することができる。
 上記の実施形態9では、補強部材31は板状部材であるが、補強部材31の形状はこれに限られない。補強部材31は、例えば、圧電素子7aより大きく、かつその端部が圧電素子7a側に湾曲し圧電素子7aの側部を覆う形状を有していてもよい。また、補強部材31は、例えば、板状部と、当該板状部から延設されて圧電素子7aの側部を覆う延設部とを有する形状であってもよい。この場合、延設部と圧電素子7aの側部とが、所定の距離だけ離間しているとよい。これにより、延設部が圧電素子の変形を阻害しにくくなる。
 また、パネル20は、表示パネル、操作パネル、カバーパネル、充電池を取り外し可能とするためのリッドパネルのいずれかの一部または全部を構成することができる。特に、パネル20が表示パネルのとき、圧電素子7aは、表示機能のための表示領域の外側に配置される。これにより、表示を阻害しにくいという利点がある。操作パネルは、タッチパネルを含む。また、操作パネルは、例えば折畳型携帯電話において操作キーのキートップが一体に形成され操作部側筐体の一面を構成する部材であるシートキーを含む。
 なお、パネル20と圧電素子7aとを接着する接合部材およびパネル20と筐体40とを接着する接合部材等を同一の符号を有する接合部材30として説明した。しかしながら、接合部材は、接合する対象である部材に応じて適宜異なるものが用いられてよい。また、上記の実施形態では、第2音発生部がダイナミックスピーカであるが、第2音発生部は、パネル20と、当該パネルに取り付けられる圧電素子であって、圧電素子7aとは別の圧電素子であってもよい。この場合、別の圧電素子は、パネル20の長手方向において圧電素子7aと反対側の端部に配置されて良い。
(実施形態10)
 図35及び図36を参照しながら、実施形態10に係る携帯電話1Gの全体的な構成について説明する。図35は、実施形態10に係る携帯電話1Gの正面図である。図36は、図35に示す携帯電話1Gのh-h線断面図である。図35及び図36に示すように、携帯電話1Gは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、圧電素子7aと、ダイナミックレシーバ(第2音発生部)7bと、第1マイク8aと、第2マイク8bと、カメラ12と、パネル(第1音発生部)20と、筐体40とを備える。
 ディスプレイ2は、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro-Luminescence Display)等の表示デバイスを備える。ディスプレイ2は、文字、画像、記号、及び図形等を表示する。
 ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、図35及び図36に示す例に限定されない。
 照度センサ4は、携帯電話1Gの周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2の輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2が顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
 圧電素子7aは、電気信号(音信号に応じた電圧)が印加されると、構成材料の電気機械結合係数に従い伸縮又は屈曲する。すなわち、圧電素子7aは、電気信号が印加されると変形する。圧電素子7aは、パネル20に取り付けられ、パネル20を振動させるための振動源として用いられる。圧電素子7aは、例えば、セラミック又は水晶を用いて形成される。圧電素子7aは、ユニモルフ、バイモルフ、又は積層型圧電素子であってよい。積層型圧電素子には、バイモルフを積層した(例えば16層又は24層積層した)積層型バイモルフ素子が含まれる。積層型の圧電素子は、例えば、PZT(チタン酸ジルコン酸鉛)からなる複数の誘電体層と、該複数の誘電体層間に配設された電極層との積層構造体から構成される。ユニモルフは、電気信号(電圧)が印加されると伸縮する。バイモルフは、電気信号(電圧)が印加されると屈曲する。
 ダイナミックレシーバ7bは、気導方式で音を出力する音出力部である。ダイナミックレシーバ7bは、電気信号を変換した音を、耳を携帯電話1Gに接触させていない人へも伝えることができる。ダイナミックレシーバ7bは、振動板をボイスコイルで振動させて音声を出力する機構である。ダイナミックレシーバ7bは、主に永久磁石とボイスコイルと振動板とを有する。ダイナミックレシーバ7bは、電気信号(音信号に応じた電圧)がボイスコイルに印加されると、ボイスコイルが電磁石となり、永久磁石に対して所定の方向に振動する。ダイナミックレシーバ7bは、ボイスコイルを振動させることで、ボイスコイルに連結された振動板を振動させる。振動板は、振動することで、周囲の空気を振動させ、音を周囲に伝達させる。ダイナミックレシーバ7bは、通話時にユーザが筐体40に耳を押し当てた状態で通話の音声を出力するレシーバとなる。ダイナミックレシーバ7bは、筐体40から耳を離しているユーザに対して音が聞こえる出力で音声を出力するスピーカにもなる。ダイナミックレシーバ7bは、例えば、着信音を出力したり、スピーカフォンモードで使用される場合の通話音声を出力したりするために用いられる。
 第1マイク8a及び第2マイク8bは、音入力部である。第1マイク8a及び第2マイク8bは、入力される音を電気信号へ変換する。
 カメラ12は、ディスプレイ2に面している物体を撮影するインカメラである。カメラ12は、撮影した画像を電気信号へ変換する。携帯電話1Gは、カメラ12に加えて、ディスプレイ2の反対側の面に面している物体を撮影するアウトカメラを備えてもよい。
 パネル20は、圧電素子7aの変形(伸縮又は屈曲)にともなって振動し、利用者がパネル20に接触させる耳の軟骨(耳介軟骨)等にその振動を音振動として伝える。パネル20は、ディスプレイ2及び圧電素子7a等を外力から保護する機能も有する。パネル20は、例えば、ガラス、又はアクリル等の合成樹脂により形成される。パネル20の形状は、例えば、板状である。パネル20は、平板であってよい。パネル20は、表面が滑らかに湾曲する曲面パネルであってもよい。
 パネル20の背面には、接合部材30により、ディスプレイ2と、圧電素子7aとが取り付けられる。圧電素子7aは、パネル20の背面に配置された状態で、筐体40の内表面と所定の距離だけ離間している。圧電素子7aは、伸縮または屈曲した状態でも、筐体40の内表面と離間しているとよい。すなわち、圧電素子7aと筐体40の内表面との間の距離は、圧電素子7aの最大変形量よりも大きいとよい。圧電素子7aは、補強部材(例えば、板金又はガラス繊維強化樹脂)を介してパネル20に取り付けられてもよい。接合部材30は、例えば、両面テープ、又は熱硬化性あるいは紫外線硬化性等を有する接着剤である。接合部材30は、無色透明のアクリル系紫外線硬化型接着剤である光学弾性樹脂でもよい。
 ディスプレイ2は、パネル20の短手方向におけるほぼ中央に配設される。圧電素子7aは、パネル20の長手方向の端部から所定の距離だけ離間した近傍に、圧電素子7aの長手方向がパネル20の短手方向と平行になるように配設される。ディスプレイ2及び圧電素子7aは、パネル20の内側の面に、平行に並べて配設される。
 パネル20の外側の面のほぼ全面には、タッチスクリーン(タッチセンサ)21が配設される。タッチスクリーン21は、パネル20に対する接触を検出する。タッチスクリーン21は、指、ペン、又はスタイラスペン等による利用者の接触操作を検出するために用いられる。タッチスクリーン21を用いて検出されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。タッチスクリーン21の検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。
 タッチスクリーン21は、音を聞くためにパネル20に接触する耳介軟骨等を検出するためにも用いられる。
 筐体40は、樹脂又は金属を用いて形成される。筐体40は、ボタン3、照度センサ4、近接センサ5、ダイナミックレシーバ7b、第1マイク8a、第2マイク8b、カメラ12、およびパネル20等を支持する。筐体40は、パネル20を介して圧電素子7aを支持する。
 筐体40に配置された各部のレイアウトを説明する。以下では、特に圧電素子7aとダイナミックレシーバ7bと第1マイク8aと第2マイク8bとの配置を説明する。携帯電話1Gは、筐体40が厚みの薄い略直方体の形状である。携帯電話1Gは、筐体40の一面にディスプレイ2及びパネル20が重なって配置されている。携帯電話1Gは、圧電素子7aとダイナミックレシーバ7bが、筐体40の一面において、ディスプレイ2及びパネル20を挟んで向かい合う位置に配置されている。具体的には、圧電素子7aは、筐体40の一面の長手方向の一方の端部40a側に配置されている。ダイナミックレシーバ7bは、筐体40の一面の長手方向の他方の端部40b側に配置されている。本実施形態の筐体40の一面は、長方形形状であり、長手方向の端である端部40a、40bは、短辺となる。このように、携帯電話1Gは、圧電素子7aが筐体40の一方の端部40aに配置され、ダイナミックレシーバ7bが筐体40の他方の端部40bに配置されている。さらに、圧電素子7aは、筐体40の一面の短手方向における中央から一方の端部近傍まで配置されている。ダイナミックレシーバ7bは、筐体40の一面の短手方向における他方の端部側に配置されている。圧電素子7aとダイナミックレシーバ7bとは、筐体40の一面の短手方向においても異なる端部側にそれぞれ配置されている。つまり、圧電素子7aとダイナミックレシーバ7bとは、筐体40の一面において、長手方向及び短手方向の異なる端部側に配置されている。
 携帯電話1Gは、筐体40の一方の端部40a側、つまり圧電素子7aの近傍に照度センサ4、近接センサ5、カメラ12、第2マイク8bが配置されている。携帯電話1Gは、筐体40の他方の端部40b側に第1マイク8aが配置されている。このように、携帯電話1Gは、第2マイク8bが筐体40の一方の端部40aに配置され、第1マイク8aが筐体40の他方の端部40bに配置されている。したがって、第1マイク8aは、圧電素子7aが配置されている端部40aとは反対側の端部40bに配置される。第2マイク8bは、ダイナミックレシーバ7bが配置されている端部40bとは反対側の端部40aに配置される。第1マイク8aと第2マイク8bとは、筐体40の一面の短手方向においても異なる端部側にそれぞれ配置されている。つまり、第1マイク8aと第2マイク8bとは、筐体40の一面において対角線上の位置となる最も離れている角の近傍にそれぞれ配置されている。
 図35から図38を参照しながら、実施形態10に係る携帯電話1Gによる音の出力についてより詳細に説明する。図37は、パネル20の形状の例を示す図である。図38は、パネル20の振動の例を示す図である。
 圧電素子7aには、出力する音に応じた電気信号が印加される。圧電素子7aには、例えば、外耳道を介する気導音によって音を伝える所謂パネルスピーカの印加電圧である±5Vよりも高い、±15Vが印加されてもよい。これにより、利用者が、例えば、3N以上の力(5N~10Nの力)でパネル20に自身の体の一部を押し付けた場合であっても、パネル20に十分な振動を発生させ、利用者の体の一部を介して伝わる振動音を発生させることができる。圧電素子7aに印加される電圧は、パネル20の筐体40に対する固定強度、又は圧電素子7aの性能等に応じて適宜調整可能である。
 電気信号が印加されると、圧電素子7aは長手方向に伸縮又は屈曲する。圧電素子7aが取り付けられたパネル20は、圧電素子7aの伸縮又は屈曲に合わせて変形する。これにより、パネル20は、振動し、気導音を発生させる。さらに、利用者が体の一部(例えば、耳介軟骨)をパネル20に接触させた場合、パネル20は、体の一部を介して利用者に伝導する気導音及び振動音を発生させる。すなわち、パネル20は、圧電素子7aの変形にともなって、パネル20に接触する物体に対して振動音として知覚される周波数で振動する。パネル20は、圧電素子7aの伸縮または屈曲によって湾曲する。パネル20は、圧電素子7aによって直接的に曲げられる。「パネル20が圧電素子によって直接的に曲げられる」とは、従来のパネルスピーカで採用されているような、圧電素子をケーシング内に配設して構成される圧電アクチュエータの慣性力によりパネルの特定の領域が加振されパネルが変形する現象とは異なる。「パネル20が圧電素子によって直接的に曲げられる」とは、圧電素子の伸縮または屈曲(湾曲)が、接合部材を介して、或いは接合部材及び後述の補強部材31を介して、直にパネルを曲げることを意味する。
 例えば、圧電素子7aに、通話の相手の音声、又は着信音、音楽等の音データに応じた電気信号が印加されると、パネル20は、電気信号に対応する気導音及び振動音を発生させる。圧電素子7a及びパネル20を介して出力される音信号は、後述するストレージ9に記憶されている音データに基づくものであってもよい。圧電素子7a及びパネル20を介して出力される音信号は、外部のサーバ等に記憶され、後述する通信ユニット6によりネットワークを介して取得される音データに基づくものであってもよい。
 本実施形態において、パネル20は、利用者の耳とほぼ同じ大きさであってよい。また、パネル20は、図37に示すように、利用者の耳よりも大きなサイズであってもよい。この場合、利用者は、音を聞くときに耳の外周部のほぼ全体をパネル20に接触させることができる。このようにして音を聞くことにより、周囲音(ノイズ)が外耳道に入り難くなる。本実施形態では、少なくとも、パネル20は、人間の対耳輪下脚(下対輪脚)から対耳珠までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から対耳輪までの間の距離に相当する短手方向(又は長手方向)の長さとを有する領域よりも広い領域が振動する。パネル20は、耳輪における対耳輪上脚(上対輪脚)近傍の部位から耳垂までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から耳輪における対耳輪近傍の部位までの間の距離に相当する短手方向(又は長手方向)の長さを有する領域が振動してもよい。上記の長さおよび幅を有する領域は、長方形状の領域であってもよいし、上記の長手方向の長さを長径、上記の短手方向の長さを短径とする楕円形状であってもよい。人間の耳の平均的な大きさは、例えば、社団法人人間生活工学研究センター(HQL)作成の日本人の人体寸法データベース(1992-1994)等を参照すれば知ることができる。
 図38に示すように、パネル20は、圧電素子7aが取り付けられた取付領域20aだけでなく、取付領域20aから離れた領域も振動する。パネル20は、振動する領域において、当該パネル20の主面と交差する方向に振動する箇所を複数有し、当該複数の箇所の各々において、振動の振幅の値が、時間とともにプラスからマイナスに、あるいはその逆に変化する。パネル20は、それぞれの瞬間において、振動の振幅が相対的に大きい部分と振動の振幅が相対的に小さい部分とがパネル20の略全体に一見ランダム又は規則的に分布した振動をする。すなわち、パネル20全域にわたって、複数の波の振動が検出される。上記のように圧電素子7aに対して印加される電圧が±15Vであれば、利用者が例えば5N~10Nの力で自身の体にパネル20を押し付けた場合であっても、パネル20の上述した振動は減衰しにくい。このため、利用者は、パネル20上の取付領域20aから離れた領域に耳を接触させても、振動音を聞くことができる。パネル20は、圧電素子7aによってその上部が直接的に曲げられ、当該上部に比して下部では振動が減衰する。パネル20は、圧電素子7aの長辺方向において該圧電素子7aの直上がその周囲と比較して最も高く隆起するように、圧電素子7aによって曲げられる。
 本実施形態では、ディスプレイ2がパネル20に取り付けられている。このため、パネル20の下部(ディスプレイ2が取り付けられている側)は、剛性が上がり、パネル20の上部(圧電素子7aが取り付けられている側)と比べて、振動が小さい。このため、パネル20の下部において、パネル20が振動することによる気導音の音漏れが低減される。
 携帯電話1Gは、パネル20の振動により、気導音と、利用者の体の一部(例えば耳介軟骨)を介する振動音として音を利用者に伝えることができる。そのため、携帯電話1Gは、ダイナミックレシーバ7bと同等の音量の音を出力する場合、空気の振動により携帯電話1Gの周囲へ伝わる音を、ダイナミックスピーカのみを有する電子機器と比較して、少なくすることができる。このような特徴は、例えば、録音されたメッセージを電車内のような近くに他人がいる場所で聞く場合等に好適である。
 さらに、携帯電話1Gは、パネル20の振動により利用者に振動音を伝える。そのため、利用者は、イヤホン又はヘッドホンを身につけていても、それらに携帯電話1Gを接触させることで、イヤホン又はヘッドホン及び体の一部を介して、パネル20の振動による振動音を聞くことができる。
 さらに、携帯電話1Gは、パネル20の振動により音を伝える。そのため、パネル20が発する音を外部に伝えるための開口部(放音口)を筐体40に形成する必要がない。このため、防水構造を実現する場合に、構造を簡略化することができる。携帯電話1Gは、防水構造を実現するために、気体は通すが液体は通さない部材によってダイナミックスピーカ7bの放音口等の開口部を閉塞する構造を採用してもよい。気体は通すが液体は通さない部材は、例えば、ゴアテックス(登録商標)である。
 図39を参照しながら、第2マイク8bの構成について説明する。図39では、第2マイク8bについて説明するが、第1マイク8aも同様の構成である。図39は、図35に示す携帯電話1Gのi-i線断面図である。第2マイク8bは、筐体40の内部に配置されている。第2マイク8bは、マイク本体50と、遮音部材52、53と、を有する。筐体40は、パネル20及びタッチスクリーン21が配置されている面にマイク穴54が形成されている。マイク穴54は、マイク本体50と向かい合う位置に形成されている。マイク穴54により、筐体40の内部におけるマイク本体50近傍の空間と、筐体40の外部の空間とが連通される。筐体40の外部の空間を伝播する音は、マイク穴54を通ってマイク本体50に到達する。
 マイク本体50は、収音つまり音を検出する部分である。マイク本体50は、筐体40の内部のマイク穴54と向かい合う位置に配置されている。マイク本体50は、マイク穴54と間隔をあけた位置に配置されている。遮音部材52は、筐体40の内部のマイク本体50とマイク穴54との間に配置されている。遮音部材52は、マイク本体50とマイク穴54との間の空間を囲うように配置されており、マイク本体50とマイク穴54との間の空間を、筐体40の内部から遮断している。これにより、遮音部材52は、筐体40の内部の音がマイク本体50に到達しにくい状態とする。第2マイク8bは、筐体40の外側からマイク穴54を通過して、マイク本体50に到達した音を検出する。
 ここで、図39では、筐体40のパネル20及びタッチスクリーン21が配置されている面にマイク穴54が形成されるがこれに限定されない。マイク穴54は、筐体40の側面、つまり筐体40の厚さ方向を含む面に形成されてもよい。
 図40は、第2マイクの他の構成の概略構成を示す断面図である。図40に示す第2マイク8cは、筐体40の内部に配置されている。第2マイク8cは、マイク本体50と、遮音部材62、63と、を有する。筐体40は、側面にマイク穴64が形成されている。筐体40の側面とは、パネル20及びタッチスクリーン21が配置されている面に繋がっている面であり、長手方向の端部40aとなる面である。
 マイク本体50は、音を検出する部分である。マイク本体50は、筐体40の内部で、パネル20及びタッチスクリーン21が配置されている面とは反対側に設置されている。マイク本体50は、筐体40の外側からマイク穴64を覗いても見えない位置に配置されている。マイク本体50は、マイク穴64と間隔をあけた位置に配置されている。遮音部材62、63は、筐体40の内部のマイク本体50とマイク穴64との間に配置されている。遮音部材62、63は、マイク本体50とマイク穴64との間の空間を囲うように配置されており、マイク本体50とマイク穴64との間の空間を、筐体40の内部から遮断している。これにより、遮音部材62、63は、筐体40の内部の音がマイク本体50に到達しにくい状態とする。遮音部材62、63は、マイク穴64を通過した音を、マイク穴64を覗いても見えない位置に配置されたマイク本体50に案内する。第2マイク8cは、筐体40の外側からマイク穴64を通過して、マイク本体50に到達した音を検出する。第2マイク8cは、マイク穴64を筐体40の側面に設けることで、使用時にマイクが塞がれにくくすることができる。これにより、より好適に音を検出することができる。
 図41を参照しながら、携帯電話1Gの機能的な構成について説明する。図41は、携帯電話1Gのブロック図である。図41に示すように、携帯電話1Gは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、圧電素子7aと、ダイナミックレシーバ7bと、第1マイク8aと、第2マイク8bと、ストレージ9と、コントローラ10と、カメラ12と、操作検出ユニット16と、バイブレータ18と、タッチスクリーン21とを備える。
 通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
 ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(RandomAccessMemory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2に画面を表示させ、タッチスクリーン21によって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
 ストレージ9は、例えば、制御プログラム9A、通話アプリケーション9B、音楽再生アプリケーション9C、動画再生アプリケーション9D、及び設定データ9Zを記憶する。通話アプリケーション9Bは、無線通信による通話のための通話機能を提供する。音楽再生アプリケーション9Cは、音楽データから音を再生するための音楽再生機能を提供する。動画再生アプリケーション9Dは、動画データから動画及び音を再生するための動画再生機能を提供する。設定データ9Zは、携帯電話1Gの動作に関連する各種の設定に関する情報を含む。
 制御プログラム9Aは、携帯電話1Gを稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、タッチスクリーン21によって検出される接触に基づいて利用者の操作を判定し、判定された操作に対応するプログラムを起動する。制御プログラム9Aが提供する機能には、音声出力時に使用する制御モードを決定する制御を行う機能、決定した制御モードに基づいて圧電素子7aと、ダイナミックレシーバ7bと、第1マイク8aと、第2マイク8bとの制御を行う機能が含まれる。制御プログラム9Aが提供する機能は、通話アプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
 コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、及びFPGA(Field-Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、携帯電話1Gの動作を統括的に制御して各種の機能を実現する。
 具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2、通信ユニット6、圧電素子7a、ダイナミックレシーバ7b、第1マイク8a、第2マイク8b及びバイブレータ18を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、ボタン3、照度センサ4、近接センサ5、カメラ12、操作検出ユニット16、及びタッチスクリーン21を含むが、これらに限定されない。
 コントローラ10は、例えば、制御プログラム9Aを実行することにより、音声出力時に使用する制御モードを決定する制御を実行する。コントローラ10は、例えば、制御プログラム9Aを実行することにより、決定した制御モードに基づいて圧電素子7aと、ダイナミックレシーバ7bと、第1マイク8aと、第2マイク8bとの制御を実行する。
 操作検出ユニット16は、携帯電話1Gに対してなされた、例えば接触操作や押圧操作を検出する。操作検出ユニット16は、操作を検出するために、タッチセンサあるいはキー構造を備える。バイブレータ18は、携帯電話1Gの一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータを有する。バイブレータ18による振動は、音を伝えるためではなく、着信等の各種のイベントを利用者に報知するために用いられる。
 図41においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図41においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu-ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。
 図41に示した携帯電話1Gの構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、携帯電話1Gは、操作のためのボタンとして、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。
 図42、図43を参照しながら、音声出力時に使用する制御モードを決定する制御、及び、決定した制御モードに基づいて圧電素子7aと、ダイナミックレシーバ7bと、第1マイク8aと、第2マイク8bとの制御について説明する。図42は、通話時の制御の処理手順を示すフローチャートである。図43は、音声の出力モードの制御の処理手順を示すフローチャートである。図42、図43に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図42、図43は、他の通信装置と音声通話を行う際の処理として説明する。音声通話で実行される各種処理は、コントローラ10が、通話アプリケーション9Bを実行し、通信ユニット6を用いて実行する。
 コントローラ10は、ステップS1020として、通話が開始されたかを判定する。コントローラ10は、ステップS1020で通話が開始されていない(No)と判定した場合、ステップS1020に進む。コントローラ10は、ステップS1020で通話が開始された(Yes)と判定した場合、ステップS1022として操作検出ユニット16で操作を検出する。コントローラ10は、ステップS1022で操作を検出したら、ステップS1024として、レシーバ及びマイクの設定処理を行い、ステップS1026に進む。
 図43を用いて、ステップS1024の処理を説明する。コントローラ10は、ステップS1024として、検出した携帯電話1Gの操作に基づいてレシーバ及びマイクの設定処理を行う。コントローラ10は、ステップS1040として、第1モードを選択する操作であるかを判定する。
 コントローラ10は、ステップS1040で、第1モードを選択する操作である(Yes)と判定した場合、ステップS1042として圧電素子7a及びパネル20により上記の気導音と振動音とを発生させる方式(第1モード)を選択する。そして、ステップS1044としてダイナミックレシーバ7bを停止し、ステップS1046として、第1マイク8aを受話用マイクに設定する。そして、ステップS1048として、第2マイク8bをノイズキャンセル用マイクに設定し、本処理を終了する。コントローラ10は、本処理を終了したら、ステップS1026に進む。
 コントローラ10は、ステップS1042からステップS1048の処理を実行することで、圧電素子7a及びパネル20により上記の気導音と振動音とを発生させ、圧電素子7aとは反対側に配置されている第1マイク8aをマイクとして、通話を実行する。コントローラ10は、圧電素子7aの近傍に配置された第2マイク8bで検出した音をノイズキャンセルに用いる。
 コントローラ10は、ステップS1040で、第1モードを選択する操作ではない(No)あるいは第2モードを選択する操作である、と判定した場合、ステップS1052としてダイナミックレシーバ7bを通話用レシーバに設定(第2モード)する。そして、ステップS1054として圧電素子7aへの電気信号の印加を停止し、ステップS1056として、第2マイク8bを受話用マイクに設定する。そして、ステップS1058として、第1マイク8aをノイズキャンセル用マイクに設定し、本処理を終了する。コントローラ10は、本処理を終了したら、ステップS1026に進む。
 コントローラ10は、ステップS1052からステップS1058の処理を実行することで、ダイナミックレシーバ7bをレシーバとし、ダイナミックレシーバ7bとは反対側に配置されている第2マイク8bをマイクとして、通話を実行する。コントローラ10は、ダイナミックレシーバ7bの近傍に配置された第1マイク8aで検出した音をノイズキャンセルに用いる。
 コントローラ10は、ステップS1024で図43に示す設定処理を実行したら、図42に示す処理と平行して、実行した設定に基づいて通話音声を処理する。コントローラ10は、ステップS1024で設定処理を実行したら、ステップS1026として、通話終了かを判定する。
 コントローラ10は、ステップS1026で通話終了ではない(No)と判定した場合、ステップS1028として操作検出ユニット16で操作を検出し、ステップS1030としてモードの変更があるかを判定する。つまり、コントローラ10は、第1モードから第2モードへ変更する操作があったか、または第2モードから第1モードへ変更する操作があったかを判定する。
 コントローラ10は、ステップS1030でモードの変更なし(No)、つまり現在の設定と同じモードであると判定した場合、ステップS1026に進む。コントローラ10は、ステップS1030でモードの変更あり(Yes)、つまり現在の設定と異なるモードであると判定した場合、ステップS1024に進み、レシーバ及びマイクの設定処理を実行する。
 コントローラ10は、ステップS1026で通話終了である(Yes)と判定した場合、本処理を終了する。
 携帯電話1Gは、図42及び図43に示すように、ステップS1042からステップS1048の設定で圧電素子7a及びパネル20により上記の気導音と振動音とを発生させる第1モードと、ステップS1052からステップS1058の設定で通話用レシーバにダイナミックレシーバ7bを用いる第2モードと、の2つのモードで通話を行うことができる。これにより、ユーザは、周りの環境や、用途に応じて使用するレシーバを切り換えることができる。例えば、ユーザは、周りがうるさくてダイナミックレシーバ7bで音声を出力すると、周囲の雑音にまぎれて聞こえにくい場合、第1モードで音声を出力させることで、うるさい環境でも好適に通話の音声を聞くことができる。ユーザは、周りが静かな環境の場合、第2モードで適切な音量で音声を出力させることで、音漏れを好適に抑制することができる。つまり、ユーザは、第2モードでダイナミックレシーバ7bから気導方式で耳に適切な音量の音を出力することで、ユーザの耳よりも遠い位置に気導方式で音が伝わることを抑制することができる。これにより、音漏れを抑制することができる。
 携帯電話1Gは、携帯電話1Gの操作に基づいて第1モードで通話を行うか、第2モードで通話を行うかを切り換える。これにより、ユーザは、携帯電話1Gの操作を変えることで、簡単に音声を出力させるモードを切り替えることができる。
 携帯電話1Gは、圧電素子7aとダイナミックレシーバ7bとのそれぞれの周辺に第1マイク8aと第2マイク8bをそれぞれ配置することで、一方のマイクを通話用のマイクとし、他方のマイクをノイズキャンセル用のマイクとすることができる。これにより、携帯電話1Gは、第1モード、第2モードのいずれの場合でも、ノイズキャンセルを行いかつ通話を行うことができる。
 携帯電話1Gは、圧電素子7aとダイナミックレシーバ7bとを筐体40の対向する端部に配置し、第1マイク8aと第2マイク8bとを筐体40の対向する端部に配置することで、第1モードと第2モードのいずれの場合もレシーバとマイクとを好適に切り換えることができる。
 携帯電話1Gは、本実施形態のように通話時に第1モードと第2モードの設定処理を行うことが好ましい。これにより、必要な場合に選択的に処理を実行することができ、消費電力を低減することができる。
 携帯電話1Gは、ダイナミックレシーバ7bをレシーバとして使用しない場合、スピーカとして使用することが好ましい。これにより、携帯電話1Gは、1つのダイナミックレシーバ7bで、気導方式で音を出力するレシーバの機能と、着信音等を通知するスピーカの機能を1つのデバイスで実現することができる。これにより、携帯電話1Gは、搭載するデバイスを増やすことなく、複数の出力方式のレシーバを設置することができる。
 ここで、図42では、通話開始をトリガーとしたが、発呼及び着呼のいずれかがあったかをステップS1022以降の処理を開始するトリガーとしてもよい。
 携帯電話1Gは、切り替え禁止の操作が入力されている場合は、音声の出力のモードを切り替えないことで、ユーザの意図したモードで音声の出力を継続することができる。
(実施形態11)
 上記の実施形態10では、タッチスクリーン21がパネル20のほぼ全面に配設される例について説明したが、タッチスクリーン21は、パネル20と重ならないように配設されてもよい。図44は、実施形態11に係る携帯電話の正面図である。図45は、図44に示す携帯電話のj-j線断面図である。図44及び図45を用いて、タッチスクリーン21がパネル20と重ならないように配設される携帯電話1Hについて説明する。
 図44及び図45に示すように、携帯電話1Hにおいて、ディスプレイ2は、パネル20の内側ではなく、パネル20と同一平面をなすように、パネル20と並べて配設される。タッチスクリーン21は、ディスプレイ2の表側のほぼ全面を覆うように配設される。すなわち、タッチスクリーン21及びディスプレイ2は、所謂タッチパネル(タッチスクリーンディスプレイ)を構成する。
 パネル20の背面の長手方向におけるほぼ中央から一方の端部近傍までの範囲には、接合部材30により、圧電素子7aが取り付けられる。パネル20は、圧電素子7aに電気信号が印加されると、圧電素子7aの変形(伸縮又は屈曲)に応じて振動し、気導音と、パネル20に接触する人体の一部(例えば、耳介軟骨)を介して伝わる気導音及び振動音とを発生する。
 パネル20の表側の面にはタッチスクリーン21が配設されないが、パネル20は、タッチスクリーン21が配設されるディスプレイ2の近傍に配置される。
 携帯電話1Hのように、パネル20をタッチスクリーン21と重ならないように配設した場合でも、筐体40の一面における圧電素子7aの反対側の端部にダイナミックレシーバ7bを設けることで、上記の実施形態10と同様に、2つのモードで音声を出力することができ、ユーザにとって、好適な方法で音声を出力することができる。
(実施形態12)
 上記の実施形態10及び実施形態11では、タッチスクリーン21の少なくとも一部がディスプレイ2と重なるように配設される例について説明したが、タッチスクリーン21は、ディスプレイ2と重ならないように配設されてもよい。図46は、実施形態12に係る携帯電話の正面図である。図47は、図46に示す携帯電話のk-k線断面図である。図46及び図47を用いて、タッチスクリーン21がパネル20と重ならないように配設される携帯電話1Iについて説明する。
 図46及び図47に示すように、携帯電話1Iにおいて、ディスプレイ2は、パネル20の内側ではなく、パネル20と同一平面をなすように、パネル20と並べて配設される。
 パネル20の背面のほぼ中央には、接合部材30により、圧電素子7aが取り付けられる。パネル20と圧電素子7aとの間には、補強部材31が配設される。補強部材31は、例えば樹脂製の板、板金又はガラス繊維を含む板である。すなわち、携帯電話1Iにおいては、圧電素子7aと補強部材31とが接合部材30により接着され、さらに補強部材31とパネル20とが接合部材30で接着される。なお、圧電素子7aは、パネル20の中央に設けられていなくともよい。
 補強部材31は、例えばゴムまたはシリコン等の弾性部材である。補強部材31は、例えばある程度の弾性を有するアルミニウム等から成る金属板であってもよい。補強部材31は、例えばSUS304等のステンレス板であってもよい。ステンレス板等の金属板の厚さは、圧電素子7aに印加される電圧値等に応じて、例えば0.2mm~0.8mmのものが適宜用いられる。補強部材31は、例えば樹脂製の板であってもよい。ここでいう樹脂製の板を形成する樹脂としては、例えばポリアミド系樹脂が挙げられる。ポリアミド系樹脂には、例えば、メタキシリレンジアミンとアジピン酸とから得られる結晶性の熱可塑性樹脂から成り、強度および弾性に富むレニー(登録商標)がある。このようなポリアミド系樹脂は、それ自体をベースポリマーとして、ガラス繊維、金属繊維または炭素繊維等により強化された強化樹脂であってもよい。強化樹脂は、ポリアミド系樹脂に対するガラス繊維、金属繊維または炭素繊維等の付加量に応じて、強度および弾性が適宜調整される。強化樹脂は、例えば、ガラス繊維、金属繊維または炭素繊維等を編みこんで形成された基材に樹脂を含浸させ、硬化させて形成される。強化樹脂は、液状の樹脂に細かく切断された繊維片を混入させたのちに硬化させて形成されるものであってもよい。強化樹脂は、繊維を編みこんだ基材と樹脂層とを積層したものであってもよい。
 圧電素子7aとパネル20との間に補強部材31を配設することにより、以下の効果が得られる。パネル20に外力が加わった場合に、その外力が圧電素子7aに伝わって圧電素子7aが破損する可能性を低減することができる。例えば携帯電話1Iが地面に落下することでパネル20に対して外力が加わると、当該外力はまず補強部材31に伝わる。補強部材31は、所定の弾性を有しているため、パネル20から伝わる外力により弾性変形する。そのため、パネル20に対して加わった外力は補強部材31により少なくとも一部が吸収され、圧電素子7aに伝達される外力が低減される。結果、圧電素子7aの破損を低減することができる。補強部材31が圧電素子7aと筐体40との間に配置される場合、例えば携帯電話1Iが地面に落下することで筐体40が変形し、変形した筐体40が圧電素子7aに衝突して圧電素子7aが破損する可能性を低減できる。
 圧電素子7aの伸縮または屈曲による振動は、まず補強部材31に伝達され、さらにパネル20に伝達される。すなわち、圧電素子7aは、まず圧電素子7aよりも大きな弾性係数を有する補強部材31を振動させ、さらにパネル20を振動させることになる。したがって、携帯電話1Iは、補強部材31を備えず、圧電素子7aが接合部材30によりパネル20に接合される構造と比較して、圧電素子7の変形が過剰になりにくくすることができる。これにより、パネル20の変形量(変形の程度)を調節することができる。この構造は、圧電素子7aの変形を阻害しにくいパネル20の場合に特に有効である。
 さらに、圧電素子7aとパネル20との間に補強部材31を配設することにより、図48に示すように、パネル20の共振周波数が下がり、低周波帯域の音響特性が向上する。図48は、補強部材31による周波数特性の変化例を示す図である。図48には、上記のSUS304のような板金を補強部材31として用いた場合の周波数特性と、上記のレニーのような強化樹脂を補強部材31として用いた場合の周波数特性とが示されている。横軸は周波数を、縦軸は音圧を示す。強化樹脂を用いた場合の共振点は約2kHzであり、板金を用いた場合の共振点は約1kHzである。強化樹脂を用いた場合のディップは約4kHzであり、板金を用いた場合のディップは約3kHzである。すなわち、強化樹脂を用いた場合には、板金を用いた場合に比べて、パネル20の共振点が高い周波数領域に位置しており、周波数特性のディップがより高い周波数領域に位置している。携帯電話機の音声通話で用いられる周波数帯は300Hz~3.4kHzであるため、強化樹脂を補強部材31として用いた場合、ディップが携帯電話1Iの使用周波数帯に含まれないようにすることができる。尚、補強部材31として板金を用いる場合でも、板金を構成する金属の種類もしくは組成または板金の厚さ等を適宜調整することで、ディップが携帯電話1Iの使用周波数帯に含まれないようにすることができる。板金と強化樹脂とを比較すると、強化樹脂は、板金と比較してアンテナ性能への影響を低減することができる。強化樹脂は板金と比較して塑性変形しにくいため、音響特性が変化しにくいという利点がある。強化樹脂は板金と比較して、音発生時の温度上昇が抑えられる。補強部材31に換えて、板状の錘を接合部材30により圧電素子7aに取り付けてもよい。
 パネル20は、圧電素子7aに電気信号が印加されると、圧電素子7aの変形(伸縮又は屈曲)に応じて振動し、気導音と、パネル20に接触する人体の一部(例えば、耳介軟骨)を介して伝わる振動音とを発生する。タッチスクリーン21は、パネル20の表側のほぼ全面を覆うように配設される。
 携帯電話1Iも、上記の実施形態10及び実施形態11と同様に、圧電素子7aが配置されている端部40aとは反対側の端部にダイナミックレシーバ7bが配置されている。第1マイク8aは、ダイナミックレシーバ7bの近傍に配置されている。第2マイク8bは、圧電素子7aの近傍に配置されている。
 携帯電話1Iの場合でも、筐体40の一面において、圧電素子7aの反対側の端部にダイナミックレシーバ7bを設けることで、上記の実施形態10及び実施形態11と同様に、2つのモードで音声を出力することができ、ユーザにとって、好適な方法で音声を出力することができる。
 本出願の開示する実施形態は、当業者に明らかな事項を含むことができ、発明の要旨及び範囲を逸脱しない範囲で変形することができる。さらに、本出願の開示する実施形態及びその変形例は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。
 例えば、図41に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。
 上記実施形態10から実施形態12では、圧電素子7aとダイナミックレシーバ7bとを、筐体40の一方側の端部と他方側の端部とに配置したがこれに限定されない。携帯電話は、圧電素子7aとダイナミックレシーバ7bとを、近傍に配置してもよい。
 上記実施形態10から実施形態12では、マイク8a、8bを圧電素子7aとダイナミックレシーバ7bとの近傍にそれぞれ配置したが、これに限定されない。携帯電話は、同じマイクを通話用のマイクとして用いてもよい。この場合、携帯電話は、1つのマイクのみを備える構造としてもよいが、第1モードと第2モードのいずれでもノイズキャンセル用に用いる別のマイクを備えていてもよい。上記実施形態において、第1マイク8aと第2マイク8bは、ノイズキャンセルに用いられなくともよい。
 上記実施形態10から実施形態12では、圧電素子7aとダイナミックレシーバ7bとが、筐体40の長手方向の端部近傍に配置されるが、これに限定されない。圧電素子7aとダイナミックレシーバ7bとは、筐体40の短手方向の両端部近傍に配置されても良い。筐体40が長方形状でなく正方形状である場合、対向する両端部近傍に配置されてよい。また、上記の実施形態では、第2音発生部がダイナミックスピーカであるが、第2音発生部は、パネル20と、当該パネルに取り付けられる圧電素子であって、圧電素子7aとは別の圧電素子であってもよい。この場合、別の圧電素子は、パネル20の長手方向において圧電素子7aと反対側の端部に配置されて良い。
 上記実施形態10から実施形態12では、第1マイク8aと第2マイク8bとは、筐体40の主面において対角線上の位置に配置されているが、これに限られない。例えば、第1マイク8aと第2マイク8bとは、筐体40の一面の短手方向においても同じ端部側にそれぞれ配置されてよい。
 上記の実施形態10から実施形態12では、携帯電話の接触操作あるいは押圧操作に基づいて、第1モードを実行するか第2モードを実行するかを決定したがこれに限定されない。携帯電話は、上記の操作以外の制御条件に基づいてモードを決定してもよい。例えば、携帯電話は、音声入力された操作に基づいて第1モードを実行するか第2モードを実行するかを決定してもよい。この場合、第1マイクあるいは第2マイク等の有効となっているマイクからの音声を収集し、音声認識機能により、その音声の中に特定のキーワード、例えば「第1モード」や「第2モード」、あるいは「モード切替」といったワードを拾うと、そのワードに応じたモードに切り替えてもよい。
 携帯電話は、タッチスクリーン21で耳の形状やその向きあるいは位置を検出し、耳の形状または向き及び位置に基づいて第1モードを実行するか第2モードを実行するかを決定してもよい。例えば、携帯電話は、耳の上側が向いているほうのレシーバを用いて音声を出力するようにモードを決定してもよい。
 ここで、パネル20に接触する耳の形状または向き及び位置を、タッチスクリーン21を用いて検出する例を示したが、物体の位置を検出する検出部は、タッチスクリーン21に限定されない。例えば、物体の位置を検出する検出部は、カメラ12であってもよい。この場合、物体の位置は、カメラ12が取得する画像に基づいて検出される。
 上記の実施形態10では、携帯電話1Gとして、ディスプレイ2が接合部材30を用いてパネル20の背面に取り付けられる例を示したが、携帯電話1Gは、パネル20とディスプレイ2の間に空間ができるように構成されてもよい。パネル20とディスプレイ2の間に空間を設けることにより、パネル20が振動しやすくなり、パネル20上において振動音を聞きやすい範囲が広くなる。
 上記の実施形態10から実施形態12では、圧電素子7aをパネル20に取り付ける例を示したが、他の場所に取り付けられてもよい。例えば、圧電素子7aは、バッテリリッドに取り付けられてもよい。バッテリリッドは、筐体40に取り付けられ、バッテリを覆う部材である。バッテリリッドは、携帯電話等の携帯電子機器においてディスプレイ2と異なる面に取り付けられることが多いため、そのような構成によれば、利用者はディスプレイ2と異なる面に体の一部(例えば耳)を接触させて音を聞くことができる。
 携帯電話は、圧電素子7aが筐体40の角部(例えば四隅の少なくとも一か所)を振動させる構成であっても良い。この場合、圧電素子7aは、筐体40の角部の内面に取り付けられる構成でもよいし、中間部材をさらに備え、圧電素子7aの振動が中間部材を介して筐体40の角部に伝達される構成でもよい。この構成によれば、振動する範囲を比較的狭くできるため、振動により発生する気導音が周囲に漏れにくい。また、この構成によれば、例えば利用者が筐体40の角部を外耳道に挿入した状態で気導音と振動音とが利用者に伝わるため、周囲のノイズが利用者の外耳道に入りにくい。そのため、利用者に伝わる音の品質を向上することができる。
 上記の実施形態12では、補強部材31は板状部材であるが、補強部材31の形状はこれに限られない。補強部材31は、例えば、圧電素子7aより大きく、かつその端部が圧電素子7a側に湾曲し圧電素子7aの側部を覆う形状を有していてもよい。また、補強部材31は、例えば、板状部と、当該板状部から延設されて圧電素子7aの側部を覆う延設部とを有する形状であってもよい。この場合、延設部と圧電素子7aの側部とが、所定の距離だけ離間しているとよい。これにより、延設部が圧電素子の変形を阻害しにくくなる。
 また、パネル20は、表示パネル、操作パネル、カバーパネル、充電池を取り外し可能とするためのリッドパネルのいずれかの一部または全部を構成することができる。特に、パネル20が表示パネルのとき、圧電素子7aは、表示機能のための表示領域の外側に配置される。これにより、表示を阻害しにくいという利点がある。操作パネルは、タッチパネルを含む。また、操作パネルは、例えば折畳型携帯電話において操作キーのキートップが一体に形成され操作部側筐体の一面を構成する部材であるシートキーを含む。
 なお、パネル20と圧電素子7aとを接着する接合部材およびパネル20と筐体40とを接着する接合部材等を同一の符号を有する接合部材30として説明した。しかしながら、接合部材は、接合する対象である部材に応じて適宜異なるものが用いられてよい。
 上記の実施形態では、添付の請求項に係る装置の例として、携帯電話について説明したが、添付の請求項に係る装置は、携帯電話に限定されない。添付の請求項に係る装置は、携帯電話以外の携帯電子機器であってもよい。携帯電子機器は、例えば、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。
 上記の実施形態では、携帯電話のコントローラが音の発生を制御するが、これに限定されない。例えば、通信ユニットによりネットワークを介して受信した指示信号に基づいて音の発生が制御されても良い。例えば、Bluetooth(登録商標)又は赤外線通信等の所謂近距離通信により別の電子機器から信号を受信し、当該受信した信号に基づいて音の発生が制御されても良い。
 添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。
1A~1I 携帯電話
2 ディスプレイ
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 圧電素子
7a 圧電素子
7b ダイナミックレシーバ
8a 第1マイク
8b 第2マイク
9 ストレージ
9A 制御プログラム
9B 通話アプリケーション
9C 音楽再生アプリケーション
9D 動画再生アプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
15 姿勢検出ユニット
16 操作検出ユニット
18 バイブレータ
20 パネル
21 タッチスクリーン
30 接合部材
31 補強部材
40 筐体

Claims (50)

  1.  圧電素子と、
     前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、
     気導音を発生させる第2音発生部と、
     を備える電子機器。
  2.  前記第1音発生部は、前記圧電素子によって振動し、気導音と前記振動音とを発生させる請求項1に記載の電子機器。
  3.  前記第1音発生部及び前記第2音発生部は、所定の条件に基づいて音を発生させる請求項1に記載の電子機器。
  4.  外部の音を入力する音入力部をさらに備え、
     前記第1音発生部及び前記第2音発生部は、前記外部の音の音圧に応じて音を発生させる請求項3に記載の電子機器。
  5.  前記第1音発生部は、前記外部の音の音圧が閾値より低くない場合に音を発生させ、前記第2音発生部は、前記外部の音の音圧が前記閾値よりも低い場合に音を発生させる請求項4に記載の電子機器。
  6.  前記第2音発生部は、前記第1音発生部により音を発生させており、かつ前記外部の音の音圧が前記閾値より低い状態が一定時間経過すると、音を発生させる請求項5に記載の電子機器。
  7.  通話時に利用者により発せられる音声を入力する音声入力部をさらに備え、
     通話開始前は、前記外部の音の音圧と閾値との比較結果に応じて、前記第1音発生部及び前記第2音発生部の少なくとも一方が音を発生させ、通話開始後は、前記音声入力部により入力される前記音声を解析した解析結果に応じて、前記第1音発生部又は前記第2音発生部が音を発生させる請求項4に記載の電子機器。
  8.  前記第1音発生部及び前記第2音発生部は、位置測位処理によって得られる位置情報に基づいて、音を発生させる請求項1に記載の電子機器。
  9.  前記第1音発生部は、パネルである
     請求項1に記載の電子機器。
  10.  前記パネルは、人間の耳の対耳輪下脚から対耳珠までの間の距離に相当する長さと、耳珠から対耳輪までの間の距離に相当する幅とを有する領域よりも広い領域が振動する
     請求項9に記載の電子機器。
  11.  前記パネルは、表示パネル、操作パネル、カバーパネル、充電池を取り外し可能とするためのリッドパネルのいずれかの一部または全部を構成する
     請求項9に記載の電子機器。
  12.  前記パネルが表示パネルのとき、
     前記圧電素子は、当該表示機能のための表示領域の外側に配置されている、
     請求項11に記載の電子機器。
  13.  前記パネルは、当該パネルのいずれの箇所においても気導音と人体振動音とを伝えるための変形が発生する
     請求項9に記載の電子機器。
  14.  前記パネルは、その振動領域において、当該パネルの主面と交差する方向に振動する箇所を複数有し、当該箇所の各々において、前記振動の振幅の値が時間とともにプラスからマイナスに、あるいはその逆に変動する
     請求項9に記載の電子機器。
  15.  圧電素子と、前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、気導音を発生させる第2音発生部とを備える電子機器によって実行される制御方法であって、
     所定の条件に基づいて、前記第1音発生部及び前記第2音発生部の少なくとも一方により音を発生させるステップ
     を含む制御方法。
  16.  圧電素子と、前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、気導音を発生させる第2音発生部とを備える電子機器に、
     所定の条件に基づいて、前記第1音発生部及び前記第2音発生部の少なくとも一方により音を発生させるステップ
     を実行させる制御プログラム。
  17.  筐体と、
     圧電素子と、
     前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、
     第2音発生部と、
     姿勢検出部と、を備え、
     前記第1音発生部又は前記第2音発生部は、前記姿勢検出部の検出結果に基づいて音を発生させる
     電子機器。
  18.  前記第1音発生部は、前記圧電素子によって振動し、気導音と前記振動音とを発生させる請求項17に記載の電子機器。
  19.  前記第1音発生部は、前記圧電素子が前記第2音発生部よりも鉛直方向上側にある場合に音を発生させる請求項17に記載の電子機器。
  20.  前記第2音発生部は、前記第2音発生部が前記圧電素子よりも鉛直方向上側にある場合に音を発生させる請求項17に記載の電子機器。
  21.  音声通話の通信を行う通信部をさらに有し、
     前記第1音発生部及び前記第2音発生部の一方は、前記通信部を用いた通話時に音を発生させる請求項17に記載の電子機器。
  22.  前記圧電素子は、前記筐体の長辺方向の一方の端部近傍に配置され、
     前記第2音発生部は、前記筐体の長辺方向の他方の端部近傍に配置されている請求項17に記載の電子機器。
  23.  前記筐体の長辺方向の他方の端部近傍に配置されている第1マイクと、
     前記筐体の長辺方向の一方の端部近傍に配置されている第2マイクと、をさらに有し、
     前記第1音発生部により音を発生させる場合、前記第1マイクを前記音声通話のマイクとするとともに前記第2マイクをノイズキャンセルに用いるマイクとし、前記第2音発生部により音を発生させる場合、前記第2マイクを前記音声通話のマイクとするとともに前記第1マイクをノイズキャンセルに用いるマイクとする請求項22に記載の電子機器。
  24.  前記第1音発生部は、パネルである請求項17に記載の電子機器。
  25.  前記パネルは、前記筐体の主面に配置され、
     前記第1マイク及び前記第2マイクは、前記筐体の内部に音を検出するマイク本体が配置され、
     前記筐体は、前記第1マイク又は前記第2マイクが配置される空間と前記筐体の外部空間とを連通するマイク穴が前記主面と異なる面に形成されている請求項24に記載の電子機器。
  26.  前記パネルは、人間の耳の対耳輪下脚から対耳珠までの間の距離に相当する長さと、耳珠から対耳輪までの間の距離に相当する幅とを有する領域よりも広い領域が振動する請求項24に記載の電子機器。
  27.  前記パネルは、表示パネル、操作パネル、カバーパネル、充電池を取り外し可能とするためのリッドパネルのいずれかの一部または全部を構成する請求項24に記載の電子機器。
  28.  前記パネルが表示パネルのとき、
     前記圧電素子は、当該表示機能のための表示領域の外側に配置されている請求項27に記載の電子機器。
  29.  前記パネルは、当該パネルのいずれの箇所においても気導音と人体振動音とを伝えるための変形が発生する請求項24に記載の電子機器。
  30.  前記パネルは、その振動領域において、当該パネルの主面と交差する方向に振動する箇所を複数有し、当該箇所の各々において、前記振動の振幅の値が時間とともにプラスからマイナスに、あるいはその逆に変動する請求項24に記載の電子機器。
  31.  圧電素子と、前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、第2音発生部と、姿勢検出部と、を備える電子機器によって実行される制御方法であって、
     前記姿勢検出部の検出結果に基づいて、前記第1音発生部又は前記第2音発生部から音を発生させることを決定するステップと、
     決定した前記第1音発生部又は前記第2音発生部から音を発生させるステップと、
     を含む制御方法。
  32.  圧電素子と、前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、第2音発生部と、姿勢検出部と、を備える電子機器に、
     前記姿勢検出部の検出結果に基づいて、前記第1音発生部又は前記第2音発生部から音を発生させることを決定するステップと、
     決定した前記第1音発生部又は前記第2音発生部から音を発生させるステップと、
     を実行させる制御プログラム。
  33.  筐体と、
     圧電素子と、
     前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、
     第2音発生部と、
     操作検出部と、を備え、
     前記第1音発生部又は前記第2音発生部は、前記操作検出部の検出結果に基づいて音を発生させる
     電子機器。
  34.  前記第1音発生部は、前記圧電素子によって振動し、気導音と前記振動音とを発生させる請求項33に記載の電子機器。
  35.  前記第1音発生部は、前記操作検出部により、前記第1音発生部により音を発生させる操作が検出されると音を発生させる、請求項33に記載の電子機器。
  36.  前記第2音発生部は、前記操作検出部により、前記第2音発生部により音を発生させる操作が検出されると音を発生させる、請求項33に記載の電子機器。
  37.  音声通話の通信を行う通信部をさらに有し、
     前記第1音発生部及び前記第2音発生部の一方は、前記通信部を用いた通話時に音を発生させる請求項33に記載の電子機器。
  38.  前記圧電素子は、前記筐体の長辺方向の一方の端部近傍に配置され、
     前記第2音発生部は、前記筐体の長辺方向の他方の端部近傍に配置されている請求項33に記載の電子機器。
  39.  前記筐体の長辺方向の他方の端部近傍に配置されている第1マイクと、
     前記筐体の長辺方向の一方の端部近傍に配置されている第2マイクと、をさらに有し、
     前記第1音発生部により音を発生させる場合、前記第1マイクを前記音声通話のマイクとするとともに前記第2マイクをノイズキャンセルに用いるマイクとし、前記第2音発生部により音を発生させる場合、前記第2マイクを前記音声通話のマイクとするとともに前記第1マイクをノイズキャンセルに用いるマイクとする請求項38に記載の電子機器。
  40.  前記操作検出部は、接触検出あるいは押圧検出を行う請求項33に記載の電子機器。
  41.  前記操作検出部は、音声認識を行う請求項33に記載の電子機器。
  42.  前記第1音発生部は、パネルである請求項33に記載の電子機器。
  43.  前記パネルは、前記筐体の主面に配置され、
     前記第1マイク及び前記第2マイクは、前記筐体の内部に音を検出するマイク本体が配置され、
     前記筐体は、前記第1マイク又は前記第2マイクが配置される空間と前記筐体の外部空間とを連通するマイク穴が前記主面と異なる面に形成されている請求項42に記載の電子機器。
  44.  前記パネルは、人間の耳の対耳輪下脚から対耳珠までの間の距離に相当する長さと、耳珠から対耳輪までの間の距離に相当する幅とを有する領域よりも広い領域が振動する請求項42に記載の電子機器。
  45.  前記パネルは、表示パネル、操作パネル、カバーパネル、充電池を取り外し可能とするためのリッドパネルのいずれかの一部または全部を構成する請求項42に記載の電子機器。
  46.  前記パネルが表示パネルのとき、
     前記圧電素子は、当該表示機能のための表示領域の外側に配置されている請求項45に記載の電子機器。
  47.  前記パネルは、当該パネルのいずれの箇所においても気導音と人体振動音とを伝えるための変形が発生する請求項42に記載の電子機器。
  48.  前記パネルは、その振動領域において、当該パネルの主面と交差する方向に振動する箇所を複数有し、当該箇所の各々において、前記振動の振幅の値が時間とともにプラスからマイナスに、あるいはその逆に変動する請求項42に記載の電子機器。
  49.  圧電素子と、前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、第2音発生部と、操作検出部と、を備える電子機器によって実行される制御方法であって、
     前記操作検出部の検出結果に基づいて、前記第1音発生部又は前記第2音発生部から音を発生させることを決定するステップと、
     決定した前記第1音発生部又は前記第2音発生部から音を発生させるステップと、
     を含む制御方法。
  50.  圧電素子と、前記圧電素子によって振動し、人体の一部を振動させて伝わる振動音を発生させる第1音発生部と、第2音発生部と、操作検出部と、を備える電子機器に、
     前記操作検出部の検出結果に基づいて、前記第1音発生部又は前記第2音発生部から音を発生させることを決定するステップと、
     決定した前記第1音発生部又は前記第2音発生部から音を発生させるステップと、
     を実行させる制御プログラム。
PCT/JP2013/062568 2012-05-01 2013-04-30 電子機器、制御方法及び制御プログラム WO2013164999A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/375,441 US9998836B2 (en) 2012-05-01 2013-04-30 Electronic device, control method, and control program

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2012104970A JP6099320B2 (ja) 2012-05-01 2012-05-01 電子機器、制御方法及び制御プログラム
JP2012-104970 2012-05-01
JP2012-104971 2012-05-01
JP2012104971A JP2013232853A (ja) 2012-05-01 2012-05-01 電子機器、制御方法、及び制御プログラム
JP2012120086A JP6110078B2 (ja) 2012-05-25 2012-05-25 電子機器、制御方法、及び制御プログラム
JP2012-120086 2012-05-25

Publications (1)

Publication Number Publication Date
WO2013164999A1 true WO2013164999A1 (ja) 2013-11-07

Family

ID=49514398

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/062568 WO2013164999A1 (ja) 2012-05-01 2013-04-30 電子機器、制御方法及び制御プログラム

Country Status (2)

Country Link
US (1) US9998836B2 (ja)
WO (1) WO2013164999A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160045463A (ko) * 2014-10-17 2016-04-27 삼성전자주식회사 오디오 제어 방법 및 그 전자 장치

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101824822B1 (ko) 2010-12-27 2018-02-01 로무 가부시키가이샤 송수화 유닛 및 수화 유닛
TWI666910B (zh) 2012-01-20 2019-07-21 日商精良股份有限公司 mobile phone
JP2013236130A (ja) * 2012-05-02 2013-11-21 Kyocera Corp 電子機器、制御方法、及び制御プログラム
JP6075592B2 (ja) * 2012-05-22 2017-02-08 京セラ株式会社 電子機器
KR20180061399A (ko) 2012-06-29 2018-06-07 로무 가부시키가이샤 스테레오 이어폰
US9774958B2 (en) * 2013-05-30 2017-09-26 Kyocera Corporation Unit, electronic device, and method of manufacturing electronic device
KR101877652B1 (ko) 2013-08-23 2018-07-12 로무 가부시키가이샤 휴대 전화
JP6551919B2 (ja) 2014-08-20 2019-07-31 株式会社ファインウェル 見守りシステム、見守り検知装置および見守り通報装置
US10325591B1 (en) * 2014-09-05 2019-06-18 Amazon Technologies, Inc. Identifying and suppressing interfering audio content
CN107113481B (zh) 2014-12-18 2019-06-28 株式会社精好 利用电磁型振动单元的软骨传导接听装置及电磁型振动单元
KR102056550B1 (ko) 2015-07-15 2019-12-16 파인웰 씨오., 엘티디 로봇 및 로봇 시스템
JP6551929B2 (ja) 2015-09-16 2019-07-31 株式会社ファインウェル 受話機能を有する腕時計
US10778824B2 (en) 2016-01-19 2020-09-15 Finewell Co., Ltd. Pen-type handset
KR102430582B1 (ko) * 2017-11-28 2022-08-08 엘지디스플레이 주식회사 표시 장치
JP2020053948A (ja) 2018-09-28 2020-04-02 株式会社ファインウェル 聴取装置
CN110191404B (zh) * 2019-06-12 2020-12-15 瑞声科技(南京)有限公司 一种屏幕发声装置
CN112911466B (zh) * 2019-11-19 2023-04-28 中兴通讯股份有限公司 声音接收单元选择的方法和装置、终端、电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002095060A (ja) * 2000-09-20 2002-03-29 Nec Access Technica Ltd 携帯情報端末装置
JP2003143253A (ja) * 2001-11-02 2003-05-16 Nec Viewtechnology Ltd 対話型端末装置、その通話制御方法、およびそのプログラム
JP2004187031A (ja) * 2002-12-04 2004-07-02 Temuko Japan:Kk 骨伝導スピーカーを用いた携帯電話機
JP2005348193A (ja) * 2004-06-04 2005-12-15 Nec Tokin Corp 受話器
JP2006067049A (ja) * 2004-08-25 2006-03-09 Nec Tokin Corp 複合型スピーカ
JP2007019898A (ja) * 2005-07-08 2007-01-25 Toshiba Corp 携帯電話機
JP2007082009A (ja) * 2005-09-15 2007-03-29 Nec Saitama Ltd パネルスピーカ
JP2007189578A (ja) * 2006-01-16 2007-07-26 Nec Tokin Corp 受話装置及び携帯電話機
JP2011091719A (ja) * 2009-10-26 2011-05-06 Authentic Ltd 撓み振動型アクチュエータ

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0626328U (ja) * 1992-08-31 1994-04-08 パイオニア株式会社 トランシーバ
EP0625864A1 (en) * 1993-05-18 1994-11-23 Nec Corporation Differential microphone on a portable radio telephone
JPH0936940A (ja) 1995-07-14 1997-02-07 Hitachi Ltd 音声入力装置
JP3674990B2 (ja) * 1995-08-21 2005-07-27 セイコーエプソン株式会社 音声認識対話装置および音声認識対話処理方法
JPH10271195A (ja) 1997-03-25 1998-10-09 Mitsubishi Electric Corp 移動体通信端末
FI109062B (fi) 1998-12-23 2002-05-15 Nokia Corp Matkapuhelimen lisälaite erityisesti kaiutintoimintoa varten ja järjestely
JP3949912B2 (ja) * 2000-08-08 2007-07-25 株式会社エヌ・ティ・ティ・ドコモ 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法
US20070037605A1 (en) * 2000-08-29 2007-02-15 Logan James D Methods and apparatus for controlling cellular and portable phones
JP2002232542A (ja) 2001-02-06 2002-08-16 Taisei Plas Co Ltd 携帯用通信機器
EP1271998B1 (en) * 2001-06-28 2008-04-16 Matsushita Electric Industrial Co., Ltd. Speaker system, mobile terminal device, and electronic device
EP2204688B1 (en) * 2002-09-03 2011-10-26 Sharp Kabushiki Kaisha Liquid crystal display device having sound output function and the like and an electronic device using the same
JP4269019B2 (ja) 2003-12-10 2009-05-27 京セラ株式会社 携帯通信端末機
US7499686B2 (en) * 2004-02-24 2009-03-03 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement on a mobile device
WO2005096664A1 (ja) * 2004-03-31 2005-10-13 Temco Japan Co., Ltd. ハイブリッドスピーカ及びハイブリッドスピーカユニット
JP4715208B2 (ja) 2005-01-14 2011-07-06 日本電気株式会社 携帯電話機
JP2006279959A (ja) * 2005-03-25 2006-10-12 Shogen Nan 静電容量感知センサーを利用した自動制御イヤホンシステム
US8448326B2 (en) * 2005-04-08 2013-05-28 Microsoft Corporation Method of manufacturing an accelerometer
JP2007194757A (ja) 2006-01-18 2007-08-02 Nec Access Technica Ltd 折り畳み型携帯電話機
US20080112581A1 (en) * 2006-11-09 2008-05-15 Stanley Kim Vibrating earphone with enhanced base sound effect
KR100892095B1 (ko) * 2007-01-23 2009-04-06 삼성전자주식회사 헤드셋에서 송수신 음성신호 처리 장치 및 방법
WO2008095013A1 (en) * 2007-01-30 2008-08-07 Personics Holdings Inc. Sound pressure level monitoring and notification system
EP2007167A3 (en) * 2007-06-21 2013-01-23 Funai Electric Advanced Applied Technology Research Institute Inc. Voice input-output device and communication device
US20100278362A1 (en) * 2007-12-20 2010-11-04 Kim David K J Method and apparatus to interchange between bone conductive and normal mode in receiver
US8542857B2 (en) * 2008-03-31 2013-09-24 Cochlear Limited Bone conduction device with a movement sensor
JP2010010593A (ja) 2008-06-30 2010-01-14 Nikon Corp 防振装置、ステージ装置及び露光装置
JP5224992B2 (ja) 2008-09-26 2013-07-03 京セラ株式会社 ハンズフリー機能付き携帯電話機
US8401178B2 (en) * 2008-09-30 2013-03-19 Apple Inc. Multiple microphone switching and configuration
US8548176B2 (en) * 2009-02-03 2013-10-01 Nokia Corporation Apparatus including microphone arrangements
JP5299030B2 (ja) * 2009-03-31 2013-09-25 ソニー株式会社 ヘッドホン装置
JP2010239530A (ja) 2009-03-31 2010-10-21 Brother Ind Ltd 通話装置
JP2011205289A (ja) 2010-03-25 2011-10-13 Brother Industries Ltd 通話装置
JP5002672B2 (ja) 2010-04-02 2012-08-15 株式会社東芝 画面表示処理装置
JP2011249991A (ja) 2010-05-25 2011-12-08 Kyocera Corp 携帯通信機器及び画像表示方法
JP2012065190A (ja) 2010-09-16 2012-03-29 Kyocera Corp 携帯電話機、プログラム及び入力制御方法
JP2013201494A (ja) 2012-03-23 2013-10-03 Sharp Corp 携帯無線電話機、その制御方法、および、その制御プログラム
US9002020B1 (en) * 2012-10-22 2015-04-07 Google Inc. Bone-conduction transducer array for spatial audio

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002095060A (ja) * 2000-09-20 2002-03-29 Nec Access Technica Ltd 携帯情報端末装置
JP2003143253A (ja) * 2001-11-02 2003-05-16 Nec Viewtechnology Ltd 対話型端末装置、その通話制御方法、およびそのプログラム
JP2004187031A (ja) * 2002-12-04 2004-07-02 Temuko Japan:Kk 骨伝導スピーカーを用いた携帯電話機
JP2005348193A (ja) * 2004-06-04 2005-12-15 Nec Tokin Corp 受話器
JP2006067049A (ja) * 2004-08-25 2006-03-09 Nec Tokin Corp 複合型スピーカ
JP2007019898A (ja) * 2005-07-08 2007-01-25 Toshiba Corp 携帯電話機
JP2007082009A (ja) * 2005-09-15 2007-03-29 Nec Saitama Ltd パネルスピーカ
JP2007189578A (ja) * 2006-01-16 2007-07-26 Nec Tokin Corp 受話装置及び携帯電話機
JP2011091719A (ja) * 2009-10-26 2011-05-06 Authentic Ltd 撓み振動型アクチュエータ

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160045463A (ko) * 2014-10-17 2016-04-27 삼성전자주식회사 오디오 제어 방법 및 그 전자 장치
KR102217641B1 (ko) 2014-10-17 2021-02-19 삼성전자 주식회사 오디오 제어 방법 및 그 전자 장치

Also Published As

Publication number Publication date
US9998836B2 (en) 2018-06-12
US20150043758A1 (en) 2015-02-12

Similar Documents

Publication Publication Date Title
WO2013164999A1 (ja) 電子機器、制御方法及び制御プログラム
JP6017828B2 (ja) 電子機器、制御方法、及び制御プログラム
JP5818923B2 (ja) 電子機器
JP5812925B2 (ja) 電子機器
WO2013161326A1 (ja) 電子機器
WO2013145738A1 (ja) 電子機器
JP5952092B2 (ja) 電子機器
JP6121517B2 (ja) 装置
WO2013164980A1 (ja) 電子機器、制御方法、及び制御プログラム
WO2013175780A1 (ja) 電子機器、電子機器の制御方法
JP5865774B2 (ja) 電子機器、制御方法及び制御プログラム
JP6099320B2 (ja) 電子機器、制御方法及び制御プログラム
US9438990B2 (en) Electronic device
JP2013232853A (ja) 電子機器、制御方法、及び制御プログラム
JP6067999B2 (ja) 電子機器、制御方法、及び制御プログラム
JP6242040B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2013236139A (ja) 電子機器、制御方法、及び制御プログラム
JP6110078B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2014007444A (ja) 電子機器、制御方法及び制御プログラム
JP6017829B2 (ja) 電子機器
JP2014082674A (ja) 電子機器、制御方法及び制御プログラム
JP2014011511A (ja) 電子機器、制御方法、及び制御プログラム
JP2014011512A (ja) 電子機器、制御方法、及び制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13784645

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14375441

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13784645

Country of ref document: EP

Kind code of ref document: A1