WO2013180087A1 - 携帯型電子機器 - Google Patents

携帯型電子機器 Download PDF

Info

Publication number
WO2013180087A1
WO2013180087A1 PCT/JP2013/064691 JP2013064691W WO2013180087A1 WO 2013180087 A1 WO2013180087 A1 WO 2013180087A1 JP 2013064691 W JP2013064691 W JP 2013064691W WO 2013180087 A1 WO2013180087 A1 WO 2013180087A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
portable electronic
sound
unit
user
Prior art date
Application number
PCT/JP2013/064691
Other languages
English (en)
French (fr)
Inventor
清二 加藤
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2013180087A1 publication Critical patent/WO2013180087A1/ja
Priority to US14/557,363 priority Critical patent/US20150086055A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • H04M1/605Portable telephones adapted for handsfree use involving control of the receiver volume to provide a dual operational mode at close or far distance from the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2400/00Loudspeakers
    • H04R2400/03Transducers capable of generating both sound as well as tactile vibration, e.g. as used in cellular phones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/01Input selection or mixing for amplifiers or loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/03Connection circuits to selectively connect loudspeakers or headphones to amplifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2440/00Bending wave transducers covered by H04R, not provided for in its groups
    • H04R2440/05Aspects relating to the positioning and way or means of mounting of exciters to resonant bending wave panels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/13Hearing devices using bone conduction transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/007Protection circuits for transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R7/00Diaphragms for electromechanical transducers; Cones
    • H04R7/02Diaphragms for electromechanical transducers; Cones characterised by the construction
    • H04R7/04Plane diaphragms
    • H04R7/045Plane diaphragms using the distributed mode principle, i.e. whereby the acoustic radiation is emanated from uniformly distributed free bending wave vibration induced in a stiff panel and not from pistonic motion

Definitions

  • the present invention relates to a portable electronic device.
  • sound may be output from an external speaker, or sound may be output from an external output unit that outputs sound to an earphone or headphones.
  • sound may be output from an external speaker.
  • a user of a portable electronic device listens to sound output from an external speaker, it may be difficult to hear the sound depending on the performance of the external speaker and the surrounding environment.
  • the user listens to the sound output from the external output unit with the earphone or the headphone the sound may be difficult to hear depending on the performance of the earphone or the headphone or the surrounding environment.
  • the user can easily rehearse a sound that is difficult to hear.
  • FIG. 4 shows the portable electronic device 1 when the portable electronic device 1 shown in FIG. 2 is viewed from the left side of the drawing.
  • the portable electronic device 1 according to the present embodiment is a mobile phone, for example.
  • the portable electronic device 1 includes a cover panel 2 and a case portion 3.
  • a device case 4 having a substantially rectangular plate shape in plan view is configured.
  • the cover panel 2 has a substantially rectangular shape in plan view.
  • the cover panel 2 constitutes a part other than the peripheral part in the front part of the portable electronic device 1.
  • the cover panel 2 is made of, for example, transparent glass or transparent acrylic resin.
  • the case part 3 constitutes a peripheral part, a side part and a back part of the front part of the portable electronic device 1.
  • the case portion 3 is made of, for example, polycarbonate resin.
  • the cover panel 2 is provided with a display portion 2a on which various information such as characters, symbols and figures are displayed.
  • the display portion 2a has a rectangular shape in plan view, for example.
  • the peripheral part 2b surrounding the display part 2a in the cover panel 2 is black, for example, by applying a film or the like. Thereby, the peripheral part 2b is a non-display part in which information is not displayed.
  • a touch panel 130 described later is attached to the inner main surface of the cover panel 2.
  • the user can give various instructions to the portable electronic device 1 by operating the display portion 2a of the cover panel 2 with a finger or the like.
  • an operation unit 140 including a plurality of operation buttons 141 is provided.
  • Each operation button 141 is a so-called “hard key”, and its surface is exposed from the lower end of the outer main surface 20 of the cover panel 2.
  • a hole for exposing the plurality of operation buttons 141 is formed in the lower end portion of the cover panel 2.
  • a microphone hole 30 is formed in the lower end portion of the cover panel 2.
  • an imaging lens 200 a included in the front-side imaging unit 200 described later is exposed.
  • three operation buttons 141 that are “hard keys” are provided. However, the number of operation buttons 141 may be changed as appropriate, or the operation buttons 141 may be changed. Need not be provided.
  • a piezoelectric vibration element 221 and a proximity sensor 150 are provided inside the device case 4. Further, as shown in FIG. 3, speaker holes 40 are formed in the back surface 10 of the portable electronic device 1, in other words, in the back surface of the device case 4. From the back surface 10 of the portable electronic device 1, an imaging lens 210 a included in a back surface side imaging unit 210 described later is exposed. As shown in FIG. 4, an external terminal 50 is provided on the left side surface 11 of the portable electronic device 1 when the portable electronic device 1 is viewed from the cover panel 2 side. Earphones or headphones are connected to the external terminal 50 by wire.
  • the earphone and the headphone may be collectively referred to as a “sound output device”.
  • the control unit 100 comprehensively manages the operation of the portable electronic device 1 by controlling other components of the portable electronic device 1.
  • the control unit 100 includes a CPU (Central Processing Unit) 101, a DSP (Digital Signal Processing) 102, a storage unit 103, and the like.
  • the storage unit 103 is configured by a non-transitory recording medium that can be read by the control unit 100 (the CPU 101 and the DSP 102) such as a ROM (Read Only Memory) and a RAM (Random Access Memory). As shown in FIG. 6, the storage unit 103 controls the operation of the portable electronic device 1, specifically, the components such as the wireless communication unit 110 and the display panel 120 included in the portable electronic device 1. A main program 104 and a plurality of application programs 105 are stored. Various functions of the control unit 100 are realized by the CPU 101 and the DSP 102 executing various programs in the storage unit 103.
  • the storage unit 103 may include a computer-readable non-transitory recording medium other than the ROM and RAM.
  • the storage unit 103 may include, for example, a small hard disk drive and an SSD (Solid State Drive).
  • the wireless communication unit 110 has an antenna 111.
  • the wireless communication unit 110 receives a signal from a mobile phone different from the portable electronic device 1 or a communication device such as a web server connected to the Internet via an antenna 111 via a base station.
  • Radio communication unit 110 performs amplification processing and down-conversion on the received signal and outputs the result to control unit 100.
  • the control unit 100 performs demodulation processing or the like on the input reception signal, and acquires a sound signal indicating voice or music included in the reception signal. Further, the wireless communication unit 110 performs up-conversion and amplification processing on the transmission signal including the sound signal and the like generated by the control unit 100, and wirelessly transmits the processed transmission signal from the antenna 111.
  • a transmission signal from the antenna 111 is received through a base station by a mobile phone different from the portable electronic device 1 or a communication device connected to the Internet.
  • the wireless communication unit 110 includes a television antenna 112 that receives television broadcasts, and outputs a reception signal received by the television antenna 112 to the control unit 100.
  • the control unit 100 acquires a moving image, sound, and the like included in the input television broadcast reception signal.
  • the display panel 120 is, for example, a liquid crystal display panel or an organic EL panel.
  • the display panel 120 displays various types of information such as characters, symbols, and graphics under the control of the control unit 100.
  • the information displayed on the display panel 120 is displayed on the display portion 2 a of the cover panel 2, so that the information is visible to the user of the portable electronic device 1.
  • the touch panel 130 is, for example, a projected electrostatic capacitance type touch panel.
  • the touch panel 130 detects contact of an object with the display portion 2a of the cover panel 2.
  • the touch panel 130 is affixed to the inner main surface of the cover panel 2 and includes two sheet-like electrode sensors arranged to face each other. The two electrode sensors are bonded together with a transparent adhesive sheet.
  • One electrode sensor is formed with a plurality of elongated X electrodes each extending along the X-axis direction (for example, the left-right direction of the portable electronic device 1) and arranged parallel to each other.
  • the other electrode sensor is formed with a plurality of elongated Y electrodes that extend along the Y-axis direction (for example, the vertical direction of the portable electronic device 1) and are arranged in parallel to each other.
  • the change in capacitance between the X electrode and the Y electrode that occurs in the touch panel 130 is transmitted to the control unit 100.
  • the control unit 100 specifies the content of the operation performed on the display portion 2a of the cover panel 2 based on the capacitance change, and performs an operation corresponding thereto.
  • the operation unit 140 outputs an operation signal indicating that the operation button 141 has been pressed to the control unit 100 when the operation button 141 is pressed by the user for each of the plurality of operation buttons 141.
  • the control unit 100 identifies which operation button 141 among the plurality of operation buttons 141 has been operated based on the input operation signal, and performs an operation according to the operated operation button 141.
  • the acceleration sensor 160 is, for example, a triaxial acceleration sensor.
  • the acceleration sensor 160 detects the acceleration in the direction along the detection axis for each of the three detection axes orthogonal to each other, and outputs the acceleration to the control unit 100.
  • the external output unit 170 outputs sound to a sound output device connected to the external terminal 50. Specifically, the external output unit 170 converts the electrical sound signal output from the control unit 100 into a sound signal suitable for the sound output device, and outputs the converted electrical sound signal to the external terminal 50. To do. As a result, sound is output from the earphones or headphones connected to the external terminal 50.
  • the external speaker 180 is a dynamic speaker, for example, and converts an electrical sound signal from the control unit 100 into sound and outputs the sound. Sound output from the external speaker 180 is output to the outside from the speaker hole 40 provided on the back surface 10 of the portable electronic device 1. The sound output from the speaker hole 40 can be heard at a place away from the portable electronic device 1.
  • the microphone 190 converts the sound input from the outside of the portable electronic device 1 into an electrical sound signal and outputs it to the control unit 100. Sound from the outside of the portable electronic device 1 is taken into the portable electronic device 1 through the microphone hole 30 provided on the front surface of the cover panel 2 and input to the microphone 190.
  • the microphone hole 30 may be provided on the side surface of the portable electronic device 1 or on the back surface 10.
  • the front side imaging unit 200 includes an imaging lens 200a and an imaging element.
  • the front side imaging unit 200 captures a still image and a moving image based on control by the control unit 100. As shown in FIGS. 1 and 2, the imaging lens 200 a is provided on the front surface of the portable electronic device 1. Therefore, the front side imaging unit 200 can capture an image of an object that exists on the front side (the cover panel 2 side) of the portable electronic device 1.
  • the back side imaging unit 210 includes an imaging lens 210a and an imaging element.
  • the back side imaging unit 210 captures still images and moving images based on control by the control unit 100. As shown in FIG. 3, the imaging lens 210 a is provided on the back surface 10 of the portable electronic device 1. Therefore, the back surface side imaging unit 210 can image an object existing on the back surface 10 side of the portable electronic device 1.
  • the receiver 220 transmits a received sound to the user.
  • the receiver 220 includes a piezoelectric vibration element 221 and a cover panel 2.
  • the receiver 220 outputs sound with a volume lower than that of the external speaker 180.
  • the receiver 220 outputs a sound that can be heard when the user brings his / her ear close to or in contact with the cover panel 2.
  • the piezoelectric vibration element 221 is provided on the inner main surface of the cover panel 2.
  • the piezoelectric vibration element 221 is vibrated by a driving voltage supplied from the control unit 100.
  • the control unit 100 generates a drive voltage based on the sound signal and applies the drive voltage to the piezoelectric vibration element 221.
  • the piezoelectric vibration element 221 is vibrated based on the sound signal by the control unit 100, so that the cover panel 2 vibrates based on the sound signal, and as a result, the received sound is transmitted to the user.
  • the receiver 220 will be described in detail later.
  • the battery 230 outputs a power source for the portable electronic device 1.
  • the power output from the battery 230 is supplied to each electronic component included in the control unit 100 and the wireless communication unit 110 included in the portable electronic device 1.
  • the storage unit 103 stores various application programs 105 (hereinafter simply referred to as “applications 105”).
  • the storage unit 103 includes, for example, a voice call application for making a voice call, a videophone application for performing a videophone communication which is a kind of call, a browser for displaying a website, creation / browsing / viewing of an e-mail, A mail application for performing transmission / reception, an application for displaying still image data stored in the storage unit 103, and a music playback application for playing back music data stored in the storage unit 103 are stored.
  • the storage unit 103 also stores a moving image reproduction application (hereinafter referred to as “stored moving image”) for reproducing the sound data and moving image data (moving image data with sound) associated with each other and stored in the storage unit 103.
  • a moving image reproduction application (hereinafter referred to as “stored moving image”) for reproducing the sound data and moving image data (moving image data with sound) associated with each other and stored in the storage unit 103.
  • a “playback application”) a video playback application (hereinafter referred to as a “distributed video playback application”), an application for playing back moving image data with sound distributed from a website by a streaming method or a progressive download method, etc.
  • a market application for downloading an application from a web server that offers a fee or free of charge, a game application for playing a game such as a puzzle game in the portable electronic device 1, and a video application for recording and playing a TV broadcast.
  • Bi-viewing application is stored.
  • the control unit 100 executing the voice call application controls the wireless communication unit 110, the microphone 190, and the receiver 220 when the audio output source is set to the receiver 220.
  • the receiver 220 is used to make a call with the communication partner apparatus.
  • the control unit 100 executing the voice call application controls the wireless communication unit 110, the external speaker 180, and the microphone 190 when the audio output source is set to the external speaker 180.
  • the external speaker 180 is used to make a call with the communication partner apparatus.
  • the control unit 100 executing the voice call application controls the wireless communication unit 110, the external output unit 170, and the microphone 190 when the audio output source is set to the external output unit 170.
  • the external output unit 170 is used to make a call with the communication partner apparatus.
  • the control unit 100 executing the videophone application has the wireless communication unit 110, the display panel 120, the external speaker 180, the microphone 190, and the front side.
  • the imaging unit 200 is controlled.
  • the portable electronic device 1 uses the external speaker 180 to perform videophone communication with the communication partner apparatus.
  • the control unit 100 executing the videophone application has the wireless communication unit 110, the display panel 120, the external output unit 170, the microphone 190, The front side imaging unit 200 is controlled.
  • the portable electronic device 1 uses the external output unit 170 to perform videophone communication with the communication partner apparatus.
  • control unit 100 executing the stored moving image reproduction application controls the display panel 120 and the external speaker 180 when the sound output source is set to the external speaker 180. Thereby, in the portable electronic device 1, moving image data with sound in the storage unit 103 is reproduced.
  • the control unit 100 executing the distributed moving image playback application controls the wireless communication unit 110, the display panel 120, and the external speaker 180.
  • the moving image data with sound distributed from the communication partner device by the streaming method or the like is reproduced.
  • ⁇ Details of piezoelectric vibration element> 7 and 8 are a top view and a side view showing the structure of the piezoelectric vibration element 221, respectively.
  • the piezoelectric vibration element 221 has a long shape in one direction. Specifically, the piezoelectric vibration element 221 has a rectangular elongated plate shape in plan view.
  • the piezoelectric vibration element 221 has, for example, a bimorph structure.
  • the piezoelectric vibration element 221 includes a first piezoelectric ceramic plate 221a and a second piezoelectric ceramic plate 221b that are bonded to each other via a shim material 221c.
  • the piezoelectric vibration element 2221 when a positive voltage is applied to the first piezoelectric ceramic plate 221a and a negative voltage is applied to the second piezoelectric ceramic plate 221b, the first piezoelectric ceramic plate 221a extends along the longitudinal direction.
  • the second piezoelectric ceramic plate 221b expands and contracts along the longitudinal direction. Accordingly, as shown in FIG. 9, the piezoelectric vibration element 221 bends in a mountain shape with the first piezoelectric ceramic plate 221a facing outside.
  • the piezoelectric vibration element 221 when a negative voltage is applied to the first piezoelectric ceramic plate 221a and a positive voltage is applied to the second piezoelectric ceramic plate 221b, the first piezoelectric ceramic plate 221a is in the longitudinal direction.
  • the second piezoelectric ceramic plate 221b extends along the longitudinal direction.
  • the piezoelectric vibration element 221 bends in a mountain shape with the second piezoelectric ceramic plate 221b outside.
  • the piezoelectric vibration element 221 performs flexural vibration by alternately taking the state of FIG. 9 and the state of FIG.
  • the controller 100 flexures and vibrates the piezoelectric vibration element 221 by applying an alternating voltage in which a positive voltage and a negative voltage appear alternately between the first piezoelectric ceramic plate 221a and the second piezoelectric ceramic plate 221b.
  • the piezoelectric vibration element 221 shown in FIGS. 7 to 10 is provided with only one structure including the first piezoelectric ceramic plate 221a and the second piezoelectric ceramic plate 221b which are bonded together with the shim material 221c interposed therebetween. However, a plurality of such structures may be stacked.
  • FIG. 11 is a diagram showing a cross-sectional structure in the vertical direction (longitudinal direction) of the portable electronic device 1.
  • FIG. 12 is a plan view of the cover panel 2 when viewed from the inner main surface 21 side.
  • a touch panel 130 is attached to the inner main surface 21 of the cover panel 2 so as to face the display portion 2 a of the cover panel 2.
  • the display panel 120 serving as a display unit is disposed so as to face the cover panel 2 and the touch panel 130. Therefore, the touch panel 130 exists between the cover panel 2 and the display panel 120.
  • the portion facing the display panel 120 is the display portion 2a.
  • a printed circuit board 250 on which various components such as the CPU 101 and the DSP 102 are mounted is provided inside the device case 4.
  • the printed circuit board 250 is arranged to face the display panel 120 on the back surface 10 side of the portable electronic device 1 with respect to the display panel 120.
  • a plurality of holes 22 for exposing the plurality of operation buttons 141 are formed in the lower end portion of the cover panel 2.
  • the piezoelectric vibration element 221 is attached to the inner main surface 21 of the cover panel 2 with an adhesive 260 such as a double-sided tape.
  • the piezoelectric vibration element 221 is disposed on the inner main surface 21 of the cover panel 2 at a position that does not overlap the display panel 120 and the touch panel 130 in a plan view when the cover panel 2 is viewed from the inner main surface 21 side. .
  • the piezoelectric vibration element 221 is disposed on the inner main surface 21 so as not to overlap the display panel 120 and the touch panel 130 when the cover panel 2 is viewed from the inner main surface 21 side in the thickness direction. ing. Therefore, the touch panel 130 and the display panel 120 do not exist between the cover panel 2 and the piezoelectric vibration element 221.
  • the piezoelectric vibration element 221 is provided on the upper end 21 a of the inner main surface 21 of the cover panel 2. Specifically, as shown in FIG. 12, the piezoelectric vibration element 221 is on the central portion 21 aa in the left-right direction (short direction perpendicular to the longitudinal direction) of the upper end portion 21 a of the inner main surface 21 of the cover panel 2. Is provided.
  • the piezoelectric vibration element 221 is arranged so that the longitudinal direction thereof coincides with the left-right direction of the cover panel 2.
  • the piezoelectric vibration element 221 is arranged at the center portion 21aa of the upper end portion 21a so that the longitudinal center thereof coincides with the center of the upper end portion 21a of the inner main surface 21 of the cover panel 2 in the left-right direction. Has been.
  • the displacement amount is greatest at the center in the longitudinal direction. Therefore, by disposing the piezoelectric vibration element 221 at the upper end 21a so that the center in the longitudinal direction coincides with the center in the left-right direction at the upper end 21a of the inner main surface 21 of the cover panel 2. In the piezoelectric vibration element 221, the position where the displacement amount due to flexural vibration becomes maximum coincides with the center in the left-right direction of the upper end portion 21 a of the inner main surface 21 of the cover panel 2.
  • the piezoelectric vibration element 221 may be disposed on the inner main surface 21 of the cover panel 2 via the touch panel 130.
  • the piezoelectric vibration element 221 vibrates the cover panel 2 so that air conduction sound and conduction sound are transmitted from the cover panel 2 to the user.
  • the vibration of the piezoelectric vibration element 221 itself is transmitted to the cover panel 2, the air conduction sound and the conduction sound are transmitted from the cover panel 2 to the user.
  • the air conduction sound is a sound that is recognized by the human brain by sound waves (air vibrations) entering the ear canal hole (so-called “ear hole”) vibrating the eardrum.
  • the conduction sound is sound that is recognized by the human brain when the auricle is vibrated and the vibration of the auricle is transmitted to the eardrum and the eardrum vibrates.
  • the air conduction sound and the conduction sound will be described in detail.
  • FIG. 13 is a diagram for explaining air conduction sound and conduction sound.
  • FIG. 13 shows the structure of the ear of the user of the portable electronic device 1.
  • a broken line 400 indicates a conduction path of a sound signal (sound information) when an airway sound is recognized by the brain.
  • a solid line 410 indicates a conduction path of the sound signal when the conduction sound is recognized by the brain.
  • the cover panel 2 vibrates and a sound wave is output from the cover panel 2.
  • the cover panel 2 vibrates and a sound wave is output from the cover panel 2.
  • the cover panel 2 of the portable electronic device 1 When the user holds the portable electronic device 1 in his hand and brings the cover panel 2 of the portable electronic device 1 close to the user's auricle 300, or the cover panel 2 of the portable electronic device 1 is When hitting (contacting) the user's pinna 300, sound waves output from the cover panel 2 enter the ear canal hole 310. The sound wave from the cover panel 2 travels in the ear canal hole 310 and vibrates the eardrum 320.
  • the vibration of the eardrum 320 is transmitted to the ossicle 330, and the ossicle 330 vibrates. Then, the vibration of the ossicle 330 is transmitted to the cochlea 340 and converted into an electric signal in the cochlea 340. This electric signal is transmitted to the brain through the auditory nerve 350, and the received sound is recognized in the brain. In this way, air conduction sound is transmitted from the cover panel 2 to the user.
  • the auricle 300 is vibrated by the piezoelectric vibration element 221.
  • the cover panel 2 is made to vibrate.
  • the vibration of the auricle 300 is transmitted to the eardrum 320, and the eardrum 320 vibrates.
  • the vibration of the eardrum 320 is transmitted to the ossicle 330, and the ossicle 330 vibrates.
  • the vibration of the ossicle 330 is transmitted to the cochlea 340 and converted into an electric signal in the cochlea 340.
  • Bone conduction sound is sound that is recognized by the human brain by vibrating the skull and directly stimulating the inner ear such as the cochlea.
  • a sound signal transmission path when a bone conduction sound is recognized by the brain is indicated by a plurality of arcs 420.
  • the piezoelectric vibration element 221 appropriately vibrates the front cover panel 2, thereby allowing the user of the portable electronic device 1 from the cover panel 2. Air conduction sound and conduction sound can be transmitted.
  • the structure is devised so that air conduction sound and conduction sound can be appropriately transmitted to the user.
  • Various merits are generated by configuring the portable electronic device 1 so that air conduction sound and conduction sound can be transmitted to the user.
  • the user can hear a sound when the cover panel 2 is placed on the ear, the user can make a call without worrying about the position of the portable electronic device 1 where the ear is placed.
  • the user can make the ambient noise difficult to hear while increasing the volume of the conduction sound by pressing the ear strongly against the cover panel 2. Therefore, the user can make a call appropriately even when the ambient noise is high.
  • the user recognizes the received sound from the portable electronic device 1 by placing the cover panel 2 on the ear (more specifically, the auricle) even when the earplug or earphone is attached to the ear. can do. Further, the user can recognize the received sound from the portable electronic device 1 by applying the cover panel 2 to the headphones even when the headphones are attached to the ears.
  • a gap is provided between the touch panel 130 and the display panel 120 as shown in FIG. 11, but the touch panel 130 and the display panel 120 may be brought into contact with each other.
  • the cover panel 2 is pushed with a finger or the like by the user, and the cover panel 2 is bent toward the display panel 120 side. Even so, it is possible to prevent the cover panel 2 from hitting the display panel 120 (more precisely, the touch panel 130 from hitting the display panel 120). Therefore, it is possible to suppress the display of the display panel 120 from being disturbed when the cover panel 2 hits the display panel 120.
  • the receiver 220 is not composed of a dynamic speaker or the like used in the external speaker 180, but the piezoelectric vibration element 221 that vibrates based on a sound signal and the piezoelectric It is comprised with the cover panel 2 with which the vibration element 221 was mounted. Therefore, unlike the case where a dynamic speaker is used for the receiver 220, there is no need to provide a hole for the receiver (a hole for the earpiece) in the cover panel 2.
  • the external speaker 180 may be used and sound may be output from the external speaker 180.
  • control unit 100 when the voice communication application is executed and the sound output source is set to the external speaker 180, the control unit 100 outputs the voice included in the voice data received by the wireless communication unit 110. Output to the external speaker 180.
  • the control unit 100 is included in the moving image data with sound received by the wireless communication unit 110.
  • the moving image to be displayed is displayed on the display panel 120, and the audio included in the moving image data with sound is output to the external speaker 180.
  • the control unit 100 is included in the moving image data with sound in the storage unit 103.
  • the moving image is displayed on the display panel 120, and the sound included in the moving image data with sound is output to the external speaker 180.
  • the external output unit 170 may be used to output sound from the external output unit 170.
  • the external output unit 170 may be used to output sound from the external output unit 170.
  • the distribution video playback application is executed and the sound output source is set in the external output unit 170 when the control unit 100 is executing the distribution video playback application
  • the video with sound received by the wireless communication unit 110 is received.
  • the moving image included in the data is displayed on the display panel 120, and the sound included in the moving image data with sound is output to the external output unit 170.
  • the external output unit 170 and the external speaker 180 may be collectively referred to as “sound output unit”.
  • the user of the portable electronic device 1 listens to the sound output from the external speaker 180, the sound may be difficult to hear depending on the performance of the external speaker 180 and the surrounding environment. Further, when the user listens to the sound output from the external output unit 170 with a sound output device such as an earphone, the sound may be difficult to hear depending on the performance of the sound output device and the surrounding environment.
  • the recorded sound for example, English conversation
  • the user can reproduce the sound that is difficult to hear again and output it to the sound output unit, and listen to the sound again. Conceivable. At this time, even if the same sound is output again from the sound output unit that output the sound that was difficult to hear, there is a high possibility that it is difficult to hear. Furthermore, the user needs to rewind and reproduce the recorded sound by operating the display portion 2a of the portable electronic device 1.
  • the portable electronic device 1 when the control unit 100 is executing the application 105, the portable electronic device 1 is used for outputting the sound from the sound output unit.
  • the control unit 100 detects that the user's ear has approached the portable electronic device 1 while performing sound output processing for outputting sound from the sound output unit. Then, a sound reproduction process for reproducing the sound output from the sound output unit and causing the receiver 220 to output the sound is performed.
  • the user when it is difficult for the user to hear the sound from the sound output unit, the user is provided separately from the sound output unit by bringing his / her ear close to or in contact with the portable electronic device 1.
  • the receiver 220 can be used to rehearse the hard to hear sound. Therefore, the user can easily rehearse the sound that was difficult to hear. Furthermore, since the user can rehearse the sound from the sound output unit that is difficult to hear using the receiver 220 provided separately from the sound output unit, the sound can be easily heard when re-listening. The possibility increases.
  • the sound reproduction process in the receiver 220 will be described.
  • FIG. 14 is a flowchart showing the operation of the portable electronic device 1 when sound reproduction processing is performed by the receiver 220 when the videophone application is executed.
  • the control unit 100 instructs the portable electronic device 1 to execute a videophone application by operating the display portion 2a of the cover panel 2.
  • the videophone application is read from the storage unit 103 and executed.
  • the portable electronic device 1 uses the wireless communication unit 110, the display panel 120, the microphone 190, and the sound output unit (external speaker 180 or external output unit 170) to start videophone communication with the communication partner device.
  • sound output processing is performed to cause the sound output unit to output sound.
  • step s2 the control unit 100 starts recording the sound output from the sound output unit (the voice of the user of the communication partner device).
  • the control unit 100 records while overwriting the sound of the latest fixed time (for example, 30 seconds) received by the wireless communication unit 110 and stores the recorded sound of the latest fixed time in the storage unit 103. Therefore, during the videophone communication, the latest voice (in detail, voice data in detail) received from the communication partner apparatus is always stored in the storage unit 103 for a certain period of time.
  • the control unit 100 After the recording of the sound output from the sound output unit is started, in step s3, the control unit 100 detects that the ear 610 of the user 600 has approached the portable electronic device 1 as shown in FIG. Specifically, when it is detected that the ear 610 of the user 600 has approached the cover panel 2 constituting the receiver 220 of the portable electronic device 1, the control unit 100 is output from the sound output unit in step s4. Sound reproduction processing for reproducing the recorded sound and outputting it to the receiver 220 is performed.
  • sound reproduction processing means processing for reproducing the sound output from the sound output unit and outputting it to the receiver 220.
  • step s4 the control unit 100 reproduces the recorded sound in the storage unit 103 and causes the receiver 220 to output it.
  • the recorded sound for a certain period of time may be reproduced from the beginning or may be reproduced in the middle.
  • the latest silent point in the recorded sound may be identified and played back from the silent point.
  • the sound output from the sound output unit is reproduced and output from the cover panel 2 of the receiver 220. Therefore, a user who is approaching or touching the cover panel 2 can hear the sound from the sound output unit that is difficult to hear by listening to the reproduced sound from the cover panel 2.
  • the control unit 100 reproduces the sound and outputs it from the cover panel 2 by driving the piezoelectric vibration element 221 based on a sound signal (sound data) related to the recorded sound.
  • sound signal sound data
  • step s4 when the recorded sound is played back, playback speed may be shortened by performing double speed playback. For example, if the sound is temporarily difficult to hear due to the surrounding environment, but it has been resolved during playback, double-speed playback is performed to shorten the playback time so that the communication partner does not wait as long as possible. May be.
  • step s4 the control unit 100 performs, in addition to the sound reproduction process, an attached process that is desirably performed when the sound reproduction process is executed.
  • the control unit 100 turns off the display of the display panel 120 by turning off the backlight of the display panel 120 or the like.
  • the control unit 100 turns off the function of the sound output unit as an accompanying process. That is, the control unit 100 stops the sound output of the sound output unit.
  • the display of the display panel 120 is on, and the display portion 2 a of the cover panel 2
  • a video image of videophone communication is displayed, it may be annoying.
  • the user brings his / her ear close to the cover panel 2 while the sound is being output from the external speaker 180 the user feels bothered by the sound from the external speaker 180 or the sound from the external speaker 180 The sound from 2 may be difficult to hear.
  • the control unit 100 turns off the display of the display panel 120 and stops the sound output of the sound output unit.
  • produces.
  • the volume of the sound output unit may be reduced instead of stopping the sound output of the sound output unit.
  • the control unit 100 uses the wireless communication unit 110 to notify the communication partner apparatus with which the portable electronic device 1 is performing videophone communication of the execution of the sound reproduction process. Specifically, the control unit 100 generates a notification signal for notifying execution of the sound reproduction process. Then, the control unit 100 causes the wireless communication unit 110 to transmit the generated notification signal to a communication partner apparatus that performs videophone communication. When the communication partner device is notified of the execution of the sound reproduction process from the portable electronic device 1, the communication partner device notifies the user of the communication partner device of the execution of the sound reproduction process in the portable electronic device 1.
  • the communication partner apparatus displays information for notifying the execution of the sound reproduction process in the portable electronic device 1 (hereinafter referred to as “sound reproduction process execution notification information”) on the display unit of the own apparatus.
  • sound reproduction process execution notification information On the display unit of the communication partner apparatus, for example, a character string such as “Now listening to sound” is displayed as the sound reproduction process execution notification information.
  • the user of the communication partner apparatus that performs videophone communication with the portable electronic device 1 uses the receiver 220 to listen to the sound output from the sound output unit by the user of the portable electronic device 1. I can recognize that.
  • the user of the communication partner device is performing the sound reproduction process in the portable electronic device 1, it is erroneously assumed that the communication between the communication partner device and the portable electronic device 1 becomes abnormal. Recognition can be suppressed.
  • control unit 100 turns off the function of the microphone 190 as an accompanying process. That is, as an attached process, the control unit 100 invalidates the sound input to the microphone 190 so that the sound input to the microphone 190 is not input to the communication partner apparatus for videophone communication. Thereby, when the user of the portable electronic device 1 is listening to the sound again with the receiver 220, unnecessary sound is input to the communication partner device, and the user of the communication partner device feels uncomfortable. Can be suppressed. Further, the control unit 100 may turn off the function of the microphone 190 and use the wireless communication unit 110 to input music or an announcement such as “please wait for a while” to the communication partner apparatus. In this case, the communication partner apparatus transmits the input music or announcement to the user of the communication partner apparatus using an external speaker or the like.
  • step s5 the reproduction of the recorded sound by the receiver 220 is completed.
  • the sound output from the sound output unit is reproduced by the receiver 220.
  • step s6 the control unit 100 causes the portable electronic device 1 to perform normal videophone communication. That is, the control unit 100 returns the operation of the portable electronic device 1 to the normal operation when the videophone application is executed. Specifically, the control unit 100 turns on the display of the display panel 120, turns on the function of the sound output unit (returns to the original volume when the volume of the sound output unit is low), The function is turned on, and no sound is output from the receiver 220.
  • the moving image included in the moving image data with sound received by the wireless communication unit 110 is displayed on the display panel 120. Further, the sound included in the moving image data with sound is output from the sound output unit.
  • the voice input to the microphone 190 is input to the communication partner apparatus.
  • the control unit 100 notifies the communication partner device of the end of the sound reproduction process using the wireless communication unit 110.
  • the communication partner apparatus deletes the display of the sound reproduction process execution notification information from its own display unit and returns the display unit to the normal state. .
  • the sound input to the portable electronic device 1 is output from the sound output unit in real time. Is done. In this case, in order to perform the sound reproduction process, it is necessary to record the sound input to the portable electronic device 1 as in step s3 described above.
  • step s2 is not necessary.
  • the control unit 100 performs the sound reproduction process in step s4. Then, the stored sound being played back is rewound and played back again to be output to the receiver 220.
  • the control unit 100 may rewind the stored sound being played back for a predetermined time when it is detected that the user's ear has approached the portable electronic device 1 in step s3.
  • the stored sound being reproduced may be rewound to the silent time closest to the time.
  • the control unit 100 replays the stored sound to the point in time before the rewind.
  • the reproduction of the output sound of the output unit is terminated (corresponding to step s5).
  • the control unit 100 prevents the receiver 220 from outputting sound, turns on the display of the display panel 120, and turns on the function of the sound output unit (corresponding to step s6). Thereby, the operation of the portable electronic device 1 returns to the normal operation when the application 105 is being executed.
  • the control unit 100 can detect that the user's ear has approached the portable electronic device 1 by various methods. A plurality of types of methods for detecting that the user's ear has approached the portable electronic device 1 will be described below.
  • the output signal of the acceleration sensor 160 is used.
  • the control unit 100 detects that the user's ear has approached the portable electronic device 1 based on the output signal of the acceleration sensor 160. Specifically, for example, when any one of the accelerations about the three detection axes output from the acceleration sensor 160 exceeds a threshold value, the control unit 100 causes the user's ear to be in the portable electronic device 1. Judge that approached.
  • control part 100 calculates
  • the output signal of the proximity sensor 150 is used.
  • the proximity sensor 150 is disposed on the rear side of the upper end portion of the cover panel 2. Therefore, when a human head or the like approaches the cover panel 2, a detection signal is output from the proximity sensor 150. Therefore, in the second proximity detection method, when the sound is output from the sound output unit such as the external speaker 180, when the detection signal is output from the proximity sensor 150, the control unit 100 causes the user's ear to be heard. It is determined that the mobile electronic device 1 has been approached.
  • the front side imaging unit 200 capable of imaging an object on the front side of the portable electronic device 1 is used.
  • the control unit 100 operates the front-side imaging unit 200 when sound is output from the sound output unit.
  • the control unit 100 determines that the user's ear has approached the portable electronic device 1. Whether the user's ear has been imaged by the front side imaging unit 200 can be easily determined by analyzing the image signal output from the front side imaging unit 200.
  • control unit 100 when executing a videophone application, performs at least one proximity of the first to fourth proximity detection methods in step s3 described above. Use detection methods.
  • control unit 100 uses at least one of the first to third proximity detection methods in step s3 described above.
  • step s3 When using a plurality of proximity detection methods in step s3, the control unit 100 detects that the user's ear has approached the portable electronic device 1 in at least one of the plurality of proximity detection methods. Then, step s4 is executed. Alternatively, when the control unit 100 detects that the user's ear has approached the portable electronic device 1 in all of the plurality of proximity detection methods to be used, the control unit 100 executes Step s4.
  • the control unit 100 may detect that the user's ear has touched the portable electronic device 1.
  • the control unit 100 uses, for example, an output signal of the touch panel 130 that detects contact of an object with the display portion 2a of the cover panel 2.
  • the control unit 100 specifies, for example, the shape of the region in contact with the object in the display portion 2a of the cover panel 2 from the output signal of the touch panel 130.
  • the control part 100 judges whether a user's ear contacted the display part 2a of the cover panel 2 based on the specified shape.
  • this detection method is referred to as “contact detection method”.
  • step s3 when it is detected that the user's ear is in contact with the portable electronic device 1, it may be detected that the user's ear has approached the portable electronic device 1. , It does not have to be detected.
  • step s3 when the control unit 100 detects only that the user's ear is in contact with the portable electronic device 1, the control unit 100 detects that the user's ear is in contact with the portable electronic device 1; s4 is executed.
  • step s3 when the control unit 100 detects both that the user's ear is approaching and touching the portable electronic device 1, the user's ear is attached to the portable electronic device 1. When both approaching and touching are detected, step s4 is executed.
  • step s3 If it is detected in step s3 that the user's ear has approached and touched the portable electronic device 1, the control unit 100 executing the videophone application performs the first to second operations. At least one of the four proximity detection methods and the contact detection method are used. In this case, the control unit 100 executing an application other than the videophone application uses at least one of the first to third proximity detection methods and the contact detection method.
  • the control unit 100 Detects that the user's ear has approached the portable electronic device 1 in at least one of the plurality of proximity detection methods, and the user's ear has detected the portable electronic device 1 in the contact detection method.
  • step s4 is executed.
  • the control unit 100 detects that the user's ear has approached the portable electronic device 1 in all of the plurality of proximity detection methods used, and the user's ear is in the portable electronic device 1 in the contact detection method. If it is detected that the touch has been made, step s4 is executed.
  • the receiver 220 is configured by the piezoelectric vibration element 221 and the cover panel 2, but may be configured by a speaker similar to the external speaker 180, for example, a dynamic speaker.
  • a hole for a receiver for outputting the sound output from the receiver 220 built in the portable electronic device 1 to the outside of the portable electronic device 1 is formed in, for example, the upper end portion of the cover panel 2. The user hears the sound from the receiver 220 by bringing his / her ear close to or in contact with the receiver hole provided in the cover panel 2.
  • the control unit 100 determines that the user's ear has approached the portable electronic device 1 and contact. When at least one of the above is detected, the sound output from the sound output unit is reproduced and output from the receiver 220. In other words, when at least one of the user's ear approaching and contacting the portable electronic device 1 occurs while the sound output unit is outputting sound, the control unit 100 causes the sound output unit to The output sound is reproduced and output from the receiver 220. Therefore, a user who is difficult to hear the sound output from the sound output unit can hear the sound that is difficult to hear from the receiver 220 by bringing his / her ear close to or in contact with the portable electronic device 1.
  • the user can easily rehearse the sound that was difficult to hear. Furthermore, since the user listens again to the sound from the sound output unit that is difficult to hear using the receiver 220 that is different from the sound output unit, there is a high possibility that the sound becomes easy to hear when listening again. Become.
  • the receiver 220 is configured by the cover panel 2 and the piezoelectric vibration element 221 provided on the inner main surface 21 of the cover panel 2, so that the user covers the ear with the cover panel 2.
  • the sound from the receiver 220 can be easily heard by pressing firmly against 2. Therefore, it is possible to prevent the user from becoming difficult to hear again even if the user uses the receiver 220 to listen to the sound again.
  • the user can recognize the sound from the receiver 220 by pressing the cover panel 2 against the headphones even when the headphones are attached to both ears. Therefore, when the same sound is output from the headphones and the receiver 220, the user can easily hear the sound.
  • the control unit 100 reproduces the sound output from the external output unit 170 not only to the receiver 220 but also to the external output unit 170 in step s4 described above. Output.
  • the sound that is difficult to hear is output from both the sound output device and the cover panel 2, it is possible to prevent the user from becoming difficult to hear again when the user listens to the sound again.
  • the control unit 100 is configured to reproduce the sound output from the sound output unit at the receiver 220 while the user's ear is close to or in contact with the portable electronic device 1.
  • the receiver 220 outputs a sound to be output to the sound output unit when the application 105 is executed.
  • the control unit 100 uses the receiver 220 for the sound output from the sound output unit without the user's ear approaching or in contact with the portable electronic device 1 leaving the portable electronic device 1.
  • the receiver 220 outputs a sound to be output to the sound output unit when the application 105 is executed.
  • the control unit 100 causes the receiver 220 to output a sound (voice of the user of the communication partner device) to be output to the sound output unit when the videophone application is executed, and a microphone.
  • the portable electronic device 1 may be caused to execute a voice call using the receiver 220 and the microphone 190 by turning on the function 190.
  • the control unit 100 finishes reproducing the sound output from the sound output unit at the receiver 220, and then the user's ear is carried by the user.
  • the operation of the portable electronic device 1 is restored to the normal operation when the application 105 is executed. That is, the control unit 100 prevents the receiver 220 from outputting sound when the user's ear is away from the portable electronic device 1, and the sound of the display panel 120 that was turned off is turned on / off. Turn on the function of the output unit (if the volume of the sound output unit is low, return to the original volume). And the control part 100 notifies the completion
  • control unit 100 when the reproduction of the sound by the receiver 220 is completed in a state where the user separates the ear from the portable electronic device 1, the control unit 100, as described with reference to FIG. When the reproduction of the sound is completed, the control unit 100 returns the operation of the portable electronic device 1 to the normal operation when the application 105 is executed.
  • the control unit 100 uses the acceleration sensor 160, the proximity sensor 150, the front-side imaging unit 200, or the touch panel 130 in the same manner as when detecting that the user's ear is approaching or touching the portable electronic device 1. Thus, it is possible to detect that the user's ear has left the portable electronic device 1.
  • the control unit 100 Since the user holds the portable electronic device 1 in his / her hand and separates the portable electronic device 1 from his / her ear, when the user's ear is separated from the portable electronic device 1, the acceleration of the portable electronic device 1 and Increases speed. Therefore, similarly to the case where the control unit 100 detects that the user's ear has approached the portable electronic device 1, the control unit 100 detects that the user's ear is from the portable electronic device 1 based on the output signal of the acceleration sensor 160. It is possible to detect separation.
  • the proximity sensor 150 does not output a detection signal. Therefore, when the detection signal is no longer output from the proximity sensor 150, the control unit 100 determines that the user's ear has moved away from the portable electronic device 1.
  • the control unit 100 determines that the user's ear is separated from the portable electronic device 1 when the user's ear is no longer imaged by the front-side imaging unit 200. Note that when the user's ear is too close to or in contact with the display portion 2a of the portable electronic device 1, even when the ear is imaged by the front side imaging unit 200, the control unit 100 captures the captured image. In some cases, it may not be recognized that the ear has been imaged by the front imaging unit 200.
  • the control unit 100 determines that the ear is captured by the front imaging unit 200 based on the image captured by the front imaging unit 200 when the user's ear is slightly away from the display portion 2a. Then, when the ear is further away from the display portion 2a and the ear is no longer imaged by the front imaging unit 200, it may be determined that the user's ear is separated from the portable electronic device 1. In addition, the control unit 100 may be used in combination with another detection method so that the user's ear can be more accurately detected that the user's ear is separated from the portable electronic device 1.
  • the control unit 100 can detect that the user's ear has left the portable electronic device 1 based on the output signal of the touch panel 130.
  • the timing at which a detection result is obtained is different.
  • the timing at which the detection result is obtained is the first proximity detection method using the acceleration sensor 160, the fourth proximity detection method for determining whether or not the front side imaging unit 200 stops imaging, the front side
  • the third proximity detection method for determining whether the ear is picked up by the imaging unit 200 and the second proximity detection method using the proximity sensor 150 are earlier in this order. That is, as the user's ear approaches the portable electronic device 1, detection results are obtained in the order of the first proximity detection method, the fourth proximity detection method, the third proximity detection method, and the second proximity detection method. It is done.
  • the fourth proximity detection method cannot be used.
  • the first proximity detection method, the third proximity detection method, the second proximity detection method, The timing at which the detection result is obtained is earlier in the order of the proximity detection method.
  • an accompanying process such as turning off the display of the display panel 120 is performed.
  • This accompanying process is desirably executed at the earliest possible stage when the user tries to bring the ear close to the portable electronic device 1 in order to hear the reproduced sound from the receiver 220.
  • the display panel 120 when the display panel 120 is turned off after a while after the user starts listening to the playback sound from the receiver 220 by bringing his / her ear close to or in contact with the portable electronic device 1 The user may feel annoying for a while.
  • the user stops listening to the playback sound from the receiver 220 and then stops outputting the sound from the sound output unit, the user feels troublesome for a while, or the receiver 220 It is difficult to hear the sound from.
  • the videophone application when the videophone application is being executed, if the user turns off the function of the microphone 190 after a while after the user starts listening to the playback sound from the receiver 220, the user of the communication partner apparatus May feel uncomfortable for a while as unwanted sounds are transmitted.
  • the communication partner apparatus when an application relating to a call such as a videophone application and a voice call application is being executed, after a while after the user starts listening to the playback sound from the receiver 220, the communication partner apparatus is When the execution of the sound reproduction process in the portable electronic device 1 is notified, the user of the communication partner device has an abnormality in the communication between the communication partner device and the portable electronic device 1 for a while. I sometimes misunderstand it.
  • the control unit 100 uses two proximity detection methods having different timings at which detection results are obtained, and executes an accompanying process as a preparatory process before the sound reproduction process is performed as much as possible.
  • Ancillary processing should be performed early. Specifically, when the control unit 100 detects that the user's ear has approached the portable electronic device 1 in the proximity detection method in which the detection result is obtained first among the two proximity detection methods to be used, the control unit 100 performs an accompanying process. I do. Then, when the control unit 100 detects that the user's ear has approached the portable electronic device 1 in the proximity detection method in which a detection result is obtained later, the control unit 100 performs sound reproduction processing.
  • the control unit 100 detects that the user's ear has approached the portable electronic device 1, the control unit 100 performs an accompanying process, and when detecting that the user's ear has further approached the portable electronic device 1, the sound reproduction processing is performed. I do.
  • the proximity detection method in which the detection result is obtained first is referred to as “primary proximity detection method”, and the proximity detection method in which the detection result is obtained later is “2”. This is called “next proximity detection method”.
  • the accompanying process may be referred to as a preparation process.
  • the first proximity detection method may be employed as the primary proximity detection method
  • the second proximity detection method may be employed as the secondary proximity detection method.
  • the fourth proximity detection method is adopted as the primary proximity detection method
  • the third proximity detection method is adopted as the secondary proximity detection method. Also good.
  • FIG. 16 is a flowchart showing the operation.
  • step s1 is executed, and the videophone application is executed. And the above-mentioned step s2 is performed and the recording of the sound output from a sound output part is started.
  • step s11 After the recording of the sound output from the sound output unit is started, in step s11, when the control unit 100 detects that the user's ear has approached the portable electronic device 1 in the primary proximity detection method, step s12 is performed.
  • the control unit 100 performs preparatory processing (accompanying processing) before execution of the sound reproduction processing. In this preparation process, as described above, the display on the display panel 120 is turned off, the sound output of the sound output unit is stopped, the function of the microphone 190 is turned off, and the communication partner apparatus is notified of the execution of the sound reproduction process.
  • step s13 when the control unit 100 detects that the user's ear has approached the portable electronic device 1 in the secondary proximity detection method, that is, the user's ear has further approached the portable electronic device 1. If it is detected, sound reproduction processing is performed in step s14.
  • step s14 when reproduction by the receiver 220 for the sound output from the sound output unit is completed in step s5, the above-described step s6 is executed, and the control unit 100 performs the portable electronic device 1. Make normal videophone communication.
  • the control unit 100 performs a preparation process when the user's ear approaches the portable electronic device 1, and then performs a sound reproduction process when the user's ear further approaches the portable electronic device 1. It is carried out. Instead of such processing, the control unit 100 performs preparatory processing when the user's ear approaches the portable electronic device 1, and then performs sound reproduction processing when the user's ear touches the portable electronic device 1. May be performed.
  • the control unit 100 uses a proximity detection method and a contact detection method. That is, in step s11 described above, when one of the first to fourth proximity detection methods is used and it is detected that the user's ear has approached the portable electronic device 1, In step s12, a preparation process is executed. Thereafter, when the contact detection method is used in step s13 and it is detected that the user's ear has contacted the portable electronic device 1, sound reproduction processing is executed in step s14.
  • the control unit 100 when the control unit 100 performs sound output processing for causing the sound output unit to output sound, the control unit 100 detects that the user's ear has approached the portable electronic device 1. A preparatory process before the reproduction process is performed. Thereafter, the control unit 100 performs sound reproduction processing when detecting that the user's ear is closer to or in contact with the portable electronic device 1.
  • the preparation process is executed as early as possible. Therefore, it is possible to suppress the occurrence of problems due to the execution of the sound reproduction process.
  • the user when the user tries to listen to the reproduction sound output from the receiver 220 by executing the sound reproduction process, the user outputs the sound from the sound output unit such as the external speaker 180 and the like. It is possible to suppress the occurrence of problems that are felt troublesome.
  • the portable electronic device 1 and the sound output device such as the earphone are connected by wire, but may be connected wirelessly.
  • a short-range wireless communication unit capable of performing short-range wireless communication using Bluetooth (registered trademark) is provided separately from or in place of the external output unit 170.
  • a sound (sound signal) is output from the short-range wireless communication unit to the Bluetooth-compatible earphone or headphone.
  • the short-range wireless communication unit functions as an external output unit that outputs sound to the sound output device, and the short-range wireless communication unit is also included in the sound output unit. Therefore, in this case, when the user's ear approaches or comes into contact with the portable electronic device 1 while the short-range wireless communication unit outputs sound to the sound output device, the short-range wireless communication unit Is reproduced and output from the receiver 220.
  • the present invention is a portable electronic device including a receiver and a sound output unit provided separately from the receiver. If so, the present invention can also be applied to a portable electronic device other than a cellular phone.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Telephone Function (AREA)
  • Telephone Set Structure (AREA)

Abstract

 携帯型電子機器は、レシーバと、音出力部と、レシーバ及び音出力部を制御する制御部とを備えている。制御部は、音出力部に音を出力させる音出力処理を行っている際に、携帯型電子機器の使用者の耳が当該携帯型電子機器に近づくこと及び接触することの少なくとも一方が生じると、当該音出力処理で音出力部に出力させた音を再生してレシーバに出力させる音再生処理を行う。

Description

携帯型電子機器
 本発明は、携帯型電子機器に関する。
 従来から携帯型電子機器に関して様々な技術が提案されている。
 携帯電話機等の携帯型電子機器においては、外部スピーカから音が出力されたり、イヤホンあるいはヘッドホンに音を出力する外部出力部から音が出力されたりすることがある。例えば、携帯型電子機器が通信相手装置とテレビ電話通信を行っている際には、外部スピーカから音が出力されることがある。携帯型電子機器の使用者が、外部スピーカから出力される音を聞く際には、その外部スピーカの性能及び周囲の環境等によって音が聞きづらい場合がある。また、使用者が、外部出力部から出力される音をイヤホンあるいはヘッドホンで聞く場合にも、イヤホンあるいはヘッドホンの性能及び周囲の環境等によって音が聞きづらいことがある。
 そこで、使用者が聞きづらかった音を簡単に聞き直すことが可能な技術が望まれる。
 ある態様に係る携帯型電子機器は、レシーバと、前記レシーバとは別に設けられた音出力部と、前記レシーバ及び前記音出力部を制御する制御部とを備え、前記制御部は、前記音出力部に音を出力させる音出力処理を行っている際に、前記携帯型電子機器の使用者の耳が当該携帯型電子機器に近づくこと及び接触することの少なくとも一方が生じると、当該音出力処理で当該音出力部に出力させた音を再生して前記レシーバに出力させる音再生処理を行う。
 本発明の一態様によれば、使用者は聞きづらかった音を簡単に聞き直すことができる。
 この発明の目的、特徴、局面、及び利点は、以下の詳細な説明と添付図面とによって、より明白となる。
携帯型電子機器の外観を示す斜視図である。 携帯型電子機器の外観を示す前面図である。 携帯型電子機器の外観を示す裏面図である。 携帯型電子機器の外観を示す側面図である。 携帯型電子機器の電気的構成を主に示すブロック図である。 記憶部が記憶するプログラムを示す図である。 圧電振動素子の構造を示す上面図である。 圧電振動素子の構造を示す側面図である。 圧電指導素子が撓み振動する様子を示す図である。 圧電指導素子が撓み振動する様子を示す図である。 携帯型電子機器の上下方向における断面構造を示す図である。 カバーパネルをその内側主面側から見た際の平面図である。 気導音及び伝導音を説明するための図である。 携帯型電子機器の動作を示すフローチャートである。 使用者の耳が携帯型電子機器に近づいている様子を示す図である。 携帯型電子機器の動作を示すフローチャートである。
 <携帯型電子機器の外観>
 図1~4は、それぞれ、実施の形態に係る携帯型電子機器1の外観を示す斜視図、前面図、裏面図及び側面図である。図4は、図2に示される携帯型電子機器1を紙面左側から見た際の当該携帯型電子機器1が示されている。本実施の形態に係る携帯型電子機器1は、例えば携帯電話機である。
 図1~4に示されるように、携帯型電子機器1は、カバーパネル2とケース部分3を備えている。カバーパネル2とケース部分3とが組み合わされることによって、平面視で略長方形の板状を成す機器ケース4が構成されている。
 カバーパネル2は、平面視において略長方形を成している。カバーパネル2は、携帯型電子機器1の前面部分における、周縁部分以外の部分を構成している。カバーパネル2は、例えば、透明のガラスあるいは透明のアクリル樹脂で形成されている。ケース部分3は、携帯型電子機器1の前面部分の周縁部分、側面部分及び裏面部分を構成している。ケース部分3は、例えばポリカーボネート樹脂で形成されている。
 カバーパネル2には、文字、記号、図形等の各種情報が表示される表示部分2aが設けられている。表示部分2aは例えば平面視で長方形を成している。カバーパネル2における、表示部分2aを取り囲む周縁部分2bは、例えばフィルム等が貼られることによって黒色となっている。これにより、周縁部分2bは、情報が表示されない非表示部分となっている。カバーパネル2の内側主面には後述するタッチパネル130が貼り付けられている。これにより、使用者は、カバーパネル2の表示部分2aを指等で操作することによって、携帯型電子機器1に対して各種指示を与えることができる。
 機器ケース4の内部には、複数の操作ボタン141を備える操作部140が設けられている。各操作ボタン141は、いわゆる「ハードキー」であって、その表面が、カバーパネル2の外側主面20の下側端部から露出している。カバーパネル2の下側端部には、複数の操作ボタン141を露出させるための穴があけられている。また、カバーパネル2の下側端部にはマイク穴30があけられている。カバーパネル2の外側主面20の上側端部からは、後述する前面側撮像部200が有する撮像レンズ200aが露出している。なお、本実施の形態に係る携帯型電子機器1では、「ハードキー」である三つの操作ボタン141が設けられているが、操作ボタン141の個数は適宜変更されても良いし、操作ボタン141を設けなくても良い。
 図2に示されるように、機器ケース4の内部には、後述する圧電振動素子221及び近接センサ150が設けられている。また、図3に示されるように、携帯型電子機器1の裏面10、言い換えれば機器ケース4の裏面には、スピーカ穴40があけられている。携帯型電子機器1の裏面10からは、後述する裏面側撮像部210が有する撮像レンズ210aが露出している。また、図4に示されるように、携帯型電子機器1をカバーパネル2側から見た際の当該携帯型電子機器1の左側側面11には外部端子50が設けられている。外部端子50にはイヤホンあるいはヘッドホンが有線で接続される。以後、イヤホン及びヘッドホンを総称して「音出力装置」と呼ぶことがある。
 <携帯型電子機器の電気的構成>
 図5は携帯型電子機器1の電気的構成を主に示すブロック図である。図5に示されるように、携帯型電子機器1には、制御部100、無線通信部110、表示パネル120、タッチパネル130、操作部140、近接センサ150、加速度センサ160及び外部出力部170が設けられている。さらに携帯型電子機器1には、圧電振動素子221及びカバーパネル2で構成されたレシーバ220、外部スピーカ180、音入力部であるマイク190、前面側撮像部200、裏面側撮像部210及び電池230が設けられている。携帯型電子機器1に設けられた、カバーパネル2以外のこれらの構成要素は、機器ケース4内に収められている。
 制御部100は、携帯型電子機器1の他の構成要素を制御することによって、携帯型電子機器1の動作を統括的に管理する。制御部100は、CPU(Central Processing Unit)101、DSP(Digital Signal Processor)102及び記憶部103等を備えている。
 記憶部103は、ROM(Read Only Memory)及びRAM(Random Access Memory)等の、制御部100(CPU101及びDSP102)が読み取り可能な非一時的な記録媒体で構成されている。図6に示されるように、記憶部103には、携帯型電子機器1の動作、具体的には携帯型電子機器1が備える無線通信部110、表示パネル120等の各構成要素を制御するための制御プログラムであるメインプログラム104及び複数のアプリケーションプログラム105等が記憶されている。制御部100の各種機能は、CPU101及びDSP102が記憶部103内の各種プログラムを実行することによって実現される。
 なお記憶部103は、ROM及びRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えていても良い。記憶部103は、例えば、小型のハードディスクドライブ及びSSD(Solid State Drive)等を備えていても良い。
 無線通信部110は、アンテナ111を有している。無線通信部110は、携帯型電子機器1とは別の携帯電話機あるいはインターネットに接続されたウェブサーバ等の通信装置からの信号を基地局を介してアンテナ111で受信する。無線通信部110は、受信信号に対して増幅処理及びダウンコンバートを行って制御部100に出力する。制御部100は、入力される受信信号に対して復調処理等を行って、当該受信信号に含まれる、音声や音楽などを示す音信号などを取得する。また無線通信部110は、制御部100で生成された、音信号等を含む送信信号に対してアップコンバート及び増幅処理を行って、処理後の送信信号をアンテナ111から無線送信する。アンテナ111からの送信信号は、基地局を通じて、携帯型電子機器1とは別の携帯電話機あるいはインターネットに接続された通信装置で受信される。
 また、無線通信部110は、テレビ放送を受信するテレビアンテナ112を有しており、テレビアンテナ112で受信した受信信号を制御部100に出力する。制御部100は、入力されたテレビ放送の受信信号に含まれる動画像及び音声等を取得する。
 表示パネル120は、例えば、液晶表示パネルあるいは有機ELパネルである。表示パネル120は、制御部100によって制御されることによって、文字、記号、図形などの各種情報を表示する。表示パネル120に表示される情報は、カバーパネル2の表示部分2aに表示されることによって、当該情報は携帯型電子機器1の使用者に視認可能となる。
 タッチパネル130は、例えば、投影型静電量容量方式のタッチパネルである。タッチパネル130は、カバーパネル2の表示部分2aに対する物体の接触を検出する。タッチパネル130は、カバーパネル2の内側主面に貼り付けられており、互いに対向配置されたシート状の二つの電極センサを備えている。二つの電極センサは透明粘着性シートによって貼り合わされている。
 一方の電極センサには、それぞれがX軸方向(例えば携帯型電子機器1の左右方向)に沿って延在し、かつ互いに平行に配置された複数の細長いX電極が形成されている。他方の電極センサには、それぞれがY軸方向(例えば携帯型電子機器1の上下方向)に沿って延在し、かつ互いに平行に配置された複数の細長いY電極が形成されている。カバーパネル2の表示部分2aに対して使用者の指等が接触すると、その接触箇所の下にあるX電極及びY電極の間の静電容量が変化する。これにより、タッチパネル130においてカバーパネル2の表示部分2aに対する操作(接触)が検出される。タッチパネル130において生じる、X電極及びY電極の間の静電容量変化は制御部100に伝達される。制御部100は当該静電容量変化に基づいてカバーパネル2の表示部分2aに対して行われた操作の内容を特定し、それに応じた動作を行う。
 操作部140は、複数の操作ボタン141のそれぞれについて、当該操作ボタン141が使用者によって押下されると、当該操作ボタン141が押下されたことを示す操作信号を制御部100に出力する。制御部100は、入力される操作信号に基づいて、複数の操作ボタン141のうちのどの操作ボタン141が操作されたかを特定し、操作された操作ボタン141に応じた動作を行う。
 近接センサ150は、例えば赤外線方式の近接センサである。近接センサ150は、当該近接センサ150に対して物体が所定距離以内に近づくと検出信号を出力する。この検出信号は制御部100に入力される。携帯型電子機器1をカバーパネル2側(前面側)から見ると、図2に示されるように、近接センサ150は、カバーパネル2の上側端部の後ろ側に配置されている。これにより、カバーパネル2に対して人の頭等が近づくと、近接センサ150から検出信号が出力される。つまり、携帯型電子機器1の前面に物体が近づくと、近接センサ150から検出信号が出力される。
 加速度センサ160は、例えば3軸加速度センサである。加速度センサ160は、互いに直交する三つの検出軸のそれぞれについて、当該検出軸に沿った方向の加速度を検出して制御部100に出力する。
 外部出力部170は、外部端子50に接続される音出力装置に音を出力する。具体的には、外部出力部170は、制御部100から出力される電気的な音信号を音出力装置に適した音信号に変換し、変換後の電気的な音信号を外部端子50に出力する。これにより、外部端子50に接続されたイヤホンあるいはヘッドホンから音が出力される。
 外部スピーカ180は、例えばダイナミックスピーカであって、制御部100からの電気的な音信号を音に変換して出力する。外部スピーカ180から出力される音は、携帯型電子機器1の裏面10に設けられたスピーカ穴40から外部に出力される。スピーカ穴40から出力される音は、携帯型電子機器1から離れた場所でも聞こえるようになっている。
 マイク190は、携帯型電子機器1の外部から入力される音を電気的な音信号に変換して制御部100に出力する。携帯型電子機器1の外部からの音は、カバーパネル2の前面に設けられたマイク穴30から携帯型電子機器1の内部に取り込まれてマイク190に入力される。なお、マイク穴30は、携帯型電子機器1の側面に設けても良いし、裏面10に設けても良い。
 前面側撮像部200は、撮像レンズ200a及び撮像素子などで構成されている。前面側撮像部200は、制御部100による制御に基づいて、静止画像及び動画像を撮像する。図1,2に示されるように、撮像レンズ200aは、携帯型電子機器1の前面に設けられている。したがって、前面側撮像部200は、携帯型電子機器1の前面側(カバーパネル2側)に存在する物体を撮像することが可能である。
 裏面側撮像部210は、撮像レンズ210a及び撮像素子などで構成されている。裏面側撮像部210は、制御部100による制御に基づいて、静止画像及び動画像を撮像する。図3に示されるように、撮像レンズ210aは、携帯型電子機器1の裏面10に設けられている。したがって、裏面側撮像部210は、携帯型電子機器1の裏面10側に存在する物体を撮像することが可能である。
 レシーバ220は、受話音を使用者に伝えるものである。レシーバ220は、圧電振動素子221とカバーパネル2で構成されている。レシーバ220は、外部スピーカ180よりも小さい音量で音を出力する。レシーバ220は、使用者がカバーパネル2に耳を近づけたり接触させたりしたときに聞こえる程度の音を出力する。
 圧電振動素子221は、カバーパネル2の内側主面上に設けられている。圧電振動素子221は、制御部100から与えられる駆動電圧によって振動させられる。制御部100は、音信号に基づいて駆動電圧を生成し、当該駆動電圧を圧電振動素子221に与える。圧電振動素子221が、制御部100によって音信号に基づいて振動させられることによって、カバーパネル2が音信号に基づいて振動し、その結果、使用者に受話音が伝達される。レシーバ220については後で詳細に説明する。
 電池230は、携帯型電子機器1の電源を出力する。電池230から出力された電源は、携帯型電子機器1が備える制御部100及び無線通信部110などに含まれる各電子部品に対して供給される。
 記憶部103には様々なアプリケーションプログラム105(以後、単に「アプリケーション105」と呼ぶ)が記憶されている。記憶部103には、例えば、音声通話を行うための音声通話アプリケーション、通話の一種であるテレビ電話通信を行うためのテレビ電話アプリケーション、ウェブサイトを表示するためのブラウザ、電子メールの作成・閲覧・送受信を行うためのメールアプリケーション、記憶部103に記憶されている静止画像データを表示するためのアプリケーション、記憶部103に記憶されている音楽データを再生するための音楽再生アプリケーションが記憶されている。
 また記憶部103には、記憶部103内に記憶されている、互いに関連づけられた音データ及び動画像データ(音付き動画像データ)を再生するための動画像再生アプリケーション(以後、「記憶動画像再生アプリケーション」と呼ぶ)、ウェブサイトからストリーミング方式あるいはプログレッシブダウンロード方式等によって配信される音付き動画像データを再生するための動画像再生アプリケーション(以後、「配信動画像再生アプリケーション」と呼ぶ)、アプリケーションを有料あるいは無料で提供するウェブサーバからアプリケーションをダウンロードするためのマーケットアプリケーション、携帯型電子機器1においてパズルゲーム等のゲームを行うためのゲームアプリケーション、テレビ放送を録画及び再生するためのテレビ視聴アプリケーションが記憶されている。記憶部103内の音付き動画像データとしては、テレビ放送のニュース番組及び英会話番組等を録画して得られる音付き動画像データ及びビデオカメラで動画像が撮像されることによって得られる音付き動画像データなどがある。
 メインプログラム104を実行している制御部100が、記憶部103内のアプリケーション105を読み出して実行すると、制御部100は、無線通信部110、表示パネル120及びレシーバ220等の、携帯型電子機器1内の他の構成要素を制御する。これにより、当該アプリケーション105に対応する機能が携帯型電子機器1で実行される。
 例えば、音声通話アプリケーションを実行している制御部100は、音声の出力元がレシーバ220に設定されている場合には、無線通信部110、マイク190及びレシーバ220を制御する。これにより、携帯型電子機器1では、レシーバ220が使用されて通信相手装置との通話が行われる。また、音声通話アプリケーションを実行している制御部100は、音声の出力元が外部スピーカ180に設定されている場合には、無線通信部110、外部スピーカ180及びマイク190を制御する。これにより、携帯型電子機器1では、外部スピーカ180が使用されて通信相手装置との通話が行われる。また、音声通話アプリケーションを実行している制御部100は、音声の出力元が外部出力部170に設定されている場合には、無線通信部110、外部出力部170及びマイク190を制御する。これにより、携帯型電子機器1では、外部出力部170が使用されて通信相手装置との通話が行われる。
 また、テレビ電話アプリケーションを実行している制御部100は、音声の出力元が外部スピーカ180に設定されている場合には、無線通信部110、表示パネル120、外部スピーカ180、マイク190及び前面側撮像部200を制御する。これにより、携帯型電子機器1では外部スピーカ180が使用されて通信相手装置とのテレビ電話通信が行われる。
 また、テレビ電話アプリケーションを実行している制御部100は、音声の出力元が外部出力部170に設定されている場合には、無線通信部110、表示パネル120、外部出力部170、マイク190及び前面側撮像部200を制御する。これにより、携帯型電子機器1では外部出力部170が使用されて通信相手装置とのテレビ電話通信が行われる。
 また、記憶動画像再生アプリケーションを実行している制御部100は、音の出力元が外部スピーカ180に設定されている場合には、表示パネル120及び外部スピーカ180を制御する。これにより、携帯型電子機器1では、記憶部103内の音付き動画像データが再生される。
 また、配信動画像再生アプリケーションを実行している制御部100は、音の出力元が外部スピーカ180に設定されている場合には、無線通信部110、表示パネル120及び外部スピーカ180を制御する。これにより、携帯型電子機器1では、通信相手装置からストリーミング方式等で配信される音付き動画像データが再生される。
 <圧電振動素子の詳細>
 図7,8は、それぞれ、圧電振動素子221の構造を示す上面図及び側面図である。図7,8に示されるように、圧電振動素子221は一方向に長い形状を成している。具体的には、圧電振動素子221は、平面視で長方形の細長い板状を成している。圧電振動素子221は、例えばバイモルフ構造を有している。圧電振動素子221は、シム材221cを介して互いに貼り合わされた第1圧電セラミック板221a及び第2圧電セラミック板221bを備えている。
 圧電振動素子221では、第1圧電セラミック板221aに対して正の電圧を印加し、第2圧電セラミック板221bに対して負の電圧を印加すると、第1圧電セラミック板221aは長手方向に沿って伸び、第2圧電セラミック板221bは長手方向に沿って縮むようになる。これにより、図9に示されるように、圧電振動素子221は、第1圧電セラミック板221aを外側にして山状に撓むようになる。
 一方で、圧電振動素子221では、第1圧電セラミック板221aに対して負の電圧を印加し、第2圧電セラミック板221bに対して正の電圧を印加すると、第1圧電セラミック板221aは長手方向に沿って縮み、第2圧電セラミック板221bは長手方向に沿って伸びるようになる。これにより、図10に示されるように、圧電振動素子221は、第2圧電セラミック板221bを外側にして山状に撓むようになる。
 圧電振動素子221は、図9の状態と図10の状態とを交互にとることによって、撓み振動を行う。制御部100は、第1圧電セラミック板221aと第2圧電セラミック板221bとの間に、正の電圧と負の電圧とが交互に現れる交流電圧を印加することによって、圧電振動素子221を撓み振動させる。
 なお、図7~10に示される圧電振動素子221では、シム材221cを間に挟んで貼り合わされた第1圧電セラミック板221a及び第2圧電セラミック板221bから成る構造が一つだけ設けられていたが、複数の当該構造を積層させても良い。
 <圧電振動素子の配置位置>
 図11は携帯型電子機器1の上下方向(長手方向)における断面構造を示す図である。また図12は、カバーパネル2をその内側主面21側から見た際の平面図である。
 図11,12に示されるように、カバーパネル2の内側主面21には、当該カバーパネル2の表示部分2aと対向するようにタッチパネル130が貼り付けられている。そして、表示部である表示パネル120は、カバーパネル2及びタッチパネル130に対向するように配置されている。したがって、カバーパネル2と表示パネル120との間にはタッチパネル130が存在している。カバーパネル2では、表示パネル120と対向している部分が表示部分2aとなる。
 また、機器ケース4の内部には、CPU101及びDSP102などの各種部品が搭載されるプリント基板250が設けられている。プリント基板250は、表示パネル120よりも携帯型電子機器1の裏面10側において当該表示パネル120と対向するように配置されている。また、図12に示されるように、カバーパネル2の下側端部には、複数の操作ボタン141をそれぞれ露出させる複数の穴22があけられている。
 圧電振動素子221は、両面テープ等の接着剤260によって、カバーパネル2の内側主面21に貼り付けられている。圧電振動素子221は、カバーパネル2の内側主面21上において、当該カバーパネル2を当該内側主面21側から見た平面視で表示パネル120及びタッチパネル130とは重ならない位置に配置されている。言い換えれば、圧電振動素子221は、カバーパネル2をその厚み方向において内側主面21側から見た際に、当該内側主面21上において、表示パネル120及びタッチパネル130とは重ならない位置に配置されている。したがって、カバーパネル2と圧電振動素子221との間には、タッチパネル130及び表示パネル120は存在していない。
 また、圧電振動素子221は、カバーパネル2の内側主面21の上側端部21a上に設けられている。具体的には、圧電振動素子221は、図12に示されるように、カバーパネル2の内側主面21の上側端部21aにおける左右方向(長手方向に垂直な短手方向)の中央部21aa上に設けられている。
 また、圧電振動素子221は、その長手方向がカバーパネル2の左右方向に一致するように配置されている。そして、圧電振動素子221は、その長手方向の中心が、カバーパネル2の内側主面21の上側端部21aにおける左右方向の中心と一致するように、当該上側端部21aの中央部21aaに配置されている。
 ここで、上述の図9,10に示されるように、撓み振動を行う圧電振動素子221では、その長手方向の中心が最も変位量が大きくなる。したがって、圧電振動素子221を、その長手方向の中心が、カバーパネル2の内側主面21の上側端部21aにおける左右方向の中心と一致するように、当該上側端部21aに配置することによって、圧電振動素子221における、撓み振動での変位量が最大となる箇所が、カバーパネル2の内側主面21の上側端部21aにおける左右方向の中心に一致するようになる。
 なお、タッチパネル130がカバーパネル2の内側主面21の全面に渡って存在する場合には、カバーパネル2の内側主面21上にタッチパネル130を介して圧電振動素子221を配置しても良い。
 <レシーバによる受話音の発生について>
 本実施の形態に係るレシーバ220では、圧電振動素子221がカバーパネル2を振動させることによって、当該カバーパネル2から気導音及び伝導音が使用者に伝達されるようになっている。言い換えれば、圧電振動素子221自身の振動がカバーパネル2に伝わることにより、当該カバーパネル2から気導音及び伝導音が使用者に伝達されるようになっている。
 ここで、気導音とは、外耳道孔(いわゆる「耳の穴」)に入った音波(空気振動)が鼓膜を振動させることによって、人の脳で認識される音である。一方で、伝導音とは、耳介が振動させられ、その耳介の振動が鼓膜に伝わって当該鼓膜が振動することによって、人の脳で認識される音である。以下に、気導音及び伝導音について詳細に説明する。
 図13は気導音及び伝導音を説明するための図である。図13には、携帯型電子機器1の使用者の耳の構造が示されている。図13においては、破線400は気道音が脳で認識される際の音信号(音情報)の伝導経路を示している。実線410は伝導音が脳で認識される際の音信号の伝導経路を示している。
 カバーパネル2に取り付けられた圧電振動素子221が、受話音を示す電気的な音信号に基づいて振動させられると、カバーパネル2が振動して、当該カバーパネル2から音波が出力される。使用者が、携帯型電子機器1を手に持って、当該携帯型電子機器1のカバーパネル2を当該使用者の耳介300に近づけると、あるいは当該携帯型電子機器1のカバーパネル2を当該使用者の耳介300に当てると(接触させると)、当該カバーパネル2から出力される音波が外耳道孔310に入る。カバーパネル2からの音波は、外耳道孔310内を進み、鼓膜320を振動させる。鼓膜320の振動は耳小骨330に伝わり、耳小骨330が振動する。そして、耳小骨330の振動は蝸牛340に伝わって、蝸牛340において電気信号に変換される。この電気信号は、聴神経350を通って脳に伝達され、脳において受話音が認識される。このようにして、カバーパネル2から使用者に対して気導音が伝達される。
 また、使用者が、携帯型電子機器1を手に持って、当該携帯型電子機器1のカバーパネル2を当該使用者の耳介300に当てると、耳介300が、圧電振動素子221によって振動させられているカバーパネル2によって振動させられる。耳介300の振動は鼓膜320に伝わり、鼓膜320が振動する。鼓膜320の振動は耳小骨330に伝わり、耳小骨330が振動する。そして、耳小骨330の振動は蝸牛340に伝わり、蝸牛340において電気信号に変換される。この電気信号は、聴神経350を通って脳に伝達され、脳において受話音が認識される。このようにして、カバーパネル2から使用者に対して伝導音が伝達される。図13では、耳介300内部の耳介軟骨300aも示されている。
 なお、ここでの伝導音は、骨導音(「骨伝導音」とも呼ばれる)とは異なるものである。骨導音は、頭蓋骨を振動させて、頭蓋骨の振動が直接蝸牛などの内耳を刺激することによって、人の脳で認識される音である。図13においては、例えば下顎骨500を振動させた場合において、骨伝導音が脳で認識される際の音信号の伝達経路を複数の円弧420で示している。
 このように、本実施の形態に係る携帯型電子機器1では、圧電振動素子221が前面のカバーパネル2を適切に振動させることによって、カバーパネル2から携帯型電子機器1の使用者に対して気導音及び伝導音を伝えることができる。本実施の形態に係る圧電振動素子221では、使用者に対して適切に気導音及び伝導音を伝達できるように、その構造が工夫されている。使用者に対して気導音及び伝導音を伝えることができるように携帯型電子機器1を構成することによって様々メリットが発生する。
 例えば、使用者は、カバーパネル2を耳に当てれば音が聞こえることから、携帯型電子機器1において耳を当てる位置をそれほど気にすることなく通話を行うことができる。
 また、使用者は、周囲の騒音が大きい場合には、耳をカバーパネル2に強く押し当てることによって、伝導音の音量を大きくしつつ、周囲の騒音を聞こえにくくすることができる。よって、使用者は、周囲の騒音が大きい場合であっても、適切に通話を行うことができる。
 また、使用者は、耳栓やイヤホンを耳に取り付けた状態であっても、カバーパネル2を耳(より詳細には耳介)に当てることによって、携帯型電子機器1からの受話音を認識することができる。また、使用者は、耳にヘッドホンを取り付けた状態であっても、当該ヘッドホンにカバーパネル2を当てることによって、携帯型電子機器1からの受話音を認識することができる。
 なお、上記の例では、図11に示されるように、タッチパネル130と表示パネル120との間に隙間を設けているが、タッチパネル130と表示パネル120とを接触させても良い。本実施の形態のように、タッチパネル130と表示パネル120との間に隙間を設ける場合には、カバーパネル2が使用者によって指等で押されて、カバーパネル2が表示パネル120側に撓んだとしても、カバーパネル2が表示パネル120に当たること(より正確にはタッチパネル130が表示パネル120に当たること)を抑制することができる。よって、カバーパネル2が表示パネル120に当たることによって当該表示パネル120の表示が乱れることを抑制することができる。
 以上のように、本実施の形態に係るレシーバ220は、外部スピーカ180で使用されるダイナミックスピーカ等で構成されているのではなく、音信号に基づいて振動される圧電振動素子221と、当該圧電振動素子221が搭載されたカバーパネル2とで構成されている。したがって、レシーバ220にダイナミックスピーカを用いる場合とは異なり、レシーバ用の穴(受話口の穴)をカバーパネル2に設ける必要はない。
 <外部スピーカ及び外部出力部の出力音のレシーバでの再生処理について>
 制御部100がアプリケーション105を実行している場合には、外部スピーカ180が使用されて当該外部スピーカ180から音が出力されることがある。
 例えば、制御部100は、音声通話アプリケーションを実行している場合において、音の出力元が外部スピーカ180に設定されている場合には、無線通信部110で受信された音声データに含まれる音声を外部スピーカ180に出力させる。
 また、制御部100は、テレビ電話アプリケーションを実行している場合において、音の出力元が外部スピーカ180に設定されている場合には、無線通信部110で受信された音付き動画像データに含まれる動画像を表示パネル120に表示させるととともに、当該音付き動画像データに含まれる音声を外部スピーカ180に出力させる。
 また、制御部100は、記憶動画像再生アプリケーションを実行している場合において、音の出力元が外部スピーカ180に設定されている場合には、記憶部103内の音付き動画像データに含まれる動画像を表示パネル120に表示させるとともに、当該音付き動画像データに含まれる音を外部スピーカ180に出力させる。
 外部出力部170についても同様であって、制御部100がアプリケーション105を実行している場合には、外部出力部170が使用されて当該外部出力部170から音が出力されることがある。例えば、制御部100は、配信動画像再生アプリケーションを実行している場合において、音の出力元が外部出力部170に設定されている場合には、無線通信部110で受信される音付き動画像データに含まれる動画像を表示パネル120に表示させるとともに、当該音付き動画像データに含まれる音を外部出力部170に出力させる。以後、外部出力部170と外部スピーカ180を総称して「音出力部」と呼ぶことがある。
 携帯型電子機器1の使用者が、外部スピーカ180から出力される音を聞く際には、その外部スピーカ180の性能や周囲の環境によって音が聞きづらい場合がある。また、使用者が、外部出力部170から出力される音をイヤホン等の音出力装置で聞く場合にも、当該音出力装置の性能や周囲の環境によって音が聞きづらいことがある。録音された音(例えば英会話)が音出力部で再生されている場合には、使用者は、聞きづらかった音を再度再生して当該音出力部に出力させて、その音を聞き直すことが考えられる。このとき、聞き取りにくかった音を出力していた音出力部から再度同じ音を出力したとしても聞き取りにくい可能性が高い。さらに使用者は、携帯型電子機器1の表示部分2aを操作することによって、録音された音を巻き戻して再生する必要がある。
 そこで、本実施の形態に係る携帯型電子機器1では、制御部100がアプリケーション105を実行している場合に音出力部から音を出力させている際に、携帯型電子機器1に対して使用者の耳が近づけられると、当該音出力部から出力された音が再生されてレシーバ220から出力されるようになっている。つまり、携帯型電子機器1では、制御部100は、音出力部から音を出力させる音出力処理を行っている際に、携帯型電子機器1に対して使用者の耳が近づいたことを検出すると、当該音出力部から出力された音を再生してレシーバ220に出力させる音再生処理を行うようになっている。これにより、使用者は、音出力部からの音が聞きづらかった場合には、自身の耳を携帯型電子機器1に近づけることによってあるいは接触させることによって、当該音出力部とは別に設けられたレシーバ220を使用して、その聞きづらかった音を聞き直すことができる。よって、使用者は、聞きづらかった音を簡単に聞き直すことができる。さらに、使用者は、聞きづらかった音出力部からの音を当該音出力部とは別に設けられたレシーバ220を使用して聞き直すことができることから、聞き直した際にその音が聞こえやすくなる可能性が高くなる。以下に、このレシーバ220での音再生処理について説明する。
 図14は、テレビ電話アプリケーションが実行されているときにレシーバ220での音再生処理が行われる際の当該携帯型電子機器1の動作を示すフローチャートである。図14に示されるように、ステップs1において、制御部100は、使用者がカバーパネル2の表示部分2aを操作することによって携帯型電子機器1に対してテレビ電話アプリケーションの実行指示を行うと、記憶部103内からテレビ電話アプリケーションを読み出して実行する。これにより、携帯型電子機器1は、無線通信部110、表示パネル120、マイク190及び音出力部(外部スピーカ180あるいは外部出力部170)を使用して通信相手装置とテレビ電話通信を開始する。テレビ電話通信では、音出力部に音を出力させる音出力処理が行われる。
 次にステップs2において、制御部100は、音出力部から出力される音(通信相手装置の使用者の音声)の録音を開始する。制御部100は、例えば、無線通信部110が受信する最新の一定時間(例えば30秒間)の音を上書きしながら録音し、録音した当該最新の一定時間の音を記憶部103に記憶する。したがって、テレビ電話通信が行われている間、記憶部103には常に、通信相手装置から受信した最新の音声(詳細には音声データ)が一定時間だけ保存されることになる。
 音出力部から出力される音の録音が開始した後に、ステップs3において、制御部100が、図15に示されるように使用者600の耳610が携帯型電子機器1に近づいたことを検出すると、具体的には、使用者600の耳610が携帯型電子機器1のレシーバ220を構成するカバーパネル2に近づいたことを検出すると、ステップs4において、制御部100は、音出力部から出力された音を再生してレシーバ220に出力させる音再生処理を行う。以後、単に「音再生処理」と言えば、音出力部から出力された音を再生してレシーバ220に出力させる処理を意味する。テレビ電話通信において音出力部から出力されていた音を聞いていた使用者が、音出力部からの音が聞きづらかった場合には、その音をレシーバ220で聞き直すために、自身の耳を携帯型電子機器1に近づけようとする。そうすると、携帯型電子機器1ではステップs3,s4が順次実行される。なお、使用者の耳が携帯型電子機器1に近づいたことを検出する方法については後で詳細に説明する。
 ステップs4においては、制御部100は、記憶部103内の録音された音を再生してレシーバ220に出力させる。このとき、録音された一定時間の音を最初から再生しても良いし、途中から再生しても良い。録音された音を途中から再生する場合には、当該録音された音において最近の無音時点を特定し、その無音時点から再生しても良い。これにより、音出力部から出力された音が再生されてレシーバ220のカバーパネル2から出力される。よって、カバーパネル2に耳を近づけているか接触させている使用者は、カバーパネル2からの再生音を聞くことによって、聞きづらかった音出力部からの音を聞き直すことができる。制御部100は、録音された音に係る音信号(音データ)に基づいて圧電振動素子221を駆動することによって、当該音を再生してカバーパネル2から出力させる。なお、ステップs4においては、録音された音を再生する際、倍速再生を行って再生時間を短縮してもよい。例えば、周囲の環境によって一時的に音が聞きづらかったものの、再生する際にそれが解消されている場合などは、通信相手をできるだけ待たせないように、倍速再生を行って、再生時間を短縮してもよい。
 ステップs3が実行されると、制御部100は、ステップs4において、音再生処理以外にも、音再生処理を実行するにあたって行うことが望ましい付属処理を行う。本実施の形態では、付随処理として、制御部100は、表示パネル120のバックライトを消灯するなどして当該表示パネル120の表示をオフにする。また制御部100は、付随処理として、音出力部の機能をオフにする。つまり、制御部100は、音出力部の音出力を停止する。使用者は、レシーバ220のカバーパネル2に耳を近づけてあるいは接触させて、聞きづらかった音を聞き直すことから、表示パネル120の表示がオンとなっており、カバーパネル2の表示部分2aにテレビ電話通信の動画像が表示されていると、煩わしいと感じることがある。また、外部スピーカ180から音が出力されている状態で、使用者が耳をカバーパネル2に近づけていったときには、外部スピーカ180からの音を煩わしく感じたり、外部スピーカ180からの音によってカバーパネル2からの音が聞こえにくかったりすることがある。また、外部出力部170からの音がイヤホンから出力されている状態で、使用者がイヤホンを付けている耳とは逆の耳をカバーパネル2に近づけたり接触させたりする場合には、イヤホンからの音を煩わしく感じたり、イヤホンからの音によってカバーパネル2からの音が聞こえにくかったりすることがある。そこで、本実施の形態では、音再生処理の付随処理として、制御部100は、表示パネル120の表示をオフにするとともに、音出力部の音出力を停止している。これにより、携帯型電子機器1の消費電力が低減するといった効果も発生する。なお、音出力部の音出力を停止する代わりに、音出力部の音量を小さくしても良い。
 また、制御部100は、付随処理として、無線通信部110を使用して、携帯型電子機器1がテレビ電話通信を行っている通信相手装置に対して音再生処理の実行の通知を行う。具体的には、制御部100は、音再生処理の実行の通知を行うための通知信号を生成する。そして、制御部100は、生成した通知信号を、テレビ電話通信を行っている通信相手装置に向けて無線通信部110に送信させる。通信相手装置は、携帯型電子機器1から音再生処理の実行が通知されると、当該通信相手装置の使用者に対して携帯型電子機器1での音再生処理の実行を通知する。例えば、通信相手装置は、携帯型電子機器1での音再生処理の実行を通知するための情報(以後、「音再生処理実行通知情報」と呼ぶ)を自装置の表示部に表示する。通信相手装置の表示部には、音再生処理実行通知情報として、例えば「音の聞き直しを実行中」といった文字列が表示される。これにより、携帯型電子機器1とテレビ電話通信を行っている通信相手装置の使用者は、携帯型電子機器1の使用者が、音出力部から出力された音をレシーバ220で聞き直していることを認識することができる。その結果、通信相手装置の使用者が、携帯型電子機器1で音再生処理が行われている際に、当該通信相手装置と携帯型電子機器1との間の通信が異常になったと間違って認識することを抑制することができる。
 また、制御部100は、付随処理として、マイク190の機能をオフにする。つまり、制御部100は、付属処理として、マイク190に入力される音を無効として、マイク190に入力される音がテレビ電話通信の通信相手装置に入力されないようにする。これにより、携帯型電子機器1の使用者がレシーバ220で音を聞き直している際に、不要な音が通信相手装置に入力されて、当該通信相手装置の使用者が不快な思いをすることを抑制することができる。また、制御部100は、マイク190の機能をオフするとともに、無線通信部110を使用して、音楽あるいは「しばらくお待ちください」といったアナウンスが通信相手装置に入力されるようにしてもよい。この場合には、通信相手装置は、入力された音楽あるいはアナウンスを外部スピーカ等を利用して当該通信相手装置の使用者に伝達する。
 音再生処理及びその付随処理が実行された後、ステップs5において、録音された音のレシーバ220での再生が終了すると、言い換えれば、音出力部から出力された音についてのレシーバ220での再生が終了すると、ステップs6において、制御部100は、携帯型電子機器1が通常のテレビ電話通信を行うようにする。つまり、制御部100は、携帯型電子機器1の動作を、テレビ電話アプリケーションの実行時の通常動作に復帰させる。具体的には、制御部100は、表示パネル120の表示をオン、音出力部の機能をオン(音出力部の音量を小さくしている場合には、元の音量に戻す)、マイク190の機能をオンにするとともに、レシーバ220から音が出力されないようにする。これにより、表示パネル120には、無線通信部110が受信する音付き動画像データに含まれる動画像が表示される。また、音出力部からは当該音付き動画像データに含まれる音声が出力される。そして、マイク190に入力された音声は通信相手装置に入力される。また、制御部100は、無線通信部110を使用して通信相手装置に対して音再生処理の終了を通知する。通信相手装置は、携帯型電子機器1から音再生処理の終了が通知されると、自身の表示部から音再生処理実行通知情報の表示を消去して、表示部の表示を通常状態に復帰させる。
 なお、テレビ電話アプリケーション、音声通話アプリケーション、配信動画像再生アプリケーション及びテレビ視聴アプリケーションなどのアプリケーション105が実行されている場合には、携帯型電子機器1に入力される音がリアルタイムに音出力部から出力される。この場合には、音再生処理を行うために、上述のステップs3のように携帯型電子機器1に入力される音を録音する必要がある。
 これに対して、記憶動画像再生アプリケーション及び音楽再生アプリケーションなどのアプリケーション105が実行されている場合には、当該アプリケーション105が実行される段階で記憶部103にすでに記憶されている音が再生されて音出力部から出力される。したがって、上述のステップs2は不要となる。このように、アプリケーション105が実行される際にすでに記憶済みの音が再生されて外部スピーカ180あるいは外部出力部170から出力される場合には、ステップs4での音再生処理では、制御部100は、再生中の記憶済みの音を巻き戻して再び再生してレシーバ220に出力させることになる。このとき、制御部100は、ステップs3において使用者の耳が携帯型電子機器1に近づいたことを検出した時点で再生中の記憶済みの音を所定時間だけ巻き戻しても良いし、使用者の耳が携帯型電子機器1に近づいたことを検出した時点で再生中の記憶済みの音を当該時点に最も近い無音時点まで巻き戻しても良い。制御部100は、再生中の記憶済みの音を巻き戻して再び再生してレシーバ220に出力させる場合には、記憶済みの音が巻き戻し前の時点まで再生されると、レシーバ220での音出力部の出力音の再生を終了する(ステップs5に相当)。そして、制御部100は、レシーバ220に音を出力させないようにするとともに、表示パネル120の表示をオン、音出力部の機能をオンにする(ステップs6に相当)。これにより、携帯型電子機器1の動作が、アプリケーション105が実行されている際の通常の動作に復帰する。
 <耳の近接の検出方法>
 制御部100は、様々な方法で、使用者の耳が携帯型電子機器1に近づいたことを検出することができる。以下に、使用者の耳が携帯型電子機器1に近づいたことを検出する方法について複数種類説明する。
 <第1の近接検出方法>
 この第1の近接検出方法では、加速度センサ160の出力信号が使用される。使用者が、携帯型電子機器1のカバーパネル2からの音を聞こうとするために、携帯型電子機器1を手に持ってカバーパネル2を耳に近づけようとする場合には、携帯型電子機器1の加速度及び速度が大きくなる。そこで、第1の近接検出方法では、制御部100は、加速度センサ160の出力信号に基づいて、使用者の耳が携帯型電子機器1に近づいたことを検出する。具体的には、例えば、制御部100は、加速度センサ160から出力される、三つの検出軸についての加速度のいずれか一つがしきい値を超えると、使用者の耳が携帯型電子機器1に近づいたと判断する。あるいは、制御部100は、例えば、加速度センサ160から出力される、三つの検出軸についての加速度から、当該三つの検出軸のそれぞれについて当該検出軸に沿った方向の速度を求める。そして、制御部100は、求めた三つの速度のうちのいずれか一つがしきい値を超えると、使用者の耳が携帯型電子機器1に近づいたと判断する。
 <第2の近接検出方法>
 この第2の近接検出方法では、近接センサ150の出力信号が使用される。上述のように、携帯型電子機器1をカバーパネル2側から見ると、近接センサ150は、カバーパネル2の上側端部の後ろ側に配置されている。したがって、カバーパネル2に対して人の頭等が近づくと、近接センサ150から検出信号が出力される。そこで、第2の近接検出方法では、外部スピーカ180等の音出力部から音が出力されている場合に、近接センサ150から検出信号が出力されると、制御部100は、使用者の耳が携帯型電子機器1に近づいたと判断する。
 <第3の近接検出方法>
 この第3の近接検出方法では、携帯型電子機器1の前面側の物体を撮像することが可能な前面側撮像部200が使用される。使用者が、カバーパネル2に耳を近づけようとすると、動作中の前面側撮像部200では使用者の耳が撮像される。そこで、第3の近接検出方法では、制御部100は、音出力部から音が出力されている場合に前面側撮像部200を動作させる。そして、制御部100は、前面側撮像部200において使用者の耳が撮像されると、使用者の耳が携帯型電子機器1に近づいたと判断する。前面側撮像部200において使用者の耳が撮像されたかについては、前面側撮像部200から出力される画像信号を解析することによって簡単に判断可能である。
 <第4の近接検出方法>
 この第4の近接検出方法では、上記の第3の近接検出方法と同様に前面側撮像部200が使用される。携帯型電子機器1がテレビ電話通信を行っている場合には、動作中の前面側撮像部200において使用者の顔が撮像される。そして、使用者が、カバーパネル2に耳を近づけようとすると、前面側撮像部200においては使用者の顔が撮像されなくなる。そこで、携帯型電子機器1がテレビ電話通信を行っている場合には、言い換えれば、制御部100においてテレビ電話アプリケーションが実行されている場合には、制御部100は、前面側撮像部200においては使用者の顔が撮像されなくなると、使用者の耳が携帯型電子機器1に近づいたと判断する。
 本実施の形態に係る携帯型電子機器1では、制御部100は、テレビ電話アプリケーションを実行している場合には、上述のステップs3において、第1~第4の近接検出方法の少なくとも一つの近接検出方法を使用する。一方で、制御部100は、テレビ電話アプリケーション以外のアプリケーションを実行している場合には、上述のステップs3において、第1~第3の近接検出方法の少なくとも一つの近接検出方法を使用する。
 制御部100は、ステップs3において複数の近接検出方法を使用する場合には、当該複数の近接検出方法のうちの少なくとも一つの近接検出方法において使用者の耳が携帯型電子機器1に近づいたと検出すると、ステップs4を実行する。あるいは、制御部100は、使用する複数の近接検出方法のすべてにおいて使用者の耳が携帯型電子機器1に近づいたと検出すると、ステップs4を実行する。
 また、ステップs3においては、制御部100は、使用者の耳が携帯型電子機器1に接触したことを検出しても良い。制御部100は、使用者の耳が携帯型電子機器1に接触したことを検出する際には、例えば、カバーパネル2の表示部分2aへの物体の接触を検出するタッチパネル130の出力信号を使用する。具体的には、制御部100は、タッチパネル130の出力信号から、例えば、カバーパネル2の表示部分2aにおいて物体が接触した領域の形状を特定する。そして、制御部100は、特定した形状に基づいて、カバーパネル2の表示部分2aに対して使用者の耳が接触したかを判断する。以後、この検出方法を「接触検出方法」と呼ぶ。
 ステップs3において、使用者の耳が携帯型電子機器1に接触したことが検出される場合には、これとともに、使用者の耳が携帯型電子機器1に近づいたことを検出しても良いし、検出しなくても良い。ステップs3において、制御部100は、使用者の耳が携帯型電子機器1に接触したことだけを検出する場合には、使用者の耳が携帯型電子機器1に接触したことを検出すると、ステップs4を実行する。一方で、ステップs3において、制御部100は、使用者の耳が携帯型電子機器1に近づいたこと及び接触したことの両方を検出する場合には、使用者の耳が携帯型電子機器1に近づいたこと及び接触したことの両方を検出すると、ステップs4を実行する。
 ステップs3において、使用者の耳が携帯型電子機器1に近づいたこと及び接触したことの両方の検出が行われる場合には、テレビ電話アプリケーションを実行している制御部100は、第1~第4の近接検出方法の少なくとも一つと接触検出方法とを使用する。またこの場合には、テレビ電話アプリケーション以外のアプリケーションを実行している制御部100は、第1~第3の近接検出方法の少なくとも一つと接触検出方法とを使用する。ステップs3において、使用者の耳が携帯型電子機器1に近づいたこと及び接触したことの両方の検出が行われる場合であって、複数の近接検出方法が使用される場合には、制御部100は、当該複数の近接検出方法のうちの少なくとも一つの検出方法において使用者の耳が携帯型電子機器1に近づいたことを検出し、かつ接触検出方法において使用者の耳が携帯型電子機器1に接触したことを検出すると、ステップs4を実行する。あるいは、制御部100は、使用する複数の近接検出方法のすべてにおいて使用者の耳が携帯型電子機器1に近づいたことを検出し、かつ接触検出方法において使用者の耳が携帯型電子機器1に接触したことを検出すると、ステップs4を実行する。
 なお、上記の例では、レシーバ220は、圧電振動素子221とカバーパネル2とで構成されていたが、外部スピーカ180と同様のスピーカ、例えばダイナミックスピーカで構成されても良い。この場合には、携帯型電子機器1に内蔵されたレシーバ220が出力する音を携帯型電子機器1の外部に出力するためのレシーバ用の穴が、カバーパネル2の例えば上端部にあけられる。使用者は、カバーパネル2に設けられたレシーバ用の穴に耳を近づけたり、接触したりすることによって、レシーバ220からの音を聞くことになる。
 以上のように、本実施の形態では、外部スピーカ180等の音出力部が音を出力している際に、制御部100は、使用者の耳が携帯型電子機器1に近づいたこと及び接触したことの少なくとも一方を検出すると、音出力部が出力した音を再生してレシーバ220から出力させる。言い換えれば、制御部100は、音出力部が音を出力している際に、使用者の耳が携帯型電子機器1に近づくたこと及び接触することの少なくとも一方が生じると、音出力部が出力した音を再生してレシーバ220から出力させる。したがって、音出力部から出力された音が聞きづらかった使用者は、携帯型電子機器1に耳を近づけるか接触させることによって、その聞きづらかった音をレシーバ220から聞くことができる。よって、使用者は、聞きづらかった音を簡単に聞き直すことができる。さらに、使用者は、聞きづらかった音出力部からの音を当該音出力部とは別のレシーバ220を使用して聞き直すことから、聞き直した際にその音が聞こえやすくなる可能性が高くなる。
 また、本実施の形態のように、レシーバ220を、カバーパネル2と当該カバーパネル2の内側主面21上に設けられた圧電振動素子221とで構成することによって、使用者は耳をカバーパネル2に強く押し当てることによって、レシーバ220からの音が聞こえやすくなる。よって、使用者がレシーバ220を使用して音を聞き直しても再び聞きづらくなるといったことを抑制することができる。
 <各種変形例>
 <第1変形例>
 圧電振動素子221とカバーパネル2を備えるレシーバ220を使用する場合には、上述のように、使用者は、イヤホンを耳に取り付けた状態であっても、カバーパネル2にその耳を当てることによって、レシーバ220からの音を認識することができる。したがって、イヤホンとレシーバ220から同じ音を出力させると、使用者はその音を聞きやすくなる。
 また、使用者は、ヘッドホンを両耳に取り付けた状態であっても、当該ヘッドホンにカバーパネル2を押し当てることによって、レシーバ220からの音を認識することができる。したがって、ヘッドホンとレシーバ220から同じ音を出力させると、使用者はその音を聞きやすくなる。
 そこで、本変形例では、イヤホン等の音出力装置で音を聞いている使用者がレシーバ220で音を聞き直す際に、イヤホンを取り付けている耳をカバーパネル2に押し当てること、あるいはヘッドホンにカバーパネル2を押し当てる状況を考える。制御部100は、外部出力部170に音を出力させている場合には、上述のステップs4において、外部出力部170から出力された音を、レシーバ220だけではなく外部出力部170にも再生して出力させる。これにより、聞きづらかった音が音出力装置とカバーパネル2の両方から出力されることから、使用者がその音を聞き直した際に再び聞きづらくなるといったことを抑制することができる。
 <第2変形例>
 音出力部から出力された音をレシーバ220で聞き直していた使用者は、音を聞き直した後も、レシーバ220を使用して、アプリケーション105の実行中に音出力部から出力される音(テレビ電話アプリケーションの実行時であれば無線通信部110で受信される、通信相手装置の使用者の音声)を聞きたい場合がある。
 そこで、本変形例では、制御部100は、使用者の耳が携帯型電子機器1に近い状態あるいは接触した状態で、音出力部から出力された音についてのレシーバ220での再生が終了した際には、アプリケーション105の実行時に音出力部に出力させる音をレシーバ220に出力させる。言い換えれば、制御部100は、携帯型電子機器1に近づいているあるいは接触している使用者の耳が携帯型電子機器1から離れずに、音出力部から出力された音についてのレシーバ220での再生が終了した際には、アプリケーション105の実行時に音出力部に出力させる音をレシーバ220に出力させる。これにより、使用者は、レシーバ220を使用して音を聞き直した後に、引き続きレシーバ220を使用して、アプリケーション105の実行時に音出力部に出力される音を聞くことができる。なお、制御部100は、テレビ電話アプリケーションを実行している場合には、テレビ電話アプリケーション実行時に音出力部に出力させる音(通信相手装置の使用者の音声)をレシーバ220に出力させるとともに、マイク190の機能をオンにして、レシーバ220とマイク190を使用した音声通話を携帯型電子機器1に実行させても良い。
 制御部100は、使用者の耳が携帯型電子機器1に近い状態あるいは接触した状態で、音出力部から出力された音についてのレシーバ220での再生が終了した後、使用者の耳が携帯型電子機器1から離れると、携帯型電子機器1の動作をアプリケーション105の実行時の通常動作に復帰させる。つまり、制御部100は、使用者の耳が携帯型電子機器1から離れると、レシーバ220に音を出力させないようにするとともに、オフにしていた表示パネル120の表示をオン、オフにしていた音出力部の機能をオンにする(音出力部の音量を小さくしている場合には、元の音量に戻す)。そして、制御部100は、無線通信部110を使用して通信相手装置に対して音再生処理の終了を通知する。
 また、制御部100は、使用者が耳を携帯型電子機器1から離している状態でレシーバ220での音の再生が終了した場合には、図14を参照して説明したように、レシーバ220での音の再生が終了した時点で、制御部100は、携帯型電子機器1の動作をアプリケーション105の実行時の通常動作に復帰させる。
 制御部100は、使用者の耳が携帯型電子機器1に近づいたことあるいは接触したことを検出する場合と同様に、加速度センサ160、近接センサ150、前面側撮像部200あるいはタッチパネル130を使用して使用者の耳が携帯型電子機器1から離れたことを検出することができる。
 使用者は、携帯型電子機器1を手に持って耳から携帯型電子機器1を離すことから、使用者の耳が携帯型電子機器1から離れる際には、携帯型電子機器1の加速度及び速度が大きくなる。よって、制御部100は、使用者の耳が携帯型電子機器1に近づいたことを検出する場合と同様に、加速度センサ160の出力信号に基づいて、使用者の耳が携帯型電子機器1から離れたことを検出することできる。
 また、使用者の耳が携帯型電子機器1から離れると、近接センサ150は検出信号を出力しなくなる。したがって、制御部100は、近接センサ150から検出信号が出力されなくなった場合には、使用者の耳が携帯型電子機器1から離れたと判断する。
 また、使用者の耳が携帯型電子機器1から離れると、前面側撮像部200では使用者の耳が撮像されなくなる。したがって、制御部100は、前面側撮像部200において使用者の耳が撮像されなくなった際には、使用者の耳が携帯型電子機器1から離れたと判断する。なお、携帯型電子機器1の表示部分2aに使用者の耳が近づきすぎた場合又は接触した場合は、前面側撮像部200によって耳が撮像されたとしても、制御部100は、その撮像画像に基づいて耳が前側撮像部200で撮像されたと認識できない場合がある。そのような場合には、制御部100は、使用者の耳が表示部分2aから少し離れた段階で前側撮像部200で撮像させた画像に基づいて前側撮像部200で耳が撮像されたと判断し、その後、当該耳が表示部分2aからさらに離れて当該耳が前側撮像部200で撮像されなくなった際に、使用者の耳が携帯型電子機器1から離れたと判断しても良い。また、制御部100は、使用者の耳が携帯型電子機器1から離れたことをより正確に検出できるよう、他の検出方法と組み合わせて使用しても良い。
 また、携帯型電子機器1の表示部分2aに接触していた使用者の耳が携帯型電子機器1から離れると、タッチパネル130では表示部分2aに対する使用者の耳の接触が検出されなくなる。したがって、制御部100は、タッチパネル130の出力信号に基づいて、使用者の耳が携帯型電子機器1から離れたことを検出することができる。
 <第3変形例>
 上述の第1~第4の近接検出方法においては、検出結果が得られるタイミング、つまり、使用者の耳が携帯型電子機器1に近づいたことが検出されるタイミングが異なっている。具体的には、検出結果が得られるタイミングは、加速度センサ160を用いた第1の近接検出方法、前面側撮像部200において顔が撮像されなくなったかを判断する第4の近接検出方法、前面側撮像部200において耳が撮像されるようになったかを判断する第3の近接検出方法、近接センサ150を用いた第2の近接検出方法の順で早い。つまり、使用者の耳が携帯型電子機器1に近づくにつれて、第1の近接検出方法、第4の近接検出方法、第3の近接検出方法、第2の近接検出方法の順で検出結果が得られる。なお、テレビ電話アプリケーション以外のアプリケーションが実行される場合には、第4の近接検出方法は使用できないことから、この場合には、第1の近接検出方法、第3の近接検出方法、第2の近接検出方法の順で、検出結果が得られるタイミングが早い。
 一方で、上述のように、音再生処理が実行される際には、表示パネル120の表示のオフなどの付随処理が行われる。この付随処理は、使用者がレシーバ220からの再生音を聞くために耳を携帯型電子機器1に近づけようとした際には、できるだけ早い段階で実行されることが望ましい。
 例えば、使用者が携帯型電子機器1に耳を近づけたり接触させたりして、レシーバ220からの再生音を聞き始めた後、しばらく経ってから、表示パネル120の表示をオフにした場合には、使用者は、しばらくの間、煩わしいと感じることがある。
 また、使用者がレシーバ220からの再生音を聞き始めた後、しばらく経ってから、音出力部の音出力を停止した場合には、使用者は、しばらくの間、煩わしいと感じたり、レシーバ220からの音が聞こえにくかったりする。
 また、テレビ電話アプリケーションが実行されている場合において、使用者がレシーバ220からの再生音を聞き始めた後、しばらく経ってから、マイク190の機能をオフした場合には、通信相手装置の使用者は、しばらくの間、不要な音が伝わって不快な思いをすることがある。
 また、テレビ電話アプリケーション及び音声通話アプリケーションなどの、通話に係るアプリケーションが実行されている場合において、使用者がレシーバ220からの再生音を聞き始めた後、しばらく経ってから、通信相手装置に対して携帯型電子機器1での音再生処理の実行が通知されると、当該通信相手装置の使用者は、しばらくの間、当該通信相手装置と携帯型電子機器1との間の通信に異常が発生していると勘違いすることがある。
 このように、音再生処理の付随処理は、使用者が耳を携帯型電子機器1に近づけようとした際には、できるだけ早い段階で実行されることが望ましい。
 そこで、本変形例では、制御部100は、検出結果が得られるタイミングが異なる二つの近接検出方法を使用して、音再生処理が行われる前の準備処理として付随処理を実行することによって、できるだけ早期に付随処理を行うようにする。具体的には、制御部100は、使用する二つの近接検出方法のうち、先に検出結果が得られる近接検出方法において使用者の耳が携帯型電子機器1に近づいたことを検出すると付随処理を行う。そして、制御部100は、後に検出結果が得られる近接検出方法において使用者の耳が携帯型電子機器1に近づいたことを検出すると音再生処理を行う。つまり、制御部100は、使用者の耳が携帯型電子機器1に近づいたことを検出すると付随処理を行い、使用者の耳が携帯型電子機器1にさらに近づいたことを検出すると音再生処理を行う。以後、制御部100が使用する当該二つの近接検出方法のうち、先に検出結果が得られる近接検出方法を「1次近接検出方法」と呼び、後に検出結果が得られる近接検出方法を「2次近接検出方法」と呼ぶ。また、付随処理を準備処理と呼ぶことがある。
 1次近接検出方法と2次近接検出方法との組み合わせはとしては様々な組み合わせが考えられる。例えば、1次近接検出方法として第1の近接検出方法を採用し、2次近接検出方法として第2の近接検出方法を採用しても良い。また、制御部100がテレビ電話アプリケーションを実行している場合には、1次近接検出方法として第4の近接検出方法を採用し、2次近接検出方法として第3の近接検出方法を採用しても良い。以下に、図14と同様に制御部100がテレビ電話アプリケーションを実行している際の本変形例に係る携帯型電子機器1の動作について説明する。図16は当該動作を示すフローチャートである。
 図16に示されるように、上述のステップs1が実行されて、テレビ電話アプリケーションが実行される。そして、上述のステップs2が実行されて、音出力部から出力される音の録音が開始される。
 音出力部から出力される音の録音が開始した後に、ステップs11において、制御部100が、1次近接検出方法において使用者の耳が携帯型電子機器1に近づいたことを検出すると、ステップs12において、制御部100は、音再生処理の実行の前の準備処理(付随処理)を行う。この準備処理では、上述のように、表示パネル120の表示のオフ、音出力部の音出力の停止、マイク190の機能のオフ、通信相手装置に対する音再生処理の実行の通知が行われる。
 その後、ステップs13において、制御部100は、2次近接検出方法において使用者の耳が携帯型電子機器1に近づいたことを検出すると、つまり、使用者の耳が携帯型電子機器1にさらに近づいたことを検出すると、ステップs14において音再生処理を行う。
 ステップs14が実行された後に、ステップs5において、音出力部から出力された音についてのレシーバ220での再生が終了すると、上述のステップs6が実行されて、制御部100は、携帯型電子機器1が通常のテレビ電話通信を行うようにする。
 なお、上記の例では、制御部100は、使用者の耳が携帯型電子機器1に近づくと準備処理を行って、その後、使用者の耳が携帯型電子機器1にさらに近づくと音再生処理を行っている。このような処理の代わりに、制御部100は、使用者の耳が携帯型電子機器1に近づくと準備処理を行って、その後、使用者の耳が携帯型電子機器1に接触すると音再生処理を行っても良い。この場合には、制御部100は、近接検出方法と接触検出方法とを使用する。つまり、上述のステップs11において、第1~第4の近接検出方法のうちの一つの近接検出方法が使用されて、使用者の耳が携帯型電子機器1に近づいたことが検出されると、ステップs12において準備処理が実行される。その後、ステップs13において接触検出方法が使用されて使用者の耳が携帯型電子機器1に接触したことが検出されると、ステップs14において音再生処理が実行される。
 このように、本変形例では、制御部100は、音出力部に音を出力させる音出力処理を行っている際に、使用者の耳が携帯型電子機器1に近づいたことを検出すると音再生処理を行う前の準備処理を行っている。その後、制御部100は、使用者の耳が携帯型電子機器1にさらに近づいたことあるいは接触したことを検出すると音再生処理を行っている。これにより、レシーバ220からの再生音を聞くために使用者が耳を携帯型電子機器1に近づけようとした際には、できるだけ早い段階で準備処理が実行される。よって、音再生処理の実行に起因する問題の発生を抑制することができる。例えば、音再生処理が実行されることによってレシーバ220から出力される再生音を使用者が聞こうとした際に、外部スピーカ180等の音出力部から音が出力されていることによって使用者が煩わしいと感じるとった問題の発生を抑制することができる。
 <その他の変形例>
 上記の例では、携帯型電子機器1とイヤホン等の音出力装置とを有線で接続していたが、無線で接続しても良い。具体的には、例えば、外部出力部170とは別に、あるいは外部出力部170の代わりに、Bluetooth(登録商標)を用いて近距離無線通信を行うことが可能な近距離無線通信部を設ける。そして、近距離無線通信部から、Bluetooth対応のイヤホンあるいはヘッドホンに対して音(音信号)を出力する。この場合には、当該近距離無線通信部が、外部出力部170と同様に、音出力装置に音を出力する外部出力部として機能し、当該近距離無線通信部も音出力部に含まれる。したがって、この場合には、近距離無線通信部が音出力装置に音を出力している際に、使用者の耳が携帯型電子機器1に近づいたり接触したりすると、当該近距離無線通信部が出力した音が再生されてレシーバ220から出力させる。
 また、上記の例では、本願発明を携帯電話機に適用する場合を例にあげて説明したが、本願発明は、レシーバと、当該レシーバとは別に設けられた音出力部とを備える携帯型電子機器であれば、携帯電話機以外の携帯型電子機器にも適用することができる。
 上記において携帯型電子機器1は詳細に説明されたが、上記した説明は、全ての局面において例示であって、この発明がそれに限定されるものではない。また、上述した各種の例は、相互に矛盾しない限り組み合わせて適用可能である。そして、例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 1 携帯型電子機器 
 2 カバーパネル
 21 内側主面
 100 制御部
 120 表示パネル
 130 タッチパネル
 150 近接センサ
 160 加速度センサ
 170 外部出力部
 180 外部スピーカ
 190 マイク
 200 前面側撮像部
 220 レシーバ
 221 圧電振動素子

Claims (17)

  1.  携帯型電子機器であって、
     レシーバと、
     前記レシーバとは別に設けられた音出力部と、
     前記レシーバ及び前記音出力部を制御する制御部と
    を備え、
     前記制御部は、前記音出力部に音を出力させる音出力処理を行っている際に、前記携帯型電子機器の使用者の耳が当該携帯型電子機器に近づくこと及び接触することの少なくとも一方が生じると、当該音出力処理で当該音出力部に出力させた音を再生して前記レシーバに出力させる音再生処理を行う、携帯型電子機器。
  2.  請求項1に記載の携帯型電子機器であって、
     前記制御部は、前記音出力処理を行っている際に、前記使用者の耳が前記携帯型電子機器に近づくと準備処理を行い、その後、当該耳が当該携帯型電子機器にさらに近づくとあるいは接触すると前記音再生処理を行う、携帯型電子機器。
  3.  請求項2に記載の携帯型電子機器であって、
     前記準備処理には、前記制御部が前記音出力部の音量を小さくする処理、あるいは前記音出力部の音出力を停止する処理が含まれる、携帯型電子機器。
  4.  請求項2に記載の携帯型電子機器であって、
     表示部をさらに備え、
     前記準備処理には、前記制御部が前記表示部の表示をオフにする処理が含まれる、携帯型電子機器。
  5.  請求項2に記載の携帯型電子機器であって、
     音入力部と、
     通信相手装置と通信を行う通信部と
    をさらに備え、
     前記制御部が前記音出力部、前記音入力部及び前記通信部を制御することによって前記携帯型電子機器は通信相手装置との間で通話を行い、
     前記音出力処理は、前記携帯型電子機器が通話を行っている際の前記制御部が前記音出力部に音を出力させる処理であって、
     前記準備処理には、前記制御部が前記通信部を使用して通信相手装置に対して前記音再生処理の実行を通知する処理及び前記制御部が前記音入力部の機能をオフする処理の少なくとも一方が含まれる、携帯型電子機器。
  6.  請求項1に記載の携帯型電子機器であって、
     加速度センサをさらに備え、
     前記制御部は、前記加速度センサの出力信号に基づいて前記使用者の耳が前記携帯型電子機器に近づいたことを検出する、携帯型電子機器。
  7.  請求項1に記載の携帯型電子機器であって、
     近接センサをさらに備え、
     前記制御部は、前記近接センサの出力信号に基づいて前記使用者の耳が前記携帯型電子機器に近づいたことを検出する、携帯型電子機器。
  8.  請求項1に記載の携帯型電子機器であって、
     撮像部をさらに備え、
     前記制御部は、前記音出力処理を行っている際に前記撮像部において前記使用者の耳が撮像されると、当該耳が前記携帯型電子機器に近づいたと判断する、携帯型電子機器。
  9.  請求項1に記載の携帯型電子機器であって、
     前記携帯型電子機器への物体の接触を検出するタッチパネルをさらに備え、
     前記制御部は、前記タッチパネルの出力信号に基づいて前記使用者の耳が前記携帯型電子機器に接触したことを検出する、携帯型電子機器。
  10.  請求項1に記載の携帯型電子機器であって、
     撮像部と、
     表示部と、
     音入力部と、
     通信相手装置と通信を行う通信部と
    をさらに備え、
     前記制御部が前記撮像部、前記表示部、前記音出力部、前記音入力部及び前記通信部を制御することによって前記携帯型電子機器は通信相手装置との間でテレビ電話通信を行い、
     前記音出力処理は、前記携帯型電子機器がテレビ電話通信を行っている際の前記制御部が前記音出力部に音を出力させる処理であって、
     前記制御部は、前記携帯型電子機器がテレビ電話通信を行っている際に前記撮像部において前記使用者の顔が撮像されなくなると、当該使用者の耳が前記携帯型電子機器に近づいたと判断する、携帯型電子機器。
  11.  請求項1に記載の携帯型電子機器であって、
     前記制御部は、前記音再生処理において、前記使用者の耳が前記携帯型電子機器に近い状態あるいは接触した状態で音の再生が終了した際には、前記音出力処理で出力する音を前記レシーバに出力させ、その後、前記使用者の耳が前記携帯型電子機器から離れると、前記レシーバに音を出力させないようにする、携帯型電子機器。
  12.  請求項11に記載の携帯型電子機器であって、
     前記制御部は、前記音出力処理を行っている際に、前記携帯型電子機器の使用者の耳が当該携帯型電子機器に近づくこと及び接触することの少なくとも一方が生じると、前記音再生処理を行うとともに、前記音出力部の音量を小さくするかあるいは当該音出力部の音出力を中断し、
     前記制御部は、前記使用者の耳が前記携帯型電子機器から離れると、前記レシーバに音を出力させないようにするとともに、前記音出力部の音量を元に戻すかあるいは当該音出力部の音出力を再開する、携帯型電子機器。
  13.  請求項11に記載の携帯型電子機器であって、
     表示部をさらに備え、
     前記制御部は、前記音出力処理を行っている際に、前記携帯型電子機器の使用者の耳が当該携帯型電子機器に近づくこと及び接触することの少なくとも一方が生じると、前記音再生処理を行うとともに、前記表示部の表示をオフにし、
     前記制御部は、前記使用者の耳が前記携帯型電子機器から離れると、前記レシーバに音を出力させないようにするとともに、前記表示部の表示をオンにする、携帯型電子機器。
  14.  請求項1に記載の携帯型電子機器であって、
     前記制御部は、
      前記音出力処理において前記携帯型電子機器に入力される音をリアルタイムに前記音出力部に出力させる場合には当該音を録音し、前記音再生処理において録音した当該音を再生して前記レシーバに出力させ、
      前記音出力処理において記憶済みの音を再生して前記音出力部に出力させる場合には、前記音再生処理において当該記憶済みの音を巻き戻して再生する、携帯型電子機器。
  15.  請求項1に記載の携帯型電子機器であって、
     前記レシーバは、
      前記携帯型電子機器の前面に設けられたカバーパネルと、
      前記カバーパネルの内側主面上に設けられ、前記制御部によって音信号に基づいて振動される圧電振動素子と
    を有する、携帯型電子機器。
  16.  請求項15に記載の携帯型電子機器であって、
     前記音出力部は、イヤホンあるいはヘッドホンに音を出力する外部出力部であって、
     前記音再生処理において、前記制御部は、前記音出力処理で前記外部出力部に出力させた音を再生して前記レシーバ及び前記外部出力部の両方に出力させる、携帯型電子機器。
  17.  請求項15に記載の携帯型電子機器であって、
     前記圧電振動素子が前記カバーパネルを振動させることによって、当該カバーパネルから気導音及び伝導音が前記使用者に伝達される、携帯型電子機器。
PCT/JP2013/064691 2012-05-29 2013-05-28 携帯型電子機器 WO2013180087A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/557,363 US20150086055A1 (en) 2012-05-29 2014-12-01 Portable electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-121997 2012-05-29
JP2012121997A JP5852510B2 (ja) 2012-05-29 2012-05-29 携帯型電子機器

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/557,363 Continuation US20150086055A1 (en) 2012-05-29 2014-12-01 Portable electronic device

Publications (1)

Publication Number Publication Date
WO2013180087A1 true WO2013180087A1 (ja) 2013-12-05

Family

ID=49673281

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/064691 WO2013180087A1 (ja) 2012-05-29 2013-05-28 携帯型電子機器

Country Status (3)

Country Link
US (1) US20150086055A1 (ja)
JP (1) JP5852510B2 (ja)
WO (1) WO2013180087A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2908511A1 (en) * 2014-02-17 2015-08-19 Hooloop Corporation Methods and systems for voice management
EP2928169A1 (en) * 2014-04-02 2015-10-07 Xiaomi Inc. Method for voice calling, method for voice playing and devices thereof
CN105704344A (zh) * 2014-12-15 2016-06-22 柯尼卡美能达株式会社 便携终端以及便携终端中的显示方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6136816B2 (ja) * 2013-09-27 2017-05-31 富士通株式会社 通信端末装置、音声再生方法及び音声再生プログラム
JP6285836B2 (ja) * 2014-09-26 2018-02-28 京セラ株式会社 携帯端末
CN105794186A (zh) 2014-09-26 2016-07-20 华为技术有限公司 控制应用程序的方法、装置和电子设备
JP5768198B1 (ja) * 2014-12-02 2015-08-26 太陽誘電株式会社 電気音響変換装置
US9654618B2 (en) * 2015-07-08 2017-05-16 International Business Machines Corporation Adjusting a volume level of a phone for a detected hearing aid
US10620908B2 (en) 2016-08-26 2020-04-14 Huawei Technologies Co., Ltd. Audio output method, electronic device, and storage medium
CN109922413A (zh) * 2017-12-13 2019-06-21 北京小米移动软件有限公司 移动终端及其控制方法、存储介质
WO2020070799A1 (ja) 2018-10-02 2020-04-09 株式会社アクション・リサーチ 携帯端末およびプログラム
KR102625724B1 (ko) * 2018-10-05 2024-01-15 엘지디스플레이 주식회사 표시장치
KR20200068341A (ko) * 2018-12-05 2020-06-15 엘지디스플레이 주식회사 디스플레이장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0313044A (ja) * 1989-06-09 1991-01-22 Sharp Corp 電話機
US20090305742A1 (en) * 2008-06-05 2009-12-10 Ruben Caballero Electronic device with proximity-based radio power control

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006135837A (ja) * 2004-11-09 2006-05-25 Nec Access Technica Ltd テレビ電話
US20060116111A1 (en) * 2004-12-01 2006-06-01 Klicpera Michael E Cell or mobile phone voice mail or message method of transfer
US7633076B2 (en) * 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
US8121626B1 (en) * 2006-06-05 2012-02-21 Callwave, Inc. Method and systems for short message forwarding services
US20080304677A1 (en) * 2007-06-08 2008-12-11 Sonitus Medical Inc. System and method for noise cancellation with motion tracking capability
US8238590B2 (en) * 2008-03-07 2012-08-07 Bose Corporation Automated audio source control based on audio output device placement detection
US8989428B2 (en) * 2011-08-31 2015-03-24 Apple Inc. Acoustic systems in electronic devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0313044A (ja) * 1989-06-09 1991-01-22 Sharp Corp 電話機
US20090305742A1 (en) * 2008-06-05 2009-12-10 Ruben Caballero Electronic device with proximity-based radio power control

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2908511A1 (en) * 2014-02-17 2015-08-19 Hooloop Corporation Methods and systems for voice management
EP2928169A1 (en) * 2014-04-02 2015-10-07 Xiaomi Inc. Method for voice calling, method for voice playing and devices thereof
US10057424B2 (en) 2014-04-02 2018-08-21 Xiaomi Inc. Method for voice calling, method for voice playing and devices thereof
CN105704344A (zh) * 2014-12-15 2016-06-22 柯尼卡美能达株式会社 便携终端以及便携终端中的显示方法

Also Published As

Publication number Publication date
JP5852510B2 (ja) 2016-02-03
US20150086055A1 (en) 2015-03-26
JP2013247620A (ja) 2013-12-09

Similar Documents

Publication Publication Date Title
JP5852510B2 (ja) 携帯型電子機器
JP6305676B2 (ja) 電子機器及び制御プログラム並びに電子機器の制御方法
JP5681671B2 (ja) 電子機器及び制御プログラム並びに情報通知方法
CN105828230B (zh) 具有集成图像显示器的耳机
JP5926950B2 (ja) 電子機器
WO2013164999A1 (ja) 電子機器、制御方法及び制御プログラム
WO2013103068A1 (ja) 電子機器
WO2013164980A1 (ja) 電子機器、制御方法、及び制御プログラム
JP5815612B2 (ja) 電子機器
WO2013180031A1 (ja) 電子機器
JP2015023368A (ja) 電子機器
JP5952238B2 (ja) 電子機器
JP5865774B2 (ja) 電子機器、制御方法及び制御プログラム
JP5927105B2 (ja) 電子機器
JP6242040B2 (ja) 電子機器、制御方法、及び制御プログラム
CN106598175B (zh) 移动终端
WO2013103025A1 (ja) 電子機器
JP2014027568A (ja) 電子機器
JP6251306B2 (ja) 電子機器
JP6302003B2 (ja) 電子機器
JP2014007444A (ja) 電子機器、制御方法及び制御プログラム
JP5865458B2 (ja) 電子機器
JP2016076995A (ja) 電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13796980

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13796980

Country of ref document: EP

Kind code of ref document: A1