JP2013236139A - Electronic apparatus, control method, and control program - Google Patents

Electronic apparatus, control method, and control program Download PDF

Info

Publication number
JP2013236139A
JP2013236139A JP2012105524A JP2012105524A JP2013236139A JP 2013236139 A JP2013236139 A JP 2013236139A JP 2012105524 A JP2012105524 A JP 2012105524A JP 2012105524 A JP2012105524 A JP 2012105524A JP 2013236139 A JP2013236139 A JP 2013236139A
Authority
JP
Japan
Prior art keywords
sound
panel
vibration
piezoelectric element
ear
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012105524A
Other languages
Japanese (ja)
Inventor
Tomohiro Sudo
智浩 須藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012105524A priority Critical patent/JP2013236139A/en
Publication of JP2013236139A publication Critical patent/JP2013236139A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Piezo-Electric Transducers For Audible Bands (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Telephone Set Structure (AREA)

Abstract

PROBLEM TO BE SOLVED: To change the quality of sounds transmitted to a user by an easy operation.SOLUTION: An electronic apparatus (portable phones 1A to 1C) includes: a piezoelectric element 7; a panel 20 that is vibrated by the piezoelectric element 7 and generates air conduction sounds and vibration sounds transmitted by vibrating a part of a human body; and a touch screen 21 detecting the contact of the part of the human body with the panel 20. The sound quality of the vibration sounds is changed according to a detection result of the touch screen 21.

Description

本出願は、電子機器、制御方法、及び制御プログラムに関する。   The present application relates to an electronic device, a control method, and a control program.

特許文献1には、気導音と振動音とを利用者に伝える電子機器が記載されている。特許文献1には、電子機器の筺体の外面に配置される振動体の圧電素子に電圧が印加されると、圧電素子が伸縮することにより振動体が屈曲振動することが記載されている。また、特許文献1には、利用者が屈曲振動する振動体を耳介に接触させると、気導音と振動音とが利用者に伝えられることが記載されている。特許文献1によれば、気導音とは、物体の振動に起因する空気の振動が外耳道を通って鼓膜に伝わり、鼓膜が振動することによって利用者の聴覚神経に伝わる音である。また、特許文献1によれば、振動音とは、振動する物体に接触する利用者の体の一部(例えば外耳の軟骨)を介して利用者の聴覚神経に伝わる音である。   Patent Document 1 describes an electronic device that transmits air conduction sound and vibration sound to a user. Patent Document 1 describes that when a voltage is applied to a piezoelectric element of a vibrating body arranged on the outer surface of a housing of an electronic device, the vibrating body flexes and vibrates due to expansion and contraction of the piezoelectric element. Further, Patent Document 1 describes that when a user brings a vibrating body that flexes and vibrates into contact with the auricle, air conduction sound and vibration sound are transmitted to the user. According to Patent Document 1, air conduction sound is sound that is transmitted to the eardrum through the ear canal through the vibration of the air due to the vibration of the object, and is transmitted to the user's auditory nerve by the vibration of the eardrum. According to Patent Document 1, the vibration sound is a sound transmitted to the user's auditory nerve through a part of the user's body (for example, cartilage of the outer ear) that contacts the vibrating object.

特開2005−348193号公報JP 2005-348193 A

ところで、一般に、電子機器では、簡単な操作で利用者に伝わる音の音質を変更したいというニーズがある。   Incidentally, in general, there is a need for an electronic device to change the quality of sound transmitted to a user with a simple operation.

1つの態様に係る電子機器は、圧電素子と、前記圧電素子によって振動し、気導音と、人体の一部を振動させて伝わる振動音とを発生させる音発生部と、前記音発生部に対する前記人体の一部の接触を検出する検出部と、を備え、前記検出部の検出結果に応じて前記振動音の音質が変化する。   An electronic apparatus according to one aspect includes a piezoelectric element, a sound generation unit that generates vibration sound that is vibrated by the piezoelectric element, vibrates a part of a human body, and is transmitted to the sound generation unit. A detection unit that detects a partial contact of the human body, and the quality of the vibration sound changes according to a detection result of the detection unit.

1つの態様に係る制御方法は、音発生部と圧電素子とを備える電子機器によって実行される制御方法であって、前記圧電素子によって前記音発生部を振動させて、気導音と、人体の一部を振動させて伝わる振動音とを前記音発生部に発生させるステップと、前記音発生部に対する前記人体の一部の接触を検出するステップと、を含み、前記検出するステップの検出結果に応じて前記振動音の音質が変化する。   A control method according to one aspect is a control method executed by an electronic device including a sound generation unit and a piezoelectric element, wherein the sound generation unit is vibrated by the piezoelectric element, and air conduction sound and human body The detection result of the detecting step includes: generating a vibration sound transmitted by vibrating a part of the sound generating unit; and detecting a partial contact of the human body with the sound generating unit. Accordingly, the sound quality of the vibration sound changes.

1つの態様に係る制御プログラムは、音発生部と圧電素子とを備える電子機器に、前記圧電素子によって前記音発生部を振動させて、気導音と、人体の一部を振動させて伝わる振動音とを前記音発生部に発生させるステップと、前記音発生部に対する前記人体の一部の接触を検出するステップと、実行させ、前記検出するステップの検出結果に応じて前記振動音の音質が変化する。   A control program according to one aspect is an electronic device including a sound generating unit and a piezoelectric element, wherein the sound generating unit is vibrated by the piezoelectric element, and air conduction sound and vibration transmitted through a part of a human body are transmitted. Generating a sound at the sound generating unit, detecting a contact of a part of the human body with the sound generating unit, and executing the sound, and the sound quality of the vibration sound is determined according to a detection result of the detecting step. Change.

図1は、実施形態に係る携帯電話の正面図である。FIG. 1 is a front view of a mobile phone according to an embodiment. 図2は、実施形態に係る携帯電話の断面図である。FIG. 2 is a cross-sectional view of the mobile phone according to the embodiment. 図3は、パネルの形状の例を示す図である。FIG. 3 is a diagram showing an example of the shape of the panel. 図4は、パネルの振動の例を示す図である。FIG. 4 is a diagram showing an example of panel vibration. 図5は、実施形態に係る携帯電話のブロック図である。FIG. 5 is a block diagram of the mobile phone according to the embodiment. 図6Aは、耳の位置の検出について説明するための図である。FIG. 6A is a diagram for describing detection of an ear position. 図6Bは、耳の位置の検出について説明するための図である。FIG. 6B is a diagram for explaining detection of an ear position. 図6Cは、耳の位置の検出について説明するための図である。FIG. 6C is a diagram for describing detection of an ear position. 図7Aは、音質を変更する制御について説明するための図である。FIG. 7A is a diagram for describing control for changing sound quality. 図7Bは、音質を変更する制御について説明するための図である。FIG. 7B is a diagram for describing control for changing sound quality. 図7Cは、音質を変更する制御について説明するための図である。FIG. 7C is a diagram for describing control for changing sound quality. 図8Aは、音質の変更の例を示す図である。FIG. 8A is a diagram illustrating an example of changing the sound quality. 図8Bは、音質の変更の例を示す図である。FIG. 8B is a diagram illustrating an example of changing the sound quality. 図8Cは、音質の変更の例を示す図である。FIG. 8C is a diagram illustrating an example of changing the sound quality. 図9Aは、音質を変更する制御の処理手順を示すフローチャートである。FIG. 9A is a flowchart showing a control processing procedure for changing the sound quality. 図9Bは、音質を変更する制御の処理手順を示すフローチャートである。FIG. 9B is a flowchart illustrating a processing procedure of control for changing sound quality. 図9Cは、音質を変更する制御の処理手順を示すフローチャートである。FIG. 9C is a flowchart showing a control processing procedure for changing the sound quality. 図10Aは、第1設定値の変更の例を示す図である。FIG. 10A is a diagram illustrating an example of changing the first set value. 図10Bは、第2設定値の変更の例を示す図である。FIG. 10B is a diagram illustrating an example of changing the second setting value. 図10Cは、第3設定値の変更の例を示す図である。FIG. 10C is a diagram illustrating an example of changing the third setting value. 図11は、音質を決定する各種設定値を変更する制御の処理手順を示すフローチャートである。FIG. 11 is a flowchart showing a control processing procedure for changing various setting values for determining sound quality. 図12は、他の実施形態に係る携帯電話の正面図である。FIG. 12 is a front view of a mobile phone according to another embodiment. 図13は、他の実施形態に係る携帯電話の断面図である。FIG. 13 is a cross-sectional view of a mobile phone according to another embodiment. 図14は、耳の位置の検出について説明するための図である。FIG. 14 is a diagram for explaining detection of an ear position. 図15は、他の実施形態に係る携帯電話の正面図である。FIG. 15 is a front view of a mobile phone according to another embodiment. 図16は、他の実施形態に係る携帯電話の断面図である。FIG. 16 is a cross-sectional view of a mobile phone according to another embodiment. 図17は、パネルの共振周波数の例を示す図である。FIG. 17 is a diagram illustrating an example of the resonance frequency of the panel. 図18は、耳の位置の検出について説明するための図である。FIG. 18 is a diagram for explaining detection of an ear position.

本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、気導音と振動音とを利用者に伝える電子機器の例として、携帯電話について説明する。   Embodiments for carrying out the present invention will be described in detail with reference to the drawings. Hereinafter, a mobile phone will be described as an example of an electronic device that transmits air conduction sound and vibration sound to a user.

(実施形態1)
図1及び図2を参照しながら、実施形態に係る携帯電話1Aの全体的な構成について説明する。図1は、携帯電話1Aの正面図である。図2は、携帯電話1Aのa−a断面を模式的に示す断面図である。図1及び図2に示すように、携帯電話1Aは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、圧電素子7と、マイク8と、カメラ12と、パネル20と、筐体40とを備える。
(Embodiment 1)
With reference to FIGS. 1 and 2, the overall configuration of the mobile phone 1 </ b> A according to the embodiment will be described. FIG. 1 is a front view of the mobile phone 1A. FIG. 2 is a cross-sectional view schematically showing an aa cross section of the mobile phone 1A. As shown in FIGS. 1 and 2, the mobile phone 1A includes a display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a piezoelectric element 7, a microphone 8, a camera 12, a panel 20, And a housing 40.

ディスプレイ2は、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2は、文字、画像、記号、及び図形等を表示する。   The display 2 is a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display). The display 2 displays characters, images, symbols, graphics, and the like.

ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、図1及び図2に示す例に限定されない。   The button 3 receives an operation input from the user. The number of buttons 3 is not limited to the example shown in FIGS.

照度センサ4は、携帯電話1Aの周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2の輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2が顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。   The illuminance sensor 4 detects the illuminance of ambient light of the mobile phone 1A. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2, for example. The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the display 2 is brought close to the face. The illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.

圧電素子7は、電気信号(音信号に応じた電圧)が印加されると、構成材料の電気機械結合係数に従い伸縮又は屈曲する。すなわち、圧電素子7は、電気信号が印加されると変形する。圧電素子7は、パネル20に取り付けられ、パネル20を振動させるための振動源として用いられる。圧電素子7は、例えば、セラミック又は水晶を用いて形成される。圧電素子7は、ユニモルフ、バイモルフ、又は積層型圧電素子であってよい。積層型圧電素子には、バイモルフを積層した(例えば16層又は24層積層した)積層型バイモルフ素子が含まれる。積層型の圧電素子は、例えば、PZT(チタン酸ジルコン酸鉛)からなる複数の誘電体層と、該複数の誘電体層間に配設された電極層との積層構造体から構成される。ユニモルフは、電気信号(電圧)が印加されると伸縮する。バイモルフは、電気信号(電圧)が印加されると屈曲する。   When an electric signal (voltage corresponding to a sound signal) is applied, the piezoelectric element 7 expands or contracts or bends according to the electromechanical coupling coefficient of the constituent material. That is, the piezoelectric element 7 is deformed when an electric signal is applied. The piezoelectric element 7 is attached to the panel 20 and used as a vibration source for vibrating the panel 20. The piezoelectric element 7 is formed using, for example, ceramic or quartz. The piezoelectric element 7 may be a unimorph, bimorph, or multilayer piezoelectric element. The multilayer piezoelectric element includes a multilayer bimorph element in which bimorphs are stacked (for example, 16 layers or 24 layers are stacked). The multilayer piezoelectric element is composed of, for example, a multilayer structure including a plurality of dielectric layers made of PZT (lead zirconate titanate) and electrode layers disposed between the plurality of dielectric layers. A unimorph expands and contracts when an electrical signal (voltage) is applied. A bimorph bends when an electrical signal (voltage) is applied.

マイク8は、音入力部である。マイク8は、入力される音を電気信号へ変換する。スピーカ11は、気導方式で音を出力する音出力部である。スピーカ11は、例えば、ダイナミックスピーカであり、電気信号を変換した音を、耳を携帯電話1Aに接触させていない人へも伝えることができる。スピーカ11は、例えば、音楽を出力するために用いられる。   The microphone 8 is a sound input unit. The microphone 8 converts the input sound into an electric signal. The speaker 11 is a sound output unit that outputs sound by an air conduction method. The speaker 11 is a dynamic speaker, for example, and can transmit a sound obtained by converting an electric signal to a person whose ear is not in contact with the mobile phone 1A. The speaker 11 is used for outputting music, for example.

カメラ12は、ディスプレイ2に面している物体を撮影するインカメラである。カメラ12は、撮影した画像を電気信号へ変換する。携帯電話1Aは、カメラ12に加えて、ディスプレイ2の反対側の面に面している物体を撮影するアウトカメラを備えてもよい。   The camera 12 is an in camera that captures an object facing the display 2. The camera 12 converts the captured image into an electrical signal. In addition to the camera 12, the mobile phone 1 </ b> A may include an out camera that captures an object facing the surface on the opposite side of the display 2.

パネル20は、圧電素子7の変形(伸縮又は屈曲)にともなって振動し、利用者がパネル20に接触させる耳の軟骨(耳介軟骨)等にその振動を伝える。パネル20は、ディスプレイ2及び圧電素子7等を外力から保護する機能も有する。パネル20は、例えば、ガラス、又はアクリル等の合成樹脂により形成される。パネル20の形状は、例えば、板状である。パネル20は、平板であってよい。パネル20は、表面が滑らかに湾曲する曲面パネルであってもよい。   The panel 20 vibrates as the piezoelectric element 7 is deformed (stretched or bent), and transmits the vibration to the ear cartilage (auricular cartilage) or the like that the user contacts with the panel 20. The panel 20 also has a function of protecting the display 2 and the piezoelectric element 7 from external force. The panel 20 is formed by synthetic resins, such as glass or an acryl, for example. The shape of the panel 20 is, for example, a plate shape. The panel 20 may be a flat plate. The panel 20 may be a curved panel whose surface is smoothly curved.

パネル20の背面には、接合部材30により、ディスプレイ2と、圧電素子7とが取り付けられる。圧電素子7は、パネル20の背面に配置された状態で、筺体40の内表面と所定の距離だけ離間している。圧電素子7は、伸縮または屈曲した状態でも、筺体60の内表面と離間しているとよい。すなわち、圧電素子7と筺体40の内表面との間の距離は、圧電素子7の最大変形量よりも大きいとよい。圧電素子7は、補強部材(例えば、板金又はガラス繊維強化樹脂)を介してパネル20に取り付けられてもよい。接合部材30は、例えば、両面テープ、又は熱硬化性あるいは紫外線硬化性等を有する接着剤である。接合部材30は、無色透明のアクリル系紫外線硬化型接着剤である光学弾性樹脂でもよい。   The display 2 and the piezoelectric element 7 are attached to the back surface of the panel 20 by a joining member 30. The piezoelectric element 7 is spaced from the inner surface of the housing 40 by a predetermined distance while being arranged on the back surface of the panel 20. The piezoelectric element 7 may be separated from the inner surface of the housing 60 even in a stretched or bent state. That is, the distance between the piezoelectric element 7 and the inner surface of the housing 40 is preferably larger than the maximum deformation amount of the piezoelectric element 7. The piezoelectric element 7 may be attached to the panel 20 via a reinforcing member (for example, sheet metal or glass fiber reinforced resin). The joining member 30 is, for example, a double-sided tape or an adhesive having thermosetting property or ultraviolet curable property. The joining member 30 may be an optical elastic resin that is a colorless and transparent acrylic ultraviolet curable adhesive.

ディスプレイ2は、パネル20の短手方向におけるほぼ中央に配設される。圧電素子7は、パネル20の長手方向の端部から所定の距離だけ離間した近傍に、圧電素子7の長手方向がパネル20の短手方向と平行になるように配設される。ディスプレイ2及び圧電素子7は、パネル20の内部側の面に、平行に並べて配設される。   The display 2 is disposed approximately in the center of the panel 20 in the short direction. The piezoelectric element 7 is disposed in the vicinity of a predetermined distance from the longitudinal end of the panel 20 so that the longitudinal direction of the piezoelectric element 7 is parallel to the lateral direction of the panel 20. The display 2 and the piezoelectric element 7 are arranged in parallel on the inner surface of the panel 20.

パネル20の外側の面のほぼ全面には、タッチスクリーン(タッチセンサ)21が配設される。タッチスクリーン21は、パネル20に対する接触を検出する。タッチスクリーン21は、指、ペン、又はスタイラスペン等による利用者の接触操作を検出するために用いられる。タッチスクリーン21を用いて検出されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。タッチスクリーン21の検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。   A touch screen (touch sensor) 21 is disposed on almost the entire outer surface of the panel 20. The touch screen 21 detects contact with the panel 20. The touch screen 21 is used to detect a user's contact operation with a finger, pen, stylus pen, or the like. The gestures detected using the touch screen 21 include, but are not limited to, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out. The detection method of the touch screen 21 may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method.

タッチスクリーン21は、音を聞くためにパネル20に接触する耳介軟骨等の物体を検出するためにも用いられる。タッチスクリーン21は、パネル20に接触する耳介軟骨等の物体のパネル20に対する押圧を検出するためにも用いられる。   The touch screen 21 is also used to detect an object such as an auricular cartilage that contacts the panel 20 in order to hear sound. The touch screen 21 is also used to detect pressure on the panel 20 by an object such as auricular cartilage that contacts the panel 20.

筐体40は、樹脂又は金属を用いて形成される。筐体40は、ボタン3、照度センサ4、近接センサ5、マイク8、スピーカ11、カメラ12、およびパネル20等を支持する。   The housing 40 is formed using resin or metal. The housing 40 supports the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the speaker 11, the camera 12, the panel 20, and the like.

図1から図4を参照しながら、実施形態に係る携帯電話1Aによる音の出力についてより詳細に説明する。図3は、パネル20の形状の例を示す図である。図4は、パネル20の振動の例を示す図である。   The sound output by the mobile phone 1A according to the embodiment will be described in more detail with reference to FIGS. FIG. 3 is a diagram illustrating an example of the shape of the panel 20. FIG. 4 is a diagram illustrating an example of the vibration of the panel 20.

圧電素子7には、出力する音に応じた電気信号が印加される。圧電素子7には、例えば、外耳道を介する気導音によって音を伝える所謂パネルスピーカの印加電圧である±5Vよりも高い、±15Vが印加されてもよい。これにより、利用者が、例えば、3N以上の力(5N〜10Nの力)でパネル20に自身の体の一部を押し付けた場合であっても、パネル20に十分な振動を発生させ、利用者の体の一部を介して伝わる振動音を発生させることができる。圧電素子7に印加される電圧は、パネル20の筺体40に対する固定強度、又は圧電素子7の性能等に応じて適宜調整可能である。   An electric signal corresponding to the output sound is applied to the piezoelectric element 7. For example, ± 15 V higher than ± 5 V, which is an applied voltage of a so-called panel speaker that transmits sound by air conduction sound through the ear canal, may be applied to the piezoelectric element 7. Thereby, even when the user presses a part of his / her body against the panel 20 with a force of 3N or more (5N to 10N force), for example, the panel 20 generates sufficient vibration and is used. Vibration sound transmitted through a part of the person's body can be generated. The voltage applied to the piezoelectric element 7 can be appropriately adjusted according to the fixing strength of the panel 20 with respect to the housing 40 or the performance of the piezoelectric element 7.

電気信号が印加されると、圧電素子7は長手方向に伸縮又は屈曲する。圧電素子7が取り付けられたパネル20は、圧電素子7の伸縮又は屈曲に合わせて変形する。これにより、パネル20は、振動し、気導音を発生させる。さらに、利用者が体の一部(例えば、耳介軟骨)をパネル20に接触させた場合、パネル20は、体の一部を介して利用者に伝導する振動音を発生させる。すなわち、パネル20は、圧電素子7の変形にともなって、パネル20に接触する物体に対して振動音として知覚される周波数で振動する。   When an electric signal is applied, the piezoelectric element 7 expands or contracts in the longitudinal direction. The panel 20 to which the piezoelectric element 7 is attached is deformed in accordance with expansion / contraction or bending of the piezoelectric element 7. Thereby, the panel 20 vibrates and generates air conduction sound. Further, when the user brings a part of the body (for example, auricular cartilage) into contact with the panel 20, the panel 20 generates vibration sound that is transmitted to the user through the part of the body. That is, as the piezoelectric element 7 is deformed, the panel 20 vibrates at a frequency that is perceived as vibration sound with respect to an object that contacts the panel 20.

例えば、圧電素子7に、通話の相手の音声、又は着信音、音楽等の音データに応じた電気信号が印加されると、パネル20は、電気信号に対応する気導音及び振動音を発生させる。圧電素子7及びパネル20を介して出力される音信号は、後述するストレージ9に記憶されている音データに基づくものであってよい。圧電素子7及びパネル20を介して出力される音信号は、外部のサーバ等に記憶され、後述する通信ユニット6によりネットワークを介して取得される音データに基づくものであってもよい。   For example, when an electric signal corresponding to the voice of the other party of the call or sound data such as a ring tone or music is applied to the piezoelectric element 7, the panel 20 generates air conduction sound and vibration sound corresponding to the electric signal. Let The sound signal output via the piezoelectric element 7 and the panel 20 may be based on sound data stored in the storage 9 described later. The sound signal output via the piezoelectric element 7 and the panel 20 may be based on sound data stored in an external server or the like and acquired via the network by the communication unit 6 described later.

本実施形態において、パネル20は、利用者の耳とほぼ同じ大きさであってよい。また、パネル20は、図3に示すように、利用者の耳よりも大きなサイズであってもよい。この場合、利用者は、音を聞くときに耳の外周部のほぼ全体をパネル20に接触させることができる。このようにして音を聞くことにより、周囲音(ノイズ)が外耳道に入り難くなる。本実施形態では、少なくとも、パネル20は、人間の対耳輪下脚(下対輪脚)から対耳珠までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から対耳輪までの間の距離に相当する短手方向(又は長手方向)の長さとを有する領域よりも広い領域が振動する。パネル20は、耳輪における対耳輪上脚(上対輪脚)近傍の部位から耳垂までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から耳輪における対耳輪近傍の部位までの間の距離に相当する短手方向(又は長手方向)の長さを有する領域が振動してもよい。上記の長さおよび幅を有する領域は、長方形状の領域であってもよいし、上記の長手方向の長さを長径、上記の短手方向の長さを短径とする楕円形状であってもよい。人間の耳の平均的な大きさは、例えば、社団法人 人間生活工学研究センター(HQL)作成の日本人の人体寸法データベース(1992−1994)等を参照すれば知ることができる。   In the present embodiment, the panel 20 may be approximately the same size as the user's ear. Moreover, the panel 20 may be larger in size than the user's ear, as shown in FIG. In this case, the user can bring the entire outer periphery of the ear into contact with the panel 20 when listening to the sound. Listening to the sound in this way makes it difficult for ambient sounds (noise) to enter the ear canal. In the present embodiment, at least the panel 20 has a length in the longitudinal direction (or short direction) corresponding to the distance between the lower leg of the anti-annulus (lower anti-annular leg) and the anti-tragus, and the pair of the panel 20 from the tragus. A region wider than a region having a length in the short direction (or the longitudinal direction) corresponding to the distance to the ear ring vibrates. The panel 20 has a length in the longitudinal direction (or short direction) corresponding to the distance from the region near the upper leg of the ear ring (upper pair leg) in the ear ring to the earlobe, and the vicinity of the ear ring in the ear ring from the tragus. A region having a length in the short direction (or the longitudinal direction) corresponding to the distance to the part may vibrate. The region having the above length and width may be a rectangular region, or an elliptical shape in which the length in the longitudinal direction is the major axis and the length in the lateral direction is the minor axis. Also good. The average size of the human ear can be known, for example, by referring to the Japanese human body size database (1992-1994) created by the Human Life Engineering Research Center (HQL).

図4に示すように、パネル20は、圧電素子7が取り付けられた取付領域20aだけでなく、取付領域20aから離れた領域も振動する。パネル20は、振動する領域において、当該パネル20の主面と交差する方向に振動する箇所を複数有し、当該複数の箇所の各々において、振動の振幅の値が、時間とともにプラスからマイナスに、あるいはその逆に変化する。パネル20は、それぞれの瞬間において、振動の振幅が相対的に大きい部分と振動の振幅が相対的に小さい部分とがパネル20の略全体に一見ランダム又は規則的に分布した振動をする。すなわち、パネル20全域にわたって、複数の波の振動が検出される。上記のように圧電素子7に対して印加される電圧が±15Vであれば、利用者が例えば5N〜10Nの力で自身の体にパネル20を押し付けた場合であっても、パネル20の上述した振動は減衰しにくい。このため、利用者は、パネル20上の取付領域20aから離れた領域に耳を接触させても、振動音を聞くことができる。   As shown in FIG. 4, the panel 20 vibrates not only in the attachment region 20a to which the piezoelectric element 7 is attached, but also in a region away from the attachment region 20a. The panel 20 has a plurality of locations that vibrate in a direction intersecting the main surface of the panel 20 in the vibrating region, and in each of the plurality of locations, the value of the amplitude of vibration changes from positive to negative with time, Or vice versa. At each moment, the panel 20 vibrates at a seemingly random or regular distribution in a substantially entire portion of the panel 20 with a portion having a relatively large vibration amplitude and a portion having a relatively small vibration amplitude. That is, vibrations of a plurality of waves are detected over the entire panel 20. If the voltage applied to the piezoelectric element 7 is ± 15 V as described above, even if the user presses the panel 20 against his / her body with a force of 5N to 10N, for example, The vibrations that occur are difficult to attenuate. For this reason, even if a user makes an ear contact the area | region away from the attachment area | region 20a on the panel 20, he can hear a vibration sound.

本実施形態では、ディスプレイ2がパネル20に取り付けられている。このため、パネル20の下部(ディスプレイ2が取り付けられている側)は、剛性が上がり、パネル20の上部(圧電素子7が取り付けられている側)と比べて、振動が小さい。このため、パネル20の下部において、パネル20が振動することによる気導音の音漏れが低減される。   In the present embodiment, the display 2 is attached to the panel 20. For this reason, the lower part of the panel 20 (the side on which the display 2 is attached) is increased in rigidity, and the vibration is smaller than the upper part of the panel 20 (the side on which the piezoelectric element 7 is attached). For this reason, the sound leakage of the air conduction sound due to the vibration of the panel 20 in the lower part of the panel 20 is reduced.

携帯電話1Aは、パネル20の振動により、気導音と、利用者の体の一部(例えば耳介軟骨)を介する振動音とを利用者に伝えることができる。そのため、携帯電話1Aは、ダイナミックレシーバと同等の音量の音を出力する場合、空気の振動により携帯電話1Aの周囲へ伝わる音を、ダイナミックスピーカのみを有する電子機器と比較して、少なくすることができる。このような特徴は、例えば、録音されたメッセージを電車内のような近くに他人がいる場所で聞く場合等に好適である。   The cellular phone 1 </ b> A can transmit air conduction sound and vibration sound via a part of the user's body (for example, auricular cartilage) to the user by the vibration of the panel 20. Therefore, when the mobile phone 1A outputs a sound having a volume equivalent to that of the dynamic receiver, the sound transmitted to the surroundings of the mobile phone 1A due to air vibration may be reduced compared to an electronic device having only a dynamic speaker. it can. Such a feature is suitable, for example, when listening to a recorded message in a place where there is another person nearby, such as in a train.

さらに、携帯電話1Aは、パネル20の振動により利用者に振動音を伝える。そのため、利用者は、イヤホン又はヘッドホンを身につけていても、それらに携帯電話1Aを接触させることで、イヤホン又はヘッドホン及び体の一部を介して、パネル20の振動による振動音を聞くことができる。   Furthermore, the mobile phone 1 </ b> A transmits a vibration sound to the user by the vibration of the panel 20. Therefore, even if the user wears the earphone or the headphone, the user can hear the vibration sound due to the vibration of the panel 20 through the earphone or the headphone and a part of the body by bringing the mobile phone 1A into contact therewith. it can.

さらに、携帯電話1Aは、パネル20の振動により音を伝える。そのため、携帯電話1Aが別途ダイナミックレシーバを備えない場合、パネル20が発する音を外部に伝えるための開口部(放音口)を筐体40に形成する必要がない。このため、防水構造を実現する場合に、構造を簡略化することができる。携帯電話1Aは、ダイナミックスピーカの放音口等の開口部を筐体40に形成する必要がある場合、防水構造を実現するために、気体は通すが液体は通さない部材によって開口部を閉塞する構造を採用してもよい。気体は通すが液体は通さない部材は、例えば、ゴアテックス(登録商標)である。   Furthermore, the mobile phone 1 </ b> A transmits sound by the vibration of the panel 20. Therefore, when the mobile phone 1A does not include a separate dynamic receiver, there is no need to form an opening (sound outlet) in the housing 40 for transmitting the sound generated by the panel 20 to the outside. For this reason, when realizing a waterproof structure, the structure can be simplified. When it is necessary to form an opening such as a sound outlet of a dynamic speaker in the housing 40, the cellular phone 1A closes the opening with a member that allows gas to pass but not liquid to realize a waterproof structure. A structure may be adopted. An example of the member that allows gas to pass but not liquid is Gore-Tex (registered trademark).

図5を参照しながら、携帯電話1Aの機能的な構成について説明する。図5は、携帯電話1Aのブロック図である。図5に示すように、携帯電話1Aは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、圧電素子7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、姿勢検出ユニット15と、バイブレータ18と、タッチスクリーン21とを備える。   A functional configuration of the mobile phone 1A will be described with reference to FIG. FIG. 5 is a block diagram of the mobile phone 1A. As shown in FIG. 5, the mobile phone 1A includes a display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a piezoelectric element 7, a microphone 8, a storage 9, and a controller 10. A speaker 11, a camera 12, a posture detection unit 15, a vibrator 18, and a touch screen 21.

通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。   The communication unit 6 communicates wirelessly. The communication method supported by the communication unit 6 is a wireless communication standard. Examples of wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. As cellular phone communication standards, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000, PDC (Personal Digital Cellular, GSM (registered trademark) mmloS). (Personal Handy-phone System). As wireless communication standards, for example, there are WiMAX (Worldwide Interoperability for Microwave Access), IEEE802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (NearCo), etc. The communication unit 6 may support one or more of the communication standards described above.

ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。   The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium. The storage 9 may include a plurality of types of storage media. The storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader. The storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).

ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2に画面を表示させ、タッチスクリーン21によって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, the application displays a screen on the display 2 and causes the controller 10 to execute processing according to the gesture detected by the touch screen 21. The control program is, for example, an OS. The application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.

ストレージ9は、例えば、制御プログラム9A、通話アプリケーション9B、音楽再生アプリケーション9C、動画再生アプリケーション9D、及び設定データ9Zを記憶する。通話アプリケーション9Bは、無線通信による通話のための通話機能を提供する。音楽再生アプリケーション9Cは、音楽データから音を再生するための音楽再生機能を提供する。動画再生アプリケーション9Dは、動画データから動画及び音を再生するための動画再生機能を提供する。設定データ9Zは、携帯電話1Aの動作に関連する各種の設定に関する情報を含む。   The storage 9 stores, for example, a control program 9A, a call application 9B, a music playback application 9C, a moving image playback application 9D, and setting data 9Z. The call application 9B provides a call function for a call by wireless communication. The music playback application 9C provides a music playback function for playing back sound from music data. The video playback application 9D provides a video playback function for playing back video and sound from video data. The setting data 9Z includes information related to various settings related to the operation of the mobile phone 1A.

制御プログラム9Aは、携帯電話1Aを稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、タッチスクリーン21によって検出される接触に基づいて利用者の操作を判定し、判定された操作に対応するプログラムを起動する。制御プログラム9Aが提供する機能には、パネル20に接触する耳の位置に応じて音質を変更するための制御を行う機能、接触する耳のパネル20に対する押圧に応じて音質を変更するための制御を行う機能、および、耳の位置および押圧に応じて音質を決定する各種設定値を変更するための制御を行う機能等が含まれる。制御プログラム9Aが提供する機能は、通話アプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。   The control program 9A provides functions related to various controls for operating the mobile phone 1A. For example, the control program 9A determines a user's operation based on the contact detected by the touch screen 21, and starts a program corresponding to the determined operation. The function provided by the control program 9A includes a function for performing control for changing the sound quality according to the position of the ear in contact with the panel 20, and a control for changing the sound quality according to the pressure on the panel 20 of the contacting ear. And a function for performing control for changing various setting values for determining sound quality according to the position and pressing of the ear. The function provided by the control program 9A may be used in combination with a function provided by another program such as the call application 9B.

コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、携帯電話1Aの動作を統括的に制御して各種の機能を実現する。   The controller 10 is an arithmetic processing device. The arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto. The controller 10 implements various functions by comprehensively controlling the operation of the mobile phone 1A.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2、通信ユニット6、圧電素子7、マイク8、スピーカ11、及びバイブレータ18を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、ボタン3、照度センサ4、近接センサ5、カメラ12、姿勢検出ユニット15、及びタッチスクリーン21を含むが、これらに限定されない。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement | achieves various functions by it. The functional unit includes, for example, the display 2, the communication unit 6, the piezoelectric element 7, the microphone 8, the speaker 11, and the vibrator 18, but is not limited thereto. The controller 10 may change the control according to the detection result of the detection unit. The detection unit includes, for example, the button 3, the illuminance sensor 4, the proximity sensor 5, the camera 12, the posture detection unit 15, and the touch screen 21, but is not limited thereto.

コントローラ10は、例えば、制御プログラム9Aを実行することにより、パネル20に接触する耳の位置に応じて音質を変更するための制御、接触する耳のパネル20に対する押圧に応じて音質を変更するための制御、および、耳の位置および押圧に応じて音質を決定する各種設定値を変更するための制御等を実行する。   For example, the controller 10 executes the control program 9A to change the sound quality in accordance with the control for changing the sound quality according to the position of the ear in contact with the panel 20 and the pressure on the panel 20 of the contacted ear. And control for changing various setting values for determining sound quality in accordance with the position and pressing of the ear.

姿勢検出ユニット15は、携帯電話1Aの姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。バイブレータ18は、携帯電話1Aの一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータを有する。バイブレータ18による振動は、音を伝えるためではなく、着信等の各種のイベントを利用者に報知するために用いられる。   The posture detection unit 15 detects the posture of the mobile phone 1A. The posture detection unit 15 includes at least one of an acceleration sensor, a direction sensor, and a gyroscope in order to detect the posture. Vibrator 18 vibrates a part or the whole of mobile phone 1A. The vibrator 18 includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration. The vibration generated by the vibrator 18 is used not only to transmit sound but also to notify the user of various events such as incoming calls.

図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。   In FIG. 5, some or all of the programs and data stored in the storage 9 may be downloaded from other devices by wireless communication using the communication unit 6. In FIG. 5, some or all of the programs and data stored in the storage 9 may be stored in a non-transitory storage medium that can be read by the reading device included in the storage 9. Non-transitory storage media include, for example, optical disks such as CD (registered trademark), DVD (registered trademark), and Blu-ray (registered trademark), magneto-optical disks, magnetic storage media, memory cards, and solid-state storage media Including, but not limited to.

図5に示した携帯電話1Aの構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、携帯電話1Aは、操作のためのボタンとして、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。   The configuration of the cellular phone 1A shown in FIG. 5 is an example, and may be changed as appropriate without departing from the spirit of the present invention. For example, the mobile phone 1A may include buttons such as a numeric keypad layout or a QWERTY layout as buttons for operations.

図6Aから図9Cを参照しながら、パネル20に接触する耳の位置に応じて音質を変更するための制御、および、接触する耳のパネル20に対する押圧に応じて音質を変更するための制御について説明する。図6Aから図6Cは、パネル20に接触する耳の位置の検出について説明するための図である。図7Aから図7Cは、パネル20に接触する耳の位置または接触する耳のパネル20に対する押圧に応じて、音質を変更する制御について説明するための図である。図8Aから図8Cは、音質の変更の例を示す図である。図9Aから図9Cは、音質を変更する制御の処理手順を示すフローチャートである。   Control for changing the sound quality according to the position of the ear in contact with the panel 20 and control for changing the sound quality according to the pressing of the touching ear panel 20 with reference to FIGS. 6A to 9C explain. 6A to 6C are diagrams for explaining detection of the position of the ear that contacts the panel 20. FIG. 7A to FIG. 7C are diagrams for describing control for changing the sound quality according to the position of the ear in contact with the panel 20 or the pressing of the contacting ear against the panel 20. 8A to 8C are diagrams illustrating examples of changing the sound quality. FIG. 9A to FIG. 9C are flowcharts showing a control processing procedure for changing the sound quality.

図6Aから図6Cを参照して、携帯電話1Aが行うパネル20に接触する耳の位置の検出について説明する。   With reference to FIGS. 6A to 6C, detection of the position of the ear that contacts the panel 20 performed by the mobile phone 1 </ b> A will be described.

携帯電話1Aは、パネル20に接触する耳の位置を、タッチスクリーン21を用いて検出する。例えば、携帯電話1Aは、図6Aに示すように、タッチスクリーン21によって耳の接触が検出される領域71に基づいて決定される位置72を、耳の位置(以下、「接触位置」ということがある)として検出する。位置72は、例えば、領域71の中心(重心)である。位置72は、領域71を含む最小矩形の頂点のいずれかであってもよい。位置72は、耳の所定の部位に対応する位置であってもよい。この場合、耳におけるその部位の一般的な位置に関する情報に基づいて、領域71との相対的な位置関係から位置72が算出される。   The cellular phone 1 </ b> A uses the touch screen 21 to detect the position of the ear that contacts the panel 20. For example, in the mobile phone 1A, as shown in FIG. 6A, a position 72 determined based on an area 71 where an ear contact is detected by the touch screen 21 is referred to as an ear position (hereinafter referred to as “contact position”). Detect as. The position 72 is, for example, the center (center of gravity) of the region 71. The position 72 may be any of the vertices of the smallest rectangle including the area 71. The position 72 may be a position corresponding to a predetermined part of the ear. In this case, the position 72 is calculated from the relative positional relationship with the region 71 based on information on the general position of the part in the ear.

この方式は、複雑な演算を行うことなく、パネル20に接触する耳の位置を検出することを可能にする。さらに、この方式は、タッチスクリーン21がパネル20に対する接触を同時に検出できる点の数が少ない場合にも適用できる。   This method makes it possible to detect the position of the ear in contact with the panel 20 without performing complicated calculations. Furthermore, this method can also be applied when the number of points on which the touch screen 21 can simultaneously detect contact with the panel 20 is small.

あるいは、携帯電話1Aは、図6Bに示すように、物体の接触時にタッチスクリーン21の検出結果に基づいて得られる像73と、予め用意される標本74とのパターンマッチングによって、耳の位置を検出する。像73は、タッチスクリーン21の検出領域を格子状に分割し、分割されたそれぞれの領域における物体の接触の検出状態を、対応する画素の状態に変換することにより得られる。それぞれの領域においてタッチスクリーン21が検出する値が、例えば、タッチスクリーン21と物体の距離、物体がタッチスクリーン21を圧迫する押圧等によって変動する場合、像73は、多階調の画像となってもよい。   Alternatively, as shown in FIG. 6B, the mobile phone 1A detects the position of the ear by pattern matching between an image 73 obtained based on the detection result of the touch screen 21 when an object is in contact with a specimen 74 prepared in advance. To do. The image 73 is obtained by dividing the detection area of the touch screen 21 into a lattice shape and converting the detection state of the contact of the object in each of the divided areas into the corresponding pixel state. When the value detected by the touch screen 21 in each region varies depending on, for example, the distance between the touch screen 21 and the object, the pressure with which the object presses the touch screen 21, and the like, the image 73 is a multi-tone image. Also good.

標本74は、耳の接触時に耳が接触している領域で像73と同様のやりかたで得られるはずの像である。標本74は、携帯電話1Aの利用者の耳の接触時に得られるはずの像であってもよいし、一般的な人の耳の接触時に得られるはずの像であってもよい。標本74は、右耳の像、左耳の像というように複数枚用意されてもよい。   The specimen 74 is an image that should be obtained in the same manner as the image 73 in a region where the ear is in contact with the ear. The sample 74 may be an image that should be obtained when the user of the mobile phone 1A touches the ear, or may be an image that should be obtained when the general human ear touches. A plurality of specimens 74 may be prepared such as a right ear image and a left ear image.

標本74は、耳の所定の部位(例えば、耳珠)に対応する基準位置74aを含む。基準位置74aは、標本74の左上を基準として、(x1,y1)に位置している。基準位置74aは、一般的な人の耳におけるその部位の位置に関する情報に基づいて設定されてもよい。標本74が携帯電話1Aの利用者の耳の接触時に実際に得られた像である場合、基準位置74aは、像を解析して設定されてもよい。   The specimen 74 includes a reference position 74a corresponding to a predetermined part of the ear (for example, tragus). The reference position 74a is located at (x1, y1) with the upper left of the sample 74 as a reference. The reference position 74a may be set based on information regarding the position of the part in a general human ear. When the specimen 74 is an image actually obtained when the user of the mobile phone 1A touches the ear, the reference position 74a may be set by analyzing the image.

携帯電話1Aは、像73が得られると、パターンマッチングによって、像73と標本74とが最もマッチする際の両者の相対位置を得る。パターンマッチングによって、像73と標本74とがマッチしないと判定された場合(例えば、一致度が閾値よりも低い場合)には、携帯電話1Aは、耳の接触は検出されていないと判定してもよい。相対位置が得られると、携帯電話1Aは、相対位置と、基準位置74aとに基づいて、耳の位置を算出する。図6Bの例の場合、像73の左上を基準として、標本74をX軸方向にx2、Y軸方向にy2だけシフトした場合に両者が最もマッチする。この場合、耳の位置は、(x1+x2,y1+y2)と算出される。   When the image 73 is obtained, the cellular phone 1A obtains the relative positions of the image 73 and the specimen 74 when they most closely match by pattern matching. When it is determined by pattern matching that the image 73 and the sample 74 do not match (for example, when the matching degree is lower than the threshold value), the mobile phone 1A determines that the contact of the ear is not detected. Also good. When the relative position is obtained, the mobile phone 1A calculates the position of the ear based on the relative position and the reference position 74a. In the case of the example in FIG. 6B, when the sample 74 is shifted by x2 in the X-axis direction and y2 in the Y-axis direction with the upper left of the image 73 as a reference, the two match best. In this case, the position of the ear is calculated as (x1 + x2, y1 + y2).

この方式は、パネル20に接触する耳の位置を精度よく検出することを可能にする。さらに、この方式は、標本とのマッチングによって、パネル20に接触する物体が耳であるか否か、あるいは、パネル20に接触する物体が予め登録されている人物の耳であるかを判定することを可能にする。さらに、この方式は、耳の向き及び傾き等の、耳の接触に関する詳細な情報を検出することを可能にする。   This method makes it possible to accurately detect the position of the ear in contact with the panel 20. Furthermore, this method determines whether the object that contacts the panel 20 is an ear or whether the object that contacts the panel 20 is a pre-registered person's ear by matching with a specimen. Enable. Furthermore, this scheme makes it possible to detect detailed information about ear contact, such as ear orientation and tilt.

パターンマッチングによって耳の位置を検出する場合、標本は、基準位置を含まなくてもよい。図6Cに示す例では、像73は、基準位置を含まない標本75とパターンマッチングされている。図6Cの例の場合、像73の左上を基準として、標本75をX軸方向にx3、Y軸方向にy3だけシフトした場合に両者が最もマッチする。この場合、耳の位置は、例えば、(x3,y3)と算出される。   When the position of the ear is detected by pattern matching, the sample may not include the reference position. In the example shown in FIG. 6C, the image 73 is pattern-matched with the sample 75 that does not include the reference position. In the case of the example in FIG. 6C, when the sample 75 is shifted by x3 in the X-axis direction and y3 in the Y-axis direction with the upper left of the image 73 as a reference, the two match best. In this case, the position of the ear is calculated as (x3, y3), for example.

この方式は、基準位置を含まないため、標本の作成を容易にする。例えば、耳の位置の移動量及び移動方向が必要で、耳の特定の部位の位置を特定する必要がない場合、標本に基準位置を設定しなくても、この方式によって必要な情報を得ることができる。   Since this method does not include a reference position, the sample is easily created. For example, if the amount and direction of movement of the ear position are required and it is not necessary to specify the position of a specific part of the ear, the necessary information can be obtained by this method without setting a reference position for the specimen. Can do.

パネル20に接触する耳の位置を、タッチスクリーン21を用いて検出する方式は、上記の方式に限定されず、他の方式を採用してもよい。   The method for detecting the position of the ear in contact with the panel 20 using the touch screen 21 is not limited to the above method, and other methods may be adopted.

設定データ9Zには、上記の方式のいずれか、又は他の方式によって最初に検出されるパネル20上での耳の位置を示す情報が、初期座標(X,Y)として格納される。例えば、図6Aに示す方式で耳の位置が最初に検出された場合、位置72に対応する座標が、初期座標(X,Y)として設定データ9Zに格納される。図6Bに示す方式で耳の位置が最初に検出された場合、基準位置74aに対応する座標(x1,y1)が、初期座標(X,Y)として設定データ9Zに格納される。図6Cに示す方式で耳の位置が最初の検出された場合、座標(x3,y3)が、初期座標(X,Y)として設定データ9Zに格納される。   In the setting data 9Z, information indicating the position of the ear on the panel 20 that is first detected by any one of the above methods or another method is stored as initial coordinates (X, Y). For example, when the ear position is first detected by the method shown in FIG. 6A, the coordinates corresponding to the position 72 are stored in the setting data 9Z as the initial coordinates (X, Y). When the ear position is first detected by the method shown in FIG. 6B, the coordinates (x1, y1) corresponding to the reference position 74a are stored in the setting data 9Z as the initial coordinates (X, Y). When the ear position is first detected by the method shown in FIG. 6C, the coordinates (x3, y3) are stored in the setting data 9Z as the initial coordinates (X, Y).

図7Aから図8Cを参照して、通話時に携帯電話1Aが行う、音質を変更する制御について説明する。図7Aから図7Cに示す例では、説明を簡単にするために、タッチスクリーン21の検出領域を縦横5×5の格子状に分割した場合を示す。   With reference to FIG. 7A to FIG. 8C, control for changing the sound quality performed by the mobile phone 1 </ b> A during a call will be described. In the example shown in FIGS. 7A to 7C, the detection area of the touch screen 21 is divided into a 5 × 5 grid in order to simplify the description.

本実施形態では、携帯電話1Aは、以下に示す3つの制御のうちいずれかで音質を変更する。1つ目の制御は、携帯電話1Aが、接触位置のパネル20の長手方向における変化に応じて、音質を変更する制御である。この1つ目の制御については、図7A、図8A、図9Aを参照して以下に説明する。2つ目の制御は、携帯電話1Aが、接触位置のパネル20の短手方向における変化に応じて、音質を変更する制御である。この2つ目の制御については、図7B、図8B、図9Bを参照して以下で説明する。3つ目の制御は、携帯電話1Aが、押圧の変化に応じて、音質を変更する制御である。この3つ目の制御については、図7C、図8C、図9Cを参照して以下で説明する。   In the present embodiment, the mobile phone 1A changes the sound quality by any one of the following three controls. The first control is a control in which the cellular phone 1A changes the sound quality according to the change in the longitudinal direction of the panel 20 at the contact position. This first control will be described below with reference to FIGS. 7A, 8A, and 9A. The second control is a control in which the cellular phone 1A changes the sound quality according to the change in the short direction of the panel 20 at the contact position. This second control will be described below with reference to FIGS. 7B, 8B, and 9B. The third control is a control in which the mobile phone 1A changes the sound quality in accordance with a change in pressure. This third control will be described below with reference to FIGS. 7C, 8C, and 9C.

図7Aおよび図8Aを参照して、携帯電話1Aが行う音質を変更する1つ目の制御について説明する。   With reference to FIG. 7A and FIG. 8A, the 1st control which changes the sound quality which the mobile telephone 1A performs is demonstrated.

図7Aに示すように、携帯電話1Aは、耳のパネル20への接触がタッチスクリーン21によって検出された場合、耳がパネル20に接触している位置を、上記の方式のいずれか、又は他の方式によって検出する。そして、携帯電話1Aは、最初に検出された耳の位置を初期座標(X,Y)として設定データ9Zに格納する。そして、携帯電話1Aは、ステップS10として、耳の位置が設定データ9Zに格納された初期座標(X,Y)の位置にある場合、デフォルトの音声(標準音声)を出力する。デフォルトの音声とは、基準となる標準的な音質に設定された音声である。ステップS10では、通話相手の声「もしもし」が標準的な音質で出力されている。   As shown in FIG. 7A, when the touch to the ear panel 20 is detected by the touch screen 21, the mobile phone 1 </ b> A determines the position where the ear is in contact with the panel 20 by any one of the above methods or other methods. Detect by the method. Then, the mobile phone 1A stores the ear position detected first in the setting data 9Z as the initial coordinates (X, Y). Then, in step S10, the mobile phone 1A outputs a default sound (standard sound) when the ear position is at the position of the initial coordinates (X, Y) stored in the setting data 9Z. The default sound is a sound set to a standard sound quality as a reference. In step S10, the voice of the other party “Moshimoshi” is output with standard sound quality.

携帯電話1Aは、ステップS12として、タッチスクリーン21によって耳の位置が初期座標からパネル20の長手方向の上側へ1個の格子分ずれた位置(X,Y+1)へ移動したことを検出する。この場合、携帯電話1Aは、ステップS14として、圧電素子7に印加する電気信号を制御することによって、音質が標準的な音質から一段階高くなるように変更する。例えば、図8Aに示すように、携帯電話1Aは、パネル20に接触する耳のパネル20上の接触位置が、パネル20の長手方向の上側の端部に近くになる(例えば、接触位置が初期座標(X,Y)から(X,Y+1)、(X,Y+2)とずれる)につれて、パネル20が耳に伝える振動音の音質が高くなる(例えば、音質の高音レベルが+5,+10と高くなり、低音レベルが−5,−10と低くなる)ように、圧電素子7に印加する電気信号を制御する。ステップS14では、通話相手の声「もしもし」が一段階高い音質で出力されている。   In step S12, the cellular phone 1A detects that the position of the ear has moved from the initial coordinates to the position (X, Y + 1) shifted by one lattice from the initial coordinate to the upper side in the longitudinal direction, in step S12. In this case, the cellular phone 1A changes the sound quality to be one step higher than the standard sound quality by controlling the electric signal applied to the piezoelectric element 7 as step S14. For example, as shown in FIG. 8A, in the mobile phone 1A, the contact position on the panel 20 of the ear that contacts the panel 20 is close to the upper end in the longitudinal direction of the panel 20 (for example, the contact position is the initial position). As the coordinates (X, Y) deviate from (X, Y + 1), (X, Y + 2)), the sound quality of the vibration sound transmitted to the ear by the panel 20 increases (for example, the high sound level of the sound quality increases to +5, +10). The electric signal applied to the piezoelectric element 7 is controlled so that the low sound level is lowered to -5 and -10. In step S14, the voice of the other party “Moshimoshi” is output with a higher sound quality.

携帯電話1Aは、ステップS16として、タッチスクリーン21によって耳の位置が初期座標からパネル20の長手方向の下側へ1個の格子分ずれた位置(X,Y−1)へ移動したことを検出する。この場合、携帯電話1Aは、ステップS18として、圧電素子7に印加する電気信号を制御することによって、音質が標準的な音質から一段階低くなるように変更する。図8Aに示すように、携帯電話1Aは、パネル20に接触する耳のパネル20上の接触位置が、パネル20の長手方向の下側の端部に近くになる(例えば、接触位置が初期座標(X,Y)から(X,Y−1)、(X,Y−2)とずれる)につれて、パネル20が耳に伝える振動音の音質が低くなる(例えば、音質の高音レベルが−5,−10と低くなり、低音レベルが+5,+10と高くなる)ように、圧電素子7に印加する電気信号を制御する。ステップS18では、通話相手の声「もしもし」が一段階低い音質で出力されている。   In step S16, the cellular phone 1A detects that the position of the ear has moved from the initial coordinates to the lower side in the longitudinal direction of the panel 20 by one grid (X, Y-1) by the touch screen 21. To do. In this case, in step S18, the cellular phone 1A changes the sound quality to be one step lower than the standard sound quality by controlling the electric signal applied to the piezoelectric element 7. As shown in FIG. 8A, in the mobile phone 1A, the contact position on the panel 20 of the ear that contacts the panel 20 is close to the lower end of the longitudinal direction of the panel 20 (for example, the contact position is the initial coordinate). As (X, Y) shifts to (X, Y-1) and (X, Y-2)), the sound quality of the vibration sound transmitted to the ear by the panel 20 decreases (for example, the high sound level of sound quality is -5, The electric signal to be applied to the piezoelectric element 7 is controlled so that the low sound level becomes as low as −10 and the low sound level becomes high as +5 and +10. In step S18, the voice “Moshimoshi” of the other party is output with a sound quality one step lower.

図7Aおよび図8Aで示した例では、携帯電話1Aは、X軸方向の座標に変化があっても、X軸方向の座標の変化に関係なくY軸方向の座標に応じて音質を変更する。   In the example shown in FIGS. 7A and 8A, the mobile phone 1A changes the sound quality according to the coordinate in the Y-axis direction regardless of the change in the coordinate in the X-axis direction even if the coordinate in the X-axis direction changes. .

図7Bおよび図8Bを参照して、携帯電話1Aが行う音質を変更する2つ目の制御について説明する。   With reference to FIG. 7B and FIG. 8B, the 2nd control which changes the sound quality which 1 A of mobile telephones perform is demonstrated.

図7Bに示すように、携帯電話1Aは、耳のパネル20への接触がタッチスクリーン21によって検出された場合、耳がパネル20に接触している位置を、上記の方式のいずれか、又は他の方式によって検出する。そして、携帯電話1Aは、最初に検出された耳の位置を初期座標(X,Y)として設定データ9Zに格納する。携帯電話1Aは、ステップS20として、耳の位置が設定データ9Zに格納された初期座標の位置にある場合、デフォルトの音声(標準音声)を出力する。ステップS20では、通話相手の声「もしもし」が標準的な音質で出力されている。   As shown in FIG. 7B, when the touch of the ear panel 20 is detected by the touch screen 21, the mobile phone 1 </ b> A determines the position where the ear is in contact with the panel 20 by any one of the above methods or other Detect by the method. Then, the mobile phone 1A stores the ear position detected first in the setting data 9Z as the initial coordinates (X, Y). When the position of the ear is at the position of the initial coordinates stored in the setting data 9Z, the cellular phone 1A outputs a default sound (standard sound) as step S20. In step S20, the call partner's voice “Hello” is output with a standard sound quality.

携帯電話1Aは、ステップS22として、タッチスクリーン21によって耳の位置が初期座標からパネル20の短手方向の右側へ1個の格子分ずれた位置(X+1,Y)へ移動したことを検出する。この場合、携帯電話1Aは、ステップS24として、圧電素子7に印加する電気信号を制御することによって、音質が標準的な音質から一段階高くなるように変更する。例えば、図8Bに示すように、携帯電話1Aは、パネル20に接触する耳のパネル20上の接触位置が、パネル20の短手方向の右側の端部に近くになる(例えば、接触位置が初期座標(X,Y)から(X+1,Y)、(X+2,Y)とずれる)につれて、パネル20が耳に伝える振動音の音質が高くなる(例えば、音質の高音レベルが+10,+20と高くなり、低音レベルが−10,−20と低くなる)ように、圧電素子7に印加する電気信号を制御する。ステップS24では、通話相手の声「もしもし」が一段階高い音質で出力されている。   In step S22, the mobile phone 1A detects that the position of the ear has moved from the initial coordinates to the right side in the short direction of the panel 20 to a position (X + 1, Y) shifted by one lattice by using the touch screen 21. In this case, the cellular phone 1A changes the sound quality to be one step higher than the standard sound quality by controlling the electric signal applied to the piezoelectric element 7 as step S24. For example, as shown in FIG. 8B, in the mobile phone 1A, the contact position on the panel 20 of the ear that contacts the panel 20 is close to the right end in the short direction of the panel 20 (for example, the contact position is As the initial coordinates (X, Y) deviate from (X + 1, Y) and (X + 2, Y)), the sound quality of the vibration sound transmitted to the ear by the panel 20 increases (for example, the high sound level of the sound quality increases to +10, +20). Thus, the electric signal applied to the piezoelectric element 7 is controlled so that the low sound level is lowered to -10 and -20. In step S24, the voice “Moshimoshi” of the other party is output with a higher sound quality.

携帯電話1Aは、ステップS26として、タッチスクリーン21によって耳の位置が初期座標からパネル20の短手方向の下側へ1個の格子分ずれた位置(X−1,Y)へ移動したことを検出する。この場合、携帯電話1Aは、ステップS28として、圧電素子7に印加する電気信号を制御することによって、音質が標準的な音質から一段階低くなるように変更する。例えば、図8Bに示すように、携帯電話1Aは、パネル20に接触する耳のパネル20上の接触位置が、パネル20の短手方向の左側の端部に近くになる(例えば、接触位置が初期座標(X,Y)から(X−1,Y)、(X−2,Y)とずれる)につれて、パネル20が耳に伝える振動音の音質が低くなる(例えば、音質の高音レベルが−10,−20と低くなり、低音レベルが+10,+20と高くなる)ように、圧電素子7に印加する電気信号を制御する。ステップS28では、通話相手の声「もしもし」が一段階低い音質で出力されている。   In step S26, the mobile phone 1A confirms that the position of the ear has been moved from the initial coordinates to the lower side of the panel 20 by one grid (X-1, Y) by the touch screen 21. To detect. In this case, in step S28, the cellular phone 1A controls the electric signal applied to the piezoelectric element 7 to change the sound quality to be one step lower than the standard sound quality. For example, as shown in FIG. 8B, in the mobile phone 1A, the contact position on the panel 20 of the ear that contacts the panel 20 is close to the left end in the short direction of the panel 20 (for example, the contact position is As the initial coordinates (X, Y) deviate from (X-1, Y), (X-2, Y)), the sound quality of the vibration sound transmitted to the ear by the panel 20 decreases (for example, the high sound level of the sound quality is- The electric signal applied to the piezoelectric element 7 is controlled so that the low sound level becomes as high as +10 and +20. In step S28, the voice of the other party “Moshimoshi” is output with a sound quality one step lower.

図7Bおよび図8Bで示した例では、携帯電話1Aは、Y軸方向の座標に変化があっても、Y軸方向の座標の変化に関係なくX軸方向の座標に応じて音質を変更する。   In the example shown in FIGS. 7B and 8B, the mobile phone 1A changes the sound quality according to the coordinate in the X-axis direction regardless of the change in the coordinate in the Y-axis direction, even if the coordinate in the Y-axis direction changes. .

本実施形態では、携帯電話1Aは、変更後の音質レベルを設定データ9Zに格納してもよい。そして、携帯電話1Aは、タッチスクリーン21の検出結果に基づいて、所定時間内に再度接触位置を検出した場合、変更後の音質レベルから上述した音質の変更処理を実行してもよい。   In the present embodiment, the mobile phone 1A may store the changed sound quality level in the setting data 9Z. Then, when the mobile phone 1 </ b> A detects the contact position again within a predetermined time based on the detection result of the touch screen 21, the mobile phone 1 </ b> A may execute the above-described sound quality changing process from the changed sound quality level.

図7Cおよび図8Cを参照して、携帯電話1Aが行う音質を変更する3つ目の制御について説明する。   With reference to FIG. 7C and FIG. 8C, the 3rd control which changes the sound quality which 1 A of mobile telephones perform is demonstrated.

図7Cに示すように、携帯電話1Aは、耳のパネル20への接触がタッチスクリーン21によって検出された場合、耳が押圧点91でタッチスクリーン21を圧迫する押圧を算出する。耳の押圧は、種々の方法で適宜算出され得る。例えば、タッチスクリーン21が抵抗膜方式である場合、向かい合う電極同士の接触点の数と押圧とを対応付けることができる。タッチスクリーン21が静電容量式である場合、静電容量の変化と押圧とを対応付けることができる。そして、携帯電話1Aは、最初に算出された押圧を初期圧力(N)として設定データ9Zに格納する。携帯電話1Aは、ステップS30として、耳の押圧が設定データ9Zに格納された初期圧力に対応する場合、デフォルトの音声(標準音声)を出力する。ステップS30では、通話相手の声「もしもし」が標準的な音質で出力されている。   As illustrated in FIG. 7C, when the contact with the ear panel 20 is detected by the touch screen 21, the mobile phone 1 </ b> A calculates the pressure with which the ear presses the touch screen 21 at the pressing point 91. The pressing of the ear can be appropriately calculated by various methods. For example, when the touch screen 21 is a resistive film type, the number of contact points between the electrodes facing each other can be associated with the pressure. When the touch screen 21 is a capacitance type, the change in capacitance and the pressing can be associated with each other. Then, the mobile phone 1A stores the first calculated pressure as the initial pressure (N) in the setting data 9Z. In step S30, the cellular phone 1A outputs a default sound (standard sound) when the ear pressure corresponds to the initial pressure stored in the setting data 9Z. In step S30, the voice of the other party “Hello” is output with standard sound quality.

携帯電話1Aは、ステップS32として、耳が押圧点92でタッチスクリーン21を圧迫する押圧が増加する方向へ変化したことを検出した場合、圧電素子7に印加する電気信号を制御することによって、音質が標準的な音質から押圧の増加量に応じて高くなるように変更する。例えば、図8Cに示すように、携帯電話1Aは、押圧が強いほど(例えば、押圧がN+1,N+2と強いほど)、パネル20が耳に伝える振動音の音質が高くなる(例えば、音質の高音レベルが+20,+40と高くなり、低音レベルが−20,−40と低くなる)ように、圧電素子7に印加する電気信号を制御する。ステップS32では、通話相手の声「もしもし」が一段階高い音質で出力されている。   When the mobile phone 1 </ b> A detects that the pressing of the ear pressing the touch screen 21 at the pressing point 92 is changed in the increasing direction in step S <b> 32, the mobile phone 1 </ b> A controls the electrical signal applied to the piezoelectric element 7 to control the sound quality. Is changed from the standard sound quality so as to increase in accordance with the increase in pressure. For example, as shown in FIG. 8C, in the cellular phone 1A, the stronger the press (for example, the stronger the press is N + 1, N + 2), the higher the quality of the vibration sound transmitted to the ear by the panel 20 (for example, the high-quality sound) The electric signal applied to the piezoelectric element 7 is controlled so that the level becomes high (+20, +40 and the low sound level becomes low, -20, -40). In step S32, the voice of the other party “Moshimoshi” is output with a higher sound quality.

図7Cの例では、携帯電話1Aが押圧の増加に応じて音質が高くなるように変更する例を説明したが、これに限定されない。携帯電話1Aは、耳が押圧点91でタッチスクリーン21を圧迫する押圧が減少する方向へ変化したことを検出した場合、圧電素子7に印加する電気信号を制御することによって、音質が標準的な音質から押圧の減少量に応じて低くなるように変更してもよい。例えば、図8Cに示すように、携帯電話1Aは、押圧が弱いほど(例えば、押圧がN−1,N−2と弱いほど)、パネル20が耳に伝える振動音の音質が低くなる(例えば、音質の高音レベルが−20,−40と低くなり、低音レベルが+20,+40と高くなる)ように、圧電素子7に印加する電気信号を制御する。   In the example of FIG. 7C, the example has been described in which the mobile phone 1 </ b> A is changed so that the sound quality becomes higher according to the increase of the pressure, but the present invention is not limited to this. When the mobile phone 1 </ b> A detects that the pressing force applied to the touch screen 21 at the pressing point 91 is changed in a decreasing direction, the cellular phone 1 </ b> A controls the electrical signal applied to the piezoelectric element 7 to achieve a standard sound quality. You may change so that it may become low according to the decreasing amount of press from sound quality. For example, as shown in FIG. 8C, in the cellular phone 1A, the lower the pressure is (for example, the weaker the pressure is N-1, N-2), the lower the sound quality of the vibration sound transmitted to the ear by the panel 20 (for example, The electric signal applied to the piezoelectric element 7 is controlled so that the high sound level of the sound quality is lowered to -20 and -40 and the low sound level is raised to +20 and +40.

図7Cの例では、携帯電話1Aがタッチスクリーン21によって検出された押圧の変化に応じて音質を変更する例を説明したが、これに限定されない。携帯電話1Aは、タッチスクリーン21によって耳の接触領域を検出して、当該接触領域の面積の大小に応じて音質を変更してもよい。一般に、利用者が耳をパネル20に押し付ける圧力が大きいほど、パネル20に接触する耳の面積は大きくなると考えられる。この場合、携帯電話1Aは、接触領域の面積が大きいほど、パネル20が耳に伝える振動音の音質が高くなるように、圧電素子7に印加する電気信号を制御する。携帯電話1Aは、接触領域の面積が小さいほど、パネル20が耳に伝える振動音の音質が低くなるように、圧電素子7に印加する電気信号を制御する。   In the example of FIG. 7C, the example in which the mobile phone 1 </ b> A changes the sound quality according to the change in the pressure detected by the touch screen 21 has been described, but the present invention is not limited to this. The mobile phone 1 </ b> A may detect the contact area of the ear with the touch screen 21 and change the sound quality according to the size of the area of the contact area. In general, it is considered that the larger the pressure with which the user presses the ear against the panel 20, the larger the area of the ear that contacts the panel 20. In this case, the cellular phone 1A controls the electric signal applied to the piezoelectric element 7 so that the quality of the vibration sound transmitted to the ear by the panel 20 increases as the area of the contact region increases. The cellular phone 1 </ b> A controls the electric signal applied to the piezoelectric element 7 such that the smaller the area of the contact region, the lower the quality of the vibration sound transmitted to the ear by the panel 20.

図9Aから図9Cを参照しながら、人体伝導方式を利用時に、パネル20に接触する耳の位置または耳の押圧に応じて、音質を変更するための制御の処理手順について説明する。図9Aから図9Cに示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。   With reference to FIG. 9A to FIG. 9C, a control processing procedure for changing the sound quality according to the position of the ear contacting the panel 20 or the pressing of the ear when using the human body conduction method will be described. 9A to 9C is realized by the controller 10 executing the control program 9A.

図9Aを参照して、携帯電話1Aが行う音質を変更する1つ目の制御の処理手順について説明する。   With reference to FIG. 9A, a first control processing procedure for changing the sound quality performed by the mobile phone 1A will be described.

図9Aに示すように、パネル20を振動させて音の出力を開始した場合(ステップS101)、コントローラ10は、パネル20に接触している物体があるかをタッチスクリーン21の検出結果に基づいて判定する(ステップS102)。音の出力を開始した場合とは、例えば、利用者による音の出力を開始するための操作が検出された場合と、通話、音楽再生、動画再生等の音を出力するための処理が開始した場合とが含まれる。パネル20に接触している物体がない場合(ステップS102,No)、コントローラ10は、ステップS102の処理に戻り、パネル20に接触する物体が検出されるまで処理を繰り返す。   As shown in FIG. 9A, when the panel 20 is vibrated and sound output is started (step S101), the controller 10 determines whether there is an object in contact with the panel 20 based on the detection result of the touch screen 21. Determination is made (step S102). When sound output is started, for example, when an operation for starting sound output by a user is detected, and processing for outputting sound such as a call, music playback, video playback, etc. has started. Includes cases. If there is no object in contact with the panel 20 (step S102, No), the controller 10 returns to the process of step S102 and repeats the process until an object in contact with the panel 20 is detected.

パネル20に接触している物体がある場合(ステップS102,Yes)、コントローラ10は、タッチスクリーン21の検出結果に基づいて、パネル20に接触している物体の位置(すなわち、接触位置)を算出する(ステップS103)。ステップS103において、コントローラ10は、図6Aから図6Cで説明した方式等を用いて、パネル20に接触している物体の位置を算出する。そして、コントローラ10は、最初に算出した物体の位置を、初期座標として設定データ9Zに格納する。   When there is an object in contact with the panel 20 (step S102, Yes), the controller 10 calculates the position of the object in contact with the panel 20 (that is, the contact position) based on the detection result of the touch screen 21. (Step S103). In step S103, the controller 10 calculates the position of the object in contact with the panel 20 using the method described with reference to FIGS. 6A to 6C. Then, the controller 10 stores the first calculated position of the object in the setting data 9Z as initial coordinates.

パネル20に接触している物体がある場合に、コントローラ10は、消費電力を削減するために、ディスプレイ2を消灯してもよい。近接センサ5がディスプレイ2への顔の接近を検出した場合にコントローラ10がディスプレイ2を消灯する制御が別の処理手順において実装されている場合には、ディスプレイ2を消灯する制御を本実施手順において実行しなくてもよい。一般に、スマートフォン等の携帯電話では、近接センサ5がパネル20への顔の接近を検出した場合に、ディスプレイ2を消灯する制御に加えて、誤操作防止のためにタッチスクリーン21により接触の検出を行わない制御が行われる。本実施形態では、パネル20に接触している耳の位置を、タッチスクリーン21を用いて検出するため、近接センサ5がパネル20への顔の接近を検出した場合であっても、タッチスクリーン21は有効なままにされる。   When there is an object in contact with the panel 20, the controller 10 may turn off the display 2 in order to reduce power consumption. If the control for turning off the display 2 by the controller 10 when the proximity sensor 5 detects the approach of the face to the display 2 is implemented in another processing procedure, the control for turning off the display 2 is performed in this implementation procedure. It is not necessary to execute. In general, in a mobile phone such as a smartphone, when the proximity sensor 5 detects the approach of a face to the panel 20, in addition to the control for turning off the display 2, the touch screen 21 detects contact in order to prevent erroneous operation. No control is done. In the present embodiment, since the position of the ear in contact with the panel 20 is detected using the touch screen 21, even when the proximity sensor 5 detects the approach of the face to the panel 20, the touch screen 21. Is left valid.

続いて、コントローラ10は、初期座標を設定データ9Zに格納後、圧電素子7に印加する電気信号を制御して標準音声を出力する(ステップS104)。そして、コントローラ10は、図7Aに示すように、タッチスクリーン21の検出結果に基づいて、物体の接触位置が上下方向(パネル20の長手方向)に移動したかを判定する(ステップS105)。   Subsequently, after storing the initial coordinates in the setting data 9Z, the controller 10 controls the electric signal applied to the piezoelectric element 7 and outputs a standard sound (step S104). Then, as shown in FIG. 7A, the controller 10 determines whether the contact position of the object has moved in the vertical direction (longitudinal direction of the panel 20) based on the detection result of the touch screen 21 (step S105).

物体の接触位置が上下方向に移動したと判定した場合(ステップS105,Yes)、コントローラ10は、タッチスクリーン21の検出結果に基づいて、物体の接触位置の移動が上方向への移動であるかを判定する(ステップS106)。そして、物体の接触位置の移動が上方向であると判定した場合(ステップS106,Yes)、コントローラ10は、図8Aに示すように、接触位置の座標値の変化に比例して音質が高くなるように、圧電素子7に印加する電気信号を制御して音声出力する(ステップS107)。その後、ステップS109の処理へ進む。一方、物体の接触位置の移動が下方向であると判定した場合(ステップS106,No)、コントローラ10は、図8Aに示すように、接触位置の座標値の変化に比例して音質が低くなるように、圧電素子7に印加する電気信号を制御して音声出力する。その後、ステップS109の処理へ進む(ステップS108)。ステップS105において、物体の接触位置が上下方向に移動していないと判定した場合(ステップS105,No)も、ステップS109の処理へ進む。   If it is determined that the contact position of the object has moved in the vertical direction (step S105, Yes), the controller 10 determines whether the movement of the contact position of the object is an upward movement based on the detection result of the touch screen 21. Is determined (step S106). If it is determined that the movement of the contact position of the object is upward (step S106, Yes), the controller 10 has higher sound quality in proportion to the change in the coordinate value of the contact position, as shown in FIG. 8A. As described above, the electrical signal applied to the piezoelectric element 7 is controlled to output sound (step S107). Thereafter, the process proceeds to step S109. On the other hand, if it is determined that the movement of the contact position of the object is downward (No in step S106), the controller 10 has a lower sound quality in proportion to the change in the coordinate value of the contact position, as shown in FIG. 8A. As described above, the electrical signal applied to the piezoelectric element 7 is controlled to output sound. Thereafter, the process proceeds to step S109 (step S108). If it is determined in step S105 that the contact position of the object has not moved in the vertical direction (No in step S105), the process also proceeds to step S109.

続いて、コントローラ10は、パネル20の音の出力を終了するかを判定する(ステップS109)。音の出力を終了する場合には、例えば、利用者による音の出力を終了するための操作が検出された場合と、通話、音楽再生、動画再生等の音を出力するための処理が完了した場合とが含まれる。   Subsequently, the controller 10 determines whether or not to end the sound output of the panel 20 (step S109). In the case of ending the sound output, for example, when the operation for ending the sound output by the user is detected and the process for outputting the sound such as a call, music playback, video playback, etc. is completed. Includes cases.

音の出力を終了しない場合(ステップS109,No)、コントローラ10は、ステップS105以降を再実行する。音の出力を終了する場合(ステップS109,Yes)、コントローラ10は、本処理を終了する。   When the sound output is not finished (No at Step S109), the controller 10 re-executes Step S105 and the subsequent steps. When the output of the sound is to be ended (step S109, Yes), the controller 10 ends this process.

図9Bを参照して、携帯電話1Aが行う音質を変更する2つ目の制御の処理手順について説明する。   With reference to FIG. 9B, a second control processing procedure for changing the sound quality performed by the mobile phone 1A will be described.

図9Bに示すように、パネル20を振動させて音の出力を開始した場合(ステップS201)、コントローラ10は、パネル20に接触している物体があるかをタッチスクリーン21の検出結果に基づいて判定する(ステップS202)。パネル20に接触している物体がない場合(ステップS202,No)、コントローラ10は、ステップS202の処理に戻り、パネル20に接触する物体が検出されるまで処理を繰り返す。   As shown in FIG. 9B, when the panel 20 is vibrated and sound output is started (step S201), the controller 10 determines whether there is an object in contact with the panel 20 based on the detection result of the touch screen 21. Determination is made (step S202). When there is no object in contact with the panel 20 (step S202, No), the controller 10 returns to the process of step S202 and repeats the process until an object in contact with the panel 20 is detected.

パネル20に接触している物体がある場合(ステップS202,Yes)、コントローラ10は、タッチスクリーン21の検出結果に基づいて、パネル20に接触している物体の位置(すなわち、接触位置)を算出する(ステップS203)。ステップS203において、コントローラ10は、図6Aから図6Cで説明した方式等を用いて、パネル20に接触している物体の位置を算出する。そして、コントローラ10は、最初に算出した物体の位置を、初期座標として設定データ9Zに格納する。   When there is an object in contact with the panel 20 (step S202, Yes), the controller 10 calculates the position of the object in contact with the panel 20 (that is, the contact position) based on the detection result of the touch screen 21. (Step S203). In step S203, the controller 10 calculates the position of the object in contact with the panel 20 by using the method described with reference to FIGS. 6A to 6C. Then, the controller 10 stores the first calculated position of the object in the setting data 9Z as initial coordinates.

続いて、コントローラ10は、初期座標を設定データ9Zに格納後、圧電素子7に印加する電気信号を制御して標準音声を出力する(ステップS204)。そして、コントローラ10は、図7Bに示すように、タッチスクリーン21の検出結果に基づいて、物体の接触位置が左右方向(パネル20の短手方向)に移動したかを判定する(ステップS205)。   Subsequently, after storing the initial coordinates in the setting data 9Z, the controller 10 controls the electric signal applied to the piezoelectric element 7 and outputs a standard sound (step S204). Then, as shown in FIG. 7B, the controller 10 determines whether the contact position of the object has moved in the left-right direction (the short direction of the panel 20) based on the detection result of the touch screen 21 (step S205).

物体の接触位置が左右方向に移動したと判定した場合(ステップS205,Yes)、コントローラ10は、タッチスクリーン21の検出結果に基づいて、物体の接触位置の移動が右方向への移動であるかを判定する(ステップS206)。そして、物体の接触位置の移動が右方向であると判定した場合(ステップS206,Yes)、コントローラ10は、図8Bに示すように、接触位置の座標値の変化に比例して音質が高くなるように、圧電素子7に印加する電気信号を制御して音声出力する(ステップS207)。その後、ステップS209の処理へ進む。一方、物体の接触位置の移動が左方向であると判定した場合(ステップS206,No)、コントローラ10は、図8Bに示すように、接触位置の座標値の変化に比例して音質が低くなるように、圧電素子7に印加する電気信号を制御して音声出力する(ステップS208)。その後、ステップS209の処理へ進む。ステップS205において、物体の接触位置が左右方向に移動していないと判定した場合(ステップS205,No)も、ステップS209の処理へ進む。   If it is determined that the contact position of the object has moved in the left-right direction (step S205, Yes), the controller 10 determines whether the movement of the contact position of the object is a rightward movement based on the detection result of the touch screen 21. Is determined (step S206). When it is determined that the movement of the contact position of the object is rightward (step S206, Yes), the controller 10 has higher sound quality in proportion to the change in the coordinate value of the contact position, as shown in FIG. 8B. As described above, the electrical signal applied to the piezoelectric element 7 is controlled to output sound (step S207). Thereafter, the process proceeds to step S209. On the other hand, if it is determined that the movement of the contact position of the object is in the left direction (step S206, No), the controller 10 has a lower sound quality in proportion to the change in the coordinate value of the contact position, as shown in FIG. 8B. As described above, the electrical signal applied to the piezoelectric element 7 is controlled to output a sound (step S208). Thereafter, the process proceeds to step S209. If it is determined in step S205 that the contact position of the object has not moved in the left-right direction (step S205, No), the process proceeds to step S209.

続いて、コントローラ10は、パネル20の音の出力を終了するかを判定する(ステップS209)。音の出力を終了しない場合(ステップS209,No)、コントローラ10は、ステップS205以降を再実行する。音の出力を終了する場合(ステップS209,Yes)、コントローラ10は、本処理を終了する。   Subsequently, the controller 10 determines whether or not to end the sound output of the panel 20 (step S209). When the sound output is not finished (No at Step S209), the controller 10 re-executes Step S205 and the subsequent steps. When the output of the sound is to be ended (step S209, Yes), the controller 10 ends this process.

図9Cを参照して、携帯電話1Aが行う音質を変更する3つ目の制御の処理手順について説明する。   With reference to FIG. 9C, a third control processing procedure for changing the sound quality performed by the mobile phone 1 </ b> A will be described.

図9Cに示すように、パネル20を振動させて音の出力を開始した場合(ステップS301)、コントローラ10は、パネル20に接触している物体があるかをタッチスクリーン21の検出結果に基づいて判定する(ステップS302)。パネル20に接触している物体がない場合(ステップS302,No)、コントローラ10は、ステップS302の処理に戻り、パネル20に接触する物体が検出されるまで処理を繰り返す。   As shown in FIG. 9C, when the panel 20 is vibrated and sound output is started (step S301), the controller 10 determines whether there is an object in contact with the panel 20 based on the detection result of the touch screen 21. Determination is made (step S302). If there is no object in contact with the panel 20 (step S302, No), the controller 10 returns to the process of step S302 and repeats the process until an object in contact with the panel 20 is detected.

パネル20に接触している物体がある場合(ステップS302,Yes)、コントローラ10は、タッチスクリーン21の検出結果に基づいて、パネル20に接触している物体のパネル20に対する押圧を算出する(ステップS303)。ステップS303において、コントローラ10は、最初に算出した物体の押圧を、初期圧力として設定データ9Zに格納する。   When there is an object in contact with the panel 20 (step S302, Yes), the controller 10 calculates the pressure on the panel 20 of the object in contact with the panel 20 based on the detection result of the touch screen 21 (step S302). S303). In step S303, the controller 10 stores the first calculated pressure of the object in the setting data 9Z as an initial pressure.

続いて、コントローラ10は、初期圧力を設定データ9Zに格納後、圧電素子7に印加する電気信号を制御して標準音声を出力する(ステップS304)。そして、コントローラ10は、図7Cに示すように、タッチスクリーン21の検出結果に基づいて、押圧に変化があるかを判定する(ステップS305)。   Subsequently, after storing the initial pressure in the setting data 9Z, the controller 10 controls the electric signal applied to the piezoelectric element 7 and outputs a standard sound (step S304). Then, as illustrated in FIG. 7C, the controller 10 determines whether there is a change in the pressure based on the detection result of the touch screen 21 (step S305).

押圧に変化があると判定した場合(ステップS305,Yes)、コントローラ10は、タッチスクリーン21の検出結果に基づいて、押圧の変化が一段階強いものであるかを判定する(ステップS306)。そして、押圧の変化が一段階強いものであると判定した場合(ステップS306,Yes)、コントローラ10は、図8Cに示すように、押圧の変化に比例して音質が高くなるように、圧電素子7に印加する電気信号を制御して音声出力する(ステップS307)。その後、ステップS309の処理へ進む。一方、押圧の変化が一段階弱いものであると判定した場合(ステップS306,No)、コントローラ10は、図8Cに示すように、押圧の変化に比例して音質が低くなるように、圧電素子7に印加する電気信号を制御して音声出力する(ステップS308)。その後、ステップS309の処理へ進む。ステップS305において、押圧に変化がないと判定した場合(ステップS305,No)も、ステップS309の処理へ進む。   If it is determined that there is a change in the pressure (step S305, Yes), the controller 10 determines whether the change in the pressure is one step stronger based on the detection result of the touch screen 21 (step S306). If it is determined that the pressure change is one step stronger (step S306, Yes), the controller 10 causes the piezoelectric element to increase in sound quality in proportion to the pressure change, as shown in FIG. 8C. The electric signal applied to 7 is controlled to output a sound (step S307). Thereafter, the process proceeds to step S309. On the other hand, if it is determined that the change in pressure is one step weak (No in step S306), the controller 10 causes the piezoelectric element to decrease in sound quality in proportion to the change in pressure, as shown in FIG. 8C. The electrical signal applied to 7 is controlled to output a sound (step S308). Thereafter, the process proceeds to step S309. If it is determined in step S305 that there is no change in pressing (step S305, No), the process proceeds to step S309.

続いて、コントローラ10は、パネル20の音の出力を終了するかを判定する(ステップS309)。音の出力を終了しない場合(ステップS309,No)、コントローラ10は、ステップS305以降を再実行する。音の出力を終了する場合(ステップS309,Yes)、コントローラ10は、本処理を終了する。   Subsequently, the controller 10 determines whether or not to end the sound output of the panel 20 (step S309). When the sound output is not finished (No at Step S309), the controller 10 re-executes Step S305 and the subsequent steps. When the output of the sound is to be ended (step S309, Yes), the controller 10 ends this process.

このような制御によれば、利用者は、パネル20に耳を接触させたままで携帯電話1Aを移動させることにより、音声を確認しながら聞きやすい音質に変更することができる。したがって、利用者は、音質を変更する際にパネル20から一旦耳を離す必要がなくなり、音声の一部を聞き漏らす可能性を低減できる。また、このような制御によれば、従来おこなっていた、利用者が適切な音質に変更できるまで、耳を離して音質を調整後に再度耳を接触させて確認するといった時間を要する操作を繰り返す必要がなくなる。したがって、利用者は、携帯電話1Aを利用時に適切な音質に容易かつ迅速に変更することできる。   According to such control, the user can change the sound quality to be easy to hear while confirming the sound by moving the mobile phone 1A while keeping the ear in contact with the panel 20. Therefore, it is not necessary for the user to take his / her ear off the panel 20 when changing the sound quality, and the possibility of missing a part of the sound can be reduced. In addition, according to such control, it is necessary to repeat a time-consuming operation such as separating the ear and adjusting the sound quality, and then touching the ear again after confirming the sound until the user can change to an appropriate sound quality. Disappears. Therefore, the user can easily and quickly change the mobile phone 1A to an appropriate sound quality when using the mobile phone 1A.

上述の実施形態では、携帯電話1Aが3つの制御のうちいずれかで音質を変更する例を説明したが、携帯電話1Aは、これらの3つの制御を適宜組み合わせてもよい。この場合、図8Aから図8Cに示すように、携帯電話1Aは、接触位置の長手方向における変化、接触位置の短手方向における変化、および、押圧の変化に応じて、それぞれ音質の高音レベルおよび低音レベルの変化量を異ならせて制御することができる。したがって、利用者は、パネル20に耳を接触させたままで携帯電話1Aの移動操作を適宜組み合わせることで、より詳細な音質変更が可能となる。   In the above-described embodiment, the example in which the mobile phone 1A changes the sound quality by any one of the three controls has been described, but the mobile phone 1A may appropriately combine these three controls. In this case, as shown in FIG. 8A to FIG. 8C, the mobile phone 1A can change the high sound level of the sound quality according to the change in the longitudinal direction of the contact position, the change in the short direction of the contact position, and the change in the pressure respectively. The amount of change in the bass level can be controlled differently. Therefore, the user can change the sound quality in more detail by appropriately combining the moving operation of the mobile phone 1A while keeping the ear in contact with the panel 20.

上記の実施形態では、音質を高周波強調するように(高周波成分が増大するように)音質を変化させる例と、音質を低周波強調するように(低周波成分が増大するように)音質を変化させる例を説明したが、これに限定されない。携帯電話1Aは、接触位置または押圧に応じて、プリセットイコライジング処理、女性特有の音質と男性特有の音質への変化処理、ノイズキャンセル処理に関する設定値を変化させてもよい。   In the above embodiment, the sound quality is changed so that the sound quality is emphasized by high frequency (so that the high frequency component is increased), and the sound quality is changed so that the sound quality is emphasized by low frequency (so that the low frequency component is increased). Although the example to make was demonstrated, it is not limited to this. The mobile phone 1 </ b> A may change preset values relating to the preset equalizing process, the female-specific sound quality change process, the male-specific sound quality change process, and the noise canceling process according to the contact position or press.

音質を変化させる処理としては、ダイナミックレンジコンプレッション(DRC)でもよいし、音声信号の周波数特性の波形を変えずに周波数を高音域又は低音域にシフトする処理であってもよい。また、人間の可聴周波数帯域を複数の周波数帯域に分割し、各周波数帯域ごとに音量を制御するマルチバンドコンプレッションであってもよい。例えば、携帯電話で用いられる周波数帯域は300Hz〜3.4kHzである。例えばこれを300Hz〜1kHz、1kHz〜2kHz、2kHz〜3.4kHzに分け、それぞれの周波数帯域の音量を制御すればよい。   The process for changing the sound quality may be dynamic range compression (DRC), or may be a process for shifting the frequency to a high sound range or a low sound range without changing the waveform of the frequency characteristic of the audio signal. Further, it may be a multiband compression that divides a human audible frequency band into a plurality of frequency bands and controls the volume for each frequency band. For example, the frequency band used in mobile phones is 300 Hz to 3.4 kHz. For example, this may be divided into 300 Hz to 1 kHz, 1 kHz to 2 kHz, 2 kHz to 3.4 kHz, and the volume of each frequency band may be controlled.

(実施形態2)
上記の実施形態では、人体伝導方式を利用時に、パネル20に接触する耳の位置または耳の押圧に応じて音質を変更するための制御について説明したが、携帯電話1Aは、耳の位置および耳の押圧に応じて、図10Aから図10Cに示すように、音質を決定する異なる設定値(例えば、第1設定値、第2設定値、第3設定値)を変更することができる。図10Aは、第1設定値の変更の例を示す図である。図10Bは、第2設定値の変更の例を示す図である。図10Cは、第3設定値の変更に例を示す図である。
(Embodiment 2)
In the above-described embodiment, the control for changing the sound quality according to the position of the ear that touches the panel 20 or the pressing of the ear when using the human body conduction method has been described. As shown in FIGS. 10A to 10C, different set values (for example, a first set value, a second set value, and a third set value) that determine sound quality can be changed in accordance with the pressing of. FIG. 10A is a diagram illustrating an example of changing the first set value. FIG. 10B is a diagram illustrating an example of changing the second setting value. FIG. 10C is a diagram illustrating an example of changing the third setting value.

この場合、図10Aに示すように、コントローラ10は、接触位置のパネル20の第1の方向における変化に応じて、パネルが物体に伝える振動音の音質を決定する第1設定値が変化するように、圧電素子7に印加する電気信号を制御する。第1の方向は、例えばパネル20の長手方向である。図10Bに示すように、コントローラ10は、接触位置のパネル20の第2の方向における変化に応じて、パネルが物体に伝える振動音の音質を決定する第2設定値が変化するように、圧電素子7に印加する電気信号を制御する。第2の方向は、例えばパネル20の短手方向である。図10Cに示すように、コントローラ10は、押圧の変化に応じて、パネル20が物体に伝える振動音の音質を決定する第3設定値が変化するように、圧電素子7に印加する電気信号を制御する。   In this case, as illustrated in FIG. 10A, the controller 10 changes the first set value that determines the sound quality of the vibration sound transmitted to the object by the panel according to the change in the first direction of the panel 20 at the contact position. In addition, an electric signal applied to the piezoelectric element 7 is controlled. The first direction is, for example, the longitudinal direction of the panel 20. As shown in FIG. 10B, the controller 10 controls the piezoelectric so that the second set value that determines the sound quality of the vibration sound transmitted to the object by the panel changes according to the change in the second direction of the panel 20 at the contact position. The electric signal applied to the element 7 is controlled. The second direction is, for example, the short direction of the panel 20. As shown in FIG. 10C, the controller 10 outputs an electric signal to be applied to the piezoelectric element 7 so that the third set value that determines the sound quality of the vibration sound transmitted to the object by the panel 20 changes according to the change in pressure. Control.

例えば、第1設定値は、高周波強調処理に関する設定値、第2設定値は、低周波強調処理に関する設定値、第3設定値は、プリセットイコライジング処理に関する設定値である。この他、第1設定値、第2設定値、第3設定値は、女性特有の音質と男性特有の音質への変化処理に関する設定値、ノイズキャンセル処理に関する設定値であってもよい。   For example, the first setting value is a setting value related to the high frequency enhancement process, the second setting value is a setting value related to the low frequency enhancement process, and the third setting value is a setting value related to the preset equalizing process. In addition, the first setting value, the second setting value, and the third setting value may be a setting value related to a process for changing to a female-specific sound quality and a male-specific sound quality, or a setting value related to a noise cancellation process.

図11を参照して、図10Aから図10Cに示すように、携帯電話1Aが耳の位置および耳の押圧に応じて、音質を決定する異なる設定値を変更する制御について説明する。図11は、音質を決定する各種設定値を変更する制御の処理手順を示すフローチャートである。   With reference to FIG. 11, as shown in FIG. 10A to FIG. 10C, control in which the mobile phone 1 </ b> A changes different set values for determining sound quality according to the position of the ear and the pressing of the ear will be described. FIG. 11 is a flowchart showing a control processing procedure for changing various setting values for determining sound quality.

図11に示すように、パネル20を振動させて音の出力を開始した場合(ステップS401)、コントローラ10は、パネル20に接触している物体があるかをタッチスクリーン21の検出結果に基づいて判定する(ステップS402)。パネル20に接触している物体がない場合(ステップS402,No)、コントローラ10は、ステップS402の処理に戻り、パネル20に接触する物体が検出されるまで処理を繰り返す。   As shown in FIG. 11, when the panel 20 is vibrated and sound output is started (step S401), the controller 10 determines whether there is an object in contact with the panel 20 based on the detection result of the touch screen 21. Determination is made (step S402). If there is no object in contact with the panel 20 (step S402, No), the controller 10 returns to the process of step S402 and repeats the process until an object in contact with the panel 20 is detected.

パネル20に接触している物体がある場合(ステップS402,Yes)、コントローラ10は、タッチスクリーン21の検出結果に基づいて、パネル20に接触している物体の位置を算出する(ステップS403)。ステップS403において、コントローラ10は、図6Aから図6Cで説明した方式等を用いて、パネル20に接触している物体の位置を算出する。そして、コントローラ10は、最初に算出した物体の位置を、初期座標として設定データ9Zに格納する。続いて、コントローラ10は、タッチスクリーン21の検出結果に基づいて、パネル20に接触している物体のパネル20に対する押圧を算出する(ステップS404)。ステップS404において、コントローラ10は、最初に算出した物体の押圧を、初期圧力として設定データ9Zに格納する。そして、コントローラ10は、初期座標および初期圧力を設定データ9Zに格納後、圧電素子7に印加する電気信号を制御して標準音声を出力する(ステップS405)。   When there is an object in contact with the panel 20 (step S402, Yes), the controller 10 calculates the position of the object in contact with the panel 20 based on the detection result of the touch screen 21 (step S403). In step S403, the controller 10 calculates the position of the object in contact with the panel 20 using the method described with reference to FIGS. 6A to 6C. Then, the controller 10 stores the first calculated position of the object in the setting data 9Z as initial coordinates. Subsequently, based on the detection result of the touch screen 21, the controller 10 calculates the pressure on the panel 20 of the object that is in contact with the panel 20 (step S404). In step S404, the controller 10 stores the first calculated pressure of the object in the setting data 9Z as an initial pressure. Then, after storing the initial coordinates and the initial pressure in the setting data 9Z, the controller 10 controls the electric signal applied to the piezoelectric element 7 and outputs a standard sound (step S405).

続いて、コントローラ10は、図7Aに示すように、タッチスクリーン21の検出結果に基づいて、物体の接触位置が上下方向(パネル20の長手方向)に移動したかを判定する(ステップS406)。   Subsequently, as shown in FIG. 7A, the controller 10 determines whether the contact position of the object has moved in the vertical direction (longitudinal direction of the panel 20) based on the detection result of the touch screen 21 (step S406).

物体の接触位置が上下方向に移動したと判定した場合(ステップS406,Yes)、コントローラ10は、タッチスクリーン21の検出結果に基づいて、物体の接触位置の移動が上方向への移動であるかを判定する(ステップS407)。そして、物体の接触位置の移動が上方向であると判定した場合(ステップS407,Yes)、コントローラ10は、図10Aに示すように、接触位置の座標値の変化に比例して第1設定値が大きくなるよう変更する調整処理を実行する(ステップS408)。その後、ステップS410の処理へ進む。一方、物体の接触位置の移動が下方向であると判定した場合(ステップS407,No)、コントローラ10は、図10Aに示すように、接触位置の座標値の変化に比例して第1設定値が小さくなるよう変更する調整処理を実行する(ステップS409)。その後、ステップS410の処理へ進む。ステップS406において、物体の接触位置が上下方向に移動していないと判定した場合(ステップS406,No)も、ステップS410の処理へ進む。   If it is determined that the contact position of the object has moved up and down (step S406, Yes), the controller 10 determines whether the movement of the contact position of the object is an upward movement based on the detection result of the touch screen 21. Is determined (step S407). If it is determined that the movement of the contact position of the object is upward (step S407, Yes), the controller 10 sets the first set value in proportion to the change in the coordinate value of the contact position, as shown in FIG. 10A. Adjustment processing is executed to change the value so as to increase (step S408). Thereafter, the process proceeds to step S410. On the other hand, if it is determined that the movement of the contact position of the object is downward (No in step S407), the controller 10 sets the first set value in proportion to the change in the coordinate value of the contact position, as shown in FIG. 10A. Adjustment processing is performed to change so as to decrease (step S409). Thereafter, the process proceeds to step S410. If it is determined in step S406 that the contact position of the object has not moved vertically (step S406, No), the process also proceeds to step S410.

続いて、コントローラ10は、図7Bに示すように、タッチスクリーン21の検出結果に基づいて、物体の接触位置が左右方向(パネル20の短手方向)に移動したかを判定する(ステップS410)。   Subsequently, as illustrated in FIG. 7B, the controller 10 determines whether the contact position of the object has moved in the left-right direction (the short direction of the panel 20) based on the detection result of the touch screen 21 (step S410). .

物体の接触位置が左右方向に移動したと判定した場合(ステップS410,Yes)、コントローラ10は、タッチスクリーン21の検出結果に基づいて、物体の接触位置の移動が右方向への移動であるかを判定する(ステップS411)。そして、物体の接触位置の移動が右方向であると判定した場合(ステップS411,Yes)、コントローラ10は、図10Bに示すように、接触位置の座標値の変化に比例して第2設定値が大きくなるよう変更する調整処理を実行する(ステップS412)。その後、ステップS414の処理へ進む。一方、物体の接触位置の移動が左方向であると判定した場合(ステップS411,No)、コントローラ10は、図10Bに示すように、接触位置の座標値の変化に比例して第2設定値が小さくなるよう変更する調整処理を実行する(ステップS413)。その後、ステップS414の処理へ進む。ステップS410において、物体の接触位置が左右方向に移動していないと判定した場合(ステップS410,No)も、ステップS414の処理へ進む。   If it is determined that the contact position of the object has moved in the left-right direction (step S410, Yes), the controller 10 determines whether the movement of the contact position of the object is a rightward movement based on the detection result of the touch screen 21. Is determined (step S411). If it is determined that the movement of the contact position of the object is in the right direction (step S411, Yes), the controller 10 sets the second set value in proportion to the change in the coordinate value of the contact position, as shown in FIG. 10B. Adjustment processing is executed to change the value so as to increase (step S412). Thereafter, the process proceeds to step S414. On the other hand, when it is determined that the movement of the contact position of the object is in the left direction (step S411, No), the controller 10 sets the second set value in proportion to the change in the coordinate value of the contact position as illustrated in FIG. 10B. An adjustment process is performed to change so as to decrease (step S413). Thereafter, the process proceeds to step S414. When it is determined in step S410 that the contact position of the object has not moved in the left-right direction (step S410, No), the process proceeds to step S414.

続いて、コントローラ10は、図7Cに示すように、タッチスクリーン21の検出結果に基づいて、押圧に変化があるかを判定する(ステップS414)。   Subsequently, as illustrated in FIG. 7C, the controller 10 determines whether there is a change in the pressure based on the detection result of the touch screen 21 (step S414).

押圧に変化があると判定した場合(ステップS414,Yes)、コントローラ10は、タッチスクリーン21の検出結果に基づいて、押圧の変化が一段階強いものであるかを判定する(ステップS415)。そして、押圧の変化が一段階強いものであると判定した場合(ステップS415,Yes)、コントローラ10は、図10Cに示すように、押圧の変化に比例して第3設定値が大きくなるよう変更する調整処理を実行する(ステップS416)。その後、ステップS418の処理へ進む。一方、押圧の変化が一段階弱いものであると判定した場合(ステップS415,No)、コントローラ10は、図10Cに示すように、押圧の変化に比例して第3設定値が小さくなるよう変更する調整処理を実行する(ステップS417)。その後、ステップS418の処理へ進む。   If it is determined that there is a change in the pressure (step S414, Yes), the controller 10 determines whether the change in the pressure is one step stronger based on the detection result of the touch screen 21 (step S415). And when it determines with the change of a press being a one step strong thing (step S415, Yes), as shown to FIG. 10C, the controller 10 changes so that a 3rd setting value may become large in proportion to the change of a press. The adjustment process is executed (step S416). Thereafter, the process proceeds to step S418. On the other hand, if it is determined that the change in pressure is one step weak (No in step S415), the controller 10 changes the third set value to be smaller in proportion to the change in pressure, as shown in FIG. 10C. The adjustment process to be executed is executed (step S417). Thereafter, the process proceeds to step S418.

続いて、コントローラ10は、所定時間内にさらに押圧の変化があるかを判定する(ステップS418)。所定時間にさらに押圧の変化があると判定した場合(ステップS418,Yes)、コントローラ10は、ステップS415以降を再実行する。一方、所定時間にさらに押圧の変化がないと判定した場合(ステップS418,No)、コントローラ10は、上記ステップS408、S409、S412、S413、S416、S417の処理により補正された音声を、圧電素子7に印加する電気信号を制御して出力する(ステップS419)。そして、コントローラ10は、パネル20の音の出力を終了するかを判定する(ステップS420)。音の出力を終了しない場合(ステップS420,No)、コントローラ10は、ステップS406以降を再実行する。音の出力を終了する場合(ステップS429,Yes)、コントローラ10は、本処理を終了する。   Subsequently, the controller 10 determines whether or not there is a further change in pressure within a predetermined time (step S418). If it is determined that there is a further change in pressure during the predetermined time (step S418, Yes), the controller 10 re-executes step S415 and subsequent steps. On the other hand, if it is determined that there is no further change in pressure during the predetermined time (step S418, No), the controller 10 outputs the sound corrected by the processing of steps S408, S409, S412, S413, S416, and S417 to the piezoelectric element. The electric signal applied to 7 is controlled and output (step S419). And the controller 10 determines whether the output of the sound of the panel 20 is complete | finished (step S420). When the sound output is not finished (No at Step S420), the controller 10 re-executes Step S406 and the subsequent steps. When the output of sound is to be ended (step S429, Yes), the controller 10 ends this process.

このような制御によれば、利用者は、図10Aから図10Cに示すように、携帯電話1Aは、接触位置の第1の方向における変化、接触位置の第2の方向における変化、および、押圧の変化に応じて、それぞれ第1設定値、第2設定値、第3設定値を変化させることができる。したがって、利用者は、パネル20に耳を接触させたままで携帯電話1Aの移動操作を適宜組み合わせることで、聞きやすい音声を実現する適切な音質を決定する第1設定値、第2設定値、第3設定値の組合せに変更することができる。   According to such control, as shown in FIGS. 10A to 10C, the user can change the contact position in the first direction, change in the contact position in the second direction, and press the mobile phone 1A. The first set value, the second set value, and the third set value can be changed in accordance with the change in. Accordingly, the user appropriately combines the moving operation of the mobile phone 1A while keeping the ear in contact with the panel 20, thereby determining the first set value, the second set value, It can be changed to a combination of three set values.

図10Aから図11では、3つのパラメータの全てが音質に関する第1設定値、第2設定値、第3設定値である例を説明したが、これに限定されない。本実施形態では、3つのパラメータのうち少なくとも1つの設定値が音質に関する設定値であればよい。例えば、携帯電話1Aは、第1設定値を音質の高低を決定する設定値、第2設定値を音量の大小を設定値、第3設定値を受話速度の設定値として、上記処理を実行してもよい。   Although FIGS. 10A to 11 illustrate an example in which all of the three parameters are the first set value, the second set value, and the third set value related to sound quality, the present invention is not limited to this. In the present embodiment, at least one set value of the three parameters may be a set value related to sound quality. For example, the cellular phone 1A executes the above processing with the first setting value as a setting value that determines the level of sound quality, the second setting value as the setting value of the volume, and the third setting value as the setting value of the reception speed. May be.

(実施形態3)
上記の実施形態では、タッチスクリーン21がパネル20のほぼ全面に配設される例について説明したが、タッチスクリーン21は、ディスプレイ2と重ならないように配設されてもよい。図12は、タッチスクリーン21がディスプレイ2と重ならないように配設される携帯電話1Bの正面図である。図13は、携帯電話1Bのb−b断面を模式的に示す断面図である。
(Embodiment 3)
In the above-described embodiment, an example in which the touch screen 21 is disposed on almost the entire surface of the panel 20 has been described. However, the touch screen 21 may be disposed so as not to overlap the display 2. FIG. 12 is a front view of the mobile phone 1 </ b> B arranged so that the touch screen 21 does not overlap the display 2. FIG. 13 is a cross-sectional view schematically showing a bb cross section of the mobile phone 1B.

図12及び図13に示すように、携帯電話1Bにおいて、ディスプレイ2は、パネル20の内側ではなく、パネル20と同一平面をなすように、パネル20と並べて配設される。タッチスクリーン21は、ディスプレイ2の表側のほぼ全面を覆うように配設される。すなわち、タッチスクリーン21及びディスプレイ2は、所謂タッチパネル(タッチスクリーンディスプレイ)を構成する。   As shown in FIGS. 12 and 13, in the mobile phone 1 </ b> B, the display 2 is arranged side by side with the panel 20 so as to be flush with the panel 20 rather than inside the panel 20. The touch screen 21 is disposed so as to cover almost the entire front surface of the display 2. That is, the touch screen 21 and the display 2 constitute a so-called touch panel (touch screen display).

パネル20の背面のほぼ中央には、接合部材30により、圧電素子7が取り付けられる。パネル20は、圧電素子7に電気信号が印加されると、圧電素子7の変形(伸縮又は屈曲)に応じて振動し、気導音と、パネル20に接触する人体の一部(例えば、耳介軟骨)を介して伝わる振動音とを発生させる。圧電素子7をパネル20の中央に配設することにより、圧電素子7の振動がパネル20全体に均等に伝わり、気導音及び振動音の品質が向上する。   The piezoelectric element 7 is attached to the center of the back surface of the panel 20 by a joining member 30. When an electrical signal is applied to the piezoelectric element 7, the panel 20 vibrates in accordance with deformation (expansion / contraction or bending) of the piezoelectric element 7, and air conduction sound and a part of the human body that contacts the panel 20 (for example, an ear) And vibration sound transmitted through the cartilage. By disposing the piezoelectric element 7 in the center of the panel 20, the vibration of the piezoelectric element 7 is evenly transmitted to the entire panel 20, and the quality of air conduction sound and vibration sound is improved.

パネル20の表側の面にはタッチスクリーン21が配設されないが、パネル20は、タッチスクリーン21が配設されるディスプレイ2の近傍に配置される。   Although the touch screen 21 is not disposed on the front surface of the panel 20, the panel 20 is disposed in the vicinity of the display 2 on which the touch screen 21 is disposed.

このような構成の携帯電話1Bの利用者が、振動音を聞くために耳をパネル20に接触させると、パネル20はタッチスクリーン21の近傍にあるため、耳の一部がタッチスクリーン21に接触する。このため、タッチスクリーン21の検出領域を格子状に分割し、分割されたそれぞれの領域における耳の接触の検出状態を、対応する画素の状態に変換することにより、図14に示すような像76が得られる。   When the user of the mobile phone 1 </ b> B having such a configuration touches his / her ear to the panel 20 in order to hear vibration sound, the panel 20 is in the vicinity of the touch screen 21, and thus a part of the ear touches the touch screen 21. To do. For this reason, the detection area of the touch screen 21 is divided into a lattice shape, and the detection state of the contact of the ear in each of the divided areas is converted into the corresponding pixel state, whereby an image 76 as shown in FIG. Is obtained.

携帯電話1Bは、像76が得られると、パターンマッチングによって、像76と標本75とが最もマッチする際の両者の相対位置を得る。図14の例の場合、像76の左上を基準として、標本75をX軸方向にx4、Y軸方向に−y4だけシフトした場合に両者が最もマッチする。この場合、耳の位置は、(x4,−y4)と算出される。携帯電話1Bは、基準位置74aを含む標本74を用いて耳の位置を検出することもできる。   When the image 76 is obtained, the cellular phone 1B obtains the relative position of the image 76 and the specimen 75 when they are most matched by pattern matching. In the case of the example in FIG. 14, when the sample 75 is shifted by x4 in the X-axis direction and −y4 in the Y-axis direction with the upper left of the image 76 as a reference, the two match best. In this case, the position of the ear is calculated as (x4, -y4). The cellular phone 1B can also detect the position of the ear using the specimen 74 including the reference position 74a.

このように、携帯電話1Bは、タッチスクリーン21がディスプレイ2と重ならないように配設されていても、パネル20に接触する耳の位置を、タッチスクリーン21を用いて検出することができる。したがって、携帯電話1Bは、携帯電話1Aと同様に、パネル20に接触する耳の位置に応じて音質を変更するための制御を実行することができる。   As described above, the mobile phone 1 </ b> B can detect the position of the ear in contact with the panel 20 using the touch screen 21 even if the touch screen 21 is arranged so as not to overlap the display 2. Therefore, the mobile phone 1B can execute control for changing the sound quality in accordance with the position of the ear in contact with the panel 20, similarly to the mobile phone 1A.

(実施形態4)
上記の実施形態では、タッチスクリーン21の少なくとも一部がディスプレイ2と重なるように配設される例について説明したが、タッチスクリーン21は、ディスプレイ2と重ならないように配設されてもよい。図15は、タッチスクリーン21がディスプレイ2と重ならないように配設される携帯電話1Cの正面図である。図16は、携帯電話1Cのc−c断面を模式的に示す断面図である。
(Embodiment 4)
In the above-described embodiment, an example in which at least a part of the touch screen 21 is disposed so as to overlap the display 2 has been described, but the touch screen 21 may be disposed so as not to overlap the display 2. FIG. 15 is a front view of the mobile phone 1 </ b> C arranged so that the touch screen 21 does not overlap the display 2. FIG. 16 is a cross-sectional view schematically showing a cc cross section of the mobile phone 1C.

図15及び図16示すように、携帯電話1Cにおいて、ディスプレイ2は、パネル20の内側ではなく、パネル20と同一平面をなすように、パネル20と並べて配設される。   As shown in FIGS. 15 and 16, in the mobile phone 1 </ b> C, the display 2 is arranged side by side with the panel 20 so as to be in the same plane as the panel 20, not inside the panel 20.

パネル20の背面のほぼ中央には、接合部材30により、圧電素子7が取り付けられる。パネル20と圧電素子7との間には、補強部材31が配設される。すなわち、携帯電話1Cにおいては、圧電素子7と補強部材31とが接合部材30により接着され、さらに補強部材31とパネル20とが接合部材30で接着される。   The piezoelectric element 7 is attached to the center of the back surface of the panel 20 by a joining member 30. A reinforcing member 31 is disposed between the panel 20 and the piezoelectric element 7. That is, in the cellular phone 1 </ b> C, the piezoelectric element 7 and the reinforcing member 31 are bonded by the bonding member 30, and the reinforcing member 31 and the panel 20 are bonded by the bonding member 30.

補強部材31は、例えばゴムまたはシリコン等の弾性部材である。補強部材31は、例えばある程度の弾性を有するアルミニウム等から成る金属板であってもよい。補強部材31は、例えばSUS304等のステンレス板であってもよい。ステンレス板等の金属板の厚さは、圧電素子7に印加される電圧値等に応じて、例えば0.2mm〜0.8mmのものが適宜用いられる。補強部材31は、例えば樹脂製の板であってもよい。ここでいう樹脂製の板を形成する樹脂としては、例えばポリアミド系樹脂が挙げられる。ポリアミド系樹脂には、例えば、メタキシリレンジアミンとアジピン酸とから得られる結晶性の熱可塑性樹脂から成り、強度および弾性に富むレニー(登録商標)がある。このようなポリアミド系樹脂は、それ自体をベースポリマーとして、ガラス繊維、金属繊維または炭素繊維等により強化された強化樹脂であってもよい。強化樹脂は、ポリアミド系樹脂に対するガラス繊維、金属繊維または炭素繊維等の付加量に応じて、強度および弾性が適宜調整される。強化樹脂は、例えば、ガラス繊維、金属繊維または炭素繊維等を編みこんで形成された基材に樹脂を含浸させ、硬化させて形成される。強化樹脂は、液状の樹脂に細かく切断された繊維片を混入させたのちに硬化させて形成されるものであってもよい。強化樹脂は、繊維を編みこんだ基材と樹脂層とを積層したものであってもよい。   The reinforcing member 31 is an elastic member such as rubber or silicon. The reinforcing member 31 may be a metal plate made of aluminum or the like having a certain degree of elasticity, for example. The reinforcing member 31 may be a stainless plate such as SUS304. The thickness of a metal plate such as a stainless steel plate is suitably 0.2 mm to 0.8 mm, for example, depending on the voltage value applied to the piezoelectric element 7 or the like. The reinforcing member 31 may be a resin plate, for example. As resin which forms the resin-made board here, a polyamide-type resin is mentioned, for example. Examples of the polyamide-based resin include Reny (registered trademark), which is made of a crystalline thermoplastic resin obtained from metaxylylenediamine and adipic acid and is rich in strength and elasticity. Such a polyamide-based resin may be a reinforced resin reinforced with glass fiber, metal fiber, carbon fiber, or the like using itself as a base polymer. The strength and elasticity of the reinforced resin are appropriately adjusted according to the amount of glass fiber, metal fiber, carbon fiber, or the like added to the polyamide-based resin. The reinforced resin is formed, for example, by impregnating a resin into a base material formed by braiding glass fiber, metal fiber, carbon fiber or the like and curing it. The reinforced resin may be formed by mixing a finely cut fiber piece into a liquid resin and then curing it. The reinforced resin may be a laminate of a base material in which fibers are knitted and a resin layer.

圧電素子7とパネル20との間に補強部材31を配設することにより、以下の効果が得られる。パネル20に外力が加わった場合に、その外力が圧電素子7に伝わって圧電素子7が破損する可能性を低減することができる。例えば携帯電話1Cが地面に落下することでパネル20に対して外力が加わると、当該外力はまず補強部材31に伝わる。補強部材31は、所定の弾性を有しているため、パネル20から伝わる外力により弾性変形する。そのため、パネル20に対して加わった外力は補強部材31により少なくとも一部が吸収され、圧電素子7に伝達される外力が低減される。結果、圧電素子7の破損を低減することができる。補強部材31が圧電素子7と筺体40との間に配置される場合、例えば携帯電話1Cが地面に落下することで筺体40が変形し、変形した筺体40が圧電素子7に衝突して圧電素子7が破損する可能性を低減できる。   By disposing the reinforcing member 31 between the piezoelectric element 7 and the panel 20, the following effects can be obtained. When an external force is applied to the panel 20, the possibility that the external force is transmitted to the piezoelectric element 7 and the piezoelectric element 7 is damaged can be reduced. For example, when an external force is applied to the panel 20 by the mobile phone 1 </ b> C falling on the ground, the external force is first transmitted to the reinforcing member 31. Since the reinforcing member 31 has predetermined elasticity, it is elastically deformed by an external force transmitted from the panel 20. Therefore, at least a part of the external force applied to the panel 20 is absorbed by the reinforcing member 31, and the external force transmitted to the piezoelectric element 7 is reduced. As a result, damage to the piezoelectric element 7 can be reduced. When the reinforcing member 31 is disposed between the piezoelectric element 7 and the casing 40, the casing 40 is deformed, for example, when the mobile phone 1C falls on the ground, and the deformed casing 40 collides with the piezoelectric element 7 and the piezoelectric element. The possibility that 7 is damaged can be reduced.

圧電素子7の伸縮または屈曲による振動は、まず補強部材31に伝達され、さらにパネル20に伝達される。すなわち、圧電素子7は、まず圧電素子7よりも大きな弾性係数を有する補強部材31を振動させ、さらにパネル20を振動させることになる。したがって、携帯電話1Cは、補強部材31を備えず、圧電素子7が接合部材70によりパネル20に接合される構造と比較して、圧電素子7の変形が過剰になりにくくすることができる。これにより、パネル20の変形量(変形の程度)を調節することができる。この構造は、圧電素子7の変形を阻害しにくいパネル20の場合に特に有効である。   Vibration due to expansion / contraction or bending of the piezoelectric element 7 is first transmitted to the reinforcing member 31 and further transmitted to the panel 20. That is, the piezoelectric element 7 first vibrates the reinforcing member 31 having a larger elastic coefficient than the piezoelectric element 7 and further vibrates the panel 20. Therefore, the cellular phone 1 </ b> C does not include the reinforcing member 31, and it is possible to make the deformation of the piezoelectric element 7 less likely to be excessive as compared with a structure in which the piezoelectric element 7 is bonded to the panel 20 by the bonding member 70. Thereby, the deformation amount (degree of deformation) of the panel 20 can be adjusted. This structure is particularly effective in the case of the panel 20 that hardly obstructs the deformation of the piezoelectric element 7.

さらに、圧電素子7とパネル20との間に補強部材31を配設することにより、図18に示すように、パネル20の共振周波数が下がり、低周波帯域の音響特性が向上する。図18は、補強部材31による周波数特性の変化例を示す図である。図18には、上記のSUS304のような板金を補強部材31として用いた場合の周波数特性と、上記のレニーのような強化樹脂を補強部材31として用いた場合の周波数特性とが示されている。横軸は周波数を、縦軸は音圧を示す。強化樹脂を用いた場合の共振点は約2kHzであり、板金を用いた場合の共振点は約1kHzである。強化樹脂を用いた場合のディップは約4kHzであり、板金を用いた場合のディップは約3kHzである。すなわち、強化樹脂を用いた場合には、板金を用いた場合に比べて、パネル20の共振点が高い周波数領域に位置しており、周波数特性のディップがより高い周波数領域に位置している。携帯電話機の音声通話で用いられる周波数帯は300Hz〜3.4kHzであるため、強化樹脂を補強部材31として用いた場合、ディップが携帯電話1Cの使用周波数帯に含まれないようにすることができる。尚、補強部材31として板金を用いる場合でも、板金を構成する金属の種類もしくは組成または板金の厚さ等を適宜調整することで、ディップが携帯電話1Cの使用周波数帯に含まれないようにすることができる。板金と強化樹脂とを比較すると、強化樹脂は、板金と比較してアンテナ性能への影響を低減することができる。強化樹脂は板金と比較して塑性変形しにくいため、音響特性が変化しにくいという利点がある。強化樹脂は板金と比較して、音発生時の温度上昇が抑えられる。補強部材31に換えて、板状の錘を接合部材30により圧電素子7に取り付けてもよい。   Furthermore, by disposing the reinforcing member 31 between the piezoelectric element 7 and the panel 20, as shown in FIG. 18, the resonance frequency of the panel 20 is lowered and the acoustic characteristics in the low frequency band are improved. FIG. 18 is a diagram illustrating an example of a change in frequency characteristics due to the reinforcing member 31. FIG. 18 shows a frequency characteristic when a sheet metal such as SUS304 is used as the reinforcing member 31 and a frequency characteristic when a reinforced resin such as Reny is used as the reinforcing member 31. . The horizontal axis represents frequency and the vertical axis represents sound pressure. The resonance point when reinforced resin is used is about 2 kHz, and the resonance point when sheet metal is used is about 1 kHz. The dip when using reinforced resin is about 4 kHz, and the dip when using sheet metal is about 3 kHz. That is, when the reinforced resin is used, the resonance point of the panel 20 is located in a higher frequency region and the frequency characteristic dip is located in a higher frequency region, compared to the case where a sheet metal is used. Since the frequency band used for the voice call of the mobile phone is 300 Hz to 3.4 kHz, when reinforced resin is used as the reinforcing member 31, the dip can be prevented from being included in the use frequency band of the mobile phone 1C. . Even when a sheet metal is used as the reinforcing member 31, the dip is not included in the use frequency band of the cellular phone 1C by appropriately adjusting the type or composition of the metal constituting the sheet metal or the thickness of the sheet metal. be able to. When the sheet metal and the reinforced resin are compared, the reinforced resin can reduce the influence on the antenna performance as compared with the sheet metal. Since reinforced resin is less likely to be plastically deformed than sheet metal, there is an advantage that acoustic characteristics are less likely to change. The reinforced resin suppresses the temperature rise at the time of sound generation compared to the sheet metal. Instead of the reinforcing member 31, a plate-like weight may be attached to the piezoelectric element 7 by the joining member 30.

パネル20は、圧電素子7に電気信号が印加されると、圧電素子7の変形(伸縮又は屈曲)に応じて振動し、気導音と、パネル20に接触する人体の一部(例えば、耳介軟骨)を介して伝わる振動音とを発生する。タッチスクリーン21は、パネル20の表側のほぼ全面を覆うように配設される。   When an electrical signal is applied to the piezoelectric element 7, the panel 20 vibrates in accordance with deformation (expansion / contraction or bending) of the piezoelectric element 7, and air conduction sound and a part of the human body that contacts the panel 20 (for example, an ear) And vibration sound transmitted through the cartilage. The touch screen 21 is disposed so as to cover almost the entire front surface of the panel 20.

このような構成の携帯電話1Cの利用者が、振動音を聞くために耳をパネル20に接触させると、タッチスクリーン21は耳と比較して小さいものの、耳の一部がタッチスクリーン21に接触する。このため、タッチスクリーン21の検出領域を格子状に分割し、分割されたそれぞれの領域における耳の接触の検出状態を、対応する画素の状態に変換することにより、図19に示すような像77が得られる。   When the user of the mobile phone 1C configured as described above touches the panel 20 to hear the vibration sound, the touch screen 21 is smaller than the ear, but a part of the ear touches the touch screen 21. To do. For this reason, the detection area of the touch screen 21 is divided into a lattice shape, and the detection state of the contact of the ear in each of the divided areas is converted into the corresponding pixel state, whereby an image 77 as shown in FIG. Is obtained.

携帯電話1Cは、像77が得られると、パターンマッチングによって、像77と標本75とが最もマッチする際の両者の相対位置を得る。図18の例の場合、像77の左上を基準として、標本75をX軸方向にx5、Y軸方向に−y5だけシフトした場合に両者が最もマッチする。この場合、耳の位置は、(x5,−y5)と算出される。携帯電話1Bは、基準位置74aを含む標本74を用いて耳の位置を検出することもできる。   When the image 77 is obtained, the cellular phone 1 </ b> C obtains a relative position between the image 77 and the specimen 75 when they are most matched by pattern matching. In the case of the example in FIG. 18, when the sample 75 is shifted by x5 in the X-axis direction and −y5 in the Y-axis direction with reference to the upper left of the image 77, the two match best. In this case, the position of the ear is calculated as (x5, -y5). The cellular phone 1B can also detect the position of the ear using the specimen 74 including the reference position 74a.

このように、携帯電話1Cは、タッチスクリーン21がディスプレイ2と重ならないように配設されていても、パネル20に接触する耳の位置を、タッチスクリーン21を用いて検出することができる。したがって、携帯電話1Cは、携帯電話1Aと同様に、パネル20に接触する耳の位置に応じて音質を変更するための制御を実行することができる。   As described above, the mobile phone 1 </ b> C can detect the position of the ear in contact with the panel 20 using the touch screen 21 even if the touch screen 21 is disposed so as not to overlap the display 2. Therefore, the mobile phone 1 </ b> C can execute control for changing the sound quality according to the position of the ear in contact with the panel 20, similarly to the mobile phone 1 </ b> A.

(その他の実施形態)
本出願の開示する実施形態は、当業者に明らかな事項を含むことができ、発明の要旨及び範囲を逸脱しない範囲で変形することができる。さらに、本出願の開示する実施形態及びその変形例は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。
(Other embodiments)
Embodiments disclosed in the present application can include matters that are apparent to those skilled in the art, and can be modified without departing from the spirit and scope of the invention. Furthermore, the embodiment disclosed in the present application and its modifications can be combined as appropriate. For example, the above embodiment may be modified as follows.

例えば、図5に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。   For example, each program shown in FIG. 5 may be divided into a plurality of modules, or may be combined with other programs.

上記の実施形態では、パネル20に接触する物体の位置を、タッチスクリーン21を用いて検出する例を示したが、物体の位置を検出する検出部は、タッチスクリーン21に限定されない。例えば、物体の位置を検出する検出部は、カメラ12であってもよい。この場合、物体の位置は、カメラ12が取得する画像に基づいて検出される。   In the above-described embodiment, an example in which the position of an object in contact with the panel 20 is detected using the touch screen 21 has been described. However, the detection unit that detects the position of the object is not limited to the touch screen 21. For example, the detection unit that detects the position of the object may be the camera 12. In this case, the position of the object is detected based on the image acquired by the camera 12.

上記の実施形態では、パネル20に接触する物体の移動を、タッチスクリーン21を用いて検出する例を示したが、物体の移動を検出する検出部は、タッチスクリーン21に限定されない。例えば、物体の移動は、カメラ12が取得する画像に基づいて検出してもよいし、姿勢検出ユニット15が有する加速度センサによって検出してもよい。   In the above-described embodiment, an example in which the movement of an object in contact with the panel 20 is detected using the touch screen 21 has been described. However, the detection unit that detects the movement of the object is not limited to the touch screen 21. For example, the movement of the object may be detected based on an image acquired by the camera 12 or may be detected by an acceleration sensor included in the posture detection unit 15.

上記の実施形態では、パネル20に接触する物体が耳であるという前提で音質調整を行う例を示したが、携帯電話1A〜1Cは、パネル20に接触する物体が耳であるか否かを判定し、耳である場合にのみ音質調整を行ってもよい。このように制御することにより、パネル20に耳が接触している場合には耳の位置に応じて音質調整を行い、パネル20に指が接触している場合には接触操作に応じた処理を実行するというように、状況に合わせて制御を切り替えることができる。パネル20に接触する物体が耳であるか否かは、例えば、標本とのパターンマッチングの精度を上げることによって判定できる。   In the above embodiment, an example is shown in which sound quality adjustment is performed on the assumption that an object that contacts the panel 20 is an ear. However, the mobile phones 1A to 1C determine whether an object that contacts the panel 20 is an ear. It may be determined and sound quality adjustment may be performed only when the ear is used. By controlling in this way, when the ear is in contact with the panel 20, the sound quality is adjusted according to the position of the ear, and when the finger is in contact with the panel 20, processing according to the contact operation is performed. Control can be switched according to the situation, such as executing. Whether or not the object in contact with the panel 20 is an ear can be determined, for example, by increasing the accuracy of pattern matching with a specimen.

上記の実施形態では、携帯電話が、パネル20に対する耳の接触位置もしくは接触面積、または耳の押圧に応じて振動音の音質を変化させる例を示したが、これに限定されない。携帯電話は、例えば耳が所定時間内にパネル20に接触した回数に応じて振動音の音質を変化させてもよい。また、耳がパネルに接触している状態でカメラ12により撮像される画像又は姿勢検出ユニット15の検出結果に応じて振動音の音質を変化させても良い。   In the above embodiment, an example in which the mobile phone changes the sound quality of the vibration sound according to the contact position or contact area of the ear with respect to the panel 20 or the pressing of the ear is shown, but the present invention is not limited to this. For example, the mobile phone may change the quality of the vibration sound according to the number of times the ear touches the panel 20 within a predetermined time. Further, the sound quality of the vibration sound may be changed according to the image captured by the camera 12 with the ear in contact with the panel or the detection result of the posture detection unit 15.

上記の実施形態では、携帯電話は、初期座標からの位置変化に応じて、その位置変化に対応付けられた設定値を変化させる例を示したが、これに限定されない。携帯電話は、耳の接触位置を検出すると、予めパネル上の位置に対応付けられた音質の設定値を変化させてもよい。   In the above-described embodiment, an example has been described in which the mobile phone changes the setting value associated with the position change according to the position change from the initial coordinates, but the present invention is not limited to this. When detecting the contact position of the ear, the mobile phone may change the set value of the sound quality associated with the position on the panel in advance.

この他、携帯電話1Aは、接触位置の第1の方向における変化、接触位置の第2の方向における変化に応じて、利用者の場所に応じた最適なシーンモード音響に切り替える処理を実行してもよい。場所に応じた最適なシーンモード音響の例としては、映画館、スタジアム、ライブハウス、大理石の浴室、教会などの特定場所に適した音響が挙げられる。例えば、携帯電話1Aは、接触位置が長手方向の上側へ一定距離移動したことを検出すると、映画館設定に切り替える。映画館設定では、人体伝導方式を利用する音声出力を100%に設定している。携帯電話1Aは、接触位置が長手方向の下側へ一定距離移動したことを検出すると、スタジアム設定に切り替える。スタジアム設定では、人体伝導方式を利用する音声出力を80%に設定し、ダイナミックスピーカによる音声出力を20%に設定している。携帯電話1Aは、接触位置が短手方向の右側へ一定距離移動したことを検出すると、ライブハウス設定に切り替える。ライブハウス設定では、人体伝導方式を利用する音声出力を80%に設定し、ダイナミックスピーカによる音声出力を20%に設定し、更にノイズリダクション機能を実行するよう設定している。携帯電話1Aは、接触位置が短手方向の左側へ一定距離移動したことを検出すると、大理石の浴室設定に切り替える。大理石の浴室設定では、人体伝導方式を利用する音声出力を20%に設定し、ダイナミックスピーカによる音声出力を80%に設定し、更にリバーブ除去機能を実行するよう設定している。   In addition, the mobile phone 1A executes a process of switching to the optimal scene mode sound according to the location of the user according to the change in the first direction of the contact position and the change in the second direction of the contact position. Also good. Examples of the optimal scene mode sound according to location include sound suitable for a specific location such as a movie theater, a stadium, a live house, a marble bathroom, and a church. For example, when detecting that the contact position has moved a certain distance upward in the longitudinal direction, the mobile phone 1A switches to the movie theater setting. In the cinema setting, the audio output using the human body conduction method is set to 100%. When the mobile phone 1A detects that the contact position has moved a certain distance downward in the longitudinal direction, it switches to the stadium setting. In the stadium setting, the sound output using the human body conduction method is set to 80%, and the sound output by the dynamic speaker is set to 20%. When the mobile phone 1A detects that the contact position has moved a certain distance to the right in the short direction, the mobile phone 1A switches to the live house setting. In the live house setting, the audio output using the human body conduction method is set to 80%, the audio output by the dynamic speaker is set to 20%, and the noise reduction function is set to be executed. When the mobile phone 1A detects that the contact position has moved a certain distance to the left in the short direction, the mobile phone 1A switches to the marble bathroom setting. In the marble bathroom setting, the sound output using the human body conduction method is set to 20%, the sound output by the dynamic speaker is set to 80%, and the reverb removal function is set to be executed.

上記の実施形態では、携帯電話1Aとして、ディスプレイ2が接合部材30を用いてパネル20の背面に取り付けられる例を示したが、携帯電話1Aは、パネル20とディスプレイ2の間に空間ができるように構成されてもよい。パネル20とディスプレイ2の間に空間を設けることにより、パネル20が振動しやすくなり、パネル20上において振動音を聞きやすい範囲が広くなる。   In the above-described embodiment, an example in which the display 2 is attached to the back surface of the panel 20 using the bonding member 30 as the mobile phone 1A has been described. However, the mobile phone 1A has a space between the panel 20 and the display 2. May be configured. By providing a space between the panel 20 and the display 2, the panel 20 easily vibrates, and the range on which the vibration sound can be easily heard on the panel 20 is widened.

上記の実施形態では、圧電素子7をパネル20に取り付ける例を示したが、他の場所に取り付けられてもよい。例えば、圧電素子7は、バッテリリッドに取り付けられてもよい。バッテリリッドは、筐体40に取り付けられ、バッテリを覆う部材である。バッテリリッドは、携帯電話等の携帯電子機器においてディスプレイ2と異なる面に取り付けられることが多いため、そのような構成によれば、利用者はディスプレイ2と異なる面に体の一部(例えば耳)を接触させて音を聞くことができる。圧電素子7が筺体40の角部(例えば四隅の少なくとも一か所)を振動させる構成であっても良い。この場合、圧電素子7は、筺体40の角部の内面に取り付けられる構成でもよいし、中間部材をさらに備え、圧電素子7の振動が中間部材を介して筺体40の角部に伝達される構成でもよい。この構成によれば、振動する範囲を比較的狭くできるため、振動により発生する気導音が周囲に漏れにくい。また、この構成によれば、例えば利用者が筺体の角部を外耳道に挿入した状態で気導音と振動音とが利用者に伝わるため、周囲のノイズが利用者の外耳道に入りにくい。そのため、利用者に伝わる音の品質を向上することができる。   In the above embodiment, the example in which the piezoelectric element 7 is attached to the panel 20 has been described, but the piezoelectric element 7 may be attached to another place. For example, the piezoelectric element 7 may be attached to a battery lid. The battery lid is a member that is attached to the housing 40 and covers the battery. Since the battery lid is often attached to a surface different from the display 2 in a portable electronic device such as a cellular phone, according to such a configuration, the user can place a part of the body (for example, an ear) on a surface different from the display 2. You can hear the sound by touching. The piezoelectric element 7 may be configured to vibrate corners of the housing 40 (for example, at least one of the four corners). In this case, the piezoelectric element 7 may be configured to be attached to the inner surface of the corner portion of the housing 40, or further provided with an intermediate member, and the vibration of the piezoelectric element 7 is transmitted to the corner portion of the housing 40 via the intermediate member. But you can. According to this configuration, the vibrating range can be made relatively narrow, so that air conduction sound generated by the vibration is difficult to leak to the surroundings. In addition, according to this configuration, for example, the air conduction sound and the vibration sound are transmitted to the user in a state where the user inserts the corner portion of the housing into the ear canal, so that ambient noise hardly enters the user's ear canal. Therefore, the quality of the sound transmitted to the user can be improved.

上記の実施形態では、補強部材31は板状部材であるが、補強部材31の形状はこれに限られない。補強部材31は、例えば、圧電素子7より大きく、かつその端部が圧電素子7側に湾曲し圧電素子7の側部を覆う形状を有していてもよい。また、補強部材31は、例えば、板状部と、当該板状部から延設されて圧電素子7の側部を覆う延設部とを有する形状であってもよい。この場合、延設部と圧電素子7の側部とが、所定の距離だけ離間しているとよい。これにより、延設部が圧電素子の変形を阻害しにくくなる。   In said embodiment, although the reinforcement member 31 is a plate-shaped member, the shape of the reinforcement member 31 is not restricted to this. For example, the reinforcing member 31 may have a shape that is larger than the piezoelectric element 7 and has an end that curves toward the piezoelectric element 7 and covers the side of the piezoelectric element 7. The reinforcing member 31 may have, for example, a shape having a plate-like portion and an extending portion that extends from the plate-like portion and covers the side portion of the piezoelectric element 7. In this case, it is preferable that the extended portion and the side portion of the piezoelectric element 7 are separated by a predetermined distance. Thereby, it becomes difficult for the extending part to inhibit the deformation of the piezoelectric element.

また、パネル20は、表示パネル、操作パネル、カバーパネル、充電池を取り外し可能とするためのリッドパネルのいずれかの一部または全部を構成することができる。特に、パネル20が表示パネルのとき、圧電素子7は、表示機能のための表示領域の外側に配置される。これにより、表示を阻害しにくいという利点がある。操作パネルは、タッチパネルを含む。また、操作パネルは、例えば折畳型携帯電話において操作キーのキートップが一体に形成され操作部側筺体の一面を構成する部材であるシートキーを含む。   In addition, the panel 20 can constitute a part or all of any of a display panel, an operation panel, a cover panel, and a lid panel for making the rechargeable battery removable. In particular, when the panel 20 is a display panel, the piezoelectric element 7 is disposed outside the display area for the display function. As a result, there is an advantage that the display is hardly disturbed. The operation panel includes a touch panel. In addition, the operation panel includes a sheet key that is a member constituting one surface of the operation unit side casing, in which, for example, a key top of an operation key is integrally formed in a foldable mobile phone.

なお、パネル20と圧電素子7とを接着する接合部材およびパネル20と筺体40とを接着する接合部材等を同一の符号を有する接合部材30として説明した。しかしながら、接合部材は、接合する対象である部材に応じて適宜異なるものが用いられてよい。   In addition, the joining member which adhere | attaches the panel 20 and the piezoelectric element 7, the joining member which adhere | attaches the panel 20 and the housing 40, etc. were demonstrated as the joining member 30 which has the same code | symbol. However, different joining members may be used as appropriate depending on the members to be joined.

上記の実施形態では、添付の請求項に係る装置の例として、携帯電話について説明したが、添付の請求項に係る装置は、携帯電話に限定されない。添付の請求項に係る装置は、携帯電話以外の携帯電子機器であってもよい。携帯電子機器は、例えば、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。   In the above embodiment, a mobile phone has been described as an example of a device according to the appended claims. However, the device according to the appended claims is not limited to a mobile phone. The device according to the appended claims may be a mobile electronic device other than a mobile phone. Examples of the portable electronic device include, but are not limited to, a tablet, a portable personal computer, a digital camera, a media player, an electronic book reader, a navigator, and a game machine.

添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。   The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be configured to embody such a configuration.

1A〜1C 携帯電話
2 ディスプレイ
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 圧電素子
8 マイク
9 ストレージ
9A 制御プログラム
9B 通話アプリケーション
9C 音楽再生アプリケーション
9D 動画再生アプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
15 姿勢検出ユニット
18 バイブレータ
20 パネル
21 タッチスクリーン
30 接合部材
31 補強部材
40 筐体
1A to 1C Mobile phone 2 Display 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Piezoelectric element 8 Microphone 9 Storage 9A Control program 9B Call application 9C Music playback application 9D Video playback application 9Z Setting data 10 Controller 11 Speaker 12 Camera 15 Attitude Detection unit 18 Vibrator 20 Panel 21 Touch screen 30 Joining member 31 Reinforcing member 40 Housing

Claims (20)

圧電素子と、
前記圧電素子によって振動し、気導音と、人体の一部を振動させて伝わる振動音とを発生させる音発生部と、
前記音発生部に対する前記人体の一部の接触を検出する検出部と、を備え、
前記検出部の検出結果に応じて前記振動音の音質が変化する電子機器。
A piezoelectric element;
A sound generator that vibrates by the piezoelectric element and generates air conduction sound and vibration sound transmitted by vibrating a part of the human body;
A detection unit that detects contact of a part of the human body with respect to the sound generation unit,
An electronic device in which sound quality of the vibration sound changes according to a detection result of the detection unit.
前記検出部は、前記人体の一部の前記音発生部に対する接触位置を検出し、
前記検出部によって検出される接触位置に応じて、前記振動音の音質が変化する請求項1に記載の電子機器。
The detection unit detects a contact position of the part of the human body with respect to the sound generation unit,
The electronic device according to claim 1, wherein a sound quality of the vibration sound changes according to a contact position detected by the detection unit.
前記接触位置が前記音発生部の一方の端部に近くなるにつれて、前記振動音の高周波成分が増大するように前記振動音の音質が変化し、前記接触位置が前記音発生部の他方の端部に近くなるにつれて、前記振動音の低周波成分が増大するように前記振動音の音質が変化する請求項2に記載の電子機器。   As the contact position approaches one end of the sound generator, the quality of the vibration sound changes such that the high frequency component of the vibration sound increases, and the contact position is the other end of the sound generator. The electronic device according to claim 2, wherein the sound quality of the vibration sound changes such that a low frequency component of the vibration sound increases as the position approaches the portion. 前記振動音の音質は、音発生部上の位置に対応付けられた音質に変化する請求項3に記載の電子機器。   The electronic device according to claim 3, wherein a sound quality of the vibration sound changes to a sound quality associated with a position on a sound generation unit. 前記振動音の音質は、接触位置の変化に対応付けられた音質の変化度合に基づいて変化する請求項3に記載の電子機器。   The electronic apparatus according to claim 3, wherein the sound quality of the vibration sound changes based on a degree of change in sound quality associated with a change in contact position. 前記検出部は、前記人体の一部の前記音発生部に対する押圧を検出し、
前記押圧に応じて、前記振動音の音質が変化する請求項1または2に記載の電子機器。
The detection unit detects a pressure on the sound generation unit of a part of the human body,
The electronic device according to claim 1, wherein a sound quality of the vibration sound changes according to the pressing.
前記押圧が強いほど、前記振動音の高周波成分が増大するように前記振動音の音質が変化し、前記押圧が弱いほど、前記振動音の低周波成分が増大するように前記振動音の音質が変化する請求項6に記載の電子機器。   The sound quality of the vibration sound changes so that the high frequency component of the vibration sound increases as the press is strong, and the sound quality of the vibration sound increases so that the low frequency component of the vibration sound increases as the pressure is weak. The electronic device according to claim 6 which changes. 前記検出部は、前記人体の一部の前記音発生部に対する接触面積を検出し、
前記検出部によって検出される接触面積の大小に応じて、前記振動音の音質が変化する請求項1に記載の電子機器。
The detection unit detects a contact area of the part of the human body with the sound generation unit,
The electronic device according to claim 1, wherein a sound quality of the vibration sound changes according to a size of a contact area detected by the detection unit.
前記接触位置の第1の方向における変化に応じて、前記振動音の音質を決定する第1設定値が変化し、前記接触位置の第2の方向における変化に応じて、前記振動音の音質を決定する第2設定値が変化する請求項2に記載の電子機器。   A first set value that determines a sound quality of the vibration sound changes according to a change in the first direction of the contact position, and a sound quality of the vibration sound changes according to a change in the second direction of the contact position. The electronic device according to claim 2, wherein the second set value to be determined changes. 前記圧電素子は、前記音発生部の長手方向端部近傍に搭載されており、
前記第1の方向は、前記音発生部の長手方向であり、
前記第2の方向は、前記音発生部の短手方向である請求項9に記載の電子機器。
The piezoelectric element is mounted in the vicinity of the longitudinal end of the sound generating unit,
The first direction is a longitudinal direction of the sound generator,
The electronic device according to claim 9, wherein the second direction is a short direction of the sound generation unit.
前記検出部は、前記人体の一部の前記音発生部に対する押圧を検出し、
前記押圧の変化に応じて、前記振動音の音質を決定する第3設定値が変化する請求項9または10に記載の電子機器。
The detection unit detects a pressure on the sound generation unit of a part of the human body,
The electronic device according to claim 9 or 10, wherein a third set value that determines a sound quality of the vibration sound changes according to the change in the pressure.
前記人体の一部が耳である場合に前記振動音の音質が変化する請求項1から11のいずれか一項に記載の電子機器。   The electronic device according to claim 1, wherein a sound quality of the vibration sound changes when a part of the human body is an ear. 前記検出部は、前記人体の一部の前記音発生部に対する接触範囲を検出し、
前記検出部は、検出された接触範囲により前記人体の一部が耳であるかを判定する請求項12に記載の電子機器。
The detection unit detects a contact range of the human body with respect to the sound generation unit;
The electronic device according to claim 12, wherein the detection unit determines whether a part of the human body is an ear based on the detected contact range.
前記音発生部は、人間の耳の対耳輪下脚から対耳珠までの間の距離に相当する長さと、耳珠から対耳輪までの間の距離に相当する幅とを有する領域よりも広い領域が振動する請求項1から13のいずれか一項に記載の電子機器。   The sound generator is a region wider than a region having a length corresponding to the distance from the lower leg of the human ear to the antitragus and a width corresponding to the distance from the tragus to the antique. The electronic device according to claim 1, wherein the device vibrates. 前記音発生部は、表示パネル、操作パネル、カバーパネル、充電池を取り外し可能とするためのリッドパネルのいずれかの一部または全部を構成する請求項1から14のいずれか一項に記載の電子機器。   The said sound generation part comprises a part or all of any one of the lid panel for enabling a display panel, an operation panel, a cover panel, and a rechargeable battery to be removable. Electronics. 前記音発生部が表示パネルのとき、
前記圧電素子は、当該表示機能のための表示領域の外側に配置されている請求項15に記載の電子機器。
When the sound generator is a display panel,
The electronic device according to claim 15, wherein the piezoelectric element is disposed outside a display area for the display function.
前記音発生部は、当該音発生部のいずれの箇所においても気導音と人体振動音とを伝えるための変形が発生する請求項1から16のいずれか一項に記載の電子機器。   The electronic device according to any one of claims 1 to 16, wherein the sound generation unit is deformed to transmit an air conduction sound and a human body vibration sound at any location of the sound generation unit. 前記音発生部は、その振動領域において、当該音発生部の主面と交差する方向に振動する箇所を複数有し、当該箇所の各々において、前記振動の振幅の値が時間とともにプラスからマイナスに、あるいはその逆に変動する請求項1から17のいずれか一項に記載の電子機器。   The sound generator has a plurality of locations that vibrate in a direction intersecting the main surface of the sound generator in the vibration region, and in each of the locations, the amplitude value of the vibration is changed from plus to minus with time. The electronic device according to any one of claims 1 to 17, wherein the electronic device fluctuates or vice versa. 音発生部と圧電素子とを備える電子機器によって実行される制御方法であって、
前記圧電素子によって前記音発生部を振動させて、気導音と、人体の一部を振動させて伝わる振動音とを前記音発生部に発生させるステップと、
前記音発生部に対する前記人体の一部の接触を検出するステップと、を含み、
前記検出するステップの検出結果に応じて前記振動音の音質が変化する制御方法。
A control method executed by an electronic device including a sound generator and a piezoelectric element,
Vibrating the sound generation unit with the piezoelectric element to generate air conduction sound and vibration sound transmitted by vibrating a part of the human body in the sound generation unit;
Detecting the contact of a part of the human body with the sound generator,
A control method in which sound quality of the vibration sound changes according to a detection result of the detecting step.
音発生部と圧電素子とを備える電子機器に、
前記圧電素子によって前記音発生部を振動させて、気導音と、人体の一部を振動させて伝わる振動音とを前記音発生部に発生させるステップと、
前記音発生部に対する前記人体の一部の接触を検出するステップと、実行させ、
前記検出するステップの検出結果に応じて前記振動音の音質が変化する制御プログラム。
In an electronic device equipped with a sound generator and a piezoelectric element,
Vibrating the sound generation unit with the piezoelectric element to generate air conduction sound and vibration sound transmitted by vibrating a part of the human body in the sound generation unit;
Detecting a contact of a part of the human body with respect to the sound generation unit; and
A control program in which sound quality of the vibration sound changes according to a detection result of the detecting step.
JP2012105524A 2012-05-02 2012-05-02 Electronic apparatus, control method, and control program Pending JP2013236139A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012105524A JP2013236139A (en) 2012-05-02 2012-05-02 Electronic apparatus, control method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012105524A JP2013236139A (en) 2012-05-02 2012-05-02 Electronic apparatus, control method, and control program

Publications (1)

Publication Number Publication Date
JP2013236139A true JP2013236139A (en) 2013-11-21

Family

ID=49761938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012105524A Pending JP2013236139A (en) 2012-05-02 2012-05-02 Electronic apparatus, control method, and control program

Country Status (1)

Country Link
JP (1) JP2013236139A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104598193A (en) * 2014-12-29 2015-05-06 联想(北京)有限公司 Information processing method and electronic equipment
CN110198372A (en) * 2019-05-31 2019-09-03 华为技术有限公司 Determine the method and a kind of electronic equipment of camera assembly retracted position

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104598193A (en) * 2014-12-29 2015-05-06 联想(北京)有限公司 Information processing method and electronic equipment
CN104598193B (en) * 2014-12-29 2020-04-24 联想(北京)有限公司 Information processing method and electronic equipment
CN110198372A (en) * 2019-05-31 2019-09-03 华为技术有限公司 Determine the method and a kind of electronic equipment of camera assembly retracted position
CN110198372B (en) * 2019-05-31 2020-10-09 华为技术有限公司 Method for determining telescopic state of camera shooting assembly, readable storage medium and related equipment

Similar Documents

Publication Publication Date Title
JP6017828B2 (en) Electronic device, control method, and control program
WO2013164999A1 (en) Electronic device, control method, and control program
JP6121517B2 (en) apparatus
WO2013164980A1 (en) Electronic apparatus, control method, and control program
JP5856196B2 (en) Electronics
JP5812925B2 (en) Electronics
JP5818922B2 (en) Electronics
JP2014112917A (en) Electronic apparatus
WO2014003148A1 (en) Electronic device, control method, and control program
EP3462718A1 (en) Mobile terminal
JP6067999B2 (en) Electronic device, control method, and control program
JP5865774B2 (en) Electronic device, control method, and control program
JP2013232853A (en) Electronic apparatus, control method, and control program
JP2013236139A (en) Electronic apparatus, control method, and control program
JP6099320B2 (en) Electronic device, control method, and control program
JP6242040B2 (en) Electronic device, control method, and control program
JP6017829B2 (en) Electronics
JP6110078B2 (en) Electronic device, control method, and control program
JP2014082674A (en) Electronic device, control method, and control program
JP2014007444A (en) Electronic apparatus, control method, and control program
JP2014011512A (en) Electronic device, control method, and control program
JP2014011511A (en) Electronic device, control method, and control program
JP2015050703A (en) Electronic apparatus