WO2014003148A1 - 電子機器、制御方法、及び制御プログラム - Google Patents

電子機器、制御方法、及び制御プログラム Download PDF

Info

Publication number
WO2014003148A1
WO2014003148A1 PCT/JP2013/067736 JP2013067736W WO2014003148A1 WO 2014003148 A1 WO2014003148 A1 WO 2014003148A1 JP 2013067736 W JP2013067736 W JP 2013067736W WO 2014003148 A1 WO2014003148 A1 WO 2014003148A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
control
panel
vibration sound
vibration
Prior art date
Application number
PCT/JP2013/067736
Other languages
English (en)
French (fr)
Inventor
光男 花▲崎▼
須藤 智浩
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2012144731A external-priority patent/JP2014011512A/ja
Priority claimed from JP2012144730A external-priority patent/JP2014011511A/ja
Priority claimed from JP2012144593A external-priority patent/JP6242040B2/ja
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2014003148A1 publication Critical patent/WO2014003148A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/03Constructional features of telephone transmitters or receivers, e.g. telephone hand-sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • FIG. 8C is a diagram illustrating an example of correspondence between the detected operation and the control performed according to the operation.
  • FIG. 8D is a diagram illustrating an example of correspondence between the detected operation and the control performed according to the operation.
  • FIG. 8E is a diagram illustrating an example of correspondence between the detected operation and the control performed according to the operation.
  • FIG. 9 is a diagram illustrating an example of handwritten input of numbers.
  • FIG. 10 is a flowchart illustrating an example of a processing procedure for performing control related to the air conduction sound and the vibration sound according to the detected operation.
  • FIG. 11 is a diagram illustrating an example of limiting a range in which an operation is received.
  • FIG. 12 is a front view of a mobile phone according to a first modification.
  • FIG. 12 is a front view of a mobile phone according to a first modification.
  • FIG. 31 is a diagram illustrating another example of the control change based on the detection result of the touch screen on the back side.
  • FIG. 32 is a diagram illustrating another example of control change based on the detection result of the touch screen on the back side.
  • FIG. 33 is a flowchart illustrating an example of a processing procedure for changing control related to information output as air conduction sound and vibration sound.
  • FIG. 34 is a diagram illustrating an example of control based on the detection result of the touch screen on the back side.
  • FIG. 35 is a diagram illustrating an example of control for switching information to be output in response to detection of swipe on the back surface.
  • FIG. 36 is a diagram illustrating another example of control for switching information to be output in response to detection of a plurality of swipes on the back surface.
  • “Rotate” is a gesture that swipes a plurality of fingers so that they rotate around the middle of those fingers.
  • the mobile phone 1 ⁇ / b> A determines a gesture that moves so that a plurality of fingers rotate about any point as a rotation.
  • the housing 40 is formed using resin or metal.
  • the housing 40 supports the display 2, the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the speaker 11, the camera 12, the panel 20, and the like.
  • FIG. 5 is a diagram illustrating an example of the shape of the panel 20.
  • FIG. 6 is a diagram illustrating an example of the vibration of the panel 20.
  • the mobile phone 1A can transmit air conduction sound and vibration sound through a part of the user's body (for example, auricular cartilage) to the user by the vibration of the panel 20. Therefore, when the mobile phone 1A outputs a sound having a volume equivalent to that of the dynamic receiver, the sound transmitted to the surroundings of the mobile phone 1A due to air vibration may be reduced compared to an electronic device having only a dynamic speaker. it can.
  • a feature is suitable, for example, when listening to a recorded message in a place where there is another person nearby, such as in a train.
  • the mobile phone 1A transmits sound by the vibration of the panel 20. Therefore, when the mobile phone 1A does not include a separate dynamic receiver, there is no need to form an opening (sound outlet) in the housing 40 for transmitting the sound generated by the panel 20 to the outside. For this reason, when realizing a waterproof structure, the structure can be simplified.
  • the cellular phone 1A closes the opening with a member that allows gas to pass but not liquid to realize a waterproof structure.
  • a structure may be adopted.
  • An example of the member that allows gas to pass but not liquid is Gore-Tex (registered trademark).
  • the sound produced by the functions provided by the reading application 9B, the radio player application 9C, the television player application 9D, the music playback application 9E, and the video playback application 9F is output from one or both of the speaker 11 and the vibration receiver 13. .
  • the sound is output is determined by, for example, a user operation or a setting made in advance by the user.
  • the reinforcing member 31 is an elastic member such as rubber or silicon.
  • the reinforcing member 31 may be a metal plate made of aluminum or the like having a certain degree of elasticity, for example.
  • the reinforcing member 31 may be a stainless plate such as SUS304.
  • the thickness of a metal plate such as a stainless steel plate is suitably 0.2 mm to 0.8 mm, for example, depending on the voltage value applied to the piezoelectric element 7 and the like.
  • the reinforcing member 31 may be a resin plate, for example.
  • As resin which forms the resin-made board here a polyamide-type resin is mentioned, for example.
  • the polyamide resin examples include Reny (registered trademark), which is made of a crystalline thermoplastic resin obtained from metaxylylenediamine and adipic acid and is rich in strength and elasticity.
  • Reny registered trademark
  • Such a polyamide-based resin may be a reinforced resin reinforced with glass fiber, metal fiber, carbon fiber, or the like using itself as a base polymer. The strength and elasticity of the reinforced resin are appropriately adjusted according to the amount of glass fiber, metal fiber, carbon fiber, or the like added to the polyamide-based resin.
  • the reinforced resin is formed, for example, by impregnating a resin into a base material formed by braiding glass fiber, metal fiber, carbon fiber or the like and curing it.
  • the reinforced resin may be formed by mixing a finely cut fiber piece into a liquid resin and then curing it.
  • the reinforced resin may be a laminate of a base material in which fibers are knitted and a resin layer.
  • the touch screen 21A is also used to detect auricular cartilage that contacts the panel 22 in order to hear sound.
  • the control program 9A provides functions related to various controls for operating the mobile phone 1D.
  • the control program 9A for example, realizes a call by controlling the communication unit 6, the piezoelectric element 7, the microphone 8, and the like.
  • the function provided by the control program 9A includes a function of changing control regarding information output as air conduction sound and vibration sound based on the detection result of the touch screen 21A or the touch screen 21B.
  • Control relating to information output as air conduction sound and vibration sound includes, for example, control relating to volume, sound quality, reproduction direction, reproduction direction, and reproduction order.
  • the functions provided by the control program 9A include a function of switching information output as air conduction sound and vibration sound based on the detection result of the touch screen 21 or the touch screen 22.
  • FIG. 22 is a diagram illustrating an example of a home screen displayed on the display 2.
  • the home screen is displayed on the display 2.
  • the home screen is a screen that allows the user to select which application to execute from the applications installed in the mobile phone 1D.
  • the home screen is sometimes called a desktop, a standby screen, an idle screen, or a standard screen.
  • FIG. 23 and FIG. 24 are diagrams illustrating examples of information output when an ear contact is detected during display of the home screen.
  • the mobile phone 1D when the touch of the ear to the area 61 including the display area of the widget 41a is detected by the touch screen 21A, the mobile phone 1D outputs information corresponding to the widget 41a as a vibration sound. Specifically, the mobile phone 1D converts the text of the article data scrolling in the widget 41a into voice data by using a reading function provided by the reading application 9B. Then, the cellular phone 1D applies a signal corresponding to the audio data to the piezoelectric element 7 to vibrate the panel 22.
  • the distance from the position where the ear contact is detected to each object arranged on the home screen is calculated. Then, the object having the shortest distance is specified as an object for which related information is output as a vibration sound.
  • the position where the ear contact is detected corresponds to, for example, the center of gravity of the area where the ear contact is detected, one of the centers or vertices of the smallest rectangle including the area where the ear contact is detected, and a predetermined part of the ear Or a position where contact is first detected in a region where ear contact is detected.
  • the distance from the position where the ear contact is detected to the object may be the distance from the position where the ear contact is detected to the center of the object.
  • the distance from the position where the ear contact is detected to the object may be the distance from the position where the ear contact is detected to the portion of the outer periphery of the object closest to the position where the ear contact is detected. Good.
  • step S13 it is assumed that the user performs an upper flick in the area 41b using the finger F1 while outputting information related to the widget 41a as a vibration sound.
  • the mobile phone 1D increases the volume of the vibration sound.
  • step S14 it is assumed that the user performs a downward flick in the area 41b using the finger F1 while outputting information related to the widget 41a as a vibration sound. In this case, the mobile phone 1D decreases the volume of the vibration sound.
  • the mobile phone 1D outputs a gesture when a gesture is detected in an area corresponding to a display area of an object related to information outputting vibration sound on the back surface. Change control over information. For this reason, even if something happens to touch another area on the back, the mobile phone 1D does not change the control related to information. That is, there is a low possibility of malfunction due to contact unintended by the user.
  • the mobile phone 1 ⁇ / b> D When the mobile phone 1 ⁇ / b> D outputs information related to an object placed on the front surface as a vibration sound, if a gesture is detected in the back surface region corresponding to the part included in the object, the mobile phone 1 ⁇ / b> D displays the detected region. The control of information is changed according to the corresponding part. For example, the mobile phone 1D fast-forwards the music being reproduced when the touch on the area 45b is detected by the touch screen 21B while outputting the music as a vibration sound.
  • the mobile phone 1 ⁇ / b> D outputs the music as vibration sound and the touch on the area 46 b is detected by the touch screen 21 ⁇ / b> B
  • the mobile phone 1 ⁇ / b> D rewinds the music being played back.
  • the mobile phone 1D outputs a music piece as a vibration sound and a tap for the area 47b is detected by the touch screen 21B, the mobile phone 1D pauses the music being played until a tap
  • step S52 it is assumed that the user performs the first swipe in the upper left direction on the touch screen 21B using the finger F1.
  • the mobile phone 1D relatively changes the relationship between the position on the front surface and the position on the back surface in accordance with the detected direction and distance of the swipe.
  • the relationship between the position on the front surface and the position on the back surface changes so that the regions 41b to 44b slide by the amount of the vector V1 from the start point to the end point of the first swipe.
  • the reinforcing member 31 is disposed between the piezoelectric element 7 and the casing 40, the casing 40 is deformed, for example, when the mobile phone 1G falls on the ground, and the deformed casing 40 collides with the piezoelectric element 7.
  • the possibility that the piezoelectric element 7 is damaged can be reduced.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • Telephone Set Structure (AREA)

Abstract

 電子機器(例えば、携帯電話)(1A)は、筐体と、筐体の第1面に設けられる操作部(例えば、タッチスクリーン)(21)と、圧電素子(7)と、圧電素子(7)の変形に基づいて、人体の一部を振動させて伝わる振動音を筐体の第2面から発生させると共に、操作部(21)が操作されると、振動音に関する所定の制御を行う制御部(例えば、コントローラ)(10)とを備える。

Description

電子機器、制御方法、及び制御プログラム
 本出願は、電子機器、制御方法、及び制御プログラムに関する。
 特許文献1には、気導音と振動音とを利用者に伝える電子機器が記載されている。特許文献1には、電子機器の筐体の外面に配置される振動体の圧電素子に電圧が印加されると、圧電素子が伸縮することにより振動体が屈曲振動することが記載されている。また、特許文献1には、利用者が屈曲振動する振動体を耳介に接触させると、気導音と振動音とが利用者に伝えられることが記載されている。気導音とは、物体の振動に起因する空気の振動が外耳道を通って鼓膜に伝わり、鼓膜が振動することによって利用者の聴覚神経に伝わる音である。振動音とは、振動する物体に接触する利用者の体の一部(例えば外耳の軟骨)を介して利用者の聴覚神経に伝わる音である。
特開2005-348193号公報
 振動音を出力する上記の電子機器には、使い勝手の観点において改善の余地がある。このような理由から、振動音を出力する場合の使い勝手を向上させることができる電子機器、制御方法、及び制御プログラムに対するニーズがある。
 1つの態様に係る電子機器は、筐体と、前記筐体の第1面に設けられる操作部と、圧電素子と、前記圧電素子の変形に基づいて、人体の一部を振動させて伝わる振動音を前記筐体の第2面から発生させると共に、前記操作部が操作されると、前記振動音に関する所定の制御を行う制御部とを備える。
 1つの態様に係る制御方法は、電子機器の制御方法であって、圧電素子を変形させることにより、人体の一部を振動させて伝わる振動音を筐体の一の面から発生させるステップと、前記筐体の他の面に設けられる操作部が操作されると、前記振動音に関する所定の制御を行うステップとを含む。
 1つの態様に係る制御プログラムは、電子機器に、圧電素子を変形させることにより、人体の一部を振動させて伝わる振動音を筐体の一の面から発生させるステップと、前記筐体の他の面に設けられる操作部が操作されると、前記振動音に関する所定の制御を行うステップとを実行させる。
図1は、実施形態1に係る携帯電話の正面図である。 図2は、実施形態1に係る携帯電話の背面図である。 図3は、実施形態1に係る携帯電話の断面図である。 図4は、携帯電話の使用形態の例を示す図である。 図5は、パネルの形状の例を示す図である。 図6は、パネルの振動の例を示す図である。 図7は、実施形態に係る携帯電話のブロック図である。 図8Aは、検出される操作と、操作に応じて行われる制御の対応の例を示す図である。 図8Bは、検出される操作と、操作に応じて行われる制御の対応の例を示す図である。 図8Cは、検出される操作と、操作に応じて行われる制御の対応の例を示す図である。 図8Dは、検出される操作と、操作に応じて行われる制御の対応の例を示す図である。 図8Eは、検出される操作と、操作に応じて行われる制御の対応の例を示す図である。 図9は、数字の手書き入力の例を示す図である。 図10は、検出される操作に応じて、気導音及び振動音に関する制御を行うための処理手順の例を示すフローチャートである。 図11は、操作を受け付ける範囲を限定する例を示す図である。 図12は、第1の変形例に係る携帯電話の正面図である。 図13は、第1の変形例に係る携帯電話の断面図である。 図14は、第2の変形例に係る携帯電話の断面図である。 図15は、パネルの共振周波数の例を示す図である。 図16は、実施形態2に係る携帯電話の正面図である。 図17は、実施形態2に係る携帯電話の背面図である。 図18は、実施形態2に係る携帯電話の断面図である。 図19は、パネルの形状の例を示す図である。 図20は、パネルの振動の例を示す図である。 図21は、実施形態に係る携帯電話のブロック図である。 図22は、ディスプレイに表示されるホーム画面の例を示す図である。 図23は、ホーム画面の表示中に耳の接触が検出された場合に出力される情報の例を示す図である。 図24は、ホーム画面の表示中に耳の接触が検出された場合に出力される情報の他の例を示す図である。 図25は、耳の位置の検出について説明するための図である。 図26は、耳の位置の検出について説明するための図である。 図27は、耳の位置の検出について説明するための図である。 図28は、携帯電話の使用形態の例を示す図である。 図29は、背面側のタッチスクリーンの検出結果に基づく制御の変更の例を示す図である。 図30は、背面側のタッチスクリーンの検出結果に基づく制御の変更の他の例を示す図である。 図31は、背面側のタッチスクリーンの検出結果に基づく制御の変更の他の例を示す図である。 図32は、背面側のタッチスクリーンの検出結果に基づく制御の変更の他の例を示す図である。 図33は、気導音及び振動音として出力される情報に関する制御を変更する処理手順の例を示すフローチャートである。 図34は、背面側のタッチスクリーンの検出結果に基づく制御の例を示す図である。 図35は、背面でのスワイプの検出に応じて、出力する情報を切り替える制御の例を示す図である。 図36は、背面での複数のスワイプの検出に応じて、出力する情報を切り替える制御の他の例を示す図である。 図37は、背面側のタッチスクリーンの検出結果に基づく制御の他の例を示す図である。 図38は、気導音及び振動音として出力される情報を切り替える制御の処理手順の例を示すフローチャートである。 図39は、第3の変形例に係る携帯電話の断面図である。 図40は、背面側のディスプレイに表示される画面の例を示す図である。 図41は、第4の変形例に係る携帯電話の正面図である。 図42は、第4の変形例に係る携帯電話の側面図である。 図43は、第5の変形例に係る携帯電話の断面図である。
 本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、気導音と振動音とを利用者に伝える電子機器の例として、携帯電話について説明する。
(実施形態1)
 図1から図4を参照しながら、実施形態1に係る携帯電話1Aの全体的な構成について説明する。図1は、携帯電話1Aの正面図である。図2は、携帯電話1Aの背面図である。図3は、携帯電話1Aのa-a断面を模式的に示す断面図である。図4は、携帯電話1Aの使用形態の例を示す図である。図1から図3に示すように、携帯電話1Aは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、圧電素子7と、マイク8と、スピーカ11と、カメラ12と、パネル(音発生部)20と、タッチスクリーン21と、筐体40とを備える。
 ディスプレイ2は、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro-Luminescence Display)等の表示デバイスを備える。ディスプレイ2は、文字、画像、記号、及び図形等を表示する。
 ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、図1に示す例に限定されない。
 照度センサ4は、携帯電話1Aの周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2の輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、赤外線あるいは磁界等の物理量の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2が顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
 圧電素子7は、電気信号(音信号に応じた電圧)が印加されると、構成材料の電気機械結合係数に従い伸縮又は屈曲する。すなわち、圧電素子7は、電気信号が印加されると変形する。圧電素子7は、パネル20に取り付けられ、パネル20を振動させるための振動源として用いられる。圧電素子7は、例えば、セラミック又は水晶を用いて形成される。圧電素子7は、ユニモルフ、バイモルフ、又は積層型圧電素子であってよい。積層型圧電素子には、バイモルフを積層した(例えば16層又は24層積層した)積層型バイモルフ素子が含まれる。積層型の圧電素子は、例えば、PZT(チタン酸ジルコン酸鉛)からなる複数の誘電体層と、該複数の誘電体層間に配設された電極層との積層構造体から構成される。ユニモルフは、電気信号(電圧)が印加されると伸縮する。バイモルフは、電気信号(電圧)が印加されると屈曲する。
 マイク8は、音入力部である。マイク8は、入力される音を電気信号へ変換する。スピーカ11は、気導方式で音を出力する音出力部である。スピーカ11は、例えば、ダイナミックスピーカであり、電気信号を変換した音を、耳を携帯電話1Aに接触させていない人へも伝えることができる。スピーカ11は、例えば、音楽を出力するために用いられる。
 カメラ12は、ディスプレイ2に面している物体を撮影するインカメラである。カメラ12は、撮影した画像を電気信号へ変換する。携帯電話1Aは、カメラ12に加えて、ディスプレイ2の反対側の面に面している物体を撮影するアウトカメラを備えてもよい。
 パネル20は、圧電素子7の変形(伸縮又は屈曲)にともなって振動し、利用者がパネル20に接触させる耳の軟骨(耳介軟骨)等にその振動を伝える。パネル20は、例えば、ガラス、又はアクリル等の合成樹脂により形成される。パネル20の形状は、例えば、板状である。パネル20は、平板であってよい。パネル20は、表面が滑らかに湾曲する曲面パネルであってもよい。パネル20は、バッテリリッドであってもよい。バッテリリッドは、筐体40に取り付けられ、バッテリを覆う部材である。圧電素子7が筐体40の角部(例えば四隅の少なくとも一か所)を振動させる構成であっても良い。この場合、圧電素子7は、筐体40の角部の内面に取り付けられる構成でもよいし、中間部材をさらに備え、圧電素子7の振動が中間部材を介して筐体40の角部に伝達される構成でもよい。この構成によれば、振動する範囲を比較的狭くできるため、振動により発生する気導音が周囲に漏れにくい。また、この構成によれば、例えば利用者が筐体40の角部を外耳道に挿入した状態で気導音と振動音とが利用者に伝わるため、周囲のノイズが利用者の外耳道に入りにくい。そのため、利用者に伝わる音の品質を向上することができる。
 パネル20は、ディスプレイ2が配設される面とは反対側の面に配設される。以下の説明では、筐体40が有する面のうち、ディスプレイ2が配設される面を「正面」と呼び、パネル20が配設される面を「背面」と呼ぶことがある。筐体40において圧電素子7が配置される位置は、筐体40の背面側に限られない。圧電素子7は、例えば筐体40の側面に設けられてもよい。圧電素子7は、例えば筐体40の角部に設けられてもよい。
 パネル20の内側の面には、接合部材30により、圧電素子7が取り付けられる。圧電素子7は、パネル20の内側の面に配置された状態で、パネル20の内側の面に対向する部材と所定の距離だけ離間している。圧電素子7は、伸縮または屈曲した状態でも、パネル20の内側の面に対向する部材と離間しているとよい。すなわち、圧電素子7とパネル20の内側の面に対向する部材との間の距離は、圧電素子7の最大変形量よりも大きいとよい。圧電素子7は、補強部材(例えば、板金又はガラス繊維強化樹脂)を介してパネル20に取り付けられてもよい。接合部材30は、例えば、両面テープ、又は熱硬化性あるいは紫外線硬化性等を有する接着剤である。接合部材30は、無色透明のアクリル系紫外線硬化型接着剤である光学弾性樹脂でもよい。
 圧電素子7は、パネル20の長手方向の端部から所定の距離だけ離間した近傍に、圧電素子7の長手方向がパネル20の短手方向と平行になるように配設される。
 タッチスクリーン(タッチセンサ)21は、ディスプレイ2に重ねて配設される。タッチスクリーン21は、接触を検出する。タッチスクリーン21の検出結果は、指、ペン、又はスタイラスペン等による利用者の接触操作を検出するために用いられる。タッチスクリーン21を用いて検出される接触に基づいて判定される操作(ジェスチャ)は、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、ピンチ(ピンチイン及びピンチアウト)、及びローテートを含むがこれらに限定されない。タッチスクリーン21の検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするために、「タッチスクリーンが接触を検出し、その接触に基づいて、ジェスチャの種別を携帯電話がXと判別すること」を、「携帯電話がXを検出する」、「コントローラがXを検出する」、又は「タッチスクリーンがXを検出する」と記載することがある。コントローラについては後述する。
 「タッチ」は、タッチスクリーン21に指が触れるジェスチャである。携帯電話1Aは、タッチスクリーン21に指が接触するジェスチャをタッチとして判別する。「ロングタッチ」は、タッチスクリーン21に指が一定時間より長く触れるジェスチャである。携帯電話1Aは、タッチスクリーン21に指が一定時間より長く接触するジェスチャをロングタッチとして判別する。
 「リリース」は、指がタッチスクリーン21から離れるジェスチャである。携帯電話1Aは、指がタッチスクリーン21から離れるジェスチャをリリースとして判別する。「スワイプ」は、指がタッチスクリーン21に接触したままで移動するジェスチャである。携帯電話1Aは、指がタッチスクリーン21に接触したままで移動するジェスチャをスワイプとして判別する。
 「タップ」は、タッチに続いてリリースをするジェスチャである。携帯電話1Aは、タッチに続いてリリースをするジェスチャをタップとして判別する。「ダブルタップ」は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。携帯電話1Aは、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。
 「ロングタップ」は、ロングタッチに続いてリリースをするジェスチャである。携帯電話1Aは、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。「ドラッグ」は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。携帯電話1Aは、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。
 「フリック」は、指が、タッチスクリーン21に触れた後移動しながらタッチスクリーン21から離れるジェスチャである。すなわち、「フリック」は、タッチに続いて指が移動しながらリリースが行われるジェスチャである。携帯電話1Aは、指が、タッチスクリーン21に触れた後移動しながらタッチスクリーン21から離れるジェスチャをフリックとして判別する。フリックは、指が一方方向へ移動しながら行われることが多い。フリックは、指が画面の上方向へ移動する「上フリック」、指が画面の下方向へ移動する「下フリック」、指が画面の右方向へ移動する「右フリック」、指が画面の左方向へ移動する「左フリック」等を含む。フリックにおける指の移動は、スワイプにおける指の移動よりも素早いことが多い。
 「ピンチイン」は、複数の指が互いに近付く方向にスワイプするジェスチャである。携帯電話1Aは、タッチスクリーン21により検出されるある指の位置と他の指の位置との間の距離が短くなるジェスチャをピンチインとして判別する。「ピンチアウト」は、複数の指が互いに遠ざかる方向にスワイプするジェスチャである。携帯電話1Aは、タッチスクリーン21により検出されるある指の位置と他の指の位置との間の距離が長くなるジェスチャをピンチアウトとして判別する。
 「ローテート」は、複数の指がそれらの指の中間付近を軸として回転するようにスワイプするジェスチャである。携帯電話1Aは、いずれかの点を軸として複数の指が回転するように移動するジェスチャをローテートとして判別する。
 筐体40は、樹脂又は金属を用いて形成される。筐体40は、ディスプレイ2、ボタン3、照度センサ4、近接センサ5、マイク8、スピーカ11、カメラ12、及びパネル20等を支持する。
 図4に示すように、利用者が耳E1をパネル20に接触させると、パネル20の振動によって発生する振動音が利用者に伝わる。このとき、タッチスクリーン21は、耳E1とは反対側に露出する。このため、利用者は、気導音及び振動音の出力に関して何らかの制御を行うための操作をタッチスクリーン21に対して行うことができる。携帯電話1Aを持つ手H1の指F1を用いてタッチスクリーン21を操作することができる。利用者は、もう一方の手の指を用いてタッチスクリーン21を操作することもできる。
 タッチスクリーン21は、パネル20により気導音と振動音とが発生していない場合には、利用者がディスプレイ2に表示される画面を参照しながら行う操作を検出するために用いられる。このように、携帯電話1Aは、利用者が振動音を聞きながら行う操作と、利用者がディスプレイ2に表示される画面を参照しながら行う操作との両方を、タッチスクリーン21を用いて検出するように構成される。このような構成は、携帯電話1Aの小型化、信頼性の向上、コストの低減等に寄与する。
 さらに、携帯電話1Aは、利用者が、気導音及び振動音の出力に関して何らかの制御を行うための操作を、タッチスクリーン21に対して、直感的なジェスチャを用いて行うことを可能にする。このため、気導音及び振動音を出力する場合の使い勝手が向上される。
 パネル20を振動させて振動音を発生させているとき、すなわち、利用者が図4に示したような形態で携帯電話1Aを利用している場合、携帯電話1Aは、ディスプレイ2を消灯してもよい。このように、利用者がディスプレイ2に表示されている情報を参照するのが困難な状況においてディスプレイ2を消灯することにより、利用者の利便性を低下させること無く、電力消費を抑制することができる。
 パネル20を振動させて振動音を発生させているとき、携帯電話1Aは、振動音が発生していることを示す情報、又は筐体40と同じ色で塗りつぶされた画面をディスプレイ2に表示してもよい。振動音が発生していることを示す情報は、例えば、メッセージ、画像、又はアニメーションである。このような表示により、利用者が携帯電話1Aを誤った方法で利用していると周囲の人が誤解する可能性を低くすることができる。
 図1から図6を参照しながら、実施形態に係る携帯電話1Aによる音の出力についてより詳細に説明する。図5は、パネル20の形状の例を示す図である。図6は、パネル20の振動の例を示す図である。
 圧電素子7には、出力する音に応じた電気信号が印加される。圧電素子7には、例えば、外耳道を介する気導音によって音を伝える所謂パネルスピーカの印加電圧である±5Vよりも高い、±15Vが印加されてもよい。これにより、利用者が、例えば、3N以上の力(5N~10Nの力)でパネル20に自身の体の一部を押し付けた場合であっても、パネル20に十分な振動を発生させ、利用者の体の一部を介して伝わる振動音を発生させることができる。圧電素子7に印加される電圧は、パネル20の筐体40に対する固定強度、又は圧電素子7の性能等に応じて適宜調整可能である。
 電気信号が印加されると、圧電素子7は長手方向に伸縮又は屈曲する。圧電素子7が取り付けられたパネル20は、圧電素子7の伸縮又は屈曲に合わせて変形する。これにより、パネル20は、振動し、気導音を発生させる。さらに、利用者が体の一部(例えば、耳介軟骨)をパネル20に接触させた場合、パネル20は、体の一部を介して利用者に伝導する振動音を発生させる。すなわち、パネル20は、圧電素子7の変形にともなって、パネル20に接触する物体に対して振動音として知覚される周波数で振動する。パネル20は、圧電素子7の伸縮または屈曲によって湾曲する。パネル20は、圧電素子7によって直接的に曲げられる。「パネル20が圧電素子7によって直接的に曲げられる」とは、従来のパネルスピーカで採用されているような、圧電素子をケーシング内に配設して構成される圧電アクチュエータの慣性力によりパネルの特定の領域が加振されパネルが変形する現象とは異なる。「パネル20が圧電素子7によって直接的に曲げられる」とは、圧電素子7の伸縮または屈曲(湾曲)が、接合部材30を介して、或いは接合部材30及び後述の補強部材31を介して、直にパネル20を曲げることを意味する。
 例えば、圧電素子7に、通話の相手の音声、又は着信音、音楽等の音データに応じた電気信号が印加されると、パネル20は、電気信号に対応する気導音及び振動音を発生させる。圧電素子7及びパネル20を介して出力される音信号は、後述するストレージ9に記憶されている音データに基づくものであってよい。圧電素子7及びパネル20を介して出力される音信号は、外部のサーバ等に記憶され、後述する通信ユニット6によりネットワークを介して取得される音データに基づくものであってもよい。
 本実施形態において、パネル20は、利用者の耳と略同じ大きさであってよい。また、パネル20は、図5に示すように、利用者の耳よりも大きなサイズであってもよい。この場合、利用者は、音を聞くときに耳の外周部の略全体をパネル20に接触させることができる。このようにして音を聞くことにより、周囲音(ノイズ)が外耳道に入り難くなる。本実施形態では、少なくとも、パネル20は、人間の対耳輪下脚(下対輪脚)から対耳珠までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から対耳輪までの間の距離に相当する短手方向(又は長手方向)の長さとを有する領域よりも広い領域が振動する。パネル20は、耳輪における対耳輪上脚(上対輪脚)近傍の部位から耳垂までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から耳輪における対耳輪近傍の部位までの間の距離に相当する短手方向(又は長手方向)の長さを有する領域が振動してもよい。上記の長さ及び幅を有する領域は、長方形状の領域であってもよいし、上記の長手方向の長さを長径、上記の短手方向の長さを短径とする楕円形状であってもよい。人間の耳の平均的な大きさは、例えば、社団法人 人間生活工学研究センター(HQL)作成の日本人の人体寸法データベース(1992-1994)等を参照すれば知ることができる。
 図6に示すように、パネル20は、圧電素子7が取り付けられた取付領域20aだけでなく、取付領域20aから離れた領域も振動する。パネル20は、振動する領域において、当該パネル20の主面と交差する方向に振動する箇所を複数有し、当該複数の箇所の各々において、振動の振幅の値が、時間とともにプラスからマイナスに、あるいはその逆に変化する。パネル20は、それぞれの瞬間において、振動の振幅が相対的に大きい部分と振動の振幅が相対的に小さい部分とがパネル20の略全体に一見ランダム又は規則的に分布した振動をする。すなわち、パネル20全域にわたって、複数の波の振動が検出される。上記のように圧電素子7に対して印加される電圧が±15Vであれば、利用者が例えば5N~10Nの力で自身の体にパネル20を押し付けた場合であっても、パネル20の上述した振動は減衰しにくい。このため、利用者は、パネル20上の取付領域20aから離れた領域に耳を接触させても、振動音を聞くことができる。
 パネル20は、圧電素子7によってその上部が直接的に曲げられ、当該上部に比して下部では振動が減衰する。パネル20は、圧電素子7の長辺方向において該圧電素子7の直上がその周囲と比較して最も高く隆起するように、圧電素子7によって曲げられる。
 携帯電話1Aは、パネル20の振動により、気導音と、利用者の体の一部(例えば耳介軟骨)を介する振動音とを利用者に伝えることができる。そのため、携帯電話1Aは、ダイナミックレシーバと同等の音量の音を出力する場合、空気の振動により携帯電話1Aの周囲へ伝わる音を、ダイナミックスピーカのみを有する電子機器と比較して、少なくすることができる。このような特徴は、例えば、録音されたメッセージを電車内のような近くに他人がいる場所で聞く場合等に好適である。
 また、上記の携帯電話1Aは、圧電素子が発生させるパネル10の振動が、人体内部に伝わる音を発生させる。人体内部に伝わる音は、人体のやわらかい組織(tissue)(例えば軟骨(cartilage))を経由して、中耳(middle ear)又は内耳(inner ear)を振動させる。さらに、携帯電話1Aは、パネル20の振動により利用者に振動音を伝える。そのため、利用者は、イヤホン又はヘッドホンを身につけていても、それらに携帯電話1Aを接触させることで、イヤホン又はヘッドホン及び体の一部を介して、パネル20の振動による振動音を聞くことができる。
 さらに、携帯電話1Aは、パネル20の振動により音を伝える。そのため、携帯電話1Aが別途ダイナミックレシーバを備えない場合、パネル20が発する音を外部に伝えるための開口部(放音口)を筐体40に形成する必要がない。このため、防水構造を実現する場合に、構造を簡略化することができる。携帯電話1Aは、ダイナミックスピーカの放音口等の開口部を筐体40に形成する必要がある場合、防水構造を実現するために、気体は通すが液体は通さない部材によって開口部を閉塞する構造を採用してもよい。気体は通すが液体は通さない部材は、例えば、ゴアテックス(登録商標)である。
 以下の説明では、圧電素子7及びパネル20の組み合わせを振動レシーバと呼ぶことがある。
 図7を参照しながら、携帯電話1Aの機能的な構成について説明する。図7は、携帯電話1Aのブロック図である。図7に示すように、携帯電話1Aは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、圧電素子7及びパネル20を含む振動レシーバ13と、姿勢検出ユニット15と、バイブレータ18と、タッチスクリーン21とを備える。
 通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。本実施形態において、通信ユニット6は、ラジオ放送及びテレビ放送の電波を受信するためにも用いられる。
 ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2に画面を表示させ、タッチスクリーン21によって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
 ストレージ9は、例えば、制御プログラム9A、読み上げアプリケーション9B、ラジオプレイヤアプリケーション9C、テレビプレイヤアプリケーション9D、音楽再生アプリケーション9E、ビデオ再生アプリケーション9F、及び設定データ9Zを記憶する。読み上げアプリケーション9Bは、テキストデータを、あたかも人が読み上げたような音声データへ変換する読み上げ機能を提供する。読み上げアプリケーション9Bによる読み上げ機能は、他の機能と組み合わせて利用されることがある。ラジオプレイヤアプリケーション9Cは、ラジオ放送を聴くための機能を提供する。テレビプレイヤアプリケーション9Dは、テレビ放送を視聴するための機能を提供する。音楽再生アプリケーション9Eは、音楽データから音を再生するための音楽再生機能を提供する。ビデオ再生アプリケーション9Fは、ビデオデータから映像及び音を再生するためのビデオ再生機能を提供する。設定データ9Zは、携帯電話1Aの動作に関連する各種の設定に関する情報を含む。
 読み上げアプリケーション9B、ラジオプレイヤアプリケーション9C、テレビプレイヤアプリケーション9D、音楽再生アプリケーション9E、及びビデオ再生アプリケーション9Fが提供する機能による音は、スピーカ11及び振動レシーバ13のいずれか一方、又はそれら両方から出力される。音がどこから出力されるかは、例えば、利用者の操作、又は利用者が予め行った設定によって決定される。
 制御プログラム9Aは、携帯電話1Aを稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、圧電素子7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、気導音及び振動音の出力中に、タッチスクリーン21によって検出される操作に応じて、気導音及び振動音に関する制御を行う機能が含まれる。気導音及び振動音に関する制御は、例えば、音量、音質、再生方向、再生速度、および再生順序に関する制御を含む。気導音及び振動音に関する制御は、音を出力する機能を有するプログラムと、制御プログラム9Aとの協業によって実現されてもよい。
 コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、及びFPGA(Field-Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、携帯電話1Aの動作を統括的に制御して各種の機能を実現する。
 具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2、通信ユニット6、圧電素子7、マイク8、スピーカ11、及びバイブレータ18を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、ボタン3、照度センサ4、近接センサ5、カメラ12、姿勢検出ユニット15、及びタッチスクリーン21を含むが、これらに限定されない。
 コントローラ10は、例えば、制御プログラム9Aを実行することにより、気導音及び振動音の出力中に、タッチスクリーン21によって検出される操作に応じて、気導音及び振動音に関する制御を行う。
 姿勢検出ユニット15は、携帯電話1Aの姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。バイブレータ18は、携帯電話1Aの一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータを有する。バイブレータ18による振動は、音を伝えるためではなく、着信等の各種のイベントを利用者に報知するために用いられる。
 図7においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図7においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu-ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。
 図7に示した携帯電話1Aの構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、携帯電話1Aは、操作のためのボタンとして、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。
 図8Aから図8E及び図9を参照しながら、気導音及び振動音の出力中に、タッチスクリーン21によって検出される操作に応じて行われる制御の例について説明する。図8Aから図8Eは、タッチスクリーン21によって検出される操作と、操作に応じて行われる制御の対応の例を示す図である。図9は、チャンネルを指定するための操作の例を示す図である。以下の説明では、説明を簡単にするため、パネル20の振動によって生じる気導音についての記載を省略することがある。
 振動音の出力中に、タッチスクリーン21によって検出される操作に応じて行われる制御は、振動音を出力するために実行されているプログラムによって異なる。
 図8Aは、読み上げアプリケーション9Bが提供する機能に基づいて振動音が出力されている場合における操作と制御の対応の例を示している。図8Aに示す例では、フリックが検出された場合には、検出されたフリックの方向に応じて、読み上げられる画面又はページが切り替えられる。ロングタッチが検出される度に、読み上げが開始された状態と終了した状態との切り替えが行われる。タップが検出された場合には、文、段落等の所定の単位で読み飛ばしが行われる。横方向へのスワイプが検出された場合には、検出されたスワイプの方向及び距離に応じて、読み上げの速度が変更される。縦方向へのスワイプが検出された場合には、検出されたスワイプの方向及び距離に応じて、読み上げられる箇所が前進又は逆戻りする。ピンチ又はローテートが検出された場合には、検出されたピンチの方向及び距離又は検出されたローテートの方向及び角度に応じて、音量が増減する。
 図8Bは、ラジオプレイヤアプリケーション9Cが提供する機能に基づいて振動音が出力されている場合における操作と制御の対応の例を示している。図8Bに示す例では、フリックが検出された場合には、検出されたフリックの方向に応じて、チャンネルが切り替えられる。ロングタッチが検出される度に、録音が開始された状態と終了した状態との切り替えが行われる。タップが検出される度に、AMとFMの切り替えが行われる。スワイプが検出された場合には、検出されたスワイプの方向及び距離に応じて、チャンネルがスキャンされる。ピンチ又はローテートが検出された場合には、検出されたピンチの方向及び距離又は検出されたローテートの方向及び角度に応じて、音量が増減する。
 図8Cは、テレビプレイヤアプリケーション9Dが提供する機能に基づいて振動音が出力されている場合における操作と制御の対応の例を示している。図8Cに示す例では、フリックが検出された場合には、検出されたフリックの方向に応じて、チャンネルが切り替えられる。ロングタッチが検出される度に、録画が開始された状態と終了した状態との切り替えが行われる。タップが検出される度に、主音声と副音声の切り替えが行われる。スワイプが検出された場合には、検出されたスワイプの方向及び距離に応じて、チャンネルがスキャンされる。ピンチ又はローテートが検出された場合には、検出されたピンチの方向及び距離又は検出されたローテートの方向及び角度に応じて、音量が増減する。数字の手書き入力が検出された場合には、手書きされた数字に対応するチャンネルがダイレクトに選局される。例えば、図9に示すように、指F1が数字の3に似た軌跡T1を描きながらタッチスクリーン21上を移動した場合、3チャンネルが選局される。
 図8Dは、音楽再生アプリケーション9Eが提供する機能に基づいて振動音が出力されている場合における操作と制御の対応の例を示している。図8Dに示す例では、フリックが検出された場合には、検出されたフリックの方向に応じて、再生される曲が次又は前の曲へ切り替えられる。ロングタッチが検出される度に、シャッフルが有効な状態と無効な状態との切り替えが行われる。タップが検出される度に、複数の音質設定のうちの1つが予め決められた順に従って選択される。音質設定は、例えば、サラウンド効果の設定、イコライザの設定である。スワイプが検出された場合には、検出されたスワイプの方向及び距離に応じて、早送り又は巻き戻しが行われる。ピンチ又はローテートが検出された場合には、検出されたピンチの方向及び距離又は検出されたローテートの方向及び角度に応じて、音量が増減する。
 図8Eは、ビデオ再生アプリケーション9Fが提供する機能に基づいて振動音が出力されている場合における操作と制御の対応の例を示している。図8Eに示す例では、フリックが検出された場合には、検出されたフリックの方向に応じて、再生されるビデオが次又は前のビデオへ切り替えられる。ロングタッチが検出される度に、ビデオが倍速再生のように高速で再生される状態と通常の速度で再生される状態との切り替えが行われる。タップが検出される度に、主音声と副音声の切り替えが行われる。スワイプが検出された場合には、検出されたスワイプの方向及び距離に応じて、早送り又は巻き戻しが行われる。ピンチ又はローテートが検出された場合には、検出されたピンチの方向及び距離又は検出されたローテートの方向及び角度に応じて、音量が増減する。
 このように、振動音の出力に関する制御には、その制御によって実現される機能を利用者が想起しやすい操作が対応付けられる。
 振動音の出力中にタッチスクリーン21によって検出される操作に応じた制御が行われるのは、上記のプログラムが実行されている場合に限定されない。例えば、通話中に相手の声を振動音として出力しているときにタッチスクリーン21に対する操作が行われた場合に、操作に応じた制御が行われてもよい。この場合、タッチスクリーン21で検出された操作に応じて、音量の変更、聞き取り易さを改善する機能の切り替え等が行われてもよい。聞き取り易さを改善する機能には、例えば、周波数領域毎の音量の調整、ピッチの変更、周囲の音の付加等が含まれる。
 操作と制御の対応は、上記の例に限定されない。携帯電話1Aは、振動音の出力中にタッチスクリーン21によって検出されるジェスチャの種類、方向、距離、時間、速度、加速度、および回数の少なくとも1つに応じて、振動音に関する制御を行ってよい。
 操作と制御の対応は、音を出力する機能を有するプログラムに埋め込まれていてもよい。この場合、制御プログラム9Aは、例えば、操作が検出された場合に、音を出力する機能を有するプログラムが有する機能のうち、操作に対応する制御を実行するための機能をコントローラ10が呼び出すように構成される。操作と制御の対応は、プログラムとは別のデータとして保存されてもよい。この場合、制御プログラム9Aは、例えば、操作が検出された場合に、必要に応じて、操作に対応する制御を実行するために制御プログラム9A自身の機能をコントローラ10が呼び出すように構成される。
 図10を参照しながら、検出される操作に応じて、気導音及び振動音に関する制御を行うための処理手順の例について説明する。図10は、検出される操作に応じて、気導音及び振動音に関する制御を行うための処理手順の例を示すフローチャートである。図10に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図10に示す処理手順は、音を出力するためのプログラムが実行されている間、繰り返して実行される。
 コントローラ10は、ステップS101として、タッチスクリーン21によって操作が検出されたかを判定する。操作が検出されていない場合(ステップS101,No)、コントローラ10は、ステップS101の判定を再び実行する。操作が検出された場合(ステップS101,Yes)、コントローラ10は、ステップS102として、振動レシーバ13から振動音を出力中であるかを判定する。
 気導音及び振動音を出力中である場合(ステップS102,Yes)、コントローラ10は、ステップS103として、第1の制御を実行する。第1の制御は、図8Aから8Eに示したような操作と制御の対応に基づいて行われる、気導音及び振動音に関する制御である。
 気導音及び振動音を出力中でない場合(ステップS102,No)、コントローラ10は、ステップS104として、第2の制御を実行する。第2の制御は、タッチスクリーン21によって検出される操作と、ディスプレイ2に表示されている画面に割り当てられている制御との対応に基づいて行われる。例えば、ディスプレイ2に表示されている画面上に出力音量を予め設定するためのボタンが配置され、タッチスクリーン21によってそのボタンに対するタップが検出された場合、第2の制御として、出力音量が設定される。そして、その後に例えばパネル20により気導音と振動音とを発生させる場合、これらの音は設定に基づく音量で出力される。第2の制御は、今後発生するであろう気導音及び振動音に関する制御であるとよい。第2の制御は、所定の音をパネル20により気導音及び振動音として発生させるかスピーカ11から発生させるかを切り替える制御であってもよい。第2の制御は、パネル20により気導音及び振動音を発生させるアプリケーションを切り替える制御であってもよい。第2の制御は、例えば、ラジオプレイヤアプリケーション9Cと音楽再生アプリケーション9Eとを切り替える制御であってよい。第2の制御は、パネル20により発生する気導音及び振動音に関する制御とは異なる制御であってもよい。第2の制御は、例えば、ディスプレイ2を消灯させる制御であってもよい。
 本出願の開示する実施形態は、当業者に明らかな事項を含むことができ、発明の要旨及び範囲を逸脱しない範囲で変形することができる。さらに、本出願の開示する実施形態及びその変形例は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。
 例えば、図7に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。
 パネル20への人体の一部の接触又は接近を検出するためのセンサを携帯電話1Aの背面に設け、スピーカ11から音を出力するか振動レシーバ13から音を出力するかを、そのセンサの検出結果に基づいて決定してもよい。さらに、図10のフローチャートのステップS102の判定を、検出結果に基づいて行ってもよい。具体的には、パネル20への人体の一部の接触がセンサによって検出された場合には、振動レシーバ13から音を出力し、検出された操作に応じて第1の制御を実行するように携帯電話1Aを構成してもよい。パネル20への人体の一部の接触又は接近を検出するためのセンサは、例えば、タッチスクリーン、近接センサ、照度センサ、又はカメラである。
 携帯電話1Aは、気導音及び振動音を振動レシーバ13から出力しているときに、タッチスクリーン21において操作を受け付ける範囲を限定してもよい。例えば、利用者が、振動音を聞くときに、図4に示したように携帯電話1Aの下側を持つと仮定する。この場合、携帯電話1Aは、気導音及び振動音の出力中は、図11に示すように、タッチスクリーン21の検出領域のうち上側の領域R1でのみ操作を受け付けるように構成されてよい。このように操作を受け付ける範囲を限定することにより、利用者の意図しない接触によって誤作動が生じる可能性を低くすることができる。気導音及び振動音の出力中に操作を受け付ける範囲は、携帯電話1Aを持つ手の指で操作しやすい範囲であってもよい。気導音及び振動音の出力中に操作を受け付ける範囲は、利用者の選択に基づいて決定されてもよい。
 上記の実施形態では、操作を受け付ける操作部としてのタッチスクリーン21が正面に配設され、気導音及び振動音を出力するパネル20が背面に配設される。しかしながら、上述した制御方法を実行する電子機器の構成は、これに限定されない。上述した制御方法を実行する電子機器は、気導音及び振動音を出力するパネルを1つの面に有し、気導音及び振動音に関する制御を行うための操作を受け付ける操作部を他の面に有していればよい。操作部は、タッチスクリーン21に限定されず、他のセンサ、又はボタンであってもよい。例えば、気導音及び振動音を出力中に操作を受け付ける操作部は、ボタン3、照度センサ4、又は近接センサ5であってもよい。ボタン3は、短押下、長押下、複数回の押下等の操作を受け付ける。照度センサ4及び近接センサ5は、覆う操作や、直前を横切る操作等の操作を受け付ける。
 図12から図15を参照しながら、上述した制御方法を実行する電子機器の構成の変形例について説明する。図12は、第1の変形例に係る携帯電話1Bの正面図である。図13は、第1の変形例に係る携帯電話1Bのa-a断面を模式的に示す断面図である。図12及び図13に示すように、携帯電話1Bは、正面にパネル22及び圧電素子27を含む第2の振動レシーバを有する。圧電素子27は、圧電素子7と同様の素子である。
 パネル22は、圧電素子27の変形(伸縮又は屈曲)にともなって振動し、利用者がパネル22に接触させる耳の軟骨(耳介軟骨)等にその振動を伝える。パネル22は、ディスプレイ2及び圧電素子27等を外力から保護する機能も有する。パネル22は、例えば、ガラス、又はアクリル等の合成樹脂により形成される。パネル22の形状は、例えば、板状である。パネル22は、平板であってよい。パネル22は、表面が滑らかに湾曲する曲面パネルであってもよい。
 パネル22の背面には、接合部材30により、ディスプレイ2と、圧電素子27とが取り付けられる。圧電素子27は、パネル22の背面に配置された状態で、パネル22の内側の面に対向する部材と所定の距離だけ離間している。圧電素子27は、伸縮または屈曲した状態でも、パネル22内側の面に対向する部材と離間しているとよい。すなわち、圧電素子27とパネル22内側の面に対向する部材との間の距離は、圧電素子27の最大変形量よりも大きいとよい。圧電素子27は、補強部材(例えば、板金又はガラス繊維強化樹脂)を介してパネル22に取り付けられてもよい。
 ディスプレイ2は、パネル22の短手方向における略中央に配設される。圧電素子27は、パネル22の長手方向の端部から所定の距離だけ離間した近傍に、圧電素子27の長手方向がパネル22の短手方向と平行になるように配設される。ディスプレイ2及び圧電素子27は、パネル22の内側の面に、平行に並べて配設される。
 パネル22の外側の面の略全面には、タッチスクリーン(タッチセンサ)21が配設される。
 気導音及び振動音が正面の振動レシーバと背面の振動レシーバのいずれから出力されるかは、例えば、利用者の操作、又は利用者が予め行った設定によって決定される。上述した制御方法は、気導音及び振動音が背面の振動レシーバから出力される場合に実行される。
 図13では、ディスプレイ2が接合部材30を用いてパネル22の内側の面に取り付けられる例を示したが、電子機器は、パネル22とディスプレイ2の間に空間ができるように構成されてもよい。パネル22とディスプレイ2の間に空間を設けることにより、パネル22が振動しやすくなり、パネル22上において振動音を聞きやすい範囲が広くなる。
 図14は、第2の変形例に係る携帯電話1Cの断面図である。図15は、パネル20の共振周波数の例を示す図である。図14に示すように、パネル20の内側の面の略中央には、接合部材30により、圧電素子7が取り付けられる。パネル20と圧電素子7との間には、補強部材31が配設される。すなわち、携帯電話1Cにおいては、圧電素子7と補強部材31とが接合部材30により接着され、さらに補強部材31とパネル20とが接合部材30で接着される。
 補強部材31は、例えばゴムまたはシリコン等の弾性部材である。補強部材31は、例えばある程度の弾性を有するアルミニウム等から成る金属板であってもよい。補強部材31は、例えばSUS304等のステンレス板であってもよい。ステンレス板等の金属板の厚さは、圧電素子7に印加される電圧値等に応じて、例えば0.2mm~0.8mmのものが適宜用いられる。補強部材31は、例えば樹脂製の板であってもよい。ここでいう樹脂製の板を形成する樹脂としては、例えばポリアミド系樹脂が挙げられる。ポリアミド系樹脂には、例えば、メタキシリレンジアミンとアジピン酸とから得られる結晶性の熱可塑性樹脂から成り、強度及び弾性に富むレニー(登録商標)がある。このようなポリアミド系樹脂は、それ自体をベースポリマーとして、ガラス繊維、金属繊維または炭素繊維等により強化された強化樹脂であってもよい。強化樹脂は、ポリアミド系樹脂に対するガラス繊維、金属繊維または炭素繊維等の付加量に応じて、強度及び弾性が適宜調整される。強化樹脂は、例えば、ガラス繊維、金属繊維または炭素繊維等を編みこんで形成された基材に樹脂を含浸させ、硬化させて形成される。強化樹脂は、液状の樹脂に細かく切断された繊維片を混入させたのちに硬化させて形成されるものであってもよい。強化樹脂は、繊維を編みこんだ基材と樹脂層とを積層したものであってもよい。
 圧電素子7とパネル20との間に補強部材31を配設することにより、以下の効果が得られる。パネル20に外力が加わった場合に、その外力が圧電素子7に伝わって圧電素子7が破損する可能性を低減することができる。例えば携帯電話1Cが地面に落下することでパネル20に対して外力が加わると、当該外力はまず補強部材31に伝わる。補強部材31は、所定の弾性を有しているため、パネル20から伝わる外力により弾性変形する。そのため、パネル20に対して加わった外力は補強部材31により少なくとも一部が吸収され、圧電素子7に伝達される外力が低減される。結果、圧電素子7の破損を低減することができる。補強部材31が圧電素子7と筐体40との間に配置される場合、例えば携帯電話1Cが地面に落下することで筐体40が変形し、変形した筐体40が圧電素子7に衝突して圧電素子7が破損する可能性を低減できる。
 圧電素子7の伸縮または屈曲による振動は、まず補強部材31に伝達され、さらにパネル20に伝達される。すなわち、圧電素子7は、まず圧電素子7よりも大きな弾性係数を有する補強部材31を振動させ、さらにパネル20を振動させることになる。したがって、携帯電話1Cは、補強部材31を備えず、圧電素子7が接合部材30によりパネル20に接合される構造と比較して、圧電素子7の変形が過剰になりにくくすることができる。これにより、パネル20の変形量(変形の程度)を調節することができる。この構造は、圧電素子7の変形を阻害しにくいパネル20の場合に特に有効である。
 さらに、圧電素子7とパネル20との間に補強部材31を配設することにより、図15に示すように、パネル20の共振周波数が下がり、低周波帯域の音響特性が向上する。補強部材31に換えて、板状の錘を接合部材30により圧電素子7に取り付けてもよい。
 このように圧電素子7をパネル20の内側の面に取り付ける構造は、携帯電話1A及び1Bにも適用することができる。
 上記の実施形態では、パネル20と圧電素子7とを接着する接合部材及びパネル20と筐体40とを接着する接合部材等を同一の符号を有する接合部材30として説明した。しかしながら、接合部材は、接合する対象である部材に応じて適宜異なるものが用いられてよい。
(実施形態2)
 図16から図18を参照しながら、実施形態に係る携帯電話1Dの全体的な構成について説明する。図16は、携帯電話1Dの正面図である。図17は、携帯電話1Dの背面図である。図18は、携帯電話1Dのa-a断面を模式的に示す断面図である。図16から図18に示すように、携帯電話1Dは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、圧電素子7と、マイク8と、カメラ12と、パネル(音発生部)22と、タッチスクリーン21Aと、タッチスクリーン21Bと、筐体40とを備える。以下の説明においては、同様の構成要素に同一の符号を付し、重複する説明は省略することがある。
 圧電素子7は、電気信号(音信号に応じた電圧)が印加されると、構成材料の電気機械結合係数に従い伸縮又は屈曲する。すなわち、圧電素子7は、電気信号が印加されると変形する。圧電素子7は、パネル22に取り付けられ、パネル22を振動させるための振動源として用いられる。
 パネル22は、圧電素子7の変形(伸縮又は屈曲)にともなって振動し、利用者がパネル22に接触させる耳の軟骨(耳介軟骨)等にその振動を伝える。パネル22は、ディスプレイ2及び圧電素子7等を外力から保護する機能も有する。パネル22は、例えば、ガラス、又はアクリル等の合成樹脂により形成される。パネル22の形状は、例えば、板状である。パネル22は、平板であってよい。パネル22は、表面が滑らかに湾曲する曲面パネルであってもよい。パネル22は、バッテリリッドであってもよい。バッテリリッドは、筐体40に取り付けられ、バッテリを覆う部材である。圧電素子7が筐体40の角部(例えば四隅の少なくとも一か所)を振動させる構成であっても良い。この場合、圧電素子7は、筐体40の角部の内面に取り付けられる構成でもよいし、中間部材をさらに備え、圧電素子7の振動が中間部材を介して筐体40の角部に伝達される構成でもよい。この構成によれば、振動する範囲を比較的狭くできるため、振動により発生する気導音が周囲に漏れにくい。また、この構成によれば、例えば利用者が筐体40の角部を外耳道に挿入した状態で気導音と振動音とが利用者に伝わるため、周囲のノイズが利用者の外耳道に入りにくい。そのため、利用者に伝わる音の品質を向上することができる。
 パネル22の背面には、接合部材30により、ディスプレイ2と、圧電素子7とが取り付けられる。圧電素子7は、パネル22の背面に配置された状態で、筐体40の内表面と所定の距離だけ離間している。圧電素子7は、伸縮または屈曲した状態でも、筐体40の内表面と離間しているとよい。すなわち、圧電素子7と筐体40の内表面との間の距離は、圧電素子7の最大変形量よりも大きいとよい。圧電素子7は、補強部材(例えば、板金又はガラス繊維強化樹脂)を介してパネル22に取り付けられてもよい。接合部材30は、例えば、両面テープ、又は熱硬化性あるいは紫外線硬化性等を有する接着剤である。接合部材30は、無色透明のアクリル系紫外線硬化型接着剤である光学弾性樹脂でもよい。
 ディスプレイ2は、パネル22の短手方向における略中央に配設される。圧電素子7は、パネル22の長手方向の端部から所定の距離だけ離間した近傍に、圧電素子7の長手方向がパネル22の短手方向と平行になるように配設される。ディスプレイ2及び圧電素子7は、パネル22の内側の面に、平行に並べて配設される。
 パネル22の外側の面の略全面には、タッチスクリーン(タッチセンサ)21Aが配設される。タッチスクリーン21Aは、パネル22に対する接触を検出する。タッチスクリーン21Aの検出結果は、指、ペン、又はスタイラスペン等による利用者の接触操作を検出するために用いられる。タッチスクリーン21Aを用いて検出される接触に基づいて判定される操作(ジェスチャ)は、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。タッチスクリーン21Aの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。
 タッチスクリーン21Aは、音を聞くためにパネル22に接触する耳介軟骨等を検出するためにも用いられる。
 タッチスクリーン21Bは、ディスプレイ2が配設される面の反対側の面に配設される。以下の説明では、筐体40が有する面のうち、ディスプレイ2が配設される面を「正面」と呼び、その反対側の面を「背面」と呼ぶことがある。本実施形態において、タッチスクリーン21Bは、タッチスクリーン21Aと略同じ大きさを有し、タッチスクリーン21Aと略重なるように配設される。すなわち、タッチスクリーン21Bの4角を通るタッチスクリーン21Bと垂直な直線は、それぞれ、タッチスクリーン21Aの4角を通るタッチスクリーン21Aと垂直な直線と略一致する。
 タッチスクリーン21Bは、背面に対する接触を検出する。タッチスクリーン21Bの検出結果は、指、ペン、又はスタイラスペン等による利用者の接触操作を検出するために用いられる。タッチスクリーン21Bを用いて検出される接触に基づいて判定される操作(ジェスチャ)は、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。タッチスクリーン21Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。タッチスクリーン21Bの検出方式は、タッチスクリーン21Aの検出方式と異なってもよい。
 筐体40は、樹脂又は金属を用いて形成される。筐体40は、ボタン3、照度センサ4、近接センサ5、マイク8、スピーカ11、カメラ12、及びパネル22等を支持する。
 図16から図20を参照しながら、実施形態に係る携帯電話1Dによる音の出力についてより詳細に説明する。図19は、パネル22の形状の例を示す図である。図20は、パネル22の振動の例を示す図である。
 圧電素子7には、出力する音に応じた電気信号が印加される。圧電素子7には、例えば、外耳道を介する気導音によって音を伝える所謂パネルスピーカの印加電圧である±5Vよりも高い、±15Vが印加されてもよい。これにより、利用者が、例えば、3N以上の力(5N~10Nの力)でパネル22に自身の体の一部を押し付けた場合であっても、パネル22に十分な振動を発生させ、利用者の体の一部を介して伝わる振動音を発生させることができる。圧電素子7に印加される電圧は、パネル22の筐体40に対する固定強度、又は圧電素子7の性能等に応じて適宜調整可能である。
 電気信号が印加されると、圧電素子7は長手方向に伸縮又は屈曲する。圧電素子7が取り付けられたパネル22は、圧電素子7の伸縮又は屈曲に合わせて変形する。これにより、パネル22は、振動し、気導音を発生させる。さらに、利用者が体の一部(例えば、耳介軟骨)をパネル22に接触させた場合、パネル22は、体の一部を介して利用者に伝導する振動音を発生させる。すなわち、パネル22は、圧電素子7の変形にともなって、パネル22に接触する物体に対して振動音として知覚される周波数で振動する。パネル22は、圧電素子7の伸縮または屈曲によって湾曲する。パネル22は、圧電素子7によって直接的に曲げられる。「パネル22が圧電素子によって直接的に曲げられる」とは、従来のパネルスピーカで採用されているような、圧電素子をケーシング内に配設して構成される圧電アクチュエータの慣性力によりパネルの特定の領域が加振されパネルが変形する現象とは異なる。「パネル22が圧電素子7によって直接的に曲げられる」とは、圧電素子7の伸縮または屈曲(湾曲)が、接合部材30を介して、或いは接合部材30及び補強部材31を介して、直にパネル22を曲げることを意味する。
 例えば、圧電素子7に、通話の相手の音声、又は着信音、音楽等の音データに応じた電気信号が印加されると、パネル22は、電気信号に対応する気導音及び振動音を発生させる。圧電素子7及びパネル22を介して出力される音信号は、後述するストレージ9に記憶されている音データに基づくものであってよい。圧電素子7及びパネル22を介して出力される音信号は、外部のサーバ等に記憶され、後述する通信ユニット6によりネットワークを介して取得される音データに基づくものであってもよい。
 本実施形態において、パネル22は、利用者の耳と略同じ大きさであってよい。また、パネル22は、図19に示すように、利用者の耳よりも大きなサイズであってもよい。この場合、利用者は、音を聞くときに耳の外周部の略全体をパネル22に接触させることができる。このようにして音を聞くことにより、周囲音(ノイズ)が外耳道に入り難くなる。本実施形態では、少なくとも、パネル22は、人間の対耳輪下脚(下対輪脚)から対耳珠までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から対耳輪までの間の距離に相当する短手方向(又は長手方向)の長さとを有する領域よりも広い領域が振動する。パネル22は、耳輪における対耳輪上脚(上対輪脚)近傍の部位から耳垂までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から耳輪における対耳輪近傍の部位までの間の距離に相当する短手方向(又は長手方向)の長さを有する領域が振動してもよい。上記の長さ及び幅を有する領域は、長方形状の領域であってもよいし、上記の長手方向の長さを長径、上記の短手方向の長さを短径とする楕円形状であってもよい。人間の耳の平均的な大きさは、例えば、社団法人 人間生活工学研究センター(HQL)作成の日本人の人体寸法データベース(1992-1994)等を参照すれば知ることができる。
 図20に示すように、パネル22は、圧電素子7が取り付けられた取付領域20aだけでなく、取付領域20aから離れた領域も振動する。パネル22は、振動する領域において、当該パネル22の主面と交差する方向に振動する箇所を複数有し、当該複数の箇所の各々において、振動の振幅の値が、時間とともにプラスからマイナスに、あるいはその逆に変化する。パネル22は、それぞれの瞬間において、振動の振幅が相対的に大きい部分と振動の振幅が相対的に小さい部分とがパネル22の略全体に一見ランダム又は規則的に分布した振動をする。すなわち、パネル22全域にわたって、複数の波の振動が検出される。上記のように圧電素子7に対して印加される電圧が±15Vであれば、利用者が例えば5N~10Nの力で自身の体にパネル22を押し付けた場合であっても、パネル22の上述した振動は減衰しにくい。このため、利用者は、パネル22上の取付領域20aから離れた領域に耳を接触させても、振動音を聞くことができる。
 本実施形態では、ディスプレイ2がパネル22に取り付けられている。このため、パネル22の下部(ディスプレイ2が取り付けられている側)は、剛性が上がり、パネル22の上部(圧電素子7が取り付けられている側)と比べて、振動が小さい。このため、パネル22の下部において、パネル22が振動することによる気導音の音漏れが低減される。パネル22は、圧電素子7によってその上部が直接的に曲げられ、当該上部に比して下部では振動が減衰する。パネル22は、圧電素子7の長辺方向において該圧電素子7の直上がその周囲と比較して最も高く隆起するように、圧電素子7によって曲げられる。
 携帯電話1Dは、パネル22の振動により、気導音と、利用者の体の一部(例えば耳介軟骨)を介する振動音とを利用者に伝えることができる。そのため、携帯電話1Dは、ダイナミックレシーバと同等の音量の音を出力する場合、空気の振動により携帯電話1Dの周囲へ伝わる音を、ダイナミックスピーカのみを有する電子機器と比較して、少なくすることができる。このような特徴は、例えば、録音されたメッセージを電車内のような近くに他人がいる場所で聞く場合等に好適である。
 さらに、携帯電話1Dは、パネル22の振動により利用者に振動音を伝える。そのため、利用者は、イヤホン又はヘッドホンを身につけていても、それらに携帯電話1Dを接触させることで、イヤホン又はヘッドホン及び体の一部を介して、パネル22の振動による振動音を聞くことができる。
 さらに、携帯電話1Dは、パネル22の振動により音を伝える。そのため、携帯電話1Dが別途ダイナミックレシーバを備えない場合、パネル22が発する音を外部に伝えるための開口部(放音口)を筐体40に形成する必要がない。このため、防水構造を実現する場合に、構造を簡略化することができる。携帯電話1Dは、ダイナミックスピーカの放音口等の開口部を筐体40に形成する必要がある場合、防水構造を実現するために、気体は通すが液体は通さない部材によって開口部を閉塞する構造を採用してもよい。気体は通すが液体は通さない部材は、例えば、ゴアテックス(登録商標)である。
 以下の説明では、圧電素子7及びパネル22の組み合わせを振動レシーバと呼ぶことがある。
 図21を参照しながら、携帯電話1Dの機能的な構成について説明する。図21は、携帯電話1Dのブロック図である。図21に示すように、携帯電話1Dは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、圧電素子7及びパネル22を含む振動レシーバ13と、姿勢検出ユニット15と、バイブレータ18と、タッチスクリーン21Aと、タッチスクリーン21Bとを備える。
 ストレージ9は、例えば、制御プログラム9A、読み上げアプリケーション9B、ニュースアプリケーション9G、メールアプリケーション9H、音楽再生アプリケーション9J、スケジュールアプリケーション9K、及び設定データ9Zを記憶する。読み上げアプリケーション9Bは、テキストデータを、あたかも人が読み上げたような音声データへ変換する読み上げ機能を提供する。読み上げアプリケーション9Bによる読み上げ機能は、他の機能と組み合わせて利用されることがある。ニュースアプリケーション9Gは、ニュースの記事データを取得し、表示する機能を提供する。メールアプリケーション9Hは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。音楽再生アプリケーション9Jは、音楽データから音を再生するための音楽再生機能を提供する。スケジュールアプリケーション9Kは、スケジュール管理機能を提供する。設定データ9Zは、携帯電話1Dの動作に関連する各種の設定に関する情報を含む。
 制御プログラム9Aは、携帯電話1Dを稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、圧電素子7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、タッチスクリーン21A又はタッチスクリーン21Bの検出結果に基づいて、気導音及び振動音として出力される情報に関する制御を変更する機能が含まれる。気導音及び振動音として出力される情報に関する制御は、例えば、音量、音質、再生方向、再生方向、および再生順序に関する制御を含む。制御プログラム9Aが提供する機能には、タッチスクリーン21又はタッチスクリーン22の検出結果に基づいて、気導音及び振動音として出力される情報を切り替える機能が含まれる。
 コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、及びFPGA(Field-Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、携帯電話1Dの動作を統括的に制御して各種の機能を実現する。
 具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2、通信ユニット6、圧電素子7、マイク8、スピーカ11、及びバイブレータ18を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、ボタン3、照度センサ4、近接センサ5、カメラ12、姿勢検出ユニット15、タッチスクリーン21A、及びタッチスクリーン21Bを含むが、これらに限定されない。
 コントローラ10は、例えば、制御プログラム9Aを実行することにより、タッチスクリーン21A又はタッチスクリーン21Bの検出結果に基づいて、気導音及び振動音として出力される情報に関する制御を変更する。
 図22から図24を参照しながら、タッチスクリーン21Aの検出結果に基づいて、気導音及び振動音として出力される情報を切り替える制御について説明する。図22は、ディスプレイ2に表示されるホーム画面の例を示す図である。ホーム画面は、ディスプレイ2に表示される。ホーム画面は、携帯電話1Dにインストールされているアプリケーションのうち、どのアプリケーションを実行するかを利用者に選択させる画面である。ホーム画面は、デスクトップ、待受画面、アイドル画面又は標準画面と呼ばれることもある。
 ホーム画面上には、アイコン及びウィジェット等のオブジェクトが配置される。アイコンは、実行されるアプリケーションに対応する画像を含む。携帯電話1Dは、アイコンへのタップが検出された場合、アイコンに対応するアプリケーションを実行する。ウィジェットは、動的に変化する画像を含む。ウィジェットに含まれる画像は、対応するアプリケーションが提供する機能によって更新される。
 図22に示す例では、ホーム画面上に、ウィジェット41aと、アイコン42aと、アイコン43aと、ウィジェット44aとが配置されている。ウィジェット41aは、ニュースアプリケーション9Gの提供する機能によって取得された記事データを表示する。具体的には、ウィジェット41aは、割り当てられた領域内で、複数の記事データのテキストが次々とスクロールするように構成される。
 アイコン42aは、メールアプリケーション9Hに対応する。携帯電話1Dは、アイコン42aへのタップを検出すると、メールアプリケーション9Hを実行する。アイコン42aの右上には、未読メールの件数が表示される。アイコン43aは、スケジュールアプリケーション9Kに対応する。携帯電話1Dは、アイコン43aへのタップを検出すると、スケジュールアプリケーション9Kを実行する。
 ウィジェット44aは、音楽再生アプリケーション9Jによって再生される楽曲を識別するための情報を表示する。識別するための情報は、例えば、アルバムアート、楽曲名、奏者名である。ウィジェット44aに割り当てられた領域には、音楽再生アプリケーション9Jの機能による音楽再生を制御するための部品が配置される。音楽再生を制御するための部品は、早送りボタン45a、巻き戻しボタン46a、及び再生開始・一時停止ボタン47aを含む。
 携帯電話1Dは、ホーム画面を表示しているときに、人体のうち、振動音を聴覚神経へ伝達可能な部分の接触がタッチスクリーン21Aによって検出された場合、接触が検出された位置又は領域に基づいて特定されるオブジェクトに関する情報を気導音および振動音として出力する。振動音を聴覚神経へ伝達可能な部分は、例えば、頭部の一部である。以下の説明では、説明を簡単にするため、振動音を聴覚神経へ伝達可能な部分は、耳であるものとする。さらに、以下の説明では、説明を簡単にするため、パネル22の振動によって生じる気導音についての記載を省略することがある。
 図23及び図24は、ホーム画面の表示中に耳の接触が検出された場合に出力される情報の例を示す図である。図23に示すように、ウィジェット41aの表示領域を含む領域61への耳の接触がタッチスクリーン21Aによって検出された場合、携帯電話1Dは、ウィジェット41aに対応する情報を振動音として出力する。具体的には、携帯電話1Dは、ウィジェット41a内でスクロールしている記事データのテキストを、読み上げアプリケーション9Bによって提供される読み上げ機能によって、音声データへ変換する。そして、携帯電話1Dは、音声データに応じた信号を圧電素子7に印加し、パネル22を振動させる。
 図24に示すように、アイコン42aの表示領域を含む領域62への耳の接触がタッチスクリーン21Aによって検出された場合、携帯電話1Dは、アイコン42aに対応する情報を振動音として出力する。具体的には、携帯電話1Dは、未読メールの送信元、受信時刻、件名等の属性情報(ヘッダ情報)を、読み上げアプリケーション9Bによって提供される読み上げ機能によって、音声データへ変換する。そして、携帯電話1Dは、音声データに応じた信号を圧電素子7に印加し、パネル22を振動させる。携帯電話1Dは、未読メールの属性情報だけでなく、本文を振動音として出力してもよい。携帯電話1Dは、未読メールがない場合は、その旨を振動音として出力してもよい。
 同様に、アイコン43a又はウィジェット44aの表示領域への耳の接触がタッチスクリーン21Aによって検出された場合、携帯電話1Dは、それぞれに対応する情報を振動音として出力する。アイコン43aに対応する情報は、例えば、登録されている当日の予定の件名及び開始時刻である。ウィジェット44aに対応する情報は、例えば、再生される楽曲の曲名および奏者名、又は楽曲そのものである。
 このように、携帯電話1Dは、タッチスクリーン21Aによって耳の接触が検出された場合に、接触が検出された位置又は領域に基づいて特定されるオブジェクトに関する情報を振動音として出力する。このため、利用者は、聞きたい情報に対応する位置へ耳を接触させるだけで、余分な操作をすることなく、聞きたい情報を振動音として聞くことができる。さらに、耳がパネル22に接触している状態で振動音の出力が開始されるため、情報を聞き漏らす可能性が低い。
 耳の接触が検出された領域に基づいてオブジェクトを特定する場合、各オブジェクトの表示領域のうち、耳の接触が検出された領域と重なる部分の面積が算出される。そして、耳の接触が検出された領域と表示領域とが重なる面積が最も広いオブジェクトが、対応する位置に配置されているオブジェクトと決定されてもよい。あるいは、表示領域に対して耳の接触が検出された領域と重なる部分が占める割合が最も高いオブジェクトが、対応する位置に配置されているオブジェクトと決定されてもよい。
 耳の接触が検出された位置に基づいてオブジェクトを特定する場合、耳の接触が検出された位置から、ホーム画面上に配置されている各オブジェクトまでの距離が算出される。そして、距離が最も短いオブジェクトが、関連する情報が振動音として出力されるオブジェクトとして特定される。耳の接触が検出された位置は、例えば、耳の接触が検出された領域の重心、耳の接触が検出された領域を含む最小矩形の中心または頂点の一つ、耳の所定の部位に対応する位置、又は耳の接触が検出された領域のうち最初に接触が検出された位置である。耳の接触が検出された位置からオブジェクトまでの距離は、耳の接触が検出された位置から、オブジェクトの中心までの距離であってもよい。耳の接触が検出された位置からオブジェクトまでの距離は、耳の接触が検出された位置から、オブジェクトの外周のうち、耳の接触が検出された位置に最も近い部分までの距離であってもよい。
 図25から図27を参照しながら、携帯電話1Dによる耳の位置の検出の例について説明する。携帯電話1Dは、パネル22に接触する耳の位置を、タッチスクリーン21Aを用いて検出する。例えば、携帯電話1Dは、図25に示すように、タッチスクリーン21Aによって耳の接触が検出される領域71に基づいて決定される位置72を、耳の位置として検出する。位置72は、例えば、領域71の中心(重心)である。位置72は、領域71を含む最小矩形の頂点のいずれかであってもよい。位置72は、耳の所定の部位に対応する位置であってもよい。この場合、耳におけるその部位の一般的な位置に関する情報に基づいて、領域71との相対的な位置関係から位置72が算出される。
 この方式は、複雑な演算を行うことなく、パネル22に接触する耳の位置を検出することを可能にする。さらに、この方式は、タッチスクリーン21Aがパネル22に対する接触を同時に検出できる点の数が少ない場合にも適用できる。この方式では、例えば、領域71の大きさ及び形状に基づいて、パネル22に接触する物体が耳であるか否かを判定することもできる。
 あるいは、携帯電話1Dは、図26に示すように、物体の接触時にタッチスクリーン21Aの検出結果に基づいて得られる像73と、予め用意される標本74とのパターンマッチングによって、耳の位置を検出する。像73は、タッチスクリーン21Aの検出領域を格子状に分割し、分割されたそれぞれの領域における物体の接触の検出状態を、対応する画素の状態に変換することにより得られる。それぞれの領域においてタッチスクリーン21Aが検出する値が、例えば、タッチスクリーン21Aと物体の距離、物体がタッチスクリーン21Aを圧迫する押圧等によって変動する場合、像73は、多階調の画像となってもよい。
 標本74は、耳の接触時に耳が接触している領域で像73と同様のやり方で得られるはずの像である。標本74は、携帯電話1Dの利用者の耳の接触時に得られるはずの像であってもよいし、一般的な人の耳の接触時に得られるとはずの像であってもよい。標本74は、右耳の像、左耳の像というように複数枚用意されてもよい。
 標本74は、耳の所定の部位に対応する基準位置74aを含む。基準位置74aは、標本74の左上を基準として、(x1,y1)に位置している。基準位置74aは、一般的な人の耳におけるその部位の位置に関する情報に基づいて設定されてもよい。標本74が携帯電話1Dの利用者の耳の接触時に実際に得られた像である場合、基準位置74aは、像を解析して設定されてもよい。
 携帯電話1Dは、像73が得られると、パターンマッチングによって、像73と標本74とが最もマッチする際の両者の相対位置を得る。パターンマッチングによって、像73と標本74とがマッチしないと判定された場合(例えば、一致度が閾値よりも低い場合)には、携帯電話1Dは、耳の接触は検出されていないと判定してもよい。相対位置が得られると、携帯電話1Dは、相対位置と、基準位置74aとに基づいて、耳の位置を算出する。図26の例の場合、像73の左上を基準として、標本74をX軸方向にx2、Y軸方向にy2だけシフトした場合に両者が最もマッチする。この場合、耳の位置は、(x1+x2,y1+y2)と算出される。
 この方式は、パネル22に接触する耳の位置を精度よく検出することを可能にする。さらに、この方式は、標本とのマッチングによって、パネル22に接触する物体が耳であるか否か、あるいは、パネル22に接触する物体が予め登録されている人物の耳であるかを判定することを可能にする。さらに、この方式は、耳の向き及び傾き等の、耳の接触に関する詳細な情報を検出することを可能にする。
 パターンマッチングによって耳の位置を検出する場合、標本は、基準位置を含まなくてもよい。図27に示す例では、像73は、基準位置を含まない標本75とパターンマッチングされている。図27の例の場合、像73の左上を基準として、標本75をX軸方向にx3、Y軸方向にy3だけシフトした場合に両者が最もマッチする。この場合、耳の位置は、例えば、(x3,y3)と算出される。
 この方式は、基準位置を含まないため、標本の作成を容易にする。例えば、耳の位置の移動量及び移動方向が必要で、耳の特定の部位の位置を特定する必要がない場合、標本に基準位置を設定しなくても、この方式によって必要な情報を得ることができる。
 パネル22に接触する耳の位置を、タッチスクリーン21Aを用いて検出する方式は、上記の方式に限定されず、他の方式を採用してもよい。
 携帯電話1Dは、消費電力を抑制するために、パネル22への耳の接触が検出された場合、又はパネル22への耳の接近が検出された場合、ディスプレイ2を消灯してもよい。この場合でも、消灯前に表示されていたホーム画面上に配置されていたオブジェクトは、消灯後もそのままの位置に配置されているものとして制御が行われる。
 図28から図32を参照しながら、タッチスクリーン21Bの検出結果に基づいて、気導音及び振動音として出力される情報に関する制御の変更について説明する。図28は、携帯電話1Dの使用形態の例を示す図である。図28に示すように、オブジェクトに関する情報が振動音として出力されているとき、利用者は、振動音を聞くためにディスプレイ2及びタッチスクリーン21Aが設けられている正面に耳E1を接触させる。この状態では、利用者がディスプレイ2に表示されている画面を見ながらタッチスクリーン21Aに対して操作を行うことは難しい。
 しかしながら、図28に示す状態であっても、利用者は、背面に設けられているタッチスクリーン21Bに対して操作を行うことはできる。利用者は、図28に示すように、携帯電話1Dをもつ手H1の指F1を用いてタッチスクリーン21Bを操作することができる。利用者は、もう一方の手の指を用いてタッチスクリーン21Bを操作することもできる。
 携帯電話1Dは、オブジェクトに関する情報を振動音として出力しているときにタッチスクリーン21Bが操作(ジェスチャ)を検出した場合、検出された操作に応じて、振動音として出力している情報に関する制御を変更する。携帯電話1Dは、タッチスクリーン21Bによって検出された操作に応じて、例えば、音量、音質、再生方向、再生方向、および再生順序の少なくとも1つを変更する。
 図29は、背面側のタッチスクリーン21Bの検出結果に基づく制御の変更の例を示す図である。この例において、ディスプレイ2には、図22と同様のホーム画面が表示されているものとする。さらに、位置P1の反対側の位置で利用者の耳がパネル22に接触しているものとする。すなわち、位置P1を通過するパネル22と垂直な直線は、利用者の耳を通過する。
 図29に示すステップS11において、携帯電話1Dは、ウィジェット41aに関する情報として記事データを振動音として出力している。点線で示される領域41bは、ウィジェット41aの表示領域に対応する。領域41bの位置および大きさは、ウィジェット41aの表示領域を、正面と垂直な光を用いて背面に投影した場合の位置および大きさと一致する。すなわち、ウィジェット41aの表示領域の右上の頂点を通過するパネル22と垂直な直線は、領域41bの左上の頂点を通過する。ウィジェット41aの表示領域の左下の頂点を通過するパネル22と垂直な直線は、領域41bの右下の頂点を通過する。
 携帯電話1Dは、前面に配置されているオブジェクトに関する情報を振動音として出力しているときに、そのオブジェクトに対応する背面の領域でジェスチャが検出されると、検出されたジェスチャに応じて、出力している情報に関する制御を変更する。
 例えば、ステップS12に示すように、ウィジェット41aに関する情報を振動音として出力しているときに、利用者が指F1を用いて領域41b内で右フリックを行ったものとする。この場合、携帯電話1Dは、出力している情報をスキップする。その結果、出力される記事データが次の記事データに切り替わる。
 ステップS13に示すように、ウィジェット41aに関する情報を振動音として出力しているときに、利用者が指F1を用いて領域41b内で上フリックを行ったものとする。この場合、携帯電話1Dは、振動音の音量を上げる。ステップS14に示すように、ウィジェット41aに関する情報を振動音として出力しているときに、利用者が指F1を用いて領域41b内で下フリックを行ったものとする。この場合、携帯電話1Dは、振動音の音量を下げる。
 図29の例に示すように、携帯電話1Dは、振動音を出力しているときに背面でジェスチャが検出された場合に、検出されたジェスチャに応じて、出力している情報に関する制御を変更する。このため、利用者は、耳をパネル22に接触させたままで、振動音として出力する情報に関する制御を変更することができる。すなわち、利用者は、簡単な動作で、振動音として出力する情報に関する制御を変更ことができる。さらに、振動音として出力される情報の聞き漏らしが発生する可能性が低い。
 図29の例に示すように、携帯電話1Dは、背面のうち、振動音を出力している情報と関連するオブジェクトの表示領域と対応する領域でジェスチャが検出された場合に、出力している情報に関する制御を変更する。このため、背面の他の領域にたまたま何かが触れても、携帯電話1Dは、情報に関する制御を変更しない。すなわち、利用者の意図しない接触による誤動作が発生する可能性が低い。
 検出されるジェスチャと制御の変更の仕方の対応は、図29に示した例に限定されない。携帯電話1Dは、検出されるジェスチャの種類、方向、速度、加速度、および回数の少なくとも1つに応じて、振動音として出力する情報に関する制御を変更してよい。例えば、携帯電話1Dは、左フリックが検出された場合に、出力中の記事データを最初から出力し直してもよい。例えば、携帯電話1Dは、背面でスワイプが検出された場合に、スワイプの速度に応じて、情報を再生する速度を変更してもよい。例えば、携帯電話1Dは、背面で所定時間内に複数回のタップが検出された後にフリックが検出された場合に、タップの回数分だけ記事データをスキップしてもよい。
 携帯電話1Dは、ウィジェット41a以外のオブジェクトに関する情報を振動音として出力しているときにそのオブジェクトの表示領域に対応する背面側の領域でのジェスチャがタッチスクリーン21Bによって検出された場合に、制御を変更してもよい。例えば、携帯電話1Dは、メールを読み上げ中にアイコン42aの表示領域に対応する背面側の領域でジェスチャが検出された場合に、読み上げるメールの変更、読み上げる速度の変更、読み上げる音量の変更等を行ってもよい。
 携帯電話1Dは、振動音を出力している情報と関連するオブジェクトの表示領域と対応する領域でのタッチがタッチスクリーン21Bによって検出された場合に、音又は振動の少なくとも一方を用いて、タッチした位置が領域内であることを利用者に報知してもよい。このような報知により、利用者は、情報に関する制御を変更するためにジェスチャを行うべき場所を確認することができる。音による報知は、スピーカ11及び振動レシーバ13のいずれを用いて実行してもよい。振動による報知は、圧電素子7及びバイブレータ18のいずれを用いて実行してもよい。
 携帯電話1Dは、ジェスチャが検出された位置を領域と比較する場合に、マージンを設けてもよい。この場合、タッチスクリーン21Bによってジェスチャが検出された位置を領域と比較するために用いられるマージンは、タッチスクリーン21A用のマージンよりも大きくてもよい。すなわち、携帯電話1Dは、タッチスクリーン21Bによってジェスチャが検出された位置の指定された領域の外側へのズレが比較的大きい場合でも、検出された位置が指定された領域に含まれると判定してもよい。このようにマージンを設定することにより、ブラインドで行われる背面でのジェスチャが、利用者の意図に沿うように携帯電話1Dによって判定される可能性が高くなる。
 図29では、背面で検出されるジェスチャの種類に応じて、情報の制御を変更する例を示した。しかしながら、携帯電話1Dは、背面でジェスチャが検出される領域に応じて、情報の制御を変更してもよい。
 図30は、背面側のタッチスクリーン21Bの検出結果に基づく制御の変更の他の例を示す図である。この例において、ディスプレイ2には、図22と同様のホーム画面が表示されているものとする。さらに、ウィジェット44aにアルバムアート等が表示されている楽曲が振動音として出力されているものとする。
 図30に示す例において、点線で示される領域44bは、ウィジェット44aの表示領域に対応する。さらに、領域44bに含まれる領域45b、領域46b、及び領域47bは、それぞれ、ウィジェット44aに含まれる早送りボタン45a、巻き戻しボタン46a、及び再生開始・一時停止ボタン47aに対応する。領域45b、領域46b、及び領域47bの位置および大きさは、それぞれ、早送りボタン45a、巻き戻しボタン46a、及び再生開始・一時停止ボタン47aの表示領域を、正面と垂直な光を用いて背面に投影した場合の位置および大きさと一致する。例えば、早送りボタン45aの表示領域の右上の頂点を通過するパネル22と垂直な直線は、領域45bの左上の頂点を通過する。早送りボタン45aの表示領域の左下の頂点を通過するパネル22と垂直な直線は、領域45bの右下の頂点を通過する。
 携帯電話1Dは、前面に配置されているオブジェクトに関する情報を振動音として出力しているときに、そのオブジェクトに含まれる部品に対応する背面の領域でジェスチャが検出されると、検出された領域に対応する部品に応じて、情報の制御を変更する。例えば、携帯電話1Dは、楽曲を振動音として出力しているときに領域45bに対するタッチがタッチスクリーン21Bによって検出された場合、再生中の楽曲を早送りする。携帯電話1Dは、楽曲を振動音として出力しているときに領域46bに対するタッチがタッチスクリーン21Bによって検出された場合、再生中の楽曲を巻き戻す。携帯電話1Dは、楽曲を振動音として出力しているときに領域47bに対するタップがタッチスクリーン21Bによって検出された場合、領域47bに対するタップが再び検出されるまで再生中の楽曲を一時停止する。
 このように、携帯電話1Dは、背面でジェスチャが検出された場合に、ジェスチャが検出された位置に対応する全面側の位置に配置されている部品に応じて、情報の制御を変更する。このように情報の制御を変更することにより、利用者は、画面に表示されているオブジェクトを見ながら操作する場合と同様の操作によって情報の制御を変更することができる。
 図30では、正面に配置されている部品の表示領域を、正面と垂直な光を用いて背面に投影した領域が操作される例を示した。しかしながら、正面に配置されている部品の表示領域と、制御の変更のために背面において操作される領域との対応は、これに限定されない。例えば、図31に示すように、制御の変更のために背面において操作される領域は、前面におけるオブジェクトの表示領域を拡大した領域であってもよい。このように、制御の変更のために背面において操作される領域を拡大することにより、ブラインドで行われる背面でのジェスチャが、利用者の意図に沿うように携帯電話1Dによって判定される可能性が高くなる。
 携帯電話1Dは、背面でジェスチャが検出された場合に、ジェスチャが検出された領域にかかわらず、振動音として出力している情報に関する制御を変更してもよい。図32は、背面側のタッチスクリーン21Bの検出結果に基づく制御の変更の他の例を示す図である。図32に示すステップS21において、携帯電話1Dは、ウィジェット41aに関する情報を振動音として出力している。
 携帯電話1Dは、前面に配置されているオブジェクトに関する情報を振動音として出力しているときに、背面でジェスチャが検出されると、検出されたジェスチャに応じて、出力している情報に関する制御を変更する。
 例えば、ステップS22に示すように、ウィジェット41aに関する情報を振動音として出力しているときに、利用者が指F1を用いて背面で右フリックを行ったものとする。この場合、携帯電話1Dは、出力している情報をスキップする。その結果、出力される記事データが次の記事データに切り替わる。
 ステップS23に示すように、ウィジェット41aに関する情報を振動音として出力しているときに、利用者が指F1を用いて背面で上フリックを行ったものとする。この場合、携帯電話1Dは、振動音の音量を上げる。ステップS24に示すように、ウィジェット41aに関する情報を振動音として出力しているときに、利用者が指F1を用いて背面で下フリックを行ったものとする。この場合、携帯電話1Dは、振動音の音量を下げる。
 図33を参照しながら、タッチスクリーン21A又はタッチスクリーン21Bの検出結果に基づいて、気導音及び振動音として出力される情報に関する制御を変更する処理手順の例について説明する。図33は、気導音及び振動音として出力される情報を切り替える制御の処理手順の例を示すフローチャートである。図33に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。
 コントローラ10は、ステップS201として、パネル22に接触している物体があるかをタッチスクリーン21Aの検出結果に基づいて判定する。パネル22に接触している物体がない場合(ステップS201,No)、コントローラ10は、ステップS201へ戻る。パネル22に接触している物体がある場合(ステップS201,Yes)、コントローラ10は、ステップS202へ進む。
 ステップS202として、コントローラ10は、パネル22に接触している物体が耳であるかを判定する。パネル22に接触している物体が耳でない場合(ステップS202,No)、コントローラ10は、ステップS201へ戻る。パネル22に接触している物体が耳である場合(ステップS202,Yes)、コントローラ10は、ステップS203へ進む。
 ステップS203として、コントローラ10は、パネル22に接触している耳の位置を算出する。ステップS204として、コントローラ10は、耳の位置に対応するオブジェクトを特定する。ステップS205として、コントローラ10は、特定したオブジェクトに関連する情報を気導音及び振動音として振動レシーバ13から出力し始める。
 続いて、コントローラ10は、ステップS206として、タッチスクリーン21Bによって背面に対するジェスチャが検出されたかを判定する。背面に対するジェスチャが検出されていない場合(ステップS206,No)、コントローラ10は、ステップS208へ進む。背面に対するジェスチャが検出された場合(ステップS206,Yes)、コントローラ10は、ステップS207として、気導音及び振動音として振動レシーバ13から出力される情報に関する制御をジェスチャに応じて変更する。その後、コントローラ10は、ステップS208へ進む。
 ステップS208として、コントローラ10は、振動レシーバ13による音の出力を終了するかを判定する。音の出力を終了する場合には、例えば、利用者による音の出力を終了するための操作が検出された場合と、情報の出力が完了した場合とが含まれる。
 音の出力を終了しない場合(ステップS208,No)、コントローラ10は、ステップS206へ戻る。音の出力を終了する場合(ステップS208,Yes)、コントローラ10は、ステップS209へ進む。コントローラ10は、ステップS209として、振動レシーバ13からの気導音及び振動音の出力を終了する。
 携帯電話1Dは、オブジェクトに関する情報を振動音として出力しているときにタッチスクリーン21Bが操作(ジェスチャ)を検出した場合、検出された操作に応じて、振動音として出力される情報を別のオブジェクトに関する情報へ変更してもよい。
 図34は、背面側のタッチスクリーン21Bの検出結果に基づく制御の例を示す図である。この例において、ディスプレイ2には、図22と同様のホーム画面が表示されているものとする。さらに、位置P1の反対側の位置で利用者の耳がパネル22に接触しているものとする。すなわち、位置P1を通過するパネル22と垂直な直線は、利用者の耳を通過する。
 図34に示すステップS31において、携帯電話1Dは、ウィジェット41aに関する情報を振動音として出力している。点線で示される領域41b~44bは、それぞれ、ウィジェット41a、アイコン42a、アイコン43a、及びウィジェット44aの表示領域に対応する。領域41b~44bの位置および大きさは、対応する表示領域を、正面と垂直な光を用いて背面に投影した場合の位置および大きさと一致する。例えば、ウィジェット41aの表示領域の右上の頂点を通過するパネル22と垂直な直線は、領域41bの左上の頂点を通過する。アイコン43aの表示領域の左下の頂点を通過するパネル22と垂直な直線は、領域43bの右下の頂点を通過する。
 ステップS32に示すように、ウィジェット41aに関する情報を振動音として出力しているときに、利用者がタッチスクリーン21Bをタップしたものとする。タッチスクリーン21Bによってタップが検出されると、携帯電話1Dは、タップされた位置に対応するオブジェクトを判定する。図34に示す例では、領域42b内でタップが検出されているため、携帯電話1Dは、アイコン42aを、タップされた位置に対応するオブジェクトとして判定する。
 そして、携帯電話1Dは、現在出力している情報に代えて、タップされた位置に対応するオブジェクトに関する情報を振動音として出力する。図34に示す例では、携帯電話1Dは、ウィジェット41aに関する情報に代えて、アイコン42aに関する情報を振動音として出力する。
 ホーム画面は、携帯電話1Dの利用時にしばしば参照されるので、利用者は、ホーム画面上のオブジェクトの配置を覚えていることが多い。このため、利用者は、配置の記憶に基づいて、所望のオブジェクトに対応する位置を背面でタップすることができる。
 このように、携帯電話1Dは、背面への操作に応じて、振動音として出力する情報を他の情報へ変更する。このため、利用者は、耳をパネル22に接触させたままで、振動音として出力する情報を切り替えることができる。すなわち、利用者は、簡単な動作で、振動音として出力する情報を切り替えることができる。さらに、振動音として出力される情報の聞き漏らしが発生する可能性が低い。
 タップされた位置が、領域41b~44bのいずれの内側でもない場合、携帯電話1Dは、領域41b~44bのうち、タップされた位置と最も近い領域に対応するオブジェクトを、タップされた位置に対応するオブジェクトとして判定してもよい。タップが検出された位置から領域までの距離は、タップが検出された位置から、領域の中心までの距離であってもよい。タップが検出された位置から領域までの距離は、タップが検出された位置から、領域の外周のうち、タップが検出された位置に最も近い部分までの距離であってもよい。携帯電話1Dは、タップされた位置とそこに最も近い領域との距離が閾値よりも長い場合には、タップを無視して、出力中の情報を振動音として出力し続けてもよい。
 携帯電話1Dは、領域41b~44bのいずれかの内部でのタッチがタッチスクリーン21Bによって検出された場合に、音又は振動の少なくとも一方を用いて、タッチが検出された位置がいずれかの領域内であることを利用者に報知してもよい。このような報知により、利用者は、振動音として出力される情報を変更するためにタップすべき場所を確認することができる。音による報知は、スピーカ11及び振動レシーバ13のいずれを用いて実行してもよい。振動による報知は、圧電素子7及びバイブレータ18のいずれを用いて実行してもよい。携帯電話1Dは、利用者が領域を識別できるように、領域ごとに報知の態様を変更してもよい。
 携帯電話1Dは、ジェスチャが検出された位置を指定された位置又は領域と比較する場合に、マージンを設けてもよい。この場合、タッチスクリーン21Bによってジェスチャが検出された位置を指定された位置又は領域と比較するために用いられるマージンは、タッチスクリーン21A用のマージンよりも大きくてもよい。すなわち、携帯電話1Dは、タッチスクリーン21Bによってジェスチャが検出された位置と指定された位置のズレが比較的大きい場合でも、検出された位置と指定された位置とが一致すると判定してもよい。携帯電話1Dは、タッチスクリーン21Bによってジェスチャが検出された位置の指定された領域の外側へのズレが比較的大きい場合でも、検出された位置が指定された領域に含まれると判定してもよい。このようにマージンを設定することにより、ブラインドで行われる背面でのジェスチャが、利用者の意図に沿うように携帯電話1Dによって判定される可能性が高くなる。
 図34では、背面でタップが検出された場合に、振動音として出力する情報を他の情報へ変更する例を示した。しかしながら、出力する情報の切り替えのために背面で検出するジェスチャは、タップに限定されない。背面で検出するジェスチャは、例えば、ロングタップ、ダブルタップ、フリック、スワイプ、ピンチイン、又はピンチアウトでもよい。
 図35は、背面でのスワイプの検出に応じて、出力する情報を切り替える制御の例を示す図である。図35に示すステップS41では、図34に示したステップS31と同様に、携帯電話1Dは、ウィジェット41aに関する情報を振動音として出力している。
 ステップS42に示すように、利用者が領域42bの内部で指F1を用いてタッチスクリーン21Bをタッチしたものとする。タッチスクリーン21Bによって領域41b~44bのいずれかの内部でタッチが検出されると、携帯電話1Dは、音を用いて、タッチが検出された位置がいずれかの領域内であることを利用者に報知する。携帯電話1Dは、振動を用いて報知を行ってもよい。
 その後、ステップS43に示すように、利用者が、領域42bに対応するアイコン42aを耳の位置まで移動させるかのように、指F1を位置P1までスワイプしたものとする。オブジェクトの1つに対応する領域からスワイプを開始した指F1が位置P1まで到達したことがタッチスクリーン21Bによって検出されると、携帯電話1Dは、音を用いて、指F1が位置P1まで到達したことを利用者に報知する。携帯電話1Dは、振動を用いて報知を行ってもよい。このときの報知の態様は、タッチが検出された位置がいずれかの領域内であることを報知する場合の態様と異なっていてもよい。
 その後、利用者が、位置P1において指F1をタッチスクリーン21Bからリリースしたものとする。オブジェクトに対応する領域から開始されたスワイプが位置P1で終了すると、携帯電話1Dは、現在出力している情報に代えて、スワイプが開始された位置に対応するオブジェクトに関する情報を振動音として出力する。図35に示す例では、携帯電話1Dは、ウィジェット41aに関する情報に代えて、アイコン42aに関する情報を振動音として出力する(ステップS44)。
 このように、携帯電話1Dは、背面において、いずれかのオブジェクトに対応する領域から耳が接触している位置の裏側へのスワイプが検出された場合に、振動音として出力する情報を、スワイプの開始位置に対応するオブジェクトに関する情報へ変更する。このような操作は、ホーム画面上でのドラッグ&ドロップによりオブジェクトを移動させることによってオブジェクトに関する処理を実行させる操作と類似しているので、利用者にとって習得しやすい。
 図36は、背面での複数のスワイプの検出に応じて、出力する情報を切り替える制御の他の例を示す図である。図36に示すステップS51では、図34に示したステップS31と同様に、携帯電話1Dは、ウィジェット41aに関する情報を振動音として出力している。
 ステップS52に示すように、利用者が、指F1を用いてタッチスクリーン21Bに対して左上の方向への1回目のスワイプを行ったものとする。タッチスクリーン21Bによってスワイプが検出されると、携帯電話1Dは、検出されたスワイプの方向及び距離に応じて、前面における位置と背面における位置との関係を相対的に変化させる。この場面では、1回目のスワイプの始点から終点までのベクトルV1の分だけ、領域41b~44bがスライドしたように、前面における位置と背面における位置との関係が変化する。
 続いて、ステップS53に示すように、利用者が、指F1を用いてタッチスクリーン21Bに対して左上の方向への2回目のスワイプを行ったものとする。タッチスクリーン21Bによって2回目のスワイプが検出されると、携帯電話1Dは、検出されたスワイプの方向及び距離に応じて、前面における位置と背面における位置との関係をさらに変化させる。この場面では、2回目のスワイプの始点から終点までのベクトルV2の分だけ、領域41b~44bがさらにスライドしたように、前面における位置と背面における位置との関係が変化する。
 図36に示す例では、ステップS53でのスライドにより、領域42bが位置P1と重なる位置まで移動している。このように、領域41b~44bのいずれかが位置P1と重なるように前面における位置と背面における位置との関係が変化した場合、携帯電話1Dは、音を用いて、その旨を利用者に報知する。携帯電話1Dは、振動を用いて報知を行ってもよい。
 この状態で、利用者が、指F1をタッチスクリーン21Bからリリースしたものとする。こうしてスワイプが終了すると、携帯電話1Dは、それまでのスワイプの移動の方向及び距離を示すベクトルを合成して、前面における位置と背面における位置との関係が変化した方向及び距離を算出する。そして、携帯電話1Dは、領域41b~44bを、算出した方向へ算出した距離だけ移動させた場合に、いずれかが位置P1と重なるかを判定する。いずれかの領域が位置P1と重なる場合、携帯電話1Dは、現在出力している情報に代えて、位置P1と重なる領域に対応するオブジェクトに関する情報を振動音として出力する。図36に示す例では、携帯電話1Dは、ウィジェット41aに関する情報に代えて、アイコン42aに関する情報を振動音として出力する。
 このように、携帯電話1Dは、背面において検出される1ないし複数回のスワイプによる移動の方向及び距離を算出する。そして、携帯電話1Dは、算出された方向及び距離が、いずれかのオブジェクトに対応する領域から耳の接触している位置又は領域までの方向及び距離と略一致する場合に、振動音として出力する情報を、当該オブジェクトに関する情報へ変更する(ステップS54)。
 このように制御することにより、利用者は、振動音として出力する情報を所望の情報へ変更するための操作を、複数回のスワイプを組み合わせて実行することができる。このような操作は、振動音として出力したい情報に対応するオブジェクトが耳の接触している位置から遠くに位置していても容易に行うことができる。さらに、スワイプをタッチスクリーン21B上のどこで開始してもよいので、操作に求められる正確性を比較的低くすることができる。
 図36では、スワイプを組み合わせる操作の例を示したが、組み合わされる操作はフリックでもよい。フリックを組み合わせる場合、フリックによる移動の方向は、フリックの方向に応じて決定され、フリックによる移動の距離は、フリックの速度又は加速度に応じた慣性を考慮して決定される。
 図37は、背面側のタッチスクリーン21Bの検出結果に基づく制御の他の例を示す図である。この例においては、ホーム画面に配置されているオブジェクトに関する情報を振動音として出力する順番が予め決められているものとする。この順序は、例えば、ホーム画面でのオブジェクトの配置順に基づいて決定される。
 図37に示すステップS61では、図34に示したステップS31と同様に、携帯電話1Dは、ウィジェット41aに関する情報を振動音として出力している。この状態で、ステップS61に示すように、利用者が、指F1を用いてタッチスクリーン21Bに対して右方向へのフリックを行ったものとする。
 タッチスクリーン21Bによって右方向へのフリックが検出されると、携帯電話1Dは、予め決められた順番に従って、次のオブジェクトに関する情報を振動音として出力する。図37に示す例では、携帯電話1Dは、ステップS62に示すように、ウィジェット41aに関する情報に代えて、アイコン42aに関する情報を振動音として出力する。
 続いて、ステップS63に示すように、利用者が、指F1を用いてタッチスクリーン21Bに対して右方向へのフリックを再び行ったものとする。タッチスクリーン21Bによって右方向へのフリックが検出されると、携帯電話1Dは、予め決められた順番に従って、次のオブジェクトに関する情報を振動音として出力する。図37に示す例では、携帯電話1Dは、ステップS64に示すように、アイコン42aに関する情報に代えて、アイコン43aに関する情報を振動音として出力する。
 このように、携帯電話1Dは、背面においてフリックが検出されるたびに、予め決められた順番に従って、振動音として出力する情報を他の情報へ変更する。このような制御によれば、利用者は、タッチスクリーン21Bに対する操作を行う位置を意識しなくてよいので、振動音として出力される情報を容易に切り替えることができる。
 図37では、振動音として出力される情報を切り替えるためにタッチスクリーン21Bに対してフリックを行う例を示した。しかしながら、振動音として出力される情報を切り替えるためのジェスチャは、フリックに限定されない。振動音として出力される情報を切り替えるためのジェスチャは、例えば、タップ、ダブルタップ、ロングタップ、スワイプ、ピンチイン、又はピンチアウトであってもよい。
 携帯電話1Dは、タッチスクリーン21Bによって検出されるジェスチャの種類、方向、又は回数に応じて、振動音として出力される情報の切り替え方を変更するように構成されてもよい。携帯電話1Dは、タッチスクリーン21Bによって検出されるジェスチャの組み合わせに応じて、振動音として出力される情報の切り替え方を変更するように構成されてもよい。例えば、携帯電話1Dは、第1の種類のジェスチャが検出された場合には、振動音として出力する情報を次の情報へ変更し、第2の種類のジェスチャが検出された場合には、振動音として出力する情報を前の情報へ変更してもよい。例えば、携帯電話1Dは、第1の方向へのフリックが検出された場合には、振動音として出力する情報を次の情報へ変更し、第2の方向のフリックが検出された場合には、振動音として出力する情報を前の情報へ変更してもよい。
 図38を参照しながら、タッチスクリーン21A又はタッチスクリーン21Bの検出結果に基づいて、気導音及び振動音として出力される情報を切り替える制御の処理手順の例について説明する。図38は、気導音及び振動音として出力される情報を切り替える制御の処理手順の例を示すフローチャートである。図38に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。
 コントローラ10は、ステップS301として、パネル22に接触している物体があるかをタッチスクリーン21Aの検出結果に基づいて判定する。パネル22に接触している物体がない場合(ステップS301,No)、コントローラ10は、ステップS301へ戻る。パネル22に接触している物体がある場合(ステップS301,Yes)、コントローラ10は、ステップS302へ進む。
 ステップS302として、コントローラ10は、パネル22に接触している物体が耳であるかを判定する。パネル22に接触している物体が耳でない場合(ステップS302,No)、コントローラ10は、ステップS301へ戻る。パネル22に接触している物体が耳である場合(ステップS302,Yes)、コントローラ10は、ステップS303へ進む。
 ステップS303として、コントローラ10は、パネル22に接触している耳の位置を算出する。ステップS304として、コントローラ10は、耳の位置に対応するオブジェクトを特定する。ステップS305として、コントローラ10は、特定したオブジェクトに関連する情報を気導音及び振動音として振動レシーバ13から出力し始める。
 続いて、コントローラ10は、ステップS306として、タッチスクリーン21Bによって背面に対するジェスチャが検出されたかを判定する。背面に対するジェスチャが検出されていない場合(ステップS306,No)、コントローラ10は、ステップS308へ進む。背面に対するジェスチャが検出された場合(ステップS306,Yes)、コントローラ10は、ステップS307として、関連する情報を気導音及び振動音として振動レシーバ13から出力するオブジェクトをジェスチャに応じて変更する。その後、コントローラ10は、ステップS308へ進む。
 ステップS308として、コントローラ10は、振動レシーバ13による音の出力を終了するかを判定する。音の出力を終了する場合には、例えば、利用者による音の出力を終了するための操作が検出された場合と、情報の出力が完了した場合とが含まれる。
 音の出力を終了しない場合(ステップS308,No)、コントローラ10は、ステップS306へ戻る。音の出力を終了する場合(ステップS308,Yes)、コントローラ10は、ステップS309へ進む。コントローラ10は、ステップS309として、振動レシーバ13からの気導音及び振動音の出力を終了する。
 本出願の開示する実施形態は、当業者に明らかな事項を含むことができ、発明の要旨及び範囲を逸脱しない範囲で変形することができる。さらに、本出願の開示する実施形態及びその変形例は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。
 例えば、図21に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。
 上記の実施形態2では、ホーム画面を表示しているときに背面への操作が検出された場合に、振動音として出力中の情報に関する制御を変更する例を示した。しかしながら、携帯電話1Dは、ホーム画面以外の画面を表示しているときに背面への操作が検出された場合に、振動音として出力中の情報に関する制御を変更してもよい。例えば、携帯電話1Dは、楽曲の再生画面が表示されているときに背面への操作が検出された場合に、背面で検出された操作に応じて楽曲の再生の仕方を変更してもよい。
 上記の実施形態2では、ホーム画面を表示しているときにパネル22への耳の接触が検出された場合に気導音及び振動音の出力を開始する例を示した。しかしながら、携帯電話1Dは、ホーム画面以外の画面を表示しているときにパネル22への耳の接触が検出された場合に気導音及び振動音の出力を開始してもよい。例えば、携帯電話1Dは、再生可能な楽曲の一覧を含む画面が表示されているときにパネル22への耳の接触が検出された場合に、耳が接触された位置に対応する楽曲を気導音及び振動音として出力してもよい。そして、携帯電話1Dは、背面で検出した操作に応じて、気導音及び振動音として出力する楽曲を変更してもよい。
 上記の実施形態2では、気導音及び振動音を出力するパネル22がディスプレイ2と重ねて正面に設けられ、パネル22の略全面を覆うようにタッチスクリーン21Aが配設される。さらに、背面には、タッチスクリーン21Aと略重なるように、気導音及び振動音として出力される情報を切り替えるための操作を検出するタッチスクリーン21Bが配設される。しかしながら、上述した制御方法を実行する電子機器の構成は、これに限定されない。上述した制御方法を実行する電子機器は、気導音及び振動音を出力するパネルを1つの面に有し、気導音及び振動音として出力される情報に関する制御を変更するための操作、または気導音及び振動音として出力される情報を切り替えるための操作を受け付ける操作部を他の面に有していればよい。操作部は、タッチスクリーンに限定されず、他のセンサ、又はボタンであってもよい。
 図39から図43を参照しながら、上述した制御方法を実行する電子機器の構成の変形例について説明する。図39は、第3の変形例に係る携帯電話1Eの断面図である。図39に示すように、携帯電話1Eは、背面にディスプレイ23をさらに有する点において、携帯電話1Dと相違する。タッチスクリーン21Bは、ディスプレイ23の任意の位置に対する操作を検出できるように、ディスプレイ23の全面を覆うように配設される。
 携帯電話1Eは、図33および図38に示した処理手順のステップS205およびステップS305で、正面への耳の接触に反応して気導音及び振動音の出力を開始するときに、ディスプレイ2に表示されている画面を左右反転させた画面をディスプレイ23に表示する。例えば、気導音及び振動音の出力を開始するときに図22に示したホーム画面がディスプレイ2に表示されている場合、携帯電話1Eは、図35に示すような画面をディスプレイ23に表示する。図40に示す例では、文字は左右反転されていないが、携帯電話1Eは、文字を左右反転してもよい。携帯電話1Eは、耳の位置を示す記号又は図形等をさらにディスプレイ23に表示してもよい。
 このように左右反転させた画面をディスプレイ23に表示することにより、利用者は、図29、図32、および図34から図37に示したような操作をタッチスクリーン21Bに対して行う場合に、画面を鏡に写して操作すべき位置を正確に把握することができる。
 図41は、第4の変形例に係る携帯電話1Fの正面図である。図42は、携帯電話1Fの側面図である。携帯電話1Fは、筐体51と、筐体52と、ヒンジ部53とを有する。筐体51は、ディスプレイ2と、圧電素子7と、パネル22と、タッチスクリーン21Aとを有する。圧電素子7は、パネル22を振動させることができるようにパネル22よりも内側に配設される。タッチスクリーン21Aは、パネル22の略全面を覆うように配設される。ディスプレイ2は、パネル22と同じ面に配設される。筐体52は、タッチスクリーン21Bと、ディスプレイ23とを有する。タッチスクリーン21Bは、ディスプレイ23を覆うように配設される。
 ヒンジ部53は、筐体51と筐体52とを開閉可能に連結する。すなわち、携帯電話1Fは、ヒンジ部53を回転軸として、筐体51と筐体52とが相対的に回動するように構成されている。
 図41に示す開状態において、ディスプレイ2及びディスプレイ23は、略同一平面に並ぶ。この状態において、携帯電話1Fは、ディスプレイ2及びディスプレイ23に、それぞれ異なる画面を表示することができる。さらに、携帯電話1Fは、ディスプレイ2及びディスプレイ23が連結された1つのディスプレイであるかのように、ディスプレイ2及びディスプレイ23にまたがって1つの画面を表示することができる。
 開状態にある携帯電話1Fの筐体51を図42のR1の方向に180度回動させると、携帯電話1Fは、閉状態となる。閉状態において、タッチスクリーン21Bは、気導音及び振動音を出力するパネル22の反対側の面に配置される。すなわち、閉状態における携帯電話1Fにおいては、ディスプレイ2、パネル22、タッチスクリーン21A、タッチスクリーン21B、及びディスプレイ23が、図39に示した携帯電話1Eと同様に配置される。このため、閉状態の携帯電話1Fは、携帯電話1Eと同様に利用することができる。
 このように、携帯電話1Fは、形態の変化に応じて多様な利用が可能なように構成されている。
 図43は、第5の変形例に係る携帯電話1Gの断面図である。図43に示すように、携帯電話1Gは、ディスプレイ2及びタッチスクリーン21Aを正面に有する。タッチスクリーン21Aは、ディスプレイ2の略前面を覆うように配設される。すなわち、携帯電話1Gは、いわゆるタッチパネルを正面に有する。
 携帯電話1Gは、パネル22を背面に有する。パネル22の内側の面の略中央には、接合部材30により、圧電素子7が取り付けられる。パネル22と圧電素子7との間には、補強部材31が配設される。すなわち、携帯電話1Gにおいては、圧電素子7と補強部材31とが接合部材30により接着され、さらに補強部材31とパネル22とが接合部材30で接着される。
 圧電素子7とパネル22との間に補強部材31を配設することにより、以下の効果が得られる。パネル22に外力が加わった場合に、その外力が圧電素子7に伝わって圧電素子7が破損する可能性を低減することができる。例えば携帯電話1Gが地面に落下することでパネル22に対して外力が加わると、当該外力はまず補強部材31に伝わる。補強部材31は、所定の弾性を有しているため、パネル22から伝わる外力により弾性変形する。そのため、パネル22に対して加わった外力は補強部材31により少なくとも一部が吸収され、圧電素子7に伝達される外力が低減される。結果、圧電素子7の破損を低減することができる。補強部材31が圧電素子7と筐体40との間に配置される場合、例えば携帯電話1Gが地面に落下することで筐体40が変形し、変形した筐体40が圧電素子7に衝突して圧電素子7が破損する可能性を低減できる。
 圧電素子7の伸縮または屈曲による振動は、まず補強部材31に伝達され、さらにパネル22に伝達される。すなわち、圧電素子7は、まず圧電素子7よりも大きな弾性係数を有する補強部材31を振動させ、さらにパネル22を振動させることになる。したがって、携帯電話1Gは、補強部材31を備えず、圧電素子7が接合部材30によりパネル22に接合される構造と比較して、圧電素子7の変形が過剰になりにくくすることができる。これにより、パネル22の変形量(変形の程度)を調節することができる。この構造は、圧電素子7の変形を阻害しにくいパネル22の場合に特に有効である。
 さらに、圧電素子7とパネル22との間に補強部材31を配設することにより、パネル22の共振周波数が下がり、低周波帯域の音響特性が向上する。補強部材31に換えて、板状の錘を接合部材30により圧電素子7に取り付けてもよい。
 このように圧電素子7をパネル22の内側の面に取り付ける構造は、携帯電話1D~1Fにも適用することができる。
 利用者は、パネル22の振動によって発生する振動音を聞く場合、耳をパネル22に接触させる。このとき、タッチスクリーン21Aは、耳とは反対側に露出するため、気導音及び振動音として出力される情報を切り替えるための操作を受け付けることができる。すなわち、この変形例では、気導音及び振動音として情報が出力されているときに、タッチスクリーン21Aが、携帯電話1D~1Fにおけるタッチスクリーン21Bと同様に機能する。携帯電話1Gは、気導音及び振動音として情報が出力されているときにタッチスクリーン21Aによってジェスチャが検出された場合、検出されたジェスチャに応じて気導音及び振動音として出力する情報に関する制御を変更する。
 上記の実施形態2では、パネル22に接触する物体の位置を、タッチスクリーン21Aを用いて検出する例を示したが、物体の位置を検出する検出部は、タッチスクリーン21Aに限定されない。例えば、物体の位置を検出する検出部は、カメラ12であってもよい。この場合、物体の位置は、カメラ12が取得する画像に基づいて検出される。
 上記の実施形態2では、ディスプレイ2が接合部材30を用いてパネル22の内側の面に取り付けられる例を示したが、電子機器は、パネル22とディスプレイ2の間に空間ができるように構成されてもよい。パネル22とディスプレイ2の間に空間を設けることにより、パネル22が振動しやすくなり、パネル22上において振動音を聞きやすい範囲が広くなる。
 上記の実施形態2では、圧電素子7をパネル22に取り付ける例を示したが、他の場所に取り付けられてもよい。例えば、圧電素子7は、バッテリリッドに取り付けられてもよい。バッテリリッドは、筐体40に取り付けられ、バッテリを覆う部材である。バッテリリッドは、携帯電話等の携帯電子機器においてディスプレイ2と異なる面に取り付けられることが多いため、そのような構成によれば、利用者はディスプレイ2と異なる面に体の一部(例えば耳)を接触させて音を聞くことができる。
 また、パネル22は、表示パネル、操作パネル、カバーパネル、充電池を取り外し可能とするためのリッドパネルのいずれかの一部または全部を構成することができる。特に、パネル22が表示パネルのとき、圧電素子7は、表示機能のための表示領域の外側に配置される。これにより、表示を阻害しにくいという利点がある。操作パネルは、タッチパネルを含む。また、操作パネルは、例えば折畳型携帯電話において操作キーのキートップが一体に形成され操作部側筐体の一面を構成する部材であるシートキーを含む。
 なお、パネル22と圧電素子7とを接着する接合部材及びパネル22と筐体40とを接着する接合部材等を同一の符号を有する接合部材30として説明した。しかしながら、接合部材は、接合する対象である部材に応じて適宜異なるものが用いられてよい。
 上記の実施形態2では、背面のタッチスクリーン21Bが正面のタッチスクリーン21Aとほぼ重なるように配設される例を示した。しかしながら、タッチスクリーン21Bの配設の仕方は、これに限定されない。タッチスクリーン21Bの大きさは、タッチスクリーン21Aの大きさと異なっていてもよい。タッチスクリーン21Bが配置される位置は、正面から見た場合に、タッチスクリーン21Aが配置される位置からシフトしていてもよい。さらに、正面に表示されているオブジェクトに対応する操作が検出される背面の領域は、タッチスクリーン21Bの大きさ又は配置のシフトに応じて、大きさ又は配置が変更されてもよい。
 上記の実施形態では、補強部材31は板状部材であるが、補強部材31の形状はこれに限られない。補強部材31は、例えば、圧電素子7より大きく、かつその端部が圧電素子7側に湾曲し圧電素子7の側部を覆う形状を有していてもよい。また、補強部材31は、例えば、板状部と、当該板状部から延設されて圧電素子7の側部を覆う延設部とを有する形状であってもよい。この場合、延設部と圧電素子7の側部とが、所定の距離だけ離間しているとよい。これにより、延設部が圧電素子の変形を阻害しにくくなる。
 上記の実施形態では、気導音及び振動音として出力する情報を耳の接触に基づいて決定する例を示した。しかしながら、気導音及び振動音として出力する情報の決定の仕方は、これに限定されない。例えば、気導音及び振動音として出力する情報は、タッチスクリーンに対する指の操作、ボタンの操作、音声での指示等に基づいて決定されてもよい。
 上記の実施形態では、添付の請求項に係る装置の例として、携帯電話について説明したが、添付の請求項に係る装置は、携帯電話に限定されない。添付の請求項に係る装置は、携帯電話以外の電子機器であってもよい。電子機器は、例えば、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。
 添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。
1A~1G 携帯電話
2、23 ディスプレイ
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7、27 圧電素子
8 マイク
9 ストレージ
9A 制御プログラム
9B 読み上げアプリケーション
9C ラジオプレイヤアプリケーション
9D テレビプレイヤアプリケーション
9E 音楽再生アプリケーション
9F ビデオ再生アプリケーション
9G ニュースアプリケーション
9H メールアプリケーション
9J 音楽再生アプリケーション
9K スケジュールアプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
13 振動レシーバ
15 姿勢検出ユニット
18 バイブレータ
20 パネル
21、21A、21B タッチスクリーン
22 パネル
30 接合部材
31 補強部材
40 筐体

Claims (27)

  1.  筐体と、
     前記筐体の第1面に設けられる操作部と、
     圧電素子と、
     前記圧電素子の変形に基づいて、人体の一部を振動させて伝わる振動音を前記筐体の第2面から発生させると共に、前記操作部が操作されると、前記振動音に関する所定の制御を行う制御部と
     を備える電子機器。
  2.  前記制御部は、前記操作部が操作された場合に、前記振動音を発生させているか否かによって、異なる制御を行う請求項1に記載の電子機器。
  3.  前記筐体の前記第2面に前記人体の一部が接触しているか否かを検出する検出部をさらに備え、
     前記制御部は、前記操作部が操作された場合に、前記第2面に前記人体の一部が接触しているか否かによって、異なる制御を行う請求項1に記載の電子機器。
  4.  前記操作部は、タッチスクリーンである請求項1に記載の電子機器。
  5.  前記制御部は、前記タッチスクリーンの検出領域のうち、予め決められた領域内で前記タッチスクリーンが操作されると、前記所定の制御を行う請求項4に記載の電子機器。
  6.  前記制御部は、前記操作部に対して行われる操作の種類、方向、距離、時間、速度、加速度、および回数の少なくとも1つに応じて、異なる制御を行う請求項1に記載の電子機器。
  7.  前記制御は、音量、音質、再生方向、再生速度、および再生順序の少なくとも1つに関する制御を含む請求項1に記載の電子機器。
  8.  前記制御部は、前記圧電素子の変形に基づいて、気導音および前記振動音を前記筐体の第2面から発生させると共に、前記操作部が操作されると、前記気導音および前記振動音に関する所定の制御を行う請求項1に記載の電子機器。
  9.  前記筐体の前記第1面に設けられる第1ディスプレイをさらに備え、
     前記制御部は、前記操作部が操作されると、前記振動音として出力される情報に関する制御を変更する請求項1に記載の電子機器。
  10.  前記第1ディスプレイは、前記第1面に表示領域を有し、前記情報に関連するオブジェクトを少なくとも前記表示領域の一部に表示し、
     前記制御部は、前記操作部に対して、前記オブジェクトに対応する操作が行われると、前記情報に関する制御を変更する請求項9に記載の電子機器。
  11.  前記筐体の第2面に設けられる第2操作部と、
     前記第2面に表示領域を有し、前記情報の制御の変更に関する画面を表示する第2ディスプレイとをさらに備え、
     前記オブジェクトは、前記情報に関する制御を変更するための制御領域を含み、
     前記制御部は、前記第1面のうち、前記制御領域に対応する領域において前記操作部が操作されると、前記制御領域への操作が前記第2操作部に行われた場合と同様に、前記情報に関する制御を変更する請求項10に記載の電子機器。
  12.  前記操作部は、前記第1面に対するジェスチャを前記操作として検出し、
     前記制御部は、前記操作部によって検出されるジェスチャに応じて、前記情報に関する制御を変更する請求項9に記載の電子機器。
  13.  前記制御部は、前記操作部によって検出されるジェスチャの種類、方向、速度、加速度、および回数の少なくとも1つに応じて、前記情報に関する制御を変更する請求項12に記載の電子機器。
  14.  前記制御部は、前記圧電素子の変形に基づいて、気導音および前記振動音を前記筐体の第2面から発生させると共に、前記操作部が操作されると、前記気導音および前記振動音として出力される情報に関する制御を変更する請求項9に記載の電子機器。
  15.  前記制御部は、前記操作部が操作されると、前記振動音として出力される情報を他の情報に切り替える請求項1に記載の電子機器。
  16.  前記第2面に設けられ、複数のオブジェクトを表示するディスプレイと、
     前記第2面に設けられ、前記ディスプレイへの前記人体の一部の接触を検出する検出部とをさらに備え、
     前記制御部は、前記ディスプレイに前記人体の一部が接触した場合に、前記複数のオブジェクトのうち、前記接触の位置又は領域に基づいて特定されるオブジェクトに関する情報を前記振動音として出力させる請求項15に記載の電子機器。
  17.  前記操作部は、前記第1面に対するジェスチャを検出し、
     前記制御部は、前記第1面に対するジェスチャに応じて、前記振動音として出力される情報を他の情報に切り替える請求項15に記載の電子機器。
  18.  前記操作部は、前記第1面において操作が行われた位置を検出し、
     前記制御部は、前記操作部が操作されると、前記振動音として出力される情報を、前記複数のオブジェクトのうち、前記操作が行われた位置に対応する位置に配置されているオブジェクトに関する情報に切り替える請求項16に記載の電子機器。
  19.  前記操作部は、前記第1面において操作が行われた位置を検出し、
     前記制御部は、前記複数のオブジェクトのうちの一のオブジェクトに対応する位置から前記接触の位置又は領域に対応する位置へ移動する操作が前記操作部に行われると、前記振動音として出力される情報を、当該一のオブジェクトに関する情報に切り替える請求項16に記載の電子機器。
  20.  前記操作部は、前記第1面において操作が行われた位置を検出し、
     前記制御部は、一ないし複数の操作が前記操作部に行われ、それぞれの操作の始点から終点までのベクトルを合成することによって得られるベクトルの方向及び長さが、前記複数のオブジェクトのうちの一のオブジェクトから前記接触の位置又は領域までのベクトルの方向及び長さと略一致する場合に、前記振動音として出力される情報を、当該一のオブジェクトに関する情報に切り替える請求項16に記載の電子機器。
  21.  前記制御部は、前記圧電素子の変形に基づいて、気導音および前記振動音を前記筐体の第2面から発生させると共に、前記操作部が操作されると、前記気導音および前記振動音として出力される情報を他の情報に切り替える請求項15に記載の電子機器。
  22.  電子機器の制御方法であって、
     圧電素子を変形させることにより、人体の一部を振動させて伝わる振動音を筐体の一の面から発生させるステップと、
     前記筐体の他の面に設けられる操作部が操作されると、前記振動音に関する所定の制御を行うステップと
     を含む制御方法。
  23.  前記電子機器は、前記他の面にディスプレイを備え、
     前記筐体の他の面に設けられる操作部が操作されると、前記振動音に関する所定の制御を行うステップは、前記振動音として出力される情報に関する制御を変更する請求項22に記載の制御方法。
  24.  前記筐体の他の面に設けられる操作部が操作されると、前記振動音に関する所定の制御を行うステップは、前記振動音として出力される情報を他の情報に切り替える請求項23に記載の制御方法。
  25.  電子機器に、
     圧電素子を変形させることにより、人体の一部を振動させて伝わる振動音を筐体の一の面から発生させるステップと、
     前記筐体の他の面に設けられる操作部が操作されると、前記振動音に関する所定の制御を行うステップと
     を実行させる制御プログラム。
  26.  前記電子機器は、前記他の面にディスプレイを備え、
     前記筐体の他の面に設けられる操作部が操作されると、前記振動音に関する所定の制御を行うステップは、前記振動音として出力される情報に関する制御を変更するステップである請求項25に記載の制御プログラム。
  27.  前記筐体の他の面に設けられる操作部が操作されると、前記振動音に関する所定の制御を行うステップは、前記振動音として出力される情報を他の情報に切り替えるステップである請求項25に記載の制御プログラム。
PCT/JP2013/067736 2012-06-27 2013-06-27 電子機器、制御方法、及び制御プログラム WO2014003148A1 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2012-144730 2012-06-27
JP2012-144593 2012-06-27
JP2012144731A JP2014011512A (ja) 2012-06-27 2012-06-27 電子機器、制御方法、及び制御プログラム
JP2012144730A JP2014011511A (ja) 2012-06-27 2012-06-27 電子機器、制御方法、及び制御プログラム
JP2012-144731 2012-06-27
JP2012144593A JP6242040B2 (ja) 2012-06-27 2012-06-27 電子機器、制御方法、及び制御プログラム

Publications (1)

Publication Number Publication Date
WO2014003148A1 true WO2014003148A1 (ja) 2014-01-03

Family

ID=49783283

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/067736 WO2014003148A1 (ja) 2012-06-27 2013-06-27 電子機器、制御方法、及び制御プログラム

Country Status (1)

Country Link
WO (1) WO2014003148A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014112926A (ja) * 2014-02-07 2014-06-19 Kyocera Corp 電子機器
JP2014123969A (ja) * 2014-02-07 2014-07-03 Kyocera Corp 電子機器
US9197966B2 (en) 2012-05-14 2015-11-24 Kyocera Corporation Electronic device
US9363591B2 (en) 2012-05-21 2016-06-07 Kyocera Corporation Electronic device
CN109086024A (zh) * 2018-07-09 2018-12-25 Oppo广东移动通信有限公司 屏幕发声方法、装置、电子装置及存储介质
EP3442206A1 (en) * 2017-08-10 2019-02-13 LG Electronics Inc. Mobile terminal

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007717A (ja) * 2003-06-02 2004-01-08 Omron Corp 画像入力処理装置
JP2006067049A (ja) * 2004-08-25 2006-03-09 Nec Tokin Corp 複合型スピーカ
JP2011082724A (ja) * 2009-10-06 2011-04-21 Fujitsu Toshiba Mobile Communications Ltd 携帯端末
JP2012109663A (ja) * 2010-11-15 2012-06-07 Sharp Corp 骨伝導受話装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007717A (ja) * 2003-06-02 2004-01-08 Omron Corp 画像入力処理装置
JP2006067049A (ja) * 2004-08-25 2006-03-09 Nec Tokin Corp 複合型スピーカ
JP2011082724A (ja) * 2009-10-06 2011-04-21 Fujitsu Toshiba Mobile Communications Ltd 携帯端末
JP2012109663A (ja) * 2010-11-15 2012-06-07 Sharp Corp 骨伝導受話装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9197966B2 (en) 2012-05-14 2015-11-24 Kyocera Corporation Electronic device
US9363591B2 (en) 2012-05-21 2016-06-07 Kyocera Corporation Electronic device
JP2014112926A (ja) * 2014-02-07 2014-06-19 Kyocera Corp 電子機器
JP2014123969A (ja) * 2014-02-07 2014-07-03 Kyocera Corp 電子機器
EP3442206A1 (en) * 2017-08-10 2019-02-13 LG Electronics Inc. Mobile terminal
US10574803B2 (en) 2017-08-10 2020-02-25 Lg Electronics Inc. Mobile terminal
CN109086024A (zh) * 2018-07-09 2018-12-25 Oppo广东移动通信有限公司 屏幕发声方法、装置、电子装置及存储介质
CN109086024B (zh) * 2018-07-09 2021-09-14 Oppo广东移动通信有限公司 屏幕发声方法、装置、电子装置及存储介质

Similar Documents

Publication Publication Date Title
JP6017828B2 (ja) 電子機器、制御方法、及び制御プログラム
JP6121517B2 (ja) 装置
WO2014003148A1 (ja) 電子機器、制御方法、及び制御プログラム
WO2013164999A1 (ja) 電子機器、制御方法及び制御プログラム
WO2013164980A1 (ja) 電子機器、制御方法、及び制御プログラム
EP2560352B1 (en) Mobile terminal and vibration method thereof
JP2009131740A (ja) 振動体、入力装置および電子機器
KR20170140702A (ko) 이동 단말기
EP3462718A1 (en) Mobile terminal
JP6242040B2 (ja) 電子機器、制御方法、及び制御プログラム
JP5865774B2 (ja) 電子機器、制御方法及び制御プログラム
JP2006065507A (ja) 振動伝達機構、振動波形データ作成方法、触覚機能付き入力装置及び電子機器
JP6067999B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2014011512A (ja) 電子機器、制御方法、及び制御プログラム
JP2013232853A (ja) 電子機器、制御方法、及び制御プログラム
JP6000642B2 (ja) 電子機器
JP6099320B2 (ja) 電子機器、制御方法及び制御プログラム
JP2014011511A (ja) 電子機器、制御方法、及び制御プログラム
JP2013236139A (ja) 電子機器、制御方法、及び制御プログラム
JP2014082674A (ja) 電子機器、制御方法及び制御プログラム
JP6017829B2 (ja) 電子機器
JP2014007444A (ja) 電子機器、制御方法及び制御プログラム
JP6110078B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2013242803A (ja) 電子機器
JP2013242806A (ja) 電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13810484

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13810484

Country of ref document: EP

Kind code of ref document: A1