JP2013236136A - Electronic apparatus, control method, and control program - Google Patents

Electronic apparatus, control method, and control program Download PDF

Info

Publication number
JP2013236136A
JP2013236136A JP2012105521A JP2012105521A JP2013236136A JP 2013236136 A JP2013236136 A JP 2013236136A JP 2012105521 A JP2012105521 A JP 2012105521A JP 2012105521 A JP2012105521 A JP 2012105521A JP 2013236136 A JP2013236136 A JP 2013236136A
Authority
JP
Japan
Prior art keywords
sound
panel
image content
human body
generation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012105521A
Other languages
Japanese (ja)
Other versions
JP5865774B2 (en
Inventor
Tomohiro Sudo
智浩 須藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012105521A priority Critical patent/JP5865774B2/en
Publication of JP2013236136A publication Critical patent/JP2013236136A/en
Application granted granted Critical
Publication of JP5865774B2 publication Critical patent/JP5865774B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable a user to easily recognize a specific sound from among multiple output sounds.SOLUTION: In one embodiment, an electronic apparatus (for example, a portable phone 1A) includes: a piezoelectric element; a sound generation part that is vibrated by the piezoelectric element and generates air conduction sounds and vibration sounds transmitted by vibrating a part of a human body; a display on which a screen of image contents including sounds is reproduced and displayed; and a detection part detecting a contact position of the part of the human body with the sound generation part. The sound generation part generates sounds that are included in the image contents and is assigned to a position on the screen corresponding to the contact position in a case where the contact of the part of the human body with the sound generation part is detected when the image contents are reproduced on the display.

Description

本出願は、電子機器、制御方法及び制御プログラムに関する。   The present application relates to an electronic device, a control method, and a control program.

特許文献1には、気導音と振動音とを利用者に伝える電子機器が記載されている。特許文献1には、電子機器の筺体の外面に配置される振動体の圧電素子に電圧が印加されると、圧電素子が伸縮することにより振動体が屈曲振動することが記載されている。また、特許文献1には、利用者が屈曲振動する振動体を耳介に接触させると、気導音と振動音とが利用者に伝えられることが記載されている。特許文献1によれば、気導音とは、物体の振動に起因する空気の振動が外耳道を通って鼓膜に伝わり、鼓膜が振動することによって利用者の聴覚神経に伝わる音である。また、特許文献1によれば、振動音とは、振動する物体に接触する利用者の体の一部(例えば外耳の軟骨)を介して利用者の聴覚神経に伝わる音である。   Patent Document 1 describes an electronic device that transmits air conduction sound and vibration sound to a user. Patent Document 1 describes that when a voltage is applied to a piezoelectric element of a vibrating body arranged on the outer surface of a housing of an electronic device, the vibrating body flexes and vibrates due to expansion and contraction of the piezoelectric element. Further, Patent Document 1 describes that when a user brings a vibrating body that flexes and vibrates into contact with the auricle, air conduction sound and vibration sound are transmitted to the user. According to Patent Document 1, air conduction sound is sound that is transmitted to the eardrum through the ear canal through the vibration of the air due to the vibration of the object, and is transmitted to the user's auditory nerve by the vibration of the eardrum. According to Patent Document 1, the vibration sound is a sound transmitted to the user's auditory nerve through a part of the user's body (for example, cartilage of the outer ear) that contacts the vibrating object.

特開2005−348193号公報JP 2005-348193 A

ところで、一般的に、電子機器では、動画コンテンツなどの映像を再生する場合に、再生する映像に合わせて、複数(複数チャンネル)の音を出力するものである場合、利用者が、出力される複数の音の中から特定の音を聴きたいというニーズがある。   By the way, in general, in an electronic device, when playing back video such as moving image content, if a plurality of (multiple channels) sounds are output in accordance with the video to be played back, a user is output. There is a need to listen to a specific sound from multiple sounds.

1つの態様に係る電子機器は、圧電素子と、前記圧電素子によって振動し、気導音と、人体の一部を振動させて伝わる振動音とを発生させる音発生部と、音を含む画像コンテンツの画面が再生表示されるディスプレイと、前記音発生部に対する前記人体の一部の接触位置を検出する検出部と、を備え、前記画像コンテンツを前記ディスプレイに再生しているときに前記音発生部に対する前記人体の一部の接触が検出されると、前記音発生部は、前記画像コンテンツに含まれる音であって前記接触位置に対応する前記画面上の位置に対応付けられている音を発生させる。   An electronic apparatus according to one aspect includes a piezoelectric element, a sound generating unit that generates vibration sound transmitted by vibrating a part of a human body by vibrating by the piezoelectric element, and image content including sound. A display on which the screen is reproduced and displayed, and a detection unit that detects a contact position of a part of the human body with respect to the sound generation unit, and the sound generation unit when the image content is reproduced on the display When a partial contact of the human body is detected, the sound generation unit generates a sound that is included in the image content and that is associated with a position on the screen that corresponds to the contact position Let

1つの態様に係る制御方法は、圧電素子と、前記圧電素子によって振動し、気導音と、人体の一部を振動させて伝わる振動音とを発生させる音発生部と、音を含む画像コンテンツの画面が再生表示されるディスプレイと、前記音発生部に対する前記人体の一部の接触位置を検出する検出部とを備える電子機器によって実行される制御方法であって、前記画像コンテンツを前記ディスプレイに再生しているときに前記音発生部に対する前記人体の一部の接触が検出されると、前記画像コンテンツに含まれる音であって前記接触位置に対応する前記画面上の位置に対応付けられている音を前記音発生部により発生させるステップを含む。   A control method according to one aspect includes a piezoelectric element, a sound generating unit that generates vibration sound transmitted by vibrating a part of a human body by vibrating by the piezoelectric element, and image content including sound. A control method executed by an electronic device comprising a display on which a screen of the above is reproduced and a detection unit that detects a contact position of a part of the human body with respect to the sound generation unit, wherein the image content is displayed on the display. If a partial contact of the human body with the sound generation unit is detected during reproduction, the sound is included in the image content and is associated with a position on the screen corresponding to the contact position. Generating a sound generated by the sound generator.

1つの態様に係る制御プログラムは、圧電素子と、前記圧電素子によって振動し、気導音と、人体の一部を振動させて伝わる振動音とを発生させる音発生部と、音を含む画像コンテンツの画面が再生表示されるディスプレイと、前記音発生部に対する前記人体の一部の接触位置を検出する検出部とを備える電子機器に、前記画像コンテンツを前記ディスプレイに再生しているときに前記音発生部に対する前記人体の一部の接触が検出されると、前記画像コンテンツに含まれる音であって前記接触位置に対応する前記画面上の位置に対応付けられている音を前記音発生部により発生させるステップを実行させる。   A control program according to one aspect includes a piezoelectric element, a sound generator that vibrates by the piezoelectric element, generates a sound that is transmitted by vibrating a part of a human body, and image content including sound. When the image content is being reproduced on the display, the electronic device includes a display on which the screen is reproduced and displayed and a detection unit that detects a contact position of a part of the human body with respect to the sound generation unit. When a contact of a part of the human body with the generation unit is detected, a sound that is included in the image content and that is associated with a position on the screen corresponding to the contact position is detected by the sound generation unit. The step to be generated is executed.

図1は、実施形態に係る携帯電話の正面図である。FIG. 1 is a front view of a mobile phone according to an embodiment. 図2は、携帯電話の背面図である。FIG. 2 is a rear view of the mobile phone. 図3は、実施形態に係る携帯電話の断面図である。FIG. 3 is a cross-sectional view of the mobile phone according to the embodiment. 図4は、パネルの形状の例を示す図である。FIG. 4 is a diagram illustrating an example of the shape of the panel. 図5は、パネルの振動の例を示す図である。FIG. 5 is a diagram showing an example of panel vibration. 図6は、実施形態に係る携帯電話のブロック図である。FIG. 6 is a block diagram of the mobile phone according to the embodiment. 図7は、アウトカメラにより撮影中の動画がディスプレイに表示された状態の一例を示す図である。FIG. 7 is a diagram illustrating an example of a state in which a moving image being shot by the out camera is displayed on the display. 図8は、設定データに記憶される座標値の一例を示す図である。FIG. 8 is a diagram illustrating an example of coordinate values stored in the setting data. 図9は、動画コンテンツを再生しているときにパネルに対する利用者の耳の接触を検出した場合に、パネルに接触する耳の位置に対応する画面上の位置の近傍に対応付けられている音を強調して出力する携帯電話の処理の概要を示す図である。FIG. 9 shows the sound associated with the vicinity of the position on the screen corresponding to the position of the ear in contact with the panel when the contact of the user's ear with the panel is detected while playing the moving image content. It is a figure which shows the outline | summary of the process of the mobile telephone which emphasizes and outputs. 図10は、動画撮影時に、入力された複数の音の発信点とみなせる動画像上の位置に対応する画面上の座標値を格納する処理手順の一例を示す図である。FIG. 10 is a diagram illustrating an example of a processing procedure for storing coordinate values on a screen corresponding to positions on a moving image that can be regarded as transmission points of a plurality of input sounds during moving image shooting. 図11は、動画コンテンツを再生しているときにパネルに対する利用者の耳の接触を検出した場合に、パネルに接触する耳の位置に対応する画面上の位置の近傍に対応付けられている音を強調して出力する処理手順の一例を示す図である。FIG. 11 shows the sound associated with the vicinity of the position on the screen corresponding to the position of the ear in contact with the panel when the contact of the user's ear with the panel is detected while playing the moving image content. It is a figure which shows an example of the process sequence which emphasizes and outputs. 図12は、利用者の耳がパネルに接触するときの押圧の大きさに応じて、耳の接触位置の近傍を音源とする音を強調して出力する携帯電話の処理の概要を示す図である。FIG. 12 is a diagram illustrating an outline of processing of a mobile phone that emphasizes and outputs a sound having a sound source in the vicinity of the contact position of the ear according to the magnitude of the pressure when the user's ear contacts the panel. is there. 図13は、利用者の耳がパネルに接触するときの押圧の大きさに応じて、耳の接触位置の近傍を音源とする音を強調して出力する処理手順の一例を示す図である。FIG. 13 is a diagram illustrating an example of a processing procedure for emphasizing and outputting a sound having a sound source in the vicinity of the contact position of the ear according to the amount of pressing when the user's ear contacts the panel. 図14は、利用者の耳とパネルとが接触しているときの、耳とパネルとの位置関係の一例を示す図である。FIG. 14 is a diagram illustrating an example of a positional relationship between the ear and the panel when the user's ear and the panel are in contact with each other. 図15は、耳とパネルとが図14に示す位置関係にあるときに、音が出力される動画コンテンツ上の領域を示す図である。FIG. 15 is a diagram showing an area on the moving image content where sound is output when the ear and the panel are in the positional relationship shown in FIG. 図16は、実施形態5に係る携帯電話の正面図である。FIG. 16 is a front view of the mobile phone according to the fifth embodiment. 図17は、図16に示す携帯電話のc−c線断面図である。17 is a cross-sectional view taken along line cc of the mobile phone shown in FIG. 図18は、実施形態6に係る携帯電話の正面図である。FIG. 18 is a front view of a mobile phone according to the sixth embodiment. 図19は、図18に示す携帯電話のd−d線断面図である。19 is a cross-sectional view of the mobile phone shown in FIG. 18 taken along the line dd. 図20は、補強部材による周波数特性の変化例を示す図である。FIG. 20 is a diagram illustrating a change example of the frequency characteristic due to the reinforcing member.

本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、気導音と振動音とを利用者に伝える電子機器の例として、携帯電話について説明する。   Embodiments for carrying out the present invention will be described in detail with reference to the drawings. Hereinafter, a mobile phone will be described as an example of an electronic device that transmits air conduction sound and vibration sound to a user.

(実施形態1)
図1、図2及び図3を参照しながら、実施形態に係る携帯電話1Aの全体的な構成について説明する。図1は、携帯電話1Aの正面図である。図2は、携帯電話1Aの背面図である。図3は、携帯電話1Aのa−a断面を模式的に示す断面図である。図1、図2及び図3に示すように、携帯電話1Aは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、圧電素子7と、第1マイク8aと、第2マイク8bと、第3マイク8cと、スピーカ11と、インカメラ12と、アウトカメラ13と、パネル20と、筐体40とを備える。
(Embodiment 1)
With reference to FIGS. 1, 2, and 3, the overall configuration of the mobile phone 1 </ b> A according to the embodiment will be described. FIG. 1 is a front view of the mobile phone 1A. FIG. 2 is a rear view of the mobile phone 1A. FIG. 3 is a cross-sectional view schematically showing an aa cross section of the mobile phone 1A. As shown in FIGS. 1, 2, and 3, the mobile phone 1A includes a display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a piezoelectric element 7, a first microphone 8a, and a second microphone. 8b, a third microphone 8c, a speaker 11, an in camera 12, an out camera 13, a panel 20, and a housing 40.

ディスプレイ2は、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2は、文字、画像、記号、及び図形等を表示する。   The display 2 is a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display). The display 2 displays characters, images, symbols, graphics, and the like.

ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、図1及び図3に示す例に限定されない。   The button 3 receives an operation input from the user. The number of buttons 3 is not limited to the example shown in FIGS.

照度センサ4は、携帯電話1Aの周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2の輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2が顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。   The illuminance sensor 4 detects the illuminance of ambient light of the mobile phone 1A. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2, for example. The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the display 2 is brought close to the face. The illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.

圧電素子7は、電気信号(音信号に応じた電圧)が印加されると、構成材料の電気機械結合係数に従い伸縮又は屈曲する。すなわち、圧電素子7は、電気信号が印加されると変形する。圧電素子7は、パネル20に取り付けられ、パネル20を振動させるための振動源として用いられる。圧電素子7は、例えば、セラミック又は水晶を用いて形成される。圧電素子7は、ユニモルフ、バイモルフ、又は積層型圧電素子であってよい。積層型圧電素子には、バイモルフを積層した(例えば16層又は24層積層した)積層型バイモルフ素子が含まれる。積層型の圧電素子は、例えば、PZT(チタン酸ジルコン酸鉛)からなる複数の誘電体層と、該複数の誘電体層間に配設された電極層との積層構造体から構成される。ユニモルフは、電気信号(電圧)が印加されると伸縮する。バイモルフは、電気信号(電圧)が印加されると屈曲する。   When an electric signal (voltage corresponding to a sound signal) is applied, the piezoelectric element 7 expands or contracts or bends according to the electromechanical coupling coefficient of the constituent material. That is, the piezoelectric element 7 is deformed when an electric signal is applied. The piezoelectric element 7 is attached to the panel 20 and used as a vibration source for vibrating the panel 20. The piezoelectric element 7 is formed using, for example, ceramic or quartz. The piezoelectric element 7 may be a unimorph, bimorph, or multilayer piezoelectric element. The multilayer piezoelectric element includes a multilayer bimorph element in which bimorphs are stacked (for example, 16 layers or 24 layers are stacked). The multilayer piezoelectric element is composed of, for example, a multilayer structure including a plurality of dielectric layers made of PZT (lead zirconate titanate) and electrode layers disposed between the plurality of dielectric layers. A unimorph expands and contracts when an electrical signal (voltage) is applied. A bimorph bends when an electrical signal (voltage) is applied.

第1マイク8aは、所定の角度を付けて水平方向に配置された複数の単一指向性マイクカプセルを有するマイクロフォンユニットであり、アウトカメラ13の撮影方向から到来する水平方向の音を主に入力する。例えば、携帯電話1Aの姿勢を図1に示す状態で維持しつつ、アウトカメラ13を起動して撮影を開始した場合、第1マイク8aは、撮影方向の右側又は左側から到来する音を入力する。   The first microphone 8a is a microphone unit having a plurality of unidirectional microphone capsules arranged at a predetermined angle in the horizontal direction, and mainly inputs horizontal sound coming from the shooting direction of the out-camera 13. To do. For example, when shooting is started by starting the out-camera 13 while maintaining the posture of the mobile phone 1A as shown in FIG. 1, the first microphone 8a inputs sound coming from the right side or the left side in the shooting direction. .

第2マイク8bは、所定の角度を付けて垂直方向に配置された複数の単一指向性マイクカプセルを有するマイクロフォンユニットであり、アウトカメラ13の撮影方向から到来する垂直方向の音を主に入力する。例えば、携帯電話1Aの姿勢を図1に示す状態で維持しつつ、アウトカメラ13を起動して撮影を開始した場合、第2マイク8bは、撮影方向の上側又は下側から到来する音を入力する。   The second microphone 8b is a microphone unit having a plurality of unidirectional microphone capsules arranged at a predetermined angle in the vertical direction, and mainly inputs vertical sound coming from the shooting direction of the out-camera 13. To do. For example, when shooting is started by starting the out-camera 13 while maintaining the posture of the mobile phone 1A in the state shown in FIG. 1, the second microphone 8b inputs sound coming from above or below the shooting direction. To do.

第3マイク8cは、例えば、通話時に、利用者から発せられる音声を入力する入力部である。例えば、第1マイク8a、第2マイク8b及び第3マイク8cは、入力される音を電気信号へ変換して、後述するコントローラ10に送り出す。   The third microphone 8c is an input unit that inputs a voice uttered from the user, for example, during a call. For example, the first microphone 8a, the second microphone 8b, and the third microphone 8c convert the input sound into an electrical signal and send it to the controller 10 described later.

スピーカ11は、気導方式で音を出力する音出力部である。スピーカ11は、例えば、ダイナミックスピーカであり、電気信号を変換した音を、耳を携帯電話1Aに接触させていない人へも伝えることができる。スピーカ11は、例えば、動画コンテンツの再生中の音を出力したり、音楽を出力したりするために用いられる。   The speaker 11 is a sound output unit that outputs sound by an air conduction method. The speaker 11 is a dynamic speaker, for example, and can transmit a sound obtained by converting an electric signal to a person whose ear is not in contact with the mobile phone 1A. The speaker 11 is used, for example, for outputting sound during reproduction of moving image content or outputting music.

インカメラ12は、ディスプレイ2に面している物体を撮影するカメラである。アウトカメラ13は、ディスプレイ2とは反対側に面している物体などを撮影するカメラである。インカメラ12及びアウトカメラ13は、撮影した画像を電気信号へ変換する。   The in camera 12 is a camera that photographs an object facing the display 2. The out camera 13 is a camera that photographs an object or the like facing away from the display 2. The in-camera 12 and the out-camera 13 convert the captured image into an electrical signal.

パネル20は、圧電素子7の変形(伸縮又は屈曲)にともなって振動し、利用者がパネル20に接触させる耳の軟骨(耳介軟骨)等にその振動を音振動として伝える。パネル20は、音発生部の一例である。パネル20は、ディスプレイ2及び圧電素子7等を外力から保護する機能も有する。パネル20は、例えば、ガラス、又はアクリル等の合成樹脂により形成される。パネル20の形状は、例えば、板状である。パネル20は、平板であってよい。パネル20は、表面が滑らかに湾曲する曲面パネルであってもよい。   The panel 20 vibrates as the piezoelectric element 7 deforms (expands or bends), and transmits the vibration as sound vibration to an ear cartilage (auricular cartilage) or the like that the user contacts with the panel 20. The panel 20 is an example of a sound generator. The panel 20 also has a function of protecting the display 2 and the piezoelectric element 7 from external force. The panel 20 is formed by synthetic resins, such as glass or an acryl, for example. The shape of the panel 20 is, for example, a plate shape. The panel 20 may be a flat plate. The panel 20 may be a curved panel whose surface is smoothly curved.

パネル20の背面には、接合部材30により、ディスプレイ2と、圧電素子7とが取り付けられる。圧電素子7は、パネル20の背面に配置された状態で、筺体40の内表面と所定の距離だけ離間している。圧電素子7は、伸縮または屈曲した状態でも、筺体60の内表面と離間しているとよい。すなわち、圧電素子7と筺体40の内表面との間の距離は、圧電素子7の最大変形量よりも大きいとよい。圧電素子7は、補強部材(例えば、板金又はガラス繊維強化樹脂)を介してパネル20に取り付けられてもよい。接合部材30は、例えば、両面テープ、又は熱硬化性あるいは紫外線硬化性等を有する接着剤である。接合部材30は、無色透明のアクリル系紫外線硬化型接着剤である光学弾性樹脂でもよい。   The display 2 and the piezoelectric element 7 are attached to the back surface of the panel 20 by a joining member 30. The piezoelectric element 7 is spaced from the inner surface of the housing 40 by a predetermined distance while being arranged on the back surface of the panel 20. The piezoelectric element 7 may be separated from the inner surface of the housing 60 even in a stretched or bent state. That is, the distance between the piezoelectric element 7 and the inner surface of the housing 40 is preferably larger than the maximum deformation amount of the piezoelectric element 7. The piezoelectric element 7 may be attached to the panel 20 via a reinforcing member (for example, sheet metal or glass fiber reinforced resin). The joining member 30 is, for example, a double-sided tape or an adhesive having thermosetting property or ultraviolet curable property. The joining member 30 may be an optical elastic resin that is a colorless and transparent acrylic ultraviolet curable adhesive.

ディスプレイ2は、パネル20の短手方向におけるほぼ中央に配設される。圧電素子7は、パネル20の長手方向の端部から所定の距離だけ離間した近傍に、圧電素子7の長手方向がパネル20の短手方向と平行になるように配設される。ディスプレイ2及び圧電素子7は、パネル20の内側の面に、平行に並べて配設される。   The display 2 is disposed approximately in the center of the panel 20 in the short direction. The piezoelectric element 7 is disposed in the vicinity of a predetermined distance from the longitudinal end of the panel 20 so that the longitudinal direction of the piezoelectric element 7 is parallel to the lateral direction of the panel 20. The display 2 and the piezoelectric element 7 are arranged in parallel on the inner surface of the panel 20.

パネル20の外側の面のほぼ全面には、タッチスクリーン(タッチセンサ)21が配設される。タッチスクリーン21は、パネル20に対する接触を検出する。タッチスクリーン21は、指、ペン、又はスタイラスペン等による利用者の接触操作を検出するために用いられる。タッチスクリーン21を用いて検出されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。タッチスクリーン21の検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。   A touch screen (touch sensor) 21 is disposed on almost the entire outer surface of the panel 20. The touch screen 21 detects contact with the panel 20. The touch screen 21 is used to detect a user's contact operation with a finger, pen, stylus pen, or the like. The gestures detected using the touch screen 21 include, but are not limited to, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out. The detection method of the touch screen 21 may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method.

タッチスクリーン21は、音を聞くためにパネル20に接触する耳介軟骨等を検出するためにも用いられる。   The touch screen 21 is also used to detect auricular cartilage or the like that contacts the panel 20 in order to hear sound.

筐体40は、樹脂又は金属を用いて形成される。筐体40は、ボタン3、照度センサ4、近接センサ5、第1マイク8a、第2マイク8b、第3マイク8c、スピーカ11、カメラ12、およびパネル20等を支持する。   The housing 40 is formed using resin or metal. The housing 40 supports the button 3, the illuminance sensor 4, the proximity sensor 5, the first microphone 8a, the second microphone 8b, the third microphone 8c, the speaker 11, the camera 12, the panel 20, and the like.

図1から図5を参照しながら、実施形態に係る携帯電話1Aによる音の出力についてより詳細に説明する。図4は、パネル20の形状の例を示す図である。図5は、パネル20の振動の例を示す図である。   The sound output by the mobile phone 1A according to the embodiment will be described in more detail with reference to FIGS. FIG. 4 is a diagram illustrating an example of the shape of the panel 20. FIG. 5 is a diagram illustrating an example of the vibration of the panel 20.

圧電素子7には、出力する音に応じた電気信号が印加される。圧電素子7には、例えば、外耳道を介する気導音によって音を伝える所謂パネルスピーカの印加電圧である±5Vよりも高い、±15Vが印加されてもよい。これにより、利用者が、例えば、3N以上の力(5N〜10Nの力)でパネル20に自身の体の一部を押し付けた場合であっても、パネル20に十分な振動を発生させ、利用者の体の一部を介して伝わる振動音を発生させることができる。圧電素子7に印加される電圧は、パネル20の筺体40に対する固定強度、又は圧電素子7の性能等に応じて適宜調整可能である。   An electric signal corresponding to the output sound is applied to the piezoelectric element 7. For example, ± 15 V higher than ± 5 V, which is an applied voltage of a so-called panel speaker that transmits sound by air conduction sound through the ear canal, may be applied to the piezoelectric element 7. Thereby, even when the user presses a part of his / her body against the panel 20 with a force of 3N or more (5N to 10N force), for example, the panel 20 generates sufficient vibration and is used. Vibration sound transmitted through a part of the person's body can be generated. The voltage applied to the piezoelectric element 7 can be appropriately adjusted according to the fixing strength of the panel 20 with respect to the housing 40 or the performance of the piezoelectric element 7.

電気信号が印加されると、圧電素子7は長手方向に伸縮又は屈曲する。圧電素子7が取り付けられたパネル20は、圧電素子7の伸縮又は屈曲に合わせて変形する。これにより、パネル20は、振動し、気導音を発生させる。さらに、利用者が体の一部(例えば、耳介軟骨)をパネル20に接触させた場合、パネル20は、体の一部を介して利用者に伝導する振動音を発生させる。すなわち、パネル20は、圧電素子7の変形にともなって、パネル20に接触する物体に対して振動音として知覚される周波数で振動する。   When an electric signal is applied, the piezoelectric element 7 expands or contracts in the longitudinal direction. The panel 20 to which the piezoelectric element 7 is attached is deformed in accordance with expansion / contraction or bending of the piezoelectric element 7. Thereby, the panel 20 vibrates and generates air conduction sound. Further, when the user brings a part of the body (for example, auricular cartilage) into contact with the panel 20, the panel 20 generates vibration sound that is transmitted to the user through the part of the body. That is, as the piezoelectric element 7 is deformed, the panel 20 vibrates at a frequency that is perceived as vibration sound with respect to an object that contacts the panel 20.

例えば、圧電素子7に、通話の相手の音声、又は着信音、音楽等の音データに応じた電気信号が印加されると、パネル20は、電気信号に対応する気導音及び振動音を発生させる。圧電素子7及びパネル20を介して出力される音信号は、後述するストレージ9に記憶されている音データに基づくものであってよい。圧電素子7及びパネル20を介して出力される音信号は、外部のサーバ等に記憶され、後述する通信ユニット6によりネットワークを介して取得される音データに基づくものであってもよい。   For example, when an electric signal corresponding to the voice of the other party of the call or sound data such as a ring tone or music is applied to the piezoelectric element 7, the panel 20 generates air conduction sound and vibration sound corresponding to the electric signal. Let The sound signal output via the piezoelectric element 7 and the panel 20 may be based on sound data stored in the storage 9 described later. The sound signal output via the piezoelectric element 7 and the panel 20 may be based on sound data stored in an external server or the like and acquired via the network by the communication unit 6 described later.

本実施形態において、パネル20は、利用者の耳とほぼ同じ大きさであってよい。また、パネル20は、図4に示すように、利用者の耳よりも大きなサイズであってもよい。この場合、利用者は、音を聞くときに耳の外周部のほぼ全体をパネル20に接触させることができる。このようにして音を聞くことにより、周囲音(ノイズ)が外耳道に入り難くなる。本実施形態では、少なくとも、パネル20は、人間の対耳輪下脚(下対輪脚)から対耳珠までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から対耳輪までの間の距離に相当する短手方向(又は長手方向)の長さとを有する領域よりも広い領域が振動する。パネル20は、耳輪における対耳輪上脚(上対輪脚)近傍の部位から耳垂までの間の距離に相当する長手方向(又は短手方向)の長さと、耳珠から耳輪における対耳輪近傍の部位までの間の距離に相当する短手方向(又は長手方向)の長さを有する領域が振動してもよい。上記の長さおよび幅を有する領域は、長方形状の領域であってもよいし、上記の長手方向の長さを長径、上記の短手方向の長さを短径とする楕円形状であってもよい。人間の耳の平均的な大きさは、例えば、社団法人 人間生活工学研究センター(HQL)作成の日本人の人体寸法データベース(1992−1994)等を参照すれば知ることができる。   In the present embodiment, the panel 20 may be approximately the same size as the user's ear. The panel 20 may be larger than the user's ear, as shown in FIG. In this case, the user can bring the entire outer periphery of the ear into contact with the panel 20 when listening to the sound. Listening to the sound in this way makes it difficult for ambient sounds (noise) to enter the ear canal. In the present embodiment, at least the panel 20 has a length in the longitudinal direction (or short direction) corresponding to the distance between the lower leg of the anti-annulus (lower anti-annular leg) and the anti-tragus, and the pair of the panel 20 from the tragus. A region wider than a region having a length in the short direction (or the longitudinal direction) corresponding to the distance to the ear ring vibrates. The panel 20 has a length in the longitudinal direction (or short direction) corresponding to the distance from the region near the upper leg of the ear ring (upper pair leg) in the ear ring to the earlobe, and the vicinity of the ear ring in the ear ring from the tragus. A region having a length in the short direction (or the longitudinal direction) corresponding to the distance to the part may vibrate. The region having the above length and width may be a rectangular region, or an elliptical shape in which the length in the longitudinal direction is the major axis and the length in the lateral direction is the minor axis. Also good. The average size of the human ear can be known, for example, by referring to the Japanese human body size database (1992-1994) created by the Human Life Engineering Research Center (HQL).

図5に示すように、パネル20は、圧電素子7が取り付けられた取付領域20aだけでなく、取付領域20aから離れた領域も振動する。パネル20は、振動する領域において、当該パネル20の主面と交差する方向に振動する箇所を複数有し、当該複数の箇所の各々において、振動の振幅の値が、時間とともにプラスからマイナスに、あるいはその逆に変化する。パネル20は、それぞれの瞬間において、振動の振幅が相対的に大きい部分と振動の振幅が相対的に小さい部分とがパネル20の略全体に一見ランダム又は規則的に分布した振動をする。すなわち、パネル20全域にわたって、複数の波の振動が検出される。上記のように圧電素子7に対して印加される電圧が±15Vであれば、利用者が例えば5N〜10Nの力で自身の体にパネル20を押し付けた場合であっても、パネル20の上述した振動は減衰しにくい。このため、利用者は、パネル20上の取付領域20aから離れた領域に耳を接触させても、振動音を聞くことができる。   As shown in FIG. 5, the panel 20 vibrates not only in the attachment region 20a to which the piezoelectric element 7 is attached, but also in a region away from the attachment region 20a. The panel 20 has a plurality of locations that vibrate in a direction intersecting the main surface of the panel 20 in the vibrating region, and in each of the plurality of locations, the value of the amplitude of vibration changes from positive to negative with time, Or vice versa. At each moment, the panel 20 vibrates at a seemingly random or regular distribution in a substantially entire portion of the panel 20 with a portion having a relatively large vibration amplitude and a portion having a relatively small vibration amplitude. That is, vibrations of a plurality of waves are detected over the entire panel 20. If the voltage applied to the piezoelectric element 7 is ± 15 V as described above, even if the user presses the panel 20 against his / her body with a force of 5N to 10N, for example, The vibrations that occur are difficult to attenuate. For this reason, even if a user makes an ear contact the area | region away from the attachment area | region 20a on the panel 20, he can hear a vibration sound.

本実施形態では、ディスプレイ2がパネル20に取り付けられている。このため、パネル20の下部(ディスプレイ2が取り付けられている側)は、剛性が上がり、パネル20の上部(圧電素子7が取り付けられている側)と比べて、振動が小さい。このため、パネル20の下部において、パネル20が振動することによる気導音の音漏れが低減される。   In the present embodiment, the display 2 is attached to the panel 20. For this reason, the lower part of the panel 20 (the side on which the display 2 is attached) is increased in rigidity, and the vibration is smaller than the upper part of the panel 20 (the side on which the piezoelectric element 7 is attached). For this reason, the sound leakage of the air conduction sound due to the vibration of the panel 20 in the lower part of the panel 20 is reduced.

携帯電話1Aは、パネル20の振動により、気導音と、利用者の体の一部(例えば耳介軟骨)を介する振動音とを利用者に伝えることができる。そのため、携帯電話1Aは、ダイナミックレシーバと同等の音量の音を出力する場合、空気の振動により携帯電話1Aの周囲へ伝わる音を、ダイナミックスピーカのみを有する電子機器と比較して、少なくすることができる。このような特徴は、例えば、録音されたメッセージを電車内のような近くに他人がいる場所で聞く場合等に好適である。   The cellular phone 1 </ b> A can transmit air conduction sound and vibration sound via a part of the user's body (for example, auricular cartilage) to the user by the vibration of the panel 20. Therefore, when the mobile phone 1A outputs a sound having a volume equivalent to that of the dynamic receiver, the sound transmitted to the surroundings of the mobile phone 1A due to air vibration may be reduced compared to an electronic device having only a dynamic speaker. it can. Such a feature is suitable, for example, when listening to a recorded message in a place where there is another person nearby, such as in a train.

さらに、携帯電話1Aは、パネル20の振動により利用者に振動音を伝える。そのため、利用者は、イヤホン又はヘッドホンを身につけていても、それらに携帯電話1Aを接触させることで、イヤホン又はヘッドホン及び体の一部を介して、パネル20の振動による振動音を聞くことができる。   Furthermore, the mobile phone 1 </ b> A transmits a vibration sound to the user by the vibration of the panel 20. Therefore, even if the user wears the earphone or the headphone, the user can hear the vibration sound due to the vibration of the panel 20 through the earphone or the headphone and a part of the body by bringing the mobile phone 1A into contact therewith. it can.

さらに、携帯電話1Aは、パネル20の振動により音を伝える。そのため、携帯電話1Aが別途ダイナミックレシーバ(例えば、スピーカ11)を備えない場合、パネル20が発する音を外部に伝えるための開口部(放音口)を筐体40に形成する必要がない。このため、防水構造を実現する場合に、構造を簡略化することができる。携帯電話1Aは、ダイナミックスピーカの放音口等の開口部を筐体40に形成する必要がある場合、防水構造を実現するために、気体は通すが液体は通さない部材によって開口部を閉塞する構造を採用してもよい。気体は通すが液体は通さない部材は、例えば、ゴアテックス(登録商標)である。   Furthermore, the mobile phone 1 </ b> A transmits sound by the vibration of the panel 20. Therefore, when the mobile phone 1A does not include a separate dynamic receiver (for example, the speaker 11), it is not necessary to form an opening (sound emission port) in the housing 40 for transmitting the sound generated by the panel 20 to the outside. For this reason, when realizing a waterproof structure, the structure can be simplified. When it is necessary to form an opening such as a sound outlet of a dynamic speaker in the housing 40, the cellular phone 1A closes the opening with a member that allows gas to pass but not liquid to realize a waterproof structure. A structure may be adopted. An example of the member that allows gas to pass but not liquid is Gore-Tex (registered trademark).

図6を参照しながら、携帯電話1Aの機能的な構成について説明する。図6は、携帯電話1Aのブロック図である。図6に示すように、携帯電話1Aは、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、圧電素子7と、第1マイク8aと、第2マイク8bと、第3マイク8cと、ストレージ9と、コントローラ10と、スピーカ11と、インカメラ12と、アウトカメラ13と、姿勢検出ユニット15と、バイブレータ18と、タッチスクリーン21とを備える。   The functional configuration of the mobile phone 1A will be described with reference to FIG. FIG. 6 is a block diagram of the mobile phone 1A. As shown in FIG. 6, the mobile phone 1A includes a display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a piezoelectric element 7, a first microphone 8a, and a second microphone 8b. A third microphone 8 c, a storage 9, a controller 10, a speaker 11, an in-camera 12, an out-camera 13, a posture detection unit 15, a vibrator 18, and a touch screen 21.

通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。   The communication unit 6 communicates wirelessly. The communication method supported by the communication unit 6 is a wireless communication standard. Examples of wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. As cellular phone communication standards, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000, PDC (Personal Digital Cellular, GSM (registered trademark) mmloS). (Personal Handy-phone System). As wireless communication standards, for example, there are WiMAX (Worldwide Interoperability for Microwave Access), IEEE802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (NearCo), etc. The communication unit 6 may support one or more of the communication standards described above.

ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。   The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium. The storage 9 may include a plurality of types of storage media. The storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader. The storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).

ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2に画面を表示させ、タッチスクリーン21によって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, the application displays a screen on the display 2 and causes the controller 10 to execute processing according to the gesture detected by the touch screen 21. The control program is, for example, an OS. The application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.

ストレージ9は、例えば、制御プログラム9A、通話アプリケーション9B、音楽再生アプリケーション9C、動画再生アプリケーション9D、動画コンテンツ9E及び設定データ9Zを記憶する。通話アプリケーション9Bは、無線通信による通話のための通話機能を提供する。音楽再生アプリケーション9Cは、音楽データから音を再生するための音楽再生機能を提供する。動画再生アプリケーション9Dは、動画コンテンツ9Eの動画データから動画及び音を再生するための動画再生機能を提供する。設定データ9Zは、携帯電話1Aの動作に関連する各種の設定及び処理に関する情報を含む。設定データ9Zは、携帯電話1Aの動作に関連する各種の設定及び処理に関する情報として、例えば、動画コンテンツ9Eに含まれる複数の音ごとに、音の発信点とみなすことができる動画コンテンツ9E上の位置に対応する画面上の座標値が含まれる。この座標値は、動画コンテンツ9Eがディスプレイ2に再生表示されたときの画面上の座標値に対応する。   The storage 9 stores, for example, a control program 9A, a call application 9B, a music playback application 9C, a video playback application 9D, video content 9E, and setting data 9Z. The call application 9B provides a call function for a call by wireless communication. The music playback application 9C provides a music playback function for playing back sound from music data. The video playback application 9D provides a video playback function for playing back video and sound from the video data of the video content 9E. The setting data 9Z includes information related to various settings and processes related to the operation of the mobile phone 1A. The setting data 9Z is information on various settings and processes related to the operation of the mobile phone 1A, for example, on the moving image content 9E that can be regarded as a sound transmission point for each of a plurality of sounds included in the moving image content 9E. The coordinate value on the screen corresponding to the position is included. This coordinate value corresponds to the coordinate value on the screen when the moving image content 9E is reproduced and displayed on the display 2.

制御プログラム9Aは、携帯電話1Aを稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、圧電素子7、及び第3マイク8c等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能は、通話アプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。   The control program 9A provides functions related to various controls for operating the mobile phone 1A. The control program 9A realizes a call by controlling the communication unit 6, the piezoelectric element 7, the third microphone 8c, and the like, for example. The function provided by the control program 9A may be used in combination with a function provided by another program such as the call application 9B.

制御プログラム9Aには、例えば、動画撮影時に、第1マイク8a及び第2マイク8bにより入力された複数の音ごとに、第1マイク8a及び第2マイク8bに入力された音の音圧の強弱に基づいて当該音の発信点とみなせる動画像上の位置を絞り込み、絞り込んだ位置に対応する画面上の座標値をストレージ9の設定データ9Zに格納するための機能が含まれる。この座標値は、動画撮影中の映像がディスプレイ2に再生表示されたときの画面上の座標値に対応する。   The control program 9A includes, for example, the strength of sound pressure of sound input to the first microphone 8a and the second microphone 8b for each of a plurality of sounds input from the first microphone 8a and the second microphone 8b during moving image shooting. A function for narrowing down the position on the moving image that can be regarded as the transmission point of the sound based on the above and storing the coordinate value on the screen corresponding to the narrowed position in the setting data 9Z of the storage 9 is included. This coordinate value corresponds to the coordinate value on the screen when the video during moving image shooting is reproduced and displayed on the display 2.

さらに、制御プログラム9Aには、例えば、パネル20に接触する耳の位置を、タッチスクリーン21を用いて検出するための機能が含まれる。   Furthermore, the control program 9 </ b> A includes a function for detecting the position of the ear that contacts the panel 20 using the touch screen 21, for example.

さらに、制御プログラム9Aには、動画コンテンツ9Eをディスプレイ2に再生表示する場合に、動画コンテンツ9Eに含まれる複数の音のうち、パネル20に接触する耳の位置に対応する画面上の位置の近傍に仮想的な音源を有する音を、パネル20を振動させることにより強調して出力するための機能が含まれる。   Further, in the control program 9A, when the moving image content 9E is reproduced and displayed on the display 2, the vicinity of the position on the screen corresponding to the position of the ear that touches the panel 20 among the plurality of sounds included in the moving image content 9E. Includes a function for emphasizing and outputting a sound having a virtual sound source by vibrating the panel 20.

コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、携帯電話1Aの動作を統括的に制御して各種の機能を実現する。   The controller 10 is an arithmetic processing device. The arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto. The controller 10 implements various functions by comprehensively controlling the operation of the mobile phone 1A.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2、通信ユニット6、圧電素子7、マイク8、スピーカ11、及びバイブレータ18を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、ボタン3、照度センサ4、近接センサ5、カメラ12、姿勢検出ユニット15、及びタッチスクリーン21を含むが、これらに限定されない。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement | achieves various functions by it. The functional unit includes, for example, the display 2, the communication unit 6, the piezoelectric element 7, the microphone 8, the speaker 11, and the vibrator 18, but is not limited thereto. The controller 10 may change the control according to the detection result of the detection unit. The detection unit includes, for example, the button 3, the illuminance sensor 4, the proximity sensor 5, the camera 12, the posture detection unit 15, and the touch screen 21, but is not limited thereto.

コントローラ10は、例えば、制御プログラム9Aを実行することにより、動画撮影の実行中に、第1マイク8a及び第2マイク8bにより入力された複数の音の取り込みを開始し、複数の音ごとに、第1マイク8a及び第2マイク8bに入力された音の音圧の強弱に基づいて当該音の発信点とみなせる動画像上の位置を絞り込み、絞り込んだ位置に対応する画面上の座標値をストレージ9の設定データ9Zに格納する処理を実行する。   For example, by executing the control program 9A, the controller 10 starts capturing a plurality of sounds input by the first microphone 8a and the second microphone 8b during moving image shooting, and for each of the plurality of sounds, Based on the strength of the sound pressure of the sound input to the first microphone 8a and the second microphone 8b, the position on the moving image that can be regarded as the transmission point of the sound is narrowed down, and the coordinate value on the screen corresponding to the narrowed position is stored. 9 is stored in the setting data 9Z.

さらに、コントローラ10は、例えば、制御プログラム9Aを実行することにより、パネル20に接触する耳の位置を、タッチスクリーン21を用いて検出する処理を実行する。   Further, the controller 10 executes a process of detecting the position of the ear in contact with the panel 20 using the touch screen 21 by executing the control program 9A, for example.

さらに、コントローラ10は、例えば、制御プログラム9Aを実行することにより、動画コンテンツ9Eを再生しているときにパネル20に接触する利用者の耳が検出された場合に、動画コンテンツ9Eに含まれる複数の音のうち、パネル20に接触する耳の位置に対応する画面上の位置の近傍に対応付けられている音を、パネル20を振動させることにより強調して出力する。例えば、コントローラ10は、設定データ9Zを参照し、動画コンテンツ9Eの音の発信点に対応する画面上の座標値を用いて、パネル20に接触する耳の位置に対応する画面上の位置の近傍に対応付けられている音を特定して、この音を強調して出力する。強調の仕方には、例えば音量を大きくすることが含まれる。   Further, the controller 10, for example, executes a control program 9 </ b> A, and when a user's ear that contacts the panel 20 is detected when the moving image content 9 </ b> E is being reproduced, Among the above sounds, the sound associated with the vicinity of the position on the screen corresponding to the position of the ear in contact with the panel 20 is emphasized and output by vibrating the panel 20. For example, the controller 10 refers to the setting data 9Z, and uses the coordinate value on the screen corresponding to the sound transmission point of the moving image content 9E, in the vicinity of the position on the screen corresponding to the position of the ear touching the panel 20 The sound associated with is identified, and this sound is emphasized and output. The method of emphasizing includes increasing the volume, for example.

姿勢検出ユニット15は、携帯電話1Aの姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。バイブレータ18は、携帯電話1Aの一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータを有する。バイブレータ18による振動は、音を伝えるためではなく、着信等の各種のイベントを利用者に報知するために用いられる。   The posture detection unit 15 detects the posture of the mobile phone 1A. The posture detection unit 15 includes at least one of an acceleration sensor, a direction sensor, and a gyroscope in order to detect the posture. Vibrator 18 vibrates a part or the whole of mobile phone 1A. The vibrator 18 includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration. The vibration generated by the vibrator 18 is used not only to transmit sound but also to notify the user of various events such as incoming calls.

図6においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図6においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。   In FIG. 6, some or all of the programs and data stored in the storage 9 may be downloaded from other devices by wireless communication using the communication unit 6. 6, some or all of the programs and data stored in the storage 9 may be stored in a non-transitory storage medium that can be read by the reading device included in the storage 9. Non-transitory storage media include, for example, optical disks such as CD (registered trademark), DVD (registered trademark), and Blu-ray (registered trademark), magneto-optical disks, magnetic storage media, memory cards, and solid-state storage media Including, but not limited to.

図6に示した携帯電話1Aの構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、携帯電話1Aは、操作のためのボタンとして、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。   The configuration of the mobile phone 1A shown in FIG. 6 is an example, and may be changed as appropriate without departing from the scope of the present invention. For example, the mobile phone 1A may include buttons such as a numeric keypad layout or a QWERTY layout as buttons for operations.

図7及び図8を用いて、例えば、動画撮影時に、第1マイク8a及び第2マイク8bにより入力された複数の音ごとに、第1マイク8a及び第2マイク8bに入力された音の音圧の強弱に基づいて当該音の発信点とみなせる動画像上の位置を絞り込み、絞り込んだ位置に対応する画面上の座標値をストレージ9の設定データ9Zに格納する携帯電話1Aの処理の概要について説明する。   7 and 8, for example, at the time of moving image shooting, for each of a plurality of sounds input by the first microphone 8 a and the second microphone 8 b, the sound of the sound input to the first microphone 8 a and the second microphone 8 b About the outline of the processing of the mobile phone 1A that narrows down the position on the moving image that can be regarded as the transmission point of the sound based on the strength of the pressure, and stores the coordinate value on the screen corresponding to the narrowed position in the setting data 9Z of the storage 9 explain.

図7は、アウトカメラ13により撮影中の動画がディスプレイ2に表示された状態の一例を示す図である。携帯電話1Aは、動画の撮影処理が起動されると、アウトカメラ13により取得された動画像C1をディスプレイ2に表示させ、第1マイク8a及び第2マイク8bにより入力された音の取り込みを開始する。携帯電話1Aは、動画の撮影に伴い、例えば、図7に示すように、CH1(例えば、小鳥のさえずり「ピヨピヨ」)、CH2(例えば、川のせせらぎ「さらさら」)、CH3(例えば、木々のざわめき「ざわざわ」)の3種類の音を取り込む。   FIG. 7 is a diagram illustrating an example of a state in which a moving image being shot by the out camera 13 is displayed on the display 2. When the moving image shooting process is activated, the mobile phone 1A displays the moving image C1 acquired by the out-camera 13 on the display 2, and starts capturing the sound input by the first microphone 8a and the second microphone 8b. To do. When the mobile phone 1A takes a video, for example, as shown in FIG. 7, for example, CH1 (for example, a chirping of a bird “piyopiyo”), CH2 (for example, a river murmur “sarasara”), CH3 (for example, of trees) 3 types of sounds are captured.

続いて、携帯電話1Aは、取り込んだ音ごとに、音の音圧の強弱に基づいて当該音の発信点とみなせる動画像上の位置を絞り込む。例えば、携帯電話1Aは、まず、第1マイク8a及び第2マイク8bが有する単一指向性マイクカプセルのうち、CH1の音の音圧が最大となるマイクカプセルを検出して、音の入力方向を特定する。例えば、第1マイク8a及び第2マイク8bが有するマイクカプセルのうち、撮影方向の左側から到来する音を入力する第1マイク8aのマイクカプセルの音圧が最大となる場合には、CH1の音の入力方向を撮影方向の左側と特定する。あるいは、第1マイク8a及び第2マイク8bが有するマイクカプセルのうち、撮影方向の左側から到来する音を入力する第1マイク8aのマイクカプセルと、撮影方向の下側から到来する音を入力する第2マイク8bのマイクカプセルの音圧が最大となる場合には、CH1の音の入力方向を撮影方向の左下側と特定する。続いて、携帯電話1Aは、特定したCH1の音の入力方向に従って、CH1の音の発信点が、ディスプレイ2に表示された動画像C1の左下半分の領域P1に存在するものと推定する。そして、携帯電話1Aは、この領域P1の中心位置に対応する画面上の座標値を取得し、CH1の音に対応付けて設定データ9Zに格納する。座標値は、例えば、ディスプレイ2に表示される画面の左下の角を原点とするXY座標系の座標値である。   Subsequently, the mobile phone 1A narrows down the positions on the moving image that can be regarded as the transmission point of the sound based on the strength of the sound pressure for each of the captured sounds. For example, the mobile phone 1A first detects a microphone capsule having the maximum sound pressure of the CH1 sound from the unidirectional microphone capsules of the first microphone 8a and the second microphone 8b, and inputs the sound input direction. Is identified. For example, among the microphone capsules of the first microphone 8a and the second microphone 8b, when the sound pressure of the microphone capsule of the first microphone 8a that inputs sound coming from the left side in the shooting direction is maximum, the sound of CH1 Is specified as the left side of the shooting direction. Alternatively, among the microphone capsules of the first microphone 8a and the second microphone 8b, the microphone capsule of the first microphone 8a that inputs sound coming from the left side of the shooting direction and the sound that comes from the lower side of the shooting direction are input. When the sound pressure of the microphone capsule of the second microphone 8b is maximized, the input direction of the sound of CH1 is specified as the lower left side of the shooting direction. Subsequently, the mobile phone 1A estimates that the origin of the CH1 sound is present in the lower left half area P1 of the moving image C1 displayed on the display 2 in accordance with the input direction of the specified CH1 sound. Then, the cellular phone 1A acquires a coordinate value on the screen corresponding to the center position of the region P1, and stores it in the setting data 9Z in association with the sound of CH1. The coordinate value is, for example, a coordinate value in the XY coordinate system with the origin at the lower left corner of the screen displayed on the display 2.

同様にして、携帯電話1Aは、CH2の音の発信点が、ディスプレイ2に表示された動画像C1の左下半分の領域P2に存在するものと推定する。そして、携帯電話1Aは、この領域P2の中心位置に対応する画面上の座標値を取得し、CH2の音に対応付けて設定データ9Zに格納する。   Similarly, the mobile phone 1 </ b> A estimates that the origin of the sound of CH <b> 2 exists in the lower left half area P <b> 2 of the moving image C <b> 1 displayed on the display 2. Then, the cellular phone 1A acquires a coordinate value on the screen corresponding to the center position of the region P2, and stores it in the setting data 9Z in association with the sound of CH2.

同様にして、携帯電話1Aは、CH3の音の発信点が、ディスプレイ2に表示された動画像C1の上半分の領域P3に存在するものと推定する。そして、携帯電話1Aは、この領域P3の中心位置に対応する画面上の座標値を取得し、CH3の音に対応付けて設定データ9Zに格納する。   Similarly, the cellular phone 1A estimates that the CH3 sound transmission point exists in the upper half area P3 of the moving image C1 displayed on the display 2. Then, the cellular phone 1A acquires a coordinate value on the screen corresponding to the center position of the region P3, and stores it in the setting data 9Z in association with the sound of CH3.

図8は、設定データ9Zに記憶される座標値の一例を示す図である。図8に示すように、設定データ9Zには、音検出時間と、音の内訳と、音源の位置とが対応付けて記憶される。音検出時間は、CH1の音の音圧が一定値上であるときの時間であり、例えば、CH1などに対応する音が入力されている時間である。音の内訳は、例えば、動画の撮影に伴って、第1マイク8a及び第2マイク8bにより入力された音の種類である。座標値は、上述した処理の概要のように、第1マイク8a及び第2マイク8bにより入力された音の発信点が含まれるものと推定した動画像C1上の領域の中心位置に対応した画面上の座標値である。図8に示すように、設定データ9Zには、例えば、音検出時間「10時11分20秒〜10時13分20秒」と、音の内訳「CH1(例えば、小鳥の鳴き声)」と、音源の位置に対応する座標値「X,Y」とが対応付けて記憶される。同様に、設定データ9Zには、音検出時間「10時10分20秒〜10時14分20秒」と、音の内訳「CH2(例えば、川のせせらぎ)」と、音源の位置に対応する座標値「X,Y」とが対応付けて記憶される。同様に、設定データ9Zには、音検出時間「10時12分20秒〜10時14分00秒」と、音の内訳「CH3(例えば、木々のざわめき)」と、音源の位置に対応する座標値「X,Y」とが対応付けて記憶される。 FIG. 8 is a diagram illustrating an example of coordinate values stored in the setting data 9Z. As shown in FIG. 8, the setting data 9 </ b> Z stores sound detection time, sound breakdown, and sound source position in association with each other. The sound detection time is the time when the sound pressure of the sound of CH1 is above a certain value, for example, the time when the sound corresponding to CH1 is input. The breakdown of the sound is, for example, the type of sound input by the first microphone 8a and the second microphone 8b when shooting a moving image. The coordinate value is a screen corresponding to the center position of the area on the moving image C1 that is estimated to include the transmission point of the sound input by the first microphone 8a and the second microphone 8b, as in the outline of the processing described above. This is the upper coordinate value. As shown in FIG. 8, the setting data 9Z includes, for example, a sound detection time “10:11:20 to 10:13:20”, a sound breakdown “CH1 (for example, a small bird cry)”, Coordinate values “X 1 , Y 1 ” corresponding to the position of the sound source are stored in association with each other. Similarly, the setting data 9Z corresponds to the sound detection time “10:10:20 to 10:14:20”, the sound breakdown “CH2 (for example, river murmur)”, and the position of the sound source. Coordinate values “X 2 , Y 2 ” are stored in association with each other. Similarly, the setting data 9Z corresponds to the sound detection time “10:12:20 to 10:14:00”, the sound breakdown “CH3 (for example, the noise of trees)”, and the position of the sound source. The coordinate values “X 3 , Y 3 ” are stored in association with each other.

携帯電話1Aは、アウトカメラ13により撮影した動画像C1を、動画コンテンツ9Eとしてストレージ9に格納する。   The mobile phone 1A stores the moving image C1 captured by the out camera 13 in the storage 9 as the moving image content 9E.

図9を用いて、携帯電話1Aの処理の概要を説明する。携帯電話1Aは、動画コンテンツ9Eの音声データに基づく音声信号を圧電素子7に印加する。そして、パネル20を変形させて、気導音と、当該変形するパネル20に接触する利用者の体の一部(例えば、外耳の軟骨)を介して伝わる振動音とを発生させる。携帯電話1Aは、動画コンテンツ9Eを再生しているときにパネル20に対する利用者の耳の接触を検出すると、動画コンテンツ9Eに含まれる複数チャンネルの音のうち、パネル20に接触する耳の位置に対応する画面上の位置に対応付けられている音を、他のチャンネルより強調する。   The outline of the processing of the mobile phone 1A will be described with reference to FIG. The cellular phone 1A applies an audio signal based on the audio data of the moving image content 9E to the piezoelectric element 7. Then, the panel 20 is deformed to generate air conduction sound and vibration sound transmitted through a part of the user's body (for example, cartilage of the outer ear) that contacts the deformed panel 20. When the mobile phone 1A detects the contact of the user's ear with the panel 20 while the moving image content 9E is being reproduced, the mobile phone 1A is positioned at the position of the ear that contacts the panel 20 among the sounds of the plurality of channels included in the moving image content 9E. The sound associated with the corresponding position on the screen is emphasized from other channels.

図9は、動画コンテンツ9Eを再生しているときにパネル20に対する利用者の耳の接触を検出した場合に、パネル20に接触する耳の位置に対応する画面上の位置の近傍に対応付けられている音を強調して出力する携帯電話1Aの処理の概要を示す図である。   FIG. 9 is associated with the vicinity of the position on the screen corresponding to the position of the ear in contact with the panel 20 when the contact of the user's ear with the panel 20 is detected while the moving image content 9E is being reproduced. It is a figure which shows the outline | summary of the process of 1 A of mobile telephones which emphasize and output the sound which is being read.

図9に示すように、携帯電話1Aは、例えば、利用者の操作に応じて、動画コンテンツ9Eの再生を開始する(ステップS11)。続いて、携帯電話1Aは、パネル20に接触する耳E1の位置を、タッチスクリーン21を用いて検出すると、耳E1の位置に対応する画面上の位置の近傍に仮想的な音源を有する音を、パネル20を振動させることにより強調して出力する(ステップS12)。例えば、図9に示すように、携帯電話1Aは、耳E1の位置に対応する画面上の位置の近傍に仮想的な音源を有する、CH1の音(例えば、「ピヨピヨ」)を強調して出力する。   As illustrated in FIG. 9, the mobile phone 1A starts to reproduce the moving image content 9E, for example, in response to a user operation (step S11). Subsequently, when the mobile phone 1A detects the position of the ear E1 in contact with the panel 20 using the touch screen 21, the mobile phone 1A generates a sound having a virtual sound source in the vicinity of the position on the screen corresponding to the position of the ear E1. The panel 20 is vibrated and emphasized for output (step S12). For example, as shown in FIG. 9, the mobile phone 1A emphasizes and outputs the sound of CH1 (eg, “piyopiyo”) having a virtual sound source in the vicinity of the position on the screen corresponding to the position of the ear E1. To do.

具体的には、携帯電話1Aは、タッチスクリーン21によって耳の接触が検出される領域の中心(重心)を、耳E1の位置として検出する。耳E1の位置は、耳E1の接触が検出される領域を含む最小矩形の頂点のいずれかであってもよい。あるいは、耳E1の位置は、耳E1の所定の部位に対応する位置であってもよい。この場合、耳E1におけるその部位の一般的な位置に関する情報に基づいて、耳E1の接触が検出される領域との相対的な位置関係から、耳E1の位置が算出される。   Specifically, the cellular phone 1 </ b> A detects the center (center of gravity) of the region where the touch of the ear is detected by the touch screen 21 as the position of the ear E <b> 1. The position of the ear E1 may be any of the vertices of the smallest rectangle including the region where the contact of the ear E1 is detected. Alternatively, the position of the ear E1 may be a position corresponding to a predetermined part of the ear E1. In this case, the position of the ear E1 is calculated from the relative positional relationship with the region where the contact of the ear E1 is detected based on the information regarding the general position of the part in the ear E1.

あるいは、携帯電話1Aは、耳E1の接触時にタッチスクリーン21の検出結果に基づいて得られる像と、予め用意される標本とのパターンマッチングによって、耳E1の位置を検出してもよい。タッチスクリーン21の検出結果に基づいて得られる像は、タッチスクリーン21の検出領域を格子状に分割し、分割されたそれぞれの領域における物体の接触の検出状態を、対応する画素の状態に変換することにより得られる。それぞれの領域においてタッチスクリーン21が検出する値が、例えば、タッチスクリーン21と物体の距離、物体がタッチスクリーン21を圧迫する押圧等によって変動する場合、タッチスクリーン21の検出結果に基づいて得られる像は、多階調の画像となってもよい。標本は、耳の接触時に耳が接触している領域で、タッチスクリーン21の検出結果に基づいて得られる像と同様のやりかたで得られるはずの像である。標本は、携帯電話1Aの利用者の耳の接触時に得られるはずの像であってもよいし、一般的な人の耳の接触時に得られるとはずの像であってもよい。標本は、右耳の像、左耳の像というように複数枚用意されてもよい。   Alternatively, the cellular phone 1 </ b> A may detect the position of the ear E <b> 1 by pattern matching between an image obtained based on the detection result of the touch screen 21 at the time of contact with the ear E <b> 1 and a sample prepared in advance. The image obtained based on the detection result of the touch screen 21 divides the detection area of the touch screen 21 into a lattice shape, and converts the detection state of contact of an object in each of the divided areas into a corresponding pixel state. Can be obtained. When the value detected by the touch screen 21 in each region varies depending on, for example, the distance between the touch screen 21 and the object, the pressure with which the object presses the touch screen 21, and the like, an image obtained based on the detection result of the touch screen 21 May be a multi-tone image. The specimen is an image that should be obtained in the same manner as the image obtained based on the detection result of the touch screen 21 in the area where the ear is in contact with the ear. The sample may be an image that should be obtained when the user of the mobile phone 1A touches the ear, or may be an image that should be obtained when the user touches a general ear. A plurality of specimens may be prepared such as a right ear image and a left ear image.

パネル20に接触する耳E1の位置を、タッチスクリーン21を用いて検出する方式は、上記の方式に限定されず、他の方式を採用してもよい。   The method of detecting the position of the ear E1 in contact with the panel 20 using the touch screen 21 is not limited to the above method, and other methods may be adopted.

携帯電話1Aは、パネル20に接触する耳E1の位置を検出した後、耳の位置E1に対応する、再生中の動画コンテンツ9Eの画面上の位置を特定する。例えば、携帯電話1Aは、耳の位置E1を鉛直方向に投影したときにディスプレイ2と交わる位置を、再生中の動画コンテンツ9Eの画面上の位置として特定する。続いて、携帯電話1Aは、設定データ9Zを参照し、設定データに含まれる音に対応付けられた座標値が示す位置の中から、特定した画面上の位置に最も近いものを選定する。そして、携帯電話1Aは、選定した音を、耳E1の位置に対応する画面上の位置の近傍に対応付けられている音として決定し、この音をパネル20を振動させることにより強調して出力する。つまり、携帯電話1Aは、利用者の耳の接触を検出すると、耳の接触位置に対応する動画コンテンツ9Eの位置を音源として、今まさに音が発信されているように利用者が感じられるように、音を強調して出力する。   After detecting the position of the ear E1 in contact with the panel 20, the mobile phone 1A specifies the position on the screen of the moving image content 9E being reproduced corresponding to the position E1 of the ear. For example, the mobile phone 1A specifies the position on the screen of the moving image content 9E being reproduced as the position that intersects the display 2 when the ear position E1 is projected in the vertical direction. Subsequently, the cellular phone 1A refers to the setting data 9Z, and selects the one closest to the specified position on the screen from the positions indicated by the coordinate values associated with the sound included in the setting data. Then, the cellular phone 1A determines the selected sound as a sound associated with the vicinity of the position on the screen corresponding to the position of the ear E1, and emphasizes and outputs the sound by vibrating the panel 20 To do. That is, when the mobile phone 1A detects the contact of the user's ear, the user can feel as if the sound is being transmitted right now using the position of the moving image content 9E corresponding to the contact position of the ear as a sound source. , Emphasize the sound and output.

図10及び図11を用いて、実施形態1に係る携帯電話1Aの処理手順について説明する。図10及び図11に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。   A processing procedure of the mobile phone 1A according to the first embodiment will be described with reference to FIGS. The processing procedures shown in FIGS. 10 and 11 are realized by the controller 10 executing the control program 9A stored in the storage 9.

図10は、動画撮影時に、入力された複数の音の発信点とみなせる動画像上の位置に対応する画面上の座標値を格納する処理手順の一例を示す図である。図10に示す処理手順は、動画の撮影が終了するまで繰り返し実行される。   FIG. 10 is a diagram illustrating an example of a processing procedure for storing coordinate values on a screen corresponding to positions on a moving image that can be regarded as transmission points of a plurality of input sounds during moving image shooting. The processing procedure shown in FIG. 10 is repeatedly executed until the moving image shooting is completed.

図10に示すように、コントローラ10は、動画の撮影が開始されると、第1マイク8a及び第2マイク8bにより入力された複数の音の取り込みを開始し、ステップS101として、取り込んだ音ごとに、音圧の強弱に基づいて、音の発信点とみなせる動画像上の位置を絞り込む。例えば、コントローラ10は、第1マイク8a及び第2マイク8bが有する単一指向性マイクカプセルのうち、入力された音の音圧が最大となるマイクカプセルを検出して、音の入力方向を特定する。続いて、コントローラ10は、特定した音の入力方向に従って、音の発信点が存在する、ディスプレイ2に表示された動画像の領域を推定することにより、音の発信点とみなせる動画像上の位置を絞り込む。そして、コントローラ10は、携帯電話1Aは、この領域の中心位置に対応する画面上の座標値を取得し、音に対応付けて設定データ9Zに格納する。   As shown in FIG. 10, when shooting of a moving image is started, the controller 10 starts capturing a plurality of sounds input by the first microphone 8a and the second microphone 8b, and in step S101, for each captured sound. Further, the position on the moving image that can be regarded as the sound transmission point is narrowed down based on the strength of the sound pressure. For example, the controller 10 detects the microphone capsule with the maximum sound pressure of the input sound from the unidirectional microphone capsules of the first microphone 8a and the second microphone 8b, and specifies the sound input direction. To do. Subsequently, the controller 10 estimates the area of the moving image displayed on the display 2 where the sound transmission point exists in accordance with the input direction of the specified sound, thereby determining the position on the moving image that can be regarded as the sound transmission point. Narrow down. Then, in the controller 10, the mobile phone 1A acquires a coordinate value on the screen corresponding to the center position of this area, and stores it in the setting data 9Z in association with the sound.

続いて、コントローラ10は、ステップS102として、取り込んだ音ごとに、ステップS101で絞り込んだ位置に対応する画面上の座標値を音に対応付けて設定データ9Zに格納する。例えば、コントローラ10は、ステップS101で、音の発信点が存在するものと推定した、ディスプレイ2に表示された動画像の領域の中心位置を割り出し、中心位置に対応する画面上の座標値を取得し、音に対応付けて設定データ9Zに格納する。   Subsequently, in step S102, the controller 10 stores, in the setting data 9Z, the coordinate value on the screen corresponding to the position narrowed down in step S101 for each captured sound in association with the sound. For example, in step S101, the controller 10 determines the center position of the moving image area displayed on the display 2 that is estimated to have a sound transmission point, and obtains a coordinate value on the screen corresponding to the center position. And stored in the setting data 9Z in association with the sound.

図11は、動画コンテンツ9Eを再生しているときにパネル20に対する利用者の耳の接触を検出した場合に、パネル20に接触する耳の位置に対応する画面上の位置の近傍に対応付けられている音を強調して出力する処理手順の一例を示す図である。図11に示す処理手順は、動画コンテンツ9Eの再生終了まで繰り返し実行される。   FIG. 11 is associated with the vicinity of the position on the screen corresponding to the position of the ear in contact with the panel 20 when the contact of the user's ear with the panel 20 is detected while the moving image content 9E is being reproduced. It is a figure which shows an example of the process sequence which emphasizes and outputs the sound which has been read. The processing procedure shown in FIG. 11 is repeatedly executed until the reproduction of the moving image content 9E is completed.

図11に示すように、コントローラ10は、ステップS201として、動画コンテンツ9Eを再生しているときにパネル20に対する利用者の耳の接触を検出した場合には、パネル20に接触する耳の位置を、タッチスクリーン21を用いて検出する。続いて、ステップS202として、コントローラ10は、耳の接触位置に対応する、再生中の動画コンテンツ9Eの画面上の位置を取得する。   As shown in FIG. 11, when the controller 10 detects the contact of the user's ear with the panel 20 during the reproduction of the moving image content 9E as step S201, the controller 10 determines the position of the ear in contact with the panel 20. The detection is performed using the touch screen 21. Subsequently, in step S202, the controller 10 acquires a position on the screen of the moving image content 9E being reproduced corresponding to the contact position of the ear.

続いて、コントローラ10は、ステップS203として、動画コンテンツ9Eに含まれる複数の音のうち、ステップS202で特定した画面上の位置の近傍に対応付けられている音を強調して出力する。例えば、コントローラ10は、設定データ9Zを参照し、設定データに含まれる音に対応付けられた座標値が示す位置の中から、ステップS202で特定した画面上の位置に最も近いものを選定する。そして、携帯電話1Aは、選定した音を、耳E1の位置に対応する画面上の位置の近傍に対応付けられている音として決定し、この音をパネル20を振動させることにより強調して出力する。つまり、携帯電話1Aは、利用者の耳の接触を検出すると、耳の接触位置に対応する動画コンテンツ9Eの位置を音源として、今まさに音が発信されているように利用者が感じられるように、音を強調して出力する。   Subsequently, in step S203, the controller 10 emphasizes and outputs the sound associated with the vicinity of the position on the screen identified in step S202 among the plurality of sounds included in the moving image content 9E. For example, the controller 10 refers to the setting data 9Z, and selects the position closest to the position on the screen identified in step S202 from the positions indicated by the coordinate values associated with the sound included in the setting data. Then, the cellular phone 1A determines the selected sound as a sound associated with the vicinity of the position on the screen corresponding to the position of the ear E1, and emphasizes and outputs the sound by vibrating the panel 20 To do. That is, when the mobile phone 1A detects the contact of the user's ear, the user can feel as if the sound is being transmitted right now using the position of the moving image content 9E corresponding to the contact position of the ear as a sound source. , Emphasize the sound and output.

上述の実施形態1では、動画コンテンツ9Eを再生しているときにパネル20に対する利用者の耳の接触を検出した場合に、パネル20に接触する耳の位置に対応する画面上の位置の近傍に対応付けられている音を強調して出力する。このため、実施形態1によれば、再生される動画コンテンツにて出力される複数の音の中から、特定の音を聴き分けることができる。   In the first embodiment described above, when the contact of the user's ear with the panel 20 is detected while the moving image content 9E is being reproduced, the position is close to the position on the screen corresponding to the position of the ear that contacts the panel 20. Emphasizes the associated sound and outputs it. For this reason, according to the first embodiment, it is possible to listen to a specific sound from a plurality of sounds output in the reproduced moving image content.

上述の実施形態1では、動画撮影時に、入力した音の音圧の強弱に基づいて当該音の発信点とみなせる動画像上の位置を絞り込み、絞り込んだ位置に対応する画面上の座標値を音に対応付けて格納する。このため、実施形態1によれば、再生される動画コンテンツにて出力される複数の音の中から、特定の音を聴き分けることができるコンテンツを容易に生成できる。   In the first embodiment described above, the position on the moving image that can be regarded as the transmission point of the sound is narrowed down based on the strength of the sound pressure of the input sound at the time of moving image shooting, and the coordinate value on the screen corresponding to the narrowed position is set as the sound value. Store in association with. Therefore, according to the first embodiment, it is possible to easily generate a content that allows a specific sound to be heard from among a plurality of sounds that are output in the reproduced moving image content.

(実施形態2)
動画コンテンツ9Eの再生中に、利用者の耳がパネル20に接触するときの押圧の大きさに応じて、耳の接触位置の近傍を音源とする音を強調して出力するようにしてもよい。
(Embodiment 2)
During reproduction of the moving image content 9E, a sound having a sound source in the vicinity of the contact position of the ear may be emphasized and output according to the amount of pressure when the user's ear contacts the panel 20. .

携帯電話1Aのコントローラ10は、例えば、制御プログラム9Aを実行することにより、タッチスクリーン21により検出された、利用者の耳がパネル20に接触するときの押圧の大きさを取得し、押圧の大きさに応じて、耳の接触位置の近傍を音源とする音を強調して出力する処理を実行する。   For example, the controller 10 of the mobile phone 1A executes the control program 9A to acquire the magnitude of the pressure detected by the touch screen 21 when the user's ear contacts the panel 20, and the magnitude of the pressure. Accordingly, a process of emphasizing and outputting a sound having a sound source near the contact position of the ear is executed.

図12は、利用者の耳がパネル20に接触するときの押圧の大きさに応じて、耳の接触位置の近傍を音源とする音を強調して出力する携帯電話1Aの処理の概要を示す図である。図12に示すように、携帯電話1Aは、動画コンテンツ9Eの再生が開始された後、パネル20に接触する耳E1の位置を検出し、耳E1の位置に対応する画面上の位置を特定した後、さらに、タッチスクリーン21によって検出された、耳E1がパネル20に接触する押圧の大きさを取得する。   FIG. 12 shows an outline of processing of the mobile phone 1A that emphasizes and outputs a sound whose sound source is in the vicinity of the contact position of the ear according to the magnitude of the pressure when the user's ear contacts the panel 20. FIG. As shown in FIG. 12, after the reproduction of the moving image content 9E is started, the mobile phone 1A detects the position of the ear E1 in contact with the panel 20, and specifies the position on the screen corresponding to the position of the ear E1. Thereafter, the magnitude of the pressure detected by the touch screen 21 and making the ear E1 contact the panel 20 is acquired.

そして、携帯電話1Aは、押圧の大きさが所定値以下であれば、動画コンテンツ9Eに含まれる音のうち、耳E1の位置に対応する画面上の位置の近傍に対応付けられたCH1の音を、CH2の音及びCH3の音よりも強調して出力する(ステップS21)。一方、携帯電話1Aは、押圧の大きさが所定値以下であれば、動画コンテンツ9Eに含まれる音のうち、耳E1の位置に対応する画面上の位置の近傍に対応付けられたCH1の音のみを強調して出力する(ステップS22)。   And if the magnitude | size of a press is below a predetermined value, 1 A of mobile telephones will be the sound of CH1 matched with the vicinity of the position on the screen corresponding to the position of the ear E1 among the sounds contained in the moving image content 9E. Is emphasized over the CH2 and CH3 sounds (step S21). On the other hand, if the magnitude of the press is equal to or smaller than the predetermined value, the mobile phone 1A, among the sounds included in the moving image content 9E, the sound of CH1 associated with the vicinity of the position on the screen corresponding to the position of the ear E1. Only the output is emphasized (step S22).

図13は、利用者の耳がパネル20に接触するときの押圧の大きさに応じて、耳の接触位置の近傍を音源とする音を強調して出力する処理手順の一例を示す図である。図13に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。図13に示す処理手順は、動画コンテンツ9Eの再生終了まで繰り返し実行される。図13に示す処理手順のうち、ステップS301は、図11に示すステップS201に対応し、ステップS302は、図11に示すステップS202に対応する。   FIG. 13 is a diagram illustrating an example of a processing procedure for emphasizing and outputting a sound having a sound source in the vicinity of the contact position of the ear according to the magnitude of the pressure when the user's ear contacts the panel 20. . The processing procedure illustrated in FIG. 13 is realized by the controller 10 executing the control program 9A stored in the storage 9. The processing procedure shown in FIG. 13 is repeatedly executed until the reproduction of the moving image content 9E is completed. In the processing procedure shown in FIG. 13, step S301 corresponds to step S201 shown in FIG. 11, and step S302 corresponds to step S202 shown in FIG.

図13に示すように、コントローラ10は、ステップS301として、パネル20に接触する耳の位置を、タッチスクリーン21を用いて検出する。続いて、ステップS302として、コントローラ10は、耳の接触位置に対応する、再生中の動画コンテンツ9Eの画面上の位置を取得する。   As shown in FIG. 13, the controller 10 detects the position of the ear in contact with the panel 20 using the touch screen 21 as step S301. Subsequently, in step S302, the controller 10 acquires a position on the screen of the moving image content 9E being reproduced corresponding to the contact position of the ear.

続いて、コントローラ10は、ステップS303として、耳がパネル20に接触する押圧の大きさを、タッチスクリーン21から取得する。続いて、コントローラ10は、ステップS304として、押圧の大きさが所定値以下であるか否かを判定する。   Subsequently, the controller 10 acquires, from the touch screen 21, the magnitude of the pressure with which the ear contacts the panel 20 as step S <b> 303. Subsequently, in Step S304, the controller 10 determines whether or not the magnitude of the pressure is a predetermined value or less.

コントローラ10は、判定の結果、押圧の大きさが所定値以下である場合には(ステップS305、Yes)、再生中の動画コンテンツ9Eに含まれる音のうち、ステップS302で特定した画面上の位置の近傍に対応付けられた音を、他の音よりも強調して出力する。   As a result of the determination, if the magnitude of the press is equal to or smaller than the predetermined value (step S305, Yes), the controller 10 determines the position on the screen identified in step S302 among the sounds included in the moving image content 9E being reproduced. The sound associated with the vicinity of the sound is emphasized over other sounds and output.

一方、コントローラ10は、判定の結果、押圧の大きさが所定値以下ではない場合には(ステップS305、No)、再生中の動画コンテンツ9Eに含まれる音のうち、ステップS302で特定した画面上の位置の近傍に対応付けられた音のみを強調して出力する。   On the other hand, if the result of determination is that the magnitude of the pressure is not less than or equal to the predetermined value (No at step S305), the controller 10 determines that the sound included in the moving image content 9E being reproduced is on the screen identified at step S302. Only the sound associated with the vicinity of the position is emphasized and output.

図13の例では、携帯電話1Aがタッチスクリーン21によって検出された押圧の大きさに応じた処理を行う例を説明したが、これに限定されない。携帯電話1Aは、タッチスクリーン21によって耳の接触領域を検出して、当該接触領域の面積の大小に応じて上記の処理を行ってもよい。一般に、利用者が耳をパネル20に押し付ける圧力が大きいほど、パネル20に接触する耳の面積は大きくなると考えられる。この場合、携帯電話1Aは、接触領域の面積が所定の閾値より大きい場合、再生中の動画コンテンツ9Eに含まれる音のうち、特定した画面上の位置の近傍に対応付けられた音のみを強調して出力する。携帯電話1Aは、接触領域の面積が所定の閾値より小さい場合、再生中の動画コンテンツ9Eに含まれる音のうち、特定した画面上の位置の近傍に対応付けられた音を、他の音よりも強調して出力する。   In the example of FIG. 13, the example has been described in which the mobile phone 1 </ b> A performs processing according to the magnitude of the pressure detected by the touch screen 21, but the present invention is not limited to this. The mobile phone 1 </ b> A may detect the contact area of the ear with the touch screen 21 and perform the above processing according to the size of the area of the contact area. In general, it is considered that the larger the pressure with which the user presses the ear against the panel 20, the larger the area of the ear that contacts the panel 20. In this case, when the area of the contact area is larger than a predetermined threshold, the mobile phone 1A emphasizes only the sound associated with the vicinity of the specified position on the screen among the sounds included in the moving image content 9E being reproduced. And output. When the area of the contact area is smaller than a predetermined threshold, the mobile phone 1A, among the sounds included in the moving image content 9E being reproduced, the sound associated with the vicinity of the specified position on the screen is compared with other sounds. Is also emphasized and output.

(実施形態3)
動画コンテンツ9Eの再生中、利用者の耳とパネル20とが接触する場合に、耳の接触位置、及び耳とパネル20との位置関係に基づいて、動画コンテンツ9Eに含まれる複数の音の中から出力する音を選択するようにしてもよい。
(Embodiment 3)
When the user's ear and the panel 20 are in contact with each other during the reproduction of the moving image content 9E, based on the contact position of the ear and the positional relationship between the ear and the panel 20, a plurality of sounds included in the moving image content 9E are included. You may make it select the sound output from.

図14は、利用者の耳E1とパネル20とが接触しているときの、耳E1とパネル20との位置関係の一例を示す図である。図14は、携帯電話1Aを耳に接触させた状態の利用者の頭部H1を情報からみた状態を示している。図14に示すように、例えば、耳E1は、パネル20とある角度を持って接触している。   FIG. 14 is a diagram illustrating an example of a positional relationship between the ear E1 and the panel 20 when the user's ear E1 and the panel 20 are in contact with each other. FIG. 14 shows a state in which the user's head H1 in a state where the mobile phone 1A is in contact with the ear is viewed from information. As shown in FIG. 14, for example, the ear E1 is in contact with the panel 20 at a certain angle.

図15は、耳E1とパネル20とが図14に示す位置関係にあるときに、音が出力される動画コンテンツ9E上の領域を示す図である。携帯電話1Aは、姿勢検出ユニット15の検出結果に基づいて、耳E1とパネル20とが図14に示す位置関係にあることを検出する。そして、携帯電話1Aは、図15に示すように、再生中の動画コンテンツ9Eのうち、例えば、パネル20において利用者の耳と接触していない側の領域P4の音を出力する。例えば、携帯電話1Aは、タッチスクリーン21により検出される静電容量などを用いて、パネル20において利用者の耳と接触していない側の領域P4を特定する。携帯電話1Aは、照度センサ4又は近接センサ5の検出値に基づいて上記の領域P4を特定してもよい。携帯電話機1Aは、インカメラ12によって撮影された画像(例えば、利用者の顔の画像)に基づいて上記の領域P4を特定しても良い。   FIG. 15 is a diagram showing a region on the moving image content 9E where sound is output when the ear E1 and the panel 20 are in the positional relationship shown in FIG. The mobile phone 1 </ b> A detects that the ear E <b> 1 and the panel 20 are in the positional relationship shown in FIG. 14 based on the detection result of the posture detection unit 15. Then, as shown in FIG. 15, the mobile phone 1 </ b> A outputs, for example, the sound of the region P <b> 4 on the side that is not in contact with the user's ear on the panel 20 in the moving image content 9 </ b> E being reproduced. For example, the cellular phone 1 </ b> A identifies the region P <b> 4 on the side that is not in contact with the user's ear on the panel 20 using the capacitance detected by the touch screen 21. The mobile phone 1 </ b> A may specify the region P <b> 4 based on the detection value of the illuminance sensor 4 or the proximity sensor 5. The cellular phone 1A may specify the region P4 based on an image (for example, an image of a user's face) taken by the in-camera 12.

(実施形態4)
上記の実施形態では、タッチスクリーン21がパネル20のほぼ全面に配設される例について説明したが、タッチスクリーン21は、パネル20と重ならないように配設されてもよい。図16は、実施形態5に係る携帯電話の正面図である。図17は、図16に示す携帯電話のc−c線断面図である。図16及び図17を用いて、タッチスクリーン21がパネル20と重ならないように配設される携帯電話1Bについて説明する。
(Embodiment 4)
In the above-described embodiment, an example in which the touch screen 21 is disposed on almost the entire surface of the panel 20 has been described. However, the touch screen 21 may be disposed so as not to overlap the panel 20. FIG. 16 is a front view of the mobile phone according to the fifth embodiment. 17 is a cross-sectional view taken along line cc of the mobile phone shown in FIG. A mobile phone 1 </ b> B disposed so that the touch screen 21 does not overlap the panel 20 will be described with reference to FIGS. 16 and 17.

図16及び図17に示すように、携帯電話1Bにおいて、ディスプレイ2は、パネル20の内側ではなく、パネル20と同一平面をなすように、パネル20と並べて配設される。タッチスクリーン21は、ディスプレイ2の表側のほぼ全面を覆うように配設される。すなわち、タッチスクリーン21及びディスプレイ2は、所謂タッチパネル(タッチスクリーンディスプレイ)を構成する。   As shown in FIGS. 16 and 17, in the mobile phone 1 </ b> B, the display 2 is arranged side by side with the panel 20 so as to be in the same plane as the panel 20, not inside the panel 20. The touch screen 21 is disposed so as to cover almost the entire front surface of the display 2. That is, the touch screen 21 and the display 2 constitute a so-called touch panel (touch screen display).

パネル20の背面のほぼ中央には、接合部材30により、圧電素子7が取り付けられる。パネル20は、圧電素子7に電気信号が印加されると、圧電素子7の変形(伸縮又は屈曲)に応じて振動し、気導音と、パネル20に接触する人体の一部(例えば、耳介軟骨)を介して伝わる振動音とを発生する。圧電素子7をパネル20の中央に配設することにより、圧電素子7の振動がパネル20全体に均等に伝わり、利用者に伝わる音の品質が向上する。   The piezoelectric element 7 is attached to the center of the back surface of the panel 20 by a joining member 30. When an electrical signal is applied to the piezoelectric element 7, the panel 20 vibrates in accordance with deformation (expansion / contraction or bending) of the piezoelectric element 7, and air conduction sound and a part of the human body that contacts the panel 20 (for example, an ear) And vibration sound transmitted through the cartilage. By disposing the piezoelectric element 7 in the center of the panel 20, the vibration of the piezoelectric element 7 is evenly transmitted to the entire panel 20, and the quality of the sound transmitted to the user is improved.

パネル20の表側の面にはタッチスクリーン21が配設されないが、パネル20は、タッチスクリーン21が配設されるディスプレイ2の近傍に配置される。   Although the touch screen 21 is not disposed on the front surface of the panel 20, the panel 20 is disposed in the vicinity of the display 2 on which the touch screen 21 is disposed.

携帯電話1Bのように、パネル20をタッチスクリーン21と重ならないように配設した場合でも、圧電素子7が配設される筐体40の同じ側で、圧電素子7の上部にダイナミックスピーカであるスピーカ11を設けることにより、上述と同様に、2つのモードで音声を出力することができる。この結果、ユーザにとって、好適な方法で音声を出力することができる。   Even when the panel 20 is disposed so as not to overlap the touch screen 21 as in the cellular phone 1B, the speaker is a dynamic speaker above the piezoelectric element 7 on the same side of the housing 40 where the piezoelectric element 7 is disposed. By providing the speaker 11, sound can be output in two modes as described above. As a result, it is possible for the user to output sound by a method suitable for the user.

(実施形態5)
上記の実施形態では、タッチスクリーン21の少なくとも一部がディスプレイ2と重なるように配設される例について説明したが、タッチスクリーン21は、ディスプレイ2と重ならないように配設されてもよい。図18は、実施形態6に係る携帯電話の正面図である。図19は、図18に示す携帯電話のd−d線断面図である。図18及び図19を用いて、タッチスクリーン21がディスプレイ2と重ならないように配設される携帯電話1Cについて説明する。図18及び図19に示す携帯電話1Cは、いわゆる折畳型携帯電話の一例である。
(Embodiment 5)
In the above-described embodiment, an example in which at least a part of the touch screen 21 is disposed so as to overlap the display 2 has been described, but the touch screen 21 may be disposed so as not to overlap the display 2. FIG. 18 is a front view of a mobile phone according to the sixth embodiment. 19 is a cross-sectional view of the mobile phone shown in FIG. 18 taken along the line dd. A mobile phone 1 </ b> C that is arranged so that the touch screen 21 does not overlap the display 2 will be described with reference to FIGS. 18 and 19. A cellular phone 1C shown in FIGS. 18 and 19 is an example of a so-called folding cellular phone.

図18及び図19に示すように、携帯電話1Cにおいて、ディスプレイ2は、パネル20の内側ではなく、パネル20と同一平面をなすように、パネル20と並べて配設される。   As shown in FIGS. 18 and 19, in the mobile phone 1 </ b> C, the display 2 is arranged side by side with the panel 20 so as to be in the same plane as the panel 20 rather than inside the panel 20.

パネル20の背面のほぼ中央には、接合部材30により、圧電素子7が取り付けられる。パネル20と圧電素子7との間には、補強部材31が配設される。すなわち、携帯電話1Cにおいては、圧電素子7と補強部材31とが接合部材30により接着され、さらに補強部材31とパネル20とが接合部材30で接着される。なお、圧電素子7は、パネル20の中央に設けられていなくてもよい。   The piezoelectric element 7 is attached to the center of the back surface of the panel 20 by a joining member 30. A reinforcing member 31 is disposed between the panel 20 and the piezoelectric element 7. That is, in the cellular phone 1 </ b> C, the piezoelectric element 7 and the reinforcing member 31 are bonded by the bonding member 30, and the reinforcing member 31 and the panel 20 are bonded by the bonding member 30. The piezoelectric element 7 may not be provided at the center of the panel 20.

補強部材31は、例えばゴムまたはシリコン等の弾性部材である。補強部材31は、例えばある程度の弾性を有するアルミニウム等から成る金属板であってもよい。補強部材31は、例えばSUS304等のステンレス板であってもよい。ステンレス板等の金属板の厚さは、圧電素子7に印加される電圧値等に応じて、例えば0.2mm〜0.8mmのものが適宜用いられる。補強部材31は、例えば樹脂製の板であってもよい。ここでいう樹脂製の板を形成する樹脂としては、例えばポリアミド系樹脂が挙げられる。ポリアミド系樹脂には、例えば、メタキシリレンジアミンとアジピン酸とから得られる結晶性の熱可塑性樹脂から成り、強度および弾性に富むレニー(登録商標)がある。このようなポリアミド系樹脂は、それ自体をベースポリマーとして、ガラス繊維、金属繊維または炭素繊維等により強化された強化樹脂であってもよい。強化樹脂は、ポリアミド系樹脂に対するガラス繊維、金属繊維または炭素繊維等の付加量に応じて、強度および弾性が適宜調整される。強化樹脂は、例えば、ガラス繊維、金属繊維または炭素繊維等を編みこんで形成された基材に樹脂を含浸させ、硬化させて形成される。強化樹脂は、液状の樹脂に細かく切断された繊維片を混入させたのちに硬化させて形成されるものであってもよい。強化樹脂は、繊維を編みこんだ基材と樹脂層とを積層したものであってもよい。   The reinforcing member 31 is an elastic member such as rubber or silicon. The reinforcing member 31 may be a metal plate made of aluminum or the like having a certain degree of elasticity, for example. The reinforcing member 31 may be a stainless plate such as SUS304. The thickness of a metal plate such as a stainless steel plate is suitably 0.2 mm to 0.8 mm, for example, depending on the voltage value applied to the piezoelectric element 7 or the like. The reinforcing member 31 may be a resin plate, for example. As resin which forms the resin-made board here, a polyamide-type resin is mentioned, for example. Examples of the polyamide-based resin include Reny (registered trademark), which is made of a crystalline thermoplastic resin obtained from metaxylylenediamine and adipic acid and is rich in strength and elasticity. Such a polyamide-based resin may be a reinforced resin reinforced with glass fiber, metal fiber, carbon fiber, or the like using itself as a base polymer. The strength and elasticity of the reinforced resin are appropriately adjusted according to the amount of glass fiber, metal fiber, carbon fiber, or the like added to the polyamide-based resin. The reinforced resin is formed, for example, by impregnating a resin into a base material formed by braiding glass fiber, metal fiber, carbon fiber or the like and curing it. The reinforced resin may be formed by mixing a finely cut fiber piece into a liquid resin and then curing it. The reinforced resin may be a laminate of a base material in which fibers are knitted and a resin layer.

圧電素子7とパネル20との間に補強部材31を配設することにより、以下の効果が得られる。パネル20に外力が加わった場合に、その外力が圧電素子7に伝わって圧電素子7が破損する可能性を低減することができる。例えば携帯電話1Cが地面に落下することでパネル20に対して外力が加わると、当該外力はまず補強部材31に伝わる。補強部材31は、所定の弾性を有しているため、パネル20から伝わる外力により弾性変形する。そのため、パネル20に対して加わった外力は補強部材31により少なくとも一部が吸収され、圧電素子7に伝達される外力が低減される。結果、圧電素子7の破損を低減することができる。補強部材31が圧電素子7と筺体40との間に配置される場合、例えば携帯電話1Cが地面に落下することで筺体40が変形し、変形した筺体40が圧電素子7に衝突して圧電素子7が破損する可能性を低減できる。   By disposing the reinforcing member 31 between the piezoelectric element 7 and the panel 20, the following effects can be obtained. When an external force is applied to the panel 20, the possibility that the external force is transmitted to the piezoelectric element 7 and the piezoelectric element 7 is damaged can be reduced. For example, when an external force is applied to the panel 20 by the mobile phone 1 </ b> C falling on the ground, the external force is first transmitted to the reinforcing member 31. Since the reinforcing member 31 has predetermined elasticity, it is elastically deformed by an external force transmitted from the panel 20. Therefore, at least a part of the external force applied to the panel 20 is absorbed by the reinforcing member 31, and the external force transmitted to the piezoelectric element 7 is reduced. As a result, damage to the piezoelectric element 7 can be reduced. When the reinforcing member 31 is disposed between the piezoelectric element 7 and the casing 40, the casing 40 is deformed, for example, when the mobile phone 1C falls on the ground, and the deformed casing 40 collides with the piezoelectric element 7 and the piezoelectric element. The possibility that 7 is damaged can be reduced.

圧電素子7の伸縮または屈曲による振動は、まず補強部材31に伝達され、さらにパネル20に伝達される。すなわち、圧電素子7は、まず圧電素子7よりも大きな弾性係数を有する補強部材31を振動させ、さらにパネル20を振動させることになる。したがって、携帯電話1Cは、補強部材31を備えず、圧電素子7が接合部材70によりパネル20に接合される構造と比較して、圧電素子7の変形が過剰になりにくくすることができる。これにより、パネル20の変形量(変形の程度)を調節することができる。この構造は、圧電素子7の変形を阻害しにくいパネル20の場合に特に有効である。   Vibration due to expansion / contraction or bending of the piezoelectric element 7 is first transmitted to the reinforcing member 31 and further transmitted to the panel 20. That is, the piezoelectric element 7 first vibrates the reinforcing member 31 having a larger elastic coefficient than the piezoelectric element 7 and further vibrates the panel 20. Therefore, the cellular phone 1 </ b> C does not include the reinforcing member 31, and it is possible to make the deformation of the piezoelectric element 7 less likely to be excessive as compared with a structure in which the piezoelectric element 7 is bonded to the panel 20 by the bonding member 70. Thereby, the deformation amount (degree of deformation) of the panel 20 can be adjusted. This structure is particularly effective in the case of the panel 20 that hardly obstructs the deformation of the piezoelectric element 7.

さらに、圧電素子7とパネル20との間に補強部材31を配設することにより、図20に示すように、パネル20の共振周波数が下がり、低周波帯域の音響特性が向上する。図20は、補強部材31による周波数特性の変化例を示す図である。図20には、上記のSUS304のような板金を補強部材31として用いた場合の周波数特性と、上記のレニーのような強化樹脂を補強部材31として用いた場合の周波数特性とが示されている。横軸は周波数を、縦軸は音圧を示す。強化樹脂を用いた場合の共振点は約2kHzであり、板金を用いた場合の共振点は約1kHzである。強化樹脂を用いた場合のディップは約4kHzであり、板金を用いた場合のディップは約3kHzである。すなわち、強化樹脂を用いた場合には、板金を用いた場合に比べて、パネル20の共振点が高い周波数領域に位置しており、周波数特性のディップがより高い周波数領域に位置している。携帯電話機の音声通話で用いられる周波数帯は300Hz〜3.4kHzであるため、強化樹脂を補強部材31として用いた場合、ディップが携帯電話1Cの使用周波数帯に含まれないようにすることができる。尚、補強部材31として板金を用いる場合でも、板金を構成する金属の種類もしくは組成または板金の厚さ等を適宜調整することで、ディップが携帯電話1Cの使用周波数帯に含まれないようにすることができる。板金と強化樹脂とを比較すると、強化樹脂は、板金と比較してアンテナ性能への影響を低減することができる。強化樹脂は板金と比較して塑性変形しにくいため、音響特性が変化しにくいという利点がある。強化樹脂は板金と比較して、音発生時の温度上昇が抑えられる。補強部材31に換えて、板状の錘を接合部材30により圧電素子7に取り付けてもよい。   Furthermore, by disposing the reinforcing member 31 between the piezoelectric element 7 and the panel 20, as shown in FIG. 20, the resonance frequency of the panel 20 is lowered and the acoustic characteristics in the low frequency band are improved. FIG. 20 is a diagram illustrating an example of a change in frequency characteristics due to the reinforcing member 31. FIG. 20 shows frequency characteristics when a sheet metal such as SUS304 is used as the reinforcing member 31, and frequency characteristics when reinforced resin such as Reny is used as the reinforcing member 31. . The horizontal axis represents frequency and the vertical axis represents sound pressure. The resonance point when reinforced resin is used is about 2 kHz, and the resonance point when sheet metal is used is about 1 kHz. The dip when using reinforced resin is about 4 kHz, and the dip when using sheet metal is about 3 kHz. That is, when the reinforced resin is used, the resonance point of the panel 20 is located in a higher frequency region and the frequency characteristic dip is located in a higher frequency region, compared to the case where a sheet metal is used. Since the frequency band used for the voice call of the mobile phone is 300 Hz to 3.4 kHz, when reinforced resin is used as the reinforcing member 31, the dip can be prevented from being included in the use frequency band of the mobile phone 1C. . Even when a sheet metal is used as the reinforcing member 31, the dip is not included in the use frequency band of the cellular phone 1C by appropriately adjusting the type or composition of the metal constituting the sheet metal or the thickness of the sheet metal. be able to. When the sheet metal and the reinforced resin are compared, the reinforced resin can reduce the influence on the antenna performance as compared with the sheet metal. Since reinforced resin is less likely to be plastically deformed than sheet metal, there is an advantage that acoustic characteristics are less likely to change. The reinforced resin suppresses the temperature rise at the time of sound generation compared to the sheet metal. Instead of the reinforcing member 31, a plate-like weight may be attached to the piezoelectric element 7 by the joining member 30.

パネル20は、圧電素子7に電気信号が印加されると、圧電素子7の変形(伸縮又は屈曲)に応じて振動し、気導音と、パネル20に接触する人体の一部(例えば、耳介軟骨)を介して伝わる振動音とを発生する。タッチスクリーン21は、パネル20の表側のほぼ全面を覆うように配設される。   When an electrical signal is applied to the piezoelectric element 7, the panel 20 vibrates in accordance with deformation (expansion / contraction or bending) of the piezoelectric element 7, and air conduction sound and a part of the human body that contacts the panel 20 (for example, an ear) And vibration sound transmitted through the cartilage. The touch screen 21 is disposed so as to cover almost the entire front surface of the panel 20.

携帯電話1Cも、上記と同様に、圧電素子7が配設される筐体40の背面略中央部に、第1マイク8aが配置される。圧電素子7が配設される筐体40の反対側の背面端部に、第2マイク8bが配置される。圧電素子7が配設される筐体40の反対側の背面端部に、第2マイク8bが配置される。圧電素子7が配設される筐体40の反対側の端部に、第1マイク8cが配置される。   Similarly to the above, in the cellular phone 1C, the first microphone 8a is disposed at the substantially central portion of the back surface of the housing 40 in which the piezoelectric element 7 is disposed. A second microphone 8b is disposed on the back end on the opposite side of the housing 40 where the piezoelectric element 7 is disposed. A second microphone 8b is disposed on the back end on the opposite side of the housing 40 where the piezoelectric element 7 is disposed. A first microphone 8c is disposed at the opposite end of the housing 40 where the piezoelectric element 7 is disposed.

(その他の実施形態)
例えば、動画撮影を行う場合に、耳をパネル20に接触させることにより、第1マイク8a及び第2マイク8bが有する単一指向性マイクカプセルのうち、音の入力を行うマイクカプセルを決定してもよい。例えば、動画撮影時に、利用者の耳が図7に示す領域P1の位置に接触した場合には、撮影方向の左側から到来する音を入力する第1マイク8aのマイクカプセル、及び撮影方向の下側から到来する音を入力する第2マイク8bのマイクカプセルの音の入力を有効とし、その他のマイクカプセルの音の入力を停止する。
(Other embodiments)
For example, when shooting a movie, by touching the ear to the panel 20, the microphone capsule for inputting sound is determined from the unidirectional microphone capsules of the first microphone 8a and the second microphone 8b. Also good. For example, when the user's ear touches the position of the area P1 shown in FIG. 7 during moving image shooting, the microphone capsule of the first microphone 8a that inputs sound coming from the left side of the shooting direction, and the lower direction of the shooting direction. The input of the sound of the microphone capsule of the second microphone 8b that inputs the sound coming from the side is made valid, and the input of the sound of the other microphone capsule is stopped.

上記の実施形態では、アウトカメラ13により動画を撮影し、第1マイク8a及び第2マイク8bにより入力された複数の音の発信点とみなせる動画像上の位置に対応する画面上の座標値をストレージ9の設定データ9Zに格納する例を説明した。言い換えれば、上記の実施形態では、再生される動画コンテンツにて出力される複数の音の中から、特定の音を聴き分けることができるコンテンツを予め作成する例を説明した。しかしながら、これには限定されず、予め、動画コンテンツが再生されたときの画面上の位置と、動画コンテンツに含まれる音の音源の位置との対応関係が分かっている動画コンテンツがある場合には、この動画コンテンツを再生する場合にも上記の実施形態と同様の処理を適用できる。すなわち、この動画コンテンツの再生中に、利用者の耳がパネル20に接触する耳の位置に対応する画面上の位置の近傍に対応付けられた音を、パネル20を振動させることにより強調して出力することができる。また、ステレオコンテンツの中に元々存在する音声情報を利用し、2つのチャンネルの音源を疑似的に多チャンネルに変換する技術を用いれば、各チャンネルの音の出力位置を計算により推定できる。この出力位置とタッチパネル上の耳の接触位置とを対応付けて、耳の接触位置に対応する音を強調して出力することもできる。なお、動画コンテンツに含まれる音は複数でなく一つであってもよい。   In the above embodiment, a moving image is captured by the out-camera 13, and the coordinate values on the screen corresponding to the positions on the moving image that can be regarded as the transmission points of the plurality of sounds input by the first microphone 8a and the second microphone 8b are obtained. The example of storing in the setting data 9Z of the storage 9 has been described. In other words, in the above-described embodiment, an example has been described in which content in which a specific sound can be listened to is created in advance from a plurality of sounds output in the reproduced moving image content. However, the present invention is not limited to this, and when there is moving image content in which the correspondence between the position on the screen when the moving image content is reproduced and the position of the sound source of the sound included in the moving image content is known in advance The same processing as in the above embodiment can also be applied when reproducing this moving image content. That is, during reproduction of this moving image content, the sound associated with the vicinity of the position on the screen corresponding to the position of the ear where the user's ear contacts the panel 20 is emphasized by vibrating the panel 20. Can be output. Further, by using the audio information originally present in the stereo content and using a technology that artificially converts the sound source of two channels into multiple channels, the output position of the sound of each channel can be estimated by calculation. The output position and the contact position of the ear on the touch panel can be associated with each other, and the sound corresponding to the contact position of the ear can be emphasized and output. Note that the number of sounds included in the moving image content is not limited to one but may be one.

上記の実施形態では、圧電素子7によりパネル20を変形させ、気導音と振動音とを発生させた。圧電素子7により筺体40の一部を変形させ、気導音と振動音とを発生させてもよい。筺体40の一部は、例えば筺体の角部であってよい。   In the above embodiment, the panel 20 is deformed by the piezoelectric element 7 to generate air conduction sound and vibration sound. A part of the housing 40 may be deformed by the piezoelectric element 7 to generate air conduction sound and vibration sound. A part of the housing 40 may be a corner portion of the housing, for example.

上記の実施形態では、携帯電話1Aとして、ディスプレイ2が接合部材30を用いてパネル20の背面に取り付けられる例を示したが、携帯電話1Aは、パネル20とディスプレイ2の間に空間ができるように構成されてもよい。パネル20とディスプレイ2の間に空間を設けることにより、パネル20が振動しやすくなり、パネル20上において振動音を聞きやすい範囲が広くなる。   In the above-described embodiment, an example in which the display 2 is attached to the back surface of the panel 20 using the bonding member 30 as the mobile phone 1A has been described. However, the mobile phone 1A has a space between the panel 20 and the display 2. May be configured. By providing a space between the panel 20 and the display 2, the panel 20 easily vibrates, and the range on which the vibration sound can be easily heard on the panel 20 is widened.

上記の実施形態では、圧電素子7をパネル20に取り付ける例を示したが、他の場所に取り付けられてもよい。例えば、圧電素子7は、バッテリリッドに取り付けられてもよい。バッテリリッドは、筐体40に取り付けられ、バッテリを覆う部材である。バッテリリッドは、携帯電話等の携帯電子機器においてディスプレイ2と異なる面に取り付けられることが多いため、そのような構成によれば、利用者はディスプレイ2と異なる面に体の一部(例えば耳)を接触させて音を聞くことができる。   In the above embodiment, the example in which the piezoelectric element 7 is attached to the panel 20 has been described, but the piezoelectric element 7 may be attached to another place. For example, the piezoelectric element 7 may be attached to a battery lid. The battery lid is a member that is attached to the housing 40 and covers the battery. Since the battery lid is often attached to a surface different from the display 2 in a portable electronic device such as a cellular phone, according to such a configuration, the user can place a part of the body (for example, an ear) on a surface different from the display 2. You can hear the sound by touching.

上記の実施形態では、補強部材31は板状部材であるが、補強部材31の形状はこれに限られない。補強部材31は、例えば、圧電素子7より大きく、かつその端部が圧電素子7側に湾曲し圧電素子7の側部を覆う形状を有していてもよい。また、補強部材31は、例えば、板状部と、当該板状部から延設されて圧電素子7の側部を覆う延設部とを有する形状であってもよい。この場合、延設部と圧電素子7の側部とが、所定の距離だけ離間しているとよい。これにより、延設部が圧電素子の変形を阻害しにくくなる。   In said embodiment, although the reinforcement member 31 is a plate-shaped member, the shape of the reinforcement member 31 is not restricted to this. For example, the reinforcing member 31 may have a shape that is larger than the piezoelectric element 7 and has an end that curves toward the piezoelectric element 7 and covers the side of the piezoelectric element 7. The reinforcing member 31 may have, for example, a shape having a plate-like portion and an extending portion that extends from the plate-like portion and covers the side portion of the piezoelectric element 7. In this case, it is preferable that the extended portion and the side portion of the piezoelectric element 7 are separated by a predetermined distance. Thereby, it becomes difficult for the extending part to inhibit the deformation of the piezoelectric element.

パネル20と圧電素子7とを接着する接合部材およびパネル20と筺体40とを接着する接合部材等が同一の符号を有する接合部材30として説明した。しかしながら、接合部材は、接合する対象である部材に応じて適宜異なるものが用いられてよい。   The bonding member that bonds the panel 20 and the piezoelectric element 7 and the bonding member that bonds the panel 20 and the casing 40 have been described as the bonding member 30 having the same reference numeral. However, different joining members may be used as appropriate depending on the members to be joined.

上記の実施形態では、添付の請求項に係る装置の例として、携帯電話について説明したが、添付の請求項に係る装置は、携帯電話に限定されない。添付の請求項に係る装置は、携帯電話以外の携帯電子機器であってもよい。携帯電子機器は、例えば、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。   In the above embodiment, a mobile phone has been described as an example of a device according to the appended claims. However, the device according to the appended claims is not limited to a mobile phone. The device according to the appended claims may be a mobile electronic device other than a mobile phone. Examples of the portable electronic device include, but are not limited to, a tablet, a portable personal computer, a digital camera, a media player, an electronic book reader, a navigator, and a game machine.

添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。   The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be embodied by a simple configuration.

1A 携帯電話
2 ディスプレイ
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 圧電素子
8a 第1マイク
8b 第2マイク
8c 第3マイク
9 ストレージ
9A 制御プログラム
9B 通話アプリケーション
9C 音楽再生アプリケーション
9D 動画再生アプリケーション
9E 動画コンテンツ
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
15 姿勢検出ユニット
18 バイブレータ
20 パネル
21 タッチスクリーン
30 接合部材
40 筐体
DESCRIPTION OF SYMBOLS 1A Mobile phone 2 Display 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Piezoelectric element 8a 1st microphone 8b 2nd microphone 8c 3rd microphone 9 Storage 9A Control program 9B Call application 9C Music playback application 9D Video playback application 9E Video content 9Z Setting data 10 Controller 11 Speaker 12 Camera 15 Posture detection unit 18 Vibrator 20 Panel 21 Touch screen 30 Joining member 40 Housing

Claims (16)

圧電素子と、
前記圧電素子によって振動し、気導音と、人体の一部を振動させて伝わる振動音とを発生させる音発生部と、
音を含む画像コンテンツの画面が再生表示されるディスプレイと、
前記音発生部に対する前記人体の一部の接触位置を検出する検出部と、を備え、
前記画像コンテンツを前記ディスプレイに再生しているときに前記音発生部に対する前記人体の一部の接触が検出されると、前記音発生部は、前記画像コンテンツに含まれる音であって前記接触位置に対応する前記画面上の位置に対応付けられている音を発生させる
電子機器。
A piezoelectric element;
A sound generator that vibrates by the piezoelectric element and generates air conduction sound and vibration sound transmitted by vibrating a part of the human body;
A display on which a screen of image content including sound is reproduced and displayed;
A detection unit that detects a contact position of a part of the human body with respect to the sound generation unit,
When a contact of a part of the human body with the sound generation unit is detected while the image content is being reproduced on the display, the sound generation unit is a sound included in the image content, and the contact position An electronic device that generates a sound associated with a position on the screen corresponding to
前記画像コンテンツは、複数の音を含み、
前記画像コンテンツを前記ディスプレイに再生しているときに前記音発生部に対する前記人体の一部の接触が検出されると、前記音発生部は、前記画像コンテンツに含まれる複数の音のうち、前記音発生部上の位置に対応する前記画面上の位置の近傍に対応付けられている音を強調して発生させるコントローラと
請求項1に記載の電子機器。
The image content includes a plurality of sounds,
When contact of a part of the human body with the sound generation unit is detected while the image content is being reproduced on the display, the sound generation unit is configured to output the sound among the plurality of sounds included in the image content. The electronic device according to claim 1, wherein a controller that emphasizes and generates a sound associated with a position near the position on the screen corresponding to a position on the sound generation unit.
前記検出部は、前記人体の一部の前記音発生部に対する押圧の大きさを検出し、
前記音発生部は、前記人体の一部の押圧の大きさに応じて、前記画面上の位置の近傍に仮想的な音源を有する音を強調する請求項2に記載の電子機器。
The detection unit detects the amount of pressure on a part of the human body against the sound generation unit,
The electronic device according to claim 2, wherein the sound generation unit emphasizes a sound having a virtual sound source in the vicinity of a position on the screen in accordance with a pressing amount of a part of the human body.
前記検出部は、前記人体の一部が前記音発生部に接触する際の前記人体の一部と前記音発生部との位置関係を検出し、
前記音発生部は、前記画像コンテンツに含まれる複数の音の中から前記接触位置及び前記位置関係に基づいて選択された音を発生させる請求項2に記載の電子機器。
The detection unit detects a positional relationship between the part of the human body and the sound generation unit when the part of the human body contacts the sound generation unit,
The electronic device according to claim 2, wherein the sound generation unit generates a sound selected based on the contact position and the positional relationship from among a plurality of sounds included in the image content.
前記画像コンテンツは動画コンテンツを含み、
動画撮影時の音を入力する音入力部をさらに有し、
前記動画撮影時に前記音入力部により入力された複数の音ごとに、前記音の音圧の強弱に基づいて当該音の発信点とみなせる動画像上の位置を絞り込み、絞り込んだ位置に対応する前記画面上の座標値を音に対応付けて格納する請求項1に記載の電子機器。
The image content includes video content,
It further has a sound input part for inputting sound during movie shooting,
For each of a plurality of sounds input by the sound input unit at the time of moving image shooting, the position on the moving image that can be regarded as a transmission point of the sound is narrowed down based on the strength of the sound pressure of the sound, and the position corresponding to the narrowed position The electronic device according to claim 1, wherein coordinate values on the screen are stored in association with sounds.
前記コントローラは、動画の撮影待機時に、前記音発生部の位置に基づいて前記音入力部の指向性を変化させる請求項5に記載の電子機器。   The electronic device according to claim 5, wherein the controller changes the directivity of the sound input unit based on a position of the sound generation unit during standby for shooting a moving image. 前記音発生部は、パネルである請求項1から6のいずれか一項に記載の電子機器。   The electronic device according to claim 1, wherein the sound generator is a panel. 前記パネルは、人間の耳の対耳輪下脚から対耳珠までの間の距離に相当する長さと、耳珠から対耳輪までの間の距離に相当する幅とを有する領域よりも広い領域が振動する
請求項7に記載の電子機器。
The panel vibrates in a region wider than a region having a length corresponding to the distance from the lower leg of the human ear to the antitragus and a width corresponding to the distance from the tragus to the antique. The electronic device according to claim 7.
前記パネルは、表示パネル、操作パネル、カバーパネル、充電池を取り外し可能とするためのリッドパネルのいずれかの一部または全部を構成する
請求項7又は8に記載の電子機器。
The electronic device according to claim 7 or 8, wherein the panel constitutes a part or all of a display panel, an operation panel, a cover panel, and a lid panel for allowing a rechargeable battery to be removed.
前記パネルが表示パネルのとき、
前記圧電素子は、当該表示機能のための表示領域の外側に配置されている、
請求項9に記載の電子機器。
When the panel is a display panel,
The piezoelectric element is disposed outside a display area for the display function.
The electronic device according to claim 9.
前記パネルは、当該パネルのいずれの箇所においても気導音と人体振動音とを伝えるための変形が発生する
請求項7から10のいずれか一項に記載の電子機器。
The electronic device according to any one of claims 7 to 10, wherein the panel is deformed to transmit air conduction sound and human body vibration sound at any location of the panel.
前記パネルは、その振動領域において、当該パネルの主面と交差する方向に振動する箇所を複数有し、当該箇所の各々において、前記振動の振幅の値が時間とともにプラスからマイナスに、あるいはその逆に変動する
請求項7から11のいずれか一項に記載の電子機器。
The panel has a plurality of locations that vibrate in a direction intersecting with the main surface of the panel in the vibration region, and the amplitude value of the vibration is increased from plus to minus with time or vice versa at each location. The electronic apparatus according to claim 7, wherein the electronic apparatus varies.
音発生部と、
音を含む画像コンテンツの画面が再生表示されるディスプレイと、
前記パネルに対する前記人体の一部の接触位置を検出する検出部と、を備え、
前記画像コンテンツは表示される対象物を含み、
前記対象物に人体の一部が接触すると、当該対象物に対応付けられた音を再生する
電子機器。
A sound generator;
A display on which a screen of image content including sound is reproduced and displayed;
A detection unit that detects a contact position of a part of the human body with respect to the panel,
The image content includes an object to be displayed;
An electronic device that reproduces a sound associated with an object when a part of a human body comes into contact with the object.
圧電素子をさらに備え、
前記音発生部は、前記圧電素子によって振動し、気導音と、人体の一部を振動させて伝わる振動音とを発生させる
請求項13に記載の電子機器。
A piezoelectric element;
The electronic device according to claim 13, wherein the sound generation unit is vibrated by the piezoelectric element to generate air conduction sound and vibration sound transmitted by vibrating a part of a human body.
圧電素子と、前記圧電素子によって振動し、気導音と、人体の一部を振動させて伝わる振動音とを発生させる音発生部と、音を含む画像コンテンツの画面が再生表示されるディスプレイと、前記音発生部に対する前記人体の一部の接触位置を検出する検出部とを備える電子機器によって実行される制御方法であって、
前記画像コンテンツを前記ディスプレイに再生しているときに前記音発生部に対する前記人体の一部の接触が検出されると、前記画像コンテンツに含まれる音であって前記接触位置に対応する前記画面上の位置に対応付けられている音を前記音発生部により発生させるステップ
を含む制御方法。
A piezoelectric element, a sound generation unit that generates air conduction sound and vibration sound that is transmitted by vibrating a part of a human body, and a display that reproduces and displays a screen of image content including the sound. A control method executed by an electronic device including a detection unit that detects a contact position of a part of the human body with respect to the sound generation unit,
When the contact of a part of the human body with the sound generation unit is detected while the image content is being reproduced on the display, the sound included in the image content and corresponding to the contact position on the screen A control method including a step of causing the sound generation unit to generate a sound associated with the position of the sound.
圧電素子と、前記圧電素子によって振動し、気導音と、人体の一部を振動させて伝わる振動音とを発生させる音発生部と、音を含む画像コンテンツの画面が再生表示されるディスプレイと、前記音発生部に対する前記人体の一部の接触位置を検出する検出部とを備える電子機器に、
前記画像コンテンツを前記ディスプレイに再生しているときに前記音発生部に対する前記人体の一部の接触が検出されると、前記画像コンテンツに含まれる音であって前記接触位置に対応する前記画面上の位置に対応付けられている音を前記音発生部により発生させるステップ
を実行させる制御プログラム。
A piezoelectric element, a sound generation unit that generates air conduction sound and vibration sound that is transmitted by vibrating a part of a human body, and a display that reproduces and displays a screen of image content including the sound. In an electronic device comprising a detection unit that detects a contact position of a part of the human body with respect to the sound generation unit,
When the contact of a part of the human body with the sound generation unit is detected while the image content is being reproduced on the display, the sound included in the image content and corresponding to the contact position on the screen A control program for executing the step of causing the sound generating unit to generate a sound associated with the position of the sound.
JP2012105521A 2012-05-02 2012-05-02 Electronic device, control method, and control program Expired - Fee Related JP5865774B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012105521A JP5865774B2 (en) 2012-05-02 2012-05-02 Electronic device, control method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012105521A JP5865774B2 (en) 2012-05-02 2012-05-02 Electronic device, control method, and control program

Publications (2)

Publication Number Publication Date
JP2013236136A true JP2013236136A (en) 2013-11-21
JP5865774B2 JP5865774B2 (en) 2016-02-17

Family

ID=49761935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012105521A Expired - Fee Related JP5865774B2 (en) 2012-05-02 2012-05-02 Electronic device, control method, and control program

Country Status (1)

Country Link
JP (1) JP5865774B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109862293A (en) * 2019-03-25 2019-06-07 深圳创维-Rgb电子有限公司 Control method, equipment and the computer readable storage medium of terminal horn
CN111698358A (en) * 2020-06-09 2020-09-22 Oppo广东移动通信有限公司 Electronic device
US10922047B2 (en) 2019-03-25 2021-02-16 Shenzhen Skyworth-Rgb Electronic Co., Ltd. Method and device for controlling a terminal speaker and computer readable storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11355617A (en) * 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd Camera with image display device
JP2003179988A (en) * 2001-06-28 2003-06-27 Matsushita Electric Ind Co Ltd Speaker system, mobile terminal device and electronic device
JP2005348193A (en) * 2004-06-04 2005-12-15 Nec Tokin Corp Receiver
JP2006237659A (en) * 2005-02-21 2006-09-07 Citizen Electronics Co Ltd Panel-loudspeaker
JP2006261900A (en) * 2005-03-16 2006-09-28 Casio Comput Co Ltd Imaging apparatus, and imaging control program
JP2008193196A (en) * 2007-02-01 2008-08-21 Casio Comput Co Ltd Imaging device and specified voice output method
JP2010193274A (en) * 2009-02-19 2010-09-02 Nikon Corp Information processing apparatus, image capturing apparatus, program, and computer-readable recording medium with the program recorded thereon

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11355617A (en) * 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd Camera with image display device
JP2003179988A (en) * 2001-06-28 2003-06-27 Matsushita Electric Ind Co Ltd Speaker system, mobile terminal device and electronic device
JP2005348193A (en) * 2004-06-04 2005-12-15 Nec Tokin Corp Receiver
JP2006237659A (en) * 2005-02-21 2006-09-07 Citizen Electronics Co Ltd Panel-loudspeaker
JP2006261900A (en) * 2005-03-16 2006-09-28 Casio Comput Co Ltd Imaging apparatus, and imaging control program
JP2008193196A (en) * 2007-02-01 2008-08-21 Casio Comput Co Ltd Imaging device and specified voice output method
JP2010193274A (en) * 2009-02-19 2010-09-02 Nikon Corp Information processing apparatus, image capturing apparatus, program, and computer-readable recording medium with the program recorded thereon

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109862293A (en) * 2019-03-25 2019-06-07 深圳创维-Rgb电子有限公司 Control method, equipment and the computer readable storage medium of terminal horn
CN109862293B (en) * 2019-03-25 2021-01-12 深圳创维-Rgb电子有限公司 Control method and device for terminal loudspeaker and computer readable storage medium
US10922047B2 (en) 2019-03-25 2021-02-16 Shenzhen Skyworth-Rgb Electronic Co., Ltd. Method and device for controlling a terminal speaker and computer readable storage medium
CN111698358A (en) * 2020-06-09 2020-09-22 Oppo广东移动通信有限公司 Electronic device

Also Published As

Publication number Publication date
JP5865774B2 (en) 2016-02-17

Similar Documents

Publication Publication Date Title
JP6017828B2 (en) Electronic device, control method, and control program
JP5856196B2 (en) Electronics
JP5812925B2 (en) Electronics
JP5818922B2 (en) Electronics
WO2013164999A1 (en) Electronic device, control method, and control program
JP6121517B2 (en) apparatus
WO2013164980A1 (en) Electronic apparatus, control method, and control program
JP2014112916A (en) Electronic apparatus
JP5968018B2 (en) Electronics
WO2014003148A1 (en) Electronic device, control method, and control program
JP5865774B2 (en) Electronic device, control method, and control program
JP6067999B2 (en) Electronic device, control method, and control program
JP2013232853A (en) Electronic apparatus, control method, and control program
JP6099320B2 (en) Electronic device, control method, and control program
JP6242040B2 (en) Electronic device, control method, and control program
JP6282825B2 (en) Electronics
JP2013236139A (en) Electronic apparatus, control method, and control program
JP6017829B2 (en) Electronics
JP2014007444A (en) Electronic apparatus, control method, and control program
JP6110078B2 (en) Electronic device, control method, and control program
JP2014082674A (en) Electronic device, control method, and control program
JP2014011511A (en) Electronic device, control method, and control program
JP2014011512A (en) Electronic device, control method, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151228

R150 Certificate of patent or registration of utility model

Ref document number: 5865774

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees