JP2013034057A - Electronic apparatus, audio reproduction method, and program - Google Patents
Electronic apparatus, audio reproduction method, and program Download PDFInfo
- Publication number
- JP2013034057A JP2013034057A JP2011168235A JP2011168235A JP2013034057A JP 2013034057 A JP2013034057 A JP 2013034057A JP 2011168235 A JP2011168235 A JP 2011168235A JP 2011168235 A JP2011168235 A JP 2011168235A JP 2013034057 A JP2013034057 A JP 2013034057A
- Authority
- JP
- Japan
- Prior art keywords
- user
- output
- parameter
- sound
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
本発明は、携帯電話に搭載されるマイクロフォンから入力される音声を用いてユーザの音響特性を識別し、ユーザにとって快適な音響再生を行う電子機器、音響再生方法、及びプログラムに関する。 The present invention relates to an electronic device, a sound reproduction method, and a program for identifying a user's acoustic characteristics using sound input from a microphone mounted on a mobile phone and performing sound reproduction comfortable for the user.
近年、携帯電話の需要拡大に伴い、装置メーカ各社においては、TV電話や動画再生、ハンズフリー電話機能を搭載した薄型スタイリッシュ携帯の開発に取り組んでいる。この中、音響機能への要望は大きく、特に、高音質通話への要求は高い。 In recent years, with the expansion of demand for mobile phones, device manufacturers are working on the development of thin and stylish mobile phones equipped with video phone, video playback, and hands-free phone functions. Among these, there is a great demand for acoustic functions, and in particular, a demand for high-quality voice calls is high.
ところで、ユーザにとって、高音質を定義した場合、平坦な音圧レベル周波数特性といった示強量だけでは定義できず、アルゴリズムなど感覚的な特性も考慮する必要がある。また、音は感覚量であるため、ユーザの年齢や、性別、言語などの環境的な側面を考慮する必要がある。 By the way, when a high sound quality is defined for a user, it cannot be defined only by an intensity such as a flat sound pressure level frequency characteristic, but a sensory characteristic such as an algorithm needs to be considered. Since sound is a sensory quantity, it is necessary to consider environmental aspects such as the user's age, sex, and language.
しかしながら、携帯電話の音響設計においては、特定のユーザを対象としたオピニオン評価に基づき音響特性を決定しており、必ずしもすべてのユーザにとって高音質な音の再生ができないという問題がある。 However, in the acoustic design of mobile phones, the acoustic characteristics are determined based on opinion evaluation for a specific user, and there is a problem that high-quality sound cannot be reproduced for all users.
そこで、例えば、特許文献1には、加齢に伴う聴覚の変化(最小可聴限の変化)に対処するために、ユーザが手入力した年齢に基づいてメモリから年齢層に対応する各帯域の受信パラメータを決定し、該受信パラメータに基づき各帯域毎に重み付けし、レシーバから出力される音声の周波数特性、及びレベルを補正する技術が開示されている。 Therefore, for example, Patent Document 1 discloses that each band corresponding to an age group is received from a memory based on an age manually input by a user in order to deal with a change in hearing (change in minimum audible limit) associated with aging. A technique is disclosed in which parameters are determined, weighted for each band based on the received parameters, and frequency characteristics and levels of sound output from the receiver are corrected.
上述した特許文献1では、わざわざユーザ自身の年齢を手入力しなければならず、操作が煩雑であるという問題がある。また、前述したように、性別、言語などの環境的な側面を考慮する必要があるが、上述した特許文献1では、年齢情報だけで、出力音声の周波数特性、及びレベルを補正しているため、十分満足し得るだけの高音質な音の再生ができないという問題がある。 In Patent Document 1 described above, there is a problem that the user's own age must be manually input, and the operation is complicated. As described above, environmental aspects such as gender and language need to be considered. However, in Patent Document 1 described above, the frequency characteristics and level of the output sound are corrected only by age information. There is a problem that it is not possible to reproduce high-quality sound that can be satisfactorily satisfied.
そこで本発明は、ユーザの可聴周波数帯に最適な音響特性で音声を出力することができる電子機器、音響再生方法、及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an electronic device, an acoustic reproduction method, and a program that can output sound with an acoustic characteristic that is optimal for a user's audible frequency band.
本発明の電子機器は、音声をスピーカにより出力する電子機器であって、ユーザの音声を入力する入力手段と、前記入力手段で入力された音声を分析する分析手段と、前記分析手段による分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するセグメント識別手段と、前記セグメント識別手段により識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するパラメータ選択手段と、前記パラメータ選択手段により選択された出力音声パラメータに従って、前記スピーカから出力する出力音声の音響特性を補正する補正手段とを備えることを特徴とする電子機器である。 The electronic apparatus according to the present invention is an electronic apparatus that outputs a sound through a speaker, an input unit that inputs a user's voice, an analysis unit that analyzes the voice input by the input unit, and an analysis result by the analysis unit Segment identifying means for identifying a segment representing the user's characteristic based on the parameter, parameter selecting means for selecting an output speech parameter based on the segment representing the user's characteristic identified by the segment identifying means, and the parameter An electronic apparatus comprising: correction means for correcting acoustic characteristics of output sound output from the speaker in accordance with an output sound parameter selected by the selection means.
本発明の音響再生方法は、音声をスピーカにより出力する電子機器の音響再生方法であって、マイクロフォンからユーザの音声を入力するステップと、前記マイクロフォンから入力された音声を分析するステップと、前記分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するステップと、前記識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するステップと、前記選択された出力音声パラメータに従って、前記スピーカから出力する出力音声の音響特性を補正するステップとを含むことを特徴とする音響再生方法である。 The acoustic reproduction method of the present invention is an acoustic reproduction method for an electronic device that outputs sound through a speaker, the step of inputting a user's voice from a microphone, the step of analyzing the voice input from the microphone, and the analysis Based on the results, identifying a segment representing a user characteristic; selecting an output speech parameter based on the identified segment representing the user characteristic; and according to the selected output speech parameter, And correcting the acoustic characteristics of the output sound output from the speaker.
本発明のプログラムは、音声をスピーカにより出力する電子機器のコンピュータに、
ユーザの音声を入力する入力機能、前記入力機能で入力された音声を分析する分析機能、前記分析機能による分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するセグメント識別機能、前記セグメント識別機能により識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するパラメータ選択機能、前記パラメータ選択機能により選択された出力音声パラメータに従って、前記スピーカから出力する出力音声の音響特性を補正する補正機能を実行させることを特徴とするプログラムである。
The program of the present invention is stored in a computer of an electronic device that outputs sound through a speaker.
An input function for inputting the user's voice, an analysis function for analyzing the voice input by the input function, a segment identification function for identifying a segment representing the user's characteristics based on an analysis result by the analysis function, and the segment identification function A parameter selection function for selecting an output audio parameter based on a segment representing a user characteristic identified by the above, and correcting an acoustic characteristic of the output audio output from the speaker according to the output audio parameter selected by the parameter selection function It is a program characterized by causing a correction function to be executed.
この発明によれば、ユーザの可聴周波数帯に最適な音響特性で音声を出力することができる。 According to the present invention, it is possible to output sound with acoustic characteristics that are optimal for the user's audible frequency band.
本発明は、携帯電話に搭載されるマイクロフォンから入力される音声を用いてユーザのセグメントを識別し、予めセグメント毎に蓄積していた最適な音響特性に従って、電気音響変換器を用いて再生することで、ユーザにとって快適な音響再生を行う。なお、セグメントとは、性別、言語、年齢などである。 The present invention identifies a user's segment using voice input from a microphone mounted on a mobile phone, and reproduces it using an electroacoustic transducer in accordance with optimal acoustic characteristics accumulated in advance for each segment. Thus, sound reproduction that is comfortable for the user is performed. Segments include gender, language, age, and so on.
以下、本発明の実施の形態を、図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の実施形態による携帯電話1の構成を示すブロック図である。図において、携帯電話1は、通信部2、撮影部3、ROM4、RAM5、タッチパネル6、表示部7、音声処理部8、マイク9、スピーカ10、及び制御部(CPU)11を備えている。
FIG. 1 is a block diagram showing a configuration of a mobile phone 1 according to an embodiment of the present invention. In the figure, the mobile phone 1 includes a communication unit 2, a photographing
通信部2は、電話回線網を介して、音声通信や、データ通信を行う。撮影部3は、フォーカスレンズ、ズームレンズなどのレンズ群、撮像素子(CCDなど)を含み、制御部(CPU)11からの制御信号に従って、オートフォーカシング、絞り、ズーミングなどを調整し、静止画や、動画を撮影し、撮像信号として出力する。
The communication unit 2 performs voice communication and data communication via a telephone line network. The photographing
ROM4は、制御部(CPU)11による携帯電話1の各部の制御に必要なプログラム、及び各部の制御に必要なデータを記憶している。RAM5は、撮影部3によって撮像された画像データや、動画データを一時記憶するバッファメモリとして使用されるとともに、制御部(CPU)11のワーキングメモリとして使用される。
The
また、ROM4、またはRAM5は、予め、オピニオン試験より収集した、年齢、言語、性別などによる音声帯域に基づいて、ユーザの聴覚特性に最適な出力音声パラメータを選択するための、パラメータデータベースを保持している。なお、以下では、ROM4がパラメータデータベース41を保持しているものとして説明する。
In addition, the
タッチパネル6は、表示部7上に設けられており、表示部7に表示される表示に従って、動作指示、データ入力等をタッチ操作するためのものである。表示部7は、カラーLCDとその駆動回路を含み、撮影部3による撮像画像や、動画、通信/通話に係る各種情報を表示する。
The touch panel 6 is provided on the display unit 7 and is used for touch operation of operation instructions, data input, and the like according to the display displayed on the display unit 7. The display unit 7 includes a color LCD and a driving circuit thereof, and displays images captured by the
音声処理部8は、通話時には、マイク9からの音声を制御部(CPU)11に供給するとともに、制御部(CPU)11により設定された、出力音声パラメータに従って、出力音声の周波数特性、及びレベルを補正してスピーカ10から出力する。マイク9、スピーカ10は、予め搭載されている既存のものである。
The voice processing unit 8 supplies the voice from the microphone 9 to the control unit (CPU) 11 during a call, and at the same time outputs the frequency characteristics and level of the output voice according to the output voice parameters set by the control unit (CPU) 11. Is output from the
制御部(CPU)11は、マイク9を利用してユーザの音声を検出すると、音声識別することでユーザのセグメント(年齢、言語、性別)を識別し、該識別したユーザのセグメントに一致する出力音声パラメータを、パラメータデータベース41から選択し、音声処理部8に設定する。これにより、通話時などの音声出力時に、音声処理部8では、設定された出力音声パラメータに従って、スピーカ10から出力される音声の周波数特性、及びレベルが補正される。出力される音声は、ユーザの音声から得たセグメントに応じた出力音声パラメータで補正されるので、ユーザにとって最適な周波数特性を有する音、すなわち聞き取りやすい音として聞くことができる。
When the control unit (CPU) 11 detects the user's voice using the microphone 9, the control unit (CPU) 11 identifies the user's segment (age, language, gender) by identifying the voice, and outputs matching the identified user's segment. A voice parameter is selected from the
図2は、オピニオン試験より収集した、年齢別の最適な周波数特性の一例を示す概念図である。人は、加齢に伴い、聴覚の変化(最小可聴限の変化)が生じる。図2には、年代別の可聴周波数帯を示している。20歳以下、20〜50歳、50歳以上と年代によって、その可聴周波数帯と音圧レベルとが変化しているのが分かる。なお、図2では、年代での可聴周波数帯の変化を示したが、これ以外にも、言語、性別によって可聴周波数帯が変化することが知られている。 FIG. 2 is a conceptual diagram showing an example of optimum frequency characteristics for each age collected from the opinion test. As people age, changes in hearing (changes in the minimum audible limit) occur. FIG. 2 shows audible frequency bands by age. It can be seen that the audible frequency band and the sound pressure level change depending on the age, 20 years old or younger, 20-50 years old, 50 years old or older. In addition, although the change of the audible frequency band in the age was shown in FIG. 2, it is known that the audible frequency band changes depending on language and sex.
本実施形態では、マイク9から入力されるユーザの音声を分析し、ユーザのセグメント(年齢、言語、性別)に対応する出力音声パラメータを設定することで、ユーザの可聴周波数帯に最適な音響特性で音声を出力するようになっている。 In the present embodiment, the user's voice input from the microphone 9 is analyzed, and the output voice parameter corresponding to the user's segment (age, language, gender) is set, so that the optimum acoustic characteristics for the user's audible frequency band It is designed to output sound.
図3は、本実施形態による、パラメータデータベース41のデータ構成例を示す概念図である。パラメータデータベース41は、予めオピニオン試験より収集した、セグメント(年齢、言語、性別)毎に蓄積していた最適な音響特性(出力音声パラメータ)を保持している。制御部(CPU)11は、入力された音声を分析し、ユーザのセグメントを識別すると、そのセグメントに従って、パラメータデータベース41を参照し、対応する出力音声パラメータを選択する。
FIG. 3 is a conceptual diagram illustrating a data configuration example of the
例えば、ユーザが日本語を話す30代の男性ならば、出力音声パラメータA2が選択される。あるいは、ユーザが英語を話す18歳の女性ならば、出力音声パラメータb1が選択される。このように選択された出力音声パラメーラが、音声処理部8に設定されることにより、音声出力における音響特性が当該ユーザにより適した特性に自動的に設定されるようになっている。 For example, if the user is a man in his 30s who speaks Japanese, the output speech parameter A2 is selected. Alternatively, if the user is an 18-year-old woman who speaks English, the output speech parameter b1 is selected. By setting the output audio parameter selected in this way in the audio processing unit 8, the acoustic characteristics in the audio output are automatically set to characteristics more suitable for the user.
次に、上述した実施形態の動作について説明する。
図4は、本実施形態による携帯電話の動作(出力音声設定)を説明するためのフローチャートである。まず、制御部(CPU)11は、出力音声設定が開始されたか否かを判定する(ステップS10)。そして、出力音声設定が開始されない場合には(ステップS10のNO)、出力音声設定が開始されるまで待機する。より具体的には、待ち受け画面などにおいて、タッチ操作などにより、出力音声設定モードが選択されると、出力音声設定が開始されると判定すればよい。
Next, the operation of the above-described embodiment will be described.
FIG. 4 is a flowchart for explaining the operation (output voice setting) of the mobile phone according to the present embodiment. First, the control unit (CPU) 11 determines whether or not output audio setting has been started (step S10). If the output sound setting is not started (NO in step S10), the process waits until the output sound setting is started. More specifically, it may be determined that the output sound setting is started when the output sound setting mode is selected by a touch operation or the like on a standby screen or the like.
一方、出力音声設定が開始されると、マイク9から音声を入力する(ステップS12)。より具体的には、出力音声設定が開始されると、音声入力ボタンを表示し、該音声入力ボタンがタッチされると、音声入力を促すメッセージを表示し、音声入力されるのを待てばよい。そして、音声が入力されると、音圧周波数特性の分布、音声のスペクトル、フォルマントなどの特徴量を抽出、分析し(ステップS14)、ユーザのセグメント(言語、性別、年齢)を識別する(ステップS16)。 On the other hand, when the output sound setting is started, sound is input from the microphone 9 (step S12). More specifically, when the output voice setting is started, a voice input button is displayed. When the voice input button is touched, a message prompting voice input is displayed, and it is only necessary to wait for voice input. . When speech is input, feature quantities such as distribution of sound pressure frequency characteristics, speech spectrum, formant, etc. are extracted and analyzed (step S14), and the user's segment (language, gender, age) is identified (step). S16).
次に、識別したユーザのセグメントに従って、パラメータデータベース41を参照し、対応する出力音声パラメータを選択し(ステップS18)、選択した出力音声パラメータを音声処理部8に設定する(ステップS20)。より具体的には、音声処理部8における、イコライザなどの音響特性を出力音声パラメータでチューニングする。
Next, referring to the
そして、設定が終了したか否かを判定し(ステップS22)、設定の終了操作がない場合には(ステップS22のNO)、ステップS12に戻り、設定を継続する。一方、設定の終了操作があった場合には(ステップS22のYES)、当該処理を終了する。 Then, it is determined whether or not the setting is completed (step S22). If there is no setting ending operation (NO in step S22), the process returns to step S12 and the setting is continued. On the other hand, if there is a setting end operation (YES in step S22), the process ends.
図5は、本実施形態による携帯電話の動作(音声出力)を説明するためのフローチャートである。音声処理部8は、ユーザが携帯電話で通話を行う際に、図5に示すフローチャートに従って動作する。音声処理部8では、通話等に伴う音声出力時には、設定された出力音声パラメータに基づいて、出力すべき音声(通話相手の音声、当該ユーザのマイク9から入力される音声の一部)の音声帯域特性を補正し(ステップS30)、補正された音声をスピーカ10から出力する。
FIG. 5 is a flowchart for explaining the operation (audio output) of the mobile phone according to the present embodiment. The voice processing unit 8 operates according to the flowchart shown in FIG. 5 when the user makes a call using a mobile phone. The voice processing unit 8 outputs voice to be output (voice of the other party of the call, part of the voice input from the user's microphone 9) based on the set output voice parameter when outputting voice accompanying a call or the like. The band characteristic is corrected (step S30), and the corrected sound is output from the
なお、本実施形態は、端末装置として携帯電話に適用した例であるが、本発明はこれに限定されるものではない。通話可能な携帯型または据置型の端末機器、例えば、通話機能を持つ携帯情報端末、パーソナルコンピュータ、通信機、その他の電子機器等にも幅広く適用できる。あるいは、通話機能を備えなくとも、音楽ファイルを再生する音楽再生装置などに適用してもよい。 Although this embodiment is an example applied to a mobile phone as a terminal device, the present invention is not limited to this. The present invention can be widely applied to portable or stationary terminal devices capable of making calls, such as portable information terminals having a call function, personal computers, communication devices, and other electronic devices. Alternatively, the present invention may be applied to a music playback device that plays back a music file without providing a call function.
上述した実施形態によれば、予めオピニオン試験より収集し、統計分析し、年齢、言語、性別などに応じた最適な出力音声パラメータをパラメータデータベース41としてデータベース化しておき、入力された音声を分析し、ユーザのセグメントを識別し、そのセグメントに従って、パラメータデータベース41を参照し、対応する出力音声パラメータを選択し、該出力音声パラメータに従って、出力すべき音声の音声帯域特性を補正するようにしたので、ユーザの可聴周波数帯に最適な音響特性で音声を出力することができる。
According to the above-described embodiment, it is collected from the opinion test in advance, statistically analyzed, and the optimal output speech parameters according to age, language, sex, etc. are created as a
以下、本発明の特徴を付記する。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
図6は、付記1の構成図である。この図に示すように、付記1記載の発明は、
音声をスピーカにより出力する電子機器20であって、
ユーザの音声を入力する入力手段21と、
前記入力手段21で入力された音声を分析する分析手段22と、
前記分析手段22による分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するセグメント識別手段23と、
前記セグメント識別手段23により識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するパラメータ選択手段24と、
前記パラメータ選択手段24により選択された出力音声パラメータに従って、前記スピーカ26から出力する出力音声の音響特性を補正する補正手段25と
を備えることを特徴とする電子機器である。
The features of the present invention will be described below.
A part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.
(Appendix 1)
FIG. 6 is a configuration diagram of Supplementary Note 1. As shown in this figure, the invention described in Appendix 1 is
An
Input means 21 for inputting user's voice;
Analyzing means 22 for analyzing the voice input by the input means 21;
Segment identification means 23 for identifying a segment representing the characteristics of the user based on the analysis result by the analysis means 22;
Parameter selecting means 24 for selecting an output audio parameter based on the segment representing the user's characteristics identified by the
An electronic apparatus comprising: correction means 25 for correcting the acoustic characteristics of the output sound output from the
(付記2)
予め、オピニオン試験より収集、統計分析し、前記ユーザの特徴を表わす複数のセグメントの組み合わせ毎に対応する出力音声パラメータを保持するパラメータ保持手段を更に備え、
前記パラメータ選択手段は、前記セグメント識別手段により識別された、前記ユーザの特徴を表わすセグメントに従って、前記パラメータ保持手段から対応する出力音声パラメータ選択する
ことを特徴とする付記1に記載の電子機器である。
(Appendix 2)
It further comprises parameter holding means for collecting and statistically analyzing in advance from an opinion test and holding output speech parameters corresponding to combinations of a plurality of segments representing the characteristics of the user,
The electronic device according to appendix 1, wherein the parameter selection unit selects a corresponding output audio parameter from the parameter holding unit according to a segment representing the user's characteristics identified by the segment identification unit. .
(付記3)
前記ユーザの特徴を表わすセグメントは、ユーザの年齢、ユーザの話す言語、ユーザの性別であることを特徴とする付記1または2に記載の電子機器である。
(Appendix 3)
The electronic device according to appendix 1 or 2, wherein the segment representing the user's characteristics is a user's age, a user's spoken language, and a user's gender.
(付記4)
音声をスピーカにより出力する電子機器の音響再生方法であって、
マイクロフォンからユーザの音声を入力するステップと、
前記マイクロフォンから入力された音声を分析するステップと、
前記分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するステップと、
前記識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するステップと、
前記選択された出力音声パラメータに従って、前記スピーカから出力する出力音声の音響特性を補正するステップと
を含むことを特徴とする音響再生方法である。
(Appendix 4)
A method of reproducing sound of an electronic device that outputs sound through a speaker,
Inputting a user's voice from a microphone;
Analyzing voice input from the microphone;
Identifying a segment representing user characteristics based on the analysis results;
Selecting an output speech parameter based on the identified segment representing the user's characteristics;
Correcting the acoustic characteristics of the output sound output from the speaker in accordance with the selected output sound parameter.
(付記5)
前記出力音声パラメータは、予め、オピニオン試験より収集、統計分析され、前記ユーザの特徴を表わす複数のセグメントの組み合わせ毎に保持されていることを特徴とする付記4に記載の音響再生方法である。
(Appendix 5)
The sound reproduction method according to
(付記6)
前記ユーザの特徴を表わすセグメントは、ユーザの年齢、ユーザの話す言語、ユーザの性別であることを特徴とする付記4または5に記載の音響再生方法。
(Appendix 6)
6. The sound reproduction method according to
(付記7)
音声をスピーカにより出力する電子機器のコンピュータに、
ユーザの音声を入力する入力機能、
前記入力機能で入力された音声を分析する分析機能、
前記分析機能による分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するセグメント識別機能、
前記セグメント識別機能により識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するパラメータ選択機能、
前記パラメータ選択機能により選択された出力音声パラメータに従って、前記スピーカから出力する出力音声の音響特性を補正する補正機能
を実行させることを特徴とするプログラムである。
(Appendix 7)
To the computer of the electronic device that outputs the sound through the speaker,
Input function to input user's voice,
An analysis function for analyzing the voice input by the input function;
A segment identification function for identifying a segment representing the characteristics of the user based on the analysis result of the analysis function;
A parameter selection function for selecting an output audio parameter based on the segment representing the user's characteristics identified by the segment identification function;
In accordance with the output sound parameter selected by the parameter selection function, a program for executing a correction function for correcting the acoustic characteristics of the output sound output from the speaker.
1 携帯電話
2 通信部
3 撮影部
4 ROM
41 パラメータデータベース
5 RAM
6 タッチパネル
7 表示部
8 音声処理部
9 マイク
10 スピーカ
11 制御部(CPU)
1 Mobile phone 2
41
6 Touch Panel 7 Display Unit 8 Audio Processing Unit 9
Claims (7)
ユーザの音声を入力する入力手段と、
前記入力手段で入力された音声を分析する分析手段と、
前記分析手段による分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するセグメント識別手段と、
前記セグメント識別手段により識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するパラメータ選択手段と、
前記パラメータ選択手段により選択された出力音声パラメータに従って、前記スピーカから出力する出力音声の音響特性を補正する補正手段と
を備えることを特徴とする電子機器。 An electronic device that outputs sound through a speaker,
An input means for inputting a user's voice;
Analyzing means for analyzing the voice input by the input means;
Segment identification means for identifying a segment representing the characteristics of the user based on the analysis result by the analysis means;
Parameter selection means for selecting an output speech parameter based on the segment representing the user's characteristics identified by the segment identification means;
An electronic device comprising: correction means for correcting acoustic characteristics of output sound output from the speaker according to the output sound parameter selected by the parameter selection means.
前記パラメータ選択手段は、前記セグメント識別手段により識別された、前記ユーザの特徴を表わすセグメントに従って、前記パラメータ保持手段から対応する出力音声パラメータ選択する
ことを特徴とする請求項1に記載の電子機器。 It further comprises parameter holding means for collecting and statistically analyzing in advance from an opinion test and holding output speech parameters corresponding to combinations of a plurality of segments representing the characteristics of the user,
The electronic apparatus according to claim 1, wherein the parameter selection unit selects a corresponding output voice parameter from the parameter holding unit according to the segment representing the user's characteristic identified by the segment identification unit.
マイクロフォンからユーザの音声を入力するステップと、
前記マイクロフォンから入力された音声を分析するステップと、
前記分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するステップと、
前記識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するステップと、
前記選択された出力音声パラメータに従って、前記スピーカから出力する出力音声の音響特性を補正するステップと
を含むことを特徴とする音響再生方法。 A method of reproducing sound of an electronic device that outputs sound through a speaker,
Inputting a user's voice from a microphone;
Analyzing voice input from the microphone;
Identifying a segment representing user characteristics based on the analysis results;
Selecting an output speech parameter based on the identified segment representing the user's characteristics;
Correcting the acoustic characteristics of the output sound output from the speaker in accordance with the selected output sound parameter.
ユーザの音声を入力する入力機能、
前記入力機能で入力された音声を分析する分析機能、
前記分析機能による分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するセグメント識別機能、
前記セグメント識別機能により識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するパラメータ選択機能、
前記パラメータ選択機能により選択された出力音声パラメータに従って、前記スピーカから出力する出力音声の音響特性を補正する補正機能
を実行させることを特徴とするプログラム。
To the computer of the electronic device that outputs the sound through the speaker,
Input function to input user's voice,
An analysis function for analyzing the voice input by the input function;
A segment identification function for identifying a segment representing the characteristics of the user based on the analysis result of the analysis function;
A parameter selection function for selecting an output audio parameter based on the segment representing the user's characteristics identified by the segment identification function;
A program for executing a correction function for correcting acoustic characteristics of output sound output from the speaker in accordance with an output sound parameter selected by the parameter selection function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011168235A JP2013034057A (en) | 2011-08-01 | 2011-08-01 | Electronic apparatus, audio reproduction method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011168235A JP2013034057A (en) | 2011-08-01 | 2011-08-01 | Electronic apparatus, audio reproduction method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013034057A true JP2013034057A (en) | 2013-02-14 |
Family
ID=47789571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011168235A Withdrawn JP2013034057A (en) | 2011-08-01 | 2011-08-01 | Electronic apparatus, audio reproduction method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013034057A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015199279A1 (en) * | 2014-06-24 | 2015-12-30 | Lg Electronics Inc. | Mobile terminal and control method thereof |
WO2017029850A1 (en) * | 2015-08-20 | 2017-02-23 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2019146055A (en) * | 2018-02-22 | 2019-08-29 | クラリオン株式会社 | Telephone call device and control method therefor |
JP2020064151A (en) * | 2018-10-16 | 2020-04-23 | 東京瓦斯株式会社 | Reproduction system and program |
JP2020086027A (en) * | 2018-11-20 | 2020-06-04 | 東京瓦斯株式会社 | Voice reproduction system and program |
-
2011
- 2011-08-01 JP JP2011168235A patent/JP2013034057A/en not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015199279A1 (en) * | 2014-06-24 | 2015-12-30 | Lg Electronics Inc. | Mobile terminal and control method thereof |
US9973617B2 (en) | 2014-06-24 | 2018-05-15 | Lg Electronics Inc. | Mobile terminal and control method thereof |
WO2017029850A1 (en) * | 2015-08-20 | 2017-02-23 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2019146055A (en) * | 2018-02-22 | 2019-08-29 | クラリオン株式会社 | Telephone call device and control method therefor |
JP2020064151A (en) * | 2018-10-16 | 2020-04-23 | 東京瓦斯株式会社 | Reproduction system and program |
JP7218143B2 (en) | 2018-10-16 | 2023-02-06 | 東京瓦斯株式会社 | Playback system and program |
JP2020086027A (en) * | 2018-11-20 | 2020-06-04 | 東京瓦斯株式会社 | Voice reproduction system and program |
JP7284570B2 (en) | 2018-11-20 | 2023-05-31 | 東京瓦斯株式会社 | Sound reproduction system and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104991754B (en) | The way of recording and device | |
CN105632508B (en) | Audio processing method and audio processing device | |
US20150149169A1 (en) | Method and apparatus for providing mobile multimodal speech hearing aid | |
CN110097890B (en) | Voice processing method and device for voice processing | |
JP6931819B2 (en) | Voice processing device, voice processing method and voice processing program | |
JP2005277999A (en) | Personal digital assistant, and voice output adjustment method of the personal digital assistant | |
CN104025192B (en) | Intelligent automated audio records leveller | |
JP2013034057A (en) | Electronic apparatus, audio reproduction method, and program | |
CN107493500A (en) | Multimedia resource player method and device | |
CN108845787B (en) | Audio adjusting method, device, terminal and storage medium | |
JP2009020291A (en) | Speech processor and communication terminal apparatus | |
CN112037825B (en) | Audio signal processing method and device and storage medium | |
CN110931028B (en) | Voice processing method and device and electronic equipment | |
KR20140145401A (en) | Method and apparatus for cancelling noise in an electronic device | |
CN113409764A (en) | Voice synthesis method and device for voice synthesis | |
US11354520B2 (en) | Data processing method and apparatus providing translation based on acoustic model, and storage medium | |
CN104851423B (en) | Sound information processing method and device | |
WO2012002537A1 (en) | Portable electronic apparatus and audio control system | |
WO2017166495A1 (en) | Method and device for voice signal processing | |
KR20100081022A (en) | Method for updating phonebook and mobile terminal using the same | |
US11388281B2 (en) | Adaptive method and apparatus for intelligent terminal, and terminal | |
CN110580910B (en) | Audio processing method, device, equipment and readable storage medium | |
JP2020140178A (en) | Voice conversion device, voice conversion system and program | |
CN113766403B (en) | Hearing aid adaptability training correction method and device | |
CN113345451B (en) | Sound changing method and device and electronic equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141007 |