JP2013034057A - Electronic apparatus, audio reproduction method, and program - Google Patents

Electronic apparatus, audio reproduction method, and program Download PDF

Info

Publication number
JP2013034057A
JP2013034057A JP2011168235A JP2011168235A JP2013034057A JP 2013034057 A JP2013034057 A JP 2013034057A JP 2011168235 A JP2011168235 A JP 2011168235A JP 2011168235 A JP2011168235 A JP 2011168235A JP 2013034057 A JP2013034057 A JP 2013034057A
Authority
JP
Japan
Prior art keywords
user
output
parameter
sound
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011168235A
Other languages
Japanese (ja)
Inventor
Yasuharu Onishi
康晴 大西
Atsushi Kuroda
淳 黒田
Yuichiro Kishinami
雄一郎 岸波
Shigeo Sato
重夫 佐藤
Yukio Murata
行雄 村田
Daisuke Sugii
大介 杉井
Motoyoshi Komoda
元喜 菰田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2011168235A priority Critical patent/JP2013034057A/en
Publication of JP2013034057A publication Critical patent/JP2013034057A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus, an audio reproduction method, and a program, for outputting sounds whose audio property is optimal for user's audible frequency band.SOLUTION: When a user's sound is input through a microphone 9, a control part (CPU) 11 analyzes the sound and identifies segments (language, sex, and age) that represent user's feature on the basis of the analysis result. Then the control part (CPU) 11 selects an output sound parameter corresponding to the segment from a parameter database 41 on the basis of the segment representing the user's feature, and configures the parameter in a sound processing part 8. The sound processing part 8 compensates the audio property of the sound output from a speaker 10 on the basis of the output sound parameter.

Description

本発明は、携帯電話に搭載されるマイクロフォンから入力される音声を用いてユーザの音響特性を識別し、ユーザにとって快適な音響再生を行う電子機器、音響再生方法、及びプログラムに関する。   The present invention relates to an electronic device, a sound reproduction method, and a program for identifying a user's acoustic characteristics using sound input from a microphone mounted on a mobile phone and performing sound reproduction comfortable for the user.

近年、携帯電話の需要拡大に伴い、装置メーカ各社においては、TV電話や動画再生、ハンズフリー電話機能を搭載した薄型スタイリッシュ携帯の開発に取り組んでいる。この中、音響機能への要望は大きく、特に、高音質通話への要求は高い。   In recent years, with the expansion of demand for mobile phones, device manufacturers are working on the development of thin and stylish mobile phones equipped with video phone, video playback, and hands-free phone functions. Among these, there is a great demand for acoustic functions, and in particular, a demand for high-quality voice calls is high.

ところで、ユーザにとって、高音質を定義した場合、平坦な音圧レベル周波数特性といった示強量だけでは定義できず、アルゴリズムなど感覚的な特性も考慮する必要がある。また、音は感覚量であるため、ユーザの年齢や、性別、言語などの環境的な側面を考慮する必要がある。   By the way, when a high sound quality is defined for a user, it cannot be defined only by an intensity such as a flat sound pressure level frequency characteristic, but a sensory characteristic such as an algorithm needs to be considered. Since sound is a sensory quantity, it is necessary to consider environmental aspects such as the user's age, sex, and language.

しかしながら、携帯電話の音響設計においては、特定のユーザを対象としたオピニオン評価に基づき音響特性を決定しており、必ずしもすべてのユーザにとって高音質な音の再生ができないという問題がある。   However, in the acoustic design of mobile phones, the acoustic characteristics are determined based on opinion evaluation for a specific user, and there is a problem that high-quality sound cannot be reproduced for all users.

そこで、例えば、特許文献1には、加齢に伴う聴覚の変化(最小可聴限の変化)に対処するために、ユーザが手入力した年齢に基づいてメモリから年齢層に対応する各帯域の受信パラメータを決定し、該受信パラメータに基づき各帯域毎に重み付けし、レシーバから出力される音声の周波数特性、及びレベルを補正する技術が開示されている。   Therefore, for example, Patent Document 1 discloses that each band corresponding to an age group is received from a memory based on an age manually input by a user in order to deal with a change in hearing (change in minimum audible limit) associated with aging. A technique is disclosed in which parameters are determined, weighted for each band based on the received parameters, and frequency characteristics and levels of sound output from the receiver are corrected.

特開2000−209698号公報JP 2000-209698 A

上述した特許文献1では、わざわざユーザ自身の年齢を手入力しなければならず、操作が煩雑であるという問題がある。また、前述したように、性別、言語などの環境的な側面を考慮する必要があるが、上述した特許文献1では、年齢情報だけで、出力音声の周波数特性、及びレベルを補正しているため、十分満足し得るだけの高音質な音の再生ができないという問題がある。   In Patent Document 1 described above, there is a problem that the user's own age must be manually input, and the operation is complicated. As described above, environmental aspects such as gender and language need to be considered. However, in Patent Document 1 described above, the frequency characteristics and level of the output sound are corrected only by age information. There is a problem that it is not possible to reproduce high-quality sound that can be satisfactorily satisfied.

そこで本発明は、ユーザの可聴周波数帯に最適な音響特性で音声を出力することができる電子機器、音響再生方法、及びプログラムを提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide an electronic device, an acoustic reproduction method, and a program that can output sound with an acoustic characteristic that is optimal for a user's audible frequency band.

本発明の電子機器は、音声をスピーカにより出力する電子機器であって、ユーザの音声を入力する入力手段と、前記入力手段で入力された音声を分析する分析手段と、前記分析手段による分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するセグメント識別手段と、前記セグメント識別手段により識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するパラメータ選択手段と、前記パラメータ選択手段により選択された出力音声パラメータに従って、前記スピーカから出力する出力音声の音響特性を補正する補正手段とを備えることを特徴とする電子機器である。   The electronic apparatus according to the present invention is an electronic apparatus that outputs a sound through a speaker, an input unit that inputs a user's voice, an analysis unit that analyzes the voice input by the input unit, and an analysis result by the analysis unit Segment identifying means for identifying a segment representing the user's characteristic based on the parameter, parameter selecting means for selecting an output speech parameter based on the segment representing the user's characteristic identified by the segment identifying means, and the parameter An electronic apparatus comprising: correction means for correcting acoustic characteristics of output sound output from the speaker in accordance with an output sound parameter selected by the selection means.

本発明の音響再生方法は、音声をスピーカにより出力する電子機器の音響再生方法であって、マイクロフォンからユーザの音声を入力するステップと、前記マイクロフォンから入力された音声を分析するステップと、前記分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するステップと、前記識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するステップと、前記選択された出力音声パラメータに従って、前記スピーカから出力する出力音声の音響特性を補正するステップとを含むことを特徴とする音響再生方法である。   The acoustic reproduction method of the present invention is an acoustic reproduction method for an electronic device that outputs sound through a speaker, the step of inputting a user's voice from a microphone, the step of analyzing the voice input from the microphone, and the analysis Based on the results, identifying a segment representing a user characteristic; selecting an output speech parameter based on the identified segment representing the user characteristic; and according to the selected output speech parameter, And correcting the acoustic characteristics of the output sound output from the speaker.

本発明のプログラムは、音声をスピーカにより出力する電子機器のコンピュータに、
ユーザの音声を入力する入力機能、前記入力機能で入力された音声を分析する分析機能、前記分析機能による分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するセグメント識別機能、前記セグメント識別機能により識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するパラメータ選択機能、前記パラメータ選択機能により選択された出力音声パラメータに従って、前記スピーカから出力する出力音声の音響特性を補正する補正機能を実行させることを特徴とするプログラムである。
The program of the present invention is stored in a computer of an electronic device that outputs sound through a speaker.
An input function for inputting the user's voice, an analysis function for analyzing the voice input by the input function, a segment identification function for identifying a segment representing the user's characteristics based on an analysis result by the analysis function, and the segment identification function A parameter selection function for selecting an output audio parameter based on a segment representing a user characteristic identified by the above, and correcting an acoustic characteristic of the output audio output from the speaker according to the output audio parameter selected by the parameter selection function It is a program characterized by causing a correction function to be executed.

この発明によれば、ユーザの可聴周波数帯に最適な音響特性で音声を出力することができる。   According to the present invention, it is possible to output sound with acoustic characteristics that are optimal for the user's audible frequency band.

本発明の実施形態による携帯電話1の構成を示すブロック図である。It is a block diagram which shows the structure of the mobile telephone 1 by embodiment of this invention. オピニオン試験より収集した、年齢別の最適な周波数特性の一例を示す概念図である。It is a conceptual diagram which shows an example of the optimal frequency characteristic according to age collected from the opinion test. 本実施形態による、パラメータデータベース41のデータ構成例を示す概念図である。It is a conceptual diagram which shows the data structural example of the parameter database 41 by this embodiment. 本実施形態による携帯電話の動作(出力音声設定)を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement (output audio | voice setting) of the mobile telephone by this embodiment. 本実施形態による携帯電話の動作(音声出力)を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement (audio | voice output) of the mobile telephone by this embodiment. 図6は、付記1の構成図である。FIG. 6 is a configuration diagram of Supplementary Note 1.

本発明は、携帯電話に搭載されるマイクロフォンから入力される音声を用いてユーザのセグメントを識別し、予めセグメント毎に蓄積していた最適な音響特性に従って、電気音響変換器を用いて再生することで、ユーザにとって快適な音響再生を行う。なお、セグメントとは、性別、言語、年齢などである。   The present invention identifies a user's segment using voice input from a microphone mounted on a mobile phone, and reproduces it using an electroacoustic transducer in accordance with optimal acoustic characteristics accumulated in advance for each segment. Thus, sound reproduction that is comfortable for the user is performed. Segments include gender, language, age, and so on.

以下、本発明の実施の形態を、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態による携帯電話1の構成を示すブロック図である。図において、携帯電話1は、通信部2、撮影部3、ROM4、RAM5、タッチパネル6、表示部7、音声処理部8、マイク9、スピーカ10、及び制御部(CPU)11を備えている。   FIG. 1 is a block diagram showing a configuration of a mobile phone 1 according to an embodiment of the present invention. In the figure, the mobile phone 1 includes a communication unit 2, a photographing unit 3, a ROM 4, a RAM 5, a touch panel 6, a display unit 7, an audio processing unit 8, a microphone 9, a speaker 10, and a control unit (CPU) 11.

通信部2は、電話回線網を介して、音声通信や、データ通信を行う。撮影部3は、フォーカスレンズ、ズームレンズなどのレンズ群、撮像素子(CCDなど)を含み、制御部(CPU)11からの制御信号に従って、オートフォーカシング、絞り、ズーミングなどを調整し、静止画や、動画を撮影し、撮像信号として出力する。   The communication unit 2 performs voice communication and data communication via a telephone line network. The photographing unit 3 includes a lens group such as a focus lens and a zoom lens, and an image sensor (CCD or the like), and adjusts auto-focusing, aperture, zooming, etc. according to a control signal from a control unit (CPU) 11 to Then, a moving image is taken and output as an imaging signal.

ROM4は、制御部(CPU)11による携帯電話1の各部の制御に必要なプログラム、及び各部の制御に必要なデータを記憶している。RAM5は、撮影部3によって撮像された画像データや、動画データを一時記憶するバッファメモリとして使用されるとともに、制御部(CPU)11のワーキングメモリとして使用される。   The ROM 4 stores a program necessary for controlling each part of the mobile phone 1 by the control unit (CPU) 11 and data necessary for controlling each part. The RAM 5 is used as a buffer memory for temporarily storing image data and moving image data captured by the photographing unit 3, and is also used as a working memory for the control unit (CPU) 11.

また、ROM4、またはRAM5は、予め、オピニオン試験より収集した、年齢、言語、性別などによる音声帯域に基づいて、ユーザの聴覚特性に最適な出力音声パラメータを選択するための、パラメータデータベースを保持している。なお、以下では、ROM4がパラメータデータベース41を保持しているものとして説明する。   In addition, the ROM 4 or RAM 5 holds a parameter database for selecting an output voice parameter that is optimal for the user's auditory characteristics based on the voice band by age, language, gender, etc., collected in advance from the opinion test. ing. In the following description, it is assumed that the ROM 4 holds the parameter database 41.

タッチパネル6は、表示部7上に設けられており、表示部7に表示される表示に従って、動作指示、データ入力等をタッチ操作するためのものである。表示部7は、カラーLCDとその駆動回路を含み、撮影部3による撮像画像や、動画、通信/通話に係る各種情報を表示する。   The touch panel 6 is provided on the display unit 7 and is used for touch operation of operation instructions, data input, and the like according to the display displayed on the display unit 7. The display unit 7 includes a color LCD and a driving circuit thereof, and displays images captured by the imaging unit 3, moving images, and various information related to communication / calls.

音声処理部8は、通話時には、マイク9からの音声を制御部(CPU)11に供給するとともに、制御部(CPU)11により設定された、出力音声パラメータに従って、出力音声の周波数特性、及びレベルを補正してスピーカ10から出力する。マイク9、スピーカ10は、予め搭載されている既存のものである。   The voice processing unit 8 supplies the voice from the microphone 9 to the control unit (CPU) 11 during a call, and at the same time outputs the frequency characteristics and level of the output voice according to the output voice parameters set by the control unit (CPU) 11. Is output from the speaker 10. The microphone 9 and the speaker 10 are existing ones that are installed in advance.

制御部(CPU)11は、マイク9を利用してユーザの音声を検出すると、音声識別することでユーザのセグメント(年齢、言語、性別)を識別し、該識別したユーザのセグメントに一致する出力音声パラメータを、パラメータデータベース41から選択し、音声処理部8に設定する。これにより、通話時などの音声出力時に、音声処理部8では、設定された出力音声パラメータに従って、スピーカ10から出力される音声の周波数特性、及びレベルが補正される。出力される音声は、ユーザの音声から得たセグメントに応じた出力音声パラメータで補正されるので、ユーザにとって最適な周波数特性を有する音、すなわち聞き取りやすい音として聞くことができる。   When the control unit (CPU) 11 detects the user's voice using the microphone 9, the control unit (CPU) 11 identifies the user's segment (age, language, gender) by identifying the voice, and outputs matching the identified user's segment. A voice parameter is selected from the parameter database 41 and set in the voice processing unit 8. Thereby, at the time of voice output such as during a call, the voice processing unit 8 corrects the frequency characteristics and level of the voice output from the speaker 10 in accordance with the set output voice parameter. Since the output voice is corrected by the output voice parameter corresponding to the segment obtained from the user's voice, it can be heard as a sound having an optimal frequency characteristic for the user, that is, a sound that is easy to hear.

図2は、オピニオン試験より収集した、年齢別の最適な周波数特性の一例を示す概念図である。人は、加齢に伴い、聴覚の変化(最小可聴限の変化)が生じる。図2には、年代別の可聴周波数帯を示している。20歳以下、20〜50歳、50歳以上と年代によって、その可聴周波数帯と音圧レベルとが変化しているのが分かる。なお、図2では、年代での可聴周波数帯の変化を示したが、これ以外にも、言語、性別によって可聴周波数帯が変化することが知られている。   FIG. 2 is a conceptual diagram showing an example of optimum frequency characteristics for each age collected from the opinion test. As people age, changes in hearing (changes in the minimum audible limit) occur. FIG. 2 shows audible frequency bands by age. It can be seen that the audible frequency band and the sound pressure level change depending on the age, 20 years old or younger, 20-50 years old, 50 years old or older. In addition, although the change of the audible frequency band in the age was shown in FIG. 2, it is known that the audible frequency band changes depending on language and sex.

本実施形態では、マイク9から入力されるユーザの音声を分析し、ユーザのセグメント(年齢、言語、性別)に対応する出力音声パラメータを設定することで、ユーザの可聴周波数帯に最適な音響特性で音声を出力するようになっている。   In the present embodiment, the user's voice input from the microphone 9 is analyzed, and the output voice parameter corresponding to the user's segment (age, language, gender) is set, so that the optimum acoustic characteristics for the user's audible frequency band It is designed to output sound.

図3は、本実施形態による、パラメータデータベース41のデータ構成例を示す概念図である。パラメータデータベース41は、予めオピニオン試験より収集した、セグメント(年齢、言語、性別)毎に蓄積していた最適な音響特性(出力音声パラメータ)を保持している。制御部(CPU)11は、入力された音声を分析し、ユーザのセグメントを識別すると、そのセグメントに従って、パラメータデータベース41を参照し、対応する出力音声パラメータを選択する。   FIG. 3 is a conceptual diagram illustrating a data configuration example of the parameter database 41 according to the present embodiment. The parameter database 41 holds optimal acoustic characteristics (output speech parameters) accumulated for each segment (age, language, and sex) collected in advance from an opinion test. When the input voice is analyzed and the user's segment is identified, the control unit (CPU) 11 refers to the parameter database 41 and selects a corresponding output voice parameter according to the segment.

例えば、ユーザが日本語を話す30代の男性ならば、出力音声パラメータA2が選択される。あるいは、ユーザが英語を話す18歳の女性ならば、出力音声パラメータb1が選択される。このように選択された出力音声パラメーラが、音声処理部8に設定されることにより、音声出力における音響特性が当該ユーザにより適した特性に自動的に設定されるようになっている。   For example, if the user is a man in his 30s who speaks Japanese, the output speech parameter A2 is selected. Alternatively, if the user is an 18-year-old woman who speaks English, the output speech parameter b1 is selected. By setting the output audio parameter selected in this way in the audio processing unit 8, the acoustic characteristics in the audio output are automatically set to characteristics more suitable for the user.

次に、上述した実施形態の動作について説明する。
図4は、本実施形態による携帯電話の動作(出力音声設定)を説明するためのフローチャートである。まず、制御部(CPU)11は、出力音声設定が開始されたか否かを判定する(ステップS10)。そして、出力音声設定が開始されない場合には(ステップS10のNO)、出力音声設定が開始されるまで待機する。より具体的には、待ち受け画面などにおいて、タッチ操作などにより、出力音声設定モードが選択されると、出力音声設定が開始されると判定すればよい。
Next, the operation of the above-described embodiment will be described.
FIG. 4 is a flowchart for explaining the operation (output voice setting) of the mobile phone according to the present embodiment. First, the control unit (CPU) 11 determines whether or not output audio setting has been started (step S10). If the output sound setting is not started (NO in step S10), the process waits until the output sound setting is started. More specifically, it may be determined that the output sound setting is started when the output sound setting mode is selected by a touch operation or the like on a standby screen or the like.

一方、出力音声設定が開始されると、マイク9から音声を入力する(ステップS12)。より具体的には、出力音声設定が開始されると、音声入力ボタンを表示し、該音声入力ボタンがタッチされると、音声入力を促すメッセージを表示し、音声入力されるのを待てばよい。そして、音声が入力されると、音圧周波数特性の分布、音声のスペクトル、フォルマントなどの特徴量を抽出、分析し(ステップS14)、ユーザのセグメント(言語、性別、年齢)を識別する(ステップS16)。   On the other hand, when the output sound setting is started, sound is input from the microphone 9 (step S12). More specifically, when the output voice setting is started, a voice input button is displayed. When the voice input button is touched, a message prompting voice input is displayed, and it is only necessary to wait for voice input. . When speech is input, feature quantities such as distribution of sound pressure frequency characteristics, speech spectrum, formant, etc. are extracted and analyzed (step S14), and the user's segment (language, gender, age) is identified (step). S16).

次に、識別したユーザのセグメントに従って、パラメータデータベース41を参照し、対応する出力音声パラメータを選択し(ステップS18)、選択した出力音声パラメータを音声処理部8に設定する(ステップS20)。より具体的には、音声処理部8における、イコライザなどの音響特性を出力音声パラメータでチューニングする。   Next, referring to the parameter database 41 according to the identified user segment, the corresponding output voice parameter is selected (step S18), and the selected output voice parameter is set in the voice processing unit 8 (step S20). More specifically, an acoustic characteristic such as an equalizer in the sound processing unit 8 is tuned with an output sound parameter.

そして、設定が終了したか否かを判定し(ステップS22)、設定の終了操作がない場合には(ステップS22のNO)、ステップS12に戻り、設定を継続する。一方、設定の終了操作があった場合には(ステップS22のYES)、当該処理を終了する。   Then, it is determined whether or not the setting is completed (step S22). If there is no setting ending operation (NO in step S22), the process returns to step S12 and the setting is continued. On the other hand, if there is a setting end operation (YES in step S22), the process ends.

図5は、本実施形態による携帯電話の動作(音声出力)を説明するためのフローチャートである。音声処理部8は、ユーザが携帯電話で通話を行う際に、図5に示すフローチャートに従って動作する。音声処理部8では、通話等に伴う音声出力時には、設定された出力音声パラメータに基づいて、出力すべき音声(通話相手の音声、当該ユーザのマイク9から入力される音声の一部)の音声帯域特性を補正し(ステップS30)、補正された音声をスピーカ10から出力する。   FIG. 5 is a flowchart for explaining the operation (audio output) of the mobile phone according to the present embodiment. The voice processing unit 8 operates according to the flowchart shown in FIG. 5 when the user makes a call using a mobile phone. The voice processing unit 8 outputs voice to be output (voice of the other party of the call, part of the voice input from the user's microphone 9) based on the set output voice parameter when outputting voice accompanying a call or the like. The band characteristic is corrected (step S30), and the corrected sound is output from the speaker 10.

なお、本実施形態は、端末装置として携帯電話に適用した例であるが、本発明はこれに限定されるものではない。通話可能な携帯型または据置型の端末機器、例えば、通話機能を持つ携帯情報端末、パーソナルコンピュータ、通信機、その他の電子機器等にも幅広く適用できる。あるいは、通話機能を備えなくとも、音楽ファイルを再生する音楽再生装置などに適用してもよい。   Although this embodiment is an example applied to a mobile phone as a terminal device, the present invention is not limited to this. The present invention can be widely applied to portable or stationary terminal devices capable of making calls, such as portable information terminals having a call function, personal computers, communication devices, and other electronic devices. Alternatively, the present invention may be applied to a music playback device that plays back a music file without providing a call function.

上述した実施形態によれば、予めオピニオン試験より収集し、統計分析し、年齢、言語、性別などに応じた最適な出力音声パラメータをパラメータデータベース41としてデータベース化しておき、入力された音声を分析し、ユーザのセグメントを識別し、そのセグメントに従って、パラメータデータベース41を参照し、対応する出力音声パラメータを選択し、該出力音声パラメータに従って、出力すべき音声の音声帯域特性を補正するようにしたので、ユーザの可聴周波数帯に最適な音響特性で音声を出力することができる。   According to the above-described embodiment, it is collected from the opinion test in advance, statistically analyzed, and the optimal output speech parameters according to age, language, sex, etc. are created as a database database 41, and the input speech is analyzed. Since the user segment is identified, the parameter database 41 is referenced according to the segment, the corresponding output voice parameter is selected, and the voice band characteristic of the voice to be output is corrected according to the output voice parameter. It is possible to output sound with acoustic characteristics optimal for the user's audible frequency band.

以下、本発明の特徴を付記する。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
図6は、付記1の構成図である。この図に示すように、付記1記載の発明は、
音声をスピーカにより出力する電子機器20であって、
ユーザの音声を入力する入力手段21と、
前記入力手段21で入力された音声を分析する分析手段22と、
前記分析手段22による分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するセグメント識別手段23と、
前記セグメント識別手段23により識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するパラメータ選択手段24と、
前記パラメータ選択手段24により選択された出力音声パラメータに従って、前記スピーカ26から出力する出力音声の音響特性を補正する補正手段25と
を備えることを特徴とする電子機器である。
The features of the present invention will be described below.
A part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.
(Appendix 1)
FIG. 6 is a configuration diagram of Supplementary Note 1. As shown in this figure, the invention described in Appendix 1 is
An electronic device 20 that outputs sound through a speaker,
Input means 21 for inputting user's voice;
Analyzing means 22 for analyzing the voice input by the input means 21;
Segment identification means 23 for identifying a segment representing the characteristics of the user based on the analysis result by the analysis means 22;
Parameter selecting means 24 for selecting an output audio parameter based on the segment representing the user's characteristics identified by the segment identifying means 23;
An electronic apparatus comprising: correction means 25 for correcting the acoustic characteristics of the output sound output from the speaker 26 in accordance with the output sound parameter selected by the parameter selection means 24.

(付記2)
予め、オピニオン試験より収集、統計分析し、前記ユーザの特徴を表わす複数のセグメントの組み合わせ毎に対応する出力音声パラメータを保持するパラメータ保持手段を更に備え、
前記パラメータ選択手段は、前記セグメント識別手段により識別された、前記ユーザの特徴を表わすセグメントに従って、前記パラメータ保持手段から対応する出力音声パラメータ選択する
ことを特徴とする付記1に記載の電子機器である。
(Appendix 2)
It further comprises parameter holding means for collecting and statistically analyzing in advance from an opinion test and holding output speech parameters corresponding to combinations of a plurality of segments representing the characteristics of the user,
The electronic device according to appendix 1, wherein the parameter selection unit selects a corresponding output audio parameter from the parameter holding unit according to a segment representing the user's characteristics identified by the segment identification unit. .

(付記3)
前記ユーザの特徴を表わすセグメントは、ユーザの年齢、ユーザの話す言語、ユーザの性別であることを特徴とする付記1または2に記載の電子機器である。
(Appendix 3)
The electronic device according to appendix 1 or 2, wherein the segment representing the user's characteristics is a user's age, a user's spoken language, and a user's gender.

(付記4)
音声をスピーカにより出力する電子機器の音響再生方法であって、
マイクロフォンからユーザの音声を入力するステップと、
前記マイクロフォンから入力された音声を分析するステップと、
前記分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するステップと、
前記識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するステップと、
前記選択された出力音声パラメータに従って、前記スピーカから出力する出力音声の音響特性を補正するステップと
を含むことを特徴とする音響再生方法である。
(Appendix 4)
A method of reproducing sound of an electronic device that outputs sound through a speaker,
Inputting a user's voice from a microphone;
Analyzing voice input from the microphone;
Identifying a segment representing user characteristics based on the analysis results;
Selecting an output speech parameter based on the identified segment representing the user's characteristics;
Correcting the acoustic characteristics of the output sound output from the speaker in accordance with the selected output sound parameter.

(付記5)
前記出力音声パラメータは、予め、オピニオン試験より収集、統計分析され、前記ユーザの特徴を表わす複数のセグメントの組み合わせ毎に保持されていることを特徴とする付記4に記載の音響再生方法である。
(Appendix 5)
The sound reproduction method according to appendix 4, wherein the output sound parameter is collected and statistically analyzed in advance from an opinion test, and stored for each combination of a plurality of segments representing the characteristics of the user.

(付記6)
前記ユーザの特徴を表わすセグメントは、ユーザの年齢、ユーザの話す言語、ユーザの性別であることを特徴とする付記4または5に記載の音響再生方法。
(Appendix 6)
6. The sound reproduction method according to appendix 4 or 5, wherein the segment representing the user's characteristics is the user's age, the user's spoken language, and the user's gender.

(付記7)
音声をスピーカにより出力する電子機器のコンピュータに、
ユーザの音声を入力する入力機能、
前記入力機能で入力された音声を分析する分析機能、
前記分析機能による分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するセグメント識別機能、
前記セグメント識別機能により識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するパラメータ選択機能、
前記パラメータ選択機能により選択された出力音声パラメータに従って、前記スピーカから出力する出力音声の音響特性を補正する補正機能
を実行させることを特徴とするプログラムである。
(Appendix 7)
To the computer of the electronic device that outputs the sound through the speaker,
Input function to input user's voice,
An analysis function for analyzing the voice input by the input function;
A segment identification function for identifying a segment representing the characteristics of the user based on the analysis result of the analysis function;
A parameter selection function for selecting an output audio parameter based on the segment representing the user's characteristics identified by the segment identification function;
In accordance with the output sound parameter selected by the parameter selection function, a program for executing a correction function for correcting the acoustic characteristics of the output sound output from the speaker.

1 携帯電話
2 通信部
3 撮影部
4 ROM
41 パラメータデータベース
5 RAM
6 タッチパネル
7 表示部
8 音声処理部
9 マイク
10 スピーカ
11 制御部(CPU)
1 Mobile phone 2 Communication unit 3 Shooting unit 4 ROM
41 Parameter database 5 RAM
6 Touch Panel 7 Display Unit 8 Audio Processing Unit 9 Microphone 10 Speaker 11 Control Unit (CPU)

Claims (7)

音声をスピーカにより出力する電子機器であって、
ユーザの音声を入力する入力手段と、
前記入力手段で入力された音声を分析する分析手段と、
前記分析手段による分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するセグメント識別手段と、
前記セグメント識別手段により識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するパラメータ選択手段と、
前記パラメータ選択手段により選択された出力音声パラメータに従って、前記スピーカから出力する出力音声の音響特性を補正する補正手段と
を備えることを特徴とする電子機器。
An electronic device that outputs sound through a speaker,
An input means for inputting a user's voice;
Analyzing means for analyzing the voice input by the input means;
Segment identification means for identifying a segment representing the characteristics of the user based on the analysis result by the analysis means;
Parameter selection means for selecting an output speech parameter based on the segment representing the user's characteristics identified by the segment identification means;
An electronic device comprising: correction means for correcting acoustic characteristics of output sound output from the speaker according to the output sound parameter selected by the parameter selection means.
予め、オピニオン試験より収集、統計分析し、前記ユーザの特徴を表わす複数のセグメントの組み合わせ毎に対応する出力音声パラメータを保持するパラメータ保持手段を更に備え、
前記パラメータ選択手段は、前記セグメント識別手段により識別された、前記ユーザの特徴を表わすセグメントに従って、前記パラメータ保持手段から対応する出力音声パラメータ選択する
ことを特徴とする請求項1に記載の電子機器。
It further comprises parameter holding means for collecting and statistically analyzing in advance from an opinion test and holding output speech parameters corresponding to combinations of a plurality of segments representing the characteristics of the user,
The electronic apparatus according to claim 1, wherein the parameter selection unit selects a corresponding output voice parameter from the parameter holding unit according to the segment representing the user's characteristic identified by the segment identification unit.
前記ユーザの特徴を表わすセグメントは、ユーザの年齢、ユーザの話す言語、ユーザの性別であることを特徴とする請求項1または2に記載の電子機器。   The electronic device according to claim 1, wherein the segment representing the user's characteristics is a user's age, a user's spoken language, and a user's gender. 音声をスピーカにより出力する電子機器の音響再生方法であって、
マイクロフォンからユーザの音声を入力するステップと、
前記マイクロフォンから入力された音声を分析するステップと、
前記分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するステップと、
前記識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するステップと、
前記選択された出力音声パラメータに従って、前記スピーカから出力する出力音声の音響特性を補正するステップと
を含むことを特徴とする音響再生方法。
A method of reproducing sound of an electronic device that outputs sound through a speaker,
Inputting a user's voice from a microphone;
Analyzing voice input from the microphone;
Identifying a segment representing user characteristics based on the analysis results;
Selecting an output speech parameter based on the identified segment representing the user's characteristics;
Correcting the acoustic characteristics of the output sound output from the speaker in accordance with the selected output sound parameter.
前記出力音声パラメータは、予め、オピニオン試験より収集、統計分析され、前記ユーザの特徴を表わす複数のセグメントの組み合わせ毎に保持されていることを特徴とする請求項4に記載の音響再生方法。   5. The sound reproduction method according to claim 4, wherein the output audio parameters are collected and statistically analyzed from an opinion test in advance and are stored for each combination of a plurality of segments representing the characteristics of the user. 前記ユーザの特徴を表わすセグメントは、ユーザの年齢、ユーザの話す言語、ユーザの性別であることを特徴とする請求項4または5に記載の音響再生方法。   The sound reproduction method according to claim 4 or 5, wherein the segment representing the user's characteristics is a user's age, a user's spoken language, and a user's gender. 音声をスピーカにより出力する電子機器のコンピュータに、
ユーザの音声を入力する入力機能、
前記入力機能で入力された音声を分析する分析機能、
前記分析機能による分析結果に基づいて、ユーザの特徴を表わすセグメントを識別するセグメント識別機能、
前記セグメント識別機能により識別された、ユーザの特徴を表わすセグメントに基づいて、出力音声パラメータを選択するパラメータ選択機能、
前記パラメータ選択機能により選択された出力音声パラメータに従って、前記スピーカから出力する出力音声の音響特性を補正する補正機能
を実行させることを特徴とするプログラム。

To the computer of the electronic device that outputs the sound through the speaker,
Input function to input user's voice,
An analysis function for analyzing the voice input by the input function;
A segment identification function for identifying a segment representing the characteristics of the user based on the analysis result of the analysis function;
A parameter selection function for selecting an output audio parameter based on the segment representing the user's characteristics identified by the segment identification function;
A program for executing a correction function for correcting acoustic characteristics of output sound output from the speaker in accordance with an output sound parameter selected by the parameter selection function.

JP2011168235A 2011-08-01 2011-08-01 Electronic apparatus, audio reproduction method, and program Withdrawn JP2013034057A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011168235A JP2013034057A (en) 2011-08-01 2011-08-01 Electronic apparatus, audio reproduction method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011168235A JP2013034057A (en) 2011-08-01 2011-08-01 Electronic apparatus, audio reproduction method, and program

Publications (1)

Publication Number Publication Date
JP2013034057A true JP2013034057A (en) 2013-02-14

Family

ID=47789571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011168235A Withdrawn JP2013034057A (en) 2011-08-01 2011-08-01 Electronic apparatus, audio reproduction method, and program

Country Status (1)

Country Link
JP (1) JP2013034057A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015199279A1 (en) * 2014-06-24 2015-12-30 Lg Electronics Inc. Mobile terminal and control method thereof
WO2017029850A1 (en) * 2015-08-20 2017-02-23 ソニー株式会社 Information processing device, information processing method, and program
JP2019146055A (en) * 2018-02-22 2019-08-29 クラリオン株式会社 Telephone call device and control method therefor
JP2020064151A (en) * 2018-10-16 2020-04-23 東京瓦斯株式会社 Reproduction system and program
JP2020086027A (en) * 2018-11-20 2020-06-04 東京瓦斯株式会社 Voice reproduction system and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015199279A1 (en) * 2014-06-24 2015-12-30 Lg Electronics Inc. Mobile terminal and control method thereof
US9973617B2 (en) 2014-06-24 2018-05-15 Lg Electronics Inc. Mobile terminal and control method thereof
WO2017029850A1 (en) * 2015-08-20 2017-02-23 ソニー株式会社 Information processing device, information processing method, and program
JP2019146055A (en) * 2018-02-22 2019-08-29 クラリオン株式会社 Telephone call device and control method therefor
JP2020064151A (en) * 2018-10-16 2020-04-23 東京瓦斯株式会社 Reproduction system and program
JP7218143B2 (en) 2018-10-16 2023-02-06 東京瓦斯株式会社 Playback system and program
JP2020086027A (en) * 2018-11-20 2020-06-04 東京瓦斯株式会社 Voice reproduction system and program
JP7284570B2 (en) 2018-11-20 2023-05-31 東京瓦斯株式会社 Sound reproduction system and program

Similar Documents

Publication Publication Date Title
CN104991754B (en) The way of recording and device
CN105632508B (en) Audio processing method and audio processing device
US20150149169A1 (en) Method and apparatus for providing mobile multimodal speech hearing aid
CN110097890B (en) Voice processing method and device for voice processing
JP6931819B2 (en) Voice processing device, voice processing method and voice processing program
JP2005277999A (en) Personal digital assistant, and voice output adjustment method of the personal digital assistant
CN104025192B (en) Intelligent automated audio records leveller
JP2013034057A (en) Electronic apparatus, audio reproduction method, and program
CN107493500A (en) Multimedia resource player method and device
CN108845787B (en) Audio adjusting method, device, terminal and storage medium
JP2009020291A (en) Speech processor and communication terminal apparatus
CN112037825B (en) Audio signal processing method and device and storage medium
CN110931028B (en) Voice processing method and device and electronic equipment
KR20140145401A (en) Method and apparatus for cancelling noise in an electronic device
CN113409764A (en) Voice synthesis method and device for voice synthesis
US11354520B2 (en) Data processing method and apparatus providing translation based on acoustic model, and storage medium
CN104851423B (en) Sound information processing method and device
WO2012002537A1 (en) Portable electronic apparatus and audio control system
WO2017166495A1 (en) Method and device for voice signal processing
KR20100081022A (en) Method for updating phonebook and mobile terminal using the same
US11388281B2 (en) Adaptive method and apparatus for intelligent terminal, and terminal
CN110580910B (en) Audio processing method, device, equipment and readable storage medium
JP2020140178A (en) Voice conversion device, voice conversion system and program
CN113766403B (en) Hearing aid adaptability training correction method and device
CN113345451B (en) Sound changing method and device and electronic equipment

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141007