JP2012074911A - Portable electronic apparatus and voice control system - Google Patents

Portable electronic apparatus and voice control system Download PDF

Info

Publication number
JP2012074911A
JP2012074911A JP2010217945A JP2010217945A JP2012074911A JP 2012074911 A JP2012074911 A JP 2012074911A JP 2010217945 A JP2010217945 A JP 2010217945A JP 2010217945 A JP2010217945 A JP 2010217945A JP 2012074911 A JP2012074911 A JP 2012074911A
Authority
JP
Japan
Prior art keywords
sound
user
unit
identification information
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010217945A
Other languages
Japanese (ja)
Inventor
Tomohiro Inagaki
智裕 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2010217945A priority Critical patent/JP2012074911A/en
Publication of JP2012074911A publication Critical patent/JP2012074911A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a portable electronic apparatus and a voice control system which can properly correct voice to be outputted and output the voice which is more easily to be heard by a user.SOLUTION: The portable electronic apparatus and voice control system comprise: an enclosure; a sound generation part for generating a sound based on a voice signal; a storage part for storing user information and a correction parameter of the user; an identification information acquisition part for acquiring identification information for identifying a user who is hearing a sound generated by the sound generation part; a processing part for determining whether a user is the right user based on the identification information acquired by the identification information acquisition part and the information of the user in the storage part, and for reading the correction parameter of the user from the storage part to set the read correction parameter as a usage correction parameter when the user is the right user; and a correction part for correcting a voice signal based on the usage correction parameter set by the processing part and supplying the corrected voice signal to the sound generation part.

Description

本発明は、音声を出力する携帯電子機器及び音声制御システムに関する。   The present invention relates to a portable electronic device that outputs sound and a sound control system.

携帯電話機、携帯テレビ等の携帯電子機器は、音声を出力する。ここで、携帯電子機器のユーザの中には、加齢等によって、聴力が低下し、出力される音声が聞こえにくいユーザがいる。   Mobile electronic devices such as mobile phones and mobile TVs output audio. Here, among users of portable electronic devices, there are users whose hearing ability is reduced due to aging or the like and it is difficult to hear the output sound.

これに対して、例えば、特許文献1には、レシーバ等から出力される音声の周波数特性及びレベルを年齢による聴覚変化に合わせて補正する音声補正機能付き移動機が記載されている。   On the other hand, for example, Patent Document 1 describes a mobile device with a voice correction function that corrects frequency characteristics and levels of voice output from a receiver or the like in accordance with auditory changes due to age.

特開2000−209698号公報JP 2000-209698 A

ここで、聴力低下の要因は、加齢、病気、騒音曝露等様々であり、聴力低下の程度も千差万別である。そのため、特許文献1に記載されているように、レシーバ等から出力される音声の周波数特性及びレベルを年齢に合わせて補正するだけでは、ユーザにとって十分満足できる音声の補正をすることができない。   Here, there are various causes of hearing loss, such as aging, illness, and noise exposure, and the degree of hearing loss varies widely. For this reason, as described in Patent Document 1, it is not possible to correct a sound sufficiently satisfactory for the user only by correcting the frequency characteristics and level of the sound output from the receiver or the like according to the age.

本発明は、出力する音声を適正に補正することができ、ユーザにより聞こえやすい音声を出力することができる携帯電子機器及び音声制御システムを提供することを目的とする。   An object of the present invention is to provide a portable electronic device and a sound control system that can appropriately correct a sound to be output and can output a sound that can be easily heard by a user.

本発明に係る携帯電子機器は、筐体と、前記筐体に設けられて、音声信号に基づいて音を発生する音発生部と、前記筐体に設けられて、利用者の情報と、当該利用者の補正パラメータと、を記憶する記憶部と、前記筐体に設けられて、前記音発生部で発生させる音を聞いている使用者を識別するための識別情報を取得する識別情報取得部と、前記識別情報取得部で取得した識別情報と、前記記憶部の前記利用者の情報とに基づいて、前記使用者が前記利用者であるかを判定し、前記使用者が前記利用者である場合は、前記利用者の補正パラメータを前記記憶部から読み出し、読み出した補正パラメータを使用補正パラメータとして設定する処理部と、前記処理部により設定された前記使用補正パラメータに基づいて、音声信号を補正し、補正した音声信号を前記音発生部に供給する補正部と、を備えることを特徴とする。   A portable electronic device according to the present invention includes a housing, a sound generation unit that is provided in the housing and generates sound based on an audio signal, the user information provided in the housing, A storage unit for storing correction parameters of the user, and an identification information acquisition unit that is provided in the housing and acquires identification information for identifying the user who is listening to the sound generated by the sound generation unit And whether the user is the user based on the identification information acquired by the identification information acquisition unit and the information of the user in the storage unit, and the user is the user In some cases, the correction parameter of the user is read from the storage unit, a processing unit that sets the read correction parameter as a use correction parameter, and an audio signal based on the use correction parameter set by the processing unit. Correct and correct Characterized in that it comprises a correction unit for supplying the sound generator sound signal.

本発明に係る携帯電子機器は、筐体と、他の機器と通信を行う通信部と、前記筐体に設けられて、音声信号に基づいて音を発生する音発生部と、前記筐体に設けられて、前記音発生部で発生させる音を聞いている使用者を識別するための識別情報を取得する識別情報取得部と、前記筐体に設けられて、前記通信部を介して他の機器に前記識別情報を送信し、前記他の機器から、前記音発生部で発生させる音を聞いている使用者の識別情報に対応する補正パラメータを取得し、取得した前記補正パラメータを使用補正パラメータとして設定する処理部と、前記使用補正パラメータに基づいて、音声信号を補正し、補正した音声信号を前記音発生部に供給する補正部と、を備えることを特徴とする。   A portable electronic device according to the present invention includes a housing, a communication unit that communicates with other devices, a sound generator that is provided in the housing and generates sound based on an audio signal, and the housing. An identification information acquisition unit configured to acquire identification information for identifying a user who is listening to the sound generated by the sound generation unit; and Transmitting the identification information to a device, acquiring a correction parameter corresponding to the identification information of a user who is listening to the sound generated by the sound generator from the other device, and using the acquired correction parameter as a correction parameter And a correction unit that corrects an audio signal based on the use correction parameter and supplies the corrected audio signal to the sound generation unit.

ここで、前記識別情報取得部は、音声を取得するマイクであり、前記処理部は、前記マイクで取得した音声を前記識別情報として取得し、前記使用者を識別することが好ましい。   Here, it is preferable that the identification information acquisition unit is a microphone that acquires voice, and the processing unit acquires the voice acquired by the microphone as the identification information and identifies the user.

また、前記識別情報取得部は、前記音発生部の近傍に配置され、前記音発生部に対面する領域の画像を取得するカメラであり、前記処理部は、前記カメラで検出した前記音発生部に対面する領域の画像を前記識別情報として取得し、前記使用者を識別することが好ましい。   The identification information acquisition unit is a camera that is arranged in the vicinity of the sound generation unit and acquires an image of a region facing the sound generation unit, and the processing unit is the sound generation unit detected by the camera. It is preferable that an image of an area facing the user is acquired as the identification information to identify the user.

また、前記識別情報取得部は、前記筐体の所定位置に接触する指紋を検出する指紋センサであり、前記処理部は、前記指紋センサで検出した指紋を前記識別情報として取得し、前記使用者を識別することが好ましい。   In addition, the identification information acquisition unit is a fingerprint sensor that detects a fingerprint that contacts a predetermined position of the casing, and the processing unit acquires the fingerprint detected by the fingerprint sensor as the identification information, and the user Is preferably identified.

また、音声通話を行う音声通話機能部をさらに有し、指紋センサは、音声通話機能を開始させる際に接触する部分に配置されていることが好ましい。   Moreover, it is preferable to further include a voice call function unit for making a voice call, and the fingerprint sensor is disposed at a portion that is in contact with the voice call function when the voice call function is started.

また、前記筐体に作用する加速度を検出する加速度センサをさらに有し、処理部は、加速度センサで予め設定されたしきい値以上の移動を検出したら、前記識別情報を再度取得し、前記使用者を検出することが好ましい。   Further, the apparatus further includes an acceleration sensor that detects an acceleration acting on the housing, and the processing unit acquires the identification information again when the movement of the acceleration sensor is detected to be greater than or equal to a preset threshold value, and the use It is preferable to detect a person.

また、前記補正パラメータは、音声周波数毎に音の大きさを調整するパラメータであることが好ましい。   The correction parameter is preferably a parameter for adjusting the volume of sound for each audio frequency.

また、前記補正パラメータは、前記音発生部から発生させる音声が不快閾値と可聴閾値との間の大きさになるように補正するパラメータであることが好ましい。   Further, the correction parameter is preferably a parameter for correcting the sound generated from the sound generating unit so as to have a magnitude between an unpleasant threshold value and an audible threshold value.

本発明に係る音声制御システムは、音声信号に基づいて音を発生する音発生部と、前記音発生部で発生させる音を聞いている使用者を識別するための識別情報を取得する識別情報取得部と、利用者の情報と当該利用者の補正パラメータと、を記憶する記憶部と、前記使用者が前記記憶部に記憶された前記利用者である場合に、前記利用者の補正パラメータを前記記憶部から読み出し、当該読み出した補正パラメータに基づいて前記音発生部から発生する音を補正させる制御を行う制御部と、前記制御部と他の各部との間にて、有線或いは無線にて、信号を送信或いは受信するための信号回路網と、を有し、前記音発生部及び識別情報取得部は、使用者が携帯可能な筐体に設けられることを特徴とする。   An audio control system according to the present invention obtains identification information for identifying a sound generator that generates sound based on an audio signal and identification information for identifying a user who is listening to the sound generated by the sound generator. A storage unit that stores the user information and the correction parameter of the user, and the correction parameter of the user when the user is the user stored in the storage unit. A controller that performs control to correct the sound generated from the sound generator based on the read correction parameter, and between the controller and each other part, wired or wirelessly, And a signal circuit network for transmitting or receiving a signal, wherein the sound generation unit and the identification information acquisition unit are provided in a casing that can be carried by a user.

前記記憶部あるいは前記制御部の一方あるいは双方を、サーバに設けることが好ましい。   It is preferable to provide one or both of the storage unit and the control unit in the server.

本発明は、個々のユーザの聴力に合わせて、出力する音声を適正に補正することができ、ユーザにより聞こえやすい音声を出力することができるという効果を奏する。   According to the present invention, it is possible to appropriately correct the sound to be output in accordance with the hearing ability of each user, and it is possible to output a sound that is easier for the user to hear.

図1は、携帯電子機器の一実施形態の概略構成を示す正面図である。FIG. 1 is a front view showing a schematic configuration of an embodiment of a portable electronic device. 図2は、図1に示す携帯電子機器の側面図である。FIG. 2 is a side view of the portable electronic device shown in FIG. 図3は、図1、図2に示す携帯電子機器の機能の概略構成を示すブロック図である。FIG. 3 is a block diagram illustrating a schematic configuration of functions of the portable electronic device illustrated in FIGS. 1 and 2. 図4は、携帯電子機器の動作の一例を説明するためのフロー図である。FIG. 4 is a flowchart for explaining an example of the operation of the portable electronic device. 図5は、携帯電子機器の動作の一例を説明するためのフロー図である。FIG. 5 is a flowchart for explaining an example of the operation of the portable electronic device. 図6は、携帯電子機器の動作の一例を説明するためのフロー図である。FIG. 6 is a flowchart for explaining an example of the operation of the portable electronic device. 図7は、人間の聴力の特性の例を示す図である。FIG. 7 is a diagram illustrating an example of human hearing characteristics. 図8は、難聴者の聴力の特性の例を示す図である。FIG. 8 is a diagram illustrating an example of hearing characteristics of a hearing impaired person. 図9は、可聴閾値及び不快閾値の例を示す図である。FIG. 9 is a diagram illustrating examples of the audible threshold value and the unpleasant threshold value. 図10は、図9に、母音、有声子音及び無声子音の大きさ及び周波数を重ねて示した図である。FIG. 10 is a diagram in which the magnitudes and frequencies of vowels, voiced consonants, and unvoiced consonants are superimposed on FIG. 図11は、図10の高音(子音)を単純に増幅した図である。FIG. 11 is a diagram obtained by simply amplifying the treble (consonant) of FIG. 図12は、図11の大きい音に対して圧縮処理を行った図である。FIG. 12 is a diagram in which compression processing is performed on the loud sound of FIG. 図13は、携帯電子機器の動作の一例を説明するためのフロー図である。FIG. 13 is a flowchart for explaining an example of the operation of the mobile electronic device. 図14−1は、不快閾値よりわずかに小さい音の音声信号を示す図である。FIG. 14A is a diagram of an audio signal having a sound slightly smaller than the discomfort threshold. 図14−2は、図14−1の音声信号のスペクトル成分を示す図である。FIG. 14-2 is a diagram illustrating spectral components of the audio signal of FIG. 14-1. 図14−3は、可聴閾値よりわずかに大きい音の音声信号を示す図である。FIG. 14C is a diagram of an audio signal having a sound slightly larger than the audible threshold. 図14−4は、図14−3の音声信号のスペクトル成分を示す図である。FIG. 14-4 is a diagram illustrating spectral components of the audio signal of FIG. 14-3. 図15−1は、提示音として大きい音を再生した場合にディスプレイに一覧表示される音に関する不満を示す図である。FIG. 15A is a diagram illustrating dissatisfaction regarding sounds displayed in a list on a display when a loud sound is reproduced as a presentation sound. 図15−2は、提示音として小さい音を再生した場合にディスプレイに一覧表示される音に関する不満を示す図である。FIG. 15B is a diagram illustrating dissatisfaction with sounds listed on the display when a small sound is reproduced as a presentation sound. 図16は、携帯電子機器の動作の一例を説明するためのフロー図である。FIG. 16 is a flowchart for explaining an example of the operation of the mobile electronic device. 図17は、携帯電子機器の動作の一例を説明するためのフロー図である。FIG. 17 is a flowchart for explaining an example of the operation of the mobile electronic device. 図18は、携帯電子機器を備える通信システムの概略構成を示す模式図である。FIG. 18 is a schematic diagram illustrating a schematic configuration of a communication system including a portable electronic device.

以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、携帯電子機器の一例として携帯電話機を取り上げるが、本発明の適用対象は携帯電話機に限定されるものではなく、例えば、PHS(Personal Handy-phone System)、PDA、ポータブルナビゲーション装置、ノートパソコン、ゲーム機等に対しても本発明は適用できる。また、携帯電子機器を含むシステムにおいても適用することができる。   Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. In the following, a cellular phone is taken as an example of a portable electronic device, but the application target of the present invention is not limited to a cellular phone. For example, a PHS (Personal Handy-phone System), a PDA, a portable navigation device, a notebook The present invention can also be applied to personal computers, game machines, and the like. The present invention can also be applied to a system including a portable electronic device.

図1は、実施形態に係る携帯電子機器の一実施形態の概略構成を示す正面図であり、図2は、図1に示す携帯電子機器の側面図である。図1、図2に示す携帯電子機器1は、無線通信機能と、出力手段と、音声取得手段とを有する携帯電話機である。携帯電子機器1は、筐体1Cが複数の筐体で構成される。具体的には、筐体1Cは、第1筐体1CAと第2筐体1CBとで開閉可能に構成される。すなわち、携帯電子機器1は、折り畳み式の筐体を有する。なお、携帯電子機器1の筐体は、このような構造に限定されるものではない。例えば、携帯電子機器1の筐体は、両方の筐体を重ね合わせた状態から一方の筐体と他方の筐体とを互いにスライドできるようにしたスライド式の筐体であってもよいし、重ね合わせ方向に沿う軸線を中心に、一方の筐体を回転させるようにした回転式や、2軸ヒンジを介して両方の筐体を連結したものでもよい。   FIG. 1 is a front view showing a schematic configuration of an embodiment of a portable electronic device according to the embodiment, and FIG. 2 is a side view of the portable electronic device shown in FIG. A portable electronic device 1 shown in FIGS. 1 and 2 is a mobile phone having a wireless communication function, an output unit, and a voice acquisition unit. In the portable electronic device 1, the housing 1C is composed of a plurality of housings. Specifically, the housing 1C is configured to be openable and closable by a first housing 1CA and a second housing 1CB. That is, the portable electronic device 1 has a foldable housing. In addition, the housing | casing of the portable electronic device 1 is not limited to such a structure. For example, the casing of the portable electronic device 1 may be a sliding casing that allows one casing and the other casing to slide from each other in a state where both casings are overlapped, It may be a rotary type in which one casing is rotated around an axis along the overlapping direction, or both casings are connected via a biaxial hinge.

第1筐体1CAと第2筐体1CBとは、連結部であるヒンジ機構8で連結されている。ヒンジ機構8で第1筐体1CAと第2筐体1CBとを連結することにより、第1筐体1CA及び第2筐体1CBは、ヒンジ機構8を中心としてともに回動して、互いに遠ざかる方向及び互いに接近する方向(図2の矢印Rで示す方向)に回動できるように構成される。第1筐体1CAと第2筐体1CBとが互いに遠ざかる方向に回動すると携帯電子機器1が開き、第1筐体1CAと第2筐体1CBとが互いに接近する方向に回動すると携帯電子機器1が閉じて、折り畳まれた状態となる(図2の点線で示す状態)。   1st housing | casing 1CA and 2nd housing | casing 1CB are connected by the hinge mechanism 8 which is a connection part. By connecting the first casing 1CA and the second casing 1CB with the hinge mechanism 8, the first casing 1CA and the second casing 1CB rotate together around the hinge mechanism 8 and move away from each other. And it is comprised so that it can rotate in the direction (direction shown by arrow R of FIG. 2) which mutually approaches. When the first casing 1CA and the second casing 1CB rotate in a direction away from each other, the portable electronic device 1 opens, and when the first casing 1CA and the second casing 1CB rotate in a direction approaching each other, the portable electronic device 1 opens. The device 1 is closed and folded (a state indicated by a dotted line in FIG. 2).

第1筐体1CAには、表示部として、図1に示すディスプレイ2が設けられる。ディスプレイ2は、携帯電子機器1が受信を待機している状態のときに待ち受け画像を表示したり、携帯電子機器1の操作を補助するために用いられるメニュー画像を表示したりする。また、第1筐体1CAには、携帯電子機器1の通話時に音声を出力する出力手段であるレシーバ16が設けられる。また、第1筐体1CAのディスプレイ2が配置されている面のレシーバ16の近傍には、カメラ38が設けられている。   The first housing 1CA is provided with a display 2 shown in FIG. 1 as a display unit. The display 2 displays a standby image when the portable electronic device 1 is waiting for reception, or displays a menu image used for assisting the operation of the portable electronic device 1. In addition, the first housing 1CA is provided with a receiver 16 that is an output unit that outputs sound when the mobile electronic device 1 is in a call. A camera 38 is provided in the vicinity of the receiver 16 on the surface where the display 2 of the first housing 1CA is disposed.

第2筐体1CBには、通話相手の電話番号や、メール作成時等に文字を入力するための操作キー13Aが複数設けられ、また、ディスプレイ2に表示されるメニューの選択及び決定や画面のスクロール等を容易に実行するための方向及び決定キー13Bが設けられる。操作キー13A及び方向及び決定キー13Bは、携帯電子機器1の操作部13を構成する。また、第2筐体1CBには、携帯電子機器1の通話時に音声を受け取る音声取得手段であるマイク15が設けられる。操作部13は、図2に示す、第2筐体1CBの操作面1PCに設けられる。操作面1PCとは反対側の面が、携帯電子機器1の背面1PBである。また、操作キー13Aを構成するキーのうち、発信操作及び受話操作を入力するキー(図1中左上のキー)は、指紋センサ36も設けられている。つまり、発信操作及び受話操作を入力するキーに指が触れると、指紋センサ36が触れた指の指紋を検出する。   The second casing 1CB is provided with a plurality of operation keys 13A for inputting a telephone number of a call partner, a mail, etc., and selection and determination of a menu displayed on the display 2 and a screen. A direction and determination key 13B for easily executing scrolling and the like are provided. The operation key 13 </ b> A and the direction / decision key 13 </ b> B constitute the operation unit 13 of the mobile electronic device 1. In addition, the second casing 1CB is provided with a microphone 15 that is a voice acquisition unit that receives voice when the mobile electronic device 1 is in a call. The operation unit 13 is provided on the operation surface 1PC of the second housing 1CB shown in FIG. The surface opposite to the operation surface 1PC is the back surface 1PB of the portable electronic device 1. Of the keys constituting the operation key 13A, a key for inputting a call operation and a call reception operation (the upper left key in FIG. 1) is also provided with a fingerprint sensor 36. That is, when a finger touches a key for inputting a transmission operation and a reception operation, the fingerprint of the finger touched by the fingerprint sensor 36 is detected.

第2筐体1CBの内部には、アンテナが設けられている。アンテナは、無線通信に用いる送受信アンテナであり、携帯電子機器1と基地局との間で通話や電子メール等に係る電波(電磁波)の送受信に用いられる。また、第2筐体1CBには、マイク15が設けられる。マイク15は、図2に示す、携帯電子機器1の操作面1PC側に配置される。   An antenna is provided inside the second housing 1CB. The antenna is a transmission / reception antenna used for wireless communication, and is used for transmission / reception of radio waves (electromagnetic waves) related to calls, electronic mails, and the like between the portable electronic device 1 and a base station. In addition, the microphone 15 is provided in the second housing 1CB. The microphone 15 is arranged on the operation surface 1PC side of the portable electronic device 1 shown in FIG.

図3は、図1、図2に示す携帯電子機器の機能の概略構成を示すブロック図である。図3に示すように、携帯電子機器1は、処理部22と、記憶部24と、送受信部26と、操作部13と、音声処理部30と、表示部32と、出力音補正部34と、加速度センサ35と、指紋センサ36と、カメラ38と、を有する。処理部22は、携帯電子機器1の全体的な動作を統括的に制御する機能を有する。すなわち、処理部22は、携帯電子機器1の各種の処理が、操作部13の操作や携帯電子機器1の記憶部24に記憶されるソフトウェアに応じて適切な手順で実行されるように、送受信部26や、音声処理部30や、表示部32等の動作を制御する。   FIG. 3 is a block diagram illustrating a schematic configuration of functions of the portable electronic device illustrated in FIGS. 1 and 2. As illustrated in FIG. 3, the mobile electronic device 1 includes a processing unit 22, a storage unit 24, a transmission / reception unit 26, an operation unit 13, an audio processing unit 30, a display unit 32, and an output sound correction unit 34. , An acceleration sensor 35, a fingerprint sensor 36, and a camera 38. The processing unit 22 has a function of comprehensively controlling the overall operation of the mobile electronic device 1. In other words, the processing unit 22 transmits and receives various processes of the mobile electronic device 1 so as to be executed in an appropriate procedure according to the operation of the operation unit 13 and the software stored in the storage unit 24 of the mobile electronic device 1. The operations of the unit 26, the voice processing unit 30, the display unit 32, and the like are controlled.

携帯電子機器1の各種の処理としては、例えば、回線交換網を介して行われる音声通話、電子メールの作成及び送受信、インターネットのWeb(World Wide Web)サイトの閲覧等がある。また、送受信部26、音声処理部30、表示部32等の動作としては、例えば、送受信部26による信号の送受信、音声処理部30による音声の入出力、表示部32による画像の表示等がある。   Various processes of the portable electronic device 1 include, for example, a voice call performed via a circuit switching network, creation and transmission / reception of an electronic mail, browsing of a Web (World Wide Web) site on the Internet, and the like. Examples of operations of the transmission / reception unit 26, the audio processing unit 30, and the display unit 32 include transmission / reception of signals by the transmission / reception unit 26, input / output of audio by the audio processing unit 30, display of images by the display unit 32, and the like. .

処理部22は、記憶部24に記憶されているプログラム(例えば、オペレーティングシステムプログラム、アプリケーションプログラム等)に基づいて処理を実行する。処理部22は、例えば、マイクロプロセッサユニット(MPU:Micro Processing Unit)で構成され、前記ソフトウェアで指示された手順にしたがって上述した携帯電子機器1の各種の処理を実行する。すなわち、処理部22は、記憶部24に記憶されるオペレーティングシステムプログラムやアプリケーションプログラム等から命令コードを順次読み込んで処理を実行する。   The processing unit 22 executes processing based on a program (for example, an operating system program, application program, etc.) stored in the storage unit 24. The processing unit 22 is constituted by, for example, a microprocessor unit (MPU: Micro Processing Unit), and executes various processes of the portable electronic device 1 described above in accordance with procedures instructed by the software. That is, the processing unit 22 sequentially reads instruction codes from an operating system program, application program, or the like stored in the storage unit 24 and executes processing.

処理部22は、複数のアプリケーションプログラムを実行する機能を有する。処理部22が実行するアプリケーションプログラムとしては、例えば、各種の画像ファイル(画像情報)を記憶部24から読み出してデコードするアプリケーションプログラム、及びデコードして得られる画像を表示部32に表示させるアプリケーションプログラム等の複数のアプリケーションプログラムがある。   The processing unit 22 has a function of executing a plurality of application programs. The application program executed by the processing unit 22 includes, for example, an application program that reads and decodes various image files (image information) from the storage unit 24, and an application program that displays an image obtained by decoding on the display unit 32. There are multiple application programs.

本実施形態において、処理部22は、出力音補正部34の補正パラメータを設定する補正パラメータ設定部22a、音声認識処理を行う音声解析部22b、音声のスペクトル分析を行うスペクトル分析部22c、所定の提示音(テスト音)を生成する提示音生成部22d、出力音補正機能を制御する補正機能制御部22eを有する。補正パラメータ設定部22a、音声解析部22b、スペクトル分析部22c、提示音生成部22d、補正機能制御部22eがそれぞれ有する機能は、処理部22及び記憶部24で構成されるハードウェア資源が、処理部22の制御部が割り当てるタスクを実行することにより実現される。ここで、タスクとは、アプリケーションソフトウェアが行っている処理全体、又は同じアプリケーションソフトウェアが行っている処理のうち、同時に実行できない処理単位である。なお、補正パラメータ設定部22a、音声解析部22b、スペクトル分析部22c及び提示音生成部22dの機能を、送受信部26を介して携帯電子機器1と通信可能なサーバで実行し、サーバが実行結果を携帯電子機器1に送信するようにしても良い。   In the present embodiment, the processing unit 22 includes a correction parameter setting unit 22a that sets a correction parameter of the output sound correction unit 34, a voice analysis unit 22b that performs voice recognition processing, a spectrum analysis unit 22c that performs voice spectrum analysis, A presentation sound generation unit 22d that generates a presentation sound (test sound) and a correction function control unit 22e that controls an output sound correction function are provided. The functions of the correction parameter setting unit 22a, the voice analysis unit 22b, the spectrum analysis unit 22c, the presentation sound generation unit 22d, and the correction function control unit 22e are processed by the hardware resources configured by the processing unit 22 and the storage unit 24, respectively. This is realized by executing a task assigned by the control unit of the unit 22. Here, a task is a processing unit that cannot be executed at the same time among the entire processing performed by the application software or the processing performed by the same application software. The functions of the correction parameter setting unit 22a, the voice analysis unit 22b, the spectrum analysis unit 22c, and the presentation sound generation unit 22d are executed by a server that can communicate with the portable electronic device 1 via the transmission / reception unit 26. May be transmitted to the portable electronic device 1.

記憶部24には、処理部22での処理に利用されるソフトウェアやデータが記憶されており、上述した、画像処理用プログラムを作動させるタスクが記憶されている。また、記憶部24には、これらのタスク以外にも、例えば、通信、ダウンロードされた音声データ、あるいは記憶部24に対する制御に処理部22が用いるソフトウェア、通信相手の電話番号やメールアドレス等が記述されて管理するアドレス帳、発信音や着信音等の音声ファイル、ソフトウェアの処理過程で用いられる一時的なデータ等が記憶されている。   The storage unit 24 stores software and data used for processing in the processing unit 22, and stores a task for operating the above-described image processing program. In addition to these tasks, for example, communication, downloaded voice data, software used by the processing unit 22 to control the storage unit 24, the telephone number or mail address of the communication partner, etc. are described in the storage unit 24. The address book to be managed, voice files such as dial tone and ring tone, temporary data used in the process of software, and the like are stored.

また、記憶部24は、さらに、使用者を識別するためのの識別情報(利用者の識別情報)と、使用者(登録された利用者)に対応した補正パラメータとが記憶されている。つまり、記憶部24には、使用者を特定するための情報と、補正パラメータが使用者毎に設定され記憶されている。使用者(登録されている利用者)の識別情報としては、声紋情報や、使用者(または利用者)の顔、または頭部の一部の画像情報、指紋情報等がある。なお、補正パラメータは、補正パラメータ設定部22a、音声解析部22b、スペクトル分析部22c、提示音生成部22dを用いた、所定のパラメータ設定処理により設定される。補正パラメータの設定処理については、後ほど説明する。   Further, the storage unit 24 further stores identification information (user identification information) for identifying the user and correction parameters corresponding to the user (registered user). That is, in the storage unit 24, information for specifying a user and correction parameters are set and stored for each user. The identification information of the user (registered user) includes voiceprint information, image information of a part of the user (or user) face or head, fingerprint information, and the like. The correction parameters are set by a predetermined parameter setting process using the correction parameter setting unit 22a, the voice analysis unit 22b, the spectrum analysis unit 22c, and the presentation sound generation unit 22d. The correction parameter setting process will be described later.

なお、ソフトウェアの処理過程で用いられるコンピュータプログラムや一時的なデータは、処理部22によって記憶部24に割り当てられた作業領域へ一時的に記憶される。記憶部24は、例えば、不揮発性の記憶デバイス(ROM:Read Only Memory等の不揮発性半導体メモリ、ハードディスク装置等)や、読み書き可能な記憶デバイス(例えば、SRAM:Static Random Access Memory、DRAM:Dynamic Random Access Memory)等で構成される。   Note that computer programs and temporary data used in the software processing process are temporarily stored in the work area assigned to the storage unit 24 by the processing unit 22. The storage unit 24 includes, for example, a nonvolatile storage device (nonvolatile semiconductor memory such as ROM: Read Only Memory, a hard disk device, etc.), and a readable / writable storage device (for example, SRAM: Static Random Access Memory, DRAM: Dynamic Random Access Memory).

送受信部26は、アンテナ26aを有し、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA(Code Division Multiple Access)方式などによる無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。操作部13は、例えば、電源キー、通話キー、数字キー、文字キー、方向キー、決定キー、発信キー等、各種の機能が割り当てられた操作キー13Aと、方向及び決定キー13Bとで構成される。そして、これらのキーがユーザの操作により入力されると、その操作内容に対応する信号を発生させる。発生した信号は、ユーザの指示として処理部22へ入力される。   The transmission / reception unit 26 has an antenna 26a, establishes a radio signal line by a CDMA (Code Division Multiple Access) method or the like with the base station via a channel assigned by the base station, and makes a telephone call with the base station. Perform communication and information communication. The operation unit 13 includes, for example, an operation key 13A to which various functions such as a power key, a call key, a numeric key, a character key, a direction key, a determination key, and a call key are assigned, and a direction and determination key 13B. The When these keys are input by a user operation, a signal corresponding to the operation content is generated. The generated signal is input to the processing unit 22 as a user instruction.

音声処理部30は、マイク15に入力される音声信号やレシーバ16やスピーカ17から出力される音声信号の処理を実行する。すなわち、音声処理部30は、マイク15から入力される音声を増幅し、AD変換(Analog Digital変換)を実行した後、さらに符号化等の信号処理を施して、ディジタルの音声データに変換して処理部22へ出力する。また、処理部22から出力音補正部34を介して送られる音声データに対して復号化、DA変換(Digital Analog変換)、増幅等の処理を施してアナログの音声信号に変換してから、レシーバ16やスピーカ17へ出力する。ここで、スピーカ17は、携帯電子機器1の筐体1C内に配置されており、着信音やメールの送信音等を出力する。   The audio processing unit 30 executes processing of an audio signal input to the microphone 15 and an audio signal output from the receiver 16 and the speaker 17. That is, the sound processing unit 30 amplifies the sound input from the microphone 15 and executes AD conversion (Analog Digital conversion), and then performs signal processing such as encoding to convert the sound into digital sound data. Output to the processing unit 22. Further, the audio data sent from the processing unit 22 via the output sound correction unit 34 is subjected to processing such as decoding, DA conversion (Digital Analog conversion), amplification and the like, and converted into an analog audio signal, and then the receiver. 16 and the speaker 17. Here, the speaker 17 is disposed in the housing 1C of the portable electronic device 1, and outputs a ringtone, a mail transmission sound, and the like.

表示部32は、上述したディスプレイ2を有しており、処理部22から供給される映像データに応じた映像や画像データに応じた画像を表示パネルに表示させる。ディスプレイ2は、例えば、液晶ディスプレイ(LCD、Liquid Crystal Display)や、有機EL(Organic Electro−Luminescence)パネルなどで構成された表示パネルで構成される。なお、表示部32は、ディスプレイ2に加え、サブディスプレイを有していてもよい。   The display unit 32 includes the display 2 described above, and displays a video corresponding to the video data supplied from the processing unit 22 and an image corresponding to the image data on the display panel. The display 2 is configured by a display panel configured by, for example, a liquid crystal display (LCD) or an organic EL (Organic Electro-Luminescence) panel. The display unit 32 may include a sub display in addition to the display 2.

出力音補正部34は、処理部22により設定される補正パラメータに基づいて、処理部22から送られる音声データに対して補正を行って音声処理部30に出力する。なお、出力音補正部34が行う補正は、入力される音声データに対して、補正パラメータに基づいて、音の大きさ及び周波数に応じて異なるゲインで増幅する補正である。また、出力音補正部34は、ハードウェア回路で実現しても良いし、CPUとプログラムで実現しても良い。出力音補正部34をCPUとプログラムで実現する場合、出力音補正部34を処理部22内で実現するようにしても良い。また、出力音補正部34の機能を、送受信部26を介して通信可能なサーバで実行し、サーバが補正処理後の音声データを携帯電子機器1に送信するようにしても良い。   Based on the correction parameter set by the processing unit 22, the output sound correction unit 34 corrects the audio data sent from the processing unit 22 and outputs it to the audio processing unit 30. Note that the correction performed by the output sound correcting unit 34 is a correction for amplifying the input audio data with a gain that varies depending on the volume and frequency of the sound based on the correction parameter. The output sound correction unit 34 may be realized by a hardware circuit, or may be realized by a CPU and a program. When the output sound correction unit 34 is realized by a CPU and a program, the output sound correction unit 34 may be realized in the processing unit 22. Further, the function of the output sound correction unit 34 may be executed by a server that can communicate via the transmission / reception unit 26, and the server may transmit the corrected audio data to the portable electronic device 1.

加速度センサ35は、筐体1Cに加わる加速度を検出する検出器である。加速度センサ35として、種々の方法で加速度を検出する検出器を用いることができ、例えば、静電容量の変化や、ピエゾ抵抗の変化、相対位置の変化等で加速度を検出する検出器を用いることができる。加速度センサ35は、操作者が筐体1Cを振ったり、移動させたりする際に、筐体1Cに作用する加速度を検出する。   The acceleration sensor 35 is a detector that detects acceleration applied to the housing 1C. As the acceleration sensor 35, a detector that detects acceleration by various methods can be used. For example, a detector that detects acceleration by a change in capacitance, a change in piezoresistance, a change in relative position, or the like is used. Can do. The acceleration sensor 35 detects an acceleration acting on the housing 1C when the operator shakes or moves the housing 1C.

指紋センサ36は、上述したように、操作キー13Aの発信操作及び受話操作を入力するキー(図1中左上のキー)に配置されており、当該キーに接触した指の指紋を検出する。なお、指紋センサ36としては、感圧により指紋を検出する検出素子や、静電容量の変化に基づいて指紋を検出する素子等を用いることができる。   As described above, the fingerprint sensor 36 is arranged on the key (the upper left key in FIG. 1) for inputting the outgoing operation and the incoming operation of the operation key 13A, and detects the fingerprint of the finger touching the key. As the fingerprint sensor 36, a detection element that detects a fingerprint by pressure sensitivity, an element that detects a fingerprint based on a change in capacitance, or the like can be used.

カメラ38は、第1筐体1CAの上面に設けられ、ディスプレイ2に対面する領域の画像を取得する撮像機構である。   The camera 38 is an imaging mechanism that is provided on the upper surface of the first housing 1CA and acquires an image of an area facing the display 2.

次に、図4及び図5を用いて、携帯電子機器1の音声出力時の処理の一例について説明する。ここで、図4及び図5は、それぞれ、携帯電子機器の動作の一例を説明するためのフロー図である。なお、図4及び図5に示す処理動作は、基本的に処理部22が補正機能制御部22eを機能させることで実行される。また、図4及び図5に示す処理は、通話時等、レシーバ16、スピーカ17から音声を出力する処理の実行時に行われる。なお、図4に示す処理は、音声を出力する処理を開始する際に開始される。また、図4及び図5に示す処理は、マイク15で取得した音声により使用状態(使用している使用者)を識別するための識別情報を取得し、その取得情報に基づいて、使用者が設定されている本人であるかを確認し、本人である場合は、設定されている補正パラメータを使用する補正パラメータに設定する処理である。さらに、図4に示す処理は、加速度センサ35の検出結果も用いて制御を行う。   Next, an example of processing when the mobile electronic device 1 outputs sound will be described with reference to FIGS. 4 and 5. Here, FIG. 4 and FIG. 5 are flowcharts for explaining an example of the operation of the portable electronic device. Note that the processing operations shown in FIGS. 4 and 5 are basically executed when the processing unit 22 causes the correction function control unit 22e to function. The processing shown in FIGS. 4 and 5 is performed at the time of executing processing for outputting sound from the receiver 16 and the speaker 17 such as during a call. Note that the process shown in FIG. 4 is started when the process of outputting sound is started. The processing shown in FIGS. 4 and 5 acquires identification information for identifying the use state (the user who is using) by the sound acquired by the microphone 15, and based on the acquired information, the user This is a process of confirming whether or not the person is set and, if the person is the person, setting a correction parameter that uses the set correction parameter. Further, the processing shown in FIG. 4 is controlled using the detection result of the acceleration sensor 35.

携帯電子機器1の処理部22は、まず、ステップS12として、マイク音声の声紋分析を行う。つまり、処理部22は、マイク15で音声を取得し、取得した音声を分析することで携帯電子機器1の音声出力機能を使用している使用者の声紋を抽出する。処理部22は、ステップS12で声紋を分析したら、ステップS14として、本人であるかを判定する。つまり、処理部22は、ステップS12で抽出した声紋と、記憶部24に記憶されている声紋とを比較し、使用者が記憶部24に補正パラメータが設定されている本人であるかを判定する。   The processing unit 22 of the portable electronic device 1 first performs a voice print analysis of the microphone sound as step S12. That is, the processing unit 22 acquires voice with the microphone 15 and analyzes the acquired voice to extract a voice print of the user who uses the voice output function of the portable electronic device 1. After analyzing the voiceprint in step S12, the processing unit 22 determines whether the person is the person in step S14. That is, the processing unit 22 compares the voiceprint extracted in step S12 with the voiceprint stored in the storage unit 24, and determines whether the user is the person whose correction parameter is set in the storage unit 24. .

処理部22は、ステップS14で使用者が本人ではない(No)と判定したら、ステップS16として、出力補正をOFFにし、使用者が本人である(Yes)と判定したら、ステップS18として、出力補正をONにする。ここで、出力補正とは、補正パラメータを用いて、出力音声を補正する機能である。処理部22は、出力補正がONの状態では、記憶部24に記憶されている本人に対応する補正パラメータを出力音補正部34に供給する。また、出力音補正部34は、供給された補正パラメータを用いて、供給された音声信号を補正し、補正した音声をレシーバ16、スピーカ17から出力させる。また、処理部22は、出力補正がOFFの状態では、出力音補正部34の機能を停止させ、供給された音声信号をそのまま変換した音声をレシーバ16、スピーカ17から出力させる。処理部22は、ステップS16またはステップS18で出力補正機能のON、OFFの設定を行ったら、ステップS20に進む。   If it is determined in step S14 that the user is not the user (No), the processing unit 22 turns off the output correction in step S16, and if it is determined that the user is the user (Yes), the processing unit 22 performs output correction in step S18. Set to ON. Here, the output correction is a function for correcting the output sound using the correction parameter. When the output correction is ON, the processing unit 22 supplies the output sound correction unit 34 with correction parameters corresponding to the person stored in the storage unit 24. The output sound correction unit 34 corrects the supplied audio signal using the supplied correction parameter, and outputs the corrected sound from the receiver 16 and the speaker 17. Further, when the output correction is OFF, the processing unit 22 stops the function of the output sound correction unit 34 and outputs the sound obtained by converting the supplied sound signal as it is from the receiver 16 and the speaker 17. When the processing unit 22 sets the output correction function to ON or OFF in step S16 or step S18, the processing unit 22 proceeds to step S20.

処理部22は、ステップS20として、加速度センサ35により加速度を検出し、ステップS22として、しきい値≦検出値であるかを判定する。つまり、処理部22は、検出した加速度がしきい値以上であるかを判定する。なお、しきい値は、予め設定されている値であり、携帯電子機器1が移動したと判定することができる値である。つまり手振れ等により発生する加速度以上の加速度が生じ、携帯電子機器1が一定距離以上移動したと判定できる加速度の値である。   The processing unit 22 detects acceleration by the acceleration sensor 35 as step S20, and determines whether threshold value ≦ detection value as step S22. That is, the processing unit 22 determines whether the detected acceleration is equal to or greater than a threshold value. Note that the threshold value is a value that is set in advance and is a value with which it can be determined that the mobile electronic device 1 has moved. That is, an acceleration value that is greater than the acceleration generated by hand shake or the like is generated, and the mobile electronic device 1 can be determined to have moved more than a certain distance.

処理部22は、ステップS22でしきい値≦検出値である(Yes)と判定したら、携帯電子機器1が一定以上移動したと判定し、ステップS24として、割り込み処理を行う。ここで、割り込み処理とは、携帯電子機器1が一定以上移動し、使用者が変わった可能性があると判定した場合に行う処理であり、出力補正機能のON、OFFの再設定処理である。以下、図5を用いて、割り込み処理について、説明する。   If the processing unit 22 determines in step S22 that threshold value ≦ detection value (Yes), it determines that the mobile electronic device 1 has moved beyond a certain level, and performs interrupt processing in step S24. Here, the interruption process is a process that is performed when it is determined that the mobile electronic device 1 has moved beyond a certain level and the user may have changed, and is an output correction function ON / OFF resetting process. . Hereinafter, the interrupt process will be described with reference to FIG.

処理部22は、割り込み処理が実行されると、ステップS30として、出力補正をOFFにする。つまり、処理部22は、出力音補正部34による音声の補正機能を停止させ、音声信号を補正せずそのまま音声として出力する。処理部22は、ステップS30で出力補正をOFFにしたら、ステップS31として、マイク音声の声紋分析を行う。処理部22は、ステップS31で声紋を分析したら、ステップS32として、本人であるかを判定する。処理部22は、ステップS32で使用者が本人ではない(No)と判定したら、そのまま処理を終了し、使用者が本人である(Yes)と判定したら、ステップS36として、出力補正をONにする。処理部22は、ステップS32でNoまたはステップS36の処理が終了したら、割り込み処理を終了し、図4に示すフロー図の処理に戻る。   When the interrupt process is executed, the processing unit 22 turns off the output correction in step S30. That is, the processing unit 22 stops the sound correction function by the output sound correcting unit 34 and outputs the sound signal as it is without correcting the sound signal. When the output correction is turned off in step S30, the processing unit 22 performs voiceprint analysis of the microphone sound in step S31. After analyzing the voiceprint at step S31, the processing unit 22 determines whether the person is the person at step S32. If it is determined in step S32 that the user is not the user (No), the processing unit 22 ends the process, and if it is determined that the user is the user (Yes), in step S36, the output correction is turned on. . The processing unit 22 terminates the interrupt process when No or the process of step S36 is completed in step S32, and returns to the process of the flowchart shown in FIG.

処理部22は、ステップS24で割り込み処理を行ったら、ステップS20に進み、再び加速度検出を行い、ステップS22の判定を行う。   After performing the interrupt process in step S24, the processing unit 22 proceeds to step S20, performs acceleration detection again, and performs the determination in step S22.

処理部22は、ステップS22で、しきい値≦検出値ではない(No)、つまり、しきい値>検出値であると判定したら、携帯電子機器1が移動しておらず、同一の使用者により使用されていると判定し、ステップS26として、通話終了であるかを判定する。   If the processing unit 22 determines in step S22 that the threshold value ≦ the detected value is not satisfied (No), that is, the threshold value> the detected value, the portable electronic device 1 is not moved and the same user In step S26, it is determined whether the call has ended.

処理部22は、ステップS26で通話終了ではない(No)と判定したら、ステップS20に進み、上記処理を繰り返す。また、処理部22は、ステップS26で通話終了である(Yes)と判定したら、本処理を終了する。   If the processing unit 22 determines in step S26 that the call has not ended (No), the processing unit 22 proceeds to step S20 and repeats the above processing. If the processing unit 22 determines in step S26 that the call is ended (Yes), the processing ends.

このように、携帯電子機器1は、音声信号が入力されたら、出力音補正部34により、設定した補正パラメータに基づいて、音声信号を補正し音声処理部30に出力する。これにより、携帯電子機器1は、ユーザの聴こえ(音声の聞こえ方、聴覚の特性)に合わせて設定した補正パラメータによって音声信号を補正することができ、ユーザにより聞こえやすい音声を出力することができる。   As described above, when the audio signal is input, the portable electronic device 1 corrects the audio signal based on the set correction parameter by the output sound correction unit 34 and outputs the corrected audio signal to the audio processing unit 30. Thereby, the portable electronic device 1 can correct the audio signal with the correction parameter set in accordance with the user's hearing (how to hear the sound, characteristics of hearing), and can output the sound that is easier to hear for the user. .

さらに、処理部22は、使用者を判定し、使用者が本人である場合は、その本人の聴こえに対応した補正パラメータで出力音の補正を行い、本人以外が使用者である場合は、出力音の補正を行わないことで、携帯電子機器1を使用している使用者に適した音声で音声を出力することができる。これにより、携帯電子機器1を本人以外が使用する場合も好適に音声を聞くことができる。つまり、本人以外が使用する場合は、補正されていて一部の音声が通常より大きく出力される音声ではなく、補正されていない音声を聞くことが出来る。これにより、本人以外が利用する場合も聞きやすい音声で聞くことができる。   Further, the processing unit 22 determines the user, and corrects the output sound with a correction parameter corresponding to the user's hearing when the user is the user, and outputs the output when the user other than the user is the user. By not correcting the sound, it is possible to output the sound with a sound suitable for the user using the portable electronic device 1. Thereby, even when the portable electronic device 1 is used by a person other than the person himself / herself, the sound can be suitably heard. That is, when used by a person other than the person himself / herself, it is possible to listen to a sound that has not been corrected and is not a corrected sound that is output more than usual. As a result, it is possible to listen with a voice that is easy to hear even when a person other than the user uses it.

また、携帯電子機器1は、使用者を検出し、出力音の補正機能のON,OFFを自動的に制御することで、ユーザは、設定を切り換えなくても適切な音声で通話、視聴等を行うことができる。   In addition, the mobile electronic device 1 detects the user and automatically controls ON / OFF of the output sound correction function, so that the user can make a call, view, etc. with appropriate sound without switching the setting. It can be carried out.

なお、上記実施形態では、本人であるか否かで、出力音の補正機能のON、OFFを切り換えたが、本発明はこれに限定されない。携帯電子機器1は、複数の利用者の識別情報と、それぞれの利用者に対応する補正パラメータを記憶しておき、声紋情報に基づいて、利用者のいずれであるかを検出し、検出した利用者に対応する補正パラメータを使用補正パラメータとして設定して、出力音を補正するようにしてもよい。つまり、検出した利用者に対応して使用する補正パラメータを設定するようにしてもよい。なお、この場合も、使用者が、利用者のいずれでもない場合は、出力音の補正機能をOFFすることで、補正していない音声で出力することができる。   In the above embodiment, the output sound correction function is switched ON / OFF depending on whether or not the user is the person himself / herself, but the present invention is not limited to this. The mobile electronic device 1 stores identification information of a plurality of users and correction parameters corresponding to the respective users, detects which one of the users is based on the voiceprint information, and detects the detected use A correction parameter corresponding to the user may be set as a use correction parameter to correct the output sound. That is, a correction parameter used corresponding to the detected user may be set. In this case as well, when the user is not any of the users, the output sound correction function is turned off, so that the sound can be output with no correction.

ここで、上記実施形態では、音声を聞いている使用者の情報をマイク15で取得した音声情報に基づいて検出したが、これには限定されない。携帯電子機器1は、使用者を検出するための情報、つまり識別情報として、種々の情報を用いることができ、識別情報を検出する識別情報検出部もマイク15以外の種々の検出部を用いることができる。   Here, in the said embodiment, although the information of the user who is listening to the audio | voice was detected based on the audio | voice information acquired with the microphone 15, it is not limited to this. The portable electronic device 1 can use various information as information for detecting the user, that is, identification information, and the identification information detection unit for detecting the identification information also uses various detection units other than the microphone 15. Can do.

次に、図6を用いて、携帯電子機器1の音声出力時の処理の他の例について説明する。ここで、図6は、携帯電子機器の動作の一例を説明するためのフロー図である。また、図6に示す処理は、カメラ38で使用者を識別するための識別情報を取得し、その取得情報に基づいて、使用する補正パラメータを設定する処理である。   Next, another example of processing at the time of audio output of the mobile electronic device 1 will be described with reference to FIG. Here, FIG. 6 is a flowchart for explaining an example of the operation of the portable electronic device. The process shown in FIG. 6 is a process for acquiring identification information for identifying the user by the camera 38 and setting a correction parameter to be used based on the acquired information.

携帯電子機器1の処理部22は、まず、ステップS62として、カメラ34で画像を取得する。処理部22は、ステップS62で画像を取得したら、ステップS64として、本人であるかを判定する。つまり、処理部22は、ステップS62で取得した画像に人物が写っている場合は、その人物の画像を抽出する。その後、処理部22は、抽出した画像と、記憶部24に記憶されている識別情報とを比較し、取得した画像の人物が記憶部24に記憶されている識別情報の人物であるか、本実施形態では、本人であるかを判定する。   First, the processing unit 22 of the portable electronic device 1 acquires an image with the camera 34 in step S62. When the processing unit 22 acquires an image in step S62, the processing unit 22 determines whether the user is the person in step S64. That is, when the person is reflected in the image acquired in step S62, the processing unit 22 extracts the person's image. Thereafter, the processing unit 22 compares the extracted image with the identification information stored in the storage unit 24, and determines whether the person of the acquired image is the person of the identification information stored in the storage unit 24 or the book In the embodiment, it is determined whether or not the user is the person.

処理部22は、ステップS64で使用者が本人ではない(No)と判定したら、ステップS66として、出力補正をOFFにし、使用者が本人である(Yes)と判定したら、ステップS68として、出力補正をONにする。処理部22は、ステップS66またはステップS68で出力補正機能のON、OFFの設定を行ったら、ステップS70に進む。   If it is determined in step S64 that the user is not the user (No), the processing unit 22 turns off the output correction in step S66, and if it is determined that the user is the user (Yes), the output correction is performed in step S68. Set to ON. If the processing unit 22 sets the output correction function to ON or OFF in step S66 or step S68, the processing unit 22 proceeds to step S70.

処理部22は、ステップS70として、再びカメラ34で画像を取得し、ステップS72として、被写体が変化したかを判定する。つまり、使用者が本人であるかを判定した状態から、被写体、つまり、レシーバ16の近傍にいる人物が変わったかを判定する。   The processing unit 22 acquires an image again with the camera 34 in step S70, and determines whether the subject has changed in step S72. That is, it is determined whether the subject, that is, the person in the vicinity of the receiver 16 has changed from the state in which it is determined whether or not the user is the user.

処理部22は、ステップS72で被写体が変化した(Yes)と判定したら、ステップS74として、出力補正をOFFにする。つまり、処理部22は、出力音補正部34による音声の補正機能を停止させ、音声信号を補正せずそのまま音声として出力する。処理部22は、ステップS74で出力補正をOFFにしたら、ステップS76として、ステップS70で取得した画像の被写体、つまり、ステップS72で変化したと判定した被写体が本人であるかを判定する。処理部22は、ステップS76で使用者が本人ではない(No)と判定したら、ステップS72に進む。また、処理部22は、ステップS76で使用者が本人である(Yes)と判定したら、ステップS78として、出力補正をONにする。処理部22は、ステップS78で出力補正をONにしたら、ステップS72の判定を行う。なお、処理部22は、ステップS76でNoと判定したら、または、ステップS78の処理を終了したら、ステップS70に進み再び画像を取得してもよい。   If it is determined in step S72 that the subject has changed (Yes), the processing unit 22 turns off output correction in step S74. That is, the processing unit 22 stops the sound correction function by the output sound correcting unit 34 and outputs the sound signal as it is without correcting the sound signal. When the output correction is turned off in step S74, the processing unit 22 determines in step S76 whether the subject of the image acquired in step S70, that is, the subject determined to have changed in step S72 is the person himself / herself. If it is determined in step S76 that the user is not the user (No), the processing unit 22 proceeds to step S72. If it is determined in step S76 that the user is the user (Yes), the processing unit 22 turns on output correction in step S78. If the output correction is turned on in step S78, the processing unit 22 performs the determination in step S72. Note that the processing unit 22 may proceed to step S70 and acquire an image again when it is determined No in step S76 or when the processing of step S78 is completed.

処理部22は、ステップS72で、被写体が変化していない(No)と判定したら、ステップS80として、通話終了であるかを判定する。処理部22は、ステップS80で通話終了ではない(No)と判定したら、ステップS70に進み、上記処理を繰り返す。また、処理部22は、ステップS80で通話終了である(Yes)と判定したら、本処理を終了する。   If it is determined in step S72 that the subject has not changed (No), the processing unit 22 determines in step S80 whether the call has ended. If it is determined in step S80 that the call has not ended (No), the processing unit 22 proceeds to step S70 and repeats the above processing. If the processing unit 22 determines in step S80 that the call has ended (Yes), the processing ends.

このように、マイク15の検出結果に代えて、あるいは加えて、カメラ38の検出結果に基づいて使用者を検出し、その使用者に応じた補正パラメータを設定するようにしても上記と同様の効果を得ることができる。   In this way, instead of or in addition to the detection result of the microphone 15, the user is detected based on the detection result of the camera 38, and correction parameters corresponding to the user are set in the same manner as described above. An effect can be obtained.

また、識別情報取得部としては、指紋センサ36を用いることもできる。この場合、携帯電子機器1は、通話開始時等に操作を入力するために、指紋センサ36に接触した指の指紋を検出し、検出した指紋から、使用者を特定し、特定した使用者が本人(識別情報が記憶された利用者)であるかを検出し、使用者に識別情報、及び、それに対応した補正パラメータが設定されている場合は、該当する補正パラメータを用いて、出力音補正部34により出力音を補正する。このように、指紋センサ36を用いることでも、使用者を特定することができ、その特定した結果に基づいて補正パラメータを設定することができる。   The fingerprint sensor 36 can also be used as the identification information acquisition unit. In this case, the portable electronic device 1 detects the fingerprint of the finger that has touched the fingerprint sensor 36 in order to input an operation at the start of a call, etc., identifies the user from the detected fingerprint, and the identified user If it is detected whether the user is the person (the user whose identification information is stored) and the identification information and the correction parameters corresponding to the identification information are set for the user, the corresponding correction parameter is used to correct the output sound. The output sound is corrected by the unit 34. As described above, the user can be specified also by using the fingerprint sensor 36, and the correction parameter can be set based on the specified result.

また、ここで、携帯電子機器1は、補正パラメータを周波数毎のパラメータで設定するが好ましい。また、補正パラメータを設定するために視聴する提示音を、母音と有声子音と無声子音とに別け解析を行い、それぞれに対応する周波数毎に補正パラメータを設定することが好ましい。これにより、補正パラメータを周波数毎のパラメータとして設定することで、より聴こえやすい音声を出力することができ、さらに、提示音を、母音と有声子音と無声子音とに別け解析を行うことで、より聴こえやすい音声を出力することが補正パラメータを設定することができる。なお、補正パラメータを周波数毎のパラメータで設定した場合は、補正処理がユーザに合わせた補正となるため、使用者毎に出力音の補正処理の状態を切り換えることで、複数の使用者が使用した場合でもその使用者に応じた音声を出力することができる。   Here, it is preferable that the mobile electronic device 1 sets the correction parameter with a parameter for each frequency. Further, it is preferable to analyze the presentation sound to be viewed in order to set the correction parameter into vowels, voiced consonants and unvoiced consonants, and set the correction parameters for each corresponding frequency. Thereby, by setting the correction parameter as a parameter for each frequency, it is possible to output a more audible voice, and further, by analyzing the presentation sound into vowels, voiced consonants and unvoiced consonants, Outputting easy-to-hear sound can set the correction parameter. In addition, when the correction parameter is set as a parameter for each frequency, the correction process is performed according to the user. Therefore, by changing the state of the output sound correction process for each user, a plurality of users have used it. Even in this case, it is possible to output a sound according to the user.

ここで、人間の聴覚について図7から図12を参照して説明する。図7は、人間の耳に入る音の大きさと人間が聴こえる(感じる)音の大きさとの関係を示すグラフである。健聴者の場合、耳に入る音の大きさと聴こえる音の大きさとは比例関係にある。一方、難聴者(高齢者、耳の病気を有する者等)の場合、一般的なイメージとしては、耳に入る音の大きさが或る値になるまでは殆ど聴こえず、耳に入る音の大きさが或る値以上になると耳に入る音に比例して音が聴こえるようになる。つまり、一般的なイメージの人は、耳に入る音を単純に増幅してやれば良いと考えられている。しかし、実際には、難聴者は、耳に入る音の大きさが或る値になるまでは殆ど聴こえず、耳に入る音の大きさが或る値以上になると急激に大きな音として聴こえるようになる。これにより、難聴者は、例えば、10dBの変化を20dBの変化に聴きとってしまう。そのため、大きい音に対して圧縮処理(大きい音に対するゲインを小さい音に対するゲインよりも小さくする処理)を行う必要がある。また、図8は、難聴者の聴力の周波数特性を示すグラフである。図8に示すように、難聴者は、低い音は良く聴こえるが、高い音ほど聴こえ難いことがわかる。なお、図8に示す特性は、一例であり、利用者によって聞こえる周波数特性は異なる。   Here, human hearing will be described with reference to FIGS. FIG. 7 is a graph showing the relationship between the volume of sound entering the human ear and the volume of sound that humans can hear (feel). In the case of a normal hearing person, the volume of sound that enters the ear and the volume of sound that can be heard are in a proportional relationship. On the other hand, in the case of a hearing-impaired person (elderly person, person with ear illness, etc.), as a general image, it is hardly audible until the volume of the sound entering the ear reaches a certain value. When the loudness exceeds a certain value, the sound can be heard in proportion to the sound entering the ear. In other words, it is considered that a person with a general image should simply amplify the sound that enters the ear. However, in reality, a hearing-impaired person hardly hears until the volume of sound entering the ear reaches a certain value, and when the volume of sound entering the ear exceeds a certain value, it may be heard as a loud sound suddenly. become. Thereby, a hearing-impaired person will hear the change of 10 dB in the change of 20 dB, for example. Therefore, it is necessary to perform compression processing (processing for making the gain for a loud sound smaller than the gain for a small sound) on a loud sound. FIG. 8 is a graph showing the frequency characteristics of the hearing ability of the hearing impaired. As shown in FIG. 8, it can be seen that a hearing-impaired person can hear a low sound well, but a high sound is difficult to hear. The characteristic shown in FIG. 8 is an example, and the frequency characteristic that can be heard varies depending on the user.

図9は、健聴者、難聴者の出力される音の大きさと可聴閾値及び不快閾値との関係の一例を示す図である。なお、可聴閾値とは、適正に音が聴こえる下限の音の大きさであり、例えば、40dBで聴こえる音である。可聴閾値よりも小さい大きさの音は、小さくて聴こえにくい音になる。また、不快閾値とは、適正に音が聴こえる上限の音の大きさであり、例えば、90dBで聴こえる音である。不快閾値よりも大きい音は、音が大きくて不快に感じる音である。図9に示すように、難聴者は、可聴閾値42と不快閾値44とが共に、周波数が高くなるほど大きくなっている。なお、これに対して、健聴者は、可聴閾値46及び不快閾値48がともに、出力される音の大きさに対して一定となる。   FIG. 9 is a diagram illustrating an example of the relationship between the volume of sound output by a normal hearing person and a hearing impaired person, and an audible threshold value and an unpleasant threshold value. The audible threshold is a lower limit sound volume at which a sound can be properly heard, for example, a sound that can be heard at 40 dB. Sounds that are smaller than the audible threshold are small and difficult to hear. The unpleasant threshold is the upper limit sound volume at which a sound can be properly heard, for example, a sound that can be heard at 90 dB. Sounds that are greater than the unpleasant threshold are sounds that are loud and feel uncomfortable. As shown in FIG. 9, the hearing loss threshold value 42 and the discomfort threshold value 44 of the hearing-impaired person increase as the frequency increases. In contrast, for a normal hearing person, both the audible threshold value 46 and the unpleasant threshold value 48 are constant with respect to the volume of the output sound.

次に、図10は、難聴者の出力される音の大きさと可聴閾値及び不快閾値との関係に、調整しないで出力される母音、有声子音及び無声子音の大きさ及び周波数を重ねて示した図である。図10に示すように、調整しないで出力される、つまり、健聴者の使用状態と同じ状態で出力させる母音は、範囲50で囲まれる周波数と音の大きさとの範囲の音で出力される。同様に、有声子音は、範囲52で囲まれる周波数と音の大きさとの範囲の音で出力され、無声子音は、範囲54で囲まれる周波数と音の大きさとの範囲の音で出力される。ここで、図10に示すように、難聴者の音が聞こえる範囲、可聴閾値42と不快閾値44の間には、母音の範囲50と、有声子音の範囲52の一部とが入るが、有声子音の範囲52の一部と、無声子音の範囲54の全部が入らない。このため、難聴者は、健聴者と同様の出力で音声を出力させると、母音は聴こえるが、子音(有声子音、無声子音)は殆ど聴こえないことがわかる。具体的には、有声子音は、一部聞こえるが、無声子音は、ほとんど聞こえない。   Next, FIG. 10 shows the size and frequency of vowels, voiced consonants and unvoiced consonants output without adjustment in the relationship between the loudness of the hearing impaired and the audible threshold and unpleasant threshold. FIG. As shown in FIG. 10, vowels that are output without adjustment, that is, output in the same state as the use state of a normal hearing person, are output as sounds in the range between the frequency and the loudness that are surrounded by the range 50. Similarly, the voiced consonant is output as a sound in the range between the frequency and the sound volume surrounded by the range 52, and the unvoiced consonant is output as a sound in the frequency and sound range surrounded by the range 54. Here, as shown in FIG. 10, the vowel range 50 and a part of the voiced consonant range 52 are included between the range in which the hearing impaired person can hear the sound, between the audible threshold 42 and the unpleasant threshold 44. A part of the consonant range 52 and the whole unvoiced consonant range 54 do not enter. For this reason, when a hearing impaired person outputs a sound with the same output as a normal hearing person, it can be seen that vowels can be heard but consonants (voiced consonants, unvoiced consonants) are hardly heard. Specifically, some voiced consonants can be heard, but unvoiced consonants are hardly audible.

図11は、図10の高音(子音)を単純に増幅した図である。図11に示す母音の範囲50aは、図10に示す母音の範囲50と同様の範囲としている。また、有声子音の範囲52aは、図10に示す有声子音の範囲52よりも全体的に音の大きさが大きくなる方向、つまり範囲が図11中上方向に移動するように設定している。無声子音の範囲54aも、図10に示す無声子音の範囲54よりも全体的に音の大きさが大きくなる方向、つまり範囲が図11中上方向に移動するように設定している。図11に示すように、聞こえにくい周波数領域の音声、つまり、有声子音の範囲52aと、無声子音の範囲54aを単純に増幅すると、音の大きさが大きい範囲が不快閾値44を超えてしまい、高音が耳にキンキン響いてしまう。即ち、音がひずんで聞こえてしまい、言葉が明りょうに聞こえなくなる。   FIG. 11 is a diagram obtained by simply amplifying the treble (consonant) of FIG. The vowel range 50a shown in FIG. 11 is the same range as the vowel range 50 shown in FIG. The voiced consonant range 52a is set so that the overall loudness is larger than the voiced consonant range 52 shown in FIG. 10, that is, the range moves upward in FIG. The unvoiced consonant range 54a is also set so that the overall loudness is larger than the unvoiced consonant range 54 shown in FIG. 10, that is, the range moves upward in FIG. As shown in FIG. 11, if the voice in the frequency domain that is difficult to hear, that is, the voiced consonant range 52a and the unvoiced consonant range 54a are simply amplified, the louder range exceeds the discomfort threshold 44, Treble sounds are heard in my ears. That is, the sound is distorted and the words cannot be heard clearly.

これに対して、図12は、本実施形態の携帯電子機器1の出力音補正部34により、音声を補正、具体的には、図11の大きい音に対して圧縮処理(大きい音に対するゲインを小さい音に対するゲインより小さくする処理)を行った図である。図12に示す母音の範囲50bは、図11に示す母音の範囲50aよりも大きい音に対するゲインを小さくしている。また、有声子音の範囲52bは、図11に示す有声子音の範囲52aよりも大きい音に対するゲインを小さくしている。また、無声子音の範囲54bも、図11に示す無声子音の範囲54aよりも大きい音に対するゲインを小さくしている。図12に示すように、小さい音は大きなゲインで増幅し、大きい音は小さいゲインで増幅することで、母音の範囲50b、有声子音の範囲52b及び無声子音の範囲54bを快適な音の大きさ(可聴閾値42と不快閾値44との間の大きさ)に含まれるようにすることができる。携帯電子機器1は、以上の事柄を考慮して、入力される音声データに対する補正パラメータを決定する。なお、補正パラメータは、入力される音声が、可聴閾値42と不快閾値44との間の大きさの音声としてユーザに聞こえるように補正を行うパラメータである。携帯電子機器1は、出力音補正部34により、決定した補正パラメータを用いて音の大きさ及び周波数に応じたゲインで増幅する補正を行い、音声処理部30に出力する。これにより、携帯電子機器1は、耳が聞こえにくいユーザでも、好適に音声を聞くことが可能となる。   On the other hand, in FIG. 12, the sound is corrected by the output sound correction unit 34 of the portable electronic device 1 according to the present embodiment. Specifically, the compression processing is performed on the loud sound in FIG. It is the figure which performed the process made smaller than the gain with respect to a small sound. The vowel range 50b shown in FIG. 12 has a smaller gain for sounds larger than the vowel range 50a shown in FIG. In the voiced consonant range 52b, the gain for a sound larger than the voiced consonant range 52a shown in FIG. 11 is reduced. The unvoiced consonant range 54b also has a smaller gain for sounds larger than the unvoiced consonant range 54a shown in FIG. As shown in FIG. 12, a small sound is amplified with a large gain, and a large sound is amplified with a small gain, so that the vowel range 50b, the voiced consonant range 52b, and the unvoiced consonant range 54b can be comfortably loud. (The size between the audible threshold 42 and the discomfort threshold 44). The portable electronic device 1 determines correction parameters for input audio data in consideration of the above matters. The correction parameter is a parameter for performing correction so that the input sound can be heard by the user as a sound having a volume between the audible threshold 42 and the discomfort threshold 44. In the portable electronic device 1, the output sound correction unit 34 performs correction to be amplified with a gain corresponding to the volume and frequency of the sound using the determined correction parameter, and outputs the correction to the sound processing unit 30. Thereby, the portable electronic device 1 can hear a sound suitably even for a user who is hard to hear.

次に、図13を用いて携帯電子機器の補正パラメータ設定動作の一例を説明する。ここで、図13は、携帯電子機器の動作の一例を示すフロー図である。なお、図13に示す動作は、記憶部24に記憶されたアプリケーションを実行することで処理してもよい。またプログラムは、外部からダウンロードして取得することができる。また、図13に示す動作を、送受信部26を介して携帯電子機器1と通信可能なサーバで実行し、サーバが音声、画像等を携帯電子機器1に送信し、携帯電子機器1がサーバから受信した音声の出力、画像の表示等をし、携帯電子機器1がユーザから入力があった場合に入力データをサーバに送信するようにしても良い。   Next, an example of the correction parameter setting operation of the portable electronic device will be described with reference to FIG. Here, FIG. 13 is a flowchart showing an example of the operation of the portable electronic device. Note that the operation shown in FIG. 13 may be processed by executing an application stored in the storage unit 24. The program can be downloaded and acquired from the outside. Further, the operation shown in FIG. 13 is executed by a server that can communicate with the portable electronic device 1 via the transmission / reception unit 26, the server transmits voice, an image, and the like to the portable electronic device 1, and the portable electronic device 1 from the server. The received audio may be output, an image may be displayed, and the input data may be transmitted to the server when the mobile electronic device 1 receives an input from the user.

まず、携帯電子機器1の処理部22は、ステップS112として、提示音(テスト音)を再生する。つまり、携帯電子機器1の処理部22は、提示音生成部22dにより提示音(テスト音)を生成し、音声処理部30を介してレシーバ16またはスピーカ17から出力する。なお、提示音としては、不快閾値近傍及び可聴閾値近傍の音が聴こえに大きく影響するので、当初は健聴者用に設定された不快閾値ぎりぎりの音(例えば、不快閾値よりわずかに小さい音)や設定された可聴閾値ぎりぎりの音(例えば、可聴閾値よりわずかに大きい音)を用いることが好ましい。また、2回目以降は各ユーザの不快閾値、可聴閾値に対しぎりぎりの音を用いることが好ましい。図14−1は、設定された不快閾値よりわずかに小さい音の音声信号を示す図である。図14−2は、図14−1に示す音声信号を累計したスペクトル成分を示す図である。図14−3は、設定された可聴閾値よりわずかに大きい音の音声信号を示す図である。図14−4は、図14−3に示す音声信号を累計したスペクトル成分を示す図である。   First, the processing unit 22 of the portable electronic device 1 reproduces a presentation sound (test sound) as step S112. That is, the processing unit 22 of the mobile electronic device 1 generates a presentation sound (test sound) by the presentation sound generation unit 22 d and outputs the presentation sound from the receiver 16 or the speaker 17 via the voice processing unit 30. In addition, as the present sounds, sounds near the unpleasant threshold and the audible threshold have a great influence on hearing, so the sound that is just below the unpleasant threshold initially set for a normal hearing person (for example, a sound slightly smaller than the unpleasant threshold) It is preferable to use a sound just below the set audible threshold (for example, a sound slightly larger than the audible threshold). In addition, it is preferable to use a marginal sound for the discomfort threshold and the audible threshold of each user after the second time. FIG. 14A is a diagram of an audio signal having a sound slightly smaller than a set discomfort threshold. FIG. 14B is a diagram illustrating spectral components obtained by accumulating the audio signals illustrated in FIG. FIG. 14C is a diagram of an audio signal having a sound slightly larger than a set audible threshold. FIG. 14-4 is a diagram illustrating spectral components obtained by accumulating the audio signals illustrated in FIG. 14-3.

再び図13を参照すると、次に、処理部22は、ステップS114として、ユーザが持つことが想定される音に関する不満(要望)をディスプレイ2に一覧表示する。図15−1は、提示音として大きい音(不快閾値よりわずかに小さい音)を再生した場合にディスプレイ2に一覧表示される音に関する不満を示す図である。また、図15−2は、提示音として小さい音(可聴閾値よりわずかに大きい音)を再生した場合にディスプレイ2に一覧表示される音に関する不満を示す図である。図15−1を参照すると、提示音として大きい音(不快閾値よりわずかに小さい音)を再生した場合には、「ひびく/うるさい」という項目151a、「キンキンする」という項目151b、「こもる」という項目151c、「つまって聴こえる」という項目151d、「不満はない」という項目151eがディスプレイ2に一覧表示される。また、図15−2を参照すると、提示音として小さい音(可聴閾値よりわずかに大きい音)を再生した場合には、「ほぼ聴こえない」という項目152a、「音がシャリシャリする」という項目152b、「音がはっきりしない」という項目52c、「不満はない」という項目152dがディスプレイ2に一覧表示される。   Referring to FIG. 13 again, next, the processing unit 22 displays a dissatisfaction (request) regarding the sound expected to be possessed by the user on the display 2 as a list in step S114. FIG. 15A is a diagram illustrating dissatisfaction regarding sounds displayed in a list on the display 2 when a loud sound (slightly smaller than an unpleasant threshold) is reproduced as a presentation sound. FIG. 15B is a diagram illustrating dissatisfaction regarding the sounds listed on the display 2 when a small sound (slightly larger than the audible threshold) is reproduced as the presentation sound. Referring to FIG. 15A, when a loud sound (a sound slightly smaller than the unpleasant threshold) is reproduced as the presentation sound, an item 151 a “cracking / noisy”, an item 151 b “kinking”, and “muffled” An item 151c, an item 151d “listen up”, and an item 151e “not dissatisfied” are listed on the display 2. Also, referring to FIG. 15-2, when a small sound (slightly larger than the audible threshold) is reproduced as the presentation sound, an item 152a “almost inaudible”, an item 152b “sound sharply”, An item 52c “Sound is not clear” and an item 152d “No dissatisfaction” are displayed in a list on the display 2.

再び図13を参照すると、次に、処理部22は、ステップS116として、ディスプレイ2に一覧表示された項目のいずれかが選択されたか否かを判定する。処理部22は、ディスプレイ2に一覧表示された項目のいずれかが選択されていないと判定したら(ステップS116でNo)、処理をステップS116で待機させる。   Referring to FIG. 13 again, next, in step S116, the processing unit 22 determines whether any item listed on the display 2 has been selected. If it is determined that any of the items listed on the display 2 has not been selected (No in step S116), the processing unit 22 causes the process to wait in step S116.

また、処理部22は、ディスプレイ2に一覧表示された項目のいずれかが選択されたと判定したら(ステップS116でYes)、ステップS118として、補正パラメータ設定部22aにより、選択された不満を緩和する(要望を満たす)補正パラメータを出力音補正部34に設定する。例えば、処理部22は、図14−1に示す提示音(不快閾値よりわずかに小さい音)を再生し、図15−1に示すように「キンキンする」という項目151bが選択されたら、大きく高い音がユーザにとって不快閾値を超えていることがわかるので、補正パラメータ設定部22aにより、大きく高い音のゲインを下げる補正パラメータを出力音補正部34に設定する。また、例えば、処理部22は、図14−3に示す提示音(可聴閾値よりわずかに大きい音)を再生し、図15−2に示すように「ほぼ聴こえない」という項目152aが選択されたら、音が全体的に(全周波数帯域にわたって)ユーザにとって可聴閾値に達していないことがわかるので、補正パラメータ設定部22aにより、全周波数帯域にわたって小さい音のゲインを上げる補正パラメータを出力音補正部34に設定する。なお、補正パラメータは、ゲインそのものであっても良いし、所望のゲインで増幅するように出力音補正部34を制御する制御値であっても良い。処理部22の補正パラメータ設定部22aは、以上のような出力した提示音と、その音に対してユーザによって入力された応答との関係から周波数毎の補正パラメータを設定(調整)する動作を繰り返す。   If the processing unit 22 determines that any of the items listed on the display 2 has been selected (Yes in step S116), the correction parameter setting unit 22a alleviates the selected dissatisfaction (step S118) (step S118). A correction parameter that satisfies the request is set in the output sound correction unit 34. For example, the processing unit 22 reproduces the presentation sound shown in FIG. 14-1 (a sound slightly smaller than the unpleasant threshold), and when the item 151b “King” is selected as shown in FIG. Since it is understood that the sound exceeds the unpleasant threshold for the user, the correction parameter setting unit 22a sets a correction parameter for reducing the gain of a large and high sound in the output sound correction unit 34. Further, for example, the processing unit 22 reproduces the presentation sound (sound slightly larger than the audible threshold) shown in FIG. 14C, and the item 152a “almost unheard” is selected as shown in FIG. 15B. Since the sound does not reach the audible threshold for the user as a whole (over the entire frequency band), the correction parameter setting unit 22a sets a correction parameter for increasing the gain of a small sound over the entire frequency band to the output sound correcting unit 34. Set to. The correction parameter may be a gain itself or a control value for controlling the output sound correction unit 34 so as to amplify with a desired gain. The correction parameter setting unit 22a of the processing unit 22 repeats the operation of setting (adjusting) the correction parameter for each frequency based on the relationship between the presentation sound output as described above and the response input by the user to the sound. .

これにより、補正パラメータをユーザの聴こえ(音声の聞こえ方(聴こえ方)、聴覚の特性)に合わせて設定することができ、ユーザにより聞こえやすい音声を出力することができる。   As a result, the correction parameter can be set in accordance with the user's hearing (how to hear the sound (how to hear), auditory characteristics), and sound that is easier to hear for the user can be output.

なお、処理部22は、様々な提示音を用いて図13に示すフローを繰り返し実行することで、補正パラメータをユーザに適した値に収束させ、ユーザにより聞こえやすい音声を出力することができる。また、処理部22は、図13に示すフローを定期的(例えば、3ヶ月毎、6ヶ月毎等)に実行することで、ユーザの聴力に変化があった場合であっても、ユーザにより聞こえやすい音声を出力することができる。   Note that the processing unit 22 can repeatedly execute the flow illustrated in FIG. 13 using various presentation sounds to converge the correction parameter to a value suitable for the user, and output a voice that can be easily heard by the user. Further, the processing unit 22 performs the flow shown in FIG. 13 periodically (for example, every 3 months, every 6 months, etc.), so that even if there is a change in the user's hearing, the processing unit 22 can hear it. Easy voice can be output.

また、処理部22は、ステップS116でディスプレイ2に一覧表示された項目のいずれかが選択されたと判定したら(ステップS116でYes)、選択された項目をログとして記憶部24に記憶し、ユーザからの指示入力に応じてログの内容を表示部32に表示させるようにしても良い。これにより、ユーザはログを参照することで、過去に選択した項目を把握し、補正パラメータの調整の過程を把握することができる。これにより、ユーザが補正パラメータの調整をすることをより容易にすることができる。   If the processing unit 22 determines that any of the items listed on the display 2 in step S116 is selected (Yes in step S116), the processing unit 22 stores the selected item in the storage unit 24 as a log, and from the user. The content of the log may be displayed on the display unit 32 in response to the instruction input. Thereby, the user can grasp the item selected in the past by referring to the log and grasp the process of adjusting the correction parameter. This makes it easier for the user to adjust the correction parameter.

次に、携帯電子機器1の補正パラメータ設定動作の他の一例を説明する。携帯電子機器1は、補正パラメータの設定機能が起動されたら、補正パラメータ設定部22aにより補正パラメータの設定処理を行う。まず、提示音生成部22dで提示音を生成し、レシーバ16またはスピーカ17から出力する。ここで、本実施形態において、提示音とは、補正パラメータの設定時にユーザが聞き取る対象の音声であり、単語、文章である。なお、提示音としては、聞き間違いが発生しやすい単語、文章を用いることが好ましい。なお、提示音としては、例えば、「安全」や「完全」や「断然」を用いることができる。「安全」と「完全」と「断然」とは、互いに聞き間違いしやすい音声である。また、提示音としては、「売り上げ」や「おみやげ」や「もみあげ」も用いることができる。また、このほかにも、「環境」や「反響」や「探求」も用いることができる。また、提示音は、不快閾値と可聴閾値とを設定できるように、設定された不快閾値ぎりぎりの音(例えば、不快閾値よりわずかに小さい音)や設定された可聴閾値ぎりぎりの音(例えば、可聴閾値よりわずかに大きい音)を用いることが好ましい。   Next, another example of the correction parameter setting operation of the mobile electronic device 1 will be described. When the correction parameter setting function is activated, the mobile electronic device 1 performs correction parameter setting processing by the correction parameter setting unit 22a. First, a presentation sound is generated by the presentation sound generation unit 22 d and output from the receiver 16 or the speaker 17. Here, in the present embodiment, the presentation sound is a voice to be heard by the user when setting the correction parameter, and is a word or a sentence. In addition, it is preferable to use the word and the sentence which are easy to generate mistakes as the presentation sound. For example, “safe”, “complete”, or “absolutely” can be used as the presentation sound. “Safe”, “complete” and “absolutely” are voices that are easy to misunderstand each other. In addition, “sales”, “souvenirs”, and “sides” can be used as the presentation sound. In addition, “environment”, “resonance”, and “exploration” can also be used. In addition, the presentation sound can be set to a discomfort threshold and an audible threshold, so that the sound just below the set discomfort threshold (for example, a sound slightly smaller than the discomfort threshold) or the sound just below the set audible threshold (for example, audible) It is preferable to use a sound slightly larger than the threshold.

携帯電子機器1は、提示音を出力したら、聞き取った音を入力する画面を表示させる。携帯電子機器1は、画面を表示させている状態で、操作部13が操作され、文字が入力されたら、入力された文字を表示させる。また、携帯電子機器1は、提示音の文字と、入力された文字とが一致したか否かをユーザに通知する画面を表示させる。携帯電子機器1は、以上のようにして、ディスプレイ2に画面を表示させつつ、提示音を出力し、制御を行うことで、補正パラメータの調整を周波数域毎、各母音、各有声子音、各無声子音で行う。携帯電子機器1は、以上のようにして、周波数毎に補正パラメータを設定する。   When the portable electronic device 1 outputs the presentation sound, the portable electronic device 1 displays a screen for inputting the heard sound. When the operation unit 13 is operated and characters are input while the screen is displayed, the mobile electronic device 1 displays the input characters. In addition, the mobile electronic device 1 displays a screen for notifying the user whether or not the character of the presentation sound matches the input character. As described above, the mobile electronic device 1 outputs the presentation sound while controlling the display 2 while displaying the screen on the display 2, and performs control to adjust the correction parameter for each frequency range, each vowel, each voiced consonant, Perform with unvoiced consonants. The portable electronic device 1 sets the correction parameter for each frequency as described above.

以下、図16を用いて携帯電子機器1の補正パラメータ設定動作をより詳細に説明する。ここで、図16は、携帯電子機器の動作の一例を示すフロー図である。なお、図16に示す動作は、記憶部24に記憶されたアプリケーションを実行することで処理してもよい。またプログラムは、外部からダウンロードして取得することができる。   Hereinafter, the correction parameter setting operation of the mobile electronic device 1 will be described in more detail with reference to FIG. Here, FIG. 16 is a flowchart showing an example of the operation of the portable electronic device. Note that the operation shown in FIG. 16 may be processed by executing an application stored in the storage unit 24. The program can be downloaded and acquired from the outside.

まず、携帯電子機器1の処理部22は、ステップS212として、提示音(テスト音)を再生する。つまり、携帯電子機器1の処理部22は、提示音生成部22dにより提示音(テスト音)を生成し、音声処理部30を介してレシーバ16またはスピーカ17から出力させる。なお、提示音としては、上述したように、各種聞き間違えが発生しやすい単語、文章を用いることが好ましい。また、携帯電子機器1は、提示音を、設定された不快閾値ぎりぎりの音(例えば、不快閾値よりわずかに小さい音)や設定された可聴閾値ぎりぎりの音(例えば、可聴閾値よりわずかに大きい音)で出力することが好ましい。   First, the processing unit 22 of the portable electronic device 1 reproduces a presentation sound (test sound) as step S212. That is, the processing unit 22 of the portable electronic device 1 generates a presentation sound (test sound) by the presentation sound generation unit 22 d and outputs the presentation sound from the receiver 16 or the speaker 17 via the voice processing unit 30. As the presentation sound, as described above, it is preferable to use words and sentences that are likely to cause various mistakes. In addition, the mobile electronic device 1 uses a sound that is just below the set unpleasant threshold (for example, a sound that is slightly smaller than the unpleasant threshold) or a sound that is just below the set audible threshold (for example, a sound that is slightly larger than the audible threshold). ) Is preferably output.

処理部22は、ステップS212で提示音を再生したら、ステップS214として、入力画面を表示させる。つまり、提示音がなんと聞こえたか、どんな単語や、文章が聞こえたかを入力する画面を表示させる。処理部22は、ステップS214で入力画面を表示させたら、ステップS216として入力が完了したかを判定する。ここで、処理部22は、必要な文字数が入力されたら、または、一定の時間が経過したら、入力が完了したと判定する。処理部22は、ステップS216で入力が完了していない(ステップS216でNo)と判定したら、ステップS216に進む。つまり、処理部22は、入力が完了するまで、ステップS216の処理を繰り返す。なお、処理部22は、ステップS216の処理中に操作部13が操作され文字が入力されたら、入力された文字を反映して制御を行う。   After reproducing the presentation sound in step S212, the processing unit 22 displays an input screen as step S214. That is, a screen for inputting what the presentation sound is heard, what words and sentences are heard is displayed. After displaying the input screen in step S214, the processing unit 22 determines whether the input is completed in step S216. Here, the processing unit 22 determines that the input has been completed when the necessary number of characters has been input or when a certain time has elapsed. If the processing unit 22 determines in step S216 that the input has not been completed (No in step S216), the processing unit 22 proceeds to step S216. That is, the processing unit 22 repeats the process of step S216 until the input is completed. Note that when the operation unit 13 is operated and characters are input during the process of step S216, the processing unit 22 performs control by reflecting the input characters.

処理部22は、ステップS216で入力が完了した(ステップS216でYes)と判定したら、ステップS218として、提示音と入力文字が一致しているかを判定する。処理部22は、ステップS218で、提示音と入力文字が一致する(ステップS218でYes)と判定したら、処理を終了する。また、処理部22は、ステップS218で、提示音と入力文字が一致しない(ステップS218でNo)と判定したら、ステップS220として、補正パラメータを調整し、処理を終了する。   If it is determined in step S216 that the input has been completed (Yes in step S216), the processing unit 22 determines in step S218 whether the presentation sound matches the input character. If it is determined in step S218 that the presentation sound matches the input character (Yes in step S218), the processing unit 22 ends the process. If it is determined in step S218 that the presentation sound does not match the input character (No in step S218), the processing unit 22 adjusts the correction parameter and ends the process in step S220.

次に、図17を用いて、ステップS220での提示音と入力文字が一致しないことに基づいた、補正パラメータの調整の処理について説明する。ここで、図17は、携帯電子機器の動作の一例を示すフロー図である。なお、図17に示す動作も、記憶部24に記憶されたアプリケーションを実行することで処理してもよい。またプログラムは、外部からダウンロードして取得することができる。   Next, a correction parameter adjustment process based on the fact that the presentation sound and the input character in step S220 do not match will be described using FIG. Here, FIG. 17 is a flowchart showing an example of the operation of the portable electronic device. Note that the operation shown in FIG. 17 may also be processed by executing an application stored in the storage unit 24. The program can be downloaded and acquired from the outside.

まず、処理部22は、ステップS240として、母音が不一致であるかを判定する。処理部22は、ステップS240で母音が不一致である(ステップS240でYes)と判定したら、ステップS242として、母音の周波数域で対象の周波数を特定する。つまり、不一致の母音に対応する周波数の帯域、または1つ以上の周波数を特定する。処理部22は、ステップS242で周波数を特定したら、ステップS250に進む。   First, the processing unit 22 determines whether the vowels do not match as step S240. If it is determined in step S240 that the vowels do not match (Yes in step S240), the processing unit 22 specifies the target frequency in the frequency range of the vowel as step S242. That is, the frequency band corresponding to the mismatched vowels or one or more frequencies are specified. When the processing unit 22 identifies the frequency in step S242, the processing unit 22 proceeds to step S250.

また、ステップS240で母音が不一致ではない(ステップS240でNo)、つまり、母音は全て一致していると判定したら、ステップS244として、有声子音が不一致であるかを判定する。処理部22は、ステップS244で有声子音が不一致である(ステップS244でYes)と判定したら、ステップS246として、有声子音の周波数域で対象の周波数を特定する。つまり、不一致の有声子音に対応する周波数の帯域、または1つ以上の周波数を特定する。処理部22は、ステップS246で周波数を特定したら、ステップS250に進む。   If it is determined in step S240 that the vowels do not match (No in step S240), that is, if all the vowels match, it is determined in step S244 whether the voiced consonants do not match. If it is determined in step S244 that the voiced consonants do not match (Yes in step S244), the processing unit 22 specifies the target frequency in the frequency range of the voiced consonant as step S246. That is, the frequency band corresponding to the non-matched voiced consonant or one or more frequencies are specified. When the processing unit 22 specifies the frequency in step S246, the processing unit 22 proceeds to step S250.

また、処理部22は、ステップS244で有声子音が不一致ではない(ステップS244でNo)、つまり、不一致な音声は、無声子音であると判定したら、ステップS248として、無声子音の周波数域で対象の周波数を特定する。つまり、不一致の無声子音に対応する周波数の帯域、または1つ以上の周波数を特定する。処理部22は、ステップS248で周波数を特定したら、ステップS250に進む。   If the processing unit 22 determines in step S244 that the voiced consonants are not inconsistent (No in step S244), that is, the mismatched speech is an unvoiced consonant, in step S248, the processing unit 22 performs the target in the frequency range of the unvoiced consonant. Specify the frequency. That is, the frequency band corresponding to the unvoiced unvoiced consonant or one or more frequencies are specified. When the processing unit 22 specifies the frequency in step S248, the processing unit 22 proceeds to step S250.

処理部22は、ステップS242、ステップS246、ステップS248の処理が終了したら、ステップS250として、不一致音の出力は、不快閾値に近いかを判定する。つまり、処理部22は、ステップS250として、不一致音の出力の大きさが、不快閾値に近いか、可聴閾値に近いかを判定し、聞き間違いをした原因が、ユーザの不快閾値よりも大きい音声であるためか、可聴閾値よりも小さいためであるかを判定する。   When the processing of step S242, step S246, and step S248 is completed, the processing unit 22 determines whether the output of the mismatched sound is close to the unpleasant threshold as step S250. That is, in step S250, the processing unit 22 determines whether the output level of the unmatched sound is close to the unpleasant threshold or the audible threshold, and the cause of the mistaken listening is greater than the user's unpleasant threshold. Or because it is smaller than the audible threshold.

処理部22は、ステップS250で、不一致音の出力は、不快閾値に近い(ステップS250でYes)、つまり、不一致音の出力は、可聴閾値よりも不快閾値に近いと判定したら、ステップS252として、該当する周波数の不快閾値を低下させる。つまり調整対象の周波数の不快閾値をより小さい値とする。処理部22は、ステップS252の処理が終了したら、ステップS256に進む。   If the processing unit 22 determines in step S250 that the output of the mismatched sound is close to the unpleasant threshold (Yes in step S250), that is, the output of the mismatched sound is closer to the unpleasant threshold than the audible threshold, step S252 is performed. Decrease the discomfort threshold of the corresponding frequency. That is, the unpleasant threshold value of the frequency to be adjusted is set to a smaller value. When the process of step S252 ends, the processing unit 22 proceeds to step S256.

処理部22は、ステップS250で、不一致音の出力は、不快閾値に近くない(ステップS250でNo)、つまり、不一致音の出力は、不快閾値よりも可聴閾値に近いと判定したら、ステップS254として、該当する周波数の可聴閾値を上昇させる。つまり調整対象の周波数の可聴閾値をより大きな値とする。処理部22は、ステップS254の処理が終了したら、ステップS256に進む。   If the processing unit 22 determines in step S250 that the output of the mismatched sound is not close to the unpleasant threshold (No in step S250), that is, the output of the mismatched sound is closer to the audible threshold than the unpleasant threshold, step S254 is performed. , Increase the audible threshold of the corresponding frequency. That is, the audible threshold value of the frequency to be adjusted is set to a larger value. When the process of step S254 ends, the processing unit 22 proceeds to step S256.

処理部22は、ステップS252、ステップS254の処理が終了したら、ステップS256として、不一致音を全て補正したか、つまり不一致音に対する補正処理を完了したかを判定する。処理部22は、ステップS256で、不一致音を全て補正していない(ステップS256でNo)、つまり、補正処理を行っていない不一致音があると判定したら、ステップS240に進み上記処理を繰り返す。これにより、処理部22は、不一致と判定した全ての音に対して、閾値の補正処理を行う。また、処理部22は、ステップS256で、不一致音を全て補正した(ステップS256でYes)と判定したら、処理を終了する。   When the processing of step S252 and step S254 is completed, the processing unit 22 determines whether all the unmatched sounds have been corrected, that is, whether the correction process for the unmatched sounds has been completed, as step S256. If it is determined in step S256 that all unmatched sounds have not been corrected (No in step S256), that is, there is a mismatched sound that has not been corrected, the processing unit 22 proceeds to step S240 and repeats the above processing. As a result, the processing unit 22 performs threshold value correction processing on all sounds determined to be inconsistent. If the processing unit 22 determines in step S256 that all non-matching sounds have been corrected (Yes in step S256), the processing ends.

携帯電子機器1は、以上のようにして、周波数毎に補正パラメータを設定する。携帯電子機器1は、音声信号が入力されたら、出力音補正部34が、設定した補正パラメータに基づいて、音声信号を補正し音声処理部30に出力する。これにより、携帯電子機器1は、ユーザの聴こえ(音声の聞こえ方、聴覚の特性)に合わせて設定した補正パラメータによって音声信号を補正することができ、ユーザにより聞こえやすい音声を出力することができる。   The portable electronic device 1 sets the correction parameter for each frequency as described above. In the portable electronic device 1, when an audio signal is input, the output sound correction unit 34 corrects the audio signal based on the set correction parameter and outputs the corrected audio signal to the audio processing unit 30. Thereby, the portable electronic device 1 can correct the audio signal with the correction parameter set in accordance with the user's hearing (how to hear the sound, characteristics of hearing), and can output the sound that is easier to hear for the user. .

さらに、処理部22は、様々な単語、文章の提示音を用いて図16、図17に示すフローを繰り返し実行することで、補正パラメータをユーザに適した値に収束させ、ユーザにより聞こえやすい音声を出力することができる。   Furthermore, the processing unit 22 repeatedly executes the flow shown in FIGS. 16 and 17 using various words and sentence presentation sounds, thereby converging the correction parameter to a value suitable for the user and making the sound easy to hear by the user. Can be output.

また、処理部22は、図16、図17に示すフローを定期的(例えば、3ヶ月毎、6ヶ月毎等)に実行することで、ユーザの聴力に変化があった場合であっても、ユーザにより聞こえやすい音声を出力することができる。   Further, the processing unit 22 periodically executes the flow shown in FIGS. 16 and 17 (for example, every 3 months, every 6 months, etc.), so that even if the user's hearing changes, It is possible to output a voice that is easier for the user to hear.

また、処理部22は、提示音として単語を用い、ユーザに聴こえた単語を入力させ、比較を行うことで、電話による通信や、テレビ放送の視聴時に実際に聞くことになる、言葉を用いて、補正処理を行うことができる。これにより、より適切に補正パラメータを調整することができ、電話による会話や、テレビ放送の視聴をより円滑に行うことができる。   In addition, the processing unit 22 uses a word as a presentation sound, inputs a word heard by the user, and performs a comparison, thereby using a word that is actually heard during telephone communication or TV broadcast viewing. Correction processing can be performed. Thereby, the correction parameters can be adjusted more appropriately, and telephone conversation and television broadcast viewing can be performed more smoothly.

また、処理部22は、本実施形態のように、提示音を、母音と有声子音と無声子音とに別け解析を行い、それぞれに対応する周波数毎に補正パラメータを設定することで、より聴こえやすい音声を出力することができる。   Further, as in the present embodiment, the processing unit 22 analyzes the presentation sound into vowels, voiced consonants, and unvoiced consonants, and sets correction parameters for each corresponding frequency, thereby making it easier to hear. Audio can be output.

また、聴こえた音声を文字として入力できるため、処理部22は、確実、かつ間違えることなく、ユーザの入力を検出することができ、より高い精度で音声の補正を行うことができる。また、携帯電子機器1は、補正パラメータを調整しつつ、本実施形態のように、文字を入力させ、その結果、つまり、一致しているかの結果をディスプレイ2に表示させることで、ユーザに徐々に聴こえやすくなっていることを認知させることができる。これにより、ユーザに高い満足度かつ少ないストレスで、補正パラメータの設定を実施させることができる。また、ユーザにゲーム感覚で補正パラメータの設定を実施させることができる。   In addition, since the sound that has been heard can be input as characters, the processing unit 22 can detect the user's input reliably and without mistakes, and can correct the sound with higher accuracy. In addition, the mobile electronic device 1 adjusts the correction parameter, inputs characters as in the present embodiment, and displays the result, that is, the matching result on the display 2, so that the user gradually. Can make it easier to hear. As a result, the correction parameter can be set with high satisfaction and low stress. Further, it is possible to cause the user to set the correction parameter as if it were a game.

また、上記実施形態では、文字入力の入力欄を文字数に対応した数としたが、本発明はこれに限定されない。例えば、単にテキスト入力画面を表示させるようにしてもよい。   Moreover, in the said embodiment, although the input column of character input was made into the number corresponding to the number of characters, this invention is not limited to this. For example, a text input screen may simply be displayed.

また、携帯電子機器1は、提示音の出力方法として種々の出力方法を用いることができる。例えば、予め設定してある音声を用いてもよいし、通話で使用した音声をサンプリングして用いてもよい。また、特定の通話相手に予め用意したテキスト情報を読み上げてもらい、そのテキスト情報と音声情報を取得し、ユーザが音声情報を聞きながら、聴こえた文字情報を入力するようにしても、補正パラメータを設定することができる。なお、提示音として、特定の対象の音声を用いることで、特定の対象の音声をより聞きやすくすることができ、特定の対象との通話をより円滑に行うことができる。   Moreover, the portable electronic device 1 can use various output methods as an output method of a presentation sound. For example, a preset voice may be used, or a voice used in a call may be sampled and used. In addition, the correction parameter may be set so that a specific caller reads out the text information prepared in advance, acquires the text information and the voice information, and inputs the character information heard while the user listens to the voice information. Can be set. In addition, by using the voice of the specific target as the presentation sound, it is possible to make the voice of the specific target easier to hear, and a call with the specific target can be performed more smoothly.

なお、補正パラメータ設定部22aによる補正パラメータの設定方法は、これに限定されない。例えば、通話時の通話音声をスペクトル分析部22cにより解析し、そのスペクトル分析部22cの解析結果に対するユーザの感想(例えば、聞こえにくい、キンキン聞こえる)に基づいて、補正パラメータを設定してもよい。なお、ユーザの感想の入力方法は、項目の選択、文字入力、音声入力等種々の入力方法がある。また、サンプルの音声は、提示音生成部22dから出力させてもよい。   The correction parameter setting method by the correction parameter setting unit 22a is not limited to this. For example, the call voice during a call may be analyzed by the spectrum analysis unit 22c, and the correction parameter may be set based on the user's impression (for example, difficult to hear or can be heard) of the analysis result of the spectrum analysis unit 22c. Note that there are various input methods such as item selection, character input, and voice input as the user's impression input method. Moreover, you may make it output the audio | voice of a sample from the presentation sound production | generation part 22d.

また、携帯電子機器1は、補正パラメータ設定時の提示音の出力方法として種々の出力方法を用いることができる。例えば、予め設定してある音声を用いてもよいし、通話で使用した音声をサンプリングして用いてもよい。また、特定の通話相手に予め用意したテキスト情報を読み上げてもらい、そのテキスト情報と音声情報を取得し、ユーザが音声情報を聞きながら、聴こえた文字情報を入力するようにしても、補正パラメータを設定することができる。なお、提示音として、特定の対象の音声を用いることで、特定の対象の音声をより聞きやすくすることができ、特定の対象との通話をより円滑に行うことができる。   In addition, the portable electronic device 1 can use various output methods as a method for outputting the presentation sound when the correction parameter is set. For example, a preset voice may be used, or a voice used in a call may be sampled and used. In addition, the correction parameter may be set so that a specific caller reads out the text information prepared in advance, acquires the text information and the voice information, and inputs the character information heard while the user listens to the voice information. Can be set. In addition, by using the voice of the specific target as the presentation sound, it is possible to make the voice of the specific target easier to hear, and a call with the specific target can be performed more smoothly.

ここで、携帯電子機器1は、複数の利用者に対して補正パラメータを設定する場合は、それぞれの利用者に対して上述した補正パラメータの設定処理を行うことで、それぞれの利用者に対する補正パラメータを設定することができる。また、補正パラメータの設定時には、利用者の識別情報も対応付けて設定する。   Here, when the correction parameter is set for a plurality of users, the mobile electronic device 1 performs the correction parameter setting process described above for each user, thereby correcting the correction parameter for each user. Can be set. When setting correction parameters, user identification information is also set in association with each other.

また、処理部22は、音声処理部30で実際に出力する周波数に対応して補正パラメータを設定することが好ましく、より好ましくは、電話通信で用いられる周波数に対応して補正パラメータを設定することが好ましい。このように、実際に使用する周波数に対して補正パラメータを設定することで、より携帯電子機器1から出力される音声をより聞きやすい音声にすることができる。ここで、補正パラメータを設定する周波数としては、例えば、CELP(符号励振線形予測符号化)方式、EVRC(可変レート音声コーデック)方式、AMR(適応型マルチレート)方式で用いられる周波数に対して設定することが好ましい。   The processing unit 22 preferably sets the correction parameter corresponding to the frequency actually output by the voice processing unit 30, and more preferably sets the correction parameter corresponding to the frequency used for telephone communication. Is preferred. In this way, by setting the correction parameter for the frequency that is actually used, the sound output from the portable electronic device 1 can be made easier to hear. Here, the frequency for setting the correction parameter is set, for example, for the frequency used in the CELP (Code Excited Linear Predictive Coding) method, the EVRC (Variable Rate Speech Codec) method, and the AMR (Adaptive Multirate) method. It is preferable to do.

なお、上記実施形態では、補正パラメータを携帯電子機器1で設定したが、これに限定されない。補正パラメータは、他の電子機器で設定し、設定した補正パラメータを携帯電子機器1に記憶させてもよい。なお、上記実施形態のように携帯電子機器1から発生させた音声に基づいて補正パラメータを設定することで、より使用時の条件に対応した補正パラメータができる。   In the above embodiment, the correction parameter is set by the portable electronic device 1, but the present invention is not limited to this. The correction parameter may be set by another electronic device, and the set correction parameter may be stored in the portable electronic device 1. In addition, the correction parameter corresponding to the condition at the time of use can be made by setting the correction parameter based on the sound generated from the mobile electronic device 1 as in the above embodiment.

また、本実施形態では、補正パラメータの設定処理、補正パラメータの選択処理を、処理部22で行ったが、本発明はこれに限定されない。携帯電子機器1は、各種演算処理を、送受信部26を介して通信可能なサーバで実行してもよい。つまり、演算処理自体は、外部で行っても良い。この場合、携帯電子機器1は、サーバへの識別情報の送信、サーバからの補正パラメータの受信等を行う。このように、サーバで演算を行ったり、補正パラメータを設定したりすることで、携帯電子機器1にかかる負荷を少なくすることができる。また、通信を行うサーバで予め補正パラメータを設定し、サーバが補正パラメータに基づいて音声信号を補正するようにしてもよい。つまり、サーバと携帯電子機器とを1つのシステムとして、上述した処理を行うようにしてもよい。これにより、携帯電子機器1は、予め補正された音声信号を受け取ることができるため、補正処理自体を実行しないようにすることもできる。   In this embodiment, the correction parameter setting process and the correction parameter selection process are performed by the processing unit 22, but the present invention is not limited to this. The portable electronic device 1 may execute various arithmetic processes on a server that can communicate via the transmission / reception unit 26. That is, the arithmetic processing itself may be performed outside. In this case, the portable electronic device 1 transmits identification information to the server, receives correction parameters from the server, and the like. In this way, the load applied to the portable electronic device 1 can be reduced by performing calculations on the server or setting correction parameters. Alternatively, a correction parameter may be set in advance on a server that performs communication, and the server may correct the audio signal based on the correction parameter. That is, the above-described processing may be performed using the server and the portable electronic device as one system. Thereby, since the portable electronic device 1 can receive the sound signal corrected in advance, the correction process itself can be prevented from being executed.

ここで、図18は、携帯電子機器を備える通信システムの概略構成を示す模式図である。図18に示す通信システム(音声制御システム)201は、携帯電子機器1、1a、サーバ202、202aと、通信網203と、データベース204と、を有する。なお、通信システム201を構成する各部の数は、特に限定されず、各部ともに複数の装置を備えていてもよい。例えば、携帯電子機器1、1aは、1つのサーバ202、202aに対して複数設けられていてもよい。   Here, FIG. 18 is a schematic diagram illustrating a schematic configuration of a communication system including a portable electronic device. A communication system (voice control system) 201 illustrated in FIG. 18 includes portable electronic devices 1 and 1a, servers 202 and 202a, a communication network 203, and a database 204. In addition, the number of each part which comprises the communication system 201 is not specifically limited, Each part may be provided with the some apparatus. For example, a plurality of portable electronic devices 1 and 1a may be provided for one server 202 and 202a.

サーバ202は、各通信装置を特定する情報(電話番号、アドレス)等の種々のデータを有し、通信網を介して携帯電子機器1と通信し、種々の情報を供給する。なお、サーバ202と携帯電子機器1は、基地局、中継局で形成され、無線で通信波を送受信する通信網により、通信を行う。また、通信網は、サーバ202と携帯電子機器1との間で通信を行うことができれば、種々の通信方法を用いることができる。例えば、衛星回線を利用して通信を行ってもよい。   The server 202 has various data such as information (telephone number and address) specifying each communication device, and communicates with the portable electronic device 1 via the communication network to supply various information. The server 202 and the portable electronic device 1 communicate with each other via a communication network that is formed by a base station and a relay station and that wirelessly transmits and receives communication waves. In addition, the communication network can use various communication methods as long as communication can be performed between the server 202 and the portable electronic device 1. For example, communication may be performed using a satellite line.

また、サーバ202、202aは、携帯電子機器1から情報を受信し、その情報に基づいて、通信網203を介して、他の通信装置に情報を通信する、情報の中継も行う。つまり、サーバ202は、各通信装置から送られてくる情報を集約して記憶し、集約した情報を必要に応じて通信装置に供給(提供)する。なお、サーバ202aは、集約した情報を加工(処理)して通信装置に供給することもできる。   The servers 202 and 202a also receive information from the mobile electronic device 1 and communicate information to other communication devices via the communication network 203 based on the information, and also relay information. That is, the server 202 collects and stores information sent from each communication device, and supplies (provides) the collected information to the communication device as necessary. The server 202a can also process (process) the collected information and supply it to the communication device.

通信網203は、交換機や、有線・無線の通信回線で構成されている。通信網203は、有線、無線の通信回線を用いて通信装置と他の通信装置との間での情報通信を行う。具体的には、通信網203は、サーバ202とサーバ202aとの間での情報通信や、サーバ202、202aとデータベース204との間での情報通信を行う。なお、通信網203は、サーバ202と携帯電子機器1とを接続する通信網と同様の通信網でも、別の通信網でもよい。また、通信網203としてはインターネット通信網を用いることもできる。   The communication network 203 includes an exchange and a wired / wireless communication line. The communication network 203 performs information communication between a communication device and another communication device using a wired or wireless communication line. Specifically, the communication network 203 performs information communication between the server 202 and the server 202 a and information communication between the servers 202 and 202 a and the database 204. The communication network 203 may be a communication network similar to the communication network connecting the server 202 and the portable electronic device 1 or may be a different communication network. Further, an Internet communication network can be used as the communication network 203.

データベース204は、記憶装置であり、補正パラメータ情報、識別情報を解析するための使用者の情報等、携帯電子機器1での処理に必要な種々のデータを記憶している。データベース204は、通信網203を介して、記憶している各種情報をサーバ202またはサーバ202aに供給する。   The database 204 is a storage device, and stores various data necessary for processing in the portable electronic device 1, such as correction parameter information and user information for analyzing identification information. The database 204 supplies various stored information to the server 202 or the server 202a via the communication network 203.

通信システム201は、以上のようなシステムにおいて、携帯電子機器1が取得した識別情報をサーバ202に送り、サーバ202が必要な情報をデータベース204から取得して使用する補正パラメータを決定し、決定した使用補正パラメータを携帯電子機器1に送り、携帯電子機器1で送られた使用補正パラメータを使用するようにしてもよい。これにより、携帯電子機器1は、取得した識別情報をサーバ202に出力し、サーバ202から供給された情報を使用することで、上記と同様の出力音の補正を行うことができる。これにより、携帯電子機器1での処理量、記憶量を低減することができる。また、サーバ202として共通するサーバを用いることで、他の通信機器で通信を行う場合でも、同様の補正処理を行うことができる。   In the system as described above, the communication system 201 sends the identification information acquired by the mobile electronic device 1 to the server 202, and the server 202 acquires necessary information from the database 204 and determines the correction parameter to be used. The use correction parameter may be sent to the portable electronic device 1 and the use correction parameter sent by the portable electronic device 1 may be used. Thereby, the portable electronic device 1 can correct the output sound similar to the above by outputting the acquired identification information to the server 202 and using the information supplied from the server 202. Thereby, the processing amount and storage amount in the portable electronic device 1 can be reduced. Further, by using a common server as the server 202, the same correction processing can be performed even when communication is performed with other communication devices.

また、サーバで行う処理と、携帯電子機器で行う処理とは、種々の分担とすることができる。例えば、補正パラメータに基づく、出力音の補正処理をサーバで行うようにしてもよい。これにより、携帯電子機器の処理をより低減することができる。なお、サーバで、携帯電子機器1と、他の通信機器との通話動作を中継する場合は、サーバから携帯電子機器に供給する音声を補正することで、この処理を行うことができる。   Moreover, the process performed by the server and the process performed by the portable electronic device can be divided into various shares. For example, the server may perform output sound correction processing based on the correction parameters. Thereby, the process of a portable electronic device can be reduced more. In the case where the call operation between the mobile electronic device 1 and another communication device is relayed by the server, this processing can be performed by correcting the sound supplied from the server to the mobile electronic device.

また、サーバ202に識別情報及び補正パラメータを記憶させ、使用者の判定及び補正パラメータの決定を行うことで、一度識別情報及び補正パラメータの設定を行えば、別の電子機器を使用する場合も同じ補正パラメータで補正を行うことができる。これにより、使用者は、サーバ202と通信可能な電子機器を使用した場合は、どの電子機器を使用しても、その使用者が聴こえやすい音声を出力させることができ、電子機器から出力される音声を聞きやすくなる。   In addition, the identification information and the correction parameter are stored in the server 202, and the determination of the user and the determination of the correction parameter are performed, so that once the identification information and the correction parameter are set, the same applies when another electronic device is used. Correction can be performed using correction parameters. As a result, when an electronic device that can communicate with the server 202 is used, the user can output sound that can be easily heard by the user regardless of which electronic device is used, and is output from the electronic device. It becomes easier to hear the voice.

以上のように、本発明は、音声を出力するものに有用である。   As described above, the present invention is useful for outputting sound.

1 携帯電子機器
1C 筐体
2 ディスプレイ
13 操作部
13A 操作キー
13B 方向及び決定キー
22 処理部
22a 補正パラメータ設定部
22b 音声解析部
22c スペクトル分析部
22d 提示音生成部
22e 補正機能制御部
24 記憶部
30 音声処理部
32 表示部
34 出力音補正部
35 加速度センサ
36 指紋センサ
38 カメラ
DESCRIPTION OF SYMBOLS 1 Portable electronic device 1C Case 2 Display 13 Operation part 13A Operation key 13B Direction and determination key 22 Processing part 22a Correction parameter setting part 22b Speech analysis part 22c Spectrum analysis part 22d Presentation sound generation part 22e Correction function control part 24 Storage part 30 Audio processing unit 32 Display unit 34 Output sound correction unit 35 Acceleration sensor 36 Fingerprint sensor 38 Camera

Claims (11)

筐体と、
前記筐体に設けられて、音声信号に基づいて音を発生する音発生部と、
前記筐体に設けられて、利用者の情報と、当該利用者の補正パラメータと、を記憶する記憶部と、
前記筐体に設けられて、前記音発生部で発生させる音を聞いている使用者を識別するための識別情報を取得する識別情報取得部と、
前記識別情報取得部で取得した識別情報と、前記記憶部の前記利用者の情報とに基づいて、前記使用者が前記利用者であるかを判定し、前記使用者が前記利用者である場合は、前記利用者の補正パラメータを前記記憶部から読み出し、読み出した補正パラメータを使用補正パラメータとして設定する処理部と、
前記処理部により設定された前記使用補正パラメータに基づいて、音声信号を補正し、補正した音声信号を前記音発生部に供給する補正部と、
を備えることを特徴とする携帯電子機器。
A housing,
A sound generator provided in the housing for generating sound based on an audio signal;
A storage unit provided in the housing for storing user information and the correction parameters of the user;
An identification information acquisition unit that is provided in the housing and acquires identification information for identifying a user who is listening to the sound generated by the sound generation unit;
When it is determined whether the user is the user based on the identification information acquired by the identification information acquisition unit and the information of the user in the storage unit, and the user is the user Reads a correction parameter of the user from the storage unit, and sets the read correction parameter as a use correction parameter;
A correction unit that corrects an audio signal based on the use correction parameter set by the processing unit and supplies the corrected audio signal to the sound generation unit;
A portable electronic device comprising:
筐体と、
他の機器と通信を行う通信部と、
前記筐体に設けられて、音声信号に基づいて音を発生する音発生部と、
前記筐体に設けられて、前記音発生部で発生させる音を聞いている使用者を識別するための識別情報を取得する識別情報取得部と、
前記筐体に設けられて、前記通信部を介して他の機器に前記識別情報を送信し、前記他の機器から、前記音発生部で発生させる音を聞いている使用者の識別情報に対応する補正パラメータを取得し、取得した前記補正パラメータを使用補正パラメータとして設定する処理部と、
前記使用補正パラメータに基づいて、音声信号を補正し、補正した音声信号を前記音発生部に供給する補正部と、
を備えることを特徴とする携帯電子機器。
A housing,
A communication unit that communicates with other devices;
A sound generator provided in the housing for generating sound based on an audio signal;
An identification information acquisition unit that is provided in the housing and acquires identification information for identifying a user who is listening to the sound generated by the sound generation unit;
Corresponding to the identification information of the user who is provided in the case and transmits the identification information to another device via the communication unit and listening to the sound generated by the sound generation unit from the other device A processing unit for acquiring a correction parameter to be set, and setting the acquired correction parameter as a use correction parameter;
A correction unit that corrects an audio signal based on the use correction parameter and supplies the corrected audio signal to the sound generation unit;
A portable electronic device comprising:
前記識別情報取得部は、音声を取得するマイクであり、
前記処理部は、前記マイクで取得した音声を前記識別情報として取得し、前記使用者を識別することを特徴とする請求項1または2に記載の携帯電子機器。
The identification information acquisition unit is a microphone that acquires sound;
The portable electronic device according to claim 1, wherein the processing unit acquires a voice acquired by the microphone as the identification information and identifies the user.
前記識別情報取得部は、前記音発生部の近傍に配置され、前記音発生部に対面する領域の画像を取得するカメラであり、
前記処理部は、前記カメラで検出した前記音発生部に対面する領域の画像を前記識別情報として取得し、前記使用者を識別することを特徴とする請求項1から3のいずれか1項に記載の携帯電子機器。
The identification information acquisition unit is a camera that is disposed in the vicinity of the sound generation unit and acquires an image of a region facing the sound generation unit,
The said processing part acquires the image of the area | region which faces the said sound generation part detected with the said camera as said identification information, The said user is identified, The any one of Claim 1 to 3 characterized by the above-mentioned. The portable electronic device described.
前記識別情報取得部は、前記筐体の所定位置に接触する指紋を検出する指紋センサであり、
前記処理部は、前記指紋センサで検出した指紋を前記識別情報として取得し、前記使用者を識別することを特徴とする請求項1から4のいずれか1項に記載の携帯電子機器。
The identification information acquisition unit is a fingerprint sensor that detects a fingerprint that contacts a predetermined position of the housing,
5. The portable electronic device according to claim 1, wherein the processing unit acquires a fingerprint detected by the fingerprint sensor as the identification information and identifies the user. 6.
音声通話を行う音声通話機能部をさらに有し、
前記指紋センサは、前記音声通話機能を開始させる際に接触する部分に配置されていることを特徴とする請求項5に記載の携帯電子機器。
It further has a voice call function unit for making voice calls,
The portable electronic device according to claim 5, wherein the fingerprint sensor is disposed at a portion that contacts when the voice call function is started.
前記筐体に作用する加速度を検出する加速度センサをさらに有し、
前記処理部は、前記加速度センサで予め設定されたしきい値以上の移動を検出したら、前記識別情報を再度取得し、前記使用者を検出することを特徴とする請求項1から6のいずれか1項に記載の携帯電子機器。
An acceleration sensor for detecting acceleration acting on the housing;
The said process part acquires the said identification information again, and detects the said user, if the movement beyond the threshold value preset by the said acceleration sensor is detected, The said user is detected. Item 1. A portable electronic device according to item 1.
前記補正パラメータは、音声周波数毎に音の大きさを調整するパラメータであることを特徴とする請求項1から7のいずれか1項に記載の携帯電子機器。   The portable electronic device according to any one of claims 1 to 7, wherein the correction parameter is a parameter for adjusting a sound volume for each audio frequency. 前記補正パラメータは、前記音発生部から発生させる音声が不快閾値と可聴閾値との間の大きさになるように補正するパラメータであることを特徴とする請求項8に記載の携帯電子機器。   9. The portable electronic device according to claim 8, wherein the correction parameter is a parameter for correcting the sound generated from the sound generating unit to have a magnitude between an unpleasant threshold value and an audible threshold value. 音声信号に基づいて音を発生する音発生部と、
前記音発生部で発生させる音を聞いている使用者を識別するための識別情報を取得する識別情報取得部と、
利用者の情報と当該利用者の補正パラメータと、を記憶する記憶部と、
前記使用者が前記記憶部に記憶された前記利用者である場合に、前記利用者の補正パラメータを前記記憶部から読み出し、当該読み出した補正パラメータに基づいて前記音発生部から発生する音を補正させる制御を行う制御部と、
前記制御部と他の各部との間にて、有線或いは無線にて、信号を送信或いは受信するための信号回路網と、を有し、
前記音発生部及び識別情報取得部は、使用者が携帯可能な筐体に設けられることを特徴とする音声制御システム。
A sound generator that generates sound based on an audio signal;
An identification information acquisition unit for acquiring identification information for identifying a user who is listening to the sound generated by the sound generation unit;
A storage unit for storing user information and the correction parameters of the user;
When the user is the user stored in the storage unit, the correction parameter of the user is read from the storage unit, and the sound generated from the sound generation unit is corrected based on the read correction parameter. A control unit for performing control, and
A signal circuit network for transmitting or receiving a signal between the control unit and each other unit in a wired or wireless manner;
The sound generation system and the identification information acquisition unit are provided in a casing that can be carried by a user.
前記記憶部あるいは前記制御部の一方あるいは双方を、サーバに設けることを特徴とする請求項10に記載の音声制御システム。   The voice control system according to claim 10, wherein one or both of the storage unit and the control unit are provided in a server.
JP2010217945A 2010-09-28 2010-09-28 Portable electronic apparatus and voice control system Pending JP2012074911A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010217945A JP2012074911A (en) 2010-09-28 2010-09-28 Portable electronic apparatus and voice control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010217945A JP2012074911A (en) 2010-09-28 2010-09-28 Portable electronic apparatus and voice control system

Publications (1)

Publication Number Publication Date
JP2012074911A true JP2012074911A (en) 2012-04-12

Family

ID=46170669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010217945A Pending JP2012074911A (en) 2010-09-28 2010-09-28 Portable electronic apparatus and voice control system

Country Status (1)

Country Link
JP (1) JP2012074911A (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0193795A (en) * 1987-10-06 1989-04-12 Nippon Hoso Kyokai <Nhk> Enunciation speed conversion for voice
JP2002244686A (en) * 2001-02-13 2002-08-30 Hitachi Ltd Voice processing method, and telephone and repeater station using the same
JP2006093934A (en) * 2004-09-22 2006-04-06 Nec Corp Camera attached mobile phone terminal and authentication method thereof
JP2007116602A (en) * 2005-10-24 2007-05-10 Sharp Corp Electronic apparatus
JP2007264945A (en) * 2006-03-28 2007-10-11 Kyocera Corp Function setting device, electronic device, function setting system of electronic device and function setting method of electronic device
JP2009048418A (en) * 2007-08-20 2009-03-05 Nec Corp Personal digital assistant, personal digital assistant authentication method and personal digital assistant authentication program
JP2010091897A (en) * 2008-10-10 2010-04-22 Kyushu Univ Voice signal emphasis device
JP2010524407A (en) * 2007-04-13 2010-07-15 クゥアルコム・インコーポレイテッド Dynamic volume adjustment and band shift to compensate for hearing loss

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0193795A (en) * 1987-10-06 1989-04-12 Nippon Hoso Kyokai <Nhk> Enunciation speed conversion for voice
JP2002244686A (en) * 2001-02-13 2002-08-30 Hitachi Ltd Voice processing method, and telephone and repeater station using the same
JP2006093934A (en) * 2004-09-22 2006-04-06 Nec Corp Camera attached mobile phone terminal and authentication method thereof
JP2007116602A (en) * 2005-10-24 2007-05-10 Sharp Corp Electronic apparatus
JP2007264945A (en) * 2006-03-28 2007-10-11 Kyocera Corp Function setting device, electronic device, function setting system of electronic device and function setting method of electronic device
JP2010524407A (en) * 2007-04-13 2010-07-15 クゥアルコム・インコーポレイテッド Dynamic volume adjustment and band shift to compensate for hearing loss
JP2009048418A (en) * 2007-08-20 2009-03-05 Nec Corp Personal digital assistant, personal digital assistant authentication method and personal digital assistant authentication program
JP2010091897A (en) * 2008-10-10 2010-04-22 Kyushu Univ Voice signal emphasis device

Similar Documents

Publication Publication Date Title
JP5996783B2 (en) Method and terminal for updating voiceprint feature model
JP2021516786A (en) Methods, devices, and computer programs to separate the voices of multiple people
CN106920559B (en) Voice communication optimization method and device and call terminal
WO2012002537A1 (en) Portable electronic apparatus and audio control system
US9078071B2 (en) Mobile electronic device and control method
JP2009178783A (en) Communication robot and its control method
JP5582946B2 (en) Portable electronic device and voice control system
KR101475333B1 (en) Method for updating phonebook and mobile terminal using the same
JP2013034057A (en) Electronic apparatus, audio reproduction method, and program
JP2013048387A (en) Portable electronic apparatus, voice output method, and voice output program
JP5726446B2 (en) Portable electronic devices
JP2012074911A (en) Portable electronic apparatus and voice control system
JP5644610B2 (en) Communication device and reception volume setting program
JP4011095B2 (en) Mobile terminal device
JP2006025402A (en) Voice communication apparatus
US20230056862A1 (en) Hearing device, and method for adjusting hearing device
JP5690085B2 (en) Portable electronic devices
JP2010177774A (en) Mobile electronic device and voice output adjustment method
JP2009044365A (en) Voice processor and processing method, mobile terminal
JP5352382B2 (en) Electronics
US10887459B1 (en) Identifying a live person on a phone call
JP2008072677A (en) Portable communication terminal
CN113825082A (en) Method and device for relieving hearing aid delay
CN115396776A (en) Earphone control method and device, earphone and computer readable storage medium
JP2012205147A (en) Mobile electronic equipment and voice control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150407