JP2012203172A - Voice output device, voice output method, and program - Google Patents

Voice output device, voice output method, and program Download PDF

Info

Publication number
JP2012203172A
JP2012203172A JP2011067273A JP2011067273A JP2012203172A JP 2012203172 A JP2012203172 A JP 2012203172A JP 2011067273 A JP2011067273 A JP 2011067273A JP 2011067273 A JP2011067273 A JP 2011067273A JP 2012203172 A JP2012203172 A JP 2012203172A
Authority
JP
Japan
Prior art keywords
voice
unit
audio
noise
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011067273A
Other languages
Japanese (ja)
Inventor
Takeshi Ikuyama
武 幾山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2011067273A priority Critical patent/JP2012203172A/en
Publication of JP2012203172A publication Critical patent/JP2012203172A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To make an utterance content hardly to be heard by others around a speaker in conversation or the like on a portable phone without moving to a place where others are not present even when the speaker utters at a relatively high volume and to allow reduction in power consumption of a device such as a portable phone set.SOLUTION: A transmission part 11 obtains utterance of a speaker (ambient voice), and a transmission voice analysis part 172 analyzes the voice obtained by the transmission part 11. A noise output part 13 outputs a noise that masks the utterance of the speaker on the basis of the analysis result of the transmission voice analysis part 172. For example, the transmission voice analysis part 172 detects the frequency of the voice obtained by the transmission part 11 and the noise output part 13 outputs noise having a frequency close to that of the voice, thereby allowing the utterance of the speaker to be hidden from the others around the speaker by a relatively low volume noise and the power consumption to be reduced.

Description

本発明は、音声出力装置、当該音声出力装置の音声出力方法およびプログラムに関する。   The present invention relates to an audio output device, an audio output method of the audio output device, and a program.

携帯電話機を用いた通話などにおいて、周囲の他者に聞かれたくない発話を行う場合がある。かかる場合、発話者としては、他者のいない場所に移動して発話(通話)を行う、あるいは、周囲の他者に聞かれない小さい音量で発話を行うことが考えられる。
しかし、他者のいない場所に移動しようとする場合、発話者の近辺に適当な場所がない場合がある。また、周囲の他者に聞かれない音量で発話を行う場合、通話相手が発話者の声を聞き取れなくなるおそれがある。
In a call using a mobile phone or the like, there is a case where an utterance that is not desired to be heard by other people around is performed. In such a case, it is conceivable that the speaker moves to a place where there is no other person and speaks (calls), or speaks at a low volume that is not heard by others around him.
However, when trying to move to a place where there is no other person, there may be no suitable place near the speaker. In addition, when speaking at a volume that is not heard by others in the vicinity, there is a risk that the other party will not be able to hear the voice of the speaker.

一方、特許文献1に記載のハンズフリー通話装置は、自動車内において、運転者がハンズフリー通話を行なうと、通話音声をマスクするマスク音を同乗者に向けて出力する。このハンズフリー通話装置を用いることで、通話相手からの音声が助手席の同乗者に聞こえてしまうのを抑制し、プライバシー保護を実現できるとされている。   On the other hand, when a driver performs a hands-free call in a car, the hands-free call device described in Patent Document 1 outputs a masking sound for masking call voice toward the passenger. By using this hands-free call device, it is said that the voice from the other party can be prevented from being heard by the passenger in the passenger seat, and privacy protection can be realized.

特開2004−96664号公報JP 2004-96664 A

しかしながら、特許文献1に記載のハンズフリー通話装置では、大音量のマスク音を出力する必要が生じて、消費電力が増大するおそれがある。例えば、マスク音として特許文献1に記載のロードノイズ(自動車が走行することで、回転するタイヤと路面との間に発生する音)を、通話相手からの音声が助手席の同乗者に聞こえなくなる音量で出力すると、当該ロードノイズが大音量となり、消費電力が増大するおそれがある。   However, in the hands-free communication device described in Patent Document 1, it is necessary to output a mask sound with a large volume, which may increase power consumption. For example, road noise described in Patent Document 1 (sound generated between a rotating tire and a road surface as a vehicle travels) as a masking sound cannot be heard by a passenger in the passenger's seat. When output at a volume, the road noise becomes loud and power consumption may increase.

本発明は、上述の課題を解決することのできる音声出力装置、音声出力方法およびプログラムを提供することを目的としている。   An object of the present invention is to provide an audio output device, an audio output method, and a program that can solve the above-described problems.

この発明は上述した課題を解決するためになされたもので、本発明の一態様による音声出力装置は、音声を取得する音声取得部と、前記音声取得部の取得する音声を解析する音声解析部と、前記音声解析部の解析結果に基づいて、前記音声取得部の取得する音声とは異なる音声を出力する音声出力部と、を具備することを特徴とする。   The present invention has been made to solve the above-described problems, and an audio output device according to an aspect of the present invention includes an audio acquisition unit that acquires audio and an audio analysis unit that analyzes audio acquired by the audio acquisition unit. And a voice output unit that outputs a voice different from the voice acquired by the voice acquisition unit based on the analysis result of the voice analysis unit.

また、本発明の一態様による音声出力方法は、音声出力装置の音声出力方法であって、音声を取得する音声取得ステップと、前記音声取得ステップにて取得する音声を解析する音声解析ステップと、前記音声解析ステップでの解析結果に基づいて、前記音声取得ステップにて取得する音声とは異なる音声を出力する音声出力ステップと、を具備することを特徴とする。   Moreover, the audio output method according to an aspect of the present invention is an audio output method of an audio output device, in which an audio acquisition step of acquiring audio, an audio analysis step of analyzing the audio acquired in the audio acquisition step, A voice output step of outputting a voice different from the voice acquired in the voice acquisition step based on the analysis result in the voice analysis step.

また、本発明の一態様によるプログラムは、音声出力装置としてのコンピュータに、音声を取得する音声取得ステップと、前記音声取得ステップにて取得する音声を解析する音声解析ステップと、前記音声解析ステップでの解析結果に基づいて、前記音声取得ステップにて取得する音声とは異なる音声を出力する音声出力ステップと、を実行させるためのプログラムである。   In addition, a program according to an aspect of the present invention includes a voice acquisition step of acquiring a voice, a voice analysis step of analyzing the voice acquired in the voice acquisition step, and the voice analysis step. And a voice output step for outputting a voice different from the voice acquired in the voice acquisition step.

本発明によれば、発話者が、他者のいない場所に移動せずに、比較的大きい音量で発話を行うことができ、かつ、消費電力を削減し得る。   According to the present invention, a speaker can speak at a relatively high volume without moving to a place where there is no other person, and power consumption can be reduced.

本発明の第1の実施形態における携帯電話機の概略構成を示す構成図である。It is a block diagram which shows schematic structure of the mobile telephone in the 1st Embodiment of this invention. 同実施形態における、携帯電話機を用いた通話の説明図である。It is explanatory drawing of the telephone call using the mobile telephone in the embodiment. 同実施形態において、携帯電話機が行うノイズ音声出力の説明図である。In the embodiment, it is explanatory drawing of the noise audio | voice output which a mobile telephone performs. 同実施形態において、携帯電話機が行う送話音声解析の説明図である。In the same embodiment, it is explanatory drawing of the transmission voice analysis which a mobile telephone performs. 同実施形態において、通話時に携帯電話機が行う処理の手順を示すフローチャートである。4 is a flowchart showing a procedure of processing performed by the mobile phone during a call in the embodiment. 本発明の第2の実施形態における携帯電話機の概略構成および当該携帯電話機が行うノイズ音声出力を示す説明図である。It is explanatory drawing which shows schematic structure of the mobile telephone in the 2nd Embodiment of this invention, and the noise audio | voice output which the said mobile telephone performs. 同実施形態において、通話時に携帯電話機が行う処理の手順を示すフローチャートである。4 is a flowchart showing a procedure of processing performed by the mobile phone during a call in the embodiment. 本発明の第3の実施形態における携帯電話機の概略構成および当該携帯電話機が行うノイズ音声出力を示す説明図である。It is explanatory drawing which shows schematic structure of the mobile telephone in the 3rd Embodiment of this invention, and the noise audio | voice output which the said mobile telephone performs. 同実施形態において、通話時に携帯電話機が行う処理の手順を示すフローチャートである。4 is a flowchart showing a procedure of processing performed by the mobile phone during a call in the embodiment. 本発明の第4の実施形態における音声出力装置の概略構成を示す構成図である。It is a block diagram which shows schematic structure of the audio | voice output apparatus in the 4th Embodiment of this invention.

<第1の実施形態>
以下、図面を参照して、本発明の実施の形態について説明する。
図1は、本発明の第1の実施形態における携帯電話機の概略構成を示す構成図である。同図において、携帯電話機1は、送話部(音声取得部)11と、受話部12と、ノイズ出力部(音声出力部)13と、キー操作部14と、表示部15と、無線通信部16と、制御部17とを具備する。制御部17は、音声処理部171を具備する。音声処理部171は、送話音声解析部(音声解析部)172と、ノイズ取得部173とを具備する。
<First Embodiment>
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a configuration diagram showing a schematic configuration of a mobile phone according to the first embodiment of the present invention. In the figure, a mobile phone 1 includes a transmitter (voice acquisition unit) 11, a receiver 12, a noise output unit (voice output unit) 13, a key operation unit 14, a display unit 15, and a wireless communication unit. 16 and a control unit 17. The control unit 17 includes an audio processing unit 171. The voice processing unit 171 includes a transmitted voice analysis unit (speech analysis unit) 172 and a noise acquisition unit 173.

送話部11は、マイクを有し、周囲音を取得して音声データ(デジタルの音声信号)に変換する。特に、送話部11は、通話時に、発話者(携帯電話機1のユーザ)の発話を取得して音声データに変換する。
受話部12は、スピーカを有し、音声処理部171から出力される音声データに従って音声を出力する。特に、受話部12は、通話時に、音声処理部171から出力される音声データに従って、通話相手の音声を出力する。
The transmitter 11 has a microphone, acquires ambient sound, and converts it into audio data (digital audio signal). In particular, the transmitter 11 acquires the utterance of the speaker (user of the mobile phone 1) and converts it into voice data during a call.
The receiver 12 has a speaker and outputs a sound according to the sound data output from the sound processor 171. In particular, the receiving unit 12 outputs the other party's voice according to the voice data output from the voice processing unit 171 during a call.

ノイズ出力部13は、受話部12と同様、スピーカを有し、音声処理部171から出力される音声データに従って、ノイズ音声(以下、単に「ノイズ」と称する)を出力する。このノイズ出力部13が出力するノイズは、発話者の発話に対するマスク(発話者の発話内容を、発話者の周囲の他者に対して隠すための音声、すなわち、周囲の他者が聞き取り難くするための音声)として用いられる。   The noise output unit 13 has a speaker, like the receiver unit 12, and outputs noise sound (hereinafter simply referred to as “noise”) in accordance with the sound data output from the sound processing unit 171. The noise output by the noise output unit 13 is a mask for the utterance of the speaker (speech for hiding the utterance content of the speaker from others around the speaker, that is, the surrounding others are difficult to hear. Voice).

キー操作部14は、テンキーや方向キーや決定ボタンなどの押ボタンを有し、ユーザの操作入力を受け付ける。
表示部15は、液晶パネル等の表示画面を有し、制御部17の制御に従って、静止画像や動画像やテキストなどの各種データを表示する。
The key operation unit 14 has push buttons such as a numeric keypad, a direction key, and an enter button, and accepts a user operation input.
The display unit 15 has a display screen such as a liquid crystal panel, and displays various data such as still images, moving images, and texts under the control of the control unit 17.

無線通信部16は、無線アンテナを有し、携帯電話通信網(電気通信事業者の提供する、携帯電話機用の通信ネットワーク)に無線通信にて接続する。無線通信部16は、通話時の音声データや、電子メール着信時ないし送信時の電子メールデータなど、各種データの送受信を行う。   The wireless communication unit 16 has a wireless antenna and connects to a mobile phone communication network (a communication network for mobile phones provided by a telecommunications carrier) by wireless communication. The wireless communication unit 16 transmits and receives various data such as voice data at the time of a call and e-mail data when an e-mail is received or transmitted.

制御部17は、携帯電話機1の各部を制御する。
制御部17は、例えば携帯電話機1の具備する中央処理装置(Central Processing Unit;CPU)が、携帯電話機1の具備する記憶デバイスからプログラムを読み出して実行することにより実現される。あるいは、制御部17を、専用のハードウェアで実現するなど、他の方法で実現するようにしてもよい。
The control unit 17 controls each unit of the mobile phone 1.
The control unit 17 is realized by, for example, a central processing unit (CPU) included in the mobile phone 1 reading and executing a program from a storage device included in the mobile phone 1. Alternatively, the control unit 17 may be realized by other methods such as realization by dedicated hardware.

音声処理部171は、音声に関する各種処理を行う。特に、音声処理部171は、通話時に、送話部11の生成する発話者の音声データを無線通信部16に出力して送信させ、また、当該発話者の音声データに基づいてノイズの音声データを取得し、ノイズ出力部13にノイズを出力させる。音声処理部171(ノイズ取得部173)がノイズの音声データを取得する方法については後述する。
さらに、音声処理部171は、無線通信部16の受信する通話相手の音声データを受話部12に出力して音声を出力させる。
The audio processing unit 171 performs various processes related to audio. In particular, the voice processing unit 171 outputs the voice data of the speaker generated by the transmitter 11 to the wireless communication unit 16 during transmission, and transmits noise data based on the voice data of the speaker. And the noise output unit 13 outputs noise. A method by which the audio processing unit 171 (noise acquisition unit 173) acquires noise audio data will be described later.
Further, the voice processing unit 171 outputs the voice data of the communication partner received by the wireless communication unit 16 to the receiver unit 12 to output the voice.

送話音声解析部172は、送話部11の生成する発話者の音声データを解析する。
ノイズ取得部173は、送話音声解析部172の解析結果に基づいて、ノイズの音声データを取得する。
The transmission voice analysis unit 172 analyzes the voice data of the speaker generated by the transmission unit 11.
The noise acquisition unit 173 acquires noise voice data based on the analysis result of the transmission voice analysis unit 172.

図2は、携帯電話機1を用いた通話の説明図である。同図において、送話部11が、その有するマイクで周囲音P11を取得して音声データに変換し、音声処理部171に出力する。ここで、送話部11が取得する周囲音P11には、発話者の発話が含まれ、携帯電話機1の周囲の騒音が特に大きい場合を除き、送話部11が取得する周囲音P11は、発話者の発話と同視し得る。以下では、特に区別の必要が無い限り、送話部11が取得する周囲音と発話者の発話とを同視する。
また、受話部12は、音声処理部171の出力する通話相手の音声データに基づいて、当該通話相手の音声P12を出力する。
FIG. 2 is an explanatory diagram of a call using the mobile phone 1. In the figure, the transmitter 11 obtains the ambient sound P11 with its microphone, converts it into audio data, and outputs it to the audio processor 171. Here, the ambient sound P11 acquired by the transmitter 11 includes the speech of the speaker, and the ambient sound P11 acquired by the transmitter 11 is, unless the ambient noise of the mobile phone 1 is particularly loud. It can be equated with the speaker's utterance. In the following, unless there is a particular need for distinction, the ambient sound acquired by the transmitter 11 and the utterance of the speaker are identified.
Also, the receiver 12 outputs the call partner's voice P12 based on the call partner's voice data output by the voice processor 171.

図3は、携帯電話機1が行うノイズ音声出力の説明図である。同図において、ノイズ取得部173がノイズの音声データを取得してノイズ出力部13に出力し、当該音声データに従って、ノイズ出力部13がノイズP13を出力する。
この、ノイズ出力部13の出力するノイズP13は、携帯電話機1のユーザの発話P11に重ね合わせられて周囲の他者に届くことで、発話P11のマスクとなる。
FIG. 3 is an explanatory diagram of noise sound output performed by the mobile phone 1. In the figure, the noise acquisition unit 173 acquires noise audio data and outputs it to the noise output unit 13, and the noise output unit 13 outputs noise P13 according to the audio data.
The noise P13 output from the noise output unit 13 is superimposed on the utterance P11 of the user of the mobile phone 1 and reaches the other person in the surrounding area, thereby becoming a mask for the utterance P11.

図4は、携帯電話機1が行う送話音声解析の説明図である。同図において、送話音声解析部172は、送話部11が周囲音を取得して出力する音声データを解析して、当該音声の周波数を検出する。そして、ノイズ取得部173は、送話音声解析部172の検出する周波数に基づいてノイズの音声データを取得する。そして、図3で説明したように、ノイズ出力部13は、ノイズ取得部173の取得する音声データに従ってノイズを出力する。   FIG. 4 is an explanatory diagram of transmitted voice analysis performed by the mobile phone 1. In the figure, a transmission voice analysis unit 172 analyzes voice data output by the transmission unit 11 by acquiring ambient sounds and detects the frequency of the voice. Then, the noise acquisition unit 173 acquires noise voice data based on the frequency detected by the transmission voice analysis unit 172. As described with reference to FIG. 3, the noise output unit 13 outputs noise according to the audio data acquired by the noise acquisition unit 173.

送話音声解析部172が、この発話者の発話P11の周波数(発話者の声の周波数)を検出し、ノイズ取得部173が、当該周波数に基づいて、当該周波数に近い周波数のノイズの音声データを取得してノイズ出力部13に出力することで、ノイズ出力部13は、発話者の声に近い周波数のノイズP13を出力することができる。
ノイズ出力部13が、発話者の声に近い周波数のノイズを出力することで、比較的小音量のノイズで、発話者の発話内容を、発話者の周囲の他者に対して隠すことができる。従って、ノイズ出力に伴う携帯電話機1の消費電力増大を抑制できる。
The transmitted voice analysis unit 172 detects the frequency of the speaker's utterance P11 (frequency of the voice of the speaker), and the noise acquisition unit 173 has noise voice data having a frequency close to the frequency based on the frequency. Is obtained and output to the noise output unit 13, the noise output unit 13 can output noise P13 having a frequency close to the voice of the speaker.
The noise output unit 13 outputs noise having a frequency close to that of the speaker's voice, so that the content of the speaker's speech can be hidden from others around the speaker with relatively low noise. . Therefore, an increase in power consumption of the mobile phone 1 due to noise output can be suppressed.

なお、ノイズ出力部13は、ノイズとして、発話者の発話とは異なる音声を出力する。ここでいうノイズは、発話者の発話内容を、発話者の周囲の他者に対して隠すための音声であればよく、自然発生的な音声(例えば風の音や水の音などを録音した音声)など、伝達すべき情報を有しない音声であってもよいし、発話者の発話を遅延させた音声など、伝達すべき情報を有する音声であっても、発話者の発話に干渉する音声であればよい。   In addition, the noise output part 13 outputs the audio | voice different from a speaker's utterance as noise. The noise referred to here may be a sound for concealing the utterance content of the speaker from others around the speaker, and may be a naturally occurring sound (for example, a sound recording wind sound or water sound). For example, a voice that does not have information to be transmitted may be used, or a voice that has information to be transmitted, such as a voice that is delayed from the speaker's utterance, may be a voice that interferes with the speech of the speaker. That's fine.

ここで、ノイズ出力部13が、送話部11の取得する発話者の発話を遅延させずにそのまま出力すると、ノイズ出力部13の出力する音声が発話者の発話を増幅させ、かえって発話者の周囲の第三者に聞き取り易くしてしまう結果となる。これを避けるために、ノイズ出力部13は、発話者の発話とは異なる内容の音声、あるいは、発話者の発話を遅延させた音声など、送話部11の取得する発話者の発話とは異なる音声を出力する。   Here, when the noise output unit 13 outputs the utterance of the speaker acquired by the transmission unit 11 without delay, the voice output from the noise output unit 13 amplifies the utterance of the speaker, and instead of the speaker's utterance. As a result, it is easy for the surrounding third parties to hear. In order to avoid this, the noise output unit 13 is different from the utterance of the speaker acquired by the transmission unit 11, such as voice having a content different from that of the speaker or voice delayed from the speaker's utterance. Output audio.

例えば、ノイズ取得部173は、シンセサイザ等の音声データ生成手段を有し、送話音声解析部172の検出する周波数に近い周波数のノイズの音声データを生成することで、送話音声解析部172の検出する周波数に近い周波数のノイズの音声データを取得する。ノイズ取得部173が、シンセサイザ等で生成する音声データは、例えば、発話者の声の、「あー」など言語として意味の無い音声データとすることができる。   For example, the noise acquisition unit 173 includes voice data generation means such as a synthesizer, and generates voice data of noise having a frequency close to the frequency detected by the transmission voice analysis unit 172, so that the transmission voice analysis unit 172 Obtain audio data of noise with a frequency close to the frequency to be detected. The voice data generated by the noise acquisition unit 173 using a synthesizer or the like can be, for example, voice data having no meaning as a language such as “Ah” of the voice of the speaker.

あるいは、ノイズ取得部173が、携帯電話機1が予め備える複数のノイズの音声データの中からいずれかのノイズの音声データを選択することで、ノイズの音声データを取得するようにしてもよい。例えば、携帯電話機1が記憶デバイスを具備し、当該記憶デバイスが、複数の周波数のノイズの音声データを予め記憶しておく。そして、ノイズ取得部173は、送話音声解析部172の検出する周波数に最も近い周波数のノイズの音声データを記憶デバイスから読み出してノイズ出力部13に出力する。
このように、ノイズ取得部173が、携帯電話機1が予め備える複数のノイズの中からいずれかのノイズを選択することで、ノイズ取得部173がシンセサイザ等の音声データ生成手段を有する必要が無くなり、携帯電話機1の構成を簡単にできる。
Alternatively, the noise acquisition unit 173 may acquire the noise audio data by selecting any noise audio data from among a plurality of noise audio data included in the mobile phone 1 in advance. For example, the mobile phone 1 includes a storage device, and the storage device stores sound data of noise having a plurality of frequencies in advance. Then, the noise acquisition unit 173 reads out from the storage device the noise data having the frequency closest to the frequency detected by the transmission voice analysis unit 172, and outputs it to the noise output unit 13.
In this way, the noise acquisition unit 173 selects any one of the plurality of noises that the mobile phone 1 has in advance, so that it is not necessary for the noise acquisition unit 173 to have audio data generation means such as a synthesizer. The configuration of the mobile phone 1 can be simplified.

なお、携帯電話機1の周囲の騒音が大きい場合でも、送話部11が取得する周囲音には発話者の発話が含まれており、ノイズ出力部13が、発話者の声の周波数に近い周波数のノイズを出力することを期待できる。また、携帯電話機1の周囲の騒音が大きい場合、ノイズ出力部13の出力するノイズの周波数が発話者の声と異なる場合でも、この騒音がマスクとなって、発話者の周囲の他者が、発話者の発話内容を聞き取り難いことを期待できる。   Even when the noise around the mobile phone 1 is large, the ambient sound acquired by the transmitter 11 includes the speech of the speaker, and the noise output unit 13 has a frequency close to the frequency of the speaker's voice. Can be expected to output noise. Further, when the noise around the mobile phone 1 is large, even when the frequency of the noise output from the noise output unit 13 is different from the voice of the speaker, this noise becomes a mask, and others around the speaker It can be expected that it is difficult to hear the utterance content of the speaker.

なお、送話音声解析部172が行う音声データの解析は、周波数を検出するものに限らない。例えば、送話音声解析部172が、送話部11の取得する音声が発せられるタイミング(発話者が発話を行うタイミング)を検出するようにしてもよい。例えば、送話音声解析部172は、送話部11から出力される音声データが所定の閾値以上の音量を示す場合に、音声が発せられていると判定する。
そして、ノイズ取得部173は、送話音声解析部172の解析結果に基づいて、送話部11の取得する音声が発せられるタイミングで、ノイズの音声データをノイズ出力部13に出力する。そして、ノイズ出力部13は、ノイズ取得部173から出力される音声データに従って、ノイズ取得部173から音声データが出力されるときにノイズを出力し、ノイズ取得部173から音声データが出力されないときはノイズを出力しないことで、送話部11の取得する音声が発せられるタイミングでノイズを出力する。すなわち、送話音声解析部172が、音声が発せられていると判定したときに、ノイズ出力部13が、ノイズを出力する。一方、送話音声解析部172が、音声が発せられていないと判定したときは、ノイズ出力部13は、ノイズを出力しない。
Note that the voice data analysis performed by the transmitted voice analysis unit 172 is not limited to detecting the frequency. For example, the transmission voice analysis unit 172 may detect the timing at which the voice acquired by the transmission unit 11 is uttered (timing when the speaker speaks). For example, the transmitted voice analysis unit 172 determines that a voice is being emitted when the voice data output from the transmission unit 11 indicates a volume equal to or higher than a predetermined threshold.
And the noise acquisition part 173 outputs the audio | voice data of noise to the noise output part 13 at the timing at which the audio | voice which the transmission part 11 acquires is emitted based on the analysis result of the transmission voice analysis part 172. The noise output unit 13 outputs noise when the audio data is output from the noise acquisition unit 173 according to the audio data output from the noise acquisition unit 173, and when the audio data is not output from the noise acquisition unit 173. By not outputting noise, noise is output at the timing when the voice acquired by the transmitter 11 is emitted. That is, when the transmitted voice analysis unit 172 determines that a voice is being emitted, the noise output unit 13 outputs noise. On the other hand, when the transmitted voice analysis unit 172 determines that no voice is being emitted, the noise output unit 13 does not output noise.

これにより、例えば、呼が確立されている間常にノイズ出力部13がノイズを出力する場合との比較において、ノイズ出力部13がノイズを出力する時間(呼が確立されている時間に対する、ノイズ出力部13がノイズを出力する時間の割合)を減少させることができる。従って、ノイズ出力に伴う携帯電話機1の消費電力増大を抑制できる。   Thereby, for example, in comparison with the case where the noise output unit 13 always outputs noise while a call is established, the time during which the noise output unit 13 outputs noise (noise output with respect to the time when the call is established) The ratio of the time during which the unit 13 outputs noise) can be reduced. Therefore, an increase in power consumption of the mobile phone 1 due to noise output can be suppressed.

また、ノイズ出力部13が、発話者の発話(送話部11の取得する音声)を一定時間遅延させてノイズとして出力する場合、発話者が発話を行わない状態で、ノイズ出力部13が当該ノイズを出力すると、発話者の周囲の他者が当該ノイズを聞き取ることで、発話者の発話内容が当該他者に聞き取られてしまうおそれがある。
そこで、送話音声解析部172が、発話者が発話を行うタイミングを検出し、発話者が発話を行うタイミングでのみノイズを出力する。これにより、ノイズ出力部13が、発話者が発話を行わない状態で、発話者の発話を遅延させた音声(ノイズ)を出力し、発話者の周囲の他者が当該ノイズを聞き取ることで、発話者の発話内容が当該他者に聞き取られてしまうことを防止できる。
Further, when the noise output unit 13 delays the utterance of the speaker (voice acquired by the transmission unit 11) for a predetermined time and outputs it as noise, the noise output unit 13 When noise is output, others around the speaker may hear the noise, and the content of the speaker's speech may be heard by the other person.
Therefore, the transmitted voice analysis unit 172 detects the timing at which the speaker speaks and outputs noise only at the timing at which the speaker speaks. Thereby, the noise output unit 13 outputs a voice (noise) in which the utterance of the speaker is delayed in a state where the speaker does not speak, and others around the speaker listen to the noise, It is possible to prevent the speech content of the speaker from being heard by the other person.

なお、ノイズ出力部13が、送話部11の取得する音声が発せられるタイミングで出力するノイズとしては、様々なものを用いることができる。
例えば、上述したように、発話者の発話を一定時間遅延させた音声であってもよいし、ホワイトノイズまたはピンクノイズまたはレッドノイズなど、他のノイズであってもよい。
In addition, various things can be used as the noise which the noise output part 13 outputs at the timing at which the sound which the transmission part 11 acquires is emitted.
For example, as described above, it may be a voice obtained by delaying the utterance of the speaker for a certain time, or may be other noise such as white noise, pink noise, or red noise.

あるいは、送話音声解析部172が、送話部11の取得する音声が発せられるタイミングと共に、上述したように、送話部11の取得する音声の周波数を検出するようにしてもよい。そして、ノイズ出力部13は、送話部11の取得する音声が発せられるタイミングで、送話部11の取得する音声に近い周波数のノイズの音声データを出力する。   Alternatively, the transmission voice analysis unit 172 may detect the frequency of the voice acquired by the transmission unit 11 as described above together with the timing at which the voice acquired by the transmission unit 11 is emitted. And the noise output part 13 outputs the audio | voice data of the noise of the frequency close | similar to the audio | voice which the transmission part 11 acquires at the timing when the audio | voice which the transmission part 11 acquires is uttered.

この場合、上述したように、ノイズ取得部173は、携帯電話機1の予め備える複数のノイズの音声データの中から何れかのノイズの音声データを取得するようにしてもよいし、あるいは、ノイズ取得部173が音声データ生成手段を有して、送話音声解析部172の検出する周波数に近い周波数のノイズの音声データを生成するようにしてもよい。そして、ノイズ出力部13は、ノイズ取得部173の取得する音声データに従ってノイズを出力する。
このように、ノイズ出力部13が、送話部11の取得する音声が発せられるタイミングで、送話部11の取得する音声に近い周波数のノイズの音声データを出力することで、ノイズ出力に伴う携帯電話機1の消費電力増大を、さらに抑制できる。
In this case, as described above, the noise acquisition unit 173 may acquire audio data of any noise from among a plurality of noise audio data provided in advance in the mobile phone 1, or obtain noise. The unit 173 may have voice data generation means to generate noise voice data having a frequency close to the frequency detected by the transmission voice analysis unit 172. Then, the noise output unit 13 outputs noise according to the audio data acquired by the noise acquisition unit 173.
As described above, the noise output unit 13 outputs the sound data of noise having a frequency close to the sound acquired by the transmitting unit 11 at the timing when the sound acquired by the transmitting unit 11 is emitted. An increase in power consumption of the mobile phone 1 can be further suppressed.

あるいは、送話音声解析部172が、送話部11の取得する音声の音量を検出し、ノイズ出力部13が、送話音声解析部172の検出する音量に基づいてノイズを出力するようにしてもよい。例えば、ノイズ出力部13は、送話部11の取得する音声の音量が大きいほど大きい音量のノイズを出力する。
これにより、ノイズ出力部13が必要以上に大きい音量のノイズを出力することを抑制できる。従って、ノイズ出力に伴う携帯電話機1の消費電力増大を抑制できる。
Alternatively, the transmission voice analysis unit 172 detects the volume of the voice acquired by the transmission unit 11, and the noise output unit 13 outputs noise based on the volume detected by the transmission voice analysis unit 172. Also good. For example, the noise output unit 13 outputs a louder noise as the volume of the voice acquired by the transmitter 11 is higher.
Thereby, it can suppress that the noise output part 13 outputs the noise of the loudness larger than necessary. Therefore, an increase in power consumption of the mobile phone 1 due to noise output can be suppressed.

次に、図5を参照して携帯電話機1の動作について説明する。
図5は、通話時に携帯電話機1が行う処理の手順を示すフローチャートである。携帯電話機1は、発信時や着信時に呼が確立して通話可能な状態になると、同図の処理を開始する。
まず、制御部17は、携帯電話機1自らのユーザによる通信切断操作や、通話相手の電話機からの通話終了を示す信号の受信など、通話終了か否か(通話終了事象の有無)を判定する(ステップS101)。
Next, the operation of the mobile phone 1 will be described with reference to FIG.
FIG. 5 is a flowchart showing a procedure of processing performed by the mobile phone 1 during a call. The mobile phone 1 starts the process shown in FIG. 5 when a call is established at the time of outgoing call or incoming call and becomes ready for a call.
First, the control unit 17 determines whether or not the call ends (whether or not there is a call end event), such as a communication disconnecting operation by the user of the mobile phone 1 or reception of a signal indicating the end of the call from the other party's telephone ( Step S101).

通話終了と判定した場合(ステップS101:YES)、同図の処理を終了する。その後、携帯電話機1は、携帯電話機1自らのユーザによる通信切断操作を受け付けた場合は通話終了を示す信号を出力し、通話終了を示す信号を受信した場合は通話終了表示を行うなど、通信終了時の処理を行う。   If it is determined that the call has ended (step S101: YES), the processing in FIG. Thereafter, the mobile phone 1 outputs a signal indicating the end of the call when receiving a communication disconnecting operation by the user of the mobile phone 1 itself, and displays a call end display when receiving a signal indicating the end of the call. Do time processing.

一方、ステップS101において、通話終了でないと判定した場合(ステップS101:NO)、携帯電話機1は、受信処理を行う(ステップS102)。具体的には、無線通信部16が、通話相手の音声信号を無線信号にて受信して音声データに変換し、制御部17に出力する。そして、制御部17は、無線通信部16から出力される通話相手の音声データを受話部12に出力する。   On the other hand, when it is determined in step S101 that the call has not ended (step S101: NO), the mobile phone 1 performs a reception process (step S102). Specifically, the radio communication unit 16 receives the voice signal of the other party as a radio signal, converts it into voice data, and outputs it to the control unit 17. Then, the control unit 17 outputs the voice data of the communication partner output from the wireless communication unit 16 to the receiver unit 12.

また、送話音声解析部172は、送話部11が周囲音(発話者の発話)を取得して出力する音声データを解析して、当該音声の周波数を検出し、検出した周波数をノイズ取得部173に出力する(ステップS103)。
ノイズ取得部173は、送話音声解析部172から出力される周波数に基づいてノイズの音声データを取得し、取得した音声データをノイズ出力部13に出力する(ステップS104)。
In addition, the transmission voice analysis unit 172 analyzes voice data output by the transmission unit 11 by acquiring ambient sound (utterer's utterance), detects the frequency of the voice, and acquires the detected frequency as noise. The data is output to the unit 173 (step S103).
The noise acquisition unit 173 acquires noise audio data based on the frequency output from the transmitted voice analysis unit 172, and outputs the acquired audio data to the noise output unit 13 (step S104).

そして、受話部12が、制御部17から出力される音声データに従って、通話相手の音声を出力する(ステップS105)。また、ノイズ出力部13が、ノイズ取得部173から出力される音声データに従って、ノイズを出力する(ステップS106)。
また、携帯電話機1は、送信処理を行う(ステップS107)。具体的には、制御部17が、ステップS103で送話部11から取得する音声データを無線通信部16に出力し、無線通信部16は、制御部17から出力される音声データを無線信号にて送信する。
その後、ステップS101に戻り、同図の処理を繰り返す。
Then, the receiving unit 12 outputs the voice of the other party in accordance with the audio data output from the control unit 17 (step S105). In addition, the noise output unit 13 outputs noise according to the audio data output from the noise acquisition unit 173 (step S106).
In addition, the mobile phone 1 performs transmission processing (step S107). Specifically, the control unit 17 outputs the audio data acquired from the transmitter 11 in step S103 to the wireless communication unit 16, and the wireless communication unit 16 converts the audio data output from the control unit 17 into a radio signal. To send.
Then, it returns to step S101 and repeats the process of the figure.

以上のように、送話音声解析部172が、送話部11の取得する音声を解析し、ノイズ出力部13が、送話部11の取得する音声に似た周波数のノイズを出力する、あるいは、送話部11の取得する音声が発せられるタイミングでノイズを出力する、あるいは、送話部11の取得する音声の音量に応じた音量のノイズを出力するなど、送話音声解析部172の解析結果に基づいてノイズを出力する。
これにより、ノイズの音量を比較的小さくでき、あるいは、ノイズ出力部13がノイズを出力する時間を減少させることができ、あるいは、ノイズ出力部13が必要以上に大きい音量のノイズを出力することを抑制できる。従って、ノイズ出力に伴う携帯電話機1の消費電力増大を抑制できる。
すなわち、発話者は、他者のいない場所に移動せずに、比較的大きい音量で発話を行うことができ、かつ、携帯電話機1の消費電力を削減し得る。
As described above, the transmission voice analysis unit 172 analyzes the voice acquired by the transmission unit 11, and the noise output unit 13 outputs noise having a frequency similar to the voice acquired by the transmission unit 11, or Analysis of the transmission voice analysis unit 172 such as outputting noise at the timing when the voice acquired by the transmission unit 11 is emitted, or outputting noise of a volume corresponding to the volume of the voice acquired by the transmission unit 11 Outputs noise based on the result.
As a result, the noise volume can be made relatively low, or the time during which the noise output unit 13 outputs noise can be reduced, or the noise output unit 13 can output noise with a volume larger than necessary. Can be suppressed. Therefore, an increase in power consumption of the mobile phone 1 due to noise output can be suppressed.
That is, the speaker can speak at a relatively high volume without moving to a place where there is no other person, and the power consumption of the mobile phone 1 can be reduced.

<第2の実施形態>
図6は、本発明の第2の実施形態における携帯電話機の概略構成および当該携帯電話機が行うノイズ音声出力を示す説明図である。同図において、携帯電話機2は、送話部(音声取得部)11と、受話部(第2音声出力部)12と、ノイズ出力部(音声出力部)13と、キー操作部14と、表示部15と、無線通信部(音声信号取得部)16と、制御部27とを具備する。制御部27は、音声処理部271を具備する。音声処理部271は、送話音声解析部(音声解析部)172と、ノイズ取得部173と、逆位相取得部274と、重ね合わせ部275とを具備する。
同図において、図1の各部に対応して同様の機能を有する部分には同一の符号(11〜16、172、173)を付し、説明を省略する。
<Second Embodiment>
FIG. 6 is an explanatory diagram showing a schematic configuration of a mobile phone according to the second embodiment of the present invention and noise sound output performed by the mobile phone. In the figure, a cellular phone 2 includes a transmitter (voice acquisition unit) 11, a receiver (second voice output unit) 12, a noise output unit (voice output unit) 13, a key operation unit 14, and a display. Unit 15, wireless communication unit (audio signal acquisition unit) 16, and control unit 27. The control unit 27 includes an audio processing unit 271. The voice processing unit 271 includes a transmitted voice analysis unit (speech analysis unit) 172, a noise acquisition unit 173, an antiphase acquisition unit 274, and a superposition unit 275.
In the figure, parts having the same functions corresponding to the respective parts in FIG. 1 are denoted by the same reference numerals (11 to 16, 172, 173), and description thereof is omitted.

制御部27は、送話部11の取得する音声(図6の音声P11)を解析して、制御部17(図1)と同様にノイズの音声データを生成する。また、制御部27は、通話相手の音声に、ノイズを逆位相にした音声を重ね合わせることで、通話相手の音声に対するノイズキャンセルを行う。   The control unit 27 analyzes the voice (speech P11 in FIG. 6) acquired by the transmission unit 11, and generates noise voice data in the same manner as the control unit 17 (FIG. 1). Further, the control unit 27 performs noise cancellation on the voice of the other party by superimposing the voice of the opposite party on the voice of the other party.

逆位相取得部274は、ノイズ取得部173の取得するノイズ(の音声データ)を逆位相にした音声のデータ(以下、「逆位相データ」と称する)を取得する。
ここで、逆位相取得部274は、ノイズ取得部173が取得するノイズの音声データの出力を受け、このノイズを逆位相にした音声データを生成することで、逆位相データを取得する。
The reverse phase acquisition unit 274 acquires audio data (hereinafter referred to as “reverse phase data”) in which the noise (audio data) acquired by the noise acquisition unit 173 is in reverse phase.
Here, the antiphase acquisition unit 274 receives the output of the noise audio data acquired by the noise acquisition unit 173, and generates the audio data having the noise in an antiphase, thereby acquiring the antiphase data.

なお、逆位相取得部274が逆位相データを取得する方法は、上記の逆位相データを生成する方法に限らない。例えば、携帯電話機1が記憶デバイスを具備し、当該記憶デバイスが、ノイズの音声データと、当該ノイズを逆位相にした逆位相データとを予め記憶しておくようにしてもよい。そして、ノイズ取得部173は、記憶デバイスからノイズの音声データを取得し、逆位相取得部274は、記憶デバイスから逆位相データを読み出す。   Note that the method of acquiring the antiphase data by the antiphase acquisition unit 274 is not limited to the method of generating the antiphase data. For example, the mobile phone 1 may include a storage device, and the storage device may store noise audio data and antiphase data in which the noise has an opposite phase in advance. The noise acquisition unit 173 acquires noise sound data from the storage device, and the antiphase acquisition unit 274 reads out antiphase data from the storage device.

重ね合わせ部275は、複数の音声を重ね合わせた音声データを生成する。本実施形態では、重ね合わせ部275は、逆位相取得部274が取得する逆位相データを、無線通信部16が受信して出力する通話相手の音声データに重ね合わせた音声データ(すなわち、通話相手の音声に、ノイズを逆位相にした音声を重ね合わせた音声を示すデータ)を生成し、受話部12に出力する。   The superimposing unit 275 generates audio data in which a plurality of audios are superimposed. In the present embodiment, the superimposing unit 275 superimposes the reverse phase data acquired by the reverse phase acquisition unit 274 on the voice data of the communication partner that is received and output by the wireless communication unit 16 (that is, the communication partner). Is generated by superimposing a voice with noise in an opposite phase to the voice of the voice) and output to the receiver 12.

この携帯電話機2では、ノイズ出力部13は、携帯電話機1(図1)の場合と同様、ノイズP13を出力する。一方、受話部12は、通話相手の音声に、ノイズP13を逆位相にした音声を重ね合わせた音声P22を出力する。
そして、ノイズ出力部13の出力するノイズP13と、受話部12の出力する音声P22に含まれる、ノイズP13を逆位相にした音声とが、互いに打ち消しあう。その結果、受話部12の出力する音声に含まれる、通話相手の音声P12が残って、携帯電話機2のユーザに取得(聴取)される。
In the mobile phone 2, the noise output unit 13 outputs the noise P13 as in the case of the mobile phone 1 (FIG. 1). On the other hand, the receiving unit 12 outputs a voice P22 obtained by superimposing a voice having the opposite phase of the noise P13 on the voice of the other party.
Then, the noise P13 output from the noise output unit 13 and the audio having the opposite phase of the noise P13 included in the audio P22 output from the receiver unit 12 cancel each other. As a result, the other party's voice P12 included in the voice output from the receiver 12 remains and is acquired (listened) by the user of the mobile phone 2.

このように、逆位相取得部274が取得する逆位相データは、ノイズ出力部13の出力するノイズを打ち消すノイズキャンセル信号として作用する。   Thus, the antiphase data acquired by the antiphase acquisition unit 274 acts as a noise cancellation signal that cancels the noise output from the noise output unit 13.

次に、図7を参照して携帯電話機2の動作について説明する。
図7は、通話時に携帯電話機2が行う処理の手順を示すフローチャートである。携帯電話機2は、発信時や着信時に呼が確立して通話可能な状態になると、同図の処理を開始する。
Next, the operation of the mobile phone 2 will be described with reference to FIG.
FIG. 7 is a flowchart showing a procedure of processing performed by the mobile phone 2 during a call. The cellular phone 2 starts the process shown in FIG. 4 when a call is established at the time of outgoing call or incoming call and becomes ready for a call.

ステップS201は、図5のステップS101と同様である。
ステップS202において、携帯電話機1は、受信処理を行う。ここでいう受話処理は、図5のステップS102における受話処理のうち、無線通信部16が、通話相手の音声信号を無線信号にて受信して音声データに変換し、制御部27に出力する部分である。
ステップS203〜S204は、図5のステップS103〜S104と同様である。
Step S201 is the same as step S101 in FIG.
In step S202, the mobile phone 1 performs reception processing. The reception process here is a part of the reception process in step S102 of FIG. 5 where the wireless communication unit 16 receives the voice signal of the other party as a radio signal, converts it into voice data, and outputs it to the control unit 27. It is.
Steps S203 to S204 are the same as steps S103 to S104 in FIG.

ステップS205において、逆位相取得部274は、逆位相データ(ステップS204でノイズ取得部173が取得するノイズを逆位相にした音声のデータ)を取得する。そして、重ね合わせ部275は、逆位相取得部274が取得する逆位相データを、無線通信部16が受信して出力する通話相手の音声データに重ね合わせた音声データ(すなわち、通話相手の音声に、ノイズを逆位相にした音声を重ね合わせた音声を示すデータ)を生成し、受話部12に出力する。受話部12は、重ね合わせ部275から出力される音声データに従って音声を出力する。   In step S205, the antiphase acquisition unit 274 acquires antiphase data (audio data in which the noise acquired by the noise acquisition unit 173 in step S204 has an antiphase). Then, the superimposing unit 275 superimposes the reverse phase data acquired by the reverse phase acquiring unit 274 on the voice data of the communication partner that is received and output by the wireless communication unit 16 (that is, the voice data of the communication partner). , Data indicating a sound obtained by superimposing sound with noise in opposite phase), and outputting the generated data to the receiver unit 12. The reception unit 12 outputs a sound according to the sound data output from the superposition unit 275.

上述したように、この逆位相データを、ステップS204でノイズ取得部173が取得するノイズに重ね合わせると、当該ノイズを打ち消す。すなわち、逆位相データは、ノイズキャンセル信号として作用する。
ステップS206〜S208は、図5のステップS105〜S107と同様である。
As described above, when this antiphase data is superimposed on the noise acquired by the noise acquisition unit 173 in step S204, the noise is canceled. That is, the antiphase data acts as a noise cancellation signal.
Steps S206 to S208 are the same as steps S105 to S107 in FIG.

以上のように、重ね合わせ部275が、通話相手の音声にノイズを逆位相にした音声を重ね合わせ、受話部12が、当該音声を出力する。このノイズを逆位相にした音声と、ノイズ出力部13の出力する音声とが互いに打ち消しあって、携帯電話機2のユーザは、ノイズを含まない(あるいはノイズの音量が小さい)通話相手の音声を取得(聴取)できる。   As described above, the superimposing unit 275 superimposes the voice having the opposite phase of the noise on the voice of the other party, and the receiving unit 12 outputs the voice. The voice having this noise in opposite phase and the voice output from the noise output unit 13 cancel each other, and the user of the mobile phone 2 acquires the voice of the other party that does not contain noise (or the noise volume is low). (Listen)

<第3の実施形態>
図8は、本発明の第3の実施形態における携帯電話機の概略構成および当該携帯電話機が行うノイズ音声出力を示す説明図である。同図において、携帯電話機3は、送話部(音声取得部)11と、受話部(第2音声出力部)12と、ノイズ出力部(音声出力部)13と、キー操作部14と、表示部15と、無線通信部(音声信号取得部)16と、制御部37とを具備する。制御部37は、音声処理部371を具備する。音声処理部371は、送話音声解析部(音声解析部)172と、ノイズ取得部173と、逆位相取得部274と、重ね合わせ部(音声信号生成部)275とを具備する。
同図において、図6の各部に対応して同様の機能を有する部分には同一の符号(11〜16、172、173、274、275)を付し、説明を省略する。
制御部37は、その具備する音声処理部371が送話部11の取得する音声に対してノイズキャンセルを行う点で、制御部27(図6)と異なる。
本実施形態では、重ね合わせ部275は、逆位相取得部274が取得する逆位相データを、送話部11が出力する音声データに重ね合わせた音声データ(すなわち、発話者の発話音声に、ノイズを逆位相にした音声を重ね合わせた音声を示すデータ)を生成し、無線通信部16に出力する。
<Third Embodiment>
FIG. 8 is an explanatory diagram showing a schematic configuration of a mobile phone according to the third embodiment of the present invention and noise sound output performed by the mobile phone. In the figure, a cellular phone 3 includes a transmitter (voice acquisition unit) 11, a receiver (second voice output unit) 12, a noise output unit (voice output unit) 13, a key operation unit 14, and a display. Unit 15, wireless communication unit (audio signal acquisition unit) 16, and control unit 37. The control unit 37 includes an audio processing unit 371. The voice processing unit 371 includes a transmission voice analysis unit (speech analysis unit) 172, a noise acquisition unit 173, an antiphase acquisition unit 274, and a superposition unit (voice signal generation unit) 275.
In the figure, portions having the same functions corresponding to the respective portions in FIG. 6 are denoted by the same reference numerals (11 to 16, 172, 173, 274, 275), and description thereof is omitted.
The control unit 37 is different from the control unit 27 (FIG. 6) in that the voice processing unit 371 included in the control unit 37 performs noise cancellation on the voice acquired by the transmission unit 11.
In the present embodiment, the superimposing unit 275 superimposes the antiphase data acquired by the antiphase acquiring unit 274 on the audio data output by the transmitting unit 11 (that is, the noise is added to the speech of the speaker). Is generated) and is output to the wireless communication unit 16.

この携帯電話機3では、ノイズ出力部13は、携帯電話機1(図1)の場合と同様、ノイズP13を出力する。このノイズP13が送話部11に取得され、通話相手にとって、発話者の発話P11に対するノイズとなることが考えられる。
そこで、重ね合わせ部275が、送話部11の出力する音声データに逆位相データを重ね合わせるノイズキャンセルを行う。
In the mobile phone 3, the noise output unit 13 outputs the noise P13 as in the case of the mobile phone 1 (FIG. 1). It is conceivable that this noise P13 is acquired by the transmitter 11 and becomes a noise for the speaker's utterance P11 for the other party.
Therefore, the superimposing unit 275 performs noise cancellation for superimposing the antiphase data on the audio data output from the transmitting unit 11.

これにより、重ね合わせ部275は、発話者の発話P11(を示す音声データ)を生成する。あるいは、重ね合わせ部275は、送話部11の取得した音声に含まれるノイズを低減した音声データを生成する。
そして、無線通信部16が、重ね合わせ部275の生成した音声データを無線にて送信する。
Thereby, the superimposing unit 275 generates the utterance P11 (speech data indicating the utterance) of the speaker. Alternatively, the superimposing unit 275 generates audio data in which noise included in the audio acquired by the transmitting unit 11 is reduced.
And the wireless communication part 16 transmits the audio | voice data which the superimposition part 275 produced | generated wirelessly.

次に、図9を参照して携帯電話機3の動作について説明する。
図9は、通話時に携帯電話機3が行う処理の手順を示すフローチャートである。携帯電話機3は、発信時や着信時に呼が確立して通話可能な状態になると、同図の処理を開始する。
ステップS301〜S306は、図1のステップS101〜S106と同様である。
Next, the operation of the mobile phone 3 will be described with reference to FIG.
FIG. 9 is a flowchart showing a procedure of processing performed by the mobile phone 3 during a call. The mobile phone 3 starts the process shown in FIG. 5 when a call is established at the time of outgoing call or incoming call and becomes ready for a call.
Steps S301 to S306 are the same as steps S101 to S106 in FIG.

ステップS307において、重ね合わせ部275は、送話部11から出力される音声データに逆位相データを重ね合わせる。
ステップS308は、図1のステップS107と同様である。すなわち、制御部37(重ね合わせ部275)が、ステップS306で生成した音声データを無線通信部16に出力し、無線通信部16は、制御部37から出力される音声データを無線信号にて送信する。
In step S307, the superimposing unit 275 superimposes the antiphase data on the audio data output from the transmitting unit 11.
Step S308 is the same as step S107 in FIG. That is, the control unit 37 (superposition unit 275) outputs the audio data generated in step S306 to the wireless communication unit 16, and the wireless communication unit 16 transmits the audio data output from the control unit 37 as a wireless signal. To do.

以上のように、重ね合わせ部275が、送話部11の出力する音声データに逆位相データを重ね合わせるノイズキャンセルを行うので、通話相手は、発話者の発話音声(あるいはノイズを低減した発話者の発話音声)を取得(聴取)できる。   As described above, the superimposing unit 275 performs noise cancellation for superimposing the antiphase data on the audio data output from the transmitting unit 11, so that the other party is the speaker's speech (or the speaker with reduced noise). Can be obtained (listened).

なお、携帯電話機が、第2の実施形態で説明した、通話相手の音声に対するノイズキャンセルと、第3の実施形態で説明した、発話者(携帯電話機3のユーザ)の発話に対するノイズキャンセルとの両方を行うようにしてもよい。   Note that both the noise cancellation for the voice of the call partner described in the second embodiment and the noise cancellation for the speech of the speaker (user of the mobile phone 3) described in the third embodiment are described. May be performed.

<第4の実施形態>
なお本発明の適用範囲は、上述した携帯電話機に限らない。本発明は、周囲の音声を取得する様々な機器に適用し得る。
図10は、本発明の第4の実施形態における音声出力装置の概略構成を示す構成図である。同図において、音声出力装置4は、音声取得部41と、音声処理部171と、ノイズ出力部(音声出力部)13とを具備する。音声処理部171は、音声解析部472と、ノイズ取得部173とを具備する。
<Fourth Embodiment>
Note that the scope of application of the present invention is not limited to the mobile phone described above. The present invention can be applied to various devices that acquire ambient sound.
FIG. 10 is a configuration diagram showing a schematic configuration of an audio output device according to the fourth embodiment of the present invention. In the figure, the audio output device 4 includes an audio acquisition unit 41, an audio processing unit 171, and a noise output unit (audio output unit) 13. The voice processing unit 171 includes a voice analysis unit 472 and a noise acquisition unit 173.

音声取得部41は、送話部11(図1)と同様、マイクを有し、周囲音を取得して音声データに変換する。特に、音声取得部41は、発話者(音声出力装置4のユーザ)の発話を取得して音声データに変換する。
音声解析部472は、送話音声解析部172(図1)と同様、音声取得部41の生成する発話者の音声データを解析する。
また、音声出力装置4の、音声取得部41や音声解析部472以外の各部も、図1で説明した各部に対応して同様の機能を有する。そこで、図1の各部に対応する部分に、図1の場合と同一の符号(13、171、173)を付して説明を省略する。
Similar to the transmitter 11 (FIG. 1), the voice acquisition unit 41 has a microphone, acquires ambient sounds, and converts them into voice data. In particular, the voice acquisition unit 41 acquires the utterance of the speaker (the user of the voice output device 4) and converts it into voice data.
The voice analysis unit 472 analyzes the voice data of the speaker generated by the voice acquisition unit 41 in the same manner as the transmitted voice analysis unit 172 (FIG. 1).
In addition, each unit of the audio output device 4 other than the audio acquisition unit 41 and the audio analysis unit 472 has the same function corresponding to each unit described in FIG. Therefore, the same reference numerals (13, 171 and 173) as those in FIG. 1 are attached to portions corresponding to the respective portions in FIG.

この音声出力装置4は、ゲーム機や、タブレットPC(Personal Computer)や、ノートPCや、PDA(Personal Digital Assistant)など、周囲の音声を取得する様々な機器に適用可能である。これらの機器が音声出力装置4を具備することで、上述した携帯電話機の場合と同様、発話者の発話内容を、発話者の周囲の他者に対して隠すことができる。   The audio output device 4 can be applied to various devices such as a game machine, a tablet PC (Personal Computer), a notebook PC, and a PDA (Personal Digital Assistant) that acquire surrounding audio. Since these devices include the audio output device 4, the utterance content of the speaker can be hidden from others around the speaker as in the case of the mobile phone described above.

なお、制御部17〜371の全部または一部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Note that a program for realizing all or part of the functions of the control units 17 to 371 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. You may process each part by. Here, the “computer system” includes an OS and hardware such as peripheral devices.
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design changes and the like without departing from the gist of the present invention.

1〜3 携帯電話機
11 送話部
12 受話部
13 ノイズ出力部
14 キー操作部
15 表示部
16 無線通信部
17〜37 制御部
171〜371 音声処理部
172 送話音声解析部
173 ノイズ取得部
274 逆位相取得部
275 重ね合わせ部
1 to 3 Mobile phone 11 Transmitter 12 Receiver 13 Noise output unit 14 Key operation unit 15 Display unit 16 Wireless communication unit 17 to 37 Control unit 171 to 371 Audio processing unit 172 Transmitted voice analysis unit 173 Noise acquisition unit 274 Reverse Phase acquisition unit 275 Superposition unit

Claims (8)

音声を取得する音声取得部と、
前記音声取得部の取得する音声を解析する音声解析部と、
前記音声解析部の解析結果に基づいて、前記音声取得部の取得する音声とは異なる音声を出力する音声出力部と、
を具備することを特徴とする音声出力装置。
An audio acquisition unit for acquiring audio;
A voice analysis unit for analyzing the voice acquired by the voice acquisition unit;
Based on the analysis result of the voice analysis unit, a voice output unit that outputs a voice different from the voice acquired by the voice acquisition unit;
An audio output device comprising:
前記音声解析部は、前記音声取得部の取得する音声の周波数を検出し、
前記音声出力部は、前記音声解析部の検出する周波数に基づいて取得される音声を出力する、
ことを特徴とする音声出力装置。
The voice analysis unit detects a frequency of the voice acquired by the voice acquisition unit;
The voice output unit outputs voice acquired based on the frequency detected by the voice analysis unit.
An audio output device characterized by that.
前記音声解析部は、前記音声取得部の取得する音声が発せられるタイミングを検出し、
前記音声出力部は、前記音声解析部の検出結果に基づいて、前記音声取得部の取得する音声が発せられるタイミングで、前記音声取得部の取得する音声とは異なる音声を出力する、
ことを特徴とする請求項1または2に記載の音声出力装置。
The voice analysis unit detects the timing at which the voice acquired by the voice acquisition unit is emitted,
The voice output unit outputs a voice different from the voice acquired by the voice acquisition unit at a timing when the voice acquired by the voice acquisition unit is emitted based on the detection result of the voice analysis unit.
The audio output device according to claim 1, wherein the audio output device is an audio output device.
音声信号を取得する音声信号取得部と、
前記音声出力部の出力する音声と逆位相の音声信号を取得する逆位相取得部と、
前記音声信号取得部の取得する前記音声信号の示す音声と、前記逆位相取得部の取得する音声信号の示す音声とを重ね合わせた音声を出力する第2音声出力部と、
を具備することを特徴とする請求項1から3のいずれか一項に記載の音声出力装置、
An audio signal acquisition unit for acquiring an audio signal;
An antiphase acquisition unit for acquiring an audio signal having an opposite phase to the audio output by the audio output unit;
A second sound output unit that outputs a sound obtained by superimposing the sound indicated by the sound signal acquired by the sound signal acquisition unit and the sound indicated by the sound signal acquired by the antiphase acquisition unit;
The audio output device according to any one of claims 1 to 3, further comprising:
前記音声出力部の出力する音声と逆位相の音声信号を取得する逆位相取得部と、
前記音声取得部の取得する音声と、前記逆位相取得部の取得する音声信号の示す音声とを重ね合わせた音声を示す音声信号を生成する音声信号生成部と、
を具備することを特徴とする請求項1から3のいずれか一項に記載の音声出力装置。
An antiphase acquisition unit for acquiring an audio signal having an opposite phase to the audio output by the audio output unit;
An audio signal generation unit that generates an audio signal indicating audio obtained by superimposing the audio acquired by the audio acquisition unit and the audio indicated by the audio signal acquired by the antiphase acquisition unit;
The audio output device according to any one of claims 1 to 3, further comprising:
前記音声取得部の取得する音声と、前記逆位相取得部の取得する音声信号の示す音声とを重ね合わせた音声を示す音声信号を生成する音声信号生成部と、
を具備することを特徴とする請求項4に記載の音声出力装置。
An audio signal generation unit that generates an audio signal indicating audio obtained by superimposing the audio acquired by the audio acquisition unit and the audio indicated by the audio signal acquired by the antiphase acquisition unit;
The audio output device according to claim 4, further comprising:
音声出力装置の音声出力方法であって、
音声を取得する音声取得ステップと、
前記音声取得ステップにて取得する音声を解析する音声解析ステップと、
前記音声解析ステップでの解析結果に基づいて、前記音声取得ステップにて取得する音声とは異なる音声を出力する音声出力ステップと、
を具備することを特徴とする音声出力方法。
An audio output method of an audio output device,
An audio acquisition step for acquiring audio;
A voice analysis step of analyzing the voice acquired in the voice acquisition step;
Based on the analysis result in the voice analysis step, a voice output step for outputting a voice different from the voice acquired in the voice acquisition step;
An audio output method comprising:
音声出力装置としてのコンピュータに、
音声を取得する音声取得ステップと、
前記音声取得ステップにて取得する音声を解析する音声解析ステップと、
前記音声解析ステップでの解析結果に基づいて、前記音声取得ステップにて取得する音声とは異なる音声を出力する音声出力ステップと、
を実行させるためのプログラム。

To a computer as an audio output device,
An audio acquisition step for acquiring audio;
A voice analysis step of analyzing the voice acquired in the voice acquisition step;
Based on the analysis result in the voice analysis step, a voice output step for outputting a voice different from the voice acquired in the voice acquisition step;
A program for running

JP2011067273A 2011-03-25 2011-03-25 Voice output device, voice output method, and program Withdrawn JP2012203172A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011067273A JP2012203172A (en) 2011-03-25 2011-03-25 Voice output device, voice output method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011067273A JP2012203172A (en) 2011-03-25 2011-03-25 Voice output device, voice output method, and program

Publications (1)

Publication Number Publication Date
JP2012203172A true JP2012203172A (en) 2012-10-22

Family

ID=47184259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011067273A Withdrawn JP2012203172A (en) 2011-03-25 2011-03-25 Voice output device, voice output method, and program

Country Status (1)

Country Link
JP (1) JP2012203172A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019012661A1 (en) * 2017-07-13 2019-01-17 住友電気工業株式会社 Voice control device
CN112259128A (en) * 2020-10-21 2021-01-22 恒玄科技(上海)股份有限公司 Audio device and voice recognition method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019012661A1 (en) * 2017-07-13 2019-01-17 住友電気工業株式会社 Voice control device
CN112259128A (en) * 2020-10-21 2021-01-22 恒玄科技(上海)股份有限公司 Audio device and voice recognition method

Similar Documents

Publication Publication Date Title
KR101540896B1 (en) Generating a masking signal on an electronic device
US8265297B2 (en) Sound reproducing device and sound reproduction method for echo cancelling and noise reduction
US8194871B2 (en) System and method for call privacy
US7680465B2 (en) Sound enhancement for audio devices based on user-specific audio processing parameters
US7761292B2 (en) Method and apparatus for disturbing the radiated voice signal by attenuation and masking
US20180350381A1 (en) System and method of noise reduction for a mobile device
US20130156212A1 (en) Method and arrangement for noise reduction
US20070237339A1 (en) Environmental noise reduction and cancellation for a voice over internet packets (VOIP) communication device
US9413434B2 (en) Cancellation of interfering audio on a mobile device
JP2010119019A (en) Portable terminal, audio output control method, and audio output control program
US9641660B2 (en) Modifying sound output in personal communication device
JP2011227199A (en) Noise suppression device, noise suppression method and program
JP2010062663A (en) Audio signal processing apparatus, audio signal processing method, and communication terminal
US8170229B2 (en) Audio privacy apparatus and method
JP2006211365A (en) Hands-free device, navigation system and interruptive call termination notifying method
JP2008134557A (en) Mobile terminal device
JP2016038513A (en) Voice switching device, voice switching method, and computer program for voice switching
US20110105034A1 (en) Active voice cancellation system
JP2012203172A (en) Voice output device, voice output method, and program
JP2004128751A (en) Hands-free speech device and program for hands-free speech
JP2007512767A (en) Method and device for generating a paging signal based on acoustic metrics of a noise signal
JP2012095047A (en) Speech processing unit
US20130039154A1 (en) Remote control of a portable electronic device and method therefor
JP4415831B2 (en) Mobile communication terminal and method for reducing leaked voice thereof
KR101482420B1 (en) Sound Controller of a Cellular Phone for Deafness and its method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603