JP2023001605A - wireless communication device - Google Patents

wireless communication device Download PDF

Info

Publication number
JP2023001605A
JP2023001605A JP2021102426A JP2021102426A JP2023001605A JP 2023001605 A JP2023001605 A JP 2023001605A JP 2021102426 A JP2021102426 A JP 2021102426A JP 2021102426 A JP2021102426 A JP 2021102426A JP 2023001605 A JP2023001605 A JP 2023001605A
Authority
JP
Japan
Prior art keywords
audio signal
noise
communication device
unit
wireless communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021102426A
Other languages
Japanese (ja)
Other versions
JP7221335B2 (en
Inventor
二郎 國分
Jiro Kokubu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alinco Inc
Original Assignee
Alinco Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alinco Inc filed Critical Alinco Inc
Priority to JP2021102426A priority Critical patent/JP7221335B2/en
Publication of JP2023001605A publication Critical patent/JP2023001605A/en
Application granted granted Critical
Publication of JP7221335B2 publication Critical patent/JP7221335B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Abstract

To make it possible to increase a call limit distance while taking measures against deterioration of received voice due to a call distance in the prior art.SOLUTION: A wireless communication device of the present invention is a wireless communication device including a reception demodulation unit that demodulates a received wireless signal into an audio signal. The wireless communication device includes a noise cancellation unit that performs audio signal processing so as to cancel noise from the demodulated audio signal. The noise cancellation unit performs noise cancellation processing, using a deep learning model unit that is learned using a feature parameter of human voice and that determines whether it is a non-voice period containing noise from the demodulated audio signal. Here, the received wireless signal is a wireless signal modulated by a frequency modulation method or a phase modulation method according to a predetermined audio signal.SELECTED DRAWING: Figure 1

Description

本発明は、例えばFM変調方式の特定小電力無線通信無線局のための無線通信装置に関する。 TECHNICAL FIELD The present invention relates to a radio communication apparatus for a specific low-power radio communication radio station using, for example, FM modulation.

例えば特許文献1において開示された無線通信機では、ノイズキャンセル機能及びスケルチ機能を有する無線通信機において、ノイズキャンセル機能が働いて聴覚上は受信感度が良いにも関わらず、スケルチ感度付近でスケルチが閉じてしまうことを抑制するために、以下の構成を開示している。 For example, in the wireless communication device disclosed in Patent Document 1, in a wireless communication device having a noise canceling function and a squelch function, squelch occurs near the squelch sensitivity even though the noise canceling function works and the reception sensitivity is good. In order to prevent the door from being closed, the following configuration is disclosed.

無線通信機の復調部は、周波数変換部が周波数変換したIF信号を復調し、復調信号を出力する。ノイズキャンセル部は、復調信号の雑音成分を抑圧したノイズキャンセル信号を出力する。出力部は、ノイズキャンセル機能がオフの場合、復調信号を音声出力し、ノイズキャンセル機能がオンの場合、ノイズキャンセル信号を音声出力する。スケルチ制御部は、雑音信号が示す電圧値が第1のしきい値以上になると出力部の音声出力を停止し、第2のしきい値未満になると出力部の音声出力を許可する。ノイズキャンセル機能がオンの場合の第1のしきい値及び第2のしきい値は、ノイズキャンセル機能がオフの場合よりも大きいように設定されている。 A demodulator of the wireless communication device demodulates the IF signal frequency-converted by the frequency converter and outputs a demodulated signal. The noise cancellation unit outputs a noise cancellation signal obtained by suppressing the noise component of the demodulated signal. The output unit outputs the demodulated signal as audio when the noise canceling function is off, and outputs the noise canceling signal as audio when the noise canceling function is on. The squelch control section stops audio output from the output section when the voltage value indicated by the noise signal is equal to or greater than the first threshold, and permits audio output from the output section when the voltage value is less than the second threshold. The first threshold and the second threshold when the noise canceling function is on are set to be higher than when the noise canceling function is off.

図5は従来例に係る無線機100の構成例を示すブロック図である。図5において、無線機100は、制御部10と、受信アンテナ11と、受信復調部12と、ノイズ量及び電界強度検出部16と、ノイズスケルチによる受信音声ミュート部17(ノイズスケルチ回路とも呼ばれる)と、音声信号増幅器14と、スピーカ15とを備えて構成される。 FIG. 5 is a block diagram showing a configuration example of a radio device 100 according to a conventional example. 5, the wireless device 100 includes a control unit 10, a receiving antenna 11, a receiving demodulating unit 12, a noise amount and electric field strength detecting unit 16, and a received audio muting unit 17 using noise squelch (also called a noise squelch circuit). , an audio signal amplifier 14 and a speaker 15 .

図5において、受信アンテナ11により受信された無線信号は受信復調部12に入力される。受信復調部12は入力される無線信号に対して、低雑音増幅、低域周波数変換、中間周波増幅、例えばFM(周波数変調)復調などの信号処理を実行することで、音声信号を復調してノイズスケルチによる受信音声ミュート部17及び音声信号増幅器14を介してスピーカ15に出力する。ノイズ量及び電界強度検出部16は、受信された無線信号のノイズ量及び電界強度を検出して制御部10に出力する。制御部10は、検出されたノイズ量及び電界強度に応じて、ノイズスケルチによる受信音声ミュート部17を動作させて出力する音声信号をミュート(消音)する。具体的には、制御部10は、電界強度が所定のしきい値未満となった場合において、ノイズ量が第1のしきい値以上になるとノイズスケルチによる受信音声ミュート部17を動作させて音声信号の出力を停止し、第2のしきい値未満になるとノイズスケルチによる受信音声ミュート部17を非動作状態にさせて音声信号の出力を許可する。 In FIG. 5, a radio signal received by a receiving antenna 11 is input to a receiving demodulator 12 . The reception demodulation unit 12 performs signal processing such as low noise amplification, low frequency conversion, intermediate frequency amplification, and FM (frequency modulation) demodulation on the input radio signal, thereby demodulating the audio signal. The received sound is muted by noise squelch and output to the speaker 15 via the audio signal amplifier 14 . The noise amount and electric field intensity detection unit 16 detects the noise amount and electric field intensity of the received radio signal and outputs them to the control unit 10 . The control unit 10 operates the received audio muting unit 17 by noise squelch according to the detected amount of noise and electric field intensity to mute the output audio signal. Specifically, when the electric field intensity is less than a predetermined threshold value and the noise amount is equal to or greater than a first threshold value, the control unit 10 operates the reception audio mute unit 17 by noise squelch to mute the audio signal. The output of the signal is stopped, and when it becomes less than the second threshold value, the noise squelch-based reception audio mute section 17 is brought into a non-operating state to permit the output of the audio signal.

特許第6730591号公報Japanese Patent No. 6730591

図6は図5の複数の無線機100A~100Dを含む無線通信システムの動作例を示すブロック図である。図6において、無線機100の構成をそれぞれ有する無線機100A~100Dが所定の通話限界距離(カバレージエリア)内に配置され、そのうち無線機100A~100Cが所定のノイズスケルチでの通話限界距離内に配置されているものとする。 FIG. 6 is a block diagram showing an operation example of a wireless communication system including the plurality of wireless devices 100A-100D of FIG. In FIG. 6, radios 100A to 100D each having the configuration of radio 100 are arranged within a predetermined communication limit distance (coverage area). shall be placed.

従来技術に係るFM変調方式の特定小電力無線通信機では、通話距離が長くなるにつれて電界強度が低下すると、無信号状態に近くなり、無信号時に出力されるホワイトノイズが受信音声に混ざり、結果としては図6における無線機100Cは通話限界距離に近づくにつれて受信音声はノイズ交じりになり音声の識別が困難になる。 In the conventional FM modulation type specified low-power wireless communication device, when the electric field strength decreases as the communication distance increases, the state becomes close to no signal, and the white noise output when there is no signal is mixed with the received voice, resulting in As the wireless device 100C shown in FIG. 6 approaches the call limit distance, the received voice becomes mixed with noise, making it difficult to distinguish the voice.

これらの従来技術に係る無線通信機に搭載されている一般的なノイズスケルチ回路は、このノイズをフィルタリングして整流することで、ノイズのレベルを受信機で判別して、受信音声を止めている。しかしながら、この方法の場合、ノイズ音と受信音のバランスの関係で本来受信できる音声も止めているため、図6における無線機100Dは通話限界距離をセーブしている状態が従来技術に係る無線通信機の現状となる。 A general noise squelch circuit installed in these conventional wireless communication devices filters and rectifies this noise, thereby determining the noise level in the receiver and stopping the received voice. . However, in the case of this method, since the sound that can be originally received is also stopped due to the relationship between the noise sound and the received sound, the wireless device 100D in FIG. It becomes the current state of the machine.

本発明の目的は以上の問題点を解決し、従来技術における通話距離による受信音声の劣化を対策しつつ、通話限界距離を向上させることができる無線通信装置及び無線通信システムを提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to solve the above problems and to provide a wireless communication device and a wireless communication system capable of improving the call limit distance while taking measures against the deterioration of the received voice due to the call distance in the conventional technology. .

本発明の一態様に係る無線通信装置は、受信された無線信号を音声信号に復調する受信復調部を備える無線通信装置において、
前記復調された音声信号からノイズをキャンセルするように音声信号処理を行うノイズキャンセル部を備え、
前記ノイズキャンセル部は、人間の音声の特徴パラメータを用いて学習され、前記復調された音声信号からノイズを含む非音声期間であるか否かを判定する深層学習モデル部を用いて、ノイズキャンセル処理を行う。
A radio communication apparatus according to an aspect of the present invention is a radio communication apparatus including a reception demodulator that demodulates a received radio signal into an audio signal,
A noise canceling unit that performs audio signal processing to cancel noise from the demodulated audio signal,
The noise cancellation unit performs noise cancellation processing using a deep learning model unit that is learned using characteristic parameters of human speech and determines whether or not it is a non-speech period containing noise from the demodulated speech signal. I do.

従って、本発明に係る無線通信装置によれば、従来技術に係るノイズスケルチ回路に代えて、深層学習モデル部を用いてノイズキャンセル処理を行うノイズキャンセル部を備えたので、従来技術における通話距離による受信音声の劣化を対策しつつ、通話限界距離を向上させることができる。 Therefore, according to the wireless communication device of the present invention, instead of the noise squelch circuit according to the conventional technology, the noise cancellation unit that performs noise cancellation processing using the deep learning model unit is provided. It is possible to improve the communication limit distance while taking measures against deterioration of received voice.

実施形態に係る無線機1の構成例を示すブロック図である。1 is a block diagram showing a configuration example of a wireless device 1 according to an embodiment; FIG. 図1のノイズキャンセル部13の構成例を示すブロック図である。2 is a block diagram showing a configuration example of a noise cancellation unit 13 of FIG. 1; FIG. 図2の深層学習モデル部35の構成例を示すブロック図である。3 is a block diagram showing a configuration example of a deep learning model unit 35 of FIG. 2; FIG. 図1の複数の無線機1A~1Dを含む無線通信システムの動作例を示すブロック図である。2 is a block diagram showing an operation example of a radio communication system including a plurality of radios 1A to 1D of FIG. 1; FIG. 従来例に係る無線機100の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of a wireless device 100 according to a conventional example; 図5の複数の無線機100A~100Dを含む無線通信システムの動作例を示すブロック図である。6 is a block diagram showing an operation example of a wireless communication system including the plurality of radios 100A to 100D of FIG. 5; FIG.

以下、本発明に係る実施形態及び変形例について図面を参照して説明する。なお、同一又は同様の構成要素については同一の符号を付している。 Hereinafter, embodiments and modifications according to the present invention will be described with reference to the drawings. In addition, the same code|symbol is attached|subjected about the same or similar component.

図1は実施形態に係る無線機1の構成例を示すブロック図である。図1において、無線機1は無線通信装置の一例であって、受信アンテナ11と、受信復調部12と、ノイズキャンセル部13と、音声信号増幅器14と、スピーカ15と、制御部20と、PTT(Push To Talk)キー21Aを含む操作部21と、マイクロホン22と、音声信号増幅器23と、変調送信部24と、送信アンテナ25とを備えて構成される。 FIG. 1 is a block diagram showing a configuration example of a wireless device 1 according to an embodiment. In FIG. 1, a wireless device 1 is an example of a wireless communication device, and includes a receiving antenna 11, a receiving demodulation unit 12, a noise canceling unit 13, an audio signal amplifier 14, a speaker 15, a control unit 20, a PTT It comprises an operation unit 21 including a (Push To Talk) key 21A, a microphone 22, an audio signal amplifier 23, a modulation transmission unit 24, and a transmission antenna 25.

ここで、実施形態に係る無線機1は例えば特定小電力無線通信システムのための特定小電力無線局の無線通信装置の一例である。本実施形態では、無線機1はその受信部において、例えばFM(周波数変調)復調又はPM(位相変調)復調においてノイズ軽減で有効である図5のノイズスケルチによる受信音声ミュート部17に代えて、ノイズキャンセル部13を備えたことを特徴としている。また、複数の無線機1により無線通信システムを構成する。 Here, the wireless device 1 according to the embodiment is an example of a wireless communication device of a specified low-power wireless station for a specified low-power wireless communication system, for example. In this embodiment, in the receiving section of the wireless device 1, instead of the reception audio mute section 17 by noise squelch in FIG. It is characterized by having a noise canceling section 13 . Also, a plurality of wireless devices 1 constitute a wireless communication system.

図1において、受信アンテナ11により受信された無線信号は受信復調部12に入力される。受信復調部12は、受信された無線信号を低雑音増幅、低域周波数変換、中間周波増幅等を行った後、例えばFM(周波数変調)復調又はPM(位相変調)復調などの所定の復調方式で音声信号に復調してノイズキャンセル部13に出力する。ノイズキャンセル部13は人間の音声により深層学習された深層学習モデル部35(図3)を用いて、復調された音声信号から音声信号期間のみ当該音声信号を通過させることで、ノイズをキャンセルするように音声信号処理を行った後、処理後の音声信号を音声信号増幅器14を介してスピーカ15に出力する。 In FIG. 1, a radio signal received by a receiving antenna 11 is input to a receiving demodulator 12 . The reception demodulation unit 12 performs low-noise amplification, low-frequency conversion, intermediate frequency amplification, etc. on the received radio signal, and then performs a predetermined demodulation method such as FM (frequency modulation) demodulation or PM (phase modulation) demodulation. demodulates it into an audio signal and outputs it to the noise canceling unit 13 . The noise canceling unit 13 uses a deep learning model unit 35 (FIG. 3) that has been deep-learned using human speech to allow the demodulated audio signal to pass through only during the audio signal period, thereby canceling noise. After the audio signal is processed, the processed audio signal is output to the speaker 15 via the audio signal amplifier 14 .

マイクロホン22は入力される音声を音声信号に変換して音声信号増幅器23を介して変調送信部24に出力する。制御部20は、PTTキー21Aがオンされたときに、変調送信部24を動作させ、変調送信部24は入力される音声信号に従って無線搬送波を所定の変調方式で変調した後、変調された無線搬送波である無線信号を、高域周波数変換しかつ電力増幅した後、送信アンテナ25から送信する。 The microphone 22 converts an input voice into a voice signal and outputs the voice signal to the modulation transmitter 24 via the voice signal amplifier 23 . The control unit 20 operates the modulation transmission unit 24 when the PTT key 21A is turned on, and the modulation transmission unit 24 modulates the radio carrier wave according to the input audio signal with a predetermined modulation method, and then modulates the modulated radio wave. A radio signal, which is a carrier wave, is transmitted from the transmitting antenna 25 after high frequency conversion and power amplification.

なお、本実施形態では、無線機1は送信周波数と受信周波数とが異なる同時通話方式での動作について説明したが、本発明はこれに限られず、無線機1は送信周波数と受信周波数とを同一の周波数を使用する場合は、制御部20は、PTTキー21Aがオンされたときに、受信復調部12の動作を停止させる。 In this embodiment, the wireless device 1 operates in a simultaneous call system in which the transmission frequency and the reception frequency are different, but the present invention is not limited to this, and the wireless device 1 uses the same transmission frequency and reception frequency. frequency is used, the controller 20 stops the operation of the reception demodulator 12 when the PTT key 21A is turned on.

次いで、図2を参照して、深層学習モデル部35を用いた図1のノイズキャンセル部13の構成及び動作について以下に説明する。 Next, with reference to FIG. 2, the configuration and operation of the noise cancellation unit 13 of FIG. 1 using the deep learning model unit 35 will be described below.

図2は図1のノイズキャンセル部13の構成例を示すブロック図である。 FIG. 2 is a block diagram showing a configuration example of the noise cancellation section 13 of FIG.

ここで、「音素」という用語は、特定の言語において1つの単語を他の単語から区別する音の単位を意味し、「振動レート」という用語は、各秒におけるデジタル化された振動データの0と1の間の移動の数を意味し、「振動計数値(VC)」という用語は、各フレーム内のデジタル化された振動データの値の合計を意味する。また、「振動パターン」とは、時間軸に沿った所定のフレーム数ごとに算出された振動数の総和のデータ分布を意味する。深層学習モデル部35では、異なる振動パターン、すなわち異なる振動計数値の総和(VS値)のデータ分布の違いを考慮して、ノイズキャンセル処理を行っており、振動レートは振動計数値に類似しているが、振動レートが大きいほど、振動計数値も大きくなる。 Here, the term "phoneme" refers to the unit of sound that distinguishes one word from another in a particular language, and the term "vibration rate" refers to the zero point of the digitized vibration data at each second. and 1, and the term "vibration count (VC)" refers to the sum of the values of the digitized vibration data within each frame. Further, the "vibration pattern" means the data distribution of the sum of the vibration frequencies calculated for each predetermined number of frames along the time axis. In the deep learning model unit 35, noise cancellation processing is performed in consideration of different vibration patterns, that is, differences in the data distribution of the sum of different vibration count values (VS values), and the vibration rate is similar to the vibration count value. However, the higher the vibration rate, the higher the vibration count.

音声信号の振幅と振動レートは共に観測可能である。ノイズキャンセル部13の特徴は、音声信号の振幅と振動率に応じて音声イベントを検出することである。また、別の特徴は、デジタル化された振動データの振動計数値の総和を、あらかじめ定義されたフレーム数分だけ計測することで、音声と、非音声/無音を区別することである。もう一つの特徴は、入力される音声信号データのストリームをその振動パターンによって異なる音素に分類することである。別の特徴は、下流の処理部をトリガするように、入力される音声信号データストリームから最初の起動音素を正しく区別することであり、それによって、処理部を含む計算システムの電力消費等の計算コストを節約することである。 Both the amplitude and vibration rate of the speech signal are observable. A feature of the noise cancellation unit 13 is that it detects an audio event according to the amplitude and vibration rate of the audio signal. Another feature is to distinguish between speech and non-speech/silence by measuring the sum of the vibration count values of the digitized vibration data for a predefined number of frames. Another feature is to classify the input audio signal data stream into different phonemes according to their vibration patterns. Another feature is the correct discrimination of the first activation phoneme from the incoming audio signal data stream to trigger downstream processing units, thereby calculating power consumption, etc. of the computing system containing the processing units. It is to save costs.

図2において、ノイズキャンセル部13は音声イベント検出を用いてノイズキャンセル処理を行うものであって、音声信号前置処理部38と、AD変換器39と、音声信号処理部30とを備えて構成される。ここで、音声信号前置処理部38は、アナログ音声信号に対して、ハイパスフィルタリング、ローパスフィルタリング、増幅又はそれらの組み合わせ等を含む、音声信号前置処理を行って、処理後のアナログ音声信号をAD変換器39に出力する。すなわち、音声信号前置処理部38は、マイクロホン22からの音声信号に対して、人間の音声信号の所定のレベル範囲であって、所定の帯域幅のみを通過させる。次いで、AD変換器39は、所定の基準電圧Vref及び許容電圧Vadm(<Vref)に従って、アナログ音声信号をデジタル音声信号にAD変換して音声信号処理部30の入力インターフェース36に出力する。 In FIG. 2, the noise cancellation unit 13 performs noise cancellation processing using audio event detection, and includes an audio signal preprocessing unit 38, an AD converter 39, and an audio signal processing unit 30. be done. Here, the audio signal preprocessing unit 38 performs audio signal preprocessing, including high-pass filtering, low-pass filtering, amplification, or a combination thereof, on the analog audio signal, and outputs the processed analog audio signal. Output to AD converter 39 . That is, the audio signal pre-processing unit 38 allows the audio signal from the microphone 22 to pass only within a predetermined level range of human audio signals and in a predetermined bandwidth. Next, the AD converter 39 AD-converts the analog audio signal into a digital audio signal according to a predetermined reference voltage Vref and an allowable voltage Vadm (<Vref), and outputs the digital audio signal to the input interface 36 of the audio signal processing section 30 .

本実施形態において、AD変換器39において、基準電圧Vrefよりも小さい許容電圧Vadmは、基準電圧Vrefと組み合わせて、第1のしきい値電圧Vth1(=Vref+Vadm))及び第2のしきい値電圧Vth2(=Vref-Vadm)を形成するために使用され、AD変換器39は、第1のしきい値電圧Vth1及び第2のしきい値電圧Vth2に基づいて、第1のしきい値電圧Vth1以上又は第2のしきい値電圧Vth2以下のノイズに対してAD変換を実行せず、その間の音声信号に対してAD変換を実行することで、入力されるアナログ音声信号のノイズ及び干渉を除去することができる。ここで、例えばVref=1.0V,Vadm=0.01Vとすると、静かな環境では振動データの振動数が少なく,音声環境では振動データの振動数が多いことが理解できる。なお、本実施形態において、「フレームサイズ」とは、各フレーム内のデジタル化された振動データに対応するサンプリングポイントの数を意味し、「音素ウィンドウTw」とは、各音素の音声特徴量を収集するための時間を意味する。好ましい実施形態では、各フレームの継続時間Tfは例えば0.1~1ミリ秒(ms)であり、音素ウィンドウTwは例えば約0.3秒である。さらに好ましい実施形態では、各フレーム内のデジタル化された振動データに対応するサンプリングポイントの数は例えば1~16の範囲である。 In the present embodiment, in the AD converter 39, the allowable voltage Vadm smaller than the reference voltage Vref is combined with the reference voltage Vref to obtain the first threshold voltage Vth1 (=Vref+Vadm)) and the second threshold voltage Vth2 (=Vref−Vadm), and the AD converter 39 converts the first threshold voltage Vth1 based on the first threshold voltage Vth1 and the second threshold voltage Vth2. Noise and interference in the input analog audio signal are removed by not performing AD conversion on noise above or below the second threshold voltage Vth2, but by performing AD conversion on the audio signal between them. can do. Here, if Vref=1.0 V and Vadm=0.01 V, for example, it can be understood that the frequency of vibration data is low in a quiet environment, and the frequency of vibration data is high in a voice environment. In this embodiment, the “frame size” means the number of sampling points corresponding to the digitized vibration data in each frame, and the “phoneme window Tw” means the speech feature amount of each phoneme. Means time to collect. In a preferred embodiment, the duration Tf of each frame is eg 0.1-1 milliseconds (ms) and the phoneme window Tw is eg about 0.3 seconds. In a further preferred embodiment, the number of sampling points corresponding to the digitized vibration data within each frame ranges, for example, from 1-16.

音声信号を分析する場合、ほとんどの音声信号は短期間で安定しているので、通常、短期分析の方法が採用される。例えば、AD変換器39で使用されるサンプリング周波数fsが16000であり、各フレームの継続時間Tfが1msであると仮定すると、フレームサイズはfs×1/1000=16サンプルポイントとなる。 When analyzing speech signals, the method of short-term analysis is usually adopted since most speech signals are stable in a short period of time. For example, assuming that the sampling frequency fs used by the AD converter 39 is 16000 and the duration Tf of each frame is 1 ms, the frame size is fs×1/1000=16 sample points.

図2において、音声信号処理部30は例えばコンピュータデバイスで構成され、
(1)ノイズキャンセルなどの所定の音声信号処理を実行するCPU(Central Processing Unit)31と、
(2)CPU31の基本処理を実行するオペレーティングシステム及び前記音声信号処理のプログラム、並びに当該プログラムを実行するために必要なデータ等を格納するROM(Read Only Memory)32と、
(3)CPU31の基本処理を実行するオペレーティングシステム及び前記音声信号処理のプログラムの実行時に、処理中のデータ等を格納するRAM(Read Access Memory)33と、
(4)前記音声信号処理を実行するために必要な後述する設定データ等を格納する不揮発性のEEPROM(Electrically Erasable Programmable Memory)34と、
(5)例えばニューラルネットワークなどで構成され、人間の音声信号データに基づいて深層学習されて入力される音声信号データに対して、ノイズを除去して実質的に音声信号のみを抽出して出力する深層学習モデル部35と、
(6)AD変換器39から入力される音声信号データを、後段の信号仕様値に変換するための所定の信号変換処理を行ってCPU31に出力する入力インターフェース36と、
(7)深層学習モデル部35によりノイズが除去された音声信号データを、後段の信号仕様値に変換するための所定の信号変換処理を行って端子T12、音声ラインL2等を介して無線機1に出力する出力インターフェース37と、
を備えて構成される。
In FIG. 2, the audio signal processing unit 30 is configured by, for example, a computer device,
(1) A CPU (Central Processing Unit) 31 that executes predetermined audio signal processing such as noise cancellation;
(2) a ROM (Read Only Memory) 32 that stores an operating system that executes the basic processing of the CPU 31, the audio signal processing program, and data necessary for executing the program;
(3) a RAM (Read Access Memory) 33 for storing data being processed when the operating system for executing the basic processing of the CPU 31 and the program for the audio signal processing are executed;
(4) a non-volatile EEPROM (Electrically Erasable Programmable Memory) 34 for storing later-described setting data necessary for executing the audio signal processing;
(5) For example, it is composed of a neural network, etc., and removes noise from voice signal data that is input after deep learning based on human voice signal data, and extracts and outputs substantially only the voice signal. a deep learning model unit 35;
(6) an input interface 36 that performs a predetermined signal conversion process for converting audio signal data input from the AD converter 39 into a signal specification value in the subsequent stage and outputs the result to the CPU 31;
(7) The audio signal data from which noise has been removed by the deep learning model unit 35 is subjected to a predetermined signal conversion process for converting it into a signal specification value in the subsequent stage, and the wireless device 1 is transmitted through the terminal T12, the audio line L2, etc. an output interface 37 that outputs to
configured with

ここで、EEPROM34は例えば、一連の振動計数値VC、振動計数値の総和VS、振動計数値の総和VSf、振動計数値の総和VSp(後述する)、及びすべての特徴ベクトルの音声特徴値を記憶する。なお、EEPROM34は外部メモリなどの記憶装置であってもよい。音声信号処理部30に適用される音声イベント検出方法は、音声イベントを捕捉するために、CPU31によってランタイム中に実行される。fs=16000、Tf=1ms、Tw=0.3sと仮定して、音声イベント検出を実行する。 Here, the EEPROM 34 stores, for example, a series of vibration count values VC, a sum of vibration count values VS, a sum of vibration count values VSf, a sum of vibration count values VSp (to be described later), and sound feature values of all feature vectors. do. Note that the EEPROM 34 may be a storage device such as an external memory. The audio event detection method applied to the audio signal processor 30 is executed during runtime by the CPU 31 to capture audio events. Audio event detection is performed assuming fs=16000, Tf=1 ms, and Tw=0.3 s.

CPU31は、具体的には、処理対象である現在のフレーム(すなわち、1ms以内)の振動データ値の総和を計算して、振動計数値VCを取得し、その後、時点Tjにおける現在のフレームのVC値をEEPROM34に格納する。ここで、x個のフレームの振動計数値VCを加算して、時点Tjにおける現在のフレームの振動計数値の総和VSを得る。x個のフレームには現在のフレームが含まれる。一実施形態では、CPU31は、時点Tjにおける現在のフレームの振動計数値VCと、その直前(x-1)個のフレームの振動計数値の総和VSpとを加算して、時点Tjにおけるx個のフレームの振動計数値の総和VS(=VC+VSp)を得る。 Specifically, the CPU 31 calculates the sum of the vibration data values of the current frame (that is, within 1 ms) to be processed, acquires the vibration count value VC, and then obtains the VC of the current frame at time Tj. Store the value in EEPROM 34 . Here, the vibration count values VC of x frames are added to obtain the sum of the vibration count values VS of the current frame at time Tj. x frames includes the current frame. In one embodiment, the CPU 31 adds the vibration count value VC of the current frame at the time Tj and the sum VSp of the vibration count values of the (x−1) frames immediately before that frame to obtain the x number of vibration count values at the time Tj. Obtain the sum VS (=VC+VSp) of the vibration count values of the frame.

なお、変形例では、CPU31は、時点Tjにおける現在のフレームの振動計数値VC、その直後のy個のフレームの振動計数値の総和VSf、及びその直前の(x-y-1)個のフレームの振動計数値の総和VSpを加算して、時点Tjにおけるx個のフレームの振動計数値の総和VS(=VC+VSf+VSp)を得るが、yはゼロ以上である。CPU31は、VS、VSf及びVSpの値をEEPROM34に格納する。好ましい実施形態では、x個のフレーム(音素ウィンドウTw)の継続時間(x×Tf)は、約0.3秒である。さらに好ましい実施形態では、x個のフレームのデジタル化された振動データに対応するサンプリングポイントの数は、x~16xの範囲にある。 In the modified example, the CPU 31 outputs the vibration count value VC of the current frame at the time Tj, the total sum VSf of the vibration count values of the y frames immediately after that, and the (xy-1) frames immediately before that. to obtain the sum of vibration counts VS (=VC+VSf+VSp) of x frames at time Tj, where y is greater than or equal to zero. The CPU 31 stores the values of VS, VSf and VSp in the EEPROM 34 . In the preferred embodiment, the duration of x frames (phoneme window Tw) (x×Tf) is approximately 0.3 seconds. In a further preferred embodiment, the number of sampling points corresponding to x frames of digitized vibration data is in the range of x to 16x.

一般的に、音声信号データについては、同じ音素では振動計数値VCの振動パターンが類似しているが、異なる音素ではVS値の振動パターンが全く異なる。従って、振動計数値VCの振動パターンを利用して、音素を区別することができる。特に、例えば鶏又は猫の鳴き声と、人間の音声とは、振動計数値VCの周波数分布に関して全く異なり、人間の音声の振動計数値VCのほとんどは40以下に分布していることが既知である。 In general, with respect to speech signal data, the vibration patterns of the vibration count values VC are similar for the same phoneme, but the vibration patterns of the VS values are completely different for different phonemes. Therefore, the vibration pattern of the vibration count value VC can be used to distinguish between phonemes. In particular, for example, the barking of a chicken or a cat and human speech are completely different in terms of the frequency distribution of the vibration coefficient VC, and it is known that most of the vibration coefficient VC of human speech is distributed below 40. .

学習フェーズにおいて、音声信号処理部30のCPU31は、まず、所定の音声信号データ収集方法を複数回実行して、複数の音素に対する複数の特徴ベクトルを収集し、複数の特徴ベクトルに対応するラベルを付加して、複数のラベル付き学習例を形成する。その後、起動音素を含む異なる音素に対する複数のラベル付き学習例を、深層学習モデル部35の学習に適用する。最後に、学習された深層学習モデル部35(音声信号データの予測モデルを構成する)を作成して、入力される音声信号データのストリームが起動音素を含むかどうかを分類する。音声信号処理部30の起動音素として、所定の音素が指定されている場合、深層学習モデル部35は、少なくとも当該指定された音素を含む異なる音素についての複数のラベル付き学習例で学習される。 In the learning phase, the CPU 31 of the speech signal processing unit 30 first executes a predetermined speech signal data collection method a plurality of times to collect a plurality of feature vectors corresponding to a plurality of phonemes, and labels corresponding to the plurality of feature vectors. Append to form multiple labeled training examples. A plurality of labeled training examples for different phonemes, including the starting phoneme, are then applied to training the deep learning model unit 35 . Finally, a trained deep learning model unit 35 (constituting a predictive model for the speech signal data) is created to classify whether the incoming speech signal data stream contains the activation phoneme. When a predetermined phoneme is specified as a starting phoneme for the audio signal processing unit 30, the deep learning model unit 35 is trained with a plurality of labeled training examples for different phonemes including at least the specified phoneme.

すなわち、学習段階では、ラベル付けされた学習例のセットを使用して深層学習モデル部35を学習し、それによって深層学習モデル部35が、ラベル付けされた学習例の各フレームの3つの音声特徴量(例えば、(VSj,TDj,TGj))に基づいて、j=0~299の間で、所定の起動音素を認識するようにする。学習段階の終わりに、学習された深層学習モデル部35は、当該起動音素に対応する学習されたスコアを提供し、学習されたスコアは、次に、入力される音声信号データのストリームをランタイムで分類するための基準として使用される。なお、VSj,TDj,TGjは以下のように定義される。
(1)VSj:フレームjの振動計数値の総和(VS値);
(2)TDj:フレームjにおいて、ゼロではない振動計数値の総和(VS値)の時間期間;及び
(3)TGj;フレームjにおける、ゼロではない振動計数値の総和(VS値)間の時間ギャップ(時間隙間)。
That is, in the training phase, the deep learning model portion 35 is trained using a set of labeled training examples, whereby the deep learning model portion 35 learns the three audio features of each frame of the labeled training examples. Based on the quantity (eg, (VSj, TDj, TGj)), we try to recognize a given activation phoneme between j=0-299. At the end of the learning phase, the trained deep learning model unit 35 provides a learned score corresponding to the activation phoneme, which is then converted at runtime to the incoming audio signal data stream. Used as criteria for classification. VSj, TDj, and TGj are defined as follows.
(1) VSj: sum of vibration count values (VS value) of frame j;
(2) TDj: the time period of the sum of non-zero vibration counts (VS values) at frame j; and (3) TGj: the time between the sums of non-zero vibration counts (VS values) at frame j. Gap (time gap).

深層学習モデル部35を学習するために、教師付き学習に関連する様々な機械学習技術を使用することができ、例えば、サポートベクターマシン(SVM)法、ランダムフォレスト法、畳み込みニューラルネットワーク法などを利用できる。教師付き学習では、複数のラベル付けされた学習例を使用して関数計算部(すなわち、深層学習モデル部35)が作成され、その各例は、入力特徴ベクトルとラベル付けされた出力からなる。学習されたとき、深層学習モデル部35は、対応するスコア又は予測値を生成するために、新しいラベルのない例に適用することができる。 Various machine learning techniques related to supervised learning can be used to train the deep learning model portion 35, such as support vector machine (SVM) methods, random forest methods, convolutional neural network methods, etc. can. In supervised learning, a function calculator (i.e., deep learning model portion 35) is created using a plurality of labeled training examples, each of which consists of an input feature vector and a labeled output. When trained, deep learning model portion 35 can be applied to new unlabeled examples to generate corresponding scores or predictions.

図3は図2の深層学習モデル部35の詳細構成例を示すブロック図である。 FIG. 3 is a block diagram showing a detailed configuration example of the deep learning model unit 35 of FIG.

深層学習モデル部35は、例えば、図3に示すように、ニューラルネットワークを用いて実装される。ここで、ニューラルネットワークは、1つの入力層41と、少なくとも1つであり好ましくは複数の中間層42と、1つの出力層43を含む。入力層41には3つの入力ニューロン51,52,53があり、各入力ニューロン51,52,53は、特徴ベクトルの各フレームの3つのオーディオ特徴値(すなわち、VSj,TDj,TGj)に対応する。また、中間層42は、各入力ニューロン51,52,53に関連する重み係数と各ニューロンのバイアス係数を有するニューロン61~74で構成される。学習フェーズのサイクルを通じて中間層42の各ニューロン61~74の重み係数とバイアス係数を変更することにより,ニューラルネットワークを学習して,所定の種類の入力に対する予測値を報告するようにすることができる。さらに、出力層43は、音素に対応する1つの予測値(具体的には、音声期間であるか、ノイズを含む非音声期間であるかを示す)を提供する1つの出力ニューロン81を含む。 The deep learning model unit 35 is implemented using a neural network, as shown in FIG. 3, for example. Here, the neural network comprises one input layer 41 , at least one and preferably several intermediate layers 42 and one output layer 43 . The input layer 41 has three input neurons 51, 52, 53, each input neuron 51, 52, 53 corresponding to three audio feature values (i.e., VSj, TDj, TGj) of each frame of the feature vector. . The intermediate layer 42 is also composed of neurons 61-74 having weight coefficients associated with each input neuron 51, 52, 53 and bias coefficients for each neuron. By changing the weighting and biasing factors of each neuron 61-74 of the hidden layer 42 through cycles of the learning phase, the neural network can be trained to report a predicted value for a given type of input. . In addition, the output layer 43 includes one output neuron 81 that provides one prediction value corresponding to a phoneme (specifically indicating whether it is a speech period or a non-speech period containing noise).

以上説明したように、前記ノイズキャンセル部において、深層学習モデル部35は、人間の音声の特徴パラメータを用いて学習され、入力される音声信号からノイズを含む非音声期間であるか否かを判定する。そして、音声信号処理部30のCPU31は、深層学習モデル部35の前記判定に基づいて、入力される音声信号からノイズを含む非音声期間を通過させないようにノイズキャンセル処理を行って、前記ノイズキャンセル処理後の音声信号を出力する。ここで、深層学習モデル部35は、人間の音声の特徴パラメータを入力とし、入力される音声信号からノイズを含む非音声期間であるか否かを判定する判定結果を出力とする、図3のニューラルネットワークにより構成される。 As described above, in the noise cancellation unit, the deep learning model unit 35 learns using the feature parameters of human speech, and determines whether or not it is a non-speech period containing noise from the input speech signal. do. Then, the CPU 31 of the audio signal processing unit 30 performs noise cancellation processing so as not to pass the non-speech period containing noise from the input audio signal based on the determination of the deep learning model unit 35, and performs the noise cancellation. Outputs the processed audio signal. Here, the deep learning model unit 35 receives as input the characteristic parameters of human speech, and outputs the determination result of determining whether or not the input speech signal is a non-speech period containing noise. It consists of a neural network.

図4は図1の複数の無線機1A~1Dを含む無線通信システムの動作例を示すブロック図である。図4において、無線機1の構成をそれぞれ有する無線機1A~1Dが所定の通話限界距離(カバレージエリア)内に配置され、そのうち無線機1A~1Cが所定のノイズスケルチでの通話限界距離内に配置されているものとする。 FIG. 4 is a block diagram showing an operation example of a radio communication system including the plurality of radios 1A to 1D of FIG. In FIG. 4, radios 1A to 1D each having the configuration of radio 1 are arranged within a predetermined communication limit distance (coverage area), and among them, radios 1A to 1C are within a predetermined communication limit distance with noise squelch. shall be placed.

図4に示すように、復調した音声信号をスピーカ15に出力する前段でノイズキャンセル部13に通すことによって、無信号に近くなってきた際のホワイトノイズが無くなり、図4における無線機1Cは通話限界距離に近づいていっても受信音声はクリアな音声を保ち続ける。また、従来のノイズスケルチ回路の代わりに、深層学習モデル部35を利用するノイズキャンセル部13を用いてノイズキャンセルすることで、無信号状態のノイズの出力を停止させる(又は軽減させる)ことにより、本来受信できる音声信号も出力停止させることが無い。従って、図4における無線機1Dは限界通話距離ギリギリまで受信された音声信号を出力でき、ノイズスケルチ回路に比べて通話距離を延ばすことが可能となる。 As shown in FIG. 4, by passing the demodulated audio signal through the noise canceling unit 13 before outputting it to the speaker 15, white noise is eliminated when there is almost no signal, and the radio 1C in FIG. Even when approaching the limit distance, the received voice continues to keep clear voice. In addition, instead of the conventional noise squelch circuit, by canceling noise using the noise canceling unit 13 that uses the deep learning model unit 35, the output of noise in the no-signal state is stopped (or reduced). The output of the audio signal that can be originally received is not stopped. Therefore, the radio device 1D in FIG. 4 can output the received audio signal to the very limit of the communication distance, and the communication distance can be extended compared to the noise squelch circuit.

以上詳述したように、本発明に係る無線通信装置によれば、従来のノイズスケルチ回路の代わりに、深層学習モデル部35を利用するノイズキャンセル部13を用いてノイズキャンセルすることで、従来技術における通話距離による受信音声の劣化を対策しつつ、通話限界距離を向上させることができる。 As described in detail above, according to the wireless communication device according to the present invention, noise is canceled using the noise canceling unit 13 using the deep learning model unit 35 instead of the conventional noise squelch circuit. It is possible to improve the call limit distance while taking measures against the deterioration of the received voice due to the call distance.

1,1A~1D 無線機
11 受信アンテナ
12 受信復調部
13 ノイズキャンセル部
14 音声信号増幅器
15 スピーカ
16 ノイズ量及び電界強度検出部
17 ノイズスケルチによる受信音声ミュート部
20 制御部
21 操作部
21A PTTキー
22 マイクロホン
23 音声信号増幅器
24 変調送信部
25 送信アンテナ
30 音声信号処理部
31 CPU
32 ROM
33 RAM
34 EEPROM
35 深層学習モデル部
36 入力インターフェース
37 出力インターフェース
38 音声信号前置処理部
39 AD変換器
41 入力層
42 中間層
43 出力層
51~81 ニューロン
100,100A~100D 無線機
1, 1A to 1D Wireless device 11 Receiving antenna 12 Receiving demodulator 13 Noise canceler 14 Audio signal amplifier 15 Speaker 16 Noise amount and electric field strength detector 17 Received audio mute unit 20 by noise squelch Control unit 21 Operation unit 21A PTT key 22 Microphone 23 Audio signal amplifier 24 Modulation transmitter 25 Transmission antenna 30 Audio signal processor 31 CPU
32 ROMs
33 RAM
34 EEPROMs
35 deep learning model unit 36 input interface 37 output interface 38 audio signal preprocessing unit 39 AD converter 41 input layer 42 intermediate layer 43 output layer 51 to 81 neurons 100, 100A to 100D wireless device

Claims (6)

受信された無線信号を音声信号に復調する受信復調部を備える無線通信装置において、
前記復調された音声信号からノイズをキャンセルするように音声信号処理を行うノイズキャンセル部を備え、
前記ノイズキャンセル部は、人間の音声の特徴パラメータを用いて学習され、前記復調された音声信号からノイズを含む非音声期間であるか否かを判定する深層学習モデル部を用いて、ノイズキャンセル処理を行う、無線通信装置。
A wireless communication device comprising a receiving demodulator that demodulates a received wireless signal into an audio signal,
A noise canceling unit that performs audio signal processing to cancel noise from the demodulated audio signal,
The noise cancellation unit performs noise cancellation processing using a deep learning model unit that is learned using characteristic parameters of human speech and determines whether or not it is a non-speech period containing noise from the demodulated speech signal. wireless communication device.
前記受信された無線信号は、所定の音声信号に従って周波数変調方式又は位相変調方式で変調される、請求項1に記載の無線通信装置。 2. The radio communication device according to claim 1, wherein the received radio signal is modulated by a frequency modulation method or a phase modulation method according to a predetermined voice signal. 前記ノイズキャンセル部は、前記深層学習モデル部の前記判定に基づいて、入力される音声信号からノイズを含む非音声期間を通過させないようにノイズキャンセル処理を行って、前記ノイズキャンセル処理後の音声信号を出力する音声信号処理部を備える、
請求項1又は2に記載の無線通信装置。
The noise cancellation unit, based on the determination of the deep learning model unit, performs noise cancellation processing so as not to pass a non-speech period containing noise from the input audio signal, and the audio signal after the noise cancellation processing. provided with an audio signal processing unit that outputs
The radio communication device according to claim 1 or 2.
前記ノイズキャンセル部は、
前記音声信号処理部の前段に設けられ、入力される音声信号に対して、人間の音声信号の所定のレベル範囲であって、所定の帯域幅のみを通過させる音声信号前置処理部をさらに備える、請求項3に記載の無線通信装置。
The noise cancellation unit is
Further comprising an audio signal pre-processing unit provided in the preceding stage of the audio signal processing unit for passing only an input audio signal within a predetermined level range of a human audio signal and a predetermined bandwidth. 4. The wireless communication device of claim 3.
前記深層学習モデル部は、人間の音声の特徴パラメータを入力とし、入力される音声信号からノイズを含む非音声期間であるか否かを判定する判定結果を出力とする、所定のニューラルネットワークにより構成される、請求項1~4のうちのいずれか1つに記載の無線通信装置。 The deep learning model unit is composed of a predetermined neural network that receives characteristic parameters of human speech as an input and outputs a determination result that determines whether or not the input speech signal is a non-speech period containing noise. The radio communication device according to any one of claims 1 to 4, wherein the radio communication device is 前記無線通信装置は、特定小電力無線通信システムのための無線通信装置である特定小電力無線局である、請求項1~5のうちのいずれか1つに記載の無線通信装置。 The wireless communication device according to any one of claims 1 to 5, wherein said wireless communication device is a specified low power radio station which is a wireless communication device for a specified low power wireless communication system.
JP2021102426A 2021-06-21 2021-06-21 wireless communication device Active JP7221335B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021102426A JP7221335B2 (en) 2021-06-21 2021-06-21 wireless communication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021102426A JP7221335B2 (en) 2021-06-21 2021-06-21 wireless communication device

Publications (2)

Publication Number Publication Date
JP2023001605A true JP2023001605A (en) 2023-01-06
JP7221335B2 JP7221335B2 (en) 2023-02-13

Family

ID=84688710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021102426A Active JP7221335B2 (en) 2021-06-21 2021-06-21 wireless communication device

Country Status (1)

Country Link
JP (1) JP7221335B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000515987A (en) * 1996-07-03 2000-11-28 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー Voice activity detector
JP2002149200A (en) * 2000-08-31 2002-05-24 Matsushita Electric Ind Co Ltd Device and method for processing voice
JP2003058197A (en) * 2001-08-06 2003-02-28 Culture Com Technology (Macau) Ltd Processing method for audio signal
JP2006128836A (en) * 2004-10-27 2006-05-18 Hitachi Kokusai Electric Inc Digital wireless terminal
JP2020155866A (en) * 2019-03-19 2020-09-24 株式会社Jvcケンウッド Management device, management method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000515987A (en) * 1996-07-03 2000-11-28 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー Voice activity detector
JP2002149200A (en) * 2000-08-31 2002-05-24 Matsushita Electric Ind Co Ltd Device and method for processing voice
JP2003058197A (en) * 2001-08-06 2003-02-28 Culture Com Technology (Macau) Ltd Processing method for audio signal
JP2006128836A (en) * 2004-10-27 2006-05-18 Hitachi Kokusai Electric Inc Digital wireless terminal
JP2020155866A (en) * 2019-03-19 2020-09-24 株式会社Jvcケンウッド Management device, management method and program

Also Published As

Publication number Publication date
JP7221335B2 (en) 2023-02-13

Similar Documents

Publication Publication Date Title
KR100944252B1 (en) Detection of voice activity in an audio signal
US6001131A (en) Automatic target noise cancellation for speech enhancement
US6993481B2 (en) Detection of speech activity using feature model adaptation
US9064502B2 (en) Speech intelligibility predictor and applications thereof
KR100636317B1 (en) Distributed Speech Recognition System and method
US7912231B2 (en) Systems and methods for reducing audio noise
US7231347B2 (en) Acoustic signal enhancement system
EP2353159B1 (en) Audio source proximity estimation using sensor array for noise reduction
JP3878482B2 (en) Voice detection apparatus and voice detection method
US20080228478A1 (en) Targeted speech
JPH09502814A (en) Voice activity detector
US8340964B2 (en) Speech and music discriminator for multi-media application
Enqing et al. Voice activity detection based on short-time energy and noise spectrum adaptation
US7318030B2 (en) Method and apparatus to perform voice activity detection
JP7179128B1 (en) Wireless communication device and wireless communication system
JP7221335B2 (en) wireless communication device
US8606569B2 (en) Automatic determination of multimedia and voice signals
JP2023001754A (en) Wireless communication device and wireless communication system
JP7100746B1 (en) Wireless relay device and wireless communication system
JP6979146B1 (en) External microphone device and communication device
JP7071579B1 (en) Digital wireless transmitters and digital wireless communication systems
JP2023061676A (en) Howling prevention circuit, microphone device and electronic device
Asgari et al. Voice activity detection using entropy in spectrum domain
KR20110078091A (en) Apparatus and method for controlling equalizer
KR100284772B1 (en) Voice activity detecting device and method therof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230201

R150 Certificate of patent or registration of utility model

Ref document number: 7221335

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150