JP2007114239A - Device and method for controlling musical sound - Google Patents

Device and method for controlling musical sound Download PDF

Info

Publication number
JP2007114239A
JP2007114239A JP2005302462A JP2005302462A JP2007114239A JP 2007114239 A JP2007114239 A JP 2007114239A JP 2005302462 A JP2005302462 A JP 2005302462A JP 2005302462 A JP2005302462 A JP 2005302462A JP 2007114239 A JP2007114239 A JP 2007114239A
Authority
JP
Japan
Prior art keywords
distance
audio signal
microphone
coefficient
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005302462A
Other languages
Japanese (ja)
Inventor
Tatsuya Dejima
達也 出嶌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2005302462A priority Critical patent/JP2007114239A/en
Publication of JP2007114239A publication Critical patent/JP2007114239A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve singing ability better than actual by improving tone quality. <P>SOLUTION: A musical sound controller includes: a microphone element 5 for outputting a voice signal according to a voice input to a microphone 1; a distance sensor 6 for detecting the distance between the microphone 1 and the mouth of a singer whose voice is to be input; and a CPU and DSP part which apply effect processing to the voice signal outputted from the microphone element 5 according to the distance detected by the distance sensor 6. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、楽音制御装置および楽音制御方法に関し、特に、マイクロフォンから出力される音声信号を制御する楽音制御装置および楽音制御方法に関するものである。   The present invention relates to a musical tone control device and a musical tone control method, and more particularly to a musical tone control device and a musical tone control method for controlling an audio signal output from a microphone.

広く普及しているカラオケシステムにおいては、歌唱する対象者は伴奏曲に合わせてマイクロフォンに音声を入力する。伴奏曲は自動演奏装置によって生成されるが、近年のカラオケシステムの中には、この自動演奏装置に様々な機能を持たせた製品がある。また、自動演奏装置の機能に関する提案もいくつかなされている。例えば、ある提案の歌唱力採点機能付自動演奏装置においては、カラオケで大きく歌うべき場合には通常、人は声を張り上げるのではなく、声の大きさは変えないでマイクロフォンを口に近づけることが多い。そこで、マイクロフォンと歌唱者の口との距離の遠近を判定すれば、歌唱者が一定の音量で歌うべき箇所で、そのように歌っているかどうかが間接的に判断できることに着目して、歌唱者が歌唱する際、あらかじめ生成された時点ごとに、マイクロフォンと歌唱者の口との距離の遠近、および、あらかじめ記憶された歌唱の手本となるメロディデータの音量値を検知して、そのメロディデータの音量値の大小と、マイクロフォンと歌唱者の口との距離の遠近とを対比することによって、歌唱者の歌唱力を採点する構成になっている(特許文献1参照)。
特開平5−181407号公報
In a widely used karaoke system, a person who sings inputs voice to a microphone in accordance with an accompaniment. Accompaniment music is generated by an automatic performance device. In recent karaoke systems, there are products in which this automatic performance device has various functions. There have also been some proposals regarding the functions of automatic performance devices. For example, in a proposed automatic performance device with a singing ability scoring function, when singing loudly at karaoke, a person usually does not raise his voice, and the microphone can be brought closer to the mouth without changing the volume of the voice. Many. Therefore, if the distance between the microphone and the singer's mouth is determined, the singer can indirectly determine whether or not the singer is singing at a certain volume. When singing, it detects the distance between the microphone and the singer's mouth and the volume value of the melody data that serves as a pre-stored example of singing for each melody data. The singing ability of the singer is scored by comparing the magnitude of the volume of the sound and the distance between the microphone and the singer's mouth (see Patent Document 1).
JP-A-5-181407

しかしながら、上記特許文献1を含めた従来の技術においては、歌唱力を採点することは可能であるが、歌唱力を実際よりも向上させるものではない。今日のように広く普及しているカラオケは、歌唱力を競い合うというより、会社などの団体における親睦、宴会、接待などのイベントとして利用されている。しかし、歌唱力に自身のない人にとっては皆の前で歌うことは恥ずかしく、カラオケのイベントを伴う親睦、宴会、接待などは苦痛を伴うことになる。一方、自己顕示欲の強い人の場合には、プロの歌手をまねてマイクロフォンに口を近づけ過ぎて歌ったり、大声で歌ったりすることが多い。マイクロフォンに口を近づけ過ぎる場合には、ブレスノイズ(息継ぎノイズ)、口腔内の唾の粘性による音、舌が口腔内であばれる音などの不快な音が発生する。また、大声で歌うことも聞いている人たちに不快感を与える結果となる。
本発明は、このような従来の課題を解決するためのものであり、マイクロフォンから出力される音声信号を制御することによって、音質を向上させて歌唱力を実際よりも高めることを目的とする。さらに、マイクロフォンから出力される音声信号を制御することによって、ブレスノイズや口腔内の不快な音を抑制することを目的とする。
However, in the conventional techniques including the above-mentioned Patent Document 1, it is possible to score the singing ability, but the singing ability is not improved more than the actual one. Karaoke that is widespread like today is used for events such as relatives, banquets and entertainment in organizations such as companies rather than competing for singing ability. However, it is embarrassing to sing in front of everyone for those who do not have singing ability, and relatives, banquets, entertainment etc. accompanied by karaoke events are painful. On the other hand, in the case of a person who has a strong desire for self-revelation, it is often the case that a professional singer is imitated with a mouth too close to a microphone or sings loudly. When the mouth is brought too close to the microphone, unpleasant sounds such as breath noise (breathing noise), sound due to the viscosity of saliva in the oral cavity, and sound that the tongue is swallowed in the oral cavity are generated. Also, singing out loud can cause discomfort to those who are listening.
An object of the present invention is to solve such a conventional problem, and it is an object of the present invention to improve the singing ability by improving the sound quality by controlling an audio signal output from a microphone. Furthermore, it aims at suppressing breath noise and an unpleasant sound in the oral cavity by controlling the audio signal output from the microphone.

請求項1に記載の楽音制御装置は、マイクロフォンに入力される音声に応じて音声信号を出力する信号発生手段(実施形態においては、図2のマイク素子5に相当する)と、マイクロフォンと音声入力の対象者の口又はその周辺との距離を検出する距離検出手段(実施形態においては、図2の距離センサ6および図4のCPU10に相当する)と、距離検出手段によって検出された距離に応じて信号発生手段から出力される音声信号に対してエフェクト処理を施す信号処理手段(実施形態においては、図4のCPU10およびDSP部18に相当する)と、を備えた構成になっている。   The musical tone control apparatus according to claim 1 includes a signal generating means (in the embodiment, corresponding to the microphone element 5 in FIG. 2) for outputting a sound signal in accordance with the sound input to the microphone, the microphone and the sound input. Distance detection means (in the embodiment, corresponding to the distance sensor 6 in FIG. 2 and the CPU 10 in FIG. 4) and the distance detected by the distance detection means. And a signal processing means (in the embodiment, corresponding to the CPU 10 and the DSP unit 18 in FIG. 4) for effecting the audio signal output from the signal generating means.

請求項1の楽音制御装置において、請求項2に記載したように、信号処理手段は、前記マイクロフォン内に収容されているような構成にしてもよい。   In the musical tone control apparatus according to claim 1, as described in claim 2, the signal processing means may be configured to be accommodated in the microphone.

請求項1又は2の楽音制御装置において、請求項3に記載したように、距離検出手段は、マイクロフォンの外部に向けて光を照射してその反射光の強度によって距離を検出し、信号処理手段は、距離検出手段によって検出された距離に応じてエフェクト処理の係数(実施形態においては、図4のCPU10からDSP部18に入力される係数に相当する)を生成し、当該生成した係数によって信号発生手段から出力される音声信号を制御するような構成にしてもよい。   3. The musical tone control apparatus according to claim 1, wherein the distance detecting means irradiates light toward the outside of the microphone and detects the distance based on the intensity of the reflected light, and the signal processing means. Generates a coefficient of effect processing (corresponding to a coefficient input from the CPU 10 in FIG. 4 to the DSP unit 18 in FIG. 4) according to the distance detected by the distance detecting means, and a signal is generated by the generated coefficient. The audio signal output from the generating unit may be controlled.

請求項3の楽音制御装置において、請求項4に記載したように、信号処理手段は、生成した係数によって信号発生手段から出力される音声信号の周波数・ゲイン特性を制御するような構成にしてもよい。
あるいは、請求項3の楽音制御装置において、請求項5に記載したように、信号処理手段は、生成した係数によって信号発生手段から出力される音声信号のカットオフ周波数を制御するような構成にしてもよい。
あるいは、請求項3の楽音制御装置において、請求項6に記載したように、信号処理手段は、生成した係数によって信号発生手段から出力される音声信号の共振の急峻性であるQファクタを制御するような構成にしてもよい。
あるいは、請求項3の楽音制御装置において、請求項7に記載したように、信号処理手段は、生成した係数によって信号発生手段から出力される音声信号の出力レベルを制御するような構成にしてもよい。
あるいは、請求項3の楽音制御装置において、請求項8に記載したように、信号処理手段は、信号発生手段から出力される音声信号のレベルが所定の閾値以下である場合に、距離検出手段によって検出された距離が近いほど当該出力される音声信号のレベルを大きく減衰するための係数を生成するような構成にしてもよい。
あるいは、請求項3の楽音制御装置において、請求項9に記載したように、信号処理手段は、信号発生手段から出力される音声信号のレベルが所定の閾値以上である場合に、距離検出手段によって検出された距離が近いほど当該出力される音声信号のレベルを大きく減衰するための係数を生成するような構成にしてもよい。
4. The musical tone control apparatus according to claim 3, wherein the signal processing means controls the frequency / gain characteristics of the audio signal output from the signal generating means by the generated coefficient. Good.
Alternatively, in the musical tone control apparatus according to claim 3, as described in claim 5, the signal processing means is configured to control a cutoff frequency of the audio signal output from the signal generating means by the generated coefficient. Also good.
Alternatively, in the musical tone control apparatus according to claim 3, as described in claim 6, the signal processing means controls the Q factor which is the steepness of resonance of the audio signal output from the signal generating means by the generated coefficient. Such a configuration may be adopted.
Alternatively, in the musical tone control apparatus according to claim 3, as described in claim 7, the signal processing means controls the output level of the audio signal output from the signal generating means by the generated coefficient. Good.
Alternatively, in the musical tone control device according to claim 3, as described in claim 8, when the level of the audio signal output from the signal generation unit is equal to or less than a predetermined threshold, the signal processing unit A configuration may be adopted in which a coefficient for greatly attenuating the level of the output audio signal is generated as the detected distance is shorter.
Alternatively, in the musical tone control apparatus according to claim 3, as described in claim 9, when the level of the audio signal output from the signal generation unit is equal to or higher than a predetermined threshold, the signal processing unit A configuration may be adopted in which a coefficient for greatly attenuating the level of the output audio signal is generated as the detected distance is shorter.

請求項9の楽音制御装置において、請求項10に記載したように、信号処理手段は、信号発生手段から出力される音声信号のレベルが所定の閾値以上である場合に、距離検出手段によって検出された距離が近いほど当該閾値を高く変更するような構成にしてもよい。   In the musical tone control apparatus according to claim 9, as described in claim 10, the signal processing means is detected by the distance detection means when the level of the audio signal output from the signal generation means is equal to or higher than a predetermined threshold value. The threshold may be changed higher as the distance is shorter.

請求項1又は2の楽音制御装置において、請求項11に記載したように、距離検出手段によって検出された距離に応じて、信号発生手段から出力される音声信号の立ち上がりのアタック時間および又は消音までのリリース時間を制御するような構成にしてもよい。   In the musical tone control device according to claim 1 or 2, until the attack time and / or mute of the rise of the audio signal output from the signal generating means according to the distance detected by the distance detecting means as described in claim 11. The release time may be controlled.

請求項12に記載の楽音制御方法は、入力される音声に応じて音声信号を出力する信号発生手段(実施形態においては、図2のマイク素子5に相当する)を有するマイクロフォンと音声入力の対象者の口又はその周辺との距離を距離検出手段(実施形態においては、図2の距離センサ6に相当する)によって検出するステップAと、ステップAによって検出された距離に応じて信号発生手段から出力される音声信号に対してエフェクト処理を施すステップBと、を実行する構成になっている。
実施形態においては、ステップAは、図4のCPU10の処理に相当し、ステップBは、図4のCPU10およびDSP部18の処理に相当する。
A musical sound control method according to a twelfth aspect of the present invention includes a microphone having signal generation means (corresponding to the microphone element 5 of FIG. 2 in the embodiment) that outputs a sound signal in accordance with an input sound and a sound input target. Step A for detecting the distance from the person's mouth or its surroundings by distance detecting means (corresponding to the distance sensor 6 in FIG. 2 in the embodiment), and from the signal generating means according to the distance detected by Step A Step B for performing effect processing on the audio signal to be output is executed.
In the embodiment, Step A corresponds to the processing of the CPU 10 in FIG. 4, and Step B corresponds to the processing of the CPU 10 and the DSP unit 18 in FIG. 4.

請求項12に記載の楽音制御方法において、請求項13に記載したように、ステップBは、マイクロフォン内に収容されている信号処理手段によってエフェクト処理を行うような構成にしてもよい。   In a musical sound control method according to a twelfth aspect, as described in the thirteenth aspect, the step B may be configured such that the effect processing is performed by the signal processing means accommodated in the microphone.

請求項12又は13に記載の楽音制御方法において、請求項14に記載したように、ステップAは、距離検出手段によってマイクロフォンの外部に向けて照射された光の反射光が受光されたときに当該反射光の強度によって距離を検出し、ステップBは、ステップAによって検出された距離に応じてエフェクト処理の係数(実施形態においては、図4のCPU10からDSP部18に入力される係数に相当する)を生成し、当該生成した係数によって信号発生手段から出力される音声信号を制御するような構成にしてもよい。   In the musical sound control method according to claim 12 or 13, as described in claim 14, the step A is performed when the reflected light of the light emitted toward the outside of the microphone is received by the distance detecting unit. The distance is detected based on the intensity of the reflected light, and step B corresponds to a coefficient for effect processing according to the distance detected in step A (in the embodiment, a coefficient input to the DSP unit 18 from the CPU 10 in FIG. 4). ) And the audio signal output from the signal generating means may be controlled by the generated coefficient.

請求項14に記載の楽音制御方法において、請求項15に記載したように、ステップBは、生成した係数によって信号発生手段から出力される音声信号の周波数・ゲイン特性を制御するような構成にしてもよい。
あるいは、請求項14に記載の楽音制御方法において、請求項16に記載したように、ステップBは、生成した係数によって信号発生手段から出力される音声信号のカットオフ周波数を制御するような構成にしてもよい。
あるいは、請求項14に記載の楽音制御方法において、請求項17に記載したように、ステップBは、生成した係数によって信号発生手段から出力される音声信号の共振の急峻性であるQファクタを制御するような構成にしてもよい。
あるいは、請求項14に記載の楽音制御方法において、請求項18に記載したように、ステップBは、生成した係数によって信号発生手段から出力される音声信号の出力レベルを制御するような構成にしてもよい。
あるいは、請求項14に記載の楽音制御方法において、請求項18に記載したように、ステップBは、信号発生手段から出力される音声信号のレベルが所定の閾値以下である場合に、ステップAによって検出された距離が近いほど当該出力される音声信号のレベルを大きく減衰するための係数を生成するような構成にしてもよい。
あるいは、請求項14に記載の楽音制御方法において、請求項19に記載したように、ステップBは、信号発生手段から出力される音声信号のレベルが所定の閾値以上である場合に、ステップAによって検出された距離が近いほど当該出力される音声信号のレベルを大きく減衰するための係数を生成するような構成にしてもよい。
15. The musical sound control method according to claim 14, wherein the step B is configured to control the frequency / gain characteristics of the audio signal output from the signal generating means by the generated coefficient, as described in claim 15. Also good.
Alternatively, in the musical sound control method according to claim 14, as described in claim 16, step B is configured to control the cutoff frequency of the audio signal output from the signal generating means by the generated coefficient. May be.
Alternatively, in the musical sound control method according to claim 14, as described in claim 17, step B controls the Q factor which is the steepness of resonance of the audio signal output from the signal generating means by the generated coefficient. You may make it the structure which does.
Alternatively, in the musical sound control method according to claim 14, as described in claim 18, step B is configured to control the output level of the audio signal output from the signal generating means by the generated coefficient. Also good.
Alternatively, in the musical sound control method according to claim 14, as described in claim 18, when the level of the audio signal output from the signal generation unit is equal to or lower than a predetermined threshold, step B is performed by step A. A configuration may be adopted in which a coefficient for greatly attenuating the level of the output audio signal is generated as the detected distance is shorter.
Alternatively, in the musical sound control method according to claim 14, as described in claim 19, when the level of the audio signal output from the signal generating means is equal to or higher than a predetermined threshold, step B is performed by step A. A configuration may be adopted in which a coefficient for greatly attenuating the level of the output audio signal is generated as the detected distance is shorter.

請求項20に記載の楽音制御方法において、請求項21に記載したように、ステップBは、信号発生手段から出力される音声信号のレベルが所定の閾値以上である場合に、ステップAによって検出された距離が近いほど当該閾値を高く変更するような構成にしてもよい。   In the musical tone control method according to claim 20, as described in claim 21, step B is detected by step A when the level of the audio signal output from the signal generating means is equal to or higher than a predetermined threshold value. The threshold may be changed higher as the distance is shorter.

請求項12又は13に記載の楽音制御方法において、請求項22に記載したように、ステップBは、ステップAによって検出された距離に応じて、信号発生手段から出力される音声信号の立ち上がりのアタック時間および又は消音までのリリース時間を制御するような構成にしてもよい。   14. The musical sound control method according to claim 12 or 13, wherein, as described in claim 22, step B is an attack of rising of an audio signal output from the signal generating means according to the distance detected in step A. It may be configured to control the time and / or the release time until the sound is muted.

本発明の楽音制御装置および楽音制御方法によれば、音質を向上させて歌唱力を実際よりも高めるような効果が得られる。さらに、ブレスノイズや口腔内の不快な音を抑制するという効果が得られる。   According to the musical tone control apparatus and musical tone control method of the present invention, it is possible to obtain an effect that the sound quality is improved and the singing ability is increased more than actual. Furthermore, the effect of suppressing breath noise and unpleasant sounds in the oral cavity can be obtained.

以下、本発明による楽音制御装置およびその楽音制御方法の第1実施形態ないし第8実施形態について、図を参照して詳細に説明する。
図1は、各実施形態に共通するカラオケ用のマイクロフォン1の外観図であり、メッシュ状又は多数の孔が形成されたマイクカバー2が取り付けられている。図2は、マイクロフォン1の内部の構造を示す図である。マイクカバー2には開口部3が形成され、マイクカバー2の奥のマイクロフォン1の内部には基板4が取り付けられている。その基板4には、マイクカバー2を通して入力される音声を電気信号に変換して音声信号を出力するマイク素子5、マイクロフォン1と音声入力の対象者すなわち歌い手の口又はその周辺(例えば、下唇の周辺の部分や上唇の周辺の鼻若しくは鼻の下の部分;以下、総称して口という)との距離を検出する距離センサ6が搭載されている。図には示していないが、距離センサ6には、マイクロフォン1の外側に向けて赤外線を照射する発光素子、口で反射した赤外線の反射光を受光して光電変換し、反射光の光量に応じた検出信号を出力する受光素子が内蔵されている。マイク素子5からの音声信号はリード線7によってマイクロフォン1から出力され、距離センサ6からの検出信号はリード線8によってマイクロフォン1から出力される。
図3は、距離センサ6から歌い手の口までの距離D(cm)と、反射光を光電変換したときの検出信号のレベルE(mV)との関係を表す図である。この図に示すように、距離D(cm)と検出信号のレベルE(mV)とは反比例の関係になっている。
DESCRIPTION OF EMBODIMENTS Hereinafter, a first embodiment to an eighth embodiment of a musical tone control device and a musical tone control method according to the present invention will be described in detail with reference to the drawings.
FIG. 1 is an external view of a karaoke microphone 1 common to each embodiment, and a microphone cover 2 in which a mesh shape or a plurality of holes are formed is attached. FIG. 2 is a diagram showing an internal structure of the microphone 1. An opening 3 is formed in the microphone cover 2, and a substrate 4 is attached inside the microphone 1 behind the microphone cover 2. The substrate 4 has a microphone element 5 that converts sound input through the microphone cover 2 into an electrical signal and outputs a sound signal, a microphone 1 and a voice input target, that is, a singer's mouth or its periphery (for example, lower lip). And a distance sensor 6 for detecting the distance from the nose around the upper lip and the nose around the upper lip or the part under the nose (hereinafter collectively referred to as the mouth). Although not shown in the drawing, the distance sensor 6 is a light emitting element that irradiates infrared rays toward the outside of the microphone 1, receives infrared reflected light reflected from the mouth, photoelectrically converts it, and responds to the amount of reflected light. A light receiving element for outputting a detection signal is incorporated. The audio signal from the microphone element 5 is output from the microphone 1 through the lead wire 7, and the detection signal from the distance sensor 6 is output from the microphone 1 through the lead wire 8.
FIG. 3 is a diagram showing the relationship between the distance D (cm) from the distance sensor 6 to the mouth of the singer and the level E (mV) of the detection signal when the reflected light is photoelectrically converted. As shown in this figure, the distance D (cm) and the detection signal level E (mV) are in an inversely proportional relationship.

図4は、本発明による楽音制御装置を用いた各実施形態に共通のカラオケシステムの構成を示すブロック図である。図4において、CPU10は、システムバス11を介して、プログラムROM12、ワークRAM13、操作スイッチ14、表示部15、音源16、曲データROM17、DSP(Digital Signal Processor)部18、および図2に示した距離センサ6からの検出信号を入力するA/D変換回路9に接続されている。CPU10は、システムバス11を介して接続された上記各部との間でデータやコマンドを授受してカラオケシステム全体を制御する。A/D変換回路9は、距離センサ6からの検出信号のレベルE(mV)をアナログからデジタルに変換して、図3に示した関係に基づいて、マイクロフォン1と歌い手の口との距離データとしてCPU10に入力する。以下、距離センサ6およびA/D変換回路9を総称して「センサ部」という。   FIG. 4 is a block diagram showing a configuration of a karaoke system common to the embodiments using the musical tone control apparatus according to the present invention. In FIG. 4, a CPU 10 is connected to a program ROM 12, a work RAM 13, an operation switch 14, a display unit 15, a sound source 16, a music data ROM 17, a DSP (Digital Signal Processor) unit 18, and the system bus 11 via the system bus 11. It is connected to an A / D conversion circuit 9 for inputting a detection signal from the distance sensor 6. The CPU 10 controls the entire karaoke system by exchanging data and commands with the above-described units connected via the system bus 11. The A / D conversion circuit 9 converts the level E (mV) of the detection signal from the distance sensor 6 from analog to digital, and based on the relationship shown in FIG. 3, distance data between the microphone 1 and the singer's mouth As input to the CPU 10. Hereinafter, the distance sensor 6 and the A / D conversion circuit 9 are collectively referred to as a “sensor unit”.

プログラムROM12は、CPU10によって実行される楽音制御処理のプログラムや初期データなどをあらかじめ格納している。ワークRAM13は、CPU10によって処理されるデータを一時的に記憶するワークエリアであり、各種のレジスタ、フラグが設けられている。操作スイッチ14は、曲選択キー、曲スタートキー、曲停止キーなどのスイッチ群で構成され、操作に応じたコマンドやデータをCPU10に入力する。表示部15は、カラオケ曲のリストや歌詞などを表示する。音源16は、PCM波形データなどを記憶する波形ROMを内蔵しており、CPU10の発音コマンドに応じて、デジタルの楽音信号を生成する。曲データROM17は、カラオケの伴奏曲の楽音データおよび歌詞データを記憶している。   The program ROM 12 stores a musical tone control processing program executed by the CPU 10 and initial data in advance. The work RAM 13 is a work area that temporarily stores data processed by the CPU 10, and is provided with various registers and flags. The operation switch 14 includes a switch group such as a song selection key, a song start key, and a song stop key, and inputs commands and data corresponding to the operation to the CPU 10. The display unit 15 displays a list of karaoke songs and lyrics. The sound source 16 has a built-in waveform ROM for storing PCM waveform data and the like, and generates a digital musical tone signal in accordance with the sound generation command of the CPU 10. The song data ROM 17 stores musical tone data and lyrics data of karaoke accompaniment.

一方、図2に示したマイク素子5はプリアンプ19に接続されている。プリアンプ19は、マイク素子5から出力される音声信号を増幅してA/D変換回路20に入力する。A/D変換回路20は、その音声信号をアナログからデジタルに変換してDSP部18に入力する。以下、マイク素子5、プリアンプ19、およびA/D変換回路20を総称して「マイク部」という。音源16は、CPU10によって曲データROM17から読み出されて入力されたカラオケの伴奏曲に応じて、内部の波形ROMから読み出した波形データに基づいて伴奏曲の楽音信号を生成してDSP部18に入力する。DSP部18は、CPU10からの係数に基づいてマイク部から入力される音声信号に対する信号処理を行って、その音声信号と伴奏曲の楽音信号とを合成し、さらにエフェクト処理を施してD/A変換回路21に入力する。D/A変換回路21は、DSP部18から入力された合成信号をデジタルからアナログに変換し、パワーアンプ22に入力してスピーカ23から発音させる。   On the other hand, the microphone element 5 shown in FIG. 2 is connected to the preamplifier 19. The preamplifier 19 amplifies the audio signal output from the microphone element 5 and inputs the amplified audio signal to the A / D conversion circuit 20. The A / D conversion circuit 20 converts the audio signal from analog to digital and inputs it to the DSP unit 18. Hereinafter, the microphone element 5, the preamplifier 19, and the A / D conversion circuit 20 are collectively referred to as a “microphone unit”. The sound source 16 generates an accompaniment musical tone signal based on the waveform data read from the internal waveform ROM in accordance with the karaoke accompaniment read and input from the song data ROM 17 by the CPU 10 to the DSP unit 18. input. The DSP unit 18 performs signal processing on the audio signal input from the microphone unit based on the coefficient from the CPU 10, synthesizes the audio signal and the musical tone signal of the accompaniment music, further performs effect processing, and performs D / A Input to the conversion circuit 21. The D / A conversion circuit 21 converts the composite signal input from the DSP unit 18 from digital to analog, and inputs it to the power amplifier 22 to generate sound from the speaker 23.

図5は、第1実施形態におけるDSP部18の内部構成を示すブロック図である。図5において、イコライザ181は、マイク部から入力された音声信号に対して、CPU10から入力された係数に基づいて信号処理を施して、信号合成部182に入力する。信号合成部182は、イコライザ181から入力された音声信号と、図4の音源16から入力された伴奏曲の楽音信号とを合成して、トータルエフェクタ183に入力する。トータルエフェクタ183は、信号合成部182によって合成された音声信号および伴奏曲の楽音信号に対して、エコー、リバーブ、コーラスなどの最終的なエフェクト処理を行って、図4のD/A変換回路21に入力する。   FIG. 5 is a block diagram showing an internal configuration of the DSP unit 18 in the first embodiment. In FIG. 5, an equalizer 181 performs signal processing on the audio signal input from the microphone unit based on the coefficient input from the CPU 10 and inputs the signal to the signal synthesis unit 182. The signal synthesis unit 182 synthesizes the audio signal input from the equalizer 181 and the musical tone signal of the accompaniment input from the sound source 16 in FIG. 4 and inputs the synthesized signal to the total effector 183. The total effector 183 performs final effect processing such as echo, reverb, chorus, etc., on the audio signal synthesized by the signal synthesis unit 182 and the musical tone signal of the accompaniment, and the D / A conversion circuit 21 in FIG. To enter.

次に、第1実施形態の楽音制御処理方法について、図6および図7に示すCPU10のフローチャートおよび図8に示す特性グラフに基づいて説明する。
図6は、各実施形態に共通するCPU10のメインルーチンのフローチャートである。まず、所定のイニシャライズ(ステップSA1)の後、曲選択キーがオンされたか否かを判別し(ステップSA2)、曲選択キーがオンされたときは、さらに曲スタートキーがオンされたか否かを判別する(ステップSA3)。曲スタートキーがオンされたときは、選択された曲データを曲データROM17から読み出し(ステップSA4)、音源16に送付する(ステップSA5)。次に、DSP制御処理を実行する(ステップSA6)。この後は、曲が終了したか又は停止キーがオンされたか否かを判別し(ステップSA7)、曲の終了又は停止キーオンの場合は、ステップSA2に移行して曲選択キーのオンを検出する。
Next, the musical tone control processing method of the first embodiment will be described based on the flowchart of the CPU 10 shown in FIGS. 6 and 7 and the characteristic graph shown in FIG.
FIG. 6 is a flowchart of a main routine of the CPU 10 common to the embodiments. First, after predetermined initialization (step SA1), it is determined whether or not the song selection key is turned on (step SA2). When the song selection key is turned on, it is further checked whether or not the song start key is turned on. Discriminate (step SA3). When the song start key is turned on, the selected song data is read from the song data ROM 17 (step SA4) and sent to the sound source 16 (step SA5). Next, DSP control processing is executed (step SA6). After this, it is determined whether or not the song is finished or the stop key is turned on (step SA7). If the song is finished or the stop key is turned on, the process proceeds to step SA2 to detect that the song selection key is turned on. .

図7は、第1実施形態におけるDSP制御処理のフローチャートである。センサ部より距離データを受信して(ステップSB1)、その距離データが0.5cm以下であるか、0.6cmから4.9cmまでの範囲であるか、又は5cm以上であるかを判別する(ステップSB2)。距離データが0.5cm以下である場合には、音声信号の100Hz以下の周波数を−5dB減衰させる係数を生成する(ステップSB3)。距離データが0.6cmから4.9cmまでの範囲である場合には、音声信号の100Hz以下の周波数を−10dB減衰させる係数を生成する(ステップSB4)。距離データが5cm以上である場合には、音声信号の100Hz以下の周波数を−60dB減衰させる係数を生成する(ステップSB5)。ステップSB3、ステップSB4、およびステップSB5のいずれかにおいて係数を生成したときは、DSP部18にその係数を送付する(ステップSB6)。そして、図6のメインルーチンに戻る。   FIG. 7 is a flowchart of the DSP control process in the first embodiment. Distance data is received from the sensor unit (step SB1), and it is determined whether the distance data is 0.5 cm or less, a range from 0.6 cm to 4.9 cm, or 5 cm or more ( Step SB2). When the distance data is 0.5 cm or less, a coefficient for attenuating a frequency of 100 Hz or less of the audio signal by −5 dB is generated (step SB3). If the distance data is in the range from 0.6 cm to 4.9 cm, a coefficient for attenuating a frequency of 100 Hz or less of the audio signal by −10 dB is generated (step SB4). If the distance data is 5 cm or more, a coefficient for attenuating a frequency of 100 Hz or less of the audio signal by −60 dB is generated (step SB5). When a coefficient is generated in any of step SB3, step SB4, and step SB5, the coefficient is sent to the DSP unit 18 (step SB6). Then, the process returns to the main routine of FIG.

図8は、CPU10から送付された係数に応じたDSP部18のイコライザ181における信号処理によって、音声信号の周波数f(Hz)とイコライザゲイン(EQ・GAIN)との関係を示す図である。図8の例では、距離データDが5cm、3cm、0.5cmのそれぞれにおいて、点線に示すように、100Hz以下のイコライザゲインを減衰している。   FIG. 8 is a diagram showing a relationship between the frequency f (Hz) of the audio signal and the equalizer gain (EQ · GAIN) by the signal processing in the equalizer 181 of the DSP unit 18 according to the coefficient sent from the CPU 10. In the example of FIG. 8, when the distance data D is 5 cm, 3 cm, and 0.5 cm, the equalizer gain of 100 Hz or less is attenuated as indicated by the dotted line.

このように、第1実施形態によれば、CPU10は、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて生成した係数によって、マイク部から入力される音声信号の低音域の周波数のゲイン特性を制御する。具体的には、図8に示すように、マイクロフォン1に口が近づくほど低音域を大きく減衰するように制御する。このようなエフェクト処理は、音質の向上のためにプロのミキサー(編曲者)がよく行うミキシングの技法である。
したがって、プロのミキサーによってミキシングされたように、音質を向上させて歌唱力を実際よりも高めることができる。
As described above, according to the first embodiment, the CPU 10 uses the coefficient generated according to the distance between the microphone 1 and the mouth of the singer who is the target of voice input, and the low frequency range of the voice signal input from the microphone unit. Controls the frequency gain characteristics. Specifically, as shown in FIG. 8, control is performed so that the bass range is greatly attenuated as the mouth approaches the microphone 1. Such effect processing is a mixing technique often performed by professional mixers (arrangers) to improve sound quality.
Therefore, as mixed by a professional mixer, the sound quality can be improved and the singing ability can be increased more than the actual one.

次に、本発明の第2実施形態について説明する。第2実施形態のおけるDSP部18の構成は、図5に示した第1実施形態の構成と同じである。
図9は、第2実施形態におけるCPU10のDSP制御処理のフローチャートである。センサ部より距離データを受信して(ステップSC1)、その距離データが0.5cm以下であるか、0.6cmから9.9cmまでの範囲であるか、又は10cm以上であるかを判別する(ステップSC2)。距離データが0.5cm以下である場合には、音声信号の8kHz以上の周波数をカットする係数を生成する(ステップSC3)。距離データが0.6cmから9.9cmまでの範囲である場合には、音声信号の9kHz以上の周波数をカットする係数を生成する(ステップSC4)。距離データが10cm以上である場合には、音声信号の10kHz以上の周波数をカットする係数を生成する(ステップSC5)。ステップSC3、ステップSC4、およびステップSC5のいずれかにおいて係数を生成したときは、DSP部18にその係数を送付する(ステップSC6)。そして、図6のメインルーチンに戻る。
Next, a second embodiment of the present invention will be described. The configuration of the DSP unit 18 in the second embodiment is the same as the configuration of the first embodiment shown in FIG.
FIG. 9 is a flowchart of the DSP control process of the CPU 10 in the second embodiment. Distance data is received from the sensor unit (step SC1), and it is determined whether the distance data is 0.5 cm or less, a range from 0.6 cm to 9.9 cm, or 10 cm or more ( Step SC2). If the distance data is 0.5 cm or less, a coefficient for cutting a frequency of 8 kHz or more of the audio signal is generated (step SC3). If the distance data is in the range from 0.6 cm to 9.9 cm, a coefficient for cutting the frequency of 9 kHz or more of the audio signal is generated (step SC4). If the distance data is 10 cm or more, a coefficient for cutting a frequency of 10 kHz or more of the audio signal is generated (step SC5). When a coefficient is generated in any of step SC3, step SC4, and step SC5, the coefficient is sent to the DSP unit 18 (step SC6). Then, the process returns to the main routine of FIG.

図10は、CPU10から送付された係数に応じたDSP部18のイコライザ181における信号処理によって、音声信号の周波数f(Hz)とイコライザゲイン(EQ・GAIN)との関係を示す図である。図10の例では、点線に示すように、距離データDが10cmの場合には、8kHz以上の高域の周波数がカットされ、距離データDが5cmの場合には、9kHz以上の高域の周波数がカットされ、距離データDが0.5cmの場合には、10kHz以上の高域の周波数がカットされている。   FIG. 10 is a diagram illustrating a relationship between the frequency f (Hz) of the audio signal and the equalizer gain (EQ · GAIN) by the signal processing in the equalizer 181 of the DSP unit 18 according to the coefficient sent from the CPU 10. In the example of FIG. 10, as shown by the dotted line, when the distance data D is 10 cm, the high frequency of 8 kHz or higher is cut, and when the distance data D is 5 cm, the high frequency of 9 kHz or higher is cut. When the distance data D is 0.5 cm, a high frequency of 10 kHz or higher is cut.

このように、第2実施形態によれば、CPU10は、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて生成した係数によって、マイク部から入力される音声信号の高音域の周波数をカットするように制御する。具体的には、図10に示すように、マイクロフォン1に口が近づくほどカットする周波数を下げるように制御する。
したがって、歌い手がマイクロフォン1に口を近づけた場合に、音声の高域成分が手やマイクロフォン1のカバー2で反射して、スピーカ音の高域成分と空中で加算されて、騒がしく感じる現象を回避することにより、音質を向上させて歌唱力を実際よりも高めることができる。
As described above, according to the second embodiment, the CPU 10 uses the coefficient generated according to the distance between the microphone 1 and the mouth of the singer who is the target of voice input, and the high frequency range of the voice signal input from the microphone unit. Control to cut the frequency. Specifically, as shown in FIG. 10, control is performed such that the cut frequency decreases as the mouth approaches the microphone 1.
Therefore, when the singer brings his mouth close to the microphone 1, the high frequency component of the sound is reflected by the hand or the cover 2 of the microphone 1 and added to the high frequency component of the speaker sound in the air to avoid the phenomenon of feeling noisy. By doing so, sound quality can be improved and singing ability can be raised more than actual.

次に、本発明の第3実施形態について説明する。第2実施形態のおけるDSP部18の構成は、図5に示した第1実施形態の構成と同じである。
図11は、第3実施形態におけるCPU10のDSP制御処理のフローチャートである。センサ部より距離データを受信して(ステップSD1)、その距離データが0.5cm以下であるか、0.6cmから4.9cmまでの範囲であるか、又は5cm以上であるかを判別する(ステップSD2)。距離データが0.5cm以下である場合には、音声信号の200Hzを中心にQの値が5になる係数を生成する(ステップSD3)。距離データが0.6cmから4.9cmまでの範囲である場合には、音声信号の200Hzを中心にQの値が1になる係数を生成する(ステップSD4)。距離データが5cm以上である場合には、音声信号の200Hzを中心にQの値が0.5になる係数を生成する(ステップSD5)。ステップSD3、ステップSD4、およびステップSD5のいずれかにおいて係数を生成したときは、DSP部18にその係数を送付する(ステップSD6)。そして、図6のメインルーチンに戻る。
Next, a third embodiment of the present invention will be described. The configuration of the DSP unit 18 in the second embodiment is the same as the configuration of the first embodiment shown in FIG.
FIG. 11 is a flowchart of a DSP control process of the CPU 10 in the third embodiment. Distance data is received from the sensor unit (step SD1), and it is determined whether the distance data is 0.5 cm or less, a range from 0.6 cm to 4.9 cm, or 5 cm or more ( Step SD2). If the distance data is 0.5 cm or less, a coefficient with a Q value of 5 is generated around 200 Hz of the audio signal (step SD3). When the distance data is in the range from 0.6 cm to 4.9 cm, a coefficient with a Q value of 1 is generated around 200 Hz of the audio signal (step SD4). If the distance data is 5 cm or more, a coefficient is generated so that the Q value is 0.5 centering on 200 Hz of the audio signal (step SD5). When a coefficient is generated in any of step SD3, step SD4, and step SD5, the coefficient is sent to the DSP unit 18 (step SD6). Then, the process returns to the main routine of FIG.

図12は、マイクロフォン1と歌い手の口との距離D(cm)に応じて生成した係数によって、Qの値(Qファクタ)を変化させたイコライザ181のゲイン特性を示す図である。このイコライザ181は、特性の鋭さであるQファクタを自由に設計できるパラメトリック・イコライザで構成されている。イコライザ181は、CPU10から送付された係数によって、マイクロフォン1に歌い手の口が近いほど、Qファクタを大きくして、200Hzを中心とする周波数帯域をカットする。   FIG. 12 is a diagram showing gain characteristics of the equalizer 181 in which the value of Q (Q factor) is changed by a coefficient generated according to the distance D (cm) between the microphone 1 and the singer's mouth. The equalizer 181 is a parametric equalizer that can freely design a Q factor having sharp characteristics. The equalizer 181 increases the Q factor and cuts the frequency band centered on 200 Hz as the singer's mouth is closer to the microphone 1 based on the coefficient sent from the CPU 10.

このように、第3実施形態によれば、CPU10は、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて生成した係数によって、マイク部から入力される音声信号の200Hzを中心とする周波数帯域をカットして、聴感上不愉快になりやすくなるのを防止することにより、音質を向上させて歌唱力を実際よりも高めることができる。
さらに、第2実施形態におけるイコライザとこの第3実施形態におけるイコライザとを同一のパラメトリック・イコライザで構成できるので、DSP部18の処理負荷を軽減できるとともに、資源の利用率を高めることができる。
As described above, according to the third embodiment, the CPU 10 uses the coefficient generated according to the distance between the microphone 1 and the mouth of the singer who is the target of voice input to calculate 200 Hz of the voice signal input from the microphone unit. By cutting the center frequency band and preventing it from becoming unpleasant in hearing, the sound quality can be improved and the singing ability can be increased more than the actual one.
Furthermore, since the equalizer in the second embodiment and the equalizer in the third embodiment can be configured by the same parametric equalizer, the processing load of the DSP unit 18 can be reduced and the resource utilization rate can be increased.

次に、本発明の第4実施形態について説明する。
図13は、第4実施形態におけるDSP部18の内部構成を示すブロック図である。図13において、VCA(Voltage Controlled Amplifier :電圧制御増幅器)184は、通常は入出力特性が1対1の増幅率(0dB)であるが、CPU10から送付される直流電圧の係数に応じて増幅率が変化する。したがって、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて生成した係数に応じて、マイク部から入力される音声信号のレベルを変化させる。
Next, a fourth embodiment of the present invention will be described.
FIG. 13 is a block diagram showing an internal configuration of the DSP unit 18 in the fourth embodiment. In FIG. 13, a VCA (Voltage Controlled Amplifier) 184 normally has a one-to-one amplification factor (0 dB) in input / output characteristics, but the amplification factor depends on the DC voltage coefficient sent from the CPU 10. Changes. Therefore, the level of the audio signal input from the microphone unit is changed according to the coefficient generated according to the distance between the microphone 1 and the mouth of the singer who is the target of audio input.

図14は、第4実施形態におけるCPU10のDSP制御処理のフローチャートである。センサ部より距離データを受信して(ステップSE1)、その距離データが5cm以下であるか否かを判別する(ステップSE2)。5cm以下である場合には、さらに3cm以下であるか否かを判別し(ステップSE3)、3cm以下である場合には、さらに0.5cm以下であるか否かを判別する(ステップSE4)。0.5cm以下である場合には、マイク部からの入力レベルを1/3倍する係数を生成する(ステップSE5)。ステップSE4において、距離データが0.5cmより大きく3cmまでの範囲である場合には、マイク部からの入力レベルを1/2倍する係数を生成する(ステップSE6)。ステップSE3において、距離データが3cmより大きく5cmまでの範囲である場合には、マイク部からの入力レベルを1/1.5倍する係数を生成する(ステップSE7)。ステップSE2において、距離データが5cmより大きい場合には、マイク部からの入力レベルをそのまま出力(1倍)する係数を生成する(ステップSE8)。いずれかの値の係数を生成した後は、その係数をDSP部18に送付する(ステップSE9)。そして、図6のメインルーチンに戻る。   FIG. 14 is a flowchart of a DSP control process of the CPU 10 in the fourth embodiment. Distance data is received from the sensor unit (step SE1), and it is determined whether or not the distance data is 5 cm or less (step SE2). If it is 5 cm or less, it is further determined whether it is 3 cm or less (step SE3). If it is 3 cm or less, it is further determined whether it is 0.5 cm or less (step SE4). If it is 0.5 cm or less, a coefficient for multiplying the input level from the microphone unit by 1/3 is generated (step SE5). In step SE4, if the distance data is in the range from 0.5 cm to 3 cm, a coefficient for halving the input level from the microphone unit is generated (step SE6). If the distance data is in the range from 3 cm to 5 cm in step SE3, a coefficient for multiplying the input level from the microphone unit by 1 / 1.5 is generated (step SE7). In step SE2, if the distance data is larger than 5 cm, a coefficient for outputting (1 times) the input level from the microphone unit as it is is generated (step SE8). After generating a coefficient of any value, the coefficient is sent to the DSP unit 18 (step SE9). Then, the process returns to the main routine of FIG.

図15は、マイクロフォン1と歌い手の口との距離D(cm)に応じて生成した係数によって、マイク部から入力される音声信号のレベルを制御するVCA184の入出力特性を示す図である。図15に示すように、マイクロフォン1と歌い手の口との距離が近くなるほど、VCA184への音声信号の入力レベルに対する増幅率を小さくして出力レベルを低下させる。   FIG. 15 is a diagram illustrating the input / output characteristics of the VCA 184 that controls the level of the audio signal input from the microphone unit using a coefficient generated according to the distance D (cm) between the microphone 1 and the singer's mouth. As shown in FIG. 15, the closer the distance between the microphone 1 and the singer's mouth is, the smaller the amplification factor with respect to the input level of the audio signal to the VCA 184 is, and the lower the output level is.

このように、第4実施形態によれば、CPU10は、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて生成した係数によって、マイク部から入力される音声信号のレベルを制御し、マイクロフォン1に口を近づけて歌う場合でも、ブレスノイズや口腔内の不快な音を防止することにより、音質を向上させて歌唱力を実際よりも高めることができる。   As described above, according to the fourth embodiment, the CPU 10 determines the level of the audio signal input from the microphone unit based on the coefficient generated according to the distance between the microphone 1 and the mouth of the singer who is the target of audio input. Even when controlling and singing with the mouth close to the microphone 1, by preventing breath noise and unpleasant sound in the oral cavity, the sound quality can be improved and the singing ability can be enhanced more than the actual.

次に、本発明の第5実施形態について説明する。
図16は、第5実施形態におけるDSP部18の内部構成を示すブロック図である。図16において、エキスパンダ185は、通常は1対1のゲインの入出力特性(増幅率=0dB)になっているが、マイク部から入力される小さい音声信号をより小さく制御する。ただし、通常のエキスパンダとは異なり、マイク部から入力される大きい音声信号をより大きくする制御は行わない。DSP部18の他の構成については、第1実施形態の場合と同じである。
Next, a fifth embodiment of the present invention will be described.
FIG. 16 is a block diagram showing an internal configuration of the DSP unit 18 in the fifth embodiment. In FIG. 16, the expander 185 normally has a one-to-one gain input / output characteristic (amplification factor = 0 dB), but controls a small audio signal input from the microphone unit to be smaller. However, unlike a normal expander, control for increasing a large audio signal input from the microphone unit is not performed. Other configurations of the DSP unit 18 are the same as those in the first embodiment.

図17は、第5実施形態におけるCPU10のDSP制御処理のフローチャートである。センサ部より距離データを受信し(ステップSF1)、マイク部からの音声信号の入力レベルが−20dB以下であるか否かを判別する(ステップSF2)。入力レベルが−20dB以下である場合には、センサ部からの距離データが5cmより小さいか否かを判別する(ステップSF3)。5cmより小さい場合には、さらに3cmより小さいか否かを判別する(ステップSF4)。3cmより小さい場合には、さらに0.5cmより小さいか否かを判別する(ステップSF5)。   FIG. 17 is a flowchart of a DSP control process of the CPU 10 in the fifth embodiment. Distance data is received from the sensor unit (step SF1), and it is determined whether or not the input level of the audio signal from the microphone unit is −20 dB or less (step SF2). If the input level is −20 dB or less, it is determined whether or not the distance data from the sensor unit is smaller than 5 cm (step SF3). If it is smaller than 5 cm, it is further determined whether it is smaller than 3 cm (step SF4). If it is smaller than 3 cm, it is further determined whether it is smaller than 0.5 cm (step SF5).

センサ部からの距離データが0.5cmより小さい場合には、マイク部からの入力レベルを1/3倍にする係数を生成する(ステップSF6)。ステップSF5において、センサ部からの距離データが0.5cm以上で3cmより小さい範囲である場合には、マイク部からの入力レベルを1/2倍にする係数を生成する(ステップSF7)。ステップSF4において、センサ部からの距離データが3cm以上で5cmより小さい範囲である場合には、マイク部からの入力レベルを1/1.5倍にする係数を生成する(ステップSF8)。ステップSF3においてセンサ部からの距離データが5cm以上である場合、又は、ステップSF2において、マイク部からの音声信号の入力レベルが−20dBより大きい場合には、マイク部からの入力をそのまま出力(1倍)する係数を生成する(ステップSF9)。いずれかの値の係数を生成したときは、DSP部にその係数を送付する(ステップSF10)。そして、図6のメインルーチンに戻る。   When the distance data from the sensor unit is smaller than 0.5 cm, a coefficient for increasing the input level from the microphone unit by 1/3 is generated (step SF6). In step SF5, when the distance data from the sensor unit is within a range of 0.5 cm or more and smaller than 3 cm, a coefficient for halving the input level from the microphone unit is generated (step SF7). In step SF4, when the distance data from the sensor unit is in a range of 3 cm or more and smaller than 5 cm, a coefficient for increasing the input level from the microphone unit by a factor of 1 / 1.5 is generated (step SF8). If the distance data from the sensor unit is 5 cm or more in step SF3, or if the input level of the audio signal from the microphone unit is greater than −20 dB in step SF2, the input from the microphone unit is output as it is (1 A coefficient to be multiplied is generated (step SF9). When a coefficient having any value is generated, the coefficient is sent to the DSP unit (step SF10). Then, the process returns to the main routine of FIG.

図18は、マイクロフォン1と歌い手の口との距離D(cm)に応じて生成した係数によって、マイク部から入力される音声信号のレベルを制御するエキスパンダ185の入出力特性を示す図である。通常は、エキスパンダ185の入出力特性は1対1になっているが、図18に示すように、マイク部からの音声信号の出力レベルが−20dB以下であるときは、マイクロフォン1と歌い手の口との距離が近くなるほど、マイク部から入力される音声信号のレベルを大きく減衰する。   FIG. 18 is a diagram illustrating input / output characteristics of an expander 185 that controls the level of an audio signal input from the microphone unit based on a coefficient generated according to the distance D (cm) between the microphone 1 and the singer's mouth. . Normally, the input / output characteristics of the expander 185 are 1: 1, but as shown in FIG. 18, when the output level of the audio signal from the microphone is -20 dB or less, the microphone 1 and the singer As the distance from the mouth is closer, the level of the audio signal input from the microphone unit is greatly attenuated.

このように、第5実施形態によれば、CPU10は、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて生成した係数によって、マイク部から入力される音声信号のレベルを制御し、音声信号の出力レベルが所定値以下である場合には、ブレスノイズ、口腔内の唾の粘性による音、口腔内で舌があばれる音など、音声信号の出力レベルが小さいときに顕著になる不快な音を防止することにより、音質を向上させて歌唱力を実際よりも高めることができる。   As described above, according to the fifth embodiment, the CPU 10 determines the level of the audio signal input from the microphone unit by the coefficient generated according to the distance between the microphone 1 and the mouth of the singer who is the target of audio input. When the output level of the audio signal is below a predetermined value, it is noticeable when the output level of the audio signal is low, such as breath noise, sound due to saliva viscosity in the oral cavity, or sound of the tongue in the oral cavity. By preventing the unpleasant sound which becomes, sound quality can be improved and singing power can be improved more than actual.

次に、本発明の第6実施形態について説明する。
図19は、第6実施形態におけるDSP部18の内部構成を示すブロック図である。図19において、コンプレッサ186は、マイク部から入力される大きい音声信号を圧縮するように制御する。DSP部18の他の構成については、第1実施形態の場合と同じである。
Next, a sixth embodiment of the present invention will be described.
FIG. 19 is a block diagram showing an internal configuration of the DSP unit 18 in the sixth embodiment. In FIG. 19, a compressor 186 controls to compress a large audio signal input from the microphone unit. Other configurations of the DSP unit 18 are the same as those in the first embodiment.

図20は、第6実施形態におけるCPU10のDSP制御処理のフローチャートである。センサ部より距離データを受信して(ステップSG1)、マイク部からの入力レベルが−5dB以上であるか否かを判別する(ステップSG2)。入力レベルが−5dB以上である場合には、センサ部からの距離データが5cmより小さいか否かを判別する(ステップSG3)。5cmより小さい場合には、さらに3cmより小さいか否かを判別する(ステップSG4)。3cmより小さい場合には、さらに0.5cmより小さいか否かを判別する(ステップSG5)。   FIG. 20 is a flowchart of the DSP control processing of the CPU 10 in the sixth embodiment. Distance data is received from the sensor unit (step SG1), and it is determined whether or not the input level from the microphone unit is -5 dB or more (step SG2). When the input level is −5 dB or more, it is determined whether or not the distance data from the sensor unit is smaller than 5 cm (step SG3). If it is smaller than 5 cm, it is further determined whether it is smaller than 3 cm (step SG4). If it is smaller than 3 cm, it is further determined whether it is smaller than 0.5 cm (step SG5).

センサ部からの距離データが0.5cmより小さい場合には、マイク部からの入力レベルを1/3倍にする係数を生成する(ステップSG6)。ステップSG5において、センサ部からの距離データが0.5cm以上で3cmより小さい範囲である場合には、マイク部からの入力レベルを1/2倍にする係数を生成する(ステップSG7)。ステップSG4において、センサ部からの距離データが3cm以上で5cmより小さい範囲である場合には、マイク部からの入力レベルを1/1.5倍にする係数を生成する(ステップSG8)。ステップSG3においてセンサ部からの距離データが5cm以上である場合、又は、ステップSG2において、マイク部からの音声信号の入力レベルが−5dBより小さい場合には、マイク部からの入力をそのまま出力(1倍)する係数を生成する(ステップSG9)。いずれかの値の係数を生成したときは、DSP部にその係数を送付する(ステップSG10)。そして、図6のメインルーチンに戻る。   If the distance data from the sensor unit is smaller than 0.5 cm, a coefficient for increasing the input level from the microphone unit by 1/3 is generated (step SG6). In step SG5, if the distance data from the sensor unit is in the range of 0.5 cm or more and smaller than 3 cm, a coefficient for halving the input level from the microphone unit is generated (step SG7). In step SG4, if the distance data from the sensor unit is in the range of 3 cm or more and less than 5 cm, a coefficient for increasing the input level from the microphone unit by 1 / 1.5 times is generated (step SG8). If the distance data from the sensor unit is 5 cm or more in step SG3, or if the input level of the audio signal from the microphone unit is less than −5 dB in step SG2, the input from the microphone unit is output as it is (1 A coefficient to be multiplied is generated (step SG9). When a coefficient having any value is generated, the coefficient is sent to the DSP unit (step SG10). Then, the process returns to the main routine of FIG.

図21は、マイクロフォン1と歌い手の口との距離D(cm)に応じて生成した係数によって、マイク部から入力される音声信号のレベルを制御する第6実施形態のコンプレッサ186の入出力特性を示す図である。通常は、コンプレッサ186の入出力特性は1対1(圧縮率=0dB)であるが、図21に示すように、マイク部からの音声信号の出力レベルが−5dB以上であるときは、マイクロフォン1と歌い手の口との距離が近くなるほど音声信号の出力レベルを大きく減衰する。   FIG. 21 shows the input / output characteristics of the compressor 186 of the sixth embodiment that controls the level of the audio signal input from the microphone unit by the coefficient generated according to the distance D (cm) between the microphone 1 and the singer's mouth. FIG. Normally, the input / output characteristic of the compressor 186 is 1: 1 (compression ratio = 0 dB). However, as shown in FIG. 21, when the output level of the audio signal from the microphone unit is −5 dB or more, the microphone 1 As the distance from the singer's mouth gets closer, the output level of the audio signal is greatly attenuated.

このように、第6実施形態によれば、CPU10は、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて生成した係数によって、マイク部から入力される音声信号のレベルを制御し、音声信号のレベルが所定値以上である場合には、マイクロフォン1と歌い手の口との距離が近くなったときに、パワーアンプ22への入力レベルが大き過ぎて音の歪みが発生するのを防止して、音質を向上させて歌唱力を実際よりも高めることができる。   As described above, according to the sixth embodiment, the CPU 10 determines the level of the audio signal input from the microphone unit by the coefficient generated according to the distance between the microphone 1 and the mouth of the singer who is the target of audio input. If the level of the audio signal is controlled to be equal to or higher than a predetermined value, when the distance between the microphone 1 and the mouth of the singer becomes close, the input level to the power amplifier 22 is too high and sound distortion occurs. Can be improved, and the sound quality can be improved and the singing ability can be increased more than actual.

次に、本発明の第7実施形態について説明する。第7実施形態におけるDSP部18の構成は、図19に示した第6実施形態の構成と同じである。
図22は、第7実施形態におけるCPU10のDSP制御処理のフローチャートである。センサ部より距離データを受信して(ステップSH1)、センサ部からの距離データが5cm以下であるか否かを判別する(ステップSH2)。5cm以下である場合には、さらに3cm以下であるか否かを判別する(ステップSH3)。3cm以下である場合には、さらに0.5cmより小さいか否かを判別する(ステップSH4)。0.5cmより小さい場合には、閾値のレジスタTHに−5dBをセットする(ステップSH5)。ステップSH4において距離が0.5cm以上、3cm以下である場合には、THに−10dBをセットする(ステップSH6)。ステップSH3において距離が3cmより大きく、5cm以下である場合には、THに−20dBをセットする(ステップSH7)。ステップSH2において距離が5cmより大きい場合には、THに−40dBをセットする(ステップSH8)。
Next, a seventh embodiment of the present invention will be described. The configuration of the DSP unit 18 in the seventh embodiment is the same as the configuration of the sixth embodiment shown in FIG.
FIG. 22 is a flowchart of the DSP control process of the CPU 10 in the seventh embodiment. Distance data is received from the sensor unit (step SH1), and it is determined whether or not the distance data from the sensor unit is 5 cm or less (step SH2). If it is 5 cm or less, it is further determined whether or not it is 3 cm or less (step SH3). If it is 3 cm or less, it is further determined whether or not it is smaller than 0.5 cm (step SH4). If it is smaller than 0.5 cm, −5 dB is set in the threshold register TH (step SH5). If the distance is not less than 0.5 cm and not more than 3 cm in step SH4, TH is set to −10 dB (step SH6). If the distance is larger than 3 cm and not larger than 5 cm in step SH3, TH is set to −20 dB (step SH7). If the distance is greater than 5 cm in step SH2, TH is set to -40 dB (step SH8).

ステップSH5、ステップSH6,ステップSH7、又はステップSH8において、センサ部からの距離データに応じた閾値を生成した後は、マイク部からの入力レベルがTHの閾値より大きいか又は閾値以下であるかを判別する(ステップSH9)。マイク部からの入力レベルがTHの閾値より大きい場合には、マイク部からの入力をそのまま出力する係数を生成する(ステップSH10)。一方、マイク部からの入力レベルがTHの閾値以下である場合には、マイク部からの入力を1/4倍して出力する係数を生成する(ステップSH11)。次に、ステップSH10又はSH11において生成した係数をDSP部18に送付する(ステップSH12)。そして、図6のメインルーチンに戻る。   In step SH5, step SH6, step SH7, or step SH8, after generating a threshold value according to the distance data from the sensor unit, it is determined whether the input level from the microphone unit is greater than or less than the TH threshold value. It discriminate | determines (step SH9). If the input level from the microphone unit is larger than the threshold value of TH, a coefficient for outputting the input from the microphone unit as it is is generated (step SH10). On the other hand, when the input level from the microphone unit is equal to or less than the threshold value of TH, a coefficient to be output by multiplying the input from the microphone unit by 1/4 is generated (step SH11). Next, the coefficient generated in step SH10 or SH11 is sent to the DSP unit 18 (step SH12). Then, the process returns to the main routine of FIG.

図23は、マイクロフォン1と歌い手の口との距離D(cm)に応じて生成した係数によって、マイク部から入力される音声信号のレベルを制御する第7実施形態のコンプレッサ186の入出力特性を示す図である。コンプレッサ186の入出力特性はマイク部から入力される音声信号のレベルが閾値以下の場合には、1対1(圧縮率=0dB)であるが、音声信号のレベルが閾値より大きくなると、コンプレッサ186からの出力レベルを減衰する。その場合に、図23に示すように、マイクロフォン1と歌い手の口との距離が近くなるほど、設定する閾値が大きくなる。   FIG. 23 shows the input / output characteristics of the compressor 186 of the seventh embodiment that controls the level of an audio signal input from the microphone unit by a coefficient generated according to the distance D (cm) between the microphone 1 and the singer's mouth. FIG. The input / output characteristics of the compressor 186 are one-to-one (compression rate = 0 dB) when the level of the audio signal input from the microphone unit is less than or equal to the threshold value. However, when the level of the audio signal becomes larger than the threshold value, the compressor 186 The output level from is attenuated. In this case, as shown in FIG. 23, the threshold value to be set increases as the distance between the microphone 1 and the singer's mouth becomes shorter.

このように、第7実施形態によれば、CPU10は、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて生成した係数によって、マイク部から入力される音声信号のレベルを制御し、マイクロフォン1と歌い手の口との距離が遠くなったときに、パワーアンプ22への入力レベルが小さ過ぎてスピーカからの音声が貧弱になるのを防止して、音質を向上させて歌唱力を実際よりも高めることができる。   As described above, according to the seventh embodiment, the CPU 10 determines the level of the audio signal input from the microphone unit based on the coefficient generated according to the distance between the microphone 1 and the mouth of the singer who is the target of audio input. When the distance between the microphone 1 and the singer's mouth is increased, the input level to the power amplifier 22 is prevented from being too low and the sound from the speaker becomes poor, so that the sound quality is improved and the singing is improved. You can increase your power.

次に、本発明の第8実施形態について説明する。第8実施形態においては、DSP部18において音声信号のエンベロープをADSR(アタック、ディケイ、サスティン、リリース)方式によって制御する。ADSR方式については周知の技術であるので説明は省略する。
図24および図25は、第8実施形態におけるCPU10のDSP制御処理のフローチャートである。図24のフローチャートにおいて、マイク部から入力された今回の新たな音声信号のレベルをレジスタLEVELにストアして(ステップSJ1)、LEVELの値が−5dB以上で、且つ前回の音声信号のレベルをストアしたレジスタFLEVELの値が−5dBより小さいか否かを判別する(ステップSJ2)。すなわち、前回基準レベル(−5dB)より小さかった音声信号のレベルが今回上昇して基準レベル以上になったか否かを判別する。今回の音声信号のレベルが−5dB以上になったときは、音声の立ち上がりであるのでアタックフラグATFを1にセットし、リリースフラグREFを0にリセットする(ステップSJ3)。
Next, an eighth embodiment of the present invention will be described. In the eighth embodiment, the DSP unit 18 controls the envelope of the audio signal by the ADSR (Attack, Decay, Sustain, Release) method. Since the ADSR system is a well-known technique, description thereof is omitted.
24 and 25 are flowcharts of the DSP control processing of the CPU 10 in the eighth embodiment. In the flowchart of FIG. 24, the level of the new audio signal of this time input from the microphone unit is stored in the register LEVEL (step SJ1), the LEVEL value is -5 dB or more, and the level of the previous audio signal is stored. It is determined whether or not the value of the registered register LEVEL is smaller than -5 dB (step SJ2). That is, it is determined whether or not the level of the audio signal that was smaller than the previous reference level (−5 dB) has increased this time and has become equal to or higher than the reference level. When the level of the current audio signal becomes -5 dB or higher, the attack flag ATF is set to 1 and the release flag REF is reset to 0 because the voice is rising (step SJ3).

ステップSJ2において、今回の音声信号のレベルが−5dBより小さい場合には、FLEVELにストアされている前回の音声信号のレベルが−5dB以上であるか否かを判別する(ステップSJ4)。すなわち、前回基準レベル以上であった音声信号のレベルが今回下降して基準レベルより小さくなったか否かを判別する。今回の音声信号のレベルが−5dBより小さくなったときは、消音が開始しているのでアタックフラグATFを0にリセットし、リリースフラグREFを1にセットする(ステップSJ5)。   In step SJ2, if the level of the current audio signal is lower than −5 dB, it is determined whether or not the level of the previous audio signal stored in LEVEL is −5 dB or higher (step SJ4). That is, it is determined whether or not the level of the audio signal that is equal to or higher than the previous reference level has decreased this time and becomes lower than the reference level. When the level of the current audio signal is less than -5 dB, the mute has started, so the attack flag ATF is reset to 0 and the release flag REF is set to 1 (step SJ5).

ATFおよびREFを1又は0にした後は、センサ部から距離データを受信して(ステップSJ6)、ATFが1であるか否かを判別する(ステップSJ7)。ATFが1である場合には、距離データに応じたアタックタイムをレジスタATTにストアする(ステップSJ8)。一方、ATFが0である場合には、REFが1であるか否かを判別し(ステップSJ9)、REFが1である場合には、距離データに応じたリリースタイムをレジスタRETにストアする(ステップSJ10)。   After ATF and REF are set to 1 or 0, distance data is received from the sensor unit (step SJ6), and it is determined whether or not ATF is 1 (step SJ7). If ATF is 1, the attack time corresponding to the distance data is stored in the register ATT (step SJ8). On the other hand, if ATF is 0, it is determined whether or not REF is 1 (step SJ9). If REF is 1, the release time corresponding to the distance data is stored in the register RET (step SJ9). Step SJ10).

ステップSJ8においてATTにアタックタイムをストアした後、又は、ステップSJ10においてRETにリリースタイムをストアした後は、スタートフラグSTFを1にセットする(ステップSJ11)。STFを1にセットした後、又は、ステップSJ7においてATFが0で、且つステップSJ9においてREFが0である場合、若しくは、前回の音声信号のレベルと今回の音声信号のレベルとの変化が−5dBの基準レベルと交差する状態でない場合には、LEVELにストアされている値をFLEVELに転送する(ステップSJ12)。   After the attack time is stored in ATT in step SJ8, or after the release time is stored in RET in step SJ10, start flag STF is set to 1 (step SJ11). After setting STF to 1, or when ATF is 0 in step SJ7 and REF is 0 in step SJ9, or the change between the level of the previous audio signal and the level of the current audio signal is −5 dB. If it does not cross the reference level, the value stored in LEVEL is transferred to LEVEL (step SJ12).

次に、図25のフローチャートにおいて、STFが1であるか否かを判別し(ステップSJ13)、STFが1である場合には、曲の進行の最小クロックタイム(例えば、96分音符に相当する時間)が経過したか否かを判別する(ステップSJ14)。STFが0である場合、又は、最小クロックタイムが経過しない場合には、メインルーチンに戻る。一方、最小クロックタイムが経過したときは、ATFが1であるか否かを判別し(ステップSJ15)、ATFが1である場合には、ATTの値をデクリメントする(ステップSJ16)。この後、ATTの値が0に達したか否かを判別する(ステップSJ17)。ATTの値が0に達しない場合にはメインルーチンに戻るが、ATTの値が0に達したときは、アタックからディケイに移行するために、マイク部からの入力を1/4にする係数を生成する(ステップSJ18)。そして、ATFを0にリセットする(ステップSJ19)。   Next, in the flowchart of FIG. 25, it is determined whether or not the STF is 1 (step SJ13). If the STF is 1, the minimum clock time (for example, 96th notes) of the progression of the music is obtained. It is determined whether or not (time) has elapsed (step SJ14). When STF is 0, or when the minimum clock time has not elapsed, the process returns to the main routine. On the other hand, when the minimum clock time has elapsed, it is determined whether or not ATF is 1 (step SJ15). If ATF is 1, the value of ATT is decremented (step SJ16). Thereafter, it is determined whether or not the value of ATT has reached 0 (step SJ17). If the ATT value does not reach 0, the process returns to the main routine. However, when the ATT value reaches 0, in order to shift from attack to decay, a coefficient for reducing the input from the microphone unit to 1/4 is set. Generate (step SJ18). Then, ATF is reset to 0 (step SJ19).

ステップSJ15において、ATFが0である場合には、REFが1であるか否かを判別し(ステップSJ20)、REFが1である場合には、RETの値をデクリメントする(ステップSJ21)。この後、RETの値が0に達したか否かを判別する(ステップSJ22)。RETの値が0に達しない場合にはメインルーチンに戻るが、RETの値が0に達したときは、消音状態であるので、マイク部からの入力(レベル=0)をそのまま出力する係数を生成する(ステップSJ23)。そして、REFを0にリセットする(ステップSJ24)。   In step SJ15, if ATF is 0, it is determined whether REF is 1 (step SJ20). If REF is 1, the value of RET is decremented (step SJ21). Thereafter, it is determined whether or not the value of RET has reached 0 (step SJ22). When the value of RET does not reach 0, the process returns to the main routine. However, when the value of RET reaches 0, since the sound is muted, a coefficient for outputting the input from the microphone unit (level = 0) as it is is obtained. Generate (step SJ23). Then, REF is reset to 0 (step SJ24).

ステップSJ19においてATFをリセットした後、又は、ステップSJ24においてREFをリセットした後は、STFを0にリセットする(ステップSJ25)。そして、ステップSJ18又はステップSJ23において生成した係数をDSP部18に送付する(ステップSJ26)。この後、又は、ステップSJ15においてATFが0で、且つステップSJ20においてREFが0の場合には、図6のメインルーチンに戻る。   After resetting the ATF in step SJ19 or after resetting REF in step SJ24, the STF is reset to 0 (step SJ25). Then, the coefficient generated in step SJ18 or step SJ23 is sent to the DSP unit 18 (step SJ26). After this, or when ATF is 0 in step SJ15 and REF is 0 in step SJ20, the process returns to the main routine of FIG.

図26は、マイクロフォン1と歌い手の口との距離D(cm)に応じて、リリースタイムを変化させるDSP部18の特性を示す図である。この特性によれば、マイクロフォン1と歌い手の口との距離が近いほどリリースタイムを短くする。
図27は、マイクロフォン1と歌い手の口との距離D(cm)に応じて、リリースタイムを変化させるDSP部18の特性を示す図である。この特性によれば、マイクロフォン1と歌い手の口との距離が近いほどアタックタイムを短くする。
FIG. 26 is a diagram illustrating characteristics of the DSP unit 18 that changes the release time according to the distance D (cm) between the microphone 1 and the mouth of the singer. According to this characteristic, the shorter the distance between the microphone 1 and the singer's mouth, the shorter the release time.
FIG. 27 is a diagram illustrating characteristics of the DSP unit 18 that changes the release time according to the distance D (cm) between the microphone 1 and the mouth of the singer. According to this characteristic, the shorter the distance between the microphone 1 and the singer's mouth, the shorter the attack time.

このように、第8実施形態によれば、CPU10は、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて、マイク部から入力される音声信号のリリースタイムおよびアタックタイムを制御し、マイクロフォン1と歌い手の口との距離が近いほどリリースタイムを短くして、タンギングがはっきりするようなエフェクトをかけて、メリハリが出る歌声を強調することにより、音質を向上させて歌唱力を実際よりも高めることができる。
一方、マイクロフォン1と歌い手の口との距離が近い場合には、音声が鋭くなりがちであるので、アタックタイムを短くして音声を早めに丸めることにより、音質を向上させて歌唱力を実際よりも高めることができる。
As described above, according to the eighth embodiment, the CPU 10 determines the release time and the attack time of the audio signal input from the microphone unit according to the distance between the microphone 1 and the mouth of the singer who is the target of audio input. Control and improve the sound quality by enhancing the sound quality by emphasizing the singing voice by applying the effect of shortening the release time and making the tongue clearer as the distance between the microphone 1 and the singer's mouth is shorter Can be higher than actual.
On the other hand, when the distance between the microphone 1 and the mouth of the singer is close, the voice tends to be sharper. Therefore, by shortening the attack time and rounding the voice earlier, the sound quality is improved and the singing ability is actually increased. Can also be increased.

以上のように、上記第1実施形態ないし第8実施形態によれば、マイクロフォン1に入力される音声に応じて音声信号を出力するマイク素子5と、マイクロフォン1と音声入力の対象者である歌い手の口との距離D(cm)を検出する距離センサ6と、距離センサ6によって検出された距離に応じて、マイク素子5から出力される音声信号に対してエフェクト処理を施すCPU10およびDSP部18と、を備えている。
したがって、音質を向上させて歌唱力を実際よりも高めるような効果が得られる。さらに、第4および第5実施形態においては、ブレスノイズや口腔内の不快な音を抑制するという効果が得られる。
As described above, according to the first to eighth embodiments, the microphone element 5 that outputs a sound signal according to the sound input to the microphone 1, and the singer who is the target person of the microphone 1 and the sound input. A distance sensor 6 that detects a distance D (cm) from the mouth of the computer, and a CPU 10 and a DSP unit 18 that perform effect processing on the audio signal output from the microphone element 5 according to the distance detected by the distance sensor 6 And.
Therefore, the effect of improving the sound quality and enhancing the singing ability than the actual one can be obtained. Furthermore, in 4th and 5th embodiment, the effect of suppressing breath noise and the unpleasant sound in an oral cavity is acquired.

また、上記各実施形態において、距離センサ6は、マイクロフォン1の外部に向けて光を照射して、その反射光の強度によって歌い手の口とマイクロフォン1との距離を検出し、CPU10は、距離センサ6によって検出された距離に応じてエフェクト処理の係数を生成し、その生成した係数をDSP部18に送付して、マイクロフォン1から出力される音声信号を制御する。
したがって、光による高速の距離検出が可能になり、テンポの速い曲の場合でも十分に応答できるエフェクト処理ができる。
In each of the above embodiments, the distance sensor 6 emits light toward the outside of the microphone 1 and detects the distance between the singer's mouth and the microphone 1 based on the intensity of the reflected light. The coefficient of the effect processing is generated according to the distance detected by 6, the generated coefficient is sent to the DSP unit 18, and the audio signal output from the microphone 1 is controlled.
Therefore, it is possible to detect the distance at high speed by using light, and it is possible to perform an effect process that can respond sufficiently even in the case of a song with a fast tempo.

なお、上記各実施形態の変形例として、DSP部18やCPU10を含む信号処理部をマイクロフォン1の内部に設ける構成にしてもよい。例えば、図2の基板4にDSP、CPU、および信号処理に関係する電子回路を内蔵するLSIを搭載する。
この変形例の構成によれば、マイク素子からの音声信号をマイクロフォン内部で信号処理するので、S/N比や応答特性を向上させることができる。
As a modification of each of the above embodiments, a signal processing unit including the DSP unit 18 and the CPU 10 may be provided inside the microphone 1. For example, an LSI incorporating a DSP, a CPU, and an electronic circuit related to signal processing is mounted on the substrate 4 of FIG.
According to the configuration of this modified example, since the audio signal from the microphone element is signal-processed inside the microphone, the S / N ratio and response characteristics can be improved.

本発明の実施形態におけるマイクロフォンの外観図。The external view of the microphone in embodiment of this invention. 図1のマイクロフォンの内部構造を示す図。The figure which shows the internal structure of the microphone of FIG. 距離センサから歌い手の口までの距離と検出信号のレベルとの関係を表す図。The figure showing the relationship between the distance from a distance sensor to a singer's mouth, and the level of a detection signal. 本発明の楽音制御装置を適用した各実施形態に共通のカラオケシステムの構成を示すブロック図。The block diagram which shows the structure of a karaoke system common to each embodiment to which the musical tone control apparatus of this invention is applied. 第1実施形態におけるDSP部の内部構成を示すブロック図。The block diagram which shows the internal structure of the DSP part in 1st Embodiment. 各実施形態に共通するCPUのメインルーチンのフローチャート。The flowchart of the main routine of CPU common to each embodiment. 第1実施形態におけるDSP制御処理のフローチャート。The flowchart of the DSP control processing in 1st Embodiment. 第1実施形態における音声信号の周波数とイコライザゲインとの関係を示す図。The figure which shows the relationship between the frequency of the audio | voice signal in 1st Embodiment, and an equalizer gain. 第2実施形態におけるCPUのDSP制御処理のフローチャート。The flowchart of DSP control processing of CPU in 2nd Embodiment. 第2実施形態における音声信号の周波数とイコライザゲインとの関係を示す図。The figure which shows the relationship between the frequency of the audio | voice signal and equalizer gain in 2nd Embodiment. 第3実施形態におけるCPUのDSP制御処理のフローチャート。The flowchart of DSP control processing of CPU in 3rd Embodiment. 第3実施形態におけるQの値を変化させたイコライザのゲイン特性を示す図。The figure which shows the gain characteristic of the equalizer which changed the value of Q in 3rd Embodiment. 第4実施形態におけるDSP部の内部構成を示すブロック図。The block diagram which shows the internal structure of the DSP part in 4th Embodiment. 第4実施形態におけるCPUのDSP制御処理のフローチャート。The flowchart of DSP control processing of CPU in 4th Embodiment. 第4実施形態におけるDSP部のVCAの入出力特性を示す図。The figure which shows the input / output characteristic of VCA of the DSP part in 4th Embodiment. 第5実施形態におけるDSP部の内部構成を示すブロック図。The block diagram which shows the internal structure of the DSP part in 5th Embodiment. 第5実施形態におけるCPUのDSP制御処理のフローチャート。The flowchart of DSP control processing of CPU in 5th Embodiment. 第5実施形態におけるDSP部のエキスパンダの入出力特性を示す図。The figure which shows the input-output characteristic of the expander of the DSP part in 5th Embodiment. 第6実施形態におけるDSP部の内部構成を示すブロック図。The block diagram which shows the internal structure of the DSP part in 6th Embodiment. 第6実施形態におけるCPUのDSP制御処理のフローチャート。The flowchart of DSP control processing of CPU in 6th Embodiment. 第6実施形態におけるDSP部のコンプレッサの入出力特性を示す図。The figure which shows the input-output characteristic of the compressor of the DSP part in 6th Embodiment. 第7実施形態におけるCPUのDSP制御処理のフローチャート。The flowchart of DSP control processing of CPU in 7th Embodiment. 第7実施形態におけるDSP部のコンプレッサの入出力特性を示す図。The figure which shows the input-output characteristic of the compressor of the DSP part in 7th Embodiment. 第8実施形態におけるCPUのDSP制御処理のフローチャート。The flowchart of the DSP control processing of CPU in 8th Embodiment. 図24に続くDSP制御処理のフローチャート。The flowchart of the DSP control process following FIG. 第8実施形態におけるリリースタイムを変化させるDSP部の特性を示す図。The figure which shows the characteristic of the DSP part which changes the release time in 8th Embodiment. 第8実施形態におけるアタックタイムを変化させるDSP部の特性を示す図。The figure which shows the characteristic of the DSP part which changes the attack time in 8th Embodiment.

符号の説明Explanation of symbols

1 マイクロフォン
2 マイクカバー
3 開口部
4 基板
5 マイク素子
6 距離センサ
9 A/D変換回路
10 CPU
12 プログラムROM
13 ワークRAM
16 音源
17 曲データROM
18 DSP部
181 イコライザ
182 合成回路
183 トータルエフェクタ
184 VCA
185 エキスパンダ
DESCRIPTION OF SYMBOLS 1 Microphone 2 Microphone cover 3 Opening part 4 Board | substrate 5 Microphone element 6 Distance sensor 9 A / D conversion circuit 10 CPU
12 Program ROM
13 Work RAM
16 sound source 17 song data ROM
18 DSP unit 181 Equalizer 182 Synthesis circuit 183 Total effector 184 VCA
185 expander

Claims (22)

マイクロフォンに入力される音声に応じて音声信号を出力する信号発生手段と、
前記マイクロフォンと音声入力の対象者の口又はその周辺との距離を検出する距離検出手段と、
前記距離検出手段によって検出された距離に応じて前記信号発生手段から出力される音声信号に対してエフェクト処理を施す信号処理手段と、
を備えた楽音制御装置。
Signal generating means for outputting an audio signal in accordance with audio input to the microphone;
A distance detecting means for detecting a distance between the microphone and the mouth of the subject of voice input or the vicinity thereof;
Signal processing means for effecting the sound signal output from the signal generating means according to the distance detected by the distance detecting means;
Musical sound control device with
前記信号処理手段は、前記マイクロフォン内に収容されていることを特徴とする請求項1に記載の楽音制御装置。   The musical tone control apparatus according to claim 1, wherein the signal processing means is accommodated in the microphone. 前記距離検出手段は、前記マイクロフォンの外部に向けて光を照射してその反射光の強度によって距離を検出し、前記信号処理手段は、前記距離検出手段によって検出された距離に応じてエフェクト処理の係数を生成し、当該生成した係数によって前記信号発生手段から出力される音声信号を制御することを特徴とする請求項1又は2に記載の楽音制御装置。   The distance detecting means irradiates light outside the microphone and detects the distance based on the intensity of the reflected light, and the signal processing means performs effect processing according to the distance detected by the distance detecting means. The musical tone control apparatus according to claim 1 or 2, wherein a coefficient is generated, and an audio signal output from the signal generating means is controlled by the generated coefficient. 前記信号処理手段は、生成した係数によって前記信号発生手段から出力される音声信号の周波数・ゲイン特性を制御することを特徴とする請求項3に記載の楽音制御装置。   4. The musical tone control apparatus according to claim 3, wherein the signal processing means controls a frequency / gain characteristic of an audio signal output from the signal generating means according to the generated coefficient. 前記信号処理手段は、生成した係数によって前記信号発生手段から出力される音声信号のカットオフ周波数を制御することを特徴とする請求項3に記載の楽音制御装置。   4. The musical tone control apparatus according to claim 3, wherein the signal processing means controls a cut-off frequency of an audio signal output from the signal generating means according to the generated coefficient. 前記信号処理手段は、生成した係数によって前記信号発生手段から出力される音声信号の共振の急峻性であるQファクタを制御することを特徴とする請求項3に記載の楽音制御装置。   4. The musical tone control apparatus according to claim 3, wherein the signal processing unit controls a Q factor which is a resonance steepness of an audio signal output from the signal generating unit according to the generated coefficient. 前記信号処理手段は、生成した係数によって前記信号発生手段から出力される音声信号の出力レベルを制御することを特徴とする請求項3に記載の楽音制御装置。   4. The musical tone control apparatus according to claim 3, wherein the signal processing means controls the output level of the audio signal output from the signal generating means according to the generated coefficient. 前記信号処理手段は、前記信号発生手段から出力される音声信号のレベルが所定の閾値以下である場合に、前記距離検出手段によって検出された距離が近いほど当該出力される音声信号のレベルを大きく減衰するための係数を生成することを特徴とする請求項3に記載の楽音制御装置。   The signal processing unit increases the level of the output audio signal as the distance detected by the distance detection unit is closer when the level of the audio signal output from the signal generation unit is equal to or less than a predetermined threshold. 4. The musical tone control apparatus according to claim 3, wherein a coefficient for attenuation is generated. 前記信号処理手段は、前記信号発生手段から出力される音声信号のレベルが所定の閾値以上である場合に、前記距離検出手段によって検出された距離が近いほど当該出力される音声信号のレベルを大きく減衰するための係数を生成することを特徴とする請求項3に記載の楽音制御装置。   The signal processing unit increases the level of the output audio signal as the distance detected by the distance detection unit is closer when the level of the audio signal output from the signal generation unit is equal to or greater than a predetermined threshold. 4. The musical tone control apparatus according to claim 3, wherein a coefficient for attenuation is generated. 前記信号処理手段は、前記信号発生手段から出力される音声信号のレベルが前記所定の閾値以上である場合に、前記距離検出手段によって検出された距離が近いほど当該閾値を高く変更することを特徴とする請求項9に記載の楽音制御装置。   The signal processing means, when the level of the audio signal output from the signal generation means is equal to or higher than the predetermined threshold, changes the threshold higher as the distance detected by the distance detection means is closer. The musical tone control apparatus according to claim 9. 前記信号処理手段は、前記距離検出手段によって検出された距離に応じて、前記信号発生手段から出力される音声信号の立ち上がりのアタック時間および又は消音までのリリース時間を制御することを特徴とする請求項1又は2に記載の楽音制御装置。   The signal processing means controls the attack time of the rising edge of the audio signal output from the signal generating means and / or the release time until mute according to the distance detected by the distance detecting means. Item 3. The musical tone control device according to Item 1 or 2. 入力される音声に応じて音声信号を出力する信号発生手段を有するマイクロフォンと音声入力の対象者の口又はその周辺との距離を距離検出手段によって検出するステップAと、
前記ステップAによって検出された距離に応じて前記信号発生手段から出力される音声信号に対してエフェクト処理を施すステップBと、
を実行する楽音制御方法。
A step A for detecting a distance between a microphone having a signal generating means for outputting a sound signal in accordance with an input sound and a mouth of the subject of sound input or the vicinity thereof by a distance detecting means;
Applying effect processing to the audio signal output from the signal generating means according to the distance detected in step A;
Perform a musical sound control method.
前記ステップBは、前記マイクロフォン内に収容されている信号処理手段によってエフェクト処理を行うことを特徴とする請求項12に記載の楽音制御方法。   13. The musical tone control method according to claim 12, wherein the step B performs effect processing by signal processing means accommodated in the microphone. 前記ステップAは、前記距離検出手段によって前記マイクロフォンの外部に向けて照射された光の反射光が受光されたときに当該反射光の強度によって距離を検出し、前記ステップBは、前記ステップAによって検出された距離に応じてエフェクト処理の係数を生成し、当該生成した係数によって前記信号発生手段から出力される音声信号を制御することを特徴とする請求項12又は13に記載の楽音制御方法。   The step A detects the distance by the intensity of the reflected light when the reflected light of the light emitted toward the outside of the microphone is received by the distance detecting means, and the step B is performed by the step A 14. The musical tone control method according to claim 12, wherein a coefficient for effect processing is generated according to the detected distance, and an audio signal output from the signal generating means is controlled based on the generated coefficient. 前記ステップBは、生成した係数によって前記信号発生手段から出力される音声信号の周波数・ゲイン特性を制御することを特徴とする請求項14に記載の楽音制御方法。   15. The musical tone control method according to claim 14, wherein the step B controls a frequency / gain characteristic of an audio signal output from the signal generating means according to the generated coefficient. 前記ステップBは、生成した係数によって前記信号発生手段から出力される音声信号のカットオフ周波数を制御することを特徴とする請求項14に記載の楽音制御方法。   15. The musical sound control method according to claim 14, wherein the step B controls a cut-off frequency of the audio signal output from the signal generating means according to the generated coefficient. 前記ステップBは、生成した係数によって前記信号発生手段から出力される音声信号の共振の急峻性であるQファクタを制御することを特徴とする請求項14に記載の楽音制御方法。   15. The musical tone control method according to claim 14, wherein the step B controls a Q factor which is a steepness of resonance of an audio signal output from the signal generating means according to the generated coefficient. 前記ステップBは、生成した係数によって前記信号発生手段から出力される音声信号の出力レベルを制御することを特徴とする請求項14に記載の楽音制御方法。   15. The musical sound control method according to claim 14, wherein the step B controls the output level of the audio signal output from the signal generating means according to the generated coefficient. 前記ステップBは、前記信号発生手段から出力される音声信号のレベルが所定の閾値以下である場合に、前記ステップAによって検出された距離が近いほど当該出力される音声信号のレベルを大きく減衰するための係数を生成することを特徴とする請求項14に記載の楽音制御方法。   In the step B, when the level of the audio signal output from the signal generating means is not more than a predetermined threshold value, the level of the output audio signal is greatly attenuated as the distance detected in the step A is closer. 15. The musical sound control method according to claim 14, wherein a coefficient for generating the sound is generated. 前記ステップBは、前記信号発生手段から出力される音声信号のレベルが所定の閾値以上である場合に、前記ステップAによって検出された距離が近いほど当該出力される音声信号のレベルを大きく減衰するための係数を生成することを特徴とする請求項14に記載の楽音制御方法。   In the step B, when the level of the audio signal output from the signal generating means is equal to or greater than a predetermined threshold, the level of the output audio signal is greatly attenuated as the distance detected in the step A is closer. 15. The musical sound control method according to claim 14, wherein a coefficient for generating the sound is generated. 前記ステップBは、前記信号発生手段から出力される音声信号のレベルが前記所定の閾値以上である場合に、前記ステップAによって検出された距離が近いほど当該閾値を高く変更することを特徴とする請求項20に記載の楽音制御方法。   In the step B, when the level of the audio signal output from the signal generating means is equal to or higher than the predetermined threshold, the threshold is changed higher as the distance detected in the step A is closer. The musical tone control method according to claim 20. 前記ステップBは、前記ステップAによって検出された距離に応じて、前記信号発生手段から出力される音声信号の立ち上がりのアタック時間および又は消音までのリリース時間を制御することを特徴とする請求項12又は13に記載の楽音制御方法。   13. The step B controls the attack time of the rising edge of the audio signal output from the signal generating means and / or the release time until mute according to the distance detected in the step A. Or the musical sound control method of 13.
JP2005302462A 2005-10-18 2005-10-18 Device and method for controlling musical sound Pending JP2007114239A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005302462A JP2007114239A (en) 2005-10-18 2005-10-18 Device and method for controlling musical sound

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005302462A JP2007114239A (en) 2005-10-18 2005-10-18 Device and method for controlling musical sound

Publications (1)

Publication Number Publication Date
JP2007114239A true JP2007114239A (en) 2007-05-10

Family

ID=38096536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005302462A Pending JP2007114239A (en) 2005-10-18 2005-10-18 Device and method for controlling musical sound

Country Status (1)

Country Link
JP (1) JP2007114239A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011114510A (en) * 2009-11-26 2011-06-09 Kenwood Corp Wireless device
WO2018012448A1 (en) * 2016-07-15 2018-01-18 パナソニックIpマネジメント株式会社 Microphone unit and noise reduction device using same, and integrated circuit component
JP2019149776A (en) * 2018-02-28 2019-09-05 株式会社第一興商 microphone
US10540139B1 (en) 2019-04-06 2020-01-21 Clayton Janes Distance-applied level and effects emulation for improved lip synchronized performance
CN112261527A (en) * 2020-10-21 2021-01-22 广东得胜电子有限公司 Control circuit and method for adjusting microphone gain through distance induction

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011114510A (en) * 2009-11-26 2011-06-09 Kenwood Corp Wireless device
WO2018012448A1 (en) * 2016-07-15 2018-01-18 パナソニックIpマネジメント株式会社 Microphone unit and noise reduction device using same, and integrated circuit component
CN109417661A (en) * 2016-07-15 2019-03-01 松下知识产权经营株式会社 Microphone unit and the noise reducing device and integrated circuit components for using it
EP3471429A4 (en) * 2016-07-15 2019-07-10 Panasonic Intellectual Property Management Co., Ltd. Microphone unit and noise reduction device using same, and integrated circuit component
US10755688B2 (en) 2016-07-15 2020-08-25 Panasonic Intellectual Property Management Co., Ltd. Microphone unit and noise reduction device using same, and integrated circuit component
JP2019149776A (en) * 2018-02-28 2019-09-05 株式会社第一興商 microphone
JP7033466B2 (en) 2018-02-28 2022-03-10 株式会社第一興商 microphone
US10540139B1 (en) 2019-04-06 2020-01-21 Clayton Janes Distance-applied level and effects emulation for improved lip synchronized performance
US10871937B2 (en) 2019-04-06 2020-12-22 Clayton Janes Distance-applied level and effects emulation for improved lip synchronized performance
CN112261527A (en) * 2020-10-21 2021-01-22 广东得胜电子有限公司 Control circuit and method for adjusting microphone gain through distance induction

Similar Documents

Publication Publication Date Title
JP2007114239A (en) Device and method for controlling musical sound
JP6435644B2 (en) Electronic musical instrument, pronunciation control method and program
JP3671545B2 (en) Electronic musical instruments
JP2019012131A (en) Electronic wind instrument, method for controlling the same, and program for the same
JP6728843B2 (en) Electronic musical instrument, musical tone generating device, musical tone generating method and program
JP7140083B2 (en) Electronic wind instrument, control method and program for electronic wind instrument
JP4091892B2 (en) Singing voice evaluation device, karaoke scoring device and program thereof
JP5306022B2 (en) Karaoke system with harmony volume adjustment function
JP6326976B2 (en) Electronic musical instrument, pronunciation control method for electronic musical instrument, and program
JP4487909B2 (en) Voice control device and voice control method
JP6753250B2 (en) Musical tone generator, musical tone generator, electronic musical instrument, and program
JP6435645B2 (en) Electronic musical instrument, pronunciation control method for electronic musical instrument, and program
JP2018146928A (en) Electronic musical instrument, musical sound generating method, and program
JP2016177135A (en) Electronic musical instrument, sound production control method of the same, and program
JP4131288B2 (en) Performance assist device
JP6671633B2 (en) Electronic wind instrument, musical sound generation method and program
JP2007193151A (en) Musical sound control device and program of musical sound control processing
JP4172452B2 (en) Karaoke device with noise gate
JP2011197235A (en) Sound signal control device and karaoke device
EP3757985A1 (en) Electronic musical instrument, method and program
JP5625429B2 (en) Karaoke equipment
JP2011040831A (en) Headphone and method for canceling digital noise
KR100465754B1 (en) Device For Digital Composition Through Midi-Microphone
JP6341356B2 (en) Musical sound generating apparatus, musical sound generating method and program
JP6484970B2 (en) Distortion device, distortion control method, and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080515