JP2007114239A - Device and method for controlling musical sound - Google Patents
Device and method for controlling musical sound Download PDFInfo
- Publication number
- JP2007114239A JP2007114239A JP2005302462A JP2005302462A JP2007114239A JP 2007114239 A JP2007114239 A JP 2007114239A JP 2005302462 A JP2005302462 A JP 2005302462A JP 2005302462 A JP2005302462 A JP 2005302462A JP 2007114239 A JP2007114239 A JP 2007114239A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- audio signal
- microphone
- coefficient
- level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、楽音制御装置および楽音制御方法に関し、特に、マイクロフォンから出力される音声信号を制御する楽音制御装置および楽音制御方法に関するものである。 The present invention relates to a musical tone control device and a musical tone control method, and more particularly to a musical tone control device and a musical tone control method for controlling an audio signal output from a microphone.
広く普及しているカラオケシステムにおいては、歌唱する対象者は伴奏曲に合わせてマイクロフォンに音声を入力する。伴奏曲は自動演奏装置によって生成されるが、近年のカラオケシステムの中には、この自動演奏装置に様々な機能を持たせた製品がある。また、自動演奏装置の機能に関する提案もいくつかなされている。例えば、ある提案の歌唱力採点機能付自動演奏装置においては、カラオケで大きく歌うべき場合には通常、人は声を張り上げるのではなく、声の大きさは変えないでマイクロフォンを口に近づけることが多い。そこで、マイクロフォンと歌唱者の口との距離の遠近を判定すれば、歌唱者が一定の音量で歌うべき箇所で、そのように歌っているかどうかが間接的に判断できることに着目して、歌唱者が歌唱する際、あらかじめ生成された時点ごとに、マイクロフォンと歌唱者の口との距離の遠近、および、あらかじめ記憶された歌唱の手本となるメロディデータの音量値を検知して、そのメロディデータの音量値の大小と、マイクロフォンと歌唱者の口との距離の遠近とを対比することによって、歌唱者の歌唱力を採点する構成になっている(特許文献1参照)。
しかしながら、上記特許文献1を含めた従来の技術においては、歌唱力を採点することは可能であるが、歌唱力を実際よりも向上させるものではない。今日のように広く普及しているカラオケは、歌唱力を競い合うというより、会社などの団体における親睦、宴会、接待などのイベントとして利用されている。しかし、歌唱力に自身のない人にとっては皆の前で歌うことは恥ずかしく、カラオケのイベントを伴う親睦、宴会、接待などは苦痛を伴うことになる。一方、自己顕示欲の強い人の場合には、プロの歌手をまねてマイクロフォンに口を近づけ過ぎて歌ったり、大声で歌ったりすることが多い。マイクロフォンに口を近づけ過ぎる場合には、ブレスノイズ(息継ぎノイズ)、口腔内の唾の粘性による音、舌が口腔内であばれる音などの不快な音が発生する。また、大声で歌うことも聞いている人たちに不快感を与える結果となる。
本発明は、このような従来の課題を解決するためのものであり、マイクロフォンから出力される音声信号を制御することによって、音質を向上させて歌唱力を実際よりも高めることを目的とする。さらに、マイクロフォンから出力される音声信号を制御することによって、ブレスノイズや口腔内の不快な音を抑制することを目的とする。
However, in the conventional techniques including the above-mentioned
An object of the present invention is to solve such a conventional problem, and it is an object of the present invention to improve the singing ability by improving the sound quality by controlling an audio signal output from a microphone. Furthermore, it aims at suppressing breath noise and an unpleasant sound in the oral cavity by controlling the audio signal output from the microphone.
請求項1に記載の楽音制御装置は、マイクロフォンに入力される音声に応じて音声信号を出力する信号発生手段(実施形態においては、図2のマイク素子5に相当する)と、マイクロフォンと音声入力の対象者の口又はその周辺との距離を検出する距離検出手段(実施形態においては、図2の距離センサ6および図4のCPU10に相当する)と、距離検出手段によって検出された距離に応じて信号発生手段から出力される音声信号に対してエフェクト処理を施す信号処理手段(実施形態においては、図4のCPU10およびDSP部18に相当する)と、を備えた構成になっている。
The musical tone control apparatus according to
請求項1の楽音制御装置において、請求項2に記載したように、信号処理手段は、前記マイクロフォン内に収容されているような構成にしてもよい。
In the musical tone control apparatus according to
請求項1又は2の楽音制御装置において、請求項3に記載したように、距離検出手段は、マイクロフォンの外部に向けて光を照射してその反射光の強度によって距離を検出し、信号処理手段は、距離検出手段によって検出された距離に応じてエフェクト処理の係数(実施形態においては、図4のCPU10からDSP部18に入力される係数に相当する)を生成し、当該生成した係数によって信号発生手段から出力される音声信号を制御するような構成にしてもよい。
3. The musical tone control apparatus according to
請求項3の楽音制御装置において、請求項4に記載したように、信号処理手段は、生成した係数によって信号発生手段から出力される音声信号の周波数・ゲイン特性を制御するような構成にしてもよい。
あるいは、請求項3の楽音制御装置において、請求項5に記載したように、信号処理手段は、生成した係数によって信号発生手段から出力される音声信号のカットオフ周波数を制御するような構成にしてもよい。
あるいは、請求項3の楽音制御装置において、請求項6に記載したように、信号処理手段は、生成した係数によって信号発生手段から出力される音声信号の共振の急峻性であるQファクタを制御するような構成にしてもよい。
あるいは、請求項3の楽音制御装置において、請求項7に記載したように、信号処理手段は、生成した係数によって信号発生手段から出力される音声信号の出力レベルを制御するような構成にしてもよい。
あるいは、請求項3の楽音制御装置において、請求項8に記載したように、信号処理手段は、信号発生手段から出力される音声信号のレベルが所定の閾値以下である場合に、距離検出手段によって検出された距離が近いほど当該出力される音声信号のレベルを大きく減衰するための係数を生成するような構成にしてもよい。
あるいは、請求項3の楽音制御装置において、請求項9に記載したように、信号処理手段は、信号発生手段から出力される音声信号のレベルが所定の閾値以上である場合に、距離検出手段によって検出された距離が近いほど当該出力される音声信号のレベルを大きく減衰するための係数を生成するような構成にしてもよい。
4. The musical tone control apparatus according to
Alternatively, in the musical tone control apparatus according to
Alternatively, in the musical tone control apparatus according to
Alternatively, in the musical tone control apparatus according to
Alternatively, in the musical tone control device according to
Alternatively, in the musical tone control apparatus according to
請求項9の楽音制御装置において、請求項10に記載したように、信号処理手段は、信号発生手段から出力される音声信号のレベルが所定の閾値以上である場合に、距離検出手段によって検出された距離が近いほど当該閾値を高く変更するような構成にしてもよい。
In the musical tone control apparatus according to claim 9, as described in
請求項1又は2の楽音制御装置において、請求項11に記載したように、距離検出手段によって検出された距離に応じて、信号発生手段から出力される音声信号の立ち上がりのアタック時間および又は消音までのリリース時間を制御するような構成にしてもよい。
In the musical tone control device according to
請求項12に記載の楽音制御方法は、入力される音声に応じて音声信号を出力する信号発生手段(実施形態においては、図2のマイク素子5に相当する)を有するマイクロフォンと音声入力の対象者の口又はその周辺との距離を距離検出手段(実施形態においては、図2の距離センサ6に相当する)によって検出するステップAと、ステップAによって検出された距離に応じて信号発生手段から出力される音声信号に対してエフェクト処理を施すステップBと、を実行する構成になっている。
実施形態においては、ステップAは、図4のCPU10の処理に相当し、ステップBは、図4のCPU10およびDSP部18の処理に相当する。
A musical sound control method according to a twelfth aspect of the present invention includes a microphone having signal generation means (corresponding to the
In the embodiment, Step A corresponds to the processing of the
請求項12に記載の楽音制御方法において、請求項13に記載したように、ステップBは、マイクロフォン内に収容されている信号処理手段によってエフェクト処理を行うような構成にしてもよい。 In a musical sound control method according to a twelfth aspect, as described in the thirteenth aspect, the step B may be configured such that the effect processing is performed by the signal processing means accommodated in the microphone.
請求項12又は13に記載の楽音制御方法において、請求項14に記載したように、ステップAは、距離検出手段によってマイクロフォンの外部に向けて照射された光の反射光が受光されたときに当該反射光の強度によって距離を検出し、ステップBは、ステップAによって検出された距離に応じてエフェクト処理の係数(実施形態においては、図4のCPU10からDSP部18に入力される係数に相当する)を生成し、当該生成した係数によって信号発生手段から出力される音声信号を制御するような構成にしてもよい。
In the musical sound control method according to
請求項14に記載の楽音制御方法において、請求項15に記載したように、ステップBは、生成した係数によって信号発生手段から出力される音声信号の周波数・ゲイン特性を制御するような構成にしてもよい。
あるいは、請求項14に記載の楽音制御方法において、請求項16に記載したように、ステップBは、生成した係数によって信号発生手段から出力される音声信号のカットオフ周波数を制御するような構成にしてもよい。
あるいは、請求項14に記載の楽音制御方法において、請求項17に記載したように、ステップBは、生成した係数によって信号発生手段から出力される音声信号の共振の急峻性であるQファクタを制御するような構成にしてもよい。
あるいは、請求項14に記載の楽音制御方法において、請求項18に記載したように、ステップBは、生成した係数によって信号発生手段から出力される音声信号の出力レベルを制御するような構成にしてもよい。
あるいは、請求項14に記載の楽音制御方法において、請求項18に記載したように、ステップBは、信号発生手段から出力される音声信号のレベルが所定の閾値以下である場合に、ステップAによって検出された距離が近いほど当該出力される音声信号のレベルを大きく減衰するための係数を生成するような構成にしてもよい。
あるいは、請求項14に記載の楽音制御方法において、請求項19に記載したように、ステップBは、信号発生手段から出力される音声信号のレベルが所定の閾値以上である場合に、ステップAによって検出された距離が近いほど当該出力される音声信号のレベルを大きく減衰するための係数を生成するような構成にしてもよい。
15. The musical sound control method according to
Alternatively, in the musical sound control method according to
Alternatively, in the musical sound control method according to
Alternatively, in the musical sound control method according to
Alternatively, in the musical sound control method according to
Alternatively, in the musical sound control method according to
請求項20に記載の楽音制御方法において、請求項21に記載したように、ステップBは、信号発生手段から出力される音声信号のレベルが所定の閾値以上である場合に、ステップAによって検出された距離が近いほど当該閾値を高く変更するような構成にしてもよい。
In the musical tone control method according to
請求項12又は13に記載の楽音制御方法において、請求項22に記載したように、ステップBは、ステップAによって検出された距離に応じて、信号発生手段から出力される音声信号の立ち上がりのアタック時間および又は消音までのリリース時間を制御するような構成にしてもよい。
14. The musical sound control method according to claim 12 or 13, wherein, as described in
本発明の楽音制御装置および楽音制御方法によれば、音質を向上させて歌唱力を実際よりも高めるような効果が得られる。さらに、ブレスノイズや口腔内の不快な音を抑制するという効果が得られる。 According to the musical tone control apparatus and musical tone control method of the present invention, it is possible to obtain an effect that the sound quality is improved and the singing ability is increased more than actual. Furthermore, the effect of suppressing breath noise and unpleasant sounds in the oral cavity can be obtained.
以下、本発明による楽音制御装置およびその楽音制御方法の第1実施形態ないし第8実施形態について、図を参照して詳細に説明する。
図1は、各実施形態に共通するカラオケ用のマイクロフォン1の外観図であり、メッシュ状又は多数の孔が形成されたマイクカバー2が取り付けられている。図2は、マイクロフォン1の内部の構造を示す図である。マイクカバー2には開口部3が形成され、マイクカバー2の奥のマイクロフォン1の内部には基板4が取り付けられている。その基板4には、マイクカバー2を通して入力される音声を電気信号に変換して音声信号を出力するマイク素子5、マイクロフォン1と音声入力の対象者すなわち歌い手の口又はその周辺(例えば、下唇の周辺の部分や上唇の周辺の鼻若しくは鼻の下の部分;以下、総称して口という)との距離を検出する距離センサ6が搭載されている。図には示していないが、距離センサ6には、マイクロフォン1の外側に向けて赤外線を照射する発光素子、口で反射した赤外線の反射光を受光して光電変換し、反射光の光量に応じた検出信号を出力する受光素子が内蔵されている。マイク素子5からの音声信号はリード線7によってマイクロフォン1から出力され、距離センサ6からの検出信号はリード線8によってマイクロフォン1から出力される。
図3は、距離センサ6から歌い手の口までの距離D(cm)と、反射光を光電変換したときの検出信号のレベルE(mV)との関係を表す図である。この図に示すように、距離D(cm)と検出信号のレベルE(mV)とは反比例の関係になっている。
DESCRIPTION OF EMBODIMENTS Hereinafter, a first embodiment to an eighth embodiment of a musical tone control device and a musical tone control method according to the present invention will be described in detail with reference to the drawings.
FIG. 1 is an external view of a
FIG. 3 is a diagram showing the relationship between the distance D (cm) from the
図4は、本発明による楽音制御装置を用いた各実施形態に共通のカラオケシステムの構成を示すブロック図である。図4において、CPU10は、システムバス11を介して、プログラムROM12、ワークRAM13、操作スイッチ14、表示部15、音源16、曲データROM17、DSP(Digital Signal Processor)部18、および図2に示した距離センサ6からの検出信号を入力するA/D変換回路9に接続されている。CPU10は、システムバス11を介して接続された上記各部との間でデータやコマンドを授受してカラオケシステム全体を制御する。A/D変換回路9は、距離センサ6からの検出信号のレベルE(mV)をアナログからデジタルに変換して、図3に示した関係に基づいて、マイクロフォン1と歌い手の口との距離データとしてCPU10に入力する。以下、距離センサ6およびA/D変換回路9を総称して「センサ部」という。
FIG. 4 is a block diagram showing a configuration of a karaoke system common to the embodiments using the musical tone control apparatus according to the present invention. In FIG. 4, a
プログラムROM12は、CPU10によって実行される楽音制御処理のプログラムや初期データなどをあらかじめ格納している。ワークRAM13は、CPU10によって処理されるデータを一時的に記憶するワークエリアであり、各種のレジスタ、フラグが設けられている。操作スイッチ14は、曲選択キー、曲スタートキー、曲停止キーなどのスイッチ群で構成され、操作に応じたコマンドやデータをCPU10に入力する。表示部15は、カラオケ曲のリストや歌詞などを表示する。音源16は、PCM波形データなどを記憶する波形ROMを内蔵しており、CPU10の発音コマンドに応じて、デジタルの楽音信号を生成する。曲データROM17は、カラオケの伴奏曲の楽音データおよび歌詞データを記憶している。
The
一方、図2に示したマイク素子5はプリアンプ19に接続されている。プリアンプ19は、マイク素子5から出力される音声信号を増幅してA/D変換回路20に入力する。A/D変換回路20は、その音声信号をアナログからデジタルに変換してDSP部18に入力する。以下、マイク素子5、プリアンプ19、およびA/D変換回路20を総称して「マイク部」という。音源16は、CPU10によって曲データROM17から読み出されて入力されたカラオケの伴奏曲に応じて、内部の波形ROMから読み出した波形データに基づいて伴奏曲の楽音信号を生成してDSP部18に入力する。DSP部18は、CPU10からの係数に基づいてマイク部から入力される音声信号に対する信号処理を行って、その音声信号と伴奏曲の楽音信号とを合成し、さらにエフェクト処理を施してD/A変換回路21に入力する。D/A変換回路21は、DSP部18から入力された合成信号をデジタルからアナログに変換し、パワーアンプ22に入力してスピーカ23から発音させる。
On the other hand, the
図5は、第1実施形態におけるDSP部18の内部構成を示すブロック図である。図5において、イコライザ181は、マイク部から入力された音声信号に対して、CPU10から入力された係数に基づいて信号処理を施して、信号合成部182に入力する。信号合成部182は、イコライザ181から入力された音声信号と、図4の音源16から入力された伴奏曲の楽音信号とを合成して、トータルエフェクタ183に入力する。トータルエフェクタ183は、信号合成部182によって合成された音声信号および伴奏曲の楽音信号に対して、エコー、リバーブ、コーラスなどの最終的なエフェクト処理を行って、図4のD/A変換回路21に入力する。
FIG. 5 is a block diagram showing an internal configuration of the
次に、第1実施形態の楽音制御処理方法について、図6および図7に示すCPU10のフローチャートおよび図8に示す特性グラフに基づいて説明する。
図6は、各実施形態に共通するCPU10のメインルーチンのフローチャートである。まず、所定のイニシャライズ(ステップSA1)の後、曲選択キーがオンされたか否かを判別し(ステップSA2)、曲選択キーがオンされたときは、さらに曲スタートキーがオンされたか否かを判別する(ステップSA3)。曲スタートキーがオンされたときは、選択された曲データを曲データROM17から読み出し(ステップSA4)、音源16に送付する(ステップSA5)。次に、DSP制御処理を実行する(ステップSA6)。この後は、曲が終了したか又は停止キーがオンされたか否かを判別し(ステップSA7)、曲の終了又は停止キーオンの場合は、ステップSA2に移行して曲選択キーのオンを検出する。
Next, the musical tone control processing method of the first embodiment will be described based on the flowchart of the
FIG. 6 is a flowchart of a main routine of the
図7は、第1実施形態におけるDSP制御処理のフローチャートである。センサ部より距離データを受信して(ステップSB1)、その距離データが0.5cm以下であるか、0.6cmから4.9cmまでの範囲であるか、又は5cm以上であるかを判別する(ステップSB2)。距離データが0.5cm以下である場合には、音声信号の100Hz以下の周波数を−5dB減衰させる係数を生成する(ステップSB3)。距離データが0.6cmから4.9cmまでの範囲である場合には、音声信号の100Hz以下の周波数を−10dB減衰させる係数を生成する(ステップSB4)。距離データが5cm以上である場合には、音声信号の100Hz以下の周波数を−60dB減衰させる係数を生成する(ステップSB5)。ステップSB3、ステップSB4、およびステップSB5のいずれかにおいて係数を生成したときは、DSP部18にその係数を送付する(ステップSB6)。そして、図6のメインルーチンに戻る。 FIG. 7 is a flowchart of the DSP control process in the first embodiment. Distance data is received from the sensor unit (step SB1), and it is determined whether the distance data is 0.5 cm or less, a range from 0.6 cm to 4.9 cm, or 5 cm or more ( Step SB2). When the distance data is 0.5 cm or less, a coefficient for attenuating a frequency of 100 Hz or less of the audio signal by −5 dB is generated (step SB3). If the distance data is in the range from 0.6 cm to 4.9 cm, a coefficient for attenuating a frequency of 100 Hz or less of the audio signal by −10 dB is generated (step SB4). If the distance data is 5 cm or more, a coefficient for attenuating a frequency of 100 Hz or less of the audio signal by −60 dB is generated (step SB5). When a coefficient is generated in any of step SB3, step SB4, and step SB5, the coefficient is sent to the DSP unit 18 (step SB6). Then, the process returns to the main routine of FIG.
図8は、CPU10から送付された係数に応じたDSP部18のイコライザ181における信号処理によって、音声信号の周波数f(Hz)とイコライザゲイン(EQ・GAIN)との関係を示す図である。図8の例では、距離データDが5cm、3cm、0.5cmのそれぞれにおいて、点線に示すように、100Hz以下のイコライザゲインを減衰している。
FIG. 8 is a diagram showing a relationship between the frequency f (Hz) of the audio signal and the equalizer gain (EQ · GAIN) by the signal processing in the
このように、第1実施形態によれば、CPU10は、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて生成した係数によって、マイク部から入力される音声信号の低音域の周波数のゲイン特性を制御する。具体的には、図8に示すように、マイクロフォン1に口が近づくほど低音域を大きく減衰するように制御する。このようなエフェクト処理は、音質の向上のためにプロのミキサー(編曲者)がよく行うミキシングの技法である。
したがって、プロのミキサーによってミキシングされたように、音質を向上させて歌唱力を実際よりも高めることができる。
As described above, according to the first embodiment, the
Therefore, as mixed by a professional mixer, the sound quality can be improved and the singing ability can be increased more than the actual one.
次に、本発明の第2実施形態について説明する。第2実施形態のおけるDSP部18の構成は、図5に示した第1実施形態の構成と同じである。
図9は、第2実施形態におけるCPU10のDSP制御処理のフローチャートである。センサ部より距離データを受信して(ステップSC1)、その距離データが0.5cm以下であるか、0.6cmから9.9cmまでの範囲であるか、又は10cm以上であるかを判別する(ステップSC2)。距離データが0.5cm以下である場合には、音声信号の8kHz以上の周波数をカットする係数を生成する(ステップSC3)。距離データが0.6cmから9.9cmまでの範囲である場合には、音声信号の9kHz以上の周波数をカットする係数を生成する(ステップSC4)。距離データが10cm以上である場合には、音声信号の10kHz以上の周波数をカットする係数を生成する(ステップSC5)。ステップSC3、ステップSC4、およびステップSC5のいずれかにおいて係数を生成したときは、DSP部18にその係数を送付する(ステップSC6)。そして、図6のメインルーチンに戻る。
Next, a second embodiment of the present invention will be described. The configuration of the
FIG. 9 is a flowchart of the DSP control process of the
図10は、CPU10から送付された係数に応じたDSP部18のイコライザ181における信号処理によって、音声信号の周波数f(Hz)とイコライザゲイン(EQ・GAIN)との関係を示す図である。図10の例では、点線に示すように、距離データDが10cmの場合には、8kHz以上の高域の周波数がカットされ、距離データDが5cmの場合には、9kHz以上の高域の周波数がカットされ、距離データDが0.5cmの場合には、10kHz以上の高域の周波数がカットされている。
FIG. 10 is a diagram illustrating a relationship between the frequency f (Hz) of the audio signal and the equalizer gain (EQ · GAIN) by the signal processing in the
このように、第2実施形態によれば、CPU10は、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて生成した係数によって、マイク部から入力される音声信号の高音域の周波数をカットするように制御する。具体的には、図10に示すように、マイクロフォン1に口が近づくほどカットする周波数を下げるように制御する。
したがって、歌い手がマイクロフォン1に口を近づけた場合に、音声の高域成分が手やマイクロフォン1のカバー2で反射して、スピーカ音の高域成分と空中で加算されて、騒がしく感じる現象を回避することにより、音質を向上させて歌唱力を実際よりも高めることができる。
As described above, according to the second embodiment, the
Therefore, when the singer brings his mouth close to the
次に、本発明の第3実施形態について説明する。第2実施形態のおけるDSP部18の構成は、図5に示した第1実施形態の構成と同じである。
図11は、第3実施形態におけるCPU10のDSP制御処理のフローチャートである。センサ部より距離データを受信して(ステップSD1)、その距離データが0.5cm以下であるか、0.6cmから4.9cmまでの範囲であるか、又は5cm以上であるかを判別する(ステップSD2)。距離データが0.5cm以下である場合には、音声信号の200Hzを中心にQの値が5になる係数を生成する(ステップSD3)。距離データが0.6cmから4.9cmまでの範囲である場合には、音声信号の200Hzを中心にQの値が1になる係数を生成する(ステップSD4)。距離データが5cm以上である場合には、音声信号の200Hzを中心にQの値が0.5になる係数を生成する(ステップSD5)。ステップSD3、ステップSD4、およびステップSD5のいずれかにおいて係数を生成したときは、DSP部18にその係数を送付する(ステップSD6)。そして、図6のメインルーチンに戻る。
Next, a third embodiment of the present invention will be described. The configuration of the
FIG. 11 is a flowchart of a DSP control process of the
図12は、マイクロフォン1と歌い手の口との距離D(cm)に応じて生成した係数によって、Qの値(Qファクタ)を変化させたイコライザ181のゲイン特性を示す図である。このイコライザ181は、特性の鋭さであるQファクタを自由に設計できるパラメトリック・イコライザで構成されている。イコライザ181は、CPU10から送付された係数によって、マイクロフォン1に歌い手の口が近いほど、Qファクタを大きくして、200Hzを中心とする周波数帯域をカットする。
FIG. 12 is a diagram showing gain characteristics of the
このように、第3実施形態によれば、CPU10は、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて生成した係数によって、マイク部から入力される音声信号の200Hzを中心とする周波数帯域をカットして、聴感上不愉快になりやすくなるのを防止することにより、音質を向上させて歌唱力を実際よりも高めることができる。
さらに、第2実施形態におけるイコライザとこの第3実施形態におけるイコライザとを同一のパラメトリック・イコライザで構成できるので、DSP部18の処理負荷を軽減できるとともに、資源の利用率を高めることができる。
As described above, according to the third embodiment, the
Furthermore, since the equalizer in the second embodiment and the equalizer in the third embodiment can be configured by the same parametric equalizer, the processing load of the
次に、本発明の第4実施形態について説明する。
図13は、第4実施形態におけるDSP部18の内部構成を示すブロック図である。図13において、VCA(Voltage Controlled Amplifier :電圧制御増幅器)184は、通常は入出力特性が1対1の増幅率(0dB)であるが、CPU10から送付される直流電圧の係数に応じて増幅率が変化する。したがって、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて生成した係数に応じて、マイク部から入力される音声信号のレベルを変化させる。
Next, a fourth embodiment of the present invention will be described.
FIG. 13 is a block diagram showing an internal configuration of the
図14は、第4実施形態におけるCPU10のDSP制御処理のフローチャートである。センサ部より距離データを受信して(ステップSE1)、その距離データが5cm以下であるか否かを判別する(ステップSE2)。5cm以下である場合には、さらに3cm以下であるか否かを判別し(ステップSE3)、3cm以下である場合には、さらに0.5cm以下であるか否かを判別する(ステップSE4)。0.5cm以下である場合には、マイク部からの入力レベルを1/3倍する係数を生成する(ステップSE5)。ステップSE4において、距離データが0.5cmより大きく3cmまでの範囲である場合には、マイク部からの入力レベルを1/2倍する係数を生成する(ステップSE6)。ステップSE3において、距離データが3cmより大きく5cmまでの範囲である場合には、マイク部からの入力レベルを1/1.5倍する係数を生成する(ステップSE7)。ステップSE2において、距離データが5cmより大きい場合には、マイク部からの入力レベルをそのまま出力(1倍)する係数を生成する(ステップSE8)。いずれかの値の係数を生成した後は、その係数をDSP部18に送付する(ステップSE9)。そして、図6のメインルーチンに戻る。
FIG. 14 is a flowchart of a DSP control process of the
図15は、マイクロフォン1と歌い手の口との距離D(cm)に応じて生成した係数によって、マイク部から入力される音声信号のレベルを制御するVCA184の入出力特性を示す図である。図15に示すように、マイクロフォン1と歌い手の口との距離が近くなるほど、VCA184への音声信号の入力レベルに対する増幅率を小さくして出力レベルを低下させる。
FIG. 15 is a diagram illustrating the input / output characteristics of the
このように、第4実施形態によれば、CPU10は、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて生成した係数によって、マイク部から入力される音声信号のレベルを制御し、マイクロフォン1に口を近づけて歌う場合でも、ブレスノイズや口腔内の不快な音を防止することにより、音質を向上させて歌唱力を実際よりも高めることができる。
As described above, according to the fourth embodiment, the
次に、本発明の第5実施形態について説明する。
図16は、第5実施形態におけるDSP部18の内部構成を示すブロック図である。図16において、エキスパンダ185は、通常は1対1のゲインの入出力特性(増幅率=0dB)になっているが、マイク部から入力される小さい音声信号をより小さく制御する。ただし、通常のエキスパンダとは異なり、マイク部から入力される大きい音声信号をより大きくする制御は行わない。DSP部18の他の構成については、第1実施形態の場合と同じである。
Next, a fifth embodiment of the present invention will be described.
FIG. 16 is a block diagram showing an internal configuration of the
図17は、第5実施形態におけるCPU10のDSP制御処理のフローチャートである。センサ部より距離データを受信し(ステップSF1)、マイク部からの音声信号の入力レベルが−20dB以下であるか否かを判別する(ステップSF2)。入力レベルが−20dB以下である場合には、センサ部からの距離データが5cmより小さいか否かを判別する(ステップSF3)。5cmより小さい場合には、さらに3cmより小さいか否かを判別する(ステップSF4)。3cmより小さい場合には、さらに0.5cmより小さいか否かを判別する(ステップSF5)。
FIG. 17 is a flowchart of a DSP control process of the
センサ部からの距離データが0.5cmより小さい場合には、マイク部からの入力レベルを1/3倍にする係数を生成する(ステップSF6)。ステップSF5において、センサ部からの距離データが0.5cm以上で3cmより小さい範囲である場合には、マイク部からの入力レベルを1/2倍にする係数を生成する(ステップSF7)。ステップSF4において、センサ部からの距離データが3cm以上で5cmより小さい範囲である場合には、マイク部からの入力レベルを1/1.5倍にする係数を生成する(ステップSF8)。ステップSF3においてセンサ部からの距離データが5cm以上である場合、又は、ステップSF2において、マイク部からの音声信号の入力レベルが−20dBより大きい場合には、マイク部からの入力をそのまま出力(1倍)する係数を生成する(ステップSF9)。いずれかの値の係数を生成したときは、DSP部にその係数を送付する(ステップSF10)。そして、図6のメインルーチンに戻る。 When the distance data from the sensor unit is smaller than 0.5 cm, a coefficient for increasing the input level from the microphone unit by 1/3 is generated (step SF6). In step SF5, when the distance data from the sensor unit is within a range of 0.5 cm or more and smaller than 3 cm, a coefficient for halving the input level from the microphone unit is generated (step SF7). In step SF4, when the distance data from the sensor unit is in a range of 3 cm or more and smaller than 5 cm, a coefficient for increasing the input level from the microphone unit by a factor of 1 / 1.5 is generated (step SF8). If the distance data from the sensor unit is 5 cm or more in step SF3, or if the input level of the audio signal from the microphone unit is greater than −20 dB in step SF2, the input from the microphone unit is output as it is (1 A coefficient to be multiplied is generated (step SF9). When a coefficient having any value is generated, the coefficient is sent to the DSP unit (step SF10). Then, the process returns to the main routine of FIG.
図18は、マイクロフォン1と歌い手の口との距離D(cm)に応じて生成した係数によって、マイク部から入力される音声信号のレベルを制御するエキスパンダ185の入出力特性を示す図である。通常は、エキスパンダ185の入出力特性は1対1になっているが、図18に示すように、マイク部からの音声信号の出力レベルが−20dB以下であるときは、マイクロフォン1と歌い手の口との距離が近くなるほど、マイク部から入力される音声信号のレベルを大きく減衰する。
FIG. 18 is a diagram illustrating input / output characteristics of an
このように、第5実施形態によれば、CPU10は、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて生成した係数によって、マイク部から入力される音声信号のレベルを制御し、音声信号の出力レベルが所定値以下である場合には、ブレスノイズ、口腔内の唾の粘性による音、口腔内で舌があばれる音など、音声信号の出力レベルが小さいときに顕著になる不快な音を防止することにより、音質を向上させて歌唱力を実際よりも高めることができる。
As described above, according to the fifth embodiment, the
次に、本発明の第6実施形態について説明する。
図19は、第6実施形態におけるDSP部18の内部構成を示すブロック図である。図19において、コンプレッサ186は、マイク部から入力される大きい音声信号を圧縮するように制御する。DSP部18の他の構成については、第1実施形態の場合と同じである。
Next, a sixth embodiment of the present invention will be described.
FIG. 19 is a block diagram showing an internal configuration of the
図20は、第6実施形態におけるCPU10のDSP制御処理のフローチャートである。センサ部より距離データを受信して(ステップSG1)、マイク部からの入力レベルが−5dB以上であるか否かを判別する(ステップSG2)。入力レベルが−5dB以上である場合には、センサ部からの距離データが5cmより小さいか否かを判別する(ステップSG3)。5cmより小さい場合には、さらに3cmより小さいか否かを判別する(ステップSG4)。3cmより小さい場合には、さらに0.5cmより小さいか否かを判別する(ステップSG5)。
FIG. 20 is a flowchart of the DSP control processing of the
センサ部からの距離データが0.5cmより小さい場合には、マイク部からの入力レベルを1/3倍にする係数を生成する(ステップSG6)。ステップSG5において、センサ部からの距離データが0.5cm以上で3cmより小さい範囲である場合には、マイク部からの入力レベルを1/2倍にする係数を生成する(ステップSG7)。ステップSG4において、センサ部からの距離データが3cm以上で5cmより小さい範囲である場合には、マイク部からの入力レベルを1/1.5倍にする係数を生成する(ステップSG8)。ステップSG3においてセンサ部からの距離データが5cm以上である場合、又は、ステップSG2において、マイク部からの音声信号の入力レベルが−5dBより小さい場合には、マイク部からの入力をそのまま出力(1倍)する係数を生成する(ステップSG9)。いずれかの値の係数を生成したときは、DSP部にその係数を送付する(ステップSG10)。そして、図6のメインルーチンに戻る。 If the distance data from the sensor unit is smaller than 0.5 cm, a coefficient for increasing the input level from the microphone unit by 1/3 is generated (step SG6). In step SG5, if the distance data from the sensor unit is in the range of 0.5 cm or more and smaller than 3 cm, a coefficient for halving the input level from the microphone unit is generated (step SG7). In step SG4, if the distance data from the sensor unit is in the range of 3 cm or more and less than 5 cm, a coefficient for increasing the input level from the microphone unit by 1 / 1.5 times is generated (step SG8). If the distance data from the sensor unit is 5 cm or more in step SG3, or if the input level of the audio signal from the microphone unit is less than −5 dB in step SG2, the input from the microphone unit is output as it is (1 A coefficient to be multiplied is generated (step SG9). When a coefficient having any value is generated, the coefficient is sent to the DSP unit (step SG10). Then, the process returns to the main routine of FIG.
図21は、マイクロフォン1と歌い手の口との距離D(cm)に応じて生成した係数によって、マイク部から入力される音声信号のレベルを制御する第6実施形態のコンプレッサ186の入出力特性を示す図である。通常は、コンプレッサ186の入出力特性は1対1(圧縮率=0dB)であるが、図21に示すように、マイク部からの音声信号の出力レベルが−5dB以上であるときは、マイクロフォン1と歌い手の口との距離が近くなるほど音声信号の出力レベルを大きく減衰する。
FIG. 21 shows the input / output characteristics of the
このように、第6実施形態によれば、CPU10は、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて生成した係数によって、マイク部から入力される音声信号のレベルを制御し、音声信号のレベルが所定値以上である場合には、マイクロフォン1と歌い手の口との距離が近くなったときに、パワーアンプ22への入力レベルが大き過ぎて音の歪みが発生するのを防止して、音質を向上させて歌唱力を実際よりも高めることができる。
As described above, according to the sixth embodiment, the
次に、本発明の第7実施形態について説明する。第7実施形態におけるDSP部18の構成は、図19に示した第6実施形態の構成と同じである。
図22は、第7実施形態におけるCPU10のDSP制御処理のフローチャートである。センサ部より距離データを受信して(ステップSH1)、センサ部からの距離データが5cm以下であるか否かを判別する(ステップSH2)。5cm以下である場合には、さらに3cm以下であるか否かを判別する(ステップSH3)。3cm以下である場合には、さらに0.5cmより小さいか否かを判別する(ステップSH4)。0.5cmより小さい場合には、閾値のレジスタTHに−5dBをセットする(ステップSH5)。ステップSH4において距離が0.5cm以上、3cm以下である場合には、THに−10dBをセットする(ステップSH6)。ステップSH3において距離が3cmより大きく、5cm以下である場合には、THに−20dBをセットする(ステップSH7)。ステップSH2において距離が5cmより大きい場合には、THに−40dBをセットする(ステップSH8)。
Next, a seventh embodiment of the present invention will be described. The configuration of the
FIG. 22 is a flowchart of the DSP control process of the
ステップSH5、ステップSH6,ステップSH7、又はステップSH8において、センサ部からの距離データに応じた閾値を生成した後は、マイク部からの入力レベルがTHの閾値より大きいか又は閾値以下であるかを判別する(ステップSH9)。マイク部からの入力レベルがTHの閾値より大きい場合には、マイク部からの入力をそのまま出力する係数を生成する(ステップSH10)。一方、マイク部からの入力レベルがTHの閾値以下である場合には、マイク部からの入力を1/4倍して出力する係数を生成する(ステップSH11)。次に、ステップSH10又はSH11において生成した係数をDSP部18に送付する(ステップSH12)。そして、図6のメインルーチンに戻る。 In step SH5, step SH6, step SH7, or step SH8, after generating a threshold value according to the distance data from the sensor unit, it is determined whether the input level from the microphone unit is greater than or less than the TH threshold value. It discriminate | determines (step SH9). If the input level from the microphone unit is larger than the threshold value of TH, a coefficient for outputting the input from the microphone unit as it is is generated (step SH10). On the other hand, when the input level from the microphone unit is equal to or less than the threshold value of TH, a coefficient to be output by multiplying the input from the microphone unit by 1/4 is generated (step SH11). Next, the coefficient generated in step SH10 or SH11 is sent to the DSP unit 18 (step SH12). Then, the process returns to the main routine of FIG.
図23は、マイクロフォン1と歌い手の口との距離D(cm)に応じて生成した係数によって、マイク部から入力される音声信号のレベルを制御する第7実施形態のコンプレッサ186の入出力特性を示す図である。コンプレッサ186の入出力特性はマイク部から入力される音声信号のレベルが閾値以下の場合には、1対1(圧縮率=0dB)であるが、音声信号のレベルが閾値より大きくなると、コンプレッサ186からの出力レベルを減衰する。その場合に、図23に示すように、マイクロフォン1と歌い手の口との距離が近くなるほど、設定する閾値が大きくなる。
FIG. 23 shows the input / output characteristics of the
このように、第7実施形態によれば、CPU10は、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて生成した係数によって、マイク部から入力される音声信号のレベルを制御し、マイクロフォン1と歌い手の口との距離が遠くなったときに、パワーアンプ22への入力レベルが小さ過ぎてスピーカからの音声が貧弱になるのを防止して、音質を向上させて歌唱力を実際よりも高めることができる。
As described above, according to the seventh embodiment, the
次に、本発明の第8実施形態について説明する。第8実施形態においては、DSP部18において音声信号のエンベロープをADSR(アタック、ディケイ、サスティン、リリース)方式によって制御する。ADSR方式については周知の技術であるので説明は省略する。
図24および図25は、第8実施形態におけるCPU10のDSP制御処理のフローチャートである。図24のフローチャートにおいて、マイク部から入力された今回の新たな音声信号のレベルをレジスタLEVELにストアして(ステップSJ1)、LEVELの値が−5dB以上で、且つ前回の音声信号のレベルをストアしたレジスタFLEVELの値が−5dBより小さいか否かを判別する(ステップSJ2)。すなわち、前回基準レベル(−5dB)より小さかった音声信号のレベルが今回上昇して基準レベル以上になったか否かを判別する。今回の音声信号のレベルが−5dB以上になったときは、音声の立ち上がりであるのでアタックフラグATFを1にセットし、リリースフラグREFを0にリセットする(ステップSJ3)。
Next, an eighth embodiment of the present invention will be described. In the eighth embodiment, the
24 and 25 are flowcharts of the DSP control processing of the
ステップSJ2において、今回の音声信号のレベルが−5dBより小さい場合には、FLEVELにストアされている前回の音声信号のレベルが−5dB以上であるか否かを判別する(ステップSJ4)。すなわち、前回基準レベル以上であった音声信号のレベルが今回下降して基準レベルより小さくなったか否かを判別する。今回の音声信号のレベルが−5dBより小さくなったときは、消音が開始しているのでアタックフラグATFを0にリセットし、リリースフラグREFを1にセットする(ステップSJ5)。 In step SJ2, if the level of the current audio signal is lower than −5 dB, it is determined whether or not the level of the previous audio signal stored in LEVEL is −5 dB or higher (step SJ4). That is, it is determined whether or not the level of the audio signal that is equal to or higher than the previous reference level has decreased this time and becomes lower than the reference level. When the level of the current audio signal is less than -5 dB, the mute has started, so the attack flag ATF is reset to 0 and the release flag REF is set to 1 (step SJ5).
ATFおよびREFを1又は0にした後は、センサ部から距離データを受信して(ステップSJ6)、ATFが1であるか否かを判別する(ステップSJ7)。ATFが1である場合には、距離データに応じたアタックタイムをレジスタATTにストアする(ステップSJ8)。一方、ATFが0である場合には、REFが1であるか否かを判別し(ステップSJ9)、REFが1である場合には、距離データに応じたリリースタイムをレジスタRETにストアする(ステップSJ10)。 After ATF and REF are set to 1 or 0, distance data is received from the sensor unit (step SJ6), and it is determined whether or not ATF is 1 (step SJ7). If ATF is 1, the attack time corresponding to the distance data is stored in the register ATT (step SJ8). On the other hand, if ATF is 0, it is determined whether or not REF is 1 (step SJ9). If REF is 1, the release time corresponding to the distance data is stored in the register RET (step SJ9). Step SJ10).
ステップSJ8においてATTにアタックタイムをストアした後、又は、ステップSJ10においてRETにリリースタイムをストアした後は、スタートフラグSTFを1にセットする(ステップSJ11)。STFを1にセットした後、又は、ステップSJ7においてATFが0で、且つステップSJ9においてREFが0である場合、若しくは、前回の音声信号のレベルと今回の音声信号のレベルとの変化が−5dBの基準レベルと交差する状態でない場合には、LEVELにストアされている値をFLEVELに転送する(ステップSJ12)。 After the attack time is stored in ATT in step SJ8, or after the release time is stored in RET in step SJ10, start flag STF is set to 1 (step SJ11). After setting STF to 1, or when ATF is 0 in step SJ7 and REF is 0 in step SJ9, or the change between the level of the previous audio signal and the level of the current audio signal is −5 dB. If it does not cross the reference level, the value stored in LEVEL is transferred to LEVEL (step SJ12).
次に、図25のフローチャートにおいて、STFが1であるか否かを判別し(ステップSJ13)、STFが1である場合には、曲の進行の最小クロックタイム(例えば、96分音符に相当する時間)が経過したか否かを判別する(ステップSJ14)。STFが0である場合、又は、最小クロックタイムが経過しない場合には、メインルーチンに戻る。一方、最小クロックタイムが経過したときは、ATFが1であるか否かを判別し(ステップSJ15)、ATFが1である場合には、ATTの値をデクリメントする(ステップSJ16)。この後、ATTの値が0に達したか否かを判別する(ステップSJ17)。ATTの値が0に達しない場合にはメインルーチンに戻るが、ATTの値が0に達したときは、アタックからディケイに移行するために、マイク部からの入力を1/4にする係数を生成する(ステップSJ18)。そして、ATFを0にリセットする(ステップSJ19)。 Next, in the flowchart of FIG. 25, it is determined whether or not the STF is 1 (step SJ13). If the STF is 1, the minimum clock time (for example, 96th notes) of the progression of the music is obtained. It is determined whether or not (time) has elapsed (step SJ14). When STF is 0, or when the minimum clock time has not elapsed, the process returns to the main routine. On the other hand, when the minimum clock time has elapsed, it is determined whether or not ATF is 1 (step SJ15). If ATF is 1, the value of ATT is decremented (step SJ16). Thereafter, it is determined whether or not the value of ATT has reached 0 (step SJ17). If the ATT value does not reach 0, the process returns to the main routine. However, when the ATT value reaches 0, in order to shift from attack to decay, a coefficient for reducing the input from the microphone unit to 1/4 is set. Generate (step SJ18). Then, ATF is reset to 0 (step SJ19).
ステップSJ15において、ATFが0である場合には、REFが1であるか否かを判別し(ステップSJ20)、REFが1である場合には、RETの値をデクリメントする(ステップSJ21)。この後、RETの値が0に達したか否かを判別する(ステップSJ22)。RETの値が0に達しない場合にはメインルーチンに戻るが、RETの値が0に達したときは、消音状態であるので、マイク部からの入力(レベル=0)をそのまま出力する係数を生成する(ステップSJ23)。そして、REFを0にリセットする(ステップSJ24)。 In step SJ15, if ATF is 0, it is determined whether REF is 1 (step SJ20). If REF is 1, the value of RET is decremented (step SJ21). Thereafter, it is determined whether or not the value of RET has reached 0 (step SJ22). When the value of RET does not reach 0, the process returns to the main routine. However, when the value of RET reaches 0, since the sound is muted, a coefficient for outputting the input from the microphone unit (level = 0) as it is is obtained. Generate (step SJ23). Then, REF is reset to 0 (step SJ24).
ステップSJ19においてATFをリセットした後、又は、ステップSJ24においてREFをリセットした後は、STFを0にリセットする(ステップSJ25)。そして、ステップSJ18又はステップSJ23において生成した係数をDSP部18に送付する(ステップSJ26)。この後、又は、ステップSJ15においてATFが0で、且つステップSJ20においてREFが0の場合には、図6のメインルーチンに戻る。 After resetting the ATF in step SJ19 or after resetting REF in step SJ24, the STF is reset to 0 (step SJ25). Then, the coefficient generated in step SJ18 or step SJ23 is sent to the DSP unit 18 (step SJ26). After this, or when ATF is 0 in step SJ15 and REF is 0 in step SJ20, the process returns to the main routine of FIG.
図26は、マイクロフォン1と歌い手の口との距離D(cm)に応じて、リリースタイムを変化させるDSP部18の特性を示す図である。この特性によれば、マイクロフォン1と歌い手の口との距離が近いほどリリースタイムを短くする。
図27は、マイクロフォン1と歌い手の口との距離D(cm)に応じて、リリースタイムを変化させるDSP部18の特性を示す図である。この特性によれば、マイクロフォン1と歌い手の口との距離が近いほどアタックタイムを短くする。
FIG. 26 is a diagram illustrating characteristics of the
FIG. 27 is a diagram illustrating characteristics of the
このように、第8実施形態によれば、CPU10は、マイクロフォン1と音声入力の対象者である歌い手の口との距離に応じて、マイク部から入力される音声信号のリリースタイムおよびアタックタイムを制御し、マイクロフォン1と歌い手の口との距離が近いほどリリースタイムを短くして、タンギングがはっきりするようなエフェクトをかけて、メリハリが出る歌声を強調することにより、音質を向上させて歌唱力を実際よりも高めることができる。
一方、マイクロフォン1と歌い手の口との距離が近い場合には、音声が鋭くなりがちであるので、アタックタイムを短くして音声を早めに丸めることにより、音質を向上させて歌唱力を実際よりも高めることができる。
As described above, according to the eighth embodiment, the
On the other hand, when the distance between the
以上のように、上記第1実施形態ないし第8実施形態によれば、マイクロフォン1に入力される音声に応じて音声信号を出力するマイク素子5と、マイクロフォン1と音声入力の対象者である歌い手の口との距離D(cm)を検出する距離センサ6と、距離センサ6によって検出された距離に応じて、マイク素子5から出力される音声信号に対してエフェクト処理を施すCPU10およびDSP部18と、を備えている。
したがって、音質を向上させて歌唱力を実際よりも高めるような効果が得られる。さらに、第4および第5実施形態においては、ブレスノイズや口腔内の不快な音を抑制するという効果が得られる。
As described above, according to the first to eighth embodiments, the
Therefore, the effect of improving the sound quality and enhancing the singing ability than the actual one can be obtained. Furthermore, in 4th and 5th embodiment, the effect of suppressing breath noise and the unpleasant sound in an oral cavity is acquired.
また、上記各実施形態において、距離センサ6は、マイクロフォン1の外部に向けて光を照射して、その反射光の強度によって歌い手の口とマイクロフォン1との距離を検出し、CPU10は、距離センサ6によって検出された距離に応じてエフェクト処理の係数を生成し、その生成した係数をDSP部18に送付して、マイクロフォン1から出力される音声信号を制御する。
したがって、光による高速の距離検出が可能になり、テンポの速い曲の場合でも十分に応答できるエフェクト処理ができる。
In each of the above embodiments, the
Therefore, it is possible to detect the distance at high speed by using light, and it is possible to perform an effect process that can respond sufficiently even in the case of a song with a fast tempo.
なお、上記各実施形態の変形例として、DSP部18やCPU10を含む信号処理部をマイクロフォン1の内部に設ける構成にしてもよい。例えば、図2の基板4にDSP、CPU、および信号処理に関係する電子回路を内蔵するLSIを搭載する。
この変形例の構成によれば、マイク素子からの音声信号をマイクロフォン内部で信号処理するので、S/N比や応答特性を向上させることができる。
As a modification of each of the above embodiments, a signal processing unit including the
According to the configuration of this modified example, since the audio signal from the microphone element is signal-processed inside the microphone, the S / N ratio and response characteristics can be improved.
1 マイクロフォン
2 マイクカバー
3 開口部
4 基板
5 マイク素子
6 距離センサ
9 A/D変換回路
10 CPU
12 プログラムROM
13 ワークRAM
16 音源
17 曲データROM
18 DSP部
181 イコライザ
182 合成回路
183 トータルエフェクタ
184 VCA
185 エキスパンダ
DESCRIPTION OF
12 Program ROM
13 Work RAM
16
18
185 expander
Claims (22)
前記マイクロフォンと音声入力の対象者の口又はその周辺との距離を検出する距離検出手段と、
前記距離検出手段によって検出された距離に応じて前記信号発生手段から出力される音声信号に対してエフェクト処理を施す信号処理手段と、
を備えた楽音制御装置。 Signal generating means for outputting an audio signal in accordance with audio input to the microphone;
A distance detecting means for detecting a distance between the microphone and the mouth of the subject of voice input or the vicinity thereof;
Signal processing means for effecting the sound signal output from the signal generating means according to the distance detected by the distance detecting means;
Musical sound control device with
前記ステップAによって検出された距離に応じて前記信号発生手段から出力される音声信号に対してエフェクト処理を施すステップBと、
を実行する楽音制御方法。 A step A for detecting a distance between a microphone having a signal generating means for outputting a sound signal in accordance with an input sound and a mouth of the subject of sound input or the vicinity thereof by a distance detecting means;
Applying effect processing to the audio signal output from the signal generating means according to the distance detected in step A;
Perform a musical sound control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005302462A JP2007114239A (en) | 2005-10-18 | 2005-10-18 | Device and method for controlling musical sound |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005302462A JP2007114239A (en) | 2005-10-18 | 2005-10-18 | Device and method for controlling musical sound |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007114239A true JP2007114239A (en) | 2007-05-10 |
Family
ID=38096536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005302462A Pending JP2007114239A (en) | 2005-10-18 | 2005-10-18 | Device and method for controlling musical sound |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007114239A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011114510A (en) * | 2009-11-26 | 2011-06-09 | Kenwood Corp | Wireless device |
WO2018012448A1 (en) * | 2016-07-15 | 2018-01-18 | パナソニックIpマネジメント株式会社 | Microphone unit and noise reduction device using same, and integrated circuit component |
JP2019149776A (en) * | 2018-02-28 | 2019-09-05 | 株式会社第一興商 | microphone |
US10540139B1 (en) | 2019-04-06 | 2020-01-21 | Clayton Janes | Distance-applied level and effects emulation for improved lip synchronized performance |
CN112261527A (en) * | 2020-10-21 | 2021-01-22 | 广东得胜电子有限公司 | Control circuit and method for adjusting microphone gain through distance induction |
-
2005
- 2005-10-18 JP JP2005302462A patent/JP2007114239A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011114510A (en) * | 2009-11-26 | 2011-06-09 | Kenwood Corp | Wireless device |
WO2018012448A1 (en) * | 2016-07-15 | 2018-01-18 | パナソニックIpマネジメント株式会社 | Microphone unit and noise reduction device using same, and integrated circuit component |
CN109417661A (en) * | 2016-07-15 | 2019-03-01 | 松下知识产权经营株式会社 | Microphone unit and the noise reducing device and integrated circuit components for using it |
EP3471429A4 (en) * | 2016-07-15 | 2019-07-10 | Panasonic Intellectual Property Management Co., Ltd. | Microphone unit and noise reduction device using same, and integrated circuit component |
US10755688B2 (en) | 2016-07-15 | 2020-08-25 | Panasonic Intellectual Property Management Co., Ltd. | Microphone unit and noise reduction device using same, and integrated circuit component |
JP2019149776A (en) * | 2018-02-28 | 2019-09-05 | 株式会社第一興商 | microphone |
JP7033466B2 (en) | 2018-02-28 | 2022-03-10 | 株式会社第一興商 | microphone |
US10540139B1 (en) | 2019-04-06 | 2020-01-21 | Clayton Janes | Distance-applied level and effects emulation for improved lip synchronized performance |
US10871937B2 (en) | 2019-04-06 | 2020-12-22 | Clayton Janes | Distance-applied level and effects emulation for improved lip synchronized performance |
CN112261527A (en) * | 2020-10-21 | 2021-01-22 | 广东得胜电子有限公司 | Control circuit and method for adjusting microphone gain through distance induction |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007114239A (en) | Device and method for controlling musical sound | |
JP6435644B2 (en) | Electronic musical instrument, pronunciation control method and program | |
JP3671545B2 (en) | Electronic musical instruments | |
JP2019012131A (en) | Electronic wind instrument, method for controlling the same, and program for the same | |
JP6728843B2 (en) | Electronic musical instrument, musical tone generating device, musical tone generating method and program | |
JP7140083B2 (en) | Electronic wind instrument, control method and program for electronic wind instrument | |
JP4091892B2 (en) | Singing voice evaluation device, karaoke scoring device and program thereof | |
JP5306022B2 (en) | Karaoke system with harmony volume adjustment function | |
JP6326976B2 (en) | Electronic musical instrument, pronunciation control method for electronic musical instrument, and program | |
JP4487909B2 (en) | Voice control device and voice control method | |
JP6753250B2 (en) | Musical tone generator, musical tone generator, electronic musical instrument, and program | |
JP6435645B2 (en) | Electronic musical instrument, pronunciation control method for electronic musical instrument, and program | |
JP2018146928A (en) | Electronic musical instrument, musical sound generating method, and program | |
JP2016177135A (en) | Electronic musical instrument, sound production control method of the same, and program | |
JP4131288B2 (en) | Performance assist device | |
JP6671633B2 (en) | Electronic wind instrument, musical sound generation method and program | |
JP2007193151A (en) | Musical sound control device and program of musical sound control processing | |
JP4172452B2 (en) | Karaoke device with noise gate | |
JP2011197235A (en) | Sound signal control device and karaoke device | |
EP3757985A1 (en) | Electronic musical instrument, method and program | |
JP5625429B2 (en) | Karaoke equipment | |
JP2011040831A (en) | Headphone and method for canceling digital noise | |
KR100465754B1 (en) | Device For Digital Composition Through Midi-Microphone | |
JP6341356B2 (en) | Musical sound generating apparatus, musical sound generating method and program | |
JP6484970B2 (en) | Distortion device, distortion control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080515 |