JP2008209703A - Karaoke machine - Google Patents

Karaoke machine Download PDF

Info

Publication number
JP2008209703A
JP2008209703A JP2007046691A JP2007046691A JP2008209703A JP 2008209703 A JP2008209703 A JP 2008209703A JP 2007046691 A JP2007046691 A JP 2007046691A JP 2007046691 A JP2007046691 A JP 2007046691A JP 2008209703 A JP2008209703 A JP 2008209703A
Authority
JP
Japan
Prior art keywords
sound
measurement
masker
singer
microphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007046691A
Other languages
Japanese (ja)
Inventor
Akira Ouchi
亮 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2007046691A priority Critical patent/JP2008209703A/en
Publication of JP2008209703A publication Critical patent/JP2008209703A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/366Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems with means for modifying or correcting the external signal, e.g. pitch correction, reverberation, changing a singer's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/295Spatial effects, musical uses of multiple audio channels, e.g. stereo
    • G10H2210/301Soundscape or sound field simulation, reproduction or control for musical purposes, e.g. surround or 3D sound; Granular synthesis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/235Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]

Abstract

<P>PROBLEM TO BE SOLVED: To provide a karaoke machine 1 outputting the sound of a directional beam 6a composed of a singing voice to a singer 6 while tracking the singing position of the singer 6 by detecting a microphone position. <P>SOLUTION: The karaoke machine 1 outputs the sound of the singing voice of the singer and accompaniment sound 81 picked up by a microphone 2 from a speaker array 3. The karaoke machine 1 outputs the measurement sound 83 from the speakers SP1, SPn at both ends of the speaker array 3 simultaneously with the sound production of the maskers or immediately thereafter. The karaoke machine 1 detects the microphone position based on the time elapsed from the production of the measurement sound 83 till picking up of sound by the microphone 2. At this time, the measurement sounds 83 are generated by the harmonics of the fundamental frequencies of the masker. The karaoke machine 1 tracks the microphone position by outputting the periodic measurement sounds 83. Namely, the karaoke machine 1 can continuously output the sound of the directional beam 6a composed of the singing voice to the singer 6 by tracking the microphone position. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、歌唱音声の指向性を制御できるカラオケ装置に関する。   The present invention relates to a karaoke apparatus capable of controlling the directivity of singing voice.

従来のカラオケ装置は、カラオケボックスの1室等のような単一のグループが占有する場所に設置されるほか、スナック店舗等の飲食店等、不特定の顧客が集まる場所に設置される場合も多い。   A conventional karaoke device is installed in a place occupied by a single group such as a room of a karaoke box, or in a place where unspecified customers gather such as a restaurant such as a snack shop. Many.

従来のカラオケ装置は、ステレオスピーカを用いて、設置される場所内全体に伴奏音及び歌唱音声を拡声していた。この場合、上記不特定の顧客が集まる店舗に設置されると、誰が歌唱した歌唱音声でも、店内の全てに聞こえるようになっていた。スナック等の飲食店では、他のグループの歌唱は必ずしも聞きたいものではなく、場合によっては耳障りなものである。これを解決するために、例えば、歌唱者に向けた指向性スピーカを設置し、歌唱者には歌唱音声を聞かせ、歌唱者以外にはガイドボーカルを聞かせたり、予め指定したグループと歌唱者には歌唱音声をきかせ、それ以外には、ガイドボーカルを聞かせたりしていた(特許文献1参照)。   A conventional karaoke apparatus uses a stereo speaker to amplify accompaniment sounds and singing sounds throughout the place where the karaoke apparatus is installed. In this case, when installed in a store where the unspecified customers gather, the singing voice sung by anyone can be heard by all in the store. In restaurants such as snacks, the singings of other groups are not necessarily something you want to hear, and in some cases they are annoying. In order to solve this, for example, a directional speaker for singers is installed, the singers are allowed to listen to the singing voice, the non-singers are allowed to listen to the guide vocals, Other than that, the singing voice was heard and the guide vocal was heard (see Patent Document 1).

特許文献1のカラオケ装置では、ユーザの操作入力により予め設定されたグループと、指定した歌唱位置(カラオケ装置のモニタ付近)に向けて指向性を持たせて歌唱音声を放音し、他には指向性を持たせてガイドボーカルを放音していた。
特開2005−173137公報
In the karaoke device of Patent Document 1, a singing sound is emitted with directivity toward a group set in advance by a user's operation input and a designated singing position (near the monitor of the karaoke device), The guide vocal was emitted with directivity.
JP 2005-173137 A

しかしながら、特許文献1の発明では、歌唱者が歌唱中に位置を変更すると、その都度、その場にいる誰かが歌唱音声の放音方向を指定しなければならないという問題があった。   However, in the invention of Patent Document 1, when the singer changes the position during singing, there is a problem that every time the singer has to specify the sound emission direction of the singing voice.

そこで、この発明は、歌唱者に歌唱音声を放音するために、歌唱者の歌唱位置を追尾するカラオケ装置を提供することを目的とする。   Then, this invention aims at providing the karaoke apparatus which tracks a singer's singing position in order to emit a singing voice to a singer.

請求項1の発明は、歌唱者の歌唱音声を含む周囲からの音声をマイクで収音し、音声信号を生成する収音手段と、複数のスピーカを有するスピーカアレイの2つのスピーカから、マスカーの基本周波数の倍音で構成される測定音を、該マスカーの発音と同時またはその直後に放音する放音手段と、該放音手段による前記測定音の放音から、前記収音手段による該測定音の収音までの経過時間に基づいて、前記マイク位置を検出するマイク位置検出手段と、を備え、前記放音手段は、前記マイク位置検出手段が検出した前記マイク位置に向けて、歌唱者に与えるべき放音音声を含む指向性ビームを放音することを特徴とする。   According to the first aspect of the present invention, the sound from the surroundings including the singing voice of the singer is picked up by the microphone, the sound collecting means for generating the sound signal, and the two speakers of the speaker array having a plurality of speakers, A measurement sound composed of harmonics of the fundamental frequency is emitted at the same time or immediately after the masker's pronunciation, and from the sound emission of the measurement sound by the sound emission means, the measurement by the sound collection means Microphone position detection means for detecting the microphone position based on the elapsed time until sound collection, and the sound emission means is a singer toward the microphone position detected by the microphone position detection means. The directional beam including the sound to be emitted is emitted.

この構成では、カラオケ装置は、スピーカアレイの中の2つのスピーカから測定音をマスカーの発音と同時またはその直後に放音する。カラオケ装置は、スピーカアレイの中の2つのスピーカから放音した測定音をマイクで収音するまでの経過時間から、マイク位置を検出する。この際、測定音は、マスカーの基本周波数の倍音で構成される。また、カラオケ装置は、検出したマイク位置(歌唱者)に向けて、歌唱音声を含む指向性ビームを放音する。これにより、カラオケ装置は、歌唱者の歌唱位置を知ることができ、歌唱者に向けて、歌唱音声を含む指向性ビームを放音することができる。また、測定音は、マスカーの基本周波数の倍音で構成されるので、マスカーによりマスキングされる。このため、カラオケ装置は、人に知覚されることなく、測定音を放音して、歌唱者の歌唱位置を知ることができ、歌唱者に向けて、歌唱音声を含む指向性ビームを放音することができる。また、所定の間隔で測定音を放音することで、カラオケ装置は、歌唱者を追尾することができる。これにより、カラオケ装置は、歌唱者が移動しても、歌唱者に向けて歌唱音声を含む指向性ビームを放音することができる。   In this configuration, the karaoke apparatus emits the measurement sound from the two speakers in the speaker array at the same time as or immediately after the masker's pronunciation. The karaoke apparatus detects the microphone position from the elapsed time until the measurement sound emitted from the two speakers in the speaker array is collected by the microphone. At this time, the measurement sound is composed of harmonics of the fundamental frequency of the masker. In addition, the karaoke apparatus emits a directional beam including the singing voice toward the detected microphone position (singer). Thereby, the karaoke apparatus can know a singer's singing position, and can emit a directional beam including a singing voice toward the singer. Moreover, since the measurement sound is composed of overtones of the basic frequency of the masker, it is masked by the masker. For this reason, the karaoke apparatus emits the measurement sound without being perceived by a person and can know the singing position of the singer, and emits the directional beam including the singing voice toward the singer. can do. Moreover, the karaoke apparatus can track the singer by emitting the measurement sound at predetermined intervals. Thereby, even if a singer moves, the karaoke apparatus can emit a directional beam including a singing voice toward the singer.

請求項2の発明は、前記放音手段は、カラオケ曲の伴奏音を構成する1又は複数の楽器音をマスカーとして、予めカラオケ曲のデータに含まれる前記測定音を放音することを特徴とする。   The invention according to claim 2 is characterized in that the sound emitting means emits the measurement sound included in the data of the karaoke song in advance, using one or a plurality of instrument sounds constituting the accompaniment sound of the karaoke song as a masker. To do.

この構成では、カラオケ曲の伴奏音の中から1又は複数の楽器音をマスカーとして、予めカラオケ曲に含まれた測定音を放音する。これにより、カラオケ演奏中、定期的に演奏される楽器音をマスカーとすることで、マスカーの発音と同時に、測定音を定期的に放音することができる。また、マスカーとなる楽器音が複数の場合は、測定音を放音回数を増すことができ、より定期的に測定音を放音することができる。   In this configuration, one or a plurality of musical instrument sounds are used as maskers from accompaniment sounds of karaoke songs, and the measurement sounds included in the karaoke songs are emitted in advance. Thereby, during the karaoke performance, the musical instrument sound that is regularly played is used as a masker, so that the measurement sound can be periodically emitted simultaneously with the pronunciation of the masker. In addition, when there are a plurality of instrument sounds serving as maskers, the number of measurement sounds can be increased, and the measurement sounds can be emitted more regularly.

請求項3の発明は、前記放音手段は、カラオケ曲の伴奏音を構成する1又は複数の楽器音の放音のタイミング毎に、その楽器音をマスカーとする前記測定音を生成して放音することを特徴とする。   According to a third aspect of the present invention, the sound emitting means generates and releases the measurement sound having the instrument sound as a masker at each timing of sound emission of one or more instrument sounds constituting the accompaniment sound of the karaoke song. It is characterized by sound.

この構成では、カラオケ装置は、カラオケ曲の伴奏音を解析して、マスカーとなる楽器音を決定し、マスカーの放音のタイミングで、測定音を生成して放音する。これにより、カラオケ曲に予め測定音が含まれていなくても、カラオケ装置は自動で測定音を生成して放音することができる。   In this configuration, the karaoke apparatus analyzes the accompaniment sound of the karaoke song, determines an instrument sound to be a masker, generates a measurement sound at the timing of the masker sound emission, and emits it. Thereby, even if the measurement sound is not included in the karaoke song in advance, the karaoke apparatus can automatically generate and emit the measurement sound.

請求項4の発明は、前記放音手段は、歌唱音声の音圧レベルの上昇を検知し、その歌唱音声をマスカーとする前記測定音を生成して放音することを特徴とする。   The invention of claim 4 is characterized in that the sound emitting means detects an increase in the sound pressure level of the singing voice, and generates and emits the measurement sound using the singing voice as a masker.

この構成では、カラオケ装置は、マスカーである歌唱音声の音圧レベルの上昇を検知して、測定音を生成して放音する。これにより、アカペラ等の演目で、カラオケ曲に伴奏音が含まれない場合であっても、測定音を発音することができる。   In this configuration, the karaoke device detects an increase in the sound pressure level of the singing voice that is a masker, generates a measurement sound, and emits the sound. As a result, even if the accompaniment is not included in the karaoke music piece such as a cappella, the measurement sound can be generated.

この発明によれば、マスカーの基本周波数の倍音で測定音を構成することで、カラオケ装置は、人に知覚されることなく、測定音をスピーカアレイの2つのスピーカから放音して、マイクで収音することができる。これにより、カラオケ装置は、マイクの位置を検出することができるので、歌唱者の歌唱位置を知ることができ、歌唱者に向けて歌唱音声を含む指向性ビームを放音することができる。更に、測定音を随時放音することで、歌唱者の歌唱位置を追尾することができ、歌唱者が移動しても、歌唱者に向けて歌唱音声を含む指向性ビームを放音することができる。   According to the present invention, the measurement sound is composed of overtones of the fundamental frequency of the masker, so that the karaoke apparatus emits the measurement sound from the two speakers of the speaker array without being perceived by a person and uses the microphone. Sound can be collected. Thereby, since the karaoke apparatus can detect the position of a microphone, it can know a singer's singing position and can emit a directional beam containing a singing voice toward a singer. Furthermore, it is possible to track the singing position of the singer by emitting the measurement sound at any time, and even if the singer moves, the directional beam including the singing voice can be emitted toward the singer. it can.

[第1実施形態]
本発明の実施形態に係るカラオケ装置について、図1,2を参照して説明する。図1は、飲食店の店内を説明する図である。図1(A)は、歌唱者がモニタの前で、歌唱している様子を示す。図1(B)は、歌唱者が、自身のグループの前で歌唱している様子を示す。図2は、マイク位置検出方法の説明図である。
[First Embodiment]
A karaoke apparatus according to an embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a diagram illustrating the inside of a restaurant. FIG. 1A shows a state where a singer is singing in front of a monitor. FIG. 1B shows a state where a singer is singing in front of his / her group. FIG. 2 is an explanatory diagram of a microphone position detection method.

図1(A)に示すように、飲食店の店内5には、カラオケ装置1が設置されている。カラオケ装置1は、マイク2とスピーカアレイ3とモニタ4を有する。更に、店内5には、テーブル7(7a〜7d)が配置され、各テーブル7a〜7dには、それぞれ顧客が着席している。また、テーブル7aの顧客である歌唱者6は、カラオケ装置1を利用して歌唱する。なお、説明の簡単化のため、本実施形態では、歌唱者6の歌唱音声は、自身と自身が着席しているテーブル7aとに聞かせ、他のテーブル7b〜7dには歌唱音声を聞かせずに、ガイドボーカルを聞かせる場合について説明する。   As shown in FIG. 1A, a karaoke apparatus 1 is installed in a restaurant 5 of a restaurant. The karaoke apparatus 1 includes a microphone 2, a speaker array 3, and a monitor 4. Furthermore, tables 7 (7a to 7d) are arranged in the store 5, and customers are seated on the tables 7a to 7d, respectively. Moreover, the singer 6 who is a customer of the table 7a sings using the karaoke apparatus 1. For the sake of simplification of explanation, in this embodiment, the singing voice of the singer 6 is heard on the table 7a on which the singer 6 is seated and the singing voice is not heard on the other tables 7b to 7d. The case where the guide vocal is heard will be described.

歌唱者6が歌唱すると、カラオケ装置1は、歌唱音声を含む指向性ビーム70aを生成し、歌唱者6のグループが着席しているテーブル7aに向けて放音するとともに、歌唱者6の位置を検出し、歌唱音声を含む指向性ビーム6aを生成して、歌唱者6に放音する。図1(B)に示すように、歌唱者6が移動した場合、カラオケ装置1は、歌唱者6の位置を追尾し、歌唱音声を含む指向性ビーム6aを生成して、歌唱者6に放音する。また、カラオケ装置1は、ガイドボーカルを含む指向性ビーム70b〜70dを生成して、他のテーブル7b〜7dへ放音する。この際、カラオケ装置1は、歌唱者6の操作入力を受け付け、歌唱音声を放音するテーブル7aを指定させる。   When the singer 6 sings, the karaoke apparatus 1 generates a directional beam 70a including the singing voice, emits the sound toward the table 7a on which the group of the singer 6 is seated, and the position of the singer 6 The directional beam 6 a including the singing voice is detected and emitted to the singer 6. As shown in FIG. 1B, when the singer 6 moves, the karaoke apparatus 1 tracks the position of the singer 6, generates a directional beam 6a including the singing voice, and releases it to the singer 6. Sound. Moreover, the karaoke apparatus 1 produces | generates the directional beams 70b-70d containing a guide vocal, and emits sound to the other tables 7b-7d. At this time, the karaoke apparatus 1 accepts the operation input of the singer 6 and designates the table 7a for emitting the singing voice.

本発明では、カラオケ装置1は、予めカラオケ曲に含まれる測定音を、スピーカアレイ3の両端のスピーカから放音し、マイク2で収音する。カラオケ装置1は、測定音の放音から収音までの時間を計測し、三角法を用いて、マイク2の位置を検出する。カラオケ装置1は、定期的に測定音を放音することで、マイク2を追尾し、マイク2に向けて、歌唱音声を含む指向性ビーム6aを放音する。更に、測定音は、カラオケ曲の伴奏音に含まれる楽器音をマスカーとして、マスカーの基本周波数の倍音から構成される。カラオケ装置1は、マスカーの発音と同時又はマスカーの発音の直後に測定音を発音することで、測定音を同時マスキング又は経時マスキングしながら放音することができる。これにより、本発明では、人に知覚されることなく測定音を放音して、マイク2の位置を検出することができるので、歌唱者6を追尾しながら、歌唱音声を含む指向性ビーム6aを歌唱者6に放音することができる。なお、本発明では、マスカーとは、測定音の発音を隠す音のことを言う。   In the present invention, the karaoke apparatus 1 emits the measurement sound included in the karaoke song in advance from the speakers at both ends of the speaker array 3 and collects the sound with the microphone 2. The karaoke apparatus 1 measures the time from sound emission to sound collection and detects the position of the microphone 2 using trigonometry. The karaoke apparatus 1 tracks the microphone 2 by periodically emitting the measurement sound, and emits the directional beam 6 a including the singing sound toward the microphone 2. Further, the measurement sound is composed of overtones of the fundamental frequency of the masker, with the instrumental sound included in the accompaniment sound of the karaoke song as the masker. The karaoke apparatus 1 can emit the measurement sound while simultaneously masking or aging masking by generating the measurement sound simultaneously with the masker sounding or immediately after the masker sounding. Accordingly, in the present invention, since the measurement sound can be emitted without being perceived by a person and the position of the microphone 2 can be detected, the directional beam 6a including the singing voice can be tracked while tracking the singer 6. Can be released to the singer 6. In the present invention, the masker means a sound that hides the pronunciation of the measurement sound.

以下に、マイク位置の検出方法について、図2を参照して説明する。図2に示すように、カラオケ装置1は、スピーカアレイ3(スピーカSP1〜SPn)の両端のスピーカSP1とSPnとから、測定音83を放音する。測定音83は、スピーカSP1とスピーカSPnとから放音されると、マイク2により収音される。ここで、スピーカSP1から放音した測定音83をマイク2で収音するまでの経過時間をTa、スピーカSPnから放音した測定音83をマイク2で収音するまでの経過時間をTb、スピーカSP1からの距離をLa、スピーカSPnからの距離をLbとする。スピーカSP1及びSPnからの経過時間(Ta<Tb)から、スピーカSP1及びSPnからマイク2までの距離(La<Lb)が求まる。これに、三角法を利用して、マイク2の位置を算出する((A)参照)。また、経過時間がTa≒Tbの場合((B)参照)、経過時間がTa>Tbの場合((C)参照)も同様の方法で、マイク2の位置を算出する。これにより、スピーカSP1,SPnから定期的に測定音83を放音することで、カラオケ装置1は、マイク2の位置を検出し、マイク2の位置を追尾して、歌唱音声を放音することができる。   Hereinafter, a method for detecting the microphone position will be described with reference to FIG. As shown in FIG. 2, the karaoke apparatus 1 emits the measurement sound 83 from the speakers SP1 and SPn at both ends of the speaker array 3 (speakers SP1 to SPn). The measurement sound 83 is picked up by the microphone 2 when sound is emitted from the speakers SP1 and SPn. Here, the elapsed time until the measurement sound 83 emitted from the speaker SP1 is collected by the microphone 2 is Ta, and the elapsed time until the measurement sound 83 emitted from the speaker SPn is collected by the microphone 2 is Tb. The distance from SP1 is La, and the distance from speaker SPn is Lb. From the elapsed time from the speakers SP1 and SPn (Ta <Tb), the distance from the speakers SP1 and SPn to the microphone 2 (La <Lb) is obtained. For this, the position of the microphone 2 is calculated using trigonometry (see (A)). Also, the position of the microphone 2 is calculated by the same method when the elapsed time Ta≈Tb (see (B)) and when the elapsed time Ta> Tb (see (C)). Thereby, the karaoke apparatus 1 detects the position of the microphone 2, tracks the position of the microphone 2, and emits the singing voice by periodically emitting the measurement sound 83 from the speakers SP1 and SPn. Can do.

次に、スピーカSP1,SPnから放音する測定音83について、図3,4を参照して説明する。図3は、マスカーの選択についての説明図である。図3(A)は、マスカーに適している例を示す。図3(B)は、マスカーに適さない例を示す。図4は、測定音の加算についての説明図である。   Next, the measurement sound 83 emitted from the speakers SP1 and SPn will be described with reference to FIGS. FIG. 3 is an explanatory diagram for selecting a masker. FIG. 3A shows an example suitable for a masker. FIG. 3B shows an example that is not suitable for a masker. FIG. 4 is an explanatory diagram regarding the addition of the measurement sound.

測定音83は、カラオケ曲の伴奏音に含まれる楽器音をマスカーとして、マスカーの基本周波数の倍音を用いて生成される。測定音83は、マスカーの発音と同時に発音されたり、マスカーの発音の直後に発音されたりすることで、同時マスキング、又は経時マスキングされる。また、測定音83は、楽器音の種類とレベルに応じて、音圧レベルが変更される。例えば、楽器音の音圧が上昇すると、測定音83の音圧を上げ、楽器音の音圧が下降すると、測定音83の音圧を下げる。これにより、歌唱者6や店内5の顧客は、測定音83を知覚せずに、カラオケを楽しむことができる。   The measurement sound 83 is generated using overtones of the fundamental frequency of the masker with the instrument sound included in the accompaniment sound of the karaoke song as the masker. The measurement sound 83 is simultaneously masked or masked over time by being pronounced simultaneously with the masker's pronunciation or by being pronounced immediately after the masker's pronunciation. The sound pressure level of the measurement sound 83 is changed according to the type and level of the instrument sound. For example, when the sound pressure of the instrument sound increases, the sound pressure of the measurement sound 83 is increased, and when the sound pressure of the instrument sound decreases, the sound pressure of the measurement sound 83 is decreased. Thereby, the singer 6 and the customers in the store 5 can enjoy karaoke without perceiving the measurement sound 83.

マスカーに適している楽器音は、図3(A)に示すように、低域から高域まで、音の成分がある楽器音である。例えば、ハープシーコード、グロッケン、シロホン等の楽器音や、波形がノコギリ波になる楽器音である。また、マスカーに適さない楽器音は、図3(B)に示すように、低域のみに音の成分があり、高域は音の成分がない楽器音である。例えば、オルガン、ホルン等の楽器音である。   As shown in FIG. 3A, the instrument sound suitable for the masker is an instrument sound having sound components from a low range to a high range. For example, instrument sounds such as harpsichord, glocken, and xylophone, and instrument sounds that have a sawtooth waveform. In addition, as shown in FIG. 3B, the instrument sound that is not suitable for a masker is a musical instrument sound that has a sound component only in the low range and no sound component in the high range. For example, instrument sounds such as organs and horns.

ここで、一般的に、人の聴覚が知覚できる周波数帯域は、20Hz〜20kHz程度であり、15kHz以上の周波数帯域は、人によって聞こえたり聞こえなかったりする。そこで、図4に示すように、音階のある楽器をマスカーとする場合は、マスカーとなる楽器音の基本周波数の倍音で、かつ、人が聞き取り難い周波数帯域(15kHz〜)に測定音83を生成する。また、音階のない楽器をマスカーとする場合は、マスカーとなる楽器音の周波数成分がある帯域で、かつ、人が聞き取り難い帯域(15kHz〜)に測定音83を生成する。これにより、測定音83は、マスカーによりマスキングされ、かつ、人が聞き取り難い周波数帯域からなる音なので、歌唱者6や店内5の顧客により知覚されなくなる。   Here, in general, the frequency band in which human hearing can be perceived is about 20 Hz to 20 kHz, and the frequency band of 15 kHz or higher may or may not be heard by humans. Therefore, as shown in FIG. 4, when a musical instrument with a scale is used as a masker, a measurement sound 83 is generated in a frequency band (15 kHz to) that is a harmonic overtone of the fundamental frequency of the instrumental sound that is a masker and that is difficult for humans to hear. To do. When a musical instrument without a scale is used as a masker, the measurement sound 83 is generated in a band having a frequency component of the musical instrument sound that becomes a masker and in a band (15 kHz to) that is difficult for humans to hear. Accordingly, the measurement sound 83 is masked by a masker and is a sound having a frequency band that is difficult for humans to hear, so that the measurement sound 83 is not perceived by the singer 6 or the customer in the store 5.

具体的に、例えば、この測定音83は、伴奏音81の人が聞き取り難い周波数帯域(15kHz〜)に予め含まれており、伴奏音81とともにカラオケ装置1から放音される。カラオケ装置1は、伴奏音81をスピーカアレイ3から放音する際に、ローパスフィルタに伴奏音81と測定音83とを通過させる。カラオケ装置1は、人が聞き取り難い周波数帯域(15kHz〜)をカットすることで、測定音83を取り除いた伴奏音81のみをスピーカアレイ3から放音する。次に、カラオケ装置1は、ローパスフィルタで取り除いた帯域(15kHz〜)から測定音83が存在する帯域を取得するバンドパスフィルタに伴奏音81と測定音83とを通過させることで、測定音83を取得して、両端のスピーカSP1,SPnから放音する。これにより、スピーカアレイ3の各スピーカSP1〜SPnから伴奏音81を放音し、両端のスピーカSP1,SPnは、伴奏音81と一緒に測定音83を放音することができる。   Specifically, for example, the measurement sound 83 is included in advance in a frequency band (15 kHz to) that is difficult for a person of the accompaniment sound 81 to hear, and is emitted from the karaoke apparatus 1 together with the accompaniment sound 81. The karaoke apparatus 1 allows the accompaniment sound 81 and the measurement sound 83 to pass through the low-pass filter when the accompaniment sound 81 is emitted from the speaker array 3. The karaoke apparatus 1 emits only the accompaniment sound 81 from which the measurement sound 83 is removed from the speaker array 3 by cutting a frequency band (15 kHz to) that is difficult for humans to hear. Next, the karaoke apparatus 1 passes the accompaniment sound 81 and the measurement sound 83 through a bandpass filter that acquires a band in which the measurement sound 83 exists from the band (15 kHz to) removed by the low-pass filter, so that the measurement sound 83 is obtained. And sound is emitted from the speakers SP1 and SPn at both ends. Thereby, the accompaniment sound 81 can be emitted from each speaker SP1-SPn of the speaker array 3, and the speakers SP1 and SPn at both ends can emit the measurement sound 83 together with the accompaniment sound 81.

なお、測定音83は、必ずしも人が聞き取り難い周波数帯域(15kHz〜)で生成される必要はなく、マスカーとなる楽器が音階を有する場合は、マスカーの基本周波数の倍音で生成されればよく、マスカーとなる楽器が音階を有しない場合は、マスカーの音の周波数成分のある帯域で生成されればよい。この場合、カラオケ装置1は、伴奏音81やマイク2が収音した歌唱音声等から測定音83を検出できればよい。   Note that the measurement sound 83 does not necessarily have to be generated in a frequency band (15 kHz to) that is difficult for humans to hear. If the musical instrument to be a masker has a scale, it may be generated with a harmonic of the basic frequency of the masker. If the musical instrument to be a masker does not have a scale, it may be generated in a band having a frequency component of the masker sound. In this case, the karaoke apparatus 1 only needs to be able to detect the measurement sound 83 from the accompaniment sound 81 or the singing sound collected by the microphone 2.

次に、カラオケ装置1の機能について、図5を参照して説明する。図5は、カラオケ装置の機能ブロック図である。カラオケ装置1は、操作部100、制御部10、記憶部8、MIDI音源91、ガイドボーカル再生部92、マイク2、スピーカアレイ3(スピーカSP1〜SPn)、A/Dコンバータ11,16、ビーム形成部13,18、ローパスフィルタ12,17、バンドパスフィルタ14(14a〜14d),19(19a〜19d)、マイク位置検出部15、ミキサ20、D/Aコンバータ21(21−1〜21−n)及びAMP22(22−1〜22−n)から構成される。以下、説明の簡単化のため、本実施形態で用いるマイク2の収音範囲は、20kHz以下とし、測定音83は、15kHz〜20kHzの周波数帯域で生成されるものとして以下に説明する。   Next, the function of the karaoke apparatus 1 will be described with reference to FIG. FIG. 5 is a functional block diagram of the karaoke apparatus. The karaoke apparatus 1 includes an operation unit 100, a control unit 10, a storage unit 8, a MIDI sound source 91, a guide vocal reproduction unit 92, a microphone 2, a speaker array 3 (speakers SP1 to SPn), A / D converters 11 and 16, and beam forming. Units 13 and 18, low-pass filters 12 and 17, band-pass filters 14 (14a to 14d) and 19 (19a to 19d), microphone position detection unit 15, mixer 20, D / A converter 21 (21-1 to 21-n) ) And AMP22 (22-1 to 22-n). Hereinafter, for simplification of description, the sound collection range of the microphone 2 used in the present embodiment is 20 kHz or less, and the measurement sound 83 is described below as being generated in a frequency band of 15 kHz to 20 kHz.

操作部100は、歌唱者6等の操作入力を受け、操作入力内容を制御部10へ出力する。例えば、操作部100は、カラオケ曲の選曲や、歌唱者6の歌唱音声を放音するテーブル7aの指定や、ガイドメロディ82を放音する/放音しない等の各種設定が入力される。また、説明の簡単化のため、ガイドメロディ82を放音しないよう設定されたものとする。   The operation unit 100 receives an operation input from the singer 6 or the like and outputs the operation input content to the control unit 10. For example, the operation unit 100 is input with various settings such as selection of a karaoke song, specification of the table 7a that emits the singing voice of the singer 6, and whether or not the guide melody 82 is emitted. For simplicity of explanation, it is assumed that the guide melody 82 is set not to be emitted.

制御部10は、操作部100の操作入力を受け、以下に説明するカラオケ装置1の各機能部を制御する。各機能部の制御方法については、後述する。   The control part 10 receives the operation input of the operation part 100, and controls each function part of the karaoke apparatus 1 demonstrated below. A method for controlling each functional unit will be described later.

記憶部8は、複数のカラオケ曲を記憶しており、カラオケ曲毎に、伴奏音81のデータ、ガイドメロディ82のデータ、測定音83のデータ、ガイドボーカル84のデータを記憶する。   The storage unit 8 stores a plurality of karaoke songs, and stores accompaniment sound 81 data, guide melody 82 data, measurement sound 83 data, and guide vocal 84 data for each karaoke song.

MIDI音源91は、制御部10の指示により、記憶部8から伴奏音81のデータ、ガイドメロディ82のデータ、測定音83のデータを逐次取得し、A/Dコンバータ11に出力する。伴奏音81は、色々な楽器音から構成される。ガイドメロディ82は、伴奏音81の主旋律であり、歌唱者6の歌唱を支援するものである。測定音83は、伴奏音81の中から、1つ又は複数の楽器音をマスカーとして、マスカーの基本周波数の倍音で生成されている。この際、マスカーとなる楽器音は、カラオケ曲に応じて適切に選択される。また、測定音83は、定期的(例えば1小節毎等)に、放音されるようになっている。更に、測定音83は、スピーカアレイ3の両端のスピーカSP1,SPnから放音される。この際、測定音83は、スピーカSP1,SPn毎に、異なる周波数帯域で生成され、スピーカSP1,SPnから放音される。これにより、カラオケ装置1は、マイク2で収音した測定音83がスピーカSP1,SPnのどちらから放音されたか判別することができる。   The MIDI sound source 91 sequentially acquires the data of the accompaniment sound 81, the data of the guide melody 82, and the data of the measurement sound 83 from the storage unit 8 according to an instruction from the control unit 10, and outputs the acquired data to the A / D converter 11. The accompaniment sound 81 is composed of various instrument sounds. The guide melody 82 is the main melody of the accompaniment sound 81 and supports the singing of the singer 6. The measurement sound 83 is generated from the accompaniment sound 81 by using one or a plurality of instrument sounds as a masker and a harmonic of the fundamental frequency of the masker. At this time, the musical instrument sound to be a masker is appropriately selected according to the karaoke song. The measurement sound 83 is emitted periodically (for example, every bar). Further, the measurement sound 83 is emitted from the speakers SP1 and SPn at both ends of the speaker array 3. At this time, the measurement sound 83 is generated in different frequency bands for each of the speakers SP1 and SPn and emitted from the speakers SP1 and SPn. Thereby, the karaoke apparatus 1 can determine from which of the speakers SP1 and SPn the measurement sound 83 collected by the microphone 2 is emitted.

また、カラオケ装置1は、スピーカアレイ3の両端のスピーカSP1,SPnから同時又は別々に測定音83を放音しても、マイク2の位置を検出することができる。この際、スピーカSP1とスピーカSPnとから別々に測定音83を放音する場合には、同じ周波数の測定音83を放音してもよい。また、スピーカSP1とスピーカSP2とから同時に測定音83を放音する場合には、それぞれ周波数を変える必要がある。更に、歌唱者が連続的に移動している場合には、スピーカアレイ3の両端のスピーカSP1,SPnから同時に測定音83を放音した方が、別々に放音するより、マイク2の位置を正確に検出することができる。   Further, the karaoke apparatus 1 can detect the position of the microphone 2 even if the measurement sound 83 is emitted from the speakers SP1 and SPn at both ends of the speaker array 3 simultaneously or separately. At this time, when the measurement sound 83 is separately emitted from the speaker SP1 and the speaker SPn, the measurement sound 83 having the same frequency may be emitted. Further, when the measurement sound 83 is simultaneously emitted from the speaker SP1 and the speaker SP2, it is necessary to change the frequency. In addition, when the singer is continuously moving, the position of the microphone 2 is more effective when the measurement sound 83 is simultaneously emitted from the speakers SP1 and SPn at both ends of the speaker array 3 than when the sound is emitted separately. It can be detected accurately.

ガイドボーカル再生部92は、制御部10の指示により、記憶部8からガイドボーカル84のデータを逐次取得して、A/Dコンバータ11に出力する。ガイドボーカル84は、手本となる歌唱音声から構成され、歌唱者6の歌唱を支援するためのものである。   The guide vocal reproducing unit 92 sequentially acquires the data of the guide vocal 84 from the storage unit 8 according to an instruction from the control unit 10 and outputs the data to the A / D converter 11. The guide vocal 84 is composed of a singing voice serving as a model, and is for supporting the singing of the singer 6.

A/Dコンバータ11は、MIDI音源91やガイドボーカル再生部92から入力されたこれらのデータをアナログ形式からデジタル形式に変換して、オーディオ信号を生成する。   The A / D converter 11 converts these data input from the MIDI sound source 91 and the guide vocal reproducing unit 92 from an analog format to a digital format, and generates an audio signal.

ローパスフィルタ12は、A/Dコンバータ11に入力されたオーディオ信号から、測定音83のオーディオ信号が存在しない周波数帯域(〜15kHz)だけを通過させ、後述するビーム形成部13に入力する。また、バンドパスフィルタ14(14a〜14d)は、A/Dコンバータ11に入力されたオーディオ信号から、測定音83のオーディオ信号が存在する帯域の周波数成分(15〜20kHzの一部の周波数成分)だけを通過させ、後述するマイク位置検出部15に入力する。この際、バンドパスフィルタ14a〜14dは、それぞれ異なる周波数成分を取り出す。   The low-pass filter 12 passes only the frequency band (˜15 kHz) in which the audio signal of the measurement sound 83 does not exist from the audio signal input to the A / D converter 11 and inputs it to the beam forming unit 13 described later. Further, the band pass filter 14 (14a to 14d) is a frequency component (a part of a frequency component of 15 to 20 kHz) in a band in which the audio signal of the measurement sound 83 exists from the audio signal input to the A / D converter 11. And the signal is input to the microphone position detector 15 described later. At this time, the band-pass filters 14a to 14d extract different frequency components.

マイク2は、歌唱者6の歌唱音声を収音するとともに、スピーカSP1〜SPnから放音された放音音声についても収音する。マイク2は、収音した歌唱者6の歌唱音声とともに、スピーカアレイ3からの放音音声(伴奏音81、測定音83、ガイドボーカル84等)をA/Dコンバータ16、各フィルタ17,19(19a〜19d)を介して、ビーム形成部18、後述するマイク位置検出部15に入力する。この際、歌唱音声とスピーカアレイ3からの放音音声と(以下、歌唱音声とスピーカアレイ3からの放音音声とを、収音音声と称す。)は、A/Dコンバータ16にてA/D変換され、収音音声信号として生成される。また、ローパスフィルタ17は、測定音83を含まない収音音声信号の低域部分(〜15kHz)だけを通過させ、ビーム形成部18に入力する。この際、ローパスフィルタ17は、ローパスフィルタ12に対応する周波数成分を収音音声信号から取り出す。また、バンドパスフィルタ19(19a〜19d)は、測定音83を含む収音音声信号の周波数成分(15〜20kHzの一部の周波数成分)だけを通過させ、後述するマイク位置検出部15に入力する。この際、バンドパスフィルタ19a〜19dは、それぞれがバンドパスフィルタ14a〜14dに対応した周波数成分を収音音声信号から取り出す。   The microphone 2 picks up the singing voice of the singer 6 and picks up the sound emitted from the speakers SP1 to SPn. The microphone 2 collects the singing voice of the singer 6 that has collected the sound and the sound emitted from the speaker array 3 (accompaniment sound 81, measurement sound 83, guide vocal 84, etc.), A / D converter 16, and filters 17, 19 ( 19a to 19d) and input to the beam forming unit 18 and a microphone position detecting unit 15 described later. At this time, the singing voice and the sound emitted from the speaker array 3 (hereinafter, the singing voice and the sound emitted from the speaker array 3 are referred to as collected sound) are converted into A / D by the A / D converter 16. D-converted and generated as a collected sound signal. The low-pass filter 17 passes only the low frequency portion (˜15 kHz) of the collected sound signal that does not include the measurement sound 83 and inputs the low-frequency filter 17 to the beam forming unit 18. At this time, the low-pass filter 17 extracts a frequency component corresponding to the low-pass filter 12 from the collected sound signal. Further, the band pass filter 19 (19a to 19d) passes only the frequency components (a part of the frequency components of 15 to 20 kHz) of the collected sound signal including the measurement sound 83 and inputs them to the microphone position detection unit 15 described later. To do. At this time, each of the bandpass filters 19a to 19d extracts frequency components corresponding to the bandpass filters 14a to 14d from the collected sound signal.

ビーム形成部13,18は、スピーカアレイ3から指向性を持たせて、指向性ビーム6a,70a〜70dを放音するとともに、スピーカアレイ3の両端のスピーカSP1,SPnから指向性を持たせずに伴奏音81を放音するよう、各スピーカSP1〜SPnに対応する放音音声信号を形成する。具体的には、ビーム形成部13は、制御部10の指示により、ローパスフィルタ12によってフィルタリングされた伴奏音81のオーディオ信号とガイドボーカル84のオーディオ信号とから、スピーカアレイ3を構成する各スピーカSP1〜SPnのそれぞれに対応した放音音声信号を形成して、ミキサ20へ放音音声信号を出力する。また、ビーム形成部18は、ローパスフィルタ17によって測定音83を除去した収音音声信号から、スピーカアレイ3を構成する各スピーカSP1〜SPnのそれぞれに対応した放音音声信号を形成して、ミキサ20へ出力する。この際、ビーム形成部13,18は、後述するマイク位置検出部15からビーム形成係数が入力されると、このビーム形成係数に基づいて、指向性ビーム6aの放音方向を決定し、対応する各スピーカSP1〜SPnの放音音声信号を形成して、ミキサ20へ出力する。   The beam forming units 13 and 18 emit directivity beams 6a and 70a to 70d with directivity from the speaker array 3, and do not have directivity from the speakers SP1 and SPn at both ends of the speaker array 3. The sound emission sound signals corresponding to the speakers SP1 to SPn are formed so that the accompaniment sound 81 is emitted. Specifically, the beam forming unit 13 is configured by each speaker SP1 constituting the speaker array 3 from the audio signal of the accompaniment sound 81 and the audio signal of the guide vocal 84 filtered by the low-pass filter 12 according to an instruction from the control unit 10. A sound emission sound signal corresponding to each of .about.SPn is formed, and the sound emission sound signal is output to the mixer 20. Further, the beam forming unit 18 forms sound emission sound signals corresponding to the speakers SP1 to SPn constituting the speaker array 3 from the collected sound signal from which the measurement sound 83 is removed by the low-pass filter 17, and the mixer 18 20 output. At this time, when a beam forming coefficient is input from a microphone position detecting unit 15 to be described later, the beam forming units 13 and 18 determine the sound emitting direction of the directional beam 6a based on the beam forming coefficient and respond accordingly. Sound output sound signals of the speakers SP1 to SPn are formed and output to the mixer 20.

ミキサ20は、ビーム形成部13,18から入力された放音音声信号(伴奏音81、ガイドボーカル84、収音音声)に対して、ミキシングを行う。具体的には、ミキサ20は、両端のスピーカSP1,SPnに入力される放音音声信号に対して、バンドパスフィルタ14から入力された測定音83を加算する。この際、ミキサ20は、歌唱者6、歌唱者6のグループが着席するテーブル7aに対する指向性ビーム6a,70aは、歌唱音声の放音音声信号と伴奏音81の放音音声信号等を加算して生成する。また、他のテーブル7b〜7dに対する指向性ビーム70b〜70dは、ガイドボーカル84の放音音声信号と伴奏音81の放音音声信号等を加算して生成する。ミキサ20は、放音音声信号をD/Aコンバータ21(21−1〜21−n)及びAMP22(22−1〜22−n)を介して、スピーカSP1〜SPnに入力する。ここで、D/Aコンバータ21、AMP22は、放音音声信号に対してD/A変換や増幅等を行い、スピーカSP1〜SPnは、指向性ビーム6a,70a〜70dを放音する。   The mixer 20 performs mixing on the sound emission sound signals (accompaniment sound 81, guide vocal 84, and sound collection sound) input from the beam forming units 13 and 18. Specifically, the mixer 20 adds the measurement sound 83 input from the band pass filter 14 to the sound emission sound signal input to the speakers SP1 and SPn at both ends. At this time, the mixer 20 adds the sound output sound signal of the singing sound and the sound output sound signal of the accompaniment sound 81 to the directional beams 6a and 70a with respect to the table 7a on which the singer 6 and the group of the singer 6 are seated. To generate. The directional beams 70b to 70d for the other tables 7b to 7d are generated by adding the sound output sound signal of the guide vocal 84, the sound output sound signal of the accompaniment sound 81, and the like. The mixer 20 inputs the emitted sound signal to the speakers SP1 to SPn via the D / A converter 21 (21-1 to 21-n) and the AMP22 (22-1 to 22-n). Here, the D / A converter 21 and the AMP 22 perform D / A conversion, amplification, and the like on the emitted sound signal, and the speakers SP1 to SPn emit the directional beams 6a and 70a to 70d.

マイク位置検出部15は、レベル検出部151(151a〜151d),153(153a〜153d)、タイマ部152(152a〜152d)、マイク位置算出部154及びビーム形成係数算出部155から構成される。マイク位置検出部15は、歌唱者6に放音する指向性ビーム6aの放音方向を決定するビーム形成係数を算出する。   The microphone position detection unit 15 includes level detection units 151 (151a to 151d) and 153 (153a to 153d), a timer unit 152 (152a to 152d), a microphone position calculation unit 154, and a beam forming coefficient calculation unit 155. The microphone position detection unit 15 calculates a beam forming coefficient that determines the sound emission direction of the directional beam 6 a emitted to the singer 6.

具体的には、レベル検出部151は、バンドパスフィルタ14を介して入力されたオーディオ信号に含まれる測定音83のオーディオ信号を検出すると、タイマ部152にタイマの起動を指示する。レベル検出部153は、バンドパスフィルタ19を介して入力された収音音声信号に含まれる測定音83のオーディオ信号を検出すると、タイマ部152にタイマの終了を指示する。タイマ部152は、タイマの起動指示を受けてから終了指示を受けるまでの時間を計時して、マイク位置算出部154にこの時間情報を出力する。   Specifically, when the level detection unit 151 detects the audio signal of the measurement sound 83 included in the audio signal input via the bandpass filter 14, the level detection unit 151 instructs the timer unit 152 to start the timer. When the level detection unit 153 detects the audio signal of the measurement sound 83 included in the collected sound signal input via the band pass filter 19, the level detection unit 153 instructs the timer unit 152 to end the timer. The timer unit 152 counts the time from receiving the timer start instruction to receiving the end instruction, and outputs this time information to the microphone position calculation unit 154.

この際、バンドパスフィルタ14a〜14dの各々とバンドパスフィルタ19a〜19dの各々とは、同じ周波数成分を取り出すので、スピーカSP1,SPnから放音された測定音83(レベル検出部151にて検出)と、マイク2により収音された測定音83(レベル検出部153にて検出)とを対応付けて検出することができる。このため、タイマ部152は、タイマの起動から終了までの時間を求めることで、スピーカSP1,SPnから測定音83を放音してから、マイク2で測定音83を収音するまでの時間(以下、経過時間と称す。)を求めることができる。   At this time, since each of the bandpass filters 14a to 14d and each of the bandpass filters 19a to 19d extract the same frequency component, the measurement sound 83 (detected by the level detection unit 151) emitted from the speakers SP1 and SPn. ) And the measurement sound 83 (detected by the level detection unit 153) collected by the microphone 2 can be detected in association with each other. Therefore, the timer unit 152 obtains the time from the start to the end of the timer, so that the time from when the measurement sound 83 is emitted from the speakers SP1 and SPn until the measurement sound 83 is collected by the microphone 2 ( Hereinafter, it is referred to as elapsed time).

また、スピーカSP1,SPnは、異なる周波数成分を取り出すバンドパスフィルタ14a〜14dを通過させて、測定音83を放音する。これにより、レベル検出部151,153に入力される測定音83は、スピーカSP1,SPnのどちらに対応しているか分かる。このため、タイマ部152は、スピーカSP1,SPn毎に、経過時間を求めることができる。   Further, the speakers SP1 and SPn emit the measurement sound 83 through the band pass filters 14a to 14d that extract different frequency components. As a result, the measurement sound 83 input to the level detectors 151 and 153 can be identified as to which of the speakers SP1 and SPn corresponds. For this reason, the timer part 152 can obtain | require elapsed time for every speaker SP1, SPn.

マイク位置算出部154は、スピーカSP1,SPn毎の経過時間に基づいて、マイク2の位置を算出する。マイク位置算出部154で算出したマイク2の位置に基づいて、ビーム形成係数算出部155は、マイク2の位置の方向に指向性を持たせたビーム形成係数を算出する。ビーム形成係数は、ビーム形成部13,18に出力される。   The microphone position calculation unit 154 calculates the position of the microphone 2 based on the elapsed time for each of the speakers SP1 and SPn. Based on the position of the microphone 2 calculated by the microphone position calculation unit 154, the beam forming coefficient calculation unit 155 calculates a beam forming coefficient having directivity in the direction of the position of the microphone 2. The beam forming coefficient is output to the beam forming units 13 and 18.

次に、歌唱者6に向けた指向性ビーム6aの生成時の処理の流れについて、図6を参照して説明する。図6は、カラオケ曲に測定音が含まれる場合における指向性ビームの生成手順を示すフローチャートである。なお、説明の簡単化のため、各テーブル7a〜7dに対する指向性ビーム70a〜70dの生成方法を除いて、歌唱者6に対する指向性ビーム6aの生成方法についてのみ記載する。   Next, the flow of processing when generating the directional beam 6a directed toward the singer 6 will be described with reference to FIG. FIG. 6 is a flowchart showing a procedure for generating a directional beam when a measurement sound is included in a karaoke song. For simplification of description, only the method of generating the directional beam 6a for the singer 6 will be described except for the method of generating the directional beams 70a to 70d for the tables 7a to 7d.

まず、カラオケ演奏時の処理の流れについて説明する。図6に示すように、ステップS101にて、MIDI音源91は、制御部10の指示により、伴奏音81のデータとガイドメロディ82のデータと測定音83のデータを、記憶部8から読み出して逐次A/Dコンバータ11へ出力する。この際、各データは、A/D変換され、それぞれに対応したオーディオ信号が生成されて、ステップS102へ進む。   First, the flow of processing during karaoke performance will be described. As shown in FIG. 6, in step S <b> 101, the MIDI sound source 91 reads the accompaniment sound 81 data, the guide melody 82 data, and the measurement sound 83 data from the storage unit 8 in accordance with an instruction from the control unit 10. Output to the A / D converter 11. At this time, each data is A / D converted, an audio signal corresponding to each data is generated, and the process proceeds to step S102.

ステップS102にて、伴奏音81のオーディオ信号とガイドメロディ82のオーディオ信号と測定音83のオーディオ信号は、ローパスフィルタ12へ出力される。この際、これらのオーディオ信号から、測定音83のオーディオ信号が取り除かれる。ローパスフィルタ12を通過した伴奏音81のオーディオ信号とガイドメロディ82のオーディオ信号とは、ビーム形成部13に出力され(S103)、ステップS104へ進む。   In step S102, the audio signal of the accompaniment sound 81, the audio signal of the guide melody 82, and the audio signal of the measurement sound 83 are output to the low-pass filter 12. At this time, the audio signal of the measurement sound 83 is removed from these audio signals. The audio signal of the accompaniment sound 81 and the audio signal of the guide melody 82 that have passed through the low-pass filter 12 are output to the beam forming unit 13 (S103), and the process proceeds to step S104.

ステップS104にて、ビーム形成部13に、ビーム形成係数が入力されているかどうか調べる。ビーム形成係数が入力されている場合(歌唱途中)(S104:Yes)は、ステップS106へ進む。   In step S104, it is checked whether or not a beam forming coefficient is input to the beam forming unit 13. When the beam forming coefficient is input (in the middle of singing) (S104: Yes), the process proceeds to step S106.

ビーム形成係数が入力されていない場合(歌唱開始時)(S104:No)、制御部10の指示により、ビーム形成部13は、モニタ4に向けて指向性ビーム6aを放音するように、伴奏音81のオーディオ信号から放音音声信号を生成する(S105)。このように、歌唱者6の歌唱開始時は、歌唱位置の検出を開始していないので、ビーム形成係数が入力されていない。そこで、ビーム形成部13は、モニタ4に向けて指向性ビーム6aを放音するよう放音音声信号を生成する。また、ビーム形成部13は、ビーム形成係数が入力されている場合のみ、放音音声信号を生成してもよい。   When the beam forming coefficient is not input (at the time of singing) (S104: No), the beam forming unit 13 emits the directional beam 6a toward the monitor 4 according to an instruction from the control unit 10 to accompaniment. A sound emission sound signal is generated from the audio signal of the sound 81 (S105). Thus, since the detection of the singing position is not started when the singer 6 starts singing, the beam forming coefficient is not input. Therefore, the beam forming unit 13 generates a sound emission sound signal so as to emit the directional beam 6 a toward the monitor 4. Further, the beam forming unit 13 may generate a sound emission sound signal only when a beam forming coefficient is input.

ステップS106にて、制御部10の指示により、ビーム形成部13は、ビーム形成係数に基づいて指向性制御を行い、伴奏音81のオーディオ信号から放音音声信号を生成して、ステップS107へ進む。   In step S106, in response to an instruction from the control unit 10, the beam forming unit 13 performs directivity control based on the beam forming coefficient, generates a sound emission sound signal from the audio signal of the accompaniment sound 81, and proceeds to step S107. .

ステップS107にて、ビーム形成部13は、生成した放音音声信号をミキサ20へ出力して、ステップS108へ進む。   In step S107, the beam forming unit 13 outputs the generated sound emission sound signal to the mixer 20 and proceeds to step S108.

ステップS108にて、伴奏音81のオーディオ信号とガイドメロディ82のオーディオ信号と測定音83のオーディオ信号は、バンドパスフィルタ14へ出力される。バンドパスフィルタ14は、これらのオーディオ信号から、測定音83のオーディオ信号のみを通過させて、レベル検出部151へ出力する。そして、レベル検出部151にて、測定音83のオーディオ信号が検出される(S109:Yes)と、タイマ部152は、タイマを起動して(S110)、ステップS111へ進む。   In step S 108, the audio signal of the accompaniment sound 81, the audio signal of the guide melody 82, and the audio signal of the measurement sound 83 are output to the bandpass filter 14. The band pass filter 14 passes only the audio signal of the measurement sound 83 from these audio signals, and outputs it to the level detection unit 151. When the level detection unit 151 detects the audio signal of the measurement sound 83 (S109: Yes), the timer unit 152 activates the timer (S110), and proceeds to step S111.

ステップS111にて、バンドパスフィルタ14から出力された測定音83のオーディオ信号は、ミキサ20において放音音声信号と加算される。この際、測定音83は、スピーカアレイ3の両端のスピーカSP1,SPnから放音されるように、放音音声信号に加算される。   In step S <b> 111, the audio signal of the measurement sound 83 output from the bandpass filter 14 is added to the sound output sound signal in the mixer 20. At this time, the measurement sound 83 is added to the emitted sound signal so as to be emitted from the speakers SP1 and SPn at both ends of the speaker array 3.

ステップS112にて、これらの放音音声信号は、対応するD/Aコンバータ21、AMP22を介して、スピーカSP1〜SPnから放音され、ステップS113へ進む。この放音音声信号は、指向性ビーム6aとなり、歌唱者6に向けて放音される。   In step S112, these sound emission signals are emitted from the speakers SP1 to SPn via the corresponding D / A converter 21 and AMP 22, and the process proceeds to step S113. This sound emission sound signal becomes a directional beam 6 a and is emitted toward the singer 6.

ステップS113にて、マイク2は、歌唱者6の歌唱音声とスピーカアレイ3から放音された放音音声と(以下、収音音声と称す。)を収音する。これら収音音声は、A/Dコンバータ11へ入力されて、ステップS114へ進む。この際、収音音声は、A/D変換され、収音音声信号として生成される。   In step S113, the microphone 2 collects the singing voice of the singer 6 and the emitted voice emitted from the speaker array 3 (hereinafter referred to as the collected voice). These collected sounds are input to the A / D converter 11, and the process proceeds to step S114. At this time, the collected sound is A / D converted and generated as a collected sound signal.

ステップS114にて、収音音声信号は、ローパスフィルタ17へ出力される。この際、収音音声信号から、測定音83のオーディオ信号(スピーカアレイ3から放音された放音音声に含まれる)が取り除かれる。ローパスフィルタ17を通過した収音音声信号は、ビーム形成部18に出力され(S115)、ステップS116へ進む。   In step S <b> 114, the collected sound signal is output to the low pass filter 17. At this time, the audio signal of the measurement sound 83 (included in the sound emitted from the speaker array 3) is removed from the collected sound signal. The collected sound signal that has passed through the low-pass filter 17 is output to the beam forming unit 18 (S115), and the process proceeds to step S116.

ステップS116にて、ビーム形成部18に、ビーム形成係数が入力されているかどうか調べる。ビーム形成係数が入力されている場合(歌唱途中)(S116:Yes)は、ステップS118へ進む。   In step S116, it is checked whether or not a beam forming coefficient is input to the beam forming unit 18. When the beam forming coefficient is input (in the middle of singing) (S116: Yes), the process proceeds to step S118.

ビーム形成係数が入力されていない場合(歌唱開始時)(S116:No)、制御部10の指示により、ビーム形成部18は、モニタ4に向けて指向性ビーム6aを放音するように、収音音声信号から放音音声信号を生成する(S117)。このように、歌唱者6の歌唱開始時は、歌唱位置の検出を開始していないので、ビーム形成係数が入力されていない。そこで、ビーム形成部18は、モニタ4に向けて指向性ビーム6aを放音するよう放音音声信号を生成する。また、ビーム形成部18は、ビーム形成係数が入力されている場合のみ、放音音声信号を生成してもよい。   When the beam forming coefficient is not input (at the time of singing) (S116: No), the beam forming unit 18 collects the directional beam 6a toward the monitor 4 according to the instruction of the control unit 10 so as to emit sound. A sound emitting sound signal is generated from the sound sound signal (S117). Thus, since the detection of the singing position is not started when the singer 6 starts singing, the beam forming coefficient is not input. Therefore, the beam forming unit 18 generates a sound emission sound signal so as to emit the directional beam 6 a toward the monitor 4. Further, the beam forming unit 18 may generate a sound emission sound signal only when a beam forming coefficient is input.

ステップS118にて、制御部10の指示により、ビーム形成部18は、ビーム形成係数に基づいて指向性制御を行い、収音音声信号から放音音声信号を生成して、ステップS119へ進む。   In step S118, in response to an instruction from the control unit 10, the beam forming unit 18 performs directivity control based on the beam forming coefficient, generates a sound output sound signal from the collected sound signal, and proceeds to step S119.

ステップS119にて、ビーム形成部18は、放音音声信号をミキサ20へ出力して、ステップS120へ進む。   In step S119, the beam forming unit 18 outputs the sound output sound signal to the mixer 20, and proceeds to step S120.

ステップS120にて、収音音声信号は、バンドパスフィルタ19へ出力される。バンドパスフィルタ19は、収音音声信号から、測定音83のオーディオ信号を取得して、レベル検出部153へ出力する。そして、レベル検出部153にて、測定音83のオーディオ信号が検出される(S121:Yes)と、タイマ部152は、タイマを停止して(S122)、ステップS123へ進む。   In step S <b> 120, the collected sound signal is output to the band pass filter 19. The band pass filter 19 acquires the audio signal of the measurement sound 83 from the collected sound signal and outputs it to the level detection unit 153. When the level detection unit 153 detects the audio signal of the measurement sound 83 (S121: Yes), the timer unit 152 stops the timer (S122) and proceeds to step S123.

ステップS123にて、マイク位置算出部154は、タイマの起動から停止までの計測時間に基づいて、マイク2の位置を算出して、ステップS124へ進む。   In step S123, the microphone position calculation unit 154 calculates the position of the microphone 2 based on the measurement time from the start to the stop of the timer, and proceeds to step S124.

ステップS124にて、ビーム形成係数算出部155は、マイク2の位置に指向性ビーム6aがスピーカアレイ3から放音されるように、ビーム形成係数を算出する。カラオケ装置1は、算出したビーム形成係数をビーム形成部13,18に入力して、ステップS101へ戻る。   In step S124, the beam forming coefficient calculation unit 155 calculates the beam forming coefficient so that the directional beam 6a is emitted from the speaker array 3 at the position of the microphone 2. The karaoke apparatus 1 inputs the calculated beam forming coefficient to the beam forming units 13 and 18, and returns to step S101.

カラオケ装置1は、以上に示すステップS101〜S124の処理を繰り返し行い、カラオケ曲が終了するまで、スピーカアレイ3から伴奏音81と測定音83とマイク2で収音した収音音声とを放音する。   The karaoke apparatus 1 repeats the processes of steps S101 to S124 described above, and emits the accompaniment sound 81, the measurement sound 83, and the sound collected by the microphone 2 from the speaker array 3 until the karaoke song is finished. To do.

以上より、第1実施形態に係るカラオケ装置1は、スピーカアレイ3から指向性を持たせて歌唱音声、ガイドボーカル、伴奏音81を放音するとともに、スピーカアレイ3の両端のスピーカSP1,SPnから伴奏音81と測定音83を放音することができる。カラオケ装置1は、この測定音83をマイク2で収音するまでの経過時間を求めることにより、マイク位置、つまり歌唱者6の位置を検出することができ、歌唱者6に指向性ビーム6aを放音することができる。また、測定音83は、楽器音をマスカーとして、マスカーの基本周波数の倍音で構成され、それらの発音のタイミングで発音される。これにより、歌唱者6や店内5の顧客は、測定音83を知覚せずに、カラオケを楽しむことができる。更に、測定音83は、人が知覚し難い周波数帯域を用いて生成されているので、歌唱者6や店内5の顧客は、測定音83をより知覚することがない。   As described above, the karaoke apparatus 1 according to the first embodiment emits the singing voice, the guide vocal, and the accompaniment sound 81 with directivity from the speaker array 3, and from the speakers SP1 and SPn at both ends of the speaker array 3. Accompaniment sound 81 and measurement sound 83 can be emitted. The karaoke apparatus 1 can detect the microphone position, that is, the position of the singer 6 by obtaining the elapsed time until the measurement sound 83 is picked up by the microphone 2, and the directional beam 6 a is provided to the singer 6. Sound can be emitted. The measurement sound 83 is composed of overtones of the fundamental frequency of the masker, using the instrument sound as a masker, and is generated at the timing of their pronunciation. Thereby, the singer 6 and the customers in the store 5 can enjoy karaoke without perceiving the measurement sound 83. Furthermore, since the measurement sound 83 is generated using a frequency band that is difficult for humans to perceive, the singer 6 or the customer in the store 5 does not perceive the measurement sound 83 more.

[第2実施形態]
次に、本発明の第2実施形態について、図7,8を参照して説明する。本発明の第2実施形態のカラオケ装置1は、測定音83のデータがカラオケ曲に含まれない点が第1実施形態と異なる。そこで、カラオケ装置1は、伴奏音81のデータを解析し、マスカーとなる楽器音を決定する。カラオケ装置1は、マスカーとなる楽器音の発音のタイミングで測定音83を生成して発音する。この際、測定音83は、伴奏音81から選択された楽器音(例えば、ハープシーコード)をマスカーとして、このマスカーの基本周波数の倍音で生成される。図7は、カラオケ装置の機能ブロック図である。図8は、伴奏音に基づいて測定音を生成する場合における指向性ビームの生成手順を示すフローチャートである。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIGS. The karaoke apparatus 1 according to the second embodiment of the present invention is different from the first embodiment in that the data of the measurement sound 83 is not included in the karaoke song. Therefore, the karaoke apparatus 1 analyzes the data of the accompaniment sound 81 and determines an instrument sound to be a masker. The karaoke apparatus 1 generates a measurement sound 83 at the timing of sounding a musical instrument sound that becomes a masker and generates a sound. At this time, the measurement sound 83 is generated as an overtone of the fundamental frequency of the masker using the instrument sound (for example, harpsichord) selected from the accompaniment sound 81 as a masker. FIG. 7 is a functional block diagram of the karaoke apparatus. FIG. 8 is a flowchart showing a procedure for generating a directional beam when a measurement sound is generated based on an accompaniment sound.

図7に示すように、第2実施形態のカラオケ装置1は、カラオケ曲に測定音83が含まれない。また、カラオケ装置1に、MIDI信号解析部23、測定音MIDI信号生成部24及びMIDI信号併合部25が更に備えられる。これらの機能部について、以下に説明する。   As shown in FIG. 7, in the karaoke apparatus 1 of the second embodiment, the measurement sound 83 is not included in the karaoke song. The karaoke apparatus 1 further includes a MIDI signal analyzing unit 23, a measurement sound MIDI signal generating unit 24, and a MIDI signal merging unit 25. These functional units will be described below.

MIDI信号解析部23は、伴奏音81のMIDIデータを解析して、マスカーとなる楽器音をハープシーコードに決定する。MIDI信号解析部23は、マスカーの基本周波数の倍音で、かつ、マスカーと同じタイミングで測定音83を生成するように測定音MIDI信号生成部24に指示する。具体的には、一定の時間(例えば1小節)内における伴奏音81のMIDIデータから検出されるハープシーコードの音符のうち、ベロシティの値とボリュームの値とエクスプレッションの値を読み取ることにより、音圧レベルが最も大きい音符を検出し、マスカーとして選択する。測定音83のMIDIデータは、マスカーの周波数(マスカーのノートナンバーの値とピッチベンドの値などから算出される)の整数倍となるように、ノートナンバーの値とピッチベンドの値が決定され、マスカーのノートオンの値と同じ値でノートオンの値が決定され、マスカーのベロシティの値とボリュームの値とエクスプレッションの値に基づいて適切にベロシティの値とボリュームの値とエクスプレッションの値が決定される。測定音MIDI信号生成部24は、これらの値をMIDI信号解析部23から受け取り、その値に基づいて測定音83のMIDIデータを生成する。   The MIDI signal analyzing unit 23 analyzes the MIDI data of the accompaniment sound 81 and determines a musical instrument sound to be a masker as a harpsichord. The MIDI signal analysis unit 23 instructs the measurement sound MIDI signal generation unit 24 to generate the measurement sound 83 that is a harmonic of the fundamental frequency of the masker and at the same timing as the masker. Specifically, by reading the value of the velocity, the value of the volume, and the value of the expression among the notes of the harpsichord code detected from the MIDI data of the accompaniment sound 81 within a certain time (for example, one measure), The note with the highest pressure level is detected and selected as a masker. The MIDI data of the measurement sound 83 has a note number value and a pitch bend value determined so as to be an integral multiple of the masker frequency (calculated from the masker note number value and the pitch bend value). The note-on value is determined by the same value as the note-on value, and the velocity value, the volume value, and the expression value are appropriately determined based on the masker velocity value, the volume value, and the expression value. The measurement sound MIDI signal generation unit 24 receives these values from the MIDI signal analysis unit 23 and generates MIDI data of the measurement sound 83 based on the values.

また、MIDI信号解析部23は、1又は複数の基本周波数に基づいて測定音83を生成する。複数の基本周波数に基づいて測定音83を生成した場合、特定の基本周波数の放音が中断しても、他の基本周波数の放音に基づいて測定音83を生成することで、定期的に測定音83を放音することができる。また、マスカーとなる楽器音は、1つに限らないので、マスカーに適した楽器音であれば、複数の楽器音(ハープシーコード,グロッケン)を用いてもよい。これにより、一方の楽器音の放音が中断しても、他の楽器音の放音に基づいて測定音83を生成することで、定期的に測定音83を放音することができる。また、マスカーとして、音階を有しない楽器を用いた場合は、マスカーの音の周波数成分のある帯域に測定音83を生成する。   Further, the MIDI signal analyzing unit 23 generates the measurement sound 83 based on one or a plurality of fundamental frequencies. When the measurement sound 83 is generated based on a plurality of fundamental frequencies, even if the sound emission of a specific fundamental frequency is interrupted, the measurement sound 83 is periodically generated based on the sound emission of other fundamental frequencies. The measurement sound 83 can be emitted. In addition, since the musical instrument sound that becomes a masker is not limited to one, a plurality of musical instrument sounds (harpsy chord, glocken) may be used as long as the musical instrument sound is suitable for a masker. Thereby, even if the sound emission of one instrument sound is interrupted, the measurement sound 83 can be periodically emitted by generating the measurement sound 83 based on the sound emission of the other instrument sound. When a musical instrument having no musical scale is used as the masker, the measurement sound 83 is generated in a band having a frequency component of the masker sound.

この測定音83は、スピーカアレイ3の両端のスピーカSP1,SPnから同時に放音されても、別々に放音されてもよい。スピーカアレイ3の両端のスピーカSP1,SPnから測定音83が同時に放音される場合には、スピーカSP1,SPn毎に異なる周波数にて測定音83を生成する。   The measurement sound 83 may be emitted simultaneously from the speakers SP1 and SPn at both ends of the speaker array 3, or may be emitted separately. When the measurement sound 83 is simultaneously emitted from the speakers SP1 and SPn at both ends of the speaker array 3, the measurement sound 83 is generated at a different frequency for each of the speakers SP1 and SPn.

測定音MIDI信号生成部24は、MIDI信号解析部23の指示を受け、測定音83のMIDI信号を生成して、MIDI信号併合部25に出力する。具体的には、MIDI信号解析部23の指示により、ハープシーコードと同じタイミングで発音し、かつ、ハープシーコードの基本周波数の倍音になるような測定音83のMIDI信号を生成し、MIDI信号併合部25に出力する。   The measurement sound MIDI signal generation unit 24 receives an instruction from the MIDI signal analysis unit 23, generates a MIDI signal of the measurement sound 83, and outputs the MIDI signal to the MIDI signal merging unit 25. Specifically, in response to an instruction from the MIDI signal analysis unit 23, a MIDI signal of the measurement sound 83 that is generated at the same timing as the harpsichord and becomes a harmonic of the fundamental frequency of the harpsichord is generated. Output to the merging unit 25.

なお、マスカーとして伴奏音81とガイドメロディ82の両方を用いることができる。しかしながら、伴奏音81の方がガイドメロディ82より、音圧レベルが高いので、マスカーには、ガイドメロディ82より音圧レベルの高い伴奏音81を用いた方がより適している。   In addition, both the accompaniment sound 81 and the guide melody 82 can be used as a masker. However, since the accompaniment sound 81 has a higher sound pressure level than the guide melody 82, it is more suitable to use the accompaniment sound 81 having a higher sound pressure level than the guide melody 82 for the masker.

MIDI信号併合部25は、伴奏音81のMIDIデータに測定音83のMIDIデータを付加して、MIDI音源91に出力する。MIDI音源91は、MIDI信号併合部25で併合された伴奏音81のMIDIデータと測定音83のMIDIデータをそれぞれオーディオ信号に変換して出力する。以上のように、伴奏音81を解析して、測定音83を生成する。   The MIDI signal merging unit 25 adds the MIDI data of the measurement sound 83 to the MIDI data of the accompaniment sound 81 and outputs it to the MIDI sound source 91. The MIDI sound source 91 converts the MIDI data of the accompaniment sound 81 and the MIDI data of the measurement sound 83 merged by the MIDI signal merging unit 25 into audio signals and outputs the audio signals. As described above, the accompaniment sound 81 is analyzed, and the measurement sound 83 is generated.

なお、測定音83は、必ずしも人が聞き取り難い周波数帯域(15kHz〜)で生成される必要はなく、マスカーとなる楽器が音階を有する場合は、マスカーの基本周波数の倍音で生成されればよく、マスカーとなる楽器が音階を有しない場合は、マスカーの音の周波数成分のある帯域で生成されればよい。この場合、カラオケ装置1は、伴奏音81やマイク2が収音した歌唱音声等から測定音83を検出できればよい。   Note that the measurement sound 83 does not necessarily have to be generated in a frequency band (15 kHz to) that is difficult for humans to hear. If the musical instrument to be a masker has a scale, it may be generated with a harmonic of the basic frequency of the masker. If the musical instrument to be a masker does not have a scale, it may be generated in a band having a frequency component of the masker sound. In this case, the karaoke apparatus 1 only needs to be able to detect the measurement sound 83 from the accompaniment sound 81 or the singing sound collected by the microphone 2.

また、図8に示すように、歌唱者6に向けた指向性ビームの生成時の処理の流れは、第2実施形態では、第1実施形態の処理にステップS201〜S206の処理が追加される。以下に、追加されたステップS201〜S206の処理についてのみ説明する。   Moreover, as shown in FIG. 8, the flow of the process at the time of the production | generation of the directional beam toward the singer 6 adds the process of step S201-S206 to the process of 1st Embodiment in 2nd Embodiment. . Only the added steps S201 to S206 will be described below.

ステップS201にて、制御部10は、伴奏音81のMIDIデータとガイドメロディ82のMIDIデータとを記憶部8からMIDI信号解析部23へ入力する。MIDI信号解析部23は、伴奏音81のMIDIデータの解析を行い、伴奏音81からマスカーになる楽器音(ハープシーコード)を決定(S202)して、ステップS203へ進む。   In step S <b> 201, the control unit 10 inputs the MIDI data of the accompaniment sound 81 and the MIDI data of the guide melody 82 from the storage unit 8 to the MIDI signal analysis unit 23. The MIDI signal analyzing unit 23 analyzes the MIDI data of the accompaniment sound 81, determines an instrument sound (harpsichord) that becomes a masker from the accompaniment sound 81 (S202), and proceeds to step S203.

ステップS203にて、MIDI信号解析部23は、一定の時間(例えば1小節)内に、ハープシーコードの基本周波数の音圧レベルが急激に上昇したかどうか調べる。ハープシーコードの基本周波数の音圧レベルの急激な上昇を検出すると、(S203:Yes)、ステップS204へ進む。   In step S203, the MIDI signal analyzing unit 23 checks whether or not the sound pressure level of the fundamental frequency of the harpsichord has suddenly increased within a certain time (for example, one measure). If a rapid increase in the sound pressure level of the fundamental frequency of the harpsichord is detected (S203: Yes), the process proceeds to step S204.

ステップS204にて、測定音MIDI信号生成部24は、音圧レベルが急激に上昇した基本周波数の倍音で、測定音83のMIDIデータを生成して、ステップS205へ進む。この際、音圧レベルが急激に上昇した基本周波数の音圧レベルに基づいて、測定音83の音圧レベルを決定する。   In step S204, the measurement sound MIDI signal generation unit 24 generates MIDI data of the measurement sound 83 with harmonics of the fundamental frequency whose sound pressure level has rapidly increased, and proceeds to step S205. At this time, the sound pressure level of the measurement sound 83 is determined based on the sound pressure level of the fundamental frequency at which the sound pressure level has rapidly increased.

ステップS205にて、MIDI信号併合部25は、伴奏音81のMIDIデータに測定音83のMIDIデータを付加して、ステップS206へ進む。この際、MIDI信号併合部25は、音圧レベルが急激に上昇した基本周波数により測定音83が同時マスキングされるように付加する。   In step S205, the MIDI signal merging unit 25 adds the MIDI data of the measurement sound 83 to the MIDI data of the accompaniment sound 81, and proceeds to step S206. At this time, the MIDI signal merging unit 25 adds so that the measurement sound 83 is simultaneously masked by the fundamental frequency at which the sound pressure level has rapidly increased.

ステップS206にて、MIDI信号解析部23は、伴奏音81の解析が終了するまで(S206:No)、ステップS201〜S205の処理を繰り返し行う。この際、伴奏音81の解析の終了は、伴奏音81がMIDI信号解析部23に入力されなくなったことにより分かる。伴奏音81の解析が完了したら(S206:Yes)、ステップS207へ進む。なお、ステップS207以降の処理は、第1実施形態のステップS101以降と同じ処理を行う。   In step S206, the MIDI signal analyzing unit 23 repeats the processes of steps S201 to S205 until the analysis of the accompaniment sound 81 is completed (S206: No). At this time, the end of the analysis of the accompaniment sound 81 is recognized by the fact that the accompaniment sound 81 is no longer input to the MIDI signal analysis unit 23. When the analysis of the accompaniment sound 81 is completed (S206: Yes), the process proceeds to step S207. In addition, the process after step S207 performs the same process as step S101 after 1st Embodiment.

なお、第2実施形態では、伴奏音81を解析して、伴奏音81に測定音83の付加が完了した後に、伴奏音81等の放音を開始している。しかしながら、これに限らず、図9に示すように、伴奏音81を解析して、伴奏音81に測定音83を付加しながら、伴奏音81等の放音を開始してもよい。なお、図9は、図8のS206の処理を行わずに、すぐにS207の処理を行うようにしたフローである。   In the second embodiment, the accompaniment sound 81 is analyzed, and after the addition of the measurement sound 83 to the accompaniment sound 81 is completed, sound emission of the accompaniment sound 81 and the like is started. However, the present invention is not limited to this, and as shown in FIG. 9, sounding of the accompaniment sound 81 or the like may be started while analyzing the accompaniment sound 81 and adding the measurement sound 83 to the accompaniment sound 81. FIG. 9 is a flow in which the process of S207 is performed immediately without performing the process of S206 of FIG.

また、第2実施形態では、マスカーをハープシーコードとしたが、これに限らず、マスカーに適した楽器音であれば他の楽器音でもよい。また、マスカーとして複数の楽器音を用いる場合について、ハープシーコードとグロッケンとを用いたが、これに限らず、マスカーに適した楽器音を複数用いればよい。   In the second embodiment, the masker is a harpsichord. However, the present invention is not limited to this, and any other instrument sound may be used as long as the instrument sound is suitable for the masker. Further, in the case where a plurality of instrument sounds are used as a masker, the harpsichord and the glocken are used. However, the present invention is not limited to this, and a plurality of instrument sounds suitable for the masker may be used.

以上より、第2実施形態に係るカラオケ装置1では、カラオケ曲に測定音83が含まれていなくても、伴奏音81を解析することで測定音83を生成して発音することができる。これにより、第1実施形態と同様に、マイク位置の検出ができ、歌唱者6に指向性ビーム6aを放音することができる。   As described above, in the karaoke apparatus 1 according to the second embodiment, the measurement sound 83 can be generated and generated by analyzing the accompaniment sound 81 even if the measurement sound 83 is not included in the karaoke song. Thereby, similarly to 1st Embodiment, a microphone position can be detected and the directional beam 6a can be emitted to the singer 6.

第1,第2実施形態においては、スピーカアレイ3から、歌唱者6と歌唱者6のグループが着席するテーブル7aに向けて伴奏音81と歌唱音声とからなる指向性ビーム6a,70aを放音し、他のテーブル7b〜7dに向けて伴奏音81とガイドボーカル84とからなる指向性ビーム70b〜70dを放音する。更に、スピーカアレイ3の両端のスピーカSP1,SPnから測定音83と伴奏音81とを指向性を持たせずに放音するとして本発明の説明を行った。しかしながら、これに限らず、スピーカアレイ3から、歌唱者6と歌唱者6のグループが着席するテーブル7aに向けて歌唱音声からなる指向性ビーム6a,70aを放音し、他のテーブル7b〜7dに向けてガイドボーカル84からなる指向性ビーム70b〜70dを放音してもよい。更に、スピーカアレイ3の両端のスピーカSP1,SPnから伴奏音81と測定音83とを指向性を持たせずに放音してもよい。また、スピーカアレイ3から、歌唱者6と歌唱者6のグループが着席するテーブル7aに向けて伴奏音81と歌唱音声と測定音83とからなる指向性ビーム6a,70aを放音し、他のテーブル7b〜7dに向けて伴奏音81とガイドボーカル84と測定音83とからなる指向性ビーム70b〜70dを放音してもよい。つまり、第1,第2実施形態では、マスカーとなる伴奏音81とともに測定音83がスピーカアレイ3の両端のスピーカSP1,SPnから放音されればよい。   In the first and second embodiments, the directional beams 6a and 70a composed of the accompaniment sound 81 and the singing sound are emitted from the speaker array 3 toward the table 7a on which the group of the singer 6 and the singer 6 is seated. And the directional beams 70b-70d which consist of the accompaniment sound 81 and the guide vocal 84 are emitted toward the other tables 7b-7d. Further, the present invention has been described on the assumption that the measurement sound 83 and the accompaniment sound 81 are emitted from the speakers SP1 and SPn at both ends of the speaker array 3 without directivity. However, the present invention is not limited thereto, and the directional beams 6a and 70a composed of the singing voice are emitted from the speaker array 3 toward the table 7a on which the singer 6 and the group of the singers 6 are seated, and the other tables 7b to 7d. The directional beams 70b to 70d composed of the guide vocal 84 may be emitted toward the sound source. Further, the accompaniment sound 81 and the measurement sound 83 may be emitted from the speakers SP1 and SPn at both ends of the speaker array 3 without directivity. Further, the speaker array 3 emits directional beams 6a and 70a composed of the accompaniment sound 81, the singing sound, and the measurement sound 83 toward the table 7a on which the singer 6 and the group of the singer 6 are seated. The directional beams 70b to 70d including the accompaniment sound 81, the guide vocal 84, and the measurement sound 83 may be emitted toward the tables 7b to 7d. That is, in the first and second embodiments, the measurement sound 83 may be emitted from the speakers SP1 and SPn at both ends of the speaker array 3 together with the accompaniment sound 81 serving as a masker.

[第3実施形態]
次に、本発明の第3実施形態について、図10,11を参照して説明する。本発明の第3実施形態のカラオケ装置1は、伴奏音81のデータとガイドメロディ82のデータと測定音83のデータとがMIDI音源91に含まれない(例えば、アカペラ曲等)点が第1実施形態と異なる。そこで、カラオケ装置1は、歌唱者6の歌唱音声を解析し、歌唱音声の音圧レベルが上昇するタイミングで測定音83を生成して発音する。図10は、カラオケ装置の機能ブロック図である。図11は、歌唱音声に基づいて測定音を生成する場合における指向性ビームの生成手順を示すフローチャートである。
[Third Embodiment]
Next, a third embodiment of the present invention will be described with reference to FIGS. The karaoke apparatus 1 according to the third embodiment of the present invention has the first point that the data of the accompaniment sound 81, the data of the guide melody 82, and the data of the measurement sound 83 are not included in the MIDI sound source 91 (for example, a cappella tune). Different from the embodiment. Therefore, the karaoke apparatus 1 analyzes the singing voice of the singer 6 and generates and generates the measurement sound 83 at the timing when the sound pressure level of the singing voice rises. FIG. 10 is a functional block diagram of the karaoke apparatus. FIG. 11 is a flowchart showing a procedure for generating a directional beam when a measurement sound is generated based on a singing voice.

図10に示すように、第3実施形態は、カラオケ曲に伴奏音81のデータとガイドメロディ82のデータと測定音83のデータとが含まれない。また、カラオケ装置1に、音声信号解析部26、測定音生成部27及び信号併合部28が更に備えられる。これらの機能部について、以下に説明する。   As shown in FIG. 10, in the third embodiment, the data of the accompaniment sound 81, the data of the guide melody 82, and the data of the measurement sound 83 are not included in the karaoke song. The karaoke apparatus 1 further includes an audio signal analysis unit 26, a measurement sound generation unit 27, and a signal merging unit 28. These functional units will be described below.

音声信号解析部26は、歌唱者6の歌唱音声を解析して、測定音83の生成タイミングになると、測定音生成部27に測定音83を生成するよう指示する。具体的には、例えば、音声信号解析部26は、歌唱音声の音声信号の急激な音圧レベルの上昇が検出されると、測定音生成部27に測定音83を生成するよう指示する。音声信号解析部26は、歌唱音声の音声信号の急激な音圧レベルの上昇を、1小節毎に検出し、定期的に測定音83を生成するよう指示する。この際、測定音83のレベルは、歌唱音声の音声信号の音圧レベルに応じて決定される。また、この測定音83は、スピーカアレイ3の両端のスピーカSP1,SPnから同時に放音されても、別々に放音されてもよい。スピーカアレイ3の両端のスピーカSP1,SPnから測定音83が同時に放音される場合には、スピーカSP1,SPn毎に異なる周波数にて測定音83を生成する。   The voice signal analysis unit 26 analyzes the singing voice of the singer 6 and instructs the measurement sound generation unit 27 to generate the measurement sound 83 when the measurement sound 83 is generated. Specifically, for example, when a sudden increase in the sound pressure level of the singing voice signal is detected, the voice signal analysis unit 26 instructs the measurement sound generation unit 27 to generate the measurement sound 83. The audio signal analysis unit 26 detects an abrupt increase in sound pressure level of the audio signal of the singing voice for each bar, and instructs to generate the measurement sound 83 periodically. At this time, the level of the measurement sound 83 is determined according to the sound pressure level of the voice signal of the singing voice. The measurement sound 83 may be emitted simultaneously from the speakers SP1 and SPn at both ends of the speaker array 3, or may be emitted separately. When the measurement sound 83 is simultaneously emitted from the speakers SP1 and SPn at both ends of the speaker array 3, the measurement sound 83 is generated at a different frequency for each of the speakers SP1 and SPn.

測定音生成部27は、音声信号解析部26の指示を受け、測定音83のオーディオ信号を生成して、信号併合部28に出力する。具体的には、測定音生成部27は、歌唱音声の基本周波数の倍音になるよう測定音83を生成する。   The measurement sound generator 27 receives an instruction from the audio signal analyzer 26, generates an audio signal of the measurement sound 83, and outputs the audio signal to the signal merger 28. Specifically, the measurement sound generator 27 generates the measurement sound 83 so as to be a harmonic of the fundamental frequency of the singing voice.

信号併合部28は、歌唱音声の音声信号に測定音83のオーディオ信号を付加して、バンドパスフィルタ29(29a〜29d)に出力する。以上のように、歌唱音声を解析して、測定音83を生成する。   The signal merging unit 28 adds the audio signal of the measurement sound 83 to the voice signal of the singing voice and outputs it to the bandpass filter 29 (29a to 29d). As described above, the measurement sound 83 is generated by analyzing the singing voice.

また、図11に示すように、歌唱者6に向けた指向性ビーム6aの生成時の処理の流れは、第3実施形態では、第1実施形態のステップS101〜S112の処理の削除し、ステップS119とステップS120との間にステップS309〜S317の処理が追加される。以下に、追加されたステップS309〜S317の処理についてのみ説明する。   Moreover, as shown in FIG. 11, the flow of the process at the time of the production | generation of the directional beam 6a toward the singer 6 deletes the process of step S101-S112 of 1st Embodiment in 3rd Embodiment, Steps S309 to S317 are added between S119 and S120. Only the added processing in steps S309 to S317 will be described below.

図11に示すように、ステップS309にて、マイク2で収音された収音音声信号が入力されると、音声信号解析部26は、収音音声信号の音圧レベルの上昇を検出したかどうか調べる。収音音声信号の音圧レベルの急激な上昇を検出すると(S310:Yes)と、ステップS311へ進む。   As shown in FIG. 11, when the collected sound signal collected by the microphone 2 is input in step S309, has the sound signal analysis unit 26 detected an increase in the sound pressure level of the collected sound signal? Please check. When a rapid increase in the sound pressure level of the collected sound signal is detected (S310: Yes), the process proceeds to step S311.

ステップS311にて、測定音生成部27は、収音音声信号の基本周波数の倍音で、測定音83のオーディオ信号を生成して、ステップS312へ進む。この際、収音音声信号の音圧レベルに基づいて、測定音83の音圧レベルを決定する。   In step S311, the measurement sound generator 27 generates an audio signal of the measurement sound 83 with a harmonic of the fundamental frequency of the collected sound signal, and the process proceeds to step S312. At this time, the sound pressure level of the measurement sound 83 is determined based on the sound pressure level of the collected sound signal.

ステップS312にて、信号併合部28は、収音音声信号に、測定音83のオーディオ信号を付与して、ステップS313へ進む。この際、信号併合部28は、収音音声信号により測定音83のオーディオ信号が経時マスキングされるように加算する。   In step S312, the signal merging unit 28 adds the audio signal of the measurement sound 83 to the collected sound signal, and proceeds to step S313. At this time, the signal merging unit 28 performs addition so that the audio signal of the measurement sound 83 is masked over time by the collected sound signal.

ステップS313にて、測定音83のオーディオ信号が付与された収音音声信号は、バンドパスフィルタ29へ出力される。バンドパスフィルタ29は、収音音声信号から測定音83のオーディオ信号だけを通過させて、レベル検出部151へ出力する。そして、レベル検出部151にて、測定音83のオーディオ信号が検出される(S314:Yes)と、タイマ部152は、タイマを起動(S315)して、ステップS316へ進む。   In step S 313, the collected sound signal to which the audio signal of the measurement sound 83 is added is output to the band pass filter 29. The band pass filter 29 passes only the audio signal of the measurement sound 83 from the collected sound signal and outputs it to the level detection unit 151. Then, when the level detection unit 151 detects the audio signal of the measurement sound 83 (S314: Yes), the timer unit 152 activates the timer (S315) and proceeds to step S316.

ステップS316にて、バンドパスフィルタ29から出力された測定音83のオーディオ信号をミキサ20に出力する。ミキサ20は、測定音83のオーディオ信号を放音音声信号に加算して、ステップS317へ進む。この際、測定音83は、スピーカアレイ3の両端のスピーカSP1,SPnから放音されるように、放音音声信号に加算される。   In step S 316, the audio signal of the measurement sound 83 output from the band pass filter 29 is output to the mixer 20. The mixer 20 adds the audio signal of the measurement sound 83 to the sound output sound signal, and proceeds to step S317. At this time, the measurement sound 83 is added to the emitted sound signal so as to be emitted from the speakers SP1 and SPn at both ends of the speaker array 3.

ステップS317にて、これらの放音音声信号は、対応するD/Aコンバータ21、AMP22を介して、スピーカSP1〜SPnから放音され、ステップS318へ進む。この放音音声信号は、指向性ビーム6aとなり、歌唱者6に向けて放音される。なお、ステップS318以降の処理は、第1実施形態のステップS120以降と同じ処理を行う。   In step S317, these sound emission audio signals are emitted from the speakers SP1 to SPn via the corresponding D / A converter 21 and AMP 22, and the process proceeds to step S318. This sound emission sound signal becomes a directional beam 6 a and is emitted toward the singer 6. In addition, the process after step S318 performs the same process as step S120 after 1st Embodiment.

以上のように、カラオケ曲に伴奏音81が含まれない場合は、カラオケ装置1は、歌唱者6と歌唱者6のグループが着席しているテーブル7aとに歌唱者6の歌唱音声を放音し、他のテーブル7b〜7dにガイドボーカル84を放音する。また、カラオケ装置1は、歌唱者6の歌唱音声をマスカーとして測定音83を放音する。また、測定音83は、人が知覚し難い周波数帯域に生成される。これにより、歌唱者6の歌唱音声をマスカーとして、測定音83を経時マスキングできる。このため、歌唱者6や店内5の顧客は、測定音83を知覚しないようにすることができる。   As described above, when the accompaniment sound 81 is not included in the karaoke song, the karaoke apparatus 1 emits the singing voice of the singer 6 to the singer 6 and the table 7a on which the group of the singer 6 is seated. Then, the guide vocal 84 is emitted to the other tables 7b to 7d. Moreover, the karaoke apparatus 1 emits the measurement sound 83 by using the singing voice of the singer 6 as a masker. The measurement sound 83 is generated in a frequency band that is difficult for humans to perceive. Thereby, the measurement sound 83 can be masked over time using the singing voice of the singer 6 as a masker. For this reason, the singer 6 and the customers in the store 5 can prevent the measurement sound 83 from being perceived.

なお、第3実施形態では、歌唱者6の歌唱音声をマスカーとして用いた。しかしながら、これに限らず、ガイドボーカル84をマスカーとして用いてもよい。   In the third embodiment, the singing voice of the singer 6 is used as a masker. However, the present invention is not limited to this, and the guide vocal 84 may be used as a masker.

以上より、第3実施形態に係るカラオケ装置1では、アカペラ等の伴奏音81が含まれないカラオケ曲であっても、歌唱音声を解析して測定音83を発音することができる。これにより、第1,2実施形態と同様に、マイク位置の検出ができ、歌唱者6に指向性ビーム6aを放音することができる。   As mentioned above, in the karaoke apparatus 1 which concerns on 3rd Embodiment, even if it is a karaoke tune which does not contain accompaniment sounds 81, such as a cappella, a singing voice can be analyzed and the measurement sound 83 can be pronounced. Thereby, like the first and second embodiments, the microphone position can be detected, and the directional beam 6a can be emitted to the singer 6.

次に、ローパスフィルタ12,17の代わりに、バンドエリミネーションフィルタ又はノッチフィルタ又はコムフィルタを用いた場合について説明する。なお、説明の簡単化のため、バンドパスフィルタ14,19,29の通過帯域に、測定音83が存在するものとして説明する。また、第1実施形態に基づいて説明するが、これらのフィルタは第2、第3実施形態にも適応することができる。   Next, a case where a band elimination filter, a notch filter or a comb filter is used instead of the low-pass filters 12 and 17 will be described. For simplification of description, it is assumed that the measurement sound 83 exists in the pass band of the bandpass filters 14, 19, and 29. Although described based on the first embodiment, these filters can also be applied to the second and third embodiments.

バンドエリミネーションフィルタを用いた場合、バンドエリミネーションフィルタの減衰帯域をバンドパスフィルタ14,19,29の通過帯域と同じにすることで、測定音83をカットすることができる。これにより、ローパスフィルタ12,17と比較して伴奏音81が通過する周波数帯域が広いので、より音質がよい伴奏音81を放音することができる。   When the band elimination filter is used, the measurement sound 83 can be cut by making the attenuation band of the band elimination filter the same as the pass band of the band pass filters 14, 19, and 29. Thereby, since the frequency band through which the accompaniment sound 81 passes is wider than that of the low-pass filters 12 and 17, the accompaniment sound 81 with better sound quality can be emitted.

また、バンドエリミネーションフィルタの減衰帯域に、ある程度の帯域幅を設けることで、減衰帯域に異なる周波数からなる複数の測定音83を生成することができる。これにより、スピーカアレイ3の両端のスピーカSP1,SPnに対して、周波数の異なる測定音83を適応することができる。   Further, by providing a certain amount of bandwidth in the attenuation band of the band elimination filter, it is possible to generate a plurality of measurement sounds 83 having different frequencies in the attenuation band. As a result, the measurement sound 83 having a different frequency can be applied to the speakers SP1 and SPn at both ends of the speaker array 3.

また、ノッチフィルタを用いた場合、ノッチフィルタのディップをバンドパスフィルタ14,19,29のピークと同じにすることで、測定音83をカットすることができる。ノッチフィルタのディップは狭帯域なので、バンドエリミネーションフィルタを用いるより、より音質がよい伴奏音81を放音することができる。   When the notch filter is used, the measurement sound 83 can be cut by making the dip of the notch filter the same as the peak of the bandpass filters 14, 19, and 29. Since the dip of the notch filter is a narrow band, it is possible to emit the accompaniment sound 81 with better sound quality than using the band elimination filter.

更に、コムフィルタを用いた場合、コムフィルタのディップをバンドパスフィルタ14,19,29のピークと同じにすることで、測定音83をカットすることができる。コムフィルタは、複数のディップを有するため、複数の異なる周波数からなる測定音83を生成することができる。これにより、スピーカアレイ3の両端のスピーカSP1,SPnに対して、周波数の異なる測定音83を適応することができ、且つ、伴奏音81の音質を向上させることができる。   Further, when the comb filter is used, the measurement sound 83 can be cut by making the dip of the comb filter the same as the peak of the bandpass filters 14, 19, and 29. Since the comb filter has a plurality of dips, the measurement sound 83 having a plurality of different frequencies can be generated. As a result, the measurement sound 83 having different frequencies can be applied to the speakers SP1 and SPn at both ends of the speaker array 3, and the sound quality of the accompaniment sound 81 can be improved.

なお、第1〜第3実施形態では、バンドパスフィルタ14,19,29を用いて、4つの異なる周波数成分を取り出しているが、これに限らず、左右のスピーカSP1,SPn用に2以上の周波数成分が取り出せればよいので、バンドパスフィルタ14,19,29はそれぞれ1個以上あればよい。   In the first to third embodiments, four different frequency components are extracted by using the bandpass filters 14, 19, and 29. However, the present invention is not limited to this, and two or more frequency components for the left and right speakers SP1 and SPn are used. Since it suffices to extract frequency components, it is sufficient that at least one band pass filter 14, 19, 29 is provided.

また、第1〜第3実施形態では、ローパスフィルタ12,17の通過帯域を15kHz以下とし、測定音83が15kHz〜20kHzの範囲内で検出されるとしている。しかしながら、これに限らず、測定音83を検出する周波数帯域より、低域をローパスフィルタ12,17の通過帯域とすればよい。例えば、測定音83を17kHz〜18kHz等で生成するのであれば、ローパスフィルタ12,17の通過帯域は、17kHz以下とする。   In the first to third embodiments, the pass band of the low-pass filters 12 and 17 is set to 15 kHz or less, and the measurement sound 83 is detected within the range of 15 kHz to 20 kHz. However, the present invention is not limited to this, and the low band may be used as the pass band of the low-pass filters 12 and 17 from the frequency band for detecting the measurement sound 83. For example, if the measurement sound 83 is generated at 17 kHz to 18 kHz or the like, the pass bands of the low-pass filters 12 and 17 are set to 17 kHz or less.

また、第1〜第3実施形態では、スピーカアレイ3の両端のスピーカSP1,SPnから測定音83を放音する例について説明した。しかしながら、これに限らず、スピーカアレイ3を構成するスピーカSP1〜SPnのうちの2つから測定音83を放音すればよい。これにより、三角法を利用して、マイク2の位置を検出することができる。   In the first to third embodiments, the example in which the measurement sound 83 is emitted from the speakers SP1 and SPn at both ends of the speaker array 3 has been described. However, the present invention is not limited to this, and the measurement sound 83 may be emitted from two of the speakers SP1 to SPn constituting the speaker array 3. Thereby, the position of the microphone 2 can be detected using trigonometry.

更に、第1〜第3実施形態では、MIDI音源91及びガイドボーカル再生部92からの出力がアナログオーディオ信号なのでA/Dコンバータ11を設けた。しかしながら、これに限らず、MIDI音源91及びガイドボーカル再生部92からの出力がデジタルオーディオ信号の場合は、A/Dコンバータ11を設けなくてもよい。   Furthermore, in the first to third embodiments, the A / D converter 11 is provided because the outputs from the MIDI sound source 91 and the guide vocal reproducing unit 92 are analog audio signals. However, the present invention is not limited to this, and when the output from the MIDI sound source 91 and the guide vocal reproducing unit 92 is a digital audio signal, the A / D converter 11 may not be provided.

以上より、本発明に係るカラオケ装置1は、スピーカアレイ3から伴奏音81や歌唱音声を放音し、スピーカアレイ3の両端のスピーカSP1,SPnから測定音83を放音する。カラオケ装置1は、この測定音83をマイク2で収音するまでの経過時間を求めることにより、マイク位置、つまり歌唱者6の位置を検出することができ、歌唱者6に指向性ビーム6aを常に放音することができる。また、測定音83は、伴奏音81や歌唱音声をマスカーとして、マスカーの基本周波数の倍音で構成されることで、カラオケ装置1は、測定音83を同時マスキングや経時マスキングすることができる。これにより、歌唱者6や店内5の顧客は、測定音83を知覚せずに、カラオケを楽しむことができる。更に、測定音83は、人が知覚し難い周波数帯域を用いて構成されているので、歌唱者6や店内5の顧客は、測定音83をより知覚することがない。   As described above, the karaoke apparatus 1 according to the present invention emits the accompaniment sound 81 and the singing sound from the speaker array 3, and emits the measurement sound 83 from the speakers SP1 and SPn at both ends of the speaker array 3. The karaoke apparatus 1 can detect the microphone position, that is, the position of the singer 6 by obtaining the elapsed time until the measurement sound 83 is picked up by the microphone 2, and the directional beam 6 a is provided to the singer 6. Sound can always be emitted. Further, the measurement sound 83 is composed of the accompaniment sound 81 or the singing voice as a masker and is a harmonic overtone of the basic frequency of the masker, so that the karaoke apparatus 1 can mask the measurement sound 83 simultaneously or with time. Thereby, the singer 6 and the customers in the store 5 can enjoy karaoke without perceiving the measurement sound 83. Furthermore, since the measurement sound 83 is configured using a frequency band that is difficult for humans to perceive, the singer 6 or the customer in the store 5 does not perceive the measurement sound 83 more.

飲食店の店内を説明する図である。It is a figure explaining the inside of a restaurant. マイク位置検出方法の説明図である。It is explanatory drawing of the microphone position detection method. マスカーの選択についての説明図である。It is explanatory drawing about selection of a masker. 測定音の加算についての説明図である。It is explanatory drawing about addition of a measurement sound. カラオケ装置の機能ブロック図である。It is a functional block diagram of a karaoke apparatus. カラオケ曲に測定音が含まれる場合における指向性ビームの生成手順を示すフローチャートである。It is a flowchart which shows the production | generation procedure of a directional beam in case measurement sound is included in karaoke music. 第2実施形態に係るカラオケ装置の機能ブロック図である。It is a functional block diagram of the karaoke apparatus which concerns on 2nd Embodiment. 伴奏音に基づいて測定音を生成する場合における指向性ビームの生成手順を示すフローチャートである。It is a flowchart which shows the production | generation procedure of a directional beam in the case of producing | generating a measurement sound based on an accompaniment sound. 伴奏音に基づいて測定音を生成する場合における指向性ビームの他の生成手順を示すフローチャートである。It is a flowchart which shows the other production | generation procedure of a directional beam in the case of producing | generating a measurement sound based on an accompaniment sound. 第3実施形態に係るカラオケ装置の機能ブロック図である。It is a functional block diagram of the karaoke apparatus which concerns on 3rd Embodiment. 歌唱音声に基づいて測定音を生成する場合における指向性ビームの生成手順を示すフローチャートである。It is a flowchart which shows the production | generation procedure of a directional beam in the case of producing | generating a measurement sound based on a song voice.

符号の説明Explanation of symbols

1−カラオケ装置,2−マイク,3−スピーカアレイ,4−モニタ,5−店内,6−歌唱者,6a,70a〜70d−指向性ビーム,7(7a〜7d)−テーブル,10−制御部,11,16−A/Dコンバータ,12,17−ローパスフィルタ,13,18−ビーム形成部,14(14a〜14d),19(19a〜19d),29(29a〜29d)−バンドパスフィルタ,15−マイク位置検出部,20−ミキサ,21−D/Aコンバータ,22−AMP,23−MIDI信号解析部,24−測定音MIDI信号生成部,25−MIDI信号併合部,26−音声信号解析部,27−測定音生成部,28−信号併合部,81−伴奏音,82−ガイドメロディ,83−測定音,84−ガイドボーカル,91−MIDI音源,92−ガイドボーカル再生部,100−操作部,151,153−レベル検出部,152−タイマ部,154−マイク位置算出部,155−ビーム形成係数算出部,SP1〜SPn−スピーカ 1-karaoke device, 2-microphone, 3-speaker array, 4-monitor, 5-store, 6-singer, 6a, 70a-70d-directional beam, 7 (7a-7d) -table, 10-control unit 11, 16-A / D converter, 12, 17-low pass filter, 13, 18-beam forming unit, 14 (14a-14d), 19 (19a-19d), 29 (29a-29d) -band pass filter, 15-microphone position detector, 20-mixer, 21-D / A converter, 22-AMP, 23-MIDI signal analyzer, 24-measurement sound MIDI signal generator, 25-MIDI signal merger, 26-audio signal analyzer Section, 27-measurement sound generation section, 28-signal merging section, 81-accompaniment sound, 82-guide melody, 83-measurement sound, 84-guide vocal, 91-MIDI sound source, 92-guide sound Cull reproduction unit, 100 - operating unit, 151,153- level detector, 152- timer, 154- microphone position calculating unit, 155-beam forming coefficient calculation unit, SP1~SPn- speaker

Claims (4)

歌唱者の歌唱音声を含む周囲からの音声をマイクで収音し、音声信号を生成する収音手段と、
複数のスピーカを有するスピーカアレイの2つのスピーカから、マスカーの基本周波数の倍音で構成される測定音を、該マスカーの発音と同時またはその直後に放音する放音手段と、
該放音手段による前記測定音の放音から、前記収音手段による該測定音の収音までの経過時間に基づいて、前記マイク位置を検出するマイク位置検出手段と、を備え、
前記放音手段は、前記マイク位置検出手段が検出した前記マイク位置に向けて、歌唱者に与えるべき放音音声を含む指向性ビームを放音するカラオケ装置。
Sound collecting means for picking up sound from the surroundings including the singing voice of the singer with a microphone and generating a sound signal;
Sound emission means for emitting measurement sound composed of harmonics of the fundamental frequency of a masker from two speakers of a speaker array having a plurality of speakers simultaneously with or immediately after the pronunciation of the masker;
Microphone position detection means for detecting the microphone position based on the elapsed time from the sound emission of the measurement sound by the sound emission means to the sound collection of the measurement sound by the sound collection means,
The said sound emission means is a karaoke apparatus which emits the directional beam containing the sound emission sound which should be given to a singer toward the said microphone position which the said microphone position detection means detected.
前記放音手段は、カラオケ曲の伴奏音を構成する1又は複数の楽器音をマスカーとして、予めカラオケ曲のデータに含まれている前記測定音を放音する請求項1に記載のカラオケ装置。   2. The karaoke apparatus according to claim 1, wherein the sound emitting unit emits the measurement sound included in the data of the karaoke song in advance by using one or a plurality of instrument sounds constituting the accompaniment sound of the karaoke song as a masker. 前記放音手段は、カラオケ曲の伴奏音を構成する1又は複数の楽器音の放音のタイミング毎に、その楽器音をマスカーとする前記測定音を生成して放音する請求項1に記載のカラオケ装置。   2. The sound emission means generates and emits the measurement sound using the instrument sound as a masker at each emission timing of one or a plurality of instrument sounds constituting an accompaniment sound of a karaoke song. Karaoke equipment. 前記放音手段は、歌唱音声の音圧レベルの上昇を検知し、その歌唱音声をマスカーとする前記測定音を生成して放音する請求項1に記載のカラオケ装置。   The karaoke apparatus according to claim 1, wherein the sound emitting unit detects an increase in sound pressure level of the singing voice, generates the measurement sound using the singing voice as a masker, and emits the sound.
JP2007046691A 2007-02-27 2007-02-27 Karaoke machine Pending JP2008209703A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007046691A JP2008209703A (en) 2007-02-27 2007-02-27 Karaoke machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007046691A JP2008209703A (en) 2007-02-27 2007-02-27 Karaoke machine

Publications (1)

Publication Number Publication Date
JP2008209703A true JP2008209703A (en) 2008-09-11

Family

ID=39786056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007046691A Pending JP2008209703A (en) 2007-02-27 2007-02-27 Karaoke machine

Country Status (1)

Country Link
JP (1) JP2008209703A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012043596A1 (en) * 2010-09-28 2012-04-05 ヤマハ株式会社 Audio output device and audio output method
JP2012181393A (en) * 2011-03-02 2012-09-20 Dainippon Printing Co Ltd Method and device for generating auditory masking data
WO2018198792A1 (en) * 2017-04-26 2018-11-01 ソニー株式会社 Signal processing device, method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012043596A1 (en) * 2010-09-28 2012-04-05 ヤマハ株式会社 Audio output device and audio output method
JP2012093705A (en) * 2010-09-28 2012-05-17 Yamaha Corp Speech output device
JP2012181393A (en) * 2011-03-02 2012-09-20 Dainippon Printing Co Ltd Method and device for generating auditory masking data
WO2018198792A1 (en) * 2017-04-26 2018-11-01 ソニー株式会社 Signal processing device, method, and program
JPWO2018198792A1 (en) * 2017-04-26 2020-03-05 ソニー株式会社 Signal processing apparatus and method, and program
US11081128B2 (en) 2017-04-26 2021-08-03 Sony Corporation Signal processing apparatus and method, and program
JP7078039B2 (en) 2017-04-26 2022-05-31 ソニーグループ株式会社 Signal processing equipment and methods, as well as programs

Similar Documents

Publication Publication Date Title
US9224375B1 (en) Musical modification effects
JP3879357B2 (en) Audio signal or musical tone signal processing apparatus and recording medium on which the processing program is recorded
JP5982980B2 (en) Apparatus, method, and storage medium for searching performance data using query indicating musical tone generation pattern
JP2008040283A (en) Chord name detecting device and program for chord name detection
WO2017057530A1 (en) Audio processing device and audio processing method
KR101406398B1 (en) Apparatus, method and recording medium for evaluating user sound source
JP5879996B2 (en) Sound signal generating apparatus and program
JP2008209703A (en) Karaoke machine
EP3255904A1 (en) Distributed audio mixing
JP5417012B2 (en) Karaoke device that highlights the main voice of a song
JP6944357B2 (en) Communication karaoke system
JP2006251697A (en) Karaoke device
JP2008129320A (en) Karaoke device
JP6300328B2 (en) ENVIRONMENTAL SOUND GENERATION DEVICE, ENVIRONMENTAL SOUND GENERATION SYSTEM, ENVIRONMENTAL SOUND GENERATION PROGRAM, SOUND ENVIRONMENT FORMING METHOD, AND RECORDING MEDIUM
JP5217275B2 (en) Apparatus and program for producing music
JP7419666B2 (en) Sound signal processing device and sound signal processing method
JP6788560B2 (en) Singing evaluation device, singing evaluation program, singing evaluation method and karaoke device
JP2008236192A (en) Loudspeaker system
WO2008018621A1 (en) Karaoke player and program
Choi Auditory virtual environment with dynamic room characteristics for music performances
JP7165512B2 (en) karaoke device
JP7117229B2 (en) karaoke equipment
JP5082760B2 (en) Sound control apparatus and program
JP6315468B2 (en) Karaoke device equipped with acoustic characteristic measurement function for karaoke singing space
JP4910764B2 (en) Audio processing device