JP2013061662A - Music piece distribution system, music piece editing device, and program - Google Patents

Music piece distribution system, music piece editing device, and program Download PDF

Info

Publication number
JP2013061662A
JP2013061662A JP2012242105A JP2012242105A JP2013061662A JP 2013061662 A JP2013061662 A JP 2013061662A JP 2012242105 A JP2012242105 A JP 2012242105A JP 2012242105 A JP2012242105 A JP 2012242105A JP 2013061662 A JP2013061662 A JP 2013061662A
Authority
JP
Japan
Prior art keywords
music
data
receiving
sound
acoustic processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012242105A
Other languages
Japanese (ja)
Other versions
JP5440677B2 (en
Inventor
Takahiro Tanaka
孝浩 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2012242105A priority Critical patent/JP5440677B2/en
Publication of JP2013061662A publication Critical patent/JP2013061662A/en
Application granted granted Critical
Publication of JP5440677B2 publication Critical patent/JP5440677B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide technology for controlling balance between each audio signal according to a reproducing condition of the audio signal or a reproducing mode of the audio signal.SOLUTION: The following processes are individually performed on each of performance data (part signals S1 to 6) of each part, which is included in music piece data distributed from a karaoke music piece distribution server. That is, a part signal S indicated in a channel selection section 111 is removed (minus one), a frequency characteristic is converted with an equalizer 113, each performance data is compressed with a compressor 115, and a signal level is adjusted with an amplifier 116. As a result, the music piece data in which balance of each part included in the music piece data, and balance between music pieces are adjusted for singer's desired mode can be created.

Description

本発明は、楽曲配信システム、楽曲編集装置およびプログラムに関する。   The present invention relates to a music distribution system, a music editing device, and a program.

従来、音楽放送などのオーディオ配信においては、配信側で複数のチャンネルのオーディオ信号を配信する技術が知られている。その場合、チャンネル数が2のステレオのオーディオ信号を配信する技術に加え、チャンネル数が3以上のマルチチャンネルのオーディオ信号を配信する技術も知られている。
さて、配信されるオーディオ信号は、楽曲のジャンル(ロック、ジャズ、演歌…)によって、各楽曲で平均的な音量や音質などが異なる。また、1つの楽曲中においても、楽曲の進行に伴う楽器構成の変化などにより、各チャンネルのオーディオ信号の音量や音質などが異なる。その結果、楽曲間やチャンネル間でオーディオ信号の音量や音質などがアンバランスであることに起因する違和感を聴取者に生じさせることがある。
Conventionally, in audio distribution such as music broadcasting, a technique of distributing audio signals of a plurality of channels on the distribution side is known. In this case, in addition to a technique for distributing a stereo audio signal having two channels, a technique for distributing a multi-channel audio signal having three or more channels is also known.
The audio signal to be distributed differs in average volume and sound quality depending on the genre of music (rock, jazz, enka, etc.). In addition, even within one piece of music, the volume and sound quality of the audio signal of each channel differ due to changes in the musical instrument configuration accompanying the progress of the music. As a result, the listener may feel uncomfortable due to the unbalanced volume and quality of the audio signal between music pieces and between channels.

そのため、ジャンルが異なる楽曲を連続して配信する場合や、複数のチャンネルのオーディオ信号を配信する場合には、楽曲間やチャンネル間でオーディオ信号の音量や音質のバランスを取るための処理である「マスタリング」が必要であった。   Therefore, when continuously distributing music pieces of different genres, or when distributing audio signals of a plurality of channels, it is a process for balancing the volume and sound quality of audio signals between music pieces or between channels. "Mastering" was necessary.

さて、特許文献1には、低音を不必要にカットしたり再生音の歪み感を増加させたりすることなく、小口径のスピーカ等で再生する場合においても音量感を増加させることができ、聴感上の音質を向上させることが可能な音響信号処理装置が開示されている。   Patent Document 1 discloses that a volume feeling can be increased even when a small-diameter speaker or the like is reproduced without unnecessarily cutting the bass or increasing the sense of distortion of the reproduced sound. An acoustic signal processing device capable of improving the above sound quality is disclosed.

特開2007−104407号公報JP 2007-104407 A

上記の特許文献1にも示されているように、従来のマスタリングにおいては、各チャンネルのオーディオ信号は、「配信側が想定した条件」で単純にミックスされて聴取されることを想定してマスタリングされていた。この場合、「配信側が想定した条件」とは、所定の音響特性を有する空間において、所定の特性を有する再生装置で該オーディオ信号が再生される、との条件を意味する。   As shown in the above-mentioned Patent Document 1, in the conventional mastering, the audio signal of each channel is mastered on the assumption that it is simply mixed and listened to under the “conditions assumed by the distribution side”. It was. In this case, the “condition assumed by the distribution side” means a condition that the audio signal is reproduced by a reproducing apparatus having a predetermined characteristic in a space having a predetermined acoustic characteristic.

従って、「配信側が想定した条件」において上記マスタリングされたオーディオ信号が再生された場合には、配信側が意図した通りの印象を聴取者に与える。しかし、上記オーディオ信号が再生される条件によっては、配信側の意図とは異なる印象を聴取者に与えることがあった。   Accordingly, when the mastered audio signal is reproduced under “conditions assumed by the distribution side”, the listener is given an impression as intended by the distribution side. However, depending on the conditions under which the audio signal is reproduced, the listener may be given an impression different from the intention on the distribution side.

例えば、上記オーディオ信号を室内で再生する場合と屋外で再生する場合とでは、各チャンネルのオーディオ信号は異なる音響特性の変化を受けることから、それら複数のチャンネルのオーディオ信号をまとめて聴取した場合に、チャンネル間でオーディオ信号の音量や音質などのバランスが崩れてしまうことがあった。また、上記オーディオ信号を放音するスピーカの特性(振動板面積や振幅など)によっても、チャンネル間でオーディオ信号の音量や音質などがアンバランスになってしまうことがあった。   For example, when the audio signal is played indoors or outdoors, the audio signal of each channel undergoes different acoustic characteristics changes, so when listening to the audio signals of these multiple channels together The balance of audio signal volume and sound quality may be lost between channels. Further, depending on the characteristics of the speaker that emits the audio signal (diaphragm area, amplitude, etc.), the volume and sound quality of the audio signal may be unbalanced between channels.

また、複数のチャンネルのオーディオ信号がそれぞれ異なるタイプの音(歌唱音声・種々の楽器の演奏音)を表すマルチチャンネルの楽曲を配信する場合、楽曲に含まれる複数のチャンネルのオーディオ信号から特定のチャンネルのオーディオ信号を除いて再生する、所謂マイナスワンを実現する技術が知られている。該マイナスワンが実現された場合、マイナスワンされていない他のチャンネルのオーディオ信号間でバランスが崩れてしまうことがあり、マイナスワンされるチャンネルや該チャンネルをマイナスワンするタイミングと連動して、他のチャンネル間でオーディオ信号の音量や音質のバランスをダイナミックに変化させることが望まれていた。例えば、間奏部分においては歌唱音声のパートが抜けることから、他のパートをもっと大きな音量で聞きたい、などの要望である。しかし従来の楽曲配信の態様では、そのような要望に応えることは出来なかった。   In addition, when distributing multi-channel music in which multiple channels of audio signals represent different types of sounds (singing voices and performance sounds of various instruments), a specific channel is selected from the audio signals of the multiple channels included in the music. There is known a technique for realizing so-called minus one that reproduces audio signals other than the above one. If the minus one is realized, the balance may be lost between the audio signals of other channels that are not minus one. It has been desired to dynamically change the balance of audio signal volume and sound quality between channels. For example, since the part of the singing voice is missing in the interlude part, there is a demand for listening to other parts at a higher volume. However, the conventional music distribution mode cannot meet such demands.

本発明は上述した事情に鑑みてなされたものであり、オーディオ信号が再生される条件またはオーディオ信号の再生の態様に合わせて、各オーディオ信号間のバランスをコントロールすることまたは楽曲間でバランスをコントロールすることを可能とする技術を提供することを目的とする。   The present invention has been made in view of the above-described circumstances, and controls the balance between audio signals or the balance between music pieces in accordance with the conditions under which the audio signals are reproduced or the manner in which the audio signals are reproduced. It is an object to provide a technology that makes it possible.

本発明に係る楽曲配信システムは、楽曲配信サーバ、および楽曲受信装置を有する楽曲配信システムにおいて、前記楽曲配信サーバは、前記楽曲受信装置から特定の楽曲データを指定する楽曲指定データを受信する受信手段と、楽曲データを供給する供給手段と、前記受信手段が受信した楽曲指定データにより指定された楽曲データを前記供給手段から供給を受け出力する出力手段とを有し、前記楽曲受信装置は、前記楽曲指定データを前記楽曲配信サーバに送信する送信手段と、前記出力手段から出力された楽曲データを受取る受取手段と、前記受取手段が受取った楽曲データに含まれる1または複数のパートの演奏データについて、パラメータ値に基づいて音響処理を施す音響処理手段と、前記楽曲データが示す楽曲の特性を判断する判断手段と、前記パラメータ値を、前記判断手段により判断された前記楽曲の特性に基づいて、各演奏データの少なくとも1以上について個別に指定する指定手段と、前記指定手段により指定されたパラメータ値に基づいて前記音響処理手段が音響処理を施した前記各パートの演奏データを再生する再生手段とを有することを特徴とする。   The music distribution system according to the present invention is a music distribution system having a music distribution server and a music receiving device, wherein the music distribution server receives music specifying data specifying specific music data from the music receiving device. And supply means for supplying music data; and output means for receiving and outputting music data designated by the music designation data received by the receiving means from the supply means, and the music receiving apparatus comprises: Transmitting means for transmitting music designation data to the music distribution server, receiving means for receiving music data output from the output means, and performance data of one or more parts included in the music data received by the receiving means Sound processing means for performing sound processing based on the parameter value; and a judgment for determining the characteristics of the music indicated by the music data. Based on the parameter value specified by the specifying means, the specifying means for individually specifying at least one or more of each performance data based on the characteristic of the music determined by the determining means, and the parameter value The sound processing means has a reproducing means for reproducing the performance data of each part subjected to the sound processing.

また、前記楽曲受信装置の前記判断手段は、前記受取手段により受け取られた前記楽曲データに含まれる演奏データを解析して前記楽曲の特性を判断しても良い。
また、前記楽曲配信サーバの前記出力手段は、出力する前記楽曲データの楽曲の特性を示す制御データを出力し、前記楽曲受信装置の前記受取手段は、前記出力手段により出力された前記制御データを受け取り、前記楽曲受信装置の前記判断手段は、前記受取手段により受け取られた前記制御データが示すものを前記楽曲の特性として判断してもよい。
Further, the determination means of the music receiving apparatus may determine performance characteristics of the music by analyzing performance data included in the music data received by the receiving means.
The output means of the music distribution server outputs control data indicating the characteristics of the music of the music data to be output, and the receiving means of the music receiving device receives the control data output by the output means. Upon receipt, the determination means of the music receiving device may determine the characteristics indicated by the control data received by the receiving means as characteristics of the music.

また、本発明に係る楽曲配信システムは、楽曲配信サーバ、および楽曲受信装置を有する楽曲配信システムにおいて、前記楽曲配信サーバは、前記楽曲受信装置から特定の楽曲データを指定する楽曲指定データを受信する受信手段と、楽曲データを供給する供給手段と、前記受信手段が受信した楽曲指定データにより指定された楽曲データを前記供給手段から供給を受け出力する出力手段とを有し、前記楽曲受信装置は、前記楽曲指定データを前記楽曲配信サーバに送信する送信手段と、前記出力手段から出力された楽曲データを受取る受取手段と、前記受取手段が受取った楽曲データに含まれる1または複数のパートの演奏データについて、パラメータ値に基づいて音響処理を施す音響処理手段と、自装置がおかれた音響空間の特性を測定する測定手段と、前記パラメータ値を、前記測定手段により測定された前記音響空間の特性に基づいて、各演奏データの少なくとも1以上について個別に指定する指定手段と、前記指定手段により指定されたパラメータ値に基づいて前記音響処理手段が音響処理を施した前記各パートの演奏データを再生する再生手段とを有することを特徴とする。   Further, the music distribution system according to the present invention is a music distribution system having a music distribution server and a music receiving device, wherein the music distribution server receives music specifying data specifying specific music data from the music receiving device. A receiving means; a supplying means for supplying music data; and an output means for receiving and outputting the music data specified by the music specifying data received by the receiving means from the supplying means. , A transmitting means for transmitting the music designation data to the music distribution server, a receiving means for receiving the music data output from the output means, and a performance of one or more parts included in the music data received by the receiving means Measures the characteristics of the acoustic processing means that performs acoustic processing on the data based on the parameter values and the acoustic space in which the device is placed Measuring means, specification means for individually specifying at least one or more of each piece of performance data based on characteristics of the acoustic space measured by the measuring means, and parameters specified by the specifying means The sound processing means has playback means for playing back the performance data of each part subjected to sound processing based on the value.

また、本発明に係る楽曲配信システムは、上記の構成において、前記測定手段は、収音手段及び放音手段を有し、前記放音手段から放音したインパルス音を前記収音手段で収音した場合に、集音した当該インパルス音のレベルが閾値を下回るのに要した時間の長さを前記音響空間の特性として測定しても良い。
また、本発明に係る楽曲配信システムは、上記の構成において、前記測定手段は、収音手段及び放音手段を有し、前記放音手段から所定の周波数の音を放音してから当該音を前記収音手段で収音するまでに要した時間の長さを前記音響空間の特性として測定しても良い。
In the music distribution system according to the present invention, in the above configuration, the measurement unit includes a sound collection unit and a sound emission unit, and the impulse sound emitted from the sound emission unit is collected by the sound collection unit. In this case, the length of time required for the level of the collected impulse sound to fall below the threshold value may be measured as the characteristic of the acoustic space.
In the music distribution system according to the present invention, in the above configuration, the measuring unit includes a sound collecting unit and a sound emitting unit, and the sound is emitted after a sound having a predetermined frequency is emitted from the sound emitting unit. May be measured as a characteristic of the acoustic space.

本発明に係る楽曲編集装置は、楽曲データを受取る受取手段と、前記受取手段が受取った楽曲データに含まれる1または複数のパートの演奏データについて、パラメータ値に基づいて音響処理を施す音響処理手段と、前記楽曲データが示す楽曲の特性を判断する判断手段と、前記パラメータ値を、前記判断手段により判断された前記楽曲の特性に基づいて、各演奏データの少なくとも1以上について個別に指定する指定手段と、前記指定手段により指定されたパラメータ値に基づいて前記音響処理手段が音響処理を施した各演奏データを出力する出力手段とを有することを特徴とする。   The music editing apparatus according to the present invention includes a receiving means for receiving music data, and an acoustic processing means for performing acoustic processing on performance data of one or more parts included in the music data received by the receiving means based on parameter values. Determining means for determining the characteristics of the music indicated by the music data; and specifying the parameter value individually for at least one or more of each piece of performance data based on the characteristics of the music determined by the determining means And output means for outputting each piece of performance data subjected to acoustic processing by the acoustic processing means based on the parameter value designated by the designation means.

本発明に係る楽曲編集装置は、楽曲データを受取る受取手段と、前記受取手段が受取った楽曲データに含まれる1または複数のパートの演奏データについて、パラメータ値に基づいて音響処理を施す音響処理手段と、自装置がおかれた音響空間の特性を測定する測定手段と、前記パラメータ値を、前記測定手段により測定された前記音響空間の特性に基づいて、各演奏データの少なくとも1以上について個別に指定する指定手段と、前記指定手段により指定されたパラメータ値に基づいて前記音響処理手段が音響処理を施した各演奏データを出力する出力手段とを有することを特徴とする。   The music editing apparatus according to the present invention includes a receiving means for receiving music data, and an acoustic processing means for performing acoustic processing on performance data of one or more parts included in the music data received by the receiving means based on parameter values. And measuring means for measuring the characteristics of the acoustic space in which the apparatus is placed, and the parameter values are individually determined for at least one or more pieces of performance data based on the characteristics of the acoustic space measured by the measuring means. It is characterized by comprising specifying means for specifying, and output means for outputting each piece of performance data subjected to sound processing by the sound processing means based on the parameter value specified by the specifying means.

本発明に係るプログラムは、コンピュータを、楽曲データを受取る受取手段と、前記受取手段が受取った楽曲データに含まれる1または複数のパートの演奏データについて、パラメータ値に基づいて音響処理を施す音響処理手段と、前記楽曲データが示す楽曲の特性を判断する判断手段と、前記パラメータ値を、前記判断手段により判断された前記楽曲の特性に基づいて、各演奏データの少なくとも1以上について個別に指定する指定手段と、前記指定手段により指定されたパラメータ値に基づいて前記音響処理手段が音響処理を施した各演奏データを出力する出力手段として機能させることを特徴とする。   According to the present invention, there is provided a program for performing acoustic processing on a computer based on parameter values for receiving means for receiving music data and performance data of one or more parts included in the music data received by the receiving means. Means for determining the characteristics of the music indicated by the music data, and individually specifying the parameter value for at least one or more of the performance data based on the characteristics of the music determined by the determining means The sound processing means functions as output means for outputting each piece of performance data subjected to sound processing based on a parameter value designated by the designation means and the designation means.

本発明に係る楽曲配信システム、楽曲編集装置およびプログラムによれば、オーディオ信号が再生される条件またはオーディオ信号の再生の態様に合わせて、各オーディオ信号間のバランスをコントロールすることまたは楽曲間でバランスをコントロールすることが可能になる。   According to the music distribution system, the music editing apparatus, and the program according to the present invention, the balance between the audio signals is controlled according to the conditions under which the audio signal is reproduced or the reproduction mode of the audio signal. Can be controlled.

楽曲配信システム1の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a music distribution system 1. FIG. RTPパケットの構成を示す図である。It is a figure which shows the structure of a RTP packet. 受信装置10の構成を示すブロック図である。2 is a block diagram showing a configuration of a receiving device 10. FIG. 表示部15の表示内容の一例を示した図である。FIG. 6 is a diagram showing an example of display contents on the display unit 15. 配信装置20の構成を示すブロック図である。3 is a block diagram illustrating a configuration of a distribution device 20. FIG. 楽曲データの構成を示した図である。It is the figure which showed the structure of music data. 受信装置10の処理の流れを示す図である。FIG. 7 is a diagram illustrating a processing flow of the reception device 10. 受信装置10におけるデータの流れを示す図である。4 is a diagram illustrating a data flow in the receiving device 10. FIG. 配信装置20の処理の流れを示すフローチャートである。3 is a flowchart showing a flow of processing of a distribution device 20. 配信装置20におけるデータの流れを示す図である。3 is a diagram illustrating a data flow in a distribution device 20. FIG. 配信装置20が配信するデータを示した図である。It is the figure which showed the data which the delivery apparatus 20 delivers.

以下では、本発明の一実施形態に係る楽曲配信システムについて説明する。楽曲配信システムは、楽曲が聴取される際の各種条件に応じて楽曲データをマスタリングし、該楽曲データを配信するシステムである。   Below, the music distribution system which concerns on one Embodiment of this invention is demonstrated. The music distribution system is a system that masters music data according to various conditions when the music is listened to and distributes the music data.

(A:構成)
(A−1:全体構成)
図1は、楽曲配信システム1の全体構成を示した図である。楽曲配信システム1は、受信装置10−1、10−2、10−3と、配信装置20と、それらの通信装置を接続する通信網30とを有する。受信装置10−1、10−2、10−3は、例えば、それぞれ別のカラオケボックスに設置された通信カラオケ端末であり、配信装置20は、該通信カラオケ端末に楽曲データを配信するカラオケ楽曲配信サーバである。受信装置10−1、10−2、10−3は互いに同じ構成を有し、以下の説明において互いに区別する必要がない場合には、受信装置10と総称する。
(A: Configuration)
(A-1: Overall configuration)
FIG. 1 is a diagram showing the overall configuration of the music distribution system 1. The music distribution system 1 includes receiving apparatuses 10-1, 10-2, and 10-3, a distribution apparatus 20, and a communication network 30 that connects these communication apparatuses. The receiving devices 10-1, 10-2, 10-3 are, for example, communication karaoke terminals installed in separate karaoke boxes, and the distribution device 20 distributes karaoke music data to the communication karaoke terminal. It is a server. The receiving apparatuses 10-1, 10-2, and 10-3 have the same configuration and are collectively referred to as the receiving apparatus 10 when it is not necessary to distinguish them from each other in the following description.

(A−2:データ通信)
通信網30は例えばインターネット網であり、受信装置10と配信装置20の間で所定の通信プロトコルに従って行われるデータ通信を仲介する。本実施形態で用いられている通信プロトコルは、アプリケーション層の通信プロトコルとしては、RTP(Real-time Transport Protocol)が用いられており、トランスポート層の通信プロトコルとしては、UDP(User Datagram Protocol)が用いられており、ネットワーク層の通信プロトコルとしてはIP(Internet Protocol)が用いられている。受信装置10−1、10−2、10−3、および配信装置20には、IPアドレスが割り振られており、通信網30において一元的に識別される。
(A-2: Data communication)
The communication network 30 is, for example, the Internet network and mediates data communication performed according to a predetermined communication protocol between the receiving device 10 and the distribution device 20. As the communication protocol used in the present embodiment, RTP (Real-time Transport Protocol) is used as the communication protocol of the application layer, and UDP (User Datagram Protocol) is used as the communication protocol of the transport layer. IP (Internet Protocol) is used as a network layer communication protocol. The receiving devices 10-1, 10-2, 10-3, and the distribution device 20 are assigned IP addresses and are uniquely identified in the communication network 30.

なお、RTPとは、音声データや映像データをend-to-endでリアルタイムに送受信する通信サービスを提供するための通信プロトコルであり、その詳細はRFC1889に規定されている。RTPにおいては、RTPパケットを生成し送受信することにより上記通信装置同士でデータの授受が行われる。   Note that RTP is a communication protocol for providing a communication service for transmitting and receiving audio data and video data in end-to-end in real time, and the details thereof are defined in RFC1889. In RTP, data is exchanged between the communication devices by generating and transmitting / receiving RTP packets.

図2に示すように、RTPパケットは、IPにおけるデータ転送単位であるパケットやTCPにおけるデータ転送単位であるセグメントと同様に、ヘッダ部とペイロード部とで構成されている。ヘッダ部には、タイムスタンプ、送信元識別子および送信先識別子の3種類のデータが書き込まれる。ここで、タイムスタンプとは、時刻(例えば、受信装置10と配信装置20がデータ通信を開始してから経過した時間)を示すデータである。また、送信元識別子および送信先識別子には、上記各通信装置に割り振られたIPアドレスが用いられる。ペイロード部には、所定時間(本実施形態では20ミリ秒)分の音声データが書き込まれる。 As shown in FIG. 2, the RTP packet is composed of a header part and a payload part, like a packet that is a data transfer unit in IP and a segment that is a data transfer unit in TCP. Three types of data including a time stamp, a transmission source identifier, and a transmission destination identifier are written in the header portion. Here, the time stamp is data indicating a time (for example, a time elapsed since the reception device 10 and the distribution device 20 started data communication). In addition, the IP address assigned to each communication device is used as the transmission source identifier and the transmission destination identifier. Audio data for a predetermined time (20 milliseconds in this embodiment) is written in the payload portion.

(A−3:受信装置10)
次に、受信装置10の構成を図3を参照して説明する。
CPU(Central Processing Unit)11は、ROM(Read Only Memory)12に記憶されている制御プログラムを読み出して、RAM(Random Access Memory)13をワーキングエリアとして実行することにより、受信装置10の各部を制御する。またRAM13は、CPU11が実行するマスタリングに係る各種パラメータを記憶し、CPU11はRAM13に書き込まれたパラメータ値に基づいて各種処理を実行する。
(A-3: Receiving device 10)
Next, the configuration of the receiving apparatus 10 will be described with reference to FIG.
A CPU (Central Processing Unit) 11 reads out a control program stored in a ROM (Read Only Memory) 12 and executes a RAM (Random Access Memory) 13 as a working area, thereby controlling each part of the receiving device 10. To do. The RAM 13 stores various parameters related to mastering executed by the CPU 11, and the CPU 11 executes various processes based on the parameter values written in the RAM 13.

操作部14は、楽曲に関する各種のリクエストを入力するためのリモコンや、配信装置20から配信された楽曲のマスタリングに係る各種設定を行うためのキーボードやマウスである。上記リモコンは、楽曲を選択するための数字ボタンや、選択した楽曲を歌唱を付けて再生させる(通常演奏)か、歌唱を抜いて再生させる(カラオケ伴奏)か、を選択するための歌唱ミュートボタンを有する。操作部14は、操作された内容を表す操作信号をCPU11へ出力する。   The operation unit 14 is a remote controller for inputting various requests related to music, and a keyboard and a mouse for performing various settings related to mastering of music distributed from the distribution device 20. The above remote control has a number button for selecting a song, and a song mute button for selecting whether to play the selected song with a song (normal performance) or to extract a song (karaoke accompaniment) Have The operation unit 14 outputs an operation signal representing the operated content to the CPU 11.

表示部15は、例えばLCD(Liquid Crystal Display)などの表示装置であり、CPU11の制御の下で、楽曲の歌詞を背景画像にオーバーラップさせたカラオケ画面や、楽曲データのマスタリングに係る各種設定を行うための操作画面を表示する。   The display unit 15 is a display device such as an LCD (Liquid Crystal Display), for example. Under the control of the CPU 11, a karaoke screen in which the lyrics of music are overlapped with a background image and various settings related to mastering of music data are set. Displays the operation screen to perform.

図4は、表示部15に表示された操作画面の一例を示した図である。操作画面は、後述する複数の信号(図中S1〜6で表す)のマスタリングに係る各種パラメータを調整するための複数の操作子からなる。図4には、上記複数の信号のうち1つの信号(S1)についての操作画面が示されている。同図に示すように、操作画面は、イコライザ操作部15A、コンプレッサ操作部15B、およびアンプ操作部15Cの3つの操作部を有する。 FIG. 4 is a diagram illustrating an example of an operation screen displayed on the display unit 15. The operation screen is composed of a plurality of operators for adjusting various parameters related to mastering of a plurality of signals (represented by S1 to 6 in the figure) described later. FIG. 4 shows an operation screen for one signal (S1) among the plurality of signals. As shown in the figure, the operation screen has three operation units: an equalizer operation unit 15A, a compressor operation unit 15B, and an amplifier operation unit 15C.

イコライザ操作部15Aには、処理の対象となる信号をイコライザによりイコライジングする際のパラメータ(周波数ごとのゲイン)が示されている。
コンプレッサ操作部15Bには、処理の対象となる信号をコンプレッサにより圧縮する際のパラメータ(スレッショルド、レシオ、アタックタイム、リリースタイムの4つのパラメータ)が示されている。なお、スレッショルドとは、圧縮を行うレベル(dB)の閾値である。レシオとは、スレッショルドを超える音を圧縮する割合である。アタックタイムとは、入力された信号がスレッショルドを超えてからレシオで決められた割合に圧縮されるまでの時間である。リリースタイムとは、入力された信号が再びスレッショルド以下になってから圧縮が止むまでの時間である。
アンプ操作部15Cには、処理の対象となる信号をアンプにより増幅する際のパラメータ(増幅率)が示されている。
The equalizer operation unit 15A shows parameters (gain for each frequency) when the signal to be processed is equalized by the equalizer.
The compressor operation unit 15B shows parameters (four parameters of threshold, ratio, attack time, and release time) when the signal to be processed is compressed by the compressor. The threshold is a threshold value (dB) at which compression is performed. The ratio is the ratio of compressing sounds that exceed the threshold. The attack time is the time from when the input signal exceeds the threshold until it is compressed to a ratio determined by the ratio. The release time is the time from when the input signal again falls below the threshold until compression stops.
The amplifier operation unit 15C shows parameters (amplification factor) when a signal to be processed is amplified by an amplifier.

以上の操作部において、各パラメータ値を調整するスライダは、操作部14のマウスにより操作されるポインタ151で操作可能であり、各パラメータ値は、ポインタ151により操作された値へ調整される。表示部15において設定された各パラメータ値は、RAM13に書き込まれる。   In the above operation unit, the slider for adjusting each parameter value can be operated by the pointer 151 operated by the mouse of the operation unit 14, and each parameter value is adjusted to the value operated by the pointer 151. Each parameter value set in the display unit 15 is written in the RAM 13.

マイクロホン16は、収音した音をアナログ信号に変換する。
音声処理部17は、A/Dコンバータ17A、D/Aコンバータ17B、およびミキサ17Cを有する。A/Dコンバータ17Aは、マイクロホン16が生成したアナログ信号をA/D変換し、デジタルデータに変換して出力する。D/Aコンバータ17Bは、受取ったデジタルデータをD/A変換し、アナログ信号に変換して出力する。ミキサ17Cは、受取った複数のデータをミキシングして出力する。
スピーカ18は、音声処理部17から受取ったアナログ信号に基づいて音を放音する。
The microphone 16 converts the collected sound into an analog signal.
The audio processing unit 17 includes an A / D converter 17A, a D / A converter 17B, and a mixer 17C. The A / D converter 17A performs A / D conversion on the analog signal generated by the microphone 16, converts it into digital data, and outputs the digital data. The D / A converter 17B D / A converts the received digital data, converts it into an analog signal, and outputs it. The mixer 17C mixes and outputs a plurality of received data.
The speaker 18 emits sound based on the analog signal received from the audio processing unit 17.

通信部19は、通信網30に有線接続されている。この通信部19は、CPU11から受取ったRTPパケットを下位層の通信プロトコルにしたがって順次カプセル化することにより得られるIPパケットを通信網30へ送出する。なお、カプセル化とは、上記RTPパケットをペイロード部に書き込んだUDPセグメントを生成し、さらに、そのUDPセグメントをペイロード部に書き込んだIPパケットを生成することである。また、通信部19は、通信網30を介してIPパケットを受信し、該IPパケットに対して上記カプセル化とは逆の処理を行うことにより、そのIPパケットにカプセル化されているRTPパケットを読み出してCPU11へ出力する。
以上に説明した受信装置10の各部はバスにより接続され、互いにデータのやり取りを行う。以上が受信装置10の構成である。
The communication unit 19 is wired to the communication network 30. The communication unit 19 sends IP packets obtained by sequentially encapsulating the RTP packets received from the CPU 11 according to the lower layer communication protocol to the communication network 30. Encapsulation means generating a UDP segment in which the RTP packet is written in the payload portion, and further generating an IP packet in which the UDP segment is written in the payload portion. In addition, the communication unit 19 receives an IP packet via the communication network 30 and performs a process reverse to the encapsulation on the IP packet, thereby converting the RTP packet encapsulated in the IP packet. Read out and output to CPU 11.
Each part of the receiving apparatus 10 described above is connected by a bus and exchanges data with each other. The above is the configuration of the receiving device 10.

(A−4:配信装置20)
次に、配信装置20の構成を図5を参照して説明する。
CPU21は、ROM22に記憶されている制御プログラムを読み出して、RAM23をワーキングエリアとして実行することにより、配信装置20の各部を制御する。
(A-4: Distribution device 20)
Next, the configuration of the distribution apparatus 20 will be described with reference to FIG.
CPU21 controls each part of the delivery apparatus 20 by reading the control program memorize | stored in ROM22 and running RAM23 as a working area.

記憶部24は、例えばHDD(Hard Disk Drive)などの大容量の記憶装置であり、複数の楽曲データを記憶している。
図6は、各楽曲データの内容を模式的に示した図である。各楽曲データは大別して、楽曲の属性を表すプロファイルデータと演奏データと歌詞データとを有している。
The storage unit 24 is a large-capacity storage device such as an HDD (Hard Disk Drive), and stores a plurality of music data.
FIG. 6 is a diagram schematically showing the contents of each piece of music data. Each piece of music data is roughly divided into profile data, performance data, and lyric data representing the music attributes.

プロファイルデータには、楽曲に割り振られた曲番号を表す曲番号データ、楽曲の曲名を表す曲名データ、楽曲のジャンルを示すジャンルデータ、楽曲の演奏時間を示す演奏時間データ、楽曲を構成する各パートの音の種類表す構成楽器データ、およびデフォルト値データが含まれている。   The profile data includes song number data representing the song number assigned to the song, song name data representing the song song name, genre data representing the song genre, performance time data representing the song performance time, and each part constituting the song. Constituting instrument data representing the type of sound and default value data are included.

ジャンルデータには、例えばハードロック/ヘビーメタル、ジャズ、フォーク、演歌、クラシックなどと書き込まれている。
構成楽器データには、演奏データの各パートの楽器名が(歌唱の場合には、歌唱と)書き込まれている。
デフォルト値データには、受信装置10のCPU11が有するイコライザ、コンプレッサ、およびアンプの各機能に係るパラメータについて、デフォルトで設定される「初期値」が書き込まれている。具体的には上記パラメータとして、イコライジングにおける周波数ごとのゲインと、コンプレッサにおけるスレッショルド、レシオ、アタックタイム、リリースタイムと、アンプにおける増幅率とが書き込まれている。該デフォルト値データに示されたパラメータ値に基づいてマスタリングされた楽曲データは、配信側が想定する条件で再生された場合に各パートの演奏のバランスが最適となるように、各パラメータ値は設定されている。
In the genre data, for example, hard rock / heavy metal, jazz, folk, enka, classical, etc. are written.
In the constituent instrument data, the instrument name of each part of the performance data (in the case of singing, singing) is written.
In the default value data, “initial values” set by default are written for parameters relating to the equalizer, compressor, and amplifier functions of the CPU 11 of the receiving device 10. Specifically, the gain for each frequency in equalizing, the threshold, the ratio, the attack time, the release time in the compressor, and the amplification factor in the amplifier are written as the above parameters. Each piece of music data mastered based on the parameter values indicated in the default value data is set so that the performance balance of each part is optimal when played back under conditions assumed by the distribution side. ing.

演奏データは、楽曲の各パートの音(楽器の演奏音、および歌唱音声)を表すデータである。演奏データは、WAVE形式や、MP3(MPEG-1 Audio Layer-3)形式のデータである。本実施形態において、上記演奏データには、メインボーカル(V)、コーラス(C)、ギター(G)、ベース(B)、キーボード(K)、およびドラムス(D)の6つのパートが含まれる。
なお、記憶部24に記憶されている楽曲データにおいて、各パートの演奏データはマスタリングされていない。すなわち、各パートの演奏データは単独では模範的な演奏であるが、他のパートの演奏データと間で、音量や音質の相対的なバランスが調整されていない。従って、それら複数のパートの演奏データを単純にミックスしても不自然な演奏となる。
The performance data is data representing the sound of each part (musical performance sound and singing sound) of the music. The performance data is data in WAVE format or MP3 (MPEG-1 Audio Layer-3) format. In the present embodiment, the performance data includes six parts: main vocal (V), chorus (C), guitar (G), bass (B), keyboard (K), and drums (D).
In the music data stored in the storage unit 24, the performance data of each part is not mastered. That is, the performance data of each part is an exemplary performance by itself, but the relative balance of volume and sound quality is not adjusted with the performance data of other parts. Therefore, even if the performance data of the plurality of parts is simply mixed, the performance becomes unnatural.

歌詞データには、歌詞の内容(文字)が、表示すべきタイミング、表示部15の画面において表示すべき位置、および楽曲の進行に伴い表示態様を変える所謂ワイプ処理をするタイミングと対応付けられて記されている。   In the lyrics data, the contents (characters) of the lyrics are associated with the timing to be displayed, the position to be displayed on the screen of the display unit 15, and the timing to perform a so-called wipe process that changes the display mode as the music progresses. It is written.

通信部25は、通信網30に有線接続されている。この通信部25は、CPU21から受取ったRTPパケットを下位層の通信プロトコルにしたがって順次カプセル化することにより得られるIPパケットを通信網30へ送出する。なお、カプセル化とは、上記RTPパケットをペイロード部に書き込んだUDPセグメントを生成し、さらに、そのUDPセグメントをペイロード部に書き込んだIPパケットを生成することである。また、通信部25は、通信網30を介してIPパケットを受信し、該IPパケットに対して上記カプセル化とは逆の処理を行うことにより、そのIPパケットにカプセル化されているRTPパケットを読み出してCPU21へ出力する。
以上に説明した配信装置20の各部はバスにより接続され、互いにデータのやり取りを行う。以上が配信装置20の構成である。
The communication unit 25 is wired to the communication network 30. The communication unit 25 sends IP packets obtained by sequentially encapsulating the RTP packets received from the CPU 21 according to the lower layer communication protocol to the communication network 30. Encapsulation means generating a UDP segment in which the RTP packet is written in the payload portion, and further generating an IP packet in which the UDP segment is written in the payload portion. In addition, the communication unit 25 receives an IP packet via the communication network 30 and performs a process opposite to the encapsulation on the IP packet, thereby converting the RTP packet encapsulated in the IP packet. Read out and output to CPU 21.
Each part of the distribution apparatus 20 described above is connected by a bus and exchanges data with each other. The above is the configuration of the distribution device 20.

(B:動作)
次に、受信装置10および配信装置20が実行する処理について説明する。以下の動作例では、受信装置10のユーザ(以下、歌唱者)により、選択した楽曲を歌唱パートも含めて再生させること(通常演奏)をリクエストされた場合と、歌唱パートを抜いて再生させること(カラオケ伴奏)をリクエストされた場合について、それぞれ説明する。
(B: Operation)
Next, processing executed by the receiving device 10 and the distribution device 20 will be described. In the following operation example, when the user of the receiving apparatus 10 (hereinafter referred to as a singer) is requested to reproduce the selected music including the singing part (normal performance), the singing part is removed and reproduced. Each case where (karaoke accompaniment) is requested will be described.

(B−1;リクエスト)
図7は、受信装置10が実行する処理の流れを示したフローチャートである。また、図8は、受信装置10におけるデータの流れを示したブロック図である。
(B-1; Request)
FIG. 7 is a flowchart showing a flow of processing executed by the receiving apparatus 10. FIG. 8 is a block diagram showing a data flow in the receiving apparatus 10.

歌唱者は、受信装置10に演奏させたい楽曲の曲番号を、操作部14の数字ボタンを押下し入力する。また歌唱者は、選択した各楽曲について、歌唱ミュートボタンのON/OFFを操作し、通常演奏またはカラオケ伴奏を選択する。
なお、本動作例においては、2つの楽曲の演奏をリクエストする。そして、1曲目の曲番号の入力時には歌唱ミュートボタンをOFF(通常演奏)にし、2曲目の曲番号入力時には歌唱ミュートボタンをON(カラオケ伴奏)にする。
The singer presses the number button of the operation unit 14 to input the tune number of the tune to be received by the receiving device 10. The singer operates a singing mute button on / off for each selected music piece to select normal performance or karaoke accompaniment.
In this operation example, two music performances are requested. The singing mute button is turned OFF (normal performance) when the first song number is input, and the singing mute button is turned ON (karaoke accompaniment) when the second song number is input.

操作部14は、歌唱者に入力された曲番号、および該曲番号と対応する歌唱ミュートボタンのON/OFFを含む操作信号をCPU11に出力し、CPU11は該操作信号を受取る(ステップSA100)。
CPU11は、歌唱ミュートボタンがON/OFFいずれを選択されたかを示すデータを曲番号と対応させてRAM13に書き込む。また、CPU11は、操作部14から受取った操作信号に基づいて、選択された曲番号および歌唱ミュートボタンのON/OFFを含む「リクエスト信号」を生成し、通信部19に出力する。通信部19は、通信網30を介してリクエスト信号を配信装置20に送信する。
The operation unit 14 outputs an operation signal including ON / OFF of the song mute button corresponding to the song number input to the singer and the song number to the CPU 11, and the CPU 11 receives the operation signal (step SA100).
The CPU 11 writes data indicating whether the singing mute button has been selected ON / OFF in the RAM 13 in association with the song number. Further, the CPU 11 generates a “request signal” including the selected song number and ON / OFF of the singing mute button based on the operation signal received from the operation unit 14, and outputs it to the communication unit 19. The communication unit 19 transmits a request signal to the distribution device 20 via the communication network 30.

(B−2;楽曲データの編集)
ここで、受信装置10からリクエスト信号を受取った配信装置20が実行する処理について説明する。図9は、配信装置20が実行する処理の流れを示したフローチャートである。また、図10は、配信装置20におけるデータの流れを示したブロック図である。以下では、図9のフローチャートの流れに従い、図10を参照しながら説明する。
(B-2; Editing music data)
Here, processing executed by the distribution device 20 that has received the request signal from the reception device 10 will be described. FIG. 9 is a flowchart showing a flow of processing executed by the distribution apparatus 20. FIG. 10 is a block diagram showing a data flow in the distribution apparatus 20. Hereinafter, the process will be described with reference to FIG. 10 in accordance with the flow chart of FIG.

図10に示すように、通信部25は、受信装置10から受取ったリクエスト信号をCPU21に出力し、CPU21は該リクエスト信号を受信する(ステップSB100)。 As illustrated in FIG. 10, the communication unit 25 outputs the request signal received from the receiving device 10 to the CPU 21, and the CPU 21 receives the request signal (step SB100).

CPU21は、該受取ったリクエスト信号に含まれる曲番号と対応する曲番号データを有する楽曲データを特定する。そしてCPU21は、該特定した楽曲データのプロファイルデータに含まれる曲名データ、ジャンルデータ、演奏時間データ、構成楽器データ、およびデフォルト値データを、「制御データ」として、楽曲の開始までに通信部25に出力する。通信部25は、CPU21から制御データを受取ると、通信網30を介して受信装置10に送信する(ステップSB110)。   The CPU 21 specifies music data having music number data corresponding to the music number included in the received request signal. Then, the CPU 21 sets the song name data, genre data, performance time data, constituent instrument data, and default value data included in the profile data of the specified song data as “control data” to the communication unit 25 before the start of the song. Output. When receiving the control data from the CPU 21, the communication unit 25 transmits the control data to the receiving device 10 via the communication network 30 (step SB110).

ステップSB110の処理が完了すると、CPU21は、受取ったリクエスト信号で指定される楽曲データに含まれる演奏データを、楽曲の進行に伴って記憶部24から読み出す(ステップSB120)。読み出された各パートの演奏データ、すなわち、メインボーカルパート、コーラスパート、ギターパート、ベースパート、キーボードパート、ドラムスパートの演奏データは、通信部25に出力される。また、CPU21は、歌詞データを楽曲の進行と共に読出し、通信部25に出力する。
通信部25は、以上のデータを受取ると、順次受信装置10に送信する(ステップSB130)。
図11には、以上のようにして配信装置20から受信装置10に送信されるデータをまとめて示す。制御データは、楽曲の演奏開始までに送信されるデータであり、演奏データおよび歌詞データは、楽曲の演奏に伴って送信されるデータである。
When the process of step SB110 is completed, the CPU 21 reads out performance data included in the music data specified by the received request signal from the storage unit 24 as the music progresses (step SB120). The read performance data of each part, that is, the performance data of the main vocal part, the chorus part, the guitar part, the bass part, the keyboard part, and the drum spart is output to the communication unit 25. Further, the CPU 21 reads out the lyric data as the music progresses, and outputs it to the communication unit 25.
When receiving the above data, the communication unit 25 sequentially transmits the data to the receiving device 10 (step SB130).
FIG. 11 collectively shows data transmitted from the distribution device 20 to the reception device 10 as described above. The control data is data transmitted before the music performance starts, and the performance data and the lyrics data are data transmitted along with the performance of the music.

(B−3;楽曲の演奏)
ここで再び、受信装置10が実行する処理を、図7および図8を参照して説明する。
受信装置10は、まず配信装置20から制御データを受信する(ステップSA110)。CPU11は、ステップSA110において受信した制御データに含まれるデフォルト値データをRAM13に書き込み、後述するイコライザ、コンプレッサ、アンプの各機能に係るパラメータの初期値を設定する(ステップSA120)。
(B-3; Music performance)
Here, the process executed by the receiving apparatus 10 will be described again with reference to FIGS. 7 and 8.
First, the receiving device 10 receives control data from the distribution device 20 (step SA110). The CPU 11 writes default value data included in the control data received in step SA110 into the RAM 13, and sets initial values of parameters relating to functions of an equalizer, a compressor, and an amplifier described later (step SA120).

なお、上述したように、制御データに記されたパラメータのデフォルト値は、配信側が想定した条件で楽曲データを再生した場合に最適となるパラメータであり、各受信装置10が置かれた条件に対して最適化されたものではない。本ステップSA120において設定されるパラメータ値は初期値として一旦設定される値であり、後述するように歌唱者により適宜再設定が可能である。以下の説明においては、各種パラメータが該初期値に設定され、歌唱者により再設定されていない場合について説明する。   As described above, the default value of the parameter described in the control data is a parameter that is optimal when the music data is reproduced under the condition assumed by the distribution side, and is the parameter for which each receiving device 10 is placed. Not optimized. The parameter value set in step SA120 is a value once set as an initial value, and can be reset as appropriate by the singer as will be described later. In the following description, a case will be described in which various parameters are set to the initial values and are not reset by the singer.

CPU11は、楽曲の進行に伴って、各パートの演奏データ、および歌詞データ(図示略)を配信装置20から受信する(ステップSA130)。
CPU11は、受信した演奏データに対し、以下のように一連の音響処理を施す。CPU11は、図8において破線で示されるように、チャンネル選択部111、ノーマライズ部112、イコライザ113、ノイズ除去部114、コンプレッサ115、およびアンプ116を有する。以下では、CPU11に入力された各パートの演奏データに対する各音響処理について説明する。
The CPU 11 receives performance data and lyric data (not shown) of each part from the distribution device 20 as the music progresses (step SA130).
The CPU 11 performs a series of acoustic processing on the received performance data as follows. The CPU 11 includes a channel selection unit 111, a normalization unit 112, an equalizer 113, a noise removal unit 114, a compressor 115, and an amplifier 116, as indicated by broken lines in FIG. Below, each acoustic process with respect to the performance data of each part input into CPU11 is demonstrated.

チャンネル選択部111は入力チャンネル213−1〜6を有し、それぞれの入力チャンネルには、メインボーカルパート、コーラスパート、ギターパート、ベースパート、キーボードパート、およびドラムスパートの演奏データが入力される。それら各パートの演奏データを、以下ではパート信号S1〜6とする。なお、パート信号S1〜6を互いに区別する必要がない場合は、「パート信号S」と総称する。
なお、入力チャンネル213−1〜6は、図面においては端子のように表現しているが、該表示は信号系統を示すために便宜上端子様に表現したものである。
The channel selection unit 111 has input channels 213-1 to 213-6, and performance data of a main vocal part, a chorus part, a guitar part, a bass part, a keyboard part, and a drum spart are input to each input channel. The performance data of each part is hereinafter referred to as part signals S1 to S6. When there is no need to distinguish the part signals S1 to S6, they are collectively referred to as “part signal S”.
The input channels 213-1 to 213-6 are expressed as terminals in the drawing, but the display is expressed like a terminal for convenience in order to show a signal system.

チャンネル選択部111は、歌唱ミュートボタンがON/OFFいずれを選択されたかを示すデータをRAM13から読み出し、該データに基づいてパート信号Sを選択し(ステップSA140)、該選択したパート信号Sをノーマライズ部112に出力する。具体的には、歌唱ミュートボタンがOFFである場合、チャンネル選択部111は、受取った全てのパート信号Sをノーマライズ部112に出力する。一方、歌唱ミュートボタンがONである場合、チャンネル選択部111は、配信装置20から受取った制御データに含まれる構成楽器データを参照し、入力されたパート信号S1〜6からメインボーカルの歌唱を表すパート信号を特定する。そして、チャンネル選択部111は、該特定されたパートを除く他の全てのパート信号Sをノーマライズ部112に出力する。
本実施例においては、1曲目において歌唱ミュートボタンはOFFが選択されたため、パート信号S1〜6がノーマライズ部112に出力される。一方、2曲目において歌唱ミュートボタンはONが選択されたため、メインボーカルを表すパート信号S1を除くパート信号S2〜6がノーマライズ部112に出力される。
The channel selection unit 111 reads from the RAM 13 data indicating whether the singing mute button is ON / OFF, selects the part signal S based on the data (step SA140), and normalizes the selected part signal S. Output to the unit 112. Specifically, when the singing mute button is OFF, the channel selection unit 111 outputs all received part signals S to the normalization unit 112. On the other hand, when the singing mute button is ON, the channel selection unit 111 refers to the constituent instrument data included in the control data received from the distribution device 20, and represents the singing of the main vocal from the input part signals S1 to S6. Identify the part signal. Then, the channel selection unit 111 outputs all other part signals S except the specified part to the normalization unit 112.
In the present embodiment, since the singing mute button is selected to be OFF in the first song, the part signals S1 to S6 are output to the normalizing unit 112. On the other hand, since the singing mute button is selected to be ON in the second song, the part signals S2 to 6 except the part signal S1 representing the main vocal are output to the normalizing unit 112.

ノーマライズ部112は、チャンネル選択部111から受取った各パート信号Sの信号レベルをノーマライズ(標準化)する(ステップSA150)。なお、ノーマライズとは、各パート信号の音量を、音がひずまない範囲内での最大レベルに調整する処理である。ノーマライズ部112は、ノーマライズされたパート信号Sをノイズ除去部114に出力する。   The normalizing unit 112 normalizes (standardizes) the signal level of each part signal S received from the channel selection unit 111 (step SA150). Note that normalization is a process of adjusting the volume of each part signal to the maximum level within a range where the sound is not distorted. The normalizing unit 112 outputs the normalized part signal S to the noise removing unit 114.

イコライザ113は、ノーマライズ部112から受取った各パート信号Sの周波数特性を変換する(ステップSA160)。すなわちイコライザ113は、ステップSA120において設定された、周波数帯域ごとに設定されたゲインで信号レベルを調整することにより、各パート信号Sの周波数特性を変換する。イコライジング処理された各パート信号Sは、ノイズ除去部114に出力される。   The equalizer 113 converts the frequency characteristics of each part signal S received from the normalizing unit 112 (step SA160). That is, the equalizer 113 converts the frequency characteristics of each part signal S by adjusting the signal level with the gain set for each frequency band set in step SA120. Each part signal S subjected to the equalizing process is output to the noise removing unit 114.

ノイズ除去部114は、イコライザ113から受取った各パート信号Sに含まれるノイズを除去する(ステップSA170)。本処理には、特定の周波数帯域(例えば、所定の値より高い周波数成分)の信号を除去する方法など、従来から知られているノイズ除去の方法を適用すれば良い。なお、後述するコンプレッサ115による処理には全体の音量を上げる工程が含まれ、該工程において微小なノイズさえも増幅されて耳障りになる傾向がある。従って、たとえ微小なノイズであったとしても、コンプレッサをかける前にノイズを除去しておくのが望ましい。   The noise removing unit 114 removes noise included in each part signal S received from the equalizer 113 (step SA170). For this processing, a conventionally known noise removal method such as a method of removing a signal in a specific frequency band (for example, a frequency component higher than a predetermined value) may be applied. Note that the processing by the compressor 115 described later includes a step of increasing the overall volume, and even minute noise is amplified in the step and tends to be harsh. Therefore, even if it is a minute noise, it is desirable to remove the noise before applying the compressor.

コンプレッサ115は、各パート信号Sの音量のダイナミックレンジ(音量差)を圧縮する(ステップSA180)。該処理は、各パート信号Sを「力強い迫力ある音」にする目的で行われる。コンプレッサ115は、ステップSA120で設定された、スレッショルド、レシオ、アタックタイム、リリースタイムの4つのパラメータにより、各パート信号Sを圧縮する。コンプレッサ115により処理された各パート信号Sは、アンプ116に出力される。   The compressor 115 compresses the dynamic range (volume difference) of the volume of each part signal S (step SA180). This processing is performed for the purpose of making each part signal S “a powerful powerful sound”. The compressor 115 compresses each part signal S according to the four parameters, threshold, ratio, attack time, and release time, set in step SA120. Each part signal S processed by the compressor 115 is output to the amplifier 116.

アンプ116は、コンプレッサ115から受取った各パート信号SのレベルをステップSA120において設定されたパラメータ値に従って調整する(ステップSA190)。レベルが調整された各パート信号Sは、音声処理部17に出力される。   The amplifier 116 adjusts the level of each part signal S received from the compressor 115 according to the parameter value set in step SA120 (step SA190). Each part signal S whose level is adjusted is output to the audio processing unit 17.

音声処理部17において、ミキサ17Cは、CPU11から受取った各パート信号Sをミキシングして、D/Aコンバータ17Bに出力する。D/Aコンバータ17Bは、各パート信号Sをアナログ信号に変換し、スピーカ18に出力する。
スピーカ18は、音声処理部17から受取った信号を放音する。また、CPU11は、受信した歌詞データに基づいて、表示部15のカラオケ画面に歌詞テロップを表示する(ステップSA200)。
ステップSA200の処理が終了すると、CPU11は、カラオケの演奏が終了次第、本処理を終了する。
In the audio processing unit 17, the mixer 17C mixes each part signal S received from the CPU 11, and outputs the mixed signal to the D / A converter 17B. The D / A converter 17B converts each part signal S into an analog signal and outputs it to the speaker 18.
The speaker 18 emits the signal received from the audio processing unit 17. Moreover, CPU11 displays a lyrics telop on the karaoke screen of the display part 15 based on the received lyrics data (step SA200).
When the process of step SA200 ends, the CPU 11 ends this process as soon as the performance of karaoke ends.

(B−4;パラメータの再設定)
さて、上述の説明において、マスタリングの各処理におけるパラメータ値は配信装置20から受取った制御データに含まれるデフォルト値データに従って設定される場合について説明した。しかし、歌唱者は、楽曲データの演奏前および演奏中に、上記各処理に係る各パラメータのデフォルト値を適宜再設定することが可能である。歌唱者は、受信装置10が置かれた条件で最も好ましいと感じる楽曲が生成されるようにパラメータ値を入力する。該パラメータ値が入力されると、入力内容を示す操作信号が操作部14からCPU11に出力され、RAM13に書き込まれたパラメータ値が更新され、以降の処理は該更新されたパラメータ値に従って行われる。
(B-4; Parameter reset)
In the above description, the case where the parameter value in each process of mastering is set according to the default value data included in the control data received from the distribution apparatus 20 has been described. However, the singer can appropriately reset the default values of the parameters related to the above processes before and during the performance of the music data. The singer inputs the parameter value so that the music that is most preferable under the condition where the receiving device 10 is placed is generated. When the parameter value is input, an operation signal indicating the input content is output from the operation unit 14 to the CPU 11, the parameter value written in the RAM 13 is updated, and the subsequent processing is performed according to the updated parameter value.

本動作例において、歌唱者は、1曲目および2曲目の楽曲データのマスタリングに係る各パラメータ値を、以下に示す3つの例のように再設定する。なお、これらの再設定方法は例示であり、他に種々の再設定方法が可能である。
(例1)カラオケ伴奏が指示された2曲目の楽曲をインストゥルメンタルの楽曲として演奏させたい場合、楽曲の旋律をもっとも良く示しているパート(例えば、キーボードを表すパート)のパート信号Sに係るアンプの増幅率を、デフォルト値よりも大きく調整する。そのようにすることで、最終的に放音される演奏音において、キーボードの演奏音が他のパートの演奏音に対して相対的に大きなレベルとなり、該楽曲はキーボードによる旋律が強調されたインストゥルメンタルの楽曲として演奏される。
In this operation example, the singer resets the parameter values related to the mastering of the music data of the first song and the second song as in the following three examples. Note that these resetting methods are examples, and various other resetting methods are possible.
(Example 1) When it is desired to play the second piece of music for which karaoke accompaniment is designated as an instrumental piece, it relates to the part signal S of the part that best indicates the melody of the piece (for example, the part representing the keyboard). Adjust the amplification factor of the amplifier to be larger than the default value. By doing so, in the performance sound that is finally emitted, the performance sound of the keyboard is at a relatively high level with respect to the performance sound of the other parts, and the music is an instrument that emphasizes the melody by the keyboard. Played as a musical piece.

(例2)歌唱者が、デフォルト値として配信側が設定した値による演奏において、ドラムスパートによる低音が耳障りであると感じる場合、アンプ116においてパート信号S6の増幅に係るパラメータ値をデフォルト値よりも小さく設定しても良い。また、別の方法としては、イコライザ113において、全てのパート信号Sの低い周波数成分のレベルを低下させるよう、イコライジングに係るパラメータ値を調整しても良い。   (Example 2) When the singer feels that the bass sound generated by the drum spurt is annoying in the performance according to the value set by the distribution side as the default value, the parameter value related to the amplification of the part signal S6 in the amplifier 116 is smaller than the default value. May be set. As another method, the equalizer 113 may adjust parameter values related to equalization so as to reduce the level of the low frequency component of all the part signals S.

(例3)低い音量レベルで楽曲を再生する必要がある場合や、スピーカ18が小さいために低音を放音する能力が低い場合などでは、各周波数成分の中でも特に低音が聴取されにくくなる傾向がある。そのような場合、例えばベースパートやドラムスパートのパート信号の増幅に係るパラメータ値を高く設定したり、イコライザ113のイコライジングに係るパラメータ値を調整して、低音のパートの演奏音や低音の周波数成分を強調しても良い。   (Example 3) When it is necessary to reproduce music at a low volume level, or when the ability to emit a low sound is low because the speaker 18 is small, the low frequency tends to be difficult to hear among the frequency components. is there. In such a case, for example, the parameter value related to the amplification of the part signal of the bass part or drum spurt is set high, or the parameter value related to equalization of the equalizer 113 is adjusted, so that the performance sound of the bass part and the frequency component of the bass sound are adjusted. May be emphasized.

(例4)例えば1曲目の楽曲のジャンルがハードロックであり、2曲目の楽曲のジャンルがジャズであるなど、楽曲の平均的な音量レベルが楽曲間で大きく異なる場合、それぞれの楽曲を独立した状況で聴取すれば自然な音量レベルで聴取されるとしても、該楽曲を連続して聴取する歌唱者にとっては、2曲目の楽曲が放音された際に実際以上に小さな音量であるかのように聞こえてしまうなど、楽曲間でアンバランスな印象を与えてしまうことがある。このような場合、歌唱者は、1曲目の楽曲において、全てのパート信号Sに対するアンプ116の増幅率を低く設定し、演奏音全体の音量レベルを低く設定すると共に、2曲目の楽曲において、全てのパート信号Sに対するアンプ116の増幅率を高く設定し、演奏音全体の音量レベルを高く設定しても良い。   (Example 4) When the average volume level of music is greatly different between songs, for example, the genre of the first song is hard rock and the genre of the second song is jazz, each song is independent. Even if it is heard at a natural volume level if it is listened to in the situation, for a singer who listens to the music continuously, it seems that the volume is lower than the actual volume when the second music is emitted. The sound may be imbalanced between songs. In such a case, the singer sets the amplification factor of the amplifier 116 with respect to all the part signals S low in the first music piece, sets the volume level of the entire performance sound low, The amplification factor of the amplifier 116 with respect to the part signal S may be set high, and the volume level of the entire performance sound may be set high.

以上のように、本実施形態に係る楽曲配信システム1によれば、歌唱者は、楽曲を放音させる条件(空間の音響特性や、再生装置の特性)、および歌唱者の嗜好に応じて、各パラメータ値を自在に調整することができ、複数のパートからなる楽曲において、各パートの全体の音におけるバランスを適切に調整することができる。また、楽曲間でのバランスも調整することができる。
従って、楽曲を放音する条件が配信側が想定した条件と異なる場合にも、パート間や楽曲間の音量や音質などがアンバランスになり違和感を生じさせたりすることを防ぐことが出来る。また、仮に楽曲を放音させる条件が配信側が想定した条件である場合においても、それぞれ異なる嗜好を持つ各歌唱者は、自身が最も良いと感じるバランスに各パート・各楽曲の演奏を調整することができる。
As described above, according to the music distribution system 1 according to the present embodiment, the singer can perform according to the conditions (sound acoustic characteristics of the space and the characteristics of the playback device) and the singer's preference for releasing the music. Each parameter value can be freely adjusted, and in the music composed of a plurality of parts, the balance of the entire sound of each part can be appropriately adjusted. In addition, the balance between songs can be adjusted.
Therefore, even when the conditions for releasing the music are different from the conditions assumed by the distribution side, it is possible to prevent the volume and sound quality between the parts and the music from becoming unbalanced and causing a sense of discomfort. Also, even if the conditions for releasing the music are the conditions assumed by the distribution side, each singer with a different preference should adjust the performance of each part / music to the balance that he / she feels best. Can do.

(C:変形例)
以上、本発明の一実施形態について説明したが、本発明は上述の実施形態に限定されることなく、他の様々な形態で実施可能である。以下にその一例を示す。
(C: Modification)
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the above-mentioned embodiment, It can implement with another various form. An example is shown below.

(1)上記実施形態においては、楽曲配信システム1はカラオケ楽曲の配信システムである場合について説明した。すなわち、配信装置20はカラオケ楽曲の配信サーバであり、受信装置10は通信カラオケ端末であった。しかし、楽曲配信システム1は、カラオケ楽曲の配信システムに限られるものではなく、本発明は各種の音データを配信するシステムに適用可能である。 (1) In the above embodiment, the case where the music distribution system 1 is a distribution system for karaoke music has been described. That is, the distribution device 20 was a karaoke music distribution server, and the reception device 10 was a communication karaoke terminal. However, the music distribution system 1 is not limited to a karaoke music distribution system, and the present invention is applicable to a system that distributes various types of sound data.

(2)上記実施形態においては、通信網30に受信装置10が3つ接続される場合について説明したが、1つ、2つ、または4つ以上設けられるとしても良い。 (2) In the above embodiment, the case where three receiving apparatuses 10 are connected to the communication network 30 has been described. However, one, two, or four or more may be provided.

(3)上記実施形態においては、通信網30はインターネット網である場合について説明したが、LAN(Local Area Network)などであっても良い。要は、所定の通信プロトコルに従って通信装置同士が行うデータ通信を仲介するものであれば良い。また、受信装置10および配信装置20は有線で通信網30に接続されている場合について説明したが、通信網30が例えば無線LANなどの無線パケット通信網であり、受信装置10および配信装置20が、この無線パケット通信網に接続されていても良い。 (3) In the above embodiment, the case where the communication network 30 is the Internet network has been described. However, a LAN (Local Area Network) or the like may be used. In short, what is necessary is just to mediate data communication performed between communication devices according to a predetermined communication protocol. Further, the case where the receiving device 10 and the distribution device 20 are connected to the communication network 30 by wire has been described. However, the communication network 30 is a wireless packet communication network such as a wireless LAN, and the reception device 10 and the distribution device 20 are It may be connected to this wireless packet communication network.

(4)上記実施形態では、音声データの送受信に係るアプリケーション層の通信プロトコルとしてRTPを用いる場合について説明したが、他の通信プロトコルを用いても良い。要は演奏データをリアルタイムに送受信するための通信プロトコルであれば良い。 (4) In the above embodiment, the case where RTP is used as the communication protocol of the application layer related to transmission / reception of audio data has been described, but other communication protocols may be used. In short, any communication protocol for transmitting and receiving performance data in real time may be used.

(5)上記実施形態においては、配信装置20は、記憶部24に格納された楽曲データに含まれる各パートの演奏データをパート信号Sとして用いる場合について説明した。しかし、楽曲データを記憶する手段は、HDDなどの記憶手段に限られない。例えば配信装置20が各種の記録媒体に記録されたデータを読み出し出力する再生装置を更に備え、該再生装置により記録媒体から読み出したデータをパート信号Sとして用いても良い。 (5) In the above embodiment, the distribution device 20 has been described with respect to the case where the performance data of each part included in the music data stored in the storage unit 24 is used as the part signal S. However, the means for storing music data is not limited to storage means such as an HDD. For example, the distribution device 20 may further include a reproduction device that reads and outputs data recorded on various recording media, and the data read from the recording medium by the reproduction device may be used as the part signal S.

(6)上記実施形態において、楽曲データに含まれる演奏データはWAVE形式やMP3形式のデータとしたが、データの形式はこれに限定されるものではない。演奏データは、各パートの演奏を表すデータであればどのような形式のデータであってもよい。 (6) In the above embodiment, the performance data included in the music data is data in the WAVE format or MP3 format, but the data format is not limited to this. The performance data may be data in any format as long as it represents the performance of each part.

(7)上記実施形態においては、演奏データに6つのパートが含まれる場合について説明した。しかし、パートの数は6つに限定されるものではなく、いずれの数でも良い。パート数が複数である場合には、複数のパートの演奏データの間のバランスを調整することができるし、パート数が1または複数である場合には、楽曲間でバランスを調整することができる。 (7) In the embodiment described above, the case where performance data includes six parts has been described. However, the number of parts is not limited to six and may be any number. When the number of parts is plural, the balance between the performance data of the plural parts can be adjusted, and when the number of parts is one or plural, the balance can be adjusted between the music pieces. .

(8)上記実施形態においては、配信装置20の記憶部24に、各種音響処理に係るパラメータ値のデフォルト値を表すデフォルト値データが格納されており、受信装置10に配信される場合について説明した。しかし、デフォルト値データは必ずしも予め記憶部24に格納されている必要はない。デフォルト値データが予め記憶部24に格納されていない場合には、受信装置10の歌唱者が一旦操作部14を操作して適当なパラメータを設定し、楽曲を受信して試聴しながら、その都度再設定しても良い。 (8) In the above embodiment, the case where the default value data representing the default values of the parameter values related to various acoustic processes is stored in the storage unit 24 of the distribution device 20 and distributed to the reception device 10 has been described. . However, the default value data is not necessarily stored in the storage unit 24 in advance. When the default value data is not stored in the storage unit 24 in advance, the singer of the receiving device 10 once operates the operation unit 14 to set appropriate parameters, receives the music, and listens to it each time. It may be reset.

(9)上記実施形態においては、操作部14の歌唱ミュートボタンがONされると、メインボーカルパートのパート信号S1が楽曲から除かれて再生される場合について説明した。しかし、特定のパート信号Sを除く方法は、該歌唱ミュートボタンの押下に限られない。例えば、アンプ116に設定された特定のパート信号Sに対する増幅率を0にすることにより、特定のパート信号Sを楽曲の演奏から除くこともできる。 (9) In the above embodiment, the case where the part signal S1 of the main vocal part is removed from the music and played when the singing mute button of the operation unit 14 is turned on has been described. However, the method of removing the specific part signal S is not limited to pressing the singing mute button. For example, the specific part signal S can be excluded from the performance of the music piece by setting the amplification factor for the specific part signal S set in the amplifier 116 to zero.

(10)上記実施形態においては、操作部14の歌唱ミュートボタンをON/OFFすることにより、メインボーカルパートのパート信号S1を楽曲から除いて再生する場合について説明した。しかし、楽曲から除かれるパート信号Sはパート信号S1に限定されず、他のいずれのパート信号Sでも良い。例えば、楽曲データの放音に合わせてギターの演奏を行う場合、ギターのパートのパート信号S3を除いて再生しても良い。その場合、歌唱ミュートボタンに代えてまたは併せて、該除かれるパート信号と対応付けたミュートボタン(例えば、「ギターミュートボタン」)を操作部14に設けておいても良い。 (10) In the above embodiment, the case where the singing mute button of the operation unit 14 is turned ON / OFF to remove the part signal S1 of the main vocal part from the music and reproduce it has been described. However, the part signal S excluded from the music is not limited to the part signal S1, and any other part signal S may be used. For example, when a guitar is played in accordance with the release of music data, the part signal S3 of the guitar part may be removed for reproduction. In this case, a mute button (for example, “guitar mute button”) associated with the part signal to be removed may be provided in the operation unit 14 instead of or in combination with the singing mute button.

(11)上記実施形態においては、各パート信号Sを、主にイコライザ、コンプレッサ、およびアンプの3つの機能を用いて変換する場合について説明した。しかし、これら3つの処理を全て施さなくても良く、いずれか1つ、または2つを用いても良い。イコライザのみ用いられた場合には、例えば周波数特性が特に異なる楽曲の周波数特性を変換することにより楽曲間で周波数特性を類似させ、複数の楽曲間で統一感を持たせたりしても良い。また、コンプレッサのみ用いられた場合には、迫力がない楽曲に対して圧縮処理を施すことにより迫力を出しても良い。また、アンプのみ用いられた場合には、上記実施形態において(例1)に示されたように各パートに対するアンプの増幅率を調整し、パート間や楽曲間でバランスを取っても良い。 (11) In the above embodiment, the case where each part signal S is converted mainly using the three functions of the equalizer, the compressor, and the amplifier has been described. However, it is not necessary to perform all these three processes, and any one or two of them may be used. When only an equalizer is used, for example, the frequency characteristics of music pieces having particularly different frequency characteristics may be converted to make the frequency characteristics similar between the pieces of music, and a plurality of pieces of music may have a sense of unity. In addition, when only the compressor is used, the force may be generated by performing compression processing on the music without force. When only the amplifier is used, the amplification factor of the amplifier for each part may be adjusted as shown in (Example 1) in the above-described embodiment to balance between the parts and between the music pieces.

(12)上記実施形態においては、受信装置10および配信装置20に特徴的な機能をソフトウェアモジュールで実現する場合について説明したが、上記各機能を担うハードウェアモジュールを組み合わせて本発明に係る楽曲配信システム1の各装置を構成するようにしても良い。 (12) In the above embodiment, a case has been described in which the functions characteristic of the receiving device 10 and the distribution device 20 are realized by software modules. Each device of the system 1 may be configured.

(13)上記実施形態においては、本発明に係る受信装置10および配信装置20に特徴的な機能を実現するためのプログラムを、それぞれROM12およびROM22に予め書き込んでおく場合について説明したが、磁気テープ、磁気ディスク、フレキシブルディスク、光記録媒体、光磁気記録媒体、RAM、ROMなどのコンピュータ読み取り可能な記録媒体に上記プログラムを記録して配布するとしても良く、インターネット網などの電気通信回線経由のダウンロードにより上記プログラムを配布するようにしても良い。 (13) In the above embodiment, a case has been described in which the programs for realizing the functions characteristic of the receiving device 10 and the distributing device 20 according to the present invention are written in advance in the ROM 12 and the ROM 22, respectively. The above program may be recorded and distributed on a computer-readable recording medium such as a magnetic disk, flexible disk, optical recording medium, magneto-optical recording medium, RAM, ROM, etc., and downloaded via an electric communication line such as the Internet network. You may make it distribute the said program by.

(14)上記実施形態においては、受信装置10においてパート信号間のバランスが調整されたパート信号Sが「放音」される場合について説明した。しかし、受信装置10においてパート信号間のバランスが調整されたパート信号Sを記憶するための手段(磁気テープ、磁気ディスク、フレキシブルディスク、光記録媒体、光磁気記録媒体、RAM、ROMなどのコンピュータ読み取り可能な記録媒体に上記音声データを書き込む書込手段、および上記音声データを記憶するHDDなどの大容量記憶装置)を設け、歌唱者が所望する態様でバランスが調整された楽曲データを該記憶手段に記憶しても良い。すなわち、図8において、ミキサ17Cから出力された出力信号を上記記憶手段に記憶させても良い。そのように本発明に係る楽曲配信システム1を変形して利用すれば、歌唱者の所望の態様で各パートの演奏データのバランスが調整された楽曲データを生成する楽曲データ生成装置が実現可能である。 (14) In the above embodiment, the case where the receiving apparatus 10 “sounds” the part signal S whose balance between the part signals is adjusted has been described. However, means for storing the part signal S in which the balance between the part signals is adjusted in the receiver 10 (computer reading such as magnetic tape, magnetic disk, flexible disk, optical recording medium, magneto-optical recording medium, RAM, ROM, etc.) Writing means for writing the audio data on a possible recording medium, and a large-capacity storage device such as an HDD for storing the audio data), and storing the music data whose balance is adjusted in a manner desired by the singer You may memorize. That is, in FIG. 8, the output signal output from the mixer 17C may be stored in the storage means. Thus, if the music distribution system 1 according to the present invention is modified and used, it is possible to realize a music data generation apparatus that generates music data in which the balance of performance data of each part is adjusted in a desired manner of the singer. is there.

(15)上記実施形態においては、図4に示されるように、イコライザ113によるイコライジングの態様は、周波数ごとのゲインにより設定される場合について説明した。その場合、イコライジングの「パターン」を選択することにより、より簡易にイコライジングの態様を設定することができるようにしても良い。例えば、低音を強調するモード、高音を強調するモード、低音と高音を強調するモード、低音と高音を低減するモードなど、複数のモードの各々に対して、予め周波数帯域ごとのゲインを設定・記憶しておき、イコライジングの際には、歌唱者により選択されたモードに応じた各周波数帯域ごとのゲインを読出してイコライザ113に設定するようにしても良い。 (15) In the above embodiment, as shown in FIG. 4, the case where the equalizing mode by the equalizer 113 is set by the gain for each frequency has been described. In this case, it is possible to set the equalizing mode more easily by selecting the “pattern” of equalizing. For example, a gain for each frequency band is set and stored in advance for each of a plurality of modes, such as a mode for emphasizing bass, a mode for emphasizing treble, a mode for emphasizing bass and treble, and a mode for reducing bass and treble. In addition, at the time of equalizing, the gain for each frequency band corresponding to the mode selected by the singer may be read and set in the equalizer 113.

(16)上記実施形態においては、図4に示されるように、コンプレッサ115による圧縮の態様は、スレッショルド、レシオ、アタック、およびリリースの4つのパラメータにより設定される場合について説明した。しかし、より簡易に設定が可能となるように、スレッショルドおよびレシオのみ設定を可能とするなど、それら複数のパラメータのいずれか1つまたは複数のパラメータが設定可能としても良い。 (16) In the above embodiment, as illustrated in FIG. 4, the case has been described in which the compression mode by the compressor 115 is set by four parameters of threshold, ratio, attack, and release. However, one or more parameters of the plurality of parameters may be settable such that only the threshold and the ratio can be set so that the setting can be made more easily.

(17)上記実施形態においては、受信装置10のCPU11が実行する各音響処理に係るパラメータについて、デフォルト値データに基づいて初期値が設定されると共に、該初期値は歌唱者により再設定が可能である場合について説明した。しかし、それらパラメータの全てまたは複数についての設定値が書き込まれた複数のテンプレートを予め受信装置10のROM12またはRAM13に格納しておくと共に、操作部14には該テンプレートのいずれかを選択可能な操作子を設け、歌唱者によりいずれかのテンプレートが選択されると、該選択されたテンプレートに記された値が各パラメータに設定されるようにしても良い。その場合、各パラメータの初期値が制御データに代えて該テンプレートに基づいて設定されるとしても良いし、制御データに基づいて設定された初期値を該テンプレートに記された値に更新するようにしても良い。また、テンプレートに基づいて設定された値を更に操作部14の操作に基づいて更新可能であるようにしても良い。 (17) In the above embodiment, initial values are set based on default value data for parameters related to each acoustic process executed by the CPU 11 of the receiving device 10, and the initial values can be reset by the singer. The case where However, a plurality of templates in which setting values for all or a plurality of these parameters are written are stored in the ROM 12 or the RAM 13 of the receiving apparatus 10 in advance, and an operation for selecting one of the templates is performed on the operation unit 14. When a child is provided and one of the templates is selected by the singer, the values described in the selected template may be set for each parameter. In this case, the initial value of each parameter may be set based on the template instead of the control data, and the initial value set based on the control data is updated to the value described in the template. May be. The value set based on the template may be further updated based on the operation of the operation unit 14.

また、受信装置10がおかれた音響空間の特性に基づいて各パラメータの値が自動的に設定されるようにしても良い。上記音響空間の特性とは、例えば残響時間の長さ、音響空間の広がり(空間の体積)などである。
まず、残響時間の長さに基づいて各パラメータの値が設定される場合について説明する。受信装置10に、収音した音を表す音信号を生成するマイクロホンを設けると共に、ROM12またはRAM13に例えばインパルス音などの音データを格納しておく。そして、各パラメータの値を設定するにあたっては、上記インパルス音をスピーカ18に放音させ、上記マイクロホンで収音する。そして、該マイクロホンにより生成された音信号のレベルを経時的に測定し、レベルが所定の閾値を下回るのに要した時間(残響時間)を測定する。そして、ROM12またはRAM13には更に、残響時間に対して各パラメータの設定値が対応されて書き込まれたテーブルを格納しておき、該テーブルにおいて上記測定された残響時間と対応するパラメータの設定値が各パラメータに設定されるようにしても良い。
また、上記の構成において、音データを所定の周波数の音(例えば超音波)を表す音データとし、該音データを放音してから反射音がマイクロホンにより検出されるのに要した時間(反射時間)を測定することにより音響空間の広がり(体積)を見積もり、該音響空間の広がりに応じて各パラメータの値が設定されるようにしても良い。その場合、ROM12またはRAM13には、反射時間に対して、各パラメータの設定値が対応されて書き込まれたテーブルを格納しておき、該テーブルにおいて上記測定された反射時間と対応するパラメータの設定値が各パラメータに設定されるようにしても良い。
Further, the value of each parameter may be automatically set based on the characteristics of the acoustic space where the receiving device 10 is placed. The characteristics of the acoustic space include, for example, the length of reverberation time, the expansion of the acoustic space (space volume), and the like.
First, the case where the value of each parameter is set based on the length of reverberation time will be described. The receiving device 10 is provided with a microphone that generates a sound signal representing the collected sound, and sound data such as an impulse sound is stored in the ROM 12 or RAM 13. When setting the values of the parameters, the impulse sound is emitted to the speaker 18 and collected by the microphone. Then, the level of the sound signal generated by the microphone is measured over time, and the time (reverberation time) required for the level to fall below a predetermined threshold is measured. The ROM 12 or the RAM 13 further stores a table in which the setting values of each parameter are written corresponding to the reverberation time, and the parameter setting values corresponding to the measured reverberation time are stored in the table. You may make it set to each parameter.
In the above configuration, the sound data is sound data representing a sound of a predetermined frequency (for example, an ultrasonic wave), and the time required for the reflected sound to be detected by the microphone after the sound data is emitted (reflection) It is also possible to estimate the extent (volume) of the acoustic space by measuring (time) and set the values of the respective parameters according to the extent of the acoustic space. In that case, the ROM 12 or the RAM 13 stores a table in which the setting values of the respective parameters are written corresponding to the reflection time, and the parameter setting values corresponding to the measured reflection time in the table. May be set for each parameter.

また、受信装置10が再生する楽曲の特性に基づいて各パラメータの値が自動的に設定されるようにしても良い。上記楽曲の特性とは、楽曲のジャンルやテンポなどである。その場合、それらの楽曲の特性を示すデータを制御データに含ませておいて、受信装置10は、該制御データから楽曲の特性を判断するようにしても良いし、受信装置10は、受取った演奏データを解析することにより楽曲の特性を判断しても良い。受信装置10は、ROM12またはRAM13に、楽曲の特性と各パラメータを対応付けるテーブルを格納するか、楽曲の特性から各パラメータの値を算出するためのアルゴリズムを有する制御プログラムをROM12に格納し、上記特定された楽曲の特性と、上記テーブルまたはプログラムとから、各パラメータの値を算出し設定するようにしても良い。   Further, the value of each parameter may be automatically set based on the characteristics of the music reproduced by the receiving device 10. The characteristics of the music include the music genre and tempo. In that case, the data indicating the characteristics of the music may be included in the control data, and the receiving apparatus 10 may determine the characteristics of the music from the control data. You may judge the characteristic of a music by analyzing performance data. The receiving apparatus 10 stores a table that associates the characteristics of the music with each parameter in the ROM 12 or the RAM 13 or stores a control program having an algorithm for calculating the value of each parameter from the characteristics of the music in the ROM 12. The value of each parameter may be calculated and set from the characteristics of the music and the table or program.

(18)上記実施形態においては、配信装置20は、記憶部24に格納された楽曲データを読み出して配信する場合について説明した。しかし、配信装置20に複数のマイクロホンを設け、該マイクロホンの各々に各パートの音声を収音させ、該収音した音声を上記演奏データの各パートの代わりに用いても良い。そのようにすれば、受信装置10を利用する歌唱者に生演奏を配信する楽曲配信システムを実現することができる。
また、そのような場合、マイクロホンにより複数パートの音声データを生成する方法に代えて、配信装置20は複数の入力系統を備え、該複数の入力系統に対して、各種電子楽器などを接続することにより複数の系統の音声データの入力を受けても良い。
(18) In the above embodiment, the distribution device 20 has been described with respect to the case where the music data stored in the storage unit 24 is read and distributed. However, the distribution apparatus 20 may be provided with a plurality of microphones, each of the microphones may collect the sound of each part, and the collected sound may be used instead of each part of the performance data. If it does so, the music distribution system which distributes a live performance to the singer who uses the receiving apparatus 10 is realizable.
In such a case, instead of the method of generating audio data of a plurality of parts using a microphone, the distribution device 20 includes a plurality of input systems, and various electronic musical instruments are connected to the plurality of input systems. May receive a plurality of audio data inputs.

1…楽曲配信システム、10、10−1、10−2、10−3…受信装置、11…CPU、12…ROM、13…RAM、14…操作部、15…表示部、16…マイクロホン、17…音声処理部、17A…A/Dコンバータ、17B…D/Aコンバータ、17C…ミキサ、18…スピーカ、19…通信部、20…配信装置、21…CPU、22…ROM、23…RAM、24…記憶部、25…通信部、30…通信網、111…チャンネル選択部、112…ノーマライズ部、113…イコライザ、114…ノイズ除去部、115…コンプレッサ、116…アンプ DESCRIPTION OF SYMBOLS 1 ... Music distribution system 10, 10-1, 10-2, 10-3 ... Receiving device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Operation part, 15 ... Display part, 16 ... Microphone, 17 ... voice processing unit, 17A ... A / D converter, 17B ... D / A converter, 17C ... mixer, 18 ... speaker, 19 ... communication unit, 20 ... distribution device, 21 ... CPU, 22 ... ROM, 23 ... RAM, 24 DESCRIPTION OF SYMBOLS ... Memory | storage part, 25 ... Communication part, 30 ... Communication network, 111 ... Channel selection part, 112 ... Normalize part, 113 ... Equalizer, 114 ... Noise removal part, 115 ... Compressor, 116 ... Amplifier

Claims (9)

楽曲配信サーバ、および楽曲受信装置を有する楽曲配信システムにおいて、
前記楽曲配信サーバは、
前記楽曲受信装置から特定の楽曲データを指定する楽曲指定データを受信する受信手段と、
楽曲データを供給する供給手段と、
前記受信手段が受信した楽曲指定データにより指定された楽曲データを前記供給手段から供給を受け出力する出力手段と
を有し、
前記楽曲受信装置は、
前記楽曲指定データを前記楽曲配信サーバに送信する送信手段と、
前記出力手段から出力された楽曲データを受取る受取手段と、
前記受取手段が受取った楽曲データに含まれる1または複数のパートの演奏データについて、パラメータ値に基づいて音響処理を施す音響処理手段と、
前記楽曲データが示す楽曲の特性を判断する判断手段と、
前記パラメータ値を、前記判断手段により判断された前記楽曲の特性に基づいて、各演奏データの少なくとも1以上について個別に指定する指定手段と、
前記指定手段により指定されたパラメータ値に基づいて前記音響処理手段が音響処理を施した前記各パートの演奏データを再生する再生手段と
を有することを特徴とする楽曲配信システム。
In a music distribution system having a music distribution server and a music receiver,
The music distribution server is
Receiving means for receiving music designation data for designating specific music data from the music receiving device;
Supply means for supplying music data;
Output means for receiving and outputting the music data designated by the music designation data received by the receiving means from the supply means;
The music receiving device is:
Transmitting means for transmitting the music designation data to the music distribution server;
Receiving means for receiving the music data output from the output means;
Acoustic processing means for performing acoustic processing on performance data of one or more parts included in the music data received by the receiving means based on parameter values;
Judging means for judging the characteristics of the music indicated by the music data;
Designating means for individually designating the parameter value for at least one or more of each piece of performance data based on the characteristics of the music determined by the determining means;
A music distribution system comprising: reproduction means for reproducing the performance data of each part that has been subjected to acoustic processing by the acoustic processing means based on the parameter value designated by the designation means.
前記楽曲受信装置の前記判断手段は、前記受取手段により受け取られた前記楽曲データに含まれる演奏データを解析して前記楽曲の特性を判断する
ことを特徴とする請求項1に記載の楽曲配信システム。
2. The music distribution system according to claim 1, wherein the determination unit of the music reception device determines performance characteristics of the music by analyzing performance data included in the music data received by the reception unit. 3. .
前記楽曲配信サーバの前記出力手段は、出力する前記楽曲データの楽曲の特性を示す制御データを出力し、
前記楽曲受信装置の前記受取手段は、前記出力手段により出力された前記制御データを受け取り、
前記楽曲受信装置の前記判断手段は、前記受取手段により受け取られた前記制御データが示すものを前記楽曲の特性として判断する
ことを特徴とする請求項1に記載の楽曲配信システム。
The output means of the music distribution server outputs control data indicating the characteristics of the music of the music data to be output,
The receiving means of the music receiving device receives the control data output by the output means,
The music distribution system according to claim 1, wherein the determination unit of the music reception apparatus determines, as characteristics of the music, what the control data received by the reception unit indicates.
楽曲配信サーバ、および楽曲受信装置を有する楽曲配信システムにおいて、
前記楽曲配信サーバは、
前記楽曲受信装置から特定の楽曲データを指定する楽曲指定データを受信する受信手段と、
楽曲データを供給する供給手段と、
前記受信手段が受信した楽曲指定データにより指定された楽曲データを前記供給手段から供給を受け出力する出力手段と
を有し、
前記楽曲受信装置は、
前記楽曲指定データを前記楽曲配信サーバに送信する送信手段と、
前記出力手段から出力された楽曲データを受取る受取手段と、
前記受取手段が受取った楽曲データに含まれる1または複数のパートの演奏データについて、パラメータ値に基づいて音響処理を施す音響処理手段と、
自装置がおかれた音響空間の特性を測定する測定手段と、
前記パラメータ値を、前記測定手段により測定された前記音響空間の特性に基づいて、各演奏データの少なくとも1以上について個別に指定する指定手段と、
前記指定手段により指定されたパラメータ値に基づいて前記音響処理手段が音響処理を施した前記各パートの演奏データを再生する再生手段と
を有することを特徴とする楽曲配信システム。
In a music distribution system having a music distribution server and a music receiver,
The music distribution server is
Receiving means for receiving music designation data for designating specific music data from the music receiving device;
Supply means for supplying music data;
Output means for receiving and outputting the music data designated by the music designation data received by the receiving means from the supply means;
The music receiving device is:
Transmitting means for transmitting the music designation data to the music distribution server;
Receiving means for receiving the music data output from the output means;
Acoustic processing means for performing acoustic processing on performance data of one or more parts included in the music data received by the receiving means based on parameter values;
Measuring means for measuring the characteristics of the acoustic space in which the device is placed;
Designating means for individually designating at least one or more of each performance data based on the characteristics of the acoustic space measured by the measuring means;
A music distribution system comprising: reproduction means for reproducing the performance data of each part that has been subjected to acoustic processing by the acoustic processing means based on the parameter value designated by the designation means.
前記測定手段は、収音手段及び放音手段を有し、前記放音手段から放音したインパルス音を前記収音手段で収音した場合に、集音した当該インパルス音のレベルが閾値を下回るのに要した時間の長さを前記音響空間の特性として測定する
ことを特徴とする請求項4に記載の楽曲配信システム。
The measuring means has sound collecting means and sound emitting means, and when the impulse sound emitted from the sound emitting means is picked up by the sound collecting means, the level of the collected impulse sound falls below a threshold value. The music distribution system according to claim 4, wherein the length of time required for the measurement is measured as a characteristic of the acoustic space.
前記測定手段は、収音手段及び放音手段を有し、前記放音手段から所定の周波数の音を放音してから当該音を前記収音手段で収音するまでに要した時間の長さを前記音響空間の特性として測定する
ことを特徴とする請求項4に記載の楽曲配信システム。
The measurement means includes sound collection means and sound emission means, and a length of time required from the sound emission means to emit a sound of a predetermined frequency until the sound is collected by the sound collection means. The music distribution system according to claim 4, wherein the music is measured as a characteristic of the acoustic space.
楽曲データを受取る受取手段と、
前記受取手段が受取った楽曲データに含まれる1または複数のパートの演奏データについて、パラメータ値に基づいて音響処理を施す音響処理手段と、
前記楽曲データが示す楽曲の特性を判断する判断手段と、
前記パラメータ値を、前記判断手段により判断された前記楽曲の特性に基づいて、各演奏データの少なくとも1以上について個別に指定する指定手段と、
前記指定手段により指定されたパラメータ値に基づいて前記音響処理手段が音響処理を施した各演奏データを出力する出力手段と
を有することを特徴とする楽曲編集装置。
A receiving means for receiving music data;
Acoustic processing means for performing acoustic processing on performance data of one or more parts included in the music data received by the receiving means based on parameter values;
Judging means for judging the characteristics of the music indicated by the music data;
Designating means for individually designating the parameter value for at least one or more of each piece of performance data based on the characteristics of the music determined by the determining means;
A music editing apparatus comprising: output means for outputting each piece of performance data subjected to acoustic processing by the acoustic processing means based on the parameter value designated by the designation means.
楽曲データを受取る受取手段と、
前記受取手段が受取った楽曲データに含まれる1または複数のパートの演奏データについて、パラメータ値に基づいて音響処理を施す音響処理手段と、
自装置がおかれた音響空間の特性を測定する測定手段と、
前記パラメータ値を、前記測定手段により測定された前記音響空間の特性に基づいて、各演奏データの少なくとも1以上について個別に指定する指定手段と、
前記指定手段により指定されたパラメータ値に基づいて前記音響処理手段が音響処理を施した各演奏データを出力する出力手段と
を有することを特徴とする楽曲編集装置。
A receiving means for receiving music data;
Acoustic processing means for performing acoustic processing on performance data of one or more parts included in the music data received by the receiving means based on parameter values;
Measuring means for measuring the characteristics of the acoustic space in which the device is placed;
Designating means for individually designating at least one or more of each performance data based on the characteristics of the acoustic space measured by the measuring means;
A music editing apparatus comprising: output means for outputting each piece of performance data subjected to acoustic processing by the acoustic processing means based on the parameter value designated by the designation means.
コンピュータを、
楽曲データを受取る受取手段と、
前記受取手段が受取った楽曲データに含まれる1または複数のパートの演奏データについて、パラメータ値に基づいて音響処理を施す音響処理手段と、
前記楽曲データが示す楽曲の特性を判断する判断手段と、
前記パラメータ値を、前記判断手段により判断された前記楽曲の特性に基づいて、各演奏データの少なくとも1以上について個別に指定する指定手段と、
前記指定手段により指定されたパラメータ値に基づいて前記音響処理手段が音響処理を施した各演奏データを出力する出力手段
として機能させるためのプログラム。
Computer
A receiving means for receiving music data;
Acoustic processing means for performing acoustic processing on performance data of one or more parts included in the music data received by the receiving means based on parameter values;
Judging means for judging the characteristics of the music indicated by the music data;
Designating means for individually designating the parameter value for at least one or more of each piece of performance data based on the characteristics of the music determined by the determining means;
A program for causing the sound processing means to function as output means for outputting performance data subjected to sound processing based on the parameter value specified by the specifying means.
JP2012242105A 2012-11-01 2012-11-01 Music distribution system, music editing apparatus and program Expired - Fee Related JP5440677B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012242105A JP5440677B2 (en) 2012-11-01 2012-11-01 Music distribution system, music editing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012242105A JP5440677B2 (en) 2012-11-01 2012-11-01 Music distribution system, music editing apparatus and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007192357A Division JP2009031357A (en) 2007-07-24 2007-07-24 Music piece distribution system, music piece editing device, music piece playback device, music piece storage device, and program

Publications (2)

Publication Number Publication Date
JP2013061662A true JP2013061662A (en) 2013-04-04
JP5440677B2 JP5440677B2 (en) 2014-03-12

Family

ID=48186317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012242105A Expired - Fee Related JP5440677B2 (en) 2012-11-01 2012-11-01 Music distribution system, music editing apparatus and program

Country Status (1)

Country Link
JP (1) JP5440677B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006109233A (en) * 2004-10-07 2006-04-20 Toshiba Corp Digital radio broadcast receiver
JP2007005853A (en) * 2005-06-21 2007-01-11 Matsushita Electric Ind Co Ltd Voice decoder
JP2007178584A (en) * 2005-12-27 2007-07-12 Yamaha Corp Music data distributing method and device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006109233A (en) * 2004-10-07 2006-04-20 Toshiba Corp Digital radio broadcast receiver
JP2007005853A (en) * 2005-06-21 2007-01-11 Matsushita Electric Ind Co Ltd Voice decoder
JP2007178584A (en) * 2005-12-27 2007-07-12 Yamaha Corp Music data distributing method and device

Also Published As

Publication number Publication date
JP5440677B2 (en) 2014-03-12

Similar Documents

Publication Publication Date Title
Thompson Understanding audio: getting the most out of your project or professional recording studio
JP5258796B2 (en) System and method for intelligent equalization
US8838835B2 (en) Session terminal apparatus and network session system
JP2014071138A (en) Karaoke device
JP5585401B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, PROVIDING DEVICE, AND REPRODUCTION SYSTEM
JP2009060209A (en) Playback apparatus, program, and frequency characteristics adjustment method in the playback apparatus
WO2012081315A1 (en) Sound reproduction device, reproduction sound adjustment method, acoustic property adjustment device, acoustic property adjustment method, and computer program
JP2009031357A (en) Music piece distribution system, music piece editing device, music piece playback device, music piece storage device, and program
JP5459331B2 (en) Post reproduction apparatus and program
JP2005284049A (en) Information communication system, terminal device, host device for distribution, and program
JP5440677B2 (en) Music distribution system, music editing apparatus and program
JP4392040B2 (en) Acoustic signal processing apparatus, acoustic signal processing method, acoustic signal processing program, and computer-readable recording medium
JP5486456B2 (en) Karaoke system
JP2008309928A (en) Karaoke system, music piece distribution device and program
JP2014066922A (en) Musical piece performing device
JP6316099B2 (en) Karaoke equipment
JP5598722B2 (en) Audio reproduction device and reproduction sound adjustment method in audio reproduction device
JP5731661B2 (en) Recording apparatus, recording method, computer program for recording control, and reproducing apparatus, reproducing method, and computer program for reproducing control
JP6565554B2 (en) Karaoke system, server, karaoke equipment
JP4360212B2 (en) Karaoke equipment
JP2013047746A (en) Karaoke device
WO2022230450A1 (en) Information processing device, information processing method, information processing system, and program
JPWO2007132627A1 (en) Music search device, music search method, music search program, and recording medium storing music search program
JP6834398B2 (en) Sound processing equipment, sound processing methods, and programs
JP6819236B2 (en) Sound processing equipment, sound processing methods, and programs

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130416

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130813

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131202

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees