JP2004279462A - Karaoke machine - Google Patents

Karaoke machine Download PDF

Info

Publication number
JP2004279462A
JP2004279462A JP2003066904A JP2003066904A JP2004279462A JP 2004279462 A JP2004279462 A JP 2004279462A JP 2003066904 A JP2003066904 A JP 2003066904A JP 2003066904 A JP2003066904 A JP 2003066904A JP 2004279462 A JP2004279462 A JP 2004279462A
Authority
JP
Japan
Prior art keywords
karaoke
song
scoring
information
singer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003066904A
Other languages
Japanese (ja)
Other versions
JP4182782B2 (en
Inventor
Noriko Inaba
訓子 稲葉
Shingo Kamiya
伸悟 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2003066904A priority Critical patent/JP4182782B2/en
Publication of JP2004279462A publication Critical patent/JP2004279462A/en
Application granted granted Critical
Publication of JP4182782B2 publication Critical patent/JP4182782B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To indicate the level of singing skill of a male singer among a group of male singers who sung similarly a song of a female vocal. <P>SOLUTION: A database on a center server stores frequency distributions of scoring results by karaoke songs and by the genders. A karaoke machine 20 samples and compares a singing signal inputted from a microphone 220 with scoring reference data of a song to be played as a musical sound, and scores the singing of the singer to send its score information, gender information on the singer, and the song code to the center server. The center server accesses the database to calculate the population parameter and order of the gender from items indicated with the song code, gender information, and score information, and sends them back to the karaoke machine 20. The return results are displayed on a monitor 246. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、採点機能を有するカラオケ装置に関する。
【0002】
【従来の技術】
従来、カラオケの楽音演奏のみならず、そのカラオケ歌唱の巧拙を採点する機能を有するカラオケ装置が知られている。この採点機能は、歌唱をマイクによって電気信号に変換するとともに、この電気信号の周波数や振幅などが予め用意されたリファレンスに対してどれだけ偏位しているかを判断して得点を算出する、というものである。また、歌唱の巧拙は、曲によっても左右されるので、歌唱の技量を曲の難易度に応じて評価する技術も知られている(例えば、特許文献1参照)。
【0003】
【特許文献1】
特許第3264857号公報
【0004】
【発明が解決しようとする課題】
ところで、カラオケの楽しみ方は千差万別であり、例えば、女性ボーカルの曲を男性が歌唱する場合がある。このような場合、その男性は、自己の歌唱に対する採点結果を曲の難易度に応じて知ることができるものの、例えば、同じようにその曲を歌唱した男性グループの中では、どの程度のレベルにあるのかを知ることができないので、この点において、従来のカラオケ装置は、満足度に欠けるものであった。
本発明は、このような事情を考慮してなされたものであり、その目的とするところは、カラオケの採点方式に改善を加えて、より満足度の高めることが可能なカラオケ装置を提供することにある。
【0005】
【課題を解決するための手段】
上記目的を達成するために本発明に係るカラオケ装置は、カラオケ曲を演奏するための楽曲データと当該曲の採点基準データとを記憶する記憶手段と、前記記憶手段に記憶された楽曲データに基づいて楽音演奏をする演奏手段と、歌唱者の歌唱信号を入力する入力手段と、前記入力手段により入力された歌唱信号をサンプリングするとともに、楽音演奏する曲の採点基準データと比較して、当該歌唱者の歌唱を採点する採点手段と、複数のグループ毎に、かつ演奏曲毎に採点結果を蓄積するデータベースへのアクセスにより、前記採点手段による採点結果が、前記複数のグループのうち、一のグループであって、楽音演奏した曲において何番目であるかの情報を取得する取得手段と、前記取得手段により取得された情報に基づく順位を出力する出力手段とを具備することを特徴とする。本発明によれば、歌唱の採点結果は、グループの中の順位として出力される。
【0006】
【発明の実施の形態】
以下、本発明における一実施形態について図面を参照して説明する。図1は、本実施形態に係るカラオケ装置を含むカラオケシステムの構成を示すブロック図である。センターサーバ10は、採点機能を有する複数のカラオケ装置20に対してカラオケデータ等を、ネットワーク30を介して配信する。センターサーバ10には、データベース11が備えられ、各カラオケ装置20から収集された採点結果に関する情報が蓄積される。
【0007】
次に、データベース11に蓄積される情報について説明する。図2は、データベース11に蓄積される情報の内容を示す図である。この図に示されるように、データベース11には、センターサーバ10で配信するカラオケデータの曲コード毎に、当該カラオケ曲の採点結果の分布表が男女別に蓄積されている。なお、このデータベース11の蓄積内容は、後述するようにカラオケ装置20から採点結果が収集される毎に更新される。
【0008】
続いて、カラオケ装置20の構成について図3を参照して説明する。この図において、CPU210は、バス211を介して接続される装置各部を制御する。ROM212は、CPU210が実行する制御プログラムなどを記憶し、RAM214は、CPU210のワークエリアとして用いられる。記憶手段であるHDD(ハードディスクドライブ)216は、カラオケ演奏するためのカラオケデータの複数曲分と、複数の映像データとをそれぞれ記憶する。
ここで、カラオケデータは、センターサーバ10からネットワーク30を介して配信されたものであり、一曲分のカラオケデータは、さらに楽曲データと歌詞データと採点基準データとから構成される。このうち、楽曲データは、演奏進行に合わせて発生すべき楽音やその制御内容などを時系列に規定し、歌詞データは、演奏進行に合わせて表示すべき文字パターン(歌詞)や該文字パターンの色替わりなどを時系列に規定し、採点基準データは、歌唱を採点する際の基準として用いるために、曲の主旋律すなわち歌唱すべき旋律の周波数および音量を時系列に規定する。
また、映像データは、例えばMPEG形式で圧縮され、複数のカラオケ曲について共用され、あるいは、カラオケ曲毎に1対1に対応している。
操作部218は、文字キーや数字キーなど複数の操作キーを有し、ユーザによって操作された内容を示す信号をCPU210に出力する。この操作内容としては、例えばユーザによって指定された演奏すべきカラオケ曲の曲コードなどである。
【0009】
一方、マイク220は、歌唱者の音声を入力して、当該音声信号をミキサ222およびA/D変換器224にそれぞれ供給する。音源226は、CPU210により供給される楽曲データに基づいて楽音信号を生成し、これをミキサ222に供給する。ミキサ222は、マイク220により入力された音声信号と音源226によって生成された楽音信号とを合成する。合成された信号は、アンプ等(図示省略)によって、増幅されたり、適切なエフェクトが付与されたりした後、スピーカ228から出力される。
【0010】
A/D変換器224は、マイク220により入力されたアナログの音声信号をディジタル信号に変換する。音声処理部230は、第1に、ディジタル信号に変換された音声信号から、歌唱者の性別を判別し、第2に、ディジタル信号に変換された音声信号の周波数および音量(振幅)を、演奏曲に対応した採点基準データの周波数および音量とそれそれ比較して、各偏位量を算出し、第3に、判別した性別の情報および算出した偏位量をそれぞれCPU210に供給する。
なお、歌唱者の性別の判別方式には、例えば、予め定められた演奏地点の音声周波数が比較的高ければ(または、しきい値以上であれば)女性であると判別し、比較的低ければ(または、しきい値よりも小さければ)男性であると判別する。また、この実施形態では、採点対象を音高、音量としているため、音声信号の周波数、音量を採点基準データと比較しているが、リズムなどの要素を適宜追加して比較するようにしても良い。
【0011】
文字再生部240は、演奏の進行に合わせて供給された歌詞データにしたがって文字パターンを生成するとともに、該文字パターンを色替えして、表示制御部242に供給する。
映像再生部244は、CPU210により供給された映像データをデコード処理して、そのデコード信号を表示制御部242に供給する。
表示制御部242は、映像再生部244によるデコード信号に基づく映像に、文字再生部240から供給される文字パターンを合成するほか、CPU210によって作成された画面を、モニタ246が表示可能な形式(例えばNTSC)の画像信号に変換し、当該画像信号をモニタ246に供給する。モニタ246は、表示制御部242による画像信号に基づいて画像を表示する。ネットワークI/F250は、ネットワーク30に接続するためのものである。
【0012】
次に、上記構成からなるカラオケ装置20の動作を説明する。まず、ユーザが歌唱したい曲を選び、その曲コードを、操作部218を用いて入力すると、入力された曲コードを示す信号がCPU210に転送される。すると、CPU210は、当該曲コードに対応するカラオケデータをHDD216から読み出し、前者のカラオケデータをいったんRAM214にロードさせる。
CPU210は、この後、カラオケ演奏の開始を指示する。詳細には、CPU210は、ロードしたカラオケデータのうち、楽曲データを音源226に、歌詞データを文字再生部240に、採点基準データを音声処理部230に、それぞれカラオケの演奏進行に合わせて転送する。これにより、音源226は、楽曲データにしたがって楽音を発生・制御する一方、文字再生部240は、楽音の発生による演奏進行と同期して文字パターンを生成・色替えすることになる。
また、CPU210は、このカラオケデータの転送と並行して、ユーザにより入力された曲コードに対応する映像データをHDD216から読み出し、映像再生部244に供給し、映像再生部244は、当該映像データをデコード処理する。このため、モニタ246には、歌詞が、演奏進行と同期して表示・色替えされるとともに、曲に対応した映像が背景表示されることになる。
【0013】
一方、マイク220による歌唱者の音声信号は、A/D変換器224によってディジタル信号に変換されるとともに、音声処理部230に供給される。音声処理部230は、ディジタル信号に変換された音声信号から、歌唱者の性別を判別して、その性別情報をCPU210に供給し、CPU210は、当該性別情報をRAM214に記憶させる。音声処理部230は、また、ディジタル信号に変換された音声信号から、その周波数および音量を抽出するとともに、CPU210から演奏進行に同期して供給された採点基準データに含まれる周波数および音量と比較して、その偏位量を算出し、CPU210に返信する。このような偏位量の算出を、音声処理部230は、演奏開始から終了まで一定間隔(例えば150ミリ秒毎)に繰り返し実行する。
CPU210は、この返信された偏位量を累算して、RAM214に記憶させる。そして、CPU210は、楽曲データの最終部分まですべて転送すると、すなわち、カラオケ演奏が終了すると、当該累算値が小さいほど高い点数となるように得点を算出し、当該得点情報をRAM214に記憶させる。なお、カラオケ演奏が終了すると、モニタ246における歌詞および背景映像の表示も終了する。
さらに、CPU210は、当該得点情報、歌唱者の性別情報、演奏曲を示す曲コード、および、自己のカラオケ装置20を特定するためのID情報を、ネットワークI/F250およびネットワーク30を介してセンターサーバ10に送信する。
【0014】
センターサーバ10は、得点情報、性別情報、曲コードおよびID情報を受信すると、データベース11にアクセスして、当該曲コードに対応する度数分布表のうち、当該性別情報で示される性別であって、当該得点情報に対応する度数を「1」だけインクリメントする。例えば、受信した曲コードが「1000−01」であり、性別情報で示される性別が「男性」であり、得点情報で示される得点が10点満点中「8点」であったならば、図2において、当該度数を示す「53」を「54」に更新する。
このように、データベース11では、ネットワーク30に接続された装置のうち、あるひとつのカラオケ装置20において、ある曲の演奏が終了すると、当該曲の採点集計を示す度数分布のうち、当該採点による得点と歌唱者の性別とに対応した項目が逐次更新されることとなる。
【0015】、
次に、センターサーバ10は、更新後における度数分布の母数を求めるとともに、当該得点情報の同性中の順位を算出する。例えば、図2に示される内容の更新後であれば、母数を「1050」、順位を「58」と算出する。
そして、センターサーバ10は、算出した母数情報と順位情報とを、受信したID情報で特定されるカラオケ装置20に返信する。
【0016】
ID情報で特定されるカラオケ装置20が、センターサーバ10から母数情報と順位情報とを、ネットワークI/F250を介して受信すると、そのCPU210は、RAM214に記憶された得点情報および性別情報を読み出し、これらの情報のほか、受信した母数情報および順次情報を基づいて、例えば図4に示されるような画面情報を作成して、表示制御部242に供給する。
表示制御部242は、当該画面情報を画像信号に変換してモニタ246に供給するので、モニタ246では、図4に示されるような画面が表示されることとなる。
したがって、本実施形態のカラオケ装置20によれば、例えば男性が女性ボーカルの曲を歌唱した場合であっても、その歌唱の巧拙が、当該曲を過去に歌唱した男性グループの中で、どの程度のレベルであったのかを知ることができる。
【0017】
なお、上述した実施形態では、曲毎に採点した度数分布を、男性・女性の別で分類したが、本発明は、このような性別でグループ分けするほか、種々のグループ分けが可能である。
例えば、カラオケ装置20が設置される地域で分類する構成としても良い。カラオケ装置20では、得点情報を送信する際に、自己を特定するためのID情報も併せて送信するので、センターサーバ10において、予め区分けした地域とID情報との対応関係を示すテーブルを作成しておく一方、ID情報を受信したならば、当該テーブルを参照して、そのカラオケ装置の設置地域を求めれば、得点情報を地域毎に分類することができる。
カラオケ店が複数のカラオケ装置20を所有するのであれば、同様な構成を用いて、カラオケ店毎に、カラオケ店のフロアやテーマ毎に、などのように細分類化することもできる。
また、例えばポップス、演歌、アニメなどのようなジャンル別でグループを分類することもできるし、年代(年齢)別や、学生・社会人・主婦層の別など、様々なものが想定される。
【0018】
さらに、操作部218を用いて、歌唱者に予め分類されたグループを1以上選択させて、その選択されたグループのなかで、得点の順位を表示するようにしても良い。
また、複数のグループにおける順位を、順番に、または、一覧で表示するとしても良い。
【0019】
【発明の効果】
以上説明したように本発明によれば、ユーザの要望に応えて、ユーザをより満足させることが可能となる。
【図面の簡単な説明】
【図1】本発明の実施形態に係るカラオケ装置を含むシステム構成を示すブロック図である。
【図2】同システムにおけるデータベースの内容を示す図である。
【図3】同カラオケ装置の構成を示す図である。
【図4】同カラオケ装置の表示例を示す図である。
【符号の説明】
10…センターサーバ、11…データベース、20…カラオケ装置、30…ネットワーク、210…CPU(採点手段、取得手段)、216…HDD(記憶手段)、220…マイク(入力手段)、226…音源、230…音声処理部、250…ネットワークI/F
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a karaoke apparatus having a scoring function.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there is known a karaoke apparatus having a function of scoring the skill of karaoke singing as well as the performance of karaoke music. This scoring function converts the singing into an electric signal by a microphone and calculates the score by judging how much the frequency and amplitude of this electric signal deviate from a prepared reference. Things. In addition, since the skill of singing is also affected by the song, there is also known a technique for evaluating the singing skill according to the difficulty of the song (for example, see Patent Document 1).
[0003]
[Patent Document 1]
Japanese Patent No. 3264857
[Problems to be solved by the invention]
By the way, there are many different ways to enjoy karaoke. For example, there are cases where men sing songs of female vocals. In such a case, the man can know the scoring result for his singing according to the difficulty of the song, but for example, to what level in a group of men who sang the song in the same way In this respect, the conventional karaoke apparatus has been unsatisfactory because it is impossible to know whether there is any.
The present invention has been made in view of such circumstances, and an object of the present invention is to provide a karaoke apparatus capable of improving the karaoke scoring method and improving the satisfaction level. It is in.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, a karaoke apparatus according to the present invention has a storage means for storing music data for playing a karaoke tune and scoring reference data of the tune, and a karaoke apparatus based on the music data stored in the storage means. Playing means for performing a musical performance, input means for inputting a singing signal of a singer, sampling the singing signal input by the input means, and comparing the singing signal with the grading reference data of the tune to be played. Scoring means for scoring a singer's singing, and access to a database for accumulating the scoring results for each of a plurality of groups and for each music piece, so that the scoring result of the scoring means is one of the plurality of groups. Acquiring means for acquiring information on the number of the music played, and outputting a ranking based on the information acquired by the acquiring means. Characterized by comprising an output unit. According to the present invention, the singing scoring result is output as a ranking in the group.
[0006]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a karaoke system including the karaoke apparatus according to the present embodiment. The center server 10 distributes karaoke data and the like to a plurality of karaoke devices 20 having a scoring function via the network 30. The center server 10 is provided with a database 11, and stores information on the scoring results collected from each karaoke device 20.
[0007]
Next, information stored in the database 11 will be described. FIG. 2 is a diagram showing the contents of information stored in the database 11. As shown in this figure, a distribution table of the karaoke song scoring results for each gender is stored in the database 11 for each song code of the karaoke data distributed by the center server 10. Note that the accumulated contents of the database 11 are updated each time a grading result is collected from the karaoke apparatus 20 as described later.
[0008]
Next, the configuration of the karaoke apparatus 20 will be described with reference to FIG. In this figure, a CPU 210 controls each unit of the device connected via a bus 211. The ROM 212 stores a control program executed by the CPU 210 and the like, and the RAM 214 is used as a work area of the CPU 210. An HDD (hard disk drive) 216 as storage means stores a plurality of pieces of karaoke data for karaoke performance and a plurality of video data, respectively.
Here, the karaoke data is distributed from the center server 10 via the network 30, and the karaoke data for one song is further composed of song data, lyrics data, and scoring reference data. Among them, the music data defines the musical tones to be generated in accordance with the progress of the performance and the control contents thereof in chronological order, and the lyrics data includes the character patterns (lyrics) to be displayed in accordance with the progress of the performance and the character patterns of the character patterns. The color change and the like are defined in a time series, and the scoring reference data defines the main melody of the song, that is, the frequency and volume of the melody to be sung in a time series, so as to be used as a reference when singing.
The video data is compressed in, for example, the MPEG format and is shared by a plurality of karaoke songs, or one-to-one corresponds to each karaoke song.
The operation unit 218 has a plurality of operation keys such as character keys and numeric keys, and outputs a signal indicating the content operated by the user to the CPU 210. The content of the operation is, for example, a song code of a karaoke song to be played specified by the user.
[0009]
On the other hand, the microphone 220 inputs the voice of the singer and supplies the voice signal to the mixer 222 and the A / D converter 224, respectively. The sound source 226 generates a tone signal based on the music data supplied by the CPU 210 and supplies the tone signal to the mixer 222. The mixer 222 combines the audio signal input by the microphone 220 and the tone signal generated by the sound source 226. The synthesized signal is output from the speaker 228 after being amplified by an amplifier or the like (not shown) or given an appropriate effect.
[0010]
The A / D converter 224 converts an analog audio signal input by the microphone 220 into a digital signal. The voice processing unit 230 firstly determines the gender of the singer from the voice signal converted into the digital signal, and secondly, performs the frequency and volume (amplitude) of the voice signal converted into the digital signal Thirdly, the amount of deviation is calculated by comparing the frequency and volume of the scoring reference data corresponding to the music, and thirdly, information on the determined gender and the calculated amount of deviation are supplied to the CPU 210.
The gender of the singer is determined, for example, by determining that the voice frequency at the predetermined performance point is relatively high (or above a threshold value) and that the voice is female, and if the voice frequency is relatively low. It is determined that it is male (or if it is smaller than the threshold). Further, in this embodiment, since the scoring target is a pitch and a sound volume, the frequency and the sound volume of the audio signal are compared with the scoring reference data. good.
[0011]
The character reproducing unit 240 generates a character pattern according to the lyrics data supplied in accordance with the progress of the performance, changes the color of the character pattern, and supplies the character pattern to the display control unit 242.
The video reproduction unit 244 decodes the video data supplied from the CPU 210 and supplies the decoded signal to the display control unit 242.
The display control unit 242 combines the character pattern supplied from the character reproduction unit 240 with the video based on the decoded signal from the video reproduction unit 244, and also displays the screen created by the CPU 210 in a format that can be displayed by the monitor 246 (for example, (NTSC) image signal, and supplies the image signal to the monitor 246. The monitor 246 displays an image based on the image signal from the display control unit 242. The network I / F 250 is for connecting to the network 30.
[0012]
Next, the operation of the karaoke apparatus 20 having the above configuration will be described. First, when the user selects a song to be sung and inputs the song code using the operation unit 218, a signal indicating the input song code is transferred to the CPU 210. Then, the CPU 210 reads the karaoke data corresponding to the music code from the HDD 216, and temporarily loads the karaoke data into the RAM 214.
Thereafter, the CPU 210 instructs the start of the karaoke performance. Specifically, the CPU 210 transfers the song data of the loaded karaoke data to the sound source 226, the lyrics data to the character reproducing unit 240, and the scoring reference data to the audio processing unit 230 in accordance with the progress of the karaoke. . As a result, the sound source 226 generates and controls musical tones in accordance with the music data, while the character reproducing unit 240 generates and changes the color of the character pattern in synchronization with the progress of performance due to the generation of musical tones.
In parallel with the transfer of the karaoke data, the CPU 210 reads out video data corresponding to the music code input by the user from the HDD 216 and supplies the read video data to the video playback unit 244. Perform decoding processing. Therefore, the lyrics are displayed and changed in color on the monitor 246 in synchronization with the progress of the performance, and the video corresponding to the music is displayed in the background.
[0013]
On the other hand, the voice signal of the singer by the microphone 220 is converted into a digital signal by the A / D converter 224 and supplied to the voice processing unit 230. The voice processing unit 230 determines the gender of the singer from the voice signal converted into the digital signal, supplies the gender information to the CPU 210, and the CPU 210 stores the gender information in the RAM 214. The audio processing unit 230 also extracts the frequency and volume from the audio signal converted into the digital signal and compares the frequency and volume with the frequency and volume included in the scoring reference data supplied in synchronization with the progress of the performance from the CPU 210. Then, the deviation amount is calculated and returned to the CPU 210. The calculation of the amount of deviation is repeatedly performed by the sound processing unit 230 at regular intervals (for example, every 150 milliseconds) from the start to the end of the performance.
The CPU 210 accumulates the returned deviation amounts and stores the accumulated deviation amounts in the RAM 214. Then, when the whole of the music data is transferred to the final part, that is, when the karaoke performance is completed, the CPU 210 calculates a score such that the smaller the accumulated value is, the higher the score is, and stores the score information in the RAM 214. When the karaoke performance ends, the display of the lyrics and the background image on the monitor 246 also ends.
Further, the CPU 210 transmits the score information, the singer's gender information, the music code indicating the performance music, and the ID information for specifying the karaoke apparatus 20 of the user to the center server via the network I / F 250 and the network 30. Send to 10.
[0014]
When the center server 10 receives the score information, the gender information, the song code, and the ID information, the center server 10 accesses the database 11 and, in the frequency distribution table corresponding to the song code, the gender indicated by the gender information, The frequency corresponding to the score information is incremented by “1”. For example, if the received music code is “1000-01”, the gender indicated by the gender information is “male”, and the score indicated by the score information is “8” out of 10 points, In step 2, “53” indicating the frequency is updated to “54”.
As described above, in the database 11, when the performance of a certain song is completed in one of the karaoke devices 20 among the devices connected to the network 30, the score based on the score is selected from the frequency distribution indicating the totaling of the score of the song. And the items corresponding to the gender of the singer are updated sequentially.
[0015]
Next, the center server 10 calculates a parameter of the frequency distribution after the update, and calculates a rank of the score information in the same sex. For example, after updating the content shown in FIG. 2, the parameter is calculated as “1050” and the rank is calculated as “58”.
Then, the center server 10 returns the calculated parameter information and ranking information to the karaoke apparatus 20 specified by the received ID information.
[0016]
When the karaoke apparatus 20 specified by the ID information receives the parameter information and the ranking information from the center server 10 via the network I / F 250, the CPU 210 reads out the score information and the gender information stored in the RAM 214. For example, based on the received parameter information and the sequential information in addition to the above information, screen information as shown in FIG. 4 is created and supplied to the display control unit 242.
Since the display control unit 242 converts the screen information into an image signal and supplies the image signal to the monitor 246, a screen as shown in FIG. 4 is displayed on the monitor 246.
Therefore, according to the karaoke apparatus 20 of the present embodiment, for example, even when a male sings a song of a female vocal, the degree of skill of the singing is, to what extent, among male groups who have sung the song in the past. You can know what the level was.
[0017]
In the above-described embodiment, the frequency distribution scored for each music piece is classified according to male / female. However, in the present invention, various groupings are possible in addition to such gender.
For example, the karaoke apparatus 20 may be classified according to the area where the karaoke apparatus 20 is installed. When transmitting the score information, the karaoke apparatus 20 also transmits ID information for identifying itself, so that the center server 10 creates a table indicating the correspondence between pre-sorted areas and ID information. On the other hand, if the ID information is received and the installation area of the karaoke apparatus is determined with reference to the table, the score information can be classified for each area.
If the karaoke store has a plurality of karaoke devices 20, a similar configuration can be used to subdivide the karaoke stores into karaoke stores, karaoke store floors, themes, and the like.
Also, groups can be classified by genre, such as pops, enka, animation, etc., and various things such as by age (age) and by students, working adults, and housewives are possible.
[0018]
Furthermore, the singer may use the operation unit 218 to select one or more groups that have been classified in advance, and display the ranking of the scores in the selected groups.
Also, the ranks in a plurality of groups may be displayed in order or in a list.
[0019]
【The invention's effect】
As described above, according to the present invention, it is possible to satisfy the user in response to the user's request.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a system configuration including a karaoke apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram showing contents of a database in the system.
FIG. 3 is a diagram showing a configuration of the karaoke apparatus.
FIG. 4 is a diagram showing a display example of the karaoke apparatus.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Center server, 11 ... Database, 20 ... Karaoke apparatus, 30 ... Network, 210 ... CPU (scoring means, acquisition means), 216 ... HDD (storage means), 220 ... Microphone (input means), 226 ... Sound source, 230 ... Sound processing unit, 250 ... Network I / F

Claims (1)

カラオケ曲を演奏するための楽曲データと当該曲の採点基準データとを記憶する記憶手段と、
前記記憶手段に記憶された楽曲データに基づいて楽音演奏をする演奏手段と、
歌唱者の歌唱信号を入力する入力手段と、
前記入力手段により入力された歌唱信号をサンプリングするとともに、楽音演奏する曲の採点基準データと比較して、当該歌唱者の歌唱を採点する採点手段と、
複数のグループ毎に、かつ演奏曲毎に採点結果を蓄積するデータベースへのアクセスにより、前記採点手段による採点結果が、前記複数のグループのうち、一のグループであって、楽音演奏した曲において何番目であるかの情報を取得する取得手段と、
前記取得手段により取得された情報に基づく順位を出力する出力手段と
を具備することを特徴とするカラオケ装置。
Storage means for storing song data for playing a karaoke song and scoring reference data for the song;
Performance means for performing a musical performance based on the music data stored in the storage means,
Input means for inputting a singer's singing signal,
Sampling the singing signal input by the input means, and comparing it with the grading reference data of the music to be played, the scoring means to score the singer's singing,
By accessing a database that accumulates scoring results for each of a plurality of groups and for each music piece, the scoring result obtained by the scoring means is determined to be one of the plurality of groups. Acquisition means for acquiring information on whether the
Output means for outputting a ranking based on the information obtained by the obtaining means.
JP2003066904A 2003-03-12 2003-03-12 Karaoke equipment Expired - Fee Related JP4182782B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003066904A JP4182782B2 (en) 2003-03-12 2003-03-12 Karaoke equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003066904A JP4182782B2 (en) 2003-03-12 2003-03-12 Karaoke equipment

Publications (2)

Publication Number Publication Date
JP2004279462A true JP2004279462A (en) 2004-10-07
JP4182782B2 JP4182782B2 (en) 2008-11-19

Family

ID=33284672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003066904A Expired - Fee Related JP4182782B2 (en) 2003-03-12 2003-03-12 Karaoke equipment

Country Status (1)

Country Link
JP (1) JP4182782B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009205114A (en) * 2008-02-29 2009-09-10 Brother Ind Ltd Karaoke system, server, karaoke terminal and music piece proposal method
JP2011209608A (en) * 2010-03-30 2011-10-20 Xing Inc Karaoke device, musical piece reproduction method and computer program
JP2015197527A (en) * 2014-03-31 2015-11-09 株式会社エクシング Server device, program, ranking providing method and karaoke system
JP2018087995A (en) * 2018-01-30 2018-06-07 株式会社エクシング Server device, program, ranking providing method, and karaoke system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009205114A (en) * 2008-02-29 2009-09-10 Brother Ind Ltd Karaoke system, server, karaoke terminal and music piece proposal method
JP2011209608A (en) * 2010-03-30 2011-10-20 Xing Inc Karaoke device, musical piece reproduction method and computer program
JP2015197527A (en) * 2014-03-31 2015-11-09 株式会社エクシング Server device, program, ranking providing method and karaoke system
JP2018087995A (en) * 2018-01-30 2018-06-07 株式会社エクシング Server device, program, ranking providing method, and karaoke system

Also Published As

Publication number Publication date
JP4182782B2 (en) 2008-11-19

Similar Documents

Publication Publication Date Title
JP5958041B2 (en) Expression performance reference data generation device, performance evaluation device, karaoke device and device
JP2002023747A (en) Automatic musical composition method and device therefor and recording medium
JP4163584B2 (en) Karaoke equipment
US7667127B2 (en) Electronic musical apparatus having automatic performance feature and computer-readable medium storing a computer program therefor
JP6288197B2 (en) Evaluation apparatus and program
JP6102076B2 (en) Evaluation device
JP5428459B2 (en) Singing evaluation device
JP2007140165A (en) Karaoke device and program for karaoke device
JP5585144B2 (en) Karaoke device and program
JP2006251697A (en) Karaoke device
JP4182782B2 (en) Karaoke equipment
JP4211388B2 (en) Karaoke equipment
JP4182613B2 (en) Karaoke equipment
WO2019180830A1 (en) Singing evaluating method, singing evaluating device, and program
JP6219750B2 (en) Singing battle karaoke system
JP4218066B2 (en) Karaoke device and program for karaoke device
JP6073618B2 (en) Karaoke equipment
JP4218064B2 (en) Karaoke device and program for karaoke device
JPH11338480A (en) Karaoke (prerecorded backing music) device
JP2014066937A (en) Piano roll type musical score display device, piano roll type musical score display program, and piano roll type musical score display method
JP5551983B2 (en) Karaoke performance control system
JP6611633B2 (en) Karaoke system server
JP4218065B2 (en) Karaoke device and program for karaoke device
JP6514868B2 (en) Karaoke apparatus and karaoke scoring system
JP6065827B2 (en) Musical performance device and musical performance processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080812

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080825

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110912

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120912

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130912

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees