JP5772054B2 - Singing evaluation device - Google Patents

Singing evaluation device Download PDF

Info

Publication number
JP5772054B2
JP5772054B2 JP2011037285A JP2011037285A JP5772054B2 JP 5772054 B2 JP5772054 B2 JP 5772054B2 JP 2011037285 A JP2011037285 A JP 2011037285A JP 2011037285 A JP2011037285 A JP 2011037285A JP 5772054 B2 JP5772054 B2 JP 5772054B2
Authority
JP
Japan
Prior art keywords
parameters
data
song
pitch
singing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011037285A
Other languages
Japanese (ja)
Other versions
JP2012173624A (en
Inventor
隆一 成山
隆一 成山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2011037285A priority Critical patent/JP5772054B2/en
Publication of JP2012173624A publication Critical patent/JP2012173624A/en
Application granted granted Critical
Publication of JP5772054B2 publication Critical patent/JP5772054B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明は、歌唱評価装置に関する。   The present invention relates to a song evaluation apparatus.

カラオケ装置においては、歌唱者による歌唱の巧拙を採点する機能を備えるものがある。例えば特許文献1には、重み係数マップを用いて音程に関する得点を計算する方法が開示されている。また、特許文献2には、リファレンスデータと実際の歌唱におけるピッチデータとのズレに応じて音程に関する得点を計算する方法が開示されている。   Some karaoke apparatuses have a function of scoring the skill of singing by a singer. For example, Patent Document 1 discloses a method for calculating a score related to a pitch using a weight coefficient map. Patent Document 2 discloses a method for calculating a score related to a pitch according to a difference between reference data and pitch data in actual singing.

特開2004−184506号公報JP 2004-184506 A 特開2009−092871号公報JP 2009-092771 A

特許文献1や特許文献2に記載の技術では、歌唱の巧拙について採点が行われる際の基準が常に同一である。例えば楽曲のジャンルによる歌唱法の特徴の違い、或いは歌手毎の歌唱法における特徴の違い等によって、歌唱の巧拙について採点が行われる基準を異ならせたいという要望があっても、特許文献1や特許文献2に記載の技術によれば、常に単一の基準によって歌唱の巧拙が評価されてしまうため、歌唱者が採点結果に満足いかない場合がある。
本発明は上述の背景に鑑みてなされたものであり、歌唱の対象となる曲に対して予め決められた基準から乖離している度合いに基づき歌唱を評価するときの、その乖離の度合いをそれぞれの歌唱単位で変更可能にすることを目的とする。
In the techniques described in Patent Document 1 and Patent Document 2, the criteria for scoring the skill of singing are always the same. For example, even if there is a request for different criteria for scoring singing skills due to differences in the characteristics of the singing method depending on the genre of music, or differences in the characteristics of the singing method for each singer, Patent Document 1 and Patent According to the technique described in Document 2, since the skill of singing is always evaluated by a single criterion, the singer may not be satisfied with the scoring result.
The present invention has been made in view of the above-mentioned background, and the degree of divergence when singing is evaluated based on the degree of divergence from a predetermined criterion for a song to be sung, respectively. The purpose is to be able to change in units of singing.

上述した課題を解決するために、本発明は、歌唱者が曲を歌唱したときの音声を表す音声データを取得する音声データ取得手段と、ピッチ、音長、ビブラートの良し悪し、抑揚の有無、こぶしの有無、声質、息遣いのいずれか1について歌唱の対象となる曲に対して予め決められた基準から乖離している度合いである乖離度に応じて前記歌唱者の歌唱を評価するときの、当該乖離度を表す複数のパラメータのうち、2以上のパラメータを取得するパラメータ取得手段と、前記取得された2以上のパラメータを用いて、前記取得された音声データが表す音声による歌唱に対する評価結果を算出する算出手段とを備えることを特徴とする歌唱評価装置を提供する。 In order to solve the above-described problems, the present invention is a voice data acquisition means for acquiring voice data representing a voice when a singer sings a song, and whether pitch, sound length, vibrato is good, whether or not there is inflection, When evaluating the singing of the singer according to the degree of divergence, which is the degree of divergence from a predetermined criterion for the song to be sung with respect to any one of fist presence, voice quality, and breathing, among a plurality of parameters representing the discrepancy, a parameter acquisition means for obtaining two or more parameters, using two or more parameters the acquired, the evaluation results for the singing voice of the represented acquired voice data There is provided a singing evaluation device comprising a calculating means for calculating.

また、別の好ましい態様において、前記複数のパラメータのうち、2以上のパラメータを選択する操作を受け付ける操作手段を備え、前記パラメータ取得手段は、受け付けられた前記操作により選択された前記2以上のパラメータを取得する。 Moreover, in another preferable aspect, an operation unit that receives an operation of selecting two or more parameters from the plurality of parameters is provided, and the parameter acquisition unit includes the two or more parameters selected by the received operation. To get.

また、別の好ましい態様において、前記複数のパラメータは、歌唱される曲毎に決められた複数のパラメータ、前記曲が属するジャンル毎に決められた複数のパラメータ、または、特定の歌唱者毎に決められた複数のパラメータのうち、少なくともいずれかを含む。   In another preferred embodiment, the plurality of parameters are determined for each song sung, a plurality of parameters determined for each genre to which the song belongs, or determined for each specific singer. At least one of the plurality of parameters is included.

また、別の好ましい態様において、前記複数のパラメータのうち、2以上のパラメータを選択する操作を受け付ける操作手段を備え、前記複数のパラメータは、歌唱される曲毎に決められた複数のパラメータと、当該曲毎に決められたパラメータ以外の複数のパラメータを含み、前記パラメータ取得手段は、前記2以上のパラメータを選択する操作が受け付けられた場合には、当該操作により選択された前記2以上のパラメータを取得し、前記2以上のパラメータを選択する操作が受け付けられなかった場合には、前記曲毎に決められた複数のパラメータのうち、歌唱の対象となる曲について決められたパラメータを取得する。 Moreover, in another preferable aspect, it comprises an operation means for receiving an operation of selecting two or more parameters among the plurality of parameters, and the plurality of parameters includes a plurality of parameters determined for each song to be sung, includes a plurality of parameters other than the parameters determined for each the song, the parameter acquisition unit, when an operation of selecting the two or more parameters is accepted, the two or more parameters selected by the operation When the operation for selecting the two or more parameters is not accepted, the parameter determined for the song to be sung is acquired from the plurality of parameters determined for each song.

また、本発明は、コンピュータに、歌唱者が歌唱したときの音声を表す音声データを取得する音声データ取得機能と、歌唱の対象となる曲に対して予め決められた基準から乖離している度合いである乖離度に応じて前記歌唱者の歌唱を評価するときの、当該乖離度を表す複数のパラメータのうち、少なくともいずれか1のパラメータを取得するパラメータ取得機能と、前記取得されたパラメータを基準にして、前記取得された音声データが表す音声による歌唱に対する評価結果を算出する算出機能とを実現させるためのプログラムとしても提供し得る。   In addition, the present invention provides a computer with a voice data acquisition function for acquiring voice data representing a voice when a singer sings, and a degree of deviation from a predetermined criterion for a song to be sung. A parameter acquisition function for acquiring at least any one parameter among a plurality of parameters representing the degree of divergence when evaluating the song of the singer according to the degree of divergence, and the acquired parameter as a reference Thus, the program may be provided as a program for realizing a calculation function for calculating an evaluation result for a singing by voice represented by the acquired voice data.

本発明によれば、歌唱の対象となる曲に対して予め決められた基準から乖離している度合いである乖離度に応じて前記歌唱者の歌唱を評価するときの、当該乖離度を表すパラメータを変更可能となる。   According to the present invention, the parameter representing the degree of divergence when the singing of the singer is evaluated according to the degree of divergence that is the degree of divergence from a predetermined reference with respect to the song to be sung. Can be changed.

本発明の実施形態におけるシステムの構成図System configuration diagram of an embodiment of the present invention カラオケ装置のハードウェア構成を表すブロック図Block diagram showing hardware configuration of karaoke equipment 伴奏データ記憶領域の内容を表す模式図Schematic diagram showing the contents of the accompaniment data storage area パラメータデータ記憶領域の内容を表す模式図Schematic diagram showing the contents of the parameter data storage area 採点処理の具体例を説明する模式図Schematic diagram explaining a specific example of scoring process 採点処理が行われる際のフロー図Flow chart when scoring is performed 手動パラメータテーブルを表す模式図Schematic diagram showing the manual parameter table 地域別パラメータテーブル及び時間帯別パラメータテーブルを表す模式図Schematic diagram showing parameter table by region and parameter table by time zone カラオケ装置情報テーブル211を表す模式図Schematic diagram showing the karaoke device information table 211 ビブラートの評価値を算出する計算式を説明するための図Diagram for explaining the formula for calculating the evaluation value of vibrato

以下、本発明の一実施形態について説明する。
<実施形態>
<構成>
図1は、本発明の実施形態におけるシステムの構成を表した図である。
このシステムは、カラオケ装置100と、サーバ装置200と、ネットワークNWとを有する。カラオケ装置100は、ユーザからの要求に従ってカラオケ楽曲を再生するとともに、再生されるカラオケ楽曲についてのユーザによる歌唱を評価する装置である。ネットワークNWはLAN(Local Area Network)やインターネットであり、カラオケ装置100とサーバ装置200との間におけるデータ通信が行われる通信網である。サーバ装置200は、その内部あるいは外部に備えたHDD(Hard Disk Drive)等の記憶手段に、カラオケ楽曲に関するコンテンツデータ、及びカラオケ装置100がユーザによる歌唱を採点つまり歌唱を評価する際の基準となるパラメータデータ等を記憶しており、カラオケ装置100からの要求に従って、ネットワークNW経由でこのコンテンツデータ及びパラメータデータをカラオケ装置100に供給する装置である。ここで、コンテンツとは、カラオケ楽曲に関する音声と映像との組み合わせを指す。すなわち、コンテンツデータとは、主旋律の歌声が存在せず伴奏やコーラスで構成されたいわゆる伴奏データと、この楽曲の歌詞や歌詞の背景に表示する映像からなる映像データとから成り立っている。なお、サーバ装置200に対してカラオケ装置100は複数存在してもよい。また、カラオケ装置100に対してサーバ装置200が複数存在してもよい。
Hereinafter, an embodiment of the present invention will be described.
<Embodiment>
<Configuration>
FIG. 1 is a diagram showing the configuration of a system according to an embodiment of the present invention.
This system includes a karaoke device 100, a server device 200, and a network NW. The karaoke device 100 is a device that reproduces karaoke music according to a request from the user and evaluates the singing by the user about the karaoke music to be played. The network NW is a LAN (Local Area Network) or the Internet, and is a communication network in which data communication is performed between the karaoke apparatus 100 and the server apparatus 200. The server device 200 serves as a reference when the content data relating to karaoke music and the karaoke device 100 evaluate the singing by the user, that is, the singing, in storage means such as an HDD (Hard Disk Drive) provided inside or outside the server device 200. The device stores parameter data and the like, and supplies the content data and parameter data to the karaoke device 100 via the network NW in accordance with a request from the karaoke device 100. Here, the content refers to a combination of audio and video related to karaoke music. That is, the content data is composed of so-called accompaniment data composed of accompaniment and chorus without the main melodic singing voice, and video data composed of the lyrics displayed on the background of the music and the lyrics. Note that a plurality of karaoke apparatuses 100 may exist for the server apparatus 200. Further, a plurality of server devices 200 may exist for the karaoke device 100.

図2は、カラオケ装置100のハードウェア構成を表したブロック図である。
カラオケ装置100は、制御部10、記憶部20、操作部30、表示部40、通信制御部50、音声処理部60、マイクロホン61、及びスピーカ62を有し、これら各部がバス70を介して接続されている。制御部10は、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)等を有している。制御部10において、CPUが、ROMや記憶部20に記憶されているコンピュータプログラムを読み出しRAMにロードして実行することにより、カラオケ装置100の各部を制御する。また、制御部10は、サーバ装置200から供給されたパラメータデータのうち選択されたパラメータデータに従って採点することで、ユーザによる歌唱に対して評価を行う。
FIG. 2 is a block diagram showing the hardware configuration of the karaoke apparatus 100.
The karaoke apparatus 100 includes a control unit 10, a storage unit 20, an operation unit 30, a display unit 40, a communication control unit 50, an audio processing unit 60, a microphone 61, and a speaker 62, and these units are connected via a bus 70. Has been. The control unit 10 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. In the control unit 10, the CPU controls each unit of the karaoke apparatus 100 by reading out a computer program stored in the ROM or the storage unit 20, loading it into the RAM, and executing it. Moreover, the control part 10 evaluates with respect to the song by a user by scoring according to the parameter data selected among the parameter data supplied from the server apparatus 200. FIG.

操作部30は、各種の操作子を備え、ユーザによる操作内容を表す操作信号を制御部10に出力する。表示部40は、例えば液晶パネルを備え、制御部10による制御の下、各カラオケ楽曲に応じた歌詞テロップや背景映像等を表示する。通信制御部50は、カラオケ装置100とネットワークNWとを有線あるいは無線で接続し、ネットワークNWを介したカラオケ装置100とサーバ装置200との間のデータ通信を制御する。   The operation unit 30 includes various operators and outputs an operation signal representing the content of an operation performed by the user to the control unit 10. The display unit 40 includes, for example, a liquid crystal panel, and displays lyrics telops, background images, and the like corresponding to each karaoke piece under the control of the control unit 10. The communication control unit 50 connects the karaoke device 100 and the network NW by wire or wirelessly, and controls data communication between the karaoke device 100 and the server device 200 via the network NW.

サーバ装置200は、図示せぬCPUや各種メモリを備えたコンピュータであり、特にネットワークストレージ210を備えている。ネットワークストレージ210は例えばHDDであり、カラオケ楽曲のコンテンツデータ及びパラメータデータ等を記憶する。図2においてサーバ装置200は1つのネットワークストレージ210を備えているが、ネットワークストレージの数はこれに限ったものではなく、複数のネットワークストレージをサーバ装置200が備えてもよい。ユーザにより予約されたカラオケ楽曲のコンテンツデータがネットワークストレージ210に記憶されている場合、カラオケ装置100は、通信制御部50による制御に従ってサーバ装置200と通信を行い、ネットワークストレージ210から読み出されたコンテンツデータをネットワークNW経由でダウンロードしながら、ダウンロードが完了した部分から順次再生する、というストリーミング再生を行う。   The server device 200 is a computer including a CPU and various memories (not shown), and particularly includes a network storage 210. The network storage 210 is, for example, an HDD, and stores content data, parameter data, and the like of karaoke music. In FIG. 2, the server device 200 includes one network storage 210, but the number of network storages is not limited to this, and the server device 200 may include a plurality of network storages. When content data of a karaoke song reserved by the user is stored in the network storage 210, the karaoke device 100 communicates with the server device 200 according to control by the communication control unit 50, and content read from the network storage 210 While downloading data via the network NW, streaming playback is performed in which playback is performed sequentially from the part where the download is completed.

マイクロホン61は、収音した音声を表すアナログの音声信号を音声処理部60に出力する。音声処理部60は、A/D(Analog / Digital)コンバータを有し、マイクロホン61が出力したアナログの音声信号をデジタルの音声データに変換して制御部10に出力し、制御部10はこれを取得する。このように、制御部10はユーザ(歌唱者)が歌唱したときの音声を表す音声データを取得する音声取得手段として機能する。また、音声処理部60は、D/A(Digital / Analog)コンバータを有し、制御部10から受け取ったデジタルの音声データをアナログの音声信号に変換してスピーカ62に出力する。スピーカ62は、音声処理部60から受け取ったアナログの音声信号に基づく音を放音する。記憶部20は、各種のデータを記憶するための記憶手段であり、例えばHDDや不揮発性メモリである。記憶部20は、伴奏データ記憶領域21、映像データ記憶領域22、GM(Guide Melody)データ記憶領域23、ユーザ歌唱音声データ記憶領域24、及びパラメータ記憶領域25といった複数の記憶領域を備えている。   The microphone 61 outputs an analog audio signal representing the collected audio to the audio processing unit 60. The audio processing unit 60 includes an A / D (Analog / Digital) converter, converts the analog audio signal output from the microphone 61 into digital audio data, and outputs the digital audio data to the control unit 10. get. In this way, the control unit 10 functions as a voice acquisition unit that acquires voice data representing a voice when a user (singer) sings. The audio processing unit 60 includes a D / A (Digital / Analog) converter, converts digital audio data received from the control unit 10 into an analog audio signal, and outputs the analog audio signal to the speaker 62. The speaker 62 emits a sound based on the analog audio signal received from the audio processing unit 60. The storage unit 20 is a storage unit for storing various data, and is, for example, an HDD or a nonvolatile memory. The storage unit 20 includes a plurality of storage areas such as an accompaniment data storage area 21, a video data storage area 22, a GM (Guide Melody) data storage area 23, a user singing voice data storage area 24, and a parameter storage area 25.

図3は、伴奏データ記憶領域21の内容を表す模式図である。
伴奏データ記憶領域21には、各楽曲における伴奏の音声を表す伴奏データに関する情報が記憶されている。伴奏データ記憶領域21には、「曲番号」、「曲名」、「歌手名」、「ジャンル」、及び「ファイル格納場所」といった複数の項目からなる伴奏データレコードが複数記憶されている。「曲番号」は、楽曲を一意に識別するための番号であり、例えば4桁の親番号と2桁の枝番号とからなる。「曲名」は、各楽曲の名称を表す。「歌手名」は、各楽曲の歌い手の名称を表す。「ジャンル」は、予め決められた分類基準で分類された複数のジャンルのうち、各楽曲の属する音楽のジャンルを表す。「ファイル格納場所」は、各楽曲の伴奏データそのものであるデータファイルの格納場所を表し、server1又はserver2というフォルダを含む場合には伴奏データのデータファイルがサーバ装置200に格納されており、server1又はserver2というフォルダを含まない場合には伴奏データのデータファイルがカラオケ装置100に格納されていることを意味している。例えば図3において、曲名が「BBB」である楽曲は、伴奏データのデータファイルがサーバ装置200に格納されていることを表し、曲名が「CCC」である楽曲は、伴奏データのデータファイルがカラオケ装置100の記憶部20に格納されていることを表している。この伴奏データのデータファイルは、例えば、MIDI(Musical Instrument Digital Interface)形式のファイルである。
FIG. 3 is a schematic diagram showing the contents of the accompaniment data storage area 21.
The accompaniment data storage area 21 stores information related to accompaniment data representing accompaniment sound in each music piece. The accompaniment data storage area 21 stores a plurality of accompaniment data records including a plurality of items such as “song number”, “song name”, “singer name”, “genre”, and “file storage location”. “Song number” is a number for uniquely identifying a music piece, and is composed of, for example, a 4-digit parent number and a 2-digit branch number. “Song name” represents the name of each music piece. “Singer name” represents the name of each singer. “Genre” represents the genre of music to which each musical piece belongs among a plurality of genres classified according to a predetermined classification standard. The “file storage location” represents the storage location of the data file that is the accompaniment data itself of each musical piece. When a folder called server1 or server2 is included, the data file of the accompaniment data is stored in the server device 200. When the server2 folder is not included, it means that the accompaniment data file is stored in the karaoke apparatus 100. For example, in FIG. 3, a song whose song name is “BBB” indicates that a data file of accompaniment data is stored in the server device 200, and a song whose song name is “CCC” has a data file of accompaniment data as karaoke. It is stored in the storage unit 20 of the device 100. The accompaniment data file is, for example, a MIDI (Musical Instrument Digital Interface) format file.

映像データ記憶領域22には、各楽曲の歌詞を示す歌詞データ及び歌詞の背景に表示される背景映像を表す背景映像データが記憶されている。歌詞データによって示される歌詞は、カラオケ歌唱の際に、楽曲の進行に伴って歌詞テロップとして表示部40に表示される。また、背景映像データによって表される背景映像は、カラオケ歌唱の際に楽曲の進行に伴って歌詞テロップの背景として表示部40に表示される。GMデータ記憶領域23には、楽曲のボーカルパートのメロディを示すデータ、すなわち、歌唱すべき構成音の内容を指定するデータであるガイドメロディデータ(以下、GMデータという)が記憶されている。GMデータは、制御部10がユーザによる歌唱の巧拙を評価する際に比較の基準となるものである。GMデータは、例えば、MIDI形式により記述されている。ユーザ歌唱音声データ記憶領域24には、カラオケの対象となった各楽曲について、その伴奏データが再生されている期間中マイクロホン61によって収音されたユーザの歌唱音声が音声処理部60でデジタルデータに変換されることで生成された音声データが記憶される。この音声データをユーザ歌唱音声データという。このユーザ歌唱音声データは、例えば、WAVE(RIFF waveform Audio Format)形式のデータファイルとして記憶される。各楽曲についてのユーザ歌唱音声データは、制御部10によって、その楽曲のGMデータに対応付けられる。   The video data storage area 22 stores lyrics data indicating the lyrics of each song and background video data representing a background video displayed on the background of the lyrics. The lyrics shown by the lyrics data are displayed on the display unit 40 as lyrics telop as the music progresses during karaoke singing. In addition, the background video represented by the background video data is displayed on the display unit 40 as the background of the lyrics telop as the music progresses during karaoke singing. The GM data storage area 23 stores data indicating the melody of the vocal part of the music, that is, guide melody data (hereinafter referred to as GM data) that is data specifying the content of the constituent sound to be sung. The GM data serves as a reference for comparison when the control unit 10 evaluates the skill of singing by the user. The GM data is described in the MIDI format, for example. In the user singing voice data storage area 24, the user's singing voice collected by the microphone 61 during the period in which the accompaniment data is being reproduced for each piece of karaoke music is converted into digital data by the voice processing unit 60. Audio data generated by the conversion is stored. This voice data is called user singing voice data. This user singing voice data is stored as a data file in a WAVE (RIFF waveform Audio Format) format, for example. The user singing voice data for each song is associated with the GM data of the song by the control unit 10.

パラメータ記憶領域25には、前述したパラメータデータが複数種類記憶されている。これらのパラメータデータは、カラオケ装置100が予めサーバ装置200からネットワークNWを通じて取得したものである。カラオケ装置100は、一度ダウンロードしたパラメータデータについては、自装置内のパラメータ記憶領域25に記憶されたものを用いる。ユーザにより指定されたパラメータデータがパラメータ記憶領域25に記憶されていない場合、カラオケ装置100は、当該パラメータデータを、上述したようにサーバ装置200から取得する。パラメータデータの種類には、曲別、歌手別、ジャンル別という3種類があり、各パラメータデータには、少なくとも1つ以上の評価項目について採点に用いられる評価基準が含まれている。ユーザは、パラメータ記憶領域25に記憶されたパラメータデータ群から、操作部30を介して任意のパラメータデータを指定することで、カラオケ楽曲に合わせて歌唱を行う際の採点に用いられる評価基準を選択することが可能である。つまり、操作部30は、複数のパラメータのうち、少なくともいずれか1種類のパラメータを選択する操作を受け付ける操作手段として機能する。なお、カラオケ装置100においては、採点の方式に減点方式を採用している。ここで減点方式とは、あるカラオケ楽曲についてユーザが歌唱を開始した時点では満点から始まり(100点満点であれば100点)、ユーザによる歌唱が評価基準を満たさないときに、随時、制御部10によって減点が行われる、という方式である。   The parameter storage area 25 stores a plurality of types of parameter data described above. These parameter data are acquired in advance by the karaoke apparatus 100 from the server apparatus 200 through the network NW. The karaoke apparatus 100 uses the parameter data stored in the parameter storage area 25 in its own apparatus for the parameter data once downloaded. When the parameter data designated by the user is not stored in the parameter storage area 25, the karaoke apparatus 100 acquires the parameter data from the server apparatus 200 as described above. There are three types of parameter data: song-specific, singer-specific, and genre-specific, and each parameter data includes an evaluation criterion used for scoring at least one or more evaluation items. The user selects an evaluation criterion used for scoring when singing along with the karaoke music piece by specifying arbitrary parameter data from the parameter data group stored in the parameter storage area 25 via the operation unit 30. Is possible. That is, the operation unit 30 functions as an operation unit that receives an operation for selecting at least one of parameters from among a plurality of parameters. In the karaoke apparatus 100, a deduction method is adopted as a scoring method. Here, the deduction method starts from a full score when a user starts singing a certain karaoke piece (100 points if the score is 100), and the control unit 10 at any time when the singing by the user does not satisfy the evaluation criteria. This is a method in which a deduction is performed by.

図4は、パラメータ記憶領域25の内容を表す模式図である。パラメータ記憶領域25には、曲別パラメータテーブル25a、歌手別パラメータテーブル25b、及びジャンル別パラメータテーブル25cが含まれる。曲別パラメータテーブル25aには、「曲番号」、「曲名」、及び「ピッチ」といった複数の項目からなる曲別パラメータレコードが複数記述されている。「曲番号」及び「曲名」は、上述したとおりである。「ピッチ」は、制御部10が採点を行う際の評価項目であり、選択された楽曲のGMデータを比較の基準として、各々のノートを単位とした場合に、上下方向において音高のズレをどれだけ許容するかを表している。具体的には、例えば図4(a)における曲名「AAA」のカラオケ楽曲は、ピッチに関して「100セント(半音)」のズレを許容しており、ユーザの歌唱におけるピッチとGMデータにおけるピッチとのズレがこの基準値「100セント」を超えると、制御部10によって減点が行われることを意味している。例えば、曲名「AAA」のカラオケ楽曲をユーザが歌唱した際に、GMデータにおける或るノートが「C3」の音高であった場合、このノートについてのユーザの歌唱における音高が「C3#」から「C3♭」の範囲に収まらなかった場合に、制御部10は、このノートについて減点を行う。このようにして制御部10は、ユーザによる歌唱をその開始から終了まで減点方式により採点を行い、採点結果を表示部40に表示する。   FIG. 4 is a schematic diagram showing the contents of the parameter storage area 25. The parameter storage area 25 includes a song-specific parameter table 25a, a singer-specific parameter table 25b, and a genre-specific parameter table 25c. In the song parameter table 25a, a plurality of song parameter records including a plurality of items such as “song number”, “song name”, and “pitch” are described. The “song number” and “song name” are as described above. “Pitch” is an evaluation item when the control unit 10 performs scoring. When the GM data of the selected music piece is used as a reference for comparison and each note is used as a unit, a pitch deviation in the vertical direction is calculated. It shows how much is allowed. Specifically, for example, the karaoke song of the song name “AAA” in FIG. 4A allows a deviation of “100 cents (semitone)” with respect to the pitch, and the pitch between the user's singing and the pitch in the GM data If the deviation exceeds the reference value “100 cents”, it means that a deduction is performed by the control unit 10. For example, when a user sings a karaoke song having a song name “AAA”, if a note in the GM data has a pitch of “C3”, the pitch of the user's song for this note is “C3 #”. To “C3 ♭”, the control unit 10 deducts points for this note. In this way, the control unit 10 scores the singing by the user from the start to the end by the deduction method, and displays the scoring result on the display unit 40.

歌手別パラメータテーブル25bには、「歌手名」及び「ピッチ」といった複数の項目からなる歌手別パラメータレコードが複数記述されている。「歌手名」は、上述したとおりである。「ピッチ」は、制御部10が採点を行う際の評価項目であり、採点に用いられる評価基準として特定の「歌手名」の歌い手が選択された場合に、選択された楽曲のGMデータを比較の基準とし、各々のノートを単位として上下方向において音高のズレをどれだけ許容するかを表している。ジャンル別パラメータテーブル25cには、「ジャンル」及び「ピッチ」といった複数の項目からなるジャンル別パラメータレコードが複数記述されている。「ジャンル」は、上述したとおりである。「ピッチ」は、制御部10が採点を行う際の評価項目であり、採点に用いられる評価基準として「ジャンル」で示されるジャンルが選択された場合に、選択された楽曲のGMデータを比較の基準とし、各々のノートを単位として上下方向において音高のズレをどれだけ許容するかを表している。   In the singer-specific parameter table 25b, a plurality of singer-specific parameter records including a plurality of items such as “singer name” and “pitch” are described. The “singer name” is as described above. “Pitch” is an evaluation item when the control unit 10 performs scoring. When a singer of a specific “singer name” is selected as an evaluation standard used for scoring, the GM data of the selected music is compared. This represents how much pitch deviation is allowed in the vertical direction with each note as a unit. In the genre parameter table 25c, a plurality of genre parameter records including a plurality of items such as “genre” and “pitch” are described. The “genre” is as described above. “Pitch” is an evaluation item when the control unit 10 performs scoring. When a genre indicated by “genre” is selected as an evaluation standard used for scoring, the GM data of the selected music is compared. The reference indicates how much pitch deviation is allowed in the vertical direction with each note as a unit.

ユーザが操作部30を介していずれのパラメータデータも指定しない場合、制御部10は、予約された楽曲の曲名に対応する曲別パラメータデータを評価基準としてユーザの歌唱を採点する。一方、ユーザが操作部30を介していずれかのパラメータデータを指定した場合、制御部10は、指定されたパラメータデータを評価基準としてユーザの歌唱を採点する。例えばユーザが、図4における曲名「DDD」で示される楽曲を予約し、歌手名「ザ・○△」を採点に用いられる評価基準として指定した場合を考える。この場合、歌手名「ザ・○△」が評価基準としてユーザにより指定されているため、「150セント」迄の音高のズレは、制御部10によって減点の対象とされなくなる。一方、歌手名「ザ・○△」を評価基準として指定しない場合、制御部10は、曲別パラメータデータを評価基準としてユーザの歌唱を採点するため、図4に表されるように「50セント」の音高のズレしか許容しない。   When the user does not designate any parameter data via the operation unit 30, the control unit 10 scores the user's singing using the parameter data for each song corresponding to the reserved song title as an evaluation criterion. On the other hand, when the user designates any of the parameter data via the operation unit 30, the control unit 10 scores the user's song using the designated parameter data as an evaluation criterion. For example, consider a case where the user reserves a song indicated by the song name “DDD” in FIG. 4 and designates the singer name “The • Δ” as an evaluation criterion used for scoring. In this case, since the singer name “The ○” is designated by the user as the evaluation criterion, the pitch deviation up to “150 cents” is not subject to deduction by the control unit 10. On the other hand, in the case where the singer name “The XX” is not designated as an evaluation criterion, the control unit 10 scores the user's singing using the parameter data for each song as the evaluation criterion. Therefore, as shown in FIG. Only the pitch deviation of "" is allowed.

<動作>
次に、図5を用いて、制御部10による採点の考え方について説明を行う。
図5は、採点処理の具体例を説明する模式図である。図5において、横軸は時間を表し、図5中で左から右に進むほど時間が経過することを表している。また、縦軸は音高を表し、図5中で下から上に進むほど音高が高くなることを表している。縦軸の1つの目盛りは100セント(半音)の音高を意味している。つまり、例えば図5において、「C3」で示される領域の情報に位置する目盛りに対して1目盛り分だけ上方に位置する目盛りは、「C3#」の音高を表している。また、「C3」で示される領域の下方に位置する目盛りに対して1目盛り分だけ下方に位置する目盛りは、「C3♭」の音高を表している。また、図5において矩形の領域401〜403及び405〜407は、GMデータに基づくガイドメロディの音高を表している。例えば、図5に示される期間においては、C3の音高の音がT1の期間だけ続いた後に、E3の音高の音がT2の期間だけ続き、さらにその後G3の音高の音がT3の期間だけ続くと、T4の期間だけ無音の状態が続くといった具合である。また、実線300は、前述したユーザ歌唱音声データによって表されるユーザの歌唱時の音声の音高を表しており、以下、ユーザ歌唱音声曲線300という。
<Operation>
Next, the concept of scoring by the control unit 10 will be described with reference to FIG.
FIG. 5 is a schematic diagram for explaining a specific example of the scoring process. In FIG. 5, the horizontal axis represents time, and the time elapses from left to right in FIG. 5. The vertical axis represents the pitch, and the pitch increases as it progresses from bottom to top in FIG. One scale on the vertical axis means a pitch of 100 cents (semitone). That is, for example, in FIG. 5, the scale located one scale above the scale located in the area information indicated by “C3” represents the pitch of “C3 #”. Further, the scale located one scale below the scale located below the area indicated by “C3” represents the pitch of “C3 ♭”. In FIG. 5, rectangular areas 401 to 403 and 405 to 407 represent the pitches of the guide melody based on the GM data. For example, in the period shown in FIG. 5, the sound of the pitch of C3 lasts only for the period of T1, the sound of the pitch of E3 lasts for the period of T2, and then the sound of the pitch of G3 is the sound of T3. If it lasts only for a period, the silent state lasts for the period of T4. Moreover, the continuous line 300 represents the pitch of the audio | voice at the time of the user's song represented by the user song voice data mentioned above, and is hereafter called the user song voice curve 300. FIG.

制御部10は、ユーザ歌唱音声記憶領域24に記憶されたユーザ歌唱音声データと、このユーザ歌唱音声データに対応付けられたGMデータを取得する。また、制御部10は、複数のパラメータデータのうち、少なくともいずれか1のパラメータデータを取得する。GMデータは、上述したように、制御部10がユーザによる歌唱の巧拙を評価する際に比較の基準となるものであって、歌唱の対象となる曲に対して予め決められた基準である。一方、パラメータデータは、このGMデータから乖離している度合いを表す。例えば上述したように、パラメータデータにおいてピッチで「100セント」が設定されている場合、GMデータを基準として、上下「100セント」の音高のズレ(つまり乖離の度合い)が許容されることを表している。ここで制御部10が取得するパラメータデータは、カラオケ楽曲の予約時に、操作部30を介してユーザにより任意にパラメータデータが選択された場合、この選択されたパラメータデータであり、ユーザにより任意にパラメータデータが選択されなかった場合、歌唱の対象となった楽曲についての曲別のパラメータデータである。制御部10は、取得したユーザ歌唱音声データを解析し、このユーザ歌唱音声データに対応付けられたGMデータと比較して、取得したパラメータデータに基づいて評価項目に対しての評価値を算出する。この評価項目は、パラメータデータにおける評価項目であり、ここではピッチ(音高)の一致度である。   The control unit 10 acquires user singing voice data stored in the user singing voice storage area 24 and GM data associated with the user singing voice data. Moreover, the control part 10 acquires at least any one parameter data among several parameter data. As described above, the GM data serves as a reference for comparison when the control unit 10 evaluates the skill of singing by the user, and is a reference determined in advance for the song to be sung. On the other hand, the parameter data represents the degree of deviation from this GM data. For example, as described above, when “100 cents” is set as the pitch in the parameter data, the pitch deviation (that is, the degree of divergence) of “100 cents” above and below is allowed on the basis of the GM data. Represents. Here, the parameter data acquired by the control unit 10 is the selected parameter data when parameter data is arbitrarily selected by the user via the operation unit 30 when karaoke music is reserved. When no data is selected, it is parameter data for each piece of music that is the subject of singing. The control unit 10 analyzes the acquired user singing voice data, compares it with GM data associated with the user singing voice data, and calculates an evaluation value for the evaluation item based on the acquired parameter data. . This evaluation item is an evaluation item in the parameter data, and here is the degree of coincidence of pitch (pitch).

制御部10は、ユーザ歌唱音声を解析する手法として、FFT(Fast Fourier Transform)などを用いた周波数分析、音量分析などの公知の様々な手法を用い、評価項目について評価値、つまり評価結果を算出する。例えば、音高の一致度については、制御部10は、ユーザ歌唱音声データが示す音声のピッチの変化と、GMデータが示すガイドメロディのピッチの変化とを比較し、これらの一致の程度を示す評価値を算出する。評価値は、あるノートにおいて、双方のピッチの差がパラメータデータに基づいて許容された範囲内に収まっていれば100%(すなわち減点なし)であり、双方のピッチの差が上記範囲内に収まらない部分の期間が、GMデータにおいてこのノートにおける音長の半分に渡っていれば50%である、といった具合である。つまり、あるノートにおいて、双方のピッチの差が上記範囲内に収まる期間を、GMデータにおいてこのノートにおける音長で序した値を評価値とする。制御部10は、算出した評価値に基づいて減点するポイントを決定する。例えば、あるノートに「2点」のポイントが割り当てられているときに、評価値が50%と算出された場合、制御部10は、「1点」を減点のポイントとして決定する。   The control unit 10 uses various known methods such as frequency analysis using FFT (Fast Fourier Transform), volume analysis, and the like as a method for analyzing the user singing voice, and calculates an evaluation value for the evaluation item, that is, an evaluation result. To do. For example, for the pitch matching degree, the control unit 10 compares the change in the pitch of the voice indicated by the user singing voice data with the change in the pitch of the guide melody indicated by the GM data, and indicates the degree of the match. An evaluation value is calculated. The evaluation value is 100% (that is, there is no deduction) if the difference between the pitches of both notes falls within the allowable range based on the parameter data, and the difference between the two pitches does not fall within the above range. If the period of the non-existing portion is half of the note length in this note in the GM data, it is 50%. That is, in a certain note, a period in which the difference between both pitches is within the above range is set as an evaluation value in GM data, which is ordered by the note length in this note. The control unit 10 determines a point to be deducted based on the calculated evaluation value. For example, when “2 points” is assigned to a certain note and the evaluation value is calculated as 50%, the control unit 10 determines “1 point” as a deduction point.

例えば図5において、ユーザが、操作部30を介して曲名「AAA」である楽曲を予約し、採点に用いられる評価の基準としてジャンル「ロック」を選択したものとする。このとき、図4に示すように、曲名「AAA」の曲別パラメータデータでは「100セント」の音高のズレが許容されるが、ユーザによりジャンル別パラメータデータとして「ロック」が指定されたため、制御部10は、図4に示すように、採点に際して「200セント」の音高のズレを許容することとなる。上記の設定の下で、制御部10がユーザの歌唱を採点すると、次のような結果となる。まず、T1の期間では、ユーザ歌唱音声曲線300の終端部分においてガイドメロディ401と100セントの音高のズレが生じているが、評価の基準値は「200セント」の音高のズレであるため、制御部10による減点の対象とならない。次にT2の期間では、ユーザ歌唱音声曲線300の出だしにおいてガイドメロディ402と200セントの音高のズレが生じているが、制御部10は、「200セント」の音高のズレを許容するため、T2の期間においては減点を行わない。次に、T3の期間では、ユーザ歌唱音声曲線300の出だしにおいてガイドメロディ403と100セントの音高のズレが生じているが、ここにおいても、評価の基準値である「200セント」の音高のズレの許容範囲内に収まるため、制御部10による減点は行われない。   For example, in FIG. 5, it is assumed that the user reserves a song with the song name “AAA” via the operation unit 30 and selects the genre “Rock” as a reference for evaluation used for scoring. At this time, as shown in FIG. 4, although the pitch deviation of “100 cents” is allowed in the song-specific parameter data of the song name “AAA”, “lock” is designated as the genre-specific parameter data by the user. As shown in FIG. 4, the control unit 10 allows a pitch shift of “200 cents” when scoring. If the control part 10 scores a user's song under said setting, it will become the following results. First, during the period of T1, the pitch difference of 100 cents is generated between the guide melody 401 and the end point of the user singing voice curve 300, but the evaluation reference value is a pitch deviation of “200 cents”. This is not subject to deduction by the control unit 10. Next, in the period of T2, a deviation of the pitch of 200 cents from the guide melody 402 occurs at the start of the user singing voice curve 300, but the control unit 10 allows a deviation of the pitch of "200 cents". No deduction is performed during the period T2. Next, in the period of T3, the pitch of the guide melody 403 and the pitch of 100 cents is generated at the start of the user singing voice curve 300. Here, the pitch of “200 cents” which is the reference value of the evaluation is also obtained. Therefore, no deduction by the control unit 10 is performed.

そしてT4の無音期間を経て、T5の期間においては、ユーザ歌唱音声曲線300は、ガイドメロディ405と同じ高さの音高を保っているため、制御部10によって減点が行われない。次に、T6の期間においては、ユーザ歌唱音声曲線300の出だしにおいてガイドメロディ406と400セントの音高のズレが生じている。ここで、T6の期間において生じた400セントの音高のズレが、評価の基準値である「200セント」の音高のズレの許容範囲を超えるため、制御部10は、前述したようにして評価値を算出したうえで、この評価値に基づいて減点するポイントを決定する。そしてT7の期間では、ユーザ歌唱音声曲線300の出だしにおいてガイドメロディ407と200セントの音高のズレが生じているが、評価の基準値である「200セント」の音高のズレの許容範囲内であるため、制御部10による減点は行われない。   Then, after the silent period of T4, in the period of T5, the user singing voice curve 300 maintains the same pitch as the guide melody 405, so no deduction is performed by the control unit 10. Next, in the period of T6, the guide melody 406 and the pitch shift of 400 cents have arisen in the beginning of the user singing voice curve 300. FIG. Here, since the pitch deviation of 400 cents generated in the period of T6 exceeds the allowable range of the pitch deviation of “200 cents” that is the reference value of the evaluation, the control unit 10 performs as described above. After calculating the evaluation value, a point to be deducted is determined based on the evaluation value. In the period of T7, there is a pitch deviation of 200 cents from the guide melody 407 at the start of the user singing voice curve 300, but within the allowable range of the pitch deviation of "200 cents" which is the reference value for evaluation. Therefore, no deduction by the control unit 10 is performed.

図6は、採点処理が行われる際のフロー図である。操作部30を介してユーザにより楽曲が予約されると(ステップS100;Yes)、制御部10は、記憶部20から予約された楽曲の検索を行う(ステップS102)。具体的にはステップS102において、制御部10は、伴奏データ記憶領域21、映像データ記憶領域22、及びGMデータ記憶領域23の各々から、選択された楽曲の曲番号または曲名をキーにして、その楽曲に関するデータを検索し、検索結果のデータをRAMに読み込む。次にユーザにより操作部30を介してパラメータデータが選択されると(ステップS104;Yes)、制御部10は、パラメータ記憶領域25から、選択されたパラメータデータに相当するパラメータデータを検索し、検索結果のパラメータデータをRAMに読み込む(ステップS108)。一方、ユーザにより操作部30を介してパラメータデータの選択が為されなかった場合(ステップS104;No)、制御部10は、予約された楽曲の曲番号を検索キーとして設定する(ステップS106)。そして制御部10は、パラメータデータ記憶領域25から、検索キーに設定された曲番号に対応する曲別パラメータデータを評価基準として検索し、検索結果のパラメータデータをRAMに読み込む(ステップS108)。   FIG. 6 is a flowchart when the scoring process is performed. When the music is reserved by the user via the operation unit 30 (step S100; Yes), the control unit 10 searches for the reserved music from the storage unit 20 (step S102). Specifically, in step S102, the control unit 10 uses the song number or song name of the selected song from each of the accompaniment data storage area 21, the video data storage area 22, and the GM data storage area 23 as a key. Data related to the music is searched, and the search result data is read into the RAM. Next, when parameter data is selected by the user via the operation unit 30 (step S104; Yes), the control unit 10 searches the parameter storage area 25 for parameter data corresponding to the selected parameter data, and performs a search. The resulting parameter data is read into the RAM (step S108). On the other hand, when the parameter data is not selected by the user via the operation unit 30 (step S104; No), the control unit 10 sets the reserved song number as a search key (step S106). Then, the control unit 10 searches the parameter data storage area 25 using the song-specific parameter data corresponding to the song number set in the search key as an evaluation criterion, and reads the parameter data of the search result into the RAM (step S108).

ステップS108の次に、制御部10は、RAMに記憶された伴奏データ、映像データ、及びGMデータに基づいて、カラオケ楽曲の再生を行う(ステップS110)。具体的にはステップS110において、制御部10は、伴奏データ及びGMデータに基づく音声をスピーカ62から放音させるとともに、映像データに基づく映像を表示部40に表示させる。そして制御部10は、マイク61によって収音されたユーザの歌唱音声が音声処理部60によってデジタルのデータに変換されたものであるユーザ歌唱音声データを、ユーザ歌唱音声データ記憶領域24に記憶させる(ステップS112)。カラオケ楽曲の再生が終了すると、制御部10は、ユーザ歌唱音声データ記憶領域24に記憶されたユーザ歌唱音声データとRAMに記憶されたパラメータデータとに基づいて、歌唱の採点を行う(ステップS114)。そして制御部10は、採点結果を表示部40に表示させる(ステップS116)。   After step S108, the control unit 10 reproduces karaoke music based on the accompaniment data, video data, and GM data stored in the RAM (step S110). Specifically, in step S110, the control unit 10 causes the speaker 62 to emit sound based on the accompaniment data and the GM data, and causes the display unit 40 to display a video based on the video data. And the control part 10 memorize | stores in the user song voice data storage area 24 the user song voice data by which the user's song voice picked up by the microphone 61 is converted into digital data by the voice processing part 60 ( Step S112). When the reproduction of the karaoke music is finished, the control unit 10 scores the song based on the user song voice data stored in the user song voice data storage area 24 and the parameter data stored in the RAM (step S114). . And the control part 10 displays a scoring result on the display part 40 (step S116).

このように、本実施形態によれば、歌唱の対象となる曲に対して予め決められた基準から乖離している度合いである乖離度に応じて前記歌唱者の歌唱を評価するときの、当該乖離度を表すパラメータを変更可能にすることが可能となる。これにより、ユーザは、単一の評価基準に縛られることなく、各々の楽曲、ジャンルや歌手の特徴に合わせた評価基準を用いて歌唱を行うことが可能となり、採点結果に対してより高い満足度を得ることができる。   Thus, according to the present embodiment, when the song of the singer is evaluated according to the degree of divergence, which is the degree of divergence from a predetermined criterion for the song to be sung, It is possible to change a parameter representing the degree of deviation. This makes it possible for the user to perform singing using evaluation criteria tailored to the characteristics of each song, genre, and singer without being tied to a single evaluation criterion, and higher satisfaction with the scoring results. You can get a degree.

<変形例>
以上の実施形態は次のように変形可能である。尚、以下の変形例は適宜組み合わせて実施しても良い。
<Modification>
The above embodiment can be modified as follows. In addition, you may implement the following modifications suitably combining.

<変形例1>
実施形態においては、ユーザは複数の評価基準のうちいずれか一の評価基準を選択し、制御部10は、選択された一の評価基準に基づいた採点結果を表示部40に表示させていたが、ユーザが選択可能な評価基準は複数としてもよい。この場合、制御部10は、選択された各々の評価基準に基づいて採点を行い、各々の採点結果を並べて表示部40に表示させるようにしてもよい。このようにすれば、ユーザは、一度の歌唱で複数の評価結果を得ることで、評価の違いを楽しむことが可能となる。また、ここで制御部10は、複数の評価結果の平均値を評価結果として出力するようにしてもよい。このようにすれば、ユーザは、一度の歌唱で複数の評価基準が同時に反映された評価結果を得ることが出来、異なる評価基準をミックスさせて歌唱を評価させる、という楽しみ方が可能となる。
<Modification 1>
In the embodiment, the user selects any one of the plurality of evaluation criteria, and the control unit 10 causes the display unit 40 to display a scoring result based on the selected one evaluation criterion. The evaluation criteria that can be selected by the user may be plural. In this case, the control unit 10 may perform scoring based on each selected evaluation criterion, and display the scoring results side by side on the display unit 40. In this way, the user can enjoy the difference in evaluation by obtaining a plurality of evaluation results with a single singing. Here, the control unit 10 may output an average value of a plurality of evaluation results as an evaluation result. In this way, the user can obtain an evaluation result in which a plurality of evaluation criteria are reflected simultaneously in one singing, and can enjoy a way of evaluating the singing by mixing different evaluation criteria.

<変形例2>
実施形態においては、説明を簡易なものとするため、パラメータデータにおいて評価基準の評価項目とするものはピッチのズレのみとしていたが、評価項目はこれに限ったものではない。制御部10は、例えば他の評価基準として、各ノートを単位とした、発音タイミング、音長、ビブラートの良し悪し、抑揚の有無、こぶしの有無、声質、息遣いなど歌唱音声に関する内容であればどのような内容であっても評価項目とすることができる。具体的には、制御部10は、上記実施形態と同様に、上記の発音タイミング等について予め決められた基準を記憶しておき、ユーザの歌唱がその基準から乖離しているほど低い評価値を算出する、などの手法を採用すればよい。このようにすれば、ユーザは、複数の観点から自らの歌唱についての評価を得ることが可能となる。
<Modification 2>
In the embodiment, in order to simplify the explanation, the parameter data includes only the pitch deviation as the evaluation criterion evaluation item, but the evaluation item is not limited to this. For example, as another evaluation criterion, the control unit 10 may be any content related to the singing voice, such as pronunciation timing, tone length, vibrato quality, presence of inflection, presence of fist, voice quality, breathing, etc. Even such contents can be used as evaluation items. Specifically, as in the above embodiment, the control unit 10 stores a predetermined standard for the above-mentioned sound generation timing and the like, and a lower evaluation value as the user's song deviates from the standard. A method such as calculating may be employed. If it does in this way, it will become possible for a user to get evaluation about his song from a plurality of viewpoints.

<変形例3>
実施形態において、ユーザが操作部30を介して選択可能な評価基準は、サーバ装置200から受信する、曲別、歌手別、或いはジャンル別のパラメータデータから選択されていたが、パラメータデータの種類はこれに限ったものではない。例えばユーザが操作部30を介して、評価基準の厳しさの度合いを手動で設定可能としてもよい。この場合、例えばパラメータ記憶領域25に、手動パラメータテーブルなるものが含まれる。図7は、手動パラメータテーブル25dを表す模式図である。ユーザは、「易しい」、「普通」、及び「難しい」といった、複数の評価基準から任意のものを選択する。ここで、図7に表されるように、評価の基準がピッチに関するものであれば、「易しい」が選択された場合、音高のズレの許容範囲が最も大きなものとなり、「難しい」が選択された場合、音高のズレの許容範囲が最も小さなものとなり、「普通」が選択された場合、音高のズレの許容範囲が「易しい」と「難しい」の中間程度となる、といった具合である。このようにすれば、ユーザは、歌唱力に応じて評価基準を段階的に変更することが可能であるため、複数のユーザ間において歌唱の巧拙にバラつきがある場合でも、歌唱者の歌唱におけるレベルに応じて評価基準を設定したり、徐々に難易度を上げていく、という楽しみ方をすることが可能となる。
<Modification 3>
In the embodiment, the evaluation criteria that can be selected by the user via the operation unit 30 are selected from the parameter data for each song, each singer, or each genre received from the server device 200. It is not limited to this. For example, the user may be able to manually set the degree of severity of the evaluation criteria via the operation unit 30. In this case, for example, the parameter storage area 25 includes a manual parameter table. FIG. 7 is a schematic diagram showing the manual parameter table 25d. The user selects an arbitrary one from a plurality of evaluation criteria such as “easy”, “normal”, and “difficult”. Here, as shown in FIG. 7, if the evaluation criterion is related to pitch, when “easy” is selected, the allowable range of pitch deviation is the largest, and “difficult” is selected. If this is selected, the allowable range of pitch deviation will be the smallest, and if “Normal” is selected, the allowable range of pitch deviation will be between “Easy” and “Difficult”. is there. In this way, the user can change the evaluation standard step by step according to the singing ability, so even if the skill of the singing varies among multiple users, the level in the singing of the singer It is possible to enjoy the way of setting evaluation criteria according to the situation and gradually increasing the difficulty level.

また、例えばパラメータ記憶領域25は、地域別パラメータテーブルや時間帯別パラメータテーブルを備えていてもよい。図8は、地域別パラメータテーブル25e及び時間帯別パラメータテーブル25fを表す模式図である。例えば地域別パラメータテーブル25eの場合、特定の地域ごと(例えば、関東、関西、東北等)に、地域ごとの発音のニュアンスに対応したパラメータデータを対応付けるようにしてもよい。例えば、一般的に、標準語が浸透している関東地方と比較して、関西地方は独自の関西弁が根強く残っており、話す際に発音の抑揚が強い確率が高いことが考えられる。従ってこの場合、ピッチに関して、地域が「関西」のパラメータデータにおいて、地域が「関東」のパラメータデータよりも音高のズレの許容範囲を大きくすればよい。このようにすれば、地域ごとの方言による発音のニュアンスの違いが考慮された採点が行われるようになる。上記及び図8のパラメータデータの設定は一例であり、例えば「関東」「関西」を「100セント」に設定し、「東北」だけ「200セント」に設定することや、広域の分類(例:「東日本」や「西日本」)、又は細分化した地域ごとのパラメータデータを設定することが可能である。さらに、行政区分に基づく分類に限らず、本発明に合わせて予め決めた、方言を基準とした独自の地域分類に基づくパラメータデータを設定することも可能である。   For example, the parameter storage area 25 may include a regional parameter table or a time zone parameter table. FIG. 8 is a schematic diagram showing the regional parameter table 25e and the time zone parameter table 25f. For example, in the case of the regional parameter table 25e, parameter data corresponding to pronunciation nuances for each region may be associated with each specific region (for example, Kanto, Kansai, Tohoku, etc.). For example, compared to the Kanto region, where standard words have permeated, the Kansai region has a strong persistence of its own Kansai dialect, and there is a high probability of strong intonation when speaking. Therefore, in this case, regarding the pitch, in the parameter data in which the area is “Kansai”, the allowable range of pitch deviation may be set larger than in the parameter data in which the area is “Kanto”. In this way, scoring is performed in consideration of differences in pronunciation nuances according to dialects of each region. The setting of parameter data in the above and FIG. 8 is an example. For example, “Kanto” and “Kansai” are set to “100 cents”, only “Tohoku” is set to “200 cents”, and a wide area classification (example: It is possible to set parameter data for each of “Eastern Japan” and “Western Japan”) or subdivided regions. Furthermore, it is possible to set not only the classification based on the administrative division but also the parameter data based on the original regional classification based on the dialect determined in advance according to the present invention.

また、図8における時間帯別パラメータテーブル25fの場合、夜間から早朝にかけての時間帯及び朝から昼にかけての時間帯にかけては、ピッチに関して、音高のズレの許容範囲が大きくなっている。これは、以下のような考えによるものである。夜間から早朝にかけての時間帯では、ユーザがアルコールを摂取している確率が高く、このような場合、アルコールを摂取していないときと比較して歌唱力が落ちることが多いと考えられる。また、朝から昼にかけての時間帯についても、起床してあまり時間が経っていないユーザが多いことが考えられ、このような場合、起床後に一定の時間が経過したときと比較して声が出にくい状態であることが多いと考えられる。従って、ユーザが上記時間帯を評価基準として選択した場合、例えばピッチの評価項目については、上記時間帯以外の時間帯よりも音高のズレをより広く許容するようにすればよい。時間帯別のパラメータデータについては、ユーザが評価基準として「時間帯別」を選択するだけで、自動的にユーザが操作を行った時間帯が選択されるようにしてもよい。この場合、制御部10は、カラオケ装置100に備えられた計時機能から時間を取得し、取得した時間で時間帯別パラメータテーブル25fを検索することで、評価の基準値を取得する。上記及び図8のパラメータデータの設定は一例であり、例えば学生や主婦やお年寄りの多いと考えられる昼間の時間帯(例:12:00〜17:00)に対して、音高のズレをより広く許容する「300セント」と設定し、それ以外の時間帯を「100セント」と設定することが可能である。さらに、1日における時間帯についての設定に限らず、「平日」又は「週末」といった観点からの分類に基づく設定が行われてもよい。この場合、ユーザがアルコールを摂取している可能性が高い「週末」は、「平日」と比較して、音高のズレをより広く許容するように設定してもよい。このように、時間帯別パラメータは、設計者が設計において任意に設定可能である。   Further, in the time zone parameter table 25f in FIG. 8, the allowable range of pitch deviation is large with respect to the pitch in the time zone from night to early morning and in the time zone from morning to noon. This is based on the following idea. In the time zone from night to early morning, there is a high probability that the user is ingesting alcohol. In such a case, it is considered that the singing ability often falls compared to when the user is not ingesting alcohol. In addition, during the time period from morning to noon, it is possible that there are many users who have not woken up so much time. It is thought that it is often difficult. Therefore, when the user selects the time zone as an evaluation criterion, for example, for pitch evaluation items, it is only necessary to allow a wider pitch shift than time zones other than the time zone. As for the parameter data for each time zone, the user may automatically select the time zone for which the user has performed an operation only by selecting “by time zone” as the evaluation criterion. In this case, the control unit 10 acquires time from the timekeeping function provided in the karaoke apparatus 100, and acquires the evaluation reference value by searching the parameter table 25f for each time zone by the acquired time. The setting of the parameter data in the above and FIG. 8 is an example. For example, the pitch deviation is changed with respect to the daytime period (eg, 12: 00 to 17:00) that is considered to be a lot of students, housewives, and elderly people. It is possible to set “300 cents”, which is more widely permitted, and to set “100 cents” for other time zones. Furthermore, the setting based on the classification from the viewpoint of “weekdays” or “weekends” is not limited to the setting for the time zone in one day. In this case, the “weekend” in which the user is likely to be ingesting alcohol may be set so as to allow a wider pitch shift compared to “weekdays”. As described above, the time zone parameter can be arbitrarily set by the designer in the design.

<変形例4>
カラオケ装置100はサーバ装置200とネットワークNWにより接続されているが、このシステム構成を利用して次のようにしてもよい。サーバ装置200のネットワークストレージ210には、接続されるカラオケ装置100に関する情報(どの地域の、どの店舗に設定されているか等)が記憶されたカラオケ装置情報テーブル211が含まれているから、これを利用して、サーバ装置200が、カラオケ装置100が設置された地域や店舗に応じたパラメータデータをカラオケ装置100に配信するようにしてもよい。
<Modification 4>
The karaoke apparatus 100 is connected to the server apparatus 200 via the network NW, but this system configuration may be used as follows. The network storage 210 of the server device 200 includes a karaoke device information table 211 in which information related to the connected karaoke device 100 (in which region, in which store, etc.) is stored. By using the server device 200, the parameter data corresponding to the area or the store where the karaoke device 100 is installed may be distributed to the karaoke device 100.

図9は、カラオケ装置情報テーブル211を表す模式図である。「カラオケ装置ID」は、カラオケ装置の各々を一意に識別する識別子であり、例えば7桁のアルファベットで表される。「地域」は、対応付けられたカラオケ装置IDを保持するカラオケ装置100が設置された地域を表す。「店舗種別」は、対応付けられたカラオケ装置IDを保持するカラオケ装置100が設置された店舗の種別を表す。サーバ装置200は、NWを通じて接続されたカラオケ装置100からカラオケ装置IDを取得する。そしてサーバ装置200は、取得したカラオケ装置IDを用いてカラオケ装置情報テーブル211を検索することで、各々のカラオケ装置が設置された地域及び店舗種別に関する情報を得ることが出来る。このようにすれば、サーバ装置200は、接続される全てのカラオケ装置100に対して、一律、同一のパラメータデータを配信する場合と比較して、カラオケ装置100の設置された地域や店舗ごとの特徴に合わせて、各々異なるパラメータデータを配信することが可能となる。これにより、地域の特色や店舗種別の違い(カラオケ店、スナック等)に応じて適切なパラメータデータを配信可能となる。ここで、地域の特色は上述したとおりである。店舗種別の違いについては、例えばスナックであれば、利用客はアルコールを摂取している可能性が高いから、カラオケ店と比較して、ピッチのズレの許容範囲が大きなパラメータデータが配信されるようにすればよい。また、このようにすれば、サーバ装置200が必要なデータのみを送信することで配信対象のデータ量が縮小し、ネットワークNWの負荷を軽減すると共に、カラオケ装置100の記憶部20が記憶するデータ量を低減することで記憶部20の記憶容量を有効活用することが可能となる。   FIG. 9 is a schematic diagram illustrating the karaoke apparatus information table 211. “Karaoke device ID” is an identifier for uniquely identifying each karaoke device, and is represented by, for example, a seven-digit alphabet. “Region” represents an area where the karaoke apparatus 100 that holds the associated karaoke apparatus ID is installed. “Store type” represents the type of the store in which the karaoke apparatus 100 that holds the associated karaoke apparatus ID is installed. The server device 200 acquires the karaoke device ID from the karaoke device 100 connected through the NW. And the server apparatus 200 can acquire the information regarding the area | region and each shop type in which each karaoke apparatus was installed by searching the karaoke apparatus information table 211 using acquired karaoke apparatus ID. If it does in this way, compared with the case where the server apparatus 200 delivers the same parameter data uniformly with respect to all the connected karaoke apparatuses 100, the area where each karaoke apparatus 100 is installed, and every store Different parameter data can be distributed according to the characteristics. This makes it possible to distribute appropriate parameter data according to regional characteristics and store type differences (karaoke stores, snacks, etc.). Here, the regional features are as described above. As for the difference in store type, for example, if it is a snack, it is likely that the user is ingesting alcohol, so parameter data with a large allowable range of pitch deviation will be delivered compared to karaoke stores You can do it. In this way, the server device 200 transmits only necessary data, thereby reducing the amount of data to be distributed, reducing the load on the network NW, and storing data stored in the storage unit 20 of the karaoke device 100. By reducing the amount, the storage capacity of the storage unit 20 can be used effectively.

<変形例5>
実施形態において、減点するポイント(すなわち評価結果)を算出するための計算式が設けられる場合、制御部10によって、この計算式で用いられる係数や閾値がパラメータデータに応じて変更されるようにしてもよい。この場合、各パラメータテーブルにはピッチに関する許容範囲といった基準値だけではなく、上記の係数や閾値そのものも格納される。そして、制御部10は、評価基準として選択されたパラメータデータに含まれる係数や閾値を上述の計算式に用いて、評価結果を算出する。
<Modification 5>
In the embodiment, when a calculation formula for calculating a point to be deducted (that is, an evaluation result) is provided, the control unit 10 changes the coefficient and threshold used in the calculation formula according to the parameter data. Also good. In this case, each parameter table stores not only a reference value such as an allowable range related to pitch, but also the above-described coefficient and threshold value itself. And the control part 10 calculates an evaluation result, using the coefficient and threshold value which are contained in the parameter data selected as evaluation criteria for the above-mentioned calculation formula.

変形例5の具体例として、例えばビブラートに関する計算式を用いる例を考える。
図10は、ビブラートの評価値を算出する計算式を説明するための図である。図10において、横軸は時間を表し、図10中で左から右に進むほど時間が経過することを表している。また、縦軸は音高を表し、図10中で下から上に進むほど音高が高くなることを表している。実線で表されたガイドメロディGMは、ガイドメロディの音高を表している。曲線で表されたユーザ歌唱音声曲線500は、ユーザの歌唱による音声の音高を表す。縦方向の矢印で表されたピークピッチ幅p1及びp2は、ユーザ歌唱音声曲線500における音高のピーク間の、音の高さ方向における幅であって、ユーザの歌唱におけるビブラートの音高の振れ幅を表している。横方向の矢印で表されたピーク時間幅t1及びt2は、ユーザ歌唱音声曲線500における音高のピーク間の、時間方向における幅であって、ユーザの歌唱におけるビブラートの期間を表している。
As a specific example of the modified example 5, consider an example using a calculation formula related to vibrato, for example.
FIG. 10 is a diagram for explaining a calculation formula for calculating the evaluation value of vibrato. In FIG. 10, the horizontal axis represents time, and the time elapses from left to right in FIG. 10. The vertical axis represents the pitch, and the pitch increases as it progresses from bottom to top in FIG. A guide melody GM represented by a solid line represents the pitch of the guide melody. A user singing voice curve 500 represented by a curve represents the pitch of the voice of the user singing. The peak pitch widths p1 and p2 represented by the vertical arrows are widths in the pitch direction between the peak of the pitch in the user singing voice curve 500, and the fluctuation of the vibrato pitch in the user's singing. Represents the width. Peak time widths t1 and t2 represented by arrows in the horizontal direction are widths in the time direction between pitch peaks in the user singing voice curve 500, and represent the period of vibrato in the user singing.

ここで、ピークピッチ幅p1〜pnの分散をVpとし、ピーク時間幅t1〜tnの分散をVtとして、Vpに乗算するピッチ係数をα、Vtに乗算する時間係数をβ、閾値をkとしたときに、ビブラートの巧拙判定における数式は以下の数1で表される。ピッチ係数α、時間係数β及び閾値kは、上述したパラメータデータに含まれる閾値の一つである。ピッチ係数α及び時間係数βは、曲別、歌手別、ジャンル別等の違いによって異なる値であり、ピッチ係数αと時間係数βとの和は1.0である。

Figure 0005772054
Here, the dispersion of the peak pitch widths p1 to pn is Vp, the dispersion of the peak time widths t1 to tn is Vt, the pitch coefficient to be multiplied by Vp is α, the time coefficient to be multiplied by Vt is β, and the threshold is k. Sometimes, the formula for vibrato skill determination is expressed by the following equation (1). The pitch coefficient α, the time coefficient β, and the threshold value k are one of the threshold values included in the parameter data described above. The pitch coefficient α and the time coefficient β are different values depending on differences in music, singer, genre, etc., and the sum of the pitch coefficient α and the time coefficient β is 1.0.
Figure 0005772054

数1において、左辺の値が右辺における閾値kよりも小さいときに、制御部10は、ビブラートの巧拙が良好であると判定する。一方、数1において、左辺の値が右辺における閾値kよりも大きいときに、制御部10は、ビブラートの巧拙が不良であると判定する。Vpはピークピッチ幅の分散であるから、値が大きいほど、音高方向におけるビブラートのピーク同士の間隔にばらつきが多いことを表し、値が小さいほど、音高方向におけるビブラートのピーク同士の間隔にばらつきが少ないことを表している。また、Vtは、ピーク時間幅の分散であるから、値が大きいほど、時間方向におけるビブラートのピーク同士の間隔にばらつきが多いことを表し、値が小さいほど、時間方向におけるビブラートのピーク同士の間隔にばらつきが少ないことを表している。   In Expression 1, when the value on the left side is smaller than the threshold value k on the right side, the control unit 10 determines that the vibrato skill is good. On the other hand, in Equation 1, when the value on the left side is larger than the threshold value k on the right side, the control unit 10 determines that the vibrato skill is poor. Since Vp is the dispersion of the peak pitch width, the larger the value, the greater the variation in the interval between the vibrato peaks in the pitch direction, and the smaller the value, the greater the interval between the vibrato peaks in the pitch direction. It shows that there is little variation. Further, Vt is the dispersion of the peak time width, so that the larger the value, the greater the variation in the interval between the vibrato peaks in the time direction, and the smaller the value, the interval between the vibrato peaks in the time direction. This means that there is little variation.

例えばユーザが、歌手別パラメータデータで歌手名「ザ・○△」を選択した場合を考える。歌手「ザ・○△」が歌唱したときのビブラートにおいては、音高の振れ幅がダイナミックで音高方向にバラつきが多い一方、時間方向の揺れは比較的正確でバラつきが少なかったとする。この場合、歌唱評価装置の設計時において、「α<β」となるように各々の係数が設定される。このようにすれば、制御部10により、歌手「ザ・○△」の特徴にあった歌唱法が、より高く採点され易くなる。   For example, let us consider a case where the user selects the singer name “The △” from the singer-specific parameter data. It is assumed that the vibrato when the singer “The △△” sings has a dynamic pitch range with a large variation in the pitch direction, while a fluctuation in the time direction is relatively accurate and has a small variation. In this case, each coefficient is set so that “α <β” when the singing evaluation apparatus is designed. If it does in this way, the singing method according to the characteristic of the singer "The * △" will be more highly scored by the control unit 10.

また、例えばビブラートに加えて、ピッチ及び発音タイミングを採点の対象とした場合、ピッチに関する採点結果をPitchとし、ビブラートに関する採点結果をVibとし、発音タイミングに関する採点結果をTimingとして、Pitchに乗算するピッチ採点係数をγ、Vibに乗算するビブラート採点係数をδ、Timingに乗算する発音タイミング採点係数をε、得点をPtとしたときに、得点Ptを算出する数式は以下の数2で表される。ここで、ピッチ採点係数γ、ビブラート採点係数δ、及び発音タイミング採点係数εの総和は1.0である。

Figure 0005772054
Also, for example, in addition to vibrato, when pitch and pronunciation timing are to be scored, the pitch score is multiplied by Pitch, the score result for pitch is Vib, the score result for vibrato is Vib, and the score result for pronunciation timing is Timing. The mathematical expression for calculating the score Pt is expressed by the following equation (2), where γ is the scoring coefficient, δ is the vibrato scoring coefficient that multiplies Vib, ε is the pronunciation timing scoring coefficient that multiplies Timing, and Pt is the score. Here, the sum total of the pitch scoring coefficient γ, the vibrato scoring coefficient δ, and the pronunciation timing scoring coefficient ε is 1.0.
Figure 0005772054

例えばユーザが、歌手別パラメータデータで歌手名「山○タロウ」を選択した場合を考える。歌手「山○タロウ」は、その歌唱において、ピッチが比較的正確であり、ビブラートは音高方向にバラつきが大きいため綺麗なビブラートとは言えず、発音タイミングは遅れ気味であったとする。このような場合、歌唱評価装置の設計時において、「δ<ε<γ」若しくは「ε<δ<γ」となるように各々の係数が設定される。このようにすれば、制御部10により、歌手「山○タロウ」の特徴にあった歌唱法が、より高く採点され易くなる。   For example, consider a case where the user selects the singer name “Yama * Taro” in the parameter data for each singer. It is assumed that the singer “Yama * Taro” has a relatively accurate pitch in the singing and vibrato has a large variation in the pitch direction, so it cannot be said to be a beautiful vibrato and the pronunciation timing seems to be delayed. In such a case, each coefficient is set so that “δ <ε <γ” or “ε <δ <γ” at the time of designing the singing evaluation apparatus. If it does in this way, the singing method in accordance with the characteristics of the singer “Yama ○ Taro” will be more highly scored by the control unit 10.

<変形例6>
実施形態において、記憶部20がパラメータデータ記憶領域25を備えることで、制御部10は、このパラメータデータ記憶領域25からパラメータデータを取得していたが、これに限らず、記憶部20がパラメータデータ記憶領域25を備えずに、制御部10は、必要なパラメータデータを例えばコンテンツデータを受信する前後のタイミングでサーバ装置200から受信して取得するようにしてもよい。この場合、制御部10は、サーバ装置200がパラメータデータを選択するために必要な情報をサーバ装置に通知する。このようにすれば、カラオケ装置100が要する記憶装置の記憶容量が削減可能となるとともに、実施形態と同様の効果を奏することが可能となる。
<Modification 6>
In the embodiment, since the storage unit 20 includes the parameter data storage area 25, the control unit 10 acquires the parameter data from the parameter data storage area 25. However, the present invention is not limited to this, and the storage unit 20 Without providing the storage area 25, the control unit 10 may receive and obtain necessary parameter data from the server device 200 at timings before and after receiving content data, for example. In this case, the control unit 10 notifies the server device of information necessary for the server device 200 to select parameter data. In this way, the storage capacity of the storage device required by the karaoke apparatus 100 can be reduced, and the same effects as in the embodiment can be achieved.

<変形例7>
本発明は、歌唱評価装置以外にも、これらを実現するための方法や、コンピュータに音声評価機能を実現させるためのプログラムとしても把握される。かかるプログラムは、これを記憶させた光ディスク等の記録媒体の形態で提供されたり、インターネット等を介して、コンピュータにダウンロードさせ、これをインストールして利用させるなどの形態でも提供されたりする。
<Modification 7>
In addition to the singing evaluation apparatus, the present invention can be understood as a method for realizing these and a program for causing a computer to realize a voice evaluation function. Such a program may be provided in the form of a recording medium such as an optical disk storing the program, or may be provided in the form of being downloaded to a computer via the Internet or the like and installed and used.

10…制御部、20…記憶部、21…伴奏データ記憶領域、22…映像データ記憶領域、23…GMデータ記憶領域、24…ユーザ歌唱音声データ記憶領域、25…パラメータ記憶領域、25a…曲別パラメータテーブル、25b…歌手別パラメータテーブル、25c…ジャンル別パラメータテーブル、25d…手動パラメータテーブル、25e…地域別パラメータテーブル、25f…時間帯別パラメータテーブル、30…操作部、40…表示部、50…通信制御部、60…音声処理部、61…マイクロホン、62…スピーカ、70…バス、100…カラオケ装置、200…サーバ装置、210…ネットワークストレージ、211…カラオケ装置情報テーブル、300,500…ユーザ歌唱音声曲線、401〜403,405〜407…ガイドメロディ、GM…ガイドメロディ、NW…ネットワーク、p1,p2…ピークピッチ幅、t1,t2…ピーク時間幅   DESCRIPTION OF SYMBOLS 10 ... Control part, 20 ... Memory | storage part, 21 ... Accompaniment data storage area, 22 ... Image | video data storage area, 23 ... GM data storage area, 24 ... User song audio | voice data storage area, 25 ... Parameter storage area, 25a ... By song Parameter table, 25b ... Parameter table by singer, 25c ... Parameter table by genre, 25d ... Manual parameter table, 25e ... Parameter table by region, 25f ... Parameter table by time zone, 30 ... Operation unit, 40 ... Display unit, 50 ... Communication control unit, 60 ... Audio processing unit, 61 ... Microphone, 62 ... Speaker, 70 ... Bus, 100 ... Karaoke device, 200 ... Server device, 210 ... Network storage, 211 ... Karaoke device information table, 300, 500 ... User singing Voice curve, 401-403, 405-407 ... guy Melody, GM ... guide melody, NW ... network, p1, p2 ... peak pitch width, t1, t2 ... peak time width

Claims (4)

歌唱者が曲を歌唱したときの音声を表す音声データを取得する音声データ取得手段と、
ピッチ、音長、ビブラートの良し悪し、抑揚の有無、こぶしの有無、声質、息遣いのいずれか1について歌唱の対象となる曲に対して予め決められた基準から乖離している度合いである乖離度に応じて前記歌唱者の歌唱を評価するときの、当該乖離度を表す複数のパラメータのうち、2以上のパラメータを取得するパラメータ取得手段と、
前記取得された2以上のパラメータを用いて、前記取得された音声データが表す音声による歌唱に対する評価結果を算出する算出手段と
を備えることを特徴とする歌唱評価装置。
Voice data acquisition means for acquiring voice data representing voice when a singer sings a song;
Degree of divergence, which is the degree of divergence from a predetermined standard with respect to the song to be sung in any one of pitch, sound length, vibrato quality, presence / absence, fist presence, voice quality, and breathing Parameter evaluation means for acquiring two or more parameters among a plurality of parameters representing the degree of deviation when evaluating the song of the singer according to
A singing evaluation apparatus comprising: a calculating unit that calculates an evaluation result for a singing by voice represented by the acquired voice data using the two or more acquired parameters.
前記複数のパラメータのうち、2以上のパラメータを選択する操作を受け付ける操作手段を備え、
前記パラメータ取得手段は、受け付けられた前記操作により選択された前記2以上のパラメータを取得する
ことを特徴とする請求項1に記載の歌唱評価装置。
An operation means for receiving an operation of selecting two or more parameters from the plurality of parameters;
The singing evaluation apparatus according to claim 1, wherein the parameter acquisition unit acquires the two or more parameters selected by the accepted operation.
前記複数のパラメータは、歌唱される曲毎に決められた複数のパラメータ、前記曲が属するジャンル毎に決められた複数のパラメータ、または、特定の歌唱者毎に決められた複数のパラメータのうちいずれかを含む
ことを特徴とする請求項1又は2に記載の歌唱評価装置。
The plurality of parameters are any of a plurality of parameters determined for each song to be sung, a plurality of parameters determined for each genre to which the song belongs, or a plurality of parameters determined for each specific singer The singing evaluation apparatus according to claim 1 or 2, characterized by comprising:
前記複数のパラメータのうち、2以上のパラメータを選択する操作を受け付ける操作手段を備え、
前記複数のパラメータは、歌唱される曲毎に決められた複数のパラメータと、当該曲毎に決められたパラメータ以外の複数のパラメータを含み、
前記パラメータ取得手段は、前記2以上のパラメータを選択する操作が受け付けられた場合には、当該操作により選択された前記2以上のパラメータを取得し、前記2以上のパラメータを選択する操作が受け付けられなかった場合には、前記曲毎に決められた複数のパラメータのうち、歌唱の対象となる曲について決められたパラメータを取得する
ことを特徴とする請求項1に記載の歌唱評価装置。
An operation means for receiving an operation of selecting two or more parameters from the plurality of parameters;
The plurality of parameters include a plurality of parameters determined for each song to be sung and a plurality of parameters other than the parameters determined for each of the songs,
The parameter acquisition unit, when an operation of selecting the two or more parameters is accepted, the operation of acquiring the two or more parameters selected by the operation, selects the two or more parameters is accepted When there is not, the parameter determined about the music used as the object of singing among a plurality of parameters determined for every music is acquired. The song evaluation apparatus according to claim 1 characterized by things.
JP2011037285A 2011-02-23 2011-02-23 Singing evaluation device Expired - Fee Related JP5772054B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011037285A JP5772054B2 (en) 2011-02-23 2011-02-23 Singing evaluation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011037285A JP5772054B2 (en) 2011-02-23 2011-02-23 Singing evaluation device

Publications (2)

Publication Number Publication Date
JP2012173624A JP2012173624A (en) 2012-09-10
JP5772054B2 true JP5772054B2 (en) 2015-09-02

Family

ID=46976545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011037285A Expired - Fee Related JP5772054B2 (en) 2011-02-23 2011-02-23 Singing evaluation device

Country Status (1)

Country Link
JP (1) JP5772054B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112802494A (en) * 2021-04-12 2021-05-14 北京世纪好未来教育科技有限公司 Voice evaluation method, device, computer equipment and medium

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015145955A (en) * 2014-02-03 2015-08-13 ヤマハ株式会社 Music analyzer and singing evaluation device
JP2015210401A (en) * 2014-04-28 2015-11-24 株式会社コシダカホールディングス Distribution control by flag
JP2016177144A (en) * 2015-03-20 2016-10-06 ヤマハ株式会社 Evaluation reference generation device and signing evaluation device
JP6857266B1 (en) * 2020-02-13 2021-04-14 Ckd株式会社 Inspection equipment and packaging sheet manufacturing equipment and inspection method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3074693B2 (en) * 1990-02-21 2000-08-07 ヤマハ株式会社 Music evaluation device
JP3261990B2 (en) * 1996-09-03 2002-03-04 ヤマハ株式会社 Karaoke equipment
JP2005107332A (en) * 2003-09-30 2005-04-21 Yamaha Corp Karaoke machine
JP4218064B2 (en) * 2005-11-18 2009-02-04 ヤマハ株式会社 Karaoke device and program for karaoke device
JP2009092871A (en) * 2007-10-05 2009-04-30 Yamaha Corp Scoring device and program
JP5457791B2 (en) * 2009-10-29 2014-04-02 株式会社第一興商 Karaoke scoring system
JP2011095437A (en) * 2009-10-29 2011-05-12 Daiichikosho Co Ltd Karaoke scoring system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112802494A (en) * 2021-04-12 2021-05-14 北京世纪好未来教育科技有限公司 Voice evaluation method, device, computer equipment and medium
CN112802494B (en) * 2021-04-12 2021-07-16 北京世纪好未来教育科技有限公司 Voice evaluation method, device, computer equipment and medium

Also Published As

Publication number Publication date
JP2012173624A (en) 2012-09-10

Similar Documents

Publication Publication Date Title
JP5811837B2 (en) Display control apparatus and program
TWI497484B (en) Performance evaluation device, karaoke device, server device, performance evaluation system, performance evaluation method and program
JP5772054B2 (en) Singing evaluation device
US9037278B2 (en) System and method of predicting user audio file preferences
JP3698057B2 (en) Automatic arrangement apparatus and method
Corcoran et al. Playing it straight: Analyzing jazz soloists’ swing eighth-note distributions with the weimar jazz database
JP6288197B2 (en) Evaluation apparatus and program
JP6065703B2 (en) Reference data creation system and performance terminal device
JP2005107334A (en) Karaoke machine
JP2011095437A (en) Karaoke scoring system
JP2013213907A (en) Evaluation apparatus
JP2010237258A (en) Singing evaluation device
JP4491743B2 (en) Karaoke equipment
JP6024130B2 (en) Voice evaluation device
JP2014178535A (en) Music editing device, karaoke device, and music editing system
JP6219750B2 (en) Singing battle karaoke system
JP5416396B2 (en) Singing evaluation device and program
JP4910855B2 (en) Reference data editing device, fist evaluation device, reference data editing method, fist evaluation method, and program
JP6074835B2 (en) Music practice support device
JP6144593B2 (en) Singing scoring system
JP4182782B2 (en) Karaoke equipment
JP6611633B2 (en) Karaoke system server
JP2004184506A (en) Karaoke machine and program
KR20110005653A (en) Data collection and distribution system, communication karaoke system
JP2023003706A (en) karaoke system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150615

R151 Written notification of patent or utility model registration

Ref document number: 5772054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees