JP6288197B2 - Evaluation apparatus and program - Google Patents

Evaluation apparatus and program Download PDF

Info

Publication number
JP6288197B2
JP6288197B2 JP2016181508A JP2016181508A JP6288197B2 JP 6288197 B2 JP6288197 B2 JP 6288197B2 JP 2016181508 A JP2016181508 A JP 2016181508A JP 2016181508 A JP2016181508 A JP 2016181508A JP 6288197 B2 JP6288197 B2 JP 6288197B2
Authority
JP
Japan
Prior art keywords
data
accompaniment
evaluation
unit
sound data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016181508A
Other languages
Japanese (ja)
Other versions
JP2017027070A (en
Inventor
隆一 成山
隆一 成山
松本 秀一
秀一 松本
辰弥 寺島
辰弥 寺島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2016181508A priority Critical patent/JP6288197B2/en
Publication of JP2017027070A publication Critical patent/JP2017027070A/en
Application granted granted Critical
Publication of JP6288197B2 publication Critical patent/JP6288197B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、評価装置及びプログラムに関する。   The present invention relates to an evaluation apparatus and a program.

カラオケ装置においては、歌唱の巧拙を採点する機能を備えるものがある。例えば特許文献1には、カラオケ歌唱の歌唱音声信号を、サビ、クライマックスなどの区間別に重み付けを行って採点する装置が提案されている。また、特許文献2には、主旋律音高に対する和音(コード)に相当する音高等、音楽理論上正しいとされる音高について予め配点が決められた採点規準データを用いて採点を行う装置が提案されている。特許文献2に記載の装置によれば、音楽理論上正しいとされる音高を歌唱者が歌唱した場合に高い点数となるため、採点結果に対するユーザの納得感を向上させることができる。   Some karaoke apparatuses have a function of scoring the skill of singing. For example, Patent Document 1 proposes an apparatus for scoring a singing voice signal of a karaoke song by weighting each section such as rust and climax. Further, Patent Document 2 proposes an apparatus for scoring using scoring standard data in which scoring is determined in advance for a pitch that is considered to be correct in terms of music theory, such as a pitch corresponding to a chord (chord) with respect to the main melody pitch. Has been. According to the apparatus described in Patent Literature 2, since the score is high when a singer sings a pitch that is correct in terms of music theory, the user's satisfaction with the scoring results can be improved.

特開平10−78749号公報JP-A-10-78749 特開2010−230854号公報JP 2010-230854 A

ところで、特許文献1に記載のような歌唱の採点においては、歌唱を聴取している者(以下「聴取者」という)が感じた歌唱の巧拙と、装置の採点結果との間にずれが生じる場合があった。例えば、聴取者が上手いと感じた歌唱であっても装置の採点結果が低い場合や、逆に聴取者が上手いと感じなかった歌唱であっても装置の採点結果が高い場合があった。また、特許文献2に記載の技術では、採点結果に対するユーザの納得感を向上させることができるものの、楽曲毎に点数の分布からなる採点基準データを予め用意する必要があり、その作業が煩雑である場合があった。特許文献1や特許文献2に記載の技術を楽器の演奏の評価に応用しても上記と同様である。
本発明は上述した背景に鑑みてなされたものであり、歌唱や演奏の巧拙を評価する装置において、楽曲毎に予め採点基準データを用意することなく、装置による評価結果と聴取者が感じた評価結果と間のずれを小さくすることを目的とする。
By the way, in the scoring of the song as described in Patent Document 1, there is a difference between the skill of the song felt by the person listening to the song (hereinafter referred to as “listener”) and the scoring result of the apparatus. There was a case. For example, there are cases where the grading result of the device is low even for a song that the listener feels good, and conversely, the grading result of the device is high even for a song that the listener does not feel good. Moreover, although the technique described in Patent Document 2 can improve the user's satisfaction with the scoring results, it is necessary to prepare scoring reference data consisting of a score distribution for each piece of music in advance, which is complicated. There was a case. The technique described in Patent Document 1 and Patent Document 2 is the same as described above even when applied to the performance evaluation of musical instruments.
The present invention has been made in view of the above-described background, and in an apparatus for evaluating the skill of singing and playing, the evaluation result by the apparatus and the evaluation felt by the listener without preparing scoring reference data for each piece of music in advance. The purpose is to reduce the gap between the results.

上述した課題を解決するために、本発明は、楽曲の模範となる音を表す評価用データを取得する評価用データ取得部と、前記楽曲の伴奏音を表す伴奏音データを取得する伴奏音データ取得部と、前記伴奏音に合わせて歌唱された歌唱音声又は演奏された演奏音を表す音データを取得する音データ取得部と、前記音データ取得部が取得した音データの特徴を特定する音データ特徴特定部と、前記伴奏音データ取得部が取得した伴奏音データの特徴を特定する伴奏データ特徴特定部と、前記音データ特徴特定部により特定された特徴と前記評価用データ取得部により取得された評価用データに基づき前記音データを評価する際に、前記音データを、前記伴奏データ特徴特定部によって特定された特徴に応じた評価態様で評価する評価部とを具備し、前記伴奏データ特徴特定部は、前記取得された伴奏音データの示す伴奏音において予め定められた時間内に含まれるノートの数、当該伴奏音においてキーが変化する箇所、及び当該伴奏音のフレーズ構造のうちの少なくともいずれかを、当該伴奏音の特徴として特定することを特徴とする評価装置を提供する。 In order to solve the above-described problems, the present invention provides an evaluation data acquisition unit that acquires evaluation data representing a sound that serves as a model of music, and accompaniment sound data that acquires accompaniment sound data representing the accompaniment sound of the music Sound that identifies the characteristics of the sound data acquired by the acquisition unit, the sound data acquisition unit that acquires the singing voice sung to the accompaniment sound or the sound data that represents the played performance sound, and the sound data acquisition unit Acquired by the data feature specifying unit, the accompaniment data feature specifying unit for specifying the feature of the accompaniment sound data acquired by the accompaniment sound data acquiring unit, the feature specified by the sound data feature specifying unit, and the evaluation data acquiring unit An evaluation unit that evaluates the sound data in an evaluation mode according to the feature specified by the accompaniment data feature specifying unit when evaluating the sound data based on the evaluation data The accompaniment data feature specifying unit, the number of notes contained within a predetermined time in the obtained accompaniment sound accompaniment sound indicated by the data, a phrase of this該伴locations key changes in Soon, and the accompaniment tone There is provided an evaluation apparatus characterized by specifying at least one of structures as a characteristic of the accompaniment sound.

本発明の好ましい態様において、前記評価部は、前記音データ特徴特定部により特定された特徴に基づき、前記音データを複数の評価項目について評価する項目別評価部と、前記伴奏データ特徴特定部によって特定された特徴に応じて前記評価項目毎の重み付け係数の値を特定する係数特定部と、前記項目別評価部による前記評価項目毎の評価結果に対して、前記係数特定部によって特定された前記評価項目毎の重み付け係数を用いて重み付けを行い、該重み付け結果に従って前記音データを評価する音データ評価部とを具備してもよい。 In a preferred aspect of the present invention, the evaluation unit includes an item-based evaluation unit that evaluates the sound data for a plurality of evaluation items based on the feature specified by the sound data feature specifying unit, and the accompaniment data feature specifying unit. A coefficient specifying unit that specifies the value of the weighting coefficient for each evaluation item according to the specified feature, and the evaluation result for each evaluation item by the item-based evaluation unit, the specification specified by the coefficient specifying unit It performs weighting using the weighting coefficient for each evaluation item, may include a sound data evaluation unit for evaluating the sound data according to the result of the weighting.

また、本発明の更に好ましい態様において、前記項目別評価部は、前記音データ特徴特定部により特定された特徴に基づき、前記音データを、音程を含む複数の評価項目について評価し、前記伴奏データ特徴特定部は、前記伴奏音データの示す伴奏音において予め定められた時間内に含まれるノートの数を前記伴奏音データの特徴として特定し、前記係数特定部は、前記伴奏データ特徴特定部によって特定された前記ノートの数によって前記音程を含む一つまたは複数の評価項目についての重み付け係数の値を大きくしてもよい。   Further, in a further preferred aspect of the present invention, the item-by-item evaluation unit evaluates the sound data for a plurality of evaluation items including a pitch based on the features specified by the sound data feature specifying unit, and the accompaniment data The feature specifying unit specifies the number of notes included in a predetermined time in the accompaniment sound indicated by the accompaniment sound data as a feature of the accompaniment sound data, and the coefficient specifying unit is determined by the accompaniment data feature specifying unit. The value of the weighting coefficient for one or more evaluation items including the pitch may be increased according to the specified number of notes.

また、本発明の別の好ましい態様において、前記項目別評価部は、前記音データ特徴特定部により特定された特徴に基づき、前記音データを、音程を含む複数の評価項目について評価し、前記伴奏データ特徴特定部は、前記伴奏音データを解析して前記伴奏音のコード進行を特定し、前記係数特定部は、前記伴奏データ特徴特定部によって特定されたコード進行が予め定められたパターンである場合に、前記音程を含む一つまたは複数の評価項目についての重み付け係数の値を大きくしてもよい。   Further, in another preferable aspect of the present invention, the item-by-item evaluation unit evaluates the sound data for a plurality of evaluation items including a pitch based on the feature specified by the sound data feature specifying unit, and the accompaniment The data feature specifying unit analyzes the accompaniment sound data and specifies the chord progression of the accompaniment sound, and the coefficient specifying unit is a pattern in which the chord progression specified by the accompaniment data feature specifying unit is predetermined. In this case, the value of the weighting coefficient for one or a plurality of evaluation items including the pitch may be increased.

また、本発明の別の好ましい態様において、前記項目別評価部は、前記音データ特徴特定部により特定された特徴に基づき、前記音データを、リズムを含む複数の評価項目について評価し、前記伴奏データ特徴特定部は、前記伴奏音データによって表されるリズムと前記評価用データによって表されるリズムとが異なる箇所を前記伴奏音データの特徴として特定し、前記係数特定部は、前記伴奏データ特徴特定部によって特定された箇所において、前記リズムを含む一つまたは複数の評価項目についての重み付け係数の値を大きくしてもよい。   Moreover, in another preferable aspect of the present invention, the item-based evaluation unit evaluates the sound data for a plurality of evaluation items including a rhythm based on the features specified by the sound data feature specifying unit, and the accompaniment The data feature specifying unit specifies, as the feature of the accompaniment sound data, a portion where the rhythm represented by the accompaniment sound data differs from the rhythm represented by the evaluation data, and the coefficient specifying unit is configured to include the accompaniment data feature. In the location specified by the specifying unit, the value of the weighting coefficient for one or a plurality of evaluation items including the rhythm may be increased.

また、本発明は、コンピュータに、楽曲の模範となる音を表す評価用データを取得するステップと、前記楽曲の伴奏音を表す伴奏音データを取得するステップと、前記伴奏音に合わせて歌唱された歌唱音声又は演奏された演奏音を表す音データを取得するステップと、前記取得された音データの特徴を特定するステップと、前記取得された伴奏音データを解析して当該伴奏音データの特徴を特定するステップであって、前記取得された伴奏音データの示す伴奏音において予め定められた時間内に含まれるノートの数、当該伴奏音においてキーが変化する箇所、及び当該伴奏音のフレーズ構造のうちの少なくともいずれかを、当該伴奏音の特徴として特定するステップと、前記特定された音データの特徴と前記取得された評価用データに基づき前記音データを評価する際に、前記音データを、前記特定された伴奏音データの特徴に応じた評価態様で評価するステップとを実行させるためのプログラムを提供する。 Further, the present invention provides a computer singing in accordance with the accompaniment sound, the step of acquiring evaluation data representing a sound that serves as an example of the music, the step of acquiring accompaniment sound data representing the accompaniment sound of the music Obtaining sound data representing the singing voice or played performance sound, identifying the characteristic of the acquired sound data, analyzing the acquired accompaniment sound data, and characteristics of the accompaniment sound data the method comprising the steps of identifying phrases in the number of notes contained within a predetermined time in the acquired accompaniment sound accompaniment sound indicated by the data, place the key in person該伴Soon changes, and the accompaniment tone Identifying at least one of the structures as a characteristic of the accompaniment sound, based on the characteristic of the identified sound data and the acquired evaluation data When evaluating Kion data, provides a program for executing a step of evaluating the sound data, an evaluation mode according to the identified accompaniment tone characteristics of the data.

本発明によれば、歌唱や演奏の巧拙を評価する装置において、楽曲毎に予め採点基準データを用意することなく、装置による評価結果と聴取者が感じた評価結果との間のずれを小さくすることができる。   According to the present invention, in a device for evaluating the skill of singing or playing, the difference between the evaluation result by the device and the evaluation result felt by the listener is reduced without preparing scoring reference data in advance for each song. be able to.

本発明の実施形態におけるシステムの構成図System configuration diagram of an embodiment of the present invention カラオケ装置のハードウェア構成を表すブロック図Block diagram showing hardware configuration of karaoke equipment 伴奏音データ記憶領域の内容を表す模式図Schematic diagram showing the contents of the accompaniment sound data storage area カラオケ装置の機能的構成の一例を示すブロック図Block diagram showing an example of the functional configuration of a karaoke device 採点部の機能的構成の一例を示すブロック図Block diagram showing an example of the functional configuration of the scoring unit 得点部119の採点処理の内容の一例を示す図The figure which shows an example of the content of the scoring process of the score part 119 本実施形態の処理の流れを示すフロー図Flow chart showing the processing flow of this embodiment 採点処理の流れを示すフロー図Flow chart showing the flow of scoring process 得点部119の採点処理の内容の一例を示す図The figure which shows an example of the content of the scoring process of the score part 119

<実施形態>
<構成>
図1は、本発明の実施形態におけるシステムの構成を表した図である。このシステムは、カラオケ装置100と、サーバ装置200と、ネットワークNWとを有する。カラオケ装置100は、歌唱者からの要求に従ってカラオケ楽曲を再生するとともに、再生されるカラオケ楽曲についての歌唱者による歌唱を評価する装置である。ネットワークNWはLAN(Local Area Network)やインターネットであり、カラオケ装置100とサーバ装置200との間におけるデータ通信が行われる通信網である。サーバ装置200は、その内部あるいは外部に備えたHDD(Hard Disk Drive)等の記憶手段に、カラオケ楽曲に関するコンテンツデータ等の各種データを記憶しており、カラオケ装置100からの要求に従って、ネットワークNW経由でこのコンテンツデータをカラオケ装置100に供給する装置である。ここで、コンテンツとは、カラオケ楽曲に関する音声と映像との組み合わせを指す。すなわち、コンテンツデータとは、主旋律の歌声が存在せず伴奏やコーラスで構成されたいわゆる伴奏音データと、この楽曲の歌詞や歌詞の背景に表示する映像からなる映像データとから成り立っている。なお、サーバ装置200に対してカラオケ装置100は複数存在してもよい。また、カラオケ装置100に対してサーバ装置200が複数存在してもよい。
<Embodiment>
<Configuration>
FIG. 1 is a diagram showing the configuration of a system according to an embodiment of the present invention. This system includes a karaoke device 100, a server device 200, and a network NW. The karaoke device 100 is a device that reproduces karaoke music according to a request from a singer and evaluates singing by the singer about the karaoke music to be played. The network NW is a LAN (Local Area Network) or the Internet, and is a communication network in which data communication is performed between the karaoke apparatus 100 and the server apparatus 200. The server device 200 stores various data such as content data related to karaoke music in a storage means such as an HDD (Hard Disk Drive) provided inside or outside the server device 200, and via the network NW according to a request from the karaoke device 100 The content data is supplied to the karaoke apparatus 100. Here, the content refers to a combination of audio and video related to karaoke music. That is, the content data is composed of so-called accompaniment sound data composed of accompaniment and chorus without the main melody singing voice, and video data composed of the lyrics displayed on the background of the music and the lyrics. Note that a plurality of karaoke apparatuses 100 may exist for the server apparatus 200. Further, a plurality of server devices 200 may exist for the karaoke device 100.

図2は、カラオケ装置100のハードウェア構成を表したブロック図である。カラオケ装置100は本発明に係る評価装置の一例である。カラオケ装置100は、制御部10、記憶部20、操作部30、表示部40、通信制御部50、音声処理部60、マイクロホン61、及びスピーカ62を有し、これら各部がバス70を介して接続されている。制御部10は、CPU(Central Processing Unit)等のプロセッサーや、RAM(Random Access Memory)、及びROM(Read Only Memory)等を有している。制御部10において、CPU等のプロセッサーが、ROMや記憶部20に記憶されているコンピュータプログラムを読み出しRAMにロードして実行することにより、カラオケ装置100の各部を制御する。   FIG. 2 is a block diagram showing the hardware configuration of the karaoke apparatus 100. Karaoke apparatus 100 is an example of an evaluation apparatus according to the present invention. The karaoke apparatus 100 includes a control unit 10, a storage unit 20, an operation unit 30, a display unit 40, a communication control unit 50, an audio processing unit 60, a microphone 61, and a speaker 62, and these units are connected via a bus 70. Has been. The control unit 10 includes a processor such as a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. In the control unit 10, a processor such as a CPU reads out a computer program stored in the ROM or the storage unit 20, loads it into the RAM, and executes it to control each unit of the karaoke apparatus 100.

操作部30は、各種の操作子を備え、歌唱者による操作内容を表す操作信号を制御部10に出力する。表示部40は、例えば液晶パネルを備え、制御部10による制御の下、各カラオケ楽曲に応じた歌詞テロップや背景映像等の各種画像を表示する。通信制御部50は、カラオケ装置100とネットワークNWとを有線あるいは無線で接続し、ネットワークNWを介したカラオケ装置100とサーバ装置200との間のデータ通信を制御する。   The operation unit 30 includes various operators and outputs an operation signal representing the operation content of the singer to the control unit 10. The display unit 40 includes, for example, a liquid crystal panel, and displays various images such as lyrics telop and background video according to each karaoke piece under the control of the control unit 10. The communication control unit 50 connects the karaoke device 100 and the network NW by wire or wirelessly, and controls data communication between the karaoke device 100 and the server device 200 via the network NW.

サーバ装置200は、図示せぬプロセッサーや各種メモリを備えたコンピュータであり、特にネットワークストレージ210を備えている。ネットワークストレージ210は例えばHDDであり、カラオケ楽曲のコンテンツデータ等の各種データを記憶する。図2においてサーバ装置200は1つのネットワークストレージ210を備えているが、ネットワークストレージの数はこれに限ったものではなく、複数のネットワークストレージをサーバ装置200が備えてもよい。歌唱者により予約されたカラオケ楽曲のコンテンツデータがネットワークストレージ210に記憶されている場合、カラオケ装置100は、通信制御部50による制御に従ってサーバ装置200と通信を行い、ネットワークストレージ210から読み出されたコンテンツデータをネットワークNW経由でダウンロードしながら、ダウンロードが完了した部分から順次再生する、というストリーミング再生を行う。   The server device 200 is a computer including a processor and various memories (not shown), and particularly includes a network storage 210. The network storage 210 is an HDD, for example, and stores various data such as content data of karaoke music. In FIG. 2, the server device 200 includes one network storage 210, but the number of network storages is not limited to this, and the server device 200 may include a plurality of network storages. When content data of karaoke music reserved by a singer is stored in the network storage 210, the karaoke device 100 communicates with the server device 200 in accordance with control by the communication control unit 50 and is read from the network storage 210. While downloading the content data via the network NW, streaming playback is performed in which playback is performed sequentially from the part where the download is completed.

マイクロホン61は、収音した音声を表すアナログの音声信号を音声処理部60に出力する。音声処理部60は、A/D(Analog / Digital)コンバータを有し、マイクロホン61が出力したアナログの音声信号をデジタルの音声データに変換して制御部10に出力し、制御部10はこれを取得する。また、音声処理部60は、D/A(Digital / Analog)コンバータを有し、制御部10から受け取ったデジタルの音声データをアナログの音声信号に変換してスピーカ62に出力する。スピーカ62は、音声処理部60から受け取ったアナログの音声信号に基づく音を放音する。なお、この実施形態では、マイクロホン61とスピーカ62とがカラオケ装置100に含まれている場合について説明するが、音声処理部60に入力端子及び出力端子を設け、オーディオケーブルを介してその入力端子に外部マイクロホンを接続する構成としても良く、同様に、オーディオケーブルを介してその出力端子に外部スピーカを接続するとしても良い。また、この実施形態では、マイクロホン61からスピーカ62へ出力されるオーディオ信号がアナログオーディオ信号である場合について説明するが、デジタルオーディオデータを入出力するようにしても良い。このような場合には、音声処理部60にてA/D変換やD/A変換を行う必要はない。操作部30や表示部40についても同様であり、外部入力端子や外部出力端子を設け、キーボードや外部モニタを接続する構成としてもよい。   The microphone 61 outputs an analog audio signal representing the collected audio to the audio processing unit 60. The audio processing unit 60 includes an A / D (Analog / Digital) converter, converts the analog audio signal output from the microphone 61 into digital audio data, and outputs the digital audio data to the control unit 10. get. The audio processing unit 60 includes a D / A (Digital / Analog) converter, converts digital audio data received from the control unit 10 into an analog audio signal, and outputs the analog audio signal to the speaker 62. The speaker 62 emits a sound based on the analog audio signal received from the audio processing unit 60. In this embodiment, a case where the microphone 61 and the speaker 62 are included in the karaoke apparatus 100 will be described. However, the audio processing unit 60 is provided with an input terminal and an output terminal, and the input terminal is connected to the input terminal via an audio cable. An external microphone may be connected, and similarly, an external speaker may be connected to the output terminal via an audio cable. In this embodiment, the audio signal output from the microphone 61 to the speaker 62 is an analog audio signal. However, digital audio data may be input / output. In such a case, the audio processing unit 60 does not need to perform A / D conversion or D / A conversion. The same applies to the operation unit 30 and the display unit 40, and an external input terminal and an external output terminal may be provided to connect a keyboard and an external monitor.

記憶部20は、各種のデータを記憶するための記憶手段であり、例えばHDDや不揮発性メモリである。記憶部20は、伴奏音データ記憶領域21、映像データ記憶領域22、GM(Guide Melody)データ記憶領域23、及び歌唱音声データ記憶領域24といった複数の記憶領域を備えている。   The storage unit 20 is a storage unit for storing various data, and is, for example, an HDD or a nonvolatile memory. The storage unit 20 includes a plurality of storage areas such as an accompaniment sound data storage area 21, a video data storage area 22, a GM (Guide Melody) data storage area 23, and a singing voice data storage area 24.

図3は、伴奏音データ記憶領域21の内容を表す模式図である。伴奏音データ記憶領域21には、各楽曲の伴奏音を表す伴奏音データに関する情報が記憶されている。伴奏音データ記憶領域21には、「曲番号」、「曲名」、「歌手名」、「ジャンル」、及び「ファイル格納場所」といった複数の項目からなる伴奏音データレコードが複数記憶されている。「曲番号」は、楽曲を一意に識別するための番号であり、例えば4桁の親番号と2桁の枝番号とからなる。「曲名」は、各楽曲の名称を表す。「歌手名」は、各楽曲の歌い手の名称を表す。「ジャンル」は、予め決められた分類基準で分類された複数のジャンルのうち、各楽曲の属する音楽のジャンルを表す。「ファイル格納場所」は、各楽曲の伴奏音データそのものであるデータファイルの格納場所を表し、server1というフォルダを含む場合には伴奏音データのデータファイルがサーバ装置200に格納されており、server1というフォルダを含まない場合には伴奏音データのデータファイルがカラオケ装置100に格納されていることを意味している。例えば図3において、曲名が「BBB」である楽曲は、伴奏音データのデータファイルがサーバ装置200に格納されていることを表し、曲名が「CCC」である楽曲は、伴奏音データのデータファイルがカラオケ装置100の記憶部20に格納されていることを表している。この伴奏音データのデータファイルは、例えば、MIDI(Musical Instrument Digital Interface)形式のファイルである。本実施形態では、伴奏音データには、伴奏音のキーを示すキー情報や、伴奏音のテンポを表すテンポ情報が予め付与されている。   FIG. 3 is a schematic diagram showing the contents of the accompaniment sound data storage area 21. The accompaniment sound data storage area 21 stores information related to accompaniment sound data representing the accompaniment sound of each music piece. The accompaniment sound data storage area 21 stores a plurality of accompaniment sound data records including a plurality of items such as “song number”, “song name”, “singer name”, “genre”, and “file storage location”. “Song number” is a number for uniquely identifying a music piece, and is composed of, for example, a 4-digit parent number and a 2-digit branch number. “Song name” represents the name of each music piece. “Singer name” represents the name of each singer. “Genre” represents the genre of music to which each musical piece belongs among a plurality of genres classified according to a predetermined classification standard. The “file storage location” represents a storage location of a data file that is accompaniment sound data itself of each musical piece. When a folder “server1” is included, a data file of accompaniment sound data is stored in the server device 200 and is called server1. When the folder is not included, it means that the accompaniment sound data file is stored in the karaoke apparatus 100. For example, in FIG. 3, a song whose song name is “BBB” indicates that the accompaniment sound data data file is stored in the server device 200, and a song whose song name is “CCC” is an accompaniment sound data file. Is stored in the storage unit 20 of the karaoke apparatus 100. The accompaniment sound data file is, for example, a MIDI (Musical Instrument Digital Interface) format file. In this embodiment, the accompaniment sound data is preliminarily provided with key information indicating the key of the accompaniment sound and tempo information indicating the tempo of the accompaniment sound.

映像データ記憶領域22には、各楽曲の歌詞を示す歌詞データ及び歌詞の背景に表示される背景映像を表す背景映像データが記憶されている。歌詞データによって示される歌詞は、カラオケ歌唱の際に、楽曲の進行に伴って歌詞テロップとして表示部40に表示される。また、背景映像データによって表される背景映像は、カラオケ歌唱の際に楽曲の進行に伴って歌詞テロップの背景として表示部40に表示される。GMデータ記憶領域23には、楽曲のボーカルパートのメロディを示すデータ、すなわち、歌唱すべき構成音の内容を指定するデータであるガイドメロディデータ(以下「GMデータ」という)が記憶されている。GMデータは、制御部10が歌唱者による歌唱の巧拙を評価する際に比較の基準となるものであって、歌唱の対象となる曲に対して予め定められた基準である。なお、制御部10が行う評価処理については後述するため、ここではその詳細な説明は省略する。GMデータは、例えば、MIDI形式により記述されている。   The video data storage area 22 stores lyrics data indicating the lyrics of each song and background video data representing a background video displayed on the background of the lyrics. The lyrics shown by the lyrics data are displayed on the display unit 40 as lyrics telop as the music progresses during karaoke singing. In addition, the background video represented by the background video data is displayed on the display unit 40 as the background of the lyrics telop as the music progresses during karaoke singing. In the GM data storage area 23, data indicating the melody of the vocal part of the music, that is, guide melody data (hereinafter referred to as “GM data”), which is data specifying the content of the constituent sound to be sung, is stored. The GM data serves as a reference for comparison when the control unit 10 evaluates the skill of singing by a singer, and is a reference set in advance for a song to be sung. Since the evaluation process performed by the control unit 10 will be described later, a detailed description thereof will be omitted here. The GM data is described in the MIDI format, for example.

歌唱音声データ記憶領域24には、カラオケの対象となった各楽曲について、その伴奏音データが再生されている期間中マイクロホン61によって収音された歌唱者の歌唱音声が音声処理部60でデジタルデータに変換されることで生成された音声データが記憶される。この音声データを歌唱音声データという。すなわち、歌唱音声データは、伴奏音データの表す伴奏音に合わせて歌唱さえた歌唱音声を表す音データである。歌唱音声データは、音声の波形を表す音声データであり、例えば、WAVE(RIFF waveform Audio Format)形式のデータファイルとして記憶される。各楽曲についての歌唱音声データは、制御部10によって、その楽曲のGMデータに対応付けられる。   In the singing voice data storage area 24, the singing voice of the singer collected by the microphone 61 during the period in which the accompaniment sound data is being reproduced for each piece of music that is the subject of karaoke is converted into digital data by the voice processing unit 60. The voice data generated by the conversion to is stored. This voice data is called singing voice data. That is, the singing voice data is sound data representing singing voice that has been sung in accordance with the accompaniment sound represented by the accompaniment sound data. The singing voice data is voice data representing a voice waveform, and is stored as a data file in a WAVE (RIFF waveform Audio Format) format, for example. The singing voice data for each song is associated with the GM data of the song by the control unit 10.

図4は、カラオケ装置100の機能的構成の一例を示すブロック図である。図4において、伴奏再生部11及び採点部12は、制御部10のCPU等のプロセッサーが、ROMや記憶部20に記憶されているコンピュータプログラムを読み出しRAMにロードして実行することにより実現される。伴奏再生部11は、カラオケ楽曲の再生を行う。具体的には、伴奏再生部11は、伴奏音データ及びGMデータに基づく音声をスピーカ62から放音させるとともに、映像データに基づく映像を表示部40に表示させる。採点部12は、歌唱音声データのピッチを特定し、特定したピッチに基づいて歌唱者の歌唱音声を評価する。   FIG. 4 is a block diagram illustrating an example of a functional configuration of the karaoke apparatus 100. 4, the accompaniment playback unit 11 and the scoring unit 12 are realized by a processor such as a CPU of the control unit 10 reading out a computer program stored in the ROM or the storage unit 20 and loading it into the RAM for execution. . The accompaniment playback unit 11 plays back karaoke music. Specifically, the accompaniment reproducing unit 11 causes the speaker 62 to emit sound based on the accompaniment sound data and the GM data, and causes the display unit 40 to display a video based on the video data. The scoring unit 12 specifies the pitch of the singing voice data, and evaluates the singing voice of the singer based on the specified pitch.

図5は、採点部12の機能的構成の一例を示すブロック図である。この実施形態では、採点部12は、伴奏音データの特徴を特定し、特定した特徴を加味した評価を行う。図5において、ピッチ取得部111は、歌唱音声データ記憶領域24に記憶された歌唱音声データを取得し、取得した歌唱音声データのピッチを特定する。ピッチ取得部111は、特定したピッチを表すデータ(以下「ピッチデータ」という)を出力する。   FIG. 5 is a block diagram illustrating an example of a functional configuration of the scoring unit 12. In this embodiment, the scoring unit 12 specifies the characteristics of the accompaniment sound data, and performs an evaluation in consideration of the specified characteristics. In FIG. 5, the pitch acquisition part 111 acquires the singing voice data memorize | stored in the singing voice data storage area 24, and specifies the pitch of the acquired singing voice data. The pitch acquisition unit 111 outputs data representing the specified pitch (hereinafter referred to as “pitch data”).

音量取得部112は、歌唱音声データ記憶領域24に記憶された歌唱音声データを取得し、取得した歌唱音声データの音量を特定する。音量取得部112は、特定した音量を表すデータ(以下「音量データ」という)を出力する。   The volume acquisition unit 112 acquires the singing voice data stored in the singing voice data storage area 24, and specifies the volume of the acquired singing voice data. The volume acquisition unit 112 outputs data representing the specified volume (hereinafter referred to as “volume data”).

声質取得部113は、歌唱音声データ記憶領域24に記憶された歌唱音声データを取得し、取得した歌唱音声データの声質を特定する。声質の特定処理については、例えば、以下のようにして行う。まず、声質取得部113は、歌唱音声データに対してFFT(Fast Fourier Transform)等の処理を行って高域周波数帯域のレベル(音量)(以下「高域レベル」)を算出し、全帯域の音量に対する高域レベルの比率を声質として特定する。この実施形態では、声質取得部113は、1kHz以上の周波数帯域のレベルを高域レベルとして算出する。なお、声質の特定の態様は上述した処理に限定されるものではなく、声質を特定するものであればどのようなものであってもよい。ピッチ取得部111、音量取得部112、声質取得部113は、本発明に係る音データ取得部及び音データ特徴特定部の一例である。   The voice quality acquisition unit 113 acquires the singing voice data stored in the singing voice data storage area 24, and specifies the voice quality of the acquired singing voice data. The voice quality specifying process is performed as follows, for example. First, the voice quality acquisition unit 113 performs processing such as FFT (Fast Fourier Transform) on the singing voice data to calculate the level (volume) (hereinafter referred to as “high frequency level”) of the high frequency band. The ratio of the high frequency level to the volume is specified as the voice quality. In this embodiment, the voice quality acquisition unit 113 calculates a frequency band level of 1 kHz or higher as a high frequency level. In addition, the specific aspect of voice quality is not limited to the process mentioned above, What kind of thing may be used if voice quality is specified. The pitch acquisition unit 111, the volume acquisition unit 112, and the voice quality acquisition unit 113 are an example of a sound data acquisition unit and a sound data feature identification unit according to the present invention.

音程得点計算部114、歌唱技法計算部115、抑揚計算部116、リズム計算部117、声質計算部118はそれぞれ、ピッチ取得部111で取得されたピッチ、音量取得部112で取得された音量、声質取得部で取得された声質の少なくともいずれかひとつの特徴を用いて、歌唱音声の評価を行い、評価結果を示す得点を計算する。音程得点計算部114は、ピッチ取得部111により取得された歌唱音声のピッチに従って、音程についての評価を行う。より具体的には、音程得点計算部114は、ピッチ取得部111により特定されたピッチを表すピッチデータと、この歌唱音声に対応するGMデータを取得する。制御部10は、ピッチデータとGMデータとを時間軸方向に対応付けるとともに、この対応付け結果に従ってピッチデータによって示されるピッチとGMデータのピッチとを比較し、両者の差分に基づいて音程についての得点を計算する。より具体的には、例えば、音程得点計算部114は、歌唱音声データのピッチの変化と、GMデータの変化とを比較し、これらの一致の程度を示す評価値を算出する。評価値は、あるノートにおいて、両者のピッチの差が予め定められた許容範囲内に収まっていれば100%(すなわち減点なし)とし、両者のピッチの差が上記範囲内に収まらない部分の期間が、GMデータにおいてこのノートにおける音長の半分に渡っていれば50%である、といった具合であってもよい。つまり、あるノートにおいて、両者のピッチの差が上記範囲内に収まる期間を、GMデータにおいてこのノートにおける音長で除した値を評価値とする。   The pitch score calculation unit 114, the singing technique calculation unit 115, the intonation calculation unit 116, the rhythm calculation unit 117, and the voice quality calculation unit 118 are the pitch acquired by the pitch acquisition unit 111, the volume acquired by the volume acquisition unit 112, and the voice quality, respectively. The singing voice is evaluated using at least one of the characteristics of the voice quality acquired by the acquisition unit, and a score indicating the evaluation result is calculated. The pitch score calculation unit 114 evaluates the pitch according to the pitch of the singing voice acquired by the pitch acquisition unit 111. More specifically, the pitch score calculation unit 114 acquires pitch data representing the pitch specified by the pitch acquisition unit 111 and GM data corresponding to this singing voice. The control unit 10 associates the pitch data with the GM data in the time axis direction, compares the pitch indicated by the pitch data with the pitch of the GM data according to the association result, and scores the pitch based on the difference between the two. Calculate More specifically, for example, the pitch score calculation unit 114 compares the change in pitch of the singing voice data with the change in GM data, and calculates an evaluation value indicating the degree of coincidence thereof. The evaluation value is 100% (that is, there is no deduction) if the difference between the two pitches is within a predetermined allowable range in a certain note, and the period during which the difference between the two pitches does not fall within the above range. However, in the case of GM data, it may be 50% if the note length is half of the note length in this note. That is, in a certain note, a value obtained by dividing a period in which the difference in pitch between the two is within the above range by the sound length in this note in GM data is used as an evaluation value.

歌唱技法計算部115は、ピッチ取得部111により取得された歌唱音声のピッチと、音量取得部112により取得された歌唱音声の音量とに基づいて、歌唱音声データを歌唱技法毎に評価する。この実施形態では、歌唱技法計算部115は、歌唱音声データのピッチの変化により歌唱技法を特定し、特定した歌唱技法をノート毎に評価する。この実施形態では、歌唱技法計算部115は、「ビブラート」、「しゃくり」、「こぶし」、「フォール」の各歌唱技法について評価を行う。「ビブラート」については、歌唱技法計算部115は、ピッチの時間的な変化のパターンを解析し、中心となるピッチの上下に所定の範囲内でピッチが連続的に変動している区間を特定し、特定した区間を含むノートを「ビブラート」が用いられているノートとする。「ビブラート」の歌唱技法については、歌唱技法計算部115は、ピッチ変動の一様性とピッチ変動の深さ、継続時間、音量の一様性等を評価し採点する。   The singing technique calculation unit 115 evaluates the singing voice data for each singing technique based on the pitch of the singing voice acquired by the pitch acquisition unit 111 and the volume of the singing voice acquired by the volume acquisition unit 112. In this embodiment, the singing technique calculation unit 115 specifies the singing technique by changing the pitch of the singing voice data, and evaluates the specified singing technique for each note. In this embodiment, the singing technique calculation unit 115 evaluates each of the singing techniques “vibrato”, “shakuri”, “fist”, and “fall”. For “vibrato”, the singing technique calculation unit 115 analyzes the pattern of temporal change in pitch, and identifies a section where the pitch continuously fluctuates within a predetermined range above and below the central pitch. A note including the specified section is a note in which “vibrato” is used. For the “vibrato” singing technique, the singing technique calculation unit 115 evaluates and scores the uniformity of pitch fluctuation, the depth of pitch fluctuation, the duration, the uniformity of volume, and the like.

「しゃくり」については、歌唱技法計算部115は、ピッチの時間的な変化のパターンを解析し、フレーズの冒頭で低いピッチから目的のピッチに連続的にピッチが変化する区間を特定し、特定した区間を含むノートを「しゃくり」の歌唱技法が用いられているノートとする。「しゃくり」の歌唱技法については、歌唱技法計算部115は、ピッチの変動幅と変動時間等を評価し採点する。   As for “shakuri”, the singing technique calculation unit 115 analyzes the pattern of the temporal change in pitch, and identifies and specifies the section where the pitch continuously changes from the low pitch to the target pitch at the beginning of the phrase. A note including a section is assumed to be a note in which the singing technique of “shakuri” is used. As for the “shakuri” singing technique, the singing technique calculation unit 115 evaluates and scores the fluctuation range and the fluctuation time of the pitch.

「フォール」については、歌唱技法計算部115は、ピッチの時間的な変化のパターンを解析し、フレーズの終わりで一定のピッチで長く伸ばすロングトーンから低いピッチに連続的にピッチが変化する区間を特定し、特定した区間を含むノートを「フォール」の歌唱技法が用いられているノートとする。「フォール」の歌唱技法については、歌唱技法計算部115は、ピッチの変動幅と変動時間等を評価し採点する。   For “Fall”, the singing technique calculation unit 115 analyzes the pattern of the temporal change in pitch, and calculates a section in which the pitch continuously changes from a long tone that extends long at a constant pitch to a low pitch at the end of the phrase. A note including the specified section is defined as a note in which the “fall” singing technique is used. For the “fall” singing technique, the singing technique calculation unit 115 evaluates and scores the fluctuation range and the fluctuation time of the pitch.

「こぶし」については、歌唱技法計算部115は、ピッチの時間的な変化のパターンを解析し、フレーズ中に短時間でピッチが上下する区間を特定し、特定した区間を含むノートを「こぶし」が用いられているノートとする。「こぶし」の歌唱技法については、歌唱技法計算部115は、ピッチの変動幅と変動時間等を評価し採点する。   For “fist”, the singing technique calculation unit 115 analyzes a pattern of temporal change in pitch, identifies a section where the pitch goes up and down in a short time in the phrase, and “fists” a note including the identified section. Suppose that is used. For the “fist” singing technique, the singing technique calculation unit 115 evaluates and scores the pitch fluctuation range and the fluctuation time.

抑揚計算部116は、音量取得部112により取得された音量に基づいて抑揚の巧拙をノート毎に評価する。評価の態様としては、例えば、GMに含まれるノート毎に音量基準値が設定されている構成とし、抑揚計算部116が、この音量基準値と歌唱音声データから特定された音量とを比較し、両者の差分に応じて抑揚の巧拙を評価してもよい。また、例えば、小節毎等の予め定められた区間毎に音量基準値が設定されている構成とし、抑揚計算部116が、区間毎の設定された音量基準値と歌唱音声データから特定された音量とを比較し、比較結果に応じて評価してもよい。   The inflection calculation unit 116 evaluates the skill of inflection for each note based on the volume acquired by the volume acquisition unit 112. As an aspect of the evaluation, for example, a volume reference value is set for each note included in the GM, and the intonation calculation unit 116 compares the volume reference value with the volume specified from the singing voice data, The skill of inflection may be evaluated according to the difference between the two. Further, for example, a volume reference value is set for each predetermined section such as each measure, and the intonation calculation unit 116 determines the volume specified from the set volume reference value and the singing voice data for each section. And may be evaluated according to the comparison result.

リズム計算部117は、ピッチ取得部111により取得された歌唱音声のピッチと、音量取得部112により取得された歌唱音声の音量とに基づき、歌唱音声のリズムをノート毎に評価する。リズム計算部117は、歌唱音声のピッチと音量とから、GMに含まれる各ノートに対応する音の発音タイミングを特定し、特定した発音タイミングとGMに含まれるノートの発音タイミングとを比較し、両者の差分に応じて評価を行う。   The rhythm calculation unit 117 evaluates the rhythm of the singing voice for each note based on the pitch of the singing voice acquired by the pitch acquisition unit 111 and the volume of the singing voice acquired by the volume acquisition unit 112. The rhythm calculation unit 117 identifies the sound generation timing of the sound corresponding to each note included in the GM from the pitch and volume of the singing voice, compares the specified sound generation timing with the sound generation timing of the note included in the GM, Evaluation is performed according to the difference between the two.

声質計算部118は、声質取得部113により取得された声質に基づき、歌唱音声の声質をノート毎に評価する。この実施形態では、声質計算部118は、声質取得部113により取得された声質(全帯域の音量に対する高域レベルの比率)に応じて声質の評価を行う。このとき、声質計算部118は、全帯域の音量に対する高域レベルの比率が大きいほど評価が高くなるように、声質の評価値を計算する。なお、声質の評価の態様はこれに限定されるものではなく、公知の他の技術を用いて声質を評価するものであってもよい。   The voice quality calculation unit 118 evaluates the voice quality of the singing voice for each note based on the voice quality acquired by the voice quality acquisition unit 113. In this embodiment, the voice quality calculation unit 118 evaluates the voice quality according to the voice quality acquired by the voice quality acquisition unit 113 (the ratio of the high frequency level to the volume of the entire band). At this time, the voice quality calculation unit 118 calculates the evaluation value of the voice quality so that the higher the ratio of the high frequency level to the volume of the entire band is, the higher the evaluation is. In addition, the aspect of evaluation of voice quality is not limited to this, You may evaluate voice quality using other well-known techniques.

得点部119は、音程得点計算部114、歌唱技法計算部115、抑揚計算部116、リズム計算部117、及び声質計算部118により計算された評価値を用いて歌唱音声の評価を行う。このとき、得点部119は、音程得点計算部114、歌唱技法計算部115、抑揚計算部116、リズム計算部117、及び声質計算部118により計算されたノート毎の評価値に対して、コード取得部121、キー変化取得部123、同時発音数取得部124、伴奏リズム取得部125、テンポ変化取得部127から通知される重み付け係数を用いて重み付けを行い、歌唱音声の得点を計算する。この重み付け処理については後述する。音程得点計算部114、歌唱技法計算部115、抑揚計算部116、リズム計算部117、声質計算部118、及び得点部119は、本発明に係る評価部の一例である。得点部119は、計算した結果を表示部40に出力し、計算結果を表示部40に表示させる。   The score unit 119 evaluates the singing voice using the evaluation values calculated by the pitch score calculation unit 114, the singing technique calculation unit 115, the intonation calculation unit 116, the rhythm calculation unit 117, and the voice quality calculation unit 118. At this time, the score unit 119 obtains a code for the evaluation value for each note calculated by the pitch score calculation unit 114, the singing technique calculation unit 115, the intonation calculation unit 116, the rhythm calculation unit 117, and the voice quality calculation unit 118. Weighting is performed using the weighting coefficients notified from the unit 121, the key change acquisition unit 123, the simultaneous pronunciation number acquisition unit 124, the accompaniment rhythm acquisition unit 125, and the tempo change acquisition unit 127, and the score of the singing voice is calculated. This weighting process will be described later. The pitch score calculation unit 114, the singing technique calculation unit 115, the intonation calculation unit 116, the rhythm calculation unit 117, the voice quality calculation unit 118, and the score unit 119 are examples of the evaluation unit according to the present invention. The score unit 119 outputs the calculated result to the display unit 40 and causes the display unit 40 to display the calculation result.

伴奏特徴抽出部120は、操作部30から歌唱者によって選択された楽曲の曲番号を取得し、取得した曲番号に対応する伴奏音データを伴奏音データ記憶領域21から取得し、取得した伴奏音データの特徴を特定する。伴奏特徴抽出部120は、本発明に係る伴奏音データ取得部及び伴奏データ特徴特定部の一例である。伴奏特徴抽出部120は、コード取得部121と、キー取得部122と、キー変化取得部123と、同時発音数取得部124と、伴奏リズム取得部125と、テンポ取得部126と、テンポ変化取得部127とで構成される。   The accompaniment feature extraction unit 120 acquires the song number of the song selected by the singer from the operation unit 30, acquires the accompaniment sound data corresponding to the acquired song number from the accompaniment sound data storage area 21, and acquires the accompaniment sound. Identify the characteristics of the data. The accompaniment feature extraction unit 120 is an example of an accompaniment sound data acquisition unit and an accompaniment data feature identification unit according to the present invention. The accompaniment feature extraction unit 120 includes a chord acquisition unit 121, a key acquisition unit 122, a key change acquisition unit 123, a simultaneous pronunciation number acquisition unit 124, an accompaniment rhythm acquisition unit 125, a tempo acquisition unit 126, and a tempo change acquisition. Part 127.

コード取得部121は、伴奏音データの単位時間(例えば、1小節、等)に含まれるピッチのパターンを解析することによって、伴奏音データの単位時間毎のコード(コード進行)を特定する。なお、伴奏音データのコード進行の特定の態様はこれに限らず、例えば、コード進行を表すデータ(コード進行データ)を伴奏音データに予め付与しておく構成とし、コード取得部121が、伴奏音データに付与されたコード進行データを読み出すことによって単位時間毎のコードを特定してもよい。また、コード取得部121は、例えば特開2004−184510号公報に示されるオーディオ信号からの和音進行検出及びデータ化技術等の公知の技術を用いてコードを特定してもよい。   The chord acquisition unit 121 identifies a chord (chord progression) for each unit time of the accompaniment sound data by analyzing a pitch pattern included in the unit time (for example, one measure) of the accompaniment sound data. The specific mode of chord progression of the accompaniment sound data is not limited to this. For example, data representing chord progression (chord progression data) is preliminarily added to the accompaniment sound data, and the chord acquisition unit 121 includes the accompaniment sound data. The chord for each unit time may be specified by reading the chord progression data given to the sound data. Moreover, the chord acquisition part 121 may specify a chord using well-known techniques, such as a chord progress detection from an audio signal shown by Unexamined-Japanese-Patent No. 2004-184510, and data conversion technique, for example.

この実施形態では、コード取得部121は、特定したコードに応じて、「音程」、「リズム」、「抑揚」、「技法」、といった複数の評価項目についての重み付け係数の値を特定し、特定した重み付け係数を得点部119に通知する。より具体的には、この実施形態では、コード取得部121は、コード進行が予め定められたパターン(例えば、V→I)である場合に、「音程」を含む一つまたは複数の評価項目に対応する重み付け係数の値を大きくする。例えば、コード進行がVからIに変化する箇所においてはメロディが終止し、音程が重要視されるため、このような箇所が上手く歌唱されると、聴取者は歌唱が上手いと感じる場合が多い。そのため、このようにコード進行が予め定められたパターンの箇所において「音程」の評価項目についての重み付けを大きくすることによって、装置の評価を聴取者の評価に近づけることができる。一方、コード取得部121は、コード進行が予め定められたパターンでない場合には、各評価項目について予め定められた値を重み付け係数の値として特定する。   In this embodiment, the chord acquisition unit 121 identifies and specifies weighting coefficient values for a plurality of evaluation items such as “pitch”, “rhythm”, “intonation”, and “technique” according to the identified chord. The obtained weighting coefficient is notified to the score unit 119. More specifically, in this embodiment, when the chord progression is a predetermined pattern (for example, V → I), the chord acquisition unit 121 selects one or a plurality of evaluation items including “pitch”. Increase the value of the corresponding weighting factor. For example, the melody stops at places where the chord progression changes from V to I, and the pitch is regarded as important. Therefore, when such a place is sung well, the listener often feels that the singing is good. Therefore, the evaluation of the apparatus can be made closer to the evaluation of the listener by increasing the weighting for the evaluation item of “pitch” at the portion of the pattern where the chord progression is determined in advance. On the other hand, if the chord progression is not a predetermined pattern, the chord acquisition unit 121 specifies a predetermined value for each evaluation item as the value of the weighting coefficient.

キー取得部122は、伴奏音データに付与されたキー情報を取得することによって、伴奏音データのキーを特定する。なお、伴奏音データのキーの特定の態様はこれに限らない。例えば、キー取得部122は、伴奏音データに含まれるピッチのパターンを解析することによって、伴奏音データのキーを特定してもよい。キー取得部122は、取得したキーを示す情報をキー変化取得部123に出力する。   The key acquisition unit 122 specifies the key of the accompaniment sound data by acquiring key information given to the accompaniment sound data. In addition, the specific aspect of the key of accompaniment sound data is not restricted to this. For example, the key acquisition unit 122 may identify the key of the accompaniment sound data by analyzing the pitch pattern included in the accompaniment sound data. The key acquisition unit 122 outputs information indicating the acquired key to the key change acquisition unit 123.

キー変化取得部123は、キー取得部122から出力される情報に従って、伴奏音データの表す伴奏音においてキーが変化する箇所を特定する。キー変化取得部123は、特定結果に従って、「音程」、「リズム」、「抑揚」、「技法」、といった複数の評価項目についての重み付け係数の値を特定し、特定した重み付け係数を得点部119に通知する。このとき、キー変化取得部123は、キーが変化した後の「音程」を含む一つまたは複数の評価項目に対応する重み付け係数の値を大きくする。キーが変化する箇所においては音程がとりづらいため、キーが変化した箇所において「音程」の評価項目についての重み付けを大きくすることによって、装置の評価を聴取者の評価に近づけることができる。一方、キー変化取得部123は、キーが変化していない箇所においては、各評価項目について予め定められた値を重み付け係数の値として特定する。   The key change acquisition unit 123 specifies a location where the key changes in the accompaniment sound represented by the accompaniment sound data according to the information output from the key acquisition unit 122. The key change acquisition unit 123 specifies weighting coefficient values for a plurality of evaluation items such as “pitch”, “rhythm”, “intonation”, and “technique” according to the specifying result, and obtains the specified weighting coefficient score unit 119. Notify At this time, the key change acquisition unit 123 increases the value of the weighting coefficient corresponding to one or a plurality of evaluation items including the “pitch” after the key is changed. Since it is difficult to obtain a pitch at a location where the key changes, it is possible to make the evaluation of the device closer to the listener's evaluation by increasing the weighting for the evaluation item of “pitch” at the location where the key changes. On the other hand, the key change acquisition unit 123 specifies a predetermined value for each evaluation item as the value of the weighting coefficient at a portion where the key is not changed.

同時発音数取得部124は、伴奏音データの表す伴奏音において予め定められた単位時間(例えば、0.1s、1小節、等)内に含まれるノートの数を伴奏音データの特徴として特定する。同時発音数取得部124は、特定結果に従って複数の評価項目についての重み付け係数の値を特定し、特定した重み付け係数を得点部119に通知する。このとき、同時発音数取得部124は、特定されたノートの数(一定時間内に発音されたノートの数)によって「音程」を含む一つまたは複数の評価項目についての重み付け係数の値を加減する。この実施形態では、同時発音数取得部124は、特定されたノートの数が少ないほど、「音程」の評価項目についての重み付け係数の値を大きくする。伴奏の同時発音数が少ない部分ではアカペラに近い状態となり歌唱が目立つため、「音程」の評価の重み付けを大きくすることで、装置の評価を聴取者の評価に近づけることができる。一方、同時発音数が多い部分では歌唱は目立たないため、このような箇所において「音程」の評価の重み付けを大きくする必要はない。   The simultaneous sound number acquisition unit 124 specifies the number of notes included in a predetermined unit time (for example, 0.1 s, one measure, etc.) in the accompaniment sound represented by the accompaniment sound data as a feature of the accompaniment sound data. . The simultaneous sound number acquisition unit 124 specifies weighting coefficient values for a plurality of evaluation items according to the specifying result, and notifies the specified weighting coefficient to the score unit 119. At this time, the simultaneous sound number acquisition unit 124 adjusts the value of the weighting coefficient for one or a plurality of evaluation items including “pitch” according to the specified number of notes (number of notes sounded within a certain time). To do. In this embodiment, the simultaneous pronunciation number acquisition unit 124 increases the value of the weighting coefficient for the evaluation item of “pitch” as the number of specified notes is smaller. In the part where the number of simultaneous sounds of accompaniment is small, the state becomes close to a cappella and the singing is conspicuous. Therefore, by increasing the weight of the “pitch” evaluation, the evaluation of the apparatus can be made closer to the evaluation of the listener. On the other hand, since the singing is not conspicuous in the portion where the number of simultaneous pronunciations is large, it is not necessary to increase the weight of the “pitch” evaluation in such a portion.

また、同時発音数取得部124は、伴奏音データの表す伴奏音において予め定められた単位時間内における伴奏の同時発音数(単位時間内に含まれるノートの数)の変動を特定し、特定結果に従って複数の評価項目についての重み付け係数の値を特定してもよい。このとき、同時発音数取得部124は、同時発音数(単位時間内に含まれるノートの数)の変動が小さい場合は、単位時間内における楽曲の構成がなだらかである(バラード箇所)と判断し、このような箇所でも歌唱が目立つため、「音程」の評価項目の重み付けを大きくしてもよい。このようにすることで、装置の評価を聴取者の評価に近づけることができる。   In addition, the simultaneous sound number acquisition unit 124 specifies a change in the simultaneous sound number of the accompaniment (the number of notes included in the unit time) within a predetermined unit time in the accompaniment sound represented by the accompaniment sound data, and the specified result According to the above, the value of the weighting coefficient for a plurality of evaluation items may be specified. At this time, if the variation in the number of simultaneous pronunciations (number of notes included in the unit time) is small, the simultaneous sound number acquisition unit 124 determines that the composition of the music in the unit time is gentle (ballad portion). Since the singing is conspicuous even in such a place, the weight of the evaluation item of “pitch” may be increased. By doing in this way, evaluation of a device can be brought close to evaluation of a listener.

伴奏リズム取得部125は、伴奏音データを解析して、伴奏音データによって表されるリズムを特定し、特定結果に応じて、評価項目毎の重み付け係数の値を特定する。より具体的には、この実施形態では、伴奏リズム取得部125は、GMデータによって表されるリズムを特定し、伴奏音データのリズムとGMデータのリズムとがずれている箇所(例えば、シンコペーション、3連符等)においては、「リズム」を含む一つまたは複数の評価項目についての重み付け係数の値を大きくする。伴奏のリズムと歌唱のリズムとがずれている場合(シンコペーションや3連符等)においては、リズムがとりづらいため、このような箇所で上手くリズムのあった歌唱が行われると、聴取者は歌唱が上手いと感じる場合が多い。そのため、伴奏音データのリズムとGMデータのリズムとがずれている箇所において「リズム」の評価項目についての重み付けを大きくすることによって、装置の評価を聴取者の評価に近づけることができる。   The accompaniment rhythm acquisition unit 125 analyzes the accompaniment sound data, identifies the rhythm represented by the accompaniment sound data, and identifies the value of the weighting coefficient for each evaluation item according to the identification result. More specifically, in this embodiment, the accompaniment rhythm acquisition unit 125 specifies the rhythm represented by the GM data, and a location where the rhythm of the accompaniment sound data and the rhythm of the GM data are shifted (for example, syncopation, In triplets, etc., the value of the weighting coefficient for one or more evaluation items including “rhythm” is increased. If the rhythm of the accompaniment and the singing rhythm are out of sync (such as syncopation or triplet), the rhythm is difficult to take. Often feel good. Therefore, the evaluation of the apparatus can be made closer to the evaluation of the listener by increasing the weighting on the evaluation item of “rhythm” at the location where the rhythm of the accompaniment sound data and the rhythm of the GM data are shifted.

テンポ取得部126は、伴奏音データに付与されたテンポ情報を取得することによって、伴奏音データのテンポを特定する。なお、伴奏音データのテンポの特定の態様はこれに限らない。例えば、テンポ取得部126は、伴奏音データに含まれる各ノートの発音タイミングを解析することによってテンポを特定してもよい。テンポ取得部126は、特定したテンポを表す情報をテンポ変化取得部127に出力する。   The tempo acquisition unit 126 specifies the tempo of the accompaniment sound data by acquiring tempo information given to the accompaniment sound data. In addition, the specific aspect of the tempo of accompaniment sound data is not restricted to this. For example, the tempo acquisition unit 126 may specify the tempo by analyzing the sound generation timing of each note included in the accompaniment sound data. The tempo acquisition unit 126 outputs information indicating the specified tempo to the tempo change acquisition unit 127.

テンポ変化取得部127は、テンポ取得部126から出力される情報に従って、伴奏音データの表す伴奏音においてテンポが変化する箇所を特定する。テンポ変化取得部127は、テンポが変化する箇所において、「リズム」を含む一つまたは複数の評価項目についての重み付け係数の値が大きくなるように各評価項目の重み付け係数の値を特定し、特定した重み付け係数を、音程得点計算部114、歌唱技法計算部115、抑揚計算部116、リズム計算部117、声質計算部118に通知する。この実施形態では、テンポが変化する箇所ではリズムがとりにくくなるので、そのような箇所でテンポ通りに歌えると得点が上昇するように、テンポが変化する部分のリズムの重み付けを大きくする。   The tempo change acquisition unit 127 specifies a location where the tempo changes in the accompaniment sound represented by the accompaniment sound data according to the information output from the tempo acquisition unit 126. The tempo change acquisition unit 127 specifies the weighting coefficient value of each evaluation item so that the value of the weighting coefficient for one or a plurality of evaluation items including “rhythm” is increased at the location where the tempo changes. The weighted coefficient is notified to the pitch score calculation unit 114, the singing technique calculation unit 115, the intonation calculation unit 116, the rhythm calculation unit 117, and the voice quality calculation unit 118. In this embodiment, since it becomes difficult to take a rhythm at a location where the tempo changes, the weight of the rhythm where the tempo changes is increased so that the score increases when singing at the tempo at such a location.

得点部119は、音程得点計算部114、歌唱技法計算部115、抑揚計算部116、リズム計算部117、及び声質計算部118により計算されたノート毎の評価値に対して、コード取得部121、キー変化取得部123、同時発音数取得部124、伴奏リズム取得部125、テンポ変化取得部127によって通知された重み付け係数を用いて重み付けを行って、歌唱音声の得点を計算する。   The score unit 119 includes a chord acquisition unit 121 for the evaluation values for each note calculated by the pitch score calculation unit 114, the singing technique calculation unit 115, the intonation calculation unit 116, the rhythm calculation unit 117, and the voice quality calculation unit 118. Weighting is performed using the weighting coefficients notified by the key change acquisition unit 123, the simultaneous pronunciation number acquisition unit 124, the accompaniment rhythm acquisition unit 125, and the tempo change acquisition unit 127, and the score of the singing voice is calculated.

図6は、得点部119が行う得点計算処理の内容の一例を説明するための図である。図6に示す例では、歌唱音声データに含まれる各ノートについて、「音程」、「リズム」、「抑揚」、「技法」、といった複数の評価項目毎に、「得点」と「重み」とが得点部119に通知される。図6において、「得点」は、音程得点計算部114、歌唱技法計算部115、抑揚計算部116、リズム計算部117、声質計算部118のそれぞれから通知される、評価項目毎のノート単位での得点を示す。「重み」は、コード取得部121、キー変化取得部123、同時発音数取得部124、伴奏リズム取得部125、テンポ変化取得部127のそれぞれから通知される評価項目毎の重み付け係数の平均値を示す。得点部119は、これらの「得点」と「重み」とを評価項目毎に乗算し、その平均値を求めることによってノート毎の評価値を求める。得点部119は、このノート毎の評価値を集計することによって、歌唱音声全体の評価を行う。   FIG. 6 is a diagram for explaining an example of the content of the score calculation process performed by the score unit 119. In the example shown in FIG. 6, for each note included in the singing voice data, “score” and “weight” are obtained for each of a plurality of evaluation items such as “pitch”, “rhythm”, “intonation”, and “technique”. The score unit 119 is notified. In FIG. 6, “score” is a note unit for each evaluation item notified from each of the pitch score calculation unit 114, the singing technique calculation unit 115, the intonation calculation unit 116, the rhythm calculation unit 117, and the voice quality calculation unit 118. Shows the score. “Weight” is the average value of the weighting coefficient for each evaluation item notified from each of the chord acquisition unit 121, the key change acquisition unit 123, the simultaneous pronunciation number acquisition unit 124, the accompaniment rhythm acquisition unit 125, and the tempo change acquisition unit 127. Show. The score unit 119 multiplies these “score” and “weight” for each evaluation item, and obtains an average value thereof to obtain an evaluation value for each note. The scoring unit 119 evaluates the entire singing voice by counting the evaluation values for each note.

<動作>
図7は、制御部10が行う処理の流れを示すフロー図である。操作部30を介して歌唱者により楽曲が予約されると(ステップS100;Yes)、制御部10は、記憶部20から予約された楽曲の検索を行う(ステップS102)。具体的にはステップS102において、制御部10は、伴奏音データ記憶領域21、映像データ記憶領域22、及びGMデータ記憶領域23の各々から、選択された楽曲の曲番号または曲名をキーにして、その楽曲に関するデータを検索し、検索結果のデータをRAMに読み込む。
<Operation>
FIG. 7 is a flowchart showing the flow of processing performed by the control unit 10. When a song is reserved by a singer via the operation unit 30 (step S100; Yes), the control unit 10 searches for a reserved song from the storage unit 20 (step S102). Specifically, in step S102, the control unit 10 uses the song number or song name of the selected song from each of the accompaniment sound data storage area 21, the video data storage area 22, and the GM data storage area 23 as a key. Data relating to the music is searched, and the search result data is read into the RAM.

次いで、制御部10は、RAMに記憶された伴奏音データ、映像データ、及びGMデータに基づいて、カラオケ楽曲の再生を行う(ステップS104)。具体的にはステップS104において、制御部10は、伴奏音データ及びGMデータに基づく音声をスピーカ62から放音させるとともに、映像データに基づく映像を表示部40に表示させる。そして制御部10は、マイクロホン61によって収音された歌唱者の歌唱音声が音声処理部60によってデジタルのデータに変換されたものである歌唱音声データを、歌唱音声データ記憶領域24に記憶させる(ステップS106)。カラオケ楽曲の再生が終了すると、制御部10は、歌唱音声データ記憶領域24に記憶された歌唱音声データとGMデータとに基づいて、歌唱の採点を行う(ステップS108)。そして制御部10は、採点結果を表示部40に表示させる(ステップS110)。   Next, the control unit 10 reproduces karaoke music based on the accompaniment sound data, video data, and GM data stored in the RAM (step S104). Specifically, in step S104, the control unit 10 causes the speaker 62 to emit sound based on the accompaniment sound data and the GM data, and causes the display unit 40 to display a video based on the video data. And the control part 10 memorize | stores the singing voice data in which the singing voice of the singer picked up with the microphone 61 was converted into digital data by the voice processing part 60 in the singing voice data storage area 24 (step). S106). When the reproduction of the karaoke music is finished, the control unit 10 scores the song based on the song voice data and the GM data stored in the song voice data storage area 24 (step S108). And the control part 10 displays a scoring result on the display part 40 (step S110).

図8は、制御部10が行う採点処理(図7のステップS108)の流れを示すフロー図である。まず、制御部10は、上述したピッチ取得部111、音量取得部112、声質取得部113の処理を行う。すなわち、制御部10は、歌唱音声データにより示される音の特徴(ピッチ、音量、声質)を特定する(ステップS200)。次いで、制御部10は、上述した音程得点計算部114、歌唱技法計算部115、抑揚計算部116、リズム計算部117、声質計算部118の処理を行う。すなわち、制御部10は、ステップS200で特定した特徴を用いて歌唱音声データを評価項目毎に評価する(ステップS210)。次いで、制御部10は、上述した伴奏特徴抽出部120の処理を行う。すなわち、制御部10は、伴奏音データの特徴(コード、キー、キー変化、所定時間内のノート数、リズム、テンポ、テンポ変化)を特定し(ステップS220)、特定した特徴に基づいて評価項目毎の重み付け係数の値を特定する(ステップS230)。次いで、制御部10は、上述した得点部119の処理を行う。すなわち、制御部10は、ステップS210で特定された評価項目毎の評価結果に対して、ステップS230で特定された評価項目毎の重み付け係数を用いて重み付けを行い、重み付け結果に従って歌唱音声データを評価する(ステップS240)。   FIG. 8 is a flowchart showing the flow of the scoring process (step S108 in FIG. 7) performed by the control unit 10. First, the control unit 10 performs the processes of the pitch acquisition unit 111, the volume acquisition unit 112, and the voice quality acquisition unit 113 described above. That is, the control unit 10 specifies the characteristics (pitch, volume, voice quality) of the sound indicated by the singing voice data (step S200). Next, the control unit 10 performs the processes of the pitch score calculation unit 114, the singing technique calculation unit 115, the intonation calculation unit 116, the rhythm calculation unit 117, and the voice quality calculation unit 118 described above. That is, the control part 10 evaluates singing voice data for every evaluation item using the characteristic specified by step S200 (step S210). Next, the control unit 10 performs the process of the accompaniment feature extraction unit 120 described above. That is, the control unit 10 specifies the characteristics (code, key, key change, number of notes within a predetermined time, rhythm, tempo, tempo change) of the accompaniment sound data (step S220), and the evaluation item based on the specified characteristics The value of each weighting coefficient is specified (step S230). Subsequently, the control part 10 performs the process of the score part 119 mentioned above. That is, the control unit 10 weights the evaluation result for each evaluation item specified in step S210 using the weighting coefficient for each evaluation item specified in step S230, and evaluates the singing voice data according to the weighting result. (Step S240).

なお、図8に示す例では、制御部10は、歌唱音声データの特徴を特定した(ステップS200)後に、歌唱音声データを評価項目毎に評価し(ステップS210)、その後、伴奏音データの特徴を特定する(ステップS230)構成としたが、制御部10が行う処理の順序はこれに限らない。例えば、制御部10は、図8に示すステップS210とステップS220の処理の順序を入れ替えて、伴奏音データの特徴を特定した後に、歌唱音声データを評価項目毎に評価してもよい。また、例えば、制御部10は、ステップS200の処理とステップS220の処理とをマルチタスクOS等により並行に処理する構成であってもよい。このように、制御部10が行う処理の順序は任意であり、伴奏音データの特徴に従って評価項目毎の評価値に重み付けを行った歌唱音声データを評価する構成であればよい。   In the example shown in FIG. 8, the control unit 10 specifies the characteristics of the singing voice data (step S200), then evaluates the singing voice data for each evaluation item (step S210), and then the characteristics of the accompaniment sound data. However, the order of the processing performed by the control unit 10 is not limited to this. For example, the control unit 10 may evaluate the singing voice data for each evaluation item after switching the order of the processes of step S210 and step S220 shown in FIG. 8 and specifying the characteristics of the accompaniment sound data. Further, for example, the control unit 10 may be configured to process the processing in step S200 and the processing in step S220 in parallel by a multitask OS or the like. As described above, the order of the processing performed by the control unit 10 is arbitrary, and any configuration may be used as long as the singing voice data is weighted to the evaluation value for each evaluation item according to the characteristics of the accompaniment sound data.

上述したように本実施形態では、コード進行、伴奏のリズム、単位時間内のノート数(同時発音数)といった伴奏の特徴を用いて歌唱音声を評価する。このようにすることにより、より聴いた感じに近い採点を行うことができる。例えば、伴奏の同時発音数が少ない部分では歌唱が目立つので、その部分の「音程」の採点結果を重視する、といった採点を行うことができる。また、本実施形態では、伴奏特徴抽出部120が伴奏音データの特徴を特定するから、楽曲毎に予め採点用の採点基準データを用意する必要がなく、既存のカラオケ装置において用いられている伴奏音データを用いて、聴取者の聴いた感じに近い採点を行うことができる。   As described above, in the present embodiment, the singing voice is evaluated using accompaniment features such as chord progression, accompaniment rhythm, and the number of notes in a unit time (number of simultaneous pronunciations). By doing in this way, scoring closer to the feeling heard can be performed. For example, since the singing is conspicuous in a portion where the number of simultaneous pronunciations of accompaniment is small, scoring can be performed such that the scoring result of “pitch” in that portion is emphasized. In the present embodiment, the accompaniment feature extraction unit 120 identifies the characteristics of the accompaniment sound data, so it is not necessary to prepare scoring reference data for scoring in advance for each song, and the accompaniment used in existing karaoke apparatuses. Using the sound data, it is possible to perform scoring close to the listener's feeling.

<変形例>
上述の実施形態は次のように変形可能である。尚、以下の変形例は適宜組み合わせて実施しても良い。また、上記実施形態と以下の変形例を組み合わせて実施しても良い。
<Modification>
The above-described embodiment can be modified as follows. In addition, you may implement the following modifications suitably combining. Moreover, you may implement combining the said embodiment and the following modifications.

<変形例1>
上述の実施形態では、制御部10が、マイクロホン61によって収音された音声のピッチ、音量、音質を音データの特徴として特定したが、音データの特徴はこれらに限らない。例えば、制御部10は、FFTなどを用いて得られる周波数分析結果や、特定の倍音のパワーの変動、特定の倍音と基音のパワーの比率、倍音成分のパワーの合計と基音パワーの比率、SN比率、等を音データの特徴として特定してもよい。また、他の例として、例えば、制御部10は、ラウドネス(音量を聴覚の周波数特性に合わせて補正した値。「A特性音圧レベル」、「サウンドレベル」とも呼ばれる。)等を音の特徴として特定してもよい。このように、音声の特徴を表すものであればどのようなものであってもよく、特定される特徴を用いて音声が評価される構成であればよい。また、上述の実施形態では、制御部10が、音声のピッチ、音量、音質を音データの特徴として特定したが、例えば、音声の音量や音質を特定せずにピッチのみを用いて評価を行う構成としてもよい。
<Modification 1>
In the above-described embodiment, the control unit 10 specifies the pitch, volume, and sound quality of the sound collected by the microphone 61 as the characteristics of the sound data, but the characteristics of the sound data are not limited to these. For example, the control unit 10 uses the frequency analysis result obtained by using FFT or the like, the fluctuation of the power of a specific harmonic, the ratio of the power of the specific harmonic and the fundamental, the ratio of the power of the harmonic component and the fundamental power, SN The ratio and the like may be specified as the characteristics of the sound data. As another example, for example, the control unit 10 determines the sound characteristics such as loudness (a value obtained by correcting the sound volume according to the frequency characteristics of hearing, also referred to as “A characteristic sound pressure level” or “sound level”). May be specified. As described above, any structure may be used as long as it represents the characteristics of the sound, and any structure may be used as long as the sound is evaluated using the specified characteristics. In the above-described embodiment, the control unit 10 specifies the pitch, volume, and sound quality of the sound as the characteristics of the sound data. For example, the evaluation is performed using only the pitch without specifying the sound volume and sound quality. It is good also as a structure.

<変形例2>
上述の実施形態では、制御部10は、「音程」、「リズム」、「抑揚」、「技法」、といった評価項目について評価を行ったが、評価項目は上述した実施形態で示したものに限らない。例えば、トレモロ、ため、ファルセットといった技法について評価を行ってもよく、要は、制御部10が、歌唱音声データにより示される音を評価項目毎に評価するものであればどのようなものであってもよい。
<Modification 2>
In the above-described embodiment, the control unit 10 has evaluated the evaluation items such as “pitch”, “rhythm”, “intonation”, and “technique”, but the evaluation items are not limited to those shown in the above-described embodiment. Absent. For example, a technique such as tremolo, and so on may be evaluated. In short, what is necessary is that the control unit 10 evaluates the sound indicated by the singing voice data for each evaluation item. Also good.

<変形例3>
上述の実施形態では、制御部10は、評価結果を表示部40にさせることによって評価結果を示すデータを出力したが、評価結果を示すデータの出力態様はこれに限らない。例えば、制御部10が、評価結果を示すデータを、外部接続された記憶装置に出力するようにしてもよく、また、例えば、通信ネットワークを介して接続されたサーバ装置へ送信することによって評価結果データを出力するようにしてもよい。また、上述の実施形態では、採点結果を表示部40に出力することによって歌唱者に報知したが、報知の態様はこれに限らず、例えば、音声メッセージや報知音、結果をプリントした紙や電子データによって報知してもよく、採点結果を歌唱者に報知するものであればどのようなものであってもよい。
<Modification 3>
In the above-described embodiment, the control unit 10 outputs the data indicating the evaluation result by causing the display unit 40 to display the evaluation result. However, the output mode of the data indicating the evaluation result is not limited thereto. For example, the control unit 10 may output data indicating the evaluation result to an externally connected storage device, or, for example, by transmitting the data to a server device connected via a communication network. Data may be output. In the above-described embodiment, the singer is notified by outputting the scoring result to the display unit 40. However, the notification mode is not limited to this, and for example, a voice message, a notification sound, and a paper or electronic printed result. You may alert | report by data and what kind of thing may be sufficient as long as it informs a singer of a scoring result.

<変形例4>
上述の実施形態では、制御部10は、歌唱者の歌唱音声を評価したが、歌唱者の歌唱音声に代えて、演奏者による楽器の演奏音を評価してもよい。すなわち、本発明に係る音データは、楽曲の伴奏音に合わせて歌唱された歌唱音声を表す音データであってもよく、また、伴奏音に合わせて演奏された演奏音を表す音データであってもよい。本実施形態にいう「音声」には、人間が発生した音声や楽器の演奏音といった種々の音響が含まれる。
<Modification 4>
In the above-mentioned embodiment, although the control part 10 evaluated the song voice of a singer, it may replace with the song voice of a singer, and may evaluate the performance sound of the musical instrument by a player. That is, the sound data according to the present invention may be sound data representing a singing voice sung in accordance with the accompaniment sound of the music, or sound data representing a performance sound performed in accordance with the accompaniment sound. May be. The “speech” referred to in the present embodiment includes various sounds such as a sound generated by a person and a performance sound of a musical instrument.

<変形例5>
上述の実施形態では、伴奏音データから抽出された特徴に応じて評価項目毎の重み付け係数の値を特定する処理として、音程得点計算部114が、コード取得部121によって取得されたコード進行に応じて「音程」についての重み付け係数の値を大きくする場合や、キー変化取得部123によって取得されたキーの変化箇所において「音程」についての重み付け係数の値を大きくする場合等について説明した。伴奏音データから抽出された特徴に応じて評価項目毎の重み付け係数の値を特定する処理は、上述した実施形態において説明したものに限定されない。
<Modification 5>
In the above-described embodiment, the pitch score calculation unit 114 responds to the chord progression acquired by the chord acquisition unit 121 as the process of specifying the value of the weighting coefficient for each evaluation item according to the feature extracted from the accompaniment sound data. The case where the value of the weighting coefficient for the “pitch” is increased, the case where the value of the weighting coefficient for the “pitch” is increased at the key change point acquired by the key change acquisition unit 123, and the like have been described. The process of specifying the value of the weighting coefficient for each evaluation item according to the feature extracted from the accompaniment sound data is not limited to that described in the above-described embodiment.

例えば、伴奏音データに含まれるノートのピッチとGMデータのピッチとを比較し、比較結果に基づいて経過音を特定する経過音特定部128(図5に点線で図示)を設ける構成とし、経過音特定部128が、特定された経過音については「音程」の評価項目の重み付け係数を大きくしてもよい。一般的に経過音は音程をとりにくいため、経過音における「音程」の重み付け係数を大きくすることで、装置の評価結果を聴取者の評価に近づけることができる。   For example, a progress sound specifying unit 128 (shown by a dotted line in FIG. 5) that compares the pitch of notes included in accompaniment sound data with the pitch of GM data and specifies the elapsed sound based on the comparison result is provided. The sound specifying unit 128 may increase the weighting coefficient of the evaluation item of “pitch” for the specified elapsed sound. In general, since the elapsed sound is difficult to take a pitch, the evaluation result of the apparatus can be made closer to the evaluation of the listener by increasing the weighting coefficient of the “pitch” in the elapsed sound.

また、他の例として、例えば、伴奏データを解析して伴奏のフレーズ構造を特定し、特定したフレーズ構造から、フレーズ中の頂点(音量のピークをもってくるべき場所)を推定するピーク位置取得部129(図5に点線で図示)を設ける構成とし、ピーク位置取得部129が、推定されたピークの位置において「抑揚」の重み付け係数の値を大きくしてもよい。ピーク位置取得部129が行うピーク位置の推定処理については、例えば、「(橋田光代・田中駿二・片寄晴弘著、「ユーザの意図に応える演奏表現デザイン支援環境」、情報処理学会研究報告(音楽情報科学)、2010年2月)」の文献に開示された技術を用いる。   As another example, for example, the accompaniment data is analyzed to identify the accompaniment phrase structure, and from the identified phrase structure, the peak position acquisition unit 129 that estimates the apex (the place where the volume peak should be reached) in the phrase is estimated. The peak position acquisition unit 129 may increase the weighting coefficient value of “intonation” at the estimated peak position. The peak position estimation processing performed by the peak position acquisition unit 129 includes, for example, “(Hitoda Mitsuyo, Tanaka Junji, Katayose Haruhiro,“ Performance Expression Design Support Environment Responding to User Intent ”, Information Processing Society of Japan Research Report (Music Information Science), February 2010) "is used.

また、上述の実施形態では、採点部12は、歌唱音声を評価項目毎に評価し、評価項目毎の評価結果に対して重み付け係数を用いて重み付けを行うことによって、歌唱音声全体の評価を行ったが、評価の態様はこれに限らない。例えば、採点部12は、音程のみに基づいて歌唱音声の評価を行ってもよい。この場合は、重み付け係数を用いる必要はなく、採点部12は、例えば、コード進行が予め定められたパターンである場合に採点基準を厳しくする、といった処理を行ってもよい。採点部12は、歌唱音声データから特定された特徴に基づき、歌唱音声データを、伴奏音データから特定された特徴に基づいた評価態様で評価するものであればどのようなものであってもよい。   In the above-described embodiment, the scoring unit 12 evaluates the singing voice for each evaluation item, and weights the evaluation result for each evaluation item using a weighting coefficient, thereby evaluating the entire singing voice. However, the aspect of evaluation is not limited to this. For example, the scoring unit 12 may evaluate the singing voice based only on the pitch. In this case, it is not necessary to use a weighting coefficient, and the scoring unit 12 may perform processing such as strict scoring criteria when the chord progression is a predetermined pattern, for example. The scoring unit 12 may be anything as long as it evaluates the singing voice data in the evaluation mode based on the characteristics specified from the accompaniment sound data based on the characteristics specified from the singing voice data. .

また、上述の実施形態では、伴奏音データに伴奏音のキーを示すキー情報や、伴奏音のテンポを表すテンポ情報が予め付与されている構成としたが、これに限らず、GMデータにキー情報やテンポ情報が付与されている構成であってもよい。この場合も、上述の実施形態と同様に、伴奏特徴抽出部120が、GMデータからキー情報やテンポ情報を取得し、取得したキー情報やテンポ情報に従って評価項目毎の重み付け係数を特定すればよい。   In the above-described embodiment, the key information indicating the key of the accompaniment sound and the tempo information indicating the tempo of the accompaniment sound are pre-assigned to the accompaniment sound data. A configuration to which information or tempo information is given may be used. In this case as well, the accompaniment feature extraction unit 120 may acquire key information and tempo information from GM data and specify a weighting coefficient for each evaluation item according to the acquired key information and tempo information, as in the above-described embodiment. .

<変形例6>
上述の実施形態では、音程得点計算部114、歌唱技法計算部115、抑揚計算部116、リズム計算部117、声質計算部118は、歌唱音声データをノート毎に採点し、ノート毎の採点結果を集計することで、歌唱音声データを評価したが、歌唱音声データの評価の態様はこれに限らない。例えば、図9に示すように、各評価項目においてすべてのノートに対し採点を行い、各採点結果に対してそれぞれ重み付け係数を乗算し、それらの平均値または合計値を算出することによって評価項目毎の評価値を求めてもよい。この場合、得点部119は、得られた評価項目毎の得点の平均値又は合計値を算出することで、歌唱音声データの得点とする。なお、合計値を算出する場合は、得点部119は、最大値が100点になるように正規化を行ってもよい。
<Modification 6>
In the above-described embodiment, the pitch score calculation unit 114, the singing technique calculation unit 115, the intonation calculation unit 116, the rhythm calculation unit 117, and the voice quality calculation unit 118 score the singing voice data for each note, and the scoring result for each note. Although the singing voice data is evaluated by counting, the manner of evaluation of the singing voice data is not limited to this. For example, as shown in FIG. 9, scoring is performed for all notes in each evaluation item, and each scoring result is multiplied by a weighting coefficient, and an average value or total value is calculated for each evaluation item. The evaluation value may be obtained. In this case, the score unit 119 calculates the average value or the total value of the scores for each obtained evaluation item, thereby obtaining the score of the singing voice data. When calculating the total value, the score unit 119 may perform normalization so that the maximum value becomes 100 points.

<変形例7>
上述の実施形態では、制御部10が、歌唱音声データを歌唱音声データ記憶領域24に記憶し、歌唱が終了した後に採点を行うようにしたが、これに限らず、歌唱中にリアルタイムで採点処理を行うようにしてもよい。歌唱中にリアルタイムで採点処理を行う場合には、制御部10は、採点結果の表示を、歌唱者の歌唱中に随時行ってもよく、また、歌唱終了後に行ってもよい。
<Modification 7>
In the above-described embodiment, the control unit 10 stores the singing voice data in the singing voice data storage area 24 and performs the scoring after the singing is finished. However, not limited to this, the scoring process is performed in real time during the singing. May be performed. When performing the scoring process in real time during the singing, the control unit 10 may display the scoring result at any time during the singing of the singer or after the singing ends.

<変形例8>
上述の実施形態において、通信ネットワークで接続された2以上の装置が、上記実施形態のカラオケ装置100に係る機能を分担するようにし、それら複数の装置を備えるシステムが同実施形態のカラオケ装置100を実現するようにしてもよい。例えば、マイクロホンやスピーカ、表示装置及び操作部等を備えるコンピュータ装置と、採点処理を実行するサーバ装置とが通信ネットワークで接続されたシステムとして構成されていてもよい。この場合は、例えば、コンピュータ装置が、マイクロホンで収音された音声をオーディオ信号に変換してサーバ装置に送信し、サーバ装置が、受信したオーディオ信号を解析して採点し、採点結果をコンピュータ装置に送信してもよい。この態様によれば、カラオケ端末の処理負荷が軽減され、また、サーバにおける統計処理が可能になる。
<Modification 8>
In the above-described embodiment, two or more devices connected by a communication network share the functions related to the karaoke device 100 of the above-described embodiment, and a system including the plurality of devices uses the karaoke device 100 of the same embodiment. It may be realized. For example, a computer device including a microphone, a speaker, a display device, an operation unit, and the like may be configured as a system in which a server device that executes scoring processing is connected via a communication network. In this case, for example, the computer apparatus converts the sound collected by the microphone into an audio signal and transmits it to the server apparatus, and the server apparatus analyzes and scores the received audio signal, and the scoring result is calculated by the computer apparatus. May be sent to. According to this aspect, the processing load of the karaoke terminal is reduced, and statistical processing in the server becomes possible.

また、上述の実施形態では、制御部10がROM又は記憶部20に記憶されたコンピュータプログラムを読み出して実行することによって図4に示す伴奏再生部11や採点部12が実現されたが、伴奏再生部11や採点部12は、CPU等の制御部によりソフトウェアとして実現されるに限らない。カラオケ装置100が図4に示される機能要素の各々に対応する専用のハードウェア(回路)を有していてもよい。   In the above-described embodiment, the accompaniment reproduction unit 11 and the scoring unit 12 shown in FIG. 4 are realized by the control unit 10 reading and executing the computer program stored in the ROM or the storage unit 20. The unit 11 and the scoring unit 12 are not limited to being realized as software by a control unit such as a CPU. The karaoke apparatus 100 may have dedicated hardware (circuit) corresponding to each of the functional elements shown in FIG.

<変形例9>
本発明は、評価装置以外にも、これらを実現するための方法や、コンピュータに音声評価機能を実現させるためのプログラムとしても把握される。かかるプログラムは、これを記憶させた光ディスク等の記録媒体の形態で提供されたり、インターネット等を介して、コンピュータにダウンロードさせ、これをインストールして利用させるなどの形態でも提供されたりする。この態様によれば、家庭のPC(Personal Computer)や携帯端末(スマートフォンを含む)、ゲーム装置等で、上述した実施形態に係るサービスを提供できる。
<Modification 9>
In addition to the evaluation apparatus, the present invention can be understood as a method for realizing these and a program for causing a computer to realize a voice evaluation function. Such a program may be provided in the form of a recording medium such as an optical disk storing the program, or may be provided in the form of being downloaded to a computer via the Internet or the like and installed and used. According to this aspect, the service according to the above-described embodiment can be provided by a home PC (Personal Computer), a mobile terminal (including a smartphone), a game device, or the like.

10…制御部、20…記憶部、21…伴奏音データ記憶領域、22…映像データ記憶領域、23…GMデータ記憶領域、24…歌唱音声データ記憶領域、30…操作部、40…表示部、50…通信制御部、60…音声処理部、61…マイクロホン、62…スピーカ、70…バス、100…カラオケ装置、111…ピッチ取得部、112…音量取得部、113…声質取得部、114…音程得点計算部、115…歌唱技法計算部、116…抑揚計算部、117…リズム計算部、118…声質計算部、119…得点部、120…伴奏特徴抽出部、121…コード取得部、122…キー取得部、123…キー変化取得部、124…同時発音数取得部、125…伴奏リズム取得部、126…テンポ取得部、127…テンポ変化取得部、128…経過音特定部、200…サーバ装置、210…ネットワークストレージ DESCRIPTION OF SYMBOLS 10 ... Control part, 20 ... Storage part, 21 ... Accompaniment sound data storage area, 22 ... Image | video data storage area, 23 ... GM data storage area, 24 ... Singing voice data storage area, 30 ... Operation part, 40 ... Display part, DESCRIPTION OF SYMBOLS 50 ... Communication control part, 60 ... Sound processing part, 61 ... Microphone, 62 ... Speaker, 70 ... Bus, 100 ... Karaoke apparatus, 111 ... Pitch acquisition part, 112 ... Volume acquisition part, 113 ... Voice quality acquisition part, 114 ... Pitch Score calculation unit, 115 ... Singing technique calculation unit, 116 ... Intonation calculation unit, 117 ... Rhythm calculation unit, 118 ... Voice quality calculation unit, 119 ... Scoring unit, 120 ... Accompaniment feature extraction unit, 121 ... Chord acquisition unit, 122 ... Key Acquisition unit, 123 ... key change acquisition unit, 124 ... simultaneous pronunciation number acquisition unit, 125 ... accompaniment rhythm acquisition unit, 126 ... tempo acquisition unit, 127 ... tempo change acquisition unit, 128 ... elapsed sound characteristics Department, 200 ... server, 210 ... network storage

Claims (6)

楽曲の模範となる音を表す評価用データを取得する評価用データ取得部と、
前記楽曲の伴奏音を表す伴奏音データを取得する伴奏音データ取得部と、
前記伴奏音に合わせて歌唱された歌唱音声又は演奏された演奏音を表す音データを取得する音データ取得部と、
前記音データ取得部が取得した音データの特徴を特定する音データ特徴特定部と、
前記伴奏音データ取得部が取得した伴奏音データを解析して当該伴奏音データの特徴を特定する伴奏データ特徴特定部と、
前記音データ特徴特定部により特定された特徴と前記評価用データ取得部により取得された評価用データに基づき前記音データを評価する際に、前記音データを、前記伴奏データ特徴特定部によって特定された特徴に応じた評価態様で評価する評価部と
を具備し、
前記伴奏データ特徴特定部は、前記取得された伴奏音データの示す伴奏音において予め定められた時間内に含まれるノートの数、当該伴奏音においてキーが変化する箇所、及び当該伴奏音のフレーズ構造のうちの少なくともいずれかを、当該伴奏音の特徴として特定する
ことを特徴とする評価装置。
An evaluation data acquisition unit for acquiring evaluation data representing the sound that serves as an example of the music;
An accompaniment sound data acquisition unit for acquiring accompaniment sound data representing the accompaniment sound of the music;
A sound data acquisition unit for acquiring sound data representing a singing voice or a performance sound performed according to the accompaniment sound;
A sound data feature specifying unit for specifying a feature of the sound data acquired by the sound data acquiring unit;
An accompaniment data feature identifying unit that analyzes the accompaniment sound data acquired by the accompaniment sound data acquisition unit and identifies the characteristics of the accompaniment sound data;
When evaluating the sound data based on the feature specified by the sound data feature specifying unit and the evaluation data acquired by the evaluation data acquiring unit, the sound data is specified by the accompaniment data feature specifying unit. An evaluation unit that evaluates in an evaluation mode according to the characteristics
The accompaniment data feature specifying unit, the number of notes contained within a predetermined time in the obtained accompaniment sound accompaniment sound indicated by the data, a phrase of this該伴locations key changes in Soon, and the accompaniment tone An evaluation apparatus characterized by specifying at least one of the structures as a characteristic of the accompaniment sound.
前記評価部は、
前記音データ特徴特定部により特定された特徴に基づき、前記音データを複数の評価項目について評価する項目別評価部と、
前記伴奏データ特徴特定部によって特定された特徴に応じて前記評価項目毎の重み付け係数の値を特定する係数特定部と、
前記項目別評価部による前記評価項目毎の評価結果に対して、前記係数特定部によって特定された前記評価項目毎の重み付け係数を用いて重み付けを行い、該重み付け結果に従って前記音データを評価する音データ評価部と
を具備することを特徴とする請求項1に記載の評価装置。
The evaluation unit is
An item-by-item evaluation unit that evaluates the sound data for a plurality of evaluation items based on the features specified by the sound data feature specifying unit;
A coefficient specifying unit for specifying a value of a weighting coefficient for each evaluation item according to the feature specified by the accompaniment data feature specifying unit;
The evaluation results for each of the evaluation items by the item-by-item evaluation unit, performs weighting using the weighting factor for each of the evaluation items specified by the coefficient specifying unit, evaluating the sound data according to the result of said weighting The evaluation apparatus according to claim 1, further comprising: a sound data evaluation unit.
前記項目別評価部は、前記音データ特徴特定部により特定された特徴に基づき、前記音データを、音程を含む複数の評価項目について評価し、
前記伴奏データ特徴特定部は、前記伴奏音データの示す伴奏音において予め定められた時間内に含まれるノートの数を前記伴奏音データの特徴として特定し、
前記係数特定部は、前記伴奏データ特徴特定部によって特定された前記ノートの数によって前記音程を含む一つまたは複数の評価項目についての重み付け係数の値を加減する
ことを特徴とする請求項2に記載の評価装置。
The item-based evaluation unit evaluates the sound data for a plurality of evaluation items including a pitch based on the features specified by the sound data feature specifying unit,
The accompaniment data feature specifying unit specifies the number of notes included in a predetermined time in the accompaniment sound indicated by the accompaniment sound data as a feature of the accompaniment sound data,
The coefficient specifying unit adjusts the value of a weighting coefficient for one or a plurality of evaluation items including the pitch according to the number of notes specified by the accompaniment data feature specifying unit. The evaluation device described.
前記項目別評価部は、前記音データ特徴特定部により特定された特徴に基づき、前記音データを、音程を含む複数の評価項目について評価し、
前記伴奏データ特徴特定部は、前記伴奏音データを解析して前記伴奏音のコード進行を特定し、
前記係数特定部は、前記伴奏データ特徴特定部によって特定されたコード進行が予め定められたパターンである場合に、前記音程を含む一つまたは複数の評価項目についての重み付け係数の値を大きくする
ことを特徴とする請求項2に記載の評価装置。
The item-based evaluation unit evaluates the sound data for a plurality of evaluation items including a pitch based on the features specified by the sound data feature specifying unit,
The accompaniment data feature specifying unit analyzes the accompaniment sound data and specifies the chord progression of the accompaniment sound,
The coefficient specifying unit increases the value of the weighting coefficient for one or more evaluation items including the pitch when the chord progression specified by the accompaniment data feature specifying unit is a predetermined pattern. The evaluation apparatus according to claim 2, wherein:
前記項目別評価部は、前記音データ特徴特定部により特定された特徴に基づき、前記音データを、リズムを含む複数の評価項目について評価し、
前記伴奏データ特徴特定部は、前記伴奏音データによって表されるリズムと前記評価用データによって表されるリズムとが異なる箇所を前記伴奏音データの特徴として特定し、
前記係数特定部は、前記伴奏データ特徴特定部によって特定された箇所において、前記リズムを含む一つまたは複数の評価項目についての重み付け係数の値を大きくする
ことを特徴とする請求項2に記載の評価装置。
The evaluation unit for each item evaluates the sound data for a plurality of evaluation items including a rhythm based on the features specified by the sound data feature specifying unit,
The accompaniment data feature specifying unit specifies, as a feature of the accompaniment sound data, a location where the rhythm represented by the accompaniment sound data differs from the rhythm represented by the evaluation data,
The said coefficient specific | specification part enlarges the value of the weighting coefficient about the one or some evaluation item containing the said rhythm in the location specified by the said accompaniment data characteristic specific | specification part. Evaluation device.
コンピュータに、
楽曲の模範となる音を表す評価用データを取得するステップと、
前記楽曲の伴奏音を表す伴奏音データを取得するステップと、
前記伴奏音に合わせて歌唱された歌唱音声又は演奏された演奏音を表す音データを取得するステップと、
前記取得された音データの特徴を特定するステップと、
前記取得された伴奏音データを解析して当該伴奏音データの特徴を特定するステップであって、前記取得された伴奏音データの示す伴奏音において予め定められた時間内に含まれるノートの数、当該伴奏音においてキーが変化する箇所、及び当該伴奏音のフレーズ構造のうちの少なくともいずれかを、当該伴奏音の特徴として特定するステップと、
前記特定された音データの特徴と前記取得された評価用データに基づき前記音データを評価する際に、前記音データを、前記特定された伴奏音データの特徴に応じた評価態様で評価するステップと
を実行させるためのプログラム。
On the computer,
Obtaining evaluation data representing the sound that serves as an example of the music;
Obtaining accompaniment sound data representing the accompaniment sound of the music;
Obtaining sound data representing a singing voice or a performance sound performed according to the accompaniment sound;
Identifying the characteristics of the acquired sound data;
Analyzing the acquired accompaniment sound data to identify the characteristics of the accompaniment sound data, the number of notes included within a predetermined time in the accompaniment sound indicated by the acquired accompaniment sound data ; a step portion where the key is changed, and that at least one of phrase structure of the accompaniment tone, to identify as a feature of the accompaniment tone in those該伴Soon,
A step of evaluating the sound data in an evaluation manner according to the characteristics of the specified accompaniment sound data when evaluating the sound data based on the characteristics of the specified sound data and the acquired evaluation data; A program to execute and.
JP2016181508A 2016-09-16 2016-09-16 Evaluation apparatus and program Expired - Fee Related JP6288197B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016181508A JP6288197B2 (en) 2016-09-16 2016-09-16 Evaluation apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016181508A JP6288197B2 (en) 2016-09-16 2016-09-16 Evaluation apparatus and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012083729A Division JP6102076B2 (en) 2012-04-02 2012-04-02 Evaluation device

Publications (2)

Publication Number Publication Date
JP2017027070A JP2017027070A (en) 2017-02-02
JP6288197B2 true JP6288197B2 (en) 2018-03-07

Family

ID=57946569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016181508A Expired - Fee Related JP6288197B2 (en) 2016-09-16 2016-09-16 Evaluation apparatus and program

Country Status (1)

Country Link
JP (1) JP6288197B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6788560B2 (en) * 2017-09-05 2020-11-25 株式会社エクシング Singing evaluation device, singing evaluation program, singing evaluation method and karaoke device
CN113643676A (en) * 2020-04-27 2021-11-12 汲趣艺术科技(上海)有限公司 Performance evaluation system
CN113593506A (en) * 2021-08-03 2021-11-02 深圳媲客科技有限公司 Singing scoring-based singing voice evaluation system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3261990B2 (en) * 1996-09-03 2002-03-04 ヤマハ株式会社 Karaoke equipment
JPH10161654A (en) * 1996-11-27 1998-06-19 Sanyo Electric Co Ltd Musical classification determining device
JP2003005769A (en) * 2001-06-26 2003-01-08 Sharp Corp Musical sound generating apparatus, musical sound generating method and recording medium having musical sound generating program recorded thereon
JP4600152B2 (en) * 2005-05-25 2010-12-15 ヤマハ株式会社 Digital radio receiver
JP4655047B2 (en) * 2007-01-11 2011-03-23 ヤマハ株式会社 Voice evaluation device and karaoke device

Also Published As

Publication number Publication date
JP2017027070A (en) 2017-02-02

Similar Documents

Publication Publication Date Title
JP5958041B2 (en) Expression performance reference data generation device, performance evaluation device, karaoke device and device
KR20080053251A (en) The karaoke system which has a song studying function
CN112382257A (en) Audio processing method, device, equipment and medium
JP6288197B2 (en) Evaluation apparatus and program
JP6102076B2 (en) Evaluation device
JP2007271977A (en) Evaluation standard decision device, control method, and program
JP4163584B2 (en) Karaoke equipment
JP2007256618A (en) Search device
JP5772054B2 (en) Singing evaluation device
JP2010237257A (en) Evaluation device
JP2008216486A (en) Music reproduction system
WO2014142200A1 (en) Voice processing device
JP4491743B2 (en) Karaoke equipment
JP6024130B2 (en) Voice evaluation device
JP2006251697A (en) Karaoke device
KR101813704B1 (en) Analyzing Device and Method for User&#39;s Voice Tone
JP2007256619A (en) Evaluation device, control method and program
JP6944357B2 (en) Communication karaoke system
JP4218066B2 (en) Karaoke device and program for karaoke device
JP5618743B2 (en) Singing voice evaluation device
JP6074835B2 (en) Music practice support device
JP6144593B2 (en) Singing scoring system
JP2004279462A (en) Karaoke machine
JP5994343B2 (en) Performance evaluation device and karaoke device
JP2007233078A (en) Evaluation device, control method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170831

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170919

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171213

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20171221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180122

R151 Written notification of patent or utility model registration

Ref document number: 6288197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees