JP2015069082A - Information processing device, data generation method and program - Google Patents
Information processing device, data generation method and program Download PDFInfo
- Publication number
- JP2015069082A JP2015069082A JP2013204484A JP2013204484A JP2015069082A JP 2015069082 A JP2015069082 A JP 2015069082A JP 2013204484 A JP2013204484 A JP 2013204484A JP 2013204484 A JP2013204484 A JP 2013204484A JP 2015069082 A JP2015069082 A JP 2015069082A
- Authority
- JP
- Japan
- Prior art keywords
- data
- singing
- music
- evaluation
- technique
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
Description
本発明は、評価データを生成する情報処理装置、データ生成方法、及びプログラムに関する。 The present invention relates to an information processing apparatus that generates evaluation data, a data generation method, and a program.
従来、カラオケ装置においては、歌唱音声における音高推移に基づいて採点した基準点数に、歌唱中に用いた歌唱技巧を評価した付加点数を加えた点数を評価点数として算出することがなされている(特許文献1参照)。 Conventionally, in a karaoke apparatus, a score obtained by adding an additional score obtained by evaluating a singing technique used during singing to a reference score scored based on a pitch transition in a singing voice has been calculated as an evaluation score ( Patent Document 1).
このようなカラオケ装置においては、歌唱すべき旋律を表し楽曲ごとに予め用意されたリファレンスデータと、楽曲を歌唱した際の音声における音高推移とのズレが小さいほど、高い点数となるように基準点数を算出する。さらに、特許文献1に記載のカラオケ装置では、歌唱音声を解析して歌唱中に用いられた各種の歌唱技巧を検出し、歌唱技巧が用いられた回数が多いほど、大きな値の付加点数を算出している。
In such a karaoke device, the reference data that represents the melody to be sung and prepared in advance for each song and the difference between the pitch transitions in the voice when singing the song is smaller, the higher the score Calculate the score. Furthermore, in the karaoke apparatus described in
一般的な歌謡曲では、楽曲のジャンルや歌手などによって、楽曲を歌唱する際に中心として用いられる歌唱技巧(以下、「特徴歌唱技巧」と称す)の種類が異なる。
このため、特許文献1に記載されたカラオケ装置において、歌唱音声から検出した歌唱技巧を、予め生成した評価データに照合した結果、一致している場合に、付加点数を付与することが考えられる。ここで言う評価データとして、例えば、楽曲を歌唱する際に用いるべき歌唱技巧の内容を、その歌唱技巧を用いるべきタイミングと対応付けたものとすることが考えられる。このような評価データは、通常、人の手によって楽曲ごとに予め生成する必要があり、従来の技術では、楽曲データに基づいて評価データを自動的に生成することが困難であるという課題があった。
In general pop music, the type of singing technique (hereinafter referred to as “characteristic singing technique”) used as a center when singing a music differs depending on the genre or singer of the music.
For this reason, in the karaoke apparatus described in
そこで、本発明は、評価データを生成する技術を提供することを目的とする。 Therefore, an object of the present invention is to provide a technique for generating evaluation data.
上記目的を達成するためになされた本発明は、楽曲データ取得手段と、抽出手段と、第1決定手段と、第2決定手段と、実行手段とを備えた情報処理装置である。
本発明の楽曲データ取得手段は、歌唱した歌唱音を含む楽曲データが記憶された第一記憶部から、楽曲データを取得する。抽出手段は、楽曲データ取得手段により取得された楽曲データから、歌唱した歌唱音を表すボーカルデータを抽出する。
The present invention made to achieve the above object is an information processing apparatus comprising music data acquisition means, extraction means, first determination means, second determination means, and execution means.
The music data acquisition means of this invention acquires music data from the 1st memory | storage part in which the music data containing the singing song sound was memorize | stored. The extraction means extracts vocal data representing the sung singing sound from the music data acquired by the music data acquisition means.
そして、第一決定手段は、抽出手段により抽出されたボーカルデータについて、複数の歌唱技巧についての評価を表す技巧特徴量を決定する。第二決定手段は、複数の楽曲のボーカルデータと、複数の楽曲のボーカルデータについて、複数の歌唱技巧について評価した評価情報とを対応付けて記憶する第二記憶部に記憶された評価情報に基づいて、第1決定手段により決定された技巧特徴量の中で、所定の条件を満たす特徴歌唱技巧を決定する。 And a 1st determination means determines the technique feature-value showing evaluation about several singing techniques about the vocal data extracted by the extraction means. The second determining means is based on the evaluation information stored in the second storage unit that stores the vocal data of the plurality of songs and the evaluation information evaluated on the plurality of singing techniques for the vocal data of the plurality of songs. Thus, the characteristic singing technique satisfying a predetermined condition is determined among the technical feature quantities determined by the first determining means.
さらに、実行手段は、第2決定手段により決定された特徴歌唱技巧を用いて、楽曲に対する歌唱の評価を実行する。
本発明の情報処理装置によれば、評価データとしての特徴歌唱技巧を自動的に生成することができる。しかも、本発明の情報処理装置において、楽曲における特徴的な歌唱技巧であることを所定の条件とすれば、生成する評価データとしての特徴歌唱技巧を、楽曲における特徴的な歌唱技巧とすることができる。
Furthermore, the execution means executes the evaluation of the singing for the music using the characteristic singing technique determined by the second determining means.
According to the information processing apparatus of the present invention, it is possible to automatically generate a characteristic singing technique as evaluation data. In addition, in the information processing apparatus of the present invention, if a predetermined condition is a characteristic singing technique in music, the characteristic singing technique as evaluation data to be generated may be a characteristic singing technique in music. it can.
したがって、このような特徴歌唱技巧を用いて歌唱を評価すれば、楽曲を利用者が歌唱する際に用いた歌唱技巧が特徴歌唱技巧であるか否かを評価でき、評価結果について、利用者の歌唱を聴いた人物が違和感を覚えることを低減できる。 Therefore, if singing is evaluated using such a characteristic singing technique, it can be evaluated whether or not the singing technique used when the user sings the music is a characteristic singing technique. It can be reduced that the person who listens to the song feels uncomfortable.
また、本発明の情報処理装置は、楽曲の演奏中に入力された音声を表す歌唱データを取得する歌唱取得手段を備えていても良い。
この場合、本発明における実行手段は、歌唱取得手段により取得された歌唱データについて、第2決定手段により決定された特徴歌唱技巧を用いて、楽曲に対する歌唱の評価を実行しても良い。
Moreover, the information processing apparatus of this invention may be provided with the song acquisition means which acquires the song data showing the audio | voice input during the performance of the music.
In this case, the execution means in the present invention may perform singing evaluation on the music using the characteristic singing technique determined by the second determination means for the singing data acquired by the singing acquisition means.
このような情報処理装置によれば、楽曲を歌唱した際に、その歌唱に対する評価を実行できる。
さらに、本発明における抽出手段は、楽曲データから、ボーカルデータと、楽曲における伴奏音を表す伴奏データとを抽出しても良い。
According to such an information processing apparatus, when a song is sung, the singing can be evaluated.
Furthermore, the extracting means in the present invention may extract vocal data and accompaniment data representing accompaniment sounds in the music from the music data.
この場合、本発明の情報処理装置は、さらに、抽出手段で抽出した伴奏データに基づいて、楽曲を演奏する演奏手段を備えていても良い。そして、本発明の歌唱取得手段は、演奏手段にて楽曲の演奏中に入力された音声を歌唱データとして取得しても良い。 In this case, the information processing apparatus of the present invention may further include performance means for playing a music piece based on the accompaniment data extracted by the extraction means. And the song acquisition means of this invention may acquire the audio | voice input during the performance of the music by the performance means as song data.
このような情報処理装置によれば、第一記憶部に記憶された楽曲データに基づいて楽曲を演奏でき、その演奏中に入力された音声(歌唱)に対する評価を実行できる。
また、本発明における実行手段は、歌唱データにおける技巧特徴量と特徴歌唱技巧との差分を導出し、その導出した差分が大きいほど、楽曲に対する歌唱の評価を高くしても良い。
According to such an information processing device, music can be played based on the music data stored in the first storage unit, and the evaluation of the voice (singing) input during the performance can be performed.
Moreover, the execution means in this invention may derive | lead-out the difference of the technique feature-value and characteristic song technique in song data, and may raise the evaluation of the song with respect to a music, so that the derived difference is large.
このような情報処理装置によれば、歌唱データにおける技巧特徴量と特徴歌唱技巧との差分が大きいほど高く評価できる。
すなわち、情報処理装置では、歌唱データにおける技巧特徴量と特徴歌唱技巧との差分が大きい場合、歌唱時の技巧が特徴歌唱技巧よりも強く表れているものと言える。
According to such an information processing device, the higher the difference between the skill feature amount and the characteristic singing skill in the song data, the higher the evaluation.
That is, in the information processing apparatus, when the difference between the skill feature quantity and the characteristic singing technique in the song data is large, it can be said that the technique at the time of singing appears more strongly than the characteristic singing technique.
このため、情報処理装置によれば、楽曲における特徴技巧を強く表現した歌唱を高く評価でき、評価結果について、利用者の歌唱を聴いた人物が違和感を覚えることを低減できる。 For this reason, according to the information processing device, a song that strongly expresses a characteristic technique in music can be highly evaluated, and it can be reduced that the person who listened to the user's song feels uncomfortable about the evaluation result.
さらに、本発明における第1決定手段は、技巧特徴量を歌唱技巧ごとに決定し、第2決定手段は、特徴歌唱技巧を歌唱技巧ごとに決定しても良い。この場合、本発明における実行手段は、歌唱データにおける技巧特徴量と特徴歌唱技巧との差分を歌唱技巧ごとに導出し、楽曲における特徴を強く表す歌唱技巧ほど大きな重みを付与して、その導出した差分を重み付き平均することで、楽曲の歌唱を評価しても良い。 Furthermore, the 1st determination means in this invention may determine a technique feature-value for every singing technique, and a 2nd determination means may determine a characteristic singing technique for every singing technique. In this case, the execution means in the present invention derives the difference between the skill feature quantity and the feature singing technique in the singing data for each singing technique, assigns a larger weight to the singing technique that strongly expresses the feature in the music, and derives the difference. The song singing may be evaluated by averaging the differences with weights.
このような情報処理装置によれば、楽曲の歌唱の評価において、特徴を強く表す歌唱技巧に対する評価の割合を高くできる。
本発明の情報処理装置は、さらに、標準算出手段と、評価情報生成手段と、格納制御手段とを備えていても良い。
According to such an information processing device, in the evaluation of song singing, the rate of evaluation with respect to singing techniques that strongly express characteristics can be increased.
The information processing apparatus of the present invention may further include standard calculation means, evaluation information generation means, and storage control means.
本発明における標準算出手段は、複数の楽曲のボーカルデータについての歌唱技巧の標準的な評価を表す標準特徴量を算出する。評価情報生成手段は、標準算出手段で導出された標準特徴量を数値処理し、その数値処理の結果を評価情報として算出する。さらに、格納制御手段は、評価情報生成手段で算出された評価情報を、複数の楽曲のボーカルデータと対応付けて、第二記憶部に格納する。 The standard calculation means in the present invention calculates a standard feature amount representing a standard evaluation of the singing skill for vocal data of a plurality of music pieces. The evaluation information generation means numerically processes the standard feature amount derived by the standard calculation means, and calculates the result of the numerical processing as evaluation information. Further, the storage control means stores the evaluation information calculated by the evaluation information generating means in the second storage unit in association with vocal data of a plurality of music pieces.
このような情報処理装置によれば、評価情報を、複数の楽曲のボーカルデータから導出できる。
なお、ここで言う数値処理とは、例えば、算術平均や標準偏差を求めることである。
According to such an information processing apparatus, evaluation information can be derived from vocal data of a plurality of music pieces.
Note that the numerical processing referred to here is, for example, obtaining an arithmetic mean or standard deviation.
ところで、本発明は、歌唱を評価するデータ生成方法としてなされていても良い。
この場合のデータ生成方法は、第一記憶部から楽曲データを取得する楽曲データ取得過程と、その取得された楽曲データからボーカルデータを抽出する抽出過程と、その抽出されたボーカルデータについて、複数の歌唱技巧についての技巧特徴量を決定する第1決定過程と、第二記憶部に記憶された評価情報に基づいて、第1決定過程により決定された技巧特徴量の中で、所定の条件を満たす特徴歌唱技巧を決定する第2決定過程と、その決定された特徴歌唱技巧を用いて、楽曲に対する歌唱の評価を実行する実行過程とを備えている。
By the way, this invention may be made | formed as a data generation method which evaluates a song.
In this case, the data generation method includes a music data acquisition process for acquiring music data from the first storage unit, an extraction process for extracting vocal data from the acquired music data, and a plurality of extracted vocal data. Based on the first determination process for determining the technique feature amount for the singing technique and the evaluation information stored in the second storage unit, the technique feature amount determined by the first determination process satisfies a predetermined condition. A second determination process for determining the characteristic singing technique and an execution process for performing an evaluation of the singing on the music using the determined characteristic singing technique.
このようなデータ生成方法によれば、請求項1に記載の情報処理装置と同様の効果を得ることができる。
また、本発明は、コンピュータが実行するプログラムとしてなされていても良い。
According to such a data generation method, an effect similar to that of the information processing apparatus according to
Further, the present invention may be made as a program executed by a computer.
この場合、本発明のプログラムは、第一記憶部から楽曲データを取得する楽曲データ取得手順と、その取得された楽曲データからボーカルデータを抽出する抽出手順と、その抽出されたボーカルデータについて、複数の歌唱技巧についての技巧特徴量を決定する第1決定手順と、第二記憶部に記憶された評価情報に基づいて、第1決定手順により決定された技巧特徴量の中で、所定の条件を満たす特徴歌唱技巧を決定する第2決定手順と、その決定された特徴歌唱技巧を用いて、楽曲に対する歌唱の評価を実行する実行手順とをコンピュータに実行させる。 In this case, the program of the present invention includes a plurality of song data acquisition procedures for acquiring song data from the first storage unit, an extraction procedure for extracting vocal data from the acquired song data, and the extracted vocal data. Based on the first determination procedure for determining the skill feature amount for the singing technique and the evaluation information stored in the second storage unit, a predetermined condition is determined among the skill feature amounts determined by the first determination procedure. The computer is made to perform the 2nd determination procedure which determines the characteristic song technique to satisfy | fill, and the execution procedure which performs evaluation of the song with respect to a music using the determined characteristic song technique.
本発明がプログラムとしてなされていれば、記録媒体から必要に応じてコンピュータにロードさせて起動することや、必要に応じて通信回線を介してコンピュータに取得させて起動することにより用いることができる。そして、コンピュータに各手順を実行させることで、そのコンピュータを、請求項1に記載された情報処理装置として機能させることができる。
If the present invention is implemented as a program, it can be used by loading it into a computer from a recording medium as necessary and starting it, or by acquiring it and starting it through a communication line as necessary. And by making a computer perform each procedure, the computer can be functioned as an information processing apparatus described in
なお、ここで言う記録媒体には、例えば、DVD−ROM、CD−ROM、ハードディスク等のコンピュータ読み取り可能な電子媒体を含む。 The recording medium referred to here includes, for example, a computer-readable electronic medium such as a DVD-ROM, a CD-ROM, and a hard disk.
以下に本発明の実施形態を図面と共に説明する。
〈カラオケシステムの構成〉
図1に示すカラオケシステム1は、ユーザ(利用者)が指定した楽曲を演奏し、その演奏に合わせてユーザが歌唱するシステムである。
Embodiments of the present invention will be described below with reference to the drawings.
<Configuration of karaoke system>
The
これを実現するために、カラオケシステム1は、情報処理サーバ10と、少なくとも一台のカラオケ装置30とを備えている。情報処理サーバ10とカラオケ装置30とは、通信網を介して接続されている。なお、ここで言う通信網は、有線による通信網であっても良いし、無線による通信網であっても良い。
In order to realize this, the
情報処理サーバ10は、楽曲ごとに用意された楽曲データMD−1〜MD−Nを格納する。カラオケ装置30は、ユーザ(利用者)が指定した楽曲に対応する楽曲データMDを情報処理サーバ10から取得し、その楽曲データMDに基づいて楽曲を演奏すると共に、その楽曲の演奏中に音声の入力を受け付ける。
The
なお、符号「N」は、楽曲データMDを識別する識別子であり、「N」は、2以上の自然数である。
〈情報処理サーバ〉
情報処理サーバ10は、通信部12と、記憶部14と、制御部16とを備えている。
The code “N” is an identifier for identifying the music data MD, and “N” is a natural number of 2 or more.
<Information processing server>
The
このうち、通信部12は、通信網を介して、情報処理サーバ10が外部との間で通信を行う。
制御部16は、ROM18,RAM20,CPU22を備えた周知のマイクロコンピュータを中心に構成された周知の制御装置である。ROM18は、電源が切断されても記憶内容を保持する必要がある処理プログラムやデータを格納する。RAM20は、処理プログラムやデータを一時的に格納する。CPU22は、ROM18やRAM20に記憶された処理プログラムに従って各処理(各種演算)を実行する。
Among these, the
The
すなわち、制御部16は、情報処理サーバ10を構成する各部を制御すると共に、カラオケ装置30との間のデータ通信を実行する。
記憶部14は、記憶内容を読み書き可能に構成された周知の記憶装置である。この記憶部14には、少なくとも、複数の楽曲データMDが格納される。
That is, the
The
楽曲データMDは、楽曲に関する情報が記述された楽曲管理情報と、楽曲の演奏音を表す原盤波形データと、楽曲の歌詞を表す歌詞データとを備えている。楽曲管理情報には、少なくとも、楽曲を識別する楽曲識別情報(例えば、曲番号)が含まれる。 The music data MD includes music management information in which information related to music is described, master waveform data representing the performance sound of the music, and lyric data representing the lyrics of the music. The music management information includes at least music identification information (for example, music number) for identifying music.
本実施形態の原盤波形データは、複数の楽器の演奏音と、主旋律を歌唱した歌唱音を含む音声データである。この音声データは、非圧縮音声ファイルフォーマットの音声ファイルによって構成されたデータであっても良いし、音声圧縮フォーマットの音声ファイルによって構成されたデータであっても良い。 The master waveform data of the present embodiment is sound data including performance sounds of a plurality of musical instruments and singing sounds singing the main melody. The audio data may be data constituted by an audio file in an uncompressed audio file format, or data constituted by an audio file in an audio compression format.
なお、以下では、原盤波形データに含まれる演奏音を表す音声波形データを伴奏データと称し、原盤波形データに含まれる歌唱音を表す音声波形データをボーカルデータと称す。 In the following, voice waveform data representing performance sound included in the master waveform data is referred to as accompaniment data, and voice waveform data representing singing sound included in the master waveform data is referred to as vocal data.
本実施形態の伴奏データに含まれる楽器の演奏音としては、打楽器(例えば、ドラム,太鼓,シンバルなど)の演奏音,弦楽器(例えば、ギター,ベースなど)の演奏音,打弦
楽器(例えば、ピアノ)の演奏音,及び管楽器(例えば、トランペットやクラリネットなど)の演奏音がある。一般的な楽曲においては、通常、打楽器やベースがリズム楽器として用いられる。
Musical instrument performance sounds included in the accompaniment data of the present embodiment include percussion instrument (eg, drum, drum, cymbal, etc.) performance sounds, stringed instrument (eg, guitar, bass, etc.) performance sounds, percussion instrument (eg, piano) ) And wind instruments (eg, trumpet, clarinet, etc.). In general music, percussion instruments and bass are usually used as rhythm instruments.
なお、記憶部14に格納される楽曲データMDには、プロが作曲した楽曲の楽曲データMDに加えて、カラオケシステム1の一般ユーザが作曲した楽曲の楽曲データMDも含まれる。この一般ユーザが作曲した楽曲の楽曲データMDは、周知の情報処理端末(例えば、パーソナルコンピュータや携帯端末)にて作成され、情報処理サーバ10にアップロードされる。
〈カラオケ装置〉
カラオケ装置30は、通信部32と、入力受付部34と、楽曲再生部36と、記憶部38と、音声制御部40と、映像制御部46と、制御部50とを備えている。
The music data MD stored in the
<Karaoke equipment>
The
通信部32は、通信網を介して、カラオケ装置30が外部との間で通信を行う。入力受付部34は、外部からの操作に従って情報や指令の入力を受け付ける入力機器である。本実施形態における入力機器とは、例えば、キーやスイッチ、リモコンの受付部などである。
In the
楽曲再生部36は、記憶部38に記憶されている楽曲データMDや、情報処理サーバ10からダウンロードした楽曲データMDに基づいて楽曲の再生を行う。音声制御部40は、音声の入出力を制御するデバイスであり、出力部42と、マイク入力部44とを備えている。
The
マイク入力部44には、マイク62が接続される。これにより、マイク入力部44は、ユーザの歌唱音を取得する。出力部42にはスピーカ60が接続されている。出力部42は、楽曲再生部36によって再生される楽曲の音源信号、マイク入力部44からの歌唱音の音源信号をスピーカ60に出力する。スピーカ60は、出力部42から出力される音源信号を音に換えて出力する。
A
映像制御部46は、制御部50から送られてくる映像データに基づく映像の出力を行う。映像制御部46には、映像の表示を行う表示部64が接続されている。
制御部50は、ROM52,RAM54,CPU56を少なくとも有した周知のコンピュータを中心に構成されている。ROM52は、電源が切断されても記憶内容を保持する必要がある処理プログラムやデータを格納する。RAM54は、処理プログラムやデータを一時的に格納する。CPU56は、ROM52やRAM54に記憶された処理プログラムに従って各処理(各種演算)を実行する。
The
The
そして、ROM52には、制御部50が、カラオケ採点処理を実行するための処理プログラムと、評価データ生成処理を実行するための処理プログラムと、標準特徴量算出処理を実行するための処理プログラムとが格納されている。
The
なお、カラオケ採点処理は、ユーザによって指定された楽曲を演奏し、その演奏期間中にマイク62を介して入力された音声を評価する処理である。評価データ生成処理は、カラオケ採点処理に必要な評価データを楽曲データMDごとに生成する処理である。標準特徴量算出処理は、評価データの生成に用いる標準特徴量を算出する処理である。
The karaoke scoring process is a process of playing music designated by the user and evaluating the voice input through the
つまり、カラオケ装置30では、標準特徴量算出処理に従って、評価情報としての標準特徴量を算出すると共に、評価データ生成処理に従って、特徴歌唱技巧としての評価データを楽曲データMDごとに生成する。そして、カラオケ装置30では、カラオケ採点処理に従って、対象楽曲に対応する楽曲データMDに基づいて楽曲を演奏し、その演奏中に、
マイク62を介して入力された音声を歌唱データとして取得する。さらに、カラオケ装置30では、カラオケ採点処理に従って、その取得した歌唱データを採点して評価する。
That is, the
The voice input through the
すなわち、カラオケ装置30は、標準特徴量算出処理、評価データ生成処理、及びカラオケ採点処理を実行する情報処理装置として機能する。
〈標準特徴量算出処理〉
次に、カラオケ装置30の制御部50が実行する標準特徴量算出処理について説明する。
That is, the
<Standard feature calculation processing>
Next, a standard feature amount calculation process executed by the
この標準特徴量算出処理は、予め規定された時間間隔で起動される。なお、標準特徴量算出処理の起動タイミングは、予め規定された時間間隔ごとに限らない。例えば、処理プログラム(アプリケーション)を起動するための起動指令が、入力受付部34を介して入力されたタイミングでも良い。
This standard feature amount calculation process is started at a predetermined time interval. Note that the start timing of the standard feature amount calculation process is not limited to a predetermined time interval. For example, the timing at which a start command for starting a processing program (application) is input via the
そして、標準特徴量算出処理では、図2に示すように、起動されると、まず、制御部50は、情報処理サーバ10に格納されている全ての楽曲データMDの中から、一つの楽曲データMDを取得する(S110)。続いて、制御部50は、S110にて取得した楽曲データMDに含まれる原盤波形データを取得する(S120)。
In the standard feature amount calculation process, as shown in FIG. 2, when activated, the
さらに、標準特徴量算出処理では、制御部50は、S120にて取得した原盤波形データから、伴奏データとボーカルデータとを分離して抽出する(S130)。このS130において、制御部50が、伴奏データとボーカルデータとを分離する手法として、周知の手法(例えば、特開2008−134606に記載された“PreFEst”)が考えられる。なお、PreFEstとは、原盤波形データにおいて最も優勢な音声波形をボーカルデータとして原盤波形データから分離し、残りの音声波形を伴奏データとして分離する手法である。
Further, in the standard feature amount calculation process, the
続いて、標準特徴量算出処理では、制御部50は、S130にて抽出したボーカルデータを採譜処理する(S140)。このS140における採譜処理は、ボーカルデータにおける音圧の時間変化と、ボーカルデータにおける音高の時間変化とに基づいて採譜する周知の手法である。
Subsequently, in the standard feature value calculation process, the
すなわち、採譜処理では、制御部50は、ボーカルデータにおける音圧の時間変化が規定閾値以上となったタイミングを、楽曲における歌唱旋律を構成する各音符の開始タイミングnnt(a,i)として特定する。さらに、採譜処理では、制御部50は、ボーカルデータにおける音圧の時間変化が規定閾値以下となったタイミングを、楽曲における歌唱旋律を構成する各音符の終了タイミングnft(a,i)として特定する。
That is, in the music recording process, the
採譜処理では、制御部50は、互いに対応する開始タイミングnnt(a,i)及び終了タイミングnft(a,i)によって特定される区間を各音符の音符区間として特定する。これと共に、採譜処理では、制御部50は、ボーカルデータにおける音高の時間変化に基づいて、各音符区間における音高を特定し、各音符区間とその音符区間における音高nn(a,i)とを対応付ける。
In the music recording process, the
なお、符号aは、楽曲を識別する符号であり、符号iは、楽曲における歌唱旋律の音符区間を識別する符号である。
標準特徴量算出処理では、制御部50は、さらに、複数の歌唱技巧についての評価を表す技巧特徴量を、楽曲における音符区間ごとに決定する(S150)。ここで言う複数の歌唱技巧には、“ビブラート”,“ため”,“しゃくり”,“フォール”,“こぶし”を含む。
In addition, the code | symbol a is a code | symbol which identifies a music, and the code | symbol i is a code | symbol which identifies the musical note area of the song melody in a music.
In the standard feature value calculation process, the
このうち、“ビブラート”についての技巧特徴量(以下、「ビブラート特徴量」と称す)vib(a,i)の算出では、制御部50は、まず、ボーカルデータから各音符区間に対応する音声波形を抽出し、各音符区間の音声波形について周波数解析(DFT)を実施する。そして、制御部50は、下記(1)式に従って、ビブラート特徴量vib(a,i)を算出する。
Among these, in calculating the technical feature amount (hereinafter referred to as “vibrato feature amount”) vib (a, i) for “vibrato”, the
“ため”についての技巧特徴量(以下、「ため特徴量」と称す)tt(a,i)の算出では、制御部50は、まず、伴奏データにおける非調波成分の音声波形をリズム楽器の演奏音波形として抽出する。この非調波成分の抽出手法として、周知の手法を用いれば良い。具体的な手法の例としては、非調波成分の音声波形を表すフィルタとして予め用意されたフィルタに伴奏音データを通過させることや、“スペクトログラムの滑らかさの異方性に基づいた調波音・打楽器音の分離”(日本音響学会春季研究発表会講演論文集,2−5−8,p.903−904(2008.03))に記載された手法などが考えられる。
In calculating the technical feature amount (hereinafter referred to as “for feature amount”) tt (a, i) for “for”, the
さらに、ため特徴量tt(a,i)の算出では、制御部50は、リズム楽器の演奏音波形において、音圧が規定値以上となるタイミングを拍の位置として推定する。続いて、制御部50は、楽曲の歌唱旋律を構成する音符の中で、音価が最も短い音符(以下、「最短音符」と称す)を抽出する。そして、制御部50は、抽出した最短音符の音価にて拍の位置の間隔を除すことで、発声タイミングを特定する。ここで言う発声タイミングとは、各音符iに対して歌唱を開始する可能性のあるタイミングである。
Further, in calculating the feature quantity tt (a, i), the
ため特徴量tt(a,i)の算出では、さらに、制御部50は、規定条件を満たす発声タイミングを特定する。ここで言う規定条件を満たすとは、開始タイミングnnt(a,i)よりも遅い発声タイミングであって、かつ、開始タイミングnnt(a,i)から減算した値の絶対値が最小となる発声タイミングである。そして、特定した発声タイミングを開始タイミングnnt(a,i)から減算した時間長を、ため特徴量tt(a,i)として算出する。
Therefore, in the calculation of the feature quantity tt (a, i), the
“しゃくり”についての技巧特徴量(以下、「しゃくり特徴量」と称す)rise(a,i)の算出では、制御部50は、まず、ボーカルデータの音高時間変化を微分した微分変化を導出する。続いて、制御部50は、各音符の開始タイミングnnt(a,i)以前で、微分変化が時間軸に沿って正の値となったタイミングを特定する。さらに、制御部50は、その特定した各タイミングから開始タイミングnnt(a,i)までの区間におけるボーカルデータの音高時間変化と予め規定された模範曲線との相互相関値を、しゃくり特徴量rise(a,i)として導出する。
In calculating the skill feature amount (hereinafter referred to as “shackle feature amount”) rise (a, i) for “shrimp”, the
“フォール”についての技巧特徴量(以下、「フォール特徴量」と称す)fall(a,i)の算出では、制御部50は、各音符区間の終了タイミングnft(a,i)以降で、微分変化が時間軸に沿って正の値となった最初のタイミングを特定する。さらに、制御
部50は、歌唱旋律を構成する各音符区間の終了タイミングnft(a,i)から、その特定したタイミングまでの区間におけるボーカルデータの音高時間変化と、予め規定された模範曲線との相互相関値を、フォール特徴量fall(a,i)として導出する。
In calculating the technical feature amount (hereinafter referred to as “fall feature amount”) fall (a, i) for “fall”, the
“こぶし”についての技巧特徴量(以下、「こぶし特徴量」と称す)kob(a,i)の算出では、制御部50は、まず、こぶし区間を特定する。ここで言うこぶし区間とは、複数の音高に渡る各音符を同一母音で音高を変化させながら歌っている区間である。
In calculating the technical feature amount (hereinafter referred to as “fist feature amount”) kob (a, i) for “fist”, the
このため、こぶし特徴量kob(a,i)の算出では、制御部50は、同一母音で発声された区間(以下、「同一母音区間」と称す)を特定する。この同一母音区間の特定方法として、各音符区間のメル周波数ケプストラム(MFCC)の平均値の類似性を相互相関で導出し、相互相関値が閾値以上である音符区間を同一母音区間として特定する方法を用いる。
For this reason, in calculating the fist feature value kob (a, i), the
また、制御部50は、同一母音区間において、設定条件を満たす同一母音区間だけをこぶし区間として特定する。ここで言う設定条件を満たすとは、時間軸に沿って隣接する音符区間の終了タイミングnft(a−1,i)と開始タイミングnnt(a,i)との時間間隔が閾値以下であり、かつ、隣接する音符区間の音高が全て異なることである。
In addition, the
そして、こぶし特徴量kob(a,i)の算出では、制御部50は、こぶし区間におけるボーカル波形からクロマベクトルを算出する。さらに、制御部50は、同こぶし区間における伴奏データのクロマベクトルを算出し、ボーカル波形のクロマベクトルとの相互相関値をこぶし特徴量kob(a,i)として算出する。
In calculating the fist feature value kob (a, i), the
標準特徴量算出処理では、続いて、制御部50が、複数の歌唱技巧について評価した評価情報としての楽曲特徴量を算出する(S160)。この楽曲特徴量とは、ビブラート特徴量vib,ため特徴量tt,しゃくり特徴量rise,フォール特徴量fall,こぶし特徴量kobそれぞれについての一つの楽曲内での平均値である。
In the standard feature value calculation process, the
このため、制御部50は、ビブラート特徴量vibの楽曲特徴量svibを下記(2)式に従って算出する。制御部50は、ため特徴量ttの楽曲特徴量sttを下記(3)式に従って算出する。制御部50は、しゃくり特徴量riseの楽曲特徴量sriseを下記(4)式に従って算出する。さらに、制御部50は、フォール特徴量fallの楽曲特徴量sfallを下記(5)式に従って算出する。制御部50は、こぶし特徴量kobの楽曲特徴量skobを下記(6)式に従って算出する。
Therefore, the
標準特徴量算出処理では、続いて、制御部50は、楽曲特徴量を算出するまでの処理(即ち、S110〜S160)を、全ての楽曲データMDに対して実行したか否かを判定する(S170)。このS170での判定の結果、楽曲特徴量を算出するまでの処理を、全ての楽曲データMDに対して実行していなければ(S170:NO)、制御部50は、標準特徴量算出処理をS110へと戻す。そして、制御部50は、処理を未実行の楽曲データMDを情報処理サーバ10から取得して、S120へと移行する。
In the standard feature value calculation process, the
一方、S170での判定の結果、楽曲特徴量を算出するまでの処理を、全ての楽曲データMDに対して実行していれば(S170:YES)、制御部50は、標準特徴量算出処理をS180へと進める。
On the other hand, as a result of the determination in S170, if the process until calculating the music feature amount is executed for all the music data MD (S170: YES), the
そのS180では、制御部50は、標準特徴量を算出する。この標準特徴量には、楽曲特徴量svib,stt,srise,sfall,skob、それぞれを、全ての楽曲データMDで平均した平均値、及び標準偏差を含む。
In S180, the
このうち、楽曲特徴量svibの平均値msvibは、制御部50が、下記(7)式に従って算出する。さらに、制御部50は、楽曲特徴量sttの平均値msttを下記(8)式に従って算出し、楽曲特徴量sriseの平均値msriseを下記(9)式に従って算出する。制御部50は、楽曲特徴量sfallの平均値msfallを下記(10)式に従って算出し、楽曲特徴量skobの平均値mskobを下記(11)式に従って算出する。
Among these, the average value msvib of the music feature amount sviv is calculated by the
標準特徴量算出処理では、制御部50は、S180にて算出した平均値msvib,mstt,msrise,msfall,mskob、及び標準偏差sdvib,sdtt,sdrise,sdfall,sdkobを標準特徴量として、情報処理サーバ10の記憶部14にアップロードする(S190)。さらに、S190では、制御部50は、楽曲のボーカルデータと、複数の楽曲のボーカルデータについての楽曲特徴量とを対応付けて、情報処理サーバ10の記憶部14に記憶する。
In the standard feature value calculation process, the
その後、本標準特徴量算出処理を終了する。
つまり、本実施形態の標準特徴量算出処理では、制御部50が、複数の楽曲のボーカルデータについての各歌唱技巧の評価を表す技巧特徴量を算出する。さらに、標準特徴量算出処理では、制御部50が、その算出された技巧特徴量を数値処理し、その数値処理の結果を標準特徴量として、情報処理サーバ10の記憶部14に格納する。
〈評価データ生成処理〉
次に、カラオケ装置30の制御部50が実行する評価データ生成処理について説明する。
Thereafter, the standard feature amount calculation process is terminated.
That is, in the standard feature value calculation process of the present embodiment, the
<Evaluation data generation process>
Next, an evaluation data generation process executed by the
この評価データ生成処理は、評価データ生成処理を実行するための起動指令が入力されると起動される。
そして、評価データ生成処理では、図3に示すように、起動されると、まず、制御部50は、情報処理サーバ10に格納されている全ての楽曲データMDの中から、一つの楽曲データMDを取得する(S210)。続いて、制御部50は、S210にて取得した楽曲データMDに含まれる原盤波形データを取得する(S220)。
The evaluation data generation process is started when a start command for executing the evaluation data generation process is input.
Then, in the evaluation data generation process, as shown in FIG. 3, when activated, the
さらに、評価データ生成処理では、制御部50は、S220にて取得した原盤波形データから、伴奏データとボーカルデータとを分離して、伴奏データ及びボーカルデータを抽出する(S230)。このS230における伴奏データとボーカルデータとを分離する手法は、標準特徴量算出処理におけるS130と同様の手法を用いれば良い。
Further, in the evaluation data generation process, the
続いて、評価データ生成処理では、制御部50は、S230にて抽出したボーカルデータを採譜処理する(S240)。このS240における採譜処理は、標準特徴量算出処理のS140における採譜処理と同様の方法を用いれば良い。
Subsequently, in the evaluation data generation process, the
評価データ生成処理では、制御部50は、さらに、S230にて抽出したボーカルデータについての技巧特徴量それぞれを、楽曲における音符区間ごとに決定する(S250)。このS250における技巧特徴量を決定する手法は、標準特徴量算出処理におけるS150と同様の方法を用いれば良い。
In the evaluation data generation process, the
評価データ生成処理では、続いて、制御部50が、楽曲特徴量を算出する(S260)。このS260にて算出する楽曲特徴量には、S230にて抽出したボーカルデータにおける楽曲(ビブラート)特徴量nsvib,楽曲(ため)特徴量nstt,楽曲(しゃくり)特徴量nsrise,楽曲(フォール)特徴量nsfall,楽曲(こぶし)特徴量nskobを含む。これらの楽曲特徴量の導出は、標準特徴量算出処理におけるS160と同様、S250にて算出された技巧特徴量の歌唱技巧ごとの平均値を求めることや、標準偏差を求めることで実現すれば良い。
In the evaluation data generation process, subsequently, the
さらに、評価データ生成処理では、制御部50が、評価データを生成する(S270)。ここで言う評価データとは、楽曲における特徴的な歌唱技巧ほど大きな値となるように、歌唱技巧ごとに規定される重みである。
Further, in the evaluation data generation process, the
具体的にS270では、まず、制御部50は、下記(17)式から(21)式に従って評価値dvib,dtt,drise,dfall,dkobを算出する。
Specifically, in S270, first, the
具体的には、制御部50は、dirvib,dirtt,dirrise,dirfall,dirkobそれぞれを、次の式に従って算出する。
dirvib=sign(nsvib−msvib)
dirtt=sign(nstt−mstt)
dirrise=sign(nsrise−msrise)
dirfall=sign(nsfall−msfall)
dirkob=sign(nskob−mskob)
ただし、ここで言う“sign”は、符号関数であり、括弧内の符号に応じて、「1」,「−1」を返す関数である。つまり、向きdirvib,dirtt,dirrise,dirfall,dirkobは、それぞれ、「1」または「−1」となる。
Specifically, the
dirvib = sign (nsvib-msvib)
dirtt = sign (nstt−mst)
dirrise = sign (nsrise-mrise)
dirfall = sign (nsfall-msfall)
dirkob = sign (nskob-mskob)
However, “sign” here is a sign function, and is a function that returns “1” and “−1” according to the sign in parentheses. That is, the directions dirviv, dirtt, dirrise, dirfall, and dirkob are “1” or “−1”, respectively.
そして、S270では、制御部50は、図5に示すように、楽曲識別情報と、標準特徴量と、重みwvib,wtt,wrise,wfall,wkobと、向きdirvib,dirtt,dirrise,dirfall,dirkobとを歌唱技巧ごとに対応付けることで、評価データを生成する。なお、図5における“ ”内の数値は、標準特徴量、重み、向きの一例を示したものである。
In S270, the
続いて、評価データ生成処理では、制御部50は、S240における採譜処理の結果をリファレンスデータとして生成する(S290)。ここで言うリファレンスデータとは、歌唱すべき旋律を構成する音符(即ち、音高と音価と)を表したデータである。
Subsequently, in the evaluation data generation process, the
そして、評価データ生成処理では、制御部50は、楽曲識別情報と、評価データと、リファレンスデータとを対応付けて情報処理サーバ10の記憶部14にアップロードする(S300)。
In the evaluation data generation process, the
その後、評価データ生成処理を終了する。
つまり、評価データ生成処理では、制御部50が、楽曲における特徴的な歌唱技巧ほど大きな値となる重みを含む情報を評価特徴量として生成する。さらに、評価データ生成処理では、制御部50は、リファレンスデータを生成し、評価データと共に情報処理サーバ10の記憶部14に格納する。
〈カラオケ採点処理〉
次に、カラオケ装置30の制御部50が実行するカラオケ採点処理について説明する。
Thereafter, the evaluation data generation process ends.
In other words, in the evaluation data generation process, the
<Karaoke scoring>
Next, the karaoke scoring process which the
このカラオケ採点処理は、カラオケ採点処理を実行するための処理プログラムを起動する指令が入力されると起動される。
そして、カラオケ採点処理では、起動されると、図4に示すように、制御部50は、まず、入力受付部34を介して指定された楽曲に対応する楽曲データMDを、情報処理サーバ10の記憶部14から取得する(S510)。続いて、制御部50は、S510にて取得した楽曲データMDに含まれている伴奏データを抽出する(S520)。
The karaoke scoring process is activated when a command for activating a processing program for executing the karaoke scoring process is input.
In the karaoke scoring process, when activated, as shown in FIG. 4, the
そして、カラオケ採点処理では、制御部50は、伴奏データを再生して楽曲を演奏する(S530)。具体的にS530では、制御部50は、楽曲再生部36に伴奏データを出力し、その伴奏データを取得した楽曲再生部36は、楽曲の再生を行う。そして、楽曲再生部36によって再生される楽曲の音源信号が、出力部42を介してスピーカ60へと出力される。すると、スピーカ60は、音源信号を音に換えて出力する。
In the karaoke scoring process, the
さらに、カラオケ採点処理では、制御部50は、マイク62及びマイク入力部44を介して入力された音声を歌唱データとして取得する(S540)。そして、制御部50は、S540にて取得した歌唱データを記憶部38に格納する(S550)。
Further, in the karaoke scoring process, the
続いて、カラオケ採点処理では、制御部50は、楽曲の演奏を終了したか否かを判定する(S560)。この判定の結果、楽曲の演奏を終了していなければ(S560:NO)、制御部50は、カラオケ採点処理をS540へと戻す。一方、S560での判定の結果、楽曲の演奏が終了していれば(S560:YES)、制御部50は、カラオケ採点処理をS570へと移行させる。
Subsequently, in the karaoke scoring process, the
そのS570では、制御部50は、記憶部38に格納されている全ての歌唱データを取得する。そして、制御部50は、楽曲における時間軸に沿った歌唱データから、歌唱旋律を構成する各音符を歌唱した区間(以下、「音符歌唱区間」と称す)の歌唱波形それぞれを抽出する(S580)。この音符歌唱区間の特定は、標準特徴量算出処理におけるS140と同様の方法で実施すれば良い。
In S <b> 570, the
続いて、カラオケ採点処理では、制御部50は、歌唱データについての歌唱技巧を評価した技巧特徴量(以下、「歌唱特徴量」と称す)を算出する(S590)。この歌唱特徴量の算出方法は、「ボーカルデータ」を「歌唱データ」へと読み替えることを除けば、標準特徴量算出処理におけるS150及びS160と同様であるため、ここでの詳しい説明は省略する。
Subsequently, in the karaoke scoring process, the
さらに、カラオケ採点処理では、制御部50は、基準評価点を算出する(S600)。このS600での基準評価点の算出では、制御部50は、まず、各音符歌唱区間における歌唱波形の音高推移を、リファレンスデータにおける音高推移に照合する。そして、制御
部50は、照合の結果、一致度が高いほど高い点数とした基準評価点を算出する。
Further, in the karaoke scoring process, the
続いて、カラオケ採点処理では、制御部50は、技巧評価点を算出する(S610)。このS610での技巧評価点の算出では、制御部50は、まず、S590にて算出した歌唱特徴量を歌唱技巧ごとに平均する。続いて、制御部50は、下記式に従って技巧評価点を算出する。
Subsequently, in the karaoke scoring process, the
技巧評価点=α×Σ(重み×向き×(歌唱特徴量−楽曲特徴量の平均値)/楽曲特徴量の標準偏差)
ただし、上記の技巧評価点を求める式おいて、Σの対象は、歌唱技巧であり、上記の式における向きは「1」または「−1」である。また、上記の技巧評価点を求める式における符号αは、技巧評価点に与えられる重みであり、予め規定された定数である。
Technical evaluation score = α × Σ (weight × direction × (singing feature value−average value of music feature value) / standard deviation of music feature value)
However, in the formula for obtaining the skill evaluation score, the object of Σ is a singing skill, and the direction in the formula is “1” or “−1”. In addition, the symbol α in the formula for obtaining the skill evaluation point is a weight given to the skill evaluation point, and is a predetermined constant.
つまり、上記の技巧評価点を求める式は、歌唱特徴量と楽曲特徴量の平均値との差分に、楽曲における特徴を強く表す歌唱技巧ほど大きな重みを付与して重み付き加算したものである。なお、技巧評価点を求める方法は、これに限るものではなく、楽曲における特徴を強く表す歌唱技巧ほど大きな重みを付与した重み付き平均であっても良い。 In other words, the formula for obtaining the skill evaluation point is obtained by adding a weight to the difference between the singing feature value and the average value of the song feature value and giving a greater weight to the singing skill that strongly expresses the feature of the song. In addition, the method for obtaining the skill evaluation score is not limited to this, and may be a weighted average in which a larger weight is given to a singing technique that strongly expresses the feature of the music.
さらに、カラオケ採点処理では、制御部50は、S600にて算出した基準評価点に、S610にて算出した技巧評価点を加算することで、総合評価点を算出する(S620)。そして、制御部50は、S620にて算出した総合評価点を表示部64に表示させる(S630)。S630での表示は、制御部50が、映像制御部46を介して表示部64に対して制御信号を出力することで実現する。なお、表示部64に表示される評価点は、総合評価点だけに限らず、基準評価点、技巧評価点の少なくとも一方を含んでも良い。
Further, in the karaoke scoring process, the
その後、本カラオケ採点処理を終了し、次の起動タイミングまで待機する。
つまり、カラオケ採点処理では、制御部50は、楽曲の演奏中に入力された音声を歌唱データとして記憶する。そして、カラオケ採点処理では、制御部50は、記憶した歌唱データを解析して歌唱特徴量を算出する。さらに、カラオケ採点処理では、制御部50は、評価データとしての重みに基づいて、楽曲における特徴的な技巧が強く表れているほど、大きな点数となるように重みを付与した重み付き演算により、技巧評価点を算出する。
Thereafter, the karaoke scoring process is terminated, and the system waits until the next activation timing.
That is, in the karaoke scoring process, the
また、カラオケ採点処理では、制御部50は、各音符歌唱区間における歌唱波形の音高推移をリファレンスデータにおける音高推移に照合し、一致度が高いほど、高い点数とした基準評価点を算出する。そして、制御部50は、技巧評価点と基準評価点との合計を、総合評価点として算出する。
[実施形態の効果]
以上説明したように、カラオケシステム1によれば、楽曲データMDを解析することで評価データを自動的に生成することができる。
Further, in the karaoke scoring process, the
[Effect of the embodiment]
As described above, according to the
しかも、カラオケシステム1によれば、楽曲における特徴的な歌唱技巧ほど大きな値となる重みを含む評価データを生成できる。
そして、カラオケシステム1によれば、このような評価データを用いて歌唱を評価でき、利用者が楽曲を歌唱した際に用いた歌唱技巧が特徴技巧であるか否かを評価できる。
Moreover, according to the
And according to the
また、本実施形態のカラオケ採点処理では、技巧評価点を、歌唱特徴量と楽曲特徴量の平均値との差分が大きいほど高い評価となるように実施している。
すなわち、歌唱特徴量と楽曲特徴量の平均値との差分が大きいほど、楽曲にて特徴的な技巧がより強く表れているものと言える。
Moreover, in the karaoke scoring process of this embodiment, the skill evaluation score is implemented so that the higher the difference between the singing feature value and the average value of the song feature value, the higher the evaluation.
That is, it can be said that as the difference between the singing feature quantity and the average value of the song feature quantity is larger, the characteristic technique is more strongly expressed in the song.
このため、本実施形態のカラオケ採点処理によれば、楽曲における特徴技巧を強く表現した歌唱を高く評価できる。したがって、カラオケシステム1によれば、評価結果について、利用者の歌唱を聴いた人物が違和感を覚えることを低減できる。
[その他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
For this reason, according to the karaoke scoring process of this embodiment, the song which strongly expressed the characteristic technique in the music can be highly evaluated. Therefore, according to the
[Other Embodiments]
As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment, In the range which does not deviate from the summary of this invention, it is possible to implement in various aspects.
例えば、上記実施形態の評価データ生成処理におけるS270では、重みwvib,wtt,wrise,wfall,wkobを、技巧特徴量の中で所定の条件を満たす特徴歌唱技巧として表していたが、特徴歌唱技巧は、重みに限るものではない。 For example, in S270 in the evaluation data generation process of the above embodiment, the weights wvib, wtt, wrise, wfall, and wkob are expressed as characteristic singing techniques that satisfy a predetermined condition in the technical feature quantities. , Is not limited to weights.
すなわち、本発明においては、評価値dvib,dtt,drise,dfall,dkobが最大となる歌唱技巧を特徴歌唱技巧として特定しても良い。この場合、制御部50は、特徴歌唱技巧についての楽曲特徴量の平均値、及び標準偏差と、標準特徴量からの向きと、楽曲識別情報とを対応付けた情報を評価データとして生成しても良い。
That is, in the present invention, a singing technique that maximizes the evaluation values dviv, dtt, drise, dfall, dkob may be specified as the characteristic singing technique. In this case, even if the
上記実施形態では、標準特徴量算出処理,評価データ生成処理,カラオケ採点処理を、カラオケ装置30が実行していたが、これらの標準特徴量算出処理,評価データ生成処理,カラオケ採点処理を実行する装置は、カラオケ装置30に限るものではない。例えば、標準特徴量算出処理,評価データ生成処理,カラオケ採点処理を実行する装置は、情報処理サーバ10であっても良いし、その他の情報処理装置であっても良い。
In the above embodiment, the
なお、上記実施形態の構成の一部を、課題を解決できる限りにおいて省略した態様も本発明の実施形態である。また、上記実施形態と変形例とを適宜組み合わせて構成される態様も本発明の実施形態である。また、特許請求の範囲に記載した文言によって特定される発明の本質を逸脱しない限度において考え得るあらゆる態様も本発明の実施形態である。[実施形態と特許請求の範囲との対応関係]
最後に、上記実施形態の記載と、特許請求の範囲の記載との関係を説明する。
In addition, the aspect which abbreviate | omitted a part of structure of the said embodiment as long as the subject could be solved is also embodiment of this invention. Further, an aspect configured by appropriately combining the above embodiment and the modification is also an embodiment of the present invention. Moreover, all the aspects which can be considered in the limit which does not deviate from the essence of the invention specified by the wording described in the claims are the embodiments of the present invention. [Correspondence between Embodiment and Claims]
Finally, the relationship between the description of the above embodiment and the description of the scope of claims will be described.
上記実施形態の評価データ生成処理におけるS210を実行することで得られる機能が、特許請求の範囲の記載における楽曲データ取得手段に相当し、S220を実行することで得られる機能が、抽出手段に相当する。評価データ生成処理におけるS240〜S260を実行することで得られる機能が、特許請求の範囲の記載における第1決定手段に相当し、S270,S280を実行することで得られる機能が、第2決定手段に相当する。 The function obtained by executing S210 in the evaluation data generation process of the above embodiment corresponds to the music data acquisition means described in the claims, and the function obtained by executing S220 corresponds to the extraction means. To do. The function obtained by executing S240 to S260 in the evaluation data generation process corresponds to the first determining means in the claims, and the function obtained by executing S270 and S280 is the second determining means. It corresponds to.
そして、上記実施形態のカラオケ処理を実行することで得られる機能が特許請求の範囲の記載における実行手段に相当し、カラオケ処理のS540を実行することで得られる機能が、歌唱取得手段に相当し、S530を実行することで得られる機能が、演奏手段に相当する。 And the function obtained by performing the karaoke process of the said embodiment is equivalent to the execution means in description of a claim, and the function obtained by performing S540 of karaoke process is equivalent to a song acquisition means. The function obtained by executing S530 corresponds to the performance means.
また、上記実施形態の標準特徴量算出処理におけるS110〜S160を実行することで得られる機能が、特許請求の範囲の記載における標準算出手段に相当し、S180を実行することで得られる機能が、評価情報生成手段に相当し、S190を実行することで得られる機能が、格納制御手段に相当する。 Further, the function obtained by executing S110 to S160 in the standard feature amount calculation processing of the above embodiment corresponds to the standard calculation means in the description of the claims, and the function obtained by executing S180 is The function corresponding to the evaluation information generating means and the function obtained by executing S190 corresponds to the storage control means.
1…カラオケシステム 10…情報処理サーバ 12…通信部 14…記憶部 16…制御部 18…ROM 20…RAM 22…CPU 30…カラオケ装置 32…通信部 34…入力受付部 36…楽曲再生部 38…記憶部 40…音声制御部 42…出
力部 44…マイク入力部 46…映像制御部 50…制御部 52…ROM 54…RAM 56…CPU 60…スピーカ 62…マイク 64…表示部
DESCRIPTION OF
Claims (8)
前記楽曲データ取得手段により取得された楽曲データから、歌唱した歌唱音を表すボーカルデータを抽出する抽出手段と、
前記抽出手段により抽出されたボーカルデータについて、複数の歌唱技巧についての評価を表す技巧特徴量を決定する第1決定手段と、
複数の楽曲のボーカルデータと、前記複数の楽曲のボーカルデータについて、前記複数の歌唱技巧について評価した評価情報とを対応付けて記憶する第二記憶部に記憶された前記評価情報に基づいて、前記第1決定手段により決定された技巧特徴量の中で、所定の条件を満たす特徴歌唱技巧を決定する第2決定手段と、
前記第2決定手段により決定された特徴歌唱技巧を用いて、楽曲に対する歌唱の評価を実行する実行手段と、
を備えることを特徴とする情報処理装置。 Music data acquisition means for acquiring the music data from the first storage unit storing music data including the sung singing sound;
Extraction means for extracting vocal data representing the sung sound from the music data acquired by the music data acquisition means;
A first determining means for determining a technique feature amount representing an evaluation of a plurality of singing techniques for the vocal data extracted by the extracting means;
Based on the evaluation information stored in the second storage unit that stores the vocal data of a plurality of pieces of music and the evaluation data evaluated about the plurality of singing techniques for the vocal data of the plurality of pieces of music. A second deciding means for deciding a characteristic singing technique that satisfies a predetermined condition among the skill features determined by the first deciding means;
Execution means for performing evaluation of singing on the music using the characteristic singing technique determined by the second determining means;
An information processing apparatus comprising:
前記実行手段は、
前記歌唱取得手段により取得された前記歌唱データについて、前記第2決定手段により決定された特徴歌唱技巧を用いて、楽曲に対する歌唱の評価を実行する
ことを特徴とする請求項1に記載の情報処理装置。 Singing acquisition means for acquiring singing data representing the voice input during the performance of the music,
The execution means includes
2. The information processing according to claim 1, wherein the song data acquired by the song acquisition unit is subjected to song evaluation using a characteristic song technique determined by the second determination unit. 3. apparatus.
前記情報処理装置は、さらに、
前記抽出手段で抽出した伴奏データに基づいて、前記楽曲を演奏する演奏手段を備え、
前記歌唱取得手段は、前記演奏手段にて楽曲の演奏中に入力された音声を前記歌唱データとして取得する
ことを特徴とする請求項2に記載の情報処理装置。 The extraction means extracts the vocal data and accompaniment data representing an accompaniment sound in the music from the music data,
The information processing apparatus further includes:
Based on the accompaniment data extracted by the extraction means, comprising performance means for playing the music,
The information processing apparatus according to claim 2, wherein the singing acquisition unit acquires, as the singing data, a voice input during the performance of a music piece by the performance unit.
前記歌唱データにおける技巧特徴量と前記特徴歌唱技巧との差分を導出し、その導出した差分が大きいほど、楽曲に対する歌唱の評価を高くする
ことを特徴とする請求項1から請求項3までのいずれか一項に記載の情報処理装置。 The execution means includes
The difference between the skill feature amount in the singing data and the characteristic singing skill is derived, and the larger the derived difference is, the higher the evaluation of the song is. The information processing apparatus according to claim 1.
前記第2決定手段は、前記特徴歌唱技巧を前記歌唱技巧ごとに決定し、
前記実行手段は、
前記歌唱データにおける技巧特徴量と前記特徴歌唱技巧との差分を前記歌唱技巧ごとに導出し、前記楽曲における特徴を強く表す歌唱技巧ほど大きな重みを付与して、その導出した差分を重み付き平均することで、前記楽曲の歌唱を評価する
ことを特徴とする請求項4に記載の情報処理装置。 The first determining means determines the technique feature amount for each singing technique,
The second determining means determines the characteristic singing technique for each singing technique,
The execution means includes
The difference between the technical feature amount in the singing data and the characteristic singing skill is derived for each singing skill, the singing technique that strongly expresses the feature in the music is given a greater weight, and the derived difference is weighted averaged The information processing apparatus according to claim 4, wherein the singing of the music is evaluated.
前記標準算出手段で導出された標準特徴量を数値処理し、その数値処理の結果を前記評価情報として算出する評価情報生成手段と、
前記評価情報生成手段で算出された評価情報を、複数の楽曲のボーカルデータと対応付けて、前記第二記憶部に格納する格納制御手段と
を備えることを特徴とする請求項1から請求項5までのいずれか一項に記載の情報処理
装置。 A standard calculation means for calculating a standard feature amount representing a standard evaluation of a singing skill for vocal data of a plurality of songs;
Evaluation information generation means for numerically processing the standard feature amount derived by the standard calculation means, and calculating a result of the numerical processing as the evaluation information;
6. A storage control unit that stores the evaluation information calculated by the evaluation information generation unit in association with vocal data of a plurality of music pieces and stores it in the second storage unit. The information processing apparatus according to any one of the above.
前記楽曲データ取得過程により取得された楽曲データから、歌唱した歌唱音を表すボーカルデータを抽出する抽出過程と、
前記抽出過程により抽出されたボーカルデータについて、複数の歌唱技巧についての評価を表す技巧特徴量を決定する第1決定過程と、
複数の楽曲のボーカルデータと、前記複数の楽曲のボーカルデータについて、前記複数の歌唱技巧について評価した評価情報とを対応付けて記憶する第二記憶部に記憶された前記評価情報に基づいて、前記第1決定過程により決定された技巧特徴量の中で、所定の条件を満たす特徴歌唱技巧を決定する第2決定過程と、
前記第2決定過程により決定された特徴歌唱技巧を用いて、楽曲に対する歌唱の評価を実行する実行過程と、
を備えることを特徴とするデータ生成方法。 A music data acquisition process for acquiring the music data from the first storage unit storing the music data including the sung singing sound;
An extraction process for extracting vocal data representing the sung sound from the music data acquired by the music data acquisition process;
A first determination step for determining a technique feature amount representing an evaluation of a plurality of singing techniques for the vocal data extracted by the extraction process;
Based on the evaluation information stored in the second storage unit that stores the vocal data of a plurality of pieces of music and the evaluation data evaluated about the plurality of singing techniques for the vocal data of the plurality of pieces of music. A second determination process for determining a feature singing technique that satisfies a predetermined condition among the skill features determined in the first determination process;
Using the characteristic singing technique determined in the second determining process, performing an evaluation of singing the music;
A data generation method comprising:
前記楽曲データ取得手順により取得された楽曲データから、歌唱した歌唱音を表すボーカルデータを抽出する抽出手順と、
前記抽出手順により抽出されたボーカルデータについて、複数の歌唱技巧についての評価を表す技巧特徴量を決定する第1決定手順と、
複数の楽曲のボーカルデータと、前記複数の楽曲のボーカルデータについて、前記複数の歌唱技巧について評価した評価情報とを対応付けて記憶する第二記憶部に記憶された前記評価情報に基づいて、前記第1決定手順により決定された技巧特徴量の中で、所定の条件を満たす特徴歌唱技巧を決定する第2決定手順と、
前記第2決定手順により決定された特徴歌唱技巧を用いて、楽曲に対する歌唱の評価を実行する実行手順とを
コンピュータに実行させることを特徴とするプログラム。 A music data acquisition procedure for acquiring the music data from the first storage unit storing the music data including the sung singing sound;
Extraction procedure for extracting vocal data representing the singing sound from the song data acquired by the song data acquisition procedure;
A first determination procedure for determining a technique feature amount representing an evaluation of a plurality of singing techniques for the vocal data extracted by the extraction procedure;
Based on the evaluation information stored in the second storage unit that stores the vocal data of a plurality of pieces of music and the evaluation data evaluated about the plurality of singing techniques for the vocal data of the plurality of pieces of music. A second determination procedure for determining a feature singing technique that satisfies a predetermined condition among the skill features determined by the first determination procedure;
A program for causing a computer to execute an execution procedure for performing evaluation of singing a song using the characteristic singing technique determined by the second determination procedure.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013204484A JP6060867B2 (en) | 2013-09-30 | 2013-09-30 | Information processing apparatus, data generation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013204484A JP6060867B2 (en) | 2013-09-30 | 2013-09-30 | Information processing apparatus, data generation method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015069082A true JP2015069082A (en) | 2015-04-13 |
JP6060867B2 JP6060867B2 (en) | 2017-01-18 |
Family
ID=52835774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013204484A Active JP6060867B2 (en) | 2013-09-30 | 2013-09-30 | Information processing apparatus, data generation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6060867B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019045755A (en) * | 2017-09-05 | 2019-03-22 | 株式会社エクシング | Singing evaluation device, singing evaluation program, singing evaluation method and karaoke device |
CN113744708A (en) * | 2021-09-07 | 2021-12-03 | 腾讯音乐娱乐科技(深圳)有限公司 | Model training method, audio evaluation method, device and readable storage medium |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101715612B1 (en) * | 2016-01-26 | 2017-03-13 | 주식회사 비츠로씨앤씨 | Apparatus for monitoring floc of water treatment equipment |
KR101715611B1 (en) * | 2016-01-26 | 2017-03-13 | 주식회사 비츠로씨앤씨 | Apparatus for monitoring floc of water treatment equipment |
KR101715613B1 (en) * | 2016-03-04 | 2017-03-13 | 주식회사 비츠로씨앤씨 | Apparatus for monitoring floc of water treatment equipment |
KR101692303B1 (en) * | 2016-03-04 | 2017-01-03 | 주식회사 비츠로씨앤씨 | Apparatus for monitoring floc of water treatment equipment |
KR101692304B1 (en) * | 2016-03-23 | 2017-01-03 | 주식회사 비츠로씨앤씨 | Apparatus for monitoring floc of water treatment equipment |
KR101715614B1 (en) * | 2016-03-23 | 2017-03-13 | 주식회사 비츠로씨앤씨 | Apparatus for monitoring floc of water treatment equipment |
KR101692302B1 (en) * | 2016-03-23 | 2017-01-03 | 주식회사 비츠로씨앤씨 | Apparatus for monitoring floc of water treatment equipment |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008020677A (en) * | 2006-07-13 | 2008-01-31 | Casio Comput Co Ltd | Singing marking device and singing marking program |
JP2008268358A (en) * | 2007-04-17 | 2008-11-06 | Yamaha Corp | Karaoke device, singing evaluation method and program |
JP2011095437A (en) * | 2009-10-29 | 2011-05-12 | Daiichikosho Co Ltd | Karaoke scoring system |
-
2013
- 2013-09-30 JP JP2013204484A patent/JP6060867B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008020677A (en) * | 2006-07-13 | 2008-01-31 | Casio Comput Co Ltd | Singing marking device and singing marking program |
JP2008268358A (en) * | 2007-04-17 | 2008-11-06 | Yamaha Corp | Karaoke device, singing evaluation method and program |
JP2011095437A (en) * | 2009-10-29 | 2011-05-12 | Daiichikosho Co Ltd | Karaoke scoring system |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019045755A (en) * | 2017-09-05 | 2019-03-22 | 株式会社エクシング | Singing evaluation device, singing evaluation program, singing evaluation method and karaoke device |
CN113744708A (en) * | 2021-09-07 | 2021-12-03 | 腾讯音乐娱乐科技(深圳)有限公司 | Model training method, audio evaluation method, device and readable storage medium |
CN113744708B (en) * | 2021-09-07 | 2024-05-14 | 腾讯音乐娱乐科技(深圳)有限公司 | Model training method, audio evaluation method, device and readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6060867B2 (en) | 2017-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6060867B2 (en) | Information processing apparatus, data generation method, and program | |
JP5598516B2 (en) | Voice synthesis system for karaoke and parameter extraction device | |
JP6252420B2 (en) | Speech synthesis apparatus and speech synthesis system | |
JP6098422B2 (en) | Information processing apparatus and program | |
JP6075313B2 (en) | Program, information processing apparatus, and evaluation data generation method | |
JP6075314B2 (en) | Program, information processing apparatus, and evaluation method | |
JP6056799B2 (en) | Program, information processing apparatus, and data generation method | |
JP5782972B2 (en) | Information processing system, program | |
JP6011506B2 (en) | Information processing apparatus, data generation method, and program | |
JP2010085656A (en) | Register specifying system and program | |
JP6260565B2 (en) | Speech synthesizer and program | |
JP2008040260A (en) | Musical piece practice assisting device, dynamic time warping module, and program | |
JP6365483B2 (en) | Karaoke device, karaoke system, and program | |
JP5810947B2 (en) | Speech segment specifying device, speech parameter generating device, and program | |
JP2013210501A (en) | Synthesis unit registration device, voice synthesis device, and program | |
JP4048249B2 (en) | Karaoke equipment | |
JP5983670B2 (en) | Program, information processing apparatus, and data generation method | |
JP6406182B2 (en) | Karaoke device and karaoke system | |
JP6380305B2 (en) | Data generation apparatus, karaoke system, and program | |
JP5125957B2 (en) | Range identification system, program | |
JP2008040258A (en) | Musical piece practice assisting device, dynamic time warping module, and program | |
JP6252517B2 (en) | Speech synthesizer and program | |
JP6252408B2 (en) | Display control device and display control system | |
JP6281447B2 (en) | Speech synthesis apparatus and speech synthesis system | |
JP6090043B2 (en) | Information processing apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160426 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160617 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161128 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6060867 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |