JP2007256617A - Musical piece practice device and musical piece practice system - Google Patents
Musical piece practice device and musical piece practice system Download PDFInfo
- Publication number
- JP2007256617A JP2007256617A JP2006080810A JP2006080810A JP2007256617A JP 2007256617 A JP2007256617 A JP 2007256617A JP 2006080810 A JP2006080810 A JP 2006080810A JP 2006080810 A JP2006080810 A JP 2006080810A JP 2007256617 A JP2007256617 A JP 2007256617A
- Authority
- JP
- Japan
- Prior art keywords
- accompaniment
- data
- section
- music
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
Description
本発明は、楽曲練習装置および楽曲練習システムに関する。 The present invention relates to a music practice device and a music practice system.
カラオケ装置においては、歌唱者の歌唱の巧拙を採点するための方法が種々提案されている。例えば、特許文献1においては、歌唱された音声のピッチと基準ピッチとを比較して、どの部分がうまく歌えなかったかを判定する方法が提案されている。また、特許文献2おいては、歌唱者の過去の採点結果を記憶し、点数が悪いフレーズではガイドメロディの音量を大きくする方法が提案されている。また、採点結果をサーバに送信して、ランキングを行う方法も提案されている(例えば、特許文献3参照)。
ところで、特許文献1や特許文献2に記載の方法では、歌唱者が一度歌ってみなければどの部分を間違ったかを把握することができない。そのため、歌唱者がその楽曲を初めて歌唱する場合には、歌唱者は楽曲のどの部分に留意して歌唱すべきなのかを把握することはできなかった。これは楽器演奏についても同様である。
本発明は上述した背景の下になされたものであり、カラオケ装置において、間違いやすい箇所を事前に歌唱者に報知することのできる技術を提供することを目的とする。
By the way, in the methods described in
The present invention has been made under the above-described background, and an object of the present invention is to provide a technique capable of notifying a singer in advance of easily mistaken parts in a karaoke apparatus.
上記課題を解決するため、本発明は、楽曲の伴奏楽音を構成する伴奏データを記憶する伴奏データ記憶手段と、前記楽曲の特定の区間を示す区間指定情報を取得する取得手段と、伴奏の開始を指示する指示手段と、前記指示手段によって伴奏の開始が指示された場合に、楽曲の進行に応じて前記伴奏データ記憶手段から伴奏データを読み出し、読み出した伴奏データに基づいて伴奏音信号を生成する伴奏音信号生成手段と、前記伴奏音信号生成手段が生成した伴奏音信号が前記楽曲のどの位置にあたるかを認識する伴奏位置認識手段と、前記伴奏位置認識手段が認識した位置と前記取得手段が取得した区間指定情報の開始位置とを比較し、両者の差が所定の差になったときに、前記区間指定情報が示す区間を報知する報知手段とを備えることを特徴とする楽曲練習装置を提供する。
本発明の好ましい態様においては、前記区間指定情報は、特定する区間の特徴を示す特徴データを含み、前記報知手段は前記区間の報知とともに、前記特徴データに応じて予め設定された態様の報知を行うことを特徴とする。
In order to solve the above problems, the present invention provides accompaniment data storage means for storing accompaniment data constituting accompaniment sounds of music, acquisition means for acquiring section designation information indicating a specific section of the music, and start of accompaniment And when the start of the accompaniment is instructed by the instruction means, the accompaniment data is read from the accompaniment data storage means according to the progress of the music, and an accompaniment sound signal is generated based on the read accompaniment data An accompaniment sound signal generating means, an accompaniment position recognizing means for recognizing which position of the music the accompaniment sound signal generated by the accompaniment sound signal generating means, a position recognized by the accompaniment position recognizing means and the acquisition means And a notifying means for notifying the section indicated by the section designation information when the difference between the two is a predetermined difference. To provide music training device according to claim.
In a preferred aspect of the present invention, the section designation information includes feature data indicating the characteristics of the section to be specified, and the notification means notifies the section in advance according to the feature data together with the notification of the section. It is characterized by performing.
また、本発明は、楽曲の伴奏楽音を構成する伴奏データを記憶する伴奏データ記憶手段と、前記楽曲に含まれる旋律の音を表す模範音声データが記憶された模範音声データ記憶手段と、前記楽曲の特定の区間を示す区間指定情報を取得する取得手段と、伴奏の開始を指示する指示手段と、前記指示手段によって伴奏の開始が指示された場合に、楽曲の進行に応じて前記伴奏データ記憶手段から伴奏データを読み出し、読み出した伴奏データに基づいて伴奏音信号を生成する伴奏音信号生成手段と、前記伴奏音信号生成手段が生成した伴奏音信号が前記楽曲のどの位置にあたるかを認識する伴奏位置認識手段と、前記伴奏位置認識手段が認識した位置と前記取得手段が取得した区間指定情報の開始位置とが一致するタイミングで、前記取得手段により取得された区間指定情報の示す区間と対応する部分の模範音声データを前記模範音声データ記憶手段から読み出し、読み出した模範音声データに基づいて音声信号を生成する音声信号生成手段とを備えることを特徴とする楽曲練習装置を提供する。
また、本発明は、楽曲の伴奏楽音を構成する伴奏データを記憶する伴奏データ記憶手段と、前記楽曲の特定の区間を示す区間指定情報を取得する取得手段と、前記取得手段により取得された区間指定情報の示す区間から伴奏の開始を指示する特定区間指示手段と、前記特定区間指示手段によって伴奏の開始が指示された場合に、前記取得手段により取得された区間指定情報の示す区間と対応する部分の伴奏データを前記伴奏データ記憶手段から読み出し、読み出した伴奏データに基づいて伴奏音信号を生成する伴奏音信号生成手段とを備えることを特徴とする楽曲練習装置を提供する。
The present invention also provides accompaniment data storage means for storing accompaniment data constituting accompaniment sounds of music, model voice data storage means for storing model voice data representing melodic sounds included in the music, and the music Acquisition means for acquiring section designation information indicating a specific section, an instruction means for instructing the start of accompaniment, and the accompaniment data storage according to the progress of the musical piece when the start of the accompaniment is instructed by the instruction means Accompaniment data is read from the means, and accompaniment sound signal generation means for generating an accompaniment sound signal based on the read accompaniment data, and the position of the music corresponding to the accompaniment sound signal generated by the accompaniment sound signal generation means is recognized Accompaniment position recognition means, the acquisition means at a timing when the position recognized by the accompaniment position recognition means coincides with the start position of the section designation information acquired by the acquisition means Voice signal generation means for reading out the model voice data corresponding to the section indicated by the section designation information acquired from the model voice data storage means and generating a voice signal based on the read model voice data. A characteristic music practice device is provided.
The present invention also provides accompaniment data storage means for storing accompaniment data constituting accompaniment sounds of music, acquisition means for acquiring section designation information indicating a specific section of the music, and sections acquired by the acquisition means Corresponding to the section indicated by the section specifying information acquired by the acquiring means when the start of accompaniment is instructed by the specific section instructing means for instructing the start of accompaniment from the section indicated by the specifying information There is provided a music practice device comprising: accompaniment sound signal generation means for reading out partial accompaniment data from the accompaniment data storage means and generating an accompaniment sound signal based on the read accompaniment data.
本発明の好ましい態様においては、前記伴奏データは、楽曲の位置を示す位置情報を含んでおり、前記伴奏位置認識手段は、前記伴奏データに含まれる位置情報から、前記伴奏音信号生成手段が生成した伴奏音信号が前記楽曲のどの位置にあたるかを認識することを特徴とする。
本発明の別の好ましい態様においては、前記伴奏位置認識手段は、前記伴奏音信号生成手段による伴奏データの読み出し処理に応じて、前記伴奏音信号生成手段が生成した伴奏音信号が前記楽曲のどの位置にあたるかを認識することを特徴とする。
In a preferred aspect of the present invention, the accompaniment data includes position information indicating the position of a song, and the accompaniment position recognition means is generated by the accompaniment sound signal generation means from position information included in the accompaniment data. It is characterized by recognizing which position of the music the accompaniment sound signal is applied to.
In another preferred aspect of the present invention, the accompaniment position recognizing means is adapted to determine which accompaniment sound signal generated by the accompaniment sound signal generating means is in accordance with a process of reading accompaniment data by the accompaniment sound signal generating means. It is characterized by recognizing whether it corresponds to a position.
また、本発明の更に好ましい態様においては、練習者の音声を表す練習者データの入力を受け付ける入力手段と、入力された練習者データと模範データ記憶手段に記憶された模範データとを、予め定められた時間単位の比較区間毎に比較して、両者の相違の程度を示す相違情報を前記比較区間毎に生成して出力する比較手段とを具備することを特徴とする。
また、本発明の更に好ましい態様においては、前記模範データは、楽曲の旋律のピッチを表すデータであり、前記楽曲練習装置は、前記練習者データから音声のピッチを算出するピッチ算出手段を備え、前記比較手段は、前記ピッチ算出手段により算出されたピッチと前記模範データ記憶手段に記憶された模範データの示すピッチとを、前記比較区間毎に比較して、両者の相違の程度を示す相違情報を前記比較区間毎に生成することを特徴とする。
また、本発明の好ましい態様においては、前記模範データは、楽曲の歌詞を表すデータであり、前記楽曲練習装置は、前記練習者データにより表される音声を認識し、認識した音声に対応する認識文字列を生成する音声認識手段を備え、前記比較手段は、前記音声認識手段により生成された認識文字列と前記模範データ記憶手段に記憶された模範データとを、前記比較区間毎に比較して、両者の相違の程度を示す相違情報を前記比較区間毎に生成することを特徴とする。
また、本発明の好ましい態様においては、前記模範データは、模範となる歌唱に用いられている技法の種類とタイミングとを示す技法データであることを特徴とする。
また、本発明の好ましい態様においては、前記練習者データは、入力される楽器の演奏音を表すデータであり、前記模範データは、模範として用いられる楽器の演奏音を表すデータであることを特徴とする。
また、本発明は、上述の練習装置を複数有し、前記各楽曲練習装置の前記比較手段が生成した相違情報をネットワークを介して受信し、受信した相違情報の統計を前記比較区間毎にとって、統計結果が予め定められた条件を満たす比較区間を抽出し、抽出された比較区間を前記楽曲の特定の区間として示す区間指定情報を生成する区間指定情報生成手段を有するサーバ装置を具備し、前記各楽曲練習装置の前記取得手段は、前記サーバ装置から区間指定情報を取得することを特徴とする楽曲練習システムを提供する。
Further, in a further preferred aspect of the present invention, input means for accepting input of trainer data representing a trainee's voice, and model data stored in the model data storage means are input in advance. Comparing means for generating and outputting difference information indicating the degree of difference between the two comparison sections for each comparison section in comparison with each other.
Further, in a further preferred aspect of the present invention, the model data is data representing a melody pitch of music, and the music practice device includes pitch calculation means for calculating a pitch of voice from the trainee data, The comparison means compares the pitch calculated by the pitch calculation means and the pitch indicated by the model data stored in the model data storage means for each comparison section, and shows difference information indicating the degree of difference between the two. Is generated for each comparison section.
Also, in a preferred aspect of the present invention, the model data is data representing the lyrics of the music, and the music practice device recognizes the voice represented by the trainer data and recognizes the recognized voice. Voice recognition means for generating a character string, and the comparison means compares the recognized character string generated by the voice recognition means with the model data stored in the model data storage means for each comparison section. The difference information indicating the degree of difference between the two is generated for each comparison section.
Also, in a preferred aspect of the present invention, the model data is technique data indicating a type and timing of a technique used for a model song.
Further, in a preferred aspect of the present invention, the practitioner data is data representing a performance sound of an input musical instrument, and the model data is data representing a performance sound of a musical instrument used as a model. And
In addition, the present invention has a plurality of the above-described practice devices, receives the difference information generated by the comparison means of each music practice device via a network, the statistics of the received difference information for each comparison section, Comprising a server device having section specifying information generating means for generating a section specifying information for extracting a comparison section in which a statistical result satisfies a predetermined condition and indicating the extracted comparison section as a specific section of the music; The acquisition means of each music practice device provides a music practice system characterized by acquiring section designation information from the server device.
本発明によれば、間違いやすい箇所を事前に歌唱者に報知することができる。 According to the present invention, it is possible to notify a singer in advance of an easily mistaken location.
<A:第1実施形態>
<A−1:構成>
図1は、この発明の一実施形態に係る楽曲練習システム1の全体構成の一例を示すブロック図である。このシステムは、カラオケ装置2a,2b,2cとサーバ装置3とが通信ネットワーク4を介して接続されて構成される。なお、図1には3つのカラオケ装置が例示されているが、本楽曲練習システムに含まれるカラオケ装置の数は3に限定されるものではなく、これより多くても少なくてもよい。また、以下では、カラオケ装置2a,2b,2cを各々区別する必要がない場合には、単に「カラオケ装置2」とする。
<A: First Embodiment>
<A-1: Configuration>
FIG. 1 is a block diagram showing an example of the overall configuration of a
図2は、カラオケ装置2のハードウェア構成を例示したブロック図である。CPU(Central Processing Unit)11は、ROM(Read Only Memory)12または記憶部14に記憶されているコンピュータプログラムを読み出してRAM(Random Access Memory)13にロードし、これを実行することにより、カラオケ装置2の各部を制御する。記憶部14は、例えばハードディスクなどの大容量の記憶手段であり、伴奏データ記憶領域14aと、歌詞データ記憶領域14bと、練習者音声データ記憶領域14cと、採点結果データ記憶領域14dと、模範音声データ記憶領域14eとを有している。表示部15は、例えば液晶ディスプレイなどであり、CPU11の制御の下で、カラオケ装置2を操作するためのメニュー画面や、背景画像に歌詞テロップを重ねたカラオケ画面などの各種画面を表示する。操作部16は、各種のキーを備えており、押下されたキーに対応した信号をCPU11へ出力する。マイクロフォン17は、歌唱者が発音した音声を収音する収音手段である。音声処理部18は、マイクロフォン17によって収音された音声(アナログデータ)をデジタルデータに変換してCPU11に供給する。スピーカ19は、音声処理部18に接続されており、音声処理部18から出力される信号に応じた強度で放音する。通信部20は、各種通信装置等を備えており、CPU11の制御の下、通信ネットワーク4を介してサーバ装置3とデータの授受を行う。
FIG. 2 is a block diagram illustrating a hardware configuration of the
記憶部14の伴奏データ記憶領域14aには、例えばMIDI(Musical Instruments Digital Interface:登録商標)形式の伴奏データであって、各曲の伴奏を行う各種楽器の旋律の音程(ピッチ)や強さ(ベロシティ)や効果の付与等を示す情報が楽曲の進行に従って記された伴奏データが記憶されている。この伴奏データの中には、楽曲のメロディの音階を示すメロディデータが含まれている。本実施形態においては、このメロディデータを模範データとして用いる。また、この伴奏データは曲中の小節の番号を示す小節番号情報(位置情報)を含んでいる。歌詞データ記憶領域14bには、伴奏データと対応する歌詞を示す歌詞データが記憶されている。
The accompaniment data storage area 14a of the
練習者音声データ記憶領域14cには、マイクロフォン17から音声処理部18を経てA/D変換された音声データが、例えばWAVE形式やMP3(MPEG Audio Layer-3)形式で時系列に記憶される。この音声データは、練習者の音声(以下、練習者音声)を表す音声データであるから、以下では、練習者音声データという。
In the practitioner audio
採点結果データ記憶領域14dには、練習者音声データとメロディデータとの相違の程度を示す相違情報が記憶される。カラオケ装置2のCPU11は、練習者音声データとメロディデータとを、予め定められた区間(比較区間)毎に比較して、両者の相違の程度を示す相違情報を区間毎に生成し、生成した相違情報をこの採点結果データ記憶領域14dに記憶する。
In the scoring result
図3は、採点結果データの内容の一例を示す図である。図示のように、採点結果データは、「区間番号」と「ピッチ点数」と「歌詞点数」との各項目が互いに対応付けて記憶されている。これらの項目のうち、「区間番号」は、楽曲を構成する区間を識別する情報が記憶される。この実施形態においては、「区間番号」は、1小節を単位として小節毎に割り当てられた小節番号情報を用いる。「ピッチ点数」の項目には、「区間番号」と対応する区間における練習者音声データのピッチとメロディデータのピッチとの相違の程度を示す相違情報が記憶される。図3に示す例においては、100点満点の点数に換算された数値がピッチ点数として記憶されている態様を示している。図3の例においては、ピッチ点数の数値が大きいほど両者のピッチがより近似しており、逆に数値が小さいほど両者のピッチが相違していることを示している。
「歌詞点数」の項目には、「区間番号」と対応する区間における練習者音声データの歌詞と歌詞データとの相違の程度を示す相違情報が記憶される。図3に示す例においては、この「歌詞点数」も、上述した「ピッチ点数」と同様に、100点満点の点数に換算された数値が歌詞点数として記憶されている態様を示している。
FIG. 3 is a diagram illustrating an example of the contents of scoring result data. As shown in the figure, the scoring result data is stored with the items of “section number”, “pitch score”, and “lyric score” being associated with each other. Among these items, “section number” stores information for identifying the sections constituting the music. In this embodiment, “section number” uses measure number information assigned to each measure in units of one measure. In the “pitch score” item, difference information indicating the degree of difference between the pitch of the trainer voice data and the pitch of the melody data in the section corresponding to the “section number” is stored. In the example shown in FIG. 3, the numerical value converted into the score of 100 perfect score is shown as a pitch score. In the example of FIG. 3, the larger the numerical value of the number of pitch points, the closer the pitch between the two, and the smaller the numerical value, the different the pitch between the two.
In the “Lyric score” item, difference information indicating the degree of difference between the lyrics of the practicer voice data and the lyrics data in the section corresponding to the “section number” is stored. In the example shown in FIG. 3, this “lyric score” also indicates a mode in which a numerical value converted into a score of 100 points is stored as the lyrics score, as with the above “pitch score”.
次に、記憶部14の模範音声データ記憶領域14eには、例えばWAVE形式やMP3形式などの音声データであって、楽曲の歌唱の模範として用いられる、楽曲に含まれる旋律の音を表す音声データ(以下、「模範音声データ」)が記憶されている。
Next, in the exemplary audio
図4は、サーバ装置3のハードウェア構成を例示したブロック図である。CPU31は、ROM32または記憶部34に記憶されているコンピュータプログラムを読み出してRAM33にロードし、これを実行することにより、サーバ装置3の各部を制御する。記憶部34は、例えばハードディスクなどの大容量の記憶手段であり、採点結果データベース記憶領域34aと、区間指定情報記憶領域34bとを有している。通信部35は、各種通信装置等を備えており、CPU31の制御の下、通信ネットワーク4を介してカラオケ装置2とデータの授受を行う。
FIG. 4 is a block diagram illustrating a hardware configuration of the
記憶部34の採点結果データベース記憶領域34aには、採点結果データの集合である採点結果データベースが記憶されている。この採点結果データベースは、ピッチ採点結果テーブルと、歌詞採点結果テーブルとを楽曲毎に有している。
図5は、ピッチ採点結果テーブルの内容の一例を示す図である。図示のように、このテーブルは、「区間番号」と「ピッチ点数」と「間違い数」と「間違い率」との各項目が互いに関連付けて記憶されている。これらの項目のうち、「区間番号」と「ピッチ点数」とは上述した採点結果データにおいて示したものと同様のデータが記憶される。ただし、このテーブルには、図示のように、「区間番号」に対応付けて、複数の歌唱におけるピッチ点数(「ピッチ点数(歌唱A,歌唱B・・・)」)が記憶されている。次に、「間違い数」の項目には、相違度が大きいことを示す採点結果の数を示す数値が記憶される。例えば、閾値を60(%)とすると、「区間1」と対応する「間違い数」には、「区間1」と対応する「ピッチ点数」であってその値が60以下である「ピッチ点数」総数が記憶される。図5に示す例においては、「区間1」においては、相違度が大きいピッチ点数の数が1である場合を例示している。
次に、「間違い率」の項目には、「間違い数」をピッチ点数における歌唱の総数で除算した値が記憶される。
なお、歌詞採点結果テーブルの内容も図5に示すピッチ採点結果テーブルの内容と同様であり、ここではその説明を省略する。
The scoring result database storage area 34a of the
FIG. 5 is a diagram illustrating an example of the contents of the pitch scoring result table. As shown in the figure, this table stores items of “section number”, “number of pitch points”, “number of errors”, and “error rate” in association with each other. Among these items, “section number” and “pitch score” store data similar to those shown in the above-described scoring result data. However, in this table, as shown in the figure, the number of pitch points in a plurality of songs (“the number of pitch points (song A, song B...)”) Is stored in association with the “section number”. Next, a numerical value indicating the number of scoring results indicating that the degree of difference is large is stored in the item “number of errors”. For example, if the threshold is 60 (%), the “number of errors” corresponding to “
Next, in the item “error rate”, a value obtained by dividing “number of errors” by the total number of songs in the number of pitch points is stored.
The contents of the lyrics scoring result table are also the same as the contents of the pitch scoring result table shown in FIG. 5, and the description thereof is omitted here.
次に、記憶部34の区間指定情報記憶領域34bには、例えば歌詞を間違いやすい区間や、音程(ピッチ)を間違いやすい区間などといった楽曲の特定の区間を示す区間指定情報が記憶される。
図6は、区間指定情報の内容の一例を示す図である。図示のように、区間指定情報は、「曲コード」と「区間番号」と「特徴データ」との各項目が互いに関連付けて記憶される。これらの項目のうち、「曲コード」の項目には、楽曲を識別する情報が記憶される。「区間番号」の項目には、小節番号情報が記憶される。「特徴データ」の項目には、例えば「ピッチ間違い」や「歌詞間違い」など、特定する区間の特徴を示す情報が記憶される。
Next, in the section specifying
FIG. 6 is a diagram illustrating an example of the contents of the section designation information. As shown in the figure, the section designation information is stored in association with items of “song code”, “section number”, and “feature data”. Among these items, information for identifying music is stored in the “music code” item. In the “section number” item, bar number information is stored. In the item of “feature data”, for example, information indicating the characteristics of the specified section such as “pitch error” and “lyric error” is stored.
<A−2:動作>
次に、楽曲練習システム1の動作を説明する。
<A−2−1:採点結果統計動作>
まず、図7に示すフローチャートを参照しつつ、楽曲練習システム1の採点結果統計動作を説明する。
練習者は、カラオケ装置2の操作部16を操作して歌唱したい曲を選定する。このとき、曲の伴奏を再生するに先立って、カラオケ装置2のCPU11は、その曲の間違いやすい箇所について報知動作を行うが、この報知動作については後述するため、ここではその説明を省略する。
練習者は、カラオケ装置2の操作部16を操作して、歌唱したい曲の伴奏データの再生を指示する。CPU11は、この指示に応じて図7に示す処理を開始する。CPU11は、まず、指定された曲の伴奏データを伴奏データ記憶領域14aから読み出し、音声処理部18に供給する(ステップS1)。音声処理部18は、供給された伴奏データをアナログ信号に変換してスピーカ19に供給して放音させる。このとき、CPU11は表示部15を制御して、「伴奏に合わせて歌唱してください」というような歌唱を促すメッセージを表示するようにしてもよい。練習者は、スピーカ19から放音される伴奏に合わせて歌唱を行う。このとき、練習者の音声はマイクロフォン17によって収音されて音声信号に変換され、音声処理部18へと供給される。そして、音声処理部18によってA/D変換された練習者音声データは、記憶部14の練習者音声データ記憶領域14cに時系列に記憶される(ステップS2)。
<A-2: Operation>
Next, the operation of the
<A-2-1: Scoring result statistical operation>
First, the scoring result statistical operation of the
The practitioner operates the
The practitioner operates the
伴奏データの再生が終了すると、CPU11は、練習者音声データ記憶領域14cに記憶された練習者音声データを読み出し、読み出した練習者音声データに対して音声分析処理を行い、時刻に対応したピッチを練習者音声データから算出する(ステップS3)。
続けて、CPU11は、算出したピッチと記憶部14の伴奏データ記憶領域14aに記憶された伴奏データに含まれるメロディデータのピッチとを、予め定められた区間(比較区間)毎に比較して、両者の相違の程度を示すピッチ点数(相違情報)を区間毎に生成する(ステップS4)。
When the reproduction of the accompaniment data is completed, the
Subsequently, the
また、CPU11は、練習者音声データ記憶領域14cに記憶された練習者音声データを読み出し、読み出した練習者音声データに対して音声認識処理を行って、練習者音声データにより表される音声を認識し、認識した音声に対応する認識文字列を生成する(ステップS5)。そして、CPU11は、生成した認識文字列と歌詞データ記憶領域14bに記憶された歌詞データとを、区間毎に比較して、両者の相違の程度を示す歌詞点数(相違情報)を区間毎に生成する(ステップS6)。ステップS4とステップS6との処理によって、図3に例示したような、区間毎の採点結果を示す相違情報が生成される。
CPU11は、ステップS4で生成した区間毎のピッチ点数と歌詞点数とを採点結果データとして、通信ネットワーク4を介してサーバ装置3に送信する(ステップS7)。このとき、CPU11は、楽曲を識別する曲コードも、採点結果データとあわせて送信する。
Further, the
The
図8は、サーバ装置3が行う処理の流れを示すフローチャートである。サーバ装置3のCPU31は、通信ネットワーク4を介して採点結果データと曲コードとを受信したことを検知すると、受信された採点結果データ(相違情報)を記憶部34の採点結果データベース記憶領域34aに記憶する(ステップSB1)。
そして、CPU31は、採点結果データのピッチ点数と歌詞点数とのそれぞれの統計を区間毎にとって、区間毎の「間違い数」と「間違い率」とを算出する(ステップSB2)。具体的には、例えば、ピッチ点数の統計処理としては、採点結果データベースのピッチ採点結果テーブルに記憶されたピッチ点数を、区間毎に、その区間のピッチ点数が60%以下であるものをカウントし、カウント結果をピッチ採点結果テーブルの「間違い数」の項目に記憶する。また、それぞれの区間について、間違い数をピッチ点数における歌唱の総数で除算した値を「間違い率」の項目に記憶する。
歌詞点数についても、歌詞点数と同様の統計処理を実行して、区間毎の歌詞の「間違い数」と「間違い率」とを歌詞採点結果テーブルの「間違い数」と「間違い率」との項目にそれぞれ記憶する。
このように、ピッチ点数と歌詞点数とのそれぞれについて上述した統計処理を行うことにより、図5に示すような、区間毎の統計結果(間違い数、間違い率)が得られる。
このように区間毎に統計処理を行うことで、各観点(ピッチ、歌詞など)に対して多くの人が間違えている区間、すなわち間違えやすい区間を特定することができる。
FIG. 8 is a flowchart showing the flow of processing performed by the
Then, the
For the lyrics score, the same statistical processing is performed as the lyrics score, and the “number of errors” and “error rate” of the lyrics for each section are entered in the items of “number of errors” and “error rate” in the lyrics scoring result table Remember each.
As described above, the statistical processing (number of errors, error rate) for each section as shown in FIG. 5 is obtained by performing the above-described statistical processing for each of the pitch score and the lyrics score.
By performing statistical processing for each section in this way, it is possible to specify a section in which many people are mistaken for each viewpoint (pitch, lyrics, etc.), that is, a section that is easily mistaken.
次に、サーバ装置3のCPU31は、相違情報(ピッチ点数、歌詞点数)の統計を区間毎にとった統計結果(間違い数、間違い率)が、予め定められた条件を満たす区間を抽出する(ステップSB3)。具体的には、例えば、間違い数の多い区間から順に、予め定められた数の区間を、間違いやすい区間として抽出する。または、間違い率が所定の閾値よりも大きい区間を抽出するようにしてもよい。また、他の例としては、間違い率の上位から何位までと決め打ちして抽出するようにしてもよい。または、区間毎に点数の平均値を算出して、それが低い方から所定の数分の区間を抽出するようにしてもよい。または、区間毎に点数の平均点を算出して、平均点が所定の閾値よりも小さい区間を抽出するようにしてもよい。要するに、統計結果が予め定められた条件を満たす区間を抽出するようにすればよい。
Next, the
サーバ装置3のCPU31は、抽出した区間を示す区間指定情報を区間指定情報記憶領域34bに記憶する。なお、このとき、CPU31が、通信ネットワーク4を介して区間指定情報をカラオケ装置2に送信することによって区間指定情報を出力するようにしてもよい(ステップSB4)。
The
<A−2−2:報知動作>
次に、区間指定情報の報知動作について説明する。
練習者は、カラオケ装置2の操作部16を操作して歌唱したい曲を選定する。
カラオケ装置2は、操作部16を介して曲が選定されたことを検知すると、練習者が歌唱するに先立って、その曲において間違いやすい区間を示す情報を取得する旨のリクエスト情報を、通信ネットワーク4を介してサーバ装置3に送信する。
サーバ装置3のCPU31は、通信ネットワーク4を介してリクエスト情報を受信したことを検知すると、受信したリクエスト情報と対応する曲の曲コードを区間指定情報記憶領域34bから検索し、検索された曲コードと対応付けて記憶された区間指定情報を、通信ネットワーク4を介してカラオケ装置2に送信する。
<A-2-2: Notification operation>
Next, the notification operation of section designation information will be described.
The practitioner operates the
When the
When detecting that the request information has been received via the
カラオケ装置2のCPU11は、通信ネットワーク4を介して区間指定情報を受信したことを検知すると、練習者に報知モードを選択させる旨の画面を表示部15に表示させる。
図9は、表示部15に表示される画面の一例を示す図である。図示のように、「間違いやすい箇所を歌唱中に報知」、「間違いやすい箇所を練習」および「間違いやすい箇所を代替歌唱」のいずれかの選択を促す画面が表示部15に表示される。練習者は、表示部15に表示される画面を確認しつつ、操作部16を操作してこれらのうちのいずれかを選択する。
When the
FIG. 9 is a diagram illustrating an example of a screen displayed on the
図9に示す画面において、「間違いやすい箇所を歌唱中に報知」が選択された場合は、カラオケ装置2のCPU11は、指定された曲の伴奏データを伴奏データ記憶領域14aから読み出し、音声処理部18に供給する。音声処理部18は、供給された伴奏データをアナログ信号(伴奏音信号)に変換してスピーカ19に供給して放音させる。このとき、CPU11は、音声処理部18によって生成される伴奏音信号が楽曲のどの位置にあたるかを認識する。この認識処理は、具体的には、例えば、CPU11が、音声処理部18に供給する伴奏データに含まれる小節番号情報から認識する。
In the screen shown in FIG. 9, when “notify an easily mistaken part during singing” is selected, the
CPU11は、認識した位置(小節)とサーバ装置3から取得した区間指定情報の開始位置(小節)とを比較し、両者の差が所定の差(この実施形態では1フレーズ)になったときに、当該区間指定情報が示す区間を報知するとともに、区間指定情報に含まれる特徴データに応じて予め設定された態様の報知を行う。予め設定された態様とは、例えば、特徴データが「ピッチ間違い」である区間については、ガイドメロディの音量を大きくする態様であってもよい。また、例えば、特徴データが「歌詞間違い」である区間については、歌詞表示の文字を大きくしたり、文字に色をつけたり、文字の上部に付点を表示させる等の態様であってもよい。または、例えば、画面上に、「次のフレーズは歌詞に注意」などのメッセージを表示部15に表示させる態様であってもよい。要するに、特徴データに応じて予め設定された態様の報知であればどのようなものであってもよい。なお、予め定められた態様とは、一つの態様に限らず、歌詞を逐一太字にする態様と、単なる注意で止める態様とを選択できるようにしてもよい。
The
図10は、区間指定情報の報知の態様の一例を示す図である。この例においては、区間指定情報が、歌詞の「母の背中」という部分の区間を示す情報であり、また特徴データが「歌詞間違い」である場合の報知の態様の一例について示している。この場合、CPU11は、楽曲の進行に応じて伴奏データ記憶領域14aから伴奏データを読み出して音声処理部18に供給するとともに、供給する伴奏データと対応する歌詞データを歌詞データ記憶領域14bから読み出して表示部15に供給する。音声処理部18は、供給される伴奏データに基づいて伴奏音信号をスピーカ19から放音させ、表示部15は、CPU11の制御の下、図10に示すように歌詞データに応じた歌詞テロップA1を表示する。
このとき、CPU11は、サーバ装置3から取得した区間指定情報に含まれる区間番号に基づいて当該区間指定情報の開始位置を特定する。そして、CPU11は、伴奏音信号の位置と区間指定情報の開始位置とを比較し、両者の差が所定の差(この実施形態では1フレーズ)になったときに、区間指定情報に含まれる特徴データに応じて、当該区間指定情報が示す区間と対応する歌詞の文字A11を大きくして表示部15に表示させ、また、「次のフレーズには歌詞に注意しましょう」といった練習者の注意を促すメッセージA12を表示部15に表示させる。
FIG. 10 is a diagram illustrating an example of a notification mode of section designation information. In this example, the section designation information is information indicating the section of the part “mother's back” of the lyrics, and an example of a notification mode when the feature data is “Lyrics mistake” is shown. In this case, the
At this time, the
このように歌詞や音程(ピッチ)の間違えやすい箇所が報知されるから、練習者は、初めて歌唱する場合であっても、これから歌唱する区間ではどういう間違いをしやすいかを事前に知ることができ、そこに注意して歌唱することができる。 In this way, because it is informed of easy to make mistakes in the lyrics and pitch (pitch), the practitioner can know in advance what kind of mistakes are likely to be made in the section to be sung, even when singing for the first time. You can sing with care.
また、本実施形態においては、過去の歌唱者の統計結果に基づいて間違いやすい箇所を特定している。間違いやすい箇所はある程度個人差はあるものの、それらは似通っていることが多いから、過去の歌唱者の統計をとることで、間違いやすい箇所をより正確に特定することができる。 Moreover, in this embodiment, the location which is easy to make an error is specified based on the statistical result of the past singer. Although there are some individual differences in the places where mistakes are likely to occur, they are often similar, so by taking statistics of past singers, it is possible to more accurately identify places where mistakes are likely to be made.
次に、図9に示す画面において、「間違いやすい箇所を練習」するモードが選択された場合には、CPU11は、まず、サーバ装置3から取得した区間指定情報の示す区間のリストを表示部15に表示させる。
図11は、区間指定情報の示す区間のリストが表示された画面の一例を示す図である。図示のように、CPU11は、区間指定情報の示す複数の区間の情報(何小節目、区間の特徴(歌詞間違いが多い、音程間違いが多い、等)、その区間と対応する歌詞、等)を、表示部15に表示させる。練習者は、表示部15に表示される画面を確認しつつ、自分が練習したい区間を選択する。CPU11は、区間が選択されたことを検知すると、選択された区間と対応する部分の伴奏データを、伴奏データ記憶領域14aから読み出して、音声処理部18に供給する。音声処理部18は、供給された伴奏データをアナログ信号に変換してスピーカ19に供給して放音させる。
Next, in the screen shown in FIG. 9, when the “practice part that is easy to mistake” mode is selected, the
FIG. 11 is a diagram illustrating an example of a screen on which a list of sections indicated by the section specifying information is displayed. As shown in the figure, the
このように、間違いやすい区間と対応する部分の伴奏が放音されるから、練習者は、初めて歌唱する場合であっても、間違いやすい箇所を事前に練習することができる。 Thus, since the accompaniment of the part corresponding to the easily mistaken section is emitted, the practitioner can practice in advance a mistaken place even when singing for the first time.
次に、図9に示す画面において、「間違いやすい箇所を代替歌唱」のモードが選択された場合には、CPU11は、指定された曲の伴奏データを伴奏データ記憶領域14aから読み出し、音声処理部18に供給する。音声処理部18は、供給された伴奏データをアナログ信号に変換してスピーカ19に供給して放音させる。また、このとき、CPU11は、伴奏データに含まれる小節番号情報に基づいて、音声処理部18によって生成される伴奏音信号が楽曲のどの位置にあたるかを認識する。
CPU11は、認識した位置(小節)とサーバ装置3から取得した区間指定情報の開始位置(小節)とが一致するタイミングで、当該区間指定情報の示す区間と対応する部分の模範音声データを模範音声データ記憶領域14eから読み出し、読み出した模範音声データを音声処理部18に供給する。音声処理部18は、供給された模範音声データをアナログ信号に変換してスピーカ19に供給して放音させる。すなわち、サーバ装置3から取得した区間指定情報の示す区間においては、伴奏音と模範音声との両方が放音され、一方、サーバ装置3から取得した区間指定情報の示す区間以外においては、伴奏音のみが再生される。
Next, in the screen shown in FIG. 9, when the mode of “alternative singing easy to mistake” is selected, the
At the timing when the recognized position (measure) matches the start position (measure) of the section designation information acquired from the
このように、間違いやすい区間においては、模範音声が放音されるから、カラオケ装置2は、間違いやすい(難しい)箇所については練習者に代わって歌唱音声を放音することができる。すなわち、練習者は、曲のほとんどを自分で歌唱するものの、難しい(間違いやすい)箇所については自分で歌唱しなくてもカラオケ装置2が模範音声で代替歌唱してくれることになる。これにより、練習者は、曲中の難しい箇所を自分で歌唱する必要がなく、難しい箇所が含まれていて歌唱が困難であるとみなしていた曲であっても、その曲の歌唱に挑戦することができる。
In this way, the model voice is emitted in the section where mistakes are likely to occur, so that the
<B:第2実施形態>
次に、この発明の第2の実施形態について説明する。
この実施形態が、上述した第1の実施形態と異なる点は、カラオケ装置の記憶部に記憶されているデータが異なる点と、カラオケ装置が行う採点処理とが異なる点であり、他の構成は、上述した第1実施形態と同様である。そのため、以下の説明においては、上述した第1実施形態と同様の構成要素については、同じ符号を用いてその説明を省略する。
<B: Second Embodiment>
Next explained is the second embodiment of the invention.
This embodiment differs from the first embodiment described above in that the data stored in the storage unit of the karaoke device is different from the scoring process performed by the karaoke device, and the other configurations are as follows. This is the same as in the first embodiment described above. Therefore, in the following description, the same components as those in the first embodiment described above are denoted by the same reference numerals and the description thereof is omitted.
図12は、この実施形態のカラオケ装置2Aのハードウェア構成の一例を示す図である。図において、記憶部14の模範技法データ記憶領域14fには、模範音声データ記憶領域14eに記憶された模範音声データの表す模範となる歌唱に用いられている歌唱技法の種類とタイミングとを示すデータ(以下、「模範技法データ」)が記憶される。本実施形態においては、この模範技法データが模範データとして用いられる。
図13は、模範技法データの内容の一例を示す図である。図示のように、模範技法データは、「区間情報」と「種別情報」との各項目が互いに関連付けられている。これらの項目のうち、「区間情報」の項目には、模範音声データにおいて歌唱技法が用いられた区間を示す情報が記憶される。なお、この区間情報が示す区間は、開始時刻情報と終了時刻情報とによって表される時間幅を有した区間であってもよく、またはある1点の時刻を示すものであってもよい。
「種別情報」の項目には、予め複数種類設定された歌唱技法を識別する情報が記憶される。この「種別情報」は、例えば「ビブラート」、「しゃくり」、「こぶし」、「ファルセット」、「つっこみ」、「ため」、「息継ぎ」などの歌唱技法を識別する情報である。「ビブラート」は、音の高さをほんのわずかに連続的に上下させ、震えるような音色を出す技法を示す。「しゃくり」は、目的の音より低い音から発音し、音程を滑らかに目的の音に近づけていく技法を示す。「こぶし」は、装飾的に加えるうねるような節回しを行う技法を示す。「ファルセット」は、いわゆる「裏声」で歌う技法を示す。「つっこみ」は、歌い出しを本来のタイミングよりも早いタイミングにする技法を示す。「ため」は、歌い出しを本来のタイミングよりも遅いタイミングにする技法を示す。「息継ぎ」は、歌唱者が息継ぎをするタイミングを示すものである。
また、練習者技法データ記憶領域14gには、練習者音声データで用いられている歌唱技法を示すデータ(以下、「練習者技法データ」)が記憶される。この練習者技法データの構成は、上述した模範技法データの構成と同様であり、「区間情報」と「種別情報」との各項目が互いに関連付けられて構成されている。
FIG. 12 is a diagram illustrating an example of a hardware configuration of the
FIG. 13 is a diagram illustrating an example of the contents of model technique data. As illustrated, in the exemplary technique data, items of “section information” and “type information” are associated with each other. Among these items, the “section information” item stores information indicating a section in which the singing technique is used in the model voice data. The section indicated by the section information may be a section having a time width represented by the start time information and the end time information, or may indicate a certain point of time.
In the “type information” item, information for identifying a plurality of types of singing techniques set in advance is stored. This “type information” is information for identifying a singing technique such as “vibrato”, “shakuri”, “fist”, “farset”, “tsukkomi”, “for”, “breathing”, and the like. “Vibrato” refers to a technique that raises and lowers the pitch of the sound only slightly and produces a trembling tone. “Shikkuri” refers to a technique in which sound is generated from a sound lower than the target sound, and the pitch is smoothly brought close to the target sound. “Fist” refers to a technique for adding a decorative undulation. “Falset” indicates a technique of singing with a so-called “back voice”. “Tsukumi” refers to a technique for making the singing start earlier than the original timing. “For” indicates a technique for making the singing timing later than the original timing. The “breathing” indicates the timing when the singer breathes.
The practitioner technique
図14は、採点結果データの内容の一例を示す図である。
図示のように、この採点結果データは、上述した第1実施形態で示した「ピッチ点数」や「歌詞点数」に加えて、「ビブラート点数」や「しゃくり点数」等、歌唱技法の採点結果が区間(比較区間)毎に記憶されている。
FIG. 14 is a diagram showing an example of the contents of scoring result data.
As shown in the figure, the scoring result data includes singing technique scoring results such as “vibrato score” and “scribbing score” in addition to the “pitch score” and “lyric score” shown in the first embodiment. Stored for each section (comparison section).
次に、この実施形態の採点結果統計動作について、図15に示すフローチャートを参照しつつ以下に説明する。
練習者がカラオケ装置2Aの操作部16を操作して曲を選択すると、選択内容を示す信号が操作部16からCPU11に出力される。CPU11は、操作内容を示す信号が入力されたことを検知すると、選択された曲と対応する模範音声データを記憶部14の模範音声データ記憶領域14eから読み出し、読み出した模範音声データに対して音声分析処理を行い、時刻に対応したピッチ、パワー、スペクトルを模範音声データから算出する(ステップSC1)。続けて、CPU11は、伴奏データ記憶領域14aに記憶された伴奏データに含まれるメロディデータと模範音声データ記憶領域14eに記憶された模範音声データとを所定のフレーム単位で解析し、模範音声データとメロディデータとの時間的な対応関係を検出する(ステップSC2)。
次に、CPU11は、模範音声データから算出されたピッチ、パワーおよびスペクトルの時間的な変化のパターンを解析して、この解析結果が予め定められたパターンに対応するか否かを判定し、対応する場合には当該パターンに対応する区間を特定の歌唱技法が用いられている区間として特定する。そして、CPU11は、特定した区間の区間情報を、その歌唱技法を示す種別情報と関連付けて記憶部14の模範技法データ記憶領域14fに記憶する(ステップSC3)。
Next, the scoring result statistical operation of this embodiment will be described below with reference to the flowchart shown in FIG.
When the practitioner operates the
Next, the
ここで、ステップSC3に示す、各歌唱技法が用いられている区間の特定処理について以下に説明する。本実施形態においては、CPU11は、「ビブラート」、「しゃくり」、「こぶし」、「ファルセット」、「つっこみ」、「ため」および「息継ぎ」の各歌唱技法が用いられている区間を特定(検出)する。これらのうち、「ビブラート」および「しゃくり」は模範音声データから算出されたピッチに基づいて検出する。また、「こぶし」および「ファルセット」は模範音声データから算出されたスペクトルに基づいて検出する。また、「ため」および「つっこみ」は、模範音声データから算出されたピッチとメロディデータとに基づいて検出する。また、「息継ぎ」は、模範音声データから算出されたパワーとメロディデータとに基づいて検出する。
Here, the specific process of the section in which each singing technique is used shown in step SC3 will be described below. In the present embodiment, the
CPU11は、模範音声データとメロディデータとの対応関係と、模範音声データから算出されたピッチとに基づいて、模範音声データに含まれる音の開始時刻と当該音に対応するメロディデータの音の開始時刻とが異なる区間を特定する。ここで、CPU11は、模範音声データのピッチの変化タイミングがメロディデータのピッチの変化タイミングよりも早く現れている区間、すなわち模範音声データに含まれる音の開始時刻が当該音に対応するメロディデータの音の開始時刻よりも早い区間については、この区間を「つっこみ」の歌唱技法が用いられている区間であると特定する。CPU11は、特定した区間の区間情報を、「つっこみ」を示す識別情報と関連付けて記憶部14の模範技法データ記憶領域14fに記憶する。
逆に、CPU11は、模範音声データとメロディデータとの対応関係と、模範音声データから算出されたピッチとに基づいて、模範音声データのピッチの変化タイミングがメロディデータのピッチの変化タイミングよりも遅れて現れている区間、すなわち模範音声データに含まれる音の開始時刻が当該音に対応するメロディデータの音の開始時刻よりも遅い区間を検出し、検出した区間を「ため」の歌唱技法が用いられている区間であると特定する。
Based on the correspondence between the model voice data and the melody data and the pitch calculated from the model voice data, the
Conversely, the
また、CPU11は、模範音声データから算出したピッチの時間的な変化のパターンを解析して、中心となる周波数の上下に所定の範囲内でピッチが連続的に変動している区間を検出し、検出した区間を「ビブラート」の歌唱技法が用いられている区間であると特定する。
Further, the
また、CPU11は、模範音声データから算出したピッチの時間的な変化のパターンを解析して、低いピッチから高いピッチに連続的にピッチが変化する区間を検出し、検出した区間を「しゃくり」の歌唱技法が用いられている区間であると特定する。なお、この処理は、メロディデータとの対応関係に基づいて行うようにしてもよい。すなわち、CPU11は、模範音声データとメロディデータとの対応関係に基づいて、模範音声データのピッチが、低いピッチから連続的にメロディデータのピッチに近づいている区間を検出すればよい。
Further, the
また、CPU11は、模範音声データとメロディデータとの対応関係と、模範音声データから算出されたパワーとに基づいて、メロディデータが有音である区間であって模範音声データのパワー値が所定の閾値よりも小さい区間を検出し、検出した箇所を「息継ぎ」の区間であると特定する。
Further, the
また、CPU11は、模範音声データから算出されたスペクトルの時間的な変化パターンを解析して、スペクトル特性がその予め決められた変化状態に急激に遷移している区間を検出し、検出した区間を「ファルセット」の歌唱技法が用いられている区間であると特定する。ここで、予め決められた変化状態とは、スペクトル特性の高調波成分が極端に少なくなる状態である。例えば、図16に示すように、地声の場合は沢山の高調波成分が含まれるが(同図(a)参照)、ファルセットになると高調波成分の大きさが極端に小さくなる(同図(b)参照)。なお、この場合、CPU11は、ピッチが大幅に上方に変化したかどうかも参照してもよい。ファルセットは地声と同一のピッチを発生する場合でも用いられることもあるが、一般には地声では発声できない高音を発声するときに使われる技法だからである。したがって、音声データのピッチが所定音高以上の場合に限って「ファルセット」の検出をするように構成してもよい。また、男声と女声とでは一般にファルセットを用いる音高の領域が異なるので、音声データの音域や、音声データから検出されるフォルマントによって性別検出を行い、この結果を踏まえてファルセット検出の音高領域を設定してもよい。
また、CPU11は、スペクトル特性の変化の態様が短時間に多様に切り替わる区間を検出し、検出した部分を「こぶし」の歌唱技法が用いられている部分であると特定する。「こぶし」の場合は、短い区間において声色や発声方法を変えて唸るような味わいを付加する歌唱技法であるため、この技法が用いられている区間においてはスペクトル特性が多様に変化するからである。
以上のようにして、CPU11は、模範音声データから各歌唱技法が用いられている区間を検出し、検出した区間を示す区間情報をその歌唱技法を示す種別情報と関連付けて記憶部14の模範技法データ記憶領域14fに記憶する。
In addition, the
In addition, the
As described above, the
図15の説明に戻る。カラオケ装置2AのCPU11は、模範技法データの生成処理(ステップSC3)を終えると、伴奏データ記憶領域14aに記憶された伴奏データを読み出して、読み出した伴奏データを音声処理部18に供給する。音声処理部18は、供給された伴奏データをアナログ信号に変換して伴奏データの表す音声をスピーカ19から発音させる。また、CPU11は、伴奏データを音声処理部18に供給するに併せて、歌詞データ記憶領域14bに記憶された歌詞データを表示部15に供給して、再生される伴奏に対応する歌詞を表示部15に表示させる。
Returning to the description of FIG. CPU11 of 2A of karaoke apparatuses will read the accompaniment data memorize | stored in the accompaniment data storage area 14a, and will supply the read accompaniment data to the audio |
練習者は、表示部15に表示される歌詞を確認しつつ、スピーカ19から発音される伴奏に併せて歌唱を行う。練習者によって歌唱が行われると、練習者の音声がマイクロフォン17によって音声信号に変換され、変換された信号が音声処理部18へ出力される。音声処理部18は、マイクロフォン17から出力された音声信号をデジタルデータに変換して練習者音声データとする(ステップSC4)。この練習者音声データは、音声処理部18から出力されて記憶部14の練習者音声データ記憶領域14cに記憶される。
The practitioner sings along with the accompaniment sounded from the
伴奏の再生が終了すると、カラオケ装置2AのCPU11は、練習者音声データ記憶領域14cに記憶された練習者音声データに対して基礎分析処理を行って、ピッチ、パワー、スペクトルを算出する(ステップSC5)。また、カラオケ装置2AのCPU11は、伴奏データ記憶領域14aに記憶された伴奏データに含まれるメロディデータと練習者音声データ記憶領域14cに記憶された練習者音声データとを所定のフレーム単位で解析し、練習者音声データとメロディデータとの時間的な対応関係を検出する(ステップSC6)。続けて、CPU11は、練習者音声データから練習者技法データを生成する(ステップSC7)。これらのステップSC5〜SC7に示した処理と、上述したステップSC2〜SC4に示した処理が異なる点は、処理対象となる音声データが異なる点である。すなわち、ステップSC2〜ステップSC4では模範音声データに対して処理を行い、ステップSC5〜SC7では練習者音声データに対して処理が行われるものの、その処理内容については同様であるため、ステップSC5〜ステップSC7についてはその詳細な説明を省略する。
When reproduction of the accompaniment is completed, the
次に、カラオケ装置2AのCPU11は、模範音声データと練習者音声データとの両者の波形同士を直接対比して、例えばDTW(Dynamic Time Warping)等により、模範音声データと、練習者音声データとの時間的な対応付けをフレーム毎に行い、両者の対応箇所を検出する(ステップSC8)。
Next, the
続けて、カラオケ装置2AのCPU11は、ステップSC8で検出した対応箇所に基づいて、模範音声データ記憶領域14eに記憶された模範音声データと音声処理部18から出力された練習者音声データとを比較し、練習者音声データと模範音声データとの相違の程度を示す相違情報を区間毎に生成する(ステップSC9)。具体的には、CPU11は、模範音声データのピッチと練習者音声データのピッチとを区間毎に比較して、練習者音声データと模範音声データとの相違の程度を示す相違情報を区間毎に生成して、生成した相違情報を採点結果データ記憶領域14dに記憶する。また、CPU11は、記憶部14の模範技法データ記憶領域14fに記憶された模範技法データをひとつずつ読み出して、読み出した模範技法データと対応する練習者技法データを練習者技法データ記憶領域14gから検索し、模範技法データと練習者技法データとを区間毎に比較して、両者の相違の程度を示す相違情報を生成して、採点結果データ記憶領域14dに記憶する。そして、CPU11は、生成した採点結果データを通信ネットワーク4を介してサーバ装置3に送信する(ステップSC10)。
Subsequently, the
サーバ装置3は、通信ネットワーク4を介して採点結果データを受信したことを検知すると、受信された採点結果データを記憶部34の採点結果データベース記憶領域34aに記憶し、採点結果データの統計を区間毎にとって、区間毎の歌詞、ピッチ、歌唱技法(ビブラート、こぶし等)の統計結果(間違い数、間違い率)を算出する。なお、この処理は、図8のステップSB1〜ステップSB2に示した処理とその処理対象となるデータ(ピッチ、歌詞、歌唱技法)が異なるものの、おおまかな処理の流れは上述したそれと同様であるため、ここではその説明を省略する。
When detecting that the scoring result data has been received via the
このように、本実施形態においては、ピッチ、歌詞に加えて、歌唱技法の相違箇所を抽出するから、練習者に、歌唱技法の相違箇所についても報知することができ、より詳細な情報を練習者に報知することができる。 As described above, in this embodiment, in addition to the pitch and the lyrics, the differences in the singing technique are extracted, so the practitioner can be notified of the differences in the singing technique, and more detailed information can be practiced. The person can be notified.
<C:変形例>
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。以下にその一例を示す。
(1)上述した実施形態においては、ガイドメロディの音量を大きくしたり、歌詞の文字を大きくしたりする等によって、特定の区間(間違えやすい区間)を練習者に報知するようにした。報知の形態はこれに限らず、例えば注意を促す音声メッセージや警告音を出力するような形態であってもよいし、または、伴奏音の放音を開始する前に間違えやすい区間の一覧を表示する形態であってもよい。要は、練習者に対して何らかの手段でメッセージ乃至情報を伝えることができる報知形態であればよい。
<C: Modification>
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with another various form. An example is shown below.
(1) In the above-described embodiment, a specific section (a section that is easily mistaken) is notified to the practitioner by increasing the volume of the guide melody or increasing the text of the lyrics. The form of notification is not limited to this. For example, it may be a form that outputs a voice message or warning sound to call attention, or a list of sections that are likely to be mistaken is displayed before the start of accompaniment sound emission. It may be a form to do. In short, any notification form that can convey a message or information to the practitioner by some means may be used.
また、上述した実施形態においては、区間指定情報に含まれる特徴データに応じて予め設定された態様の報知を行うようにしたが、区間指定情報に特徴データを含まない構成としてもよい。この場合は、カラオケ装置のCPUは、「歌詞に注意」といった注意表示を行わずに、区間指定情報の示す区間(例えば、フレーズ番号や小節番号等)を報知するようにすればよい。 Further, in the above-described embodiment, notification in a preset mode is performed according to the feature data included in the section designation information. However, the section designation information may not include feature data. In this case, the CPU of the karaoke apparatus may notify the section (for example, a phrase number or measure number) indicated by the section designation information without performing a caution display such as “attention to lyrics”.
(2)カラオケ装置2のCPU11が行う採点動作として、第1実施形態においては練習者音声データとメロディデータとを比較し、一方、第2実施形態においては練習者音声データと模範音声データとを比較して採点を行った。採点方法はいずれか一方を用いてもよく、または、両方を用いて採点処理を行うようにしてもよい。また、上述した実施形態においては、音声のピッチ、歌詞または歌唱技法を区間毎に比較するようにしたが、これに限らず、例えばFFT(Fast Fourier Transform)を用いて練習者音声データと模範音声データとのそれぞれに対してフォルマントの検出を行い、区間毎に声質を比較して採点を行うようにしてもよい。
(2) As a scoring operation performed by the
(3)上述した実施形態においては、区間指定情報に含まれる区間番号は、1小節を単位として小節毎に割り当てられた番号を用いたが、単位区間は小節に限定されるものではなく、例えば1フレーズを単位とするものであってもよく、または音符を単位とするものであってもよい。要は、予め定められた単位であればどのようなものであってもよい。
また、上述した実施形態においては、カラオケ装置2のCPU11は、伴奏データに含まれる小節番号情報から認識した位置(小節)とサーバ装置3から取得した区間指定情報の開始位置(小節)とを比較し、両者の差が1フレーズになったときに、当該区間指定情報が示す区間を報知するようになっていた。この場合の「両者の差」は「1フレーズ」に限定されるものではなく、例えば、2フレーズであってもよく、または、1小節であってもよい。要は、両者の差が所定の差になったときに、区間指定情報の示す区間を報知すればよい。
(3) In the above-described embodiment, the section number included in the section designation information is a number assigned to each measure in units of one measure, but the unit section is not limited to a measure. One phrase may be used as a unit, or a note may be used as a unit. In short, any unit may be used as long as it is a predetermined unit.
In the embodiment described above, the
また、上述した実施形態においては、カラオケ装置2のCPU11が伴奏データに含まれる小節番号情報に応じて、音声処理部18によって生成される伴奏音信号が楽曲のどの位置にあたるかを認識するようになっていたが、伴奏音信号の位置の認識方法はこれに限定されるものではなく、例えば、CPU11による伴奏データの読み出し処理に応じて、音声処理部18が生成した伴奏音信号が楽曲のどの位置にあたるかを認識するようにしてもよい。具体的には、例えば、カラオケ装置のCPUが、記憶部から読み出して音声処理部に供給する伴奏データについて、どういう長さの音符(または休符)を供給したかを積算することによって認識するようにしてもよい。または、CPU11が、テンポクロックをカウントして、曲頭からの拍数でカウントするようにしてもよい。また、音符や拍数(あるいは小節やフレーズ)の積算値は、テンポの速度が分かれば時間に変換することができるので、曲頭からの時間データを用いて、伴奏音信号の曲中の位置を認識してもよい。この場合において、実施形態における相違情報や区間指定情報に含まれる「区間番号」(図8参照)に相当する部分は、伴奏音信号の位置認識に対応して、曲頭からの音符(休符も含む)の累積長、曲頭からの拍数あるいは曲頭からの経過時間を示すデータにするとよい。
Further, in the above-described embodiment, the
(4)上述した実施形態においては、採点結果として、相違の程度を示す相違情報を算出するようにした。これに代えて、比較データそのもの(例えば、ピッチのズレ量)などであってもよい。 (4) In the embodiment described above, difference information indicating the degree of difference is calculated as a scoring result. Instead of this, the comparison data itself (for example, a pitch shift amount) may be used.
(5)上述した実施形態においては、練習者の歌唱を評価する場合を例に挙げて説明したが、これに限らず、練習者の楽器演奏を評価するようにしてもよい。この場合、練習者音声データは入力される楽器の演奏音を表すデータであり、また、伴奏データ記憶領域14aには、練習したい楽器以外の楽器の演奏データが記憶されており、模範音声データ記憶領域14eには、模範として用いられる楽器の演奏音を表すデータが記憶されている。
(5) In the above-described embodiment, the case where the practitioner's singing is evaluated has been described as an example. However, the present invention is not limited thereto, and the practitioner's musical instrument performance may be evaluated. In this case, the trainer voice data is data representing the performance sound of the input musical instrument, and the performance data of the musical instrument other than the musical instrument to be practiced is stored in the accompaniment data storage area 14a. The
(6)上述した実施形態においては、記憶部14の模範音声データ記憶領域14eに記憶される音声データはWAVE形式やMP3形式のデータとしたが、データの形式はこれに限定されるものではなく、音声を示すデータであればどのような形式のデータであってもよい。
また、上述した実施形態においては、模範音声データを模範音声データ記憶領域14eに記憶させて、カラオケ装置2のCPU11が模範音声データ記憶領域14eから模範音声データを読み出すようにしたが、これに代えて、通信ネットワークを介して音声データを受信するようにしてもよい。要するに、模範音声データをCPU11に入力するようにすればよい。
また、上述した第1の実施形態においては、模範データとして、楽曲の伴奏を行う各種楽器の旋律の音程(ピッチ)を表すメロディデータを用いた。模範データはこれに限らず、楽曲のメロディやサブメロディ、コーラスなど、楽曲の旋律のピッチを表すデータであればどのようなものであってもよい。
(6) In the above-described embodiment, the audio data stored in the exemplary audio
In the above-described embodiment, the model voice data is stored in the model voice
In the first embodiment described above, melody data representing the melody pitch (pitch) of various musical instruments that accompany the music is used as the model data. The model data is not limited to this, and any data may be used as long as it represents the melody pitch of the music, such as a music melody, sub melody, or chorus.
(7)上述した第1の実施形態では、練習者音声データに対して音声認識処理を行って認識した音声に対応する認識文字列を生成し、生成した認識文字列と歌詞データとを区間毎に比較して歌詞の間違いを検出した。これに代えて、模範音声データと練習者音声データのスペクトルをそれぞれ区間毎に算出して、対応する部分のスペクトルを比較することで歌詞の間違いを検出してもよい。 (7) In the first embodiment described above, a recognition character string corresponding to the speech recognized by performing speech recognition processing on the trainer speech data is generated, and the generated recognition character string and lyric data are generated for each section. Compared to the detected lyrics mistakes. Instead of this, the spectrum of the model voice data and the trainer voice data may be calculated for each section, and the corresponding part of the spectrum may be compared to detect the lyric error.
(8)上述した実施形態では、カラオケ装置2とサーバ装置3とが通信ネットワークで接続された楽曲練習システム1が、上述した実施形態に係る機能を実現するようになっている。これに対し、通信ネットワークで接続された3以上の装置が上記機能を分担するようにし、それら複数の装置を備えるシステムが同実施形態のシステムを実現するようにしてもよい。または、ひとつの装置が上記機能のすべてを実現するようにしてもよい。
(8) In the above-described embodiment, the
(9)上述した実施形態におけるカラオケ装置2のCPU11またはサーバ装置3のCPU31によって実行されるプログラムは、磁気テープ、磁気ディスク、フレキシブルディスク、光記録媒体、光磁気記録媒体、CD(Compact Disk)−ROM、DVD(Digital Versatile Disk)、RAMなどの記録媒体に記憶した状態で提供し得る。また、インターネットのようなネットワーク経由でカラオケ装置2またはサーバ装置3にダウンロードさせることも可能である。
(9) The program executed by the
1…楽曲練習システム、2,2a,2b,2c…カラオケ装置、3…サーバ装置、4…通信ネットワーク、11…CPU、12…ROM、13…RAM、14…記憶部、15…表示部、16…操作部、17…マイクロフォン、18…音声処理部、19…スピーカ、20…通信部、31…CPU、32…ROM、33…RAM、34…記憶部、35…通信部。
DESCRIPTION OF
Claims (12)
前記楽曲の特定の区間を示す区間指定情報を取得する取得手段と、
伴奏の開始を指示する指示手段と、
前記指示手段によって伴奏の開始が指示された場合に、楽曲の進行に応じて前記伴奏データ記憶手段から伴奏データを読み出し、読み出した伴奏データに基づいて伴奏音信号を生成する伴奏音信号生成手段と、
前記伴奏音信号生成手段が生成した伴奏音信号が前記楽曲のどの位置にあたるかを認識する伴奏位置認識手段と、
前記伴奏位置認識手段が認識した位置と前記取得手段が取得した区間指定情報の開始位置とを比較し、両者の差が所定の差になったときに、前記区間指定情報が示す区間を報知する報知手段と
を備えることを特徴とする楽曲練習装置。 Accompaniment data storage means for storing accompaniment data constituting the accompaniment sound of the music;
Obtaining means for obtaining section designation information indicating a specific section of the music;
Instruction means for instructing the start of the accompaniment;
An accompaniment sound signal generating means for reading accompaniment data from the accompaniment data storage means in accordance with the progress of the music and generating an accompaniment sound signal based on the read accompaniment data when the instruction means instructs to start an accompaniment; ,
Accompaniment position recognition means for recognizing which position of the music the accompaniment sound signal generated by the accompaniment sound signal generation means is;
The position recognized by the accompaniment position recognition means is compared with the start position of the section designation information acquired by the acquisition means, and when the difference between the two becomes a predetermined difference, the section indicated by the section designation information is notified. A music practice device comprising: a notification means.
ことを特徴とする請求項1に記載の楽曲練習装置。 The section designation information includes feature data indicating characteristics of a section to be specified, and the notification unit performs notification of a mode set in advance according to the feature data together with notification of the section. The music practice device according to 1.
前記楽曲に含まれる旋律の音を表す模範音声データが記憶された模範音声データ記憶手段と、
前記楽曲の特定の区間を示す区間指定情報を取得する取得手段と、
伴奏の開始を指示する指示手段と、
前記指示手段によって伴奏の開始が指示された場合に、楽曲の進行に応じて前記伴奏データ記憶手段から伴奏データを読み出し、読み出した伴奏データに基づいて伴奏音信号を生成する伴奏音信号生成手段と、
前記伴奏音信号生成手段が生成した伴奏音信号が前記楽曲のどの位置にあたるかを認識する伴奏位置認識手段と、
前記伴奏位置認識手段が認識した位置と前記取得手段が取得した区間指定情報の開始位置とが一致するタイミングで、前記取得手段により取得された区間指定情報の示す区間と対応する部分の模範音声データを前記模範音声データ記憶手段から読み出し、読み出した模範音声データに基づいて音声信号を生成する音声信号生成手段と
を備えることを特徴とする楽曲練習装置。 Accompaniment data storage means for storing accompaniment data constituting the accompaniment sound of the music;
Model voice data storage means in which model voice data representing melodic sounds included in the music is stored;
Obtaining means for obtaining section designation information indicating a specific section of the music;
Instruction means for instructing the start of the accompaniment;
An accompaniment sound signal generating means for reading accompaniment data from the accompaniment data storage means in accordance with the progress of the music and generating an accompaniment sound signal based on the read accompaniment data when the instruction means instructs to start an accompaniment; ,
Accompaniment position recognition means for recognizing which position of the music the accompaniment sound signal generated by the accompaniment sound signal generation means is;
Model voice data corresponding to the section indicated by the section designation information acquired by the acquisition means at the timing when the position recognized by the accompaniment position recognition means matches the start position of the section designation information acquired by the acquisition means And a sound signal generating means for generating a sound signal based on the read model sound data.
前記楽曲の特定の区間を示す区間指定情報を取得する取得手段と、
前記取得手段により取得された区間指定情報の示す区間から伴奏の開始を指示する特定区間指示手段と、
前記特定区間指示手段によって伴奏の開始が指示された場合に、前記取得手段により取得された区間指定情報の示す区間と対応する部分の伴奏データを前記伴奏データ記憶手段から読み出し、読み出した伴奏データに基づいて伴奏音信号を生成する伴奏音信号生成手段と
を備えることを特徴とする楽曲練習装置。 Accompaniment data storage means for storing accompaniment data constituting the accompaniment sound of the music;
Obtaining means for obtaining section designation information indicating a specific section of the music;
Specific section instructing means for instructing the start of accompaniment from the section indicated by the section specifying information acquired by the acquiring means;
When the start of the accompaniment is instructed by the specific section instruction means, the accompaniment data of the portion corresponding to the section indicated by the section designation information acquired by the acquisition means is read from the accompaniment data storage means, and the read accompaniment data is A music practice device comprising: accompaniment sound signal generation means for generating an accompaniment sound signal based on the music sound.
ことを特徴とする請求項1乃至3のいずれかに記載の楽曲練習装置。 The accompaniment data includes position information indicating the position of the music, and the accompaniment position recognizing means uses the accompaniment sound signal generated by the accompaniment sound signal generating means from the position information included in the accompaniment data. The music practice device according to any one of claims 1 to 3, wherein the position is recognized.
ことを特徴とする請求項1乃至3のいずれかに記載の楽曲練習装置。 The accompaniment position recognizing means recognizes in which position of the music the accompaniment sound signal generated by the accompaniment sound signal generating means corresponds to a process of reading accompaniment data by the accompaniment sound signal generating means. The music practice device according to any one of claims 1 to 3.
入力された練習者データと模範データ記憶手段に記憶された模範データとを、予め定められた時間単位の比較区間毎に比較して、両者の相違の程度を示す相違情報を前記比較区間毎に生成して出力する比較手段とを具備することを特徴とする請求項1乃至6いずれかに記載の楽曲練習装置。 Input means for accepting input of trainee data representing the trainee's voice;
The input practice data and the model data stored in the model data storage means are compared for each comparison section in a predetermined time unit, and difference information indicating the degree of difference between the two is provided for each comparison section. The music practice device according to claim 1, further comprising a comparison unit that generates and outputs the comparison unit.
前記練習者データから音声のピッチを算出するピッチ算出手段を備え、
前記比較手段は、前記ピッチ算出手段により算出されたピッチと前記模範データ記憶手段に記憶された模範データの示すピッチとを、前記比較区間毎に比較して、両者の相違の程度を示す相違情報を前記比較区間毎に生成する
ことを特徴とする請求項7に記載の楽曲練習装置。 The exemplary data is data representing the melody pitch of the music,
Pitch calculation means for calculating the pitch of the voice from the trainee data;
The comparison means compares the pitch calculated by the pitch calculation means and the pitch indicated by the model data stored in the model data storage means for each comparison section, and shows difference information indicating the degree of difference between the two. The music practice device according to claim 7, wherein: is generated for each comparison section.
前記練習者データにより表される音声を認識し、認識した音声に対応する認識文字列を生成する音声認識手段を備え、
前記比較手段は、前記音声認識手段により生成された認識文字列と前記模範データ記憶手段に記憶された模範データとを、前記比較区間毎に比較して、両者の相違の程度を示す相違情報を前記比較区間毎に生成する
ことを特徴とする請求項7に記載の楽曲練習装置。 The exemplary data is data representing the lyrics of the music,
Voice recognition means for recognizing the voice represented by the trainee data and generating a recognized character string corresponding to the recognized voice;
The comparison unit compares the recognized character string generated by the voice recognition unit and the model data stored in the model data storage unit for each comparison section, and displays difference information indicating the degree of difference between the two. It produces | generates for every said comparison area. The music practice apparatus of Claim 7 characterized by the above-mentioned.
前記各楽曲練習装置の前記比較手段が生成した相違情報をネットワークを介して受信し、受信した相違情報の統計を前記比較区間毎にとって、統計結果が予め定められた条件を満たす比較区間を抽出し、抽出された比較区間を前記楽曲の特定の区間として示す区間指定情報を生成する区間指定情報生成手段を有するサーバ装置を具備し、
前記各楽曲練習装置の取得手段は、前記サーバ装置から区間指定情報を取得することを特徴とする楽曲練習システム。 A plurality of music practice devices according to any one of claims 7 to 11,
The difference information generated by the comparison means of each music practice device is received via a network, and the statistics of the received difference information are taken for each comparison interval, and a comparison interval satisfying a predetermined statistical result is extracted. A server device having section designation information generating means for generating section designation information indicating the extracted comparison section as a specific section of the music;
The music practice system according to claim 1, wherein the acquisition unit of each music practice device obtains section designation information from the server device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006080810A JP2007256617A (en) | 2006-03-23 | 2006-03-23 | Musical piece practice device and musical piece practice system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006080810A JP2007256617A (en) | 2006-03-23 | 2006-03-23 | Musical piece practice device and musical piece practice system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007256617A true JP2007256617A (en) | 2007-10-04 |
Family
ID=38630917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006080810A Pending JP2007256617A (en) | 2006-03-23 | 2006-03-23 | Musical piece practice device and musical piece practice system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007256617A (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010085657A (en) * | 2008-09-30 | 2010-04-15 | Brother Ind Ltd | Difficulty level estimation system and program |
JP2010230854A (en) * | 2009-03-26 | 2010-10-14 | Brother Ind Ltd | Scoring device and program |
JP2012194241A (en) * | 2011-03-15 | 2012-10-11 | Yamaha Corp | Evaluation device |
JP2012203343A (en) * | 2011-03-28 | 2012-10-22 | Yamaha Corp | Singing support device |
JP2012247730A (en) * | 2011-05-31 | 2012-12-13 | Daiichikosho Co Ltd | System for notifying of inappropriate singing scoring reference data |
JP2013222140A (en) * | 2012-04-18 | 2013-10-28 | Yamaha Corp | Performance evaluation device, karaoke device, and server device |
WO2015137360A1 (en) * | 2014-03-10 | 2015-09-17 | ヤマハ株式会社 | Singing analyzer |
JP2016031515A (en) * | 2014-07-30 | 2016-03-07 | ブラザー工業株式会社 | Karaoke device and program for karaoke |
JP2016048350A (en) * | 2014-08-28 | 2016-04-07 | ブラザー工業株式会社 | Karaoke device and karaoke program |
JP2016095350A (en) * | 2014-11-12 | 2016-05-26 | 株式会社コシダカホールディングス | Karaoke singing evaluation device |
JP2017068055A (en) * | 2015-09-30 | 2017-04-06 | ブラザー工業株式会社 | Karaoke system and karaoke device |
JP2017067998A (en) * | 2015-09-30 | 2017-04-06 | ブラザー工業株式会社 | Singing evaluation system |
JP2017083792A (en) * | 2015-10-30 | 2017-05-18 | 株式会社第一興商 | Karaoke device |
JP2017090682A (en) * | 2015-11-10 | 2017-05-25 | ヤマハ株式会社 | Data management device and content reproduction system |
JP7024027B1 (en) | 2020-09-11 | 2022-02-22 | 株式会社セガトイズ | Video creation device, video creation system and video creation program |
-
2006
- 2006-03-23 JP JP2006080810A patent/JP2007256617A/en active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010085657A (en) * | 2008-09-30 | 2010-04-15 | Brother Ind Ltd | Difficulty level estimation system and program |
JP2010230854A (en) * | 2009-03-26 | 2010-10-14 | Brother Ind Ltd | Scoring device and program |
JP2012194241A (en) * | 2011-03-15 | 2012-10-11 | Yamaha Corp | Evaluation device |
JP2012203343A (en) * | 2011-03-28 | 2012-10-22 | Yamaha Corp | Singing support device |
JP2012247730A (en) * | 2011-05-31 | 2012-12-13 | Daiichikosho Co Ltd | System for notifying of inappropriate singing scoring reference data |
JP2013222140A (en) * | 2012-04-18 | 2013-10-28 | Yamaha Corp | Performance evaluation device, karaoke device, and server device |
WO2015137360A1 (en) * | 2014-03-10 | 2015-09-17 | ヤマハ株式会社 | Singing analyzer |
JP2015169867A (en) * | 2014-03-10 | 2015-09-28 | ヤマハ株式会社 | singing analyzer |
JP2016031515A (en) * | 2014-07-30 | 2016-03-07 | ブラザー工業株式会社 | Karaoke device and program for karaoke |
JP2016048350A (en) * | 2014-08-28 | 2016-04-07 | ブラザー工業株式会社 | Karaoke device and karaoke program |
JP2016095350A (en) * | 2014-11-12 | 2016-05-26 | 株式会社コシダカホールディングス | Karaoke singing evaluation device |
JP2017068055A (en) * | 2015-09-30 | 2017-04-06 | ブラザー工業株式会社 | Karaoke system and karaoke device |
JP2017067998A (en) * | 2015-09-30 | 2017-04-06 | ブラザー工業株式会社 | Singing evaluation system |
JP2017083792A (en) * | 2015-10-30 | 2017-05-18 | 株式会社第一興商 | Karaoke device |
JP2017090682A (en) * | 2015-11-10 | 2017-05-25 | ヤマハ株式会社 | Data management device and content reproduction system |
JP7024027B1 (en) | 2020-09-11 | 2022-02-22 | 株式会社セガトイズ | Video creation device, video creation system and video creation program |
JP2022047036A (en) * | 2020-09-11 | 2022-03-24 | 株式会社セガトイズ | Moving image creation device, moving image creation system, and moving image creation program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007256617A (en) | Musical piece practice device and musical piece practice system | |
US7368652B2 (en) | Music search system and music search apparatus | |
KR100949872B1 (en) | Song practice support device, control method for a song practice support device and computer readable medium storing a program for causing a computer to excute a control method for controlling a song practice support device | |
US7605322B2 (en) | Apparatus for automatically starting add-on progression to run with inputted music, and computer program therefor | |
JP2008026622A (en) | Evaluation apparatus | |
JP2007232750A (en) | Karaoke device, control method and program | |
JP2009104097A (en) | Scoring device and program | |
JP2008139426A (en) | Data structure of data for evaluation, karaoke machine, and recording medium | |
JP2007310204A (en) | Musical piece practice support device, control method, and program | |
JP4926756B2 (en) | Karaoke sound effect output system | |
JP2008040259A (en) | Musical piece practice assisting device, dynamic time warping module, and program | |
JP4163584B2 (en) | Karaoke equipment | |
JP3996565B2 (en) | Karaoke equipment | |
JP2007264569A (en) | Retrieval device, control method, and program | |
JP2007256618A (en) | Search device | |
JP2007233077A (en) | Evaluation device, control method, and program | |
JP2007322934A (en) | Singing practice device, karaoke device, and program | |
JP4839967B2 (en) | Instruction device and program | |
JP2009169103A (en) | Practice support device | |
JP2002041068A (en) | Singing rating method in karaoke equipment | |
JP2007256619A (en) | Evaluation device, control method and program | |
JP2008040260A (en) | Musical piece practice assisting device, dynamic time warping module, and program | |
JP2007304489A (en) | Musical piece practice supporting device, control method, and program | |
JP4219652B2 (en) | A singing practice support system for a karaoke device that controls the main melody volume at the relevant location based on the pitch error measured immediately before repeat performance | |
JP4501874B2 (en) | Music practice device |