JP2007264569A - Retrieval device, control method, and program - Google Patents
Retrieval device, control method, and program Download PDFInfo
- Publication number
- JP2007264569A JP2007264569A JP2006093293A JP2006093293A JP2007264569A JP 2007264569 A JP2007264569 A JP 2007264569A JP 2006093293 A JP2006093293 A JP 2006093293A JP 2006093293 A JP2006093293 A JP 2006093293A JP 2007264569 A JP2007264569 A JP 2007264569A
- Authority
- JP
- Japan
- Prior art keywords
- model
- identification information
- sound data
- sound
- practitioner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、練習者の模範となるような歌唱音声や演奏音を検索する技術に関する。 The present invention relates to a technique for searching for a singing voice or performance sound that serves as a model for a practitioner.
歌唱を練習する者が、カラオケ装置によって再生される楽曲の伴奏に合わせて歌唱を行う場合、その楽曲を持ち歌としている歌手の歌い方を真似て歌うことが多い。ところが、歌唱の素人である練習者と、歌唱に熟練した歌手とでは、声質や歌唱技術に相当の開きがあるので、練習者はうまく真似することができないのが普通である。また、練習者の歌唱技術があまりにも低いと、無理に真似をして歌ったとしても、歌唱技術を上達させるのは難しい。練習者の歌唱技術を効率よく上達させるためには、その練習者の声質や歌唱技術のレベルに見合った適切な模範が必要である。これは楽曲の歌唱に限らず、楽器の演奏についても同様である。 When a person practicing singing sings along with the accompaniment of a song reproduced by a karaoke device, the singer who sings the song as a song is often imitated. However, a practitioner who is an amateur of singing and a singer who is skilled in singing have a considerable gap in voice quality and singing technology, so the practitioner usually cannot imitate well. Also, if the practitioner's singing skills are too low, it is difficult to improve their singing skills even if they try to imitate and sing. In order to efficiently improve a practitioner's singing skills, an appropriate model that matches the level of the practitioner's voice quality and singing skills is required. This applies not only to the singing of music but also to the performance of musical instruments.
例えば練習者の発話を支援するための技術分野においては、模範者(先生)の発話音声を練習者(生徒)の音声に変換して聴かせたり(特許文献1参照)、練習者自身の発話音声についてスペクトル・エンベロープを修正するなどの音声処理を施して再生する(特許文献2参照)などの仕組みが提案されている。
特許文献1に記載された仕組みでは、練習者自身が模範者の音声を選択しなければならないという手順が必要となり、煩雑である。また、特許文献2に記載された仕組みでは、練習者の発話音声に音声処理を施すので、不自然な発音になってしまうことがある。本発明はこのような背景に鑑みてなされたものであり、その目的は、従来とは異なる仕組みで、練習者にとって適切な模範を検索するための手法を提供することにある。
The mechanism described in Patent Document 1 requires a procedure in which the practitioner has to select the modeler's voice, which is complicated. Further, in the mechanism described in
上記課題を解決するため、本発明は、模範となる歌唱音声又は演奏音を表す模範音データを記憶する模範音記憶手段と、練習者の歌唱音声又は演奏音を表す練習音データを取得する取得手段と、前記模範音記憶手段によって記憶されている各々の模範音データの特徴と、前記取得手段によって取得された練習音データの特徴とを比較し、その練習音データの特徴に類似する特徴を有する模範音データを選択する選択手段と、前記選択手段によって選択された模範音データを出力する出力手段とを備えることを特徴とする検索装置を提供する。 In order to solve the above-described problems, the present invention acquires model sound storage means for storing model sound data representing a typical singing voice or performance sound, and acquisition of practice sound data representing the singing voice or performance sound of a practitioner And a feature of each model sound data stored by the model sound storage unit and a feature of the practice sound data acquired by the acquisition unit, and a feature similar to the feature of the practice sound data There is provided a search device comprising: selection means for selecting exemplary sound data having; and output means for outputting exemplary sound data selected by the selection means.
また、本発明は、歌唱又は演奏される楽曲に割り当てられた楽曲識別情報と、模範となる歌唱又は演奏を行う模範者に割り当てられた模範者識別情報と、各々の模範者による歌唱音声又は演奏音を表す模範音データとを対応付けて記憶する模範音記憶手段と、練習者の歌唱音声又は演奏音を表す練習音データと、その練習者に割り当てられた練習者識別情報とを取得する第1の取得手段と、前記模範音記憶手段によって記憶されている各々の模範音データの特徴と、前記第1の取得手段によって取得された練習音データの特徴とを比較し、その練習音データの特徴に類似する特徴を有する模範音データを選択する第1の選択手段と、前記第1の取得手段によって取得された練習者識別情報と、前記第1の選択手段によって選択された模範音データに対応付けられて前記模範音記憶手段に記憶されている模範者識別情報とを対応付けて記憶する識別情報記憶手段と、前記練習者識別情報及び前記楽曲識別情報を取得する第2の取得手段と、前記第2の取得手段によって取得された練習者識別情報に対応付けられて前記識別情報記憶手段に記憶されている模範者識別情報を特定し、特定した模範者識別情報に対応付けられて前記模範音記憶手段に記憶されている複数の模範音データのうち、前記第2の取得手段によって取得された楽曲識別情報に対応付けられている模範音データを選択する第2の選択手段と、前記第1の選択手段又は前記第2の選択手段によって選択された模範音データを出力する出力手段とを備えることを特徴とする検索装置を提供する。 The present invention also provides music identification information assigned to a song to be sung or played, model identification information assigned to a model performer singing or performing, and singing voice or performance by each model Model sound storage means that associates and stores model sound data that represents sound, practice sound data that represents the singing voice or performance sound of the practitioner, and practitioner identification information assigned to the practitioner And comparing the characteristics of each model sound data stored in the model sound storage means with the characteristics of the practice sound data acquired by the first acquisition means. First selection means for selecting model sound data having characteristics similar to the characteristics, practitioner identification information acquired by the first acquisition means, and model sound data selected by the first selection means. Identification information storage means for storing in association with the exemplary person identification information stored in the exemplary sound storage means in association with the data, and second acquisition for acquiring the practitioner identification information and the music identification information And identification information stored in the identification information storage means in association with the practitioner identification information acquired by the second acquisition means and associated with the specified exemplary identification information. Second selection means for selecting the model sound data associated with the music identification information acquired by the second acquisition means from among the plurality of model sound data stored in the model sound storage means; And an output means for outputting the model sound data selected by the first selection means or the second selection means.
また、本発明は、模範となる歌唱音声又は演奏音を表す模範音データを記憶する模範音記憶手段と、制御手段とを備えた検索装置の制御方法であって、前記制御手段が、練習者の歌唱音声又は演奏音を表す練習音データを取得する第1のステップと、前記制御手段が、前記模範音記憶手段によって記憶されている各々の模範音データの特徴と、前記第1のステップにおいて取得された練習音データの特徴とを比較し、その練習音データの特徴に類似する特徴を有する模範音データを選択する第2のステップと、前記制御手段が、前記第2のステップにおいて選択された模範音データを出力する第3のステップとを備えることを特徴とする制御方法を提供する。 The present invention also provides a control method for a search device comprising model sound storage means for storing model singing voice or model sound data representing performance sound, and control means, wherein the control means is a practitioner. A first step of acquiring practice sound data representing the singing voice or performance sound of the sound, a feature of each of the model sound data stored in the model sound storage unit by the control means, and the first step A second step of comparing the characteristics of the acquired practice sound data and selecting model sound data having characteristics similar to the characteristics of the practice sound data; and the control means is selected in the second step. And a third step of outputting model sound data.
また、本発明は、歌唱又は演奏される楽曲に割り当てられた楽曲識別情報と、模範となる歌唱又は演奏を行う模範者に割り当てられた模範者識別情報と、各々の模範者による歌唱音声又は演奏音を表す模範音データとを対応付けて記憶する模範音記憶手段と、前記模範者識別情報と練習者に割り当てられた練習者識別情報とを対応付けて記憶する識別情報記憶手段と、制御手段とを備えた検索装置の制御方法であって、前記制御手段が、練習者の歌唱音声又は演奏音を表す練習音データと、その練習者に割り当てられた練習者識別情報とを取得する第1のステップと、前記制御手段が、前記模範音記憶手段によって記憶されている各々の模範音データの特徴と、前記第1のステップにおいて取得された練習音データの特徴とを比較し、その練習音データの特徴に類似する特徴を有する模範音データを選択する第2のステップと、前記制御手段が、前記第1のステップにおいて取得された練習者識別情報と、前記第2のステップにおいて選択された模範音データに対応付けられて前記模範音記憶手段に記憶されている模範者識別情報とを対応付けて前記識別情報記憶手段に記憶させる一方、前記第2のステップにおいて選択された模範音データを出力する第3のステップと、前記制御手段が、前記練習者識別情報及び前記楽曲識別情報を取得する第4のステップと、前記制御手段が、前記第4のステップにおいて取得された練習者識別情報に対応付けられて前記識別情報記憶手段に記憶されている模範者識別情報を特定し、特定した模範者識別情報に対応付けられて前記模範音記憶手段に記憶されている複数の模範音データのうち、前記第2の取得手段によって取得された楽曲識別情報に対応付けられている模範音データを選択する第5のステップと、前記制御手段が、前記第5のステップにおいて選択された模範音データを出力する第6のステップとを備えることを特徴とする制御方法を提供する。
さらに、本発明は、コンピュータに対して機能を実現させるプログラムとしての形態も採り得る。
The present invention also provides music identification information assigned to a song to be sung or played, model identification information assigned to a model performer singing or performing, and singing voice or performance by each model Model sound storage means for storing model sound data representing sounds in association with each other, identification information storage means for storing the model person identification information and practitioner identification information assigned to the practitioner in association with each other, and control means And a control means for acquiring the practice sound data representing the singing voice or performance sound of the practitioner and the practitioner identification information assigned to the practitioner. And the control means compares the characteristics of each model sound data stored in the model sound storage means with the characteristics of the practice sound data acquired in the first step, A second step of selecting model sound data having characteristics similar to the characteristics of the sound data; and the control means is selected in the second step and the practitioner identification information acquired in the first step. The model sound data selected in the second step is stored in the identification information storage unit in association with the model identification information stored in the model sound storage unit in association with the model sound data. A third step of outputting the learner, a fourth step in which the control means acquires the practitioner identification information and the music piece identification information, and a practitioner identification in which the control means is acquired in the fourth step. The model identification information stored in the identification information storage means in association with the information is identified, and the model sound storage unit is associated with the identified model identification information. A fifth step of selecting model sound data associated with the music identification information acquired by the second acquisition means from among the plurality of model sound data stored in And a sixth step of outputting the model sound data selected in the fifth step.
Furthermore, the present invention may also take the form of a program that causes a computer to realize functions.
本発明によれば、練習者の歌唱音声又は演奏音に類似する模範音声又は模範演奏、つまり個々の練習者にとって適切な模範を検索することができる。 According to the present invention, it is possible to search for a model voice or model performance similar to the singing voice or performance sound of the practitioner, that is, a model suitable for the individual practitioner.
次に、本発明を実施するための最良の形態を説明する。
以下の説明では、歌唱を練習するものを「練習者」と呼び、その練習者にとって模範となるような歌唱を行う者(例えば歌手)を「模範者」と呼ぶ。模範者は、楽譜の内容に忠実に従って歌唱することはほとんどなく、大抵の場合、歌い始めや歌い終わりを意図的にずらしたり、声質や音量を変化させたり、或いはビブラートやこぶし等の各種歌唱技法を用いたりして、歌のなかに感情の盛り上がり(情感)を表現する。しかし、これらの表現は歌唱者によって様々に異なる。そこで、本実施形態は、多数の模範者の歌唱音声の中から、練習者の歌唱音声に似通った模範者の歌唱音声を検索し、それを練習者に聴かせて真似させることで、練習者の歌唱技術の上達を図る、というものである。
Next, the best mode for carrying out the present invention will be described.
In the following description, a person who practices singing is called a “practicing person”, and a person who performs singing that serves as an example for the practicing person (for example, a singer) is called a “executive person”. Modelers rarely sing according to the content of the score, and in most cases, singing techniques such as intentionally shifting the beginning and end of singing, changing the voice quality and volume, and various singing techniques such as vibrato and fist To express the excitement (feelings) in the song. However, these expressions vary depending on the singer. Therefore, the present embodiment searches for the singing voice of the model person who resembles the singing voice of the practitioner from among the singing voices of the model person, and listens to the practitioner to imitate it. It aims to improve the singing skills.
[1.構成]
図1は、本実施形態に係る検索システム1の全体構成を示すブロック図である。この検索システム1は、複数のカラオケ装置2a,2b,2cと、サーバ装置3と、これらを接続するネットワーク4とを備えている。カラオケ装置2a,2b,2cは、一般家庭や、カラオケボックス又は飲食店などの各種店舗に備えられており、ネットワーク4を介して通信を行う通信装置として機能する。サーバ装置3は、多数の模範者の歌唱音声を記憶しており、これらの中から練習者にとって適切であろうと思われる歌唱音声を検索する検索装置として機能する。ネットワーク4は、例えばISDN(Integrated Services Digital Network)やインターネットあるいは店舗内ネットワークであり、有線区間又は無線区間を含んでいる。図1には3つのカラオケ装置が例示されているが、この検索システム1に含まれるカラオケ装置の数は3に限定されるものではなく、これより多くても少なくてもよい。また、カラオケ装置2a,2b,2cはいずれも同じ構成及び動作であるから、以下では単に「カラオケ装置2」と総称する。
[1. Constitution]
FIG. 1 is a block diagram showing the overall configuration of a search system 1 according to the present embodiment. The search system 1 includes a plurality of
図2は、カラオケ装置2の構成を示したブロック図である。
制御部21は例えばCPUであり、記憶部22に記憶されているコンピュータプログラムを読み出して実行することにより、カラオケ装置2の各部を制御する。表示部23は、例えば液晶ディスプレイなどであり、制御部21の制御の下で、カラオケ装置2を操作するためのメニュー画面や、背景画像に歌詞テロップが重ねられたカラオケ画面などの各種画面を表示する。操作部24は、各種のキーを備えており、押下されたキーに対応した信号を制御部21へ出力する。マイクロフォン25は、歌唱者が発音した音声を収音する。音声処理部26は、マイクロフォン25によって収音された音声(アナログデータ)をデジタルデータに変換して制御部21に出力する。スピーカ27は、音声処理部26から出力される音声を放音する。通信部28は、制御部21による制御の下で、ネットワーク4を介してサーバ装置3とデータ通信を行う。
FIG. 2 is a block diagram showing the configuration of the
The
記憶部22は、例えばハードディスクなどの大容量の記憶手段であり、伴奏・歌詞データ記憶領域22aと、練習音声データ記憶領域22bと、歌唱楽譜音データ記憶領域22cとを有している。伴奏・歌詞データ記憶領域22aには、楽曲の伴奏を行う各種楽器の演奏音が楽曲の進行に伴って記された伴奏データと、楽曲の歌詞を示す歌詞データとが対応付けられて記憶されている。伴奏データは、例えばMIDI(Musical Instruments Digital Interface)形式などのデータ形式であり、練習者がカラオケ歌唱する際に再生される。歌詞データは、そのカラオケ歌唱の際に歌詞テロップとして表示部23に表示される。練習音声データ記憶領域22bには、マイクロフォン25から音声処理部26を経てA/D変換された音声データが練習音声データとして記憶される。この練習音声データは例えばWAVE形式やMP3(MPEG Audio Layer-3)形式である。歌唱楽譜音データ記憶領域22cには、楽曲の楽譜によって規定された歌唱部分の音程及びタイミングを表す楽譜音データ(例えばMIDI形式)が記憶されている。この楽譜音データは、練習者の歌唱音声から、例えば「ビブラート」、「しゃくり」、「こぶし」、「ファルセット」、「つっこみ」、「ため」、「息継ぎ」などの各種技法を抽出するために利用される。
The
次に、図3は、サーバ装置3の構成を示したブロック図である。
図3において、制御部31は例えばCPUであり、記憶部32に記憶されているコンピュータプログラムを読み出して実行することにより、サーバ装置3の各部を制御する。記憶部32は、例えばハードディスクなどの大容量の記憶手段である。この記憶部32は、模範音声データ記憶領域32aと、練習音声特徴データ記憶領域32bとを有している。通信部33は、制御部31による制御の下で、ネットワーク4を介してカラオケ装置2とデータ通信を行う。
Next, FIG. 3 is a block diagram showing a configuration of the
In FIG. 3, the
ここで、記憶部32に記憶されている内容について詳細に説明する。
図4は、模範音声データ記憶領域32aに記憶されているデータの例を示す図である。図4に示すように、模範音声データ記憶領域32aには、楽曲に割り当てられた楽曲ID(identification:識別情報)と、模範者に割り当てられた模範者IDと、その楽曲を模範者が歌唱した際の歌唱音声を表す模範音声データと、その模範者の歌唱音声の特徴を表す模範音声特徴データとが対応付けられて記憶されている。楽曲IDは、例えば曲名やカラオケ曲ナンバーなどの識別情報である。模範者IDは、例えば模範者の氏名(歌手名)である。模範音声データは予め録音されたものであり、サーバ装置3からカラオケ装置2へと送信されてカラオケ装置2によって練習者に対する模範音声として再生される。模範音声特徴データは、模範者の歌唱音声のピッチ(音程)、発音タイミング、スペクトル、パワー(音量)、及び、歌唱に用いられる技法の種類及びその区間を含んでいる。図4の例では、例えば楽曲ID「g01」の楽曲を模範者「○○○○」が歌唱した際の音声を表す模範音声データと、その特徴を表す模範音声特徴データとが対応付けられて記憶されている場合が例示されている。
Here, the contents stored in the
FIG. 4 is a diagram illustrating an example of data stored in the model audio
そして、記憶部32の練習音声特徴データ記憶領域32bには、カラオケ装置2から送信されてくる、練習音声データの特徴を表す練習音声特徴データが記憶される。この練習音声特徴データは、前述の模範音声特徴データと同様に、練習者の歌唱音声のピッチ、発音タイミング、スペクトル、パワー、及び、歌唱に用いられる技法の種類及びその区間を含んでいる。
In the practice voice feature
[2.動作]
次に、本実施形態の動作説明を行う。
図5のシーケンス図において、練習者は、カラオケ装置2の操作部24を操作して歌唱したい曲の楽曲IDを選択し、カラオケ伴奏の再生を指示する。制御部21は、この操作に応じて、カラオケ伴奏を開始する(ステップS1)。即ち、制御部21は、伴奏・歌詞データ記憶領域22aから、指定された楽曲IDに対応する伴奏データを読み出して音声処理部26に供給し、音声処理部26がその伴奏データをアナログ信号に変換し、スピーカ27から放音させる。同時に、制御部21は、「伴奏に合わせて歌唱してください」というような、歌唱を促すメッセージを表示部23に表示させてから、伴奏・歌詞データ記憶領域22aから歌詞データを読み出して歌詞テロップを表示部23に表示させる。練習者は、表示された歌詞テロップを参照しつつ、スピーカ27から放音される伴奏に合わせて歌唱を行う。このとき、練習者の音声はマイクロフォン25によって収音されて音声信号に変換され、音声処理部26へと出力される。そして、音声処理部26によってA/D変換された練習音声データは、伴奏開始からの経過時間を表す情報と共に、記憶部22の練習音声データ記憶領域22bに記憶(録音)されていく(ステップS2)。
[2. Operation]
Next, the operation of this embodiment will be described.
In the sequence diagram of FIG. 5, the practitioner operates the
伴奏データの再生が終了すると、制御部21は練習者の歌唱音声を録音する処理を終了する。そして、制御部21は、練習音声データ記憶領域22bに記憶された練習音声データを所定時間長のフレーム単位に分離し、それぞれのフレーム単位でピッチ、スペクトル及びパワーを算出する(ステップS3)。スペクトルの算出には例えばFFT(Fast Fourier Transform)を用いればよい。
When the reproduction of the accompaniment data ends, the
次いで、制御部21は、練習音声データから技法を抽出する(ステップS4)。前述したように、技法には、「ビブラート」、「しゃくり」、「こぶし」、「ファルセット」、「つっこみ」、「ため」、「息継ぎ」がある。これらのうち、「ビブラート」は、音の高さをほんのわずかに連続的に上下させ、震えるような音色を出すという技法である。「しゃくり」は、目的の音より低い音から発音し、音程を滑らかに目的の音に近づけていくという技法である。「こぶし」は、装飾的に加えるうねるような節回しを行うという技法である。「ファルセット」は、いわゆる「裏声」で歌うという技法である。「つっこみ」は、歌い出しを本来のタイミングよりも早いタイミングにするという技法である。「ため」は、歌い出しを本来のタイミングよりも遅いタイミングにするという技法である。「息継ぎ」は、練習者が息継ぎをするタイミングを意味する。
Next, the
まず、制御部21は、練習音声データにおいて、上記の各技法が用いられている区間を特定(検出)する。例えば「ビブラート」及び「しゃくり」については、模範音声データのピッチに基づいて検出することができる。また、「こぶし」及び「ファルセット」については、模範音声データのスペクトルに基づいて検出することができる。また、「ため」及び「つっこみ」については、模範音声データのピッチと、歌唱楽譜音データ記憶領域22cに記憶されている楽譜音データとに基づいて検出することができる。また、「息継ぎ」については、模範音声データのパワーと、歌唱楽譜音データ記憶領域22cに記憶されている楽譜音データとに基づいて検出することができる。
First, the
具体的な検出方法は以下のとおりである。
制御部21は、練習音声データと楽譜音データとの対応関係と、練習音声データから算出されたピッチとに基づいて、練習音声データに含まれる音の開始時刻と当該音に対応する楽譜音データの音の開始時刻とが異なる区間を特定する。ここで、制御部21は、練習音声データのピッチの変化タイミングが楽譜音データのピッチの変化タイミングよりも早く現れている区間、すなわち練習音声データに含まれる音の開始時刻が当該音に対応する楽譜音データの音の開始時刻よりも早い区間については、この区間を「つっこみ」の歌唱技法が用いられている区間であると特定する。制御部21は、このようにして特定した区間の区間情報を、「つっこみ」を示す識別情報と関連付ける。
A specific detection method is as follows.
Based on the correspondence between the practice voice data and the score sound data and the pitch calculated from the practice voice data, the
逆に、制御部21は、練習音声データと楽譜音データとの対応関係と、練習音声データから算出されたピッチとに基づいて、練習音声データのピッチの変化タイミングが楽譜音データのピッチの変化タイミングよりも遅れて現れている区間、すなわち練習音声データに含まれる音の開始時刻が当該音に対応する楽譜音データの音の開始時刻よりも遅い区間を検出し、検出した区間を「ため」の歌唱技法が用いられている区間であると特定する。
Conversely, the
また、制御部21は、練習音声データから算出したピッチの時間的な変化のパターンを解析して、中心となる周波数の上下に所定の範囲内でピッチが連続的に変動している区間を検出し、検出した区間を「ビブラート」の歌唱技法が用いられている区間であると特定する。
Further, the
また、制御部21は、練習音声データから算出したピッチの時間的な変化のパターンを解析して、低いピッチから高いピッチに連続的にピッチが変化する区間を検出し、検出した区間を「しゃくり」の歌唱技法が用いられている区間であると特定する。なお、この処理は、楽譜音データとの対応関係に基づいて行うようにしてもよい。すなわち、制御部21は、練習音声データと楽譜音データとの対応関係に基づいて、練習音声データのピッチが、低いピッチから連続的に楽譜音データのピッチに近づいている区間を検出すればよい。
Further, the
また、制御部21は、練習音声データと楽譜音データとの対応関係と、練習音声データから算出されたパワーとに基づいて、楽譜音データが有音である区間であって練習音声データのパワー値が所定の閾値よりも小さい区間を検出し、検出した箇所を「息継ぎ」の区間であると特定する。
Further, the
また、制御部21は、練習音声データから算出されたスペクトルの時間的な変化パターンを解析して、スペクトル特性がその予め決められた変化状態に急激に遷移している区間を検出し、検出した区間を「ファルセット」の歌唱技法が用いられている区間であると特定する。ここで、予め決められた変化状態とは、スペクトル特性の高調波成分が極端に少なくなる状態である。例えば、地声の場合は沢山の高調波成分が含まれるが、ファルセットになると高調波成分の大きさが極端に小さくなる。なお、この場合、制御部21は、ピッチが大幅に上方に変化したかどうかも参照してもよい。ファルセットは地声と同一のピッチを発生する場合でも用いられることもあるが、一般には地声では発声できない高音を発声するときに使われる技法だからである。したがって、練習音声データのピッチが所定音高以上の場合に限って「ファルセット」の検出をするように構成してもよい。また、男声と女声とでは一般にファルセットを用いる音高の領域が異なるので、練習音声データの音域や、練習音声データから検出されるフォルマントによって性別検出を行い、この結果を踏まえてファルセット検出の音高領域を設定してもよい。
In addition, the
また、制御部21は、スペクトル特性の変化の態様が短時間に多様に切り替わる区間を検出し、検出した部分を「こぶし」の歌唱技法が用いられている部分であると特定する。「こぶし」の場合は、短い区間において声色や発声方法を変えて唸るような味わいを付加する歌唱技法であるため、この技法が用いられている区間においてはスペクトル特性が多様に変化するからである。
In addition, the
以上のようにして、制御部21は、練習音声データから、技法が用いられている区間を検出し、検出した区間を示す区間情報をその歌唱技法を示す種別情報と関連付ける。そして、制御部21は、ステップS3にて算出したピッチ、スペクトル及びパワーと、ステップS4にて生成した区間情報及び種別情報とを含む練習音声特徴データを生成する(ステップS5)。このとき、制御部21は、ピッチから発音タイミングも算出し、これを練習音声特徴データに含めておく。そして、制御部21は、生成した練習音声特徴データを楽曲IDとともに通信部28からサーバ装置3に送信する(ステップS6)。
As described above, the
サーバ装置3の制御部31は、練習音声特徴データ及び楽曲IDを受信すると、受信した練習音声特徴データと、模範音声データ記憶領域32aにおいて上記楽曲IDと対応付けて記憶されている全ての模範者音声特徴データとを比較し、これら模範者音声特徴データの中から、練習音声特徴データとの類似度が最も高いものを選択する(ステップS7)。より具体的には、制御部31は、練習音声特徴データが表すピッチと、各模範音声特徴データが表すピッチとの差分を歌唱の開始から終了までの全域にわたって積分する。同様に、制御部31は、練習音声特徴データが表すパワーと、各模範者音声特徴データが表すパワーとの差分を歌唱の開始から終了までの全域にわたって積分する。スペクトルやタイミングについても同様である。また、制御部31は、技法についても上記と同様に、練習音声特徴データが表す各技法の区間情報によって表わされる区間と、各模範者音声特徴データが表す各技法の区間情報によって表される区間との差分を積分する。そして、制御部31は、上記のようにして得られた積分値を模範者音声特徴データ毎に累算し、その累算値が最も小さい模範者音声特徴データを、練習音声データとの類似度が最も高いものとして選択する。
Upon receiving the practice voice feature data and the song ID, the
次に、制御部31は、模範音声データ記憶領域32aから、選択した模範者音声特徴データに対応する模範音声データを読み出し(ステップS8)、読み出した模範音声データをカラオケ装置2によって再生可能なデータ形式で送信(出力)する(ステップS9)。カラオケ装置2の制御部21は、受信した模範音声データを再生する(ステップS10)。つまり、制御部21は、模範音声データを音声処理部26に供給し、音声処理部26がその模範音声データをアナログ信号に変換し、スピーカ27から放音させる。このとき、制御部21は、「あなたに合った歌唱の先生は、この○○○○さんです。よく聞いて真似してみましょう。」というメッセージを表示部23に表示させる。これにより、練習者は、自らの歌唱に合った模範者の歌唱音声を聞くことができ、それを模範とすることで自身の歌唱の上達を図ることが可能となる。
Next, the
以上説明した実施形態によれば、練習者の歌唱音声に類似する模範者の歌唱音声を検索し、それを練習者に模範として提供することができる。 According to the embodiment described above, the singing voice of the model person similar to the singing voice of the practitioner can be searched and provided to the practitioner as a model.
[3.変形例]
上述した実施形態を次のように変形してもよい。
[3−1]上述した実施形態においては、練習者の歌唱音声(練習音声)に合った模範者の歌唱音声(模範音声)を検索する場合を例に挙げて説明したが、これに限らず、練習者の楽器の演奏音(練習演奏音)に合った模範者の演奏音(模範演奏音)を検索するようにしてもよい。この場合、上述した模範者の歌唱音声に代えて模範者の演奏音を表す模範演奏音データが用いられ、練習音声データに代えて練習者の演奏音を表す練習演奏音データが用いられる。また、伴奏・歌詞データ記憶領域22aには、練習したい楽器(例えばギター)以外の楽器(例えばベースやドラム)の演奏データが記憶されるし、歌唱楽譜音データ記憶領域22cには、楽譜に演奏音として規定された楽譜音データが記憶される。サーバ装置3の制御部31は、これらのデータに基づき、上記と同様の処理を経て練習演奏音データに類似した模範演奏音データを検索する。
このように、本発明は、模範となる歌唱音声又は演奏音を表す模範音データを記憶しておき、練習者の歌唱音声又は演奏音を表す練習音データを取得すると、記憶している各々の模範音データの特徴と取得した練習音データの特徴とを比較し、練習音データの特徴に類似する特徴を有する模範音データを選択して出力する、という構成を採る。
[3. Modified example]
The above-described embodiment may be modified as follows.
[3-1] In the above-described embodiment, the example of searching for the singing voice (exemplary voice) of the model person who matches the singing voice (practice voice) of the practitioner has been described as an example. The performance sound (exemplary performance sound) of the model person that matches the performance sound (practice performance sound) of the practitioner's instrument may be searched. In this case, model performance sound data representing the performance sound of the model person is used instead of the singing voice of the model person described above, and practice performance sound data representing the performance sound of the practice person is used instead of the practice sound data. The accompaniment / lyric
Thus, this invention memorize | stores the model sound data showing the singing voice or performance sound used as a model, and when the practice sound data showing the practitioner's singing voice or performance sound is acquired, each memorize | stored The feature of the model sound data is compared with the feature of the acquired practice sound data, and the model sound data having a feature similar to the feature of the practice sound data is selected and output.
[3−2]上述した実施形態では、練習者が所望の楽曲を歌唱した後に、その歌唱音声に類似する模範者の歌唱音声を検索するようになっていた。よって、練習者は少なくとも1回は楽曲を歌唱しないと、その楽曲について模範となる歌唱音声を得ることができない。練習者がこのような手順を煩雑に感じる場合には、次のように変形してもよい。この変形例は、練習者の歌唱音声と模範者の歌唱音声とが類似している場合には、例え楽曲が異なっても両者の類似度は高いという点に着目したものである。
図6に示すように、サーバ装置3の記憶部32は、前述した模範音声データ記憶領域32a及び練習音声特徴データ記憶領域32bのほか、対応ID記憶領域32cを有している。この対応ID記憶領域32cには、図7に示すように、練習者に割り当てられた練習者IDと、模範者に割り当てられた模範者IDとが対応付けられて記憶されている。練習者がこの検索システム1において或る楽曲(例えば楽曲ID「g01」)を歌唱し、自身の模範となる模範音声データを検索すると、そのときに検索された模範音声データの模範者IDが、その練習者の練習者IDと対応付けられて対応ID記憶領域32cに記憶される。以降、その練習者が別の楽曲(例えば楽曲ID「g02」)について模範音声データを検索しようとしたときには、その練習者の練習者IDに対応付けられて対応ID記憶領域32cに記憶されている模範者IDが特定され、特定された模範者IDに対応付けられて模範音声データ記憶領域32aに記憶されている複数の模範音声データのうち、その楽曲ID「g02」に対応付けられている模範音声データが検索される。
[3-2] In the above-described embodiment, after the practitioner sings the desired music, the singing voice of the model person similar to the singing voice is searched. Therefore, the practitioner cannot obtain a singing voice that serves as an example for the song unless the song is sung at least once. When the practitioner feels such procedures complicated, the following modifications may be made. This modification focuses on the fact that if the singing voice of the practitioner and the singing voice of the model person are similar, the similarity between them is high even if the music is different.
As shown in FIG. 6, the
具体的な動作例を図8に示す。この図8において、図5と同一の動作については同一の符号を付している。
図8のステップS1の以前において、練習者は楽曲IDのほかに、自らの練習者IDをカラオケ装置2に入力する。そして、ステップS6’において、カラオケ装置2の制御部21は、練習音声特徴データ及び楽曲IDとともに練習者IDを通信部28からサーバ装置3に送信する。サーバ装置3の制御部31は、練習音声特徴データ、楽曲ID及び練習者IDを受信すると、ステップS7において練習音声特徴データとの類似度が最も高い模範者音声特徴データを選択した後に、ステップS11として、カラオケ装置2から受信した練習者IDを、選択された模範者音声特徴データに対応付けられた模範者IDとを対応付けて対応ID記憶領域32cに記憶する。そして、制御部31は、模範音声データ記憶領域32aから、選択した模範者音声特徴データに対応する模範音声データを読み出し(ステップS8)、読み出した模範音声データをカラオケ装置2に送信(出力)する(ステップS9)。カラオケ装置2の制御部21は、受信した模範音声データを再生する(ステップS10)。
A specific operation example is shown in FIG. In FIG. 8, the same operations as those in FIG. 5 are denoted by the same reference numerals.
Before step S1 in FIG. 8, the practitioner inputs his / her practitioner ID to the
この後、練習者が別の楽曲IDと共に自らの練習者IDをカラオケ装置2に入力すると、カラオケ装置2はこの入力を受け付ける(ステップS12)。そして、制御部21は、入力された楽曲ID及びに練習者IDを通信部28からサーバ装置3に送信する。サーバ装置3の制御部31は、楽曲ID及び練習者IDを受信すると、対応ID記憶領域32cにおいて、その練習者IDに対応付けられている模範者IDを特定する(ステップS13)。そして、制御部31は、模範音声データ記憶領域32aから、上記楽曲IDおよび模範者IDに対応する模範音声データを読み出し(ステップS14)、読み出した模範音声データをカラオケ装置2に送信する。カラオケ装置2の制御部21は、受信した模範音声データを再生する(ステップS15)。このようにすれば、練習者は練習したい楽曲をわざわざ歌唱しなくても、その楽曲について模範となる歌唱音声を検索することが可能となる。
Thereafter, when the practitioner inputs his / her practitioner ID together with another music ID to the
また、上述した実施形態に係る検索システム1が有効に機能するためには、全ての楽曲について十分な数の模範音声データを用意しておかなければならない。なぜなら、模範音声データが少ないと、練習者の歌唱音声に合った模範音声データを得ることができないからである。そこで、検索システム1が動作する過程において、カラオケ装置2によって記憶された練習音声データそのものを、模範者の歌唱音声を表す模範音声データとしてサーバ装置3に記憶させるようにしてもよい。
In addition, in order for the search system 1 according to the above-described embodiment to function effectively, a sufficient number of exemplary voice data must be prepared for all musical pieces. This is because if there is little model voice data, model voice data that matches the singing voice of the practitioner cannot be obtained. Therefore, in the process in which the search system 1 operates, the practice voice data itself stored by the
[3−3]上述した実施形態においては、練習音声特徴データと最も類似度が高い模範音声特徴データを1つ選択するようになっていたが、選択する模範音声特徴データの数は1に限定されるものではなく、類似度が高い順から複数の模範音声特徴データを選択し、選択したそれぞれの模範音声特徴データに対応する模範音声データを出力するようにしてもよい。例えば、制御部31は、選択された複数の模範音声データに割り当てられた模範者ID(歌手名)をカラオケ装置2に送信(出力)して、これら模範者IDをカラオケ装置2に一覧形式で表示させる。練習者がこの一覧の中から所望の模範者ID(歌手名)を指定すると、カラオケ装置2の制御部21は、その模範者IDをサーバ装置3に送信する。そして、制御部31は、模範者IDをカラオケ装置2から受け取ると、その模範者IDが割り当てられた模範者の模範音声データをカラオケ装置2に送信(出力)する。
[3-3] In the embodiment described above, one model voice feature data having the highest similarity to the practice voice feature data is selected, but the number of model voice feature data to be selected is limited to one. Instead, a plurality of model voice feature data may be selected in descending order of similarity, and model voice data corresponding to each selected model voice feature data may be output. For example, the
[3−4]実施形態では、練習音声特徴データと、各模範音声特徴データとの差分の積分値を用いて類似度を判定していたが、例えば、多次元空間上で、練習音声特徴データの座標と各模範音声特徴データの座標とのユークリッド距離を算出し、そのユークリッド距離が最小となる模範音声特徴データを、最も類似度が高いものとして選択するようにしてもよい。 [3-4] In the embodiment, the similarity is determined using the integrated value of the difference between the practice voice feature data and each model voice feature data. For example, in the multidimensional space, the practice voice feature data The Euclidean distance between the coordinates of each of the model voice feature data may be calculated, and the model voice feature data having the smallest Euclidean distance may be selected as having the highest similarity.
[3−5]上述した実施形態においては、模範音声特徴データや練習音声特徴データとして、音声のピッチ、タイミング、パワー、スペクトル及び技法の全てを用いたが、これらの少なくともいずれかを用いるだけでもよいし、さらにこれら以外の特徴要素を用いても良い。また、これらのうち、どの特徴要素を用いるかを練習者が操作部24を用いて選択できるようにしてもよい。同様に、各種の技法のうちいずれかを練習者が選択できるようにしてもよい。
[3-5] In the above-described embodiment, all of the pitch, timing, power, spectrum, and technique of the voice are used as the model voice feature data and the practice voice feature data, but it is also possible to use at least one of these. Further, other characteristic elements may be used. Also, it may be possible for the practitioner to select which of these feature elements to use using the
[3−6]また、上述した実施形態においては、練習音声特徴データは、カラオケ装置2の制御部21によって生成されるようになっていたが、これに代えて、サーバ装置3の制御部31によって生成されるようにしてもよい。また、カラオケ装置2の制御部21が練習音声特徴データの入力を促し、練習者が予め用意しておいた練習音声特徴データを入力するようにしてもよい。この場合、例えば、制御部21が、練習音声特徴データの入力を促す画面を表示部23に表示させ、練習者は、例えばUSB(Universal Serial Bus)等のインタフェースを介してカラオケ装置2に練習音声特徴データを入力するようにすればよい。この場合、事前にパーソナルコンピュータ等の装置で練習音声特徴データを生成するようにしておけばよい。この際も、上述した実施形態と同様に、パーソナルコンピュータが、マイクロフォンで練習者の音声を収音して、収音した音声を分析して練習音声特徴データを生成する。また、カラオケ装置2にRFIDリーダを設けて、練習音声特徴データが書き込まれたRFIDをカラオケ装置2のRFIDリーダが読み取るようにしてもよい。
[3-6] In the embodiment described above, the practice voice feature data is generated by the
[3−7]サーバ装置3が模範音声データを出力する形態は、カラオケ装置2への送信に限らず、練習者のメール端末宛の電子メールに模範音声データを添付して送信するという形態であってもよい。また、模範音声データを記憶媒体に出力して記憶させるようにしてもよく、この場合、練習者はコンピュータを用いてこの記憶媒体から模範音声データを読み出させて再生させることで、それを聴くことができる。また、模範音声データをカラオケ装置2によって再生させる場合には、曲の最初から最後までを再生する必要はなく、その一部だけを再生するものであってもよい。例えば、特徴の類似度が低かった歌唱部分だけを再生するようにすれば、練習者はどの歌唱部分を重点的に練習すればよいのかを認識することができる。
[3-7] The form in which the
[3−8]実施形態において、サーバ装置3は模範音声データから模範音声特徴データを抽出して事前に記憶しておいたが、そうではなくて、サーバ装置3が模範音声データだけを記憶しておき、検索を行う必要がある度に模範音声データから模範音声特徴データを抽出するようにしてもよい。なお、模範音声データや練習音声データはWAVE形式やMP3形式のデータとしたが、データの形式はこれに限定されるものではなく、音声を示すデータであればどのような形式のデータであってもよい。
[3-8] In the embodiment, the
[3−9]上述した実施形態では、カラオケ装置2とサーバ装置3とが通信ネットワークで接続された検索システム1が、本実施形態に係る機能の全てを実現するようになっている。これに対し、通信ネットワークで接続された3以上の装置が上記機能を分担するようにし、それら複数の装置を備えるシステムが同実施形態のシステムを実現するようにしてもよい。または、ひとつの装置が上記機能のすべてを実現するようにしてもよい。
[3-9] In the above-described embodiment, the search system 1 in which the
[3−10]上述した実施形態におけるカラオケ装置2の制御部21またはサーバ装置3の制御部31によって実行されるプログラムは、磁気テープ、磁気ディスク、フレキシブルディスク、光記録媒体、光磁気記録媒体、CD(Compact Disk)−ROM、DVD(Digital Versatile Disk)、RAMなどの記録媒体に記憶した状態で提供し得る。また、インターネットのようなネットワーク経由でカラオケ装置2またはサーバ装置3にダウンロードさせることも可能である。
[3-10] A program executed by the
1…検索システム、2a,2b,2c…カラオケ装置、3…サーバ装置、4…ネットワーク、21…制御部、22…記憶部、23……表示部、24…操作部、25…マイクロフォン、26…音声処理部、27…スピーカ、28…通信部、31…制御部、32…記憶部、33…通信部。
DESCRIPTION OF SYMBOLS 1 ... Search system, 2a, 2b, 2c ... Karaoke apparatus, 3 ... Server apparatus, 4 ... Network, 21 ... Control part, 22 ... Memory | storage part, 23 ... Display part, 24 ... Operation part, 25 ... Microphone, 26 ...
Claims (10)
練習者の歌唱音声又は演奏音を表す練習音データを取得する取得手段と、
前記模範音記憶手段によって記憶されている各々の模範音データの特徴と、前記取得手段によって取得された練習音データの特徴とを比較し、その練習音データの特徴に類似する特徴を有する模範音データを選択する選択手段と、
前記選択手段によって選択された模範音データを出力する出力手段と
を備えることを特徴とする検索装置。 An exemplary sound storage means for storing exemplary sound data representing an exemplary singing voice or performance sound;
Acquisition means for acquiring practice sound data representing the singing voice or performance sound of the practitioner;
The model sound having the characteristics similar to the characteristics of the practice sound data by comparing the characteristics of each model sound data stored by the model sound storage means with the characteristics of the practice sound data acquired by the acquisition means. A selection means for selecting data;
An output unit that outputs the model sound data selected by the selection unit.
練習者の歌唱音声又は演奏音を表す練習音データと、その練習者に割り当てられた練習者識別情報とを取得する第1の取得手段と、
前記模範音記憶手段によって記憶されている各々の模範音データの特徴と、前記第1の取得手段によって取得された練習音データの特徴とを比較し、その練習音データの特徴に類似する特徴を有する模範音データを選択する第1の選択手段と、
前記第1の取得手段によって取得された練習者識別情報と、前記第1の選択手段によって選択された模範音データに対応付けられて前記模範音記憶手段に記憶されている模範者識別情報とを対応付けて記憶する識別情報記憶手段と、
前記練習者識別情報及び前記楽曲識別情報を取得する第2の取得手段と、
前記第2の取得手段によって取得された練習者識別情報に対応付けられて前記識別情報記憶手段に記憶されている模範者識別情報を特定し、特定した模範者識別情報に対応付けられて前記模範音記憶手段に記憶されている複数の模範音データのうち、前記第2の取得手段によって取得された楽曲識別情報に対応付けられている模範音データを選択する第2の選択手段と、
前記第1の選択手段又は前記第2の選択手段によって選択された模範音データを出力する出力手段と
を備えることを特徴とする検索装置。 Music identification information assigned to a song to be sung or played, model identification information assigned to a model person who performs singing or playing as a model, and model sound data representing singing voice or performance sound by each model person A model sound storage means for storing
First acquisition means for acquiring practice sound data representing the singing voice or performance sound of the practitioner and practitioner identification information assigned to the practitioner;
The characteristics of each model sound data stored by the model sound storage means are compared with the characteristics of the practice sound data acquired by the first acquisition means, and the characteristics similar to the characteristics of the practice sound data are compared. First selection means for selecting exemplary sound data having;
The practitioner identification information acquired by the first acquisition unit and the modeler identification information stored in the model sound storage unit in association with the model sound data selected by the first selection unit. Identification information storage means for storing in association with each other;
Second acquisition means for acquiring the practitioner identification information and the music identification information;
The model identification information stored in the identification information storage unit in association with the practitioner identification information acquired by the second acquisition unit is specified, and the model identification information is associated with the specified model identification information. Second selection means for selecting model sound data associated with the music identification information acquired by the second acquisition means from among the plurality of model sound data stored in the sound storage means;
A search apparatus comprising: output means for outputting model sound data selected by the first selection means or the second selection means.
前記取得手段は、前記通信装置の収音手段によって収音された前記練習音データを前記通信手段によって受信し、
前記出力手段は、前記通信装置の再生手段によって再生可能なデータ形式の前記模範音データを前記通信手段から前記通信装置に送信する
ことを特徴とする請求項1又は2記載の検索装置。 A communication unit that performs communication via a network with a communication device including a sound collection unit and a reproduction unit;
The acquisition means receives the practice sound data collected by the sound collection means of the communication device by the communication means,
The search device according to claim 1, wherein the output unit transmits the exemplary sound data in a data format reproducible by the reproduction unit of the communication device from the communication unit to the communication device.
前記出力手段は、まず、前記選択手段によって選択された複数の模範音データに割り当てられた模範者識別情報を出力し、次に、これら模範者識別情報のうちで指定された模範者識別情報が割り当てられた模範音データを出力する
ことを特徴とする請求項1記載の検索装置。 The selection means selects a plurality of model sound data from the model sound data stored in the model sound storage means in descending order of similarity to the characteristics of the practice sound data acquired by the acquisition means. ,
The output means first outputs the model person identification information assigned to the plurality of model sound data selected by the selection means, and then the model person identification information designated among these model person identification information is The assigned model sound data is output. The search device according to claim 1, wherein:
前記出力手段は、まず、前記第1の選択手段によって選択された複数の模範音データに割り当てられた模範者識別情報を出力し、次に、これら模範者識別情報のうちで指定された模範者識別情報が割り当てられた模範音データを出力し、
前記識別情報記憶手段は、前記第1の取得手段によって取得された練習者識別情報と、前記出力手段が出力した複数の模範者識別情報のうちで指定された模範者識別情報とを対応付けて記憶する
ことを特徴とする請求項2記載の検索装置。 The first selection unit includes a plurality of model sound data stored in the model sound storage unit, in order of decreasing similarity to the characteristics of the practice sound data acquired by the first acquisition unit. Select model sound data,
The output means first outputs the model person identification information assigned to the plurality of model sound data selected by the first selection means, and then the model person specified in the model person identification information. Output the model sound data to which the identification information is assigned,
The identification information storage means associates the practitioner identification information acquired by the first acquisition means with the exemplary person identification information specified among the plurality of exemplary person identification information output by the output means. The search device according to claim 2, wherein the search device is stored.
前記制御手段が、練習者の歌唱音声又は演奏音を表す練習音データを取得する第1のステップと、
前記制御手段が、前記模範音記憶手段によって記憶されている各々の模範音データの特徴と、前記第1のステップにおいて取得された練習音データの特徴とを比較し、その練習音データの特徴に類似する特徴を有する模範音データを選択する第2のステップと、
前記制御手段が、前記第2のステップにおいて選択された模範音データを出力する第3のステップと
を備えることを特徴とする制御方法。 An exemplary sound storage means for storing exemplary sound data representing an exemplary singing voice or performance sound, and a control method for a search device comprising a control means,
A first step in which the control means obtains practice sound data representing a practicing song voice or performance sound;
The control means compares the characteristics of each model sound data stored in the model sound storage means with the characteristics of the practice sound data acquired in the first step, and determines the characteristics of the practice sound data. A second step of selecting exemplary sound data having similar characteristics;
The control means comprises a third step of outputting the model sound data selected in the second step.
前記制御手段が、練習者の歌唱音声又は演奏音を表す練習音データと、その練習者に割り当てられた練習者識別情報とを取得する第1のステップと、
前記制御手段が、前記模範音記憶手段によって記憶されている各々の模範音データの特徴と、前記第1のステップにおいて取得された練習音データの特徴とを比較し、その練習音データの特徴に類似する特徴を有する模範音データを選択する第2のステップと、
前記制御手段が、前記第1のステップにおいて取得された練習者識別情報と、前記第2のステップにおいて選択された模範音データに対応付けられて前記模範音記憶手段に記憶されている模範者識別情報とを対応付けて前記識別情報記憶手段に記憶させる一方、前記第2のステップにおいて選択された模範音データを出力する第3のステップと、
前記制御手段が、前記練習者識別情報及び前記楽曲識別情報を取得する第4のステップと、
前記制御手段が、前記第4のステップにおいて取得された練習者識別情報に対応付けられて前記識別情報記憶手段に記憶されている模範者識別情報を特定し、特定した模範者識別情報に対応付けられて前記模範音記憶手段に記憶されている複数の模範音データのうち、前記第2の取得手段によって取得された楽曲識別情報に対応付けられている模範音データを選択する第5のステップと、
前記制御手段が、前記第5のステップにおいて選択された模範音データを出力する第6のステップと
を備えることを特徴とする制御方法。 Music identification information assigned to a song to be sung or played, model identification information assigned to a model person who performs singing or playing as a model, and model sound data representing singing voice or performance sound by each model person A search device comprising: model sound storage means for storing the reference information, identification information storage means for storing the reference person identification information and the practitioner identification information assigned to the practitioner, and control means Control method,
A first step in which the control means acquires practice sound data representing the singing voice or performance sound of the practitioner and practitioner identification information assigned to the practitioner;
The control means compares the characteristics of each model sound data stored in the model sound storage means with the characteristics of the practice sound data acquired in the first step, and determines the characteristics of the practice sound data. A second step of selecting exemplary sound data having similar characteristics;
The control means is associated with the trainer identification information acquired in the first step and the model sound data selected in the second step, and is stored in the model sound storage means. A third step of outputting the exemplary sound data selected in the second step while storing the identification information in the identification information storage unit in association with the information;
A fourth step in which the control means acquires the practitioner identification information and the music piece identification information;
The control means specifies model identification information stored in the identification information storage means in association with the practitioner identification information acquired in the fourth step, and associates with the specified model identification information. A fifth step of selecting the model sound data associated with the music identification information acquired by the second acquisition means from among the plurality of model sound data stored in the model sound storage means; ,
The control method comprises: a sixth step of outputting the model sound data selected in the fifth step.
練習者の歌唱音声又は演奏音を表す練習音データを取得する取得機能と、
前記模範音記憶手段によって記憶されている各々の模範音データの特徴と、前記取得機能によって取得された練習音データの特徴とを比較し、その練習音データの特徴に類似する特徴を有する模範音データを選択する選択機能と、
前記選択機能によって選択された模範音データを出力する出力機能と
を実現させるプログラム。 In a computer equipped with model sound storage means for storing model sound data representing an exemplary singing voice or performance sound,
An acquisition function for acquiring practice sound data representing a practicing song voice or performance sound;
A model sound having characteristics similar to the characteristics of the practice sound data by comparing the characteristics of each model sound data stored by the model sound storage means with the characteristics of the practice sound data acquired by the acquisition function A selection function to select data,
An output function for outputting model sound data selected by the selection function.
練習者の歌唱音声又は演奏音を表す練習音データと、その練習者に割り当てられた練習者識別情報とを取得する第1の取得機能と、
前記模範音記憶手段によって記憶されている各々の模範音データの特徴と、前記第1の取得機能によって取得された練習音データの特徴とを比較し、その練習音データの特徴に類似する特徴を有する模範音データを選択する第1の選択機能と、
前記第1の取得機能によって取得された練習者識別情報と、前記第1の選択機能によって選択された模範音データに対応付けられて前記模範音記憶手段に記憶されている模範者識別情報とを対応付けて前記識別情報記憶手段に記憶させる書込機能と、
前記練習者識別情報及び前記楽曲識別情報を取得する第2の取得機能と、
前記第2の取得機能によって取得された練習者識別情報に対応付けられて前記識別情報記憶手段に記憶されている模範者識別情報を特定し、特定した模範者識別情報に対応付けられて前記模範音記憶手段に記憶されている複数の模範音データのうち、前記第2の取得手段によって取得された楽曲識別情報に対応付けられている模範音データを選択する第2の選択機能と、
前記第1の選択機能又は前記第2の選択機能によって選択された模範音データを出力する出力機能と
を実現させるプログラム。 Music identification information assigned to a song to be sung or played, model identification information assigned to a model person who performs singing or playing as a model, and model sound data representing singing voice or performance sound by each model person A computer comprising: model sound storage means for storing the information in association with each other; and identification information storage means for storing the model identification information and the practitioner identification information assigned to the practitioner in association with each other.
A first acquisition function for acquiring practice sound data representing the singing voice or performance sound of the practitioner and practitioner identification information assigned to the practitioner;
The feature of each model sound data stored by the model sound storage means is compared with the feature of the practice sound data acquired by the first acquisition function, and the feature is similar to the feature of the practice sound data. A first selection function for selecting model sound data having;
Trainer identification information acquired by the first acquisition function and model identification information stored in the model sound storage means in association with the model sound data selected by the first selection function. A writing function to be associated and stored in the identification information storage means;
A second acquisition function for acquiring the practitioner identification information and the music identification information;
The model identification information stored in the identification information storage means in association with the practitioner identification information acquired by the second acquisition function is specified, and the model identification information is associated with the specified model identification information. A second selection function for selecting model sound data associated with the music identification information acquired by the second acquisition means from among the plurality of model sound data stored in the sound storage means;
A program for realizing an output function for outputting model sound data selected by the first selection function or the second selection function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006093293A JP2007264569A (en) | 2006-03-30 | 2006-03-30 | Retrieval device, control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006093293A JP2007264569A (en) | 2006-03-30 | 2006-03-30 | Retrieval device, control method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007264569A true JP2007264569A (en) | 2007-10-11 |
Family
ID=38637575
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006093293A Pending JP2007264569A (en) | 2006-03-30 | 2006-03-30 | Retrieval device, control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007264569A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009210790A (en) * | 2008-03-04 | 2009-09-17 | Nec Software Kyushu Ltd | Music selection singer analysis and recommendation device, its method, and program |
JP2011043714A (en) * | 2009-08-21 | 2011-03-03 | Daiichikosho Co Ltd | Communication karaoke system generating automatically singing history of each customer classified based on feature of singing voice |
WO2014189137A1 (en) * | 2013-05-23 | 2014-11-27 | ヤマハ株式会社 | Musical-performance analysis method and musical-performance analysis device |
JP2015152754A (en) * | 2014-02-14 | 2015-08-24 | ブラザー工業株式会社 | Music reproduction device, program, and music reproduction system |
JP2016048350A (en) * | 2014-08-28 | 2016-04-07 | ブラザー工業株式会社 | Karaoke device and karaoke program |
JP2021051125A (en) * | 2019-09-24 | 2021-04-01 | カシオ計算機株式会社 | Server device, method, program, and information provision system |
JP7377583B1 (en) * | 2023-07-21 | 2023-11-10 | 淳 山本 | program |
-
2006
- 2006-03-30 JP JP2006093293A patent/JP2007264569A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009210790A (en) * | 2008-03-04 | 2009-09-17 | Nec Software Kyushu Ltd | Music selection singer analysis and recommendation device, its method, and program |
JP2011043714A (en) * | 2009-08-21 | 2011-03-03 | Daiichikosho Co Ltd | Communication karaoke system generating automatically singing history of each customer classified based on feature of singing voice |
WO2014189137A1 (en) * | 2013-05-23 | 2014-11-27 | ヤマハ株式会社 | Musical-performance analysis method and musical-performance analysis device |
JP2015152754A (en) * | 2014-02-14 | 2015-08-24 | ブラザー工業株式会社 | Music reproduction device, program, and music reproduction system |
JP2016048350A (en) * | 2014-08-28 | 2016-04-07 | ブラザー工業株式会社 | Karaoke device and karaoke program |
JP2021051125A (en) * | 2019-09-24 | 2021-04-01 | カシオ計算機株式会社 | Server device, method, program, and information provision system |
CN112632401A (en) * | 2019-09-24 | 2021-04-09 | 卡西欧计算机株式会社 | Recommendation device, information providing system, recommendation method, and storage medium |
US11488491B2 (en) | 2019-09-24 | 2022-11-01 | Casio Computer Co., Ltd. | Recommend apparatus, information providing system, method, and storage medium |
JP7188337B2 (en) | 2019-09-24 | 2022-12-13 | カシオ計算機株式会社 | Server device, performance support method, program, and information providing system |
JP2023036600A (en) * | 2019-09-24 | 2023-03-14 | カシオ計算機株式会社 | Recommendation device, recommendation method, and program |
JP7424455B2 (en) | 2019-09-24 | 2024-01-30 | カシオ計算機株式会社 | Recommendation device, recommendation method, and program |
JP7377583B1 (en) * | 2023-07-21 | 2023-11-10 | 淳 山本 | program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9847078B2 (en) | Music performance system and method thereof | |
US8138409B2 (en) | Interactive music training and entertainment system | |
US9601029B2 (en) | Method of presenting a piece of music to a user of an electronic device | |
JP2007256617A (en) | Musical piece practice device and musical piece practice system | |
JP2012103603A (en) | Information processing device, musical sequence extracting method and program | |
JP2008517315A (en) | Data processing apparatus and method for notifying a user about categories of media content items | |
JP2007310204A (en) | Musical piece practice support device, control method, and program | |
JP2007264569A (en) | Retrieval device, control method, and program | |
JP2007232750A (en) | Karaoke device, control method and program | |
JP4926756B2 (en) | Karaoke sound effect output system | |
JP2019002999A (en) | Singing synthesis method and singing synthesis system | |
JP2019003000A (en) | Output method for singing voice and voice response system | |
CN113836344A (en) | Personalized song file generation method and device and music singing equipment | |
JP4748568B2 (en) | Singing practice system and singing practice system program | |
JP2007271977A (en) | Evaluation standard decision device, control method, and program | |
JP2007256618A (en) | Search device | |
JP2007322934A (en) | Singing practice device, karaoke device, and program | |
JP2007256619A (en) | Evaluation device, control method and program | |
JP2007304489A (en) | Musical piece practice supporting device, control method, and program | |
JP4839967B2 (en) | Instruction device and program | |
JP2009169103A (en) | Practice support device | |
US20060084047A1 (en) | System and method of segmented language learning | |
JP5193654B2 (en) | Duet part singing system | |
JP2008040260A (en) | Musical piece practice assisting device, dynamic time warping module, and program | |
JP2006276560A (en) | Music playback device and music playback method |