JP2001060099A - Device and method for information processing, and medium - Google Patents

Device and method for information processing, and medium

Info

Publication number
JP2001060099A
JP2001060099A JP11236652A JP23665299A JP2001060099A JP 2001060099 A JP2001060099 A JP 2001060099A JP 11236652 A JP11236652 A JP 11236652A JP 23665299 A JP23665299 A JP 23665299A JP 2001060099 A JP2001060099 A JP 2001060099A
Authority
JP
Japan
Prior art keywords
information
value
data
pitch
melody data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11236652A
Other languages
Japanese (ja)
Inventor
Hiroshi Kawamoto
洋志 川本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11236652A priority Critical patent/JP2001060099A/en
Publication of JP2001060099A publication Critical patent/JP2001060099A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide information relative to a music having the possibility of possessing a voice inputted melody. SOLUTION: A communication section 31 receives voice data and IDs and outputs them to a melody data generating section 32. A profile information storage section 34 stores the age of a user, information relative to his taste and reference items in which prescribed set values are set. A melody data generating section 32 generates melody data from the voice data of the section 31 employing the reference items, in which prescribed set values are set, stored in the section 34 and outputs the generated melody data to a retrieval section 33. A music information storage section 35 stores melody data for every music. The section 33 computes the degree of correlation between the melody data supplied from the section 32 and the melody data of the section 35 using the taste information stored in the section 34, retrieves music information of a candidate music and outputs the information to the section 31.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、情報処理装置およ
び方法、並びに媒体に関し、特に、ユーザの音声から、
所定の情報を検索することができるようにした情報処理
装置および方法、並びに媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus, an information processing method, and a medium.
The present invention relates to an information processing apparatus and method capable of searching for predetermined information, and a medium.

【0002】[0002]

【従来の技術】ユーザが、例えば、キーボードを操作
し、歌詞や歌手名など所定の検索情報を入力すると、そ
の検索情報により特定される曲の関連情報(例えば、曲
名)を、ユーザに提供するシステムが存在する。
2. Description of the Related Art When a user operates a keyboard and inputs predetermined search information such as lyrics and a singer's name, the user is provided with related information (for example, a song name) of a song specified by the search information. The system exists.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、ユーザ
が、検索情報になり得る情報を知らない場合、すなわ
ち、適切な検索情報が入力されない場合、このシステム
では、その曲の関連情報がユーザに提供されない課題が
あった。
However, if the user does not know the information that can be the search information, that is, if appropriate search information is not input, the system does not provide the user with the relevant information of the song. There were challenges.

【0004】そこで、ユーザが、検索情報を、例えば、
キーボードを介して入力する代わりに、メロディを音声
で入力するようにし、そのメロディと同一のメロディを
有する可能性のある曲の関連情報をユーザに提供するシ
ステムが考えられる。しかしながら、このシステムにお
ける処理の具体的内容が開示されていない課題があっ
た。
[0004] Therefore, the user can search information, for example,
Instead of inputting via the keyboard, a system is conceivable in which a melody is input by voice, and the user is provided with relevant information of a song that may have the same melody as the melody. However, there was a problem that the specific contents of the processing in this system were not disclosed.

【0005】本発明はこのような状況に鑑みてなされた
ものであり、音声で入力されたメロディを有する可能性
のある曲の関連情報を、ユーザに提供する処理を具体的
に開示するものである。
[0005] The present invention has been made in view of such circumstances, and specifically discloses a process of providing to a user information related to a song that may have a melody input by voice. is there.

【0006】[0006]

【課題を解決するための手段】請求項1に記載の情報処
理装置は、複数の曲に関する情報、および複数の曲のメ
ロディデータを記憶する第1の記憶手段と、端末から送
信されてきた音声データを受信する受信手段と、受信手
段により受信された音声データからメロディデータを生
成する生成手段と、第1の記憶手段に記憶されている複
数の曲のメロディデータと、生成手段により生成された
メロディデータとの相関度を算出する算出手段と、算出
手段により算出された相関度に基づいて、候補曲を決定
し、決定した候補曲に関する情報を、第1の記憶手段に
記憶されている複数の曲に関する情報から検索する検索
手段と、検索手段により検索された情報を、端末に出力
する出力手段とを備えることを特徴とする。
According to a first aspect of the present invention, there is provided an information processing apparatus comprising: first storage means for storing information on a plurality of music pieces and melody data of the plurality of music pieces; and a voice transmitted from a terminal. Receiving means for receiving data; generating means for generating melody data from the audio data received by the receiving means; melody data of a plurality of songs stored in the first storage means; Calculating means for calculating the degree of correlation with the melody data; determining a candidate song based on the degree of correlation calculated by the calculating means; and storing information on the determined candidate song in the first storage means. Characterized in that it comprises a search means for searching from information related to the song, and an output means for outputting the information searched by the search means to a terminal.

【0007】請求項2に記載の情報処理装置は、生成手
段は、所定の設定値が設定された参照項目を利用して、
音声データ上に、複数の音長算出区間および音高算出区
間を決定し、決定した音長算出区間の長さを音長とし、
決定した音高算出区間の音声データから音高を算出する
ことができる。
In the information processing apparatus according to a second aspect, the generating means uses the reference item in which the predetermined setting value is set,
On the voice data, a plurality of pitch calculation sections and pitch calculation sections are determined, and the length of the determined pitch calculation section is defined as a pitch,
The pitch can be calculated from the voice data of the determined pitch calculation section.

【0008】請求項3に記載の情報処理装置は、生成手
段は、第1の算出方法に従って、第1番目の音高算出区
間の音声データから音高を算出し、第1番目の音高算出
区間の音声データから算出した音高が、所定の値より大
きい場合、第1の算出方法に従って、残りの音高算出区
間の音声データから音高を算出し、第1番目の音高算出
区間の音声データから算出した音高が、所定の値より小
さい場合、第2の算出方法に従って、残りの音高算出区
間の音声データから音高を算出することができる。
According to a third aspect of the present invention, in the information processing apparatus, the generating means calculates the pitch from the voice data of the first pitch calculation section according to the first calculation method, and calculates the first pitch. When the pitch calculated from the voice data of the section is larger than a predetermined value, the pitch is calculated from the voice data of the remaining pitch calculation section according to the first calculation method, and the pitch of the first pitch calculation section is calculated. When the pitch calculated from the voice data is smaller than the predetermined value, the pitch can be calculated from the voice data of the remaining pitch calculation section according to the second calculation method.

【0009】請求項4に記載の情報処理装置は、受信手
段は、端末から送信されてきた曲IDをさらに受信し、生
成手段は、参照項目に設定された設定値を更新すること
ができる。
In the information processing apparatus according to a fourth aspect, the receiving means further receives the music ID transmitted from the terminal, and the generating means can update the set value set in the reference item.

【0010】請求項5に記載の情報処理装置は、ユーザ
IDに対応してプロファイル情報を記憶する第2の記憶手
段をさらに備え、受信手段は、端末から送信されてきた
ユーザIDをさらに受信し、算出手段は、受信手段により
受信されたユーザIDに対応して、第2の記憶手段に記憶
されているユーザ情報に基づいて、算出した相関度を修
正することができる。
[0010] An information processing apparatus according to claim 5 is a user
A second storage unit for storing profile information corresponding to the ID, the receiving unit further receiving the user ID transmitted from the terminal, and the calculating unit corresponding to the user ID received by the receiving unit Then, the calculated degree of correlation can be corrected based on the user information stored in the second storage means.

【0011】請求項6に記載の情報処理装置は、受信手
段は、端末から送信されてきた曲IDをさらに受信し、第
2の記憶手段は、受信手段により受信された曲IDに基づ
いて、プロファイル情報を更新することができる。
[0011] In the information processing apparatus according to claim 6, the receiving means further receives the music ID transmitted from the terminal, and the second storage means stores the music ID based on the music ID received by the receiving means. Profile information can be updated.

【0012】請求項7に記載の情報処理方法は、複数の
曲に関する情報、および複数の曲のメロディデータを記
憶する記憶ステップと、端末から送信されてきた音声デ
ータを受信する受信ステップと、受信ステップの処理で
受信された音声データからメロディデータを生成する生
成ステップと、記憶ステップの処理で記憶された複数の
曲のメロディデータと、生成ステップで生成されたメロ
ディデータとの相関度を算出する算出ステップと、算出
ステップの処理で算出された相関度に基づいて候補曲を
決定し、決定した候補曲に関する情報を、記憶ステップ
の処理で記憶された複数の曲に関する情報から検索する
検索ステップと、検索ステップの処理で検索された情報
を、端末に出力する出力ステップとを含むことを特徴と
する。
According to a seventh aspect of the present invention, there is provided an information processing method comprising: a storage step of storing information on a plurality of music pieces and melody data of the plurality of music pieces; a reception step of receiving voice data transmitted from the terminal; A generating step of generating melody data from the audio data received in the processing of the step; calculating a degree of correlation between the melody data of the plurality of songs stored in the processing of the storing step and the melody data generated in the generating step A calculation step, a search step of determining a candidate song based on the degree of correlation calculated in the process of the calculation step, and searching for information on the determined candidate song from information on a plurality of songs stored in the storage step process. And outputting the information retrieved in the process of the retrieval step to the terminal.

【0013】請求項8に記載の媒体は、複数の曲に関す
る情報、および複数の曲のメロディデータを入力する入
力ステップと、端末から送信されてきた音声データから
メロディデータを生成する生成ステップと、入力ステッ
プの処理で入力された複数の曲のメロディデータと、生
成ステップの処理で生成されたメロディデータとの相関
度を算出する算出ステップと、算出ステップの処理で算
出された相関度に基づいて候補曲を決定し、決定した候
補曲に関する情報を、入力ステップの処理で入力された
複数の曲に関する情報から検索する検索ステップと、検
索ステップの処理で検索された情報を、端末に出力する
出力ステップとからなることを特徴とする。
[0013] The medium according to claim 8 is an input step of inputting information on a plurality of music pieces and melody data of the plurality of music pieces, a generating step of generating melody data from audio data transmitted from a terminal, A calculating step of calculating a degree of correlation between the melody data of the plurality of songs input in the processing of the input step and the melody data generated in the processing of the generating step; and a calculating step based on the degree of correlation calculated in the processing of the calculating step. A search step of determining a candidate song, and searching for information on the determined candidate song from information on a plurality of songs input in the input step process, and outputting the information found in the search step process to a terminal; And steps.

【0014】請求項1に記載の情報処理装置、請求項7
に記載の情報処理方法、および請求項8に記載の媒体に
おいては、複数の曲に関する情報、および複数の曲のメ
ロディデータが入力され、端末から送信されてきた音声
データからメロディデータが生成され、入力された複数
の曲のメロディデータと、生成されたメロディデータと
の相関度が算出され、算出された相関度に基づいて候補
曲が決定され、決定された候補曲に関する情報が、複数
の曲に関する情報から検索され、検索された情報が、端
末に出力される。
An information processing apparatus according to claim 1, and claim 7
In the information processing method described in the above, and in the medium according to claim 8, melody data of a plurality of songs and melody data of the plurality of songs are input, and melody data is generated from audio data transmitted from the terminal. The degree of correlation between the input melody data of the plurality of songs and the generated melody data is calculated, a candidate song is determined based on the calculated degree of correlation, and information on the determined candidate song is stored in a plurality of songs. , And the searched information is output to the terminal.

【0015】請求項9に記載の情報処理装置は、音声を
入力する入力手段と、入力手段により入力された音声か
らメロディデータを生成する生成手段と、生成手段によ
り生成されたメロディデータを、サーバに出力する出力
手段とを備えることを特徴とする。
According to a ninth aspect of the present invention, there is provided an information processing apparatus, comprising: input means for inputting voice; generating means for generating melody data from the voice input by the input means; and melody data generated by the generating means. And output means for outputting to

【0016】請求項10に記載の情報処理装置は、生成
手段は、所定の設定値が設定された参照項目を利用し
て、音声データ上に、複数の音長算出区間および音高算
出区間を決定し、決定した音長算出区間の長さを音長と
し、決定した音高算出区間の音声データから音高を算出
することができる。
According to a tenth aspect of the present invention, in the information processing apparatus, the generation means uses the reference item in which the predetermined setting value is set to generate a plurality of pitch calculation sections and pitch calculation sections on the audio data. The pitch can be calculated from the voice data of the determined pitch calculation section, with the length of the determined pitch calculation section determined as the pitch.

【0017】請求項11に記載の情報処理装置は、生成
手段は、第1の算出方法に従って、第1番目の音高算出
区間の音声データから音高を算出し、第1番目の音高算
出区間の音声データから算出した音高が、所定の値より
大きい場合、第1の算出方法に従って、残りの音高算出
区間の音声データから音高を算出し、第1番目の音高算
出区間の音声データから算出した音高が、所定の値より
小さい場合、第2の算出方法に従って、残りの音高算出
区間の音声データから音高を算出することができる。
In the information processing apparatus according to the eleventh aspect, the generating means calculates the pitch from the voice data of the first pitch calculation section according to the first calculation method, and calculates the first pitch. When the pitch calculated from the voice data of the section is larger than a predetermined value, the pitch is calculated from the voice data of the remaining pitch calculation section according to the first calculation method, and the pitch of the first pitch calculation section is calculated. When the pitch calculated from the voice data is smaller than the predetermined value, the pitch can be calculated from the voice data of the remaining pitch calculation section according to the second calculation method.

【0018】請求項12に記載の情報処理装置は、入力
手段は、曲IDを入力し、生成手段は、参照項目に設定さ
れた設定値を更新することができる。
In the information processing apparatus according to the twelfth aspect, the input means inputs the music ID, and the generating means can update the set value set in the reference item.

【0019】請求項13に記載の情報処理方法は、音声
を入力する入力ステップと、入力ステップの処理で入力
された音声からメロディデータを生成する生成ステップ
と、生成ステップの処理で生成されたメロディデータ
を、サーバに出力する出力ステップとを含むことを特徴
とする。
According to a thirteenth aspect of the present invention, in the information processing method, an input step of inputting a voice, a generating step of generating melody data from the voice input in the processing of the input step, and a melody generated by the processing of the generating step. And outputting the data to a server.

【0020】請求項14に記載の媒体は、音声を入力す
る入力ステップと、入力ステップの処理で入力された音
声からメロディデータを生成する生成ステップと、生成
ステップの処理で生成されたメロディデータを、サーバ
に出力する出力ステップとからなることを特徴とする。
According to a fourteenth aspect of the present invention, in the medium, an input step of inputting a voice, a generating step of generating melody data from the voice input in the processing of the input step, and a melody data generated in the processing of the generating step are performed. And an output step of outputting to the server.

【0021】請求項9に記載の情報処理装置、請求項1
3に記載の情報処理方法、および請求項14に記載の媒
体においては、音声が入力され、入力された音声からメ
ロディデータが生成され、生成されたメロディデータ
が、サーバに出力される。
An information processing apparatus according to claim 9, wherein
In the information processing method according to the third aspect and the medium according to the fourteenth aspect, a voice is input, melody data is generated from the input voice, and the generated melody data is output to the server.

【0022】請求項15に記載の情報処理装置は、端末
から送信されてきたメロディデータを受信する受信手段
と、複数の曲に関する情報、および複数の曲のメロディ
データを記憶する第1の記憶手段と、第1の記憶手段に
記憶されている複数の曲のメロディデータと、受信手段
により受信されたメロディデータとの相関度を算出する
算出手段と、算出手段により算出された相関度に基づい
て、候補曲を決定し、決定した候補曲に関する情報を、
第1の記憶手段に記憶されている複数の曲に関する情報
から検索する検索手段と、検索手段により検索された情
報を、端末に出力する出力手段とを備えることを特徴と
する。
According to a fifteenth aspect of the present invention, there is provided an information processing apparatus, comprising: receiving means for receiving melody data transmitted from a terminal; first storage means for storing information on a plurality of music pieces and melody data of the plurality of music pieces. Calculating means for calculating a degree of correlation between the melody data of a plurality of songs stored in the first storage means and the melody data received by the receiving means; and a degree of correlation calculated by the calculating means. , Determine a candidate song, and provide information about the determined candidate song,
It is characterized by comprising a search means for searching from information on a plurality of songs stored in the first storage means, and an output means for outputting the information searched by the search means to a terminal.

【0023】請求項16に記載の情報処理装置は、ユー
ザIDに対応してプロファイル情報を記憶する第2の記憶
手段をさらに備え、受信手段は、端末から送信されてき
たユーザIDを受信し、算出手段は、受信手段により受信
されたユーザIDに対応して、第2の記憶手段に記憶され
ているユーザ情報に基づいて、算出した相関度を修正す
ることができる。
[0023] The information processing apparatus according to claim 16 further comprises a second storage means for storing profile information corresponding to the user ID, wherein the receiving means receives the user ID transmitted from the terminal, The calculating means can correct the calculated degree of correlation based on the user information stored in the second storage means, corresponding to the user ID received by the receiving means.

【0024】請求項17に記載の情報処理装置は、受信
手段は、端末から送信されてきた曲IDを受信し、 第2
の記憶手段は、受信手段により受信された曲IDに基づい
て、プロファイル情報を更新することができる。
[0024] In the information processing apparatus according to the seventeenth aspect, the receiving means receives the music ID transmitted from the terminal,
Can update the profile information based on the music ID received by the receiving means.

【0025】請求項18に記載の情報処理方法は、端末
から送信されてきたメロディデータを受信する受信ステ
ップと、複数の曲に関する情報、および複数の曲のメロ
ディデータを記憶する記憶ステップと、記憶ステップの
処理で記憶された複数の曲のメロディデータと、受信ス
テップの処理で受信されたメロディデータとの相関度を
算出する算出ステップと、算出ステップの処理で算出さ
れた相関度に基づいて、候補曲を決定し、決定した候補
曲に関する情報を、記憶ステップの処理で記憶された複
数の曲に関する情報から検索する検索ステップと、検索
ステップの処理で検索された情報を、端末に出力する出
力ステップとを含むことを特徴とする。
An information processing method according to claim 18 is a receiving step of receiving melody data transmitted from a terminal, a storing step of storing information on a plurality of music pieces and a melody data of a plurality of music pieces, and a storage step. Based on the melody data of a plurality of songs stored in the processing of the step, the calculation step of calculating the degree of correlation with the melody data received in the processing of the receiving step, based on the degree of correlation calculated in the processing of the calculation step, A search step of determining a candidate song and searching for information on the determined candidate song from the information on a plurality of songs stored in the storage step process, and outputting the information found in the search step process to a terminal And a step.

【0026】請求項19に記載の媒体は、複数の曲に関
する情報、および複数の曲のメロディデータを入力する
入力ステップと、入力ステップの処理で入力された複数
の曲のメロディデータと、端末から送信されてきたメロ
ディデータとの相関度を算出する算出ステップと、算出
ステップの処理により算出された相関度に基づいて、候
補曲を決定し、決定した候補曲に関する情報を、入力ス
テップの処理で入力された複数の曲に関する情報から検
索する検索ステップと、検索ステップの処理により検索
された情報を、端末に出力する出力ステップとからなる
ことを特徴とする。
According to a nineteenth aspect of the present invention, there is provided the medium, comprising: an input step of inputting information on a plurality of music pieces and melody data of the plurality of music pieces; a melody data of the plurality of music pieces input in the input step processing; A calculating step of calculating the degree of correlation with the transmitted melody data; and a candidate song is determined based on the degree of correlation calculated by the processing of the calculating step. It is characterized by comprising a search step of searching from information on a plurality of input songs, and an output step of outputting information searched by the processing of the search step to a terminal.

【0027】請求項15に記載の情報処理装置、請求項
18に記載の情報処理方法、および請求項19に記載の
媒体においては、複数の曲に関する情報、および複数の
曲のメロディデータが入力され、入力された複数の曲の
メロディデータと、端末から送信されてきたメロディデ
ータとの相関度が算出され、算出された相関度に基づい
て、候補曲が決定され、決定された候補曲に関する情報
が、複数の曲に関する情報から検索され、検索された情
報が、端末に出力される。
[0027] In the information processing apparatus according to the fifteenth aspect, the information processing method according to the eighteenth aspect, and the medium according to the nineteenth aspect, information on a plurality of music pieces and melody data of the plurality of music pieces are input. The degree of correlation between the input melody data of a plurality of songs and the melody data transmitted from the terminal is calculated, and based on the calculated degree of correlation, a candidate song is determined, and information on the determined candidate song is determined. Is searched from information on a plurality of songs, and the searched information is output to the terminal.

【0028】[0028]

【発明の実施の形態】図1は、本発明を適用した音楽情
報検索サービスシステムの構成例を示している。端末1
は、有線または無線で、ネットワーク2に接続され、ユ
ーザが発音した音声(例えば、ある曲のメロディ)を、
電子信号(音声データ)に変換し、検索サーバ3に送信
する。端末1はまた、検索サーバ3から送信されてきた
情報をユーザに提示する。検索サーバ3は、端末1から
送信されてきた音声データを受信するとともに、それに
対応する情報を検索し、端末1に送信する。
FIG. 1 shows a configuration example of a music information search service system to which the present invention is applied. Terminal 1
Is connected to the network 2 by wire or wirelessly, and outputs a voice (for example, a melody of a certain song) pronounced by the user,
It is converted into an electronic signal (voice data) and transmitted to the search server 3. The terminal 1 also presents the information transmitted from the search server 3 to the user. The search server 3 receives the voice data transmitted from the terminal 1, searches for the corresponding information, and transmits the information to the terminal 1.

【0029】次に、その動作について説明する。ユーザ
が、1つの音、例えば”ラ”を発音し、ある曲のメロデ
ィを端末1に入力すると、端末1は、ユーザの音声(曲
のメロディー)を音声データに変換し、検索サーバ3に
送信する。検索サーバ3は、端末1から送信されてきた
メロディを有する可能性のある曲の音楽情報(曲名、歌
詞、歌手名など)を検索し、端末1に送信する。端末1
は、検索サーバ3からの音楽情報を音声または文字でユ
ーザに提示する。これにより、例えば、ユーザが、曲名
を知らない曲のメロディを、音声で端末1に入力するこ
とより、その曲に関する音楽情報の供給を受け、その曲
名を知ることができる。
Next, the operation will be described. When the user pronounces one sound, for example, “La” and inputs a melody of a certain song to the terminal 1, the terminal 1 converts the user's voice (melody of the song) into voice data and transmits it to the search server 3. I do. The search server 3 searches for music information (song name, lyrics, singer name, etc.) of a song that may have a melody transmitted from the terminal 1 and transmits the music information to the terminal 1. Terminal 1
Presents the music information from the search server 3 to the user by voice or text. Thus, for example, the user inputs the melody of a song whose name is not known to the terminal 1 by voice, thereby receiving music information related to the song and knowing the song name.

【0030】図2は、端末1の構成例を示している。CP
U11は、ROM12に記憶されているプログラムに従って
各種の処理を実行する。RAM13には、CPU11が各種の
処理を実行する上において必要なデータなどが適宜記憶
される。
FIG. 2 shows a configuration example of the terminal 1. CP
U11 executes various processes according to a program stored in ROM12. The RAM 13 appropriately stores data and the like necessary for the CPU 11 to execute various processes.

【0031】音声入力部14は、マイクロフォンなどか
ら構成され、ユーザが発生した音声を音声データに変換
する。操作部15は、CPU11に、所定の処理の指令を
入力するとき適宜操作される。表示部16は、例えば、
液晶ディスプレイなどにより構成され、ユーザに提示す
る情報を表示する。音声出力部17は、スピーカなどか
ら構成され、ユーザに提示する情報を音声で出力する。
The voice input unit 14 is composed of a microphone or the like, and converts voice generated by the user into voice data. The operation unit 15 is appropriately operated when a command for a predetermined process is input to the CPU 11. The display unit 16 is, for example,
It is constituted by a liquid crystal display or the like, and displays information to be presented to the user. The audio output unit 17 includes a speaker or the like, and outputs information to be presented to the user by audio.

【0032】通信部18は、ネットワーク2にデータ
(例えば、音声データやID)を送信したり、ネットワー
ク2を介して送信されてきたデータ(例えば、音楽情
報)を受信する。インタフェース19は、音声入力部1
4乃至通信部18とCPU11との間に配置され、インタ
フェース処理を実行する。
The communication unit 18 transmits data (for example, voice data and ID) to the network 2 and receives data (for example, music information) transmitted via the network 2. The interface 19 is a voice input unit 1
4 to the communication unit 18 and the CPU 11 to execute interface processing.

【0033】すなわち、端末1は、ユーザの音声から音
声データを生成する音声データ生成機能と、検索サーバ
3との通信を実行する通信機能を有している。
That is, the terminal 1 has a voice data generation function of generating voice data from a user's voice and a communication function of executing communication with the search server 3.

【0034】図3は、検索サーバ3の構成例を示してい
る。通信部31は、ネットワーク2を介して送信されて
きたデータ(例えば、音声データやID)を受信し、メロ
ディデータ生成部32に出力したり、検索部33から供
給される音楽情報を、ネットワーク2を介して、端末1
に送信する。
FIG. 3 shows a configuration example of the search server 3. The communication unit 31 receives data (for example, audio data or ID) transmitted via the network 2 and outputs the data to the melody data generation unit 32 or transmits music information supplied from the search unit 33 to the network 2. Via terminal 1
Send to

【0035】プロファイル情報記憶部34は、ユーザ毎
に、ユーザの年齢、性別、嗜好情報(例えば、ユーザが
好む曲のジャンル)、および音楽情報検索サービスの利
用履歴の他、所定の設定値が設定された参照項目(後
述)などを記憶している。プロファイル情報記憶部34
はまた、曲の売れ行き情報なども記憶している。
The profile information storage unit 34 stores, for each user, a predetermined set value in addition to the user's age, gender, preference information (for example, the genre of the song that the user likes), the use history of the music information search service, and the like. The stored reference items (described later) are stored. Profile information storage unit 34
Also stores information on the sales of songs.

【0036】メロディデータ生成部32は、プロファイ
ル情報記憶部34に記憶されている、所定の設定値が設
定された参照項目を利用し、通信部31からの音声デー
タに基づいて、メロディデータを生成し、検索部33に
出力する。このメロディデータは、1つの音の長さを示
すデータ(以下、音長と称する)およびその音の高さを
示すデータ(以下、音高と称する)からなるデータ(以
下、音素と称する)の系列である。メロディデータ生成
部32はまた、プロファイル情報記憶部34に記憶され
ている参照項目の設定値を変更する処理を行う。
The melody data generation unit 32 generates melody data based on the voice data from the communication unit 31 by using the reference item in which a predetermined set value is stored, stored in the profile information storage unit 34. Then, it outputs to the search unit 33. The melody data is data (hereinafter, referred to as a phoneme) including data indicating the length of one sound (hereinafter, referred to as a pitch) and data indicating the pitch of the sound (hereinafter, referred to as a pitch). It is a series. The melody data generation unit 32 also performs a process of changing the set value of the reference item stored in the profile information storage unit 34.

【0037】音楽情報記憶部35は、曲毎に、メロディ
データ、曲名、歌手名、ISRC (International Standard
Recording Code)などを記憶する。なお、この例の場
合、音楽情報記憶部35に記憶されているメロディデー
タは、1つの音に関する時間データと周波数データから
なるMIDI ( Musical Instrument Digital Interface)
データである。
The music information storage unit 35 stores melody data, song title, singer name, ISRC (International Standard
Recording Code). In the case of this example, the melody data stored in the music information storage unit 35 is a MIDI (Musical Instrument Digital Interface) comprising time data and frequency data for one sound.
Data.

【0038】検索部33は、プロファイル情報記憶部3
4に記憶されている、嗜好情報や曲の売れ行き情報など
を利用して、メロディデータ生成部32から供給された
メロディデータと、音楽情報記憶部35に記憶されてい
る、各曲のメロディデータと相関度を算出し、候補曲
(1曲または複数曲)の音楽情報を検索し、通信部31
に出力する。検索部33はまた、プロファイル情報記憶
部34に記憶されている嗜好情報を更新する処理を行
う。
The search unit 33 stores the profile information storage unit 3
4 and the melody data supplied from the melody data generation unit 32 and the melody data of each song stored in the music information storage unit 35 using the preference information and the sales information of the song. The communication unit 31 calculates the degree of correlation and searches for music information of the candidate song (one or more songs).
Output to The search unit 33 also performs a process of updating the preference information stored in the profile information storage unit 34.

【0039】次に、曲名検索処理の概要を、図4のフロ
ーチャートを参照して説明する。ステップS1におい
て、ユーザは、端末1の操作部15を操作し、自分自身
を識別する情報(この例の場合、ユーザID)を入力す
る。ステップS2において、ユーザは、曲名を知りたい
曲のメロディの一部または全部を、端末1の音声入力部
14から、1つの音、例えば”ラ”を発生し、音声で入
力する。
Next, an outline of the song name search processing will be described with reference to the flowchart of FIG. In step S1, the user operates the operation unit 15 of the terminal 1 and inputs information for identifying himself (in this example, a user ID). In step S <b> 2, the user generates one sound, for example, “la” from the voice input unit 14 of the terminal 1 and inputs a part or all of the melody of the music whose title is desired to be known.

【0040】ステップS3において、端末1は、ステッ
プS1で入力されたユーザIDおよびステップS2で入力
された音声の音声データを、ネットワーク2を介して検
索サーバ3に送信する。
In step S3, the terminal 1 transmits the user ID input in step S1 and the voice data of the voice input in step S2 to the search server 3 via the network 2.

【0041】ステップS4において、検索サーバ3は、
端末1から送信されてきたユーザIDおよび音声データに
基づいて、メロディデータを生成し、ステップS5にお
いて、生成したメロディデータに基づいて、候補曲(1
曲または複数曲)を決定し、候補曲の曲名の他、歌詞、
歌手名、およびジャンルなど、所定の音楽情報を検索
し、ステップS6において、端末1に送信する。なお、
ステップS4およびステップS5の処理の詳細は、後述
する。
In step S4, the search server 3
Melody data is generated based on the user ID and the voice data transmitted from the terminal 1, and in step S5, based on the generated melody data, the candidate tune (1
Song or multiple songs), along with the song title of the candidate song, lyrics,
Predetermined music information such as a singer's name and a genre is searched and transmitted to the terminal 1 in step S6. In addition,
Details of the processing in step S4 and step S5 will be described later.

【0042】ステップS7において、端末1は、検索サ
ーバ3から送信されてきた候補曲の音楽情報を、表示部
16に文字で表示したり、音声出力部17を介して音声
で出力してユーザに提示する。ステップS8において、
ユーザは、表示部16または音声出力部17を介して提
示された情報から、自分が知りたい曲の曲名を探し出
す。このようにして、ユーザは、ステップS2で、メロ
ディを入力した曲の曲名を知ることができる。ユーザ
は、曲名を探し出した後、端末1の操作部15を操作し
て、その曲(曲名)を選択する。
In step S 7, the terminal 1 displays the music information of the candidate tune transmitted from the search server 3 in characters on the display unit 16 or outputs it in voice via the voice output unit 17 to the user. Present. In step S8,
The user searches for the title of the song he or she wants to know from the information presented via the display unit 16 or the audio output unit 17. In this way, the user can know the song title of the song for which the melody has been input in step S2. After searching for a song title, the user operates the operation unit 15 of the terminal 1 to select the song (song title).

【0043】ステップS9において、端末1は、選択結
果(例えば、曲の曲ID)を、ネットワーク2を介して検
索サーバ3に送信する。ステップS10において、検索
サーバ3は、端末1から送信されてきた曲のIDに基づい
て、プロファイル情報(例えば、参照項目の設定値およ
び嗜好情報)を更新する。その後、処理は終了する。な
お、ステップS10の処理の詳細は、後述する。
In step S 9, the terminal 1 transmits the selection result (for example, the song ID of the song) to the search server 3 via the network 2. In step S10, the search server 3 updates profile information (for example, reference item setting values and preference information) based on the song ID transmitted from the terminal 1. Thereafter, the process ends. The details of the processing in step S10 will be described later.

【0044】次に、ステップS4における処理(メロデ
ィデータ生成処理)の詳細を、図5のフローチャートを
参照して説明する。検索サーバ3のメロディデータ生成
部32は、端末1から送信されてきた音声データを絶対
値変換した後、カットオフ周波数が小さいローパスフィ
ルタ処理を施す。端末1から送信されてきた音声データ
は、例えば、図6に示すように、周波数の高域部分を含
む正および負の成分からなるデータ(波形)であるが、
絶対値変換され、ローパスフィルタ処理が施されると、
図7に示すように、周波数の高域部分が排除され、正の
成分のみからなるデータ(波形)に変換される。なお、
ここでのローパスフィルタ処理は、いわゆる、デジタル
フィルタ(FIR (Finite Impulse Response)またはIIR
(InfiniteImpulse Response) が利用される。
Next, the details of the processing (melody data generation processing) in step S4 will be described with reference to the flowchart of FIG. The melody data generator 32 of the search server 3 performs low-pass filter processing with a small cutoff frequency after converting the audio data transmitted from the terminal 1 into an absolute value. The audio data transmitted from the terminal 1 is, for example, data (waveform) including positive and negative components including a high frequency part as shown in FIG.
After being subjected to absolute value conversion and low-pass filtering,
As shown in FIG. 7, the high-frequency portion is eliminated and converted into data (waveform) consisting of only positive components. In addition,
The low-pass filter processing here is a so-called digital filter (FIR (Finite Impulse Response) or IIR
(InfiniteImpulse Response) is used.

【0045】次に、ステップS22において、メロディ
データ生成部32は、ステップS21での処理が施され
た音声データから、周波数の最大値Mを検出する。ステ
ップS23において、メロディデータ生成部32は、後
述するステップS24における処理に必要な参照項目の
設定値を決定する。
Next, in step S22, the melody data generation unit 32 detects the maximum value M of the frequency from the audio data processed in step S21. In step S23, the melody data generation unit 32 determines a set value of a reference item necessary for processing in step S24 described later.

【0046】この例の場合、α1、α2、β1、β2、
およびγの合計5種類の参照項目が存在するが、それら
には、予め用意された複数の設定値のうち、ユーザ毎
に、所定の設定値が設定され、プロファイル情報記憶部
34に記憶されている。すなわち、ここで、メロディデ
ータ生成部32は、端末1から送信されてきたユーザID
(ステップS3)に対応して記憶されている、所定の設
定値が設定された参照項目をプロファイル情報記憶部3
4から読み出す。なお、この例の場合、読み出された参
照項目には、下記のような設定値が設定されているもの
とする。
In this example, α1, α2, β1, β2,
There are a total of five types of reference items, i.e., γ and γ. Among them, a predetermined set value is set for each user among a plurality of set values prepared in advance, and stored in the profile information storage unit 34. I have. That is, here, the melody data generation unit 32 transmits the user ID transmitted from the terminal 1.
The reference item having a predetermined set value stored corresponding to (Step S3) is stored in the profile information storage unit 3.
Read from # 4. In this example, it is assumed that the following setting values are set in the read reference items.

【0047】α1=0.1,α2=1.5,β1=0.
73,β2=0.5,γ=1.1 ステップS24において、メロディデータ生成部32
は、音素(音長および音高)を決定するのに必要な、極
大点検出開始点S、極大点P、極小点検出開始点E、お
よび極小点Bを決定する。ここでの処理の詳細は、図8
乃至図10のフローチャートに示されている。なお、こ
の処理を説明するにあたって、はじめに、その概略を説
明し、その後、図7の例に基づいて、より具体的に説明
する。
Α1 = 0.1, α2 = 1.5, β1 = 0.
73, β2 = 0.5, γ = 1.1 In step S24, the melody data generation unit 32
Determines a maximum point detection start point S, a maximum point P, a minimum point detection start point E, and a minimum point B necessary for determining phonemes (tone length and pitch). Details of the processing here are shown in FIG.
10 to FIG. In describing this process, an outline thereof will be described first, and then a more specific description will be given based on the example of FIG.

【0048】ステップS41において、メロディデータ
生成部32は、図5のステップS21での処理が施され
た音声データ(例えば、図7)上にサンプル点を設定
し、設定したサンプル点の総数Tを取得する。
In step S41, the melody data generating section 32 sets sample points on the audio data (for example, FIG. 7) subjected to the processing in step S21 in FIG. 5, and calculates the total number T of the set sample points. get.

【0049】ステップS42において、メロディデータ
生成部32は、以下の処理で利用する各種パラメータ
を、下記のように初期設定する。
In step S42, the melody data generator 32 initializes various parameters used in the following processing as follows.

【0050】Lmax=0,Lpmax=0,Lmin=最大値
M,Lpmin=0,カウンタi=2,カウンタj=0,フ
ラグ=0 ステップS43において、メロディデータ生成部32
は、カウンタiの値が、サンプル点の総数Tと等しいか
否かを判定し、等しくないと判定した場合、ステップS
44に進む。
Lmax = 0, Lpmax = 0, Lmin = maximum value M, Lpmin = 0, counter i = 2, counter j = 0, flag = 0 In step S43, the melody data generator 32
Determines whether or not the value of the counter i is equal to the total number T of the sample points.
Go to 44.

【0051】ステップS44において、メロディデータ
生成部32は、第(i−2)番目のサンプル点(以下、
サンプル点(i-2)と記述する。他のサンプル点において
も同様である)のY軸方向の値(例えば、図7のY軸方
向の値)(以下、値Y(i-2)と記述する。他のY軸方向
の値についても同様である)、サンプル点(i-1)の値Y
(i-1)、サンプル点iの値Yi、サンプル点(i+1)の値Y(i
+1)、およびサンプル点(i+2)の値Y(i+2)が、下記の式
(1)および式(2)の関係を満たすか否か(式(1)
および式(2)が成り立つか否か)を判定する。すなわ
ち、サンプル点(i-2)、サンプル点(i-1)、サンプル点
i、サンプル点(i+1)、およびサンプル点(i+2)が、例え
ば、図7において、上に凸になる位置関係にあるか否か
が判定される。
In step S44, the melody data generator 32 outputs the (i-2) th sample point (hereinafter, referred to as the (i-2) th sample point).
Described as sample point (i-2). The same applies to other sample points) in the Y-axis direction (for example, the value in the Y-axis direction in FIG. 7) (hereinafter referred to as a value Y (i-2). Is the same as the above), the value Y of the sample point (i-1)
(i-1), the value Yi of the sample point i, and the value Y (i
+1) and whether the value Y (i + 2) of the sample point (i + 2) satisfies the relationship of the following equations (1) and (2) (equation (1)
And whether the equation (2) holds). That is, sample point (i-2), sample point (i-1), sample point
For example, it is determined whether or not i, the sample point (i + 1), and the sample point (i + 2) have a positional relationship that is convex upward in FIG.

【0052】 値Y(i-2)<値Y(i-1)<値Yi・・・(1) 値Yi>値Y(i+1)>値Y(i+2)・・・(2) ステップS44において、式(1)および式(2)が成
り立つと判定された場合、すなわち、上に凸になる位置
関係にある場合、ステップS45に進み、メロディデー
タ生成部32は、式(3)が成り立つか否かを判定し、
成り立つと判定した場合、ステップS46に進む。
Value Y (i-2) <Value Y (i-1) <Value Yi (1) Value Yi> Value Y (i + 1)> Value Y (i + 2) (2 If it is determined in step S44 that the expressions (1) and (2) are satisfied, that is, if the positional relationship is convex upward, the process proceeds to step S45, and the melody data generation unit 32 determines the expression (3) ) To determine whether
If it is determined that the condition holds, the process proceeds to step S46.

【0053】値Yi>Lmax・・・(3) ステップS46において、メロディデータ生成部32
は、Lmaxを値Yiに、そしてLpmaxにサンプル点iのX
軸方向の値(以下、値Xiと記述する。他のX軸方向の
値についても同様である)を設定する。なお、値Xi
は、カウンタiの値そのものであり、何番目のサンプル
点であるかを示す。
Value Yi> Lmax (3) In step S46, the melody data generator 32
Gives Lmax to the value Yi and Lpmax to the X of the sample point i.
A value in the axial direction (hereinafter referred to as a value Xi; the same applies to other values in the X-axis direction). Note that the value Xi
Is the value itself of the counter i, and indicates the number of the sample point.

【0054】次に、ステップS47において、メロディ
データ生成部32は、フラグに0が設定されているか否
かを判定し、0が設定されていると判定した場合、ステ
ップS48に進み、式(4)が成り立つか否かを判定
し、成り立つと判定した場合、ステップS49に進む。
Next, in step S47, the melody data generating section 32 determines whether or not the flag is set to 0. If it is determined that 0 is set, the process proceeds to step S48, where the formula (4) ) Is determined, and if it is determined that the condition is satisfied, the process proceeds to step S49.

【0055】 Lmax>(最大値M×α1(=0.1))・・・(4) ステップS49において、メロディデータ生成部32
は、カウンタjの値が0であるか否かを判定し、0では
ない判定した場合、ステップS50に進み、式(5)が
成り立つか否かを判定する。
Lmax> (maximum value M × α1 (= 0.1)) (4) In step S49, the melody data generation unit 32
Determines whether the value of the counter j is 0, and if it is not 0, proceeds to step S50, and determines whether or not Expression (5) is satisfied.

【0056】 Lmax>(1つ前に検出された極小点Bの値YB×α2(=1.5)) ・・・(5) ステップS49において、カウンタjの値が0であると
判定された場合、または、ステップS50において、式
(5)が成り立つと判定された場合、ステップS51に
進み、メロディデータ生成部32は、このときLpmaxに
設定されている値Xi(ステップS46で設定された値
Xi)のサンプル点を、極大点検出開始点Sに決定す
る。また、メロディデータ生成部32は、このときLpm
inに設定されている値Xi(ステップS63で設定され
た値Xi)のサンプル点を、極小点Bに決定する。
Lmax> (value YB × α2 (= 1.5) of the minimum point B detected immediately before) (5) In step S49, it was determined that the value of the counter j was 0 In this case, or when it is determined in step S50 that the expression (5) is satisfied, the process proceeds to step S51, where the melody data generating unit 32 sets the value Xi set at this time to Lpmax (the value set in step S46). The sample point of Xi) is determined as the maximum point detection start point S. At this time, the melody data generation unit 32
The sample point of the value Xi set to in (the value Xi set in step S63) is determined as the minimum point B.

【0057】次に、ステップS52に進み、メロディデ
ータ生成部32は、フラグに1を設定し、ステップS5
3において、カウンタjの値を1だけインクリメント
し、ステップS54に進む。
Next, proceeding to step S52, the melody data generator 32 sets 1 to a flag, and proceeds to step S5.
In 3, the value of the counter j is incremented by 1, and the process proceeds to step S54.

【0058】ステップS45において、式(3)が成り
立たないと判定された場合、ステップS47において、
フラグに0が設定されていないと判定された場合、ステ
ップS48において、式(4)が成り立たないと判定さ
れた場合、またはステップS50において、式(5)が
成り立たないと判定された場合も、ステップS54に進
む。
If it is determined in step S45 that the expression (3) does not hold, in step S47,
When it is determined that 0 is not set in the flag, when it is determined in step S48 that expression (4) does not hold, or when it is determined in step S50 that expression (5) does not hold, Proceed to step S54.

【0059】ステップS54において、メロディデータ
生成部32は、カウンタiの値を1だけインクリメント
し、その後、ステップS43に戻る。
In step S54, the melody data generator 32 increments the value of the counter i by one, and thereafter returns to step S43.

【0060】ステップS44において、式(1)および
式(2)が成り立たないと判定された場合、ステップS
55に進み、メロディデータ生成部32は、値Y(i-
2)、値Y(i-1)、値Yi、値Y(i+1)、および値Y(i+2)の
値が、下記の式(6)および式(7)の関係を満たすか
否か(式(6)および式(7)が成り立つか否か)を判
定する。すなわち、サンプル点(i-2)、サンプル点(i-
1)、サンプル点i、サンプル点(i+1)、およびサンプル点
(i+2)が、下に凸とる位置関係にあるか否かが判定され
る。
If it is determined in step S44 that the formulas (1) and (2) do not hold, the process proceeds to the step S44.
Proceeding to 55, the melody data generation unit 32 determines that the value Y (i−
2) Whether the values of the value Y (i-1), the value Yi, the value Y (i + 1), and the value Y (i + 2) satisfy the following equations (6) and (7): It is determined whether or not Expression (6) and Expression (7) hold. That is, the sample point (i-2) and the sample point (i-
1), sample point i, sample point (i + 1), and sample point
It is determined whether (i + 2) has a downwardly convex positional relationship.

【0061】 値Y(i-2)>値Y(i-1)>値Yi・・・(6) 値Yi<値Y(i+1)<値Y(i+2)・・・(7) ステップS55において、式(6)および式(7)が成
り立つと判定された場合、すなわち、下に凸になる位置
関係にある場合、ステップS56に進み、メロディデー
タ生成部32は、フラグに1が設定されているか否かを
判定し、1が設定されていると判定した場合、ステップ
S57に進む。
Value Y (i-2)> Value Y (i-1)> Value Yi (6) Value Yi <Value Y (i + 1) <Value Y (i + 2) (7 If it is determined in step S55 that the expressions (6) and (7) are satisfied, that is, if there is a downwardly convex positional relationship, the process proceeds to step S56, and the melody data generation unit 32 sets the flag to 1 Is determined, and if it is determined that 1 is set, the process proceeds to step S57.

【0062】ステップS57において、メロディデータ
生成部32は、式(8)および式(9)が成り立つか否
かを判定し、成り立つと判定した場合、ステップS58
に進む。
In step S57, the melody data generating section 32 determines whether or not the expressions (8) and (9) are satisfied.
Proceed to.

【0063】 値Yi>Lmax×β1(=0.73)・・・(8) 値Yi>最大値M×β2(=0.5)・・・(9) ステップS58において、メロディデータ生成部32
は、このときLpmaxに設定されている値Xi(ステップ
S46で設定された値Xi)のサンプル点を、極大点P
に決定し、またこのときのカウンタiの値で示されるサ
ンプル点を、極小点検出開始点Eに決定する。
Value Yi> Lmax × β1 (= 0.73) (8) Value Yi> Maximum M × β2 (= 0.5) (9) In step S58, the melody data generation unit 32
Sets the sample point of the value Xi set at this time to Lpmax (the value Xi set in step S46) to the local maximum point P
And the sample point indicated by the value of the counter i at this time is determined as the minimum point detection start point E.

【0064】ステップS59において、メロディデータ
生成部32は、Lminに最大値Mを、Lmaxに、値Yiに
γ(=1.1)を乗じた値を、そしてフラグに0をそれ
ぞれ設定する。
In step S59, the melody data generator 32 sets Lmin to the maximum value M, Lmax to the value obtained by multiplying the value Yi by γ (= 1.1), and 0 to the flag.

【0065】ステップS57において、式(8)および
式(9)が成り立たないと判定された場合、ステップS
60に進み、メロディデータ生成部32は、式(10)
が成り立つか否かを判定し、成り立つと判定した場合、
ステップS61に進む。
If it is determined in step S57 that the expressions (8) and (9) do not hold, the flow advances to step S57.
Proceeding to 60, the melody data generating unit 32 calculates
It is determined whether or not holds, and when it is determined that
Proceed to step S61.

【0066】Lmin<値Yi・・・(10) ステップS61において、メロディデータ生成部32
は、Lminに値Yiを、Lpminに値Xiをそれぞれ設定す
る。
Lmin <value Yi (10) In step S61, the melody data generator 32
Sets the value Yi to Lmin and the value Xi to Lpmin.

【0067】ステップS56において、フラグに1が設
定されていないと判定された場合、ステップS62に進
み、メロディデータ生成部32は、式(11)および式
(12)が成り立つか否かを判定し、成り立つと判定し
た場合、ステップS63に進む。
If it is determined in step S56 that 1 is not set in the flag, the process proceeds to step S62, where the melody data generation unit 32 determines whether or not the equations (11) and (12) hold. If it is determined that the above holds, the process proceeds to step S63.

【0068】Lmin>値Yi・・・(11) Lmax>値Yi・・・(12) ステップS63において、メロディデータ生成部32
は、Lminに値Yiを、Lpminに値Xiを、そしてLmax
に、値Yiにγを乗じた値を、それぞれ設定する。
Lmin> value Yi (11) Lmax> value Yi (12) In step S63, the melody data generator 32
Is the value Yi for Lmin, the value Xi for Lpmin, and Lmax
Is set to a value obtained by multiplying the value Yi by γ.

【0069】ステップS55において、式(6)および
式(7)が成り立たないと判定された場合、ステップS
60において、式(10)が成り立たないと判定された
場合、ステップS61において、LminおよびLpminに
所定の値が設定されたとき、ステップS62において、
式(11)および式(12)が成り立たないと判定され
た場合、またはステップS63において、Lmin、Lpmi
n、およびLmaxに所定の値が設定されたとき、ステップ
S54に戻る。
If it is determined in step S55 that equations (6) and (7) do not hold, step S55 is reached.
If it is determined in step S60 that the expression (10) does not hold, in step S61, when Lmin and Lpmin are set to predetermined values, in step S62,
When it is determined that the expressions (11) and (12) do not hold, or in step S63, Lmin, Lpmi
When predetermined values are set for n and Lmax, the process returns to step S54.

【0070】ステップS43において、カウンタiの値
が、サンプル点の総数Tと等しいと判定された場合、ス
テップS64に進み、最後の極小点Bが決定されたか否
かを判定し、決定されていないと判定した場合、ステッ
プS65に進み、第(値Xi−1)番目のサンプル点を
最後の極小点Bに決定する。
If it is determined in step S43 that the value of the counter i is equal to the total number T of sample points, the flow advances to step S64 to determine whether or not the last minimum point B has been determined. When the determination is made, the process proceeds to step S65, where the (value Xi-1) th sample point is determined as the last minimum point B.

【0071】ステップS64において、最後の極小点B
が決定された判定された場合、またはステップS65に
おいて、最後の極小点Bが決定されたとき、処理は終了
し、図5のステップS25に進む。
In step S64, the last minimum point B
Is determined, or when the last minimum point B is determined in step S65, the process ends, and the process proceeds to step S25 in FIG.

【0072】次に、図7の音声データを例として、再
度、上述した処理を説明する。ステップS41におい
て、サンプル点が設定され、その総数Tが取得される。
図11は、図7の音声データの区間Lに設定されたサン
プル点を示している。図11には、サンプル点(n-2)乃
至サンプル点(n+25)が示されている。
Next, the above-described processing will be described again using the audio data of FIG. 7 as an example. In step S41, sample points are set, and the total number T is obtained.
FIG. 11 shows sample points set in the section L of the audio data in FIG. FIG. 11 shows sample points (n−2) to (n + 25).

【0073】ステップS42において、パラメータが上
述したように設定されると、ステップS43において、
カウンタiの値が、サンプル点の総数Tと等しいか否か
が判定され、等しくないと判定された場合、ステップS
44に進む。この例の場合、このとき、カウンタiの値
はn(<T)であるので、ステップS44に進む。
When the parameters are set as described above in step S42, in step S43
It is determined whether or not the value of the counter i is equal to the total number T of sample points.
Go to 44. In this case, since the value of the counter i is n (<T) at this time, the process proceeds to step S44.

【0074】図11の例では、サンプル点(n-2)の値Y
(n-2)、サンプル点(n-1)の値Y(n-1)、サンプル点nの値
Yn、サンプル点(n+1)の値Y(n+1)、およびサンプル点
(n+2)の値Y(n+2)は、下記のような関係になるので、ス
テップS44において、式(1)および式(2)が成り
立たないと判定され、ステップ555に進み、式(6)
および式(7)が成り立たないと判定され、ステップS
54に進む。
In the example of FIG. 11, the value Y of the sample point (n-2)
(n-2), value Y (n-1) of sample point (n-1), value Yn of sample point n, value Y (n + 1) of sample point (n + 1), and sample point
Since the value Y (n + 2) of (n + 2) has the following relationship, it is determined in step S44 that the equations (1) and (2) do not hold. (6)
And it is determined that Expression (7) does not hold, and step S
Proceed to 54.

【0075】 値Y(n-2)<値Y(n-1)<値Yn<値Y(n+1)<値Y(n+2) ステップ54において、カウンタiの値が1だけインク
リメントされた後、ステップS43に戻り、それ以降の
処理が実行されるが、図11の例では、値Y(n+1)、値
Y(n+2)、値Y(n+3)、値Y(n+4)、および値Y(n+5)が、
式(1)および式(2)の関係を満たすので、すなわ
ち、サンプル点(n+1)、サンプル点(n+2)、サンプル点(n
+3)、サンプル点(n+4)、およびサンプル点(n+5)が、上
に凸になる位置関係にあるので、カウンタiの値が(n
+3)になるまで、ステップS43、S44,S55,
S54における処理が繰り返し行われる。
Value Y (n−2) <Value Y (n−1) <Value Yn <Value Y (n + 1) <Value Y (n + 2) In step 54, the value of the counter i is incremented by one. After that, the process returns to step S43, and the subsequent processes are executed. In the example of FIG. 11, the value Y (n + 1), the value Y (n + 2), the value Y (n + 3), and the value Y (n + 4) and the value Y (n + 5)
Since the relations of the equations (1) and (2) are satisfied, that is, the sample point (n + 1), the sample point (n + 2), and the sample point (n
+3), the sample point (n + 4), and the sample point (n + 5) are in a positional relationship convex upward, so that the value of the counter i is (n
+3) until steps S43, S44, S55,
The processing in S54 is repeatedly performed.

【0076】ステップS54において、カウンタiの値
がインクリメントされ、(n+3)になったとき、ステ
ップS44において、式(1)および式(2)が成り立
つと判定され、ステップS45に進む。カウンタiの値
が(n+3)のとき、Lmaxには、0が設定されている
ので(ステップS42における処理により、0に初期設
定されたままなので)、値Y(n+3)は、Lmax(=0)よ
り大きいと判定され、ステップS46に進む。
When the value of the counter i is incremented to (n + 3) in step S54, it is determined in step S44 that the expressions (1) and (2) hold, and the flow advances to step S45. When the value of the counter i is (n + 3), since Lmax is set to 0 (since the value is initially set to 0 by the processing in step S42), the value Y (n + 3) becomes Lmax ( = 0), and the process proceeds to step S46.

【0077】ステップS46において、Lmaxに値Y(n+
3)が、そしてLpmaxに値X(n+3)(すなわち、(n+
3))が設定される。次に、ステップS47において、
フラグに0が設定されているか否かが判定され、0が設
定されていると判定された場合、ステップS48に進
む。カウンタiの値が(n+3)のとき、フラグには、
0が設定されているので(ステップS42における処理
により、0に初期設定されたままなので)、ステップS
48に進む。
In step S46, the value Y (n +
3) and to Lpmax the value X (n + 3) (ie (n +
3)) is set. Next, in step S47,
It is determined whether or not the flag is set to 0. If it is determined that 0 is set, the process proceeds to step S48. When the value of the counter i is (n + 3), the flag
Since 0 has been set (since the initial setting to 0 has been performed by the processing in step S42), step S
Go to 48.

【0078】ステップS48において、式(4)が成り
立つか否か、すなわち、Lmaxが最大値Mにα1(=
0.1)を乗じた値より、大きいか否かが判定され、大
きいと判定された場合、ステップS49に進む。カウン
タiの値が(n+3)のとき、Lmaxには、値Y(n+3)が
設定されているので(カウンタiの値が(n+3)のと
きのステップS46における処理により、値Y(n+3)が
設定されたままなので)、値Y(n+3)が、最大値Mにα
1を乗じた値より大きいか否かが判定される。この例の
場合、値Y(n+3)は、その値よりも大きいので、ステッ
プS49に進む。
In step S48, it is determined whether or not equation (4) holds, that is, Lmax is set to α1 (=
It is determined whether or not the value is larger than the value obtained by multiplying by 0.1). If it is determined that the value is larger, the process proceeds to step S49. When the value of the counter i is (n + 3), the value Y (n + 3) is set in Lmax. Therefore, when the value of the counter i is (n + 3), the value Y (n +3) is still set), the value Y (n + 3) becomes α
It is determined whether or not the value is larger than a value obtained by multiplying by one. In this example, since the value Y (n + 3) is larger than the value, the process proceeds to step S49.

【0079】ステップS49において、カウンタjの値
が0であるか否かが判定され、0であると判定された場
合、ステップS51に進む。カウンタiの値が(n+
3)のとき、カウンタjの値には、0が設定されている
ので(ステップS42における処理により、0に初期設
定されたままなので)、ステップS51に進む。
In step S49, it is determined whether or not the value of the counter j is 0. If it is determined that the value is 0, the process proceeds to step S51. When the value of the counter i is (n +
At the time of 3), since the value of the counter j is set to 0 (since the value is initially set to 0 by the processing in step S42), the process proceeds to step S51.

【0080】ステップS51において、Lpmaxに設定さ
れている値Xiのサンプル点が、極大点検出開始点Sに
決定されるが、カウンタiの値が(n+3)のとき、L
pmaxには、値X(n+3)が設定されているので(カウンタ
iの値が(n+3)のときのステップS46における処
理により、値X(n+3)が設定されたままなので)、第
(n+3)番目のサンプル点(サンプル点(n+3))が、
図7に示すように、第1番目の音素の極大点検出開始点
S1に決定される。また、このとき、Lpminに設定され
ている値Xiのサンプル点が、極小点Bに決定される
が、カウンタiの値が(n+3)のとき、Lpminには、
0が設定されているので(ステップS42における処理
により、0に設定されたままなので)、この場合、極小
点Bは決定されない。
In step S51, the sample point of the value Xi set to Lpmax is determined as the local maximum point detection start point S. When the value of the counter i is (n + 3), L
Since the value X (n + 3) is set in pmax (since the value X (n + 3) is still set by the processing in step S46 when the value of the counter i is (n + 3)), The (n + 3) th sample point (sample point (n + 3))
As shown in FIG. 7, the maximum point detection start point S1 of the first phoneme is determined. At this time, the sample point of the value Xi set in Lpmin is determined as the minimum point B. When the value of the counter i is (n + 3), Lpmin is set to:
Since 0 has been set (since it has been set to 0 by the processing in step S42), in this case, the minimum point B is not determined.

【0081】このように、極大点検出開始点S1が決定
されると、ステップS52において、フラグに1が設定
され、ステップS53において、カウンタjの値が1だ
けインクリメントされ、ステップS54に戻る。
As described above, when the maximum point detection start point S1 is determined, the flag is set to 1 in step S52, the value of the counter j is incremented by 1 in step S53, and the process returns to step S54.

【0082】次に、ステップS54において、カウンタ
iの値が1だけインクリメントされ後、ステップS43
に戻り、それ以降の処理が実行されるが、図11の例の
場合、値Y(n+3)、値Y(n+4)、値Y(n+5)、値Y(n+6)、
および値Y(n+7)が、式(6)および式(7)の関係を
満たすので、すなわち、サンプル点(n+3)、サンプル点
(n+4)、サンプル点(n+5)、サンプル点(n+6)、およびサ
ンプル点(n+7)が、下の凸になる位置関係にあるので、
カウンタiの値が(n+5)になるまで、ステップS4
3、S44,S55,S54における処理が繰り返し行
われる。
Next, in step S54, the value of the counter i is incremented by one, and then in step S43
And the subsequent processing is executed. In the case of the example of FIG. 11, the value Y (n + 3), the value Y (n + 4), the value Y (n + 5), and the value Y (n + 6 ),
And the value Y (n + 7) satisfies the relations of the equations (6) and (7), ie, the sample point (n + 3) and the sample point
Since (n + 4), the sample point (n + 5), the sample point (n + 6), and the sample point (n + 7) are in a positional relationship of being convex downward,
Until the value of the counter i becomes (n + 5), step S4
3. The processes in S44, S55, and S54 are repeatedly performed.

【0083】ステップS54において、カウンタiの値
がインクリメントされ、(n+5)になったとき、ステ
ップS55において、式(6)および式(7)が成り立
つと判定され、ステップS56に進み、フラグに1が設
定されているか否かが判定される。カウンタiの値が
(n+5)のとき、フラグには1が設定されているので
(カウンタiの値が(n+3)のときのステップS52
の処理により、1が設定されたままなので)、ステップ
S57に進む。
In step S54, when the value of the counter i is incremented to (n + 5), it is determined in step S55 that the equations (6) and (7) hold, the process proceeds to step S56, and 1 is set in the flag. It is determined whether or not is set. When the value of the counter i is (n + 5), 1 is set in the flag, so (Step S52 when the value of the counter i is (n + 3))
(1 remains set as a result of the above processing), and the process proceeds to step S57.

【0084】ステップS57において、式(8)および
式(9)が成り立つか否かが判定され、成り立たないと
判定された場合、ステップS60に進む。カウンタiの
値が(n+5)のとき、Lmaxには、値Y(n+3)が設定さ
れているので(カウンタiの値が(n+3)のときのス
テップS46における処理により、値Y(n+3)が設定さ
れたままなので)、この場合、値Y(n+5)が、値Y(n+3)
にβ1(=0.73)を乗じた値より大きいか否かが判
定され、また最大値Mにβ2(=0.5)を乗じた値よ
り大きいか否かが判定される。この例の場合、値Y(n+
5)は、値Y(n+3)にβ1を乗じた値より大きいが(式
(8)は成り立つが)、最大値Mにβ2を乗じた値より
小さいので(式(9)が成り立たないので)、ステップ
S60に進む。
In step S57, it is determined whether or not the expressions (8) and (9) are satisfied. If it is determined that the expressions are not satisfied, the process proceeds to step S60. When the value of the counter i is (n + 5), the value Y (n + 3) is set in Lmax. Therefore, (the value Y (n) is obtained by the processing in step S46 when the value of the counter i is (n + 3). +3) is still set), in this case, the value Y (n + 5) becomes the value Y (n + 3)
Is determined to be greater than a value obtained by multiplying the maximum value M by β2 (= 0.5). In this example, the value Y (n +
5) is larger than the value obtained by multiplying the value Y (n + 3) by β1 (although the formula (8) holds), but smaller than the value obtained by multiplying the maximum value M by β2 (the formula (9) does not hold) Therefore, the process proceeds to step S60.

【0085】ステップS60において、式(10)が成
り立つか否かが判定され、成り立たつと判定された場
合、ステップS61に進む。カウンタiの値が(n+
5)のとき、Lminには、最大値Mが設定されているの
で(ステップS42における処理により、最大値Mが設
定されたままなので)、値Y(n+5)は、最大値Mより小
さく、ステップS61に進む。
In step S60, it is determined whether or not the expression (10) is satisfied. If it is determined that the expression is satisfied, the process proceeds to step S61. When the value of the counter i is (n +
In the case of 5), since the maximum value M is set in Lmin (since the maximum value M is still set by the processing in step S42), the value Y (n + 5) is smaller than the maximum value M. The process proceeds to step S61.

【0086】ステップS62において、Lminに値Y(n+
5)が、そしてLpminに値X(n+5)が設定され、ステップ
S54に戻る。
In step S62, the value Y (n +
5), and the value X (n + 5) is set to Lpmin, and the process returns to step S54.

【0087】ステップS54において、カウンタiの値
が1だけインクリメントされた後、ステップS43に戻
り、それ以降の処理が実行されるが、図11の例の場
合、値(n+7)、値Y(n+8)、値Y(n+9)、値Y(n+10)、お
よび値Y(n+11)が、式(1)および式(2)の関係を満
たすので、すなわち、サンプル点(n+7)、サンプル点(n+
8)、サンプル点(n+9)、サンプル点(n+10)、およびサン
プル点(n+11)が、上に凸になる位置関係にあるので、カ
ウンタiの値が(n+9)になるまで、ステップS4
3、S44,S55,S54における処理が繰り返し行
われる。
In step S54, after the value of the counter i is incremented by one, the process returns to step S43, and the subsequent processing is executed. In the case of the example of FIG. 11, the value (n + 7) and the value Y (n + 8), the value Y (n + 9), the value Y (n + 10), and the value Y (n + 11) satisfy the relationship of Expressions (1) and (2), that is, Point (n + 7), sample point (n +
8), the sample point (n + 9), the sample point (n + 10), and the sample point (n + 11) are in a positional relationship of being convex upward, so that the value of the counter i is (n + 9). Until step S4
3. The processes in S44, S55, and S54 are repeatedly performed.

【0088】ステップS54において、カウンタiの値
がインクリメントされ、(n+9)になったとき、ステ
ップS44において、式(1)および式(2)が成り立
つと判定され、ステップS45に進む。カウンタiの値
が(n+9)のとき、Lmaxには、値Y(n+3)が設定され
ているので(カウンタiの値が(n+3)のときのステ
ップS46における処理により、値Y(n+3)が設定され
たままなので)、値Y(n+9)は、値Y(n+3)より大きいが
否かが判定される。この例の場合、値Y(n+9)は、値Y
(n+3)より大きいので、ステップS46に進む。
When the value of the counter i is incremented to (n + 9) in step S54, it is determined in step S44 that the equations (1) and (2) hold, and the flow advances to step S45. When the value of the counter i is (n + 9), the value Y (n + 3) is set in Lmax. Therefore, (the value Y (n) is obtained by the process in step S46 when the value of the counter i is (n + 3). +3) is still set), it is determined whether the value Y (n + 9) is greater than the value Y (n + 3). In this example, the value Y (n + 9) is the value Y
Since it is larger than (n + 3), the process proceeds to step S46.

【0089】ステップS46において、Lmaxに、値Y
(n+3)に代わり値Y(n+9)が、そしてLpmaxに、値X(n+
3)に代わり値X(n+9)が設定される。次に、ステップS
47において、フラグに0が設定されているか否かが判
定され、0が設定されていないと判定された場合、ステ
ップS54に戻る。カウンタiの値が(n+9)のと
き、フラグには1が設定されているので(カウンタiの
値が(n+3)のときのステップS52における処理に
より、1が設定されたままなので)、ステップS54に
戻る。
In step S46, the value Y is set to Lmax.
The value Y (n + 9) is substituted for (n + 3), and the value X (n +
A value X (n + 9) is set instead of 3). Next, step S
In 47, it is determined whether or not 0 is set in the flag. If it is determined that 0 is not set, the process returns to step S54. When the value of the counter i is (n + 9), 1 is set in the flag (since the value of the counter i is still set to 1 by the processing in step S52 when the value of the counter i is (n + 3)), the process proceeds to step S54. Return to

【0090】ステップS54において、カウンタiの値
がインクリメントされた後、ステップS43に戻り、そ
れ以降の処理が実行されるが、図11の例の場合、値Y
(n+11)、値Y(n+12)、値Y(n+13)、値Y(n+14)、および
値Y(n+15)が、式(6)および式(7)の関係を満たす
ので、すなわち、サンプル点(n+11)、サンプル点(n+1
2)、サンプル点(n+13)、サンプル点(n+14)、およびサン
プル点(n+15)が、下に凸になる位置関係にあるので、カ
ウンタiの値が(n+13)になるまで、ステップS4
3,S44,S55,S54における処理が繰り返し行
われる。
After the value of the counter i is incremented in step S54, the process returns to step S43, and the subsequent processing is executed. In the case of FIG.
(n + 11), the value Y (n + 12), the value Y (n + 13), the value Y (n + 14), and the value Y (n + 15) are expressed by the following equations (6) and (7). Satisfies the relationship, i.e., sample point (n + 11), sample point (n + 1
2) Since the sample point (n + 13), the sample point (n + 14), and the sample point (n + 15) have a downwardly convex positional relationship, the value of the counter i becomes (n + 13). Until step S4
The processing in 3, S44, S55, and S54 is repeatedly performed.

【0091】ステップS54において、カウンタiの値
がインクリメントされ、(n+13)になったとき、ス
テップS55において、式(6)および式(7)が成り
立つと判定され、ステップS56に進む。ステップS5
6において、フラグに1が設定されているか否かが判定
され、1が設定されていると判定された場合、ステップ
S57に進む。カウンタiの値が(n+13)のとき、
フラグには1が設定されていので(カウンタiの値が
(n+3)のときのステップS52における処理によ
り、1が設定されたままなので)、ステップS57に進
む。
When the value of the counter i is incremented to (n + 13) in step S54, it is determined in step S55 that the equations (6) and (7) hold, and the flow advances to step S56. Step S5
In 6, it is determined whether or not 1 is set in the flag. If it is determined that 1 is set, the process proceeds to step S57. When the value of the counter i is (n + 13),
Since 1 is set in the flag (since 1 remains set by the processing in step S52 when the value of the counter i is (n + 3)), the flow proceeds to step S57.

【0092】ステップS57において、式(8)および
式(9)が成り立つか否かが判定され、成り立つと判定
された場合、ステップS58に進む。カウンタiの値が
(n+13)のとき、Lmaxには、値Y(n+9)が設定され
ているので(カウンタiの値が(n+9)のときのステ
ップS46における処理により、値Y(n+9)が設定され
たままなので)、値Y(n+13)が、値Y(n+9)にβ1を乗
じた値より大きいか否かが判定され、かつ、最大値Mに
β2を乗じた値より大きいか否かが判定される。この例
の場合、値Y(n+13)は、値Y(n+9)にβ1を乗じた値よ
り大きく(式(8)が成り立ち)、かつ、最大値Mにβ
2を乗じた値より大きいので(式(9)が成り立つの
で)、ステップS58に進む。
In step S57, it is determined whether or not the expressions (8) and (9) are satisfied. If it is determined that the expressions are satisfied, the process proceeds to step S58. When the value of the counter i is (n + 13), the value Y (n + 9) is set in Lmax. Therefore, when the value of the counter i is (n + 9), the value Y (n +9) is still set), it is determined whether the value Y (n + 13) is greater than the value obtained by multiplying the value Y (n + 9) by β1, and β2 is set as the maximum value M. It is determined whether the value is larger than the multiplied value. In this example, the value Y (n + 13) is larger than a value obtained by multiplying the value Y (n + 9) by β1 (formula (8) holds), and the maximum value M is β
Since the value is larger than the value obtained by multiplying 2 (formula (9) is satisfied), the process proceeds to step S58.

【0093】ステップS58において、Lpmaxに設定さ
れている値Xiのサンプル点が、極大点Pに決定される
が、カウンタiの値が(n+13)のとき、Lpmaxに
は、値X(n+9)が設定されているので(カウンタiの値
が(n+9)のときのステップS46における処理によ
り、値X(n+9)が設定されたままなので)、第(n+
9)のサンプル点(サンプル点(n+9))が、図7に示す
ように、第1番目の音素の極大点P1に決定される。ま
た、カウンタiの値の(n+13)で示されるサンプル
点、すなわち、第(n+13)番目のサンプル点(サン
プル点(n+13))が、第1番目の音の極小点検出開始点E
1に決定される。
In step S58, the sampling point of the value Xi set to Lpmax is determined as the maximum point P. When the value of the counter i is (n + 13), the value X (n + 9) is added to Lpmax. ) Is set (since the value X (n + 9) is still set by the process in step S46 when the value of the counter i is (n + 9)),
The sample point 9) (sample point (n + 9)) is determined as the maximum point P1 of the first phoneme as shown in FIG. The sample point indicated by (n + 13) of the value of the counter i, that is, the (n + 13) th sample point (sample point (n + 13)) is the minimum point detection start point E of the first sound.
Determined to be 1.

【0094】次に、ステップS59に進み、Lminに最
大値Mが、Lmaxに値Y(n+13)にγを乗じた値が、そし
てフラグに0が、それぞれ設定され、ステップS54に
戻る。
Next, the process proceeds to step S59, where Lmin is set to the maximum value M, Lmax is set to the value obtained by multiplying the value Y (n + 13) by γ, and the flag is set to 0, and the process returns to step S54.

【0095】ステップS54において、カウンタiの値
がインクリメントされた後、ステップS43に戻り、そ
れ以降の処理が実行されるが、図11の例の場合、値Y
(n+17)、値Y(n+18)、値Y(n+19)、値Y(n+20)、および
値Y(n+21)が、式(6)および式(7)の関係を満たす
ので、すなわち、サンプル点(n+17)、サンプル点(n+1
8)、サンプル点(n+19)、サンプル点(n+20)、およびサン
プル点(n+21)が、下に凸になる位置関係にあるので、カ
ウンタiの値が(n+19)になるまで、ステップS4
3,S44,S55,S54における処理が繰り返し行
われる。
In step S54, after the value of the counter i is incremented, the process returns to step S43, and the subsequent processing is executed. In the case of the example of FIG.
(n + 17), the value Y (n + 18), the value Y (n + 19), the value Y (n + 20), and the value Y (n + 21) are expressed by the following equations (6) and (7). Satisfies the relationship, i.e., sample point (n + 17), sample point (n + 1
8) Since the sample point (n + 19), the sample point (n + 20), and the sample point (n + 21) are in a positional relationship that becomes convex downward, the value of the counter i becomes (n + 19). Until step S4
The processing in 3, S44, S55, and S54 is repeatedly performed.

【0096】ステップS54において、カウンタiの値
がインクリメントされ、(n+19)になったとき、ス
テップS55において、式(6)および式(7)が成り
立つと判定され、ステップS56に進む。ステップS5
6において、フラグに1が設定されているか否かが判定
され、1が設定されていないと判定された場合、ステッ
プS62に進む。カウンタiの値が(n+19)のと
き、フラグには、0が設定されているので(カウンタi
の値が(n+13)のときのステップS59における処
理により、0が設置されたままなので)、ステップS6
2に進む。
When the value of the counter i is incremented to (n + 19) in step S54, it is determined in step S55 that the equations (6) and (7) hold, and the flow advances to step S56. Step S5
In 6, it is determined whether or not 1 is set in the flag. If it is determined that 1 is not set, the process proceeds to step S62. When the value of the counter i is (n + 19), since 0 is set in the flag,
Is set to 0 by the processing in step S59 when the value of is (n + 13) (step S6).
Proceed to 2.

【0097】ステップS62において、式(11)およ
び式(12)が成り立つか否かが判定され、成り立つと
判定された場合、ステップS63に進む。カウンタiの
値が(n+19)のとき、Lminには、最大値Mが設定
され(カウンタiの値が(n+13)のときのステップ
S59における処理により、最大値Mが設定されたまま
で)、Lmaxには、値Y(n+13)にγを乗じた値が設定さ
れているので(カウンタiの値が(n+13)のときの
ステップS59における処理により、値Y(n+13)にγを
乗じた値が設定されたままなので)、値Y(n+19)は、最
大値Mより小さいか否か、かつ、値Y(n+13)にγを乗じ
た値より小さいか否かが判定される。この例の場合、値
Y(n+19)は、最大値Mより小さく(式(11)が成り立
ち)、かつ、値Y(n+13)にγを乗じた値より小さいので
(式(12)が成り立つので)、ステップS63に進
む。
In step S62, it is determined whether or not the expressions (11) and (12) are satisfied. If it is determined that the expressions are satisfied, the process proceeds to step S63. When the value of the counter i is (n + 19), the maximum value M is set to Lmin (with the maximum value M being set by the processing in step S59 when the value of the counter i is (n + 13)), Lmax Is set to a value obtained by multiplying the value Y (n + 13) by γ. (By the processing in step S59 when the value of the counter i is (n + 13), γ is added to the value Y (n + 13). Since the multiplied value remains set), it is determined whether the value Y (n + 19) is smaller than the maximum value M and smaller than the value obtained by multiplying the value Y (n + 13) by γ. Is determined. In this example, the value Y (n + 19) is smaller than the maximum value M (formula (11) holds) and smaller than the value obtained by multiplying the value Y (n + 13) by γ (formula (12)). ) Is satisfied), and the process proceeds to step S63.

【0098】ステップS63において、Lminに値Y(n+
19)が設定され、Lpminに値X(n+19)が設定され、Lmax
に値Y(n+19)にγ(=1.1)を乗じた値が設定され
る。その後、ステップS54に戻る。
In step S63, the value Y (n +
19) is set, the value X (n + 19) is set to Lpmin, and Lmax
Is multiplied by the value Y (n + 19) by γ (= 1.1). Then, the process returns to step S54.

【0099】ステップS54において、カウンタiの値
がインクリメントされ、ステップS43に戻り、それ以
降の処理が実行されるが、図11の例の場合、値Y(n+1
9)、値Y(n+20)、値Y(n+21)、値Y(n+22)、および値Y
(n+23)が、式(1)および式(2)の関係を満たすの
で、すなわち、サンプル点(n+19)、サンプル点(n+20)、
サンプル点(n+21)、サンプル点(n+22)、およびサンプル
点(n+23)が、上に凸になる位置関係にあるので、カウン
タiの値が(n+21)になるまで、ステップS43、
S44,S55,S54における処理が繰り返し行われ
る。
In step S54, the value of the counter i is incremented, and the process returns to step S43 to execute the subsequent processing. In the case of the example shown in FIG. 11, the value Y (n + 1
9), value Y (n + 20), value Y (n + 21), value Y (n + 22), and value Y
Since (n + 23) satisfies the relations of the equations (1) and (2), ie, the sample point (n + 19), the sample point (n + 20),
Since the sample point (n + 21), the sample point (n + 22), and the sample point (n + 23) have a positional relationship of being convex upward, step until the value of the counter i becomes (n + 21). S43,
The processing in S44, S55, and S54 is repeatedly performed.

【0100】ステップS54において、カウンタiの値
がインクリメントされ、(n+21)になったとき、ス
テップS44において、式(1)および式(2)が成り
立つと判定され、ステップS45に進む。
When the value of the counter i is incremented to (n + 21) in step S54, it is determined in step S44 that the equations (1) and (2) hold, and the flow advances to step S45.

【0101】カウンタiの値が(n+21)のとき、L
maxには、値Y(n+19)にγを乗じた値が設定されている
ので(カウンタiの値が(n+19)のときのステップ
S63における処理により、値Y(n+19)のγ倍の値が設
定されたままなので)、ステップS45において、値Y
(n+21)が、値Y(n+19)にγを乗じた値より大きいか否
かが判定される。この例の場合、値Y(n+21)は、値Y(n
+19)にγを乗じた値より大きいので(式(3)が成り立
つので)、ステップS46に進む。
When the value of the counter i is (n + 21), L
Since max is set to a value obtained by multiplying the value Y (n + 19) by γ, the value of γ of the value Y (n + 19) is obtained by the processing in step S63 when the value of the counter i is (n + 19). Since the double value is still set), in step S45, the value Y
It is determined whether (n + 21) is greater than a value obtained by multiplying the value Y (n + 19) by γ. In this example, the value Y (n + 21) is the value Y (n
+19) is larger than the value obtained by multiplying by γ (because Expression (3) is satisfied), and the process proceeds to step S46.

【0102】ステップS46において、Lmaxに値Y(n+
21)が、そしてLpmaxに値X(n+21)がに設定される。次
に、ステップS47において、フラグに0が設定されて
いるか否かが判定され、0が設定されていると判定され
た場合、ステップS48に進む。カウンタiの値が(n
+21)のとき、フラグには、0が設定されているので
(カウンタiの値が(n+13)のときのステップS5
9における処理により、0が設定されたままなので)、
ステップS48に進む。
In step S46, the value Y (n +
21), and the value X (n + 21) is set to Lpmax. Next, in step S47, it is determined whether or not the flag is set to 0. If it is determined that 0 is set, the process proceeds to step S48. When the value of the counter i is (n
+21), since 0 is set in the flag (step S5 when the value of the counter i is (n + 13))
Since the process at 9 keeps 0 set),
Proceed to step S48.

【0103】ステップS48において、式(4)が成り
立つか否かが判定され、成り立つと判定された場合、ス
テップS49に進むが、カウンタiの値が(n+21)
のとき、Lmaxには、値Y(n+21)が設定されているので
(カウンタiの値が(n+21)のときのステップS4
6における処理により、値Y(n+21)が設定されたままな
ので)、値Y(n+21)が、最大値Mにα1を乗じた値より
大きいか否かが判定される。この例の場合、値Y(n+21)
は、最大値Mにα1を乗じた値より大きいので、ステッ
プS49に進む。
In step S48, it is determined whether or not the expression (4) is satisfied. If it is determined that the expression (4) is satisfied, the process proceeds to step S49, but the value of the counter i becomes (n + 21).
At this time, since the value Y (n + 21) is set in Lmax (step S4 when the value of the counter i is (n + 21))
6, the value Y (n + 21) is still set), so it is determined whether the value Y (n + 21) is larger than the maximum value M multiplied by α1. In this example, the value Y (n + 21)
Is larger than the value obtained by multiplying the maximum value M by α1, and the process proceeds to step S49.

【0104】ステップS49において、カウンタjの値
が0であるか否かが判定され、0ではないと判定された
場合、ステップS50に進む。カウンタiの値が(n+
21のとき、カウンタjの値は、0ではないので(カウ
ンタiの値が(n+3)のときのステップS53におけ
る処理により、1だけインクリメントされているの
で)、ステップS50に進む。
In step S49, it is determined whether or not the value of the counter j is 0. If it is determined that the value is not 0, the process proceeds to step S50. When the value of the counter i is (n +
At 21, the value of the counter j is not 0 (since the value of the counter i is incremented by 1 by the processing in step S53 when the value of the counter i is (n + 3)), and the process proceeds to step S50.

【0105】ステップS50において、式(5)が成り
立つか否かが判定され、成り立つと判定された場合、ス
テップS51に進む。カウンタiの値が(n+21)の
とき、Lmaxには、値Y(n+21)が設定されているので、
値Y(n+21)が、極小点Bの値YBにα2を乗じた値より
大きいか否かが判定される。この場合、極小点Bは、ま
だ決定されていないので、値YBは、0とされる。すな
わち、式(5)が成り立つと判定され、ステップS51
に進む。
In step S50, it is determined whether or not the equation (5) is satisfied. If it is determined that the equation (5) is satisfied, the flow advances to step S51. When the value of the counter i is (n + 21), the value Y (n + 21) is set in Lmax.
It is determined whether the value Y (n + 21) is greater than the value obtained by multiplying the value YB of the minimum point B by α2. In this case, since the minimum point B has not been determined yet, the value YB is set to 0. That is, it is determined that the equation (5) holds, and step S51 is performed.
Proceed to.

【0106】カウンタiの値が(n+21)のとき、L
pmaxには、値X(n+21)が設定され(カウンタiの値が
(n+21)のときのステップ46における処理によ
り、値X(n+21)が設定されたままなので)、また、Lpm
inには、値X(n+19)が設定されているので(カウンタi
の値が(n+19)のときのステップ63における処理
により、値X(n+19)が設定されたままなので)、ステッ
プ51において、第(n+19)番目のサンプル点(サ
ンプル点(n+19))が、第1番目の音素の極小点B1に決
定され、第(n+21)番目のサンプル点(サンプル点
(n+21))が第2番目の音素の極大点検出開始点S2に決
定される。
When the value of the counter i is (n + 21), L
The value X (n + 21) is set in pmax (since the value X (n + 21) is still set by the processing in step 46 when the value of the counter i is (n + 21)), and Lpm
Since the value X (n + 19) is set in in (counter i
Is (n + 19), the value X (n + 19) is still set by the processing in step 63). In step 51, the (n + 19) th sample point (sample point (n + 19) ) Is determined as the minimum point B1 of the first phoneme, and the (n + 21) -th sample point (sample point
(n + 21)) is determined as the maximum point detection start point S2 of the second phoneme.

【0107】このように、第1番目の音素の極小点B1
および第2番目の音素の極大点検出開始点S2が決定さ
れると、ステップS52に進み、フラグに1が設定さ
れ、ステップS53において、カウンタjの値が1だけ
インクリメントされ、ステップS54に戻る。
As described above, the minimum point B1 of the first phoneme
When the maximum point detection start point S2 of the second phoneme is determined, the process proceeds to step S52, where 1 is set in the flag. In step S53, the value of the counter j is incremented by 1, and the process returns to step S54.

【0108】それ以降、ステップS43乃至S63にお
ける処理が繰り返し実行され、図7の場合、極大点検出
開始点S1乃至極大点検出開始点S8、極大点P1乃至極大
点P8、極小点検出開始点E1乃至極小点検出開始点E
8、そして、極小点B1乃至極小点B7が決定される。
Thereafter, the processing in steps S43 to S63 is repeatedly executed. In the case of FIG. 7, the maximum point detection start point S1 to the maximum point detection start point S8, the maximum point P1 to the maximum point P8, and the minimum point detection start point E1 Or minimum point detection start point E
8, and the minimum points B1 to B7 are determined.

【0109】ステップS43において、カウンタiの値
が、サンプル点の総数Tと等しいと判定された場合、ス
テップS64に進み、カウンタiの値がTのとき、ステ
ップS51において、極小点Bが決定されたか否かが判
定され、極小点Bが決定されていないと判定された場
合、ステップS65に進む。図7の例の場合、カウンタ
iの値がTのとき、ステップS51において、極小点B
が決定されないので、すなわち、ユーザの音声が、途中
で途切れているので、ステップS65に進み、第(T−
1)番目のサンプル点(T-1)が極小点B8とされる。この
ように、最後の極小点B8が決定されたとき、処理は終
了され、図5のステップS25に進む。
If it is determined in step S43 that the value of the counter i is equal to the total number T of sample points, the flow advances to step S64. If the value of the counter i is T, the minimum point B is determined in step S51. If it is determined that the minimum point B has not been determined, the process proceeds to step S65. In the case of the example in FIG. 7, when the value of the counter i is T, in step S51, the minimum point B
Is not determined, that is, since the user's voice is interrupted halfway, the process proceeds to step S65 and the (T-
1) The sample point (T-1) is set as the minimum point B8. As described above, when the last minimum point B8 is determined, the processing is terminated, and the process proceeds to step S25 in FIG.

【0110】以上のようにして、極大点検出開始点S、
極大点P、極小点検出開始点E、および極小点Bが決定
される。
As described above, the maximum point detection start point S,
The maximum point P, the minimum point detection start point E, and the minimum point B are determined.

【0111】以上のように、ステップS51において、
極大点検出開始点Sおよび極小点Bが決定された後、ス
テップS52において、フラグに1を設定し、ステップ
S47において、フラグに1が設定されている場合、ス
テップS54に戻るようにしたので、サンプル点が上に
凸になる位置関係にあり(ステップS44)、かつ、値
Yiが、Lmaxより大きいとき(ステップS45)、Lma
xおよびLpmaxが変更される。すなわち、フラグに1が
設定されているとき、LmaxおよびLpmaxには、極大点
Pになり得るサンプル点の値Yおよび値Xが随時設定さ
れる。
As described above, in step S51,
After the maximum point detection start point S and the minimum point B have been determined, the flag is set to 1 in step S52, and if the flag is set to 1 in step S47, the process returns to step S54. If the sample point has a positional relationship of convex upward (step S44) and the value Yi is larger than Lmax (step S45), Lma
x and Lpmax are changed. That is, when 1 is set in the flag, the values Y and X of the sample points that can be the local maximum point P are set as needed in Lmax and Lpmax.

【0112】また、以上のように、ステップS58にお
いて、極大点Pおよび極小点検出開始点Eが決定された
後、ステップS59において、フラグに0を設定し、ス
テップS56において、フラグに0が設定されている場
合、ステップS62に進み、式(11)および式(1
2)が成り立つとき(ステップS62)、ステップS6
3において、LminおよびLpminを変更するようにした
ので、フラグに0が設定されているとき、Lminおよび
Lpminには、極小点Bになり得るサンプル点の値Yおよ
び値Xが随時設定される。
As described above, after the maximum point P and the minimum point detection start point E are determined in step S58, the flag is set to 0 in step S59, and the flag is set to 0 in step S56. If so, the process proceeds to step S62, where the formula (11) and the formula (1)
When 2) holds (step S62), step S6
In 3, since Lmin and Lpmin are changed, when the flag is set to 0, the values Y and X of the sample points that can be the minimum point B are set in Lmin and Lpmin as needed.

【0113】なお、以上においては、サンプル点の位置
関係が、上に凸または下に凸になっているか否かを判定
する場合、5個のサンプル点の値Yの関係を利用した
が、3個または7個のサンプル点の値Yの関係を利用す
ることも可能である。
In the above, when judging whether the positional relationship between the sample points is convex upward or downward, the relationship between the values Y of the five sample points is used. It is also possible to use the relationship between the values Y of seven or seven sample points.

【0114】次に、図5に戻り、ステップS25以降の
処理を説明する。
Next, returning to FIG. 5, the processing after step S25 will be described.

【0115】ステップS25において、メロディデータ
生成部32は、音長を決定する。具体的には、ステップ
S24で決定した、第k(=1,2・・・)番目の音素
の極大点検出開始点Skの値X(Sk)と、第(k+1)番
目の音素の極大点検出開始点S(k+1)の値X(S(k+1))と
の差が算出され、算出結果が、第k番目の音素の音長に
決定される。このようにして、各音素の音長が算出さ
れ、決定されるが、これは、いわゆる絶対音長であるの
で、この例の場合、第1番目の音素の音長を1(基準)
とし、第2番目の音素以降の音長を、第1番目の音素の
音長に対する比で表す。すなわち、相対音長に変換され
る。
In step S25, the melody data generating section 32 determines a sound duration. Specifically, the value X (Sk) of the k-th (= 1, 2,...) -Phoneme maximum point detection start point Sk determined in step S24 and the (k + 1) -th phoneme maximum check The difference from the value X (S (k + 1)) of the output start point S (k + 1) is calculated, and the calculation result is determined as the pitch of the k-th phoneme. In this way, the duration of each phoneme is calculated and determined. Since this is a so-called absolute duration, in this example, the duration of the first phoneme is set to 1 (reference).
And the length of the second and subsequent phonemes is expressed as a ratio to the length of the first phoneme. That is, it is converted to a relative pitch.

【0116】次に、ステップS26において、メロディ
データ生成部32は、音高を決定する。この処理の詳細
は、図12のフローチャートに示されている。
Next, in step S26, the melody data generator 32 determines the pitch. Details of this processing are shown in the flowchart of FIG.

【0117】ステップS81は、メロディデータ生成部
32は、例えば、図7の音声データの第1番目の音素の
極大点検出開始点S1と第1番目の音素の極小点B1の区
間(以下、この区間と音高算出区間と称する)の音声デ
ータに対して、FFT処理を施す。具体的には、はじめ
に、第1番目の音素の音高算出区間の音声データに、M
個の演算ポイントが設定され、設定されたM個の演算ポ
イントが、所定の数ずつグループ化され、グループ毎に
FFT処理が施される。図13は、1つのグループに対し
て施されたFFT処理の処理結果を示している。すなわ
ち、この例の場合、1つの音高算出区間に対して、図1
3に示すような処理結果が、グループの数分だけ得られ
る。なお、演算ポイントのグループ化にあたり、所定の
数の演算ポイントが、隣り合うグループに重複して含ま
れるようになされている。これにより、不連続による成
分が、処理結果に含まれないようになる。すなわち、ハ
ミング窓関数またはハニング窓関数が用いられて、FFT
処理が施される。
In step S81, the melody data generation unit 32 determines, for example, the section between the maximum point detection start point S1 of the first phoneme and the minimum point B1 of the first phoneme of the voice data in FIG. FFT processing is performed on the voice data of the section and the pitch calculation section). Specifically, first, the voice data of the pitch calculation section of the first phoneme includes M
Calculation points are set, and the set M calculation points are grouped by a predetermined number.
FFT processing is performed. FIG. 13 shows a processing result of the FFT processing performed on one group. That is, in the case of this example, FIG.
Processing results as shown in FIG. 3 are obtained for the number of groups. In grouping the operation points, a predetermined number of operation points are included in adjacent groups in an overlapping manner. As a result, components due to discontinuity are not included in the processing result. That is, a Hamming window function or a Hanning window function is used, and the FFT
Processing is performed.

【0118】次に、ステップS82において、メロディ
データ生成部32は、ステップS81でのFFT処理の処
理結果から、第1番目の音素の音高を決定する。具体的
には、グループ毎に、FFT処理の処理結果(図13)か
ら得られる各ピークの周波数値を合計し、その合計値が
最も大きかった処理結果の最初のピークの周波数がその
音高(ピッチ周波数)とされる。
Next, in step S82, the melody data generator 32 determines the pitch of the first phoneme from the processing result of the FFT processing in step S81. Specifically, for each group, the frequency value of each peak obtained from the processing result of the FFT processing (FIG. 13) is summed, and the frequency of the first peak of the processing result having the largest sum is the pitch ( Pitch frequency).

【0119】ステップS83において、メロディデータ
生成部32は、ステップS82で決定した第1番目の音
素の音高(ピッチ周波数)が、所定の周波数f0より大
きいか否かを判定し、大きいと判定した場合、ステップ
S84に進む。
In step S83, the melody data generator 32 determines whether the pitch (pitch frequency) of the first phoneme determined in step S82 is higher than a predetermined frequency f0, and determines that the pitch is higher. In this case, the process proceeds to step S84.

【0120】ステップS84において、メロディデータ
生成部32は、残りの音高算出区間に対して、ステップ
S81における場合と同様のFFT処理を施す。次に、ス
テップS85において、メロディデータ生成部32は、
ステップS84で実行したFFT処理の処理結果に対し
て、ステップS82における場合と同様の処理を実行
し、各音素の音高を決定する。これにより、残りの音素
の音高が決定される。
In step S84, the melody data generator 32 performs the same FFT processing as in step S81 on the remaining pitch calculation sections. Next, in step S85, the melody data generation unit 32
The same processing as in step S82 is performed on the processing result of the FFT processing executed in step S84, and the pitch of each phoneme is determined. Thereby, the pitch of the remaining phonemes is determined.

【0121】ステップS83において、第1番目の音素
の音高(ピッチ周波数)が、周波数f0より小さいと判
定された場合、ステップS86に進む。
If it is determined in step S83 that the pitch of the first phoneme (pitch frequency) is smaller than the frequency f0, the process proceeds to step S86.

【0122】ステップS86において、メロディデータ
生成部32は、ステップS84における場合と同様の処
理を実行し、残りの音高算出区間に対して、FFT処理を
施す。次に、ステップS87において、メロディデータ
生成部32は、ステップS86におけるFFT処理の処理
結果に対して、ケプストラム処理を実行する。すなわ
ち、FFT処理の処理結果に対して、スペクトラムの対数
が求められ、それらに逆FFT処理が施される。
In step S86, the melody data generator 32 performs the same processing as in step S84, and performs FFT processing on the remaining pitch calculation sections. Next, in step S87, the melody data generation unit 32 performs a cepstrum process on the processing result of the FFT process in step S86. That is, the logarithm of the spectrum is obtained for the processing result of the FFT processing, and the inverse FFT processing is performed on them.

【0123】次に、ステップS88において、メロディ
データ生成部32は、ステップS87におけるケプスト
ラム処理の処理結果から、所定の領域内の最大のケプス
トラムを有するケフレンシを検出し、検出したケフレン
シから周波数(音高)を算出する。なお、ケプストラム
処理を利用すると、結局、2回のFFT処理が実行される
ことになり、その演算量が増加するが、音高の検出が容
易となる。
Next, in step S88, the melody data generation unit 32 detects a quefrency having the maximum cepstrum in a predetermined area from the processing result of the cepstrum process in step S87, and determines a frequency (pitch) from the detected quefrency. ) Is calculated. In addition, if the cepstrum processing is used, two FFT processings are eventually executed, and the amount of calculation increases, but the pitch can be easily detected.

【0124】すなわち、この例の場合、ユーザの音声
が、比較的高い場合、FFT処理を利用して音高が算出さ
れ、比較的低い場合、ケプストラム処理を利用して音高
が算出される。
That is, in this example, when the user's voice is relatively high, the pitch is calculated using the FFT process, and when the user's voice is relatively low, the pitch is calculated using the cepstrum process.

【0125】ステップS85またはステップS88にお
いて、音素の音高が算出されたとき、ステップS89に
進み、メロディデータ生成部32は、第1番目の音素の
音高を基準とし、第2番目以降の音素の音高を、第1番
目の音素の音高との差で表す(半音を100とする単位
セントで表す)。すなわち、相対音高に変換される。こ
のように、相対音高が得られたとき、処理は終了され、
図4のステップS5に戻る。
When the pitch of the phoneme is calculated in step S85 or S88, the process proceeds to step S89, where the melody data generation unit 32 sets the pitch of the first phoneme as a reference, and Is expressed as a difference from the pitch of the first phoneme (expressed in cents with a semitone being 100). That is, the pitch is converted to a relative pitch. In this way, when the relative pitch is obtained, the processing is terminated,
It returns to step S5 of FIG.

【0126】以上のようにして、音長および音高が求め
られ(音素が求められ)、その結果、メロディデータが
生成されると、メロディデータ生成部32は、そのメロ
ディデータとともに、ユーザIDを検索部33に供給す
る。
As described above, the pitch and pitch are obtained (phonemes are obtained). As a result, when the melody data is generated, the melody data generating section 32 outputs the user ID together with the melody data. This is supplied to the search unit 33.

【0127】なお、以上においては、グループ毎に、FF
T処理の処理結果(図13)から得られる各ピークの周
波数値を合計し、その合計値が最も大きかった処理結果
の最初のピークの周波数をその音高(ピッチ周波数)に
決定したが、FFT処理の処理結果から得られる各ピーク
の周波数毎に、グループ毎に得られたFFT処理の処理結
果を加算し、加算結果が最も大きい周波数を、そのピッ
チ周波数とすることもできる。
Note that, in the above description, the FF
The frequency value of each peak obtained from the processing result of the T processing (FIG. 13) is summed, and the frequency of the first peak of the processing result having the largest total value is determined as the pitch (pitch frequency). The processing result of the FFT processing obtained for each group may be added to each peak frequency obtained from the processing result of the processing, and the frequency having the largest addition result may be used as the pitch frequency.

【0128】次に、図4のステップS5における音楽情
報検索処理の詳細を、図14のフローチャートを参照し
て説明する。
Next, details of the music information search processing in step S5 in FIG. 4 will be described with reference to the flowchart in FIG.

【0129】ステップS101において、検索サーバ3
の検索部33は、プロファイル情報記憶部34から、メ
ロディデータ生成部32から供給されたユーザIDに対応
して記憶されている、そのユーザの年齢、性別、および
嗜好情報とともに、売れ行き情報などを読み出す。
At step S101, the search server 3
Search unit 33 reads out, from the profile information storage unit 34, the sales information and the like stored together with the user ID supplied from the melody data generation unit 32, along with the age, gender, and preference information of the user. .

【0130】ステップS102において、検索部33
は、メロディデータ生成部32から供給されたメロディ
データを、所定のデータ量ごとに分割する。次に、ステ
ップS103において、検索部33は、後述するステッ
プS104におけるDP(Dynamic Processing)マッチン
グを行う、音楽情報記憶部35に記憶されているメロデ
ィデータ(MIDIデータ)から、相対音長と相対音高を算
出する。
In step S102, the search unit 33
Divides the melody data supplied from the melody data generation unit 32 for each predetermined data amount. Next, in step S103, the search unit 33 performs the DP (Dynamic Processing) matching in step S104, which will be described later, and performs the relative pitch and relative tone conversion based on the melody data (MIDI data) stored in the music information storage unit 35. Calculate the height.

【0131】ステップS104において、検索部33
は、メロディデータ生成部32から供給されたメロディ
データの分割部分と、ステップS103で算出した相対
音長および相対音高とを利用してDPマッチングを実行
する。この処理により、分割された部分ごと(DPマッ
チング処理毎)に、ペナルティ値が算出されるが、その
合計がここでの最終的な処理結果とされる。なお、分割
されたメロディデータには、少なくとも数十個以上のサ
ンプル点が含まれるようになされている。
In step S104, the search unit 33
Performs DP matching using the divided portion of the melody data supplied from the melody data generation unit 32 and the relative pitch and relative pitch calculated in step S103. By this process, a penalty value is calculated for each of the divided parts (for each DP matching process), and the total is used as the final processing result here. Note that the divided melody data includes at least several tens of sample points.

【0132】ステップS105において、検索部33
は、ステップS104で実行したDPマッチング処理の
処理結果と、ステップS101で読み出した情報に基づ
いて、メロディデータ生成部32から供給されたメロデ
ィデータとの相関度を算出する。例えば、ユーザがポッ
プスを好む場合、ポップスとされる曲とのDPマッチン
グ処理の処理結果には、より大きな重みづけ値が加算さ
れ相関度が算出される。また、そうでない曲(例えば、
演歌)とのDPマッチング処理の処理結果には、小さな
値の重み付け値が加算され、相関度が算出される。ま
た、例えば、同様に、売れ行きの良い曲とのDPマッチ
ング処理の処理結果には、大きな重み付け値が加算され
相関度が算出され、売れ行きの良くない曲とのDPマッ
チング処理の処理結果には、小さな重み付け値が加算さ
れ相関度が算出される。
In step S105, the search unit 33
Calculates the degree of correlation between the melody data supplied from the melody data generating unit 32 based on the processing result of the DP matching processing executed in step S104 and the information read in step S101. For example, when the user prefers pops, a larger weighting value is added to the processing result of the DP matching processing with the music to be popped, and the degree of correlation is calculated. Also, songs that are not (for example,
A small value weighting value is added to the processing result of the DP matching processing with the enka) to calculate the degree of correlation. Also, for example, similarly, a large weighting value is added to the processing result of the DP matching process with a song that sells well, a correlation is calculated, and the processing result of the DP matching process with a song that does not sell well includes: A small weight value is added to calculate the degree of correlation.

【0133】ステップS106において、検索部33
は、ステップS105で算出した相関度に基づいて候補
曲を決定する。候補曲を1曲だけにする場合は、相関度
が最も高かった曲が、また複数曲にする場合には、相関
度の大きい順番から、その数分の曲が選択され、候補曲
に決定される。ステップS107において、検索部33
は、決定した候補曲の所定の音楽情報(曲名の他、歌手
名、歌詞など)を、音楽情報記憶部35から検索する。
このように、候補曲の音楽情報が検索されると、処理は
終了し、図4のステップS6に戻る。
At step S106, the search unit 33
Determines candidate songs based on the degree of correlation calculated in step S105. If only one candidate song is selected, the song with the highest correlation is selected, and if multiple songs are selected, songs of that number are selected in descending order of correlation and are determined as candidate songs. You. In step S107, the search unit 33
Searches the music information storage unit 35 for predetermined music information (song name, lyrics, etc., in addition to the song name) of the determined candidate song.
In this way, when the music information of the candidate music is searched, the process ends, and the process returns to step S6 in FIG.

【0134】次に、図4のステップS10における、プ
ロファイル情報更新処理の詳細を、図15のフローチャ
ートを参照して説明する。
Next, details of the profile information update processing in step S10 of FIG. 4 will be described with reference to the flowchart of FIG.

【0135】図4のステップS9において、端末1から
送信されてきた曲ID(ユーザにより選択された曲の曲I
D)が、通信部31により受信され、メロディデータ生
成部32および検索部33に供給されると、ステップS
121において、検索部33は、供給された曲IDに基づ
いて、プロファイル情報記憶部34に記憶されている、
例えば、嗜好情報を更新する。その曲IDにより特定され
る曲が、ユーザが好む曲とされ、例えば、その曲のジャ
ンルが嗜好情報に設定される。
In step S9 of FIG. 4, the song ID transmitted from the terminal 1 (the song I of the song selected by the user)
When D) is received by the communication unit 31 and supplied to the melody data generation unit 32 and the search unit 33, step S
In 121, the search unit 33 is stored in the profile information storage unit 34 based on the supplied music ID.
For example, the preference information is updated. The song specified by the song ID is a song that the user likes, and for example, the genre of the song is set in the preference information.

【0136】次に、ステップS122において、メロデ
ィデータ生成部32は、参照項目(α1、α2、β1、
β2、およびγ)の設定値の組み合わせのうち、1つの
組み合わせを決定し、ステップS123において、その
参照項目を利用して、メロディデータを生成する。ここ
での処理は、図4のステップS4における処理と同様で
あるので、その説明は省略するが、参照項目の1つの設
定値の組み合わせに従った、1つのメロディデータが生
成される。
Next, in step S122, the melody data generating section 32 checks the reference items (α1, α2, β1,
One of the combinations of the set values of β2 and γ) is determined, and in step S123, melody data is generated using the reference item. Since the processing here is the same as the processing in step S4 in FIG. 4, description thereof is omitted, but one piece of melody data is generated according to a combination of one set value of the reference item.

【0137】次に、ステップS124において、検索部
33は、ステップS123で、メロディデータ生成部3
2により生成されたメロディデータと、ユーザにより選
択された曲のメロディデータとの相関度を算出する。こ
こでは、図14のステップS101乃至S105におけ
る場合と同様の処理が実行されるので、その説明は省略
するが、この処理により、1つの相関度が算出される。
Next, in step S124, the search unit 33 determines in step S123 that the melody data generation unit 3
Then, the degree of correlation between the melody data generated in Step 2 and the melody data of the music selected by the user is calculated. Here, the same processing as that in steps S101 to S105 in FIG. 14 is performed, and the description thereof will be omitted. However, this processing calculates one degree of correlation.

【0138】ステップS125において、メロディデー
タ生成部32は、設定されるべき設定値の全ての組み合
わせたが設定されたか否かを判定し、まだ残っている組
み合わせが存在すると判定した場合、ステップS122
に戻り、他の組み合わせに従って、それ以降の処理が実
行される。すなわち、設定されるべき全て組み合わせの
設定値に従って、メロディデータが生成され、生成され
たメロディデータのそれぞれにおける相関度が算出され
るまで、ステップ122乃至S125の処理が繰り返し
実行される。
In step S125, the melody data generation unit 32 determines whether all combinations of the set values to be set have been set. If it is determined that there are still remaining combinations, step S122.
And the subsequent processing is executed according to another combination. That is, the melody data is generated according to the set values of all the combinations to be set, and the processing of steps 122 to S125 is repeatedly executed until the correlation degree of each of the generated melody data is calculated.

【0139】ステップS125において、設定されるべ
き設定値の全ての組み合わせが設定されたと判定された
とき、ステップS126に進み、メロディデータ生成部
32は、検索部33により算出された相関度うち、最も
高い相関度が算出されたときの設定値の組み合わせを、
参照項目の設定値とし、ユーザIDに対応させて、プロフ
ァイル情報記憶部34に記憶させる。このように、参照
項目の設定値が更新されると、処理は終了される。
If it is determined in step S125 that all combinations of the set values to be set have been set, the process proceeds to step S126, where the melody data generation unit 32 selects the most significant one of the correlation degrees calculated by the search unit 33. The combination of the set values when a high degree of correlation was calculated,
The profile information storage unit 34 stores the set value of the reference item in association with the user ID. As described above, when the setting value of the reference item is updated, the processing is ended.

【0140】以上においては、ユーザが、1つの音、例
えば”ラ”を発音し、メロディを端末1に入力する場合
を例として説明したが、ユーザが、1つの音に代わり、
破裂子音と、それに続く母音(例えば、タァまたはチ
ュ)を発生し、音と音との区切りが必ず小さい振幅にな
るようにすることもできる。これにより、音長がより検
出しやすくなる。また、以上においては、音声データ上
に、極大点検出開始点S、極大点P、極小点検出開始点
E、および極小点Bを設定し、それらを利用して音長を
決定する場合を例として説明したが、音声データに音声
認識処理を施し、1つ1つの音を抽出し、音長を決定す
ることもできる。さらに、これらの方法を組み合わせて
用いることもできる。
In the above description, the case where the user pronounces one sound, for example, “la” and inputs the melody to the terminal 1 has been described as an example.
It is also possible to generate a plosive followed by a vowel (e.g., a turf or a chu) so that the separation between the sounds has a small amplitude. This makes it easier to detect the sound duration. In the above description, an example is given in which the maximum point detection start point S, the maximum point P, the minimum point detection start point E, and the minimum point B are set on the audio data, and the sound duration is determined using these. However, it is also possible to perform voice recognition processing on voice data, extract each sound, and determine the sound length. Furthermore, these methods can be used in combination.

【0141】また、 以上においては、ユーザが、一つ
の音、例えば”ラ”を発音して、メロディを、端末1に
入力する場合を例として説明したが、電子楽器を端末1
に接続し(この例の場合、端末1には、そのためのイン
タフェースがさらに設けられている)、ユーザが、言葉
を発生する代わりに、その電子楽器を演奏し、音楽情報
を取得したい曲のメロディを端末1に入力するようにす
ることもできる。この例の場合、メロディを構成する各
音素の音長は、電子楽器から入力される音の間隔、音高
は、電子楽器からの音高を示すコードから得ることがで
きる。また、電子マットのように音長のみを得ることが
できる場合は、音長のみを利用して、相関度を算出し
て、候補曲を決定することも可能である。
In the above description, the case where the user pronounces one sound, for example, “la” and inputs the melody to the terminal 1 has been described as an example.
(In this example, the terminal 1 is further provided with an interface for this purpose), and the user plays the electronic musical instrument instead of generating words, and obtains the melody of a song for which music information is to be obtained. May be input to the terminal 1. In the case of this example, the pitch of each phoneme constituting the melody can be obtained from the interval between sounds input from the electronic musical instrument, and the pitch can be obtained from a code indicating the pitch from the electronic musical instrument. When only the sound length can be obtained as in the case of an electronic mat, it is also possible to calculate the degree of correlation using only the sound length and determine the candidate music.

【0142】また、以上においては、端末1は、入力さ
れたユーザの音声の音声データを、検索サーバ3に送信
する場合を例として説明したが、例えば、端末1が、検
索サーバ3のメロディデータ生成部32と同様の機能を
有し、自分自身がメロディデータを生成し、検索サーバ
3に送信するようにすることもできる。また、特に明記
しなかったが、端末1は、入力されたユーザの音声を記
憶し、後で(入力が完了してから)、検索サーバ3に送
信するようにすることもできる。なお、この場合、メモ
リ(例えば、RAM13)の記憶容量が小さいとき、コン
パクトフラッシュ、スマートメディア、またはメモリス
ティックなどを端末1に接続し、音声を記憶させるよう
にすることもできる。また、端末1が携帯型の端末であ
る場合、その例として、専用の携帯機器の他、音声入力
機能、通信機能、またはさらに、メロディデータ生成機
能を有する、携帯型MD再生装置、PDA(Personal Digital
Assistants)、または携帯型テレビジョンなどが揚げら
れる。なお、端末1が、検索サーバ3と通信する通信部
18を有していない場合、端末1と検索サーバ3との通
信を可能とする他の通信装置が必要なる。
In the above description, the case where the terminal 1 transmits the voice data of the input user's voice to the search server 3 has been described as an example. For example, the terminal 1 may transmit the melody data of the search server 3. It has the same function as the generation unit 32, and can itself generate the melody data and transmit it to the search server 3. Although not specified, the terminal 1 may store the input voice of the user and transmit the voice to the search server 3 later (after the input is completed). In this case, when the storage capacity of the memory (for example, the RAM 13) is small, a compact flash, a smart media, a memory stick, or the like may be connected to the terminal 1 to store audio. When the terminal 1 is a portable terminal, for example, in addition to a dedicated portable device, a portable MD reproducing device, a PDA (Personal) having a voice input function, a communication function, or a melody data generation function. Digital
Assistants) or portable televisions. If the terminal 1 does not have the communication unit 18 that communicates with the search server 3, another communication device that enables communication between the terminal 1 and the search server 3 is required.

【0143】また、以上においては、検索データ3から
端末1に、候補曲の曲名、歌詞、歌手名が供給される場
合を例として説明したが、メロディデータが、端末1に
送信されるようにして、ユーザが、それを視聴すること
を可能にすることもできる。これにより、ユーザの選択
がより正確になるばかりでなく、ユーザが、視聴し、メ
ロディを把握した後、音声で、そのメロディを再入力
し、検索サーバ3に送信することより、検索サーバ3に
おいて、より適切な、参照項目の設定値を設定すること
ができる。
In the above description, the case where the title, lyrics and singer name of the candidate tune are supplied from the search data 3 to the terminal 1 has been described as an example, but the melody data is transmitted to the terminal 1. To allow the user to view it. This not only makes the selection of the user more accurate, but also enables the user to re-enter the melody by voice after viewing, grasping the melody, and transmitting the melody to the search server 3, and thereby the search server 3 , The setting value of the reference item can be set more appropriately.

【0144】また、以上においては、プロファイル情報
更新処理時において、参照項目の設定値の各組み合わせ
により、複数のメロディデータを生成するようにした
が、メロディデータ生成処理時において、参照項目の設
定値の各組み合わせにより、複数のメロディデータを生
成し、それらを用いて、候補曲を決定することもでき
る。なお、参照項目のβ2は、ユーザの歌い方に依存す
るものであり、重要な項目とされるので、β2の設定値
を基準として、他の参照項目の設定値の組み合わせを設
けることができる。
In the above description, a plurality of melody data is generated by each combination of the setting values of the reference items at the time of the profile information updating process. , A plurality of melody data can be generated, and a candidate tune can be determined using the melody data. Note that the reference item β2 depends on the user's singing style and is an important item. Therefore, a combination of the set values of other reference items can be provided based on the set value of β2.

【0145】また、以上においては、音楽情報記憶部3
5に記憶されているメロディデータがMIDIデータである
場合を例として説明したが、CD等に記憶されている音
曲データを利用することもできる。
In the above description, the music information storage unit 3
Although the case where the melody data stored in No. 5 is MIDI data has been described as an example, it is also possible to use music data stored in a CD or the like.

【0146】上述した一連の処理は、ハードウエアによ
り実行させることもできるが、ソフトウエアにより実行
させることもできる。一連の処理をソフトウエアにより
実行させる場合には、そのソフトウエアを構成するプロ
グラムが、専用のハードウエアとしてのメロディデータ
生成部32または検索部33に組み込まれているコンピ
ュータ、または、各種のプログラムをインストールする
ことで、各種の機能を実行することが可能な、例えば汎
用のパーソナルコンピュータなどにインストールされ
る。
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software is executed by a computer incorporated in the melody data generation unit 32 or the search unit 33 as dedicated hardware, or a variety of programs. By being installed, it is installed in, for example, a general-purpose personal computer that can execute various functions.

【0147】次に、図16を参照して、上述した一連の
処理を実行するプログラムをコンピュータにインストー
ルし、コンピュータによって実行可能な状態とするため
に用いられる媒体について、そのコンピュータが汎用の
パーソナルコンピュータである場合を例として説明す
る。
Next, referring to FIG. 16, regarding a medium used to install a program for executing the above-described series of processing in a computer and to make the computer executable, the computer uses a general-purpose personal computer. The following is an example of the case.

【0148】プログラムは、図16(A)に示すよう
に、パーソナルコンピュータ301に内蔵されている記
録媒体としてのハードディスク302や半導体メモリ3
03に予めインストールした状態でユーザに提供するこ
とができる。
As shown in FIG. 16A, a program is stored in a hard disk 302 or a semiconductor memory 3 as a recording medium built in a personal computer 301.
03 in advance.

【0149】あるいはまた、プログラムは、図16
(B)に示すように、フロッピーディスク311、CD-R
OM(Compact Disk-Read Only Memory)312、MO(Mag
neto-Optical)ディスク313、DVD(Digital Versatile
Disk)314、磁気ディスク315、半導体メモリ31
6などの記録媒体に、一時的あるいは永続的に格納し、
パッケージソフトウエアとして提供することができる。
Alternatively, the program is executed as shown in FIG.
As shown in (B), the floppy disk 311 and the CD-R
OM (Compact Disk-Read Only Memory) 312, MO (Mag
neto-Optical) Disc 313, DVD (Digital Versatile)
Disk) 314, magnetic disk 315, semiconductor memory 31
6, etc., temporarily or permanently stored in a recording medium,
It can be provided as package software.

【0150】さらに、プログラムは、図16(C)に示
すように、ダウンロードサイト321から、デジタル衛
星放送用の人工衛星322を介して、パーソナルコンピ
ュータ301に無線で転送したり、ローカルエリアネッ
トワーク、インターネットといったネットワーク331
を介して、パーソナルコンピュータ301に有線で転送
し、パーソナルコンピュータ301において、内蔵する
ハードディスク302などに格納させることができる。
Further, as shown in FIG. 16 (C), the program can be wirelessly transferred from download site 321 to personal computer 301 via artificial satellite 322 for digital satellite broadcasting, or can be connected to a local area network or the Internet. Network 331
, And can be transferred to the personal computer 301 by wire, and stored in the built-in hard disk 302 or the like in the personal computer 301.

【0151】本明細書における媒体とは、これら全ての
媒体を含む広義の概念を意味するものである。
[0151] The medium in the present specification means a broad concept including all these media.

【0152】パーソナルコンピュータ301は、例え
ば、図17に示すように、CPU(Central Processing Un
it)342を内蔵している。CPU342にはバス341
を介して入出力インタフェース345が接続されてお
り、CPU342は、入出力インタフェース345を介し
て、ユーザから、キーボード、マウスなどよりなる入力
部347から指令が入力されると、それに対応して、図
16(A)の半導体メモリ303に対応するROM(Read
Only Memory)343に格納されているプログラムを実
行する。あるいはまた、CPU342は、ハードディスク
302に予め格納されているプログラム、衛星322も
しくはネットワーク331から転送され、通信部348
により受信され、さらにハードディスク302にインス
トールされたプログラム、またはドライブ349に装着
されたフロッピーディスク311、CD-ROM312、MO
ディスク313、DVD314、もしくは磁気ディスク3
15から読み出され、ハードディスク302にインスト
ールされたプログラムを、RAM(Random Access Memor
y)344にロードして実行する。さらに、CPU342
は、その処理結果を、例えば、入出力インタフェース3
45を介して、LCD(Liquid Crystal Display)などよ
りなる表示部346に必要に応じて出力する。
For example, as shown in FIG. 17, the personal computer 301 has a CPU (Central Processing Unit).
it) 342. The CPU 342 has a bus 341
An input / output interface 345 is connected via the input / output interface 345. When a user inputs a command via the input / output interface 345 from an input unit 347 including a keyboard, a mouse, and the like, the CPU 342 responds accordingly. ROM (Read) corresponding to the semiconductor memory 303 of FIG.
(Only Memory) 343 is executed. Alternatively, the CPU 342 may transfer the program stored in the hard disk 302 in advance from the satellite 322 or the network 331 to the communication unit 348.
And the program installed on the hard disk 302 or the floppy disk 311, the CD-ROM 312, and the MO mounted on the drive 349.
Disk 313, DVD 314, or magnetic disk 3
15 and installed on the hard disk 302 in a random access memory (RAM).
y) Load to 344 and execute. Further, the CPU 342
Sends the processing result to, for example, the input / output interface 3
An output is provided to a display unit 346 made up of an LCD (Liquid Crystal Display) or the like, as necessary, via the LCD 45.

【0153】なお、本明細書において、媒体により提供
されるプログラムを記述するステップは、記載された順
序に沿って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
In this specification, the steps of describing a program provided by a medium are not limited to processing performed in chronological order in the order described, but are not necessarily performed in chronological order. It also includes processes that are executed individually or individually.

【0154】また、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものであ
る。
In this specification, the system is defined as:
It represents the entire device composed of a plurality of devices.

【0155】[0155]

【発明の効果】請求項1に記載の情報処理装置、請求項
7に記載の情報処理方法、および請求項8に記載の媒体
によれば、音声データからメロディデータを生成し、相
関度を算出するようにしたので、候補曲を決定し、候補
曲に関する情報を検索することができる。
According to the information processing apparatus according to the first aspect, the information processing method according to the seventh aspect, and the medium according to the eighth aspect, melody data is generated from audio data, and the degree of correlation is calculated. Thus, it is possible to determine a candidate song and search for information on the candidate song.

【0156】請求項9に記載の情報処理装置、請求項1
3に記載の情報処理方法、および請求項14に記載の媒
体によれば、音声からメロディデータを生成し、サーバ
に送信するようにしたので、音声により特定される情報
の提供を受けることができる。
The information processing apparatus according to claim 9,
According to the information processing method of the third aspect and the medium of the fourteenth aspect, the melody data is generated from the voice and transmitted to the server, so that the information specified by the voice can be provided. .

【0157】請求項15に記載の情報処理装置、請求項
18に記載の情報処理方法、および請求項19に記載の
媒体によれば、メロディデータを受信し、相関度を算出
するようにしたので、候補曲を決定し、候補曲に関する
情報を検索し、検索結果を、端末に提供することができ
る。
According to the information processing apparatus described in claim 15, the information processing method described in claim 18, and the medium described in claim 19, the melody data is received and the degree of correlation is calculated. , A candidate song is determined, information on the candidate song is searched, and the search result can be provided to the terminal.

【図面の簡単な説明】[Brief description of the drawings]

【図1】音楽情報検索サービスシステムの構成例を示す
図である。
FIG. 1 is a diagram illustrating a configuration example of a music information search service system.

【図2】図1の端末1の構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of a terminal 1 in FIG. 1;

【図3】図1の検索サーバ3の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a search server 3 of FIG. 1;

【図4】曲名検索処理を説明するフローチャートであ
る。
FIG. 4 is a flowchart illustrating a song name search process.

【図5】メロディデータ生成処理を説明するフローチャ
ートである。
FIG. 5 is a flowchart illustrating a melody data generation process.

【図6】音声データの例を示す図である。FIG. 6 is a diagram illustrating an example of audio data.

【図7】ローパスフィルタ処理が施された音声データの
例を示す図である。
FIG. 7 is a diagram illustrating an example of audio data that has been subjected to low-pass filter processing;

【図8】極大点検出開始点、極大点、極小点検出開始
点、および極小点の決定処理を説明するフローチャート
である。
FIG. 8 is a flowchart illustrating a process of determining a maximum point detection start point, a maximum point, a minimum point detection start point, and a minimum point.

【図9】極大点検出開始点、極大点、極小点検出開始
点、および極小点の決定処理を説明する他のフローチャ
ートである。
FIG. 9 is another flowchart illustrating a process of determining a maximum point detection start point, a maximum point, a minimum point detection start point, and a minimum point.

【図10】極大点検出開始点、極大点、極小点検出開始
点、および極小点の決定処理を説明する他のフローチャ
ートである。
FIG. 10 is another flowchart illustrating a process of determining a maximum point detection start point, a maximum point, a minimum point detection start point, and a minimum point.

【図11】サンプル点の例を示す図である。FIG. 11 is a diagram showing an example of sample points.

【図12】音高決定処理を説明するフローチャートであ
る。
FIG. 12 is a flowchart illustrating a pitch determination process.

【図13】FFT処理の処理結果を示す図である。FIG. 13 is a diagram showing a processing result of the FFT processing.

【図14】音楽情報検索処理を説明するフローチャート
である。
FIG. 14 is a flowchart illustrating music information search processing.

【図15】プロファイル情報更新処理を説明するフロー
チャートである。
FIG. 15 is a flowchart illustrating profile information update processing.

【図16】媒体を説明する図である。FIG. 16 is a diagram illustrating a medium.

【図17】図16のパーソナルコンピュータ301の構
成例を示す図である。
17 is a diagram illustrating a configuration example of a personal computer 301 in FIG.

【符号の説明】[Explanation of symbols]

1 端末、 2 ネットワーク、 3 検索サーバ、
31 通信部、 32メロディデータ生成部、 33
検索部、 34 プロファイル情報記憶部、35 音楽
情報記憶部
1 terminal, 2 network, 3 search server,
31 communication unit, 32 melody data generation unit, 33
Search unit, 34 Profile information storage unit, 35 Music information storage unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 11/04 G06F 15/403 350C G10L 9/00 B ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G10L 11/04 G06F 15/403 350C G10L 9/00 B

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 ネットワークを介して、端末とデータを
授受する情報処理装置において、 複数の曲に関する情報、および複数の前記曲のメロディ
データを記憶する第1の記憶手段と、 前記端末から送信されてきた音声データを受信する受信
手段と、 前記受信手段により受信された前記音声データからメロ
ディデータを生成する生成手段と、 前記第1の記憶手段に記憶されている複数の前記曲の前
記メロディデータと、前記生成手段により生成された前
記メロディデータとの相関度を算出する算出手段と、 前記算出手段により算出された前記相関度に基づいて、
候補曲を決定し、決定した前記候補曲に関する情報を、
前記第1の記憶手段に記憶されている複数の前記曲に関
する前記情報から検索する検索手段と、 前記検索手段により検索された前記情報を、前記端末に
出力する出力手段とを備えることを特徴とする情報処理
装置。
1. An information processing apparatus for exchanging data with a terminal via a network, wherein: first storage means for storing information about a plurality of songs and melody data of the plurality of songs; Receiving means for receiving received audio data; generating means for generating melody data from the audio data received by the receiving means; and the melody data of the plurality of songs stored in the first storage means And calculating means for calculating the degree of correlation with the melody data generated by the generating means, based on the degree of correlation calculated by the calculating means,
Determine a candidate song, information on the determined candidate song,
A search unit for searching from the information on the plurality of songs stored in the first storage unit; and an output unit for outputting the information searched by the search unit to the terminal. Information processing device.
【請求項2】 前記生成手段は、 所定の設定値が設定された参照項目を利用して、前記音
声データ上に、複数の音長算出区間および音高算出区間
を決定し、 決定した前記音長算出区間の長さを音長とし、 決定した前記音高算出区間の音声データから音高を算出
することを特徴とする請求項1に記載の情報処理装置。
2. The method according to claim 1, wherein the generating unit determines a plurality of pitch calculation sections and a plurality of pitch calculation sections on the voice data using a reference item in which a predetermined setting value is set. The information processing apparatus according to claim 1, wherein the length of the length calculation section is a pitch, and a pitch is calculated from the determined voice data of the pitch calculation section.
【請求項3】 前記生成手段は、 第1の算出方法に従って、第1番目の前記音高算出区間
の音声データから音高を算出し、 前記第1番目の前記音高算出区間の前記音声データから
算出した前記音高が、所定の値より大きい場合、前記第
1の算出方法に従って、残りの前記音高算出区間の音声
データから音高を算出し、 前記第1番目の前記音高算出区間の前記音声データから
算出した前記音高が、所定の値より小さい場合、第2の
算出方法に従って、残りの前記音高算出区間の音声デー
タから音高を算出することを特徴とする請求項2に記載
の情報処理装置。
3. The method according to claim 1, wherein the generating means calculates a pitch from the voice data of the first pitch calculation section according to a first calculation method, and calculates the voice data of the first pitch calculation section. If the pitch calculated from is larger than a predetermined value, the pitch is calculated from the voice data of the remaining pitch calculation section according to the first calculation method, and the first pitch calculation section is calculated. 3. If the pitch calculated from the voice data is smaller than a predetermined value, a pitch is calculated from the voice data of the remaining pitch calculation section according to a second calculation method. An information processing apparatus according to claim 1.
【請求項4】 前記受信手段は、前記端末から送信され
てきた曲IDをさらに受信し、 前記生成手段は、前記参照項目に設定された前記設定値
を更新することを特徴する請求項2に記載の情報処理装
置。
4. The apparatus according to claim 2, wherein the receiving unit further receives a song ID transmitted from the terminal, and the generating unit updates the set value set in the reference item. An information processing apparatus according to claim 1.
【請求項5】 ユーザIDに対応してプロファイル情報を
記憶する第2の記憶手段をさらに備え、 前記受信手段は、前記端末から送信されてきた前記ユー
ザIDをさらに受信し、 前記算出手段は、前記受信手段により受信された前記ユ
ーザIDに対応して、前記第2の記憶手段に記憶されてい
る前記ユーザ情報に基づいて、算出した前記相関度を修
正することを特徴とする請求項1に記載の情報処理装
置。
5. The apparatus further comprising: a second storage unit that stores profile information corresponding to the user ID, wherein the receiving unit further receives the user ID transmitted from the terminal, The method according to claim 1, wherein the calculated degree of correlation is corrected based on the user information stored in the second storage unit, corresponding to the user ID received by the reception unit. An information processing apparatus according to claim 1.
【請求項6】 前記受信手段は、前記端末から送信され
てきた曲IDをさらに受信し、 前記第2の記憶手段は、前記受信手段により受信された
前記曲IDに基づいて、前記プロファイル情報を更新する
ことを特徴する請求項5に記載の情報処理装置。
6. The receiving means further receives a music ID transmitted from the terminal, and the second storage means stores the profile information based on the music ID received by the receiving means. The information processing apparatus according to claim 5, wherein the information is updated.
【請求項7】 ネットワークを介して、端末とデータを
授受する情報処理装置の情報処理方法において、 複数の曲に関する情報、および複数の前記曲のメロディ
データを記憶する記憶ステップと、 前記端末から送信されてきた音声データを受信する受信
ステップと、 前記受信ステップの処理で受信された前記音声データか
らメロディデータを生成する生成ステップと、 前記記憶ステップの処理で記憶された複数の前記曲の前
記メロディデータと、前記生成ステップで生成された前
記メロディデータとの相関度を算出する算出ステップ
と、 前記算出ステップの処理で算出された前記相関度に基づ
いて候補曲を決定し、決定した前記候補曲に関する情報
を、前記記憶ステップの処理で記憶された複数の前記曲
に関する前記情報から検索する検索ステップと、 前記検索ステップの処理で検索された前記情報を、前記
端末に出力する出力ステップとを含むことを特徴とする
情報処理方法。
7. An information processing method of an information processing apparatus for transmitting and receiving data to and from a terminal via a network, comprising: a storage step of storing information on a plurality of music pieces and melody data of the plurality of music pieces; Receiving the received audio data, generating the melody data from the audio data received in the processing of the receiving step, the melody of the plurality of songs stored in the processing of the storage step A calculating step of calculating a degree of correlation between the data and the melody data generated in the generating step; determining a candidate song based on the degree of correlation calculated in the processing of the calculating step; For searching for information related to the plurality of songs stored in the processing of the storage step. Step a, the information searched by the processing in the search step, the information processing method characterized by comprising an output step of outputting to the terminal.
【請求項8】 ネットワークを介して、端末とデータを
授受する場合の情報処理用のプログラムであって、 複数の曲に関する情報、および複数の前記曲のメロディ
データを入力する入力ステップと、 前記端末から送信されてきた音声データからメロディデ
ータを生成する生成ステップと、 前記入力ステップの処理で入力された複数の前記曲の前
記メロディデータと、前記生成ステップの処理で生成さ
れた前記メロディデータとの相関度を算出する算出ステ
ップと、 前記算出ステップの処理で算出された前記相関度に基づ
いて候補曲を決定し、決定した前記候補曲に関する情報
を、前記入力ステップの処理で入力された複数の前記曲
に関する前記情報から検索する検索ステップと、 前記検索ステップの処理で検索された前記情報を、前記
端末に出力する出力ステップと からなることを特徴とするプログラムをコンピュータに
実行させる媒体。
8. An information processing program for exchanging data with a terminal via a network, comprising: an input step of inputting information on a plurality of music pieces and melody data of the plurality of music pieces; A generation step of generating melody data from audio data transmitted from the melody data of the plurality of songs input in the processing of the input step, and the melody data generated in the processing of the generation step A calculating step of calculating a degree of correlation; determining a candidate song based on the degree of correlation calculated in the processing of the calculating step; and information on the determined candidate song, the plurality of pieces of information input in the processing of the input step. A search step for searching from the information on the song, and the information searched for in the processing of the search step; Medium to execute the program characterized by comprising the output step of outputting to the computer.
【請求項9】 ネットワークを介して、サーバとデータ
を授受する情報処理装置において、 音声を入力する入力手段と、 前記入力手段により入力された前記音声からメロディデ
ータを生成する生成手段と、 前記生成手段により生成された前記メロディデータを、
前記サーバに出力する出力手段とを備えることを特徴と
する情報処理装置。
9. An information processing apparatus for exchanging data with a server via a network, wherein: input means for inputting voice; generating means for generating melody data from the voice input by the input means; The melody data generated by the means;
An information processing apparatus comprising: output means for outputting to the server.
【請求項10】 前記生成手段は、 所定の設定値が設定された参照項目を利用して、前記音
声データ上に、複数の音長算出区間および音高算出区間
を決定し、 決定した前記音長算出区間の長さを音長とし、 決定した前記音高算出区間の音声データから音高を算出
することを特徴とする請求項9に記載の情報処理装置。
10. The generation means determines a plurality of pitch calculation sections and a plurality of pitch calculation sections on the voice data using a reference item in which a predetermined set value is set, and determines the determined sound. The information processing apparatus according to claim 9, wherein a length of a length calculation section is set as a pitch, and a pitch is calculated from the determined voice data of the pitch calculation section.
【請求項11】 前記生成手段は、 第1の算出方法に従って、第1番目の前記音高算出区間
の音声データから音高を算出し、 前記第1番目の前記音高算出区間の前記音声データから
算出した前記音高が、所定の値より大きい場合、前記第
1の算出方法に従って、残りの前記音高算出区間の音声
データから音高を算出し、 前記第1番目の前記音高算出区間の前記音声データから
算出した前記音高が、所定の値より小さい場合、第2の
算出方法に従って、残りの前記音高算出区間の音声デー
タから音高を算出することを特徴とする請求項9に記載
の情報処理装置。
11. The method according to claim 1, wherein the generating means calculates a pitch from the voice data of the first pitch calculation section according to a first calculation method, and calculates the voice data of the first pitch calculation section. If the pitch calculated from is larger than a predetermined value, the pitch is calculated from the voice data of the remaining pitch calculation section according to the first calculation method, and the first pitch calculation section is calculated. 10. If the pitch calculated from the voice data is smaller than a predetermined value, a pitch is calculated from voice data of the remaining pitch calculation section according to a second calculation method. An information processing apparatus according to claim 1.
【請求項12】 前記入力手段は、曲IDを入力し、 前記生成手段は、前記参照項目に設定された前記設定値
を更新することを特徴する請求項9に記載の情報処理装
置。
12. The information processing apparatus according to claim 9, wherein the input unit inputs a song ID, and the generation unit updates the set value set in the reference item.
【請求項13】 ネットワークを介して、サーバとデー
タを授受する情報処理装置の情報処理方法において、 音声を入力する入力ステップと、 前記入力ステップの処理で入力された前記音声からメロ
ディデータを生成する生成ステップと、 前記生成ステップの処理で生成された前記メロディデー
タを、前記サーバに出力する出力ステップとを含むこと
を特徴とする情報処理方法。
13. An information processing method of an information processing apparatus for exchanging data with a server via a network, wherein: an input step of inputting voice; and melody data is generated from the voice input in the processing of the input step. An information processing method, comprising: a generation step; and an output step of outputting the melody data generated in the processing of the generation step to the server.
【請求項14】 ネットワークを介して、サーバとデー
タを授受する場合の情報処理用のプログラムであって、 音声を入力する入力ステップと、 前記入力ステップの処理で入力された前記音声からメロ
ディデータを生成する生成ステップと、 前記生成ステップの処理で生成された前記メロディデー
タを、前記サーバに出力する出力ステップとからなるこ
とを特徴とするプログラムをコンピュータに実行させる
媒体。
14. An information processing program for exchanging data with a server via a network, comprising: an input step of inputting voice; and melody data from the voice input in the processing of the input step. A medium for causing a computer to execute a program, comprising: a generating step of generating; and an output step of outputting the melody data generated in the processing of the generating step to the server.
【請求項15】 ネットワークを介して、端末とデータ
を授受する情報処理装置において、 前記端末から送信されてきたメロディデータを受信する
受信手段と、 複数の曲に関する情報、および複数の前記曲のメロディ
データを記憶する第1の記憶手段と、 前記第1の記憶手段に記憶されている複数の前記曲の前
記メロディデータと、前記受信手段により受信された前
記メロディデータとの相関度を算出する算出手段と、 前記算出手段により算出された前記相関度に基づいて、
候補曲を決定し、決定した前記候補曲に関する情報を、
前記第1の記憶手段に記憶されている複数の前記曲に関
する前記情報から検索する検索手段と、 前記検索手段により検索された前記情報を、前記端末に
出力する出力手段とを備えることを特徴とする情報処理
装置。
15. An information processing apparatus for exchanging data with a terminal via a network, a receiving unit for receiving melody data transmitted from the terminal, information on a plurality of songs, and a melody of the plurality of songs. A first storage unit for storing data; a calculation for calculating a degree of correlation between the melody data of the plurality of songs stored in the first storage unit and the melody data received by the reception unit Means, based on the degree of correlation calculated by the calculation means,
Determine a candidate song, information on the determined candidate song,
A search unit for searching from the information on the plurality of songs stored in the first storage unit; and an output unit for outputting the information searched by the search unit to the terminal. Information processing device.
【請求項16】 ユーザIDに対応してプロファイル情報
を記憶する第2の記憶手段をさらに備え、 前記受信手段は、前記端末から送信されてきた前記ユー
ザIDを受信し、 前記算出手段は、前記受信手段により受信された前記ユ
ーザIDに対応して、前記第2の記憶手段に記憶されてい
る前記ユーザ情報に基づいて、算出した前記相関度を修
正することを特徴とする請求項15に記載の情報処理装
置。
16. The apparatus further comprising: second storage means for storing profile information corresponding to a user ID, wherein the receiving means receives the user ID transmitted from the terminal, and wherein the calculating means comprises The method according to claim 15, wherein the calculated degree of correlation is corrected based on the user information stored in the second storage unit, corresponding to the user ID received by the reception unit. Information processing device.
【請求項17】 前記受信手段は、前記端末から送信さ
れてきた曲IDを受信し、 前記第2の記憶手段は、前記受信手段により受信された
前記曲IDに基づいて、前記プロファイル情報を更新する
ことを特徴する請求項16に記載の情報処理装置。
17. The receiving unit receives a song ID transmitted from the terminal, and the second storage unit updates the profile information based on the song ID received by the receiving unit. The information processing apparatus according to claim 16, wherein:
【請求項18】 ネットワークを介して、端末とデータ
を授受する情報処理装置の情報処理方法において、 前記端末から送信されてきたメロディデータを受信する
受信ステップと、 複数の曲に関する情報、および複数の前記曲のメロディ
データを記憶する記憶ステップと、 前記記憶ステップの処理で記憶された複数の前記曲の前
記メロディデータと、前記受信ステップの処理で受信さ
れた前記メロディデータとの相関度を算出する算出ステ
ップと、 前記算出ステップの処理で算出された前記相関度に基づ
いて、候補曲を決定し、決定した前記候補曲に関する情
報を、前記記憶ステップの処理で記憶された複数の前記
曲に関する前記情報から検索する検索ステップと、 前記検索ステップの処理で検索された前記情報を、前記
端末に出力する出力ステップとを含むことを特徴とする
情報処理方法。
18. An information processing method of an information processing apparatus for exchanging data with a terminal via a network, comprising: a receiving step of receiving melody data transmitted from the terminal; A storing step of storing the melody data of the song; calculating a degree of correlation between the melody data of the plurality of songs stored in the processing of the storing step and the melody data received in the processing of the receiving step A calculating step; determining a candidate song based on the degree of correlation calculated in the processing of the calculating step; and information regarding the determined candidate song, the information related to the plurality of songs stored in the processing of the storing step. A search step for searching from information; and outputting the information searched for in the processing of the search step to the terminal. An information processing method which comprises the steps.
【請求項19】 ネットワークを介して、端末とデータ
を授受する場合の情報処理用のプログラムであって、 複数の曲に関する情報、および複数の前記曲のメロディ
データを入力する入力ステップと、 前記入力ステップの処理で入力された複数の前記曲の前
記メロディデータと、前記端末から送信されてきた前記
メロディデータとの相関度を算出する算出ステップと、 前記算出ステップの処理により算出された前記相関度に
基づいて、候補曲を決定し、決定した前記候補曲に関す
る情報を、前記入力ステップの処理で入力された複数の
前記曲に関する前記情報から検索する検索ステップと、 前記検索ステップの処理により検索された前記情報を、
前記端末に出力する出力ステップとからなることを特徴
とするプログラムをコンピュータに実行させる媒体。
19. An information processing program for exchanging data with a terminal via a network, comprising: an input step of inputting information on a plurality of music pieces and melody data of the plurality of music pieces; A calculating step of calculating a degree of correlation between the melody data of the plurality of songs input in the processing of the step and the melody data transmitted from the terminal; and the degree of correlation calculated by the processing of the calculating step A search step of determining a candidate song based on the information, and searching for information on the determined candidate song from the information on the plurality of songs input in the processing of the input step; Said information
A medium for causing a computer to execute a program, comprising: an output step of outputting to the terminal.
JP11236652A 1999-08-24 1999-08-24 Device and method for information processing, and medium Withdrawn JP2001060099A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11236652A JP2001060099A (en) 1999-08-24 1999-08-24 Device and method for information processing, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11236652A JP2001060099A (en) 1999-08-24 1999-08-24 Device and method for information processing, and medium

Publications (1)

Publication Number Publication Date
JP2001060099A true JP2001060099A (en) 2001-03-06

Family

ID=17003795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11236652A Withdrawn JP2001060099A (en) 1999-08-24 1999-08-24 Device and method for information processing, and medium

Country Status (1)

Country Link
JP (1) JP2001060099A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007086571A (en) * 2005-09-26 2007-04-05 Yamaha Corp Music information display device and program
US7277852B2 (en) 2000-10-23 2007-10-02 Ntt Communications Corporation Method, system and storage medium for commercial and musical composition recognition and storage
JP2009014923A (en) * 2007-07-03 2009-01-22 Yamaha Corp Musical performance clock generating device, data reproducing device, musical performance clock generating method, data reproducing method, and program
JP2009020179A (en) * 2007-07-10 2009-01-29 Yamaha Corp Performance clock generation device, data reproducing device, performance clock generation method, data reproducing method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7277852B2 (en) 2000-10-23 2007-10-02 Ntt Communications Corporation Method, system and storage medium for commercial and musical composition recognition and storage
JP2007086571A (en) * 2005-09-26 2007-04-05 Yamaha Corp Music information display device and program
JP2009014923A (en) * 2007-07-03 2009-01-22 Yamaha Corp Musical performance clock generating device, data reproducing device, musical performance clock generating method, data reproducing method, and program
JP2009020179A (en) * 2007-07-10 2009-01-29 Yamaha Corp Performance clock generation device, data reproducing device, performance clock generation method, data reproducing method, and program

Similar Documents

Publication Publication Date Title
US7488886B2 (en) Music information retrieval using a 3D search algorithm
US20050086052A1 (en) Humming transcription system and methodology
JP5949607B2 (en) Speech synthesizer
WO1998049630A1 (en) Bibliographic music data base with normalized musical themes
JP4205824B2 (en) Singing evaluation device and karaoke device
WO2017056982A1 (en) Music search method and music search device
CN110010159B (en) Sound similarity determination method and device
JP2000187671A (en) Music retrieval system with singing voice using network and singing voice input terminal equipment to be used at the time of retrieval
JP2003099462A (en) Musical composition retrieving device
JP5790496B2 (en) Sound processor
JP6288197B2 (en) Evaluation apparatus and program
JP2001060099A (en) Device and method for information processing, and medium
JP6102076B2 (en) Evaluation device
JP3716725B2 (en) Audio processing apparatus, audio processing method, and information recording medium
JP2001272991A (en) Voice interacting method and voice interacting device
JP2002055695A (en) Music search system
KR100702059B1 (en) Ubiquitous music information retrieval system and method based on query pool with feedback of customer characteristics
JP6314884B2 (en) Reading aloud evaluation device, reading aloud evaluation method, and program
JP4607660B2 (en) Music search apparatus and music search method
JP4698606B2 (en) Music processing device
JP2003345400A (en) Method, device, and program for pitch conversion
JP2005115164A (en) Musical composition retrieving apparatus
JP2008040260A (en) Musical piece practice assisting device, dynamic time warping module, and program
JP2006276560A (en) Music playback device and music playback method
JP2006195384A (en) Musical piece tonality calculating device and music selecting device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061107