JP2022068700A - Karaoke device - Google Patents

Karaoke device Download PDF

Info

Publication number
JP2022068700A
JP2022068700A JP2020177519A JP2020177519A JP2022068700A JP 2022068700 A JP2022068700 A JP 2022068700A JP 2020177519 A JP2020177519 A JP 2020177519A JP 2020177519 A JP2020177519 A JP 2020177519A JP 2022068700 A JP2022068700 A JP 2022068700A
Authority
JP
Japan
Prior art keywords
user
singing
harmony
type
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020177519A
Other languages
Japanese (ja)
Other versions
JP7478077B2 (en
Inventor
里恵 執行
Rie Shigyo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiichikosho Co Ltd
Original Assignee
Daiichikosho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiichikosho Co Ltd filed Critical Daiichikosho Co Ltd
Priority to JP2020177519A priority Critical patent/JP7478077B2/en
Publication of JP2022068700A publication Critical patent/JP2022068700A/en
Application granted granted Critical
Publication of JP7478077B2 publication Critical patent/JP7478077B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

To provide a karaoke device that can recommend harmony signing to an appropriate user according to users and type of the harmony singing in a song.SOLUTION: A karaoke device has: a signal processing unit that, on the basis of singing voice signals of a plurality of users who sings a song in karaoke, determines a type of harmony singing performed by a certain user, and on the basis of voiceprint data extracted from the singing voice signals, specifies user identification information on the certain user; a storage processing unit that stores, in storage means, the determined type of the harmony singing and the specified user identification information in linkage to each other; and a recommendation unit that, on the basis of the type of harmony singing in a certain song selected by one user among the plurality of users and the type of the user's harmony singing, specifies user identification information on the other users, and recommends, to the other users corresponding to the user identification information, harmony singing suitable for singing the certain song in karaoke.SELECTED DRAWING: Figure 2

Description

本発明はカラオケ装置に関する。 The present invention relates to a karaoke device.

複数の利用者でカラオケ歌唱を行う際、ある利用者のカラオケ歌唱に合わせて、他の利用者がハーモニー歌唱を行うことがある。ハーモニー歌唱は、楽曲の主旋律のメロディーに沿ったカラオケ歌唱(以下、「通常のカラオケ歌唱」)に合わせて、当該主旋律のメロディーとは異なるピッチで歌唱することである。 When singing karaoke with multiple users, another user may sing in harmony with the karaoke singing of one user. Harmony singing is to sing along with a karaoke singing along the melody of the main melody of the song (hereinafter, "normal karaoke singing") at a pitch different from the melody of the main melody.

このようなハーモニー歌唱を支援する技術として、特許文献1には、第1表示手段に対し、カラオケ楽曲の歌詞テロップを表示すると共に、第2表示手段に対し、歌詞テロップにおけるハーモニー歌唱部をそれ以外の歌唱部と識別可能に表示制御する技術が開示されている。 As a technique for supporting such harmony singing, Patent Document 1 displays the lyrics telop of the karaoke song to the first display means, and displays the harmony singing part in the lyrics telop to the second display means. A technique for controlling the display so as to be distinguishable from the singing part of the song is disclosed.

特開2006-126524号公報Japanese Unexamined Patent Publication No. 2006-126524

ところで、ハーモニー歌唱を行う利用者の中には、主旋律のメロディーのピッチよりも高いピッチで歌唱を行うことが得意な者や、主旋律のメロディーのピッチよりも低いピッチで歌唱を行うことが得意な者がいる。一方、ある楽曲については主旋律のメロディーのピッチよりも高いピッチでハーモニー歌唱を行うことが好ましい等、楽曲毎に最適なハーモニー歌唱が存在する。 By the way, some users who sing harmony are good at singing at a pitch higher than the pitch of the melody of the main tune, and are good at singing at a pitch lower than the pitch of the melody of the main tune. There is a person. On the other hand, for a certain song, it is preferable to sing the harmony at a pitch higher than the pitch of the melody of the main tune, and there is an optimum harmony singing for each song.

本発明の目的は、利用者及び楽曲のハーモニー歌唱のタイプに応じて、適当な利用者に対しハーモニー歌唱をレコメンドすることが可能なカラオケ装置を提供することにある。 An object of the present invention is to provide a karaoke device capable of recommending harmony singing to an appropriate user according to a user and a type of harmony singing of a musical piece.

上記目的を達成するための一の発明は、利用者を識別するための利用者識別情報と、当該利用者の声紋データとを紐付けて記憶するデータ記憶部と、楽曲のカラオケ歌唱を行った複数の利用者の歌唱音声信号に基づいて、ある利用者が行ったハーモニー歌唱のタイプを判定し、且つ当該ハーモニー歌唱に対応する歌唱音声信号から抽出した声紋データに基づいて、当該ある利用者の利用者識別情報を特定する信号処理部と、判定された前記ハーモニー歌唱のタイプと、特定された前記利用者識別情報とを紐付けて記憶手段に記憶させる記憶処理部と、複数の利用者の中の一の利用者が選曲したある楽曲のハーモニー歌唱のタイプと、前記記憶手段に記憶された、利用者のハーモニー歌唱のタイプとに基づいて、当該一の利用者以外の他の利用者の利用者識別情報を特定し、当該利用者識別情報に対応する他の利用者に対して、当該ある楽曲のカラオケ歌唱に合わせたハーモニー歌唱をレコメンドするレコメンド部と、を有するカラオケ装置である。
本発明の他の特徴については、後述する明細書及び図面の記載により明らかにする。
One invention for achieving the above object is a data storage unit that stores user identification information for identifying a user and voice print data of the user in association with each other, and sings a karaoke song of a song. The type of harmony singing performed by a user is determined based on the singing voice signals of a plurality of users, and the voice print data extracted from the singing voice signals corresponding to the harmony singing is used to determine the type of the harmony singing. A signal processing unit that specifies user identification information, a storage processing unit that associates the determined type of harmony singing with the specified user identification information and stores it in a storage means, and a plurality of users. Based on the type of harmony singing of a certain song selected by one of the users and the type of harmony singing of the user stored in the storage means, the other users other than the one user. It is a karaoke device having a recommendation unit that identifies a user identification information and recommends a harmony singing that matches the karaoke singing of the certain song to another user corresponding to the user identification information.
Other features of the present invention will be clarified by the description of the description and drawings described later.

本発明によれば、利用者及び楽曲のハーモニー歌唱のタイプに応じて、適当な利用者に対しハーモニー歌唱をレコメンドすることができる。 According to the present invention, the harmony singing can be recommended to an appropriate user according to the type of the harmony singing of the user and the music.

第1実施形態に係るカラオケ装置を示す図である。It is a figure which shows the karaoke apparatus which concerns on 1st Embodiment. 第1実施形態に係るカラオケ本体を示す図である。It is a figure which shows the karaoke main body which concerns on 1st Embodiment. 第1実施形態に係る記憶手段が記憶するテーブルを示す図である。It is a figure which shows the table which the storage means which concerns on 1st Embodiment stores. 第1実施形態に係る記憶手段が記憶するテーブルを示す図である。It is a figure which shows the table which the storage means which concerns on 1st Embodiment stores. 第1実施形態に係るカラオケ装置の処理を示すフローチャートである。It is a flowchart which shows the processing of the karaoke apparatus which concerns on 1st Embodiment. 第1実施形態に係るカラオケ装置の処理を示すフローチャートである。It is a flowchart which shows the processing of the karaoke apparatus which concerns on 1st Embodiment. 第2実施形態に係るカラオケ本体を示す図である。It is a figure which shows the karaoke main body which concerns on 2nd Embodiment. 第2実施形態に係るカラオケ装置の処理を示すフローチャートである。It is a flowchart which shows the processing of the karaoke apparatus which concerns on 2nd Embodiment. 第3実施形態に係るカラオケ本体を示す図である。It is a figure which shows the karaoke main body which concerns on 3rd Embodiment. 第3実施形態に係る記憶手段が記憶するテーブルを示す図である。It is a figure which shows the table which the storage means which concerns on 3rd Embodiment stores. 第3実施形態に係る記憶手段が記憶するテーブルを示す図である。It is a figure which shows the table which the storage means which concerns on 3rd Embodiment stores. 第3実施形態に係るカラオケ装置の処理を示すフローチャートである。It is a flowchart which shows the processing of the karaoke apparatus which concerns on 3rd Embodiment. 第3実施形態に係るカラオケ装置の処理を示すフローチャートである。It is a flowchart which shows the processing of the karaoke apparatus which concerns on 3rd Embodiment.

<第1実施形態>
図1から図6を参照して、第1実施形態に係るカラオケ装置について説明する。
<First Embodiment>
The karaoke device according to the first embodiment will be described with reference to FIGS. 1 to 6.

==カラオケ装置==
カラオケ装置Kは、楽曲のカラオケ演奏、及び利用者がカラオケ歌唱を行うための装置である。図1に示すように、カラオケ装置Kは、カラオケ本体10、スピーカ20、表示装置30、マイク40a、マイク40b、及びリモコン装置50を備える。
== Karaoke device ==
The karaoke device K is a device for performing karaoke of music and for the user to sing karaoke. As shown in FIG. 1, the karaoke device K includes a karaoke body 10, a speaker 20, a display device 30, a microphone 40a, a microphone 40b, and a remote control device 50.

カラオケ本体10は、選曲された楽曲のカラオケ演奏制御、歌詞や背景映像等の表示制御、マイク40a及びマイク40bを通じて入力された歌唱音声信号の処理といった、カラオケ演奏やカラオケ歌唱に関する各種の制御を行う。スピーカ20はカラオケ本体10からの放音信号に基づいて放音するための構成である。表示装置30はカラオケ本体10からの信号に基づいて映像や画像を画面に表示するための構成である。マイク40a及びマイク40bは利用者のカラオケ歌唱の歌唱音声をアナログの歌唱音声信号に変換してカラオケ本体10に入力するための構成である。リモコン装置50は、カラオケ本体10に対する各種操作をおこなうための装置である。 The karaoke main body 10 performs various controls related to karaoke performance and karaoke singing, such as karaoke performance control of selected songs, display control of lyrics and background images, and processing of singing voice signals input through microphones 40a and 40b. .. The speaker 20 is configured to emit sound based on the sound emitted signal from the karaoke main body 10. The display device 30 is configured to display an image or an image on the screen based on the signal from the karaoke body 10. The microphone 40a and the microphone 40b are configured to convert the singing voice of the user's karaoke singing into an analog singing voice signal and input it to the karaoke main body 10. The remote control device 50 is a device for performing various operations on the karaoke main body 10.

図2に示すように、本実施形態に係るカラオケ本体10は、記憶手段10a、通信手段10b、入力手段10c、演奏手段10d、及び制御手段10eを備える。各構成はインターフェース(図示なし)を介してバスBに接続されている。 As shown in FIG. 2, the karaoke main body 10 according to the present embodiment includes storage means 10a, communication means 10b, input means 10c, playing means 10d, and control means 10e. Each configuration is connected to bus B via an interface (not shown).

[記憶手段]
記憶手段10aは、各種のデータを記憶する大容量の記憶装置であり、たとえばハードディスクドライブなどである。記憶手段10aは、楽曲データを記憶する。
[Memory means]
The storage means 10a is a large-capacity storage device for storing various types of data, such as a hard disk drive. The storage means 10a stores music data.

楽曲データは、個々の楽曲を特定するための楽曲識別情報が付与されている。楽曲識別情報は、楽曲を識別するための楽曲ID等、各楽曲に固有の情報である。楽曲データは、伴奏データ、リファレンスデータ等を含む。伴奏データは、カラオケ演奏音の元となるデータである。リファレンスデータは、カラオケ演奏された楽曲の主旋律を示すデータである。 The music data is provided with music identification information for identifying individual music. The music identification information is information unique to each music, such as a music ID for identifying the music. The music data includes accompaniment data, reference data, and the like. The accompaniment data is the data that is the source of the karaoke performance sound. The reference data is data showing the main tune of the music played in karaoke.

また、記憶手段10aは、カラオケ演奏時に表示装置30等に表示される背景映像等の背景映像データ、及び楽曲の属性情報を記憶する。 Further, the storage means 10a stores background image data such as a background image displayed on the display device 30 or the like at the time of karaoke performance, and attribute information of the music.

本実施形態において、属性情報には、楽曲のハーモニー歌唱のタイプが含まれる。楽曲のハーモニー歌唱のタイプは、当該楽曲について最適なタイプを示すものである。具体的に、ハーモニー歌唱のタイプは、楽曲の主旋律のメロディーのピッチよりも高いピッチでカラオケ歌唱を行うタイプ(上ハモタイプ)、主旋律のメロディーのピッチよりも低いピッチでカラオケ歌唱を行うタイプ(下ハモタイプ)、或いはその両方が最適なタイプ(両ハモタイプ)のいずれかである。 In the present embodiment, the attribute information includes the type of harmony singing of the music. The type of harmony singing of a song indicates the optimum type for the song. Specifically, the types of harmony singing are the type that sings karaoke at a pitch higher than the pitch of the melody of the main tune of the song (upper harmony type), and the type that sings karaoke at a pitch lower than the pitch of the melody of the main tune (lower harmony type). ), Or both of them are either the optimum type (both karaoke types).

ここで、本実施形態において、記憶手段10aの記憶領域の一部は、データ記憶部100として機能する。データ記憶部100は、利用者を識別するための利用者識別情報と、当該利用者の声紋データとを紐付けて記憶する。 Here, in the present embodiment, a part of the storage area of the storage means 10a functions as the data storage unit 100. The data storage unit 100 stores the user identification information for identifying the user and the voiceprint data of the user in association with each other.

利用者識別情報は、利用者毎に付与される利用者ID等、各利用者に固有の情報である。声紋データは、利用者の声を特定するためのデータ(たとえばフォルマントデータ)である。 The user identification information is information unique to each user, such as a user ID given to each user. The voiceprint data is data for identifying the voice of the user (for example, formant data).

たとえば、利用者は、初めてカラオケ装置Kを使用する場合、リモコン装置50を介して個人情報(氏名、ニックネーム、好きなジャンル等)を入力する。カラオケ装置Kは、当該利用者に対して固有の利用者IDを割り当てる。また、利用者は、マイク40aまたはマイク40bを介して音声を入力する。カラオケ装置Kは、入力された音声を解析することで声紋データを取得する。カラオケ装置Kは、割り当てた利用者IDと取得した声紋データを紐付けてデータ記憶部100に記憶させる。なお、声紋データは、公知の手法(たとえば特開2008-165079号公報)により取得することができる。 For example, when the user uses the karaoke device K for the first time, he / she inputs personal information (name, nickname, favorite genre, etc.) via the remote control device 50. The karaoke device K assigns a unique user ID to the user. Further, the user inputs voice through the microphone 40a or the microphone 40b. The karaoke device K acquires voiceprint data by analyzing the input voice. The karaoke device K associates the assigned user ID with the acquired voiceprint data and stores it in the data storage unit 100. The voiceprint data can be obtained by a known method (for example, Japanese Patent Application Laid-Open No. 2008-165079).

また、利用者識別情報、及び当該利用者の声紋データは、サーバ装置(図示なし)に記憶されていてもよい。この場合、利用者は、カラオケ装置Kを利用する際、リモコン装置50を介して自己の利用者IDを入力する。カラオケ装置Kは、入力された利用者IDをサーバ装置に送信する。サーバ装置は、受信した利用者IDに紐付けられた声紋データを記憶手段から読み出し、カラオケ装置Kに送信する。カラオケ装置Kは、受信した声紋データを利用者IDと紐付けてデータ記憶部100に記憶させる。 Further, the user identification information and the voiceprint data of the user may be stored in a server device (not shown). In this case, when using the karaoke device K, the user inputs his / her own user ID via the remote control device 50. The karaoke device K transmits the input user ID to the server device. The server device reads the voiceprint data associated with the received user ID from the storage means and transmits it to the karaoke device K. The karaoke device K associates the received voiceprint data with the user ID and stores it in the data storage unit 100.

[通信手段・入力手段]
通信手段10bは、リモコン装置50との通信を行うためのインターフェースを提供する。入力手段10cは、利用者が各種の指示入力を行うための構成である。入力手段10cは、カラオケ本体10に設けられたボタン等である。或いは、リモコン装置50が入力手段10cとして機能してもよい。
[Communication means / input means]
The communication means 10b provides an interface for communicating with the remote control device 50. The input means 10c is configured for the user to input various instructions. The input means 10c is a button or the like provided on the karaoke body 10. Alternatively, the remote control device 50 may function as the input means 10c.

[演奏手段]
演奏手段10dは、制御手段10eの制御に基づき、楽曲のカラオケ演奏、及びマイク40a、マイク40bを通じて入力された歌唱音声信号の処理を行う。演奏手段10dは、音源、ミキサ、アンプ等を含む(いずれも図示なし)。
[Performance]
Based on the control of the control means 10e, the performance means 10d performs karaoke performance of the musical piece and processes the singing audio signal input through the microphones 40a and 40b. The playing means 10d includes a sound source, a mixer, an amplifier, and the like (none of which is shown).

[制御手段]
制御手段10eは、カラオケ装置Kにおける各種の制御を行う。制御手段10eは、CPUおよびメモリ(いずれも図示無し)を備える。CPUは、メモリに記憶されたプログラムを実行することにより各種の機能を実現する。
[Control means]
The control means 10e performs various controls on the karaoke device K. The control means 10e includes a CPU and a memory (neither of which is shown). The CPU realizes various functions by executing a program stored in the memory.

本実施形態においてはCPUがメモリに記憶されるプログラムを実行することにより、制御手段10eは、信号処理部200、記憶処理部300、及びレコメンド部400として機能する。 In the present embodiment, the control means 10e functions as a signal processing unit 200, a storage processing unit 300, and a recommendation unit 400 by executing a program stored in the memory by the CPU.

(信号処理部)
信号処理部200は、楽曲のカラオケ歌唱を行った複数の利用者の歌唱音声信号に基づいて、ある利用者が行ったハーモニー歌唱のタイプを判定し、且つ当該ハーモニー歌唱に対応する歌唱音声信号から抽出した声紋データに基づいて、当該ある利用者の利用者識別情報を特定する。
(Signal processing unit)
The signal processing unit 200 determines the type of harmony singing performed by a certain user based on the singing voice signals of a plurality of users who have performed karaoke singing of the music, and from the singing voice signal corresponding to the harmony singing. Based on the extracted voice print data, the user identification information of the certain user is specified.

楽曲のカラオケ歌唱は、通常のカラオケ歌唱及びハーモニー歌唱のいずれかである。利用者のハーモニー歌唱のタイプは、上述の「上ハモタイプ」、または「下ハモタイプ」のいずれかである。 The karaoke singing of a song is either a normal karaoke singing or a harmony singing. The type of harmony singing of the user is either the above-mentioned "upper harmony type" or "lower harmony type".

ハーモニー歌唱のタイプの判定は、特開平10-161672号公報や特開2004-279786号公報に記載の技術等、様々な方法を利用することができる。 For the determination of the type of harmony singing, various methods such as the techniques described in JP-A No. 10-161672 and JP-A-2004-279786 can be used.

たとえば、信号処理部200は、マイク40aまたはマイク40bから出力された歌唱音声信号と、カラオケ歌唱された楽曲のリファレンスデータとを比較し、ピッチの差を求める。ピッチの差はたとえば、楽曲のサビ部分の平均値や、楽曲全体の平均値として求めることができる。信号処理部200は、ピッチの差が小さい方の歌唱音声信号を通常のカラオケ歌唱の歌唱音声信号と判断し、ピッチの差が大きい方の歌唱音声信号をハーモニー歌唱の歌唱音声信号と判断する。更に、信号処理部200は、ハーモニー歌唱の歌唱音声信号とリファレンスデータとのピッチの差に基づいて、ハーモニー歌唱のタイプを判定する。具体的に、信号処理部200は、ピッチの差が正の場合、「上ハモタイプ」であると判定し、ピッチの差が負の場合、「下ハモタイプ」であると判定する。 For example, the signal processing unit 200 compares the singing audio signal output from the microphone 40a or the microphone 40b with the reference data of the music sung in karaoke, and obtains the difference in pitch. The difference in pitch can be obtained, for example, as the average value of the chorus portion of the music or the average value of the entire music. The signal processing unit 200 determines that the singing audio signal having the smaller pitch difference is the singing audio signal of the normal karaoke singing, and determines that the singing audio signal having the larger pitch difference is the singing audio signal of the harmony singing. Further, the signal processing unit 200 determines the type of harmony singing based on the difference in pitch between the singing voice signal of harmony singing and the reference data. Specifically, the signal processing unit 200 determines that the pitch difference is positive, it is determined to be the “upper harmony type”, and if the pitch difference is negative, it is determined to be the “lower harmony type”.

また、歌唱音声信号からの声紋データの抽出は、特開2008-165079号公報に記載の技術等、公知の方法を利用することができる。たとえば、信号処理部200は、楽曲のカラオケ歌唱に合わせてハーモニー歌唱を行った利用者の歌唱音声信号から声紋データを抽出し、データ記憶部100に記憶されている声紋データと対比する。信号処理部200は、一致した声紋データに紐付けられている利用者識別情報を、ハーモニー歌唱を行った利用者の利用者識別情報として特定する。 Further, for the extraction of the voiceprint data from the singing voice signal, a known method such as the technique described in JP-A-2008-165079 can be used. For example, the signal processing unit 200 extracts voiceprint data from the singing voice signal of the user who sang the harmony along with the karaoke singing of the music, and compares it with the voiceprint data stored in the data storage unit 100. The signal processing unit 200 identifies the user identification information associated with the matched voiceprint data as the user identification information of the user who sang the harmony.

ここで、具体例として、利用者U1がマイク40aを介して楽曲X1のカラオケ歌唱を行うのと同時に、利用者U2がマイク40bを介して楽曲X1のカラオケ歌唱を行ったとする。なお、楽曲X1の楽曲識別情報は、楽曲ID***X1であるとする。 Here, as a specific example, it is assumed that the user U1 sings the karaoke song of the music X1 via the microphone 40a, and at the same time, the user U2 sings the karaoke song of the music X1 via the microphone 40b. It is assumed that the music identification information of the music X1 is the music ID *** X1.

信号処理部200は、マイク40aまたはマイク40bから出力された歌唱音声信号と、楽曲X1のリファレンスデータとを比較し、ピッチの差を求める。 The signal processing unit 200 compares the singing audio signal output from the microphone 40a or the microphone 40b with the reference data of the music X1 and obtains the difference in pitch.

この例では、信号処理部200は、ピッチの差が小さいマイク40aから出力された歌唱音声信号を通常のカラオケ歌唱の歌唱音声信号と判断し、ピッチの差が大きいマイク40bから出力された歌唱音声信号をハーモニー歌唱の歌唱音声信号と判断したとする。そして、信号処理部200は、ハーモニー歌唱の歌唱音声信号とリファレンスデータとのピッチの差に基づいて、ハーモニー歌唱のタイプとして「上ハモタイプ」を判定したとする。 In this example, the signal processing unit 200 determines that the singing audio signal output from the microphone 40a having a small pitch difference is a singing audio signal for normal karaoke singing, and the singing audio signal output from the microphone 40b having a large pitch difference. It is assumed that the signal is judged to be a singing audio signal of harmony singing. Then, it is assumed that the signal processing unit 200 determines the "upper harmony type" as the type of harmony singing based on the difference in pitch between the singing voice signal of the harmony singing and the reference data.

この場合、利用者U1が楽曲X1の通常のカラオケ歌唱を行い、それに合わせて利用者U2が上ハモタイプのハーモニー歌唱を行ったこととなる。 In this case, the user U1 sings the normal karaoke song of the music X1, and the user U2 sings the harmony of the upper harmony type accordingly.

また、信号処理部200は、ハーモニー歌唱を行った利用者U2の歌唱音声信号から声紋データを抽出し、データ記憶部100に記憶されている利用者毎の声紋データと対比する。ここでは、データ記憶部100に、利用者U2の声紋データ及び利用者識別情報ID***U2が記憶されているとする。信号処理部200は、一致した声紋データに紐付けられている利用者U2の利用者識別情報ID***U2を、ハーモニー歌唱を行った利用者の利用者識別情報として特定する。 Further, the signal processing unit 200 extracts voiceprint data from the singing voice signal of the user U2 who has performed harmony singing, and compares it with the voiceprint data for each user stored in the data storage unit 100. Here, it is assumed that the voiceprint data of the user U2 and the user identification information ID *** U2 are stored in the data storage unit 100. The signal processing unit 200 identifies the user identification information ID *** U2 of the user U2 associated with the matched voiceprint data as the user identification information of the user who sang the harmony.

信号処理部200は、判定した利用者U2のハーモニー歌唱のタイプ(上ハモタイプ)、特定した利用者U2の利用者識別情報ID***U2、及びハーモニー歌唱を行った楽曲X1の楽曲ID***X1を記憶処理部300に出力する。なお、信号処理部200は、少なくとも判定したハーモニー歌唱のタイプ、及び特定した利用者識別情報を記憶処理部300に出力することでよい。 The signal processing unit 200 determines the type of harmony singing of the user U2 (upper harmony type), the user identification information ID *** U2 of the identified user U2, and the music ID ** of the music X1 that performed the harmony singing. * X1 is output to the storage processing unit 300. The signal processing unit 200 may output at least the determined harmony singing type and the specified user identification information to the storage processing unit 300.

(記憶処理部)
記憶処理部300は、判定されたハーモニー歌唱のタイプと、特定された利用者識別情報とを紐付けて記憶手段10aに記憶させる。
(Memory processing unit)
The storage processing unit 300 associates the determined type of harmony singing with the specified user identification information and stores it in the storage means 10a.

たとえば、上述の通り、信号処理部200から利用者U2のハーモニー歌唱のタイプ、利用者U2の利用者識別情報ID***U2、及び楽曲X1の楽曲ID***X1が出力されたとする。この場合、記憶処理部300は、それらを紐付けて記憶手段10aに記憶させる。 For example, as described above, it is assumed that the signal processing unit 200 outputs the harmony singing type of the user U2, the user identification information ID *** U2 of the user U2, and the music ID *** X1 of the music X1. In this case, the storage processing unit 300 associates them and stores them in the storage means 10a.

図3及び図4は、記憶手段10aに記憶された、利用者毎のハーモニー歌唱タイプを示すテーブルである。具体的に、図3は、利用者U2の楽曲毎のハーモニー歌唱のタイプを示し、図4は、利用者U3の楽曲毎のハーモニー歌唱のタイプを示す。たとえば、図3のテーブルからは、利用者U2が、楽曲X1のカラオケ歌唱に合わせて、上ハモタイプのハーモニー歌唱を行ったことがわかる。一方、図4のテーブルからは、利用者U3が、楽曲X1のカラオケ歌唱に合わせて、下ハモタイプのハーモニー歌唱を行ったことがわかる。 3 and 4 are tables showing the harmony singing type for each user stored in the storage means 10a. Specifically, FIG. 3 shows the type of harmony singing for each song of user U2, and FIG. 4 shows the type of harmony singing for each song of user U3. For example, from the table of FIG. 3, it can be seen that the user U2 performed the upper harmony type harmony singing in accordance with the karaoke singing of the music X1. On the other hand, from the table of FIG. 4, it can be seen that the user U3 performed the lower harmony type harmony singing along with the karaoke singing of the music X1.

(レコメンド部)
レコメンド部400は、複数の利用者の中の一の利用者が選曲したある楽曲のハーモニー歌唱のタイプと、記憶手段10aに記憶された、利用者のハーモニー歌唱のタイプとに基づいて、当該一の利用者以外の他の利用者の利用者識別情報を特定し、当該利用者識別情報に対応する他の利用者に対して、当該ある楽曲のカラオケ歌唱に合わせたハーモニー歌唱をレコメンドする。
(Recommendation section)
The recommendation unit 400 is based on the type of harmony singing of a certain song selected by one of the plurality of users and the type of harmony singing of the user stored in the storage means 10a. The user identification information of other users other than the user of the above is specified, and the harmony singing according to the karaoke singing of the certain song is recommended to the other users corresponding to the user identification information.

他の利用者の利用者識別情報の特定は、様々方法により行うことができる。本実施形態において、レコメンド部400は、一の利用者が選曲したある楽曲のハーモニー歌唱のタイプと、利用者毎の利用者識別情報に紐付けられた複数のハーモニー歌唱のタイプのうち、数が多い方のタイプとに基づいて、他の利用者の利用者識別情報を特定する。 The user identification information of other users can be specified by various methods. In the present embodiment, the recommendation unit 400 has a number of the harmony singing types of a certain song selected by one user and the plurality of harmony singing types associated with the user identification information for each user. Identify the user identification information of other users based on the more type.

レコメンドは様々な方法により行うことができる。たとえば、レコメンド部400は、特定された利用者識別情報に対応する利用者の利用者IDを、ハーモニー歌唱を勧めるメッセージと共に、表示装置30やリモコン装置50の表示画面に表示させる。或いは、レコメンド部400は、利用者の利用者ID等を含んだ、ハーモニー歌唱を勧めるメッセージをスピーカ20から放音させる。また、レコメンド部400は、通信手段10bを介して利用者の所有する携帯端末にハーモニー歌唱を勧めるメッセージを送信することも可能である。この場合、利用者は、携帯端末で専用のアプリケーションソフトウェアを実行することにより、当該メッセージを確認することが可能となる。 Recommendations can be made in a variety of ways. For example, the recommendation unit 400 displays the user ID of the user corresponding to the specified user identification information on the display screen of the display device 30 or the remote control device 50 together with a message recommending harmony singing. Alternatively, the recommendation unit 400 emits a message recommending harmony singing, including the user ID of the user, from the speaker 20. Further, the recommendation unit 400 can also send a message recommending harmony singing to the mobile terminal owned by the user via the communication means 10b. In this case, the user can confirm the message by executing the dedicated application software on the mobile terminal.

ここで、利用者U1~利用者U3がカラオケ装置Kを利用するとする。データ記憶部100には、各利用者の利用者識別情報及び声紋データが記憶されているとする。また、記憶手段10aには、利用者U2及び利用者U3について、図3及び図4に示すテーブルが記憶されているとする。更に、各利用者は、カラオケ装置Kの利用にあたって、リモコン装置50を介して自己の利用者IDの入力を行っているとする。利用者U1~利用者U3は「複数の利用者」の一例である。 Here, it is assumed that the user U1 to the user U3 use the karaoke device K. It is assumed that the user identification information and the voiceprint data of each user are stored in the data storage unit 100. Further, it is assumed that the storage means 10a stores the tables shown in FIGS. 3 and 4 for the user U2 and the user U3. Further, it is assumed that each user inputs his / her own user ID via the remote control device 50 when using the karaoke device K. Users U1 to U3 are examples of "plural users".

利用者U1は、カラオケ装置Kのリモコン装置50を介し、たとえば、自己の利用者IDを選択した後、カラオケ歌唱を行う楽曲X1を選曲する。この場合、利用者U1と楽曲X1とが紐付けされることとなる。利用者U1は「一の利用者」の一例であり、楽曲X1は「ある楽曲」の一例である。 The user U1 selects, for example, a song X1 to sing karaoke after selecting his / her own user ID via the remote control device 50 of the karaoke device K. In this case, the user U1 and the music X1 are associated with each other. The user U1 is an example of "one user", and the music X1 is an example of "a certain music".

レコメンド部400は、利用者U1が選曲した楽曲X1の属性情報から、楽曲X1のハーモニー歌唱のタイプ(ここでは「上ハモタイプ」であるとする)を取得する。 The recommendation unit 400 acquires the type of harmony singing of the music X1 (here, it is assumed to be the "upper harmony type") from the attribute information of the music X1 selected by the user U1.

次に、レコメンド部400は、予め入力されている利用者U1~利用者U3の利用者IDと、楽曲X1を選曲する際に選択された利用者U1の利用者IDとを対比することで、カラオケ歌唱を行う利用者U1と、それ以外の利用者U2及び利用者U3とを特定する。利用者U2及び利用者U3は「他の利用者」の一例である。 Next, the recommendation unit 400 compares the user IDs of the users U1 to U3 that have been input in advance with the user IDs of the users U1 selected when selecting the music X1. The user U1 who sings karaoke and the other users U2 and U3 are specified. User U2 and user U3 are examples of "other users".

レコメンド部400は、利用者U2及び利用者U3毎の利用者識別情報に紐付けられた複数のハーモニー歌唱のタイプのうち、数が多い方のタイプを特定する。具体的に、レコメンド部400は、図3のテーブルを参照し、利用者U2の利用者IDに紐付けられた4つのハーモニー歌唱のタイプのうち、数が多い方の「上ハモタイプ」を特定する。また、レコメンド部400は、図4のテーブルを参照し、利用者U3の利用者IDに紐付けられた4つのハーモニー歌唱のタイプのうち、数が多い方の「下ハモタイプ」を特定する。 The recommendation unit 400 identifies the type with the larger number among the plurality of types of harmony singing associated with the user identification information for each user U2 and U3. Specifically, the recommendation unit 400 refers to the table of FIG. 3 and identifies the "upper harmony type" of the four types of harmony singing associated with the user ID of the user U2, whichever is larger. .. Further, the recommendation unit 400 refers to the table of FIG. 4 and identifies the "lower harmony type" which is the larger number among the four harmony singing types associated with the user ID of the user U3.

そして、レコメンド部400は、利用者U1が選曲した楽曲X1のハーモニー歌唱のタイプ(上ハモタイプ)と、利用者U2の利用者IDに紐付けられたハーモニー歌唱のタイプのうち、数が多い方のタイプ(上ハモタイプ)、及び利用者U3の利用者IDに紐付けられたハーモニー歌唱のタイプのうち、数が多い方のタイプ(下ハモタイプ)とを対比し、一致するハーモニー歌唱タイプ(上ハモタイプ)に紐付けられた利用者U2の利用者IDを特定する。 The recommendation section 400 is the one with the larger number of the harmony singing type (upper harmony type) of the song X1 selected by the user U1 and the harmony singing type associated with the user ID of the user U2. Of the types (upper harmony type) and the types of harmony singing associated with the user ID of the user U3, the type with the larger number (lower harmony type) is compared and the matching harmony singing type (upper harmony type). The user ID of the user U2 associated with is specified.

その後、レコメンド部400は、利用者U2に対して、楽曲X1のカラオケ歌唱に合わせたハーモニー歌唱をレコメンドする。なお、この例から明らかなように、記憶手段10aに記憶される情報としては、判定したハーモニー歌唱のタイプ、及び特定した利用者識別情報があればよく、楽曲IDは必須の情報ではない。 After that, the recommendation unit 400 recommends the harmony singing to the user U2 in accordance with the karaoke singing of the music X1. As is clear from this example, the information stored in the storage means 10a may include the determined harmony song type and the specified user identification information, and the music ID is not essential information.

==カラオケ装置の動作について==
次に、図5及び図6を参照して本実施形態におけるカラオケ装置Kの動作の具体例について述べる。図5は、ハーモニー歌唱のタイプを記憶させる場合のカラオケ装置Kの動作例を示すフローチャートである。この例において、データ記憶部100は、利用者を識別するための利用者識別情報と、当該利用者の声紋データとを紐付けて記憶しているとする。図6は、ハーモニー歌唱のレコメンドを行う場合のカラオケ装置Kの動作例を示すフローチャートである。
== About the operation of the karaoke device ==
Next, a specific example of the operation of the karaoke device K in the present embodiment will be described with reference to FIGS. 5 and 6. FIG. 5 is a flowchart showing an operation example of the karaoke device K in the case of storing the type of harmony singing. In this example, it is assumed that the data storage unit 100 stores the user identification information for identifying the user and the voiceprint data of the user in association with each other. FIG. 6 is a flowchart showing an operation example of the karaoke device K in the case of recommending harmony singing.

[ハーモニー歌唱のタイプの記憶]
利用者U1がマイク40aを介して楽曲X1のカラオケ歌唱を行うのと同時に、利用者U2がマイク40bを介して楽曲X1のカラオケ歌唱を行ったとする(複数の利用者によるカラオケ歌唱。ステップ10)。
[Memory of Harmony Singing Type]
It is assumed that the user U1 sings the karaoke of the music X1 via the microphone 40a, and at the same time, the user U2 sings the karaoke of the music X1 through the microphone 40b (karaoke singing by a plurality of users, step 10). ..

この場合、信号処理部200は、マイク40aまたはマイク40bから出力された歌唱音声信号に基づいて、ある利用者が行ったハーモニー歌唱のタイプを判定する(ハーモニー歌唱のタイプを判定。ステップ11)。ここでは利用者U2が「ある利用者(ハーモニー歌唱を行った利用者)」であるとする。 In this case, the signal processing unit 200 determines the type of harmony singing performed by a certain user based on the singing audio signal output from the microphone 40a or the microphone 40b (determines the type of harmony singing. Step 11). Here, it is assumed that the user U2 is a "certain user (a user who has performed harmony singing)".

また、信号処理部200は、ハーモニー歌唱を行った利用者U2の歌唱音声信号から声紋データを抽出し、当該声紋データに基づいて、利用者U2の利用者識別情報を、ハーモニー歌唱を行った利用者の利用者識別情報として特定する(ハーモニー歌唱を行った利用者の利用者識別情報を特定。ステップ12)。 Further, the signal processing unit 200 extracts voiceprint data from the singing voice signal of the user U2 who has performed harmony singing, and based on the voiceprint data, uses the user identification information of the user U2 for performing harmony singing. It is specified as the user identification information of the user (identify the user identification information of the user who sang the harmony. Step 12).

記憶処理部300は、ステップ11で判定されたハーモニー歌唱のタイプと、ステップ12で特定された利用者識別情報とを紐付けて記憶手段10aに記憶させる(ハーモニー歌唱のタイプ及び利用者識別情報を紐付けて記憶。ステップ13)。 The storage processing unit 300 associates the type of harmony singing determined in step 11 with the user identification information specified in step 12 and stores it in the storage means 10a (the type of harmony singing and the user identification information are stored). Link and memorize. Step 13).

[ハーモニー歌唱のレコメンド]
利用者U1~利用者U3がカラオケ装置Kを利用するとする。また、各利用者は、カラオケ装置Kの利用にあたって、リモコン装置50を介して自己の利用者IDの入力を行っているとする。
[Harmony Singing Recommendation]
It is assumed that the user U1 to the user U3 use the karaoke device K. Further, it is assumed that each user inputs his / her own user ID via the remote control device 50 when using the karaoke device K.

利用者U1は、カラオケ装置Kのリモコン装置50を介し、自己の利用者IDを選択した後、カラオケ歌唱を行う楽曲X1を選曲する(楽曲を選曲。ステップ20)。レコメンド部400は、利用者U1が選曲した楽曲X1の属性情報から、楽曲X1のハーモニー歌唱のタイプを取得する(選曲した楽曲のハーモニー歌唱のタイプを取得。ステップ21)。 The user U1 selects a song X1 to be sung by karaoke after selecting his / her own user ID via the remote control device 50 of the karaoke device K (selecting a song. Step 20). The recommendation unit 400 acquires the type of harmony singing of the song X1 from the attribute information of the song X1 selected by the user U1 (acquires the type of harmony singing of the selected song. Step 21).

次に、レコメンド部400は、予め入力されている利用者の利用者IDと、楽曲X1を選曲する際に選択された利用者U1の利用者IDとを対比することで、カラオケ歌唱を行う利用者U1と、他の利用者(利用者U2及び利用者U3)とを特定する(他の利用者を特定。ステップ22)。 Next, the recommendation unit 400 performs karaoke singing by comparing the user ID of the user input in advance with the user ID of the user U1 selected when selecting the music X1. The person U1 and other users (user U2 and user U3) are specified (identify other users. Step 22).

そして、レコメンド部400は、ステップ21で取得した楽曲X1のハーモニー歌唱のタイプと、ステップ22で特定した他の利用者毎の利用者IDに紐付けられたハーモニー歌唱のタイプに基づいて、たとえば、利用者U2の利用者IDを特定する(他の利用者の利用者IDを特定。ステップ23)。 Then, the recommendation unit 400 is based on, for example, the type of harmony singing of the music X1 acquired in step 21 and the type of harmony singing associated with the user ID for each other user specified in step 22. The user ID of the user U2 is specified (the user ID of another user is specified. Step 23).

その後、レコメンド部400は、ステップ23で特定した利用者IDに対応する利用者U2に対して、楽曲X1のカラオケ歌唱に合わせたハーモニー歌唱をレコメンドする(ハーモニー歌唱をレコメンド。ステップ24)。 After that, the recommendation unit 400 recommends a harmony song that matches the karaoke song of the music X1 to the user U2 corresponding to the user ID specified in step 23 (recommends the harmony song. Step 24).

以上から明らかなように、本実施形態に係るカラオケ装置Kは、利用者を識別するための利用者識別情報と、当該利用者の声紋データとを紐付けて記憶するデータ記憶部100と、楽曲のカラオケ歌唱を行った複数の利用者の歌唱音声信号に基づいて、ある利用者が行ったハーモニー歌唱のタイプを判定し、且つ当該ハーモニー歌唱に対応する歌唱音声信号から抽出した声紋データに基づいて、当該ある利用者の利用者識別情報を特定する信号処理部200と、判定されたハーモニー歌唱のタイプと、特定された利用者識別情報とを紐付けて記憶手段10aに記憶させる記憶処理部300と、複数の利用者の中の一の利用者が選曲したある楽曲のハーモニー歌唱のタイプと、記憶手段10aに記憶された、利用者のハーモニー歌唱のタイプとに基づいて、当該一の利用者以外の他の利用者の利用者識別情報を特定し、当該利用者識別情報に対応する他の利用者に対して、当該ある楽曲のカラオケ歌唱に合わせたハーモニー歌唱をレコメンドするレコメンド部400と、を有する。 As is clear from the above, the karaoke device K according to the present embodiment has a data storage unit 100 for storing user identification information for identifying a user and voice print data of the user in association with each other, and a music piece. Based on the singing voice signals of a plurality of users who performed the karaoke singing, the type of harmony singing performed by a certain user is determined, and based on the voice print data extracted from the singing voice signals corresponding to the harmony singing. , The signal processing unit 200 that identifies the user identification information of the certain user, the determined harmony singing type, and the specified user identification information are associated with each other and stored in the storage means 10a. Based on the type of harmony singing of a certain song selected by one of the plurality of users and the type of harmony singing of the user stored in the storage means 10a, the one user. The recommendation section 400 that identifies the user identification information of other users and recommends harmony singing that matches the karaoke singing of the certain song to other users corresponding to the user identification information. Has.

このようなカラオケ装置Kによれば、カラオケ歌唱される楽曲のハーモニー歌唱のタイプと共通するタイプのハーモニー歌唱を行った利用者に対して、ハーモニー歌唱をレコメンドすることができる。このようにハーモニー歌唱がレコメンドされることにより、他の利用者は、自らが得意とするタイプのハーモニー歌唱を行いやすくなる。また、カラオケ歌唱を行う利用者にとっても、自己のカラオケ歌唱に合ったハーモニー歌唱を聴くことでカラオケ歌唱をより楽しむことができる。すなわち、本実施形態に係るカラオケ装置Kによれば、利用者及び楽曲のハーモニー歌唱のタイプに応じて、適当な利用者に対しハーモニー歌唱をレコメンドすることができる。 According to such a karaoke device K, the harmony singing can be recommended to the user who has performed the harmony singing type common to the harmony singing type of the music to be karaoke sung. By recommending harmony singing in this way, it becomes easier for other users to perform the type of harmony singing that they are good at. In addition, users who sing karaoke can enjoy karaoke singing more by listening to harmony singing that matches their own karaoke singing. That is, according to the karaoke device K according to the present embodiment, the harmony singing can be recommended to an appropriate user according to the type of the harmony singing of the user and the music.

また、本実施形態に係るカラオケ装置Kにおけるレコメンド部400は、一の利用者が選曲したある楽曲のハーモニー歌唱のタイプと、利用者毎の利用者識別情報に紐付けられた複数のハーモニー歌唱のタイプのうち、数が多い方のタイプとに基づいて、他の利用者の利用者識別情報を特定する。ある利用者の利用者識別情報に紐付けられたハーモニー歌唱のタイプの数が多い場合、当該ある利用者はそのタイプのハーモニー歌唱を得意とする可能性が高い。すなわち、複数のハーモニー歌唱のタイプのうち、数が多い方のタイプを用いて利用者識別情報を特定することにより、ハーモニー歌唱のレコメンドをより適切に行うことができる。 Further, the recommendation unit 400 in the karaoke device K according to the present embodiment includes a type of harmony singing of a certain song selected by one user and a plurality of harmony singing associated with user identification information for each user. Identify the user identification information of other users based on the type with the larger number. If there are many types of harmony singing associated with a user's user identification information, the user is likely to be good at that type of harmony singing. That is, by specifying the user identification information using the type having the larger number among the plurality of types of harmony singing, the recommendation of harmony singing can be performed more appropriately.

<第2実施形態>
次に、図7及び図8を参照して、第2実施形態に係るカラオケ装置について説明する。本実施形態では、選曲した楽曲のハーモニー歌唱のタイプを判定する例について述べる。本実施形態において、記憶手段10aに記憶されている楽曲の属性情報には、楽曲のハーモニー歌唱のタイプは含まれない。第1実施形態と同様の構成については説明を省略する。
<Second Embodiment>
Next, the karaoke device according to the second embodiment will be described with reference to FIGS. 7 and 8. In this embodiment, an example of determining the type of harmony singing of the selected song will be described. In the present embodiment, the attribute information of the music stored in the storage means 10a does not include the type of harmony singing of the music. The description of the same configuration as that of the first embodiment will be omitted.

[制御手段]
図7に示すように、本実施形態においてはCPUがメモリに記憶されるプログラムを実行することにより、制御手段10eは、信号処理部200、記憶処理部300、レコメンド部400、及び判定部500として機能する。
[Control means]
As shown in FIG. 7, in the present embodiment, by executing a program stored in the memory by the CPU, the control means 10e serves as a signal processing unit 200, a storage processing unit 300, a recommendation unit 400, and a determination unit 500. Function.

(判定部)
判定部500は、一の利用者が、選曲したある楽曲に対応する自動ハーモニーをキャンセルした場合、当該ある楽曲の自動ハーモニーに対応するデータに基づき、選曲したある楽曲のハーモニー歌唱のタイプを判定する。
(Judgment unit)
When one user cancels the automatic harmony corresponding to the selected music, the determination unit 500 determines the type of harmony singing of the selected music based on the data corresponding to the automatic harmony of the music. ..

自動ハーモニーは、楽曲のカラオケ演奏に合わせてハーモニー歌唱を自動で再生する機能である。自動ハーモニーは、たとえば、リファレンスデータの各ピッチを所定値だけシフトして生成されるハーモニーデータ(たとえば特開2004-279786参照)、または予め録音されたハーモニー音声データに基づいて実行される。これらのデータは、たとえば、楽曲の楽曲データとして記憶手段10aに記憶されている。或いは、ハーモニーデータの場合、判定部500が、都度、リファレンスデータから生成してもよい。ハーモニーデータ及びハーモニー音声データは、「自動ハーモニーに対応するデータ」の一例である。 The automatic harmony is a function that automatically plays a harmony singing along with the karaoke performance of the music. The automatic harmony is executed, for example, based on the harmony data generated by shifting each pitch of the reference data by a predetermined value (see, for example, Japanese Patent Application Laid-Open No. 2004-279786), or the harmony voice data recorded in advance. These data are stored in the storage means 10a as music data of a musical piece, for example. Alternatively, in the case of harmony data, the determination unit 500 may generate from the reference data each time. Harmony data and harmony voice data are examples of "data corresponding to automatic harmony".

通常のカラオケ歌唱を行う利用者は、楽曲を選曲する際等、カラオケ歌唱を開始する前に、リモコン装置50を介して自動ハーモニーを使用するかキャンセルするかを決定することができる。たとえば、判定部500は、利用者によるリモコン装置50の表示画面に表示されるアイコンの選択に応じて、自動ハーモニーの使用またはキャンセルの判断を行う。 A user who performs normal karaoke singing can decide whether to use or cancel the automatic harmony via the remote control device 50 before starting the karaoke singing, such as when selecting a song. For example, the determination unit 500 determines whether to use or cancel the automatic harmony according to the user's selection of the icon displayed on the display screen of the remote controller device 50.

ハーモニー歌唱のタイプの判定は、様々な手法を用いることができる。たとえば、ハーモニーデータを用いる場合、判定部500は、シフトされたピッチを確認し、ピッチが+方向にシフトされていれば「上ハモタイプ」、ピッチが-方向にシフトされていれば「下ハモタイプ」であると判定する。また、ハーモニー音声データを用いる場合、判定部500は、ハーモニー音声データとリファレンスデータとのピッチの差を求め、ピッチの差が正の場合、「上ハモタイプ」であると判定し、ピッチの差が負の場合、「下ハモタイプ」であると判定する。 Various methods can be used to determine the type of harmony singing. For example, when using harmony data, the determination unit 500 confirms the shifted pitch, and if the pitch is shifted in the + direction, it is the "upper harmony type", and if the pitch is shifted in the-direction, it is the "lower harmony type". Is determined to be. Further, when the harmony voice data is used, the determination unit 500 obtains the difference in pitch between the harmony voice data and the reference data, and if the difference in pitch is positive, it determines that it is an "upper harmony type", and the difference in pitch is If it is negative, it is determined to be a "lower harmony type".

ここで、第1実施形態と同様、利用者U1~利用者U3がカラオケ装置Kを利用するとする。データ記憶部100には、各利用者の利用者識別情報及び声紋データが記憶されているとする。また、記憶手段10aには、利用者U2及び利用者U3については、図3及び図4に示すテーブルが記憶されているとする。更に、各利用者は、カラオケ装置Kの利用にあたって、リモコン装置50を介して自己の利用者IDの入力を行っているとする。 Here, it is assumed that the user U1 to the user U3 use the karaoke device K as in the first embodiment. It is assumed that the user identification information and voiceprint data of each user are stored in the data storage unit 100. Further, it is assumed that the storage means 10a stores the tables shown in FIGS. 3 and 4 for the user U2 and the user U3. Further, it is assumed that each user inputs his / her own user ID via the remote control device 50 when using the karaoke device K.

利用者U1は、カラオケ装置Kのリモコン装置50を介し、自己の利用者IDを選択した後、カラオケ歌唱を行う楽曲X1を選曲し、且つ自動ハーモニーをキャンセルしたとする。この場合、判定部500は、楽曲X1の自動ハーモニーに対応するデータに基づき、選曲したある楽曲のハーモニー歌唱のタイプを判定する。判定部500は、判定したハーモニー歌唱のタイプと、利用者U1の利用者IDを紐付けてレコメンド部400に出力する。 It is assumed that the user U1 selects the music X1 for karaoke singing after selecting his / her own user ID via the remote control device 50 of the karaoke device K, and cancels the automatic harmony. In this case, the determination unit 500 determines the type of harmony singing of a selected song based on the data corresponding to the automatic harmony of the song X1. The determination unit 500 associates the determined harmony singing type with the user ID of the user U1 and outputs the output to the recommendation unit 400.

(レコメンド部)
本実施形態に係るレコメンド部400は、判定されたある楽曲のハーモニー歌唱のタイプと、記憶手段10aに記憶された、利用者のハーモニー歌唱のタイプとに基づいて、他の利用者の利用者識別情報を特定する。
(Recommendation section)
The recommendation unit 400 according to the present embodiment identifies the user of another user based on the determined type of harmony singing of a certain song and the type of harmony singing of the user stored in the storage means 10a. Identify the information.

たとえば、判定部500から、利用者U1が選曲した楽曲X1のハーモニー歌唱のタイプ(上ハモタイプ)及び利用者U1の利用者IDが出力されたとする。 For example, it is assumed that the determination unit 500 outputs the harmony singing type (upper harmony type) of the music X1 selected by the user U1 and the user ID of the user U1.

この場合、レコメンド部400は、予め入力されている利用者U1~利用者U3の利用者IDと、出力された利用者U1の利用者IDとを対比することで、カラオケ歌唱を行う利用者U1と、それ以外の利用者U2及び利用者U3とを特定する。 In this case, the recommendation unit 400 compares the user IDs of the users U1 to U3 that have been input in advance with the user IDs of the user U1 that have been output, so that the user U1 who sings karaoke sings. And the other users U2 and U3 are specified.

レコメンド部400は、利用者U2及び利用者U3毎の利用者識別情報に紐付けられた複数のハーモニー歌唱のタイプのうち、数が多い方のタイプを特定する。具体的に、レコメンド部400は、図3のテーブルを参照し、利用者U2の利用者IDに紐付けられた4つのハーモニー歌唱のタイプのうち、数が多い方の「上ハモタイプ」を特定する。また、レコメンド部400は、図4のテーブルを参照し、利用者U3の利用者IDに紐付けられた4つのハーモニー歌唱のタイプのうち、数が多い方の「下ハモタイプ」を特定する。 The recommendation unit 400 identifies the type with the larger number among the plurality of types of harmony singing associated with the user identification information for each user U2 and U3. Specifically, the recommendation unit 400 refers to the table of FIG. 3 and identifies the "upper harmony type" of the four types of harmony singing associated with the user ID of the user U2, whichever is larger. .. Further, the recommendation unit 400 refers to the table of FIG. 4 and identifies the "lower harmony type" which is the larger number among the four harmony singing types associated with the user ID of the user U3.

そして、レコメンド部400は、判定部500から出力された楽曲X1のハーモニー歌唱のタイプ(上ハモタイプ)と、利用者U2の利用者IDに紐付けられたハーモニー歌唱のタイプのうち、数が多い方のタイプ(上ハモタイプ)、及び利用者U3の利用者IDに紐付けられたハーモニー歌唱のタイプのうち、数が多い方のタイプ(下ハモタイプ)とを対比し、一致するハーモニー歌唱タイプ(上ハモタイプ)に紐付けられた利用者U2の利用者IDを特定する。 The recommendation unit 400 is the one with the larger number of the harmony singing type (upper harmony type) of the music X1 output from the determination unit 500 and the harmony singing type associated with the user ID of the user U2. Of the types of harmony singing associated with the user ID of the user U3 (upper harmony type), the type with the larger number (lower harmony type) is compared with the matching harmony singing type (upper harmony type). ), The user ID of the user U2 is specified.

その後、レコメンド部400は、利用者U2に対して、楽曲X1のカラオケ歌唱に合わせたハーモニー歌唱をレコメンドする。なお、自動ハーモニーをキャンセルしない場合には、レコメンド部400はハーモニー歌唱のレコメンドを行わない。 After that, the recommendation unit 400 recommends the harmony singing to the user U2 in accordance with the karaoke singing of the music X1. If the automatic harmony is not canceled, the recommendation unit 400 does not recommend the harmony singing.

==カラオケ装置の動作について==
次に、図8を参照して本実施形態におけるカラオケ装置Kの動作の具体例について述べる。図8は、ハーモニー歌唱のレコメンドを行う場合のカラオケ装置Kの動作例を示すフローチャートである。なお、ハーモニー歌唱のタイプを記憶させる場合のカラオケ装置Kの動作は、第1実施形態と同様である。
== About the operation of the karaoke device ==
Next, a specific example of the operation of the karaoke device K in the present embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing an operation example of the karaoke device K when the harmony singing is recommended. The operation of the karaoke device K when storing the type of harmony singing is the same as that of the first embodiment.

[ハーモニー歌唱のレコメンド]
利用者U1~利用者U3がカラオケ装置Kを利用するとする。また、各利用者は、カラオケ装置Kの利用にあたって、リモコン装置50を介して自己の利用者IDの入力を行っているとする。
[Harmony Singing Recommendation]
It is assumed that the user U1 to the user U3 use the karaoke device K. Further, it is assumed that each user inputs his / her own user ID via the remote control device 50 when using the karaoke device K.

利用者U1は、カラオケ装置Kのリモコン装置50を介し、自己の利用者IDを選択した後、カラオケ歌唱を行う楽曲X1を選曲する(楽曲を選曲。ステップ30)。また、利用者U1は、カラオケ装置Kのリモコン装置50を介し、選曲した楽曲X1に対応する自動ハーモニーをキャンセルする(自動ハーモニーをキャンセル。ステップ31)。 The user U1 selects a song X1 for karaoke singing after selecting his / her own user ID via the remote control device 50 of the karaoke device K (selecting a song. Step 30). Further, the user U1 cancels the automatic harmony corresponding to the selected music X1 via the remote control device 50 of the karaoke device K (cancel the automatic harmony, step 31).

この場合、判定部500は、楽曲X1の自動ハーモニーに対応するデータに基づき、選曲した楽曲X1のハーモニー歌唱のタイプを判定する(選曲された楽曲のハーモニー歌唱のタイプを判定。ステップ32)。 In this case, the determination unit 500 determines the type of harmony singing of the selected song X1 based on the data corresponding to the automatic harmony of the song X1 (determines the type of harmony singing of the selected song. Step 32).

次に、レコメンド部400は、予め入力されている利用者の利用者IDと、楽曲X1を選曲する際に選択された利用者U1の利用者IDとを対比することで、カラオケ歌唱を行う利用者U1と、他の利用者(利用者U2及び利用者U3)とを特定する(他の利用者を特定。ステップ33)。 Next, the recommendation unit 400 performs karaoke singing by comparing the user ID of the user input in advance with the user ID of the user U1 selected when selecting the music X1. The person U1 and another user (user U2 and user U3) are specified (other users are specified. Step 33).

そして、レコメンド部400は、ステップ32で判定された楽曲X1のハーモニー歌唱のタイプと、ステップ33で特定した他の利用者毎の利用者IDに紐付けられたハーモニー歌唱のタイプに基づいて、たとえば、利用者U2の利用者IDを特定する(他の利用者の利用者IDを特定。ステップ34)。 Then, the recommendation unit 400 is based on, for example, the type of harmony singing of the music X1 determined in step 32 and the type of harmony singing associated with the user ID of each other user specified in step 33. , The user ID of the user U2 is specified (the user ID of another user is specified. Step 34).

その後、レコメンド部400は、ステップ34で特定した利用者IDに対応する利用者U2に対して、楽曲X1のカラオケ歌唱に合わせたハーモニー歌唱をレコメンドする(ハーモニー歌唱をレコメンド。ステップ35)。 After that, the recommendation unit 400 recommends a harmony song that matches the karaoke song of the music X1 to the user U2 corresponding to the user ID specified in step 34 (recommends the harmony song. Step 35).

以上から明らかなように、本実施形態に係るカラオケ装置Kは、一の利用者が、選曲したある楽曲に対応する自動ハーモニーをキャンセルした場合、当該ある楽曲の自動ハーモニーに対応するデータに基づき、選曲したある楽曲のハーモニー歌唱のタイプを判定する判定部500を有し、レコメンド部400は、判定されたある楽曲のハーモニー歌唱のタイプと、記憶手段10aに記憶された、利用者のハーモニー歌唱のタイプとに基づいて、他の利用者の利用者識別情報を特定する。このようなカラオケ装置Kによれば、自動ハーモニーのキャンセルに応じて、適当な利用者に対しハーモニー歌唱をレコメンドすることができる。 As is clear from the above, the karaoke device K according to the present embodiment is based on the data corresponding to the automatic harmony of the music when one user cancels the automatic harmony corresponding to the selected music. It has a determination unit 500 for determining the type of harmony singing of a selected song, and the recommendation unit 400 includes the type of harmony singing of the determined song and the harmony singing of the user stored in the storage means 10a. Identify the user identification information of other users based on the type. According to such a karaoke device K, the harmony singing can be recommended to an appropriate user in response to the cancellation of the automatic harmony.

<第3実施形態>
次に、図9~図13を参照して、第3実施形態に係るカラオケ装置について説明する。本実施形態では、ハーモニー歌唱の評価を用いて利用者識別情報を特定する例について述べる。第1実施形態または第2実施形態と同様の構成については説明を省略する。
<Third Embodiment>
Next, the karaoke device according to the third embodiment will be described with reference to FIGS. 9 to 13. In this embodiment, an example of specifying user identification information by using the evaluation of harmony singing will be described. The description of the same configuration as that of the first embodiment or the second embodiment will be omitted.

[制御手段]
図9に示すように、本実施形態においてはCPUがメモリに記憶されるプログラムを実行することにより、制御手段10eは、信号処理部200、記憶処理部300、レコメンド部400、及び評価部600として機能する。
[Control means]
As shown in FIG. 9, in the present embodiment, the CPU executes a program stored in the memory, so that the control means 10e serves as a signal processing unit 200, a storage processing unit 300, a recommendation unit 400, and an evaluation unit 600. Function.

(評価部)
評価部600は、ハーモニー歌唱を行った利用者の歌唱音声信号に基づいて、ハーモニー歌唱の巧拙を評価する。
(Evaluation Department)
The evaluation unit 600 evaluates the skill of the harmony singing based on the singing audio signal of the user who sang the harmony.

ハーモニー歌唱の巧拙の評価は、様々な方法で行うことができる。たとえば、評価部600は、ある楽曲のハーモニー歌唱を行った利用者の歌唱音声信号に含まれる各ノートのピッチと、当該ある楽曲の自動ハーモニーに対応するハーモニーデータに含まれる各ノートのピッチとを比較し、その差に応じて所定の採点値を付与することにより、評価を行うことができる。なお、この場合、記憶手段10aは、楽曲データとしてハーモニーデータを記憶している。 The skillful evaluation of harmony singing can be done in various ways. For example, the evaluation unit 600 determines the pitch of each note included in the singing audio signal of the user who sang the harmony of a certain song and the pitch of each note included in the harmony data corresponding to the automatic harmony of the certain song. Evaluation can be performed by comparing and giving a predetermined scoring value according to the difference. In this case, the storage means 10a stores harmony data as music data.

(記憶処理部)
本実施形態に係る憶処理部300は、判定されたハーモニー歌唱のタイプ、特定された利用者識別情報、及びハーモニー歌唱の評価を紐付けて記憶手段10aに記憶させる。
(Memory processing unit)
The memory processing unit 300 according to the present embodiment stores the determined type of harmony singing, the specified user identification information, and the evaluation of the harmony singing in association with each other in the storage means 10a.

たとえば、第1実施形態で述べたように、信号処理部200から利用者U2のハーモニー歌唱のタイプ、利用者U2の利用者識別情報ID***U2、及び楽曲X1の楽曲ID***X1が出力されたとする。また、評価部600から利用者U2のハーモニー歌唱の評価として採点値「90点」が出力されたとする。この場合、記憶処理部300は、それらを紐付けて記憶手段10aに記憶させる。 For example, as described in the first embodiment, the signal processing unit 200 tells the type of harmony singing of the user U2, the user identification information ID *** U2 of the user U2, and the music ID *** X1 of the music X1. Is output. Further, it is assumed that the evaluation unit 600 outputs a scoring value of "90 points" as an evaluation of the harmony singing of the user U2. In this case, the storage processing unit 300 associates them and stores them in the storage means 10a.

図10及び図11は、記憶手段10aに記憶された、利用者毎のハーモニー歌唱タイプ及び評価を示すテーブルである。具体的に、図10は、利用者U2の楽曲毎のハーモニー歌唱のタイプ及び評価を示し、図11は、利用者U3の楽曲毎のハーモニー歌唱のタイプ及び評価を示す。たとえば、図10のテーブルからは、利用者U2が、楽曲X1のカラオケ歌唱に合わせて、上ハモタイプのハーモニー歌唱を行い、その評価が「80点」であったことがわかる。一方、図11のテーブルからは、利用者U3が、楽曲X1のカラオケ歌唱に合わせて、下ハモタイプのハーモニー歌唱を行い、その評価が「80点」であったことがわかる。 10 and 11 are tables showing the harmony singing type and evaluation for each user stored in the storage means 10a. Specifically, FIG. 10 shows the type and evaluation of the harmony singing for each song of the user U2, and FIG. 11 shows the type and evaluation of the harmony singing for each song of the user U3. For example, from the table of FIG. 10, it can be seen that the user U2 sings the harmony of the upper harmony type in accordance with the karaoke singing of the music X1, and the evaluation is "80 points". On the other hand, from the table of FIG. 11, it can be seen that the user U3 sings the harmony of the lower harmony type in accordance with the karaoke singing of the music X1, and the evaluation is "80 points".

(レコメンド部)
本実施形態に係るレコメンド部400は、一の利用者が選曲したある楽曲のハーモニー歌唱のタイプと、利用者毎の利用者識別情報に紐付けられた複数のハーモニー歌唱のタイプのうち、ハーモニー歌唱の評価が高い方のタイプとに基づいて、他の利用者の利用者識別情報を特定する。
(Recommendation section)
The recommendation unit 400 according to the present embodiment is a harmony singing type among a harmony singing type of a certain song selected by one user and a plurality of harmony singing types linked to the user identification information for each user. Identify the user identification information of other users based on the type with the higher rating.

ここで、利用者U1~利用者U3がカラオケ装置Kを利用するとする。データ記憶部100には、各利用者の利用者識別情報及び声紋データが記憶されているとする。また、記憶手段10aには、利用者U2及び利用者U3については、図10及び図11に示すテーブルが記憶されているとする。更に、各利用者は、カラオケ装置Kの利用にあたって、リモコン装置50を介して自己の利用者IDの入力を行っているとする。 Here, it is assumed that the user U1 to the user U3 use the karaoke device K. It is assumed that the user identification information and voiceprint data of each user are stored in the data storage unit 100. Further, it is assumed that the storage means 10a stores the tables shown in FIGS. 10 and 11 for the user U2 and the user U3. Further, it is assumed that each user inputs his / her own user ID via the remote control device 50 when using the karaoke device K.

利用者U1は、カラオケ装置Kのリモコン装置50を介し、自己の利用者IDを選択した後、カラオケ歌唱を行う楽曲X1を選曲する。楽曲X1は「ある楽曲」の一例である。 The user U1 selects the music X1 for karaoke singing after selecting his / her own user ID via the remote control device 50 of the karaoke device K. Music X1 is an example of "a certain music".

レコメンド部400は、利用者U1が選曲した楽曲X1の属性情報から、楽曲X1のハーモニー歌唱のタイプ(ここでは「上ハモタイプ」であるとする)を取得する。 The recommendation unit 400 acquires the type of harmony singing of the music X1 (here, it is assumed to be the "upper harmony type") from the attribute information of the music X1 selected by the user U1.

次に、レコメンド部400は、予め入力されている利用者U1~利用者U3の利用者IDと、楽曲X1を選曲する際に入力された利用者U1の利用者IDとを対比することで、カラオケ歌唱を行う利用者U1と、それ以外の利用者U2及び利用者U3とを特定する。利用者U2及び利用者U3は「他の利用者」の一例である。 Next, the recommendation unit 400 compares the user IDs of the users U1 to U3 that have been input in advance with the user IDs of the user U1 that have been input when selecting the music X1. The user U1 who sings karaoke and the other users U2 and U3 are specified. User U2 and user U3 are examples of "other users".

レコメンド部400は、利用者U2及び利用者U3毎の利用者識別情報に紐付けられた複数のハーモニー歌唱のタイプのうち、ハーモニー歌唱の評価が高い方のタイプを特定する。具体的に、図10のテーブルによれば、利用者U2の利用者IDに紐付けられた4つのハーモニー歌唱のタイプの評価について、上ハモタイプの平均点は、73.3点であり、下ハモタイプの平均点は、65点である。この場合、レコメンド部400は、平均点が高い方の「上ハモタイプ」を特定する。また、図11のテーブルによれば、利用者U3の利用者IDに紐付けられた4つのハーモニー歌唱のタイプの評価について、上ハモタイプの平均点は、68点であり、下ハモタイプの平均点は、86.3点である。この場合、レコメンド部400は、平均点が高い方の「下ハモタイプ」を特定する。 The recommendation unit 400 identifies the type having a higher evaluation of the harmony singing among the plurality of types of the harmony singing associated with the user identification information for each user U2 and the user U3. Specifically, according to the table of FIG. 10, regarding the evaluation of the four harmony singing types associated with the user ID of the user U2, the average score of the upper harmony type is 73.3 points, and the lower harmony type. The average score of is 65 points. In this case, the recommendation unit 400 specifies the "upper harmony type" having the higher average score. Further, according to the table of FIG. 11, regarding the evaluation of the four harmony singing types associated with the user ID of the user U3, the average score of the upper harmony type is 68 points, and the average score of the lower harmony type is 68 points. , 86.3 points. In this case, the recommendation unit 400 specifies the "lower harmony type" having the higher average score.

なお、レコメンド部400は、利用者の利用者IDに紐付けられたハーモニー歌唱のタイプの評価について、最も点数が高いタイプを特定してもよい。たとえば、図10のテーブルによれば、レコメンド部400は、最も点数が高い「80点」に対応する「上ハモタイプ」を特定することができる。 The recommendation unit 400 may specify the type with the highest score for the evaluation of the type of harmony singing associated with the user ID of the user. For example, according to the table of FIG. 10, the recommendation unit 400 can specify the "upper harmony type" corresponding to the "80 points" having the highest score.

そして、レコメンド部400は、利用者U1が選曲した楽曲X1のハーモニー歌唱のタイプ(上ハモタイプ)と、利用者U2の利用者IDに紐付けられたハーモニー歌唱のタイプのうち、評価が高い方のタイプ(上ハモタイプ)、及び利用者U3の利用者IDに紐付けられたハーモニー歌唱のタイプのうち、評価が高い方のタイプ(下ハモタイプ)とを対比し、一致するハーモニー歌唱タイプ(上ハモタイプ)に紐付けられた利用者U2の利用者IDを特定する。 The recommendation section 400 is the one with the higher evaluation among the type of harmony singing of the song X1 selected by the user U1 (upper harmony type) and the type of harmony singing associated with the user ID of the user U2. Of the types (upper harmony type) and the types of harmony singing associated with the user ID of the user U3, the type with the higher evaluation (lower harmony type) is compared and the matching harmony singing type (upper harmony type). The user ID of the user U2 associated with is specified.

その後、レコメンド部400は、利用者U2に対して、楽曲X1のカラオケ歌唱に合わせたハーモニー歌唱をレコメンドする。 After that, the recommendation unit 400 recommends the harmony singing to the user U2 in accordance with the karaoke singing of the music X1.

==カラオケ装置の動作について==
次に、図12及び図13を参照して本実施形態におけるカラオケ装置Kの動作の具体例について述べる。図12は、ハーモニー歌唱のタイプを記憶させる場合のカラオケ装置Kの動作例を示すフローチャートである。この例において、データ記憶部100は、利用者を識別するための利用者識別情報と、当該利用者の声紋データとを紐付けて記憶しているとする。図13は、ハーモニー歌唱のレコメンドを行う場合のカラオケ装置Kの動作例を示すフローチャートである。
== About the operation of the karaoke device ==
Next, a specific example of the operation of the karaoke device K in the present embodiment will be described with reference to FIGS. 12 and 13. FIG. 12 is a flowchart showing an operation example of the karaoke device K in the case of storing the type of harmony singing. In this example, it is assumed that the data storage unit 100 stores the user identification information for identifying the user and the voiceprint data of the user in association with each other. FIG. 13 is a flowchart showing an operation example of the karaoke device K when the harmony singing is recommended.

[ハーモニー歌唱のタイプの記憶]
ステップ40~ステップ42は、第1実施形態のステップ10~12と同様である。
[Memory of Harmony Singing Type]
Steps 40 to 42 are the same as steps 10 to 12 of the first embodiment.

評価部600は、ハーモニー歌唱を行った利用者U2の歌唱音声信号に基づいて、ハーモニー歌唱の巧拙を評価する(ハーモニー歌唱を評価。ステップ43)。 The evaluation unit 600 evaluates the skill of the harmony singing based on the singing audio signal of the user U2 who sang the harmony (evaluating the harmony singing, step 43).

記憶処理部300は、ステップ41で判定されたハーモニー歌唱のタイプ、ステップ42で特定された利用者識別情報、及びステップ43で得られたハーモニー歌唱の評価を紐付けて記憶手段10aに記憶させる(ハーモニー歌唱のタイプ、利用者識別情報、ハーモニー歌唱の評価を紐付けて記憶。ステップ44)。 The storage processing unit 300 stores the type of harmony singing determined in step 41, the user identification information specified in step 42, and the evaluation of the harmony singing obtained in step 43 in association with each other in the storage means 10a ( Memorize the type of harmony singing, user identification information, and evaluation of harmony singing in association with each other. Step 44).

[ハーモニー歌唱のレコメンド]
ステップ50~ステップ52は、第1実施形態のステップ20~22と同様である。
[Harmony Singing Recommendation]
Steps 50 to 52 are the same as steps 20 to 22 of the first embodiment.

レコメンド部400は、ステップ51で取得した楽曲X1のハーモニー歌唱のタイプと、利用者毎の利用者識別情報に紐付けられた複数のハーモニー歌唱のタイプのうち、ハーモニー歌唱の評価が高い方のタイプとに基づいて、たとえば、利用者U2の利用者IDを特定する(ハーモニー歌唱の評価に基づいて、他の利用者の利用者IDを特定。ステップ53)。 The recommendation section 400 is the type of the harmony singing of the music X1 acquired in step 51 and the type of the plurality of harmony singing associated with the user identification information for each user, whichever has the higher evaluation of the harmony singing. Based on, for example, the user ID of the user U2 is specified (the user ID of another user is specified based on the evaluation of the harmony song. Step 53).

その後、レコメンド部400は、ステップ53で特定した利用者IDに対応する利用者U2に対して、楽曲X1のカラオケ歌唱に合わせたハーモニー歌唱をレコメンドする(ハーモニー歌唱をレコメンド。ステップ54)。 After that, the recommendation unit 400 recommends a harmony song that matches the karaoke song of the music X1 to the user U2 corresponding to the user ID specified in step 53 (recommends the harmony song. Step 54).

以上から明らかなように、本実施形態に係るカラオケ装置Kは、ハーモニー歌唱を行った利用者の歌唱音声信号に基づいて、ハーモニー歌唱の巧拙を評価する評価部600を有し、記憶処理部300は、判定されたハーモニー歌唱のタイプ、特定された利用者識別情報、及びハーモニー歌唱の評価を紐付けて記憶手段10aに記憶させ、レコメンド部400は、一の利用者が選曲したある楽曲のハーモニー歌唱のタイプと、利用者毎の利用者識別情報に紐付けられた複数のハーモニー歌唱のタイプのうち、ハーモニー歌唱の評価が高い方のタイプとに基づいて、他の利用者の利用者識別情報を特定する。ある利用者の利用者識別情報に紐付けられた特定のハーモニー歌唱のタイプの評価が高い場合、当該ある利用者はそのタイプのハーモニー歌唱を得意とする可能性が高い。すなわち、複数のハーモニー歌唱のタイプのうち、評価が高い方のタイプを用いて利用者識別情報を特定することにより、ハーモニー歌唱のレコメンドをより適切に行うことができる。 As is clear from the above, the karaoke apparatus K according to the present embodiment has an evaluation unit 600 for evaluating the skill of harmony singing based on the singing voice signal of the user who performed the harmony singing, and the storage processing unit 300. Is stored in the storage means 10a by associating the determined type of harmony singing, the identified user identification information, and the evaluation of the harmony singing, and the recommendation unit 400 is the harmony of a certain song selected by one user. User identification information of other users based on the type of singing and the type of multiple harmony singing associated with the user identification information for each user, whichever has the highest evaluation of harmony singing. To identify. If a particular type of harmony singing associated with a user's user identification information is highly rated, then the user is likely to be good at that type of harmony singing. That is, by specifying the user identification information using the type having the higher evaluation among the plurality of types of harmony singing, the recommendation of harmony singing can be performed more appropriately.

<その他>
上記実施形態は、例として提示したものであり、発明の範囲を限定するものではない。上記の構成は、適宜組み合わせて実施することが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
<Others>
The above embodiment is presented as an example and does not limit the scope of the invention. The above configurations can be implemented in combination as appropriate, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The above-described embodiments and variations thereof are included in the scope of the invention described in the claims and the equivalent scope thereof, as are included in the scope and gist of the invention.

100 データ記憶部
200 信号処理部
300 記憶処理部
400 レコメンド部
500 判定部
600 評価部
K カラオケ装置
100 Data storage unit 200 Signal processing unit 300 Storage processing unit 400 Recommendation unit 500 Judgment unit 600 Evaluation unit K Karaoke device

Claims (4)

利用者を識別するための利用者識別情報と、当該利用者の声紋データとを紐付けて記憶するデータ記憶部と、
楽曲のカラオケ歌唱を行った複数の利用者の歌唱音声信号に基づいて、ある利用者が行ったハーモニー歌唱のタイプを判定し、且つ当該ハーモニー歌唱に対応する歌唱音声信号から抽出した声紋データに基づいて、当該ある利用者の利用者識別情報を特定する信号処理部と、
判定された前記ハーモニー歌唱のタイプと、特定された前記利用者識別情報とを紐付けて記憶手段に記憶させる記憶処理部と、
複数の利用者の中の一の利用者が選曲したある楽曲のハーモニー歌唱のタイプと、前記記憶手段に記憶された、利用者のハーモニー歌唱のタイプとに基づいて、当該一の利用者以外の他の利用者の利用者識別情報を特定し、当該利用者識別情報に対応する他の利用者に対して、当該ある楽曲のカラオケ歌唱に合わせたハーモニー歌唱をレコメンドするレコメンド部と、
を有するカラオケ装置。
A data storage unit that stores user identification information for identifying a user in association with the voiceprint data of the user, and a data storage unit.
Based on the singing voice signals of a plurality of users who have performed karaoke singing of a song, the type of harmony singing performed by a certain user is determined, and based on the voice pattern data extracted from the singing voice signals corresponding to the harmony singing. And the signal processing unit that identifies the user identification information of the certain user,
A storage processing unit that associates the determined type of harmony singing with the specified user identification information and stores it in a storage means.
Based on the type of harmony singing of a song selected by one of the plurality of users and the type of harmony singing of the user stored in the storage means, other than the one user. A recommendation section that identifies the user identification information of other users and recommends harmony singing that matches the karaoke singing of the song to other users corresponding to the user identification information.
Karaoke device with.
前記一の利用者が、選曲したある楽曲に対応する自動ハーモニーをキャンセルした場合、当該ある楽曲の自動ハーモニーに対応するデータに基づき、選曲したある楽曲のハーモニー歌唱のタイプを判定する判定部を有し、
前記レコメンド部は、判定されたある楽曲のハーモニー歌唱のタイプと、前記記憶手段に記憶された、前記利用者のハーモニー歌唱のタイプとに基づいて、前記他の利用者の利用者識別情報を特定することを特徴とする請求項1記載のカラオケ装置。
When the above-mentioned one user cancels the automatic harmony corresponding to the selected song, it has a determination unit for determining the type of harmony singing of the selected song based on the data corresponding to the automatic harmony of the certain song. death,
The recommendation unit identifies the user identification information of the other user based on the determined type of harmony singing of a certain song and the type of harmony singing of the user stored in the storage means. The karaoke device according to claim 1, wherein the karaoke device is characterized by the above.
前記レコメンド部は、一の利用者が選曲したある楽曲のハーモニー歌唱のタイプと、前記利用者毎の利用者識別情報に紐付けられた複数のハーモニー歌唱のタイプのうち、数が多い方のタイプとに基づいて、前記他の利用者の利用者識別情報を特定することを特徴とする請求項1または2記載のカラオケ装置。 The recommendation section is the type of the harmony singing of a certain song selected by one user and the type of the plurality of harmony singing associated with the user identification information for each user, whichever is larger. The karaoke device according to claim 1 or 2, wherein the user identification information of the other user is specified based on the above. 前記ハーモニー歌唱を行った利用者の歌唱音声信号に基づいて、ハーモニー歌唱の巧拙を評価する評価部を有し、
前記記憶処理部は、判定された前記ハーモニー歌唱のタイプ、特定された前記利用者識別情報、及び前記ハーモニー歌唱の評価を紐付けて前記記憶手段に記憶させ、
前記レコメンド部は、一の利用者が選曲したある楽曲のハーモニー歌唱のタイプと、前記利用者毎の利用者識別情報に紐付けられた複数のハーモニー歌唱のタイプのうち、前記ハーモニー歌唱の評価が高い方のタイプとに基づいて、前記他の利用者の利用者識別情報を特定することを特徴とする請求項1または2記載のカラオケ装置。
It has an evaluation unit that evaluates the skill of harmony singing based on the singing audio signal of the user who performed the harmony singing.
The storage processing unit stores the determined type of the harmony singing, the identified user identification information, and the evaluation of the harmony singing in the storage means in association with each other.
In the recommendation section, the evaluation of the harmony singing is performed among the type of harmony singing of a certain song selected by one user and the type of a plurality of harmony singing associated with the user identification information for each user. The karaoke device according to claim 1 or 2, wherein the user identification information of the other user is specified based on the higher type.
JP2020177519A 2020-10-22 2020-10-22 Karaoke equipment Active JP7478077B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020177519A JP7478077B2 (en) 2020-10-22 2020-10-22 Karaoke equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020177519A JP7478077B2 (en) 2020-10-22 2020-10-22 Karaoke equipment

Publications (2)

Publication Number Publication Date
JP2022068700A true JP2022068700A (en) 2022-05-10
JP7478077B2 JP7478077B2 (en) 2024-05-02

Family

ID=81459954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020177519A Active JP7478077B2 (en) 2020-10-22 2020-10-22 Karaoke equipment

Country Status (1)

Country Link
JP (1) JP7478077B2 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001013964A (en) 1999-06-25 2001-01-19 Yamaha Corp Playing device and recording medium therefor
JP2004102147A (en) 2002-09-12 2004-04-02 Taito Corp Karaoke scoring device having melody arrangement grading function
JP4204941B2 (en) 2003-09-30 2009-01-07 ヤマハ株式会社 Karaoke equipment
JP4423235B2 (en) 2005-05-31 2010-03-03 株式会社第一興商 Preferred key setting system for each music by user
JP4447545B2 (en) 2005-10-31 2010-04-07 株式会社第一興商 Karaoke-related information processing system that recommends double-singing partners
JP2008164966A (en) 2006-12-28 2008-07-17 Daiichikosho Co Ltd Karaoke system equipped with singing scoring function
JP5446150B2 (en) 2008-07-09 2014-03-19 ヤマハ株式会社 Electronic music equipment
JP2010078926A (en) 2008-09-26 2010-04-08 Daiichikosho Co Ltd Duet partner extracting system
JP7161301B2 (en) 2018-03-29 2022-10-26 株式会社第一興商 karaoke system

Also Published As

Publication number Publication date
JP7478077B2 (en) 2024-05-02

Similar Documents

Publication Publication Date Title
JP6763334B2 (en) Music selection device, karaoke system, and music selection program
JP6708537B2 (en) Karaoke system
JP6937675B2 (en) Karaoke equipment
JP2022068700A (en) Karaoke device
JP6920135B2 (en) Karaoke equipment
JP6954780B2 (en) Karaoke equipment
JP6774844B2 (en) Karaoke system
JP2017045018A (en) Karaoke device and karaoke program
JP2020134901A (en) Karaoke system
JP6876170B1 (en) Karaoke equipment
JP7299810B2 (en) karaoke device
JP6842356B2 (en) Karaoke equipment
JP7082549B2 (en) Karaoke equipment
JP7465194B2 (en) Karaoke equipment
JP7327437B2 (en) karaoke device
JP5556821B2 (en) Music performance device and music performance program
JP7281386B2 (en) karaoke device
JP6774842B2 (en) Karaoke equipment
JP6774888B2 (en) Karaoke equipment
JP6594196B2 (en) Karaoke equipment
JP2023064385A (en) karaoke device
JP5500214B2 (en) Music score display output device and music score display output program
JP4299747B2 (en) Electronic sampler
JP2023033753A (en) karaoke device
JP2023162958A (en) Karaoke device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240419

R150 Certificate of patent or registration of utility model

Ref document number: 7478077

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150