JP2013182045A - Karaoke server device and information notification method - Google Patents

Karaoke server device and information notification method Download PDF

Info

Publication number
JP2013182045A
JP2013182045A JP2012044159A JP2012044159A JP2013182045A JP 2013182045 A JP2013182045 A JP 2013182045A JP 2012044159 A JP2012044159 A JP 2012044159A JP 2012044159 A JP2012044159 A JP 2012044159A JP 2013182045 A JP2013182045 A JP 2013182045A
Authority
JP
Japan
Prior art keywords
analysis
information
singing
karaoke
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012044159A
Other languages
Japanese (ja)
Other versions
JP5754395B2 (en
Inventor
Yasushi Yanagihara
靖司 柳原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2012044159A priority Critical patent/JP5754395B2/en
Publication of JP2013182045A publication Critical patent/JP2013182045A/en
Application granted granted Critical
Publication of JP5754395B2 publication Critical patent/JP5754395B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique for supporting the motivation and willingness to practice the karaoke.SOLUTION: An SNS server 3 stores analysis data (results from precise analysis of singing skill levels of karaoke) of lyrics transmitted from terminals such as karaoke players 4 and smartphones 6, into a user database. In response to a request, from a terminal (a smartphone 6 or a personal computer 7) of a user logging in to a karaoke member service, for introduction of a group of users whose singing skill levels are similar to his or her singing skill level, the SNS server 3 generates group information including a group list of users whose analysis data of singing is similar to that of the user of a request source, on the basis of analysis data of singing stored in the user database. The group information includes information for notifying services allowing information exchange within the group. Then, the SNS server 3 replies the generated group information to the terminal of a request source.

Description

本発明は、カラオケの歌唱音声を分析した結果に基づいて、分析結果のパターンが類似するユーザ同士をグループ化した情報を端末装置に通知するカラオケサービス用のサーバ装置に関する。   The present invention relates to a server device for a karaoke service that notifies a terminal device of information obtained by grouping users having similar analysis result patterns based on a result of analyzing karaoke singing voice.

従来、カラオケシステムには、歌唱者の歌唱を評価するための採点機能が搭載されている。この種の採点機能では、採点基準となるガイドメロディ(メロディーライン)に対する歌唱音声の音程のずれが歌唱区間ごとに算出される。さらには、歌唱音声から「しゃくり」や「ビブラート」といった特殊な歌唱技巧が検出され評価に加えられる。   Conventionally, a karaoke system is equipped with a scoring function for evaluating a singer's singing. In this type of scoring function, the pitch deviation of the singing voice with respect to the guide melody (melody line) serving as a scoring standard is calculated for each singing section. Furthermore, special singing techniques such as “shakuri” and “vibrato” are detected from the singing voice and added to the evaluation.

一般的には、歌唱者は、歌唱後にカラオケシステムから提示される数値情報としての採点結果をみることができる。あるいは、演奏区間ごとの音程のずれの度合や歌唱技巧の様子を視覚化したグラフをみることもできる。これらの採点結果を参考にして、歌唱者が自身の歌唱方法を修正しながら歌唱の練習をすることができるようになっている。   Generally, the singer can see the scoring results as numerical information presented from the karaoke system after singing. Alternatively, a graph that visualizes the degree of pitch shift for each performance section and the state of singing skill can be seen. With reference to these scoring results, singers can practice singing while modifying their singing methods.

また、特許文献1には、楽曲のフレーズごとに事前にアドバイス情報を対応付けしておき、楽曲の演奏中に当該アドバイス情報を適宜提示しながら練習者の歌唱を採点して採点結果を表示する技術が開示されている。   Further, in Patent Document 1, advice information is associated in advance for each phrase of a music piece, and a practitioner's song is scored while appropriately presenting the advice information during the performance of the music piece, and a scoring result is displayed. Technology is disclosed.

特開2002−351477号公報JP 2002-351477 A

従来技術にみられる歌唱の練習方法では、カラオケ演奏機器に搭載されたアルゴリズムによって歌唱音声を定量的に採点した結果を提示することで、歌唱の上達度合を練習者に把握させている。そして、練習者は、自身の歌唱の上達度合に応じて歌唱の練習を継続して行う。また、特許文献1に記載のカラオケ装置は、楽曲の特定フレーズ毎に事前に決められたアドバイス情報を紐付けておき、楽曲の演奏過程において適宜当該アドバイス情報を提示する。練習者は、このアドバイス情報を自身の歌唱方法に反映させて練習を行う。   In the singing practice method found in the prior art, the practitioner is made aware of the progress of the singing by presenting the result of quantitatively singing the singing voice by the algorithm installed in the karaoke performance device. Then, the practitioner continues to practice singing according to the progress of his / her singing. Moreover, the karaoke apparatus described in Patent Document 1 associates advice information determined in advance for each specific phrase of a music piece, and presents the advice information as appropriate in the performance process of the music piece. The practitioner reflects the advice information in his singing method and practice.

これらの歌唱の練習方法は、業務用のカラオケ装置が設置されたカラオケボックス等で練習者が独力で練習作業を行うことを想定したものである。しかしながら、このような独力による練習方法は、練習ための動機付けや意欲の維持といった観点から、長期間練習を継続させることが難しい。   These singing practice methods are based on the assumption that a practitioner performs practice work by himself / herself in a karaoke box or the like in which a commercial karaoke apparatus is installed. However, it is difficult for such an independent practice method to continue the practice for a long time from the viewpoint of motivation for practice and maintenance of motivation.

本発明は、上記課題を解決するためになされたものである。その目的は、歌唱の練習ための動機付けや意欲向上を支援するための技術を提供することである。   The present invention has been made to solve the above problems. Its purpose is to provide technology to support motivation and motivation for singing practice.

上記目的を達成するためになされた請求項1に記載の発明は、複数の端末装置とネットワークを介して通信を行うカラオケサーバ装置に関する。本発明のカラオケサーバ装置は、取得手段と、記憶手段と、グループ化手段と、送信手段とを備えることを特徴とする。   The invention according to claim 1 made to achieve the above object relates to a karaoke server apparatus that communicates with a plurality of terminal apparatuses via a network. The karaoke server apparatus according to the present invention includes an acquisition unit, a storage unit, a grouping unit, and a transmission unit.

取得手段は、カラオケの歌唱について、音程の正確さ又は歌唱技巧の少なくとも何れかの指標に基づいて分析された分析結果を示す分析情報と、カラオケの歌唱を行ったユーザを識別する識別情報とを取得する。記憶手段は、取得手段によって取得された分析情報と識別情報とを対応付けて記憶する。グループ化手段は、記憶手段に記憶される分析情報の中から、音程の正確さ又は歌唱技巧の少なくとも何れかの分析結果が類似する分析情報に対応する識別情報をグループ化する。送信手段は、グループ化手段によってグループ化された識別情報を用いて、複数の端末の何れかによりグループ内で情報交換が可能なサービスを通知するためのグループ情報を、端末装置に対して送信する。   The acquisition means includes, for karaoke singing, analysis information indicating an analysis result analyzed based on at least one of pitch accuracy or singing skill, and identification information for identifying a user who performed the karaoke singing get. The storage means stores the analysis information and identification information acquired by the acquisition means in association with each other. The grouping means groups identification information corresponding to analysis information having a similar analysis result of at least one of pitch accuracy and singing skill from the analysis information stored in the storage means. The transmission means transmits group information for notifying a service capable of exchanging information in the group by any of a plurality of terminals to the terminal device using the identification information grouped by the grouping means. .

本発明によれば、蓄積した様々なユーザの歌唱の分析情報に基づき、音程の正確さや歌唱技巧の分析結果が類似するユーザ同士で情報交換が可能なサービスに関するグループ情報を、ユーザが利用する情報端末に対して送信することができる。このグループ情報を情報端末を通じてユーザに閲覧してもらうことで、歌唱の練習をするユーザと類似の練習課題を有する他のユーザを紹介することができる。これにより、歌唱を練習するユーザは、上達のための練習課題を共有する仲間を発見でき、情報交換をすることが可能になる。その結果として、ユーザの独力による練習作業では難しかった、練習ための動機付けや意欲向上を促し、歌唱の上達効率を向上させる効果が得られる。   According to the present invention, based on the accumulated analysis information of singing of various users, information on which a user uses group information related to services that can exchange information between users with similar accuracy of pitch and analysis of singing skill Can be sent to the terminal. By having the user browse this group information through the information terminal, it is possible to introduce other users who have similar exercises to the user who practice singing. Thereby, the user who practices singing can discover the friend who shares the exercise subject for improvement, and it becomes possible to exchange information. As a result, the motivation and motivation for practicing, which has been difficult in practice work by the user's own power, are promoted, and the effect of improving the efficiency of singing can be obtained.

さらに、歌唱を練習するユーザにとって、より強く共感できるグループの仲間を紹介するための工夫として、請求項2に記載のように構成することが考えられる。すなわち、取得手段が取得する分析情報には、歌唱された楽曲を識別するための楽曲識別情報が含まれている。グループ化手段は、記憶手段に記憶される分析情報の中から、楽曲識別情報に対応する楽曲、楽曲のジャンル、又は楽曲のアーティストの少なくとも何れかが一致する分析情報を特定し、特定された分析情報の中から、分析情報で示される音程の正確さ又は歌唱技巧の少なくとも何れかの分析結果が類似する分析情報に対応する識別情報をグループ化する。   Furthermore, as a device for introducing a group member who can sympathize more strongly for a user who is practicing singing, it may be configured as described in claim 2. That is, the analysis information acquired by the acquisition means includes music identification information for identifying the sung music. The grouping means identifies analysis information in which at least one of the music corresponding to the music identification information, the music genre, or the music artist matches from the analysis information stored in the storage means, and the identified analysis From the information, identification information corresponding to analysis information having similar analysis results of at least one of the accuracy of the pitch indicated by the analysis information and the singing skill is grouped.

このように構成することで、歌唱した楽曲やジャンル、アーティストといった観点において共通の趣味や嗜好を持つグループの仲間をユーザに紹介することができる。そのため、紹介されたグループの仲間との間で共感が形成されやすくなる。その結果として、歌唱の練習ための動機付けや意欲向上を効果的に促すことができる。   By configuring in this way, it is possible to introduce users of a group having a common hobby and preference from the viewpoint of the sung music, genre, and artist. Therefore, empathy is likely to be formed between the introduced group members. As a result, it is possible to effectively promote motivation and motivation for singing practice.

あるいは、歌唱の分析結果の類似性をより詳細に判断するための工夫として、請求項3に記載のように構成することが考えられる。すなわち、取得手段が取得する分析情報には、歌唱された楽曲を所定の間隔で区切った分析区間ごとに、音程の正確さ又は歌唱技巧の少なくとも何れかの指標に基づいて分析された分析結果を示す情報が含まれている。グループ化手段は、記憶手段に記憶される分析情報の中から、分析区間ごとの音程の正確さ又は歌唱技巧の少なくとも何れかの分析結果が類似する分析情報に対応する識別情報をグループ化する。   Alternatively, as a device for judging the similarity of the singing analysis results in more detail, it is conceivable to configure as described in claim 3. That is, the analysis information acquired by the acquisition means includes the analysis result analyzed based on at least one of the accuracy of the pitch or the singing skill for each analysis section obtained by dividing the sung song at a predetermined interval. Contains information to indicate. The grouping means groups identification information corresponding to analysis information having similar analysis results of at least one of pitch accuracy and singing skill for each analysis section from analysis information stored in the storage means.

このように構成することで、歌唱の分析結果の類似性を所定間隔の分析区間ごとに詳細に判断できる。その結果、分析区間ごとに変化するユーザの歌唱の性質までも考慮した態様にて、分析結果の類似するユーザをグループ化することができる。   By comprising in this way, the similarity of the analysis result of a song can be judged in detail for every analysis area of a predetermined interval. As a result, users with similar analysis results can be grouped in a manner that also considers the nature of the user's singing that changes for each analysis section.

一方、歌唱の分析が行われる分析区間は、楽曲のリフレイン形式で決められた演奏区間とすることが例示される。リフレイン形式とは、前語り的な旋律の前半部分と、主だった旋律の後半部分との繰返しで構成される楽曲の形式である。日本の歌謡曲におけるリフレイン形式を例に挙げると、AメロやBメロと呼ばれる前半部分と、サビと呼ばれる後半部分との繰返しで楽曲が構成されているのが一般的である。ただし、楽曲ごとにリフレイン形式の構成が異なる場合もある。   On the other hand, the analysis section in which the singing analysis is performed is exemplified as a performance section determined in the refrain format of the music. The refrain form is a form of music composed of repetitions of the first half of a narrative melody and the latter half of the main melody. Taking the refrain form in Japanese pop songs as an example, music is generally composed of repetition of the first half part called A melody and B melody and the second half part called Sabi. However, the composition of the refrain format may be different for each song.

そこで、請求項4に記載のように構成するとよい。すなわち、取得手段が取得する分析情報には、歌唱された楽曲のリフレイン形式に相当する分析区間ごとの分析結果を示す情報が含まれている。グループ化手段は、記憶手段に記憶される分析情報の中から、分析情報における楽曲のリフレイン形式が類似する分析情報を特定し、特定された分析情報の中から、分析情報で示される音程の正確さ又は歌唱技巧の少なくとも何れかの分析結果が類似する分析情報に対応する識別情報をグループ化する。   Therefore, a configuration as described in claim 4 is preferable. That is, the analysis information acquired by the acquisition means includes information indicating an analysis result for each analysis section corresponding to the refrain format of the sung song. The grouping means specifies analysis information having a similar refrain format of the music in the analysis information from the analysis information stored in the storage means, and corrects the pitch indicated by the analysis information from the specified analysis information. The identification information corresponding to the analysis information having similar analysis results of at least one of the singing techniques is grouped.

このように、リフレイン形式が類似する楽曲で行われた歌唱の分析結果であることをグループ化の要件とすることで、リフレイン形式に基づく分析区間ごと分析結果が類似するユーザを的確に絞込んでグループ化することができる。   In this way, by making the analysis result of singing performed on music with similar Refrain format as a requirement for grouping, users with similar analysis results for each analysis section based on Refrain format are narrowed down accurately Can be grouped.

さらに、請求項5に記載のように構成してもよい。すなわち、グループ化手段は、特定された分析情報の中から、分析情報で示されるリフレイン形式のAメロ又はサビに対応する分析区間における音程の正確さ又は歌唱技巧の少なくとも何れかの分析結果が類似する分析情報に対応する識別情報をグループ化する。このように構成することで、例えば、Aメロ又はサビだけに音程のずれが多い歌唱パターンを有するユーザのグループを形成することが可能となる。あるいは、Aメロ又はサビだけに特定の歌唱技巧が発現する歌唱パターンを有するユーザのグループを形成することも可能となる。このような具合に、リフレイン形式の区間ごとに変化するユーザの歌唱の性質までも考慮した態様で、詳細にグループ分けを行うことができる。   Furthermore, you may comprise as described in Claim 5. That is, the grouping means is similar in the analysis result of at least one of pitch accuracy and singing skill in the analysis section corresponding to the refrain A melody or rust shown in the analysis information among the specified analysis information. The identification information corresponding to the analysis information to be grouped is grouped. By configuring in this way, for example, it becomes possible to form a group of users having a singing pattern in which only a pitch difference is present only in A melody or chorus. Alternatively, it is possible to form a group of users having a singing pattern in which a specific singing technique is expressed only in A melody or chorus. In such a manner, it is possible to perform grouping in detail in a manner that also takes into account the nature of the user's singing that changes for each refrain type section.

つぎに、請求項6に記載のカラオケサーバ装置は、以下の特徴を有する。すなわち、取得手段が取得する分析情報には、歌唱技巧に関する分析結果として、分析区間ごとに特定の歌唱技巧が発現した頻度を示す情報が少なくとも含まれている。そして、グループ化手段は、分析情報で示される分析区間ごとの歌唱技巧の出現頻度が類似する分析情報に対応する識別情報をグループ化する。このようにすることで、例えば、特定の分析区間において「しゃくり」や「ビブラート」といった演奏技巧が多く発現する歌唱パターンを有するユーザのグループを形成することが可能となる。このような具合に、歌唱技巧の出現頻度に基づく類似性を考慮した態様で、ユーザのグループ分けを行うことができる。   Next, the karaoke server device according to claim 6 has the following characteristics. That is, the analysis information acquired by the acquisition means includes at least information indicating the frequency of occurrence of a specific singing technique for each analysis section as an analysis result regarding the singing technique. And a grouping means groups the identification information corresponding to the analysis information with which the appearance frequency of the singing skill for every analysis area shown by analysis information is similar. In this way, for example, it is possible to form a group of users having a singing pattern in which performance techniques such as “shakuri” and “vibrato” are manifested in a specific analysis section. In this manner, users can be grouped in a manner that takes into account the similarity based on the appearance frequency of singing techniques.

つぎに、請求項7に記載のカラオケサーバ装置は、以下の特徴を有する。すなわち、送信手段は、グループ情報を、当該グループ内に属する識別情報と対応付けて登録された宛先に該当する端末装置に対して送信する。このようにすることで、グループ内で情報交換が可能なサービスを通知するためのグループ情報を、そのグループに属するメンバーが使用する端末に対して送信することができる。   Next, the karaoke server device according to claim 7 has the following characteristics. That is, the transmission means transmits the group information to the terminal device corresponding to the destination registered in association with the identification information belonging to the group. In this way, group information for notifying a service that allows information exchange within a group can be transmitted to terminals used by members belonging to the group.

一方、上記目的を達成するためになされた請求項8に記載の発明は、ユーザが利用する端末装置に対してネットワークを通じて情報を通知する情報通知方法に関する。請求項8に記載の情報通知方法によれば、請求項1に記載の発明について記載した上述の効果と同様の効果を奏する。   On the other hand, the invention described in claim 8 made to achieve the above object relates to an information notification method for notifying information to a terminal device used by a user through a network. According to the information notification method of the eighth aspect, the same effect as the above-described effect described for the invention of the first aspect can be obtained.

カラオケネットワークシステム1の概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of a karaoke network system 1. FIG. (a)楽曲データの構成例、及び(b)メロディ区間の例を示す説明図。(A) The structural example of music data, (b) Explanatory drawing which shows the example of a melody area. 採点データを蓄積する一例を示す説明図。Explanatory drawing which shows an example which accumulate | stores scoring data. ユーザの端末に表示されるグループメンバー紹介画面の一例を示す説明図。Explanatory drawing which shows an example of the group member introduction screen displayed on a user's terminal. カラオケアプリケーション処理の手順を示すフローチャート。The flowchart which shows the procedure of a karaoke application process. カラオケサービス処理の手順を示すフローチャート。The flowchart which shows the procedure of a karaoke service process. グループ化処理の手順を示すフローチャート。The flowchart which shows the procedure of a grouping process.

以下、本発明の一実施形態を図面に基づいて説明する。なお、本発明は下記の実施形態に何ら限定されるものではなく様々な態様にて実施することが可能である。
[カラオケネットワークシステム1の構成の説明]
図1に示すように、カラオケネットワークシステム1は、カラオケセンタの楽曲配信サーバ2及びSNSサーバ3と、カラオケ店舗のカラオケ演奏機器4及びリモコン端末5と、ユーザが利用するスマートフォン6及びパソコン7とが、インターネット10を介して通信可能に接続されることで形成される。なお、図1においては、説明を簡潔にするため、カラオケ演奏機器4やリモコン端末5、スマートフォン6、パソコン7等の機器をそれぞれ1台ずつ記載した。しかしながら、実際には、これらの機器が数多くの接続された態様で実施される。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In addition, this invention is not limited to the following embodiment at all, and can be implemented in various aspects.
[Description of configuration of karaoke network system 1]
As shown in FIG. 1, the karaoke network system 1 includes a music distribution server 2 and an SNS server 3 at a karaoke center, a karaoke performance device 4 and a remote control terminal 5 at a karaoke store, and a smartphone 6 and a personal computer 7 used by a user. It is formed by being communicably connected via the Internet 10. In FIG. 1, for simplicity of explanation, one device such as a karaoke performance device 4, a remote control terminal 5, a smartphone 6, and a personal computer 7 is shown. In practice, however, these devices are implemented in a number of connected ways.

カラオケセンタには、楽曲配信サーバ2及びSNSサーバ3が設置されている。このうち、楽曲配信サーバ2は、カラオケ演奏機器4やスマートフォン6からの要求に応じてカラオケ楽曲データ等のコンテンツを配信するカラオケコンテンツ配信用のサーバ装置である。楽曲配信サーバ2は、カラオケセンタ内のルータ50を介して、インターネット10経由でカラオケ演奏機器4、スマートフォン6及びパソコン7とデータ通信を行う。楽曲配信サーバ2は、サーバ機能を有する情報処理装置で構成されている。楽曲配信サーバ2は、外部記憶装置としてのハードディスクドライブに配信用の楽曲データ及び楽曲データに関連する各種情報を蓄積するための楽曲データデータベースを備える。   The music distribution server 2 and the SNS server 3 are installed in the karaoke center. Among these, the music distribution server 2 is a server device for karaoke content distribution that distributes content such as karaoke music data in response to a request from the karaoke performance device 4 or the smartphone 6. The music distribution server 2 performs data communication with the karaoke performance device 4, the smartphone 6, and the personal computer 7 via the Internet 10 via the router 50 in the karaoke center. The music distribution server 2 is composed of an information processing apparatus having a server function. The music distribution server 2 includes a music data database for storing music data for distribution and various information related to the music data in a hard disk drive as an external storage device.

SNSサーバ3は、カラオケのユーザ固有の蓄積データに基づくソーシャルネットワーキングサービス(以下、SNS)を提供するSNS用のサーバ装置である。本実施形態のカラオケネットワークシステム1は、カラオケ店舗に設置されたカラオケ演奏機器4を用いてカラオケを楽しむサービスの他に、ユーザが携帯するスマートフォン6にインストールされたカラオケアプリケーションを用いてカラオケを楽しむサービスを提供する。そこで、カラオケ演奏機器4、スマートフォン6又はパソコン7の何れを用いても、ユーザがユーザ固有の蓄積データにアクセスすることを可能にするため、カラオケセンタに設置されたSNSサーバ3がユーザの蓄積データを一元的に管理する。ユーザ固有の蓄積データを利用する際には、何れかの端末からSNSサーバ3にアクセスし、ユーザを一意に識別可能なアカウント情報を用いてカラオケ会員サービスのシステムにログインするようになっている。   The SNS server 3 is a server device for SNS that provides a social networking service (hereinafter referred to as SNS) based on user-specific stored data of karaoke. The karaoke network system 1 of the present embodiment is a service for enjoying karaoke using a karaoke application installed on a smartphone 6 carried by the user in addition to a service for enjoying karaoke using a karaoke performance device 4 installed in a karaoke store. I will provide a. Therefore, in order to enable the user to access the user-specific stored data regardless of whether the karaoke performance device 4, the smart phone 6 or the personal computer 7 is used, the SNS server 3 installed in the karaoke center stores the user's stored data. Is managed centrally. When using the user-specific stored data, the SNS server 3 is accessed from any terminal, and the user is logged in to the karaoke member service system using account information that can uniquely identify the user.

SNSサーバ3は、CPU31、RAM32、ROM33、ハードディスクドライブ(HDD)34、及び通信部35等を備えた、サーバ機能を有する情報処理装置で構成されている。CPU31は、RAM32やROM33に記憶されたデータに従って、SNSサーバ3各部に対する制御及び各種演算を実行する装置である。RAM32は、CPU31から直接アクセスされるメインメモリとして利用される記憶装置である。ROM33は、不揮発性の記憶装置であり、BIOSや読出し専用のデータ等を記憶している。HDD34は、プログラムや、各種データベース等を保存しておくための記憶装置である。通信部35は、SNSサーバ3をインターネット10に接続してカラオケ演奏機器4や、リモコン端末5、スマートフォン6、パソコン7とデータ通信を行うための通信インタフェースである。なお、SNSサーバ3は、カラオケセンタ内のルータ50を介して、インターネット10経由でカラオケ演奏機器4、リモコン端末5、スマートフォン6、パソコン7とデータ通信を行う。   The SNS server 3 includes an information processing apparatus having a server function, which includes a CPU 31, a RAM 32, a ROM 33, a hard disk drive (HDD) 34, a communication unit 35, and the like. The CPU 31 is a device that executes control and various calculations for each part of the SNS server 3 in accordance with data stored in the RAM 32 and the ROM 33. The RAM 32 is a storage device used as a main memory that is directly accessed from the CPU 31. The ROM 33 is a non-volatile storage device, and stores BIOS, read-only data, and the like. The HDD 34 is a storage device for storing programs, various databases, and the like. The communication unit 35 is a communication interface for connecting the SNS server 3 to the Internet 10 and performing data communication with the karaoke performance device 4, the remote control terminal 5, the smartphone 6, and the personal computer 7. The SNS server 3 performs data communication with the karaoke performance device 4, the remote control terminal 5, the smartphone 6, and the personal computer 7 via the Internet 10 via the router 50 in the karaoke center.

SNSサーバ3は、本システムが提供するSNSであるカラオケ会員サービスを利用する権限を有する個々のユーザごとのデータを蓄積するための、ユーザデータベースをHDD34に記憶している。このユーザデータベースには、分析データ、録音データ、ユーザアカウント等の情報が蓄積されている。分析データは、カラオケ演奏機器4やスマートフォン6のカラオケアプリケーションを利用して行われたカラオケの歌唱の巧拙度合を精密に分析した分析結果が、その歌唱を行ったユーザの識別情報や楽曲の識別情報に対応付けて登録されたものである。録音データは、カラオケ演奏機器4やスマートフォン6のカラオケアプリケーションを利用して行われたカラオケの歌唱音声を録音した音声データが、その歌唱を行ったユーザの識別情報や楽曲の識別情報に対応付けて登録されたものである。ユーザアカウントは、カラオケ会員サービスを利用する権限を有するユーザの識別情報(ユーザ識別子)や、ログイン認証用のパスワード、ユーザ名、ユーザのプロファイル、連絡先の電子メールアドレス等を含む個人情報がユーザごとに登録されたものである。   The SNS server 3 stores a user database in the HDD 34 for accumulating data for each user who has the authority to use the karaoke member service, which is an SNS provided by the present system. The user database stores information such as analysis data, recording data, and user accounts. The analysis data is the identification result of the user who performed the singing and the identification information of the music, which is an analysis result obtained by precisely analyzing the skill level of the karaoke singing performed using the karaoke application of the karaoke performance device 4 or the smartphone 6. Are registered in association with each other. The recorded data corresponds to the identification information of the user who performed the singing of the singing voice of the karaoke performed using the karaoke application of the karaoke performance device 4 or the smartphone 6, and the identification information of the music. It is registered. The user account includes personal information including identification information (user identifier) of a user who has authority to use the karaoke member service, login authentication password, user name, user profile, contact e-mail address, etc. for each user. Is registered.

SNSサーバ3は、上述のユーザデータベースに蓄積された各種情報に基づき、ユーザの端末(スマートフォン6又はパソコン7)宛てに、ユーザの歌唱の上達を支援するため各種情報を、インターネット10を介して送信する機能を有する。その主な機能として、SNSサーバ3は、ログイン中のユーザの端末から歌唱技能のレベルが類似するユーザのグループの紹介を要求されることで、当該ログイン中のユーザの歌唱の分析データに対して類似性を示すユーザのグループリストを生成して要求元の端末へ返信する。この処理の詳細な内容については後述する。   The SNS server 3 transmits various types of information to the user's terminal (smart phone 6 or personal computer 7) based on the various types of information stored in the above-described user database in order to support the user's singing improvement over the Internet 10. It has the function to do. As its main function, the SNS server 3 is requested to introduce a group of users whose singing skill levels are similar from the terminal of the logged-in user, so that the analysis data of the logged-in user's song can be obtained. A group list of users indicating similarity is generated and returned to the requesting terminal. Details of this process will be described later.

一方、カラオケ店舗には、カラオケサービス用の機器として、カラオケ演奏機器4、モニタ41及びリモコン端末5が設置されている。また、カラオケ店舗には、通信用の機器として、無線LANアクセスポイント51、スイッチングハブ52、ルータ53が設置されている。   On the other hand, in the karaoke store, a karaoke performance device 4, a monitor 41, and a remote control terminal 5 are installed as devices for karaoke service. In the karaoke store, a wireless LAN access point 51, a switching hub 52, and a router 53 are installed as communication devices.

カラオケ演奏機器4は、カラオケ店舗内の各カラオケルームに設置される業務用のカラオケ装置である。カラオケ演奏機器4は、スイッチングハブ52及びルータ53を介して、インターネット10経由でカラオケセンタの楽曲配信サーバ2及びSNSサーバ3とデータ通信を行う。カラオケ演奏機器4には、カラオケセンタの楽曲配信サーバ2から定期的にカラオケの楽曲データがダウンロード配信される。カラオケ演奏機器4は、リモコン端末5からユーザのリクエスト指示を受信し、リクエストされたカラオケ楽曲の演奏を行う。   The karaoke performance device 4 is a commercial karaoke device installed in each karaoke room in the karaoke store. The karaoke performance device 4 performs data communication with the music distribution server 2 and the SNS server 3 of the karaoke center via the Internet 10 via the switching hub 52 and the router 53. Karaoke music data is regularly downloaded and distributed from the music distribution server 2 of the karaoke center to the karaoke performance device 4. The karaoke performance device 4 receives the user's request instruction from the remote control terminal 5 and performs the requested karaoke musical piece.

また、カラオケ演奏機器4は、カラオケの演奏を行ったときに、ユーザによる歌唱の巧拙度合を精密に分析した分析データを作成する。分析データは、ユーザによる歌唱の音程の正確さや、「しゃくり」、「ビブラート」といった特定の歌唱技巧の出現頻度を、所定の演奏区間ごとに検出した結果を数値化したものである。カラオケ演奏機器4は、ユーザの歌唱の分析結果を得点化し、分析採点結果としてモニタ41に表示する。   Moreover, the karaoke performance apparatus 4 produces the analysis data which analyzed the skill level of the singing by a user precisely, when performing a karaoke performance. The analysis data is obtained by quantifying the result of detecting the accuracy of the singing pitch by the user and the appearance frequency of a specific singing technique such as “shakuri” and “vibrato” for each predetermined performance section. The karaoke performance device 4 scores the analysis result of the user's song and displays it on the monitor 41 as the analysis score result.

さらに、カラオケ演奏機器4は、歌唱を分析した分析データを、歌唱を行ったユーザの識別情報及び楽曲の識別情報と対応付けてSNSサーバ3に送信する。また、カラオケ演奏機器4は、ユーザの歌唱音声を録音した録音データを、歌唱を行ったユーザの識別情報及び楽曲の識別情報と対応付けてSNSサーバ3に送信する。これにより、多くのユーザの分析データ及び録音データがSNSサーバ3に蓄積される。   Further, the karaoke performance device 4 transmits the analysis data obtained by analyzing the song to the SNS server 3 in association with the identification information of the user who performed the song and the identification information of the song. Moreover, the karaoke performance apparatus 4 matches the recording data which recorded the user's singing voice with the identification information of the user who performed singing, and the identification information of a music, and transmits to the SNS server 3. Thereby, analysis data and recording data of many users are accumulated in the SNS server 3.

リモコン端末5は、カラオケルーム内でカラオケ演奏機器4を遠隔操作するための端末である。リモコン端末5は、ユーザが演奏を希望する楽曲のリクエストを行うための操作をユーザから受付ける。そして、その操作信号を無線LAN通信や赤外線通信によって操作対象のカラオケ演奏機器4に送信する。また、リモコン端末5は、無線LANアクセスポイント51に無線接続してインターネット10経由でカラオケセンタのSNSサーバ3とデータ通信を行う。リモコン端末5は、リモコン端末5を使ってカラオケ会員サービスにログインしようとするユーザに対する認証をSNSサーバ3に依頼し、その認証結果を受信する。なお、カラオケ演奏機器4及びリモコン端末5のその他の機能や構成については公知技術に従っているので、ここではその詳細な説明は省略する。   The remote control terminal 5 is a terminal for remotely operating the karaoke performance device 4 in the karaoke room. The remote control terminal 5 accepts an operation for making a request for music that the user desires to perform from the user. Then, the operation signal is transmitted to the karaoke performance device 4 to be operated by wireless LAN communication or infrared communication. The remote control terminal 5 is wirelessly connected to the wireless LAN access point 51 and performs data communication with the SNS server 3 of the karaoke center via the Internet 10. The remote control terminal 5 requests the SNS server 3 to authenticate the user who intends to log in to the karaoke member service using the remote control terminal 5, and receives the authentication result. Since other functions and configurations of the karaoke performance device 4 and the remote control terminal 5 are in accordance with known techniques, detailed description thereof is omitted here.

スマートフォン6は、様々なアプリケーションをインストールして利用可能な周知の高機能携帯電話端末である。本実施形態では、スマートフォン6は、カラオケ演奏機器4の一部機能を提供するスマートフォン向けのカラオケアプリケーションがインストールされたものを想定している。このカラオケアプリケーションが提供する機能として、カラオケ会員サービスへのログイン/ログアウト手続、楽曲の検索、楽曲のカラオケ演奏、歌唱音声の録音・再生、歌唱の分析データの作成、他ユーザとの情報交換等が挙げられる。   The smartphone 6 is a well-known high-function mobile phone terminal that can be used by installing various applications. In the present embodiment, it is assumed that the smartphone 6 is installed with a karaoke application for smartphones that provides some functions of the karaoke performance device 4. Functions provided by this karaoke application include login / logout procedures for karaoke member services, music search, karaoke performance of music, recording / playback of singing voice, creation of singing analysis data, information exchange with other users, etc. Can be mentioned.

スマートフォン6は、公共の無線WAN基地局54に無線接続して、インターネット10経由でカラオケセンタの楽曲配信サーバ2及びSNSサーバ3とデータ通信を行う。スマートフォン6は、ユーザから楽曲のリクエスト指示を受付け、リクエストされた楽曲のストリーミング再生を行う。スマートフォン6には、カラオケセンタの楽曲配信サーバ2からオンデマンドで楽曲データがストリーミング配信される。   The smartphone 6 wirelessly connects to a public wireless WAN base station 54 and performs data communication with the music distribution server 2 and the SNS server 3 of the karaoke center via the Internet 10. The smartphone 6 receives a music request instruction from the user and performs streaming playback of the requested music. Music data is stream-distributed to the smartphone 6 on demand from the music distribution server 2 of the karaoke center.

また、スマートフォン6は、ユーザによるカラオケの歌唱の巧拙度合を精密に分析した分析データを作成する。歌唱の分析方法や分析データの構成については、カラオケ演奏機器4と同様である。また、スマートフォン6は、歌唱を分析した分析データを、歌唱を行ったユーザの識別情報や楽曲の識別情報と対応付けてSNSサーバ3に送信する。また、スマートフォン6は、ユーザの歌唱音声を録音した録音データを、歌唱を行ったユーザの識別情報や楽曲の識別情報と対応付けてSNSサーバ3に送信する。これにより、多くのユーザの分析データ及び録音データがSNSサーバ3に蓄積される。   Moreover, the smart phone 6 produces the analysis data which analyzed precisely the skill level of the karaoke song by a user. The singing analysis method and analysis data configuration are the same as those of the karaoke performance device 4. The smartphone 6 transmits the analysis data obtained by analyzing the song to the SNS server 3 in association with the identification information of the user who performed the song and the identification information of the music. Moreover, the smart phone 6 matches the recording data which recorded the user's singing voice | voice with the identification information of the user who performed singing, and the identification information of a music, and transmits to the SNS server 3. FIG. Thereby, analysis data and recording data of many users are accumulated in the SNS server 3.

さらに、スマートフォン6は、ユーザの歌唱の上達を支援するため各種情報をSNSサーバ3から受信し、その情報をユーザに対して提示する機能を有する。その主な機能として、スマートフォン6は、ログイン中のユーザからの操作指示に基づいて、当該ユーザと歌唱技能のレベルが類似するユーザのグループの紹介をSNSサーバ3に対して要求する。そして、SNSサーバ3から返信されたグループ情報に基づき、当該グループのメンバーの一覧を表示する。さらに、スマートフォン6は、グループ情報に基づいて表示されたグループのメンバー中から、ユーザが指定した相手との情報交換に関する処理を行う。これらの処理の詳細な内容については後述する。   Furthermore, the smartphone 6 has a function of receiving various types of information from the SNS server 3 to support the user's singing progress and presenting the information to the user. As its main function, the smartphone 6 requests the SNS server 3 to introduce a group of users whose singing skill levels are similar to those of the user based on an operation instruction from the logged-in user. Based on the group information returned from the SNS server 3, a list of members of the group is displayed. Furthermore, the smart phone 6 performs the process regarding information exchange with the other party specified by the user from among the members of the group displayed based on the group information. Details of these processes will be described later.

パソコン7は、周知のパーソナルコンピュータである。本実施形態では、パソコン7は、カラオケ会員サービス向けの機能として、カラオケ会員サービスへのログイン/ログアウト手続、他ユーザとの情報交換等の各種機能が実装されたものを想定している。パソコン7は、ユーザ宅に設置されたルータ55を介して、インターネット10経由でカラオケセンタのSNSサーバ3とデータ通信を行う。パソコン7は、ユーザの歌唱の上達を支援するため各種情報をSNSサーバ3から受信し、その情報をユーザに対して提示する。その主な機能は、スマートフォン6について上述したものと同様である。   The personal computer 7 is a well-known personal computer. In this embodiment, the personal computer 7 is assumed to have various functions such as login / logout procedures for the karaoke member service and information exchange with other users as functions for the karaoke member service. The personal computer 7 performs data communication with the SNS server 3 of the karaoke center via the Internet 10 via the router 55 installed in the user's home. The personal computer 7 receives various types of information from the SNS server 3 to support the user's singing improvement, and presents the information to the user. Its main functions are the same as those described above for the smartphone 6.

ユーザは、スマートフォン6やパソコン7を用いて、自身とカラオケの歌唱技能のレベルが類似する他のユーザと情報交換をしたり、他のユーザの歌唱の録音音声を聴きながら歌唱を練習する。   The user uses the smartphone 6 or the personal computer 7 to exchange information with other users who have similar karaoke singing skill levels or to practice singing while listening to the recorded voices of other users' singing.

[楽曲データの構成例]
本実施形態で前提としているカラオケの楽曲データの構成について、図2を参照しながら説明する。
[Example composition of music data]
The configuration of karaoke music data, which is assumed in this embodiment, will be described with reference to FIG.

図2(a)に示すように、カラオケ演奏機器4やスマートフォン6で演奏される楽曲データには、メタデータ、MIDIメッセージ、及びメロディ区間情報が含まれている。メタデータには、楽曲の識別情報である楽曲識別子や、楽曲のジャンルを示す情報等が登録されている。楽曲のジャンルを示す情報は、例えば、演歌、童謡、ロック、バラード、ジャズ、アニメ、登場作品別等が挙げられる。MIDIメッセージには、カラオケの伴奏パートのメロディを演奏するためのMIDI形式の演奏データや、歌唱パートとして歌唱すべきメロディを示すガイドメロディデータが含まれる。ガイドメロディデータは、歌唱の採点や分析を行うための評価基準として用いられる。   As shown in FIG. 2A, the music data played by the karaoke performance device 4 or the smartphone 6 includes metadata, MIDI messages, and melody section information. In the metadata, a music identifier, which is music identification information, information indicating a music genre, and the like are registered. Examples of the information indicating the genre of the music include enka, nursery rhymes, rock, ballad, jazz, animation, and the type of work. The MIDI message includes performance data in MIDI format for playing a melody of a karaoke accompaniment part and guide melody data indicating a melody to be sung as a singing part. Guide melody data is used as an evaluation standard for scoring and analyzing songs.

メロディ区間情報は、楽曲のリフレイン形式に基づいて決められる演奏区間を定義する情報である。このメロディ区間情報には、楽曲を構成する個々のメロディ区間ごとにメロディの種別と演奏時刻に関する情報が定義されている。図2(b)に、楽曲のリフレイン形式に基づくメロディ区間の一例を示す。日本の歌謡曲におけるリフレイン形式を例に挙げると、AメロやBメロと呼ばれる前半部分と、サビと呼ばれる後半部分との繰返しに、間奏や終結部を含んだメロディ区間で楽曲が構成されているのが一般的である。ただし、楽曲によっては、メロディ区間の構成が図2(b)に示す一例とは異なる場合もある。あるいは、所定の演奏時間ごとに、演奏区間が設定されてもよい。例えば、5秒間の演奏時間ごとに演奏区間が設定されてもよい。   The melody section information is information that defines a performance section that is determined based on the refrain format of the music. In this melody section information, information on the melody type and performance time is defined for each melody section constituting the music. FIG. 2B shows an example of a melody section based on the music refrain format. Taking the refrain form in Japanese pop songs as an example, the music is composed of a melody section that includes an interlude and an end part in the repetition of the first half part called A melody and B melody and the second half part called Sabi. It is common. However, depending on the music, the configuration of the melody section may be different from the example shown in FIG. Alternatively, a performance section may be set for each predetermined performance time. For example, a performance section may be set every performance time of 5 seconds.

カラオケ演奏機器4やスマートフォン6においてユーザの歌唱の分析が行われる際、楽曲データに含まれるメロディ区間情報に基づいて、Aメロ、Bメロ、サビ等の個々のメロディ区間ごとに歌唱の音程の正確さや、ビブラート及びしゃくりといった歌唱技巧の出現回数が判定される。   When the user's singing is analyzed in the karaoke performance device 4 or the smartphone 6, the accuracy of the singing pitch is determined for each individual melody section such as A melody, B melody, and chorus based on the melody section information included in the music data. The number of appearances of singing techniques such as sheaths and vibrato is determined.

[分析データの蓄積例]
SNSサーバ3のユーザデータベースに蓄積される分析データの構成について、図3を参照しながら説明する。SNSサーバ3のユーザデータベースには、カラオケ演奏機器4及びスマートフォン6の各端末から送信されてきた歌唱の分析データが多数蓄積される。図3に示すとおり、各分析データには、ユーザ識別子、楽曲識別子、音程ずれパターン、しゃくり数、ビブラート数等の各種情報が含まれている。
[Analysis data storage example]
The configuration of analysis data stored in the user database of the SNS server 3 will be described with reference to FIG. In the user database of the SNS server 3, many pieces of singing analysis data transmitted from the terminals of the karaoke performance device 4 and the smartphone 6 are accumulated. As shown in FIG. 3, each analysis data includes various types of information such as a user identifier, a music identifier, a pitch shift pattern, the number of screams, and the number of vibratos.

ユーザ識別子は、カラオケ会員サービスの会員を一意識別するための固有の識別情報である。ユーザ識別子には、例えば、当該ユーザが所有する電子メールアドレスや、ランダムな文字数列等が用いられる。楽曲識別子は、カラオケの楽曲を一意に識別するための固有の識別情報(例えば、楽曲番号等)である。音程ずれパターンは、当該楽曲が最近歌唱されたときのガイドメロディの対する歌唱の音程のずれの度合を数値化したパターンデータである。音程ずれパターンは、歌唱された楽曲のメロディ区間情報で示される個々のメロディ区間ごとに判定された分析結果の数列で構成されている。しゃくり数は、当該楽曲が最近歌唱されたときに検出された「しゃくり」の出現回数を示すパターンデータである。しゃくり数は、歌唱された楽曲のメロディ区間情報で示される個々のメロディ区間ごとにカウントされたしゃくりの出現回数の数列で構成されている。ビブラート数は、当該楽曲が最近歌唱されたときに検出された「ビブラート」の出現回数を示すパターンデータである。ビブラート数は、歌唱された楽曲のメロディ区間情報で示される個々のメロディ区間ごとにカウントされたビブラートの出現回数の数列で構成されている。   The user identifier is unique identification information for uniquely identifying a member of the karaoke member service. As the user identifier, for example, an e-mail address owned by the user, a random character string, or the like is used. The music identifier is unique identification information (for example, a music number) for uniquely identifying a karaoke music. The pitch shift pattern is pattern data obtained by quantifying the degree of pitch shift of the singing with respect to the guide melody when the music is recently sung. The pitch deviation pattern is composed of a number sequence of analysis results determined for each individual melody section indicated by the melody section information of the sung music. The number of scribbles is pattern data indicating the number of appearances of “scribbles” detected when the music was recently sung. The number of screaming is composed of a sequence of the number of occurrences of screaming counted for each melody section indicated by the melody section information of the sung song. The vibrato number is pattern data indicating the number of appearances of “vibrato” detected when the music is recently sung. The vibrato number is composed of a number sequence of the number of appearances of vibrato counted for each melody section indicated by the melody section information of the sung music.

[グループメンバー紹介画面の一例]
スマートフォン6やパソコン7のディスプレイに表示されるグループメンバー紹介画面の一例について、図4を参照しながら説明する。スマートフォン6やパソコン7のディスプレイには、当該端末による要求に応じてSNSサーバ3から返信されてきたグループ情報に基づき、図4に示すようなグループメンバー紹介画面が表示される。
[Example of group member introduction screen]
An example of the group member introduction screen displayed on the display of the smartphone 6 or the personal computer 7 will be described with reference to FIG. A group member introduction screen as shown in FIG. 4 is displayed on the display of the smartphone 6 or the personal computer 7 based on the group information returned from the SNS server 3 in response to a request from the terminal.

図4に示すとおり、グループメンバー紹介画面には、グループメンバーの紹介を要求した要求元ユーザと歌唱の技能レベルが近いユーザ(歌唱が同程度に上手、もしくは下手なグループのメンバー)の一覧が表示される。ここで表示されるグループのメンバーは、全てカラオケ会員サービスのアカウントを有する会員ユーザである。各メンバーの項目には、当該メンバーの名前や、類似度、該当する楽曲の識別情報、当該メンバーから寄せられたコメント等の情報が表示される。メンバーの名称は、例えば、カラオケ会員サービス内での通称やニックネーム等が用いられる。また、類似度は、要求元ユーザの分析データと、当該メンバーの分析データとのの類似度合を示す数値である。類似度の数値が大きい程、分析データの一致度合が高いことを意味する。   As shown in FIG. 4, the group member introduction screen displays a list of users who request the introduction of group members and users whose skill level of singing is close (group members who are good at singing or who are poor at singing). Is done. The members of the group displayed here are all member users who have an account for the karaoke member service. In each member item, information such as the name of the member, the degree of similarity, identification information of the corresponding music piece, and a comment received from the member are displayed. As the name of the member, for example, a common name or a nickname in the karaoke member service is used. The similarity is a numerical value indicating the degree of similarity between the analysis data of the requesting user and the analysis data of the member. The larger the similarity value, the higher the degree of coincidence of the analysis data.

グループメンバー紹介画面に表示されたグループのメンバーの一覧の中から、要求元ユーザが端末において特定のメンバーを選択することができる。これにより、選択されたメンバーのプロファイルの閲覧や、当該メンバーとの間の情報交換(チャットやメッセージの送受信)、当該ユーザによる歌唱の録音データを聴くことができるようになっている。   The requesting user can select a specific member on the terminal from the list of group members displayed on the group member introduction screen. Thereby, browsing of the profile of the selected member, information exchange with the member (transmission and reception of chats and messages), and recording data of singing by the user can be heard.

[カラオケアプリケーション処理の説明]
スマートフォン6が実行するカラオケアプリケーション処理の手順について、図5のフローチャートを参照しながら説明する。
[Description of Karaoke application processing]
The procedure of the karaoke application process executed by the smartphone 6 will be described with reference to the flowchart of FIG.

ユーザからカラオケアプリケーションの実行を指示する操作を受付けると、スマートフォン6は、S100でカラオケアプリケーションを起動する。つぎのS102では、スマートフォン6は、SNSサーバ3との所定のログイン手続を経て、カラオケ会員サービスにログインする。   If the operation which instruct | indicates execution of a karaoke application from a user is received, the smart phone 6 will start a karaoke application by S100. In next S <b> 102, the smartphone 6 logs in to the karaoke member service through a predetermined login procedure with the SNS server 3.

カラオケ会員サービスへのログインは、例えば、次のような手順で行われる。まず、スマートフォン6が、ユーザ識別子及びログイン認証用のパスワードの入力をユーザから受付ける。つぎに、スマートフォン6は、入力されたユーザ識別子及びパスワードをSNSサーバ3に対して送信し、ログイン認証を要求する。SNSサーバ3は、送信されたユーザ識別子及びパスワードをユーザデータベースのユーザアカウントに照会して認証を行う。SNSサーバ3においてログイン認証が成功すると、認証されたユーザ(以下、ログインユーザとも称する)のアカウントに対応するセッション生成される。以降、ログインユーザがカラオケ会員サービスからログアウトする手続を行うまでの間、当該スマートフォン6とSNSサーバ3との間で行われる通信は、当該ログインユーザのアカウントに対応付けられたものとして扱われる。   The login to the karaoke member service is performed, for example, by the following procedure. First, the smartphone 6 receives an input of a user identifier and a login authentication password from the user. Next, the smartphone 6 transmits the input user identifier and password to the SNS server 3 and requests login authentication. The SNS server 3 performs authentication by referring to the user account of the user database for the transmitted user identifier and password. When login authentication succeeds in the SNS server 3, a session corresponding to the account of the authenticated user (hereinafter also referred to as a login user) is generated. Thereafter, communication performed between the smartphone 6 and the SNS server 3 is handled as being associated with the account of the login user until the login user performs a procedure of logging out from the karaoke member service.

つぎのS104では、スマートフォン6は、ユーザから選択されたカラオケアプリケーションの機能に応じて処理を分岐する。カラオケ機能が選択された場合(S104:カラオケ機能)、S106に進む。S106では、スマートフォン6は、楽曲の検索をSNSサーバ3に対して要求する。ここでは、スマートフォン6がSNSサーバ3に対して当該要求を出すとき、ユーザから指定された楽曲の検索条件(楽曲名、アーティスト名、ジャンル、キーワード等)を、入力パラメータとしてSNSサーバ3に送信する。つぎのS108では、スマートフォン6は、SNSサーバ3から通知された楽曲の検索結果の一覧を、ディスプレイに表示する。S110では、スマートフォン6は、表示された楽曲の検索結果の一覧からユーザによって選択指示された楽曲の演奏を、SNSサーバ3に対して要求する。   In next S104, the smartphone 6 branches the process according to the function of the karaoke application selected by the user. When the karaoke function is selected (S104: karaoke function), the process proceeds to S106. In S <b> 106, the smartphone 6 requests the SNS server 3 to search for music. Here, when the smartphone 6 issues the request to the SNS server 3, the music search conditions (music name, artist name, genre, keyword, etc.) designated by the user are transmitted to the SNS server 3 as input parameters. . In next S <b> 108, the smartphone 6 displays a list of music search results notified from the SNS server 3 on the display. In S <b> 110, the smartphone 6 requests the SNS server 3 to play the music selected by the user from the list of displayed music search results.

そして、S112では、スマートフォン6は、演奏の要求に応じて楽曲配信サーバ2から配信されてくる楽曲データに基づいてカラオケの演奏を行う。楽曲データに基づく演奏は、楽曲配信サーバ2から楽曲データを受信しながら同時に演奏を行うストリーミングによって行われる。また、スマートフォン6は、楽曲の演奏に並行してユーザによる歌唱の分析や歌唱音声の録音を行う。楽曲の演奏後におけるS114では、スマートフォン6は、今回の歌唱の分析結果をディスプレイに表示する。歌唱の分析では、楽曲データのメロディ区間情報で示される個々のメロディ区間ごとに、歌唱の音程のずれ、及びしゃくり・ビブラートの出現回数等が検出さる。その検出結果は検出データとして記録される。   In S112, the smartphone 6 performs a karaoke performance based on the music data distributed from the music distribution server 2 in response to the performance request. The performance based on the music data is performed by streaming that performs the music simultaneously while receiving the music data from the music distribution server 2. In addition, the smartphone 6 analyzes the singing by the user and records the singing voice in parallel with the performance of the music. In S114 after the performance of the music, the smartphone 6 displays the analysis result of this song on the display. In the singing analysis, for each individual melody section indicated by the melody section information of the music data, a shift in the pitch of the singing, the number of occurrences of screaming and vibrato, and the like are detected. The detection result is recorded as detection data.

つぎのS116では、スマートフォン6は、今回の歌唱の分析結果をSNSサーバ3に反映させるか否かをログインユーザに対して問合わせる。今回の歌唱の分析結果をSNSサーバ3に反映させる旨の回答をユーザから受付けた場合(S116:YES)、S118に進む。一方、今回の歌唱の分析結果をSNSサーバ3に反映しない旨の回答をユーザから受付けた場合(S116:NO)、S136に進む。   In next S <b> 116, the smartphone 6 inquires of the login user whether to reflect the analysis result of the current song on the SNS server 3. When an answer to reflect the analysis result of this song on the SNS server 3 is received from the user (S116: YES), the process proceeds to S118. On the other hand, when an answer indicating that the analysis result of this song is not reflected on the SNS server 3 is received from the user (S116: NO), the process proceeds to S136.

歌唱の分析結果をSNSサーバ3に反映させる旨の回答を受付けた場合に進むS118では、スマートフォン6は、今回の歌唱に関する分析データを、ログインユーザの識別情報及び歌唱された楽曲の識別情報と対応付けてSNSサーバ3に対して送信する。また、S120では、スマートフォン6は、今回の歌唱音声を録音した録音データを、ログインユーザの識別情報及び歌唱された楽曲の識別情報と対応付けて、SNSサーバ3に対して送信する。S120の後、スマートフォン6はS136に進む。   In S <b> 118, which proceeds when an answer to reflect the analysis result of the singing on the SNS server 3 is received, the smartphone 6 corresponds to the analysis data regarding the current singing with the identification information of the login user and the identification information of the sung song. At the same time, it transmits to the SNS server 3. Moreover, in S120, the smart phone 6 matches the recording data which recorded this singing voice | voice with the identification information of a login user, and the identification information of the sung music, and transmits with respect to the SNS server 3. FIG. After S120, the smartphone 6 proceeds to S136.

一方、S104においてSNS機能が選択された場合(S104:SNS機能)、スマートフォン6はS122に進む。S122では、スマートフォン6は、ログインユーザの歌唱技能のレベルと類似するグループメンバーの紹介を、SNSサーバ3に対して要求する。ここでは、スマートフォン6がSNSサーバ3に対して当該要求を出すとき、どの分析済みの楽曲に対する紹介を要求するのかを示す情報(例えば、ユーザ及び楽曲の識別情報)、入力パラメータとしてSNSサーバ3に送信する。   On the other hand, when the SNS function is selected in S104 (S104: SNS function), the smartphone 6 proceeds to S122. In S122, the smartphone 6 requests the SNS server 3 to introduce a group member similar to the level of the singing skill of the login user. Here, when the smartphone 6 issues the request to the SNS server 3, information indicating which analyzed music is requested to be introduced (for example, identification information of the user and the music) and input parameters to the SNS server 3. Send.

そして、S124では、スマートフォン6は、要求に対する回答としてSNSサーバ3から返信されてきたグループ情報に基づき、グループメンバー紹介画面をディスプレイに表示する。図4はその一例である。S126では、スマートフォン6は、S124で表示されたグループメンバー紹介画面の中からログインユーザによって選択指示されたメンバーのプロファイルを表示する。ここでは、ログインユーザに選択されたメンバーのプロファイルの閲覧を、スマートフォン6がSNSサーバ3に対して要求する。そして、閲覧要求に応じてSNSサーバ3から返信されてきた当該メンバーのプロファイル情報を、スマートフォン6がディスプレイに表示する。   In S124, the smartphone 6 displays the group member introduction screen on the display based on the group information returned from the SNS server 3 as an answer to the request. FIG. 4 shows an example. In S126, the smartphone 6 displays the profile of the member selected and instructed by the login user from the group member introduction screen displayed in S124. Here, the smartphone 6 requests the SNS server 3 to browse the profile of the member selected by the login user. Then, the smartphone 6 displays the profile information of the member returned from the SNS server 3 in response to the browsing request on the display.

つぎのS128では、スマートフォン6は、ユーザから選択されたSNS機能に応じて処理を分岐する。チャット機能が選択された場合(S128:チャット機能)、スマートフォン6はS130に進む。S130では、スマートフォン6は、ログインユーザとグループ内から選択されたメンバーとのチャットをSNSサーバ3に対して要求し、チャット処理を実行する。ここでいうチャットとは、インターネット10を利用したユーザ同士のリアルタイムコミュニケーションのサービスである。ここでは、ログインユーザと、グループ内から選択されたメンバーとが、文字入力による対話をすることで情報交換を行うサービスを想定している。S130の後、スマートフォン6はS134に進む。   In next S128, the smartphone 6 branches the process according to the SNS function selected by the user. When the chat function is selected (S128: chat function), the smartphone 6 proceeds to S130. In S <b> 130, the smartphone 6 requests the SNS server 3 to chat with the logged-in user and a member selected from the group, and executes chat processing. Chat here is a service for real-time communication between users using the Internet 10. Here, a service is assumed in which a logged-in user and a member selected from within a group exchange information by interacting with characters. After S130, the smartphone 6 proceeds to S134.

一方、S128において録音データ再生機能が選択された場合(S128:録音データ再生機能)、スマートフォン6はS132に進む。S132では、スマートフォン6は、ユーザにより選択されたグループ内のメンバーによる歌唱の録音データをストリーミング再生する。ここでは、スマートフォン6がSNSサーバ3に対して録音データの再生要求を出すとき、どのメンバーのどの楽曲に関する録音データを再生するのかを示す情報(ユーザ及び楽曲の識別情報)を、入力パラメータとしてSNSサーバ3に送信する。そして、スマートフォン6は、当該再生要求に対する応答としてSNSサーバ3から送信されてくる録音データをストリーミング再生する。S132に後、スマートフォン6はS134に進む。   On the other hand, when the recorded data reproduction function is selected in S128 (S128: recorded data reproduction function), the smartphone 6 proceeds to S132. In S132, the smartphone 6 performs streaming playback of the recording data of the song by the members in the group selected by the user. Here, when the smartphone 6 issues a reproduction request for recording data to the SNS server 3, information (user and song identification information) indicating which member's recording data related to which music is to be reproduced is input as an SNS. Send to server 3. Then, the smartphone 6 performs streaming reproduction of the recording data transmitted from the SNS server 3 as a response to the reproduction request. After S132, the smartphone 6 proceeds to S134.

つぎのS134では、スマートフォン6はSNS機能を終了する旨の指示をログインユーザから受付けたか否かを判定する。SNS機能を終了する旨の指示を受付けていない場合(S134:NO)、スマートフォン6はS124に戻る。一方、SNS機能を終了する旨の指示を受付けた場合(S134:YES)、スマートフォン6はS136に進む。   In next S134, the smartphone 6 determines whether or not an instruction to end the SNS function has been received from the login user. When the instruction to end the SNS function is not received (S134: NO), the smartphone 6 returns to S124. On the other hand, when the instruction to end the SNS function is received (S134: YES), the smartphone 6 proceeds to S136.

S136では、カラオケサービスを終了する旨の指示をユーザから受付けたか否かを判定する。カラオケサービスを終了する旨の指示を受付けていない場合(S136:NO)、スマートフォン6はS104に戻る。一方、カラオケサービスを終了する旨の指示をユーザから受付けた場合(S136:YES)、スマートフォン6はS138に進む。   In S136, it is determined whether an instruction to end the karaoke service has been received from the user. If the instruction to end the karaoke service has not been received (S136: NO), the smartphone 6 returns to S104. On the other hand, when an instruction to end the karaoke service is received from the user (S136: YES), the smartphone 6 proceeds to S138.

S138では、スマートフォン6は、カラオケ会員サービスからのログアウトをSNSサーバ3に対して通知する。これにより、当該ログインユーザに関するセッションが終了する。S138の後、スマートフォン6は本処理を終了する。   In S138, the smartphone 6 notifies the SNS server 3 of logout from the karaoke member service. As a result, the session related to the login user ends. After S138, the smartphone 6 ends this process.

なお、ユーザがパソコン7を利用してカラオケ会員サービスにログインし、上述のSNS機能を利用することもできる。その場合、パソコン7が実行する処理の手順は、上記S122〜S134に準ずる。また、ユーザがカラオケ店舗に設置されたカラオケ演奏機器4で歌唱を行ったときも、当該ユーザの歌唱の分析結果をSNSサーバ3に反映することができる。その場合、カラオケ演奏機器4が実行する処理の手順は、上記S112〜S120に準ずる。ただし、カラオケ演奏機器4において楽曲のカラオケ演奏が行われる場合、ストリーミング再生ではなく、カラオケ演奏機器4にダウンロード済みの楽曲データに基づいて演奏が行われる(ダウンロード再生)。   Note that the user can also log in to the karaoke member service using the personal computer 7 and use the above-described SNS function. In that case, the procedure of the process executed by the personal computer 7 conforms to the above S122 to S134. Moreover, even when the user sings with the karaoke performance device 4 installed in the karaoke store, the analysis result of the user's singing can be reflected in the SNS server 3. In that case, the procedure of the process which the karaoke performance apparatus 4 performs applies to said S112-S120. However, when the karaoke performance device 4 performs the karaoke performance of the music, the performance is performed based on the music data downloaded to the karaoke performance device 4 instead of streaming playback (download playback).

[カラオケサービス処理の説明]
SNSサーバ3のCPU31が実行するカラオケサービス処理の手順について、図6のフローチャートを参照しながら説明する。
[Description of Karaoke service processing]
The procedure of the karaoke service process executed by the CPU 31 of the SNS server 3 will be described with reference to the flowchart of FIG.

S200において、CPU31は、システム起動時の初期化処理を行う。つぎのS202では、CPU31は、カラオケ演奏機器4、リモコン端末5、スマートフォン6又はパソコン7の何れかの端末からインターネット10を介して受付けた要求を分別し、その要求内容に応じて処理を分岐する。   In S200, the CPU 31 performs initialization processing at the time of system startup. In the next step S202, the CPU 31 sorts the requests received via the Internet 10 from any one of the karaoke performance device 4, the remote control terminal 5, the smartphone 6 or the personal computer 7, and branches the processing according to the request contents. .

S202において、ログイン中のユーザ(以下、ログインユーザ)に対応する通信相手であるスマートフォン6から、楽曲検索の要求を受付けた場合(S202:楽曲検索)、CPU31はS204に進む。S204では、CPU31は、当該要求元の端末から送信されてきた検索条件に該当する楽曲を、楽曲データベースから検索する。つぎのS208では、CPU31は、楽曲データベースから検索された楽曲のリストを示すデータを当該要求元の端末に返信する。S208の後、CPU31はS240に進む。   In S202, when a request for music search is received from the smartphone 6 which is a communication partner corresponding to a logged-in user (hereinafter, a login user) (S202: music search), the CPU 31 proceeds to S204. In S204, the CPU 31 searches the music database for music that satisfies the search condition transmitted from the request source terminal. In the next S208, the CPU 31 returns data indicating a list of music retrieved from the music database to the requesting terminal. After S208, the CPU 31 proceeds to S240.

一方、S202において、ログインユーザに対応する通信相手であるスマートフォン6から、楽曲の演奏要求を受付けた場合(S202:楽曲演奏)、CPU31はS210に進む。S210では、当該要求元の端末から送信されてきた楽曲の識別情報に該当する楽曲データが、楽曲配信サーバ2からストリーミング配信される。S210の後、CPU31はS240に進む。   On the other hand, in S202, when a music performance request is received from the smartphone 6 that is a communication partner corresponding to the login user (S202: music performance), the CPU 31 proceeds to S210. In S210, the music data corresponding to the music identification information transmitted from the request source terminal is streamed from the music distribution server 2. After S210, the CPU 31 proceeds to S240.

一方、S202において、ログインユーザに対応する通信相手であるカラオケ演奏機器4又はスマートフォン6から、当該ログインユーザによる歌唱の分析データを登録する要求を受付けた場合(S202:分析データ登録)、CPU31はS212に進む。S212では、CPU31は、当該要求元の端末から送信されてきた分析データを、当該ログインユーザの識別情報及び歌唱された楽曲の識別情報と対応付けてユーザデータベースに登録する。図3は、分析データの蓄積例である。なお、同一ユーザの同一の楽曲に関する過去の分析データが既にユーザデータベースに登録済みである場合、CPU31は新しい方の分析データを古い方の分析データに上書きする。S212の後、CPU31はS240に進む。   On the other hand, in S202, when a request for registering analysis data of singing by the login user is received from the karaoke performance device 4 or the smartphone 6 which is a communication partner corresponding to the login user (S202: analysis data registration), the CPU 31 performs S212. Proceed to In S212, the CPU 31 registers the analysis data transmitted from the request source terminal in the user database in association with the identification information of the login user and the identification information of the sung song. FIG. 3 shows an example of accumulation of analysis data. If past analysis data related to the same music of the same user has already been registered in the user database, the CPU 31 overwrites the newer analysis data with the older analysis data. After S212, the CPU 31 proceeds to S240.

一方、S202において、ログインユーザに対応する通信相手であるカラオケ演奏機器4又はスマートフォン6から、当該ログインユーザによる歌唱の録音データを登録する要求を受付けた場合(S202:録音データ登録)、CPU31はS214に進む。S214では、CPU31は、当該要求元の端末から送信されてきた録音データを、当該ログインユーザの識別情報及び歌唱された楽曲の識別情報と対応付けてユーザデータベースに登録する。なお、同一ユーザの同一の楽曲に関する過去の録音データが既にユーザデータベースに登録済みである場合、CPU31は新しい方の録音データを古い方の録音データに上書きする。S214の後、CPU31はS240に進む。   On the other hand, in S202, when a request for registering recording data of singing by the login user is received from the karaoke performance device 4 or the smartphone 6 which is a communication partner corresponding to the login user (S202: recording data registration), the CPU 31 performs S214. Proceed to In S214, the CPU 31 registers the recording data transmitted from the request source terminal in the user database in association with the identification information of the login user and the identification information of the sung music. If past recording data related to the same music of the same user has already been registered in the user database, the CPU 31 overwrites the older recording data with the newer recording data. After S214, the CPU 31 proceeds to S240.

一方、S202において、ログインユーザに対応する通信相手であるスマートフォン6又はパソコン7から、当該ログインユーザの歌唱の技能レベルと類似するグループメンバーを紹介する要求を受付けた場合(S202:グループ紹介)、CPU31はS216に進む。S216では、CPU31は、当該要求元の端末から送信されてきた入力パラメータ(紹介を要求する分析済みの楽曲の識別情報)と、ユーザデータベースに蓄積された分析データとに基づき、当該ログインユーザにおける当該楽曲の分析データに類似する、他の分析データに対応するユーザを検索する。そして、CPU31は、検索されたユーザと当該ログインユーザとをグループ化する。なお、S216のグループ化処理の詳細な手順については、後述する。   On the other hand, in S202, when a request for introducing a group member similar to the skill level of the logged-in user's singing is received from the smartphone 6 or the personal computer 7 which is a communication partner corresponding to the logged-in user (S202: group introduction), the CPU 31 Advances to S216. In S216, the CPU 31 uses the input parameter (identification information of the analyzed music for which introduction is requested) transmitted from the request source terminal and the analysis data stored in the user database, and A user corresponding to other analysis data similar to the analysis data of the music is searched. Then, the CPU 31 groups the searched user and the login user. A detailed procedure of the grouping process in S216 will be described later.

つぎのS218では、CPU31は、S216のグループ化処理においてグループ化されたメンバーのリストを含むグループ情報を、当該ログインユーザに対応する所定の宛先に対して返信する。グループ情報には、グループ化されたメンバーのリストに加え、各メンバーの採点データとの類似度合を示す類似度の情報や、各メンバーから入力されたコメント等の情報が含まれるようにしてもよい。あるいは、グループ情報には、各メンバーとの情報交換を行うための手段に関する情報(例えば、連絡先の電子メールアドレスや情報交換のためのアクセス先のURL等)が含まれるようしてもよい。   In next S218, the CPU 31 returns group information including a list of members grouped in the grouping process in S216 to a predetermined destination corresponding to the login user. In addition to the grouped member list, the group information may include information on similarity indicating the degree of similarity with the scoring data of each member, and information such as comments input from each member. . Alternatively, the group information may include information related to a means for exchanging information with each member (for example, an e-mail address of a contact address or an access destination URL for exchanging information).

なお、作成されたグループ情報を、例えばWebデータとして、当該ログインユーザに対応するセッションにおける通信相手となっている端末のIPアドレス宛てに返信することが考えられる。あるいは、作成されたグループ情報を、例えば電子メールのデータとして、要求元のログインユーザの所有する電子メールアドレス宛てに送信することも考えられる。あるいは、作成されたグループ情報を、当該ログインユーザ以外のグループのメンバーに対して送信してもよい。S218の後、CPU31はS240に進む。   It is conceivable that the created group information is returned as, for example, Web data to the IP address of the terminal that is the communication partner in the session corresponding to the login user. Alternatively, it is also conceivable to send the created group information to, for example, an e-mail address owned by the requesting login user as e-mail data. Or you may transmit the created group information with respect to members of groups other than the said login user. After S218, the CPU 31 proceeds to S240.

一方、S202において、ログインユーザに対応する通信相手であるスマートフォン6又はパソコン7から、他のユーザのプロファイルの閲覧する要求を受付けた場合(S202:プロファイル閲覧)、CPU31はS220に進む。S220では、CPU31は、ユーザデータベースに蓄積されたユーザアカウント情報から、当該要求元の端末から指定されたユーザの識別情報に該当するプロファイル情報を読出す。そして、CPU31は、読出したプロファイル情報を当該要求元の端末に対して返信する。S220の後、CPU31はS240に進む。   On the other hand, in S202, when a request for browsing a profile of another user is received from the smartphone 6 or the personal computer 7 which is a communication partner corresponding to the login user (S202: profile browsing), the CPU 31 proceeds to S220. In S220, the CPU 31 reads profile information corresponding to the user identification information designated from the request source terminal from the user account information stored in the user database. Then, the CPU 31 returns the read profile information to the request source terminal. After S220, the CPU 31 proceeds to S240.

一方、S202において、ログインユーザに対応する通信相手であるスマートフォン6又はパソコン7から、録音データを再生する要求を受付けた場合(S202:録音データ再生)、CPU31はS222に進む。S222では、CPU31は、ユーザデータベースに蓄積された録音データの中から、当該要求元の端末から送信されてきた入力パラメータ(再生する録音データに対応するユーザ及び楽曲の識別情報)に該当する録音データを、当該要求元の端末に対してストリーミング配信する。S222の後、CPU31はS240に進む。   On the other hand, in S202, when the request for reproducing the recorded data is received from the smartphone 6 or the personal computer 7 which is the communication partner corresponding to the logged-in user (S202: Recorded data reproduction), the CPU 31 proceeds to S222. In S222, the CPU 31 records the recording data corresponding to the input parameters (the user and music identification information corresponding to the recording data to be reproduced) transmitted from the requesting terminal from the recording data stored in the user database. Is distributed to the requesting terminal. After S222, the CPU 31 proceeds to S240.

一方、S202において、ログインユーザに対応する通信相手であるスマートフォン6又はパソコン7から、チャットを行う要求を受付けた場合(S202:チャット処理)、CPU31はS224に進む。S224では、CPU31は、当該要求元のログインユーザとのチャットの相手として指定されたユーザ(以下、送信先ユーザ)が、現在、スマートフォン6又はパソコン7からログイン中であるか否かを判定する。   On the other hand, in S202, when a request for chatting is received from the smartphone 6 or the personal computer 7 which is a communication partner corresponding to the login user (S202: chat processing), the CPU 31 proceeds to S224. In S224, the CPU 31 determines whether or not a user designated as a chat partner with the requesting login user (hereinafter referred to as a transmission destination user) is currently logged in from the smartphone 6 or the personal computer 7.

送信先ユーザがログイン中である場合(S224:YES)、CPU31はS226に進む。S226では、CPU31は、当該要求元の端末から送信されてきたログインユーザのメッセージ(例えば、文字情報)を、当該送信先ユーザに対応するセッションにおける通信相手となっている端末に対して転送する。一方、送信先ユーザがログイン中でない場合(S224:NO)、CPU31はS228に進む。S228では、CPU31は、当該要求元の端末から送信されてきたログインユーザのメッセージ(例えば、文字情報)を、当該送信先ユーザ宛てのメッセージとして、ユーザデータベース内に蓄積する。S226,S228の後、CPU31はS240に進む。   When the transmission destination user is logged in (S224: YES), the CPU 31 proceeds to S226. In S226, the CPU 31 transfers the log-in user message (for example, character information) transmitted from the request source terminal to the communication partner terminal in the session corresponding to the destination user. On the other hand, when the destination user is not logged in (S224: NO), the CPU 31 proceeds to S228. In S228, the CPU 31 accumulates the login user's message (for example, character information) transmitted from the request source terminal in the user database as a message addressed to the destination user. After S226 and S228, the CPU 31 proceeds to S240.

一方、S202において、リモコン端末5、スマートフォン6又はパソコン7の何れか端末から、ユーザがログイン又はログアウトする要求を受付けた場合(S202:ログイン/ログアウト)、CPU31はS230に進む。S230では、CPU31は、当該要求がユーザのログインであるか否かを判定する。当該要求がログインである場合(S230:ログイン)、CPU31は、ユーザデータベース内に当該ログインユーザ宛てのメッセージが蓄積されているか否かを判定する(S232)。当該ログインユーザ宛てのメッセージが蓄積されている場合(S232:YES)、CPU31はS234に進む。一方、当該ログインユーザ宛てのメッセージが蓄積されていない場合(S232:NO)、CPU31はS236に進む。   On the other hand, in S202, when the user receives a request to log in or log out from any one of the remote control terminal 5, the smartphone 6, or the personal computer 7 (S202: login / logout), the CPU 31 proceeds to S230. In S230, the CPU 31 determines whether or not the request is a user login. When the request is login (S230: login), the CPU 31 determines whether or not a message addressed to the login user is accumulated in the user database (S232). When the message addressed to the login user is accumulated (S232: YES), the CPU 31 proceeds to S234. On the other hand, when the message addressed to the login user is not accumulated (S232: NO), the CPU 31 proceeds to S236.

当該ログインユーザ宛てのメッセージが蓄積されている場合に進むS234では、CPU31は、蓄積されていた当該ログインユーザ宛てのメッセージを、当該要求元の端末(スマートフォン6又はパソコン7)に対して送信する。そして、S236では、CPU31は、ログインユーザに対応するセッションを生成する。セッションの生成により、ログインユーザがログアウトする手続を行うまでの間、当該要求元の端末とSNSサーバ3との間で行われる通信は、当該ログインユーザのアカウントに対応付けられたものとして扱われる。   In S234, which proceeds when the message addressed to the logged-in user is accumulated, the CPU 31 transmits the accumulated message addressed to the logged-in user to the requesting terminal (the smartphone 6 or the personal computer 7). In S236, the CPU 31 generates a session corresponding to the login user. Until the login user performs a procedure for logging out by generating a session, communication performed between the request source terminal and the SNS server 3 is handled as being associated with the account of the login user.

一方、S230において、当該要求がログアウトである場合(S230:ログアウト)、CPU31はS238に進む。S238では、CPU31は、当該要求元の端末との間で行われていたセッションを終了する。S236,S238の後、CPU31はS240に進む。   On the other hand, when the request is logout in S230 (S230: logout), the CPU 31 proceeds to S238. In S238, the CPU 31 ends the session that has been performed with the request source terminal. After S236 and S238, the CPU 31 proceeds to S240.

S240では、CPU31は、SNSサーバ3のシャットダウンを行う指示を受付けたか否かを判定する。シャットダウンの指示を受付けていない場合(S240:NO)、CPU31はS202に戻る。一方、シャットダウンの指示を受付けた場合(S240:YES)、CPU31はS242に進む。S242では、CPU31は、シャットダウン時の終了処理を行う。S242の後、CPU31は本処理を終了する。   In S240, the CPU 31 determines whether an instruction to shut down the SNS server 3 has been received. When the shutdown instruction is not received (S240: NO), the CPU 31 returns to S202. On the other hand, when the shutdown instruction is accepted (S240: YES), the CPU 31 proceeds to S242. In S242, the CPU 31 performs a termination process at the time of shutdown. After S242, the CPU 31 ends this process.

[グループ化処理の説明]
SNSサーバ3のCPU31が実行するグループ化処理の手順について、図7のフローチャートを参照しながら説明する。このグループ化処理は、上述のカラオケサービス処理(図6)のS216において実行される処理である。
[Explanation of grouping process]
A grouping process executed by the CPU 31 of the SNS server 3 will be described with reference to the flowchart of FIG. This grouping process is a process executed in S216 of the above karaoke service process (FIG. 6).

S300において、CPU31は、当該要求元の端末から送信されてきた入力パラメータ(紹介を要求する分析済みの楽曲の識別情報)に対応する楽曲のジャンルを特定する。そして、CPU31は、分析データの類似性を判定する対象となる楽曲を、当該特定されたジャンルに一致する楽曲に絞込む。ここでは、楽曲のジャンルの他に、楽曲のアーティストや、楽曲そのものを絞込みの基準にしてもよい。   In S300, the CPU 31 specifies the genre of the music corresponding to the input parameter (identification information of the analyzed music for which introduction is requested) transmitted from the request source terminal. And CPU31 narrows down the music used as the object which determines the similarity of analysis data to the music which corresponds to the specified genre. Here, in addition to the genre of music, the artist of the music or the music itself may be used as a criterion for narrowing down.

つぎのS302では、CPU31は、入力パラメータに対応する楽曲のリフレイン形式を特定する。そして、CPU31は、S300で絞込まれた楽曲の中から、当該特定されたリフレイン形式と類似する楽曲を一定数(例えば、10楽曲)抽出する。ここでは、楽曲データに含まれるメロディ区間情報を比較することによって、リフレイン形式の類似性が判断される。   In next S302, the CPU 31 specifies the refrain format of the music corresponding to the input parameter. Then, the CPU 31 extracts a certain number (for example, 10 songs) of music similar to the identified refrain format from the music narrowed down in S300. Here, the similarity of the refrain format is determined by comparing the melody section information included in the music data.

つぎのS304では、CPU31は、ユーザデータベースに蓄積された分析データに基づき、要求元のユーザに対応する分析データにおける音程ずれパターンと、S302で抽出された楽曲に対応する分析データとして特定された他のユーザの分析データにおける音程ずれパターンとを比較する。比較の結果、要求元のユーザに対応する分析データに対して音程ずれパターンが類似する他のユーザの分析データを抽出する。ここでは、要求元のユーザの分析データ及び他のユーザの分析データにおいて、リフレイン形式の「Aメロ」に対応する音程ずれパターン同士が類似する分析データを抽出する。あるいは、「サビ」に対応する音程ずれパターン同士が類似する分析データを抽出する。   In the next step S304, the CPU 31 determines, based on the analysis data stored in the user database, the pitch deviation pattern in the analysis data corresponding to the requesting user and the analysis data corresponding to the music extracted in S302. The pitch deviation patterns in the user's analysis data are compared. As a result of comparison, analysis data of other users whose pitch shift patterns are similar to the analysis data corresponding to the requesting user is extracted. Here, in the analysis data of the requesting user and the analysis data of other users, analysis data having similar pitch shift patterns corresponding to the “A melody” in the refrain format is extracted. Alternatively, analysis data having similar pitch shift patterns corresponding to “rust” is extracted.

具体的には、図3に示す分析データのように、音程ずれパターンがメロディ区間ごとの分析結果の数列として記録されている場合、要求元のユーザの分析データと他のユーザの分析データで「Aメロ」に対応する分析結果の数値を比較する。あるいは、「サビ」に対応する分析結果の数値を比較する。この比較の結果、要求元のユーザの分析データに対して分析結果の数値が規定範囲内で近い(すなわち、類似度が高い)分析データを、音連ずれパターンが類似する分析データとして抽出する。類似度は、要求元のユーザの分析データと他のユーザの分析データとで、音連ずれパターンの数値が近いほど大きくなる計算値である。   Specifically, as in the analysis data shown in FIG. 3, when a pitch shift pattern is recorded as a sequence of analysis results for each melody section, the analysis data of the requesting user and the analysis data of other users The numerical value of the analysis result corresponding to “A melody” is compared. Alternatively, the numerical values of the analysis results corresponding to “rust” are compared. As a result of the comparison, analysis data whose analysis result numerical values are close to each other within the specified range (that is, high similarity) with respect to the analysis data of the requesting user is extracted as analysis data having similar sound gap patterns. The similarity is a calculated value that increases as the numerical value of the sound sequence shift pattern is closer between the analysis data of the requesting user and the analysis data of other users.

つぎのS306では、CPU31は、S304で抽出した分析データの中から、楽曲全体の累積的な音程のずれが、要求元のユーザに対応する分析データにおける累積的な音程のずれに対して規定以上に極端に異なるものを除外する。   In the next S306, the CPU 31 determines that the cumulative pitch shift of the entire music from the analysis data extracted in S304 is more than specified relative to the cumulative pitch shift in the analysis data corresponding to the requesting user. Exclude extremely different things.

つぎのS308では、CPU31は、S306で除外されなかった残りの分析データの中から、要求元のユーザに対応する分析データに対して、しゃくり数又はビブラート数の出現頻度のパターンが類似する分析データを所定数(例えば、最大で20件程度)抽出する。ここでは、要求元のユーザの分析データ及び他のユーザの分析データとにおいて、リフレイン形式の「Aメロ」に対応するしゃくり又はビブラートの出現頻度が類似する分析データを抽出する。あるいは、「サビ」に対応するしゃくり又はビブラートの出現頻度が類似する分析データを抽出する。   In the next S308, the CPU 31 analyzes data having a similar appearance frequency pattern of the number of squirrels or vibrato to the analysis data corresponding to the requesting user from the remaining analysis data not excluded in S306. Are extracted in a predetermined number (for example, about 20 at the maximum). Here, analysis data having similar appearance frequency of sneeze or vibrato corresponding to the “A melody” in the refrain format is extracted from the analysis data of the requesting user and the analysis data of other users. Alternatively, analysis data having similar appearance frequency of sneezing or vibrato corresponding to “rust” is extracted.

具体的には、図3に示す分析データのように、しゃくり数及びビブラート数がメロディ区間ごとの出現回数の数列として記録されている場合、要求元のユーザの分析データと他のユーザの分析データで「Aメロ」に対応するしゃくり又はビブラートの出現回数を比較する。あるいは、「サビ」に対応するしゃくり又はビブラート出現回数を比較する。この比較の結果、要求元のユーザの分析データに対してしゃくり又はビブラートの出現回数が規定範囲内で近い(すなわち、類似度が高い)分析データを、しゃくり又はビブラートの出現頻度が類似する分析データとして抽出する。類似度は、要求元のユーザの分析データと他のユーザの分析データとで、しゃくり又はビブラートの出現回数が近いほど大きくなる計算値である。そして、CPU31は、抽出された分析データに対応するユーザの識別情報をグループ化する。S308の後、CPU31は本処理を終了する。   Specifically, as in the analysis data shown in FIG. 3, when the number of squirrels and the number of vibrato are recorded as a sequence of the number of appearances for each melody section, the analysis data of the requesting user and the analysis data of other users To compare the number of occurrences of sneezing or vibrato corresponding to “A melody”. Alternatively, the number of occurrences of sneezing or vibrato corresponding to “rust” is compared. As a result of this comparison, analysis data in which the number of occurrences of screaming or vibrato is close within the specified range (that is, the similarity is high) to the analysis data of the requesting user, and analysis data in which the appearance frequency of sneezing or vibrato is similar Extract as The similarity is a calculated value that increases as the number of occurrences of sneezing or vibrato is closer between the analysis data of the requesting user and the analysis data of other users. Then, the CPU 31 groups user identification information corresponding to the extracted analysis data. After S308, the CPU 31 ends this process.

[効果]
上記実施形態のカラオケネットワークシステム1によれば、以下の効果を奏する。
SNSサーバ3のユーザデータベースに蓄積された多数のユーザの歌唱の分析データに基づき、歌唱技能が類似するユーザ同士で情報交換が可能なSNSに関するグループ情報を、ユーザが利用するスマートフォン6やパソコン7に対して送信できる。このグループ情報をスマートフォン6やパソコン7等の端末を通じてユーザに閲覧してもらうことで、歌唱の練習をするユーザと類似の練習課題を有する他のユーザを紹介することができる。これにより、歌唱を練習するユーザは、上達のための練習課題を共有する仲間を発見でき、情報交換をしたり仲間の録音データを聴いたりできる。結果、ユーザの独力による練習作業では難しかった、練習ための動機付けや意欲向上を促し、歌唱の上達効率を向上させる効果が得られる。
[effect]
According to the karaoke network system 1 of the above embodiment, the following effects can be obtained.
Based on the analysis data of the singing of many users stored in the user database of the SNS server 3, group information regarding SNS that allows information exchange between users having similar singing skills is stored on the smartphone 6 and the personal computer 7 used by the user. Can be sent to. By having the user browse this group information through a terminal such as the smartphone 6 or the personal computer 7, it is possible to introduce another user having a practice task similar to the user who practice singing. Thereby, the user who practices singing can discover the friend who shares the exercise subject for improvement, and can exchange information or listen to the recorded data of the friend. As a result, the motivation and motivation for practicing, which has been difficult in the practice work by the user's own power, are promoted, and the effect of improving the efficiency of singing can be obtained.

楽曲のジャンルやアーティスト別に絞込まれた分析データの中から、グループのメンバーを抽出することで、共通の趣味や嗜好を持つグループの仲間をユーザに紹介することができる。そのため、紹介されたグループの仲間との間で共感が形成されやすくなる。   By extracting group members from analysis data narrowed down by music genre and artist, it is possible to introduce users of a group having a common hobby and preference to the user. Therefore, empathy is likely to be formed between the introduced group members.

リフレイン形式が類似する楽曲を対象に絞込まれた分析データの中から、グループのメンバーを抽出することで、メロディ区間ごとに変化するユーザの歌唱の性質を考慮した態様にて、ユーザをグループ化することができる。   Grouping users in a manner that takes into account the nature of the user's singing that changes for each melody segment by extracting group members from analysis data narrowed down to songs with similar refrain formats can do.

分析データにおける音程ずれパターンや、しゃくり数、ビブラート数の類似性を、「Aメロ」又は「サビ」といったメロディ区間単位で比較することで、メロディ区間ごとに変化するユーザの歌唱の性質を考慮した態様で、詳細にグループ分けを行うことができる。   Considering the nature of the user's singing that changes from melody section to melody section by comparing similarities of pitch shift patterns, number of squeaks, and vibrato numbers in the analysis data in units of melody sections such as “A melody” or “rust” In detail, the grouping can be performed in detail.

[特許請求の範囲に記載の構成との対応]
実施形態のカラオケネットワークシステム1と、特許請求の範囲に記載の構成との対応は次のとおりである。SNSサーバ3が、本発明におけるカラオケサーバ装置に相当する。SNSサーバ3のCPU31及び通信部35が、取得手段及び送信手段に相当する。SNSサーバ3のCPU31が、グループ化手段に相当する。SNSサーバ3のHDD34のユーザデータベースが、記憶手段に相当する。
[Correspondence with configuration described in claims]
The correspondence between the karaoke network system 1 of the embodiment and the configuration described in the claims is as follows. The SNS server 3 corresponds to the karaoke server device in the present invention. The CPU 31 and the communication unit 35 of the SNS server 3 correspond to an acquisition unit and a transmission unit. The CPU 31 of the SNS server 3 corresponds to grouping means. A user database in the HDD 34 of the SNS server 3 corresponds to a storage unit.

1…カラオケネットワークシステム、10…インターネット、2…楽曲配信サーバ、3…SNSサーバ、31…CPU、RAM…32、33…ROM、34…ハードディスクドライブ(HDD)、35…通信部、4…カラオケ演奏機器、41…モニタ、5…リモコン端末、6…スマートフォン、7…パソコン、50,53,55…ルータ、51…無線LANアクセスポイント、52…スイッチングハブ、54…無線WAN基地局。   DESCRIPTION OF SYMBOLS 1 ... Karaoke network system, 10 ... Internet, 2 ... Music distribution server, 3 ... SNS server, 31 ... CPU, RAM ... 32, 33 ... ROM, 34 ... Hard disk drive (HDD), 35 ... Communication part, 4 ... Karaoke performance Equipment: 41 ... monitor, 5 ... remote control terminal, 6 ... smartphone, 7 ... personal computer, 50, 53, 55 ... router, 51 ... wireless LAN access point, 52 ... switching hub, 54 ... wireless WAN base station.

Claims (8)

複数の端末装置とネットワークを介して通信を行うカラオケサーバ装置であって、
カラオケの歌唱について、音程の正確さ又は歌唱技巧の少なくとも何れかの指標に基づいて分析された分析結果を示す分析情報と、カラオケの歌唱を行ったユーザを識別する識別情報とを取得する取得手段と、
前記取得手段によって取得された分析情報と識別情報とを対応付けて記憶する記憶手段と、
前記記憶手段に記憶される分析情報の中から、前記分析情報で示される音程の正確さ又は歌唱技巧の少なくとも何れかの分析結果が類似する分析情報に対応する識別情報をグループ化するグループ化手段と、
前記グループ化手段によってグループ化された識別情報を用いて、前記複数の端末の何れかによりグループ内で情報交換が可能なサービスを通知するためのグループ情報を、前記端末装置に対して送信する送信手段と、
を備えることを特徴とするカラオケサーバ装置。
A karaoke server device that communicates with a plurality of terminal devices via a network,
Acquisition means for acquiring analysis information indicating an analysis result analyzed based on at least one of accuracy of pitch or singing skill and identification information for identifying a user who performed karaoke singing When,
Storage means for storing the analysis information and the identification information acquired by the acquisition means in association with each other;
Grouping means for grouping identification information corresponding to analysis information having similar analysis results of at least one of the accuracy of the pitch indicated by the analysis information or the singing technique from the analysis information stored in the storage means When,
Transmission that transmits group information for notifying a service capable of exchanging information within a group by any of the plurality of terminals to the terminal device using the identification information grouped by the grouping means Means,
A karaoke server device comprising:
請求項1に記載のカラオケサーバ装置において、
前記取得手段が取得する分析情報には、歌唱された楽曲を識別するための楽曲識別情報が含まれており、
前記グループ化手段は、前記記憶手段に記憶される分析情報の中から、前記楽曲識別情報に対応する楽曲、楽曲のジャンル、又は楽曲のアーティストの少なくとも何れかが一致する分析情報を特定し、前記特定された分析情報の中から、前記分析情報で示される音程の正確さ又は歌唱技巧の少なくとも何れかの分析結果が類似する分析情報に対応する識別情報をグループ化すること
を特徴とするカラオケサーバ装置。
The karaoke server apparatus according to claim 1,
The analysis information acquired by the acquisition means includes music identification information for identifying the sung music,
The grouping means identifies analysis information that matches at least one of a music, a music genre, or a music artist corresponding to the music identification information from the analysis information stored in the storage means, A karaoke server characterized by grouping identification information corresponding to analysis information having similar analysis results of at least one of the accuracy of the pitch indicated by the analysis information or the singing skill from among the specified analysis information apparatus.
請求項1又は請求項2に記載のカラオケサーバ装置において、
前記取得手段が取得する分析情報には、歌唱された楽曲を所定の間隔で区切った分析区間ごとに、音程の正確さ又は歌唱技巧の少なくとも何れかの指標に基づいて分析された分析結果を示す情報が含まれており、
前記グループ化手段は、前記記憶手段に記憶される分析情報の中から、前記分析情報で示される前記分析区間ごとの音程の正確さ又は歌唱技巧の少なくとも何れかの分析結果が類似する分析情報に対応する識別情報をグループ化すること
を特徴とするカラオケサーバ装置。
In the karaoke server apparatus according to claim 1 or 2,
The analysis information acquired by the acquisition means indicates an analysis result analyzed based on at least one of the accuracy of the pitch or the singing skill for each analysis section obtained by dividing the sung song at a predetermined interval. Contains information,
The grouping means includes analysis information similar to at least one of the accuracy of the pitch for each analysis section indicated by the analysis information or the analysis result of the singing technique, from the analysis information stored in the storage means. A karaoke server apparatus characterized by grouping corresponding identification information.
請求項3に記載のカラオケサーバ装置において、
前記取得手段が取得する分析情報には、歌唱された楽曲のリフレイン形式に相当する分析区間ごとの分析結果を示す情報が含まれており、
前記グループ化手段は、前記記憶手段に記憶される分析情報の中から、前記分析情報における楽曲のリフレイン形式が類似する分析情報を特定し、前記特定された分析情報の中から、前記分析情報で示される音程の正確さ又は歌唱技巧の少なくとも何れかの分析結果が類似する分析情報に対応する識別情報をグループ化すること
を特徴とするカラオケサーバ装置。
The karaoke server apparatus according to claim 3,
The analysis information acquired by the acquisition means includes information indicating an analysis result for each analysis section corresponding to the refrain format of the sung song,
The grouping means identifies analysis information having a similar refrain format of the music in the analysis information from the analysis information stored in the storage means, and uses the analysis information from the identified analysis information. The karaoke server apparatus characterized by grouping the identification information corresponding to the analysis information with which the analysis result of at least any one of the accuracy of the displayed pitch or the singing technique is similar.
請求項4に記載のカラオケサーバ装置において、
前記グループ化手段は、前記特定された分析情報の中から、前記分析情報で示されるリフレイン形式のAメロ又はサビに対応する分析区間における音程の正確さ又は歌唱技巧の少なくとも何れかの分析結果が類似する分析情報に対応する識別情報をグループ化すること
を特徴とするカラオケサーバ装置。
The karaoke server apparatus according to claim 4,
The grouping means includes an analysis result of at least one of pitch accuracy and singing skill in the analysis section corresponding to the refrain type A melody or rust indicated by the analysis information from the identified analysis information. A karaoke server device characterized by grouping identification information corresponding to similar analysis information.
請求項3ないし請求項5の何れか1項に記載のカラオケサーバ装置において、
前記取得手段が取得する分析情報には、歌唱技巧に関する分析結果として、前記分析区間ごとに特定の歌唱技巧が発現した頻度を示す情報が少なくとも含まれており、
前記グループ化手段は、前記分析情報で示される前記分析区間ごとの歌唱技巧の出現頻度が類似する分析情報に対応する識別情報をグループ化すること
を特徴とするカラオケサーバ装置。
In the karaoke server device according to any one of claims 3 to 5,
The analysis information acquired by the acquisition means includes at least information indicating a frequency at which a specific singing technique is expressed for each analysis section as an analysis result on the singing technique,
The karaoke server apparatus characterized in that the grouping means groups identification information corresponding to analysis information having a similar appearance frequency of singing skills for each analysis section indicated by the analysis information.
請求項1ないし請求項6の何れか1項に記載のカラオケサーバ装置において、
前記送信手段は、前記グループ情報を、当該グループ内に属する識別情報と対応付けて登録された宛先に該当する前記端末装置に対して送信すること
を特徴とするカラオケサーバ装置。
The karaoke server apparatus according to any one of claims 1 to 6,
The said transmission means transmits the said group information with respect to the said terminal device applicable to the destination registered by matching with the identification information which belongs in the said group. The karaoke server apparatus characterized by these.
端末装置に対してネットワークを介して情報を通知する情報通知方法であって、
カラオケの歌唱について、音程の正確さ又は歌唱技巧の少なくとも何れかの指標に基づいて分析された分析結果を示す分析情報と、カラオケの歌唱を行ったユーザを識別する識別情報とを取得する取得手順と、
前記取得手順において取得された分析情報と識別情報とを対応付けて記憶手段に登録する登録手順と、
前記記憶手段に記憶される分析情報の中から、前記分析情報で示される音程の正確さ又は歌唱技巧の少なくとも何れかの分析結果が類似する分析情報に対応する識別情報をグループ化するグループ化手順と、
前記グループ化手順においてグループ化された識別情報を用いて、前記複数の端末の何れかによりグループ内で情報交換が可能なサービスを通知するためのグループ情報を、前記端末装置に対して送信する送信手順と、
を有することを特徴とする通情報知方法。
An information notification method for notifying information to a terminal device via a network,
An acquisition procedure for acquiring analysis information indicating an analysis result analyzed based on at least one of accuracy of pitch or singing skill and identification information for identifying a user who performed karaoke singing about karaoke singing When,
A registration procedure for registering the analysis information and the identification information acquired in the acquisition procedure in association with each other in the storage unit;
A grouping procedure for grouping identification information corresponding to analysis information with similar analysis results of at least one of the accuracy of the pitch indicated by the analysis information or the singing skill from the analysis information stored in the storage means When,
Transmission that transmits group information for notifying a service capable of exchanging information within the group by any of the plurality of terminals to the terminal device using the identification information grouped in the grouping procedure Procedure and
A communication information notification method characterized by comprising:
JP2012044159A 2012-02-29 2012-02-29 Karaoke server device and information notification method Active JP5754395B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012044159A JP5754395B2 (en) 2012-02-29 2012-02-29 Karaoke server device and information notification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012044159A JP5754395B2 (en) 2012-02-29 2012-02-29 Karaoke server device and information notification method

Publications (2)

Publication Number Publication Date
JP2013182045A true JP2013182045A (en) 2013-09-12
JP5754395B2 JP5754395B2 (en) 2015-07-29

Family

ID=49272744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012044159A Active JP5754395B2 (en) 2012-02-29 2012-02-29 Karaoke server device and information notification method

Country Status (1)

Country Link
JP (1) JP5754395B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014217255A1 (en) 2013-09-03 2015-03-05 Kabushiki Kaisha Toyota Jidoshokki ELECTRIC COMPRESSOR
JP2016071046A (en) * 2014-09-29 2016-05-09 ブラザー工業株式会社 Karaoke system, karaoke device, and program
WO2019208391A1 (en) * 2018-04-26 2019-10-31 国立大学法人筑波大学 Method for presenting musicality information, musicality information presenting device, and musicality information presenting system
JP7422113B2 (en) 2021-08-20 2024-01-25 Lineヤフー株式会社 Information processing device, information processing method, and information processing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241081A (en) * 2006-03-10 2007-09-20 Brother Ind Ltd Karaoke system
JP2007256619A (en) * 2006-03-23 2007-10-04 Yamaha Corp Evaluation device, control method and program
JP2008058656A (en) * 2006-08-31 2008-03-13 Xing Inc Communication karaoke system
JP2011175170A (en) * 2010-02-25 2011-09-08 Xing Inc Communication karaoke system
JP2011203479A (en) * 2010-03-25 2011-10-13 Xing Inc Karaoke system, control method of karaoke system, and control program of karaoke system and information recording medium thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241081A (en) * 2006-03-10 2007-09-20 Brother Ind Ltd Karaoke system
JP2007256619A (en) * 2006-03-23 2007-10-04 Yamaha Corp Evaluation device, control method and program
JP2008058656A (en) * 2006-08-31 2008-03-13 Xing Inc Communication karaoke system
JP2011175170A (en) * 2010-02-25 2011-09-08 Xing Inc Communication karaoke system
JP2011203479A (en) * 2010-03-25 2011-10-13 Xing Inc Karaoke system, control method of karaoke system, and control program of karaoke system and information recording medium thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014217255A1 (en) 2013-09-03 2015-03-05 Kabushiki Kaisha Toyota Jidoshokki ELECTRIC COMPRESSOR
JP2016071046A (en) * 2014-09-29 2016-05-09 ブラザー工業株式会社 Karaoke system, karaoke device, and program
WO2019208391A1 (en) * 2018-04-26 2019-10-31 国立大学法人筑波大学 Method for presenting musicality information, musicality information presenting device, and musicality information presenting system
US11600251B2 (en) 2018-04-26 2023-03-07 University Of Tsukuba Musicality information provision method, musicality information provision apparatus, and musicality information provision system
JP7422113B2 (en) 2021-08-20 2024-01-25 Lineヤフー株式会社 Information processing device, information processing method, and information processing program

Also Published As

Publication number Publication date
JP5754395B2 (en) 2015-07-29

Similar Documents

Publication Publication Date Title
US6936758B2 (en) Player information-providing method, server, program for controlling the server, and storage medium storing the program
US20150019581A1 (en) Selecting Friends In A Network Of Friends Loosely Coupled To A Subscription Service
JP5754395B2 (en) Karaoke server device and information notification method
CN103327376B (en) Music video service device and music video customized setting method thereof
US20220043876A1 (en) Systems and methods for recommending collaborative content
JP2017018469A (en) Game server, terminal, game control method by game server, and program
US20140180448A1 (en) Crowdsourced discovery of music for improving performance
JP2009008861A (en) Karaoke system which notifies singer of difficult phrase during performance
JP2009237503A (en) Karaoke scoring method and karaoke scoring system
JP2010074199A (en) Conference system, conference support method and conference support program
US20220188062A1 (en) Skip behavior analyzer
JP4856565B2 (en) Information providing device, music reproducing device, information providing method, and information providing processing program
JP6553918B2 (en) Music recommendation system and program
CN107147741B (en) Music creation selecting method, terminal, server and system based on Internet
KR20060083379A (en) Online game broadcasting system
TWI414949B (en) A music video server and a method for setting favorite music video list
TWI492070B (en) A music video server and a method for setting favorite music video list
JP5061985B2 (en) Scoring equipment
KR20080039659A (en) Online music service system and method for automatically matching users having same taste in music
JP5333388B2 (en) Authentication system and authentication device
JP6274063B2 (en) Karaoke system, karaoke equipment, program
JP6115480B2 (en) Karaoke device, program
JP2015141325A (en) Karaoke system and program
KR101091939B1 (en) Service method of scoring a song in real-time using karaoke player and central server
JP5846010B2 (en) Distribution apparatus, distribution system, and distribution method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150511

R150 Certificate of patent or registration of utility model

Ref document number: 5754395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150