JP5410391B2 - Singing information processing device - Google Patents
Singing information processing device Download PDFInfo
- Publication number
- JP5410391B2 JP5410391B2 JP2010206068A JP2010206068A JP5410391B2 JP 5410391 B2 JP5410391 B2 JP 5410391B2 JP 2010206068 A JP2010206068 A JP 2010206068A JP 2010206068 A JP2010206068 A JP 2010206068A JP 5410391 B2 JP5410391 B2 JP 5410391B2
- Authority
- JP
- Japan
- Prior art keywords
- singing
- karaoke
- singer
- song
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000010365 information processing Effects 0.000 title claims description 42
- 238000010586 diagram Methods 0.000 claims description 28
- 238000000034 method Methods 0.000 description 63
- 230000008569 process Effects 0.000 description 55
- 238000004891 communication Methods 0.000 description 50
- 238000004458 analytical method Methods 0.000 description 29
- 230000009467 reduction Effects 0.000 description 10
- 230000000875 corresponding effect Effects 0.000 description 8
- 239000013598 vector Substances 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 239000003086 colorant Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004141 dimensional analysis Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Description
本発明は、カラオケユーザの歌唱履歴情報を処理する歌唱情報処理装置に関する。 The present invention relates to a singing information processing apparatus that processes singing history information of a karaoke user.
カラオケユーザの歌唱履歴情報、楽曲関連商品の売上げ総数等の情報を蓄積し、該情報に基づいて歌手の人気をランキング表示することが行われている。また、特許文献1には、顧客データベースが記憶する顧客データを、その属性に基づいて、クラスタリング平面上の複数のクラスタに分類し、クラスタの指定を受け付けて顧客データの検索を行うデータベース検索装置が開示されている。
Information such as singing history information of a karaoke user and the total number of sales of music related products is accumulated, and the popularity of the singer is ranked based on the information.
しかしながら、従来より行われていた歌手の人気ランキングでは、カラオケユーザの多角的な分析を行うことができないという問題があった。また、カラオケユーザを、クラスタリング平面上で歌手名及び曲名毎に分類して可視化する分析方法も考えられるが、歌手及び楽曲の数は膨大であるため、カラオケユーザの分析が困難になる場合があった。 However, there has been a problem that the karaoke user's multi-dimensional analysis cannot be performed in the singer popularity ranking that has been performed conventionally. An analysis method for classifying and visualizing karaoke users by singer name and song name on the clustering plane is also conceivable. However, since the number of singers and songs is enormous, the analysis of karaoke users may be difficult. It was.
本発明は斯かる事情に鑑みてなされたものであり、その目的は、カラオケユーザを二次元平面又は三次元空間上で歌手名又は曲名毎に分類した分類図を生成し、カラオケユーザが分類されるべき歌手名又は曲名を示す画像を分類図上に表示する際、その楽曲の歌唱頻度に応じて該画像の数を制限することにより、カラオケユーザの多角的な分析を容易に行うことが可能になる歌唱情報分析装置を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to generate a classification diagram in which karaoke users are classified according to singer names or song names on a two-dimensional plane or three-dimensional space, and the karaoke users are classified. When displaying an image showing the name of a singer or song name on the classification diagram, it is possible to easily perform multi-faceted analysis of karaoke users by limiting the number of images according to the frequency of singing the song To provide a singing information analysis device.
本発明に係る歌唱情報処理装置は、複数のカラオケユーザを識別するユーザ識別情報、該カラオケユーザが歌唱した楽曲の歌手名又は曲名に係る楽曲情報、及び該楽曲が歌唱された日付を示す日付情報を対応付けて記憶する記憶手段と、該記憶手段が記憶したユーザ識別情報及び楽曲情報に基づいて、複数のカラオケユーザを、二次元平面又は三次元空間上で歌手名又は曲名毎に分類した分類図を生成する生成手段とを備えた歌唱情報処理装置であって、楽曲の歌唱頻度を受け付ける受付手段と、前記記憶手段が記憶する楽曲情報及び日付情報に基づいて、各楽曲の歌唱頻度を算出する手段とを備え、前記生成手段は、カラオケユーザが分類される歌手名又は曲名を示した画像を分類図上に表示するようにしてあり、前記受付手段が受け付けた歌唱頻度に応じて、分類図上に表示される前記画像の数を制限する制限手段を備えることを特徴とする。 The singing information processing apparatus according to the present invention includes user identification information for identifying a plurality of karaoke users, music information related to a singer name or a music title of a music sung by the karaoke user, and date information indicating a date on which the music was sung. Categorizing a plurality of karaoke users for each singer name or song name on a two-dimensional plane or a three-dimensional space based on storage means for storing the information in association with each other and user identification information and music information stored by the storage means A singing information processing apparatus comprising a generating means for generating a figure, wherein the singing frequency of each piece of music is calculated based on the receiving means for receiving the singing frequency of the music and the music information and date information stored in the storage means And the generating means displays an image showing a singer name or a song name to be classified by the karaoke user on the classification map, and the receiving means receives the singer name. Depending on singing frequency, characterized in that it comprises a limiting means for limiting the number of images displayed on the diagram classification.
本発明にあっては、複数のカラオケユーザを、二次元平面又は三次元空間上で歌手名又は曲名毎に分類した分類図が生成される。分類図上にはカラオケユーザが分類されるべき歌手名又は曲名を示した画像が表示される。受付手段は、楽曲の歌唱頻度を受け付け、分類図上に表示される前記画像の数は、該受付手段が受け付けた歌唱頻度に応じて制限される。 In the present invention, a classification diagram is generated in which a plurality of karaoke users are classified for each singer name or song name on a two-dimensional plane or three-dimensional space. On the classification diagram, an image showing a singer name or a song name to be classified by the karaoke user is displayed. The receiving means receives the singing frequency of the music, and the number of the images displayed on the classification diagram is limited according to the singing frequency received by the receiving means.
本発明に係る歌唱情報処理装置は、前記受付手段は、歌唱頻度の範囲を受け付けるようにしてあり、前記制限手段は、歌唱頻度が前記受付手段にて受け付けた範囲内にある楽曲の歌手名又は曲名を示した画像を分類図上に表示するようにしてあることを特徴とする。 In the singing information processing apparatus according to the present invention, the accepting unit accepts a singing frequency range, and the restricting unit is a singer name of a song whose singing frequency is within the range accepted by the accepting unit or An image showing a song title is displayed on a classification diagram.
本発明にあっては、楽曲の歌唱頻度の範囲を受付手段によって受け付ける。そして、歌唱頻度が受付手段にて受け付けた範囲内にある楽曲の歌手名又は曲名を示した画像が分類図上に表示される。 In the present invention, the range of the singing frequency of the music is received by the receiving means. And the image which showed the singer name or song name of the music in which the singing frequency is in the range accepted by the accepting means is displayed on the classification diagram.
本発明によれば、カラオケユーザを二次元平面又は三次元空間上で歌手名又は曲名毎に分類した分類図を生成し、カラオケユーザが分類されるべき歌手名又は曲名を示す画像を分類図上に表示する際、その楽曲の歌唱頻度に応じて該画像の数を制限することにより、カラオケユーザの多角的な分析を容易に行うことができる。 According to the present invention, a classification diagram in which a karaoke user is classified for each singer name or song name on a two-dimensional plane or three-dimensional space is generated, and an image showing the singer name or song name to be classified by the karaoke user is displayed on the classification diagram. When the number of images is limited according to the singing frequency of the music, the karaoke user can easily perform multilateral analysis.
以下、本発明をその実施の形態を示す図面に基づいて詳述する。
図1は、本実施の形態に係る歌唱情報処理システムの一構成例を模式的に示す説明図である。本実施の形態に係る歌唱情報処理システムは、カラオケユーザの歌唱履歴情報に基づいてカラオケユーザを二次元平面上で歌手名毎に分類したマップを生成し、各種分析処理を行う歌唱情報処理装置1と、通信網Nを介して歌唱情報処理装置1に接続されたカラオケ装置2と、通信端末装置3とを備える。
Hereinafter, the present invention will be described in detail with reference to the drawings illustrating embodiments thereof.
FIG. 1 is an explanatory diagram schematically illustrating a configuration example of a singing information processing system according to the present embodiment. The singing
<カラオケ装置>
カラオケ装置2は、カラオケ店舗の各個室に通常1台設置され、有線LAN(Local Area Network)ケーブルを介して、該カラオケ店舗に設置されたハードディスク内蔵型のルータに接続されている。カラオケ端末装置は、各構成部を制御する図示しない制御部と、コンピュータの動作に必要な制御プログラムを記憶したROMと、制御部が演算処理を実行する際に生ずる各種データを一時記憶するRAMと、楽曲のMIDIデータ等を含む楽曲データを記憶する記憶装置と、通信網Nを介して各種情報を送受信する通信部と、楽曲データに基づいて楽曲の伴奏音としての楽器音を再現した音声信号を生成するMIDI音源と、伴奏及び歌唱音声を合成する音声ミキサと、各種入出力端子とを備え、各入出力端子には映像表示装置20、マイク22、及びスピーカ21等が接続されている。映像表示装置20は、例えばCRT(Cathode-ray Tube)、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ等であり、楽曲データに含まれる歌詞データに基づいて、歌詞映像を表示する。マイク22は、カラオケユーザの歌唱音声を音声信号に変換する。音声ミキサは、変換された音声信号と、MIDI音源によって生成された楽器音の音声信号とを合成し、スピーカは合成された音声信号に係る音声を放音する。
また、各個室には、カラオケ装置2を遠隔操作するための遠隔操作装置23が一又は複数台、備えられている。遠隔操作装置23は、ペンタッチセンサを有する液晶パネルを備えたボード型であり、赤外線通信にて、同一個室内のカラオケ店舗が紐付けられる。カラオケ店舗には、有線LANケーブルに接続されたアクセスポイントが設置されており、各個室に備えられた遠隔操作装置23は、アクセスポイントを介して、カラオケシステムへのユーザログイン、カラオケ曲の選曲の操作に係る情報を、紐付けられた同一個室内のカラオケ装置2との間で送受信している。
<Karaoke equipment>
One
Each private room is provided with one or a plurality of
このように構成されたカラオケ装置2の動作を説明する。カラオケユーザは、予め登録してあるカラオケユーザIDと、パスワードとを遠隔操作装置23に入力することができ、カラオケ装置2は、遠隔操作装置23にてカラオケユーザID及びパスワードを受け付け、認証サーバに問い合わせることによりカラオケユーザの認証を行う。カラオケユーザは、カラオケ装置2にログインすることによって、カラオケに関する各種サービスを享受することができる。他方、ログインしているカラオケユーザが歌唱を行った場合、カラオケ装置2は、該カラオケユーザを識別するカラオケユーザIDと、歌唱された楽曲を識別するための楽曲IDと、歌唱が行われた日時を示す歌唱日時情報とを通信部及び通信網Nを介して歌唱情報処理装置1へ送信する。歌唱情報処理装置1は、カラオケ装置2から送信されたカラオケユーザID、楽曲ID、及び歌唱日時情報を第1通信部15にて受信し、受信した情報をカラオケユーザの歌唱履歴情報として蓄積する。なお、歌唱日時は、カラオケ装置2から歌唱情報処理装置1へ送信するのでは無く、歌唱情報処理装置1側で確認するように構成しても良い。
The operation of the
<通信端末装置>
通信端末装置3は、歌唱情報処理装置1との間で情報の送受信が可能な通信機器、例えば、パーソナルコンピュータ、携帯電話端末、PDA(Personal Digital Assistant)等であり、情報分析ユーザが歌唱情報処理装置1にアクセスし、カラオケユーザの歌唱履歴に関する情報分析を行うためのブラウザを有する。以下、通信端末装置3がパーソナルコンピュータであるものとして説明する。通信端末装置3は、歌唱情報処理装置1による処理結果を表示する表示部30、キーボード、ポインティングデバイス等の入力装置31などを備える。
<Communication terminal device>
The communication terminal device 3 is a communication device capable of transmitting / receiving information to / from the singing
<歌唱情報処理装置:ハードウェア構成>
図2は、本実施の形態に係る歌唱情報処理装置1の一構成例を模式的に示すブロック図である。歌唱情報処理装置1は、該歌唱情報処理装置1の各構成部の動作を制御する制御部10、例えば、CPU(Central Processing Unit)を備える。制御部10には、バスを介してROM11、RAM12、外部記憶装置13、内部記憶装置14、第1通信部15及び第2通信部16が接続されている。
<Singing Information Processing Device: Hardware Configuration>
FIG. 2 is a block diagram schematically showing a configuration example of the singing
制御部10は、ROM11及び後述の内部記憶装置14に記録されたコンピュータプログラム40をRAM12に読み出して実行することにより、本実施の形態に係る後述の歌唱情報処理方法を実施し、歌唱情報処理装置1として動作する。
The
ROM11は、コンピュータの動作に必要な制御プログラムを記憶したマスクROM、EEPROM等の不揮発性メモリである。
The
RAM12は、制御部10の演算処理を実行する際に生ずる各種データを一時記憶するDRAM、SRAM等の揮発性メモリである。
The
外部記憶装置13は、本発明の実施の形態1に係るコンピュータプログラム40をコンピュータ読み取り可能に記録したDVD(Digital Versatile Disc)−ROM,BD(Blu-ray Disc),CD(Compact Disc)−ROM等の記録媒体4からコンピュータプログラム40、その他の各種データを読み取る光ディスクドライブである。なお、光ディスクドライブは、外部記憶装置13の一例であり、ハードディスク、フレキシブルディスクのような磁気ディスク、光磁気ディスク、半導体メモリ等からデータを読み書きする装置で外部記憶装置13を構成しても良い。
The
内部記憶装置14は、コンピュータを、歌唱情報処理装置1として機能させるためのコンピュータプログラム40を記憶するハードディスク、不揮発性半導体メモリ等である。なお、通信網Nに接続されている図示しない外部コンピュータから本発明に係るコンピュータプログラム40をダウンロードするようにしても良い。
また、内部記憶装置14は、歌唱履歴DB(Data Base)14a、カラオケユーザ情報DB14b,楽曲情報DB14c、情報分析ユーザ情報DB14dを記憶する。各種データベースの詳細は後述する。
The internal storage device 14 is a hard disk, a nonvolatile semiconductor memory, or the like that stores a
The internal storage device 14 stores a singing history DB (Data Base) 14a, a karaoke
第1通信部15は、通信網Nを介して接続された外部のカラオケ装置2との間で、カラオケ装置2から送信される歌唱履歴情報、すなわち、カラオケユーザID、楽曲ID、及び歌唱日時情報を受信するインタフェースであり、第1通信部15による各種情報の送受信は制御部10によって制御される。
The
第2通信部16は、通信網Nを介して接続された外部の通信端末装置3との間で、カラオケユーザの分析に係る情報を送受信するインタフェースであり、第2通信部16による各種情報の送受信は制御部10によって制御される。
The
<歌唱情報処理装置:データベース構成>
図3は、歌唱履歴DB14aのレコードレイアウトの一例を概念的に示す説明図である。歌唱履歴DB14aの表は、複数の列、例えば「カラオケユーザID」列、「楽曲ID」列、「歌唱日時」列等から構成されており、各行には、カラオケ装置2から送信された情報が各列に対応するようにして格納される。
「カラオケユーザID」列は、カラオケ装置2を利用する複数のカラオケユーザを識別するカラオケユーザID、例えばカラオケユーザの電子メールアドレスを格納する。
「楽曲ID」列は、カラオケ装置2にログインしたカラオケユーザが歌唱した楽曲の歌手名又は曲名に係る楽曲情報、すなわち楽曲を識別する楽曲IDを、該カラオケユーザを識別するカラオケユーザIDに対応付けて格納する。
「歌唱日時」列は、カラオケ装置2にログインしたカラオケユーザが歌唱を行った年月日及び時刻を示す日付情報を、歌唱された楽曲の楽曲IDに対応付けて格納する。
<Singing Information Processing Device: Database Configuration>
FIG. 3 is an explanatory diagram conceptually showing an example of the record layout of the
The “karaoke user ID” column stores a karaoke user ID for identifying a plurality of karaoke users who use the
The “music ID” column associates music information related to the singer name or music name of the music sung by the karaoke user who has logged into the
The “singing date and time” column stores date information indicating the date and time when the karaoke user who logged in to the
図4は、カラオケユーザ情報DB14bのレコードレイアウトの一例を概念的に示す説明図である。カラオケユーザ情報DB14bの表は、複数の列、例えば、「カラオケユーザID」列、「パスワード」列、「年齢」列、「性別」列、「嗜好」列、「出身地」列、「住所」列等から構成されており、各行(レコード)には、各列に対応した情報が格納されている。
「カラオケユーザID」列と、「パスワード」列とには、カラオケ装置2を利用する複数のカラオケユーザそれぞれを識別するカラオケユーザIDと、カラオケ装置2へのログインに必要なパスワード情報とが格納される。パスワード情報は、複数の英数字文字列からなる。また、「年齢」列、「性別」列、「嗜好」列、「出身地」列、「住所」列には、それぞれ、カラオケユーザがカラオケユーザIDを取得する際に入力した年齢、性別、嗜好、出身地、住所等が格納される。
FIG. 4 is an explanatory diagram conceptually showing an example of the record layout of the karaoke
In the “karaoke user ID” column and the “password” column, a karaoke user ID for identifying each of a plurality of karaoke users who use the
図5は、楽曲情報DB14cのレコードレイアウトの一例を概念的に示す説明図である。楽曲情報DB14cの表は、複数の列、例えば楽曲を識別するための楽曲IDを格納する「楽曲ID」列、当該楽曲の曲名を格納する「曲名」列、当該楽曲の歌手名を格納する「歌手名」列等から構成されている。
FIG. 5 is an explanatory diagram conceptually showing an example of the record layout of the
図6は、情報分析ユーザ情報DB14dのレコードレイアウトの一例を概念的に示す説明図である。情報分析ユーザ情報DB14dの表は、複数の列、例えば「情報分析ユーザID」列、「パスワード」列、「検索条件1」列、「検索条件2」列等から構成されており、各行には、各列に対応した情報が格納されている。
「情報分析ユーザID」列は、本実施の形態に係る歌唱情報処理装置1を利用する複数の情報分析ユーザそれぞれを識別する情報分析ユーザIDを格納する。情報分析ユーザIDは、情報分析ユーザが歌唱情報処理装置1にログインして、カラオケユーザの歌唱履歴に係る情報分析サービスする際に必要となる情報である。
「パスワード」列は、歌唱情報処理装置1へのログインに必要なパスワード情報を格納している。パスワード情報は、複数の英数字文字列からなる。
「検索条件1」列、「検索条件2」列は、後述するように歌唱情報の分析を行う際に指定した検索条件、例えば、歌手、カラオケユーザの年齢、性別等を用いてカラオケユーザに係る情報を絞り込み検索した検索条件を格納する。
FIG. 6 is an explanatory diagram conceptually illustrating an example of a record layout of the information analysis
The “information analysis user ID” column stores an information analysis user ID for identifying each of a plurality of information analysis users using the singing
The “password” column stores password information necessary for logging in to the singing
The “
<歌唱情報処理装置:歌唱情報分析の処理手順>
図7及び図8は、歌唱履歴の情報処理に係る制御部10の処理手順を示すフローチャートである。歌唱情報処理装置1の制御部10は、内部記憶装置14の歌唱履歴DB14aから歌唱履歴情報を読み出し(ステップS11)、読み出した歌唱履歴情報に基づいて、複数のカラオケユーザを二次元平面上で楽曲の歌手名毎に分類したマップ(分類図)51を生成し、通信端末装置3の表示部30に表示させる(ステップS12)。制御部10は、歌唱履歴DB14aに記憶された複数のカラオケユーザの歌唱履歴情報を、カラオケユーザID毎に、公知の適宜の手法を用いて、クラスタリングする。その手法の一例としては、制御部10は、前記複数のカラオケユーザの歌唱履歴情報を、当該歌唱履歴情報に対応付けられたカラオケユーザID毎に分類する。そして、カラオケユーザID毎に分類された複数のカラオケユーザの歌唱履歴情報を用いて、カラオケユーザID毎に、複数の楽曲に対するカラオケユーザの特徴ベクトル、例えば、複数の楽曲IDを成分に有する特徴ベクトルを生成する。その後、予め用意された複数のユニット51a(図9参照)それぞれの代表ベクトルの初期値を用いて、カラオケユーザID毎に生成された各特徴ベクトルを、例えば公知のK−means法やSOM法などのクラスタリング手法により、複数のユニット51aに分類する。つまり、互いに特徴ベクトルの距離が短いカラオケユーザ、すなわち同じような楽曲を歌唱し、又は歌唱するであろうカラオケユーザが集まるように分類される。そして、その分類結果に対応して、複数のカラオケユーザの歌唱履歴情報を、当該カラオケユーザのカラオケユーザIDに対応する特徴ベクトルが分類されたユニット51aにそれぞれ対応付ける。マップ51上で集合しているカラオケユーザ群は、同じような楽曲を歌唱し、又は歌唱する可能性が高く、楽曲の歌手名又は曲名毎に分類されている。
<Singing Information Processing Device: Processing Procedure for Singing Information Analysis>
FIG.7 and FIG.8 is a flowchart which shows the process sequence of the
また、制御部10は、後述するようにマップ51の一部を拡大表示させた際、拡大表示された部分がマップ51全体のどの部位を拡大したものであるかを表示するためのサブマップ53を生成し、通信端末装置3の表示部30に表示させる(ステップS13)。
Further, the
図9は、ブラウザウィンドウ5に表示されたマップ51の一例を示す模式図である。ブラウザウィンドウ5には、ステップS12で生成されたマップ51が表示される。マップ51は、例えば、マトリクス状に並んだ六角形の複数のユニット51aから構成される。図9のマップ51は、縦横に10個ずつ、合計100個のユニット51aで構成されている。なお、マップ51全体が表示されている状態においては、カラオケユーザの分布、カラオケユーザが分類されるべき歌手名を表示する後述の歌手分類画像51b等は表示されない。
また、マップ51の近傍には、マップ51の拡大又は縮小を受け付けるための拡大縮小受付部52が表示される。拡大縮小受付部52は、例えば、拡大縮小率に対応する縦棒と、該縦棒の両端に表示され、拡大側を示す「+」画像及び縮小側を示す「−」画像と、縦棒上を上下に移動し、拡大縮小率を指定するためのスライダとを有する。
更に、マップ51の近傍には上述のサブマップ53が表示される。
更にまた、ブラウザウィンドウ5の適宜箇所には、特定のカラオケユーザ群を検索するための第1検索メニュー54が表示される。第1検索メニュー54は、歌手名又は曲名等の検索項目を選択するためのプルダウンメニュー54aと、歌手名又は曲名等の検索キーワードを入力するためのテキスト入力フィールド54bと、マップ51上に表示される歌手分類画像51bの数を制限するための頻度受付部54cとを有する。頻度受付部54cは、歌唱頻度に対応する横棒と、該横棒上を移動し、歌唱頻度の下限を示す下限スライダと、歌唱頻度の上限を示す上限スライダとを有する。横棒の両端側には、それぞれ歌唱頻度「2万」、「0」の数字が表示される。なお、歌唱頻度は、例えば、直近1ヶ月の間に、ある歌手の楽曲が歌唱された回数を示している。
FIG. 9 is a schematic diagram showing an example of the
Further, an enlargement /
Further, the above-described
Furthermore, a first search menu 54 for searching for a specific karaoke user group is displayed at an appropriate location in the
ステップS13の処理を終えた制御部10は、通信端末装置3の入力装置31で操作されたポインタ6によって特定のユニット51aが指定されたか否かを判定する(ステップS14)。例えば、ポインタ6が特定のユニット51aに一定時間、マウスオーバした場合、又は特定のユニット51aにポインタ6がマウスオーバし、クリック操作された場合、制御部10は、ユニット51aが指定されたと判定する。ユニット51aが指定されたと判定した場合(ステップS14:YES)、制御部10は、指定されたユニット51aに属する歌手名を、通信端末装置3の表示部30に表示させる(ステップS15)。具体的には、図9に示すように、指定されたユニット51aに属する歌手名の一覧を吹き出しのようにしてマップ51上に表示する。
The
ステップS15の処理を終えた場合、又はユニット51aが指定されていないと判定した場合(ステップS14:NO)、制御部10は、通信端末装置3から送信された操作内容を第2通信部16にて受信し、マップ51の拡大及び縮小を受け付けたか否かを判定する(ステップS16)。例えば、拡大縮小受付部52のスライダが移動した場合、制御部10は、マップ51の拡大及び縮小を受け付けたと判定する。マップ51の拡大又は縮小を受け付けたと判定した場合(ステップS16:YES)、制御部10は、受け付けた内容に応じてマップ51の一部を拡大又は縮小させる(ステップS17)。また、制御部10は、マップ51を拡大又は縮小した際、表示部30に表示されている部分がマップ51全体のどの位置に対応しているかを示す矩形枠をサブマップ53上に表示する。
When the process of step S15 is completed or when it is determined that the
ステップS17の処理を終えた場合、又はマップ51の拡大及び縮小を受け付けていないと判定した場合(ステップS16:NO)、制御部10は、楽曲に係る検索条件を受け付けたか否かを判定する(ステップS18)。検索条件は、例えば楽曲の歌手名又は曲名である。具体的には、情報分析ユーザは、第1検索メニュー54のプルダウンメニュー54aから歌手名又は曲名のいずれかを検索項目として選択し、テキスト入力フィールド54bに、特定の歌手名又は曲名を入力して検索ボタンを操作する。以上の操作によって、検索条件が通信端末装置3から歌唱情報処理装置1へ送信され、制御部10は該検索条件を受け付ける。楽曲に係る検索条件を受け付けたと判定した場合(ステップS18:YES)、制御部10は、検索条件に合致した楽曲を歌唱しているカラオケユーザが多く分布しているマップ51上の領域を中心に、拡大させたマップ51を生成し、通信端末装置3の表示部30に表示させる(ステップS19)。
When the process of step S17 is completed, or when it is determined that enlargement and reduction of the
図10は、歌手名又は曲名による検索によって拡大表示されたマップ51の一例を示す模式図である。拡大表示されたマップ51上には、カラオケユーザが分類されるべき歌手名を示した歌手分類画像51bが表示される。歌手分類画像51bは、例えば円形であり、マップ51上でカラオケユーザが分類された歌手名を表示する画像である。検索によって特定された歌手名を表示した歌手分類画像51bは、太線円状のカーソル51cで選択されている。更に、歌手分類画像51bは、当該歌手の楽曲を歌唱する主なカラオケユーザの男女の別によって異なる色を有している。図10中、ハッチングの向きが異なる各領域は、それぞれ異なる色で表示されていることを示している。なお、カラオケユーザの男女の比率によって、2つの色の混合比を変化させることによって、ある歌手名の楽曲を歌唱するカラオケユーザの男女比を表示するように構成しても良い。
FIG. 10 is a schematic diagram showing an example of a
ステップS19の処理を終えた場合、又は楽曲に係る検索条件を受け付けていないと判定した場合(ステップS18:NO)、制御部10は、通信端末装置3から送信された操作内容を第2通信部16にて受信し、歌唱頻度の範囲を受け付けたか否かを判定する(ステップS20)。具体的には、頻度受付部54cの下限スライダ又は上限スライダが移動した場合、制御部10は、歌唱頻度の範囲を受け付けたと判定する。歌唱頻度の範囲を受け付けたと判定した場合(ステップS20:YES)、制御部10は、内部記憶装置14の歌唱履歴DB14aが記憶する楽曲ID及び日付情報に基づいて、各楽曲の歌唱頻度を算出する(ステップS21)。そして、制御部10は、受け付けた歌唱頻度の範囲に応じて、歌手分類画像51bの数を制限する(ステップS22)。具体的には、歌唱頻度の範囲が、受け付けた歌唱頻度の範囲内にある楽曲を歌唱している歌手に対応する歌手分類画像51bをマップ51上に表示し、その範囲外にある楽曲を歌唱している歌手に対応する歌手分類画像51bをマップ51上に表示しないようにする。
When the process of step S19 is completed or when it is determined that the search condition relating to the music is not accepted (step S18: NO), the
図11は、歌唱頻度で歌手分類画像51bの数が制限されたマップ51の一例を示した説明図である。ステップS21,22の処理によって歌唱頻度が制限された場合、図11に示すように、マップ51上に表示される歌手分類画像51bの数が制限される。
FIG. 11 is an explanatory diagram showing an example of a
ステップS22の処理を終えた場合、又は歌唱頻度の範囲を受け付けていないと判定した場合(ステップS20:NO)、制御部10は、通信端末装置3から送信された操作内容を第2通信部16にて受信し、マップ51上の歌手名が選択されたか否か、すなわち特定の歌手分類画像51bがポインタ6によって選択されたか否かを判定する(ステップS23)。歌手分類画像51bが選択されていないと判定した場合(ステップS23:NO)、制御部10は、処理をステップS14へ戻す。
When the process of step S22 is completed, or when it is determined that the singing frequency range is not accepted (step S20: NO), the
歌手分類画像51bが選択されたと判定した場合(ステップS23:YES)、制御部10は、選択された歌手の楽曲を歌唱したことがあるカラオケユーザを分類したマップ51を生成し、生成したマップ51を通信端末装置3の表示部30に表示させる(ステップS24)。そして、制御部10は、選択された歌手の楽曲を歌唱するカラオケユーザの詳細な情報を、通信端末装置3の表示部30に表示させる(ステップS25)。
When it determines with the
図12及び図13は、特定の歌手を選択した際に表示されるマップ51の一例を示した説明図である。特定の歌手名が選択された場合、該歌手名に係る楽曲を歌唱したことがある各ユニット51aのカラオケユーザの数に応じて、各ユニット51aが色分け表示される。
また、ブラウザウィンドウ5の適宜箇所には、マップ51上に反映させるカラオケユーザの属性を指定することによって、特定層のカラオケユーザの検索を行う第2検索メニュー55が表示される。第2検索メニュー55は、カラオケユーザの年齢を指定する年齢チェックボックス55aと、性別を指定する性別チェックボックス55bと、選択されている歌手の楽曲を歌唱した回数を指定する歌唱回数チェックボックス55cと、検索ボタン55dと、一時保存された検索条件を呼び出すための検索条件呼び出し部55eと、検索条件を一時保存するための一時保存ボタン55fとで構成される。
更に、ブラウザウィンドウ5の適宜箇所には、選択されている歌手名に係る楽曲を歌唱したことがあるカラオケユーザの属性の詳細を表示した詳細情報表示部56が表示される。詳細情報表示部56には、例えば、カラオケユーザの年齢構成を示したパイグラフ56a、男女の比率を示したパイグラフ56b、歌唱回数の構成を示したパイグラフ56c等を有する。
更にまた、図13に示すように、記録ボタンを操作することによって、直前に作成されたマップ51を表示したタブシートとは別に、新しいタブシートが生成され、新しいタブシートには、別の検索条件で分析したマップ51を作成することができる。
FIG.12 and FIG.13 is explanatory drawing which showed an example of the
In addition, a
Furthermore, a detailed
Furthermore, as shown in FIG. 13, by operating the record button, a new tab sheet is generated separately from the tab sheet displaying the
次いで、通信端末装置3の入力装置31で操作されたポインタ6によって特定のユニット51aが指定されたか否かを判定する(ステップS26)。ユニット51aが指定されたと判定した場合(ステップS26:YES)、制御部10は、指定されたユニット51aに属する歌手名を、通信端末装置3の表示部30に表示させる(ステップS27)。
Next, it is determined whether or not a
ステップS27の処理を終えた場合、又はユニット51aが指定されていないと判定した場合(ステップS26:NO)、制御部10は、カラオケユーザに係る検索条件を受け付けたか否かを判定する(ステップS28)。カラオケユーザに係る検索条件は、例えば、カラオケユーザの年齢、性別、歌唱回数等である。情報分析ユーザは、第2検索メニュー55の各チェックボックスにチェックを入れ、検索ボタン55dを操作することによって、上述の検索条件を入力することができる。また、一時保存ボタン55fを操作することによって、検索条件を保存することもできる。
カラオケユーザに係る検索条件を受け付けたと判定した場合(ステップS28:YES)、制御部10は、マップ51上に分類するカラオケユーザを検索条件に応じて制限する(ステップS29)。つまり、制御部10は、ステップS23で選択された歌手の楽曲を歌唱し、かつ、受け付けた検索条件に合致するカラオケユーザをマップ51上で分類する。
When the process of step S27 is completed, or when it is determined that the
When it determines with having received the search condition which concerns on a karaoke user (step S28: YES), the
ステップS29の処理を終えた場合、又はカラオケユーザに係る検索条件を受け付けていないと判定した場合(ステップS28:NO)、制御部10は、歌手の比較処理を受け付けたか否かを判定する(ステップS30)。歌手の比較処理を受け付けたと判定した場合(ステップS30:YES)、制御部10は、後述のサブルーチンを呼び出し、歌手の比較処理を実行する(ステップS31)。具体的には、比較対象の歌手の楽曲を歌唱したことがあるカラオケユーザのマップ51をそれぞれ生成し、並べて表示させる処理を実行する。
When the process of step S29 is completed, or when it is determined that the search condition relating to the karaoke user is not accepted (step S28: NO), the
ステップS31の処理を終えた場合、又は歌手比較処理を受け付けていないと判定した場合(ステップS30:NO)、制御部10は、過去のマップ51との比較処理を受け付けたか否かを判定する(ステップS32)。過去のマップ51との比較処理を受け付けたと判定した場合(ステップS32:YES)、制御部10は、後述のサブルーチンを呼び出し、現在及び過去のマップ51の比較処理を実行する(ステップS33)。
When the process of step S31 is completed, or when it is determined that the singer comparison process is not accepted (step S30: NO), the
ステップS33の処理を終えた場合、又は過去のマップ51との比較処理を受け付けていないと判定した場合(ステップS32:NO)、制御部10は、選択されている歌手の将来予測処理を受け付けたか否かを判定する(ステップS34)。将来予測処理を受け付けたと判定した場合(ステップS34:YES)、制御部10は、後述のサブルーチンを呼び出し、選択されている歌手の将来のマップ51を予測する処理を実行する(ステップS35)。
When the process of step S33 is completed, or when it is determined that the comparison process with the
ステップS35の処理を終えた場合、又は将来予測処理を受け付けていないと判定した場合(ステップS34:NO)、制御部10は、通信端末装置3から送信された操作内容を、第2通信部16にて受信し、図9に示した歌手検索を行うマップ51に戻るか否かを判定する(ステップS36)。歌手検索を行うマップ51に戻ると判定した場合(ステップS36:YES)、制御部10は、処理をステップS11へ戻す。歌手検索を行うマップ51に戻らないと判定した場合(ステップS36:NO)、制御部10は、歌唱情報の分析を終えるか否かを判定する(ステップS37)。歌唱情報の分析を終えないと判定した場合(ステップS37:NO)、制御部10は、処理をステップS26へ戻す。歌唱情報の分析を終えると判定した場合(ステップS37:YES)、制御部10は、処理を終える。
When the process of step S35 is completed, or when it is determined that the future prediction process is not accepted (step S34: NO), the
図14は、歌手比較に係る制御部10の処理手順を示すフローチャート、図15は、歌手比較を行った際に表示されるマップ51の一例を示した説明図である。歌唱情報処理装置1の制御部10は、ステップS31で歌手比較に係るサブルーチンが呼び出された場合、比較対象の歌手名を受け付ける(ステップS51)。情報分析ユーザは、例えば、ブラウザウィンドウ5上の歌手名が表示されているタブを2つ選択することによって比較対象を指定することができる。
FIG. 14 is a flowchart showing a processing procedure of the
次いで制御部10は、ステップS51で受け付けた第1の歌手名の楽曲を歌唱したことがあるカラオケユーザを分類したマップ51を生成する(ステップS52)。また、制御部10は、ステップS51で受け付けた第2の歌手名の楽曲を歌唱したことがあるカラオケユーザを分類したマップ71を生成する(ステップS53)。
Subsequently, the
そして、制御部10は、図15に示すように、ステップS52、53で生成した第1の歌手のマップ51と、第2の歌手のマップ71とを並べて表示部30に表示させる(ステップS54)。次いで、制御部10は、通信端末装置3から送信された操作内容を、第2通信部16にて受信し、歌手比較の処理を終えて前画面に戻るか否かを判定する(ステップS55)。歌手比較の処理を終えないと判定した場合(ステップS55:NO)、制御部10は、処理をステップS51へ戻す。歌手比較の処理を終えたと判定した場合(ステップS55:YES)、制御部10は、歌手比較に係る処理を終える。
Then, as shown in FIG. 15, the
図16は、現在及び過去の比較に係る制御部10の処理手順を示すフローチャート、図17は、現在及び過去の比較処理を行った際に表示されるマップの一例を示した説明図である。歌唱情報処理装置1の制御部10は、ステップS33で現在及び過去の比較に係るサブルーチンが呼び出された場合、比較対象の期間を受け付ける(ステップS71)。そして、制御部10は、選択された歌手名の楽曲を比較対象である第1の期間で歌唱したことがあるカラオケユーザを検索し、該カラオケユーザを分類したマップ51を生成する(ステップS72)。第1の期間は、例えば現在の日時から1ヶ月前の期間である。次いで、制御部10は、ステップS72で分析した同一の歌手名の楽曲を比較対象である第2の期間で歌唱したことがあるカラオケユーザを検索し、該カラオケユーザを分類したマップ81を生成する(ステップS73)。
FIG. 16 is a flowchart illustrating a processing procedure of the
そして、制御部10は、図17に示すように、ステップS72で生成した現在のマップ51と、ステップS73で生成した過去のマップ81とを並べて表示部30に表示させる(ステップS74)。次いで、制御部10は、通信端末装置3から送信された操作内容を、第2通信部16にて受信し、現在及び過去の比較処理を終えて前画面に戻るか否かを判定する(ステップS75)。現在及び過去の比較処理を終えないと判定した場合(ステップS75:NO)、制御部10は、処理をステップS71へ戻す。現在及び過去の比較処理を終えたと判定した場合(ステップS75:YES)、制御部10は、現在及び過去の比較処理に係る処理を終える。
Then, as shown in FIG. 17, the
図18は、将来予測に係る制御部10の処理手順を示すフローチャート、図19は、将来予測に係る処理を行った際に表示されるマップ91,92,93の一例を示した説明図である。歌唱情報処理装置1の制御部10は、ステップS35で将来予測に係るサブルーチンが呼び出された場合、選択された歌手名の楽曲を、複数の各期間で歌唱したことがあるカラオケユーザを検索し、該カラオケユーザを分類したマップを生成する(ステップS91)。例えば、現在から1ヶ月前の期間、半年前の1ヶ月の期間、1年前の1ヶ月の期間でそれぞれ歌唱したことがあるカラオケユーザの3つのマップを生成する。次いで、制御部10は、他の歌手の楽曲を、より過去の複数の各期間で歌唱したことがあるカラオケユーザを検索し、該カラオケユーザを分類したマップを生成する(ステップS92)。例えば、1年前の1ヶ月の期間、1年半前の1ヶ月の期間、2年前の1ヶ月の期間でそれぞれ歌唱したことがあるカラオケユーザの3つのマップを生成する。
FIG. 18 is a flowchart illustrating a processing procedure of the
そして、制御部10は、ステップS92で生成した歌手の各期間における現在のマップと、ステップS93で生成した他の歌手の各期間における過去のマップとを比較し、ステップS92で生成した歌手のマップと相関がある他の歌手を特定する(ステップS93)。つまり、選択されている歌手の直近1年間のマップ51の変化と、他の歌手の1〜2年間のマップ51の変化とを比較し、カラオケユーザ分布が同じように変化しているマップの歌手を特定する。
And the
次いで、制御部10は、ステップS93で特定された他の歌手の楽曲を、ステップS92で用いた期間よりも未来側の複数の各期間で歌唱したことがあるカラオケユーザを分類したマップを生成する(ステップS94)。例えば、ステップS93で特定された歌手の楽曲を、現在から1ヶ月前の期間、半年前の1ヶ月の期間、1年前の1ヶ月の期間でそれぞれ、歌唱したことがあるカラオケユーザの3つのマップ51を生成する。なお、ステップS93で複数の他の歌手が特定された場合、複数の他の歌手それぞれについて、未来側のマップ51を生成する。
Next, the
そして、制御部10は、ステップS93で相関がある複数の他の歌手を特定したか否かを判定する(ステップS95)。一人の他の歌手を特定したと判定した場合(ステップS95:NO)、制御部10は、図19に示すように、ステップS94で生成した未来側の複数の期間における、相関があった他の歌手のマップ51を並べて表示する(ステップS96)。ステップS96で表示されるマップ51は、将来予測対象である歌手の将来的なマップ51の変遷を表したものと考えることができる。
And the
ステップS95で相関がある複数の他の歌手を特定したと判定した場合(ステップS95:YES)、制御部10は、特定された複数の各歌手の楽曲を歌唱したことがあるカラオケユーザの平均的分布を示したマップ51を生成する(ステップS97)。そして、制御部10は、ステップS97で生成した未来側の複数の期間における、相関があった他の歌手の平均的分布を示したマップ91,92,93を並べて表示する(ステップS98)。
If it is determined in step S95 that a plurality of other correlated singers have been identified (step S95: YES), the
ステップS96又はステップS98の処理を終えた制御部10は、通信端末装置3から送信された操作内容を、第2通信部16にて受信し、将来予測処理を終えて前画面に戻るか否かを判定する(ステップS99)。将来予測処理を終えないと判定した場合(ステップS99:NO)、制御部10は、処理をステップS91へ戻す。将来予測処理を終えたと判定した場合(ステップS99:YES)、制御部10は、将来予測処理に係る処理を終える。
The
このように構成された歌唱情報処理装置1にあっては、カラオケユーザを二次元平面上で歌手名毎に分類したマップ51を生成し、カラオケユーザが分類された歌手名を示す歌手分類画像51bをマップ51上に表示する際、その楽曲の歌唱頻度に応じて歌手分類画像51bの数を制限することにより、カラオケユーザの多角的な分析を容易に行うことが可能になる。
In the singing
また、歌手がこれからどんな売れ方をしていくのかといった未来予測を行うことができる。 You can also predict the future how the singer will sell.
なお、本実施の形態では、カラオケユーザを二次元平面上で歌手名毎に分類する例を説明したが、カラオケユーザを三次元空間上で歌手名毎に分類するように構成しても良い。
また、カラオケユーザを二次元平面上で歌手名毎に分類し、歌手名分類画像を表示する例を説明したが、カラオケユーザを曲名毎に分類し、カラオケユーザが分類されるべき曲名を表示した曲名分類画像を表示するように構成しても良い。
In this embodiment, an example has been described in which karaoke users are classified for each singer name on a two-dimensional plane. However, karaoke users may be classified for each singer name on a three-dimensional space.
Moreover, although the example which classify | categorizes a karaoke user for every singer name on a two-dimensional plane, and displays a singer name classification image was demonstrated, the karaoke user was classified for every song name and the karaoke user displayed the song name which should be classified You may comprise so that a music title classification | category image may be displayed.
今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed herein are illustrative in all respects and should not be considered as restrictive. The scope of the present invention is defined not by the above-mentioned meaning but by the scope of the claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of the claims.
1 歌唱情報処理装置
2 カラオケ装置
3 通信端末装置
51 マップ
51a ユニット
51b 歌手分類画像
52 拡大縮小受付部
53 サブマップ
54 第1検索メニュー
54b テキスト入力フィールド
54c 頻度受付部
55 第2検索メニュー
56 詳細情報表示部
10 制御部
14 内部記憶装置
14a 歌唱履歴DB
14b カラオケユーザ情報DB
14c 楽曲情報DB
14d 情報分析ユーザ情報DB
15 第1通信部
16 第2通信部
N 通信網
DESCRIPTION OF
14b Karaoke user information DB
14c Music information DB
14d Information analysis user information DB
15
Claims (2)
楽曲の歌唱頻度を受け付ける受付手段と、
前記記憶手段が記憶する楽曲情報及び日付情報に基づいて、各楽曲の歌唱頻度を算出する手段と
を備え、
前記生成手段は、
カラオケユーザが分類される歌手名又は曲名を示した画像を分類図上に表示するようにしてあり、
前記受付手段が受け付けた歌唱頻度に応じて、分類図上に表示される前記画像の数を制限する制限手段を備える
ことを特徴とする歌唱情報処理装置。 Storage means for associating and storing user identification information for identifying a plurality of karaoke users, song information relating to the singer name or song name of the song sung by the karaoke user, and date information indicating the date on which the song was sung, A generating unit configured to generate a classification diagram in which a plurality of karaoke users are classified for each singer name or song name on a two-dimensional plane or a three-dimensional space based on the user identification information and the music information stored in the storage unit; A singing information processing device,
A reception means for receiving the singing frequency of the music;
Means for calculating the singing frequency of each song based on the music information and date information stored in the storage means,
The generating means includes
An image showing the name of the singer or song name to which the karaoke user is classified is displayed on the classification map,
A singing information processing apparatus comprising: limiting means for limiting the number of the images displayed on the classification map according to the singing frequency received by the receiving means.
歌唱頻度の範囲を受け付けるようにしてあり、
前記制限手段は、
歌唱頻度が前記受付手段にて受け付けた範囲内にある楽曲の歌手名又は曲名を示した画像を分類図上に表示するようにしてある
ことを特徴とする請求項1に記載の歌唱情報処理装置。 The accepting means is
The range of singing frequencies is accepted,
The limiting means is
The singing information processing apparatus according to claim 1, wherein an image showing a singer name or a song name of a song whose singing frequency is within the range accepted by the accepting means is displayed on the classification diagram. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010206068A JP5410391B2 (en) | 2010-09-14 | 2010-09-14 | Singing information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010206068A JP5410391B2 (en) | 2010-09-14 | 2010-09-14 | Singing information processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012063458A JP2012063458A (en) | 2012-03-29 |
JP5410391B2 true JP5410391B2 (en) | 2014-02-05 |
Family
ID=46059252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010206068A Expired - Fee Related JP5410391B2 (en) | 2010-09-14 | 2010-09-14 | Singing information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5410391B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5759412B2 (en) * | 2012-04-02 | 2015-08-05 | 株式会社エクシング | Terminal device and music playback device |
JP6548541B2 (en) * | 2015-09-26 | 2019-07-24 | 株式会社コシダカホールディングス | Information notice |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04124769A (en) * | 1990-09-17 | 1992-04-24 | Hitachi Ltd | Method and system for analyzing and supporting commercial bloc |
JP3136272B2 (en) * | 1996-08-08 | 2001-02-19 | 株式会社第一興商 | Communication karaoke system |
JP4356849B2 (en) * | 1999-02-05 | 2009-11-04 | 株式会社タイトー | Online karaoke system |
JP2003099455A (en) * | 2001-09-20 | 2003-04-04 | Yamaha Corp | Device and program for providing information |
JP2003241771A (en) * | 2002-02-15 | 2003-08-29 | Yamaha Corp | Karaoke music selection support system |
-
2010
- 2010-09-14 JP JP2010206068A patent/JP5410391B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012063458A (en) | 2012-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10885110B2 (en) | Analyzing captured sound and seeking a match based on an acoustic fingerprint for temporal and geographic presentation and navigation of linked cultural, artistic, and historic content | |
KR100890993B1 (en) | Intelligent style music information search system and method | |
US7613736B2 (en) | Sharing music essence in a recommendation system | |
JP4910582B2 (en) | Information processing apparatus and method, and program | |
US20060224260A1 (en) | Scan shuffle for building playlists | |
US20210357450A1 (en) | Analyzing captured sound and seeking a match for temporal and geographic presentation and navigation of linked cultural, artistic and historic content | |
JP3707361B2 (en) | Information providing server and information providing method | |
US20110010363A1 (en) | Information processing apparatus, information processing method, and program | |
US20190171637A1 (en) | Information providing device | |
JP5410391B2 (en) | Singing information processing device | |
JP5410392B2 (en) | Singing information processing device | |
JP5585144B2 (en) | Karaoke device and program | |
US20200013409A1 (en) | Speaker retrieval device, speaker retrieval method, and computer program product | |
JP4916945B2 (en) | Music information grant server, terminal, and music information grant system | |
JP5455952B2 (en) | Music selection device and music selection program | |
JP2006040085A (en) | Information processing device and method therefor, storage medium, and program | |
JP6045069B2 (en) | Operation terminal, karaoke system, and karaoke program | |
JP6672707B2 (en) | Playlist generation method, playlist generation device, program, and list generation method | |
KR101266972B1 (en) | Song searching method and song searching apparatus using song characteristics classification | |
JP3602059B2 (en) | Melody search formula karaoke performance reservation system, melody search server, karaoke computer | |
JP3759700B2 (en) | User preference reflection type search method, its execution apparatus, its processing program and recording medium | |
JP6232304B2 (en) | A viewing system for singing videos that determines the display priority in consideration of the viewer's evaluation | |
JP2012208367A (en) | Music reproduction system and music reproduction program | |
JP2006190128A (en) | Information processing apparatus and method, and program | |
JP4573684B2 (en) | Information search device, information search method, information search program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120807 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131015 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5410391 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |