JP5410391B2 - Singing information processing device - Google Patents

Singing information processing device Download PDF

Info

Publication number
JP5410391B2
JP5410391B2 JP2010206068A JP2010206068A JP5410391B2 JP 5410391 B2 JP5410391 B2 JP 5410391B2 JP 2010206068 A JP2010206068 A JP 2010206068A JP 2010206068 A JP2010206068 A JP 2010206068A JP 5410391 B2 JP5410391 B2 JP 5410391B2
Authority
JP
Japan
Prior art keywords
singing
karaoke
singer
song
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010206068A
Other languages
Japanese (ja)
Other versions
JP2012063458A (en
Inventor
慈明 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xing Inc
Original Assignee
Xing Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xing Inc filed Critical Xing Inc
Priority to JP2010206068A priority Critical patent/JP5410391B2/en
Publication of JP2012063458A publication Critical patent/JP2012063458A/en
Application granted granted Critical
Publication of JP5410391B2 publication Critical patent/JP5410391B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明は、カラオケユーザの歌唱履歴情報を処理する歌唱情報処理装置に関する。   The present invention relates to a singing information processing apparatus that processes singing history information of a karaoke user.

カラオケユーザの歌唱履歴情報、楽曲関連商品の売上げ総数等の情報を蓄積し、該情報に基づいて歌手の人気をランキング表示することが行われている。また、特許文献1には、顧客データベースが記憶する顧客データを、その属性に基づいて、クラスタリング平面上の複数のクラスタに分類し、クラスタの指定を受け付けて顧客データの検索を行うデータベース検索装置が開示されている。   Information such as singing history information of a karaoke user and the total number of sales of music related products is accumulated, and the popularity of the singer is ranked based on the information. Patent Document 1 discloses a database search device that classifies customer data stored in a customer database into a plurality of clusters on a clustering plane based on the attributes, and receives customer designations to retrieve customer data. It is disclosed.

特開平08−077184号公報Japanese Patent Application Laid-Open No. 08-077184

しかしながら、従来より行われていた歌手の人気ランキングでは、カラオケユーザの多角的な分析を行うことができないという問題があった。また、カラオケユーザを、クラスタリング平面上で歌手名及び曲名毎に分類して可視化する分析方法も考えられるが、歌手及び楽曲の数は膨大であるため、カラオケユーザの分析が困難になる場合があった。   However, there has been a problem that the karaoke user's multi-dimensional analysis cannot be performed in the singer popularity ranking that has been performed conventionally. An analysis method for classifying and visualizing karaoke users by singer name and song name on the clustering plane is also conceivable. However, since the number of singers and songs is enormous, the analysis of karaoke users may be difficult. It was.

本発明は斯かる事情に鑑みてなされたものであり、その目的は、カラオケユーザを二次元平面又は三次元空間上で歌手名又は曲名毎に分類した分類図を生成し、カラオケユーザが分類されるべき歌手名又は曲名を示す画像を分類図上に表示する際、その楽曲の歌唱頻度に応じて該画像の数を制限することにより、カラオケユーザの多角的な分析を容易に行うことが可能になる歌唱情報分析装置を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to generate a classification diagram in which karaoke users are classified according to singer names or song names on a two-dimensional plane or three-dimensional space, and the karaoke users are classified. When displaying an image showing the name of a singer or song name on the classification diagram, it is possible to easily perform multi-faceted analysis of karaoke users by limiting the number of images according to the frequency of singing the song To provide a singing information analysis device.

本発明に係る歌唱情報処理装置は、複数のカラオケユーザを識別するユーザ識別情報、該カラオケユーザが歌唱した楽曲の歌手名又は曲名に係る楽曲情報、及び該楽曲が歌唱された日付を示す日付情報を対応付けて記憶する記憶手段と、該記憶手段が記憶したユーザ識別情報及び楽曲情報に基づいて、複数のカラオケユーザを、二次元平面又は三次元空間上で歌手名又は曲名毎に分類した分類図を生成する生成手段とを備えた歌唱情報処理装置であって、楽曲の歌唱頻度を受け付ける受付手段と、前記記憶手段が記憶する楽曲情報及び日付情報に基づいて、各楽曲の歌唱頻度を算出する手段とを備え、前記生成手段は、カラオケユーザが分類される歌手名又は曲名を示した画像を分類図上に表示するようにしてあり、前記受付手段が受け付けた歌唱頻度に応じて、分類図上に表示される前記画像の数を制限する制限手段を備えることを特徴とする。   The singing information processing apparatus according to the present invention includes user identification information for identifying a plurality of karaoke users, music information related to a singer name or a music title of a music sung by the karaoke user, and date information indicating a date on which the music was sung. Categorizing a plurality of karaoke users for each singer name or song name on a two-dimensional plane or a three-dimensional space based on storage means for storing the information in association with each other and user identification information and music information stored by the storage means A singing information processing apparatus comprising a generating means for generating a figure, wherein the singing frequency of each piece of music is calculated based on the receiving means for receiving the singing frequency of the music and the music information and date information stored in the storage means And the generating means displays an image showing a singer name or a song name to be classified by the karaoke user on the classification map, and the receiving means receives the singer name. Depending on singing frequency, characterized in that it comprises a limiting means for limiting the number of images displayed on the diagram classification.

本発明にあっては、複数のカラオケユーザを、二次元平面又は三次元空間上で歌手名又は曲名毎に分類した分類図が生成される。分類図上にはカラオケユーザが分類されるべき歌手名又は曲名を示した画像が表示される。受付手段は、楽曲の歌唱頻度を受け付け、分類図上に表示される前記画像の数は、該受付手段が受け付けた歌唱頻度に応じて制限される。   In the present invention, a classification diagram is generated in which a plurality of karaoke users are classified for each singer name or song name on a two-dimensional plane or three-dimensional space. On the classification diagram, an image showing a singer name or a song name to be classified by the karaoke user is displayed. The receiving means receives the singing frequency of the music, and the number of the images displayed on the classification diagram is limited according to the singing frequency received by the receiving means.

本発明に係る歌唱情報処理装置は、前記受付手段は、歌唱頻度の範囲を受け付けるようにしてあり、前記制限手段は、歌唱頻度が前記受付手段にて受け付けた範囲内にある楽曲の歌手名又は曲名を示した画像を分類図上に表示するようにしてあることを特徴とする。   In the singing information processing apparatus according to the present invention, the accepting unit accepts a singing frequency range, and the restricting unit is a singer name of a song whose singing frequency is within the range accepted by the accepting unit or An image showing a song title is displayed on a classification diagram.

本発明にあっては、楽曲の歌唱頻度の範囲を受付手段によって受け付ける。そして、歌唱頻度が受付手段にて受け付けた範囲内にある楽曲の歌手名又は曲名を示した画像が分類図上に表示される。   In the present invention, the range of the singing frequency of the music is received by the receiving means. And the image which showed the singer name or song name of the music in which the singing frequency is in the range accepted by the accepting means is displayed on the classification diagram.

本発明によれば、カラオケユーザを二次元平面又は三次元空間上で歌手名又は曲名毎に分類した分類図を生成し、カラオケユーザが分類されるべき歌手名又は曲名を示す画像を分類図上に表示する際、その楽曲の歌唱頻度に応じて該画像の数を制限することにより、カラオケユーザの多角的な分析を容易に行うことができる。   According to the present invention, a classification diagram in which a karaoke user is classified for each singer name or song name on a two-dimensional plane or three-dimensional space is generated, and an image showing the singer name or song name to be classified by the karaoke user is displayed on the classification diagram. When the number of images is limited according to the singing frequency of the music, the karaoke user can easily perform multilateral analysis.

本実施の形態に係る歌唱情報処理システムの一構成例を模式的に示す説明図である。It is explanatory drawing which shows typically the example of 1 structure of the singing information processing system which concerns on this Embodiment. 本実施の形態に係る歌唱情報処理装置の一構成例を模式的に示すブロック図である。It is a block diagram which shows typically the example of 1 structure of the singing information processing apparatus concerning this Embodiment. 歌唱履歴DBのレコードレイアウトの一例を概念的に示す説明図である。It is explanatory drawing which shows notionally an example of the record layout of song history DB. カラオケユーザ情報DBのレコードレイアウトの一例を概念的に示す説明図である。It is explanatory drawing which shows notionally an example of the record layout of karaoke user information DB. 楽曲情報DBのレコードレイアウトの一例を概念的に示す説明図である。It is explanatory drawing which shows notionally an example of the record layout of music information DB. 情報分析ユーザ情報DBのレコードレイアウトの一例を概念的に示す説明図である。It is explanatory drawing which shows notionally an example of the record layout of information analysis user information DB. 歌唱履歴の情報処理に係る制御部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the control part which concerns on the information processing of a song history. 歌唱履歴の情報処理に係る制御部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the control part which concerns on the information processing of a song history. ブラウザウィンドウに表示されたマップの一例を示す模式図である。It is a schematic diagram which shows an example of the map displayed on the browser window. 歌手名又は曲名による検索によって拡大表示されたマップの一例を示す模式図である。It is a schematic diagram which shows an example of the map expanded and displayed by the search by a singer name or a song name. 歌唱頻度で歌手分類画像の数が制限されたマップの一例を示した説明図である。It is explanatory drawing which showed an example of the map with which the number of singer classification | category images was restrict | limited by the singing frequency. 特定の歌手を選択した際に表示されるマップの一例を示した説明図である。It is explanatory drawing which showed an example of the map displayed when a specific singer is selected. 特定の歌手を選択した際に表示されるマップの一例を示した説明図である。It is explanatory drawing which showed an example of the map displayed when a specific singer is selected. 歌手比較に係る制御部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the control part which concerns on a singer comparison. 歌手比較を行った際に表示されるマップの一例を示した説明図である。It is explanatory drawing which showed an example of the map displayed when performing a singer comparison. 現在及び過去の比較に係る制御部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the control part which concerns on the present and past comparison. 現在及び過去の比較処理を行った際に表示されるマップの一例を示した説明図である。It is explanatory drawing which showed an example of the map displayed when performing the comparison process of the present and the past. 将来予測に係る制御部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the control part which concerns on future prediction. 将来予測に係る処理を行った際に表示されるマップの一例を示した説明図である。It is explanatory drawing which showed an example of the map displayed when the process which concerns on future prediction is performed.

以下、本発明をその実施の形態を示す図面に基づいて詳述する。
図1は、本実施の形態に係る歌唱情報処理システムの一構成例を模式的に示す説明図である。本実施の形態に係る歌唱情報処理システムは、カラオケユーザの歌唱履歴情報に基づいてカラオケユーザを二次元平面上で歌手名毎に分類したマップを生成し、各種分析処理を行う歌唱情報処理装置1と、通信網Nを介して歌唱情報処理装置1に接続されたカラオケ装置2と、通信端末装置3とを備える。
Hereinafter, the present invention will be described in detail with reference to the drawings illustrating embodiments thereof.
FIG. 1 is an explanatory diagram schematically illustrating a configuration example of a singing information processing system according to the present embodiment. The singing information processing system 1 which concerns on this Embodiment produces | generates the map which classified the karaoke user for every singer name on a two-dimensional plane based on singing history information of a karaoke user, and the singing information processing apparatus 1 which performs various analysis processes And a karaoke apparatus 2 connected to the singing information processing apparatus 1 via the communication network N, and a communication terminal apparatus 3.

<カラオケ装置>
カラオケ装置2は、カラオケ店舗の各個室に通常1台設置され、有線LAN(Local Area Network)ケーブルを介して、該カラオケ店舗に設置されたハードディスク内蔵型のルータに接続されている。カラオケ端末装置は、各構成部を制御する図示しない制御部と、コンピュータの動作に必要な制御プログラムを記憶したROMと、制御部が演算処理を実行する際に生ずる各種データを一時記憶するRAMと、楽曲のMIDIデータ等を含む楽曲データを記憶する記憶装置と、通信網Nを介して各種情報を送受信する通信部と、楽曲データに基づいて楽曲の伴奏音としての楽器音を再現した音声信号を生成するMIDI音源と、伴奏及び歌唱音声を合成する音声ミキサと、各種入出力端子とを備え、各入出力端子には映像表示装置20、マイク22、及びスピーカ21等が接続されている。映像表示装置20は、例えばCRT(Cathode-ray Tube)、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ等であり、楽曲データに含まれる歌詞データに基づいて、歌詞映像を表示する。マイク22は、カラオケユーザの歌唱音声を音声信号に変換する。音声ミキサは、変換された音声信号と、MIDI音源によって生成された楽器音の音声信号とを合成し、スピーカは合成された音声信号に係る音声を放音する。
また、各個室には、カラオケ装置2を遠隔操作するための遠隔操作装置23が一又は複数台、備えられている。遠隔操作装置23は、ペンタッチセンサを有する液晶パネルを備えたボード型であり、赤外線通信にて、同一個室内のカラオケ店舗が紐付けられる。カラオケ店舗には、有線LANケーブルに接続されたアクセスポイントが設置されており、各個室に備えられた遠隔操作装置23は、アクセスポイントを介して、カラオケシステムへのユーザログイン、カラオケ曲の選曲の操作に係る情報を、紐付けられた同一個室内のカラオケ装置2との間で送受信している。
<Karaoke equipment>
One karaoke apparatus 2 is usually installed in each private room of the karaoke store, and is connected to a router with a built-in hard disk installed in the karaoke store via a wired LAN (Local Area Network) cable. The karaoke terminal apparatus includes a control unit (not shown) that controls each component, a ROM that stores a control program necessary for the operation of the computer, and a RAM that temporarily stores various data generated when the control unit executes arithmetic processing. , A storage device that stores music data including MIDI data of the music, a communication unit that transmits and receives various types of information via the communication network N, and an audio signal that reproduces an instrument sound as an accompaniment sound of the music based on the music data A sound source for generating sound, an audio mixer for synthesizing accompaniment and singing sound, and various input / output terminals, and a video display device 20, a microphone 22, a speaker 21 and the like are connected to each input / output terminal. The video display device 20 is, for example, a CRT (Cathode-ray Tube), a liquid crystal display, a plasma display, an organic EL display, or the like, and displays a lyric video based on lyric data included in music data. The microphone 22 converts the karaoke user's singing voice into an audio signal. The sound mixer synthesizes the converted sound signal and the sound signal of the instrument sound generated by the MIDI sound source, and the speaker emits sound related to the synthesized sound signal.
Each private room is provided with one or a plurality of remote operation devices 23 for remotely operating the karaoke device 2. The remote operation device 23 is a board type provided with a liquid crystal panel having a pen touch sensor, and karaoke stores in the same individual room are linked by infrared communication. In the karaoke store, an access point connected to a wired LAN cable is installed, and the remote control device 23 provided in each private room is used for user login to the karaoke system, karaoke song selection via the access point. Information related to the operation is transmitted / received to / from the karaoke apparatus 2 in the same private room.

このように構成されたカラオケ装置2の動作を説明する。カラオケユーザは、予め登録してあるカラオケユーザIDと、パスワードとを遠隔操作装置23に入力することができ、カラオケ装置2は、遠隔操作装置23にてカラオケユーザID及びパスワードを受け付け、認証サーバに問い合わせることによりカラオケユーザの認証を行う。カラオケユーザは、カラオケ装置2にログインすることによって、カラオケに関する各種サービスを享受することができる。他方、ログインしているカラオケユーザが歌唱を行った場合、カラオケ装置2は、該カラオケユーザを識別するカラオケユーザIDと、歌唱された楽曲を識別するための楽曲IDと、歌唱が行われた日時を示す歌唱日時情報とを通信部及び通信網Nを介して歌唱情報処理装置1へ送信する。歌唱情報処理装置1は、カラオケ装置2から送信されたカラオケユーザID、楽曲ID、及び歌唱日時情報を第1通信部15にて受信し、受信した情報をカラオケユーザの歌唱履歴情報として蓄積する。なお、歌唱日時は、カラオケ装置2から歌唱情報処理装置1へ送信するのでは無く、歌唱情報処理装置1側で確認するように構成しても良い。   The operation of the karaoke apparatus 2 configured as described above will be described. The karaoke user can input a karaoke user ID and a password registered in advance into the remote operation device 23, and the karaoke device 2 accepts the karaoke user ID and password at the remote operation device 23, and sends them to the authentication server. The karaoke user is authenticated by making an inquiry. A karaoke user can enjoy various services related to karaoke by logging into the karaoke apparatus 2. On the other hand, when the logged-in karaoke user sings, the karaoke device 2 sings the karaoke user ID for identifying the karaoke user, the song ID for identifying the sung song, and the date and time when the singing was performed. Is transmitted to the singing information processing apparatus 1 via the communication unit and the communication network N. The singing information processing apparatus 1 receives the karaoke user ID, the tune ID, and the singing date information transmitted from the karaoke apparatus 2 at the first communication unit 15 and accumulates the received information as singing history information of the karaoke user. Note that the singing date and time may not be transmitted from the karaoke apparatus 2 to the singing information processing apparatus 1 but may be confirmed on the singing information processing apparatus 1 side.

<通信端末装置>
通信端末装置3は、歌唱情報処理装置1との間で情報の送受信が可能な通信機器、例えば、パーソナルコンピュータ、携帯電話端末、PDA(Personal Digital Assistant)等であり、情報分析ユーザが歌唱情報処理装置1にアクセスし、カラオケユーザの歌唱履歴に関する情報分析を行うためのブラウザを有する。以下、通信端末装置3がパーソナルコンピュータであるものとして説明する。通信端末装置3は、歌唱情報処理装置1による処理結果を表示する表示部30、キーボード、ポインティングデバイス等の入力装置31などを備える。
<Communication terminal device>
The communication terminal device 3 is a communication device capable of transmitting / receiving information to / from the singing information processing device 1, for example, a personal computer, a mobile phone terminal, a PDA (Personal Digital Assistant), etc. It has the browser for accessing the apparatus 1 and performing the information analysis regarding singing history of a karaoke user. In the following description, it is assumed that the communication terminal device 3 is a personal computer. The communication terminal device 3 includes a display unit 30 that displays a processing result by the singing information processing device 1, an input device 31 such as a keyboard and a pointing device.

<歌唱情報処理装置:ハードウェア構成>
図2は、本実施の形態に係る歌唱情報処理装置1の一構成例を模式的に示すブロック図である。歌唱情報処理装置1は、該歌唱情報処理装置1の各構成部の動作を制御する制御部10、例えば、CPU(Central Processing Unit)を備える。制御部10には、バスを介してROM11、RAM12、外部記憶装置13、内部記憶装置14、第1通信部15及び第2通信部16が接続されている。
<Singing Information Processing Device: Hardware Configuration>
FIG. 2 is a block diagram schematically showing a configuration example of the singing information processing apparatus 1 according to the present embodiment. The singing information processing apparatus 1 includes a control unit 10 that controls the operation of each component of the singing information processing apparatus 1, for example, a CPU (Central Processing Unit). A ROM 11, a RAM 12, an external storage device 13, an internal storage device 14, a first communication unit 15, and a second communication unit 16 are connected to the control unit 10 via a bus.

制御部10は、ROM11及び後述の内部記憶装置14に記録されたコンピュータプログラム40をRAM12に読み出して実行することにより、本実施の形態に係る後述の歌唱情報処理方法を実施し、歌唱情報処理装置1として動作する。   The control unit 10 reads out and executes the computer program 40 recorded in the ROM 11 and the internal storage device 14 described later to the RAM 12, thereby executing the song information processing method described later according to the present embodiment, and the song information processing device. Operates as 1.

ROM11は、コンピュータの動作に必要な制御プログラムを記憶したマスクROM、EEPROM等の不揮発性メモリである。   The ROM 11 is a non-volatile memory such as a mask ROM or EEPROM that stores a control program necessary for the operation of the computer.

RAM12は、制御部10の演算処理を実行する際に生ずる各種データを一時記憶するDRAM、SRAM等の揮発性メモリである。   The RAM 12 is a volatile memory such as a DRAM or SRAM that temporarily stores various data generated when the arithmetic processing of the control unit 10 is executed.

外部記憶装置13は、本発明の実施の形態1に係るコンピュータプログラム40をコンピュータ読み取り可能に記録したDVD(Digital Versatile Disc)−ROM,BD(Blu-ray Disc),CD(Compact Disc)−ROM等の記録媒体4からコンピュータプログラム40、その他の各種データを読み取る光ディスクドライブである。なお、光ディスクドライブは、外部記憶装置13の一例であり、ハードディスク、フレキシブルディスクのような磁気ディスク、光磁気ディスク、半導体メモリ等からデータを読み書きする装置で外部記憶装置13を構成しても良い。   The external storage device 13 is a DVD (Digital Versatile Disc) -ROM, a BD (Blu-ray Disc), a CD (Compact Disc) -ROM, or the like on which the computer program 40 according to Embodiment 1 of the present invention is recorded in a computer-readable manner. The optical disc drive reads the computer program 40 and other various data from the recording medium 4. The optical disk drive is an example of the external storage device 13, and the external storage device 13 may be configured by a device that reads and writes data from a magnetic disk such as a hard disk or a flexible disk, a magneto-optical disk, a semiconductor memory, or the like.

内部記憶装置14は、コンピュータを、歌唱情報処理装置1として機能させるためのコンピュータプログラム40を記憶するハードディスク、不揮発性半導体メモリ等である。なお、通信網Nに接続されている図示しない外部コンピュータから本発明に係るコンピュータプログラム40をダウンロードするようにしても良い。
また、内部記憶装置14は、歌唱履歴DB(Data Base)14a、カラオケユーザ情報DB14b,楽曲情報DB14c、情報分析ユーザ情報DB14dを記憶する。各種データベースの詳細は後述する。
The internal storage device 14 is a hard disk, a nonvolatile semiconductor memory, or the like that stores a computer program 40 for causing a computer to function as the singing information processing device 1. The computer program 40 according to the present invention may be downloaded from an external computer (not shown) connected to the communication network N.
The internal storage device 14 stores a singing history DB (Data Base) 14a, a karaoke user information DB 14b, a music information DB 14c, and an information analysis user information DB 14d. Details of the various databases will be described later.

第1通信部15は、通信網Nを介して接続された外部のカラオケ装置2との間で、カラオケ装置2から送信される歌唱履歴情報、すなわち、カラオケユーザID、楽曲ID、及び歌唱日時情報を受信するインタフェースであり、第1通信部15による各種情報の送受信は制御部10によって制御される。   The 1st communication part 15 is the singing history information transmitted from the karaoke apparatus 2 between the external karaoke apparatuses 2 connected via the communication network N, ie, karaoke user ID, music ID, and singing date information. The transmission and reception of various information by the first communication unit 15 is controlled by the control unit 10.

第2通信部16は、通信網Nを介して接続された外部の通信端末装置3との間で、カラオケユーザの分析に係る情報を送受信するインタフェースであり、第2通信部16による各種情報の送受信は制御部10によって制御される。   The second communication unit 16 is an interface that transmits / receives information related to the analysis of the karaoke user to / from an external communication terminal device 3 connected via the communication network N. Transmission / reception is controlled by the control unit 10.

<歌唱情報処理装置:データベース構成>
図3は、歌唱履歴DB14aのレコードレイアウトの一例を概念的に示す説明図である。歌唱履歴DB14aの表は、複数の列、例えば「カラオケユーザID」列、「楽曲ID」列、「歌唱日時」列等から構成されており、各行には、カラオケ装置2から送信された情報が各列に対応するようにして格納される。
「カラオケユーザID」列は、カラオケ装置2を利用する複数のカラオケユーザを識別するカラオケユーザID、例えばカラオケユーザの電子メールアドレスを格納する。
「楽曲ID」列は、カラオケ装置2にログインしたカラオケユーザが歌唱した楽曲の歌手名又は曲名に係る楽曲情報、すなわち楽曲を識別する楽曲IDを、該カラオケユーザを識別するカラオケユーザIDに対応付けて格納する。
「歌唱日時」列は、カラオケ装置2にログインしたカラオケユーザが歌唱を行った年月日及び時刻を示す日付情報を、歌唱された楽曲の楽曲IDに対応付けて格納する。
<Singing Information Processing Device: Database Configuration>
FIG. 3 is an explanatory diagram conceptually showing an example of the record layout of the singing history DB 14a. The table of the singing history DB 14a includes a plurality of columns, for example, a “karaoke user ID” column, a “song ID” column, a “singing date” column, and the like, and information transmitted from the karaoke apparatus 2 is stored in each row. Stored so as to correspond to each column.
The “karaoke user ID” column stores a karaoke user ID for identifying a plurality of karaoke users who use the karaoke device 2, for example, an e-mail address of the karaoke user.
The “music ID” column associates music information related to the singer name or music name of the music sung by the karaoke user who has logged into the karaoke device 2, that is, the music ID for identifying the music, with the karaoke user ID for identifying the karaoke user. Store.
The “singing date and time” column stores date information indicating the date and time when the karaoke user who logged in to the karaoke apparatus 2 performed the song in association with the song ID of the song that was sung.

図4は、カラオケユーザ情報DB14bのレコードレイアウトの一例を概念的に示す説明図である。カラオケユーザ情報DB14bの表は、複数の列、例えば、「カラオケユーザID」列、「パスワード」列、「年齢」列、「性別」列、「嗜好」列、「出身地」列、「住所」列等から構成されており、各行(レコード)には、各列に対応した情報が格納されている。
「カラオケユーザID」列と、「パスワード」列とには、カラオケ装置2を利用する複数のカラオケユーザそれぞれを識別するカラオケユーザIDと、カラオケ装置2へのログインに必要なパスワード情報とが格納される。パスワード情報は、複数の英数字文字列からなる。また、「年齢」列、「性別」列、「嗜好」列、「出身地」列、「住所」列には、それぞれ、カラオケユーザがカラオケユーザIDを取得する際に入力した年齢、性別、嗜好、出身地、住所等が格納される。
FIG. 4 is an explanatory diagram conceptually showing an example of the record layout of the karaoke user information DB 14b. The table of the karaoke user information DB 14b includes a plurality of columns, for example, a “karaoke user ID” column, a “password” column, an “age” column, a “gender” column, a “preference” column, a “birthplace” column, and an “address”. Each row (record) stores information corresponding to each column.
In the “karaoke user ID” column and the “password” column, a karaoke user ID for identifying each of a plurality of karaoke users who use the karaoke device 2 and password information necessary for logging in to the karaoke device 2 are stored. The The password information consists of a plurality of alphanumeric character strings. In the “age” column, “gender” column, “preference” column, “birthplace” column, and “address” column, the age, gender, and preference input when the karaoke user obtains the karaoke user ID, respectively. , Hometown, address, etc. are stored.

図5は、楽曲情報DB14cのレコードレイアウトの一例を概念的に示す説明図である。楽曲情報DB14cの表は、複数の列、例えば楽曲を識別するための楽曲IDを格納する「楽曲ID」列、当該楽曲の曲名を格納する「曲名」列、当該楽曲の歌手名を格納する「歌手名」列等から構成されている。   FIG. 5 is an explanatory diagram conceptually showing an example of the record layout of the music information DB 14c. The table of the music information DB 14c includes a plurality of columns, for example, a “song ID” column for storing a song ID for identifying a song, a “song name” column for storing a song name of the song, and a singer name of the song “ It consists of the “singer name” column and the like.

図6は、情報分析ユーザ情報DB14dのレコードレイアウトの一例を概念的に示す説明図である。情報分析ユーザ情報DB14dの表は、複数の列、例えば「情報分析ユーザID」列、「パスワード」列、「検索条件1」列、「検索条件2」列等から構成されており、各行には、各列に対応した情報が格納されている。
「情報分析ユーザID」列は、本実施の形態に係る歌唱情報処理装置1を利用する複数の情報分析ユーザそれぞれを識別する情報分析ユーザIDを格納する。情報分析ユーザIDは、情報分析ユーザが歌唱情報処理装置1にログインして、カラオケユーザの歌唱履歴に係る情報分析サービスする際に必要となる情報である。
「パスワード」列は、歌唱情報処理装置1へのログインに必要なパスワード情報を格納している。パスワード情報は、複数の英数字文字列からなる。
「検索条件1」列、「検索条件2」列は、後述するように歌唱情報の分析を行う際に指定した検索条件、例えば、歌手、カラオケユーザの年齢、性別等を用いてカラオケユーザに係る情報を絞り込み検索した検索条件を格納する。
FIG. 6 is an explanatory diagram conceptually illustrating an example of a record layout of the information analysis user information DB 14d. The table of the information analysis user information DB 14d includes a plurality of columns, for example, an “information analysis user ID” column, a “password” column, a “search condition 1” column, a “search condition 2” column, and the like. , Information corresponding to each column is stored.
The “information analysis user ID” column stores an information analysis user ID for identifying each of a plurality of information analysis users using the singing information processing apparatus 1 according to the present embodiment. The information analysis user ID is information required when the information analysis user logs in to the singing information processing apparatus 1 and provides an information analysis service related to the karaoke user's singing history.
The “password” column stores password information necessary for logging in to the singing information processing apparatus 1. The password information consists of a plurality of alphanumeric character strings.
The “search condition 1” column and the “search condition 2” column relate to karaoke users using search conditions specified when performing singing information analysis, for example, singer, karaoke user age, gender, etc., as will be described later. Stores the search conditions that narrow down the information.

<歌唱情報処理装置:歌唱情報分析の処理手順>
図7及び図8は、歌唱履歴の情報処理に係る制御部10の処理手順を示すフローチャートである。歌唱情報処理装置1の制御部10は、内部記憶装置14の歌唱履歴DB14aから歌唱履歴情報を読み出し(ステップS11)、読み出した歌唱履歴情報に基づいて、複数のカラオケユーザを二次元平面上で楽曲の歌手名毎に分類したマップ(分類図)51を生成し、通信端末装置3の表示部30に表示させる(ステップS12)。制御部10は、歌唱履歴DB14aに記憶された複数のカラオケユーザの歌唱履歴情報を、カラオケユーザID毎に、公知の適宜の手法を用いて、クラスタリングする。その手法の一例としては、制御部10は、前記複数のカラオケユーザの歌唱履歴情報を、当該歌唱履歴情報に対応付けられたカラオケユーザID毎に分類する。そして、カラオケユーザID毎に分類された複数のカラオケユーザの歌唱履歴情報を用いて、カラオケユーザID毎に、複数の楽曲に対するカラオケユーザの特徴ベクトル、例えば、複数の楽曲IDを成分に有する特徴ベクトルを生成する。その後、予め用意された複数のユニット51a(図9参照)それぞれの代表ベクトルの初期値を用いて、カラオケユーザID毎に生成された各特徴ベクトルを、例えば公知のK−means法やSOM法などのクラスタリング手法により、複数のユニット51aに分類する。つまり、互いに特徴ベクトルの距離が短いカラオケユーザ、すなわち同じような楽曲を歌唱し、又は歌唱するであろうカラオケユーザが集まるように分類される。そして、その分類結果に対応して、複数のカラオケユーザの歌唱履歴情報を、当該カラオケユーザのカラオケユーザIDに対応する特徴ベクトルが分類されたユニット51aにそれぞれ対応付ける。マップ51上で集合しているカラオケユーザ群は、同じような楽曲を歌唱し、又は歌唱する可能性が高く、楽曲の歌手名又は曲名毎に分類されている。
<Singing Information Processing Device: Processing Procedure for Singing Information Analysis>
FIG.7 and FIG.8 is a flowchart which shows the process sequence of the control part 10 which concerns on the information processing of a song history. The control unit 10 of the singing information processing apparatus 1 reads singing history information from the singing history DB 14a of the internal storage device 14 (step S11), and based on the read singing history information, a plurality of karaoke users are recorded on a two-dimensional plane. A map (classification diagram) 51 classified for each singer name is generated and displayed on the display unit 30 of the communication terminal device 3 (step S12). The control unit 10 clusters the singing history information of the plurality of karaoke users stored in the singing history DB 14a for each karaoke user ID using a known appropriate method. As an example of the technique, the control unit 10 classifies the singing history information of the plurality of karaoke users for each karaoke user ID associated with the singing history information. Then, using the singing history information of a plurality of karaoke users classified for each karaoke user ID, for each karaoke user ID, a karaoke user's feature vector for a plurality of songs, for example, a feature vector having a plurality of song IDs as components Is generated. Then, using the initial values of the representative vectors of the plurality of units 51a (see FIG. 9) prepared in advance, each feature vector generated for each karaoke user ID is converted into, for example, a known K-means method or SOM method. Are classified into a plurality of units 51a. In other words, the karaoke users whose feature vectors are short from each other, that is, karaoke users who sing or sing the same music, are classified. Then, corresponding to the classification result, the singing history information of the plurality of karaoke users is associated with the units 51a in which the feature vectors corresponding to the karaoke user IDs of the karaoke users are classified. A group of karaoke users who are gathered on the map 51 are likely to sing or sing similar music pieces, and are classified by singer name or song name of the music piece.

また、制御部10は、後述するようにマップ51の一部を拡大表示させた際、拡大表示された部分がマップ51全体のどの部位を拡大したものであるかを表示するためのサブマップ53を生成し、通信端末装置3の表示部30に表示させる(ステップS13)。   Further, the control unit 10 displays a portion of the entire map 51 as an enlarged portion of the map 51 when a part of the map 51 is enlarged and displayed as will be described later. Is displayed on the display unit 30 of the communication terminal device 3 (step S13).

図9は、ブラウザウィンドウ5に表示されたマップ51の一例を示す模式図である。ブラウザウィンドウ5には、ステップS12で生成されたマップ51が表示される。マップ51は、例えば、マトリクス状に並んだ六角形の複数のユニット51aから構成される。図9のマップ51は、縦横に10個ずつ、合計100個のユニット51aで構成されている。なお、マップ51全体が表示されている状態においては、カラオケユーザの分布、カラオケユーザが分類されるべき歌手名を表示する後述の歌手分類画像51b等は表示されない。
また、マップ51の近傍には、マップ51の拡大又は縮小を受け付けるための拡大縮小受付部52が表示される。拡大縮小受付部52は、例えば、拡大縮小率に対応する縦棒と、該縦棒の両端に表示され、拡大側を示す「+」画像及び縮小側を示す「−」画像と、縦棒上を上下に移動し、拡大縮小率を指定するためのスライダとを有する。
更に、マップ51の近傍には上述のサブマップ53が表示される。
更にまた、ブラウザウィンドウ5の適宜箇所には、特定のカラオケユーザ群を検索するための第1検索メニュー54が表示される。第1検索メニュー54は、歌手名又は曲名等の検索項目を選択するためのプルダウンメニュー54aと、歌手名又は曲名等の検索キーワードを入力するためのテキスト入力フィールド54bと、マップ51上に表示される歌手分類画像51bの数を制限するための頻度受付部54cとを有する。頻度受付部54cは、歌唱頻度に対応する横棒と、該横棒上を移動し、歌唱頻度の下限を示す下限スライダと、歌唱頻度の上限を示す上限スライダとを有する。横棒の両端側には、それぞれ歌唱頻度「2万」、「0」の数字が表示される。なお、歌唱頻度は、例えば、直近1ヶ月の間に、ある歌手の楽曲が歌唱された回数を示している。
FIG. 9 is a schematic diagram showing an example of the map 51 displayed in the browser window 5. In the browser window 5, the map 51 generated in step S12 is displayed. The map 51 is composed of a plurality of hexagonal units 51a arranged in a matrix, for example. The map 51 in FIG. 9 is composed of a total of 100 units 51a, 10 in the vertical and horizontal directions. In a state where the entire map 51 is displayed, a distribution of karaoke users, a singer classification image 51b, which will be described later, which displays singer names to which the karaoke users should be classified, and the like are not displayed.
Further, an enlargement / reduction accepting unit 52 for accepting enlargement or reduction of the map 51 is displayed in the vicinity of the map 51. For example, the enlargement / reduction accepting unit 52 displays a vertical bar corresponding to the enlargement / reduction ratio, a “+” image indicating the enlargement side, a “−” image indicating the reduction side, and a vertical bar. And a slider for designating an enlargement / reduction ratio.
Further, the above-described submap 53 is displayed in the vicinity of the map 51.
Furthermore, a first search menu 54 for searching for a specific karaoke user group is displayed at an appropriate location in the browser window 5. The first search menu 54 is displayed on the map 51, a pull-down menu 54a for selecting a search item such as a singer name or a song name, a text input field 54b for inputting a search keyword such as a singer name or a song name, and the like. And a frequency receiving unit 54c for limiting the number of singer classification images 51b. The frequency receiving unit 54c includes a horizontal bar corresponding to the singing frequency, a lower limit slider that moves on the horizontal bar and indicates the lower limit of the singing frequency, and an upper limit slider that indicates the upper limit of the singing frequency. Singing frequencies “20,000” and “0” are displayed on both ends of the horizontal bar, respectively. Note that the singing frequency indicates, for example, the number of times a singer's music has been sung during the most recent month.

ステップS13の処理を終えた制御部10は、通信端末装置3の入力装置31で操作されたポインタ6によって特定のユニット51aが指定されたか否かを判定する(ステップS14)。例えば、ポインタ6が特定のユニット51aに一定時間、マウスオーバした場合、又は特定のユニット51aにポインタ6がマウスオーバし、クリック操作された場合、制御部10は、ユニット51aが指定されたと判定する。ユニット51aが指定されたと判定した場合(ステップS14:YES)、制御部10は、指定されたユニット51aに属する歌手名を、通信端末装置3の表示部30に表示させる(ステップS15)。具体的には、図9に示すように、指定されたユニット51aに属する歌手名の一覧を吹き出しのようにしてマップ51上に表示する。   The control part 10 which finished the process of step S13 determines whether the specific unit 51a was designated by the pointer 6 operated with the input device 31 of the communication terminal device 3 (step S14). For example, when the pointer 6 is hovered over the specific unit 51a for a certain time, or when the pointer 6 is hovered over and clicked on the specific unit 51a, the control unit 10 determines that the unit 51a is designated. . When it determines with unit 51a having been designated (step S14: YES), the control part 10 displays the singer name which belongs to the designated unit 51a on the display part 30 of the communication terminal device 3 (step S15). Specifically, as shown in FIG. 9, a list of singer names belonging to the designated unit 51a is displayed on the map 51 as a balloon.

ステップS15の処理を終えた場合、又はユニット51aが指定されていないと判定した場合(ステップS14:NO)、制御部10は、通信端末装置3から送信された操作内容を第2通信部16にて受信し、マップ51の拡大及び縮小を受け付けたか否かを判定する(ステップS16)。例えば、拡大縮小受付部52のスライダが移動した場合、制御部10は、マップ51の拡大及び縮小を受け付けたと判定する。マップ51の拡大又は縮小を受け付けたと判定した場合(ステップS16:YES)、制御部10は、受け付けた内容に応じてマップ51の一部を拡大又は縮小させる(ステップS17)。また、制御部10は、マップ51を拡大又は縮小した際、表示部30に表示されている部分がマップ51全体のどの位置に対応しているかを示す矩形枠をサブマップ53上に表示する。   When the process of step S15 is completed or when it is determined that the unit 51a is not designated (step S14: NO), the control unit 10 sends the operation content transmitted from the communication terminal device 3 to the second communication unit 16. Whether the map 51 is enlarged or reduced (step S16). For example, when the slider of the enlargement / reduction accepting unit 52 moves, the control unit 10 determines that the enlargement / reduction of the map 51 has been accepted. When it determines with having received expansion or reduction of the map 51 (step S16: YES), the control part 10 expands or reduces a part of the map 51 according to the received content (step S17). In addition, when the map 51 is enlarged or reduced, the control unit 10 displays a rectangular frame on the submap 53 indicating which position of the entire map 51 the portion displayed on the display unit 30 corresponds to.

ステップS17の処理を終えた場合、又はマップ51の拡大及び縮小を受け付けていないと判定した場合(ステップS16:NO)、制御部10は、楽曲に係る検索条件を受け付けたか否かを判定する(ステップS18)。検索条件は、例えば楽曲の歌手名又は曲名である。具体的には、情報分析ユーザは、第1検索メニュー54のプルダウンメニュー54aから歌手名又は曲名のいずれかを検索項目として選択し、テキスト入力フィールド54bに、特定の歌手名又は曲名を入力して検索ボタンを操作する。以上の操作によって、検索条件が通信端末装置3から歌唱情報処理装置1へ送信され、制御部10は該検索条件を受け付ける。楽曲に係る検索条件を受け付けたと判定した場合(ステップS18:YES)、制御部10は、検索条件に合致した楽曲を歌唱しているカラオケユーザが多く分布しているマップ51上の領域を中心に、拡大させたマップ51を生成し、通信端末装置3の表示部30に表示させる(ステップS19)。   When the process of step S17 is completed, or when it is determined that enlargement and reduction of the map 51 are not accepted (step S16: NO), the control unit 10 determines whether or not a search condition related to the music has been accepted ( Step S18). The search condition is, for example, a singer name or a song name of the song. Specifically, the information analysis user selects either a singer name or a song name from the pull-down menu 54a of the first search menu 54 as a search item, and inputs a specific singer name or song name in the text input field 54b. Operate the search button. With the above operation, the search condition is transmitted from the communication terminal device 3 to the singing information processing apparatus 1, and the control unit 10 receives the search condition. When it determines with having received the search conditions which concern on a music (step S18: YES), the control part 10 centering on the area | region on the map 51 where many karaoke users who are singing the music which matched search conditions are distributed. The enlarged map 51 is generated and displayed on the display unit 30 of the communication terminal device 3 (step S19).

図10は、歌手名又は曲名による検索によって拡大表示されたマップ51の一例を示す模式図である。拡大表示されたマップ51上には、カラオケユーザが分類されるべき歌手名を示した歌手分類画像51bが表示される。歌手分類画像51bは、例えば円形であり、マップ51上でカラオケユーザが分類された歌手名を表示する画像である。検索によって特定された歌手名を表示した歌手分類画像51bは、太線円状のカーソル51cで選択されている。更に、歌手分類画像51bは、当該歌手の楽曲を歌唱する主なカラオケユーザの男女の別によって異なる色を有している。図10中、ハッチングの向きが異なる各領域は、それぞれ異なる色で表示されていることを示している。なお、カラオケユーザの男女の比率によって、2つの色の混合比を変化させることによって、ある歌手名の楽曲を歌唱するカラオケユーザの男女比を表示するように構成しても良い。   FIG. 10 is a schematic diagram showing an example of a map 51 enlarged and displayed by a search based on a singer name or a song name. On the enlarged map 51, a singer classification image 51b showing a singer name to be classified by the karaoke user is displayed. The singer classification image 51b is, for example, a circle, and is an image that displays the name of a singer classified as a karaoke user on the map 51. The singer classification image 51b displaying the singer name specified by the search is selected by a thick circle-shaped cursor 51c. Furthermore, the singer classification image 51b has a different color depending on the sex of the main karaoke user who sings the song of the singer. In FIG. 10, it is shown that areas with different hatching directions are displayed in different colors. In addition, you may comprise so that the gender ratio of the karaoke user who sings the music of a certain singer's name may be displayed by changing the mixing ratio of two colors according to the ratio of the gender of the karaoke user.

ステップS19の処理を終えた場合、又は楽曲に係る検索条件を受け付けていないと判定した場合(ステップS18:NO)、制御部10は、通信端末装置3から送信された操作内容を第2通信部16にて受信し、歌唱頻度の範囲を受け付けたか否かを判定する(ステップS20)。具体的には、頻度受付部54cの下限スライダ又は上限スライダが移動した場合、制御部10は、歌唱頻度の範囲を受け付けたと判定する。歌唱頻度の範囲を受け付けたと判定した場合(ステップS20:YES)、制御部10は、内部記憶装置14の歌唱履歴DB14aが記憶する楽曲ID及び日付情報に基づいて、各楽曲の歌唱頻度を算出する(ステップS21)。そして、制御部10は、受け付けた歌唱頻度の範囲に応じて、歌手分類画像51bの数を制限する(ステップS22)。具体的には、歌唱頻度の範囲が、受け付けた歌唱頻度の範囲内にある楽曲を歌唱している歌手に対応する歌手分類画像51bをマップ51上に表示し、その範囲外にある楽曲を歌唱している歌手に対応する歌手分類画像51bをマップ51上に表示しないようにする。   When the process of step S19 is completed or when it is determined that the search condition relating to the music is not accepted (step S18: NO), the control unit 10 displays the operation content transmitted from the communication terminal device 3 as the second communication unit. It is received at 16 and it is determined whether or not the range of the singing frequency has been accepted (step S20). Specifically, when the lower limit slider or the upper limit slider of the frequency receiving unit 54c moves, the control unit 10 determines that the singing frequency range has been received. When it determines with having received the range of singing frequency (step S20: YES), the control part 10 calculates the singing frequency of each music based on music ID and date information which the song history DB14a of the internal storage device 14 memorize | stores. (Step S21). And the control part 10 restrict | limits the number of singer classification | category images 51b according to the range of the received singing frequency (step S22). Specifically, a singer classification image 51b corresponding to a singer singing a song whose singing frequency is within the accepted singing frequency is displayed on the map 51, and singing a song outside that range. The singer classification image 51b corresponding to the singer who is doing is not displayed on the map 51.

図11は、歌唱頻度で歌手分類画像51bの数が制限されたマップ51の一例を示した説明図である。ステップS21,22の処理によって歌唱頻度が制限された場合、図11に示すように、マップ51上に表示される歌手分類画像51bの数が制限される。   FIG. 11 is an explanatory diagram showing an example of a map 51 in which the number of singer classification images 51b is limited by the singing frequency. When the singing frequency is limited by the processes in steps S21 and S22, the number of singer classification images 51b displayed on the map 51 is limited as shown in FIG.

ステップS22の処理を終えた場合、又は歌唱頻度の範囲を受け付けていないと判定した場合(ステップS20:NO)、制御部10は、通信端末装置3から送信された操作内容を第2通信部16にて受信し、マップ51上の歌手名が選択されたか否か、すなわち特定の歌手分類画像51bがポインタ6によって選択されたか否かを判定する(ステップS23)。歌手分類画像51bが選択されていないと判定した場合(ステップS23:NO)、制御部10は、処理をステップS14へ戻す。   When the process of step S22 is completed, or when it is determined that the singing frequency range is not accepted (step S20: NO), the control unit 10 determines the operation content transmitted from the communication terminal device 3 as the second communication unit 16. And whether or not the singer name on the map 51 has been selected, that is, whether or not the specific singer classification image 51b has been selected by the pointer 6 (step S23). When it determines with the singer classification | category image 51b not being selected (step S23: NO), the control part 10 returns a process to step S14.

歌手分類画像51bが選択されたと判定した場合(ステップS23:YES)、制御部10は、選択された歌手の楽曲を歌唱したことがあるカラオケユーザを分類したマップ51を生成し、生成したマップ51を通信端末装置3の表示部30に表示させる(ステップS24)。そして、制御部10は、選択された歌手の楽曲を歌唱するカラオケユーザの詳細な情報を、通信端末装置3の表示部30に表示させる(ステップS25)。   When it determines with the singer classification image 51b having been selected (step S23: YES), the control part 10 produces | generates the map 51 which classified the karaoke user who has sung the music of the selected singer, and produced | generated the map 51 Is displayed on the display unit 30 of the communication terminal device 3 (step S24). And the control part 10 displays the detailed information of the karaoke user who sings the music of the selected singer on the display part 30 of the communication terminal device 3 (step S25).

図12及び図13は、特定の歌手を選択した際に表示されるマップ51の一例を示した説明図である。特定の歌手名が選択された場合、該歌手名に係る楽曲を歌唱したことがある各ユニット51aのカラオケユーザの数に応じて、各ユニット51aが色分け表示される。
また、ブラウザウィンドウ5の適宜箇所には、マップ51上に反映させるカラオケユーザの属性を指定することによって、特定層のカラオケユーザの検索を行う第2検索メニュー55が表示される。第2検索メニュー55は、カラオケユーザの年齢を指定する年齢チェックボックス55aと、性別を指定する性別チェックボックス55bと、選択されている歌手の楽曲を歌唱した回数を指定する歌唱回数チェックボックス55cと、検索ボタン55dと、一時保存された検索条件を呼び出すための検索条件呼び出し部55eと、検索条件を一時保存するための一時保存ボタン55fとで構成される。
更に、ブラウザウィンドウ5の適宜箇所には、選択されている歌手名に係る楽曲を歌唱したことがあるカラオケユーザの属性の詳細を表示した詳細情報表示部56が表示される。詳細情報表示部56には、例えば、カラオケユーザの年齢構成を示したパイグラフ56a、男女の比率を示したパイグラフ56b、歌唱回数の構成を示したパイグラフ56c等を有する。
更にまた、図13に示すように、記録ボタンを操作することによって、直前に作成されたマップ51を表示したタブシートとは別に、新しいタブシートが生成され、新しいタブシートには、別の検索条件で分析したマップ51を作成することができる。
FIG.12 and FIG.13 is explanatory drawing which showed an example of the map 51 displayed when a specific singer is selected. When a specific singer name is selected, each unit 51a is displayed in different colors according to the number of karaoke users of each unit 51a who has sung the music related to the singer name.
In addition, a second search menu 55 for searching for a specific karaoke user is displayed by designating the attribute of the karaoke user to be reflected on the map 51 at an appropriate location of the browser window 5. The second search menu 55 includes an age check box 55a for specifying the age of the karaoke user, a gender check box 55b for specifying the gender, and a singing count check box 55c for specifying the number of times the singer's music has been sung. , A search button 55d, a search condition calling unit 55e for calling a temporarily saved search condition, and a temporary save button 55f for temporarily saving the search condition.
Furthermore, a detailed information display unit 56 that displays details of the attributes of the karaoke user who has sung the music related to the selected singer name is displayed at an appropriate location of the browser window 5. The detailed information display unit 56 includes, for example, a pie graph 56a showing the age configuration of the karaoke user, a pie graph 56b showing the male / female ratio, a pie graph 56c showing the singing frequency configuration, and the like.
Furthermore, as shown in FIG. 13, by operating the record button, a new tab sheet is generated separately from the tab sheet displaying the map 51 created immediately before, and the new tab sheet is analyzed under different search conditions. The created map 51 can be created.

次いで、通信端末装置3の入力装置31で操作されたポインタ6によって特定のユニット51aが指定されたか否かを判定する(ステップS26)。ユニット51aが指定されたと判定した場合(ステップS26:YES)、制御部10は、指定されたユニット51aに属する歌手名を、通信端末装置3の表示部30に表示させる(ステップS27)。   Next, it is determined whether or not a specific unit 51a is designated by the pointer 6 operated by the input device 31 of the communication terminal device 3 (step S26). When it determines with unit 51a having been designated (step S26: YES), the control part 10 displays the singer name which belongs to the designated unit 51a on the display part 30 of the communication terminal device 3 (step S27).

ステップS27の処理を終えた場合、又はユニット51aが指定されていないと判定した場合(ステップS26:NO)、制御部10は、カラオケユーザに係る検索条件を受け付けたか否かを判定する(ステップS28)。カラオケユーザに係る検索条件は、例えば、カラオケユーザの年齢、性別、歌唱回数等である。情報分析ユーザは、第2検索メニュー55の各チェックボックスにチェックを入れ、検索ボタン55dを操作することによって、上述の検索条件を入力することができる。また、一時保存ボタン55fを操作することによって、検索条件を保存することもできる。
カラオケユーザに係る検索条件を受け付けたと判定した場合(ステップS28:YES)、制御部10は、マップ51上に分類するカラオケユーザを検索条件に応じて制限する(ステップS29)。つまり、制御部10は、ステップS23で選択された歌手の楽曲を歌唱し、かつ、受け付けた検索条件に合致するカラオケユーザをマップ51上で分類する。
When the process of step S27 is completed, or when it is determined that the unit 51a is not designated (step S26: NO), the control unit 10 determines whether or not the search condition relating to the karaoke user has been received (step S28). ). The search conditions relating to the karaoke user are, for example, the age, sex, singing frequency, etc. of the karaoke user. The information analysis user can input the above-described search conditions by checking each check box of the second search menu 55 and operating the search button 55d. The search condition can also be saved by operating the temporary save button 55f.
When it determines with having received the search condition which concerns on a karaoke user (step S28: YES), the control part 10 restrict | limits the karaoke user classified on the map 51 according to a search condition (step S29). That is, the control unit 10 sings the song of the singer selected in step S23 and classifies the karaoke users that match the received search condition on the map 51.

ステップS29の処理を終えた場合、又はカラオケユーザに係る検索条件を受け付けていないと判定した場合(ステップS28:NO)、制御部10は、歌手の比較処理を受け付けたか否かを判定する(ステップS30)。歌手の比較処理を受け付けたと判定した場合(ステップS30:YES)、制御部10は、後述のサブルーチンを呼び出し、歌手の比較処理を実行する(ステップS31)。具体的には、比較対象の歌手の楽曲を歌唱したことがあるカラオケユーザのマップ51をそれぞれ生成し、並べて表示させる処理を実行する。   When the process of step S29 is completed, or when it is determined that the search condition relating to the karaoke user is not accepted (step S28: NO), the control unit 10 determines whether or not the singer comparison process is accepted (step). S30). When it determines with having received the comparison process of the singer (step S30: YES), the control part 10 calls the below-mentioned subroutine, and performs the comparison process of a singer (step S31). Specifically, a map 51 of karaoke users who have sung the singer to be compared is generated and displayed side by side.

ステップS31の処理を終えた場合、又は歌手比較処理を受け付けていないと判定した場合(ステップS30:NO)、制御部10は、過去のマップ51との比較処理を受け付けたか否かを判定する(ステップS32)。過去のマップ51との比較処理を受け付けたと判定した場合(ステップS32:YES)、制御部10は、後述のサブルーチンを呼び出し、現在及び過去のマップ51の比較処理を実行する(ステップS33)。   When the process of step S31 is completed, or when it is determined that the singer comparison process is not accepted (step S30: NO), the control unit 10 determines whether the comparison process with the past map 51 has been accepted (step S30: NO). Step S32). When it is determined that the comparison process with the past map 51 is accepted (step S32: YES), the control unit 10 calls a subroutine described later, and executes the comparison process between the current map and the past map 51 (step S33).

ステップS33の処理を終えた場合、又は過去のマップ51との比較処理を受け付けていないと判定した場合(ステップS32:NO)、制御部10は、選択されている歌手の将来予測処理を受け付けたか否かを判定する(ステップS34)。将来予測処理を受け付けたと判定した場合(ステップS34:YES)、制御部10は、後述のサブルーチンを呼び出し、選択されている歌手の将来のマップ51を予測する処理を実行する(ステップS35)。   When the process of step S33 is completed, or when it is determined that the comparison process with the past map 51 is not accepted (step S32: NO), the control unit 10 has accepted the future prediction process of the selected singer It is determined whether or not (step S34). When it determines with having received the future prediction process (step S34: YES), the control part 10 calls the below-mentioned subroutine, and performs the process which estimates the future map 51 of the selected singer (step S35).

ステップS35の処理を終えた場合、又は将来予測処理を受け付けていないと判定した場合(ステップS34:NO)、制御部10は、通信端末装置3から送信された操作内容を、第2通信部16にて受信し、図9に示した歌手検索を行うマップ51に戻るか否かを判定する(ステップS36)。歌手検索を行うマップ51に戻ると判定した場合(ステップS36:YES)、制御部10は、処理をステップS11へ戻す。歌手検索を行うマップ51に戻らないと判定した場合(ステップS36:NO)、制御部10は、歌唱情報の分析を終えるか否かを判定する(ステップS37)。歌唱情報の分析を終えないと判定した場合(ステップS37:NO)、制御部10は、処理をステップS26へ戻す。歌唱情報の分析を終えると判定した場合(ステップS37:YES)、制御部10は、処理を終える。   When the process of step S35 is completed, or when it is determined that the future prediction process is not accepted (step S34: NO), the control unit 10 determines the operation content transmitted from the communication terminal device 3 as the second communication unit 16. It is determined whether or not to return to the map 51 for performing the singer search shown in FIG. 9 (step S36). When it determines with returning to the map 51 which performs a singer search (step S36: YES), the control part 10 returns a process to step S11. When it determines with not returning to the map 51 which performs a singer search (step S36: NO), the control part 10 determines whether the analysis of singing information is finished (step S37). When it determines with not complete | finishing the analysis of song information (step S37: NO), the control part 10 returns a process to step S26. When it determines with finishing the analysis of song information (step S37: YES), the control part 10 finishes a process.

図14は、歌手比較に係る制御部10の処理手順を示すフローチャート、図15は、歌手比較を行った際に表示されるマップ51の一例を示した説明図である。歌唱情報処理装置1の制御部10は、ステップS31で歌手比較に係るサブルーチンが呼び出された場合、比較対象の歌手名を受け付ける(ステップS51)。情報分析ユーザは、例えば、ブラウザウィンドウ5上の歌手名が表示されているタブを2つ選択することによって比較対象を指定することができる。   FIG. 14 is a flowchart showing a processing procedure of the control unit 10 according to the singer comparison, and FIG. 15 is an explanatory diagram showing an example of a map 51 displayed when the singer comparison is performed. The control part 10 of the singing information processing apparatus 1 receives the singer name for comparison, when the subroutine which concerns on a singer comparison is called by step S31 (step S51). For example, the information analysis user can designate a comparison target by selecting two tabs on the browser window 5 on which the singer name is displayed.

次いで制御部10は、ステップS51で受け付けた第1の歌手名の楽曲を歌唱したことがあるカラオケユーザを分類したマップ51を生成する(ステップS52)。また、制御部10は、ステップS51で受け付けた第2の歌手名の楽曲を歌唱したことがあるカラオケユーザを分類したマップ71を生成する(ステップS53)。   Subsequently, the control part 10 produces | generates the map 51 which classified the karaoke user who has sung the music of the 1st singer name received by step S51 (step S52). Moreover, the control part 10 produces | generates the map 71 which classified the karaoke user who has sung the music of the 2nd singer name received by step S51 (step S53).

そして、制御部10は、図15に示すように、ステップS52、53で生成した第1の歌手のマップ51と、第2の歌手のマップ71とを並べて表示部30に表示させる(ステップS54)。次いで、制御部10は、通信端末装置3から送信された操作内容を、第2通信部16にて受信し、歌手比較の処理を終えて前画面に戻るか否かを判定する(ステップS55)。歌手比較の処理を終えないと判定した場合(ステップS55:NO)、制御部10は、処理をステップS51へ戻す。歌手比較の処理を終えたと判定した場合(ステップS55:YES)、制御部10は、歌手比較に係る処理を終える。   Then, as shown in FIG. 15, the control unit 10 displays the first singer map 51 generated in steps S52 and 53 and the second singer map 71 side by side on the display unit 30 (step S54). . Next, the control unit 10 receives the operation content transmitted from the communication terminal device 3 at the second communication unit 16, and determines whether or not to finish the singer comparison process and return to the previous screen (step S55). . When it determines with not complete | finishing the process of a singer comparison (step S55: NO), the control part 10 returns a process to step S51. When it determines with having finished the process of singer comparison (step S55: YES), the control part 10 complete | finishes the process which concerns on a singer comparison.

図16は、現在及び過去の比較に係る制御部10の処理手順を示すフローチャート、図17は、現在及び過去の比較処理を行った際に表示されるマップの一例を示した説明図である。歌唱情報処理装置1の制御部10は、ステップS33で現在及び過去の比較に係るサブルーチンが呼び出された場合、比較対象の期間を受け付ける(ステップS71)。そして、制御部10は、選択された歌手名の楽曲を比較対象である第1の期間で歌唱したことがあるカラオケユーザを検索し、該カラオケユーザを分類したマップ51を生成する(ステップS72)。第1の期間は、例えば現在の日時から1ヶ月前の期間である。次いで、制御部10は、ステップS72で分析した同一の歌手名の楽曲を比較対象である第2の期間で歌唱したことがあるカラオケユーザを検索し、該カラオケユーザを分類したマップ81を生成する(ステップS73)。   FIG. 16 is a flowchart illustrating a processing procedure of the control unit 10 related to the current and past comparisons, and FIG. 17 is an explanatory diagram illustrating an example of a map displayed when the current and past comparison processes are performed. The control part 10 of the singing information processing apparatus 1 receives the period for comparison, when the subroutine which concerns on the present and the past comparison is called by step S33 (step S71). And the control part 10 searches the karaoke user who has sung the music of the selected singer name in the 1st period which is a comparison object, and produces | generates the map 51 which classified this karaoke user (step S72). . The first period is, for example, a period one month before the current date and time. Next, the control unit 10 searches for a karaoke user who has sung the music of the same singer name analyzed in step S72 in the second period to be compared, and generates a map 81 in which the karaoke user is classified. (Step S73).

そして、制御部10は、図17に示すように、ステップS72で生成した現在のマップ51と、ステップS73で生成した過去のマップ81とを並べて表示部30に表示させる(ステップS74)。次いで、制御部10は、通信端末装置3から送信された操作内容を、第2通信部16にて受信し、現在及び過去の比較処理を終えて前画面に戻るか否かを判定する(ステップS75)。現在及び過去の比較処理を終えないと判定した場合(ステップS75:NO)、制御部10は、処理をステップS71へ戻す。現在及び過去の比較処理を終えたと判定した場合(ステップS75:YES)、制御部10は、現在及び過去の比較処理に係る処理を終える。   Then, as shown in FIG. 17, the control unit 10 displays the current map 51 generated in step S72 and the past map 81 generated in step S73 side by side on the display unit 30 (step S74). Next, the control unit 10 receives the operation content transmitted from the communication terminal device 3 at the second communication unit 16, and determines whether or not to return to the previous screen after finishing the current and past comparison processing (step). S75). When it determines with not complete | finishing the present and past comparison process (step S75: NO), the control part 10 returns a process to step S71. When it is determined that the current and past comparison processes are finished (step S75: YES), the control unit 10 finishes the processes related to the current and past comparison processes.

図18は、将来予測に係る制御部10の処理手順を示すフローチャート、図19は、将来予測に係る処理を行った際に表示されるマップ91,92,93の一例を示した説明図である。歌唱情報処理装置1の制御部10は、ステップS35で将来予測に係るサブルーチンが呼び出された場合、選択された歌手名の楽曲を、複数の各期間で歌唱したことがあるカラオケユーザを検索し、該カラオケユーザを分類したマップを生成する(ステップS91)。例えば、現在から1ヶ月前の期間、半年前の1ヶ月の期間、1年前の1ヶ月の期間でそれぞれ歌唱したことがあるカラオケユーザの3つのマップを生成する。次いで、制御部10は、他の歌手の楽曲を、より過去の複数の各期間で歌唱したことがあるカラオケユーザを検索し、該カラオケユーザを分類したマップを生成する(ステップS92)。例えば、1年前の1ヶ月の期間、1年半前の1ヶ月の期間、2年前の1ヶ月の期間でそれぞれ歌唱したことがあるカラオケユーザの3つのマップを生成する。   FIG. 18 is a flowchart illustrating a processing procedure of the control unit 10 relating to the future prediction, and FIG. 19 is an explanatory diagram illustrating an example of maps 91, 92, and 93 that are displayed when processing relating to the future prediction is performed. . The control unit 10 of the singing information processing apparatus 1 searches for a karaoke user who has sung the song of the selected singer name in each of a plurality of periods when a subroutine related to future prediction is called in step S35. A map in which the karaoke users are classified is generated (step S91). For example, three maps of karaoke users who have sung in the period of one month before the present, the period of one month before six months, and the period of one month before one year are generated. Next, the control unit 10 searches for karaoke users who have sung other singer songs in a plurality of past periods, and generates a map in which the karaoke users are classified (step S92). For example, three maps are generated for karaoke users who have sang in the period of one month one year ago, the period of one month one and a half years ago, and the period of one month two years ago.

そして、制御部10は、ステップS92で生成した歌手の各期間における現在のマップと、ステップS93で生成した他の歌手の各期間における過去のマップとを比較し、ステップS92で生成した歌手のマップと相関がある他の歌手を特定する(ステップS93)。つまり、選択されている歌手の直近1年間のマップ51の変化と、他の歌手の1〜2年間のマップ51の変化とを比較し、カラオケユーザ分布が同じように変化しているマップの歌手を特定する。   And the control part 10 compares the present map in each period of the singer produced | generated by step S92 with the past map in each period of the other singer produced | generated by step S93, and the map of the singer produced | generated by step S92 Is identified (step S93). That is, the singer of the map in which the distribution of the karaoke user is changed in the same manner by comparing the change of the map 51 of the selected singer for the most recent year with the change of the map 51 of the other singer 1-2 years. Is identified.

次いで、制御部10は、ステップS93で特定された他の歌手の楽曲を、ステップS92で用いた期間よりも未来側の複数の各期間で歌唱したことがあるカラオケユーザを分類したマップを生成する(ステップS94)。例えば、ステップS93で特定された歌手の楽曲を、現在から1ヶ月前の期間、半年前の1ヶ月の期間、1年前の1ヶ月の期間でそれぞれ、歌唱したことがあるカラオケユーザの3つのマップ51を生成する。なお、ステップS93で複数の他の歌手が特定された場合、複数の他の歌手それぞれについて、未来側のマップ51を生成する。   Next, the control unit 10 generates a map that classifies karaoke users who have sung the singer's music identified in step S93 in a plurality of periods on the future side relative to the period used in step S92. (Step S94). For example, three karaoke users who have sung the song of the singer identified in step S93 for the period of one month before, the period of one month six months ago, and the period of one month one year ago respectively. A map 51 is generated. If a plurality of other singers are identified in step S93, a future-side map 51 is generated for each of the plurality of other singers.

そして、制御部10は、ステップS93で相関がある複数の他の歌手を特定したか否かを判定する(ステップS95)。一人の他の歌手を特定したと判定した場合(ステップS95:NO)、制御部10は、図19に示すように、ステップS94で生成した未来側の複数の期間における、相関があった他の歌手のマップ51を並べて表示する(ステップS96)。ステップS96で表示されるマップ51は、将来予測対象である歌手の将来的なマップ51の変遷を表したものと考えることができる。   And the control part 10 determines whether the some other singer with correlation was specified by step S93 (step S95). When it is determined that one other singer has been identified (step S95: NO), the control unit 10, as shown in FIG. 19, has other correlations in a plurality of future periods generated in step S94. The singer maps 51 are displayed side by side (step S96). It can be considered that the map 51 displayed in step S96 represents the future transition of the map 51 of the singer who is the future prediction target.

ステップS95で相関がある複数の他の歌手を特定したと判定した場合(ステップS95:YES)、制御部10は、特定された複数の各歌手の楽曲を歌唱したことがあるカラオケユーザの平均的分布を示したマップ51を生成する(ステップS97)。そして、制御部10は、ステップS97で生成した未来側の複数の期間における、相関があった他の歌手の平均的分布を示したマップ91,92,93を並べて表示する(ステップS98)。   If it is determined in step S95 that a plurality of other correlated singers have been identified (step S95: YES), the control unit 10 is an average of karaoke users who have sung the songs of the identified plurality of singers. A map 51 showing the distribution is generated (step S97). Then, the control unit 10 displays side by side maps 91, 92, and 93 that show the average distribution of other correlated singers in the plurality of future periods generated in step S97 (step S98).

ステップS96又はステップS98の処理を終えた制御部10は、通信端末装置3から送信された操作内容を、第2通信部16にて受信し、将来予測処理を終えて前画面に戻るか否かを判定する(ステップS99)。将来予測処理を終えないと判定した場合(ステップS99:NO)、制御部10は、処理をステップS91へ戻す。将来予測処理を終えたと判定した場合(ステップS99:YES)、制御部10は、将来予測処理に係る処理を終える。   The control unit 10 that has finished the process of step S96 or step S98 receives the operation content transmitted from the communication terminal device 3 at the second communication unit 16, and returns to the previous screen after completing the future prediction process. Is determined (step S99). When it determines with not completing a future prediction process (step S99: NO), the control part 10 returns a process to step S91. When it determines with having finished the future prediction process (step S99: YES), the control part 10 complete | finishes the process which concerns on a future prediction process.

このように構成された歌唱情報処理装置1にあっては、カラオケユーザを二次元平面上で歌手名毎に分類したマップ51を生成し、カラオケユーザが分類された歌手名を示す歌手分類画像51bをマップ51上に表示する際、その楽曲の歌唱頻度に応じて歌手分類画像51bの数を制限することにより、カラオケユーザの多角的な分析を容易に行うことが可能になる。   In the singing information processing apparatus 1 configured as described above, a map 51 in which karaoke users are classified for each singer name on a two-dimensional plane is generated, and a singer classification image 51b indicating the singer name into which the karaoke user is classified. Is displayed on the map 51, by limiting the number of singer classification images 51b according to the singing frequency of the music, it becomes possible to easily perform multi-faceted analysis of karaoke users.

また、歌手がこれからどんな売れ方をしていくのかといった未来予測を行うことができる。   You can also predict the future how the singer will sell.

なお、本実施の形態では、カラオケユーザを二次元平面上で歌手名毎に分類する例を説明したが、カラオケユーザを三次元空間上で歌手名毎に分類するように構成しても良い。
また、カラオケユーザを二次元平面上で歌手名毎に分類し、歌手名分類画像を表示する例を説明したが、カラオケユーザを曲名毎に分類し、カラオケユーザが分類されるべき曲名を表示した曲名分類画像を表示するように構成しても良い。
In this embodiment, an example has been described in which karaoke users are classified for each singer name on a two-dimensional plane. However, karaoke users may be classified for each singer name on a three-dimensional space.
Moreover, although the example which classify | categorizes a karaoke user for every singer name on a two-dimensional plane, and displays a singer name classification image was demonstrated, the karaoke user was classified for every song name and the karaoke user displayed the song name which should be classified You may comprise so that a music title classification | category image may be displayed.

今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。   The embodiments disclosed herein are illustrative in all respects and should not be considered as restrictive. The scope of the present invention is defined not by the above-mentioned meaning but by the scope of the claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of the claims.

1 歌唱情報処理装置
2 カラオケ装置
3 通信端末装置
51 マップ
51a ユニット
51b 歌手分類画像
52 拡大縮小受付部
53 サブマップ
54 第1検索メニュー
54b テキスト入力フィールド
54c 頻度受付部
55 第2検索メニュー
56 詳細情報表示部
10 制御部
14 内部記憶装置
14a 歌唱履歴DB
14b カラオケユーザ情報DB
14c 楽曲情報DB
14d 情報分析ユーザ情報DB
15 第1通信部
16 第2通信部
N 通信網
DESCRIPTION OF SYMBOLS 1 Singing information processing apparatus 2 Karaoke apparatus 3 Communication terminal apparatus 51 Map 51a Unit 51b Singer classification | category image 52 Enlarging / reducing reception part 53 Submap 54 1st search menu 54b Text input field 54c Frequency reception part 55 2nd search menu 56 Detailed information display Unit 10 Control unit 14 Internal storage device 14a Singing history DB
14b Karaoke user information DB
14c Music information DB
14d Information analysis user information DB
15 1st communication part 16 2nd communication part N Communication network

Claims (2)

複数のカラオケユーザを識別するユーザ識別情報、該カラオケユーザが歌唱した楽曲の歌手名又は曲名に係る楽曲情報、及び該楽曲が歌唱された日付を示す日付情報を対応付けて記憶する記憶手段と、該記憶手段が記憶したユーザ識別情報及び楽曲情報に基づいて、複数のカラオケユーザを、二次元平面又は三次元空間上で歌手名又は曲名毎に分類した分類図を生成する生成手段とを備えた歌唱情報処理装置であって、
楽曲の歌唱頻度を受け付ける受付手段と、
前記記憶手段が記憶する楽曲情報及び日付情報に基づいて、各楽曲の歌唱頻度を算出する手段と
を備え、
前記生成手段は、
カラオケユーザが分類される歌手名又は曲名を示した画像を分類図上に表示するようにしてあり、
前記受付手段が受け付けた歌唱頻度に応じて、分類図上に表示される前記画像の数を制限する制限手段を備える
ことを特徴とする歌唱情報処理装置。
Storage means for associating and storing user identification information for identifying a plurality of karaoke users, song information relating to the singer name or song name of the song sung by the karaoke user, and date information indicating the date on which the song was sung, A generating unit configured to generate a classification diagram in which a plurality of karaoke users are classified for each singer name or song name on a two-dimensional plane or a three-dimensional space based on the user identification information and the music information stored in the storage unit; A singing information processing device,
A reception means for receiving the singing frequency of the music;
Means for calculating the singing frequency of each song based on the music information and date information stored in the storage means,
The generating means includes
An image showing the name of the singer or song name to which the karaoke user is classified is displayed on the classification map,
A singing information processing apparatus comprising: limiting means for limiting the number of the images displayed on the classification map according to the singing frequency received by the receiving means.
前記受付手段は、
歌唱頻度の範囲を受け付けるようにしてあり、
前記制限手段は、
歌唱頻度が前記受付手段にて受け付けた範囲内にある楽曲の歌手名又は曲名を示した画像を分類図上に表示するようにしてある
ことを特徴とする請求項1に記載の歌唱情報処理装置。
The accepting means is
The range of singing frequencies is accepted,
The limiting means is
The singing information processing apparatus according to claim 1, wherein an image showing a singer name or a song name of a song whose singing frequency is within the range accepted by the accepting means is displayed on the classification diagram. .
JP2010206068A 2010-09-14 2010-09-14 Singing information processing device Active JP5410391B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010206068A JP5410391B2 (en) 2010-09-14 2010-09-14 Singing information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010206068A JP5410391B2 (en) 2010-09-14 2010-09-14 Singing information processing device

Publications (2)

Publication Number Publication Date
JP2012063458A JP2012063458A (en) 2012-03-29
JP5410391B2 true JP5410391B2 (en) 2014-02-05

Family

ID=46059252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010206068A Active JP5410391B2 (en) 2010-09-14 2010-09-14 Singing information processing device

Country Status (1)

Country Link
JP (1) JP5410391B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5759412B2 (en) * 2012-04-02 2015-08-05 株式会社エクシング Terminal device and music playback device
JP6548541B2 (en) * 2015-09-26 2019-07-24 株式会社コシダカホールディングス Information notice

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04124769A (en) * 1990-09-17 1992-04-24 Hitachi Ltd Method and system for analyzing and supporting commercial bloc
JP3136272B2 (en) * 1996-08-08 2001-02-19 株式会社第一興商 Communication karaoke system
JP4356849B2 (en) * 1999-02-05 2009-11-04 株式会社タイトー Online karaoke system
JP2003099455A (en) * 2001-09-20 2003-04-04 Yamaha Corp Device and program for providing information
JP2003241771A (en) * 2002-02-15 2003-08-29 Yamaha Corp Karaoke music selection support system

Also Published As

Publication number Publication date
JP2012063458A (en) 2012-03-29

Similar Documents

Publication Publication Date Title
US10885110B2 (en) Analyzing captured sound and seeking a match based on an acoustic fingerprint for temporal and geographic presentation and navigation of linked cultural, artistic, and historic content
KR100890993B1 (en) Intelligent style music information search system and method
US7613736B2 (en) Sharing music essence in a recommendation system
US20060224260A1 (en) Scan shuffle for building playlists
US20210357450A1 (en) Analyzing captured sound and seeking a match for temporal and geographic presentation and navigation of linked cultural, artistic and historic content
JP3707361B2 (en) Information providing server and information providing method
US20110010363A1 (en) Information processing apparatus, information processing method, and program
JP5410391B2 (en) Singing information processing device
US20190171637A1 (en) Information providing device
JP5344756B2 (en) Information processing apparatus, information processing method, and program
US10978076B2 (en) Speaker retrieval device, speaker retrieval method, and computer program product
JP5410392B2 (en) Singing information processing device
JP5585144B2 (en) Karaoke device and program
JP4916945B2 (en) Music information grant server, terminal, and music information grant system
JP5455952B2 (en) Music selection device and music selection program
JP2006040085A (en) Information processing device and method therefor, storage medium, and program
JP6672707B2 (en) Playlist generation method, playlist generation device, program, and list generation method
KR101266972B1 (en) Song searching method and song searching apparatus using song characteristics classification
JP3602059B2 (en) Melody search formula karaoke performance reservation system, melody search server, karaoke computer
JP3759700B2 (en) User preference reflection type search method, its execution apparatus, its processing program and recording medium
JP6232304B2 (en) A viewing system for singing videos that determines the display priority in consideration of the viewer&#39;s evaluation
JP2012208367A (en) Music reproduction system and music reproduction program
JP2006190128A (en) Information processing apparatus and method, and program
JP4573684B2 (en) Information search device, information search method, information search program, and recording medium
JP5759412B2 (en) Terminal device and music playback device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131106

R150 Certificate of patent or registration of utility model

Ref document number: 5410391

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150