JP2011017987A - Data collection and delivery system and communication karaoke system - Google Patents

Data collection and delivery system and communication karaoke system Download PDF

Info

Publication number
JP2011017987A
JP2011017987A JP2009163853A JP2009163853A JP2011017987A JP 2011017987 A JP2011017987 A JP 2011017987A JP 2009163853 A JP2009163853 A JP 2009163853A JP 2009163853 A JP2009163853 A JP 2009163853A JP 2011017987 A JP2011017987 A JP 2011017987A
Authority
JP
Japan
Prior art keywords
data
music data
music
karaoke
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009163853A
Other languages
Japanese (ja)
Other versions
JP5439994B2 (en
Inventor
Noriaki Asemi
典昭 阿瀬見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009163853A priority Critical patent/JP5439994B2/en
Priority to KR1020100066148A priority patent/KR20110005653A/en
Publication of JP2011017987A publication Critical patent/JP2011017987A/en
Application granted granted Critical
Publication of JP5439994B2 publication Critical patent/JP5439994B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/365Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems the accompaniment information being stored on a host computer and transmitted to a reproducing terminal by means of a network, e.g. public telephone lines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/241Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
    • G10H2240/251Mobile telephone transmission, i.e. transmitting, accessing or controlling music data wirelessly via a wireless or mobile telephone receiver, analog or digital, e.g. DECT GSM, UMTS

Abstract

PROBLEM TO BE SOLVED: To provide a data collection and delivery system and a communication Karaoke system, which can reproduce a music at other terminals, even if it is newly composed by a user.SOLUTION: A client device 10 takes notes on voice which is input by user's singing, and creates a partial music data to output it to a server device 30. The server device 30 which obtained the partial music data completes a music data by adding an additional music data to the partial music data, and then, creates a Karaoke music data (a creation music data) and stores it in a storage device. When an opening instruction is input to the server device 30, the server device 30 outputs the creation music data specified by the opening instruction to a Karaoke server 45. When start of the performance is specified by the user, play back performance of a music corresponding to a music data in the creation music data is started in a Karaoke terminal 48.

Description

本発明は、楽曲データを収集して、その収集した楽曲データを配信するデータ集配システム、及びそのデータ集配システムを用いた通信カラオケシステムに関する。   The present invention relates to a data collection / delivery system that collects music data and distributes the collected music data, and a communication karaoke system using the data collection / delivery system.

従来より、アーティスト(いわゆる音楽を生業としている人)によって生成された複数の楽曲それぞれについての楽曲データを予め記憶したサーバ装置と、サーバ装置から取得した楽曲データに基づいて演奏音を再生可能な情報端末とを備え、サーバ装置と情報端末とが互いに情報通信可能に接続された音楽配信システムが知られている(例えば、特許文献1参照)。また、サーバ装置と、サーバ装置から取得した楽曲データに基づいて演奏音を再生すると共に、その楽曲データに対応する楽曲の歌詞を表示するカラオケ装置とを備えた通信カラオケシステムが知られている(例えば、特許文献2参照)。   Conventionally, a server device that stores in advance music data for each of a plurality of songs generated by an artist (a person who works as a so-called music), and information that can reproduce a performance sound based on the song data acquired from the server device 2. Description of the Related Art A music distribution system that includes a terminal and in which a server device and an information terminal are connected to be able to communicate with each other is known (see, for example, Patent Document 1). There is also known a communication karaoke system including a server device and a karaoke device that reproduces a performance sound based on music data acquired from the server device and displays lyrics of music corresponding to the music data ( For example, see Patent Document 2).

この特許文献1に記載された音楽配信システムや、特許文献2に記載された通信カラオケシステムでは、情報端末(またはカラオケ装置)の利用者によって指定された楽曲に対応する楽曲データが、サーバから情報端末(またはカラオケ装置)へと配信される。   In the music distribution system described in Patent Document 1 and the communication karaoke system described in Patent Document 2, music data corresponding to the music specified by the user of the information terminal (or karaoke device) is received from the server. It is distributed to the terminal (or karaoke device).

そして、音楽配信システムでは、その配信された楽曲データを情報端末にて再生することで、情報端末の利用者が楽曲を視聴し、通信カラオケシステムでは、カラオケ装置にて再生された楽曲(即ち、演奏音)に合わせて、カラオケ装置の利用者が歌唱を楽しむ。   Then, in the music distribution system, the distributed music data is reproduced on the information terminal, so that the user of the information terminal views the music, and in the communication karaoke system, the music reproduced on the karaoke apparatus (that is, The user of the karaoke device enjoys singing along with the performance sound.

特開2006−234881号公報Japanese Patent Laid-Open No. 2006-234881 特開2009−8861号公報JP 2009-8861 A

ところで、家庭用コンピュータ(例えば、パーソナルコンピュータや家庭用テレビゲームなど)を用いて、利用者が歌唱した音声を採譜して、新たな楽曲を作成(以下、新たに作成された楽曲を作成楽曲と称す)する技術が知られている。   By the way, using a home computer (for example, a personal computer or a home video game), the voice sung by the user is recorded and a new music is created (hereinafter, the newly created music is referred to as the created music). Technology) is known.

一般的に、このような技術を利用して作曲した利用者は、その作曲された作成楽曲を、他の人物にも視聴して欲しいと考えていることが多い。
しかしながら、特許文献1に記載された音楽配信システムや、特許文献2に記載された通信カラオケシステムでは、サーバ装置から情報端末やカラオケ装置へと、予め生成(用意)されている楽曲に対応する楽曲データのみが配信される。このため、例えば、特許文献1に記載された音楽配信システムでは、他の利用者が、作成楽曲を視聴することができず、特許文献2に記載されたカラオケ装置では、作成楽曲を作成した利用者自身が、その作成楽曲をカラオケ装置を用いて歌唱することができないという問題があった。
In general, a user who composes using such a technique often wants other people to view the created composition.
However, in the music distribution system described in Patent Document 1 and the communication karaoke system described in Patent Document 2, the music corresponding to the music generated (prepared) in advance from the server device to the information terminal or the karaoke device. Only data is delivered. For this reason, for example, in the music distribution system described in Patent Literature 1, other users cannot view the created music, and in the karaoke device described in Patent Literature 2, the created music is used. There is a problem that the person himself cannot sing the created music using the karaoke apparatus.

つまり、特許文献1に記載された音楽配信システムや、特許文献2に記載された通信カラオケシステムでは、作成楽曲を配信することができず、その作成楽曲の作曲に用いた端末とは異なる他の端末(即ち、情報端末やカラオケ装置)にて、作成楽曲を楽しむことができないという問題があった。   That is, the music distribution system described in Patent Document 1 and the communication karaoke system described in Patent Document 2 cannot distribute the created music, and are different from the terminal used for composing the created music. There is a problem that the created music cannot be enjoyed at the terminal (that is, the information terminal or the karaoke apparatus).

そこで、本発明は、利用者によって新たに作曲された楽曲であっても、他の端末にて再生することを可能とするデータ集配システム、及びそのデータ集配システムを用いた通信カラオケシステムの提供を目的とする。   Therefore, the present invention provides a data collection / delivery system that enables a user to play a song newly composed by a user, and a communication karaoke system using the data collection / delivery system. Objective.

上記目的を達成するためになされた本発明のデータ集配システムは、楽曲データ生成手段が、時間の進行に沿って順次入力される音声の音高を推定して、その推定結果である音高推定結果に基づいて、時間の進行に沿った演奏音の推移を表す楽曲データを生成し、その生成された楽曲データを少なくとも含む音楽データを、記憶制御手段が、記憶装置に記憶する。これと共に、本発明のデータ集配システムでは、データ配信手段が、記憶装置に記憶されている音楽データのうち、外部から入力された指令によって選択された音楽データを外部装置に配信する。ただし、ここで言う外部装置とは、音楽データに含まれる楽曲データに従って演奏音を再生するものである。   In order to achieve the above object, the data collection and delivery system of the present invention is such that the music data generating means estimates the pitch of the voices that are sequentially input along with the progress of time, and estimates the pitch as the estimation result. Based on the result, music data representing the transition of the performance sound along with the progress of time is generated, and the storage control means stores the music data including at least the generated music data in the storage device. At the same time, in the data collection / delivery system of the present invention, the data distribution means distributes the music data selected by the command inputted from the outside among the music data stored in the storage device to the external device. However, the external device referred to here is a device that reproduces a performance sound according to music data included in the music data.

このように構成されたデータ集配システムによれば、当該データ集配システムの利用者が生成した楽曲データ、即ち、利用者が作曲した楽曲であっても、外部装置に配信することができる。そして、外部装置の利用者は、配信された楽曲データを外部装置にて再生すれば、その当該データ集配システムの利用者が作曲した楽曲を楽しむことができる。   According to the data collection / delivery system configured as described above, even music data generated by a user of the data collection / delivery system, that is, music composed by the user can be distributed to an external device. The user of the external device can enjoy the music composed by the user of the data collection / delivery system by reproducing the distributed music data on the external device.

特に、本発明のデータ集配システムによれば、順次入力される音声の音高を推定した結果に基づいて楽曲データを生成するため、当該データ集配システムの利用者は、音声を入力するだけで楽曲データを作成することができる。このため、作曲についての知識を有していない人物であっても、楽曲データを容易に作成(即ち、容易に作曲)することができる。   In particular, according to the data collection / delivery system of the present invention, music data is generated based on the result of estimating the pitch of the sequentially input voice, so that the user of the data collection / delivery system can simply input the music. Data can be created. For this reason, even if it is a person who does not have the knowledge about composition, music data can be produced easily (namely, composition can be carried out easily).

また、本発明のデータ集配システムにおける楽曲データ生成手段は、請求項2に記載のように、部分作曲手段が、音高推定結果に基づき、部分楽曲データを生成し、データ追加手段が、部分作曲手段にて生成された部分楽曲データに付加楽曲データを追加することで、楽曲データを生成するように構成されていても良い。なお、ここで言う部分楽曲データとは、楽曲データを構成する演奏音の推移の中で、一部分の演奏音の推移を表すデータであり、ここで言う付加楽曲データとは、楽曲データを構成する演奏音の推移の中で、部分楽曲データに対応する部分以外の演奏音の推移を表すデータとして予め生成されたものである。ただし、ここで言う一部分の演奏音の推移とは、楽曲を構成する全時間長のうちの一部の時間帯(例えば、Aメロやサビなど)であっても良いし、楽曲を構成する複数の旋律のうちの特定の旋律(例えば、主旋律やコーラスの旋律など)であっても良い。   The music data generating means in the data collection and delivery system of the present invention is such that the partial music composition means generates partial music data based on the pitch estimation result, and the data adding means comprises the partial music composition. The music data may be generated by adding additional music data to the partial music data generated by the means. The partial music data referred to here is data representing the transition of a part of the performance sound among the transitions of the performance sound constituting the music data, and the additional music data referred to here constitutes the music data. Of the transition of the performance sound, it is generated in advance as data representing the transition of the performance sound other than the portion corresponding to the partial music data. However, the transition of a part of the performance sound referred to here may be a part of a total time length constituting the music (for example, A melody or rust), or a plurality of music constituting the music. A specific melody (for example, main melody or chorus melody) may be used.

このように構成された楽曲データ生成手段によれば、当該データ集配システムの利用者は、楽曲の一部分についての音声を入力するだけで、楽曲データを作成することができ、利用者に、実際に作曲した気分を体験させることができる。このため、利用者に、より気楽な気持ちで当該データ集配システムを使用させることができる。   According to the music data generation means configured in this way, the user of the data collection and delivery system can create music data just by inputting the voice of a part of the music. You can experience the feeling of composing music. For this reason, the user can use the data collection and delivery system with a more comfortable feeling.

さらに、本発明のデータ集配システムは、請求項3に記載のように、部分作曲手段を備えたクライアント装置と、クライアント装置とは別個に形成されると共に、データ追加手段、記憶制御手段、データ配信手段を備えたデータ集配装置との2つの装置から構成されていても良い。   Furthermore, the data collection and delivery system of the present invention is formed separately from the client device provided with the partial composition means and the client device, and the data addition means, the storage control means, and the data delivery. You may be comprised from two apparatuses with the data collection and delivery apparatus provided with the means.

ところで、本発明のデータ集配システムは、請求項4に記載のように、外部からの入力に従って、演奏音それぞれに対応する歌詞を表す歌詞データを生成する歌詞データ生成手段を備えるように構成されていても良い。   By the way, the data collection / delivery system of the present invention is configured to include lyric data generation means for generating lyric data representing lyrics corresponding to each performance sound in accordance with an input from the outside, as described in claim 4. May be.

この場合、データ集配システムにおける記憶制御手段は、楽曲データに歌詞データを加えたものを音楽データとして、記憶装置に記憶するように構成されていることが望ましい。   In this case, it is desirable that the storage control means in the data collection / delivery system is configured to store the music data plus lyrics data as music data in the storage device.

このように構成されたデータ集配システムであれば、音楽データを配信する配信先をカラオケ装置とすることで、そのカラオケ装置の利用者は、データ集配システムの利用者によって作曲された楽曲をカラオケ装置にて再生することができる。このため、カラオケ装置の利用者は、利用者自身が作曲した楽曲や他の利用者が作曲した楽曲を、カラオケ装置を用いて歌唱することができ、よりカラオケを楽しむことができる。   In the data collection / delivery system configured as described above, the distribution destination to which the music data is distributed is the karaoke device, so that the user of the karaoke device can play the music composed by the user of the data collection / delivery system. Can be played. For this reason, the user of a karaoke apparatus can sing the music which the user himself composed and the music which another user composed, using a karaoke apparatus, and can enjoy karaoke more.

なお、本発明は、請求項5に記載のように、請求項1ないし請求項4のいずれかに記載のデータ集配システムに加えて、データ集配システムのデータ配信手段によって配信された音楽データを記憶するカラオケサーバと、カラオケサーバに記憶された音楽データの中から、外部から入力された指令に基づく音楽データを選択し、その音楽データに含まれる楽曲データに従って演奏音を再生するカラオケ装置とを備えた通信カラオケシステムとしてなされたものでも良い。   The present invention stores music data distributed by the data distribution means of the data collection / delivery system in addition to the data collection / delivery system according to any one of claims 1 to 4, as described in claim 5. A karaoke server that selects music data based on an externally input command from music data stored in the karaoke server, and reproduces a performance sound according to the music data included in the music data It may be made as an online karaoke system.

このような通信カラオケシステムによれば、データ集配システムの利用者によって作曲された楽曲をカラオケ装置にて再生することができる。このため、本発明の通信カラオケシステムによれば、当該通信カラオケシステムの利用者自身が作曲した楽曲や、他の利用者が作曲した楽曲を、カラオケ装置を用いて歌唱することができる。よって、カラオケ装置の利用者は、カラオケをより楽しむことができる。   According to such a communication karaoke system, the music composed by the user of the data collection and delivery system can be reproduced by the karaoke apparatus. For this reason, according to the communication karaoke system of this invention, the music which the user of the said communication karaoke system himself composed and the music which another user composed can be sung using a karaoke apparatus. Therefore, the user of a karaoke apparatus can enjoy karaoke more.

実施形態における通信カラオケシステムの概略構成を示したブロック図である。It is the block diagram which showed schematic structure of the communication karaoke system in embodiment. クライアント装置にて実行されるカラオケ楽曲データ作成処理の処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the karaoke music data creation process performed with a client apparatus. 表示部に表示される類語選択画像を例示した図面である。It is drawing which illustrated the synonym selection image displayed on a display part. サーバ装置にて実行されるカラオケ楽曲集配処理の処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the karaoke music collection and delivery process performed with a server apparatus. 実施形態における通信カラオケシステムの動作の推移を示した図面である。It is drawing which showed transition of operation | movement of the communication karaoke system in embodiment.

以下に本発明の実施形態を図面と共に説明する。
ここで、図1は、本発明が適用された通信カラオケシステムの概略構成を示したブロック図である。
〈システム全体について〉
図1に示すように、通信カラオケシステム1は、楽曲の演奏音の推移を表す楽曲データを含むカラオケ楽曲データを収集するカラオケ楽曲データ集配システム5と、そのカラオケ楽曲データ集配システム5からカラオケ楽曲データを取得して、その取得したカラオケ楽曲データに対応する楽曲を再生演奏するカラオケシステム40とを備えている。なお、カラオケ楽曲データ集配システム5と、カラオケシステム40とは、ネットワーク(例えば、専用回線や、WAN等)を介して接続されている。
Embodiments of the present invention will be described below with reference to the drawings.
Here, FIG. 1 is a block diagram showing a schematic configuration of a communication karaoke system to which the present invention is applied.
<About the entire system>
As shown in FIG. 1, the online karaoke system 1 includes a karaoke song data collection / delivery system 5 that collects karaoke song data including song data representing transitions of musical performance sounds, and karaoke song data from the karaoke song data collection / delivery system 5. And a karaoke system 40 for reproducing and playing music corresponding to the acquired karaoke music data. The karaoke music data collection / delivery system 5 and the karaoke system 40 are connected via a network (for example, a dedicated line, a WAN, or the like).

ここで、カラオケ楽曲データについて説明する。
このカラオケ楽曲データは、例えば、MIDI(Musical Instrument Digital Interface)フォーマットにて記述されたカラオケ再生用データであり、本発明の音楽データに相当するものである。
Here, the karaoke music data will be described.
This karaoke music data is, for example, data for karaoke playback described in the MIDI (Musical Instrument Digital Interface) format, and corresponds to the music data of the present invention.

そのカラオケ楽曲データには、楽曲データと、その楽曲データを識別するためのデータである楽曲情報と、その楽曲データに対応する楽曲1曲を再生演奏するために要する時間を示す時間情報と、その楽曲データに対応する楽曲の歌詞を表す歌詞データとが少なくとも含まれている。   The karaoke song data includes song data, song information that is data for identifying the song data, time information indicating the time required to play and play one song corresponding to the song data, and It includes at least lyrics data representing the lyrics of the music corresponding to the music data.

そして、楽曲情報には、楽曲を特定するための曲番号データと、曲名を示す曲名データとが少なくとも含まれている。
また、楽曲データは、楽曲の旋律を形成する各演奏音について、それぞれの音高及び音長が表されたものである。具体的に、本実施形態における各演奏音の音長は、楽音出力開始時間及び楽音出力終了時間によって表されている。ただし、ここで言う楽音出力開始時間とは、対応する演奏音(例えば、楽曲の演奏開始からn番目(nは任意の整数)に出力される演奏音)の出力が開始されるまでの楽曲の演奏開始時からの経過時間である。また、ここで言う楽音出力終了時間とは、その演奏音の出力が終了されるまでの楽曲の演奏開始時からの経過時間である。
The song information includes at least song number data for specifying a song and song name data indicating a song name.
The music data represents the pitch and the length of each performance sound forming the melody of the music. Specifically, the length of each performance sound in the present embodiment is represented by a tone output start time and a tone output end time. However, the musical sound output start time referred to here is the music performance until the corresponding performance sound (for example, the performance sound output nth (n is an arbitrary integer) from the start of music performance) is started. This is the elapsed time from the start of the performance. The tone output end time referred to here is an elapsed time from the start of the music performance until the output of the performance sound is ended.

なお、歌詞データは、楽曲の歌詞を形成する語句(文字)が、その楽曲の演奏に沿って出力される演奏音それぞれと対応付けられたものである。
〈カラオケシステム〉
次に、カラオケシステム40について説明する。
Note that the lyric data is obtained by associating words (characters) forming the lyrics of a music piece with each performance sound output along with the performance of the music piece.
<Karaoke system>
Next, the karaoke system 40 will be described.

このカラオケシステム40は、使用者によって指定された楽曲を再生するカラオケ端末48と、楽曲の再生に必要なカラオケ楽曲データをカラオケ端末48に配信するカラオケサーバ45とを備え、それらカラオケ端末48とカラオケサーバ45とはネットワーク(例えば、専用回線や、WAN等)を介して接続されている。   The karaoke system 40 includes a karaoke terminal 48 that reproduces music specified by the user, and a karaoke server 45 that distributes karaoke music data necessary for music reproduction to the karaoke terminal 48. The server 45 is connected to the server 45 via a network (for example, a dedicated line or a WAN).

そして、カラオケサーバ45は、楽曲の演奏に必要な処理プログラム(以下、カラオケ処理プログラムと称す)及びカラオケ楽曲データを格納する記憶機構46と、ROM,RAM,CPUを少なくとも有した周知のマイクロコンピュータ47とを備えた情報処理装置を中心に構成された周知のカラオケサービス用サーバ装置である。   The karaoke server 45 is a known microcomputer 47 having at least a processing mechanism (hereinafter referred to as a karaoke processing program) necessary for performance of music and a storage mechanism 46 for storing karaoke music data, and ROM, RAM, and CPU. Is a server device for a well-known karaoke service that is configured around an information processing device including

また、カラオケ端末48は、使用者からの指令を受け付ける指令受付部51と、指令受付部51にて受け付けた指令に対応するカラオケ楽曲データをカラオケサーバ45から取得すると共に、カラオケ端末48を構成する各部51,52,54,55,56を制御する制御機構53とを備えている。さらに、カラオケ端末48は、指令受付部51にて受け付けた指令に対応する(即ち、カラオケサーバ45から取得した)カラオケ楽曲データ中の楽曲データに対応する楽曲を再生演奏する音源発生部52と、音源発生部52にて再生演奏された演奏音を出力するスピーカ54と、カラオケ楽曲データ中の歌詞データに従って再生演奏中の楽曲の歌詞を表示する表示機構56と、音声を入力するためのマイクロホン55とを備えている。   Further, the karaoke terminal 48 obtains from the karaoke server 45 the command reception unit 51 that receives a command from the user, and karaoke music data corresponding to the command received by the command reception unit 51, and constitutes the karaoke terminal 48. And a control mechanism 53 for controlling each of the units 51, 52, 54, 55, and 56. Furthermore, the karaoke terminal 48 reproduces and plays the music corresponding to the music data in the karaoke music data corresponding to the command received by the command receiving unit 51 (that is, acquired from the karaoke server 45); A speaker 54 that outputs a performance sound reproduced and played by the sound source generator 52, a display mechanism 56 that displays lyrics of the music being played according to the lyrics data in the karaoke music data, and a microphone 55 for inputting sound And.

つまり、カラオケシステム40は、カラオケサーバ45の記憶機構46に記憶されているカラオケ楽曲データの中から、指令受付部51を介して受け付けた使用者からの指令に対応するカラオケ楽曲データ、即ち、使用者によって選曲された楽曲についてのカラオケ楽曲データを、カラオケ端末48が取得する。そして、カラオケ端末48が、その取得したカラオケ楽曲データ中の楽曲データを再生演奏する。このとき、スピーカ54からは、楽曲データに対応する楽曲の演奏音を放音し、表示機構56は、その楽曲に対応する歌詞を表示する。さらに、カラオケ端末48は、演奏音をスピーカ54から出力している際に、マイクロホン55を介して音声が入力されると(すなわち、使用者が歌唱すると)、その入力された音声(つまり、歌声)を再生演奏中の演奏音にミキシングして出力する。
〈カラオケ楽曲データ集配システム〉
次に、カラオケ楽曲データ集配システム5について説明する。
In other words, the karaoke system 40 has the karaoke music data corresponding to the command from the user received through the command receiving unit 51 from the karaoke music data stored in the storage mechanism 46 of the karaoke server 45, that is, the use. The karaoke terminal 48 acquires karaoke music data about the music selected by the user. Then, the karaoke terminal 48 reproduces and plays the music data in the acquired karaoke music data. At this time, the performance sound of the music corresponding to the music data is emitted from the speaker 54, and the display mechanism 56 displays the lyrics corresponding to the music. Further, when the karaoke terminal 48 outputs the performance sound from the speaker 54, when a sound is input via the microphone 55 (that is, when the user sings), the input sound (that is, the singing voice). ) Is mixed with the performance sound during playback and output.
<Karaoke music data collection and delivery system>
Next, the karaoke music data collection and delivery system 5 will be described.

このカラオケ楽曲データ集配システム5は、外部からの入力に従ってカラオケ楽曲データを構成する一部のデータ(以下、生成データと称す)を作成するクライアント装置10と、予め用意されたカラオケ楽曲データが格納されていると共に、クライアント装置10にて作成された生成データに基づいてカラオケ楽曲データを生成して格納し、その格納されたカラオケ楽曲データを外部からの指令に従って出力するサーバ装置30とを備えている。なお、クライアント装置10と、サーバ装置30とは、ネットワーク(例えば、専用回線や、WAN等)を介して接続されている。さらに、図1においては、1台のサーバ装置30に接続されるクライアント装置10は、1台だけ図示したが、クライアント装置10は、1台のサーバ装置30に対して複数台接続されていても良い。さらには、サーバ装置30も複数備えられていても良い。
〈クライアント装置の構成〉
次に、クライアント装置10について説明する。
The karaoke song data collection and delivery system 5 stores a client device 10 that creates a part of data constituting karaoke song data (hereinafter referred to as generated data) in accordance with an external input, and karaoke song data prepared in advance. And a server device 30 that generates and stores karaoke song data based on the generated data created by the client device 10 and outputs the stored karaoke song data in accordance with an external command. . The client device 10 and the server device 30 are connected via a network (for example, a dedicated line or a WAN). Further, in FIG. 1, only one client device 10 connected to one server device 30 is illustrated, but a plurality of client devices 10 may be connected to one server device 30. good. Furthermore, a plurality of server devices 30 may be provided.
<Configuration of client device>
Next, the client device 10 will be described.

このクライアント装置10は、サーバ装置30との間でデータ通信を実行するための通信部11と、通信部11を介してサーバ装置30から取得したデータや、クライアント装置10にて生成した各種データを記憶する記憶部12と、各種画像を表示するための表示部13と、外部からの入力を受け付ける操作受付部14とを備えている。さらに、クライアント装置10は、音声を入力するためのマイクロホン17と、マイクロホン17を介した音声の入力を制御する音声入力部15と、音声を出力するためのスピーカ18と、スピーカ18からの音声の出力を制御する音声出力部16と、クライアント装置10を構成する各部11,12,13,14,15(17),16(18)を制御する制御部20とを備えている。すなわち、このクライアント装置10は、周知のパーソナルコンピュータとして構成されたものである。   The client device 10 includes a communication unit 11 for executing data communication with the server device 30, data acquired from the server device 30 via the communication unit 11, and various data generated by the client device 10. A storage unit 12 for storing, a display unit 13 for displaying various images, and an operation receiving unit 14 for receiving input from the outside are provided. Further, the client device 10 includes a microphone 17 for inputting sound, a sound input unit 15 that controls input of sound via the microphone 17, a speaker 18 for outputting sound, and a sound from the speaker 18. An audio output unit 16 that controls the output and a control unit 20 that controls each of the units 11, 12, 13, 14, 15 (17), and 16 (18) that configure the client device 10 are provided. That is, the client device 10 is configured as a well-known personal computer.

このうち、表示部13は、周知の表示装置(例えば、液晶ディスプレイやCRT等)であり、操作受付部14は、周知の入力装置(例えば、キーボードやポインティングデバイス)からなる。   Among these, the display unit 13 is a known display device (for example, a liquid crystal display or a CRT), and the operation receiving unit 14 is a known input device (for example, a keyboard or a pointing device).

また、音声入力部15は、マイクロホン17を介して入力された音声(アナログ信号)をサンプリングし、そのサンプリング値(標本値)を制御部20に入力するAD変換器として構成されている。なお、以下では、音声入力部15にてサンプリング値へと変換された音声を音声データと称す。   The voice input unit 15 is configured as an AD converter that samples the voice (analog signal) input via the microphone 17 and inputs the sampled value (sample value) to the control unit 20. Hereinafter, the sound converted into the sampling value by the sound input unit 15 is referred to as sound data.

そして、音声出力部16は、制御部20からの制御指令に基づいて、スピーカ18を鳴動させるように構成されている。
さらに、記憶部12は、電源が切断されても記憶内容を保持すると共に記憶内容を読み書き可能に構成された記憶装置(例えば、ハードディスクドライブ装置やフラッシュメモリ)である。
The audio output unit 16 is configured to ring the speaker 18 based on a control command from the control unit 20.
Further, the storage unit 12 is a storage device (for example, a hard disk drive device or a flash memory) configured to retain the stored content even when the power is turned off and to be able to read and write the stored content.

次に、制御部20は、電源が切断されても記憶内容を保持する必要のあるプログラムやデータを格納するROM23と、プログラムやデータを一時的に格納するRAM22と、ROM23やRAM22に記憶されたプログラムやデータに従って、クライアント装置10を構成する各部11,12,13,14,15,16に対する制御及び各種演算を実行するCPU21とを少なくとも有した周知のマイクロコンピュータを中心に構成されている。   Next, the control unit 20 stores the ROM 23 that stores programs and data that need to retain stored contents even when the power is turned off, the RAM 22 that temporarily stores programs and data, and the ROM 23 and RAM 22 that store the programs and data. A known microcomputer having at least a CPU 21 that executes control and various operations for the respective units 11, 12, 13, 14, 15, and 16 constituting the client device 10 according to programs and data is mainly configured.

その制御部20は、クライアント装置10の利用者に選択された伴奏楽曲の放音中にマイクロホン17を介して入力された音声、及び操作受付部14を介してクライアント装置10の利用者によって入力された情報に従って生成データを生成するカラオケ楽曲データ作成処理を実行する。
〈クライアント装置での処理〉
次に、制御部20(より正確にはCPU21)が実行するカラオケ楽曲データ作成処理の処理手順について説明する。
The control unit 20 is input by the user of the client device 10 via the operation receiving unit 14 and the voice input via the microphone 17 during the sound emission of the accompaniment music selected by the user of the client device 10. Karaoke song data creation processing for generating generated data according to the received information.
<Processing on the client device>
Next, a processing procedure of karaoke music data creation processing executed by the control unit 20 (more precisely, the CPU 21) will be described.

ここで、図2は、カラオケ楽曲データ作成処理の処理手順を示したフローチャートである。
このカラオケ楽曲データ作成処理は、操作受付部14を介してカラオケ楽曲データ作成処理の起動指令が入力されると、起動されるものである。
Here, FIG. 2 is a flowchart showing the processing procedure of the karaoke song data creation processing.
This karaoke piece data creation process is started when a start instruction for the karaoke piece data creation process is input via the operation reception unit 14.

そして、図2に示すように、カラオケ楽曲データ作成処理は、起動されると、まず、S110にて、予め用意された複数の伴奏楽曲の中から、操作受付部14を介して伴奏楽曲の選択を受け付けたか否かを判断し、伴奏楽曲の選択を受け付けていなければ、受け付けるまで待機する。   Then, as shown in FIG. 2, when the karaoke song data creation process is started, first, in S110, the accompaniment song is selected from the plurality of accompaniment songs prepared in advance via the operation reception unit 14. If the accompaniment music selection is not accepted, the process waits until it is accepted.

そして、伴奏楽曲の選択を受け付けると、その選択を受け付けた伴奏楽曲を再生演奏する(S120)。これにより、スピーカ18から伴奏楽曲を形成する構成音を放音する。なお、本実施形態における伴奏楽曲は、楽曲1曲中の特定の期間(ここではサビ)に対応する期間における演奏音の推移を表すものである。   When the accompaniment music selection is accepted, the accompaniment music that has been accepted is reproduced and played (S120). Thereby, the component sound which forms the accompaniment music from the speaker 18 is emitted. In addition, the accompaniment music in this embodiment represents transition of the performance sound in the period corresponding to the specific period (here rust) in one music.

さらに、音声入力部15から音声データを取得する(S130)。このとき、利用者が伴奏楽曲に合わせて歌唱していれば、その利用者が発声した音声が、音声データに変換された上で取得される。   Furthermore, voice data is acquired from the voice input unit 15 (S130). At this time, if the user sings along with the accompaniment music, the voice uttered by the user is acquired after being converted into voice data.

続いて、S130にて取得された音声データを周波数解析し、その周波数解析の結果(例えば、周波数スペクトル)と、予め用意された櫛歯構造モデルとを照合する周知の手法により、予め設定された単位期間毎の基本周波数f0、即ち、マイクロホン17を介して入力された音声の音高を推定する。これと共に、周知の手法を用いて、推定された各音高の継続時間(以下、音長と称す)を推定する(S140)。   Subsequently, the audio data acquired in S130 is subjected to frequency analysis, and the frequency analysis result (for example, frequency spectrum) and a comb-shaped structure model prepared in advance are collated with a known method. The fundamental frequency f0 for each unit period, that is, the pitch of the voice input through the microphone 17 is estimated. At the same time, the duration of each estimated pitch (hereinafter referred to as the tone length) is estimated using a known method (S140).

さらに、S140にて推定された音高、及び音長の両方に基づいて、伴奏楽曲の演奏中にマイクロホン17を介して入力された音声を音符化、即ち、採譜する(S150)。これにより、利用者が伴奏楽曲に合わせて歌唱していれば、その利用者が発声した音声が、順次、譜面にて表される。   Further, based on both the pitch and the length estimated in S140, the voice input through the microphone 17 during the performance of the accompaniment music is converted into a note, that is, scored (S150). Thereby, if the user is singing along with the accompaniment music, the voices uttered by the user are sequentially represented on the musical score.

続いて、S130からS150までのサイクル(即ち、ハミング作曲)を終了する旨を表す終了指令が、操作受付部14を介して入力されたか否かを判定する(S160)。その判定の結果、終了指令が入力されていなければ、S130へと戻り、終了指令が入力されると、S170へと進む。   Subsequently, it is determined whether or not an end command indicating that the cycle from S130 to S150 (that is, Hamming composition) is to be ended is input via the operation reception unit 14 (S160). As a result of the determination, if the end command is not input, the process returns to S130, and if the end command is input, the process proceeds to S170.

そのS170では、S150にて採譜した結果を、1つの楽曲データの全期間のうちの一部の期間を表す部分楽曲データへと変換する。すなわち、S170では、1つの楽曲データの元となる部分楽曲データを生成する。なお、採譜した結果を楽曲データへと変換する処理は周知であるため、ここでの詳しい説明は省略する。   In S170, the result obtained in S150 is converted into partial music data representing a part of the whole period of one music data. That is, in S170, partial music data that is the source of one music data is generated. Since the process of converting the scored result into music data is well known, detailed description thereof is omitted here.

続いて、文字の入力を受け付けるためのグラフィカルユーザインターフェース画像(以下、歌詞入力画像と称す)を表示部13に表示する(S180)。この歌詞入力画像における予め設定された入力可能位置に操作受付部14を介して文章(即ち、文字)が入力されると、その入力された文章(即ち、文字)を受け付ける(S190)。   Subsequently, a graphical user interface image (hereinafter referred to as a lyrics input image) for receiving input of characters is displayed on the display unit 13 (S180). When a sentence (that is, a character) is input via the operation receiving unit 14 to a preset inputable position in the lyrics input image, the input sentence (that is, a character) is received (S190).

さらに、歌詞入力画像を介した文字入力(即ち、歌詞の入力)を完了する旨を表す入力完了指令を取得したか否かを判定する(S200)。その判定の結果、入力完了指令が入力されていなければ、S180へと戻り、操作受付部14を介した文章の入力受け付けを継続する。一方、入力完了指令が入力されると、入力完了指令が入力されたことを表す入力完了信号、及びS190にて受け付けた文章(即ち、文字、以下、入力文章と称す)をサーバ装置30に送信する。   Further, it is determined whether or not an input completion command indicating completion of character input (ie, input of lyrics) via the lyrics input image has been acquired (S200). As a result of the determination, if an input completion command has not been input, the process returns to S180, and the text input reception via the operation reception unit 14 is continued. On the other hand, when an input completion command is input, an input completion signal indicating that the input completion command has been input and a sentence received in S190 (that is, a character, hereinafter referred to as an input sentence) are transmitted to the server device 30. To do.

続いて、詳しくは後述するが、サーバ装置30にて、S190にて受け付けた入力文章中の語句(以下、入力語句と称す)それぞれに分割した上で、それぞれの入力語句に対する類語を検索した結果であり、かつサーバ装置30から返送されたものを示した類語選択画像SI(図3参照)を表示部13に表示する(S210)。この類語選択画像SIは、グラフィカルユーザインターフェースであり、図3に示すように、S190にて入力された入力文章を表示する文字列表示欄101と、サーバ装置30から返送された複数の類語または入力語句の中から1つを、いわゆるプルダウンメニュー方式にて選択するための語句選択表示102と、複数の類語または入力語句の中から歌詞として用いる語句を確定させるための確定完了指令を入力するための完了指令入力表示103とを有している。なお、語句選択表示102(図中,102A〜102D)は、入力語句それぞれについて用意される。したがって、類語選択画像SIには、入力語句それぞれについての類語が表示される。   Subsequently, as will be described in detail later, the server device 30 divides each word / phrase (hereinafter referred to as an input word / phrase) in the input sentence received in S190 and searches for a synonym for each input word / phrase. And a synonym selection image SI (see FIG. 3) showing what is returned from the server device 30 is displayed on the display unit 13 (S210). The synonym selection image SI is a graphical user interface. As shown in FIG. 3, the synonym selection image SI is a character string display column 101 that displays the input text input in S190, and a plurality of synonyms or inputs returned from the server device 30. A phrase selection display 102 for selecting one of the phrases by a so-called pull-down menu method, and a confirmation completion command for confirming a phrase to be used as lyrics from a plurality of synonyms or input phrases And a completion command input display 103. A phrase selection display 102 (102A to 102D in the figure) is prepared for each input phrase. Therefore, a synonym for each input phrase is displayed in the synonym selection image SI.

そして、操作受付部14を介した類語選択画像SIに対する入力を受け付ける。(S220)。続くS230では、先のS220にて、操作受付部14を介して確定完了指令が入力されたか否かを判定する。その判定の結果、確定完了指令が入力されていなければ、S210へと戻り、類語選択画像SIに対する入力の受け付けを継続する。一方、確定完了指令が入力されると、その確定完了指令が入力された時点で、語句選択表示102にて選択されている語句を、歌詞に用いる語句として確定する。   And the input with respect to the synonym selection image SI via the operation reception part 14 is received. (S220). In the subsequent S230, it is determined whether or not a confirmation completion command has been input via the operation receiving unit 14 in the previous S220. As a result of the determination, if the confirmation completion command has not been input, the process returns to S210, and the reception of the input for the synonym selection image SI is continued. On the other hand, when a confirmation completion command is input, the phrase selected in the phrase selection display 102 is determined as a word to be used for lyrics when the confirmation completion command is input.

そして、S240では、先のS230にて確定した語句に従って、歌詞データの元となる楽曲1曲分の歌詞を表すテロップデータを生成する。続く、S250では、先のS170にて生成した部分楽曲データ、及び先のS240にて生成したテロップデータの2つのデータを生成データとしてサーバ装置30に送信する。
〈サーバ装置の構成〉
ここで図1へと戻り、サーバ装置30について説明する。
In step S240, telop data representing the lyrics for one piece of music that is the source of the lyrics data is generated in accordance with the phrase determined in step S230. Subsequently, in S250, the two pieces of data of the partial music data generated in the previous S170 and the telop data generated in the previous S240 are transmitted to the server device 30 as generated data.
<Configuration of server device>
Here, returning to FIG. 1, the server device 30 will be described.

このサーバ装置30は、ネットワーク網を介して接続されたクライアント装置10との間で、データ通信を行うためのインターフェース(以下、I/Fとする)部31と、I/F部31を介して取得したデータを記憶する記憶装置32と、サーバ装置30を構成する各部を制御する制御装置35とを備えている。このサーバ装置30は、周知のいわゆるウェブサーバとして構成されたものであり、本発明のデータ集配装置に相当するものである。   The server device 30 includes an interface (hereinafter referred to as I / F) unit 31 for performing data communication with the client device 10 connected via a network, and an I / F unit 31. A storage device 32 that stores the acquired data and a control device 35 that controls each part of the server device 30 are provided. This server device 30 is configured as a well-known so-called web server, and corresponds to the data collection and delivery device of the present invention.

このうち、記憶装置32は、高容量ディスクと読取装置とが一体に構成された周知のハードディスクドライブ(HDD)である。この記憶装置32には、少なくとも、音楽の作成や音楽の演奏を生業とするアーティストによって作成された楽曲それぞれについて予め用意されたカラオケ楽曲データ(以下、既存楽曲データと称す)が格納されている。   Among these, the storage device 32 is a known hard disk drive (HDD) in which a high-capacity disk and a reading device are integrally configured. The storage device 32 stores at least karaoke song data (hereinafter referred to as existing song data) prepared in advance for each song created by an artist whose business is creating music and playing music.

また、制御装置35は、電源を切断しても記憶内容を保持する必要のあるプログラムやデータを記憶するROM38と、転送されたデータ(プログラム)や処理途中で一時的に生じたデータを格納するRAM37と、ROM38やRAM37に記憶されたプログラムに従って処理を実行するCPU36とを備えている。
〈サーバ装置での処理〉
次に、制御装置35(より正確にはCPU36)が実行するカラオケ楽曲集配処理の処理手順について説明する。
The control device 35 stores a ROM 38 for storing programs and data that need to retain stored contents even when the power is turned off, and transferred data (programs) and data temporarily generated during the processing. A RAM 37 and a CPU 36 that executes processing according to programs stored in the ROM 38 and the RAM 37 are provided.
<Processing on server device>
Next, a processing procedure of karaoke music collection / delivery processing executed by the control device 35 (more precisely, the CPU 36) will be described.

ここで、図4は、カラオケ楽曲集配処理の処理手順を示したフローチャートである。
このカラオケ楽曲集配処理は、サーバ装置30が起動されると、実行が開始されるものである。
Here, FIG. 4 is a flowchart showing a processing procedure of the karaoke music collection and delivery processing.
This karaoke music collection / delivery process is started when the server device 30 is activated.

そして、カラオケ楽曲集配処理は、実行が開始されると、図4に示すように、まず、S310にて、クライアント装置10から入力完了信号(及び入力文章)を受信(即ち、取得)したか否かを判定する。その判定の結果、入力完了信号(及び入力文章)を受信していれば、S320へと進む。   Then, when the execution of the karaoke music collection / delivery process is started, as shown in FIG. 4, first, in S310, whether or not an input completion signal (and input sentence) is received (that is, acquired) from the client device 10 or not. Determine whether. As a result of the determination, if an input completion signal (and input text) has been received, the process proceeds to S320.

そのS320では、クライアント装置10から受信した入力文章に対して形態素解析を実行して、入力文章を入力語句毎に分解する。続くS330では、周知の検索方法を用いて、S320にて分解された入力語句それぞれについて意味が類似する語句(即ち、類語)を、記憶装置32に予め記憶されている複数の語句の中から検索して抽出する。さらに、S340では、それらの入力語句毎に抽出された全ての類語を、クライアント装置10に出力して、S350へと進む。   In S320, morphological analysis is performed on the input sentence received from the client device 10, and the input sentence is decomposed for each input phrase. In subsequent S330, using a well-known search method, search for a phrase (that is, a synonym) similar in meaning to each of the input phrases decomposed in S320 from a plurality of phrases stored in advance in the storage device 32. And extract. Furthermore, in S340, all the synonyms extracted for each of those input phrases are output to the client device 10, and the process proceeds to S350.

なお、S310での判定の結果、入力完了信号を受信していない場合にも、S350へと進む。
そのS350では、クライアント装置10から生成データを取得したか否かを判定し、判定の結果、生成データを取得していれば、S360へと進む。
Note that if the result of determination in S310 is that an input completion signal has not been received, the process also proceeds to S350.
In S350, it is determined whether or not generation data has been acquired from the client apparatus 10. If the determination result indicates that generation data has been acquired, the process proceeds to S360.

そのS360では、生成データ中の部分楽曲データに対して、その部分楽曲データによって表された期間の前後に、予め用意された付加楽曲データを接続する。これにより、楽曲全体についての演奏音の推移を表すデータが生成され、楽曲データとして完成する。   In S360, the additional music data prepared in advance is connected to the partial music data in the generated data before and after the period represented by the partial music data. Thereby, data representing the transition of the performance sound for the entire music is generated and completed as music data.

ただし、ここで言う付加楽曲データとは、1つの楽曲データの全期間のうち、部分楽曲データに対応する期間とは異なる期間を表す楽曲データであり、例えば、部分楽曲データが、いわゆるサビに対応する期間における演奏音の推移を表す場合、付加楽曲データは、いわゆるAメロや、Bメロ、前奏、間奏に対応する期間における演奏音の推移を表すものである。したがって、本実施形態においては、クライアント装置10にて生成された部分楽曲データに接続される付加楽曲データは、それぞれに対応する期間(即ち、Aメロや、Bメロ、前奏、間奏)毎に複数用意されており、それらの用意されたものの中から伴奏演奏に応じてランダムに選択される。そして、それらの選択された各付加楽曲データを、部分楽曲データに追加することで、楽曲データが生成される。   However, the additional music data mentioned here is music data representing a period different from the period corresponding to the partial music data in the entire period of one music data. For example, the partial music data corresponds to so-called rust. When the transition of the performance sound in the period to be performed is represented, the additional music data represents the transition of the performance sound in the period corresponding to the so-called A melody, B melody, prelude, and interlude. Accordingly, in the present embodiment, a plurality of additional music data connected to the partial music data generated by the client device 10 are provided for each corresponding period (that is, A melody, B melody, prelude, interlude). It is prepared, and it is selected at random according to the accompaniment performance from those prepared. Then, music data is generated by adding each selected additional music data to the partial music data.

続くS370では、生成データ中のテロップデータに基づいて、歌詞データを生成する。具体的には、S360にて生成した楽曲データを形成する演奏音毎に、テロップデータを構成する各文字を、入力文章の先頭の語句から割り当てることで歌詞データを生成する。   In subsequent S370, lyric data is generated based on the telop data in the generated data. Specifically, the lyric data is generated by assigning each character constituting the telop data from the first word of the input sentence for each performance sound forming the music data generated in S360.

そして、S380では、S360にて生成された楽曲データ、及びS370にて生成された歌詞データに加えて、その生成された楽曲データを予め規定されたテンポで再生演奏する際に要する時間を時間情報とし、その生成された楽曲データを識別するために新たに割り当てた文字列(識別コード)を曲番号データとし、クライアント装置10にて入力された曲名を曲名データとした、カラオケ楽曲データを生成する。さらにS380では、その生成したカラオケ楽曲データ(以下、新たに作成されたカラオケ楽曲データを作成楽曲データと称す)を記憶装置32に格納する。その後、S390へと進む。   In S380, in addition to the music data generated in S360 and the lyrics data generated in S370, time information indicating the time required to play and play the generated music data at a predetermined tempo. Karaoke song data is generated with the character string (identification code) newly assigned to identify the generated song data as song number data and the song name input at the client device 10 as song name data. . Further, in S380, the generated karaoke song data (hereinafter, newly created karaoke song data is referred to as created song data) is stored in the storage device 32. Thereafter, the process proceeds to S390.

なお、S350での判定の結果、クライアント装置10から生成データを取得していない場合にも、S390へと進む。
そのS390では、記憶装置32に記憶されている全ての作成楽曲データの中から、クライアント装置10の利用者が指定した作成楽曲データをカラオケシステム40に配信するための公開指令を、クライアント装置10から取得したか否かを判定し、判定の結果、公開指令を取得していれば、S400へと進む。
Note that if the result of determination in S350 is that generation data has not been acquired from the client device 10, the process also proceeds to S390.
In S390, the client device 10 issues a public command for distributing the created song data designated by the user of the client device 10 to the karaoke system 40 from all the created song data stored in the storage device 32. It is determined whether or not it has been acquired. If the result of determination is that a public command has been acquired, the process proceeds to S400.

そのS400では、S390にて取得された公開指令に対応する作成楽曲データ中の楽曲データ、及び作成楽曲データ中の歌詞データに対し、フィルタ処理を実行する。
このフィルタ処理では、処理を実行する対象が楽曲データであれば、記憶装置32に予め記憶されているカラオケ楽曲データ(以下、既存楽曲データと称す)中の楽曲データと、作成楽曲データ中の楽曲データとの類似度(ここでは、類似の度合いが高いほど大きな値となる)を周知の手法によって導出する。そして、その導出された類似度が予め規定された規定値以上であれば、作成楽曲データに対応する楽曲が既存楽曲データに対応する楽曲を盗作した可能性が高いものと判断して、警告を発する。ただし、フィルタ処理にて警告を発した後は、S410へと進む。
In S400, filter processing is executed on the song data in the created song data corresponding to the disclosure command acquired in S390 and the lyrics data in the created song data.
In this filtering process, if the object to be processed is music data, the music data in karaoke music data (hereinafter referred to as existing music data) stored in advance in the storage device 32 and the music in the created music data The degree of similarity with data (here, the higher the degree of similarity, the larger the value) is derived by a known method. If the derived similarity is equal to or greater than a predetermined value, it is determined that there is a high possibility that the music corresponding to the created music data has stolen the music corresponding to the existing music data, and a warning is issued. To emit. However, after issuing a warning in the filter process, the process proceeds to S410.

また、フィルタ処理を実行する対象が歌詞データであれば、既存楽曲データ中の歌詞データと、作成楽曲データ中の歌詞データとの類似度(ここでは、類似の度合いが高いほど大きな値となる)を周知の手法によって導出する。そして、その導出された類似度が予め規定された規定値以上であれば、作成楽曲データに対応する楽曲の歌詞が、既存楽曲データに対応する楽曲の歌詞を盗作した可能性が高いものと判断して、警告を発する。なお、フィルタ処理にて警告を発した後は、S410へと進む。   In addition, if the object to be filtered is lyrics data, the similarity between the lyrics data in the existing song data and the lyrics data in the created song data (here, the higher the degree of similarity, the larger the value) Is derived by a known method. If the derived similarity is equal to or higher than a predetermined value, it is determined that there is a high possibility that the lyrics of the music corresponding to the created music data have plagiarized the lyrics of the music corresponding to the existing music data. And issue a warning. Note that after issuing a warning in the filter process, the process proceeds to S410.

一方、楽曲データに対する類似度、及び歌詞データについての類似度が共に規定値未満であれば、作成された楽曲及び歌詞それぞれが盗作された可能性が低いものと判断して、S410へと進む。   On the other hand, if the similarity with respect to the music data and the similarity with respect to the lyrics data are both less than the specified value, it is determined that there is a low possibility that the created music and lyrics have been plagiarized, and the process proceeds to S410.

そのS410では、S400にてフィルタ処理が施された作成楽曲データを、カラオケサーバ45に配信して、そのカラオケサーバ45の記憶機構46に格納する。そして、その後、S310へと戻る。   In S410, the created music data that has been filtered in S400 is distributed to the karaoke server 45 and stored in the storage mechanism 46 of the karaoke server 45. Then, the process returns to S310.

なお、S390での判定の結果、公開指令を取得していない場合にも、S310へと戻る。
そのS310では、新たな入力完了信号(及び入力文章)が受信されるまで待機する。
〈動作例〉
次に、本実施形態の通信カラオケシステム1の動作例について説明する。
Note that if the result of determination in S390 is that a public command has not been acquired, processing returns to S310.
In S310, the process waits until a new input completion signal (and input text) is received.
<Operation example>
Next, an operation example of the communication karaoke system 1 of the present embodiment will be described.

ここで、図5は、使用者が、クライアント装置10にて作曲して、その作曲した楽曲をカラオケ端末48を利用して歌唱する場合における通信カラオケシステム1の動作順序を示した説明図である。   Here, FIG. 5 is an explanatory diagram showing an operation sequence of the communication karaoke system 1 when the user composes the music using the client device 10 and sings the composed music using the karaoke terminal 48. .

この図5に示す例では、使用者は、まず、クライアント装置10にて伴奏演奏を選択して、その伴奏演奏の再生に応じてスピーカ18から放音される音にあわせて、歌唱(ここでは、ハミングなども含む)する。すると、クライアント装置10は、使用者が歌唱することで入力された音声を採譜して、部分楽曲データを生成する(即ち、ハミング作曲する、図5中:S1)。   In the example shown in FIG. 5, the user first selects an accompaniment performance on the client device 10, and sings along with the sound emitted from the speaker 18 in accordance with the reproduction of the accompaniment performance (here, , Including humming). Then, the client device 10 transcribes the voice input by the user singing and generates partial music data (that is, humming music composition: S1 in FIG. 5).

続いて、ハミング作曲された楽曲に対して歌詞(即ち、文字列)の入力が完了すると、使用者は、操作受付部14を介してクライアント装置10に入力完了指令を入力する。すると、クライアント装置10は、サーバ装置30に対して入力完了指令、及び入力文章を出力する(図5中:S2)。このとき、サーバ装置30は、入力文章を形態素解析した上で、その形態素解析の結果である入力語句について類語を検索する(図5中:S3)。さらに、クライアント装置10へと、入力語句それぞれについて検索された結果としての類語を出力する(図5中:S4)。   Subsequently, when the input of lyrics (that is, a character string) is completed with respect to the music composed by Hamming, the user inputs an input completion command to the client device 10 via the operation reception unit 14. Then, the client device 10 outputs an input completion command and input text to the server device 30 (in FIG. 5, S2). At this time, the server device 30 performs a morphological analysis on the input sentence, and then searches for synonyms for the input phrase that is the result of the morphological analysis (in FIG. 5: S3). Furthermore, a synonym as a result of searching for each input word is output to the client device 10 (in FIG. 5, S4).

その類語を取得したクライアント装置10では、表示された類語の中から使用者が選択した語句をテロップデータとして生成し、その生成されたテロップデータと先に生成した部分楽曲データとをサーバ装置30に出力する(図5中:S5)。このテロップデータと、部分楽曲データとを取得したサーバ装置30は、部分楽曲データに付加楽曲データを追加して楽曲データを完成させた後、歌詞データを生成して、カラオケ楽曲データを完成させ、記憶装置32に格納する(図5中:S6)。   The client device 10 that has acquired the synonym generates, as telop data, a phrase selected by the user from the displayed synonyms, and the generated telop data and the previously generated partial music data are stored in the server device 30. Output (in FIG. 5: S5). The server device 30 that has acquired the telop data and the partial music data adds the additional music data to the partial music data to complete the music data, generates lyrics data, and completes the karaoke music data, The data is stored in the storage device 32 (in FIG. 5, S6).

そして、使用者がクライアント装置10を通じてサーバ装置30に公開指令を入力すると(図5中:S7)、サーバ装置30では、記憶装置32に記憶されている作成楽曲データの中から、公開指令にて指定されたものをカラオケサーバ45に出力する(図5中:S8)。これにより、使用者の入力に従って生成されたカラオケ楽曲データが、カラオケサーバ45の記憶機構46に格納される。   Then, when the user inputs a release command to the server device 30 through the client device 10 (in FIG. 5: S7), the server device 30 receives the release command from the created music data stored in the storage device 32. The designated one is output to the karaoke server 45 (in FIG. 5, S8). Thereby, the karaoke music data generated according to the user's input is stored in the storage mechanism 46 of the karaoke server 45.

さらに、カラオケ端末48の指令受付部51を介して、使用者が、作成楽曲データ中の楽曲データに対応する楽曲の演奏開始を指定すると(図5中:S9)、その作成楽曲データがカラオケサーバ45からカラオケ端末48に配信される(図5中:S10)。そして、カラオケ端末48では、作成楽曲データ中の楽曲データに対応する楽曲の再生演奏が開始され、その再生演奏中にマイクロホン55を介して音声が入力されると、その入力された音声と、再生演奏中の演奏音とがスピーカ54から出力される。
[実施形態の効果]
以上説明したように、本実施形態の通信カラオケシステム1によれば、クライアント装置10の使用者によって作成された作成楽曲データ中の楽曲データに対応する楽曲(即ち、作曲された楽曲)を、カラオケ端末48にて再生することができる。このため、カラオケシステム40の使用者は、使用者自身が作曲した楽曲や他の使用者が作曲した楽曲を、カラオケ端末48を用いて歌唱することができる。
Furthermore, when the user designates the start of the performance of the music corresponding to the music data in the created music data via the command receiving unit 51 of the karaoke terminal 48 (in FIG. 5, S9), the created music data is stored in the karaoke server. 45 is distributed to the karaoke terminal 48 (in FIG. 5, S10). Then, at the karaoke terminal 48, the playback performance of the music corresponding to the music data in the created music data is started, and when a voice is input through the microphone 55 during the playback performance, the input voice and playback are performed. The performance sound being played is output from the speaker 54.
[Effect of the embodiment]
As described above, according to the communication karaoke system 1 of the present embodiment, the music corresponding to the music data in the created music data created by the user of the client device 10 (that is, the music that has been composed) is converted into the karaoke. It can be played back on the terminal 48. For this reason, the user of the karaoke system 40 can sing a song composed by the user himself or a song composed by another user using the karaoke terminal 48.

これにより、カラオケシステム40の使用者は、カラオケをより楽しむことができる。
特に、本実施形態のカラオケ楽曲データ集配システム5によれば、クライアント装置10の使用者は、音声を入力するだけで部分楽曲データを作成することができる。そして、サーバ装置30が、クライアント装置10にて生成された部分楽曲データに付加楽曲データを追加することで、楽曲データを生成するため、作曲についての知識を有していない人物であっても、楽曲データを容易に作成(即ち、容易に作曲)することができる。
Thereby, the user of the karaoke system 40 can enjoy karaoke more.
In particular, according to the karaoke music data collection and delivery system 5 of the present embodiment, the user of the client device 10 can create partial music data simply by inputting voice. And since the server apparatus 30 produces | generates music data by adding additional music data to the partial music data produced | generated in the client apparatus 10, even if it is a person who does not have the knowledge about composition, It is possible to easily create music data (that is, easily compose music).

したがって、カラオケ楽曲データ集配システム5の使用者は、楽曲の一部分についての音声を入力するだけで、楽曲データを作成することができ、使用者に、実際に作曲した気分を体験させることができる。このため、使用者に、より気楽な気持ちでカラオケ楽曲データ集配システム5、ひいては通信カラオケシステム1を使用させることができる。
[その他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
Therefore, the user of the karaoke music data collection / delivery system 5 can create music data just by inputting the voice of a part of the music, and can make the user experience the feeling of actually composing music. For this reason, the user can use the karaoke music data collection / delivery system 5 and thus the communication karaoke system 1 with a more comfortable feeling.
[Other Embodiments]
As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment, In the range which does not deviate from the summary of this invention, it is possible to implement in various aspects.

例えば、上記実施形態では、サーバ装置30に公開指令が入力されると、作成楽曲データに対してフィルタ処理を実行していたが、このフィルタ処理は、実行されなくとも良い。すなわち、カラオケ楽曲集配処理のS400は、省略されていても良い。   For example, in the above-described embodiment, when a disclosure command is input to the server device 30, the filter process is executed on the created music data, but this filter process may not be executed. That is, S400 of karaoke music collection and delivery processing may be omitted.

また、上記実施形態では、サーバ装置30に公開指令が入力されると、サーバ装置30は、作成楽曲データをカラオケサーバ45に出力していたが、公開指令の内容は、これに限るものではない。例えば、作成楽曲データをクライアント装置10に出力しても良いし、サーバ装置30に格納された作成楽曲データに対してアクセス可能とすることでも良い。なお、作成楽曲データがクライアント装置10に出力された後で、クライアント装置10にて作成楽曲データに対して実行される処理や、サーバ装置30に格納された作成楽曲データに対してアクセスされる際にサーバ装置30にて実行される処理としては、作成楽曲データ中の楽曲データに対応する楽曲を視聴することでも良いし、その他の内容でも良い。   Moreover, in the said embodiment, when the public instruction | command was input into the server apparatus 30, the server apparatus 30 output the produced music data to the karaoke server 45, However, The content of a public instruction | command is not restricted to this. . For example, the created song data may be output to the client device 10 or the created song data stored in the server device 30 may be accessible. It should be noted that after the created music data is output to the client device 10, processing executed on the created music data in the client device 10 or when the created music data stored in the server device 30 is accessed. In addition, the process executed by the server device 30 may be to view a song corresponding to the song data in the created song data, or other contents.

また、上記実施形態における付加楽曲データは、1つの楽曲データの全期間のうち、一部の期間における演奏音の推移を表すものであったが、付加楽曲データの構成は、これに限るものではなく、例えば、主旋律とは異なる旋律を表すものであっても良いし、楽器音を付加するものであっても良い。なお、付加楽曲データが前者のように構成されている場合、部分楽曲データは、主旋律を構成する演奏音の推移を表すように形成されることが望ましい。   Moreover, although the additional music data in the said embodiment represented transition of the performance sound in a part period among all the periods of one music data, the structure of additional music data is not restricted to this. For example, it may represent a melody different from the main melody, or may add a musical instrument sound. When the additional music data is configured as in the former, it is desirable that the partial music data is formed so as to represent the transition of the performance sound that constitutes the main melody.

さらに、上記実施形態のカラオケ楽曲集配処理におけるS370では、楽曲データを形成する演奏音毎に、テロップデータを構成する各文字を文字列の先頭から割り当てることで歌詞データを生成していたが、歌詞データ生成方法は、これに限るものではない。例えば、当該システム1の使用者が、テロップデータを構成する各文字を演奏音に手動で割り当てても良いし、音声認識の手法を用いて自動で割り当てても良い。   Furthermore, in S370 in the karaoke song collection and delivery process of the above embodiment, the lyric data is generated by assigning each character constituting the telop data from the top of the character string for each performance sound forming the song data. The data generation method is not limited to this. For example, the user of the system 1 may manually assign each character constituting the telop data to a performance sound, or may automatically assign using a voice recognition technique.

特に、上記実施形態のカラオケ楽曲集配処理において、カラオケ楽曲データを生成する際は(即ち、S380では)、楽曲データ、歌詞データ、時間情報、曲番号データ、及び曲名データに、背景動画を加えたデータをカラオケ楽曲データとして生成しても良い。   In particular, in the karaoke song collection and delivery process of the above embodiment, when generating karaoke song data (ie, in S380), background video is added to song data, lyrics data, time information, song number data, and song name data. The data may be generated as karaoke song data.

さらには、上記実施形態におけるカラオケ楽曲データ作成処理、及びカラオケ楽曲集配処理では、カラオケ楽曲データを生成して記憶装置32に格納していたが、これらの処理にて生成されるデータは、カラオケ楽曲データに限るものではない。例えば、楽曲データのみを生成して記憶装置32に格納しても良い。   Furthermore, in the karaoke music data creation process and the karaoke music collection / delivery process in the above embodiment, the karaoke music data is generated and stored in the storage device 32. The data generated by these processes is the karaoke music data. It is not limited to data. For example, only music data may be generated and stored in the storage device 32.

なお、上記実施形態におけるクライアント装置10は、パーソナルコンピュータとして構成されたものであったが、クライアント装置10は、これに限るものではなく、例えば、家庭用テレビゲーム機器として構成されたものでも良いし、携帯電話装置として構成されたものでも良い。
[実施形態と特許請求の範囲との対応関係]
最後に、上記実施形態の記載と、特許請求の範囲の記載との関係を説明する。
Although the client device 10 in the above embodiment is configured as a personal computer, the client device 10 is not limited to this, and may be configured as, for example, a home video game machine. It may be configured as a mobile phone device.
[Correspondence between Embodiment and Claims]
Finally, the relationship between the description of the above embodiment and the description of the scope of claims will be described.

上記実施形態におけるカラオケ楽曲データ生成処理のS130〜S170をクライアント装置10の制御部20が実行することで得られる機能が、本発明の部分作曲手段に相当し、カラオケ楽曲集配処理のS360をサーバ装置30の制御装置35が実行することで得られる機能が、本発明のデータ追加手段に相当する。すなわち、上記実施形態におけるカラオケ楽曲データ生成処理のS130〜S170、及びカラオケ楽曲集配処理のS360によって得られる機能が、本発明の楽曲データ生成手段に相当する。   The function obtained by the control unit 20 of the client device 10 executing S130 to S170 of the karaoke song data generation process in the above embodiment corresponds to the partial music composition means of the present invention, and the server device executes S360 of the karaoke song collection and delivery process. The functions obtained by executing the 30 control devices 35 correspond to the data adding means of the present invention. That is, the functions obtained by S130 to S170 of the karaoke song data generation process and S360 of the karaoke song collection and delivery process in the above embodiment correspond to the song data generation means of the present invention.

また、上記実施形態におけるカラオケ楽曲集配処理のS380をサーバ装置30の制御装置35が実行することで得られる機能が、本発明の記憶制御手段に相当し、カラオケ楽曲集配処理のS390及びS410をサーバ装置30の制御装置35が実行することで得られる機能が、本発明のデータ配信手段に相当する。   In addition, the function obtained when the control device 35 of the server device 30 executes S380 of the karaoke music collection / delivery processing in the above embodiment corresponds to the storage control means of the present invention, and S390 and S410 of the karaoke music collection / delivery processing are the server. The function obtained by the execution of the control device 35 of the device 30 corresponds to the data distribution means of the present invention.

なお、上記実施形態のカラオケ楽曲データ生成処理のS180〜S250をクライアント装置10の制御部20が実行することで得られる機能、及びカラオケ楽曲集配処理のS310〜S340並びにS370をサーバ装置30の制御装置35が実行することで得られる機能が、本発明の歌詞データ生成手段に相当する。   In addition, the function obtained when the control part 20 of the client apparatus 10 performs S180-S250 of the karaoke music data generation process of the said embodiment, and S310-S340 of the karaoke music collection / delivery process, and S370 are the control apparatus of the server apparatus 30. The function obtained by the execution of 35 corresponds to the lyrics data generating means of the present invention.

1…通信カラオケシステム 5…カラオケ楽曲データ集配システム 10…クライアント装置 11…通信部 12…記憶部 13…表示部 14…操作受付部 15…音声入力部 16…音声出力部 17…マイクロホン 18…スピーカ 20…制御部 21,36…CPU 22,37…RAM 23,38…ROM 30…サーバ装置 31…I/F部 32…記憶装置 35…制御装置 40…カラオケシステム 45…カラオケサーバ 46…記憶機構 47…マイクロコンピュータ 48…カラオケ端末 51…指令受付部 52…音源発生部 53…制御機構 54…スピーカ 55…マイクロホン 56…表示機構 DESCRIPTION OF SYMBOLS 1 ... Communication karaoke system 5 ... Karaoke music data collection / delivery system 10 ... Client apparatus 11 ... Communication part 12 ... Memory | storage part 13 ... Display part 14 ... Operation reception part 15 ... Audio | voice input part 16 ... Audio | voice output part 17 ... Microphone 18 ... Speaker 20 ... Control unit 21,36 ... CPU 22,37 ... RAM 23,38 ... ROM 30 ... Server device 31 ... I / F unit 32 ... Storage device 35 ... Control device 40 ... Karaoke system 45 ... Karaoke server 46 ... Storage mechanism 47 ... Microcomputer 48 ... Karaoke terminal 51 ... Command receiving unit 52 ... Sound source generating unit 53 ... Control mechanism 54 ... Speaker 55 ... Microphone 56 ... Display mechanism

Claims (5)

時間の進行に沿って順次入力される音声の音高を推定して、その推定結果である音高推定結果に基づき、時間の進行に沿った演奏音の推移を表す楽曲データを生成する楽曲データ生成手段と、
前記楽曲データ生成手段で生成された楽曲データを少なくとも含む音楽データを、記憶装置に記憶する記憶制御手段と、
前記音楽データに含まれる楽曲データに従って前記演奏音を再生する外部装置に、前記記憶装置に記憶されている音楽データのうち、外部から入力された指令によって選択された音楽データを配信するデータ配信手段と
を備えることを特徴とするデータ集配システム。
Music data that estimates the pitch of voices that are input sequentially as time progresses and generates music data that represents the transition of performance sounds along the time based on the estimated pitch results Generating means;
Storage control means for storing music data including at least music data generated by the music data generation means in a storage device;
Data distribution means for distributing music data selected by an externally input command among music data stored in the storage device to an external device that reproduces the performance sound in accordance with music data included in the music data A data collection / delivery system comprising:
前記楽曲データ生成手段は、
前記音高推定結果に基づき、前記演奏音の推移の一部分を表す部分楽曲データを生成する部分作曲手段と、
前記部分楽曲データに対応する部分以外の前記演奏音の推移を表すデータとして予め生成されたものを付加楽曲データとし、前記部分作曲手段にて生成された部分楽曲データに前記付加楽曲データを追加することで、前記楽曲データを生成するデータ追加手段と
を備えることを特徴とする請求項1に記載のデータ集配システム。
The music data generating means
Based on the pitch estimation result, partial composition means for generating partial music data representing a part of the transition of the performance sound;
Data generated in advance as data representing the transition of the performance sound other than the portion corresponding to the partial music data is used as additional music data, and the additional music data is added to the partial music data generated by the partial music composition means. The data collection / delivery system according to claim 1, further comprising data addition means for generating the music data.
前記部分作曲手段を備えたクライアント装置と、
前記クライアント装置とは別個に形成されると共に、前記データ追加手段、前記記憶制御手段、前記データ配信手段を備えたデータ集配装置と
からなることを特徴とする請求項2に記載のデータ集配システム。
A client device comprising the partial composition means;
The data collection / delivery system according to claim 2, wherein the data collection / delivery system is formed separately from the client device and includes the data addition unit, the storage control unit, and the data distribution unit.
外部からの入力に従って、前記演奏音それぞれに対応する歌詞を表す歌詞データを生成する歌詞データ生成手段を備え、
前記記憶制御手段は、
前記歌詞データ生成手段で生成された歌詞データを、前記楽曲データに加えたものを前記音楽データとすることを特徴とする請求項1ないし請求項3のいずれかに記載のデータ集配システム。
In accordance with an input from the outside, comprising lyric data generating means for generating lyric data representing the lyrics corresponding to each performance sound,
The storage control means
4. The data collection and delivery system according to claim 1, wherein the music data is obtained by adding the lyrics data generated by the lyrics data generation means to the music data.
請求項1ないし請求項4のいずれかに記載のデータ集配システムと、
前記データ集配システムの前記データ配信手段によって配信された音楽データを記憶するカラオケサーバと、
外部から入力された指令に従って、前記カラオケサーバに記憶された音楽データの中から、前記指令に基づく音楽データを選択し、其の音楽データに含まれる楽曲データに従って前記演奏音を再生するカラオケ装置と
を備えることを特徴とする通信カラオケシステム。
A data collection and delivery system according to any one of claims 1 to 4,
A karaoke server for storing music data distributed by the data distribution means of the data collection and delivery system;
A karaoke device that selects music data based on the command from music data stored in the karaoke server according to a command input from the outside, and reproduces the performance sound according to music data included in the music data; A communication karaoke system comprising:
JP2009163853A 2009-07-10 2009-07-10 Data collection / delivery system, online karaoke system Active JP5439994B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009163853A JP5439994B2 (en) 2009-07-10 2009-07-10 Data collection / delivery system, online karaoke system
KR1020100066148A KR20110005653A (en) 2009-07-10 2010-07-09 Data collection and distribution system, communication karaoke system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009163853A JP5439994B2 (en) 2009-07-10 2009-07-10 Data collection / delivery system, online karaoke system

Publications (2)

Publication Number Publication Date
JP2011017987A true JP2011017987A (en) 2011-01-27
JP5439994B2 JP5439994B2 (en) 2014-03-12

Family

ID=43595801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009163853A Active JP5439994B2 (en) 2009-07-10 2009-07-10 Data collection / delivery system, online karaoke system

Country Status (2)

Country Link
JP (1) JP5439994B2 (en)
KR (1) KR20110005653A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5660408B1 (en) * 2013-08-29 2015-01-28 ブラザー工業株式会社 Posted music performance system and posted music performance method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06149800A (en) * 1992-11-16 1994-05-31 Brother Ind Ltd Document processor
JPH09152865A (en) * 1995-11-30 1997-06-10 Sony Corp Automatic voice transcription device
JPH10143170A (en) * 1996-11-07 1998-05-29 Yamaha Corp Musical piece data forming device and karaoke sing-along machine
JPH10187147A (en) * 1996-10-23 1998-07-14 Yamaha Corp Device and method for voice inputting, and storage medium
JPH11237881A (en) * 1997-12-17 1999-08-31 Yamaha Corp Automatic composing device and storage medium
JP2001075992A (en) * 1999-09-07 2001-03-23 Hitachi Ltd Method and system for sound retrieval and computer- readable recording medium
JP2002055679A (en) * 2000-05-30 2002-02-20 Yamaha Corp Contents-generating service system, method and recording medium
JP2003099048A (en) * 2001-09-25 2003-04-04 Yamaha Corp Device and program for lyrics writing and music composition
JP2003195866A (en) * 2001-12-25 2003-07-09 Yamaha Corp System and program providing automatically lyric- written and music-composed music medium through communication network
JP2004053642A (en) * 2002-07-16 2004-02-19 Yamaha Corp Automatic composition device and program for realizing automatic composition method
JP2004206153A (en) * 2004-04-12 2004-07-22 Yamaha Corp Device and method for lyrics generation, and computer-readable recording medium where lyrics generating program is recorded

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06149800A (en) * 1992-11-16 1994-05-31 Brother Ind Ltd Document processor
JPH09152865A (en) * 1995-11-30 1997-06-10 Sony Corp Automatic voice transcription device
JPH10187147A (en) * 1996-10-23 1998-07-14 Yamaha Corp Device and method for voice inputting, and storage medium
JPH10143170A (en) * 1996-11-07 1998-05-29 Yamaha Corp Musical piece data forming device and karaoke sing-along machine
JPH11237881A (en) * 1997-12-17 1999-08-31 Yamaha Corp Automatic composing device and storage medium
JP2001075992A (en) * 1999-09-07 2001-03-23 Hitachi Ltd Method and system for sound retrieval and computer- readable recording medium
JP2002055679A (en) * 2000-05-30 2002-02-20 Yamaha Corp Contents-generating service system, method and recording medium
JP2003099048A (en) * 2001-09-25 2003-04-04 Yamaha Corp Device and program for lyrics writing and music composition
JP2003195866A (en) * 2001-12-25 2003-07-09 Yamaha Corp System and program providing automatically lyric- written and music-composed music medium through communication network
JP2004053642A (en) * 2002-07-16 2004-02-19 Yamaha Corp Automatic composition device and program for realizing automatic composition method
JP2004206153A (en) * 2004-04-12 2004-07-22 Yamaha Corp Device and method for lyrics generation, and computer-readable recording medium where lyrics generating program is recorded

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6013056445; 鈴木 勝也 ほか: '楽曲協同創作支援システム' 情報処理学会研究報告 Vol.2007 No.102 IPSJ SIG Technical Reports 第2007巻、第102号, 20071011, p.13-17, 社団法人情報処理学会 *
JPN6013056446; 田代 崇 ほか: '検索エンジンを用いた類似文章検索システムEPCIの評価 Evaluation of EPCI: Extracting Potentially C' 電子情報通信学会 第19回データ工学ワークショップ論文集 [online] , 20080407, 電子情報通信学会データ工学研究専門委員会 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5660408B1 (en) * 2013-08-29 2015-01-28 ブラザー工業株式会社 Posted music performance system and posted music performance method

Also Published As

Publication number Publication date
KR20110005653A (en) 2011-01-18
JP5439994B2 (en) 2014-03-12

Similar Documents

Publication Publication Date Title
JP2004347943A (en) Data processor, musical piece reproducing apparatus, control program for data processor, and control program for musical piece reproducing apparatus
US20140278433A1 (en) Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program stored thereon
JP2009244789A (en) Karaoke system with guide vocal creation function
JP6452229B2 (en) Karaoke sound effect setting system
JP2003099032A (en) Chord presenting device and computer program for chord presentation
JP2007310204A (en) Musical piece practice support device, control method, and program
JP2007086570A (en) Automatic musical accompaniment device and program
JP2007140165A (en) Karaoke device and program for karaoke device
JP5439994B2 (en) Data collection / delivery system, online karaoke system
JP4171680B2 (en) Information setting device, information setting method, and information setting program for music playback device
JP4036952B2 (en) Karaoke device characterized by singing scoring system
JP2014178535A (en) Music editing device, karaoke device, and music editing system
JP6219750B2 (en) Singing battle karaoke system
JP3974069B2 (en) Karaoke performance method and karaoke system for processing choral songs and choral songs
JP6380305B2 (en) Data generation apparatus, karaoke system, and program
JP2007140163A (en) Karaoke device and program for karaoke device
JP6587459B2 (en) Song introduction system in karaoke intro
JP2016071187A (en) Voice synthesis device and voice synthesis system
JP6144593B2 (en) Singing scoring system
JP2013231881A (en) Karaoke scoring system
JP4720858B2 (en) Karaoke equipment
JP2007233078A (en) Evaluation device, control method, and program
JP4033146B2 (en) Karaoke equipment
JP2023003706A (en) karaoke system
JP2007140161A (en) Karaoke device and program for karaoke device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131202

R150 Certificate of patent or registration of utility model

Ref document number: 5439994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150