KR20110005653A - Data collection and distribution system, communication karaoke system - Google Patents

Data collection and distribution system, communication karaoke system Download PDF

Info

Publication number
KR20110005653A
KR20110005653A KR1020100066148A KR20100066148A KR20110005653A KR 20110005653 A KR20110005653 A KR 20110005653A KR 1020100066148 A KR1020100066148 A KR 1020100066148A KR 20100066148 A KR20100066148 A KR 20100066148A KR 20110005653 A KR20110005653 A KR 20110005653A
Authority
KR
South Korea
Prior art keywords
music data
data
music
karaoke
input
Prior art date
Application number
KR1020100066148A
Other languages
Korean (ko)
Inventor
노리아끼 아세미
Original Assignee
브라더 고오교오 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 브라더 고오교오 가부시키가이샤 filed Critical 브라더 고오교오 가부시키가이샤
Publication of KR20110005653A publication Critical patent/KR20110005653A/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/365Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems the accompaniment information being stored on a host computer and transmitted to a reproducing terminal by means of a network, e.g. public telephone lines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/241Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
    • G10H2240/251Mobile telephone transmission, i.e. transmitting, accessing or controlling music data wirelessly via a wireless or mobile telephone receiver, analog or digital, e.g. DECT GSM, UMTS

Abstract

PURPOSE: A data collection and distribution system, a communication karaoke system are provided to use a karaoke system as a distribution source, so as to reproduce a music at other user's karaoke system. CONSTITUTION: A communication karaoke system(1) comprises a karaoke music data collection and delivery system(5) and a karaoke system(40). The karaoke music data collection and delivery system collects karaoke music data including the musical piece. The musical piece shows the trend of the performance sound. The karaoke system acquires the karaoke musical piece from the karaoke musical piece distribution system. The karaoke system reproduces the piece of music copes with the karaoke musical piece.

Description

데이터 집배 시스템, 통신 노래방 시스템{DATA COLLECTION AND DISTRIBUTION SYSTEM, COMMUNICATION KARAOKE SYSTEM}Data collection system, communication karaoke system {DATA COLLECTION AND DISTRIBUTION SYSTEM, COMMUNICATION KARAOKE SYSTEM}

본 발명은 악곡 데이터를 수집하여 그 수집한 악곡 데이터를 분배(distribution)하는 데이터 집배 시스템 및 그 데이터 집배 시스템을 사용한 통신 노래방 시스템에 관한 것이다.The present invention relates to a data collection system for collecting music data and distributing the collected music data, and a communication karaoke system using the data delivery system.

종래부터 아티스트(음악을 생업으로 하도 있는 사람)에 의해 생성된 복수의 악곡 각각에 대한 악곡 데이터를 미리 기억한 서버 장치와, 서버 장치로부터 취득한 악곡 데이터에 기초하여 연주음을 재생 가능한 정보 단말을 구비하고, 서버 장치와 정보 단말이 서로 정보 통신 가능하게 접속된 음악 분배 시스템이 알려져 있다(예를 들어, 특허 문헌 1 참조). 또한, 서버 장치와, 서버 장치로부터 취득한 악곡 데이터에 기초하여 연주음을 재생하는 동시에, 그 악곡 데이터에 대응하는 악곡의 가사를 표시하는 노래방 장치를 구비한 통신 노래방 시스템이 알려져 있다(예를 들어, 특허 문헌 2 참조).Conventionally, there is provided a server device which previously stores music data for each of a plurality of pieces of music generated by an artist (a person who makes music a living), and an information terminal capable of reproducing a performance sound based on the music data acquired from the server device. Then, a music distribution system is known in which a server device and an information terminal are connected to each other so as to be capable of information communication (see Patent Document 1, for example). Moreover, a communication karaoke system is known which is equipped with a server apparatus and a karaoke apparatus which reproduces the performance sound based on the music data acquired from the server apparatus, and displays the lyrics of the music corresponding to the music data (for example, See Patent Document 2).

이 특허 문헌 1에 기재된 음악 분배 시스템이나, 특허 문헌 2에 기재된 통신 노래방 시스템에서는, 정보 단말(또는 노래방 장치)의 이용자에 의해 지정된 악곡에 대응하는 악곡 데이터가, 서버로부터 정보 단말(또는 노래방 장치)로 분배된다.In the music distribution system described in Patent Document 1 and the communication karaoke system described in Patent Document 2, music data corresponding to music designated by a user of an information terminal (or karaoke apparatus) is stored from an information terminal (or karaoke apparatus) from a server. To be distributed.

그리고, 음악 분배 시스템에서는, 그 분배된 악곡 데이터를 정보 단말에서 재생함으로써, 정보 단말의 이용자가 악곡을 시청하고, 통신 노래방 시스템에서는 노래방 장치에서 재생된 악곡(즉, 연주음)에 맞추어 노래방 장치의 이용자가 가창을 즐긴다.Then, in the music distribution system, the distributed music data is reproduced by the information terminal, so that the user of the information terminal views the music, and in the communication karaoke system, the karaoke apparatus is adapted to the music (that is, the playing sound) reproduced by the karaoke apparatus. The user enjoys singing.

일본 특허 출원 공개 제2006-234881호 공보Japanese Patent Application Publication No. 2006-234881 일본 특허 출원 공개 제2009-8861호 공보Japanese Patent Application Publication No. 2009-8861

그런데, 가정용 컴퓨터(예를 들어, 퍼스널 컴퓨터나 가정용 텔레비전 게임 등)를 사용하여, 이용자의 음성(가성)으로부터 채보하여, 새로운 악곡을 작성(이하, 새롭게 작성된 악곡을 작성 악곡이라고 칭함)하는 기술이 알려져 있다.By the way, using a home computer (for example, a personal computer, a home television game, etc.), the technique which collects from a user's voice (voice) and creates a new music (henceforth a newly created music is called a creation music) Known.

일반적으로, 이와 같은 기술을 이용하여 작곡한 이용자는 그 작곡된 작성 악곡을 다른 인물에게도 시청하게 해주고 싶다고 생각하는 경우가 많다.In general, a user who composes using such a technique often thinks that he or she would like to allow other people to view the composed music.

그러나, 특허 문헌 1에 기재된 음악 분배 시스템이나, 특허 문헌 2에 기재된 통신 노래방 시스템에서는, 서버 장치로부터 정보 단말이나 노래방 장치로, 미리 생성(준비)되어 있는 악곡에 대응하는 악곡 데이터만이 분배된다. 이로 인해, 예를 들어 특허 문헌 1에 기재된 음악 분배 시스템에서는, 다른 이용자가 작성 악곡을 시청할 수 없고, 특허 문헌 2에 기재된 노래방 장치에서는 작성 악곡을 작성한 이용자 자신이, 그 작성 악곡을 노래방 장치를 사용하여 가창할 수 없다고 하는 문제가 있었다.However, in the music distribution system described in Patent Document 1 and the communication karaoke system described in Patent Document 2, only the music data corresponding to the music previously generated (prepared) is distributed from the server apparatus to the information terminal or karaoke apparatus. For this reason, for example, in the music distribution system described in Patent Document 1, no other user can view the created music, and in the karaoke apparatus described in Patent Document 2, the user himself who created the created music uses the created music as the karaoke device. There was a problem that could not be sung.

즉, 특허 문헌 1에 기재된 음악 분배 시스템이나, 특허 문헌 2에 기재된 통신 노래방 시스템에서는 작성 악곡을 분배할 수 없어, 그 작성 악곡의 작곡에 사용한 단말과는 상이한 다른 단말(즉, 정보 단말이나 노래방 장치)에서, 작성 악곡을 즐길 수 없다고 하는 문제가 있었다.That is, in the music distribution system described in Patent Document 1 and the communication karaoke system described in Patent Document 2, the composition music cannot be distributed, and another terminal (that is, an information terminal or karaoke apparatus) different from the terminal used for composing the composition music ), There was a problem that you cannot enjoy making music.

따라서, 본 발명은 이용자에 의해 새롭게 작곡된 악곡이라도, 다른 단말에서 재생하는 것을 가능하게 하는 데이터 집배 시스템 및 그 데이터 집배 시스템을 사용한 통신 노래방 시스템의 제공을 목적으로 한다.Accordingly, an object of the present invention is to provide a data collection system that enables playback of music composed newly by a user on another terminal, and a communication karaoke system using the data collection system.

상기 목적을 달성하기 위해 이루어진 본 발명의 데이터 집배 시스템은, 악곡 데이터 생성 수단이, 순차적으로 입력되는 음성의 음 높이에 기초하여, 음의 추이를 나타내는 악곡 데이터를 생성한다. 또한, 데이터 분배 수단이, 악곡 데이터를 적어도 포함하는 음악 데이터를, 그 음악 데이터에 포함되는 악곡 데이터에 따라서 연주음을 재생하는 외부 장치로 분배한다. 또한, 여기서 말하는 외부 장치라 함은, 음악 데이터에 포함되는 악곡 데이터에 따라서 연주음을 재생하는 것이다.In the data collecting system of the present invention made to achieve the above object, the music data generating means generates music data indicating the transition of sound based on the pitch of the voices which are sequentially input. Further, the data distribution means distributes the music data including at least the music data to an external device that reproduces the performance sound in accordance with the music data included in the music data. Incidentally, the external device referred to here is to reproduce the performance sound in accordance with the music data included in the music data.

이와 같이 구성된 데이터 집배 시스템에 따르면, 당해 데이터 집배 시스템의 이용자가 생성한 악곡 데이터, 즉 이용자가 작곡한 악곡이라도, 외부 장치로 분배할 수 있다. 그리고, 외부 장치의 이용자는 분배된 악곡 데이터를 외부 장치에서 재생하면, 그 당해 데이터 집배 시스템의 이용자가 작곡한 악곡을 즐길 수 있다.According to the data distribution system configured as described above, even music data generated by a user of the data distribution system, that is, music composed by the user, can be distributed to an external device. When the user of the external device reproduces the distributed music data on the external device, the user can enjoy the music composed by the user of the data collection system.

특히, 본 발명의 데이터 집배 시스템에 따르면, 순차적으로 입력되는 음성의 음 높이에 기초하여 악곡 데이터를 생성하므로, 당해 데이터 집배 시스템의 이용자는 음성을 입력하는 것만으로 악곡 데이터를 작성할 수 있다. 이로 인해, 작곡에 대한 지식을 갖고 있지 않은 인물이라도, 악곡 데이터를 용이하게 작성(즉, 용이하게 작곡)할 수 있다.In particular, according to the data collection system of the present invention, since the music data is generated based on the pitches of the voices which are sequentially input, the user of the data collection system can create the music data only by inputting the voice. Therefore, even a person who does not have knowledge of composition can easily create (i.e., compose) music data.

또한, 본 발명의 데이터 집배 시스템에 있어서의 악곡 데이터 생성 수단은, 순차적으로 입력되는 음성의 음 높이를 추정하여, 부분 작곡 수단이, 음 높이 추정 결과에 기초하여 부분 악곡 데이터를 생성하고, 데이터 추가 수단이, 부분 작곡 수단에 의해 생성된 부분 악곡 데이터에 부가 악곡 데이터를 추가함으로써, 악곡 데이터를 생성하도록 구성되어 있어도 좋다. 또한, 여기서 말하는 부분 악곡 데이터라 함은, 악곡 데이터를 구성하는 연주음의 추이 중에서 일부분의 연주음의 추이를 나타내는 데이터이고, 여기서 말하는 부가 악곡 데이터라 함은, 악곡 데이터를 구성하는 연주음의 추이 중에서 부분 악곡 데이터에 대응하는 부분 이외의 연주음의 추이를 나타내는 데이터로서 미리 생성된 것이다. 단, 여기서 말하는 일부분의 연주음의 추이라 함은, 악곡을 구성하는 전체 시간 길이 중 일부의 시간대[예를 들어, 1절이나 브릿지(bridge) 등]라도 좋고, 악곡을 구성하는 복수의 선율 중 특정한 선율(예를 들어, 주선율이나 코러스의 선율 등)이라도 좋다.In addition, the music data generating means in the data collection system of the present invention estimates the pitch of the voices which are sequentially input, and the partial composition means generates the partial music data based on the result of the pitch estimation. The means may be configured to generate music data by adding additional music data to the partial music data generated by the partial composition means. Here, the partial music data referred to herein is data indicating a transition of a part of the performance sound among the transitions of the performance sounds constituting the music data, and the additional music data referred to here is a transition of the performance sounds constituting the music data. The data is generated in advance as data representing the transition of the performance sound other than the part corresponding to the partial music data. However, the weight of a part of the performance sound referred to herein may be a time zone (for example, a section or a bridge) of a part of the total time length constituting the piece of music, and a specific melody of the plurality of tunes constituting the piece of music. A melody (for example, a melody of a principal, a chorus of a chorus, etc.) may be sufficient.

이와 같이 구성된 악곡 데이터 생성 수단에 따르면, 당해 데이터 집배 시스템의 이용자는 악곡의 일부분에 대한 음성을 입력하는 것만으로, 악곡 데이터를 작성할 수 있어, 이용자에게 실제로 작곡한 기분을 체험하게 할 수 있다. 이로 인해, 이용자에게 보다 마음이 편한 기분으로 당해 데이터 집배 시스템을 사용하게 할 수 있다.According to the music data generating means configured in this manner, the user of the data collection system can create music data only by inputting a voice for a part of the music, so that the user can actually feel the composition. This allows the user to use the data collection system in a more comfortable mood.

또한, 본 발명의 데이터 집배 시스템은 부분 작곡 수단을 구비한 클라이언트 장치와, 클라이언트 장치와는 별개로 형성되는 동시에, 데이터 추가 수단, 기억 제어 수단, 데이터 분배 수단을 구비한 데이터 집배 장치의 2개의 장치로 구성되어 있어도 좋다.Further, the data collecting system of the present invention has two devices: a client apparatus having a partial composition means and a data collecting apparatus having a data adding means, a storage control means, and a data distributing means, formed separately from the client apparatus. It may consist of.

그런데, 본 발명의 데이터 집배 시스템은 외부로부터의 입력에 따라서, 연주음 각각에 대응하는 가사를 나타내는 가사 데이터를 생성하는 가사 데이터 생성 수단을 구비하도록 구성되어 있어도 좋다.By the way, the data collection system of the present invention may be configured to include lyrics data generating means for generating lyrics data indicating lyrics corresponding to each of the tonal performances in response to an input from the outside.

이 경우, 데이터 집배 시스템에 있어서의 기억 제어 수단은 악곡 데이터에 가사 데이터를 추가한 것을 음악 데이터로서, 기억 장치에 기억하도록 구성되어 있는 것이 바람직하다.In this case, it is preferable that the storage control means in the data collection system is configured to store, as music data, the lyrics data added to the music data as the music data.

이와 같이 구성된 데이터 집배 시스템이라면, 음악 데이터를 분배하는 분배처를 노래방 장치로 함으로써, 그 노래방 장치의 이용자는 데이터 집배 시스템의 이용자에 의해 작곡된 악곡을 노래방 장치에서 재생할 수 있다. 이로 인해, 노래방 장치의 이용자는 이용자 자신이 작곡한 악곡이나 다른 이용자가 작곡한 악곡을, 노래방 장치를 사용하여 가창할 수 있어, 노래방을 보다 즐길 수 있다.In the data distribution system configured as described above, by using the distribution destination for distributing music data as the karaoke apparatus, the user of the karaoke apparatus can reproduce the music composed by the user of the data delivery system in the karaoke apparatus. For this reason, the user of a karaoke apparatus can sing the music composed by the user himself or the music composed by another user using a karaoke apparatus, and can enjoy a karaoke more.

또한, 본 발명은 데이터 집배 시스템에 추가하여, 데이터 집배 시스템의 데이터 분배 수단에 의해 분배된 음악 데이터를 기억하는 노래방 서버와, 노래방 서버에 기억된 음악 데이터 중으로부터, 외부로부터 입력된 지령에 기초하는 음악 데이터를 선택하여, 그 음악 데이터에 포함되는 악곡 데이터에 따라서 연주음을 재생하는 노래방 장치를 구비한 통신 노래방 시스템으로서 이루어진 것이라도 좋다.In addition to the data collection system, the present invention is based on a karaoke server that stores music data distributed by the data distribution means of the data distribution system and a command input from the outside from among music data stored in the karaoke server. It may be constituted as a communication karaoke system provided with a karaoke apparatus for selecting music data and reproducing a performance sound in accordance with the music data contained in the music data.

이와 같은 통신 노래방 시스템에 따르면, 데이터 집배 시스템의 이용자에 의해 작곡된 악곡을 노래방 장치에서 재생할 수 있다. 이로 인해, 본 발명의 통신 노래방 시스템에 따르면, 당해 통신 노래방 시스템의 이용자 자신이 작곡한 악곡이나, 다른 이용자가 작곡한 악곡을, 노래방 장치를 사용하여 가창할 수 있다. 따라서, 노래방 장치의 이용자는 노래방을 보다 즐길 수 있다.According to such a communication karaoke system, the music composed by the user of the data collection system can be reproduced by the karaoke apparatus. For this reason, according to the communication karaoke system of this invention, the music composed by the user of the said communication karaoke system, and the music composed by the other user can be singed using a karaoke apparatus. Therefore, the user of a karaoke apparatus can enjoy a karaoke more.

도 1은 본 발명의 통신 노래방 시스템의 개략 구성을 도시한 블록도.
도 2는 클라이언트 장치에서 실행되는 노래방 악곡 데이터 작성 처리의 처리 수순을 도시한 흐름도.
도 3은 표시부에 표시되는 유의어 선택 화상을 예시한 도면.
도 4는 서버 장치에서 실행되는 노래방 악곡 집배 처리의 처리 수순을 도시한 흐름도.
도 5는 본 발명의 통신 노래방 시스템의 동작의 추이를 도시한 도면.
1 is a block diagram showing a schematic configuration of a communication karaoke system of the present invention.
Fig. 2 is a flowchart showing the processing procedure of karaoke music data creation processing executed at the client device.
3 is a diagram illustrating a synonym selection image displayed on a display unit.
4 is a flowchart showing a processing procedure of karaoke music collection processing executed in the server device.
5 is a view showing the transition of the operation of the communication karaoke system of the present invention.

이하에, 본 발명의 실시 형태를 도면과 함께 설명한다.EMBODIMENT OF THE INVENTION Below, embodiment of this invention is described with drawing.

<시스템 전체에 대해><System-wide>

도 1에 도시한 바와 같이, 통신 노래방 시스템(1)은 악곡의 연주음의 추이를 나타내는 악곡 데이터를 포함하는 노래방 악곡 데이터를 수집하는 노래방 악곡 데이터 집배 시스템(5)과, 그 노래방 악곡 데이터 집배 시스템(5)으로부터 노래방 악곡 데이터를 취득하여, 그 취득한 노래방 악곡 데이터에 대응하는 악곡을 재생 연주하는 노래방 시스템(40)을 구비하고 있다. 또한, 노래방 악곡 데이터 집배 시스템(5)과, 노래방 시스템(40)은 네트워크(예를 들어, 전용 회선이나, WAN 등)를 통해 접속되어 있다.As shown in Fig. 1, the communication karaoke system 1 includes a karaoke music data distribution system 5 that collects karaoke music data including music data indicating a transition of a performance sound of the music, and the karaoke music data delivery system. The karaoke system 40 which acquires karaoke music data from (5), and reproduces and plays the music music corresponding to the acquired karaoke music data is provided. In addition, the karaoke music data distribution system 5 and the karaoke system 40 are connected via a network (for example, a dedicated line, WAN, etc.).

여기서, 노래방 악곡 데이터에 대해 설명한다.Here, karaoke music data will be described.

이 노래방 악곡 데이터는, 예를 들어 MIDI(Musical Instrument Digital Interface) 포맷으로 기술된 노래방 재생용 데이터로, 본 발명의 음악 데이터의 일례이다.The karaoke music data is, for example, data for karaoke reproduction described in a musical instrument digital interface (MIDI) format, which is an example of music data of the present invention.

그 노래방 악곡 데이터에는 악곡 데이터와, 그 악곡 데이터를 식별하기 위한 데이터인 악곡 정보와, 그 악곡 데이터에 대응하는 악곡 1곡을 재생 연주하기 위해 필요로 하는 시간을 나타내는 시간 정보와, 그 악곡 데이터에 대응하는 악곡의 가사를 나타내는 가사 데이터가 적어도 포함되어 있다.The karaoke music data includes music data, music information which is data for identifying the music data, time information indicating the time required for reproducing and playing one piece of music corresponding to the music data, and the music data. Lyric data representing at least the lyrics of the corresponding piece of music are included.

그리고, 악곡 정보에는 악곡을 특정하기 위한 곡 번호 데이터와, 곡명을 나타내는 곡명 데이터가 적어도 포함되어 있다.The music information includes music number data for specifying the music and at least music name data indicating a music name.

또한, 악곡 데이터는 악곡의 선율을 형성하는 각 연주음에 대해, 각각의 음 높이 및 음 길이가 나타나 있는 것이다. 구체적으로, 본 실시 형태에 있어서의 각 연주음의 음 길이는 악음 출력 개시 시간 및 악음 출력 종료 시간에 의해 나타내어져 있다. 단, 여기서 말하는 악음 출력 개시 시간이라 함은, 대응하는 연주음[예를 들어, 악곡의 연주 개시로부터 n번째(n은 임의의 정수)로 출력되는 연주음]의 출력이 개시될 때까지의 악곡의 연주 개시 시로부터의 경과 시간이다. 또한, 여기서 말하는 악음 출력 종료 시간이라 함은, 그 연주음의 출력이 종료될 때까지의 악곡의 연주 개시 시로부터의 경과 시간이다.Moreover, the music data indicates that the pitch and length of each note are shown for each of the playing sounds forming the tune of the tune. Specifically, the sound length of each performance sound in this embodiment is represented by the sound output start time and the sound output end time. However, the music output start time referred to herein refers to a piece of music from the start of the output of the corresponding performance sound (for example, the performance sound output from the beginning of the performance of the music to the nth (n is an arbitrary integer)). The elapsed time since the start of playing. In addition, the music output end time here is the elapsed time from the start of the performance of the music until the output of the performance sound is complete | finished.

또한, 가사 데이터는 악곡의 가사를 형성하는 어구(문자)가, 그 악곡의 연주에 따라서 출력되는 연주음 각각과 대응된 것이다.The lyrics data corresponds to phrases (characters) forming the lyrics of a piece of music, corresponding to each of the performance sounds output in accordance with the performance of the piece of music.

(노래방 시스템)(Karaoke system)

다음에, 노래방 시스템(40)에 대해 설명한다.Next, the karaoke system 40 is demonstrated.

이 노래방 시스템(40)은 사용자에 의해 지정된 악곡을 재생하는 노래방 단말(48)과, 악곡의 재생에 필요한 노래방 악곡 데이터를 노래방 단말(48)로 분배하는 노래방 서버(45)를 구비하고, 그들 노래방 단말(48)과 노래방 서버(45)는 네트워크(예를 들어, 전용 회선이나, WAN 등)를 통해 접속되어 있다.The karaoke system 40 includes a karaoke terminal 48 for reproducing music designated by a user, and a karaoke server 45 for distributing karaoke music data necessary for reproducing the music to the karaoke terminal 48. The terminal 48 and the karaoke server 45 are connected via a network (for example, a dedicated line or a WAN).

그리고, 노래방 서버(45)는 주지의 노래방 서비스용 서버 장치이다. 구체적으로는, 노래방 서버(45)는 악곡의 연주에 필요한 처리 프로그램(이하, 노래방 처리 프로그램이라고 칭함) 및 노래방 악곡 데이터를 저장하는 기억 기구(46)와, ROM, RAM, CPU를 적어도 가진 주지의 마이크로 컴퓨터(47)를 구비한 정보 처리 장치를 중심으로 구성되어 있다.And the karaoke server 45 is a well-known karaoke service server apparatus. Specifically, the karaoke server 45 is a known mechanism having at least a processing program (hereinafter referred to as a karaoke processing program) necessary for the performance of a piece of music and a storage mechanism 46 for storing karaoke music data, and a ROM, RAM, and CPU. It is comprised mainly on the information processing apparatus provided with the microcomputer 47. As shown in FIG.

또한, 노래방 단말(48)은 사용자로부터의 지령을 접수하는 지령 접수부(51)와, 지령 접수부(51)에서 접수한 지령에 대응하는 노래방 악곡 데이터를 노래방 서버(45)로부터 취득하는 동시에, 노래방 단말(48)을 구성하는 각 부(51, 52, 54, 55, 56)를 제어하는 제어 기구(53)를 구비하고 있다. 또한, 노래방 단말(48)은 지령 접수부(51)에서 접수한 지령에 대응하는[즉, 노래방 서버(45)로부터 취득한] 노래방 악곡 데이터 중의 악곡 데이터에 대응하는 악곡을 재생 연주하는 음원 발생부(52)와, 음원 발생부(52)에서 재생 연주된 연주음을 출력하는 스피커(54)와, 노래방 악곡 데이터 중의 가사 데이터에 따라서 재생 연주 중인 악곡의 가사를 표시하는 표시 기구(56)와, 음성을 입력하기 위한 마이크로폰(55)을 구비하고 있다.In addition, the karaoke terminal 48 acquires, from the karaoke server 45, the command reception unit 51 that receives the instruction from the user, and the karaoke music data corresponding to the command received by the command reception unit 51 from the karaoke server 45. The control mechanism 53 which controls each part 51, 52, 54, 55, 56 which comprises 48 is provided. In addition, the karaoke terminal 48 reproduces and plays the music corresponding to the music data in the karaoke music data corresponding to the command received by the command receiving unit 51 (that is, acquired from the karaoke server 45). ), A speaker 54 for outputting a performance sound reproduced and played by the sound source generator 52, a display mechanism 56 for displaying the lyrics of the piece of music being reproduced and played according to the lyrics data in the karaoke music data, and a voice. The microphone 55 for input is provided.

즉, 노래방 시스템(40)에서는 노래방 서버(45)의 기억 기구(46)에 기억되어 있는 노래방 악곡 데이터 중으로부터, 지령 접수부(51)를 통해 접수한 사용자로부터의 지령에 대응하는 노래방 악곡 데이터, 즉 사용자에 의해 선곡된 악곡에 대한 노래방 악곡 데이터를, 노래방 단말(48)이 취득한다. 그리고, 노래방 단말(48)이, 그 취득한 노래방 악곡 데이터 중의 악곡 데이터를 재생 연주한다. 이때, 스피커(54)로부터는 악곡 데이터에 대응하는 악곡의 연주음을 출력하고, 표시 기구(56)는 그 악곡에 대응하는 가사를 표시한다. 또한, 노래방 단말(48)은 연주음을 스피커(54)로부터 출력하고 있을 때에, 마이크로폰(55)을 통해 음성이 입력되면(즉, 사용자가 가창하면), 그 입력된 음성(즉, 가성)을 재생 연주 중인 연주음에 믹싱하여 출력한다.That is, in the karaoke system 40, among the karaoke music data stored in the storage mechanism 46 of the karaoke server 45, the karaoke music data corresponding to the instruction from the user received through the command reception unit 51, that is, The karaoke terminal 48 acquires karaoke music data regarding the music selected by the user. And the karaoke terminal 48 reproduces and plays the music data in the acquired karaoke music data. At this time, the speaker 54 outputs the performance sound of the music corresponding to the music data, and the display mechanism 56 displays the lyrics corresponding to the music. In addition, when the karaoke terminal 48 is outputting a performance sound from the speaker 54, if a voice is input through the microphone 55 (that is, if the user is vocal), the input voice (i.e., voice) is input. Playback Mixes and outputs the notes being played.

<노래방 악곡 데이터 집배 시스템><Karaoke music data collection system>

다음에, 노래방 악곡 데이터 집배 시스템(5)에 대해 설명한다.Next, the karaoke music data collection system 5 is demonstrated.

이 노래방 악곡 데이터 집배 시스템(5)은 외부로부터의 입력을 따라서 노래방 악곡 데이터를 구성하는 일부의 데이터(이하, 생성 데이터라고 칭함)를 작성하는 클라이언트 장치(10)와, 미리 준비된 노래방 악곡 데이터가 저장되어 있는 동시에, 클라이언트 장치(10)에서 작성된 생성 데이터에 기초하여 노래방 악곡 데이터를 생성하여 저장하고, 그 저장된 노래방 악곡 데이터를 외부로부터의 지령에 따라서 출력하는 서버 장치(30)를 구비하고 있다. 또한, 클라이언트 장치(10)와, 서버 장치(30)는 네트워크(예를 들어, 전용 회선이나, WAN 등)를 통해 접속되어 있다. 또한, 도 1에 있어서는, 1대의 서버 장치(30)에 접속되는 클라이언트 장치(10)는 1대만 도시하였지만, 클라이언트 장치(10)는 1대의 서버 장치(30)에 대해 복수대 접속되어 있어도 좋다. 또한, 서버 장치(30)도 복수 구비되어 있어도 좋다.The karaoke music data collection system 5 stores a client device 10 which creates some data (hereinafter referred to as generated data) constituting karaoke music data according to an input from the outside, and previously prepared karaoke music data. At the same time, the server apparatus 30 generates and stores karaoke music data based on the generated data created by the client device 10, and outputs the stored karaoke music data in accordance with a command from the outside. In addition, the client device 10 and the server device 30 are connected via a network (for example, a dedicated line, a WAN, or the like). In addition, although only one client apparatus 10 connected to one server apparatus 30 was shown in FIG. 1, the client apparatus 10 may be connected to multiple server apparatuses 30 in multiple numbers. In addition, a plurality of server devices 30 may be provided.

<클라이언트 장치의 구성><Configuration of the Client Device>

다음에, 클라이언트 장치(10)에 대해 설명한다.Next, the client device 10 will be described.

이 클라이언트 장치(10)는 서버 장치(30)와의 사이에서 데이터 통신을 실행하기 위한 통신부(11)와, 통신부(11)를 통해 서버 장치(30)로부터 취득한 데이터나, 클라이언트 장치(10)에서 생성한 각종 데이터를 기억하는 기억부(12)와, 각종 화상을 표시하기 위한 표시부(13)와, 외부로부터의 입력을 접수하는 조작 접수부(14)를 구비하고 있다. 또한, 클라이언트 장치(10)는 음성을 입력하기 위한 마이크로폰(17)과, 마이크로폰(17)을 통한 음성의 입력을 제어하는 음성 입력부(15)와, 음성을 출력하기 위한 스피커(18)와, 스피커(18)로부터의 음성의 출력을 제어하는 음성 출력부(16)와, 클라이언트 장치(10)를 구성하는 각 부[11, 12, 13, 14, 15(17), 16(18)]를 제어하는 제어부(20)를 구비하고 있다. 즉, 이 클라이언트 장치(10)는 주지의 퍼스널 컴퓨터로서 구성된 것이다.The client device 10 generates data acquired from the server device 30 through the communication unit 11 and the communication unit 11 for executing data communication with the server device 30 or generated by the client device 10. A storage unit 12 for storing a variety of data, a display unit 13 for displaying various images, and an operation accepting unit 14 for receiving input from the outside are provided. In addition, the client device 10 includes a microphone 17 for inputting voice, a voice input unit 15 for controlling voice input through the microphone 17, a speaker 18 for outputting voice, and a speaker. Controls the audio output unit 16 for controlling the output of the audio from (18), and the units [11, 12, 13, 14, 15 (17), 16 (18)] constituting the client device 10. The control unit 20 is provided. In other words, the client device 10 is configured as a known personal computer.

이 중, 표시부(13)는 주지의 표시 장치(예를 들어, 액정 디스플레이나 CRT 등)이고, 조작 접수부(14)는 주지의 입력 장치(예를 들어, 키보드나 포인팅 디바이스)로 이루어진다.Among these, the display part 13 is a well-known display apparatus (for example, a liquid crystal display, a CRT, etc.), and the operation receiving part 14 consists of a well-known input apparatus (for example, a keyboard and a pointing device).

또한, 음성 입력부(15)는 마이크로폰(17)을 통해 입력된 음성(아날로그 신호)을 샘플링하여, 그 샘플링값(표본값)을 제어부(20)에 입력하는 AD 변환기로서 구성되어 있다. 또한, 이하에서는, 음성 입력부(15)에서 샘플링값으로 변환된 음성을 음성 데이터라고 칭한다.The voice input unit 15 is configured as an AD converter which samples the voice (analog signal) input through the microphone 17 and inputs the sampled value (sample value) to the control unit 20. In addition, below, the voice converted into the sampling value by the audio | voice input part 15 is called audio | voice data.

그리고, 음성 출력부(16)는 제어부(20)로부터의 제어 지령에 기초하여, 스피커(18)를 울려 진동시키도록 구성되어 있다.And the audio output part 16 is comprised so that the speaker 18 may vibrate and vibrate based on the control instruction | command from the control part 20. FIG.

또한, 기억부(12)는 전원이 절단되어도 기억 내용을 유지하는 동시에 기억 내용을 읽고 쓰기 가능하게 구성된 기억 장치(예를 들어, 하드디스크 드라이브 장치나 플래시 메모리)이다.The storage unit 12 is a memory device (for example, a hard disk drive device or a flash memory) configured to retain the memory content and to read and write the memory content even when the power supply is cut off.

다음에, 제어부(20)는 전원이 절단되어도 기억 내용을 유지할 필요가 있는 프로그램이나 데이터를 저장하는 ROM(23)과, 프로그램이나 데이터를 일시적으로 저장하는 RAM(22)과, ROM(23)이나 RAM(22)에 기억된 프로그램이나 데이터에 따라서, 클라이언트 장치(10)를 구성하는 각 부(11, 12, 13, 14, 15, 16)에 대한 제어 및 각종 연산을 실행하는 CPU(21)를 적어도 가진 주지의 마이크로 컴퓨터를 중심으로 구성되어 있다.Next, the control unit 20 includes a ROM 23 for storing a program or data that needs to hold the stored contents even when the power supply is cut off, a RAM 22 for temporarily storing a program or data, and a ROM 23 or In accordance with the programs and data stored in the RAM 22, the CPU 21 for executing control and various operations for the units 11, 12, 13, 14, 15, and 16 constituting the client device 10 is executed. It is comprised mainly on the well-known microcomputer which has at least.

그 제어부(20)는 클라이언트 장치(10)의 이용자에게 선택된 반주 악곡의 출력 중에 마이크로폰(17)을 통해 입력된 음성 및 조작 접수부(14)를 통해 클라이언트 장치(10)의 이용자에 의해 입력된 정보에 따라서 생성 데이터를 생성하는 노래방 악곡 데이터 작성 처리를 실행한다.The control unit 20 controls the voice input through the microphone 17 and the information input by the user of the client device 10 through the operation reception unit 14 during the output of the accompaniment music selected to the user of the client device 10. Therefore, the karaoke music data creation process for generating the generated data is executed.

<클라이언트 장치에서의 처리><Processing on Client Device>

다음에, 제어부(20)가 실행하는[보다 구체적으로는, 제어부(20)의 CPU(21)가 실행하는] 노래방 악곡 데이터 작성 처리의 처리 수순에 대해 도 2를 사용하여 설명한다.Next, the processing procedure of the karaoke music composition data creation process executed by the control unit 20 (more specifically, executed by the CPU 21 of the control unit 20) will be described with reference to FIG. 2.

도 2에 도시하는 노래방 악곡 데이터 작성 처리는 조작 접수부(14)를 통해 노래방 악곡 데이터 작성 처리의 기동 지령이 입력되면, 기동되는 것이다.The karaoke music data creation process shown in FIG. 2 is started when the start command of the karaoke music data creation process is input through the operation accepting unit 14.

그리고, 도 2에 도시한 바와 같이, 노래방 악곡 데이터 작성 처리는, 기동되면, 우선 S110에서 미리 준비된 복수의 반주 악곡 중으로부터, 조작 접수부(14)를 통해 반주 악곡의 선택을 접수하였는지 여부를 판단하여, 반주 악곡의 선택을 접수하고 있지 않으면(S110 : 아니오), 접수할 때까지 대기한다.And as shown in FIG. 2, when a karaoke music data creation process is started, it is judged first whether the selection of accompaniment music was received through the operation acceptance part 14 from among the several accompaniment musics previously prepared by S110. If the accompaniment music selection is not accepted (S110: No), the process waits for the reception.

그리고, 반주 악곡의 선택을 접수하면, 그 선택을 접수한 반주 악곡을 재생 연주한다(S120). 이에 의해, 스피커(18)로부터 반주 악곡을 형성하는 구성음을 출력한다. 또한, 본 실시 형태에 있어서의 반주 악곡은 악곡 1곡 중의 특정한 기간(여기서는 브릿지)에 대응하는 기간에 있어서의 연주음의 추이를 나타내는 것이다.When the accompaniment music selection is accepted, the accompaniment music received the selection is reproduced and played (S120). Thereby, the component sound which forms accompaniment music from the speaker 18 is output. In addition, the accompaniment music in this embodiment shows the transition of the performance sound in the period corresponding to a specific period (here bridge) in one piece of music.

또한, 음성 입력부(15)로부터 음성 데이터를 취득한다(S130). 이때, 이용자가 반주 악곡에 맞추어 가창하고 있으면, 그 이용자가 발성한 음성이, 음성 데이터로 변환된 후에 취득된다.In addition, voice data is acquired from the voice input unit 15 (S130). At this time, if the user is singing along with the accompaniment music, the voice spoken by the user is acquired after being converted into voice data.

계속해서, S130에서 취득된 음성 데이터를 주파수 해석하여, 그 주파수 해석의 결과(예를 들어, 주파수 스펙트럼)와, 미리 준비된 빗살 구조 모델을 대조하는 주지의 방법에 의해, 미리 설정된 단위 기간마다의 기본 주파수 f0, 즉 마이크로폰(17)을 통해 입력된 음성의 음 높이를 추정한다. 이것과 함께, 주지의 방법을 사용하여, 추정된 각 음 높이의 계속 시간(이하, 음 길이라고 칭함)을 추정한다(S140).Subsequently, the frequency data of the speech data obtained in S130 is analyzed by frequency, and the result of the frequency analysis (for example, the frequency spectrum) is compared with the basic method for each preset unit period by a known method of collating a previously prepared comb structure model. The sound height of the voice input through the frequency f0, that is, the microphone 17 is estimated. At the same time, using the known method, the duration of each estimated sound height (hereinafter referred to as sound length) is estimated (S140).

또한, S140에서 추정된 음 높이 및 음 길이의 양쪽에 기초하여, 반주 악곡의 연주 중에 마이크로폰(17)을 통해 입력된 음성을 음표화한다. 즉, 채보한다(S150). 이에 의해, 이용자가 반주 악곡에 맞추어 가창하고 있으면, 그 이용자가 발성한 음성이 순차적으로 보면에 나타내어진다.Further, based on both the pitch and the length estimated in S140, the voice input through the microphone 17 during the performance of the accompaniment music is musicalized. That is, it is made (S150). As a result, if the user is singing along with the accompaniment music, the voice of the user is sequentially shown in the view.

계속해서, S130으로부터 S150까지의 사이클(즉, 허밍 작곡)을 종료하는 취지를 나타내는 종료 지령이, 조작 접수부(14)를 통해 입력되었는지 여부를 판정한다(S160). 그 판정의 결과, 종료 지령이 입력되어 있지 않으면(S160 : 아니오), S130으로 복귀되고, 종료 지령이 입력되면(S160 : 예), S170으로 진행한다.Subsequently, it is determined whether or not an end instruction indicating that the cycle from S130 to S150 (that is, the humming composition) is input via the operation accepting unit 14 (S160). As a result of the determination, if no end command is input (S160: No), the process returns to S130, and if an end command is input (S160: Yes), the process proceeds to S170.

그 S170에서는, S150에서 채보한 결과를, 1개의 악곡 데이터의 전체 기간 중 일부의 기간을 나타내는 부분 악곡 데이터로 변환한다. 즉, S170에서는 1개의 악곡 데이터의 기초가 되는 부분 악곡 데이터를 생성한다. 또한, 채보한 결과를 악곡 데이터로 변환하는 처리는 주지이므로, 여기서의 상세한 설명은 생략한다.In S170, the result obtained in S150 is converted into partial music data indicating a part of the entire period of one piece of music data. That is, in S170, partial music data which is the basis of one piece of music data is generated. In addition, since the processing which converts the obtained result into music data is well known, detailed description here is abbreviate | omitted.

계속해서, 문자의 입력을 접수하기 위한 그래피컬 유저 인터페이스 화상(이하, 가사 입력 화상이라고 칭함)을 표시부(13)에 표시한다(S180). 이 가사 입력 화상에 있어서의 미리 설정된 입력 가능 위치에 조작 접수부(14)를 통해 문장(즉, 문자)이 입력되면, 그 입력된 문장(즉, 문자)을 접수한다(S190).Subsequently, a graphical user interface image (hereinafter, referred to as a lyrics input image) for accepting an input of a character is displayed on the display unit 13 (S180). When a sentence (that is, character) is inputted through the operation accepting unit 14 to a preset inputtable position in the lyrics input image, the input sentence (that is, character) is accepted (S190).

또한, 가사 입력 화상을 통한 문자 입력(즉, 가사의 입력)을 완료하는 취지를 나타내는 입력 완료 지령을 취득하였는지 여부를 판정한다(S200). 그 판정의 결과, 입력 완료 지령이 입력되어 있지 않으면(S200 : 아니오), S180으로 복귀되어, 조작 접수부(14)를 통한 문장의 입력 접수를 계속한다. 한편, 입력 완료 지령이 입력되면(S200 : 예), 입력 완료 지령이 입력된 것을 나타내는 입력 완료 신호 및 S190에서 접수한 문장(즉, 문자, 이하, 입력 문장이라고 칭함)을 서버 장치(30)로 송신한다.Further, it is determined whether or not an input completion command indicating that character input (that is, input of lyrics) via the lyrics input image is completed (S200). As a result of the determination, if an input completion command has not been input (S200: No), the process returns to S180 to continue inputting a sentence through the operation accepting unit 14. On the other hand, when an input completion command is input (S200: YES), an input completion signal indicating that the input completion command is input and a sentence (ie, a character, hereinafter referred to as an input sentence) received in S190 are sent to the server device 30. Send.

계속해서, 상세하게는 후술하지만, 서버 장치(30)에서, S190에서 접수한 입력 문장 중의 어구(이하, 입력 어구라고 칭함) 각각으로 분할한 후, 각각의 입력 어구에 대한 유의어를 검색한 결과이고, 또한 서버 장치(30)로부터 반송된 것을 나타낸 유의어 선택 화상(SI)(도 3 참조)을 표시부(13)에 표시한다(S210). 이 유의어 선택 화상(SI)은 그래피컬 유저 인터페이스이고, 도 3에 도시한 바와 같이, S190에서 입력된 입력 문장을 표시하는 문자열 표시란(101)과, 서버 장치(30)로부터 반송된 복수의 유의어 또는 입력 어구 중으로부터 하나를, 소위 풀 다운 메뉴 방식으로 선택하기 위한 어구 선택 표시(102)와, 복수의 유의어 또는 입력 어구 중으로부터 가사로서 사용하는 어구를 확정시키기 위한 확정 완료 지령을 입력하기 위한 완료 지령 입력 표시(103)를 갖고 있다. 또한, 어구 선택 표시(102)(도면 중, 102A 내지 102D)는 입력 어구 각각에 대해 준비된다. 따라서, 유의어 선택 화상(SI)에는 입력 어구 각각에 대한 유의어가 표시된다.Subsequently, as will be described later in detail, the server apparatus 30 divides each of the phrases (hereinafter referred to as input phrases) among the input sentences received in S190, and then retrieves the synonyms for the respective input phrases. In addition, the synonym selection image SI (refer FIG. 3) which shows that it conveyed from the server apparatus 30 is displayed on the display part 13 (S210). This synonym selection image SI is a graphical user interface, and as shown in FIG. 3, a character string display field 101 for displaying an input sentence input in S190 and a plurality of synonyms returned from the server device 30 or Completion command for inputting a phrase selection display 102 for selecting one of the input phrases in a so-called pull-down menu method and a confirmation completion command for determining a phrase to be used as lyrics from among a plurality of synonyms or input phrases. It has an input display 103. In addition, the phrase selection display 102 (102A-102D in the figure) is prepared for each input phrase. Therefore, the synonyms for each input phrase are displayed in the synonym selection image SI.

그리고, 조작 접수부(14)를 통한 유의어 선택 화상(SI)에 대한 입력을 접수한다(S220). 계속되는 S230에서는, 전번의 S220에서 조작 접수부(14)를 통해 확정 완료 지령이 입력되었는지 여부를 판정한다. 그 판정의 결과, 확정 완료 지령이 입력되어 있지 않으면(S230 : 아니오), S210으로 복귀되어, 유의어 선택 화상(SI)에 대한 입력의 접수를 계속한다. 한편, 확정 완료 지령이 입력되면(S230 : 예), 그 확정 완료 지령이 입력된 시점에서, 어구 선택 표시(102)에서 선택되어 있는 어구를, 가사에 사용하는 어구로서 확정한다.Then, the input to the synonym selection image SI through the operation accepting unit 14 is accepted (S220). In subsequent S230, it is determined whether or not the confirmation completion command has been input through the operation accepting unit 14 in the previous S220. As a result of the determination, if the confirmation completion command is not input (S230: No), the process returns to S210 to continue accepting the input to the synonym selection image SI. On the other hand, when the confirmation completion instruction is input (S230: YES), at the time when the determination completion instruction is input, the phrase selected by the phrase selection display 102 is determined as a phrase used for lyrics.

그리고, S240에서는 전번의 S230에서 확정한 어구에 따라서, 가사 데이터의 기초가 되는 악곡 1곡분의 가사를 나타내는 텔롭 데이터를 생성한다. 계속해서, S250에서는 전번의 S170에서 생성한 부분 악곡 데이터 및 전번의 S240에서 생성한 텔롭 데이터의 2개의 데이터를 생성 데이터로서 서버 장치(30)로 송신한다.In S240, according to the phrase determined in the previous S230, telo data indicating the lyrics of the piece of music serving as the basis of the lyrics data is generated. Subsequently, in S250, two pieces of data of the partial music data generated in the previous S170 and the telop data generated in the previous S240 are transmitted to the server device 30 as generated data.

<서버 장치의 구성><Configuration of Server Device>

여기서, 도 1로 돌아가, 서버 장치(30)에 대해 설명한다.1, the server apparatus 30 will be described.

이 서버 장치(30)는 네트워크망을 통해 접속된 클라이언트 장치(10)와의 사이에서, 데이터 통신을 행하기 위한 인터페이스(이하, I/F라고 함)부(31)와, I/F부(31)를 통해 취득한 데이터를 기억하는 기억 장치(32)와, 서버 장치(30)를 구성하는 각 부를 제어하는 제어 장치(35)를 구비하고 있다. 이 서버 장치(30)는 주지의 소위 웹 서버로서 구성된 것으로, 본 발명의 데이터 집배 장치의 일례이다. The server device 30 includes an interface (hereinafter referred to as I / F) unit 31 and I / F unit 31 for performing data communication with the client device 10 connected via a network. And a storage device 32 for storing data acquired through the control panel, and a control device 35 for controlling the units constituting the server device 30. This server device 30 is configured as a well-known so-called web server and is an example of the data collecting device of the present invention.

이 중, 기억 장치(32)는 고용량 디스크와 판독 장치가 일체로 구성된 주지의 하드디스크 드라이브(HDD)이다. 이 기억 장치(32)에는, 적어도 음악의 작성이나 음악의 연주를 생업으로 하는 아티스트에 의해 작성된 악곡 각각에 대해 미리 준비된 노래방 악곡 데이터(이하, 기존 악곡 데이터라고 칭함)가 저장되어 있다.Among these, the storage device 32 is a known hard disk drive (HDD) in which a high capacity disk and a reading device are integrally formed. The storage device 32 stores at least karaoke music data (hereinafter referred to as existing music data) prepared in advance for each piece of music produced by an artist who makes music or plays a music alive.

또한, 제어 장치(35)는 전원을 절단해도 기억 내용을 유지할 필요가 있는 프로그램이나 데이터를 기억하는 ROM(38)과, 전송된 데이터(프로그램)나 처리 도중에 일시적으로 발생한 데이터를 저장하는 RAM(37)과, ROM(38)이나 RAM(37)에 기억된 프로그램에 따라서 처리를 실행하는 CPU(36)를 구비하고 있다.The control device 35 further includes a ROM 38 for storing a program or data that needs to hold the stored contents even when the power supply is cut off, and a RAM 37 for storing the transferred data (program) or data temporarily generated during processing. ) And a CPU 36 which executes processing in accordance with a program stored in the ROM 38 or the RAM 37.

<서버 장치에서의 처리><Processing at the server device>

다음에, 제어 장치(35)가 실행하는[보다 구체적으로는, 제어 장치(35)의 CPU(36)가 실행하는] 노래방 악곡 집배 처리의 처리 수순에 대해 도 4를 사용하여 설명한다.Next, the processing procedure of the karaoke music collection processing executed by the control device 35 (more specifically, executed by the CPU 36 of the control device 35) will be described with reference to FIG. 4.

도 4에 도시하는 노래방 악곡 집배 처리는 서버 장치(30)가 기동되면, 실행이 개시되는 것이다.The karaoke music collection processing shown in FIG. 4 starts execution when the server apparatus 30 is started.

그리고, 노래방 악곡 집배 처리는 실행이 개시되면, 도 4에 도시한 바와 같이, 우선, S310에서 클라이언트 장치(10)로부터 입력 완료 신호(및 입력 문장)를 수신(즉, 취득)하였는지 여부를 판정한다. 그 판정의 결과, 입력 완료 신호(및 입력 문장)를 수신하고 있으면(S310 : 예), S320으로 진행한다.When execution of the karaoke music collection process is started, as shown in FIG. 4, first, it is determined whether or not an input completion signal (and an input sentence) has been received (ie, acquired) from the client device 10 in S310. . As a result of the determination, if an input completion signal (and an input sentence) is received (S310: YES), the flow advances to S320.

그 S320에서는 클라이언트 장치(10)로부터 수신한 입력 문장에 대해 형태소 해석을 실행하여, 입력 문장을 입력 어구별로 분해한다. 계속되는 S330에서는, 주지의 검색 방법을 사용하여, S320에서 분해된 입력 어구 각각에 대해 의미가 유사한 어구(즉, 유의어)를, 기억 장치(32)에 미리 기억되어 있는 복수의 어구 중으로부터 검색하여 추출한다. 또한, S340에서는 그들 입력 어구별로 추출된 모든 유의어를, 클라이언트 장치(10)에 출력하여 S350으로 진행한다.In S320, morphological analysis is performed on the input sentence received from the client device 10, and the input sentence is decomposed by input phrases. In subsequent S330, using a known search method, a phrase (that is, a synonym) having a similar meaning to each of the input phrases decomposed in S320 is searched and extracted from a plurality of phrases stored in advance in the storage device 32. do. In addition, in S340, all synonyms extracted for each input phrase are output to the client device 10, and the flow proceeds to S350.

또한, S310에서의 판정의 결과, 입력 완료 신호를 수신하고 있지 않은 경우에도(S310 : 아니오) S350으로 진행한다.Further, even when the input completion signal is not received as a result of the determination in S310 (S310: NO), the processing proceeds to S350.

그 S350에서는 클라이언트 장치(10)로부터 생성 데이터를 취득하였는지 여부를 판정하여, 판정의 결과, 생성 데이터를 취득하고 있으면(S350 : 예), S360으로 진행한다.In S350, it is determined whether the generated data is acquired from the client device 10. If the generated data is acquired as a result of the determination (S350: YES), the flow proceeds to S360.

그 S360에서는 생성 데이터 중의 부분 악곡 데이터에 대해, 그 부분 악곡 데이터에 의해 나타내어진 기간의 전후에, 미리 준비된 부가 악곡 데이터를 접속한다. 이에 의해, 악곡 전체에 대한 연주음의 추이를 나타내는 데이터가 생성되어, 악곡 데이터로서 완성된다.In S360, additional music data prepared in advance is connected to the partial music data in the generated data before and after the period indicated by the partial music data. As a result, data indicative of the transition of the performance sound to the whole piece of music is generated and completed as the piece of music data.

단, 여기서 말하는 부가 악곡 데이터라 함은, 1개의 악곡 데이터의 전체 기간 중, 부분 악곡 데이터에 대응하는 기간과는 다른 기간을 나타내는 악곡 데이터이고, 예를 들어 부분 악곡 데이터가, 소위 브릿지에 대응하는 기간에 있어서의 연주음의 추이를 나타내는 경우, 부가 악곡 데이터는, 소위 1절이나, 2절, 전주, 간주에 대응하는 기간에 있어서의 연주음의 추이를 나타내는 것이다. 따라서, 본 실시 형태에 있어서는, 클라이언트 장치(10)에서 생성된 부분 악곡 데이터에 접속되는 부가 악곡 데이터는 각각에 대응하는 기간(즉, 1절이나, 2절, 전주, 간주)마다 복수 준비되어 있고, 그들 준비된 것 중으로부터 반주 연주에 따라서 랜덤으로 선택된다. 그리고, 그들의 선택된 각 부가 악곡 데이터를, 부분 악곡 데이터에 추가함으로써 악곡 데이터가 생성된다.However, the additional music data referred to herein is music data indicating a period different from the period corresponding to the partial music data among the entire periods of one piece of music data. For example, the partial music data corresponds to a so-called bridge. In the case of showing the transition of the performance sound in the period, the additional music data indicates the transition of the performance sound in the period corresponding to the so-called one-section, two-section, prelude, and regard. Therefore, in the present embodiment, a plurality of additional music data connected to the partial music data generated by the client device 10 are prepared in each corresponding period (i.e., one section, two sections, prelude, and the like), It is randomly selected according to the accompaniment performance from those prepared. Then, the music data is generated by adding the selected additional music data to the partial music data.

계속되는 S370에서는 생성 데이터 중의 텔롭 데이터에 기초하여, 가사 데이터를 생성한다. 구체적으로는, S360에서 생성한 악곡 데이터를 형성하는 연주음마다 텔롭 데이터를 구성하는 각 문자를, 입력 문장의 선두의 어구로부터 할당함으로써 가사 데이터를 생성한다.In subsequent S370, the lyrics data is generated based on the telop data in the generated data. Specifically, the lyrics data is generated by allocating each character constituting the telop data from the phrase at the head of the input sentence for each performance sound forming the music data generated in S360.

그리고, S380에서는 S360에서 생성된 악곡 데이터 및 S370에서 생성된 가사 데이터에 추가하여, 그 생성된 악곡 데이터를 미리 규정된 템포로 재생 연주할 때에 필요로 하는 시간을 시간 정보로 하고, 그 생성된 악곡 데이터를 식별하기 위해 새롭게 할당한 문자열(식별 코드)을 곡 번호 데이터로 하고, 클라이언트 장치(10)에서 입력된 곡명을 곡명 데이터로 한, 노래방 악곡 데이터를 생성한다. 또한, S380에서는 그 생성된 노래방 악곡 데이터(이하, 새롭게 작성된 노래방 악곡 데이터를 작성 악곡 데이터라고 칭함)를 기억 장치(32)에 저장한다. 그 후, S390으로 진행한다.In S380, in addition to the music data generated in S360 and the lyrics data generated in S370, the time required for reproducing and playing the generated music data at a predetermined tempo is used as time information. Newly assigned character strings (identification codes) for identifying data are used as the song number data, and karaoke music data is generated using the song names input by the client apparatus 10 as the song name data. In addition, in S380, the generated karaoke music data (hereinafter, newly created karaoke music data is referred to as created music data) is stored in the storage device 32. Thereafter, the flow advances to S390.

또한, S350에서의 판정의 결과, 클라이언트 장치(10)로부터 생성 데이터를 취득하고 있지 않은 경우에도(S350 : 아니오), S390으로 진행한다.In addition, even when generation data is not acquired from the client apparatus 10 as a result of the determination in S350 (S350: No), it progresses to S390.

그 S390에서는, 기억 장치(32)에 기억되어 있는 모든 작성 악곡 데이터 중으로부터, 클라이언트 장치(10)의 이용자가 지정한 작성 악곡 데이터를 노래방 시스템(40)으로 분배하기 위한 공개 지령을, 클라이언트 장치(10)로부터 취득하였는지 여부를 판정하여, 판정의 결과, 공개 지령을 취득하고 있으면(S390 : 예), S400으로 진행한다.In S390, the client apparatus 10 issues an open instruction for distributing the composition music data designated by the user of the client apparatus 10 to the karaoke system 40 from all the composition music data stored in the storage device 32. ), And if the release command is obtained (S390: YES), the process proceeds to S400.

그 S400에서는, S390에서 취득된 공개 지령에 대응하는 작성 악곡 데이터 중의 악곡 데이터 및 작성 악곡 데이터 중의 가사 데이터에 대해, 필터 처리를 실행한다.In S400, the filter process is performed on the music data in the composition music data corresponding to the open command acquired in S390 and the lyrics data in the production music data.

이 필터 처리에서는, 처리를 실행하는 대상이 악곡 데이터이면, 기억 장치(32)에 미리 기억되어 있는 노래방 악곡 데이터(이하, 기존 악곡 데이터라고 칭함) 중의 악곡 데이터와, 작성 악곡 데이터 중의 악곡 데이터와의 유사도(여기서는 유사한 정도가 높을수록 큰 값으로 됨)를 주지의 방법에 의해 도출한다. 그리고, 그 도출된 유사도가 미리 규정된 규정치 이상이면, 작성 악곡 데이터에 대응하는 악곡이 기존 악곡 데이터에 대응하는 악곡을 도작했을 가능성이 높은 것이라고 판단하여, 경고를 한다. 단, 필터 처리에서 경고를 한 후에는 S410으로 진행한다.In this filter process, if the object to be processed is music data, the music data in the karaoke music data (hereinafter referred to as existing music data) previously stored in the storage device 32 and the music data in the created music data Similarity (here, the higher the similarity is, the larger the value is) is derived by the known method. If the derived similarity is equal to or more than a predetermined value, it is determined that the piece of music corresponding to the created piece of music data is highly likely to have written a piece of music corresponding to the existing piece of music data, and a warning is given. However, after warning in the filter process, the process proceeds to S410.

또한, 필터 처리를 실행하는 대상이 가사 데이터이면, 기존 악곡 데이터 중의 가사 데이터와, 작성 악곡 데이터 중의 가사 데이터와의 유사도(여기서는, 유사한 정도가 높을수록 큰 값으로 됨)를 주지의 방법에 의해 도출한다. 그리고, 그 도출된 유사도가 미리 규정된 규정치 이상이면, 작성 악곡 데이터에 대응하는 악곡의 가사가, 기존 악곡 데이터에 대응하는 악곡의 가사를 도작했을 가능성이 높은 것이라고 판단하여, 경고를 한다. 또한, 필터 처리에서 경고를 한 후에는 S410으로 진행한다.If the object to be subjected to the filter process is lyrics data, the similarity between the lyrics data in the existing music data and the lyrics data in the composed music data (here, the higher the similarity becomes, the larger the value) is derived by a known method. do. If the derived similarity is equal to or more than a predetermined value, it is determined that the lyrics of the piece of music corresponding to the created piece of music data have a high possibility that the lyrics of the piece of music corresponding to the existing piece of music data are likely to have been warned. In addition, after the warning in the filter process, the process proceeds to S410.

한편, 악곡 데이터에 대한 유사도 및 가사 데이터에 대한 유사도가 모두 규정치 미만이면, 작성된 악곡 및 가사 각각이 도작되었을 가능성이 낮은 것이라고 판단하여, S410으로 진행한다.On the other hand, if both the similarity to the music data and the similarity to the lyrics data are less than the prescribed values, it is determined that each of the created music and the lyrics is unlikely to have been written, and the flow proceeds to S410.

그 S410에서는, S400에서 필터 처리가 실시된 작성 악곡 데이터를, 노래방 서버(45)로 분배하여, 그 노래방 서버(45)의 기억 기구(46)에 저장한다. 그리고, 그 후, S310으로 복귀한다.In S410, the created music data subjected to the filter process in S400 is distributed to the karaoke server 45, and stored in the storage mechanism 46 of the karaoke server 45. After that, the process returns to S310.

또한, S390에서의 판정의 결과, 공개 지령을 취득하고 있지 않은 경우에도(S390 : 아니오) S310으로 복귀한다.Also, as a result of the determination in S390, the process returns to S310 even when no disclosure command is acquired (S390: No).

그 S310에서는, 새로운 입력 완료 신호(및 입력 문장)가 수신될 때까지 대기한다.In that S310, it waits until a new input completion signal (and an input sentence) is received.

<동작예><Example of operation>

다음에, 본 실시 형태의 통신 노래방 시스템(1)의 동작예에 대해 도 5를 사용하여 설명한다.Next, the operation example of the communication karaoke system 1 of this embodiment is demonstrated using FIG.

도 5에 도시한 예에서는, 사용자는, 우선 클라이언트 장치(10)에서 반주 연주를 선택하여, 그 반주 연주의 재생에 따라서 스피커(18)로부터 출력되는 음에 맞추어 가창(여기서는, 허밍 등도 포함함)한다. 그러면, 클라이언트 장치(10)는 사용자가 가창함으로써 입력된 음성을 채보하여, 부분 악곡 데이터를 생성한다(즉, 허밍 작곡함, 도 5 중 : S1).In the example shown in FIG. 5, the user first selects the accompaniment performance in the client apparatus 10, and sings in accordance with the sound output from the speaker 18 in accordance with the reproduction of the accompaniment performance (here, also includes a humming or the like). do. Then, the client device 10 picks up the voice input by the user singing and generates partial music data (i.e., composes a humming song, S1 in Fig. 5).

계속해서, 허밍 작곡된 악곡에 대해 가사(즉, 문자열)의 입력이 완료되면, 사용자는 조작 접수부(14)를 통해 클라이언트 장치(10)에 입력 완료 지령을 입력한다. 그러면, 클라이언트 장치(10)는 서버 장치(30)에 대해 입력 완료 지령 및 입력 문장을 출력한다(도 5 중 : S2). 이때, 서버 장치(30)는 입력 문장을 형태소 해석한 후에, 그 형태소 해석의 결과인 입력 어구에 대해 유의어를 검색한다(도 5 중 : S3). 또한, 클라이언트 장치(10)에, 입력 어구 각각에 대해 검색된 결과로서의 유의어를 출력한다(도 5 중 : S4).Subsequently, when the input of the lyrics (i.e., the character string) is completed for the piece composed of the humming song, the user inputs an input completion command to the client device 10 through the operation accepting section 14. Then, the client device 10 outputs an input completion command and an input sentence to the server device 30 (in Fig. 5: S2). At this time, the server device 30, after morphologically analyzing the input sentence, searches for a synonym for the input phrase which is a result of the morphological analysis (in Fig. 5: S3). In addition, the client apparatus 10 outputs the synonyms as a result of searching for each of the input phrases (S4 in Fig. 5).

그 유의어를 취득한 클라이언트 장치(10)에서는, 표시된 유의어 중으로부터 사용자가 선택한 어구를 텔롭 데이터로서 생성하고, 그 생성된 텔롭 데이터와 앞서 생성한 부분 악곡 데이터를 서버 장치(30)에 출력한다(도 5 중 : S5). 이 텔롭 데이터와, 부분 악곡 데이터를 취득한 서버 장치(30)는 부분 악곡 데이터에 부가 악곡 데이터를 추가하여 악곡 데이터를 완성시킨 후, 가사 데이터를 생성하여, 노래방 악곡 데이터를 완성시켜, 기억 장치(32)에 저장한다(도S 중 : S6).The client device 10 having acquired the synonym generates the phrase selected by the user from among the displayed synonyms as the telo data, and outputs the generated telo data and the previously generated partial music data to the server device 30 (FIG. 5). Of: S5). The server device 30 having acquired the telop data and the partial music data adds additional music data to the partial music data to complete the music data, generates the lyrics data, completes the karaoke music data, and stores the storage device 32. ) (In Fig. S6).

그리고, 사용자가 클라이언트 장치(10)를 통해 서버 장치(30)에 공개 지령을 입력하면(도 5 중 : S7), 서버 장치(30)에서는 기억 장치(32)에 기억되어 있는 작성 악곡 데이터 중으로부터, 공개 지령에 의해 지정된 것을 노래방 서버(45)에 출력한다(도 5 중 : S8). 이에 의해, 사용자의 입력에 따라서 생성된 노래방 악곡 데이터가, 노래방 서버(45)의 기억 기구(46)에 저장된다.When the user inputs the open command to the server device 30 via the client device 10 (S7 in FIG. 5), the server device 30 selects from the created music data stored in the storage device 32. , The one specified by the open command is output to the karaoke server 45 (in Fig. 5: S8). As a result, the karaoke music data generated in response to the user's input is stored in the storage mechanism 46 of the karaoke server 45.

또한, 노래방 단말(48)의 지령 접수부(51)를 통해, 사용자가, 작성 악곡 데이터 중의 악곡 데이터에 대응하는 악곡의 연주 개시를 지정하면(도 5 중 : S9), 그 작성 악곡 데이터가 노래방 서버(45)로부터 노래방 단말(48)로 분배된다(도 5 중 : S10). 그리고, 노래방 단말(48)에서는 작성 악곡 데이터 중의 악곡 데이터에 대응하는 악곡의 재생 연주가 개시되어, 그 재생 연주 중에 마이크로폰(55)을 통해 음성이 입력되면, 그 입력된 음성과, 재생 연주 중인 연주음이 스피커(54)로부터 출력된다.Moreover, when the user designates the performance start of the music corresponding to the music data in the created music data through the command reception unit 51 of the karaoke terminal 48 (in Fig. 5: S9), the created music data is the karaoke server. It is distributed from 45 to the karaoke terminal 48 (in Fig. 5: S10). And the karaoke terminal 48 starts the reproduction performance of the music corresponding to the music data in the creation music data, and when a voice is input through the microphone 55 during the reproduction performance, the input voice and the performance sound which is playing the reproduction performance This speaker 54 is output.

[실시 형태의 효과][Effect of Embodiment]

이상에 설명한 바와 같이, 본 실시 형태의 통신 노래방 시스템(1)에 따르면, 클라이언트 장치(10)의 사용자에 의해 작성된 작성 악곡 데이터 중의 악곡 데이터에 대응하는 악곡(즉, 작곡된 악곡)을, 노래방 단말(48)에서 재생할 수 있다. 이로 인해, 노래방 시스템(40)의 사용자는 사용자 자신이 작곡한 악곡이나 다른 사용자가 작곡한 악곡을, 노래방 단말(48)을 사용하여 가창할 수 있다.As described above, according to the communication karaoke system 1 of the present embodiment, a karaoke terminal corresponding to a piece of music (that is, a composed piece of music) corresponding to the piece of music data in the composition piece data created by the user of the client device 10 is karaoke. Can be played at 48. Thus, the user of the karaoke system 40 can sing a song composed by the user himself or a song composed by another user using the karaoke terminal 48.

이에 의해, 노래방 시스템(40)의 사용자는 노래방을 보다 즐길 수 있다.Thereby, the user of the karaoke system 40 can enjoy a karaoke more.

특히, 본 실시 형태의 노래방 악곡 데이터 집배 시스템(5)에 따르면, 클라이언트 장치(10)의 사용자는 음성을 입력하는 것만으로 부분 악곡 데이터를 작성할 수 있다. 그리고, 서버 장치(30)가, 클라이언트 장치(10)에서 생성된 부분 악곡 데이터에 부가 악곡 데이터를 추가함으로써, 악곡 데이터를 생성하므로, 작곡에 대한 지식을 갖고 있지 않은 인물이라도, 악곡 데이터를 용이하게 작성(즉, 용이하게 작곡)할 수 있다.In particular, according to the karaoke music data collection system 5 of this embodiment, the user of the client apparatus 10 can create partial music data only by inputting a voice. The server device 30 generates the music data by adding the additional music data to the partial music data generated by the client device 10, so that even if a person does not have knowledge of composition, the music data can be easily made. You can write (i.e. compose easily).

따라서, 노래방 악곡 데이터 집배 시스템(5)의 사용자는 악곡의 일부분에 대한 음성을 입력하는 것만으로, 악곡 데이터를 작성할 수 있어, 사용자에게 실제로 작곡한 기분을 체험하게 할 수 있다. 이로 인해, 사용자에게 보다 마음이 편한 기분으로 노래방 악곡 데이터 집배 시스템(5), 나아가서는 통신 노래방 시스템(1)을 사용하게 할 수 있다.Therefore, the user of the karaoke music data collection system 5 can create music data only by inputting a voice for a part of the music, so that the user can actually feel the composition. This makes it possible for the user to use the karaoke music data collection system 5, and furthermore, the communication karaoke system 1 with a more comfortable feeling.

[그 밖의 실시 형태][Other Embodiments]

이상, 본 발명의 실시 형태에 대해 설명하였지만, 본 발명은 상기 실시 형태로 한정되는 것은 아니고, 본 발명의 요지를 일탈하지 않는 범위에 있어서, 다양한 형태로 실시하는 것이 가능하다.As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment, It is possible to implement in various forms in the range which does not deviate from the summary of this invention.

예를 들어, 필터 처리는 실행되지 않아도 좋다. 즉, 노래방 악곡 집배 처리의 S400는 생략되어 있어도 좋다.For example, the filter process may not be executed. That is, S400 of karaoke music collection processing may be omitted.

또한, 공개 지령의 내용은 상기 실시 형태의 예로 한정되는 것은 아니다. 예를 들어, 서버 장치(30)에 공개 지령이 입력되면, 작성 악곡 데이터가 클라이언트 장치(10)에 출력되어도 좋다. 또한, 서버 장치(30)에 공개 지령이 입력되면, 서버 장치(30)에 저장된 작성 악곡 데이터에 대해 액세스 가능하게 하는 것이라도 좋다. 또한, 작성 악곡 데이터가 클라이언트 장치(10)에 출력된 후에, 클라이언트 장치(10)에서 작성 악곡 데이터에 대해 실행되는 처리나, 서버 장치(30)에 저장된 작성 악곡 데이터에 대해 액세스될 때에 서버 장치(30)에서 실행되는 처리로서는, 작성 악곡 데이터 중의 악곡 데이터에 대응하는 악곡을 시청하는 것이라도 좋고, 그 밖의 내용이라도 좋다.In addition, the content of a disclosure command is not limited to the example of the said embodiment. For example, when the open command is input to the server device 30, the composition music data may be output to the client device 10. In addition, when an open command is input to the server apparatus 30, you may make it accessible to the creation music data stored in the server apparatus 30. FIG. In addition, after the creation music data is output to the client device 10, the server device (when the process is executed on the production music data in the client device 10 or when the music composition data is stored in the server device 30 is accessed. As the processing to be performed in 30), the music corresponding to the music data in the created music data may be viewed or other contents may be viewed.

또한, 부가 악곡 데이터의 구성은 상기 실시 형태의 예로 한정되는 것은 아니다. 예를 들어, 주선율과는 다른 선율을 나타내는 것이라도 좋고, 악기음을 부가하는 것이라도 좋다. 또한, 부가 악곡 데이터가 전자와 같이 구성되어 있는 경우, 부분 악곡 데이터는 주선율을 구성하는 연주음의 추이를 나타내도록 형성되는 것이 바람직하다.In addition, the structure of additional music data is not limited to the example of the said embodiment. For example, it may represent a melody different from the main melody, or may add an instrument sound. In the case where the additional music data is configured as described above, the partial music data is preferably formed so as to show the transition of the performance sound constituting the main tune.

또한, 상기 실시 형태의 노래방 악곡 집배 처리에 있어서의 S370에서는, 악곡 데이터를 형성하는 연주음마다, 텔롭 데이터를 구성하는 각 문자를 문자열의 선두로부터 할당함으로써 가사 데이터를 생성하고 있었지만, 가사 데이터 생성 방법은 이것으로 한정되는 것은 아니다. 예를 들어, 당해 시스템(1)의 사용자가, 텔롭 데이터를 구성하는 각 문자를 연주음에 수동으로 할당해도 좋고, 음성 인식의 방법을 사용하여 자동으로 할당해도 좋다.Further, in S370 in the karaoke music collection process of the above embodiment, the lyrics data is generated by allocating each character constituting the telo data from the beginning of the character string for each performance sound forming the music data. Is not limited to this. For example, the user of the system 1 may manually assign each character constituting the telop data to a performance sound, or may automatically assign it using a method of speech recognition.

특히, 상기 실시 형태의 노래방 악곡 집배 처리에 있어서, 노래방 악곡 데이터를 생성할 때에는(즉, S380에서는), 악곡 데이터, 가사 데이터, 시간 정보, 곡 번호 데이터 및 곡명 데이터에, 배경 동영상을 추가한 데이터를 노래방 악곡 데이터로서 생성해도 좋다.In particular, in the karaoke music collection processing of the above embodiment, when generating karaoke music data (i.e., in S380), data in which a background video is added to music data, lyrics data, time information, song number data, and song name data May be generated as karaoke music data.

또한, 상기 실시 형태에 있어서의 노래방 악곡 데이터 작성 처리 및 노래방 악곡 집배 처리로 생성되는 데이터는 노래방 악곡 데이터로 한정되는 것은 아니다. 예를 들어, 악곡 데이터만을 생성하여 기억 장치(32)에 저장해도 좋다.In addition, the data produced | generated by the karaoke music data creation process and karaoke music collection process in the said embodiment is not limited to karaoke music data. For example, only music data may be generated and stored in the storage device 32.

또한, 상기 실시 형태에 있어서의 클라이언트 장치(10)는, 예를 들어 가정용 텔레비전 게임 기기로서 구성된 것이라도 좋고, 휴대 전화 장치로서 구성된 것이라도 좋다.In addition, the client apparatus 10 in the said embodiment may be comprised as a home television game apparatus, for example, and may be comprised as a mobile telephone apparatus.

[실시 형태와 특허청구의 범위의 대응 관계]Correspondence between Embodiments and Claims

마지막으로, 상기 실시 형태의 기재와, 특허청구의 범위의 기재의 관계를 설명한다.Finally, the relationship between the description of the above embodiment and the description of the claims is explained.

상기 실시 형태에 있어서의 노래방 악곡 데이터 생성 처리의 S130 내지 S170을 클라이언트 장치(10)의 제어부(20)가 실행함으로써 얻어지는 기능이, 본 발명의 부분 작곡 수단의 일례이다. 노래방 악곡 집배 처리의 S360을 서버 장치(30)의 제어 장치(35)가 실행함으로써 얻어지는 기능이, 본 발명의 데이터 추가 수단의 일례이다. 즉, 상기 실시 형태에 있어서의 노래방 악곡 데이터 생성 처리의 S130 내지 S170 및 노래방 악곡 집배 처리의 S360에 의해 얻어지는 기능이, 본 발명의 악곡 데이터 생성 수단의 일례이다.The function obtained by the control part 20 of the client apparatus 10 performing S130-S170 of the karaoke music data generation process in the said embodiment is an example of the partial composition means of this invention. The function obtained by the control apparatus 35 of the server apparatus 30 performing S360 of karaoke music collection processing is an example of the data addition means of this invention. That is, the function obtained by S130-S170 of karaoke music data generation processing in the said embodiment, and S360 of karaoke music music collection process is an example of the music data generation means of this invention.

또한, 상기 실시 형태에 있어서의 노래방 악곡 집배 처리의 S380을 서버 장치(30)의 제어 장치(35)가 실행함으로써 얻어지는 기능이, 본 발명의 기억 제어 수단의 일례이다. 노래방 악곡 집배 처리의 S390 및 S410을 서버 장치(30)의 제어 장치(35)가 실행함으로써 얻어지는 기능이, 본 발명의 데이터 분배 수단의 일례이다.In addition, the function obtained by the control apparatus 35 of the server apparatus 30 performing S380 of the karaoke music collection process in the said embodiment is an example of the memory control means of this invention. The function obtained by the control apparatus 35 of the server apparatus 30 performing S390 and S410 of karaoke music collection processing is an example of the data distribution means of this invention.

또한, 상기 실시 형태의 노래방 악곡 데이터 생성 처리의 S180 내지 S250을 클라이언트 장치(10)의 제어부(20)가 실행함으로써 얻어지는 기능 및 노래방 악곡 집배 처리의 S310 내지 S340 및 S370을 서버 장치(30)의 제어 장치(35)가 실행함으로써 얻어지는 기능이, 본 발명의 가사 데이터 생성 수단의 일례이다.The server 20 controls the functions S310 to S340 and S370 of the karaoke music collection process and the function obtained by executing the S180 to S250 of the karaoke music data generation process of the above-described embodiment by the control unit 20 of the client device 10. The function obtained by executing the apparatus 35 is an example of the lyrics data generating means of the present invention.

1 : 통신 노래방 시스템
5 : 노래방 악곡 데이터 집배 시스템
10 : 클라이언트 장치
11 : 통신부
12 : 기억부
13 : 표시부
14 : 조작 접수부
15 : 음성 입력부
16 : 음성 출력부
17 : 마이크로폰
18 : 스피커
20 : 제어부
21, 36 : CPU
22, 37 : RAM
23, 38 : ROM
30 : 서버 장치
31 : I/F부
32 : 기억 장치
35 : 제어 장치
40 : 노래방 시스템
45 : 노래방 서버
46 : 기억 기구
47 : 마이크로 컴퓨터
48 : 노래방 단말
51 : 지령 접수부
52 : 음원 발생부
53 : 제어 기구
54 : 스피커
55 : 마이크로폰
56 : 표시 기구
1: communication karaoke system
5: karaoke music data collection system
10: client device
11: communication unit
12: memory
13 display unit
14: operation reception unit
15: voice input unit
16: audio output unit
17: microphone
18: speaker
20: control unit
21, 36: CPU
22, 37: RAM
23, 38: ROM
30: server device
31: I / F part
32: storage device
35: control unit
40: Karaoke System
45: Karaoke Server
46: storage mechanism
47: microcomputer
48: karaoke terminal
51: command reception unit
52: sound source generation unit
53: control mechanism
54: speaker
55: microphone
56 display mechanism

Claims (10)

순차적으로 입력되는 음성의 음 높이에 기초하여, 음의 추이를 나타내는 악곡 데이터를 생성하는 악곡 데이터 생성 수단과,
상기 악곡 데이터를 적어도 포함하는 음악 데이터를, 그 음악 데이터에 포함되는 악곡 데이터에 따라서 연주음을 재생하는 외부 장치에 분배하는 데이터 분배 수단을 구비하는 것을 특징으로 하는, 데이터 집배 시스템.
Music data generating means for generating music data indicative of sound transition based on the pitch of the voices sequentially input;
And data distribution means for distributing music data including at least the music data to an external device for reproducing a performance sound in accordance with the music data contained in the music data.
제1항에 있어서, 상기 악곡 데이터 생성 수단은,
순차적으로 입력되는 음성의 음 높이를 추정하여, 그 추정 결과인 음 높이 추정 결과에 기초하여, 음의 추이를 나타내는 악곡 데이터를 생성하는 것을 특징으로 하는, 데이터 집배 시스템.
The music composition generating means according to claim 1, wherein
And estimating the pitch of the voices sequentially input, and generating music data indicating the trend of the pitch based on the result of the estimation of the pitch.
제2항에 있어서, 상기 악곡 데이터 생성 수단은,
소정의 연주음의 추이를 나타내는 악곡 데이터를 생성하는 것을 특징으로 하는, 데이터 집배 시스템.
The music composition generating means according to claim 2, wherein
A music collecting system, characterized by generating music data indicating a transition of a predetermined playing sound.
제1항에 있어서, 상기 악곡 데이터 생성 수단으로 생성된 악곡 데이터를 적어도 포함하는 음악 데이터를, 기억 장치에 기억하는 기억 제어 수단을 구비하고,
상기 데이터 분배 수단은,
상기 외부 장치에, 상기 기억 장치에 기억되어 있는 음악 데이터 중, 외부로부터 입력된 지령에 의해 선택된 음악 데이터를 분배하는 것을 특징으로 하는, 데이터 집배 시스템.
The apparatus according to claim 1, further comprising storage control means for storing music data including at least music data generated by said music data generating means in a storage device,
The data distribution means,
And the music data selected by a command input from the outside among the music data stored in the storage device, to the external device.
제3항에 있어서, 상기 악곡 데이터 생성 수단은,
순차적으로 입력되는 음성의 음 높이에 기초하여 생성한 악곡 데이터에, 미리 생성 종료된 악곡 데이터를 조합하여 새로운 악곡 데이터를 생성하는 것을 특징으로 하는, 데이터 집배 시스템.
The music composition generating means according to claim 3, wherein
And a new piece of music data generated by combining previously generated piece of music data with pieces of music data generated on the basis of the pitch of voices sequentially input.
제5항에 있어서, 상기 악곡 데이터 생성 수단은,
상기 음 높이 추정 결과에 기초하여, 상기 연주음의 추이의 일부분을 나타내는 부분 악곡 데이터를 생성하는 부분 작곡 수단과,
상기 부분 악곡 데이터에 대응하는 부분 이외의 상기 연주음의 추이를 나타내는 데이터로서 미리 생성된 것을 부가 악곡 데이터로 하고, 상기 부분 작곡 수단으로 생성된 부분 악곡 데이터에 상기 부가 악곡 데이터를 추가함으로써, 상기 새로운 악곡 데이터를 생성하는 데이터 추가 수단을 구비하는 것을 특징으로 하는, 데이터 집배 시스템.
The music composition generating means according to claim 5, wherein
Partial composition means for generating partial music data representing a part of the transition of the performance sound, based on the tone height estimation result;
By adding the additional music data as the data representing the transition of the performance sound other than the part corresponding to the partial music data, the additional music data is added to the partial music data generated by the partial composition means. And data adding means for generating music data.
제6항에 있어서, 클라이언트 장치와, 데이터 집배 장치를 구비하고,
상기 클라이언트 장치는 상기 부분 작곡 수단을 구비하고,
상기 데이터 집배 장치는 상기 데이터 추가 수단, 상기 기억 제어 수단 및 상기 데이터 분배 수단을 구비하고 있는 것을 특징으로 하는, 데이터 집배 시스템.
7. The apparatus according to claim 6, comprising a client device and a data collecting device,
The client device comprises the partial composition means,
And said data collecting device comprises said data adding means, said storage control means and said data distributing means.
제7항에 있어서, 외부로부터의 입력에 따라서, 상기 연주음 각각에 대응하는 가사를 나타내는 가사 데이터를 생성하는 가사 데이터 생성 수단을 구비하고,
상기 음악 데이터는 상기 악곡 데이터 및 상기 가사 데이터를 적어도 포함하는 것을 특징으로 하는, 데이터 집배 시스템.
8. The apparatus according to claim 7, further comprising lyrics data generating means for generating lyrics data indicative of lyrics corresponding to each of the playing tones in response to an input from the outside.
And the music data includes at least the music data and the lyrics data.
제8항에 있어서, 상기 기억 제어 수단은,
상기 가사 데이터 생성 수단으로 생성된 가사 데이터를, 상기 악곡 데이터에 추가한 것을 상기 음악 데이터로 하는 것을 특징으로 하는, 데이터 집배 시스템.
The method of claim 8, wherein the memory control means,
And the lyrics data generated by the lyrics data generating means is added to the music data as the music data.
순차적으로 입력되는 음성의 음 높이에 기초하여, 음의 추이를 나타내는 악곡 데이터를 생성하는 악곡 데이터 생성 수단과, 상기 악곡 데이터를 적어도 포함하는 음악 데이터를, 그 음악 데이터에 포함되는 악곡 데이터에 따라서 연주음을 재생하는 외부 장치에 분배하는 데이터 분배 수단을 구비하는 데이터 집배 시스템과,
상기 데이터 집배 시스템의 상기 데이터 분배 수단에 의해 분배된 음악 데이터를 기억하는 노래방 서버와,
외부로부터 입력된 지령에 따라서, 상기 노래방 서버에 기억된 음악 데이터 중으로부터, 상기 지령에 기초하는 음악 데이터를 선택하여, 그 음악 데이터에 포함되는 악곡 데이터에 따라서 상기 연주음을 재생하는 노래방 장치를 구비하는 것을 특징으로 하는, 통신 노래방 시스템.
Music data generating means for generating music data indicating a sound transition based on the pitch of the voices sequentially input, and music data including at least the music data in accordance with the music data included in the music data A data distribution system having data distribution means for distributing sound to an external device for reproducing sound;
A karaoke server that stores music data distributed by the data distribution means of the data distribution system;
And a karaoke apparatus that selects music data based on the command from among music data stored in the karaoke server according to a command input from the outside, and reproduces the playing sound according to the music data contained in the music data. Communication karaoke system, characterized in that.
KR1020100066148A 2009-07-10 2010-07-09 Data collection and distribution system, communication karaoke system KR20110005653A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2009-163853 2009-07-10
JP2009163853A JP5439994B2 (en) 2009-07-10 2009-07-10 Data collection / delivery system, online karaoke system

Publications (1)

Publication Number Publication Date
KR20110005653A true KR20110005653A (en) 2011-01-18

Family

ID=43595801

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100066148A KR20110005653A (en) 2009-07-10 2010-07-09 Data collection and distribution system, communication karaoke system

Country Status (2)

Country Link
JP (1) JP5439994B2 (en)
KR (1) KR20110005653A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5660408B1 (en) * 2013-08-29 2015-01-28 ブラザー工業株式会社 Posted music performance system and posted music performance method

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06149800A (en) * 1992-11-16 1994-05-31 Brother Ind Ltd Document processor
JPH09152865A (en) * 1995-11-30 1997-06-10 Sony Corp Automatic voice transcription device
JP3834963B2 (en) * 1996-10-23 2006-10-18 ヤマハ株式会社 Voice input device and method, and storage medium
JP3806196B2 (en) * 1996-11-07 2006-08-09 ヤマハ株式会社 Music data creation device and karaoke system
JP3704980B2 (en) * 1997-12-17 2005-10-12 ヤマハ株式会社 Automatic composer and recording medium
JP2001075992A (en) * 1999-09-07 2001-03-23 Hitachi Ltd Method and system for sound retrieval and computer- readable recording medium
JP3666364B2 (en) * 2000-05-30 2005-06-29 ヤマハ株式会社 Content generation service device, system, and recording medium
JP3801005B2 (en) * 2001-09-25 2006-07-26 ヤマハ株式会社 Songwriting device and songwriting program
JP3812437B2 (en) * 2001-12-25 2006-08-23 ヤマハ株式会社 System and program for providing music media composed of auto verbs and compositions via communication network
JP3903864B2 (en) * 2002-07-16 2007-04-11 ヤマハ株式会社 Program for realizing automatic composition device and automatic composition method
JP3804668B2 (en) * 2004-04-12 2006-08-02 ヤマハ株式会社 Lyrics creation device, lyric creation method, and computer-readable recording medium recording lyric creation program

Also Published As

Publication number Publication date
JP2011017987A (en) 2011-01-27
JP5439994B2 (en) 2014-03-12

Similar Documents

Publication Publication Date Title
KR100658869B1 (en) Music generating device and operating method thereof
WO2006112585A1 (en) Operating method of music composing device
JP2009244789A (en) Karaoke system with guide vocal creation function
JP6452229B2 (en) Karaoke sound effect setting system
JP6288197B2 (en) Evaluation apparatus and program
JP2007140165A (en) Karaoke device and program for karaoke device
JP6102076B2 (en) Evaluation device
JP4491743B2 (en) Karaoke equipment
JP4271667B2 (en) Karaoke scoring system for scoring duet synchronization
JP2006251697A (en) Karaoke device
JP4218066B2 (en) Karaoke device and program for karaoke device
JP6252420B2 (en) Speech synthesis apparatus and speech synthesis system
JP2006301019A (en) Pitch-notifying device and program
JP2013210501A (en) Synthesis unit registration device, voice synthesis device, and program
JP6219750B2 (en) Singing battle karaoke system
KR20110005653A (en) Data collection and distribution system, communication karaoke system
JP6954780B2 (en) Karaoke equipment
JP4218064B2 (en) Karaoke device and program for karaoke device
JPH11249674A (en) Singing marking system for karaoke device
JP3974069B2 (en) Karaoke performance method and karaoke system for processing choral songs and choral songs
JP6144593B2 (en) Singing scoring system
JP2009244607A (en) Duet part singing generation system
JP2007233078A (en) Evaluation device, control method, and program
JP4218065B2 (en) Karaoke device and program for karaoke device
JP4186982B2 (en) Karaoke device and program for karaoke device

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid