KR20110005653A - Data collection and distribution system, communication karaoke system - Google Patents
Data collection and distribution system, communication karaoke system Download PDFInfo
- Publication number
- KR20110005653A KR20110005653A KR1020100066148A KR20100066148A KR20110005653A KR 20110005653 A KR20110005653 A KR 20110005653A KR 1020100066148 A KR1020100066148 A KR 1020100066148A KR 20100066148 A KR20100066148 A KR 20100066148A KR 20110005653 A KR20110005653 A KR 20110005653A
- Authority
- KR
- South Korea
- Prior art keywords
- music data
- data
- music
- karaoke
- input
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
- G10H1/365—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems the accompaniment information being stored on a host computer and transmitted to a reproducing terminal by means of a network, e.g. public telephone lines
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/111—Automatic composing, i.e. using predefined musical rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/201—Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
- G10H2240/241—Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
- G10H2240/251—Mobile telephone transmission, i.e. transmitting, accessing or controlling music data wirelessly via a wireless or mobile telephone receiver, analog or digital, e.g. DECT GSM, UMTS
Abstract
Description
본 발명은 악곡 데이터를 수집하여 그 수집한 악곡 데이터를 분배(distribution)하는 데이터 집배 시스템 및 그 데이터 집배 시스템을 사용한 통신 노래방 시스템에 관한 것이다.The present invention relates to a data collection system for collecting music data and distributing the collected music data, and a communication karaoke system using the data delivery system.
종래부터 아티스트(음악을 생업으로 하도 있는 사람)에 의해 생성된 복수의 악곡 각각에 대한 악곡 데이터를 미리 기억한 서버 장치와, 서버 장치로부터 취득한 악곡 데이터에 기초하여 연주음을 재생 가능한 정보 단말을 구비하고, 서버 장치와 정보 단말이 서로 정보 통신 가능하게 접속된 음악 분배 시스템이 알려져 있다(예를 들어, 특허 문헌 1 참조). 또한, 서버 장치와, 서버 장치로부터 취득한 악곡 데이터에 기초하여 연주음을 재생하는 동시에, 그 악곡 데이터에 대응하는 악곡의 가사를 표시하는 노래방 장치를 구비한 통신 노래방 시스템이 알려져 있다(예를 들어, 특허 문헌 2 참조).Conventionally, there is provided a server device which previously stores music data for each of a plurality of pieces of music generated by an artist (a person who makes music a living), and an information terminal capable of reproducing a performance sound based on the music data acquired from the server device. Then, a music distribution system is known in which a server device and an information terminal are connected to each other so as to be capable of information communication (see Patent Document 1, for example). Moreover, a communication karaoke system is known which is equipped with a server apparatus and a karaoke apparatus which reproduces the performance sound based on the music data acquired from the server apparatus, and displays the lyrics of the music corresponding to the music data (for example, See Patent Document 2).
이 특허 문헌 1에 기재된 음악 분배 시스템이나, 특허 문헌 2에 기재된 통신 노래방 시스템에서는, 정보 단말(또는 노래방 장치)의 이용자에 의해 지정된 악곡에 대응하는 악곡 데이터가, 서버로부터 정보 단말(또는 노래방 장치)로 분배된다.In the music distribution system described in Patent Document 1 and the communication karaoke system described in Patent Document 2, music data corresponding to music designated by a user of an information terminal (or karaoke apparatus) is stored from an information terminal (or karaoke apparatus) from a server. To be distributed.
그리고, 음악 분배 시스템에서는, 그 분배된 악곡 데이터를 정보 단말에서 재생함으로써, 정보 단말의 이용자가 악곡을 시청하고, 통신 노래방 시스템에서는 노래방 장치에서 재생된 악곡(즉, 연주음)에 맞추어 노래방 장치의 이용자가 가창을 즐긴다.Then, in the music distribution system, the distributed music data is reproduced by the information terminal, so that the user of the information terminal views the music, and in the communication karaoke system, the karaoke apparatus is adapted to the music (that is, the playing sound) reproduced by the karaoke apparatus. The user enjoys singing.
그런데, 가정용 컴퓨터(예를 들어, 퍼스널 컴퓨터나 가정용 텔레비전 게임 등)를 사용하여, 이용자의 음성(가성)으로부터 채보하여, 새로운 악곡을 작성(이하, 새롭게 작성된 악곡을 작성 악곡이라고 칭함)하는 기술이 알려져 있다.By the way, using a home computer (for example, a personal computer, a home television game, etc.), the technique which collects from a user's voice (voice) and creates a new music (henceforth a newly created music is called a creation music) Known.
일반적으로, 이와 같은 기술을 이용하여 작곡한 이용자는 그 작곡된 작성 악곡을 다른 인물에게도 시청하게 해주고 싶다고 생각하는 경우가 많다.In general, a user who composes using such a technique often thinks that he or she would like to allow other people to view the composed music.
그러나, 특허 문헌 1에 기재된 음악 분배 시스템이나, 특허 문헌 2에 기재된 통신 노래방 시스템에서는, 서버 장치로부터 정보 단말이나 노래방 장치로, 미리 생성(준비)되어 있는 악곡에 대응하는 악곡 데이터만이 분배된다. 이로 인해, 예를 들어 특허 문헌 1에 기재된 음악 분배 시스템에서는, 다른 이용자가 작성 악곡을 시청할 수 없고, 특허 문헌 2에 기재된 노래방 장치에서는 작성 악곡을 작성한 이용자 자신이, 그 작성 악곡을 노래방 장치를 사용하여 가창할 수 없다고 하는 문제가 있었다.However, in the music distribution system described in Patent Document 1 and the communication karaoke system described in Patent Document 2, only the music data corresponding to the music previously generated (prepared) is distributed from the server apparatus to the information terminal or karaoke apparatus. For this reason, for example, in the music distribution system described in Patent Document 1, no other user can view the created music, and in the karaoke apparatus described in Patent Document 2, the user himself who created the created music uses the created music as the karaoke device. There was a problem that could not be sung.
즉, 특허 문헌 1에 기재된 음악 분배 시스템이나, 특허 문헌 2에 기재된 통신 노래방 시스템에서는 작성 악곡을 분배할 수 없어, 그 작성 악곡의 작곡에 사용한 단말과는 상이한 다른 단말(즉, 정보 단말이나 노래방 장치)에서, 작성 악곡을 즐길 수 없다고 하는 문제가 있었다.That is, in the music distribution system described in Patent Document 1 and the communication karaoke system described in Patent Document 2, the composition music cannot be distributed, and another terminal (that is, an information terminal or karaoke apparatus) different from the terminal used for composing the composition music ), There was a problem that you cannot enjoy making music.
따라서, 본 발명은 이용자에 의해 새롭게 작곡된 악곡이라도, 다른 단말에서 재생하는 것을 가능하게 하는 데이터 집배 시스템 및 그 데이터 집배 시스템을 사용한 통신 노래방 시스템의 제공을 목적으로 한다.Accordingly, an object of the present invention is to provide a data collection system that enables playback of music composed newly by a user on another terminal, and a communication karaoke system using the data collection system.
상기 목적을 달성하기 위해 이루어진 본 발명의 데이터 집배 시스템은, 악곡 데이터 생성 수단이, 순차적으로 입력되는 음성의 음 높이에 기초하여, 음의 추이를 나타내는 악곡 데이터를 생성한다. 또한, 데이터 분배 수단이, 악곡 데이터를 적어도 포함하는 음악 데이터를, 그 음악 데이터에 포함되는 악곡 데이터에 따라서 연주음을 재생하는 외부 장치로 분배한다. 또한, 여기서 말하는 외부 장치라 함은, 음악 데이터에 포함되는 악곡 데이터에 따라서 연주음을 재생하는 것이다.In the data collecting system of the present invention made to achieve the above object, the music data generating means generates music data indicating the transition of sound based on the pitch of the voices which are sequentially input. Further, the data distribution means distributes the music data including at least the music data to an external device that reproduces the performance sound in accordance with the music data included in the music data. Incidentally, the external device referred to here is to reproduce the performance sound in accordance with the music data included in the music data.
이와 같이 구성된 데이터 집배 시스템에 따르면, 당해 데이터 집배 시스템의 이용자가 생성한 악곡 데이터, 즉 이용자가 작곡한 악곡이라도, 외부 장치로 분배할 수 있다. 그리고, 외부 장치의 이용자는 분배된 악곡 데이터를 외부 장치에서 재생하면, 그 당해 데이터 집배 시스템의 이용자가 작곡한 악곡을 즐길 수 있다.According to the data distribution system configured as described above, even music data generated by a user of the data distribution system, that is, music composed by the user, can be distributed to an external device. When the user of the external device reproduces the distributed music data on the external device, the user can enjoy the music composed by the user of the data collection system.
특히, 본 발명의 데이터 집배 시스템에 따르면, 순차적으로 입력되는 음성의 음 높이에 기초하여 악곡 데이터를 생성하므로, 당해 데이터 집배 시스템의 이용자는 음성을 입력하는 것만으로 악곡 데이터를 작성할 수 있다. 이로 인해, 작곡에 대한 지식을 갖고 있지 않은 인물이라도, 악곡 데이터를 용이하게 작성(즉, 용이하게 작곡)할 수 있다.In particular, according to the data collection system of the present invention, since the music data is generated based on the pitches of the voices which are sequentially input, the user of the data collection system can create the music data only by inputting the voice. Therefore, even a person who does not have knowledge of composition can easily create (i.e., compose) music data.
또한, 본 발명의 데이터 집배 시스템에 있어서의 악곡 데이터 생성 수단은, 순차적으로 입력되는 음성의 음 높이를 추정하여, 부분 작곡 수단이, 음 높이 추정 결과에 기초하여 부분 악곡 데이터를 생성하고, 데이터 추가 수단이, 부분 작곡 수단에 의해 생성된 부분 악곡 데이터에 부가 악곡 데이터를 추가함으로써, 악곡 데이터를 생성하도록 구성되어 있어도 좋다. 또한, 여기서 말하는 부분 악곡 데이터라 함은, 악곡 데이터를 구성하는 연주음의 추이 중에서 일부분의 연주음의 추이를 나타내는 데이터이고, 여기서 말하는 부가 악곡 데이터라 함은, 악곡 데이터를 구성하는 연주음의 추이 중에서 부분 악곡 데이터에 대응하는 부분 이외의 연주음의 추이를 나타내는 데이터로서 미리 생성된 것이다. 단, 여기서 말하는 일부분의 연주음의 추이라 함은, 악곡을 구성하는 전체 시간 길이 중 일부의 시간대[예를 들어, 1절이나 브릿지(bridge) 등]라도 좋고, 악곡을 구성하는 복수의 선율 중 특정한 선율(예를 들어, 주선율이나 코러스의 선율 등)이라도 좋다.In addition, the music data generating means in the data collection system of the present invention estimates the pitch of the voices which are sequentially input, and the partial composition means generates the partial music data based on the result of the pitch estimation. The means may be configured to generate music data by adding additional music data to the partial music data generated by the partial composition means. Here, the partial music data referred to herein is data indicating a transition of a part of the performance sound among the transitions of the performance sounds constituting the music data, and the additional music data referred to here is a transition of the performance sounds constituting the music data. The data is generated in advance as data representing the transition of the performance sound other than the part corresponding to the partial music data. However, the weight of a part of the performance sound referred to herein may be a time zone (for example, a section or a bridge) of a part of the total time length constituting the piece of music, and a specific melody of the plurality of tunes constituting the piece of music. A melody (for example, a melody of a principal, a chorus of a chorus, etc.) may be sufficient.
이와 같이 구성된 악곡 데이터 생성 수단에 따르면, 당해 데이터 집배 시스템의 이용자는 악곡의 일부분에 대한 음성을 입력하는 것만으로, 악곡 데이터를 작성할 수 있어, 이용자에게 실제로 작곡한 기분을 체험하게 할 수 있다. 이로 인해, 이용자에게 보다 마음이 편한 기분으로 당해 데이터 집배 시스템을 사용하게 할 수 있다.According to the music data generating means configured in this manner, the user of the data collection system can create music data only by inputting a voice for a part of the music, so that the user can actually feel the composition. This allows the user to use the data collection system in a more comfortable mood.
또한, 본 발명의 데이터 집배 시스템은 부분 작곡 수단을 구비한 클라이언트 장치와, 클라이언트 장치와는 별개로 형성되는 동시에, 데이터 추가 수단, 기억 제어 수단, 데이터 분배 수단을 구비한 데이터 집배 장치의 2개의 장치로 구성되어 있어도 좋다.Further, the data collecting system of the present invention has two devices: a client apparatus having a partial composition means and a data collecting apparatus having a data adding means, a storage control means, and a data distributing means, formed separately from the client apparatus. It may consist of.
그런데, 본 발명의 데이터 집배 시스템은 외부로부터의 입력에 따라서, 연주음 각각에 대응하는 가사를 나타내는 가사 데이터를 생성하는 가사 데이터 생성 수단을 구비하도록 구성되어 있어도 좋다.By the way, the data collection system of the present invention may be configured to include lyrics data generating means for generating lyrics data indicating lyrics corresponding to each of the tonal performances in response to an input from the outside.
이 경우, 데이터 집배 시스템에 있어서의 기억 제어 수단은 악곡 데이터에 가사 데이터를 추가한 것을 음악 데이터로서, 기억 장치에 기억하도록 구성되어 있는 것이 바람직하다.In this case, it is preferable that the storage control means in the data collection system is configured to store, as music data, the lyrics data added to the music data as the music data.
이와 같이 구성된 데이터 집배 시스템이라면, 음악 데이터를 분배하는 분배처를 노래방 장치로 함으로써, 그 노래방 장치의 이용자는 데이터 집배 시스템의 이용자에 의해 작곡된 악곡을 노래방 장치에서 재생할 수 있다. 이로 인해, 노래방 장치의 이용자는 이용자 자신이 작곡한 악곡이나 다른 이용자가 작곡한 악곡을, 노래방 장치를 사용하여 가창할 수 있어, 노래방을 보다 즐길 수 있다.In the data distribution system configured as described above, by using the distribution destination for distributing music data as the karaoke apparatus, the user of the karaoke apparatus can reproduce the music composed by the user of the data delivery system in the karaoke apparatus. For this reason, the user of a karaoke apparatus can sing the music composed by the user himself or the music composed by another user using a karaoke apparatus, and can enjoy a karaoke more.
또한, 본 발명은 데이터 집배 시스템에 추가하여, 데이터 집배 시스템의 데이터 분배 수단에 의해 분배된 음악 데이터를 기억하는 노래방 서버와, 노래방 서버에 기억된 음악 데이터 중으로부터, 외부로부터 입력된 지령에 기초하는 음악 데이터를 선택하여, 그 음악 데이터에 포함되는 악곡 데이터에 따라서 연주음을 재생하는 노래방 장치를 구비한 통신 노래방 시스템으로서 이루어진 것이라도 좋다.In addition to the data collection system, the present invention is based on a karaoke server that stores music data distributed by the data distribution means of the data distribution system and a command input from the outside from among music data stored in the karaoke server. It may be constituted as a communication karaoke system provided with a karaoke apparatus for selecting music data and reproducing a performance sound in accordance with the music data contained in the music data.
이와 같은 통신 노래방 시스템에 따르면, 데이터 집배 시스템의 이용자에 의해 작곡된 악곡을 노래방 장치에서 재생할 수 있다. 이로 인해, 본 발명의 통신 노래방 시스템에 따르면, 당해 통신 노래방 시스템의 이용자 자신이 작곡한 악곡이나, 다른 이용자가 작곡한 악곡을, 노래방 장치를 사용하여 가창할 수 있다. 따라서, 노래방 장치의 이용자는 노래방을 보다 즐길 수 있다.According to such a communication karaoke system, the music composed by the user of the data collection system can be reproduced by the karaoke apparatus. For this reason, according to the communication karaoke system of this invention, the music composed by the user of the said communication karaoke system, and the music composed by the other user can be singed using a karaoke apparatus. Therefore, the user of a karaoke apparatus can enjoy a karaoke more.
도 1은 본 발명의 통신 노래방 시스템의 개략 구성을 도시한 블록도.
도 2는 클라이언트 장치에서 실행되는 노래방 악곡 데이터 작성 처리의 처리 수순을 도시한 흐름도.
도 3은 표시부에 표시되는 유의어 선택 화상을 예시한 도면.
도 4는 서버 장치에서 실행되는 노래방 악곡 집배 처리의 처리 수순을 도시한 흐름도.
도 5는 본 발명의 통신 노래방 시스템의 동작의 추이를 도시한 도면.1 is a block diagram showing a schematic configuration of a communication karaoke system of the present invention.
Fig. 2 is a flowchart showing the processing procedure of karaoke music data creation processing executed at the client device.
3 is a diagram illustrating a synonym selection image displayed on a display unit.
4 is a flowchart showing a processing procedure of karaoke music collection processing executed in the server device.
5 is a view showing the transition of the operation of the communication karaoke system of the present invention.
이하에, 본 발명의 실시 형태를 도면과 함께 설명한다.EMBODIMENT OF THE INVENTION Below, embodiment of this invention is described with drawing.
<시스템 전체에 대해><System-wide>
도 1에 도시한 바와 같이, 통신 노래방 시스템(1)은 악곡의 연주음의 추이를 나타내는 악곡 데이터를 포함하는 노래방 악곡 데이터를 수집하는 노래방 악곡 데이터 집배 시스템(5)과, 그 노래방 악곡 데이터 집배 시스템(5)으로부터 노래방 악곡 데이터를 취득하여, 그 취득한 노래방 악곡 데이터에 대응하는 악곡을 재생 연주하는 노래방 시스템(40)을 구비하고 있다. 또한, 노래방 악곡 데이터 집배 시스템(5)과, 노래방 시스템(40)은 네트워크(예를 들어, 전용 회선이나, WAN 등)를 통해 접속되어 있다.As shown in Fig. 1, the communication karaoke system 1 includes a karaoke music
여기서, 노래방 악곡 데이터에 대해 설명한다.Here, karaoke music data will be described.
이 노래방 악곡 데이터는, 예를 들어 MIDI(Musical Instrument Digital Interface) 포맷으로 기술된 노래방 재생용 데이터로, 본 발명의 음악 데이터의 일례이다.The karaoke music data is, for example, data for karaoke reproduction described in a musical instrument digital interface (MIDI) format, which is an example of music data of the present invention.
그 노래방 악곡 데이터에는 악곡 데이터와, 그 악곡 데이터를 식별하기 위한 데이터인 악곡 정보와, 그 악곡 데이터에 대응하는 악곡 1곡을 재생 연주하기 위해 필요로 하는 시간을 나타내는 시간 정보와, 그 악곡 데이터에 대응하는 악곡의 가사를 나타내는 가사 데이터가 적어도 포함되어 있다.The karaoke music data includes music data, music information which is data for identifying the music data, time information indicating the time required for reproducing and playing one piece of music corresponding to the music data, and the music data. Lyric data representing at least the lyrics of the corresponding piece of music are included.
그리고, 악곡 정보에는 악곡을 특정하기 위한 곡 번호 데이터와, 곡명을 나타내는 곡명 데이터가 적어도 포함되어 있다.The music information includes music number data for specifying the music and at least music name data indicating a music name.
또한, 악곡 데이터는 악곡의 선율을 형성하는 각 연주음에 대해, 각각의 음 높이 및 음 길이가 나타나 있는 것이다. 구체적으로, 본 실시 형태에 있어서의 각 연주음의 음 길이는 악음 출력 개시 시간 및 악음 출력 종료 시간에 의해 나타내어져 있다. 단, 여기서 말하는 악음 출력 개시 시간이라 함은, 대응하는 연주음[예를 들어, 악곡의 연주 개시로부터 n번째(n은 임의의 정수)로 출력되는 연주음]의 출력이 개시될 때까지의 악곡의 연주 개시 시로부터의 경과 시간이다. 또한, 여기서 말하는 악음 출력 종료 시간이라 함은, 그 연주음의 출력이 종료될 때까지의 악곡의 연주 개시 시로부터의 경과 시간이다.Moreover, the music data indicates that the pitch and length of each note are shown for each of the playing sounds forming the tune of the tune. Specifically, the sound length of each performance sound in this embodiment is represented by the sound output start time and the sound output end time. However, the music output start time referred to herein refers to a piece of music from the start of the output of the corresponding performance sound (for example, the performance sound output from the beginning of the performance of the music to the nth (n is an arbitrary integer)). The elapsed time since the start of playing. In addition, the music output end time here is the elapsed time from the start of the performance of the music until the output of the performance sound is complete | finished.
또한, 가사 데이터는 악곡의 가사를 형성하는 어구(문자)가, 그 악곡의 연주에 따라서 출력되는 연주음 각각과 대응된 것이다.The lyrics data corresponds to phrases (characters) forming the lyrics of a piece of music, corresponding to each of the performance sounds output in accordance with the performance of the piece of music.
(노래방 시스템)(Karaoke system)
다음에, 노래방 시스템(40)에 대해 설명한다.Next, the
이 노래방 시스템(40)은 사용자에 의해 지정된 악곡을 재생하는 노래방 단말(48)과, 악곡의 재생에 필요한 노래방 악곡 데이터를 노래방 단말(48)로 분배하는 노래방 서버(45)를 구비하고, 그들 노래방 단말(48)과 노래방 서버(45)는 네트워크(예를 들어, 전용 회선이나, WAN 등)를 통해 접속되어 있다.The
그리고, 노래방 서버(45)는 주지의 노래방 서비스용 서버 장치이다. 구체적으로는, 노래방 서버(45)는 악곡의 연주에 필요한 처리 프로그램(이하, 노래방 처리 프로그램이라고 칭함) 및 노래방 악곡 데이터를 저장하는 기억 기구(46)와, ROM, RAM, CPU를 적어도 가진 주지의 마이크로 컴퓨터(47)를 구비한 정보 처리 장치를 중심으로 구성되어 있다.And the
또한, 노래방 단말(48)은 사용자로부터의 지령을 접수하는 지령 접수부(51)와, 지령 접수부(51)에서 접수한 지령에 대응하는 노래방 악곡 데이터를 노래방 서버(45)로부터 취득하는 동시에, 노래방 단말(48)을 구성하는 각 부(51, 52, 54, 55, 56)를 제어하는 제어 기구(53)를 구비하고 있다. 또한, 노래방 단말(48)은 지령 접수부(51)에서 접수한 지령에 대응하는[즉, 노래방 서버(45)로부터 취득한] 노래방 악곡 데이터 중의 악곡 데이터에 대응하는 악곡을 재생 연주하는 음원 발생부(52)와, 음원 발생부(52)에서 재생 연주된 연주음을 출력하는 스피커(54)와, 노래방 악곡 데이터 중의 가사 데이터에 따라서 재생 연주 중인 악곡의 가사를 표시하는 표시 기구(56)와, 음성을 입력하기 위한 마이크로폰(55)을 구비하고 있다.In addition, the
즉, 노래방 시스템(40)에서는 노래방 서버(45)의 기억 기구(46)에 기억되어 있는 노래방 악곡 데이터 중으로부터, 지령 접수부(51)를 통해 접수한 사용자로부터의 지령에 대응하는 노래방 악곡 데이터, 즉 사용자에 의해 선곡된 악곡에 대한 노래방 악곡 데이터를, 노래방 단말(48)이 취득한다. 그리고, 노래방 단말(48)이, 그 취득한 노래방 악곡 데이터 중의 악곡 데이터를 재생 연주한다. 이때, 스피커(54)로부터는 악곡 데이터에 대응하는 악곡의 연주음을 출력하고, 표시 기구(56)는 그 악곡에 대응하는 가사를 표시한다. 또한, 노래방 단말(48)은 연주음을 스피커(54)로부터 출력하고 있을 때에, 마이크로폰(55)을 통해 음성이 입력되면(즉, 사용자가 가창하면), 그 입력된 음성(즉, 가성)을 재생 연주 중인 연주음에 믹싱하여 출력한다.That is, in the
<노래방 악곡 데이터 집배 시스템><Karaoke music data collection system>
다음에, 노래방 악곡 데이터 집배 시스템(5)에 대해 설명한다.Next, the karaoke music
이 노래방 악곡 데이터 집배 시스템(5)은 외부로부터의 입력을 따라서 노래방 악곡 데이터를 구성하는 일부의 데이터(이하, 생성 데이터라고 칭함)를 작성하는 클라이언트 장치(10)와, 미리 준비된 노래방 악곡 데이터가 저장되어 있는 동시에, 클라이언트 장치(10)에서 작성된 생성 데이터에 기초하여 노래방 악곡 데이터를 생성하여 저장하고, 그 저장된 노래방 악곡 데이터를 외부로부터의 지령에 따라서 출력하는 서버 장치(30)를 구비하고 있다. 또한, 클라이언트 장치(10)와, 서버 장치(30)는 네트워크(예를 들어, 전용 회선이나, WAN 등)를 통해 접속되어 있다. 또한, 도 1에 있어서는, 1대의 서버 장치(30)에 접속되는 클라이언트 장치(10)는 1대만 도시하였지만, 클라이언트 장치(10)는 1대의 서버 장치(30)에 대해 복수대 접속되어 있어도 좋다. 또한, 서버 장치(30)도 복수 구비되어 있어도 좋다.The karaoke music
<클라이언트 장치의 구성><Configuration of the Client Device>
다음에, 클라이언트 장치(10)에 대해 설명한다.Next, the
이 클라이언트 장치(10)는 서버 장치(30)와의 사이에서 데이터 통신을 실행하기 위한 통신부(11)와, 통신부(11)를 통해 서버 장치(30)로부터 취득한 데이터나, 클라이언트 장치(10)에서 생성한 각종 데이터를 기억하는 기억부(12)와, 각종 화상을 표시하기 위한 표시부(13)와, 외부로부터의 입력을 접수하는 조작 접수부(14)를 구비하고 있다. 또한, 클라이언트 장치(10)는 음성을 입력하기 위한 마이크로폰(17)과, 마이크로폰(17)을 통한 음성의 입력을 제어하는 음성 입력부(15)와, 음성을 출력하기 위한 스피커(18)와, 스피커(18)로부터의 음성의 출력을 제어하는 음성 출력부(16)와, 클라이언트 장치(10)를 구성하는 각 부[11, 12, 13, 14, 15(17), 16(18)]를 제어하는 제어부(20)를 구비하고 있다. 즉, 이 클라이언트 장치(10)는 주지의 퍼스널 컴퓨터로서 구성된 것이다.The
이 중, 표시부(13)는 주지의 표시 장치(예를 들어, 액정 디스플레이나 CRT 등)이고, 조작 접수부(14)는 주지의 입력 장치(예를 들어, 키보드나 포인팅 디바이스)로 이루어진다.Among these, the
또한, 음성 입력부(15)는 마이크로폰(17)을 통해 입력된 음성(아날로그 신호)을 샘플링하여, 그 샘플링값(표본값)을 제어부(20)에 입력하는 AD 변환기로서 구성되어 있다. 또한, 이하에서는, 음성 입력부(15)에서 샘플링값으로 변환된 음성을 음성 데이터라고 칭한다.The
그리고, 음성 출력부(16)는 제어부(20)로부터의 제어 지령에 기초하여, 스피커(18)를 울려 진동시키도록 구성되어 있다.And the
또한, 기억부(12)는 전원이 절단되어도 기억 내용을 유지하는 동시에 기억 내용을 읽고 쓰기 가능하게 구성된 기억 장치(예를 들어, 하드디스크 드라이브 장치나 플래시 메모리)이다.The
다음에, 제어부(20)는 전원이 절단되어도 기억 내용을 유지할 필요가 있는 프로그램이나 데이터를 저장하는 ROM(23)과, 프로그램이나 데이터를 일시적으로 저장하는 RAM(22)과, ROM(23)이나 RAM(22)에 기억된 프로그램이나 데이터에 따라서, 클라이언트 장치(10)를 구성하는 각 부(11, 12, 13, 14, 15, 16)에 대한 제어 및 각종 연산을 실행하는 CPU(21)를 적어도 가진 주지의 마이크로 컴퓨터를 중심으로 구성되어 있다.Next, the
그 제어부(20)는 클라이언트 장치(10)의 이용자에게 선택된 반주 악곡의 출력 중에 마이크로폰(17)을 통해 입력된 음성 및 조작 접수부(14)를 통해 클라이언트 장치(10)의 이용자에 의해 입력된 정보에 따라서 생성 데이터를 생성하는 노래방 악곡 데이터 작성 처리를 실행한다.The
<클라이언트 장치에서의 처리><Processing on Client Device>
다음에, 제어부(20)가 실행하는[보다 구체적으로는, 제어부(20)의 CPU(21)가 실행하는] 노래방 악곡 데이터 작성 처리의 처리 수순에 대해 도 2를 사용하여 설명한다.Next, the processing procedure of the karaoke music composition data creation process executed by the control unit 20 (more specifically, executed by the
도 2에 도시하는 노래방 악곡 데이터 작성 처리는 조작 접수부(14)를 통해 노래방 악곡 데이터 작성 처리의 기동 지령이 입력되면, 기동되는 것이다.The karaoke music data creation process shown in FIG. 2 is started when the start command of the karaoke music data creation process is input through the
그리고, 도 2에 도시한 바와 같이, 노래방 악곡 데이터 작성 처리는, 기동되면, 우선 S110에서 미리 준비된 복수의 반주 악곡 중으로부터, 조작 접수부(14)를 통해 반주 악곡의 선택을 접수하였는지 여부를 판단하여, 반주 악곡의 선택을 접수하고 있지 않으면(S110 : 아니오), 접수할 때까지 대기한다.And as shown in FIG. 2, when a karaoke music data creation process is started, it is judged first whether the selection of accompaniment music was received through the
그리고, 반주 악곡의 선택을 접수하면, 그 선택을 접수한 반주 악곡을 재생 연주한다(S120). 이에 의해, 스피커(18)로부터 반주 악곡을 형성하는 구성음을 출력한다. 또한, 본 실시 형태에 있어서의 반주 악곡은 악곡 1곡 중의 특정한 기간(여기서는 브릿지)에 대응하는 기간에 있어서의 연주음의 추이를 나타내는 것이다.When the accompaniment music selection is accepted, the accompaniment music received the selection is reproduced and played (S120). Thereby, the component sound which forms accompaniment music from the
또한, 음성 입력부(15)로부터 음성 데이터를 취득한다(S130). 이때, 이용자가 반주 악곡에 맞추어 가창하고 있으면, 그 이용자가 발성한 음성이, 음성 데이터로 변환된 후에 취득된다.In addition, voice data is acquired from the voice input unit 15 (S130). At this time, if the user is singing along with the accompaniment music, the voice spoken by the user is acquired after being converted into voice data.
계속해서, S130에서 취득된 음성 데이터를 주파수 해석하여, 그 주파수 해석의 결과(예를 들어, 주파수 스펙트럼)와, 미리 준비된 빗살 구조 모델을 대조하는 주지의 방법에 의해, 미리 설정된 단위 기간마다의 기본 주파수 f0, 즉 마이크로폰(17)을 통해 입력된 음성의 음 높이를 추정한다. 이것과 함께, 주지의 방법을 사용하여, 추정된 각 음 높이의 계속 시간(이하, 음 길이라고 칭함)을 추정한다(S140).Subsequently, the frequency data of the speech data obtained in S130 is analyzed by frequency, and the result of the frequency analysis (for example, the frequency spectrum) is compared with the basic method for each preset unit period by a known method of collating a previously prepared comb structure model. The sound height of the voice input through the frequency f0, that is, the
또한, S140에서 추정된 음 높이 및 음 길이의 양쪽에 기초하여, 반주 악곡의 연주 중에 마이크로폰(17)을 통해 입력된 음성을 음표화한다. 즉, 채보한다(S150). 이에 의해, 이용자가 반주 악곡에 맞추어 가창하고 있으면, 그 이용자가 발성한 음성이 순차적으로 보면에 나타내어진다.Further, based on both the pitch and the length estimated in S140, the voice input through the
계속해서, S130으로부터 S150까지의 사이클(즉, 허밍 작곡)을 종료하는 취지를 나타내는 종료 지령이, 조작 접수부(14)를 통해 입력되었는지 여부를 판정한다(S160). 그 판정의 결과, 종료 지령이 입력되어 있지 않으면(S160 : 아니오), S130으로 복귀되고, 종료 지령이 입력되면(S160 : 예), S170으로 진행한다.Subsequently, it is determined whether or not an end instruction indicating that the cycle from S130 to S150 (that is, the humming composition) is input via the operation accepting unit 14 (S160). As a result of the determination, if no end command is input (S160: No), the process returns to S130, and if an end command is input (S160: Yes), the process proceeds to S170.
그 S170에서는, S150에서 채보한 결과를, 1개의 악곡 데이터의 전체 기간 중 일부의 기간을 나타내는 부분 악곡 데이터로 변환한다. 즉, S170에서는 1개의 악곡 데이터의 기초가 되는 부분 악곡 데이터를 생성한다. 또한, 채보한 결과를 악곡 데이터로 변환하는 처리는 주지이므로, 여기서의 상세한 설명은 생략한다.In S170, the result obtained in S150 is converted into partial music data indicating a part of the entire period of one piece of music data. That is, in S170, partial music data which is the basis of one piece of music data is generated. In addition, since the processing which converts the obtained result into music data is well known, detailed description here is abbreviate | omitted.
계속해서, 문자의 입력을 접수하기 위한 그래피컬 유저 인터페이스 화상(이하, 가사 입력 화상이라고 칭함)을 표시부(13)에 표시한다(S180). 이 가사 입력 화상에 있어서의 미리 설정된 입력 가능 위치에 조작 접수부(14)를 통해 문장(즉, 문자)이 입력되면, 그 입력된 문장(즉, 문자)을 접수한다(S190).Subsequently, a graphical user interface image (hereinafter, referred to as a lyrics input image) for accepting an input of a character is displayed on the display unit 13 (S180). When a sentence (that is, character) is inputted through the
또한, 가사 입력 화상을 통한 문자 입력(즉, 가사의 입력)을 완료하는 취지를 나타내는 입력 완료 지령을 취득하였는지 여부를 판정한다(S200). 그 판정의 결과, 입력 완료 지령이 입력되어 있지 않으면(S200 : 아니오), S180으로 복귀되어, 조작 접수부(14)를 통한 문장의 입력 접수를 계속한다. 한편, 입력 완료 지령이 입력되면(S200 : 예), 입력 완료 지령이 입력된 것을 나타내는 입력 완료 신호 및 S190에서 접수한 문장(즉, 문자, 이하, 입력 문장이라고 칭함)을 서버 장치(30)로 송신한다.Further, it is determined whether or not an input completion command indicating that character input (that is, input of lyrics) via the lyrics input image is completed (S200). As a result of the determination, if an input completion command has not been input (S200: No), the process returns to S180 to continue inputting a sentence through the
계속해서, 상세하게는 후술하지만, 서버 장치(30)에서, S190에서 접수한 입력 문장 중의 어구(이하, 입력 어구라고 칭함) 각각으로 분할한 후, 각각의 입력 어구에 대한 유의어를 검색한 결과이고, 또한 서버 장치(30)로부터 반송된 것을 나타낸 유의어 선택 화상(SI)(도 3 참조)을 표시부(13)에 표시한다(S210). 이 유의어 선택 화상(SI)은 그래피컬 유저 인터페이스이고, 도 3에 도시한 바와 같이, S190에서 입력된 입력 문장을 표시하는 문자열 표시란(101)과, 서버 장치(30)로부터 반송된 복수의 유의어 또는 입력 어구 중으로부터 하나를, 소위 풀 다운 메뉴 방식으로 선택하기 위한 어구 선택 표시(102)와, 복수의 유의어 또는 입력 어구 중으로부터 가사로서 사용하는 어구를 확정시키기 위한 확정 완료 지령을 입력하기 위한 완료 지령 입력 표시(103)를 갖고 있다. 또한, 어구 선택 표시(102)(도면 중, 102A 내지 102D)는 입력 어구 각각에 대해 준비된다. 따라서, 유의어 선택 화상(SI)에는 입력 어구 각각에 대한 유의어가 표시된다.Subsequently, as will be described later in detail, the
그리고, 조작 접수부(14)를 통한 유의어 선택 화상(SI)에 대한 입력을 접수한다(S220). 계속되는 S230에서는, 전번의 S220에서 조작 접수부(14)를 통해 확정 완료 지령이 입력되었는지 여부를 판정한다. 그 판정의 결과, 확정 완료 지령이 입력되어 있지 않으면(S230 : 아니오), S210으로 복귀되어, 유의어 선택 화상(SI)에 대한 입력의 접수를 계속한다. 한편, 확정 완료 지령이 입력되면(S230 : 예), 그 확정 완료 지령이 입력된 시점에서, 어구 선택 표시(102)에서 선택되어 있는 어구를, 가사에 사용하는 어구로서 확정한다.Then, the input to the synonym selection image SI through the
그리고, S240에서는 전번의 S230에서 확정한 어구에 따라서, 가사 데이터의 기초가 되는 악곡 1곡분의 가사를 나타내는 텔롭 데이터를 생성한다. 계속해서, S250에서는 전번의 S170에서 생성한 부분 악곡 데이터 및 전번의 S240에서 생성한 텔롭 데이터의 2개의 데이터를 생성 데이터로서 서버 장치(30)로 송신한다.In S240, according to the phrase determined in the previous S230, telo data indicating the lyrics of the piece of music serving as the basis of the lyrics data is generated. Subsequently, in S250, two pieces of data of the partial music data generated in the previous S170 and the telop data generated in the previous S240 are transmitted to the
<서버 장치의 구성><Configuration of Server Device>
여기서, 도 1로 돌아가, 서버 장치(30)에 대해 설명한다.1, the
이 서버 장치(30)는 네트워크망을 통해 접속된 클라이언트 장치(10)와의 사이에서, 데이터 통신을 행하기 위한 인터페이스(이하, I/F라고 함)부(31)와, I/F부(31)를 통해 취득한 데이터를 기억하는 기억 장치(32)와, 서버 장치(30)를 구성하는 각 부를 제어하는 제어 장치(35)를 구비하고 있다. 이 서버 장치(30)는 주지의 소위 웹 서버로서 구성된 것으로, 본 발명의 데이터 집배 장치의 일례이다. The
이 중, 기억 장치(32)는 고용량 디스크와 판독 장치가 일체로 구성된 주지의 하드디스크 드라이브(HDD)이다. 이 기억 장치(32)에는, 적어도 음악의 작성이나 음악의 연주를 생업으로 하는 아티스트에 의해 작성된 악곡 각각에 대해 미리 준비된 노래방 악곡 데이터(이하, 기존 악곡 데이터라고 칭함)가 저장되어 있다.Among these, the
또한, 제어 장치(35)는 전원을 절단해도 기억 내용을 유지할 필요가 있는 프로그램이나 데이터를 기억하는 ROM(38)과, 전송된 데이터(프로그램)나 처리 도중에 일시적으로 발생한 데이터를 저장하는 RAM(37)과, ROM(38)이나 RAM(37)에 기억된 프로그램에 따라서 처리를 실행하는 CPU(36)를 구비하고 있다.The
<서버 장치에서의 처리><Processing at the server device>
다음에, 제어 장치(35)가 실행하는[보다 구체적으로는, 제어 장치(35)의 CPU(36)가 실행하는] 노래방 악곡 집배 처리의 처리 수순에 대해 도 4를 사용하여 설명한다.Next, the processing procedure of the karaoke music collection processing executed by the control device 35 (more specifically, executed by the
도 4에 도시하는 노래방 악곡 집배 처리는 서버 장치(30)가 기동되면, 실행이 개시되는 것이다.The karaoke music collection processing shown in FIG. 4 starts execution when the
그리고, 노래방 악곡 집배 처리는 실행이 개시되면, 도 4에 도시한 바와 같이, 우선, S310에서 클라이언트 장치(10)로부터 입력 완료 신호(및 입력 문장)를 수신(즉, 취득)하였는지 여부를 판정한다. 그 판정의 결과, 입력 완료 신호(및 입력 문장)를 수신하고 있으면(S310 : 예), S320으로 진행한다.When execution of the karaoke music collection process is started, as shown in FIG. 4, first, it is determined whether or not an input completion signal (and an input sentence) has been received (ie, acquired) from the
그 S320에서는 클라이언트 장치(10)로부터 수신한 입력 문장에 대해 형태소 해석을 실행하여, 입력 문장을 입력 어구별로 분해한다. 계속되는 S330에서는, 주지의 검색 방법을 사용하여, S320에서 분해된 입력 어구 각각에 대해 의미가 유사한 어구(즉, 유의어)를, 기억 장치(32)에 미리 기억되어 있는 복수의 어구 중으로부터 검색하여 추출한다. 또한, S340에서는 그들 입력 어구별로 추출된 모든 유의어를, 클라이언트 장치(10)에 출력하여 S350으로 진행한다.In S320, morphological analysis is performed on the input sentence received from the
또한, S310에서의 판정의 결과, 입력 완료 신호를 수신하고 있지 않은 경우에도(S310 : 아니오) S350으로 진행한다.Further, even when the input completion signal is not received as a result of the determination in S310 (S310: NO), the processing proceeds to S350.
그 S350에서는 클라이언트 장치(10)로부터 생성 데이터를 취득하였는지 여부를 판정하여, 판정의 결과, 생성 데이터를 취득하고 있으면(S350 : 예), S360으로 진행한다.In S350, it is determined whether the generated data is acquired from the
그 S360에서는 생성 데이터 중의 부분 악곡 데이터에 대해, 그 부분 악곡 데이터에 의해 나타내어진 기간의 전후에, 미리 준비된 부가 악곡 데이터를 접속한다. 이에 의해, 악곡 전체에 대한 연주음의 추이를 나타내는 데이터가 생성되어, 악곡 데이터로서 완성된다.In S360, additional music data prepared in advance is connected to the partial music data in the generated data before and after the period indicated by the partial music data. As a result, data indicative of the transition of the performance sound to the whole piece of music is generated and completed as the piece of music data.
단, 여기서 말하는 부가 악곡 데이터라 함은, 1개의 악곡 데이터의 전체 기간 중, 부분 악곡 데이터에 대응하는 기간과는 다른 기간을 나타내는 악곡 데이터이고, 예를 들어 부분 악곡 데이터가, 소위 브릿지에 대응하는 기간에 있어서의 연주음의 추이를 나타내는 경우, 부가 악곡 데이터는, 소위 1절이나, 2절, 전주, 간주에 대응하는 기간에 있어서의 연주음의 추이를 나타내는 것이다. 따라서, 본 실시 형태에 있어서는, 클라이언트 장치(10)에서 생성된 부분 악곡 데이터에 접속되는 부가 악곡 데이터는 각각에 대응하는 기간(즉, 1절이나, 2절, 전주, 간주)마다 복수 준비되어 있고, 그들 준비된 것 중으로부터 반주 연주에 따라서 랜덤으로 선택된다. 그리고, 그들의 선택된 각 부가 악곡 데이터를, 부분 악곡 데이터에 추가함으로써 악곡 데이터가 생성된다.However, the additional music data referred to herein is music data indicating a period different from the period corresponding to the partial music data among the entire periods of one piece of music data. For example, the partial music data corresponds to a so-called bridge. In the case of showing the transition of the performance sound in the period, the additional music data indicates the transition of the performance sound in the period corresponding to the so-called one-section, two-section, prelude, and regard. Therefore, in the present embodiment, a plurality of additional music data connected to the partial music data generated by the
계속되는 S370에서는 생성 데이터 중의 텔롭 데이터에 기초하여, 가사 데이터를 생성한다. 구체적으로는, S360에서 생성한 악곡 데이터를 형성하는 연주음마다 텔롭 데이터를 구성하는 각 문자를, 입력 문장의 선두의 어구로부터 할당함으로써 가사 데이터를 생성한다.In subsequent S370, the lyrics data is generated based on the telop data in the generated data. Specifically, the lyrics data is generated by allocating each character constituting the telop data from the phrase at the head of the input sentence for each performance sound forming the music data generated in S360.
그리고, S380에서는 S360에서 생성된 악곡 데이터 및 S370에서 생성된 가사 데이터에 추가하여, 그 생성된 악곡 데이터를 미리 규정된 템포로 재생 연주할 때에 필요로 하는 시간을 시간 정보로 하고, 그 생성된 악곡 데이터를 식별하기 위해 새롭게 할당한 문자열(식별 코드)을 곡 번호 데이터로 하고, 클라이언트 장치(10)에서 입력된 곡명을 곡명 데이터로 한, 노래방 악곡 데이터를 생성한다. 또한, S380에서는 그 생성된 노래방 악곡 데이터(이하, 새롭게 작성된 노래방 악곡 데이터를 작성 악곡 데이터라고 칭함)를 기억 장치(32)에 저장한다. 그 후, S390으로 진행한다.In S380, in addition to the music data generated in S360 and the lyrics data generated in S370, the time required for reproducing and playing the generated music data at a predetermined tempo is used as time information. Newly assigned character strings (identification codes) for identifying data are used as the song number data, and karaoke music data is generated using the song names input by the
또한, S350에서의 판정의 결과, 클라이언트 장치(10)로부터 생성 데이터를 취득하고 있지 않은 경우에도(S350 : 아니오), S390으로 진행한다.In addition, even when generation data is not acquired from the
그 S390에서는, 기억 장치(32)에 기억되어 있는 모든 작성 악곡 데이터 중으로부터, 클라이언트 장치(10)의 이용자가 지정한 작성 악곡 데이터를 노래방 시스템(40)으로 분배하기 위한 공개 지령을, 클라이언트 장치(10)로부터 취득하였는지 여부를 판정하여, 판정의 결과, 공개 지령을 취득하고 있으면(S390 : 예), S400으로 진행한다.In S390, the
그 S400에서는, S390에서 취득된 공개 지령에 대응하는 작성 악곡 데이터 중의 악곡 데이터 및 작성 악곡 데이터 중의 가사 데이터에 대해, 필터 처리를 실행한다.In S400, the filter process is performed on the music data in the composition music data corresponding to the open command acquired in S390 and the lyrics data in the production music data.
이 필터 처리에서는, 처리를 실행하는 대상이 악곡 데이터이면, 기억 장치(32)에 미리 기억되어 있는 노래방 악곡 데이터(이하, 기존 악곡 데이터라고 칭함) 중의 악곡 데이터와, 작성 악곡 데이터 중의 악곡 데이터와의 유사도(여기서는 유사한 정도가 높을수록 큰 값으로 됨)를 주지의 방법에 의해 도출한다. 그리고, 그 도출된 유사도가 미리 규정된 규정치 이상이면, 작성 악곡 데이터에 대응하는 악곡이 기존 악곡 데이터에 대응하는 악곡을 도작했을 가능성이 높은 것이라고 판단하여, 경고를 한다. 단, 필터 처리에서 경고를 한 후에는 S410으로 진행한다.In this filter process, if the object to be processed is music data, the music data in the karaoke music data (hereinafter referred to as existing music data) previously stored in the
또한, 필터 처리를 실행하는 대상이 가사 데이터이면, 기존 악곡 데이터 중의 가사 데이터와, 작성 악곡 데이터 중의 가사 데이터와의 유사도(여기서는, 유사한 정도가 높을수록 큰 값으로 됨)를 주지의 방법에 의해 도출한다. 그리고, 그 도출된 유사도가 미리 규정된 규정치 이상이면, 작성 악곡 데이터에 대응하는 악곡의 가사가, 기존 악곡 데이터에 대응하는 악곡의 가사를 도작했을 가능성이 높은 것이라고 판단하여, 경고를 한다. 또한, 필터 처리에서 경고를 한 후에는 S410으로 진행한다.If the object to be subjected to the filter process is lyrics data, the similarity between the lyrics data in the existing music data and the lyrics data in the composed music data (here, the higher the similarity becomes, the larger the value) is derived by a known method. do. If the derived similarity is equal to or more than a predetermined value, it is determined that the lyrics of the piece of music corresponding to the created piece of music data have a high possibility that the lyrics of the piece of music corresponding to the existing piece of music data are likely to have been warned. In addition, after the warning in the filter process, the process proceeds to S410.
한편, 악곡 데이터에 대한 유사도 및 가사 데이터에 대한 유사도가 모두 규정치 미만이면, 작성된 악곡 및 가사 각각이 도작되었을 가능성이 낮은 것이라고 판단하여, S410으로 진행한다.On the other hand, if both the similarity to the music data and the similarity to the lyrics data are less than the prescribed values, it is determined that each of the created music and the lyrics is unlikely to have been written, and the flow proceeds to S410.
그 S410에서는, S400에서 필터 처리가 실시된 작성 악곡 데이터를, 노래방 서버(45)로 분배하여, 그 노래방 서버(45)의 기억 기구(46)에 저장한다. 그리고, 그 후, S310으로 복귀한다.In S410, the created music data subjected to the filter process in S400 is distributed to the
또한, S390에서의 판정의 결과, 공개 지령을 취득하고 있지 않은 경우에도(S390 : 아니오) S310으로 복귀한다.Also, as a result of the determination in S390, the process returns to S310 even when no disclosure command is acquired (S390: No).
그 S310에서는, 새로운 입력 완료 신호(및 입력 문장)가 수신될 때까지 대기한다.In that S310, it waits until a new input completion signal (and an input sentence) is received.
<동작예><Example of operation>
다음에, 본 실시 형태의 통신 노래방 시스템(1)의 동작예에 대해 도 5를 사용하여 설명한다.Next, the operation example of the communication karaoke system 1 of this embodiment is demonstrated using FIG.
도 5에 도시한 예에서는, 사용자는, 우선 클라이언트 장치(10)에서 반주 연주를 선택하여, 그 반주 연주의 재생에 따라서 스피커(18)로부터 출력되는 음에 맞추어 가창(여기서는, 허밍 등도 포함함)한다. 그러면, 클라이언트 장치(10)는 사용자가 가창함으로써 입력된 음성을 채보하여, 부분 악곡 데이터를 생성한다(즉, 허밍 작곡함, 도 5 중 : S1).In the example shown in FIG. 5, the user first selects the accompaniment performance in the
계속해서, 허밍 작곡된 악곡에 대해 가사(즉, 문자열)의 입력이 완료되면, 사용자는 조작 접수부(14)를 통해 클라이언트 장치(10)에 입력 완료 지령을 입력한다. 그러면, 클라이언트 장치(10)는 서버 장치(30)에 대해 입력 완료 지령 및 입력 문장을 출력한다(도 5 중 : S2). 이때, 서버 장치(30)는 입력 문장을 형태소 해석한 후에, 그 형태소 해석의 결과인 입력 어구에 대해 유의어를 검색한다(도 5 중 : S3). 또한, 클라이언트 장치(10)에, 입력 어구 각각에 대해 검색된 결과로서의 유의어를 출력한다(도 5 중 : S4).Subsequently, when the input of the lyrics (i.e., the character string) is completed for the piece composed of the humming song, the user inputs an input completion command to the
그 유의어를 취득한 클라이언트 장치(10)에서는, 표시된 유의어 중으로부터 사용자가 선택한 어구를 텔롭 데이터로서 생성하고, 그 생성된 텔롭 데이터와 앞서 생성한 부분 악곡 데이터를 서버 장치(30)에 출력한다(도 5 중 : S5). 이 텔롭 데이터와, 부분 악곡 데이터를 취득한 서버 장치(30)는 부분 악곡 데이터에 부가 악곡 데이터를 추가하여 악곡 데이터를 완성시킨 후, 가사 데이터를 생성하여, 노래방 악곡 데이터를 완성시켜, 기억 장치(32)에 저장한다(도S 중 : S6).The
그리고, 사용자가 클라이언트 장치(10)를 통해 서버 장치(30)에 공개 지령을 입력하면(도 5 중 : S7), 서버 장치(30)에서는 기억 장치(32)에 기억되어 있는 작성 악곡 데이터 중으로부터, 공개 지령에 의해 지정된 것을 노래방 서버(45)에 출력한다(도 5 중 : S8). 이에 의해, 사용자의 입력에 따라서 생성된 노래방 악곡 데이터가, 노래방 서버(45)의 기억 기구(46)에 저장된다.When the user inputs the open command to the
또한, 노래방 단말(48)의 지령 접수부(51)를 통해, 사용자가, 작성 악곡 데이터 중의 악곡 데이터에 대응하는 악곡의 연주 개시를 지정하면(도 5 중 : S9), 그 작성 악곡 데이터가 노래방 서버(45)로부터 노래방 단말(48)로 분배된다(도 5 중 : S10). 그리고, 노래방 단말(48)에서는 작성 악곡 데이터 중의 악곡 데이터에 대응하는 악곡의 재생 연주가 개시되어, 그 재생 연주 중에 마이크로폰(55)을 통해 음성이 입력되면, 그 입력된 음성과, 재생 연주 중인 연주음이 스피커(54)로부터 출력된다.Moreover, when the user designates the performance start of the music corresponding to the music data in the created music data through the
[실시 형태의 효과][Effect of Embodiment]
이상에 설명한 바와 같이, 본 실시 형태의 통신 노래방 시스템(1)에 따르면, 클라이언트 장치(10)의 사용자에 의해 작성된 작성 악곡 데이터 중의 악곡 데이터에 대응하는 악곡(즉, 작곡된 악곡)을, 노래방 단말(48)에서 재생할 수 있다. 이로 인해, 노래방 시스템(40)의 사용자는 사용자 자신이 작곡한 악곡이나 다른 사용자가 작곡한 악곡을, 노래방 단말(48)을 사용하여 가창할 수 있다.As described above, according to the communication karaoke system 1 of the present embodiment, a karaoke terminal corresponding to a piece of music (that is, a composed piece of music) corresponding to the piece of music data in the composition piece data created by the user of the
이에 의해, 노래방 시스템(40)의 사용자는 노래방을 보다 즐길 수 있다.Thereby, the user of the
특히, 본 실시 형태의 노래방 악곡 데이터 집배 시스템(5)에 따르면, 클라이언트 장치(10)의 사용자는 음성을 입력하는 것만으로 부분 악곡 데이터를 작성할 수 있다. 그리고, 서버 장치(30)가, 클라이언트 장치(10)에서 생성된 부분 악곡 데이터에 부가 악곡 데이터를 추가함으로써, 악곡 데이터를 생성하므로, 작곡에 대한 지식을 갖고 있지 않은 인물이라도, 악곡 데이터를 용이하게 작성(즉, 용이하게 작곡)할 수 있다.In particular, according to the karaoke music
따라서, 노래방 악곡 데이터 집배 시스템(5)의 사용자는 악곡의 일부분에 대한 음성을 입력하는 것만으로, 악곡 데이터를 작성할 수 있어, 사용자에게 실제로 작곡한 기분을 체험하게 할 수 있다. 이로 인해, 사용자에게 보다 마음이 편한 기분으로 노래방 악곡 데이터 집배 시스템(5), 나아가서는 통신 노래방 시스템(1)을 사용하게 할 수 있다.Therefore, the user of the karaoke music
[그 밖의 실시 형태][Other Embodiments]
이상, 본 발명의 실시 형태에 대해 설명하였지만, 본 발명은 상기 실시 형태로 한정되는 것은 아니고, 본 발명의 요지를 일탈하지 않는 범위에 있어서, 다양한 형태로 실시하는 것이 가능하다.As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment, It is possible to implement in various forms in the range which does not deviate from the summary of this invention.
예를 들어, 필터 처리는 실행되지 않아도 좋다. 즉, 노래방 악곡 집배 처리의 S400는 생략되어 있어도 좋다.For example, the filter process may not be executed. That is, S400 of karaoke music collection processing may be omitted.
또한, 공개 지령의 내용은 상기 실시 형태의 예로 한정되는 것은 아니다. 예를 들어, 서버 장치(30)에 공개 지령이 입력되면, 작성 악곡 데이터가 클라이언트 장치(10)에 출력되어도 좋다. 또한, 서버 장치(30)에 공개 지령이 입력되면, 서버 장치(30)에 저장된 작성 악곡 데이터에 대해 액세스 가능하게 하는 것이라도 좋다. 또한, 작성 악곡 데이터가 클라이언트 장치(10)에 출력된 후에, 클라이언트 장치(10)에서 작성 악곡 데이터에 대해 실행되는 처리나, 서버 장치(30)에 저장된 작성 악곡 데이터에 대해 액세스될 때에 서버 장치(30)에서 실행되는 처리로서는, 작성 악곡 데이터 중의 악곡 데이터에 대응하는 악곡을 시청하는 것이라도 좋고, 그 밖의 내용이라도 좋다.In addition, the content of a disclosure command is not limited to the example of the said embodiment. For example, when the open command is input to the
또한, 부가 악곡 데이터의 구성은 상기 실시 형태의 예로 한정되는 것은 아니다. 예를 들어, 주선율과는 다른 선율을 나타내는 것이라도 좋고, 악기음을 부가하는 것이라도 좋다. 또한, 부가 악곡 데이터가 전자와 같이 구성되어 있는 경우, 부분 악곡 데이터는 주선율을 구성하는 연주음의 추이를 나타내도록 형성되는 것이 바람직하다.In addition, the structure of additional music data is not limited to the example of the said embodiment. For example, it may represent a melody different from the main melody, or may add an instrument sound. In the case where the additional music data is configured as described above, the partial music data is preferably formed so as to show the transition of the performance sound constituting the main tune.
또한, 상기 실시 형태의 노래방 악곡 집배 처리에 있어서의 S370에서는, 악곡 데이터를 형성하는 연주음마다, 텔롭 데이터를 구성하는 각 문자를 문자열의 선두로부터 할당함으로써 가사 데이터를 생성하고 있었지만, 가사 데이터 생성 방법은 이것으로 한정되는 것은 아니다. 예를 들어, 당해 시스템(1)의 사용자가, 텔롭 데이터를 구성하는 각 문자를 연주음에 수동으로 할당해도 좋고, 음성 인식의 방법을 사용하여 자동으로 할당해도 좋다.Further, in S370 in the karaoke music collection process of the above embodiment, the lyrics data is generated by allocating each character constituting the telo data from the beginning of the character string for each performance sound forming the music data. Is not limited to this. For example, the user of the system 1 may manually assign each character constituting the telop data to a performance sound, or may automatically assign it using a method of speech recognition.
특히, 상기 실시 형태의 노래방 악곡 집배 처리에 있어서, 노래방 악곡 데이터를 생성할 때에는(즉, S380에서는), 악곡 데이터, 가사 데이터, 시간 정보, 곡 번호 데이터 및 곡명 데이터에, 배경 동영상을 추가한 데이터를 노래방 악곡 데이터로서 생성해도 좋다.In particular, in the karaoke music collection processing of the above embodiment, when generating karaoke music data (i.e., in S380), data in which a background video is added to music data, lyrics data, time information, song number data, and song name data May be generated as karaoke music data.
또한, 상기 실시 형태에 있어서의 노래방 악곡 데이터 작성 처리 및 노래방 악곡 집배 처리로 생성되는 데이터는 노래방 악곡 데이터로 한정되는 것은 아니다. 예를 들어, 악곡 데이터만을 생성하여 기억 장치(32)에 저장해도 좋다.In addition, the data produced | generated by the karaoke music data creation process and karaoke music collection process in the said embodiment is not limited to karaoke music data. For example, only music data may be generated and stored in the
또한, 상기 실시 형태에 있어서의 클라이언트 장치(10)는, 예를 들어 가정용 텔레비전 게임 기기로서 구성된 것이라도 좋고, 휴대 전화 장치로서 구성된 것이라도 좋다.In addition, the
[실시 형태와 특허청구의 범위의 대응 관계]Correspondence between Embodiments and Claims
마지막으로, 상기 실시 형태의 기재와, 특허청구의 범위의 기재의 관계를 설명한다.Finally, the relationship between the description of the above embodiment and the description of the claims is explained.
상기 실시 형태에 있어서의 노래방 악곡 데이터 생성 처리의 S130 내지 S170을 클라이언트 장치(10)의 제어부(20)가 실행함으로써 얻어지는 기능이, 본 발명의 부분 작곡 수단의 일례이다. 노래방 악곡 집배 처리의 S360을 서버 장치(30)의 제어 장치(35)가 실행함으로써 얻어지는 기능이, 본 발명의 데이터 추가 수단의 일례이다. 즉, 상기 실시 형태에 있어서의 노래방 악곡 데이터 생성 처리의 S130 내지 S170 및 노래방 악곡 집배 처리의 S360에 의해 얻어지는 기능이, 본 발명의 악곡 데이터 생성 수단의 일례이다.The function obtained by the
또한, 상기 실시 형태에 있어서의 노래방 악곡 집배 처리의 S380을 서버 장치(30)의 제어 장치(35)가 실행함으로써 얻어지는 기능이, 본 발명의 기억 제어 수단의 일례이다. 노래방 악곡 집배 처리의 S390 및 S410을 서버 장치(30)의 제어 장치(35)가 실행함으로써 얻어지는 기능이, 본 발명의 데이터 분배 수단의 일례이다.In addition, the function obtained by the
또한, 상기 실시 형태의 노래방 악곡 데이터 생성 처리의 S180 내지 S250을 클라이언트 장치(10)의 제어부(20)가 실행함으로써 얻어지는 기능 및 노래방 악곡 집배 처리의 S310 내지 S340 및 S370을 서버 장치(30)의 제어 장치(35)가 실행함으로써 얻어지는 기능이, 본 발명의 가사 데이터 생성 수단의 일례이다.The
1 : 통신 노래방 시스템
5 : 노래방 악곡 데이터 집배 시스템
10 : 클라이언트 장치
11 : 통신부
12 : 기억부
13 : 표시부
14 : 조작 접수부
15 : 음성 입력부
16 : 음성 출력부
17 : 마이크로폰
18 : 스피커
20 : 제어부
21, 36 : CPU
22, 37 : RAM
23, 38 : ROM
30 : 서버 장치
31 : I/F부
32 : 기억 장치
35 : 제어 장치
40 : 노래방 시스템
45 : 노래방 서버
46 : 기억 기구
47 : 마이크로 컴퓨터
48 : 노래방 단말
51 : 지령 접수부
52 : 음원 발생부
53 : 제어 기구
54 : 스피커
55 : 마이크로폰
56 : 표시 기구1: communication karaoke system
5: karaoke music data collection system
10: client device
11: communication unit
12: memory
13 display unit
14: operation reception unit
15: voice input unit
16: audio output unit
17: microphone
18: speaker
20: control unit
21, 36: CPU
22, 37: RAM
23, 38: ROM
30: server device
31: I / F part
32: storage device
35: control unit
40: Karaoke System
45: Karaoke Server
46: storage mechanism
47: microcomputer
48: karaoke terminal
51: command reception unit
52: sound source generation unit
53: control mechanism
54: speaker
55: microphone
56 display mechanism
Claims (10)
상기 악곡 데이터를 적어도 포함하는 음악 데이터를, 그 음악 데이터에 포함되는 악곡 데이터에 따라서 연주음을 재생하는 외부 장치에 분배하는 데이터 분배 수단을 구비하는 것을 특징으로 하는, 데이터 집배 시스템.Music data generating means for generating music data indicative of sound transition based on the pitch of the voices sequentially input;
And data distribution means for distributing music data including at least the music data to an external device for reproducing a performance sound in accordance with the music data contained in the music data.
순차적으로 입력되는 음성의 음 높이를 추정하여, 그 추정 결과인 음 높이 추정 결과에 기초하여, 음의 추이를 나타내는 악곡 데이터를 생성하는 것을 특징으로 하는, 데이터 집배 시스템.The music composition generating means according to claim 1, wherein
And estimating the pitch of the voices sequentially input, and generating music data indicating the trend of the pitch based on the result of the estimation of the pitch.
소정의 연주음의 추이를 나타내는 악곡 데이터를 생성하는 것을 특징으로 하는, 데이터 집배 시스템.The music composition generating means according to claim 2, wherein
A music collecting system, characterized by generating music data indicating a transition of a predetermined playing sound.
상기 데이터 분배 수단은,
상기 외부 장치에, 상기 기억 장치에 기억되어 있는 음악 데이터 중, 외부로부터 입력된 지령에 의해 선택된 음악 데이터를 분배하는 것을 특징으로 하는, 데이터 집배 시스템.The apparatus according to claim 1, further comprising storage control means for storing music data including at least music data generated by said music data generating means in a storage device,
The data distribution means,
And the music data selected by a command input from the outside among the music data stored in the storage device, to the external device.
순차적으로 입력되는 음성의 음 높이에 기초하여 생성한 악곡 데이터에, 미리 생성 종료된 악곡 데이터를 조합하여 새로운 악곡 데이터를 생성하는 것을 특징으로 하는, 데이터 집배 시스템.The music composition generating means according to claim 3, wherein
And a new piece of music data generated by combining previously generated piece of music data with pieces of music data generated on the basis of the pitch of voices sequentially input.
상기 음 높이 추정 결과에 기초하여, 상기 연주음의 추이의 일부분을 나타내는 부분 악곡 데이터를 생성하는 부분 작곡 수단과,
상기 부분 악곡 데이터에 대응하는 부분 이외의 상기 연주음의 추이를 나타내는 데이터로서 미리 생성된 것을 부가 악곡 데이터로 하고, 상기 부분 작곡 수단으로 생성된 부분 악곡 데이터에 상기 부가 악곡 데이터를 추가함으로써, 상기 새로운 악곡 데이터를 생성하는 데이터 추가 수단을 구비하는 것을 특징으로 하는, 데이터 집배 시스템.The music composition generating means according to claim 5, wherein
Partial composition means for generating partial music data representing a part of the transition of the performance sound, based on the tone height estimation result;
By adding the additional music data as the data representing the transition of the performance sound other than the part corresponding to the partial music data, the additional music data is added to the partial music data generated by the partial composition means. And data adding means for generating music data.
상기 클라이언트 장치는 상기 부분 작곡 수단을 구비하고,
상기 데이터 집배 장치는 상기 데이터 추가 수단, 상기 기억 제어 수단 및 상기 데이터 분배 수단을 구비하고 있는 것을 특징으로 하는, 데이터 집배 시스템.7. The apparatus according to claim 6, comprising a client device and a data collecting device,
The client device comprises the partial composition means,
And said data collecting device comprises said data adding means, said storage control means and said data distributing means.
상기 음악 데이터는 상기 악곡 데이터 및 상기 가사 데이터를 적어도 포함하는 것을 특징으로 하는, 데이터 집배 시스템.8. The apparatus according to claim 7, further comprising lyrics data generating means for generating lyrics data indicative of lyrics corresponding to each of the playing tones in response to an input from the outside.
And the music data includes at least the music data and the lyrics data.
상기 가사 데이터 생성 수단으로 생성된 가사 데이터를, 상기 악곡 데이터에 추가한 것을 상기 음악 데이터로 하는 것을 특징으로 하는, 데이터 집배 시스템.The method of claim 8, wherein the memory control means,
And the lyrics data generated by the lyrics data generating means is added to the music data as the music data.
상기 데이터 집배 시스템의 상기 데이터 분배 수단에 의해 분배된 음악 데이터를 기억하는 노래방 서버와,
외부로부터 입력된 지령에 따라서, 상기 노래방 서버에 기억된 음악 데이터 중으로부터, 상기 지령에 기초하는 음악 데이터를 선택하여, 그 음악 데이터에 포함되는 악곡 데이터에 따라서 상기 연주음을 재생하는 노래방 장치를 구비하는 것을 특징으로 하는, 통신 노래방 시스템.Music data generating means for generating music data indicating a sound transition based on the pitch of the voices sequentially input, and music data including at least the music data in accordance with the music data included in the music data A data distribution system having data distribution means for distributing sound to an external device for reproducing sound;
A karaoke server that stores music data distributed by the data distribution means of the data distribution system;
And a karaoke apparatus that selects music data based on the command from among music data stored in the karaoke server according to a command input from the outside, and reproduces the playing sound according to the music data contained in the music data. Communication karaoke system, characterized in that.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JPJP-P-2009-163853 | 2009-07-10 | ||
JP2009163853A JP5439994B2 (en) | 2009-07-10 | 2009-07-10 | Data collection / delivery system, online karaoke system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20110005653A true KR20110005653A (en) | 2011-01-18 |
Family
ID=43595801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100066148A KR20110005653A (en) | 2009-07-10 | 2010-07-09 | Data collection and distribution system, communication karaoke system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5439994B2 (en) |
KR (1) | KR20110005653A (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5660408B1 (en) * | 2013-08-29 | 2015-01-28 | ブラザー工業株式会社 | Posted music performance system and posted music performance method |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06149800A (en) * | 1992-11-16 | 1994-05-31 | Brother Ind Ltd | Document processor |
JPH09152865A (en) * | 1995-11-30 | 1997-06-10 | Sony Corp | Automatic voice transcription device |
JP3834963B2 (en) * | 1996-10-23 | 2006-10-18 | ヤマハ株式会社 | Voice input device and method, and storage medium |
JP3806196B2 (en) * | 1996-11-07 | 2006-08-09 | ヤマハ株式会社 | Music data creation device and karaoke system |
JP3704980B2 (en) * | 1997-12-17 | 2005-10-12 | ヤマハ株式会社 | Automatic composer and recording medium |
JP2001075992A (en) * | 1999-09-07 | 2001-03-23 | Hitachi Ltd | Method and system for sound retrieval and computer- readable recording medium |
JP3666364B2 (en) * | 2000-05-30 | 2005-06-29 | ヤマハ株式会社 | Content generation service device, system, and recording medium |
JP3801005B2 (en) * | 2001-09-25 | 2006-07-26 | ヤマハ株式会社 | Songwriting device and songwriting program |
JP3812437B2 (en) * | 2001-12-25 | 2006-08-23 | ヤマハ株式会社 | System and program for providing music media composed of auto verbs and compositions via communication network |
JP3903864B2 (en) * | 2002-07-16 | 2007-04-11 | ヤマハ株式会社 | Program for realizing automatic composition device and automatic composition method |
JP3804668B2 (en) * | 2004-04-12 | 2006-08-02 | ヤマハ株式会社 | Lyrics creation device, lyric creation method, and computer-readable recording medium recording lyric creation program |
-
2009
- 2009-07-10 JP JP2009163853A patent/JP5439994B2/en active Active
-
2010
- 2010-07-09 KR KR1020100066148A patent/KR20110005653A/en not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
JP2011017987A (en) | 2011-01-27 |
JP5439994B2 (en) | 2014-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100658869B1 (en) | Music generating device and operating method thereof | |
WO2006112585A1 (en) | Operating method of music composing device | |
JP2009244789A (en) | Karaoke system with guide vocal creation function | |
JP6452229B2 (en) | Karaoke sound effect setting system | |
JP6288197B2 (en) | Evaluation apparatus and program | |
JP2007140165A (en) | Karaoke device and program for karaoke device | |
JP6102076B2 (en) | Evaluation device | |
JP4491743B2 (en) | Karaoke equipment | |
JP4271667B2 (en) | Karaoke scoring system for scoring duet synchronization | |
JP2006251697A (en) | Karaoke device | |
JP4218066B2 (en) | Karaoke device and program for karaoke device | |
JP6252420B2 (en) | Speech synthesis apparatus and speech synthesis system | |
JP2006301019A (en) | Pitch-notifying device and program | |
JP2013210501A (en) | Synthesis unit registration device, voice synthesis device, and program | |
JP6219750B2 (en) | Singing battle karaoke system | |
KR20110005653A (en) | Data collection and distribution system, communication karaoke system | |
JP6954780B2 (en) | Karaoke equipment | |
JP4218064B2 (en) | Karaoke device and program for karaoke device | |
JPH11249674A (en) | Singing marking system for karaoke device | |
JP3974069B2 (en) | Karaoke performance method and karaoke system for processing choral songs and choral songs | |
JP6144593B2 (en) | Singing scoring system | |
JP2009244607A (en) | Duet part singing generation system | |
JP2007233078A (en) | Evaluation device, control method, and program | |
JP4218065B2 (en) | Karaoke device and program for karaoke device | |
JP4186982B2 (en) | Karaoke device and program for karaoke device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |